A Nvidia anunciou em 15 de dezembro de 2025 a aquisição da SchedMD, empresa por trás do desenvolvimento e suporte do Slurm, um dos gerenciadores de cargas de trabalho (workload manager) mais usados em HPC (computação de alto desempenho) e, cada vez mais, em clusters de IA generativa. Os termos financeiros não foram divulgados e a Nvidia afirmou que o Slurm continuará open source, com suporte e evolução mantidos.
A SchedMD foi fundada em 2010 pelos desenvolvedores do Slurm, Morris “Moe” Jette e Danny Auble, para profissionalizar a manutenção, suporte e evolução do projeto.
O Slurm (muito associado ao significado “Simple Linux Utility for Resource Management”) é, na prática, o “sistema nervoso” de muitos ambientes de computação intensiva: ele fila, agenda e aloca recursos como CPU, GPU, memória e nós de cluster para executar jobs grandes, paralelos e concorrentes, típicos de treino e inferência de modelos.
A aquisição faz sentido quando se olha para a infraestrutura de IA como uma pilha: chips, rede, bibliotecas, frameworks e, acima disso, a camada que decide quem usa o quê, quando e com qual prioridade. É nessa camada que o Slurm opera.
Na prática, ao trazer a SchedMD para dentro de casa, a Nvidia ganha mais capacidade de:
Para quem opera ou contrata infraestrutura de IA, a notícia tem três leituras objetivas:
O Slurm vai deixar de ser open source?
A Nvidia afirmou que seguirá distribuindo e desenvolvendo o Slurm como open source.
Isso impacta só supercomputadores ou também IA corporativa?
Impacta os dois. O Slurm é amplamente usado em HPC e também em clusters voltados a treino e inferência de IA, onde a eficiência de agendamento influencia custo e tempo de execução.
Para quem usa cloud, isso importa?
Sim, porque a “inteligência” de alocação de recursos em ambientes com GPUs é um fator direto de custo, throughput e governança de filas, inclusive em clouds e provedores especializados.