Elon Musk, o visionário e polêmico empresário, anunciou o “Colossus”, o maior supercomputador Nvidia do mundo, dedicado ao treinamento de inteligência artificial (IA) já está online desde o último final de semana. Trata-se de uma iniciativa da startup xAI, fundada por Musk em julho de 2023, a qual foi realizada em apenas 122 dias.
O “Colossus” está localizado em um novo centro de dados em Memphis, Tennessee, nos EUA, e é alimentado por 100.000 processadores Nvidia Hopper H100, mais do que qualquer outro cluster de computação de IA no mundo. Este supercomputador foi projetado para treinar o modelo de linguagem de grande escala (LLM) conhecido como Grok, que Musk espera que rivalize com o GPT-4 da OpenAI.
Potencial econômico e expansão futura do Colossus
Musk vê o projeto como um “farol estratégico” que pode eventualmente gerar US$ 1 trilhão em lucros anuais para a Tesla, caso o Grok seja integrado ao robô humanoide Optimus, da montadora de veículos elétricos.
O empresário também anunciou que a capacidade de computação do Colossus será dobrada nos próximos meses, com a adição de 50.000 chips da nova série H200 da Nvidia, que são aproximadamente duas vezes mais poderosos.
“Neste fim de semana, a equipe @xAI colocou nosso cluster de treinamento Colossus 100k H100 online. Do início ao fim, foi feito em 122 dias. O Colossus é o sistema de treinamento de IA mais poderoso do mundo. Além disso, ele dobrará de tamanho para 200k (50k H200s) em alguns meses. Excelente trabalho da equipe, da Nvidia e de nossos muitos parceiros/fornecedores”, escreveu Elon Musk em um post na rede social X.
Uma corrida contra o tempo no mundo da IA
A velocidade com que o Colossus foi construído é realmente impressionante, considerando que o local em Memphis foi escolhido em junho de 2024. Além disso, deve-se levar em conta que a competição por chips Hopper da Nvidia está intensa, com gigantes da tecnologia como Microsoft, Google e Amazon disputando para adquirir essas peças-chave na atual corrida do ouro da IA.
Mesmo assim, Musk garantiu uma posição privilegiada com a Nvidia, tendo prometido gastar entre US$ 3 bilhões e US$ 4 bilhões este ano em hardware, apenas para a Tesla.
Desafios e controvérsias locais do projeto
No entanto, o projeto Colossus não está isento de controvérsias. Isso porque, em Memphis, as autoridades locais já expressaram preocupações sobre a rápida aprovação do projeto e os possíveis impactos nos recursos da cidade. Para se ter uma ideia, estima-se que o Colossus exigirá até 1 milhão de galões de água por dia para resfriar os servidores e consumirá até 150 megawatts de potência elétrica.
Próximos passos da xAI
Mas o que vem por aí? Bem, a xAI já levantou US$ 6 bilhões em uma rodada de financiamento da Série B em maio de 2024, com o apoio de grandes investidores como Andreessen Horowitz, Sequoia Capital e Fidelity, além do príncipe saudita Alwaleed bin Talal. E agora, Musk está considerando propor ao conselho da Tesla um investimento adicional de US$ 5 bilhões na xAI, um movimento que pode fortalecer ainda mais a posição da empresa no campo da inteligência artificial.
Por fim, vale lembrar que o Grok-3, a próxima geração do modelo de linguagem de Musk, está previsto para ser lançado em dezembro e promete ser o mais poderoso do mundo.