Nos últimos três anos, a Nvidia (NVDA 0,86%) transformou-se de um player de semicondutores de nicho na empresa mais valiosa do mundo, impulsionada principalmente por suas GPUs. As unidades de processamento gráfico da Nvidia tornaram-se o motor da revolução da inteligência artificial (IA), alimentando desde modelos de linguagem extensos (LLMs) até veículos autônomos, robótica e renderização de vídeo de alta qualidade. No entanto, embora a posição da Nvidia pareça inabalável, um novo desafiante está surgindo. A startup Cerebras faz alegações audaciosas de que seus chips podem processar modelos de IA 20 vezes mais rápido que o hardware da Nvidia. Essa promessa ambiciosa tem levado investidores a questionar se o reinado da Nvidia pode finalmente enfrentar um concorrente sério.
A explicação do chip de escala de wafer da Cerebras: um motor gigante para IA. Para entender o motivo por trás do burburinho em torno da Cerebras, os investidores precisam analisar como ela está quebrando as regras do design tradicional de chips. As GPUs da Nvidia são processadores pequenos, mas potentes, que precisam ser agrupados – às vezes em dezenas de milhares – para realizar os cálculos extensos necessários para treinar modelos modernos de IA. Esses agrupamentos oferecem um desempenho incrível, mas também introduzem ineficiências. Cada chip precisa constantemente transferir dados para seus vizinhos por meio de equipamentos de rede de alta velocidade, o que gera atrasos
na comunicação, eleva os custos de energia e aumenta a complexidade técnica. A Cerebras inverteu esse modelo. Em vez de conectar milhares de chips menores, ela possui um único processador massivo do tamanho de uma bolacha de silício inteira – apropriadamente chamado de Wafer Scale Engine. Dentro dessa única peça de silício, existem centenas de milhares de núcleos que trabalham em conjunto sem problemas. Como tudo acontece em uma arquitetura unificada, os dados não precisam mais circular entre os chips, aumentando drasticamente a velocidade e, ao mesmo tempo, reduzindo o consumo de energia.
Por que a Cerebras acredita que pode superar a Nvidia. A grande ideia da Cerebras é a eficiência. Ao eliminar a necessidade de comunicação entre chips, seu processador de escala de wafer mantém todo um modelo de IA dentro de um único chip, cortando tempo e energia desperdiçados. É daí que vem a afirmação da Cerebras de desempenho 20 vezes mais rápido. A inovação não está na velocidade do clock bruto, mas sim na otimização da maneira como os dados se movem e na eliminação de gargalos. A vantagem prática dessa arquitetura é a simplicidade. Em vez de gerenciar, resfriar e sincronizar dezenas de milhares de GPUs, um único sistema Cerebras pode ocupar apenas um rack e estar pronto para implantação, traduzindo-se em economia significativa nos custos de infraestrutura de IA.
Por que a Nvidia ainda reina. Apesar do hype, a Cerebras ainda enfrenta riscos. Fabricar um chip desse tamanho é um quebra-cabeça de engenharia. As taxas de rendimento podem flutuar, e mesmo um pequeno defeito em qualquer lugar da bolacha pode comprometer uma parte significativa do processador. Isso torna a escalabilidade de um modelo pesado em wafers cara e incerta. A Nvidia continua sendo a líder incontestável em computação de IA. Além de seu hardware poderoso, a plataforma de software CUDA da Nvidia criou um ecossistema profundamente enraizado no qual praticamente todos os principais hiperescaladores constroem suas aplicações de IA generativa. Substituir esse tipo de fosso competitivo exige mais do que hardware de ponta – exige uma mudança completa na forma como as empresas projetam e implantam a IA, forçando-as a considerar o ônus operacional dos custos de mudança. Dito isso, o mercado total endereçável (TAM) para chips de IA está se expandindo rapidamente, deixando espaço para que novas arquiteturas coexistam com as empresas estabelecidas, como a Nvidia. Por exemplo, as unidades de processamento tensor (TPUs) da Alphabet são adaptadas para tarefas de aprendizado profundo, enquanto as GPUs da Nvidia servem como ferramentas versáteis e de uso geral. Essa dinâmica sugere que a Cerebras pode criar seu próprio nicho no reino dos chips de IA sem precisar destronar a Nvidia completamente.
Como investir em ações da Cerebras. A Cerebras explorou anteriormente uma oferta pública inicial (IPO) e até publicou um rascunho de documento S-1 no final do ano passado. No entanto, após uma rodada recente de financiamento de US$ 1,1 bilhão, a empresa parece ter interrompido seus planos de IPO. Por enquanto, investir na Cerebras é amplamente limitado a investidores credenciados, empresas de capital de risco (VC) e fundos de private equity. Para investidores comuns, a abordagem mais prática é manter as líderes estabelecidas em chips, como Nvidia, Advanced Micro Devices, Taiwan Semiconductor Manufacturing, ou parceiros auxiliares como Broadcom ou Micron Technology – todos os quais estão prontos para se beneficiar do crescimento explosivo dos gastos com infraestrutura de IA.
📝 Sobre este conteúdo
Esta matéria foi adaptada e reescrita pela equipe editorial do TudoAquiUSA
com base em reportagem publicada em
Fool
. O texto foi modificado para melhor atender nosso público, mantendo a precisão
factual.
Veja o artigo original aqui.
0 Comentários
Entre para comentar
Use sua conta Google para participar da discussão.
Política de Privacidade
Carregando comentários...
Escolha seus interesses
Receba notificações personalizadas