O euro valorizou-se nas negociações europeias de segunda-feira face a uma cesta de moedas principais, tentando recuperar da mínima de duas semanas frente ao dólar americano, impulsionado pela procura por preços mais baixos e por uma pausa na recente valorização do dólar antes da divulgação de dados importantes sobre a inflação nos EUA.
Com a incerteza ainda pairando sobre a probabilidade de um corte na taxa de juros pelo Banco Central Europeu em dezembro, os investidores aguardam ansiosamente o discurso da presidente do BCE, Christine Lagarde, que deverá trazer novas pistas sobre a trajetória da política monetária da zona do euro.
Visão geral de preços
• O par EUR/USD subiu 0,15%, para US$ 1,1528, após ter aberto a US$ 1,1511 e atingido a mínima da sessão de US$ 1,1502.
• O euro encerrou a sessão de sexta-feira em queda de 0,15% em relação ao dólar, marcando a sexta perda diária consecutiva e atingindo a mínima de duas semanas a US$ 1,1491, pressionado por dados fracos dos setores industrial e de serviços em toda a Europa.
• Durante a semana, o euro caiu 0,95% — sua maior queda semanal desde o final de julho — à medida que os investidores se concentraram na compra do dólar americano, considerado o ativo mais atraente no cenário atual.
dólar americano
O índice do dólar caiu 0,1% na segunda-feira, recuando da máxima de seis meses de 100,40, refletindo uma pausa no ímpeto de alta da moeda americana.
Além da realização de lucros, os investidores estão relutantes em abrir novas posições compradas antes da divulgação de dados importantes sobre a inflação nos EUA, que devem fornecer evidências mais claras sobre se o Federal Reserve manterá as taxas de juros inalteradas em dezembro.
Tarifas europeias
• Os preços de mercado refletem atualmente uma probabilidade de cerca de 25% de um corte de 25 pontos base na taxa de juro do BCE em dezembro.
• Os investidores aguardam dados adicionais da zona do euro sobre inflação, desemprego e salários para reavaliar essas expectativas.
• A presidente do BCE, Christine Lagarde, fará um importante discurso ainda hoje, que deverá abordar a evolução recente da inflação e as perspectivas para as taxas de juros europeias.
Perspectivas para o Euro
• Segundo o Economies.com: se os comentários de Lagarde soarem menos agressivos, as expectativas de um corte na taxa de juros do BCE em dezembro se fortalecerão, exercendo pressão adicional de baixa sobre o euro em relação a uma cesta de moedas.
O iene japonês se desvalorizou nas negociações asiáticas nesta segunda-feira em relação a uma cesta de moedas principais e secundárias, retomando sua queda após uma breve pausa na sessão anterior frente ao dólar americano, e se aproximando novamente de seus níveis mais baixos em dez meses. A moeda permanece sob clara pressão em meio a persistentes preocupações com as políticas de estímulo econômico da primeira-ministra Sanae Takaichi.
Ao mesmo tempo, os analistas veem pouca chance de intervenção direta para sustentar o iene antes que ele atinja 160 por dólar. Os investidores também aguardam mais indícios sobre o caminho do Banco do Japão rumo à normalização da política monetária e possíveis aumentos das taxas de juros.
Visão geral de preços
• O par USD/JPY subiu cerca de 0,3%, para 156,80 ienes, após abrir em 156,37 ienes e atingir a mínima da sessão de 156,37 ienes.
• O iene encerrou a sessão de sexta-feira com uma valorização de 0,7% em relação ao dólar — seu primeiro avanço em seis dias — impulsionado por compras a preços atrativos após atingir a mínima de dez meses de 157,89 no dia anterior.
• A moeda perdeu 1,2% na semana passada, marcando a segunda queda semanal consecutiva, pressionada pelo pacote de estímulo de Takaichi.
Políticas de Estímulo de Takaichi
O gabinete do Japão, liderado por Sanae Takaichi, aprovou na semana passada um pacote de estímulo econômico de 21 trilhões de ienes (135 bilhões de dólares) — a primeira grande iniciativa política do governo. O programa reflete sua abordagem fiscal expansionista, que visa apoiar a lenta atividade econômica do Japão.
O pacote inclui 17,7 trilhões de ienes em gastos da conta geral, superando em muito os 13,9 trilhões de ienes do ano passado, o que o torna o maior estímulo desde o início da pandemia de COVID-19. Também inclui 2,7 trilhões de ienes em cortes de impostos. O governo planeja aprovar um orçamento suplementar em 28 de novembro para garantir a aprovação parlamentar antes do final do ano.
Opiniões e análises
• Christopher Wong, estrategista de câmbio do OCBC, afirmou que a intervenção não está descartada antes que o USD/JPY atinja 160, acrescentando que qualquer movimento poderá ser brusco, dadas as condições de baixa liquidez.
• Michael Boutros, estrategista-chefe da StoneX, observou uma disputa contínua entre o Banco do Japão e o novo primeiro-ministro, que é "altamente pró-negócios e quer que os mercados permaneçam muito confortáveis".
• Boutros acrescentou: “Não creio que eles mudem as taxas tão cedo. O que podemos ver, em vez disso, é conversa sobre intervenção e mais avisos à medida que essas medidas continuam.”
Taxas de juros japonesas
• O mercado atualmente precifica uma probabilidade de aproximadamente 35% de um aumento de 25 pontos-base na taxa de juros do Banco do Japão em dezembro.
• Para reavaliar essas probabilidades, os investidores estão acompanhando os próximos dados sobre inflação, desemprego e crescimento salarial no Japão.
As criptomoedas caíram em todos os setores na sexta-feira, ampliando as fortes perdas que as levaram muito abaixo dos picos recentes, com o Bitcoin caindo para menos de 82.000 dólares.
A queda ocorre em meio a apostas conflitantes sobre a política do Federal Reserve. O último relatório de empregos dos EUA diminuiu as esperanças de um corte na taxa de juros em dezembro, mas essas expectativas ressurgiram hoje após comentários de um alto funcionário do Fed.
John Williams, presidente do Federal Reserve de Nova York, disse na sexta-feira que espera que o banco central tenha maior margem de manobra para reduzir as taxas de juros.
O influente membro do comitê explicou, durante um discurso no Chile, que considera os riscos para o mercado de trabalho maiores do que os relacionados à inflação — ecoando as opiniões dos membros mais moderados do FOMC.
Williams acrescentou: “Considero que a política monetária ainda é moderadamente restritiva, embora menos do que antes das nossas recentes ações. Portanto, continuo a ver espaço para um ajuste adicional a curto prazo na meta para a taxa de juros dos fundos federais, a fim de aproximar a política da neutralidade e manter o equilíbrio entre os nossos dois objetivos.”
De acordo com a ferramenta CME FedWatch, a probabilidade de um corte de 25 pontos-base na taxa de juros na reunião de dezembro subiu para 75%, ante 39% no dia anterior e 44,4% há uma semana.
Dados governamentais divulgados hoje mostraram que o PMI (Índice de Gerentes de Compras) do setor manufatureiro dos EUA caiu para 51,9 em novembro, ante 52,5 anteriormente, valor próximo às expectativas de 52.
Entretanto, o PMI de serviços subiu para 55 neste mês, ante 54,8, contrariando as previsões de queda para 54,6.
A pesquisa de sentimento do consumidor da Universidade de Michigan também apresentou melhora, subindo de 50,3 para 51 e superando as expectativas de 50,6.
Ethereum
Em relação às negociações, o Ethereum caiu 3,7%, para 2.739,9 dólares, às 21h11 GMT, elevando suas perdas na semana para 13,2%.
A Nvidia superou todas as expectativas na quarta-feira, anunciando lucros exorbitantes impulsionados por suas unidades de processamento gráfico (GPUs) que se destacam no processamento de cargas de trabalho de inteligência artificial. Mas outras classes de chips de IA estão começando a ganhar força.
Todos os principais provedores de nuvem estão agora projetando seus próprios circuitos integrados de aplicação específica (ASICs), desde o TPU do Google até o Trainium da Amazon, passando pelos planos da OpenAI com a Broadcom. Esses chips são menores, mais baratos, mais fáceis de usar e podem reduzir a dependência dessas empresas das GPUs da Nvidia. Daniel Newman, do Futurum Group, disse à CNBC que espera que os chips ASIC "cresçam mais rápido do que o mercado de GPUs nos próximos anos".
Além das GPUs e dos ASICs, existem os FPGAs (Field-Programmable Gate Arrays), que podem ser reconfigurados após a fabricação para usos como processamento de sinais, redes e IA. E há toda uma geração de chips de IA projetados para funcionar diretamente em dispositivos, em vez de na nuvem — um segmento liderado por empresas como Qualcomm e Apple.
A CNBC conversou com especialistas e pessoas de dentro das principais empresas de tecnologia para analisar esse cenário competitivo e os diferentes tipos de chips de IA.
GPUs para computação de propósito geral
As GPUs, que antes eram usadas principalmente em videogames, transformaram a Nvidia na empresa de capital aberto mais valiosa do mundo ao se tornarem o motor da inteligência artificial moderna. A Nvidia vendeu aproximadamente 6 milhões de unidades de suas GPUs "Blackwell" de última geração no ano passado.
A transição dos jogos para a IA começou em 2012, quando pesquisadores treinaram a rede neural AlexNet usando GPUs da Nvidia — um avanço que muitos consideram o estopim da revolução moderna da IA. A AlexNet competiu em um concurso de reconhecimento de imagens de alto nível e utilizou GPUs em vez de CPUs, alcançando uma precisão impressionante e uma grande vantagem competitiva.
A mesma capacidade de processamento paralelo que torna as GPUs capazes de renderizar gráficos realistas também as torna ideais para treinar modelos de aprendizado profundo, que aprendem a partir de dados em vez de programação explícita.
Atualmente, as GPUs são vendidas para sistemas de data center em conjunto com CPUs para executar cargas de trabalho de IA baseadas em nuvem. As CPUs possuem alguns núcleos poderosos para tarefas sequenciais, enquanto as GPUs têm milhares de núcleos menores especializados em operações paralelas, como multiplicação de matrizes.
Graças à capacidade de executar um número massivo de operações simultaneamente, as GPUs são ideais tanto para treinamento quanto para inferência. O treinamento ensina os modelos de IA a encontrar padrões em grandes conjuntos de dados; a inferência utiliza esses modelos para tomar decisões com base em novas informações.
As GPUs continuam sendo o principal motor de processamento da Nvidia e de sua concorrente mais próxima, a AMD. O software é um diferencial fundamental entre elas: a Nvidia se baseia em seu ecossistema CUDA, enquanto a AMD oferece uma plataforma em grande parte de código aberto.
Ambas as empresas vendem GPUs em nuvem para provedores como Amazon, Microsoft, Google, Oracle e CoreWeave, que por sua vez alugam o poder computacional para desenvolvedores de IA.
O acordo de US$ 30 bilhões da Anthropologie com a Nvidia e a Microsoft, por exemplo, inclui o equivalente a 1 gigawatt de capacidade computacional baseada em hardware da Nvidia. A AMD também garantiu recentemente importantes compromissos da OpenAI e da Oracle.
A Nvidia também vende diretamente para governos e empresas de IA — incluindo pelo menos 4 milhões de GPUs para a OpenAI — e para governos estrangeiros, como os da Coreia do Sul, Arábia Saudita e Reino Unido.
A empresa informou à CNBC que cobra aproximadamente US$ 3 milhões por gabinete de servidor contendo 72 GPUs Blackwell e que envia cerca de 1.000 desses gabinetes por semana.
Dion Harris, diretor sênior de infraestrutura de IA da Nvidia, disse que jamais imaginou que a demanda cresceria a esse nível. "Quando conversávamos com empresas sobre um sistema com oito GPUs anos atrás, elas achavam que era um exagero."
ASICs para IA especializada em nuvem
O treinamento baseado em GPUs impulsionou a primeira onda de grandes modelos de linguagem, mas a inferência tornou-se cada vez mais importante à medida que os modelos amadurecem. A inferência pode ser executada em chips menos flexíveis e de menor custo, construídos especificamente para determinadas operações matemáticas — e é aí que entram os ASICs.
Se uma GPU é um "canivete suíço" capaz de executar diversas tarefas em paralelo, um ASIC é uma ferramenta de propósito único — extremamente rápida e eficiente, mas limitada a um único tipo de operação após a fabricação.
“Não é possível alterar esses chips depois que eles são gravados no silício”, disse Chris Miller, autor de *Chip War*. “Há uma relação de compromisso entre eficiência e flexibilidade.”
As GPUs da Nvidia são versáteis o suficiente para atender a inúmeras necessidades de IA, mas são caras (chegando a custar US$ 40.000 por unidade) e difíceis de obter. As startups dependem delas em parte porque projetar um ASIC personalizado pode custar dezenas de milhões.
No entanto, as gigantes da computação em nuvem estão investindo pesadamente em ASICs porque eles prometem grandes economias em larga escala.
“Essas empresas querem mais controle sobre as cargas de trabalho que criam”, disse Newman. “Mas elas continuarão trabalhando com a Nvidia e a AMD — a demanda por computação é enorme.”
O Google foi o primeiro a construir um ASIC de IA personalizado, lançando a Unidade de Processamento Tensorial (TPU) em 2015. O trabalho começou em 2006, mas tornou-se urgente em 2013, quando o Google percebeu que a IA poderia dobrar o tamanho de sua infraestrutura de data centers. Em 2017, a TPU ajudou a viabilizar a arquitetura Transformer, que sustenta a maior parte da IA moderna.
Em novembro, o Google revelou a TPU de sétima geração. A Anthropic treinará seu modelo Claude em um milhão de TPUs. Alguns acreditam que as TPUs rivalizam — ou superam — as GPUs da Nvidia.
“Muitas pessoas esperam que o Google eventualmente disponibilize as TPUs de forma mais ampla”, disse Miller.
Após adquirir a Annapurna Labs em 2015, a AWS lançou seus próprios chips. Em 2018, lançou o Inferentia e, em 2022, o Trainium3, com previsão de lançamento em breve.
A Amazon afirma que o Trainium oferece uma relação custo-benefício de 30% a 40% melhor do que as alternativas. A Anthropic utiliza atualmente meio milhão de chips Trainium2 para treinar seus modelos.
Para construir ASICs personalizados, os provedores de nuvem dependem de empresas como a Broadcom e a Marvell, que fornecem propriedade intelectual essencial e conhecimento especializado em redes. "É por isso que a Broadcom se tornou uma das maiores vencedoras do boom da IA", disse Miller.
A Broadcom ajudou a projetar as TPUs do Google e os aceleradores da Meta de 2023 e está construindo chips personalizados para a OpenAI a partir de 2026.
A Microsoft desenvolveu o Maia 100. A Qualcomm tem o A1200. A Intel oferece a linha Gaudi. A Tesla está trabalhando em seu chip AI5. Startups como Cerebras e Groq estão impulsionando arquiteturas inovadoras.
Na China, a Huawei, a ByteDance e a Alibaba estão projetando seus próprios ASICs, apesar das restrições de exportação dos EUA.
Inteligência artificial em nível de dispositivo com NPUs e FPGAs
Uma terceira categoria de chips de IA é projetada para executar modelos diretamente nos dispositivos, em vez de por meio da nuvem. Esses chips são normalmente integrados a sistemas em chip (SoC) e são conhecidos como processadores de IA de borda. Eles permitem que os recursos de IA sejam executados localmente e com eficiência, preservando a duração da bateria e a privacidade.
“Você poderá executar tarefas de IA diretamente no seu telefone com latência extremamente baixa”, disse Saif Khan, ex-conselheiro de IA e tecnologia da Casa Branca. “E sem enviar dados para um centro de dados.”
As Unidades de Processamento Neural (NPUs) são uma parte importante dessa categoria, desenvolvidas pela Qualcomm, Intel, AMD e outras empresas.
A Apple não usa o termo NPU, mas incorpora um "motor neural" em seus chips da série M para Mac e em seus chips da série A para dispositivos móveis.
“Essa abordagem provou ser incrivelmente eficaz”, disse Tim Millet, vice-presidente de arquitetura de plataforma da Apple. “É rápida e nos dá mais controle sobre a experiência.”
Os chips Snapdragon em celulares Android, as NPUs personalizadas da Samsung e os processadores de IA de ponta da NXP e da Nvidia alimentam a IA em carros, robôs, câmeras e dispositivos domésticos inteligentes.
“A maior parte dos gastos hoje ainda está em centros de dados”, disse Miller. “Mas isso vai mudar à medida que a IA se espalhar para telefones, carros, dispositivos vestíveis e tudo mais.”
Os FPGAs oferecem ainda mais flexibilidade, pois podem ser reprogramados após a fabricação, embora sejam menos eficientes em termos de energia do que os ASICs ou NPUs.
A AMD se tornou a maior fabricante de FPGAs após adquirir a Xilinx por US$ 49 bilhões em 2022. A Intel ocupa o segundo lugar depois de comprar a Altera por US$ 16,7 bilhões em 2015.
Resumindo: a Nvidia ainda está muito à frente.
Todas essas empresas de chips de IA dependem de um único fabricante: a TSMC, em Taiwan.
A TSMC está construindo uma enorme fábrica no Arizona, para onde a Apple transferirá parte de sua produção. O CEO da Nvidia, Jensen Huang, afirmou em outubro que as GPUs Blackwell também atingiram a "produção plena" naquele local.
Apesar do mercado cada vez mais concorrido, desbancar a Nvidia continua sendo extremamente difícil.
“A Nvidia está nessa posição porque a conquistou”, disse Newman. “Ela passou anos construindo esse ecossistema de desenvolvedores — e foi ela que venceu.”