28 de jan de 2025 · 24-Hour AI Briefing: NVIDIA adota parceria “não essencial” com a Intel para Feynman, DeepSeek-OCR 2 mira automação, Qwen3-Max-Thinking chega a 1T, e o Google Cloud sobe preços

As quatro notícias de hoje apontam para a mesma virada: a disputa de IA está migrando de “tamanho de modelo” para “capacidade de entrega”—resiliência de supply chain, custo por unidade, confiabilidade enterprise e precificação do cloud em era de IA.

1. NVIDIA deve colaborar com a Intel no Feynman (2028) com estratégia “pouco volume, nível baixo, não essencial”

Comentário:
O die principal de GPU do Feynman permaneceria na TSMC, enquanto parte do I/O die poderia usar Intel 18A ou 14A. A leitura é clara: a NVIDIA ganha resiliência e poder de negociação, mas mantém o núcleo competitivo sob controle.
Para a Intel Foundry e packaging, mesmo um acordo pequeno e “não essencial” conta como validação de um cliente topo de linha. Transformar isso em pedidos relevantes, porém, depende de execução contínua em yield, estabilidade de entrega, custo e maturidade de ecossistema/IP—pontos em que a distância para a TSMC ainda importa.

2. DeepSeek lança DeepSeek-OCR 2: avanço no encoder visual

Comentário:
O OCR 2 se destaca por um novo encoder (DeepEncoder V2) e pelo mecanismo “Visual Causal Flow”, tentando elevar o modelo de “scanner de pixels” para um leitor com alguma inferência semântica.
Se conseguir combinar saída estruturada com boa ancoragem de referências/posições, pode reduzir custos de revisão humana e aumentar muito a utilidade de fluxos RPA/Agent em documentos e tabelas reais. Chamar de “grande ruptura” depende de desempenho em layouts complexos, robustez a entradas ruins e consistência da estrutura ao longo do tempo.

3. Alibaba publica Qwen3-Max-Thinking: 1T parâmetros e Thinking Mode

Comentário:
O Qwen3-Max-Thinking é apresentado com 1T de parâmetros totais e 36T tokens de pré-treino, além de um Thinking Mode que explicita raciocínio em múltiplos passos e autocorreção antes da resposta final.
A pergunta decisiva é operacional: custo de ativação, estabilidade do raciocínio e capacidade de gerar valor replicável no ecossistema Alibaba e em cenários enterprise. Em modelos gigantes, o mercado costuma reprecificar com base em workloads reais e economia por unidade, não em slogans.

4. Google Cloud aumenta preços e segue a AWS: o “fim” da guerra de preços vira uma questão por camadas

Comentário:
O Google Cloud elevará preços de transferência de dados a partir de 1º de maio de 2026: a América do Norte dobra (US$0,04/GiB → US$0,08/GiB), enquanto Europa e Ásia sobem cerca de 60% e 42%.
Com tráfego inter-regional explodindo por treino/inferência, HBM mais cara, GPUs premium restritas e CAPEX crescente em energia e liquid cooling, fica difícil sustentar o modelo clássico de “guerra de preços”. O sinal é estrutural: recursos ligados a IA entram em precificação por valor e gestão de oferta; cloud geral segue competitivo de forma mais contratual e menos visível. O próximo a aumentar será o Azure?

Fechamento:
Somando tudo, fica claro que “entrega” virou a palavra-chave. A próxima vantagem competitiva será de quem transformar modelo + compute em suprimento estável, escalável e sustentável para empresas.

Leitura complementar (os eventos de IA mais importantes das últimas 72 horas):

Autor: AediHora de Criação: 2026-01-28 06:59:33
Leia mais