Nas últimas 24 horas, três movimentos envolvendo chips, software corporativo e regulação de plataformas apontaram para a mesma tendência:
as grandes empresas de tecnologia não estão abandonando o controle — estão redesenhando a forma como esse controle é exercido.
Da colaboração entre Google e Meta para enfraquecer o lock-in do CUDA, passando pela tentativa da Microsoft de redefinir o banco de dados na era da IA, até a abertura cuidadosamente limitada da App Store da Apple no Japão, a competição entre plataformas de IA entra em uma fase mais estrutural.

O Google está trabalhando com a Meta para permitir que o PyTorch rode em TPUs com perda mínima de desempenho, reduzindo significativamente a barreira de migração para desenvolvedores que hoje dependem de GPUs. Ao mesmo tempo, a Meta busca alternativas às GPUs da NVIDIA devido aos altos preços e à instabilidade de fornecimento, e pode alugar — ou até adquirir — chips TPU do Google no futuro.
Comentário:
A capacidade da NVIDIA de manter margens elevadas por tanto tempo não se deve apenas a desempenho ou oferta. Seu verdadeiro fosso competitivo é o CUDA — um ecossistema que torna a troca cara, complexa e arriscada.
Por isso, a cooperação entre Google e Meta vai muito além de compatibilidade técnica ou otimização de custos. Trata-se de um ataque sistêmico ao domínio do ecossistema de IA da NVIDIA.
Historicamente, os TPUs estavam restritos ao Google Cloud, limitando o controle externo sobre dados e ritmo de implantação. Se grandes compradores como a Meta puderem alugar — ou eventualmente possuir — TPUs, esses chips deixam de ser um ativo fechado para se tornarem infraestrutura compartilhada.
O ponto crítico será se o Google conseguirá oferecer uma experiência realmente nativa de PyTorch sobre TPU.
Caso o PyTorch consiga alternar entre GPU, TPU e ASICs personalizados com fricção quase nula, grandes clientes passarão a comprar computação como compram eletricidade ou espaço em rack — capacidade antes de arquitetura.
Nesse cenário, a pressão recairá diretamente sobre a NVIDIA.
É notável que dois rivais históricos no mercado de publicidade agora cooperem na guerra dos chips, mas ainda não está claro se essa parceria avançará além do nível técnico.
A Microsoft anunciou o Azure HorizonDB, um novo serviço PostgreSQL de nível corporativo profundamente integrado aos modelos Foundry AI. A empresa afirma oferecer desempenho de busca vetorial até três vezes superior aos métodos tradicionais. Com arquitetura de armazenamento desacoplado e computação escalável, o HorizonDB é posicionado como concorrente direto do AWS Aurora para cargas de trabalho de IA.
Comentário:
O HorizonDB não é “apenas mais um Postgres gerenciado”.
Ele representa a tentativa da Microsoft de mover o eixo competitivo dos bancos de dados corporativos de OLTP/OLAP tradicionais para arquiteturas nativas de IA.
Hoje, as empresas geralmente seguem um de três caminhos:
Postgres com pgvector, bancos vetoriais independentes como Pinecone ou Milvus, ou soluções integradas de nuvem como Aurora, AlloyDB e Cloud SQL.
Ao colocar o desempenho de busca vetorial no centro da proposta, a Microsoft sinaliza claramente sua ambição: permitir que dados transacionais, embeddings e recuperação convivam em um único banco de dados, reduzindo complexidade operacional e riscos de inconsistência.
Se o HorizonDB entregar escalabilidade horizontal de computação, separação de leitura e escrita, failover rápido, elasticidade suave e custos competitivos, ele poderá influenciar de forma concreta as decisões de migração de médias e grandes empresas.
Estrategicamente, o alvo não é apenas o AWS Aurora, mas também Oracle e MongoDB.
A questão decisiva será se as empresas estarão dispostas a reestruturar seus sistemas de dados em torno do HorizonDB.
A Apple anunciou que permitirá lojas alternativas de aplicativos no iPhone no Japão para cumprir novas leis de concorrência. Desenvolvedores japoneses poderão lançar seus próprios marketplaces, com comissões mínimas de 5%. Pagamentos fora do sistema da Apple serão permitidos, mas ainda sujeitos a comissões.
Comentário:
A Apple não está abandonando a distribuição fechada — está convertendo uma regra absoluta em uma estrutura comercial baseada em conformidade regulatória.
Trata-se de uma abertura cuidadosamente desenhada. A Apple atende às exigências da Lei de Promoção da Concorrência de Software para Smartphones (MSCA) do Japão, enquanto preserva o controle do ecossistema por meio de comissões escalonadas, auditorias de segurança obrigatórias e exigência de oferta paralela de pagamentos.
Mesmo quando pagamentos de terceiros são ativados, a opção de compra dentro do aplicativo da Apple continua obrigatória. Os usuários seguem expostos ao fluxo de pagamento da Apple, e os desenvolvedores não conseguem eliminar totalmente as taxas.
Comparado ao modelo anterior de zero escolha, há mais flexibilidade — mas não descentralização real.
A grande incógnita agora é se o modelo regulatório japonês será replicado por outras regiões, como a União Europeia ou a Coreia do Sul.
Para quem deseja compreender melhor o contexto dessas mudanças, as análises abaixo são leituras recomendadas:
Do afrouxamento do lock-in computacional pelo PyTorch, passando pela redefinição dos bancos de dados na era da IA pela Microsoft, até a abertura controlada da Apple, um padrão se destaca:
as plataformas não estão abrindo mão do controle — estão redesenhando suas fronteiras.
Na era da IA, a competição não gira mais apenas em torno de quem possui o melhor modelo, mas de quem consegue definir os limites mais vantajosos entre abertura e dependência.
Essa nova fase da guerra entre plataformas de IA está apenas começando.