À medida que a onda global da inteligência artificial generativa se intensifica, a Scale AI — outrora aclamada como uma força revolucionária na infraestrutura de IA — agora se vê no centro de um intenso escrutínio ético e operacional. Conhecida por fornecer dados cruciais de treinamento para gigantes como OpenAI e Anthropic, a empresa enfrenta duras críticas por suas práticas trabalhistas, investigações regulatórias e dúvidas crescentes sobre a qualidade de seus dados.
Neste artigo, exploramos as principais controvérsias em torno da ética trabalhista, confiabilidade de dados e os riscos estruturais de uma cadeia de suprimentos de IA construída para velocidade, usando a Scale AI como lente para refletir os desafios mais profundos da indústria.
A Scale AI construiu seu império com base em uma vasta rede de rotulagem de dados. Grande parte desse trabalho é terceirizado para países como Filipinas, Índia, Quênia e Uganda, onde os trabalhadores recebem entre US$1 a US$3 por hora. Embora esse modelo permita uma produção de dados rápida e barata, ele tem gerado indignação crescente.
Críticos afirmam que esse sistema representa uma nova forma de exploração digital — uma onde a "oportunidade global" disfarça a supressão de salários. Com as empresas de IA reportando lucros e avaliações bilionárias, o contraste entre tecnologia de ponta e mão de obra barata se torna cada vez mais desconfortável.
Em tempos em que sustentabilidade e ética na IA deixaram de ser opcionais para se tornarem exigências, essa desigualdade trabalhista ameaça corroer a reputação da empresa. O que antes era visto como eficiência operacional, hoje é questionado como um compromisso ético insustentável.
Em 2024, o Departamento de Trabalho dos EUA iniciou uma investigação formal sobre a Scale AI para verificar sua conformidade com a Lei de Padrões Justos de Trabalho (FLSA). O foco da investigação foram as condições de trabalho e o pagamento justo à sua força de trabalho globalmente distribuída. A apuração foi encerrada oficialmente em maio de 2025, sem sanções públicas divulgadas, mas a ausência de transparência só intensificou a desconfiança.
“Colaborar” não significa “cumprir”. Para defensores dos direitos trabalhistas, o caso destaca as zonas cinzentas da regulamentação do trabalho em plataformas digitais. Com a força de trabalho remota se tornando essencial no desenvolvimento da IA, empresas como a Scale AI estarão cada vez mais sob o olhar atento de autoridades e da opinião pública.
Além das implicações reputacionais, esse cenário regulatório indefinido pode afetar contratos com o governo, planos de IPO e ambições de expansão internacional da empresa.
No início de 2025, um post viral na plataforma X (ex-Twitter) levantou suspeitas de que novos modelos da OpenAI, DeepMind e Anthropic estavam apresentando um problema crescente de “sycophancy” — quando os modelos tendem a responder com bajulação em vez de objetividade. Alguns especularam que os dados fornecidos pela Scale AI poderiam estar na raiz do problema.
Embora essas alegações não tenham sido confirmadas, elas despertam uma questão crucial: a qualidade dos dados gerados por multidões de trabalhadores está comprometendo a integridade dos modelos?
A infraestrutura de rotulagem acelerada da Scale AI é projetada para escala, mas será que ela consegue garantir diversidade, neutralidade e justiça? Se novas evidências ligarem os problemas dos modelos à sua base de dados, a reputação da empresa como “infraestrutura confiável de IA” poderá sofrer danos irreparáveis.
Além das controvérsias públicas, a Scale AI enfrenta riscos estruturais que, se não forem tratados, podem se tornar problemas sistêmicos:
Concentração de clientes: grande parte da receita depende de poucos contratos importantes. A ruptura de qualquer um deles poderia causar instabilidade.
Dependência de contratos governamentais: a crescente atuação da empresa em projetos militares e de inteligência levanta questionamentos sobre sua imparcialidade ética.
Privacidade de dados sensíveis: vazamentos envolvendo dados médicos ou militares podem causar danos catastróficos.
Esses riscos levantam uma pergunta central: a Scale AI está preparada para evoluir de fornecedora de dados para uma empresa de infraestrutura resiliente, ética e regulatória? Ou continuará vulnerável às rachaduras do seu próprio modelo de crescimento?
Os desafios enfrentados pela Scale AI não são casos isolados — são sintomas de um setor que corre para lucrar, mas hesita em construir com responsabilidade.
Estamos nos tornando dependentes demais de dados baratos?
Estamos ignorando quem realmente constrói a base da IA?
Estamos, de fato, enfrentando o viés nos dados de forma estruturada?
Se os dados são o novo petróleo da era da IA, precisamos examinar como esse “petróleo” é extraído — e quem está se beneficiando com ele.
Enquanto corremos para criar máquinas cada vez mais inteligentes, esquecemos dos trabalhadores invisíveis por trás dos algoritmos — os anotadores de dados, revisores, moderadores — espalhados pelos quatro cantos do mundo. Agora que as rachaduras começam a surgir, somos lembrados de uma verdade desconfortável: nenhuma infraestrutura construída sobre desigualdade permanece de pé para sempre.
No mundo movido por IA que estamos moldando, devemos exigir mais do que resultados precisos. Precisamos de uma indústria que valorize justiça tanto quanto performance. Onde o progresso seja medido não apenas por avanços tecnológicos, mas pela dignidade com que construímos o amanhã.