Ketika gelombang AI generatif mendunia semakin cepat, Scale AI—yang dulunya dipuji sebagai pelopor infrastruktur AI—kini menghadapi sorotan tajam terkait etika dan operasionalnya. Perusahaan yang dikenal sebagai penyedia data pelatihan utama bagi raksasa seperti OpenAI dan Anthropic ini, kini dibayangi kontroversi mengenai praktik ketenagakerjaan, investigasi regulasi, dan kualitas data yang dipertanyakan.
Dalam artikel ini, kita akan menelaah lebih dalam isu-isu utama seputar etika tenaga kerja, keandalan data, dan risiko struktural dalam rantai pasokan AI, dengan menjadikan Scale AI sebagai contoh nyata tantangan yang dihadapi industri saat ini.
Scale AI membangun kerajaannya melalui jaringan pelabel data berskala besar. Sebagian besar pekerjaannya dialihdayakan ke negara-negara seperti Filipina, India, Kenya, dan Uganda, di mana para pekerja dilaporkan hanya menerima bayaran sekitar $1–$3 per jam. Meskipun model ini memungkinkan produksi data yang cepat dan murah, hal ini menuai kritik tajam.
Banyak yang menilai bahwa sistem ini merupakan bentuk eksploitasi digital baru—yang menyamarkan penindasan upah sebagai “kesempatan global.” Ketika perusahaan AI melaporkan keuntungan dan valuasi yang meroket, kesenjangan antara teknologi maju dan kesejahteraan para pekerja menjadi sorotan moral yang serius.
Di era di mana AI berkelanjutan dan rantai pasok etis menjadi tuntutan utama, ketimpangan ini berubah dari sekadar efisiensi operasional menjadi risiko reputasi yang nyata. Apa yang dulu dilihat sebagai strategi bisnis cerdas, kini dinilai sebagai kompromi etis yang tak bisa dipertahankan.
Pada tahun 2024, Departemen Ketenagakerjaan Amerika Serikat meluncurkan penyelidikan formal terhadap kepatuhan Scale AI terhadap Fair Labor Standards Act (FLSA). Fokus penyelidikan mencakup keadilan upah, kondisi kerja, dan perlindungan terhadap tenaga kerja jarak jauh yang tersebar global. Meskipun penyelidikan ini resmi berakhir pada Mei 2025 tanpa sanksi yang diumumkan secara publik, ketidakjelasan hasilnya menimbulkan kekhawatiran baru.
“Bekerja sama” tidak berarti “patuh.” Para aktivis buruh melihat hal ini sebagai bukti celah hukum dalam sistem kerja berbasis platform. Ketika tenaga kerja jarak jauh menjadi bagian penting dari rantai pengembangan AI, perusahaan seperti Scale AI kemungkinan akan menghadapi pengawasan yang semakin ketat dan regulasi baru.
Di luar citra publik, ketidakpastian ini juga dapat memengaruhi kontrak pemerintah, rencana IPO, dan ekspansi global perusahaan tersebut.
Pada awal 2025, sebuah postingan viral di X (sebelumnya Twitter) mengklaim bahwa model AI terbaru dari OpenAI, DeepMind, dan Anthropic menunjukkan masalah “sycophancy”—yakni kecenderungan model untuk memilih jawaban memuji daripada obyektif. Beberapa pihak berspekulasi bahwa data pelatihan dari Scale AI mungkin menjadi penyebabnya.
Meskipun klaim ini belum terbukti, hal ini memunculkan pertanyaan penting: Apakah kualitas data pelabelan massal membahayakan integritas model AI?
Sistem pelabelan cepat milik Scale AI dioptimalkan untuk volume besar, tapi dengan harga berapa? Apakah sistem tersebut mampu menjamin keberagaman, keadilan, dan netralitas dalam loop umpan balik manusianya? Jika nantinya terbukti bahwa data dari platform ini menjadi sumber bias, reputasi Scale AI sebagai penyedia infrastruktur data yang “dapat dipercaya” bisa hancur dalam jangka panjang.
Di balik kontroversi publik, Scale AI juga menghadapi risiko struktural yang—jika diabaikan—dapat berkembang menjadi masalah besar:
Ketergantungan pada pelanggan besar: Sebagian besar pendapatan berasal dari klien besar tertentu. Jika hubungan ini terganggu, stabilitas keuangan perusahaan bisa tergoyahkan.
Kontrak dengan pemerintah: Keterlibatan Scale AI dalam proyek militer dan intelijen AS memicu kekhawatiran tentang netralitas dan etika perusahaan.
Privasi data: Dalam pengelolaan data sensitif—terutama yang terkait kesehatan dan pertahanan—kebocoran atau kesalahan penanganan bisa berakibat fatal.
Semua ini mengarah pada pertanyaan mendasar: Bisakah Scale AI berkembang dari sekadar penyedia data menjadi perusahaan infrastruktur sejati yang tahan terhadap tekanan regulasi dan etika? Ataukah model bisnisnya terlalu rapuh untuk jangka panjang?
Masalah yang dihadapi Scale AI mencerminkan krisis yang lebih besar dalam dunia AI:
Apakah kita terlalu bergantung pada data murah?
Apakah kita menutup mata terhadap kondisi mereka yang menghasilkan data tersebut?
Apakah kita sungguh-sungguh menyelesaikan bias model dari akarnya?
Kontroversi yang membayangi Scale AI bukanlah kejadian terisolasi—tetapi tanda peringatan bagi industri yang berlari mengejar keuntungan tanpa menyadari fondasi rapuh di baliknya. Jika data adalah minyak baru dalam era AI, maka kita perlu mengkaji bagaimana minyak itu ditambang—dan siapa yang benar-benar mendapat manfaat darinya.
Di tengah ambisi membangun kecerdasan buatan, kita sering melupakan para pekerja tak terlihat di balik algoritma—mereka yang melabeli data, memverifikasi hasil, dan menjaga kualitas sistem. Kini, ketika retakan mulai terlihat, kita diingatkan bahwa infrastruktur yang dibangun di atas ketimpangan tidak akan bertahan selamanya.
Dalam dunia yang semakin digerakkan oleh AI, kita perlu menuntut lebih dari sekadar hasil teknologi. Kita butuh industri yang menjunjung keadilan dan kemanusiaan, bukan hanya kinerja. Kemajuan sejati bukan hanya soal inovasi—melainkan tentang bagaimana masa depan itu dibangun, dan siapa yang ikut merasakannya.