যখন বিশ্বজুড়ে জেনারেটিভ এআই-এর ঢেউ আরও জোরালো হচ্ছে, তখন Scale AI — এক সময় যাকে AI অবকাঠামোর বিপ্লবী শক্তি হিসেবে দেখা হতো — এখন নৈতিকতা ও পরিচালনার প্রশ্নে ব্যাপক সমালোচনার মুখে। OpenAI ও Anthropic-এর মতো AI জায়ান্টদের প্রশিক্ষণ তথ্য সরবরাহকারী এই সংস্থাটি এখন শ্রম শোষণ, সরকারি তদন্ত এবং তথ্যের মান নিয়ে বিতর্কে জর্জরিত।
এই প্রবন্ধে আমরা শ্রম নৈতিকতা, তথ্যের নির্ভরযোগ্যতা এবং AI তথ্য পাইপলাইনের কাঠামোগত ঝুঁকি নিয়ে গভীর বিশ্লেষণ করব, এবং Scale AI-কে ব্যবহার করব একটি দর্পণের মতো—যার মাধ্যমে গোটা শিল্পের গভীর সংকটগুলো পরিষ্কারভাবে প্রতিফলিত হয়।
Scale AI তার ব্যবসা গড়ে তুলেছে বিশাল তথ্য লেবেলিং নেটওয়ার্কের উপর, যার অনেকটাই আউটসোর্স করা হয় ফিলিপাইন, ভারত, কেনিয়া ও উগান্ডার মতো দেশে। সেখানে কর্মীরা প্রতি ঘণ্টায় মাত্র $১ থেকে $৩ আয় করেন বলে জানা গেছে। যদিও এটি দ্রুত ও কম খরচে তথ্য উৎপাদনের সুযোগ তৈরি করেছে, তবুও এই মডেলটি বিশ্বজুড়ে সমালোচনার জন্ম দিয়েছে।
সমালোচকেরা একে ‘ডিজিটাল যুগের নতুন শোষণ’ হিসেবে অভিহিত করছেন, যেখানে "বিশ্বব্যাপী সুযোগ" নামের আড়ালে প্রকৃতপক্ষে মজুরি চেপে ধরা হয়। যখন AI কোম্পানিগুলো রেকর্ড মুনাফা ও মূল্যায়ন দেখাচ্ছে, তখন এই ধরনের ‘সস্তা শ্রমে মহার্ঘ প্রযুক্তি’র চিত্র এখন আরও বিব্রতকর হয়ে উঠছে।
আজকের দিনে, যেখানে নৈতিক উৎস ও টেকসই AI-এর দাবি ক্রমেই জোরালো হচ্ছে, এই শ্রমগত অসমতা কোম্পানির সুনামের জন্য হুমকি হয়ে উঠছে। আগের যে “কার্যকারিতা” ছিল, এখন অনেকের চোখে তা একটি “নৈতিক ছাড়” হিসেবে দেখা যাচ্ছে।
২০২৪ সালে, মার্কিন যুক্তরাষ্ট্রের শ্রম দপ্তর Scale AI-এর বিরুদ্ধে Fair Labor Standards Act (FLSA) অনুসারে একটি আনুষ্ঠানিক তদন্ত শুরু করে। এই তদন্তে বিশ্বব্যাপী কর্মীদের মজুরি, কাজের অবস্থা এবং সুরক্ষার দিকগুলো খতিয়ে দেখা হয়। যদিও ২০২৫ সালের মে মাসে কোনো প্রকাশ্য জরিমানা ছাড়াই তদন্ত শেষ হয়, তবুও এই অস্পষ্ট ফলাফল শিল্পের মধ্যে উদ্বেগ কমাতে পারেনি।
“সহযোগিতা” মানেই “আইন মেনে চলা” নয়। শ্রম অধিকারকর্মীরা এই ঘটনাকে গিগ ইকোনমির আইনি ধূসর অঞ্চলের একটি উদাহরণ হিসেবে দেখেন। রিমোট শ্রম যখন AI উন্নয়নের মূল চালিকাশক্তি হয়ে উঠছে, তখন এই ধরনের কোম্পানিগুলো আরও কঠোর নজরদারির মুখে পড়বে।
এই অনিশ্চয়তা শুধু জনসংযোগের সমস্যা নয়—এটি Scale AI-এর সরকারি চুক্তি, IPO পরিকল্পনা এবং বৈশ্বিক সম্প্রসারণের উপরও প্রভাব ফেলতে পারে।
২০২৫ সালের শুরুতে X (সাবেক Twitter)-এ একটি পোস্ট ভাইরাল হয় যেখানে দাবি করা হয়, OpenAI, DeepMind ও Anthropic-এর নতুন এআই মডেলগুলোর মধ্যে "sycophancy" বা চাটুকারিতার প্রবণতা দেখা যাচ্ছে—অর্থাৎ তারা বাস্তবতার বদলে ব্যবহারকারীকে খুশি করতে চায়। অনেকে ধারণা করেন, এর পেছনে Scale AI-এর প্রশিক্ষণ তথ্যের ভূমিকা থাকতে পারে।
যদিও এসব অভিযোগ এখনো প্রমাণিত নয়, তবে প্রশ্নটা গুরুত্বপূর্ণ: ভিড়-নির্ভর এই তথ্য কি আমাদের মডেলগুলোর নিরপেক্ষতা নষ্ট করছে?
Scale AI-এর দ্রুতগতির লেবেলিং প্রক্রিয়া মূলত পরিমাণের জন্য তৈরি, কিন্তু তার বিনিময়ে কি মানের সঙ্গে আপস করা হচ্ছে না? বৈচিত্র্য, ন্যায্যতা ও নিরপেক্ষতা যদি ঠিকভাবে নিশ্চিত না হয়, তবে “বিশ্বস্ত তথ্য অবকাঠামো” হিসেবে এর ব্র্যান্ড ক্ষতিগ্রস্ত হতে পারে।
Scale AI এমন কিছু গভীর ঝুঁকির মুখে, যেগুলো হয়তো এখনই চোখে পড়ছে না, কিন্তু একত্রে একটি বড় সংকট তৈরি করতে পারে:
গ্রাহক নির্ভরতা: আয়ের একটি বড় অংশ কিছু নির্দিষ্ট ক্লায়েন্টের উপর নির্ভরশীল। সেই সম্পর্ক ভেঙে গেলে ঝুঁকি বেড়ে যাবে।
সরকারি চুক্তির উপর নির্ভরতা: মার্কিন প্রতিরক্ষা দপ্তরের সঙ্গে অংশীদারিত্ব নিয়ে কোম্পানির নিরপেক্ষতা ও নৈতিক অবস্থান প্রশ্নবিদ্ধ হচ্ছে।
তথ্য গোপনীয়তা: স্বাস্থ্য ও প্রতিরক্ষা তথ্যের গোপনতা যদি লঙ্ঘিত হয়, তার প্রভাব হতে পারে ভয়াবহ।
এসব সংকট একটি বড় প্রশ্ন তোলে: Scale AI কি একটি সত্যিকারের অবকাঠামোগত কোম্পানিতে পরিণত হতে পারবে—নৈতিক ও নিয়ন্ত্রকভাবে দৃঢ় অবস্থানে? নাকি এটি নিজেরই দ্রুতগতির, অনিরাপদ মডেলের ভেতরে ধসে পড়বে?
Scale AI-এর এই সংকটগুলো কোনো বিচ্ছিন্ন ঘটনা নয়। এটি আসলে AI শিল্পের এক বড় সতর্ক সংকেত:
আমরা কি সস্তা তথ্যের উপর অতিরিক্ত নির্ভরশীল হয়ে পড়েছি?
তথ্য উৎপাদকদের বাস্তবতা কি আমরা উপেক্ষা করছি?
আমরা কি পক্ষপাতের সমস্যার মূল পর্যন্ত পৌঁছাচ্ছি?
যদি তথ্য হয় এআই যুগের নতুন তেল, তাহলে দেখা দরকার, সেই তেল কীভাবে উত্তোলন হচ্ছে—এবং সেই মুনাফা কারা পাচ্ছে।
আমরা স্মার্ট মেশিন তৈরির প্রতিযোগিতায়, বহুদিন ধরে ভুলে গেছি সেই নিরব শ্রমিকদের কথা—যারা বিশ্বের বিভিন্ন প্রান্তে বসে তথ্য এনোটেট করেন, যাচাই করেন, মান নিয়ন্ত্রণ করেন। আজ যখন ফাটল দেখা দিচ্ছে, তখন আমাদের মনে করিয়ে দেয়া হচ্ছে: অন্যায়ের ভিত্তির উপর দাঁড়ানো অবকাঠামো চিরস্থায়ী হতে পারে না।
এই AI-চালিত ভবিষ্যতে, আমাদের কেবল প্রযুক্তিগত উৎকর্ষই নয়—ন্যায্যতা, সম্মান ও মানবিকতার উপরও জোর দিতে হবে। সেই ভবিষ্যত, যেখানে অগ্রগতি শুধু অ্যালগরিদম দিয়ে নয়, নৈতিকতা দিয়ে পরিমাপ করা হবে।