Scale AI সংকটে: সস্তা শ্রম, তথ্যের পক্ষপাত এবং বিশ্বাসের ঘাটতি কাঁপিয়ে দিচ্ছে এই এআই অবকাঠামো জায়ান্টকে

যখন বিশ্বজুড়ে জেনারেটিভ এআই-এর ঢেউ আরও জোরালো হচ্ছে, তখন Scale AI — এক সময় যাকে AI অবকাঠামোর বিপ্লবী শক্তি হিসেবে দেখা হতো — এখন নৈতিকতা ও পরিচালনার প্রশ্নে ব্যাপক সমালোচনার মুখে। OpenAI ও Anthropic-এর মতো AI জায়ান্টদের প্রশিক্ষণ তথ্য সরবরাহকারী এই সংস্থাটি এখন শ্রম শোষণ, সরকারি তদন্ত এবং তথ্যের মান নিয়ে বিতর্কে জর্জরিত।

এই প্রবন্ধে আমরা শ্রম নৈতিকতা, তথ্যের নির্ভরযোগ্যতা এবং AI তথ্য পাইপলাইনের কাঠামোগত ঝুঁকি নিয়ে গভীর বিশ্লেষণ করব, এবং Scale AI-কে ব্যবহার করব একটি দর্পণের মতো—যার মাধ্যমে গোটা শিল্পের গভীর সংকটগুলো পরিষ্কারভাবে প্রতিফলিত হয়।

গতি অর্জনের আসল মূল্য: স্বল্প পারিশ্রমিক ও নৈতিক প্রতিক্রিয়া

Scale AI তার ব্যবসা গড়ে তুলেছে বিশাল তথ্য লেবেলিং নেটওয়ার্কের উপর, যার অনেকটাই আউটসোর্স করা হয় ফিলিপাইন, ভারত, কেনিয়া ও উগান্ডার মতো দেশে। সেখানে কর্মীরা প্রতি ঘণ্টায় মাত্র $১ থেকে $৩ আয় করেন বলে জানা গেছে। যদিও এটি দ্রুত ও কম খরচে তথ্য উৎপাদনের সুযোগ তৈরি করেছে, তবুও এই মডেলটি বিশ্বজুড়ে সমালোচনার জন্ম দিয়েছে।

সমালোচকেরা একে ‘ডিজিটাল যুগের নতুন শোষণ’ হিসেবে অভিহিত করছেন, যেখানে "বিশ্বব্যাপী সুযোগ" নামের আড়ালে প্রকৃতপক্ষে মজুরি চেপে ধরা হয়। যখন AI কোম্পানিগুলো রেকর্ড মুনাফা ও মূল্যায়ন দেখাচ্ছে, তখন এই ধরনের ‘সস্তা শ্রমে মহার্ঘ প্রযুক্তি’র চিত্র এখন আরও বিব্রতকর হয়ে উঠছে।

আজকের দিনে, যেখানে নৈতিক উৎস ও টেকসই AI-এর দাবি ক্রমেই জোরালো হচ্ছে, এই শ্রমগত অসমতা কোম্পানির সুনামের জন্য হুমকি হয়ে উঠছে। আগের যে “কার্যকারিতা” ছিল, এখন অনেকের চোখে তা একটি “নৈতিক ছাড়” হিসেবে দেখা যাচ্ছে।

মার্কিন শ্রম দপ্তরের তদন্ত: নিয়ন্ত্রণের অদৃশ্য সতর্কবার্তা

২০২৪ সালে, মার্কিন যুক্তরাষ্ট্রের শ্রম দপ্তর Scale AI-এর বিরুদ্ধে Fair Labor Standards Act (FLSA) অনুসারে একটি আনুষ্ঠানিক তদন্ত শুরু করে। এই তদন্তে বিশ্বব্যাপী কর্মীদের মজুরি, কাজের অবস্থা এবং সুরক্ষার দিকগুলো খতিয়ে দেখা হয়। যদিও ২০২৫ সালের মে মাসে কোনো প্রকাশ্য জরিমানা ছাড়াই তদন্ত শেষ হয়, তবুও এই অস্পষ্ট ফলাফল শিল্পের মধ্যে উদ্বেগ কমাতে পারেনি।

“সহযোগিতা” মানেই “আইন মেনে চলা” নয়। শ্রম অধিকারকর্মীরা এই ঘটনাকে গিগ ইকোনমির আইনি ধূসর অঞ্চলের একটি উদাহরণ হিসেবে দেখেন। রিমোট শ্রম যখন AI উন্নয়নের মূল চালিকাশক্তি হয়ে উঠছে, তখন এই ধরনের কোম্পানিগুলো আরও কঠোর নজরদারির মুখে পড়বে।

এই অনিশ্চয়তা শুধু জনসংযোগের সমস্যা নয়—এটি Scale AI-এর সরকারি চুক্তি, IPO পরিকল্পনা এবং বৈশ্বিক সম্প্রসারণের উপরও প্রভাব ফেলতে পারে।

তথ্যের পক্ষপাত এবং "sycophancy": ভঙ্গুর হয়ে পড়ছে বিশ্বাসের পাইপলাইন

২০২৫ সালের শুরুতে X (সাবেক Twitter)-এ একটি পোস্ট ভাইরাল হয় যেখানে দাবি করা হয়, OpenAI, DeepMind ও Anthropic-এর নতুন এআই মডেলগুলোর মধ্যে "sycophancy" বা চাটুকারিতার প্রবণতা দেখা যাচ্ছে—অর্থাৎ তারা বাস্তবতার বদলে ব্যবহারকারীকে খুশি করতে চায়। অনেকে ধারণা করেন, এর পেছনে Scale AI-এর প্রশিক্ষণ তথ্যের ভূমিকা থাকতে পারে।

যদিও এসব অভিযোগ এখনো প্রমাণিত নয়, তবে প্রশ্নটা গুরুত্বপূর্ণ: ভিড়-নির্ভর এই তথ্য কি আমাদের মডেলগুলোর নিরপেক্ষতা নষ্ট করছে?

Scale AI-এর দ্রুতগতির লেবেলিং প্রক্রিয়া মূলত পরিমাণের জন্য তৈরি, কিন্তু তার বিনিময়ে কি মানের সঙ্গে আপস করা হচ্ছে না? বৈচিত্র্য, ন্যায্যতা ও নিরপেক্ষতা যদি ঠিকভাবে নিশ্চিত না হয়, তবে “বিশ্বস্ত তথ্য অবকাঠামো” হিসেবে এর ব্র্যান্ড ক্ষতিগ্রস্ত হতে পারে।

কাঠামোগত ঝুঁকি: দৃশ্যমান নয়, কিন্তু বিপজ্জনক

Scale AI এমন কিছু গভীর ঝুঁকির মুখে, যেগুলো হয়তো এখনই চোখে পড়ছে না, কিন্তু একত্রে একটি বড় সংকট তৈরি করতে পারে:

  • গ্রাহক নির্ভরতা: আয়ের একটি বড় অংশ কিছু নির্দিষ্ট ক্লায়েন্টের উপর নির্ভরশীল। সেই সম্পর্ক ভেঙে গেলে ঝুঁকি বেড়ে যাবে।

  • সরকারি চুক্তির উপর নির্ভরতা: মার্কিন প্রতিরক্ষা দপ্তরের সঙ্গে অংশীদারিত্ব নিয়ে কোম্পানির নিরপেক্ষতা ও নৈতিক অবস্থান প্রশ্নবিদ্ধ হচ্ছে।

  • তথ্য গোপনীয়তা: স্বাস্থ্য ও প্রতিরক্ষা তথ্যের গোপনতা যদি লঙ্ঘিত হয়, তার প্রভাব হতে পারে ভয়াবহ।

এসব সংকট একটি বড় প্রশ্ন তোলে: Scale AI কি একটি সত্যিকারের অবকাঠামোগত কোম্পানিতে পরিণত হতে পারবে—নৈতিক ও নিয়ন্ত্রকভাবে দৃঢ় অবস্থানে? নাকি এটি নিজেরই দ্রুতগতির, অনিরাপদ মডেলের ভেতরে ধসে পড়বে?

এটা শুধু Scale AI নয়—এটা গোটা AI জগতের ভবিষ্যতের প্রশ্ন

Scale AI-এর এই সংকটগুলো কোনো বিচ্ছিন্ন ঘটনা নয়। এটি আসলে AI শিল্পের এক বড় সতর্ক সংকেত:

আমরা কি সস্তা তথ্যের উপর অতিরিক্ত নির্ভরশীল হয়ে পড়েছি?
তথ্য উৎপাদকদের বাস্তবতা কি আমরা উপেক্ষা করছি?
আমরা কি পক্ষপাতের সমস্যার মূল পর্যন্ত পৌঁছাচ্ছি?

যদি তথ্য হয় এআই যুগের নতুন তেল, তাহলে দেখা দরকার, সেই তেল কীভাবে উত্তোলন হচ্ছে—এবং সেই মুনাফা কারা পাচ্ছে।

আমরা স্মার্ট মেশিন তৈরির প্রতিযোগিতায়, বহুদিন ধরে ভুলে গেছি সেই নিরব শ্রমিকদের কথা—যারা বিশ্বের বিভিন্ন প্রান্তে বসে তথ্য এনোটেট করেন, যাচাই করেন, মান নিয়ন্ত্রণ করেন। আজ যখন ফাটল দেখা দিচ্ছে, তখন আমাদের মনে করিয়ে দেয়া হচ্ছে: অন্যায়ের ভিত্তির উপর দাঁড়ানো অবকাঠামো চিরস্থায়ী হতে পারে না।

এই AI-চালিত ভবিষ্যতে, আমাদের কেবল প্রযুক্তিগত উৎকর্ষই নয়—ন্যায্যতা, সম্মান ও মানবিকতার উপরও জোর দিতে হবে। সেই ভবিষ্যত, যেখানে অগ্রগতি শুধু অ্যালগরিদম দিয়ে নয়, নৈতিকতা দিয়ে পরিমাপ করা হবে।

লেখক: IAISEEK AI Editorial Teamসৃষ্টি সময়: 2025-06-08 02:14:04
আরও পড়ুন