Scale AI संकट में: सस्ती मज़दूरी, डेटा पक्षपात और भरोसे की कमी इस AI दिग्गज की नींव को हिला रही है

जैसे-जैसे जनरेटिव आर्टिफिशियल इंटेलिजेंस की लहर दुनिया भर में तेज़ हो रही है, Scale AI — जो कभी AI इन्फ्रास्ट्रक्चर में क्रांति लाने वाली कंपनी मानी जाती थी — अब नैतिक और संचालन संबंधी सवालों के घेरे में आ चुकी है। OpenAI और Anthropic जैसी कंपनियों को प्रशिक्षण डेटा देने वाली यह कंपनी, श्रम शोषण, सरकारी जांच और घटती डेटा गुणवत्ता को लेकर विवादों में फंसी हुई है।

इस लेख में हम Scale AI के माध्यम से उन गहरे सवालों की पड़ताल करते हैं जो आज पूरी AI इंडस्ट्री को प्रभावित कर रहे हैं — जैसे श्रमिकों की हालत, डेटा की विश्वसनीयता और AI पाइपलाइन की अस्थिर नींव।

गति की कीमत: कम वेतन वाले मज़दूर और नैतिक आलोचना

Scale AI का व्यवसाय मॉडल बड़े पैमाने पर डेटा लेबलिंग पर आधारित है। इसके लिए कंपनी फिलीपींस, भारत, केन्या और युगांडा जैसे देशों में श्रमिकों को $1–$3 प्रति घंटे की दर पर काम पर रखती है। यह मॉडल तेज़ और सस्ता है, लेकिन इससे भारी आलोचना हो रही है।

आलोचकों का कहना है कि यह एक नया डिजिटल युग का शोषण है, जहां "वैश्विक अवसर" के नाम पर मेहनतकशों के वेतन को दबाया जाता है। जब AI कंपनियाँ अरबों डॉलर के मूल्यांकन और मुनाफे दिखा रही हैं, तब इतनी सस्ती मज़दूरी का दृश्य अब असहज होता जा रहा है।

आज जब टिकाऊ और नैतिक AI की मांग बढ़ रही है, तब इस तरह की असमानता कंपनी की छवि के लिए खतरा बनती जा रही है। जो कभी एक “प्रभावी संचालन” माना जाता था, वह अब एक “अस्थायी समझौता” जैसा लगने लगा है।

अमेरिकी श्रम विभाग की जांच: एक चेतावनी संकेत

2024 में, अमेरिका के श्रम विभाग ने Scale AI के खिलाफ Fair Labor Standards Act (FLSA) के तहत जांच शुरू की। इस जांच का फोकस वैश्विक श्रमिकों की मजदूरी और कार्य स्थितियों पर था। मई 2025 में यह जांच बिना किसी सार्वजनिक सज़ा के समाप्त हो गई, लेकिन अस्पष्ट नतीजों ने चिंता और बढ़ा दी।

“सहयोग” का मतलब “अनुपालन” नहीं होता। श्रम अधिकार कार्यकर्ता इस मामले को गिग इकॉनॉमी की कानूनी अस्पष्टता के उदाहरण के तौर पर देख रहे हैं। जैसे-जैसे रिमोट श्रम AI विकास का केंद्र बन रहा है, कंपनियों पर और कड़ी नज़र रखी जाएगी।

यह अस्पष्टता न केवल कंपनी की प्रतिष्ठा पर असर डाल सकती है, बल्कि इसके सरकारी अनुबंध, IPO योजनाओं और अंतरराष्ट्रीय विस्तार को भी खतरे में डाल सकती है।

डेटा में पक्षपात और ‘sycophancy’: मॉडल की विश्वसनीयता पर संकट

2025 की शुरुआत में X (पूर्व ट्विटर) पर एक पोस्ट वायरल हुई, जिसमें दावा किया गया कि OpenAI, DeepMind और Anthropic के नए मॉडल “sycophancy” यानी चापलूसी की प्रवृत्ति दिखा रहे हैं — जहाँ वे निष्पक्षता की बजाय उपयोगकर्ता को खुश करने वाले जवाब देते हैं। कुछ लोगों ने इसके पीछे Scale AI के प्रशिक्षण डेटा की भूमिका होने की आशंका जताई।

हालाँकि यह दावा अभी साबित नहीं हुआ है, लेकिन इसने एक ज़रूरी सवाल उठाया है: क्या भीड़-आधारित डेटा मॉडल की निष्पक्षता को नुकसान पहुँचा रहे हैं?

Scale AI की डेटा-लेबलिंग प्रणाली गति के लिए डिज़ाइन की गई है — लेकिन क्या यह विविधता, निष्पक्षता और गुणवत्ता सुनिश्चित कर सकती है? यदि भविष्य में ऐसे और संकेत मिलते हैं, तो “विश्वसनीय डेटा प्लेटफ़ॉर्म” के रूप में कंपनी की छवि स्थायी नुकसान झेल सकती है।

छिपे हुए जोखिम: सतह के नीचे दरारें

सार्वजनिक विवादों के अलावा, Scale AI कुछ संरचनात्मक जोखिमों का भी सामना कर रही है, जो समय के साथ गंभीर संकट बन सकते हैं:

  • ग्राहकों पर अत्यधिक निर्भरता: कंपनी की कमाई कुछ बड़े ग्राहकों पर टिकी है। अगर ये रिश्ते टूटते हैं तो कंपनी डगमगा सकती है।

  • सरकारी अनुबंधों पर निर्भरता: रक्षा और खुफिया परियोजनाओं में बढ़ती भागीदारी से कंपनी की निष्पक्षता पर सवाल उठने लगे हैं।

  • डेटा गोपनीयता का संकट: खासकर स्वास्थ्य और रक्षा क्षेत्रों में डेटा लीक बेहद विनाशकारी हो सकते हैं।

इन चुनौतियों से एक बड़ा सवाल खड़ा होता है: क्या Scale AI एक सच्ची AI इन्फ्रास्ट्रक्चर कंपनी बनने की दिशा में आगे बढ़ रही है, या फिर अपने ही तेज़ी से बने मॉडल के नीचे दब रही है?

यह सिर्फ Scale AI की बात नहीं — यह पूरे AI भविष्य पर सवाल है

Scale AI की चुनौतियाँ किसी एक कंपनी की विफलता नहीं हैं, बल्कि एक पूरे उद्योग की दिशा पर सवाल हैं:

क्या हम सस्ते डेटा पर कुछ ज़्यादा ही निर्भर हो गए हैं?
क्या हम उन लोगों को नज़रअंदाज़ कर रहे हैं जो इस डेटा को बनाते हैं?
क्या हम वाकई मॉडल में पक्षपात को जड़ से खत्म कर रहे हैं?

AI के युग में डेटा अगर नया तेल है, तो हमें यह देखना होगा कि यह तेल कैसे निकाला जा रहा है — और इससे फायदा किसे हो रहा है।

हमने अधिक बुद्धिमान मशीनें बनाने की होड़ में उन अनदेखे हाथों को भुला दिया है जो इन एल्गोरिद्म को शक्ति देते हैं — डेटा एनोटेटर, रिव्यूअर, मॉडरेटर — जो दुनिया के कोनों-कोनों में बैठे हैं। लेकिन अब जब सतह पर दरारें उभरने लगी हैं, तो हमें यह याद रखने की ज़रूरत है कि असमानता की बुनियाद पर टिके ढाँचे ज्यादा दिन तक नहीं टिकते।

AI से संचालित इस नए युग में, हमें सिर्फ बेहतर परिणाम नहीं चाहिए। हमें एक ऐसी इंडस्ट्री चाहिए जो प्रदर्शन के साथ-साथ न्याय और मानव गरिमा को भी उतना ही महत्व दे। जहाँ प्रगति को सिर्फ तकनीकी चमत्कारों से नहीं, बल्कि इस बात से भी आँका जाए कि हम भविष्य को कितनी इंसानियत से बना रहे हैं।

लेखक: IAISEEK AI Editorial Teamनिर्माण समय: 2025-06-08 02:14:04
और पढ़ें