فیس بک کے معاہدے کے کارکنوں نے اے – تربیت دینے کے لئے آپ کی نجی پوسٹس تلاش کر رہے ہیں

فیس بک کے معاہدے کے کارکنوں نے اے – تربیت دینے کے لئے آپ کی نجی پوسٹس تلاش کر رہے ہیں

رائٹرز کی ایک نئی رپورٹ سے پتہ چلتا ہے کہ فیس بک اور انسجام پر نجی پوزیشنوں پر کام کرنے والے کارکنوں کو AI نظام کے لئے لیبل کرنے کے لئے دیکھ رہے ہیں.

بہت سے ٹیک کمپنیوں کی طرح، فیس بک اس کے پلیٹ فارم پر مواد کو ترتیب دینے کے لئے مشین سیکھنے اور ای اے کا استعمال کرتا ہے. لیکن ایسا کرنے کے لئے، سوفٹ ویئر کو مختلف اقسام کے مواد کی شناخت کے لئے تربیت دینے کی ضرورت ہے. ان الگورتھم کو تربیت دینے کے لئے انہیں نمونہ کے اعداد و شمار کا تجزیہ کرنا پڑتا ہے، جن میں سے ہر ایک کو انسان کی طرف سے درجہ بندی اور لیبل کی ضرورت ہوتی ہے – “ڈیٹا تشریح” کے طور پر جانا جاتا عمل.

رائٹرز کی رپورٹ بھارتی آئرورسنگ فرم وائیو پرو پر توجہ مرکوز کرتی ہے، جس نے پانچ اقسام کے مطابق پوسٹس کو تشویش کرنے کے لئے 260 کارکنوں کو ملازم کیا ہے. ان میں پوسٹ کے مواد شامل ہیں (یہ ایک selfie ہے، مثال کے طور پر، یا کھانے کی تصویر)؛ اس موقع (یہ ایک سالگرہ یا شادی کے لئے ہے)؛ اور مصنف کا ارادہ (وہ ایک مذاق بنا رہے ہیں، دوسروں کو حوصلہ افزائی کرنے یا پارٹی کی تنظیم کرنے کی کوشش کر رہے ہیں).

وائیو پرو میں ملازمتوں کو فیس بک اور انساگرم سے مختلف مواد ترتیب دینا ہوگا، بشمول حیثیت کی تازہ ترین معلومات، ویڈیوز، تصاویر، مشترکہ لنکس، اور کہانیاں شامل ہیں. مواد کے ہر ٹکڑے کو دو کارکنوں کی طرف سے جانچ پڑتال کی جانچ پڑتال کی جاتی ہے اور مزدور ہر دن تقریبا 700 اشیاء کی تشریح کرتے ہیں.

فیس بک رائٹرز کو اس بات کی تصدیق کی گئی ہے کہ وائی پروفیسر کے کارکنوں کی طرف سے جانچ پڑتال کی جانے والی مواد میں شامل کردہ نجی پیغامات میں سے کسی ایک سے زیادہ دوستوں کے ساتھ اشتراک کیا جاتا ہے، اور یہ اعداد و شمار کبھی کبھی صارف کے نام اور دیگر حساس معلومات بھی شامل ہیں. فیس بک کا کہنا ہے کہ دنیا میں 200 ایسے مواد کی لیبلنگ منصوبوں ہیں جو مجموعی طور پر ہزاروں افراد کو ملازم کرتے ہیں.

اے آئی کے لئے پروڈکٹ مینجمنٹ کے ڈائریکٹر فیس بک کے نیپن منتھر نے رائٹرز کو بتایا کہ “یہ آپ کی ضرورت کا بنیادی حصہ ہے”. “مجھے نہیں جانے کی ضرورت نہیں ہے.”

اس ڈیٹا بیس کی تشریحی منصوبوں کو ای اے کی ترقی کرنے کی کلید ہے، اور کال سینٹر کا کام جیسے تھوڑا سا بن گیا ہے – ان ممالک کو آؤٹ کیا جاتا ہے جہاں انسانی مزدور سستی ہے.

چین میں، مثال کے طور پر، لوگوں کے بڑے دفتر خود کار ڈرائیونگ کاروں سے تصاویر کو لیبل کرتے ہیں تاکہ انہیں تربیت دینے کے لئے سائیکل سائیکل اور پیڈسٹریوں کی نشاندہی کی جائے . زیادہ تر انٹرنیٹ صارفین نے اس طرح کے کام کئے بغیر بغیر بھی کام کئے ہیں. گوگل کا کیپچا نظام، جس سے آپ کو “تصاویر” میں “تصاویر” میں اشیاء کی شناخت کرنے کے لئے کہا جاتا ہے، آپ کو معلومات کو ڈیجیٹل بنانے اور AI کو تربیت دینے کے لئے استعمال کیا جاتا ہے .

اس طرح کے کام ضروری ہے، لیکن جب سوال میں ڈیٹا نجی ہے تو پریشان کن ہے. حالیہ تحقیقات نے اس بات پر روشنی ڈالی ہے کہ کارکنوں کی ٹیموں نے ایمیزون اونو آلات اور انگوٹی سیکورٹی کیمروں کی طرف سے جمع کردہ حساس معلومات کو لیبل کیا ہے . جب آپ Alexa سے گفتگو کرتے ہیں تو آپ کو کسی اور کا تصور نہیں ہے کہ آپ اپنی بات چیت سن لیتے ہیں، لیکن یہ بالکل وہی ہوتا ہے.

مسئلہ یہ بھی زیادہ پریشانی ہے جب کام کمپنیوں کو آؤٹ کیا جاتا ہے جو بڑی ٹیک کمپنیوں کے مقابلے میں سیکورٹی اور رازداری کے کم معیار ہوسکتا ہے.

فیس بک کا کہنا ہے کہ اس کی قانونی اور پرائیویسی ٹیموں نے تمام ڈیٹا لیبلنگ کی کوششوں کی منظوری دی ہے، اور کمپنی نے رائٹرز کو بتایا کہ اس نے حال ہی میں ایک آڈیٹنگ سسٹم متعارف کرایا “اس بات کا یقین کرنے کے لئے کہ رازداری کی توقع کی جا رہی ہے اور جگہ میں پیرامیٹرز کی توقع کی جاتی ہے.”

تاہم، کمپنی اب بھی یورپی یونین کے حالیہ GDPR کے قوانین کی خلاف ورزی کر سکتی ہے، جس میں کمپنیاں ذاتی ڈیٹا جمع اور استعمال کیسے کرسکتے ہیں.

فیس بک کا کہنا ہے کہ انسانی کارکنوں کے لیبل کردہ اعداد و شمار کئی مشینری سیکھنے کے نظام کو تربیت دینے کے لئے استعمال کیا جاتا ہے. ان میں کمپنی کی مارکیٹ شاپنگ کی خصوصیت میں مواد کی سفارش کی جاتی ہے؛ بظاہر معذور صارفین کیلئے تصاویر اور ویڈیوز بیان کرنا؛ اور چھانٹ کر پوزیشنیں تو کچھ مخصوص اشتہارات سیاسی یا بالغ مواد کے ساتھ نہیں ہوتے ہیں.