مصنوعی ذہانت : شکوک و شبہات

مصنوعی ذہانت تیزی سے مقبول ہو رہی ہے لیکن جب ہم اس کے خطرات کے بارے میں سوچتے ہیں تو اکثر میٹرکس یا ٹرمینیٹر جیسی صورتحال کا تصور کرتے ہیں جہاں مصنوعی ذہانت سے لیس مشینیں بغاوت کرتے ہوئے انسانوں کی دشمن بن جاتی ہیں لیکن اصل خطرہ یہ نہیں کہ مشینیں جسمانی طور پر انسانوں کی دشمن ہو جائیں گی بلکہ اصل تباہی یہ ہے کہ مصنوعی ذہانت دنیا کو نئی شکل دے رہی ہے اور اس سے انسانوں کے خیالات اور ذہانت دونوں متاثر ہو رہے ہیں۔ ممکن ہے کہ سوشل میڈیا پلیٹ فارمز پر مصنوعی ذہانت انسانیت کے زوال کی منصوبہ بندی نہ کر رہی ہو لیکن یہ معلومات کے استعمال‘ تشریحات اور فیصلے کرنے کے طریقے کو یقینا تبدیل کر رہی ہے اور اس سے منفی باتوں (پروپیگنڈے) کو بھی تقویت و بڑھاوا مل رہا ہے۔مصنوعی ذہانت کے الگورتھم ہمیں وہ سب کچھ فراہم کرنے کے لئے ڈیزائن کئے گئے ہیں جو ہم چاہتے ہیں۔ ہماری ذاتی ترجیحات کی بنیاد پر نیوز فیڈز‘ ویڈیوز‘ اشتہارات اور پوسٹس تیار کرنا‘ کلک بیٹس وغیرہ لیکن اس ہائپر پرسنلائزیشن نے معلومات کے ایک نئے سلسلے کو جنم دیا ہے۔ سوشل میڈیا پلیٹ فارمز نادانستہ طور پر ایسے ماحول کو فروغ دے رہے ہیں جہاں نکتہ¿ نظر میں یکسانیت پائی جاتی ہے اور اختلاف کی شاذ و نادر ہی گنجائش سامنے آتی ہے۔ پروپیگنڈا کرنے والوں کے لئے کام کاج کبھی بھی اس قدر آسان نہیں رہا۔ مصنوعی ذہانت کے ماڈل مخصوص گروہوں اور افراد کو نشانہ بنانے کے لئے جدید الگورتھم کا استعمال کرتے ہوئے غیر معمولی پیمانے پر غلط معلومات فراہم کرتے ہیں۔ اس صلاحیت کو پہلے ہی عام انتخابات پر اثر انداز ہونے، تشدد بھڑکانے اور رائے عامہ کو کسی خاص رخ تبدیل یا راغب کرنے کے لئے استعمال کیا جا چکا ہے اور اگرچہ مصنوعی ذہانت بے جان اور بدنیتی سے پاک بھی ہوسکتی ہے لیکن اس کے اثرات خطرناک نتائج کا باعث بن سکتے ہیں۔ مثال کے طور پر یوٹیوبر ’ڈکی بھائی‘ کی اہلیہ کے ڈیپ فیکس نے تہلکہ مچا دیا۔ اس سے یہ سوال پیدا ہوا کہ مصنوعی ذہانت کی اخلاقی حدود بھی ہیں اور یہ کس حد تک جا سکتی ہے؟ میڈیا کی خواندگی اور ترقی پر کام کرنے والی پاکستان میں قائم غیر منافع بخش تنظیم میڈیا میٹرز فار ڈیموکریسی کے بانی اسد بیگ نے ڈیپ فیکس کے بارے میں بات کرتے ہوئے کہا کہ ”یہ خاص طور پر کسی کی ساکھ کو تباہ کرنے اور نجی زندگی (پرائیویسی) میں مداخلت کے لئے استعمال ہو رہی ہے اور اس سے اخلاقی خطرات پیدا ہوئے ہیں۔ ہمیں اس صورتحال سے نمٹنے کے لئے واضح‘ حقوق پر مبنی فریم ورک کی ضرورت ہے۔“سوشل میڈیا پلیٹ فارمز کو ڈیپ فیکس کا پتہ لگانے کے قابل ہونا چاہئے اور شفافیت و احتساب کو یقینی بنانا چاہئے۔ اس ٹیکنالوجی کے بدنیتی پر مبنی استعمال پر قانونی سزائیں نافذ کی جانی چاہئیں اور حکومتوں کو چاہئے کہ بین الاقوامی سطح پر ایک دوسرے سے تعاون کریں تاکہ اخلاقی معیارات طے کئے جا سکیں جو جدت کی گنجائش برقرار رکھتے ہوئے انسانی معاشرے کی بنیادی اکائی یعنی افراد کی ساکھ اور حفاظت یقینی بنائیں۔ انہوں نے مزید کہا کہ کسی صارف کے خلاف مصنوعی ذہانت سے تیار کردہ مواد یعنی غلط معلومات پھیلانا سب سے بڑا خطرہ ہے کیونکہ یہ تصورات کو جوڑ سکتا ہے اور مصنوعات و خدمات کے بارے میں تعصب کو تقویت دے سکتا ہے۔ مصنوعی ذہانت نے تکنیکی حقیقت بننے سے بہت پہلے کہانی نگاروں کو اپنی طرف متوجہ کیا۔ 1942ءمیں آئزک اسیموف نے روبوٹکس نامی تصنیف کی جس کے تین قوانین کا مقصد مصنوعی ذہانت کو انسانوں کو نقصان پہنچانے سے روکنا تھا لیکن خیالی روبوٹس بناتے ہوئے بہت سی خامیاں رہ گئیں جس کی وجہ سے خرابی پیدا ہوئی جیسا کہ 2001ءمیں دیکھا گیا کہ اے اسپیس اوڈیسی اور ٹرمینیٹر جیسی فلمیں تیار ہوئیں لیکن سٹار ٹریک: وائجر میں ’اے آئی ڈاکٹر‘ کے پرامید کردار کو پیش کیا گیا جس نے مصنوعی ذہانت کو انسانیت کے لئے مددگار کے طور پر پیش کیا۔ مصنوعی ذہانت سے اگر مثبت کام لیا جائے تو یہ انسانی کی خدمت کر سکتی ہے اور اس کی مدد سے اخلاقی معاملات و مفادات کا تحفظ بھی ممکن ہے۔حقیقی زندگی میں دیکھا جائے تو مصنوعی ذہانت سے خاطرخواہ فوائد و رہنمائی حاصل نہیں کی جا رہی۔ ٹیکنالوجی کمپنیاں بنیاد پرست نظریات اور نفرت انگیز تقاریر کو فروغ دینے کے لئے ذمہ دار ہیں‘ خاص طور پر جب الگورتھم (مصنوعی ذہانت کے اصولوں) کو ترجیح دیتے ہیں۔(بشکریہ دی نیوز۔ تحریر سارا دانیال۔ ترجمہ اَبواَلحسن اِمام)

 یہ پلیٹ فارمز اپنے ڈیزائن کے ذریعہ، اکثر سنسنی خیز اور پولرائزنگ مواد کی تشہیر کرتے ہیں کیونکہ انہیں زیادہ کلکس (پسندیدگی) کی ضرورت ہوتی ہے۔ اس سے ایک خطرناک چکر پیدا ہوا ہے جہاں نقصان دہ نظریات بغیر کسی روک ٹوک کے پھیل سکتے ہیں۔ اِس مرحلہ¿ فکر پر حکومتوں کی ذمہ داری بنتی ہے کہ وہ ٹیکنالوجی کمپنیوں کے لئے ریگولیشنز اور احتساب پر مبنی قواعد و ضوابط متعارف کروائیں تاہم یہ سب اظہار رائے کی آزادی کو محدود کرنے کی صورت نہیں ہونا چاہئے۔ فی الوقت اصل سوال یہ نہیں کہ مصنوعی ذہانت خطرناک ہے یا کس قدر خطرناک ہے بلکہ اصل سوال یہ ہے کہ پہلے سے موجود خطرات کو مصنوعی ذہانت کی مدد سے کیسے کم کیا جا سکتا ہے؟