مصنوعی ذہانت معدومیت کے خطرے کو بڑھاتی ہے، ماہرین نے نئی وارننگ میں کہا – ٹیکنالوجی

46


سائنس دانوں اور ٹیک انڈسٹری کے رہنما، بشمول مائیکروسافٹ اور گوگل کے اعلیٰ سطحی ایگزیکٹوز نے منگل کو مصنوعی ذہانت سے بنی نوع انسان کو لاحق خطرات کے بارے میں ایک نیا انتباہ جاری کیا۔

بیان میں کہا گیا ہے کہ "اے آئی سے معدومیت کے خطرے کو کم کرنا دیگر سماجی سطح کے خطرات جیسے کہ وبائی امراض اور جوہری جنگ کے ساتھ ساتھ ایک عالمی ترجیح ہونی چاہیے۔”

چیٹ جی پی ٹی بنانے والی کمپنی اوپن اے آئی کے سی ای او سیم آلٹ مین اور مصنوعی ذہانت کے گاڈ فادر کے طور پر جانے جانے والے کمپیوٹر سائنس دان جیفری ہنٹن ان سینکڑوں سرکردہ شخصیات میں شامل تھے جنہوں نے اس بیان پر دستخط کیے، جسے سنٹر فار اے آئی سیفٹی کی ویب سائٹ پر پوسٹ کیا گیا تھا۔

مصنوعی ذہانت کے نظام کے بارے میں خدشات انسانوں کو پیچھے چھوڑنے اور جنگلی دوڑتے ہوئے انتہائی قابل AI چیٹ بوٹس جیسے ChatGPT کی نئی نسل کے عروج کے ساتھ شدت اختیار کر گئے ہیں۔ اس نے دنیا بھر کے ممالک کو ترقی پذیر ٹکنالوجی کے قواعد و ضوابط کے ساتھ آنے کے لئے گھماؤ پھرا بھیجا ہے ، یورپی یونین نے اپنے AI ایکٹ کے ساتھ اس سال کے آخر میں منظور ہونے کی امید کی ہے۔

سان فرانسسکو میں قائم غیر منفعتی مرکز کے ایگزیکٹو ڈائریکٹر ڈین ہینڈریکس نے کہا کہ تازہ ترین انتباہ جان بوجھ کر مختصر تھا – صرف ایک جملہ – سائنس دانوں کے ایک وسیع اتحاد کو شامل کرنے کے لیے جو ممکنہ طور پر ممکنہ خطرات یا ان کی روک تھام کے لیے بہترین حل پر متفق نہ ہوں۔ AI سیفٹی کے لیے، جس نے اس اقدام کو منظم کیا۔

ہینڈریکس نے کہا کہ "مختلف مختلف شعبوں میں تمام اعلیٰ یونیورسٹیوں کے بہت سے لوگ ہیں جو اس سے پریشان ہیں اور سمجھتے ہیں کہ یہ ایک عالمی ترجیح ہے۔” "لہذا ہمیں لوگوں کو الماری سے باہر آنے پر مجبور کرنا پڑا، تاکہ اس مسئلے پر بات کریں کیونکہ بہت سے لوگ خاموشی سے ایک دوسرے کے درمیان بات کر رہے تھے۔”

ایلون مسک سمیت 1,000 سے زیادہ محققین اور تکنیکی ماہرین نے اس سال کے شروع میں ایک طویل خط پر دستخط کیے تھے جس میں اے آئی کی ترقی پر چھ ماہ کے وقفے کا مطالبہ کیا گیا تھا، جس میں کہا گیا تھا کہ اس سے "معاشرے اور انسانیت کے لیے گہرے خطرات” ہیں۔

یہ خط OpenAI کی جانب سے ایک نئے AI ماڈل GPT-4 کے اجراء کا جواب تھا، لیکن OpenAI، اس کے پارٹنر مائیکروسافٹ اور حریف گوگل کے رہنماؤں نے دستخط نہیں کیے اور رضاکارانہ صنعت کے توقف کی کال کو مسترد کر دیا۔

اس کے برعکس، تازہ ترین بیان کی توثیق مائیکروسافٹ کے چیف ٹیکنالوجی اور سائنس افسران کے ساتھ ساتھ گوگل کی اے آئی ریسرچ لیب ڈیپ مائنڈ کے سی ای او ڈیمس ہاسابیس اور اس کی AI پالیسی کی کوششوں کی قیادت کرنے والے گوگل کے دو ایگزیکٹوز نے کی۔ بیان میں کوئی خاص علاج تجویز نہیں کیا گیا ہے لیکن آلٹ مین سمیت کچھ نے اقوام متحدہ کی جوہری ایجنسی کے خطوط پر ایک بین الاقوامی ریگولیٹر کی تجویز پیش کی ہے۔

کچھ ناقدین نے شکایت کی ہے کہ AI بنانے والوں کی طرف سے وجودی خطرات کے بارے میں سنگین انتباہات نے ان کی مصنوعات کی صلاحیتوں کو بڑھانے اور ان کے حقیقی دنیا کے مسائل پر لگام لگانے کے لیے مزید فوری ضوابط کے مطالبات سے توجہ ہٹانے میں اہم کردار ادا کیا ہے۔

ہینڈریکس نے کہا کہ اس کی کوئی وجہ نہیں ہے کہ معاشرہ ان مصنوعات کے "فوری، جاری نقصانات” کا انتظام نہیں کر سکتا جو نئے متن یا امیجز تیار کرتے ہیں، جبکہ "کونے کے آس پاس کی ممکنہ تباہیوں” کو بھی حل کرنا شروع کر دیتے ہیں۔

انہوں نے اس کا موازنہ 1930 کی دہائی میں جوہری سائنسدانوں سے کرتے ہوئے لوگوں کو محتاط رہنے کی تنبیہ کی حالانکہ "ہم نے ابھی تک بم تیار نہیں کیا ہے۔”

"کوئی بھی یہ نہیں کہہ رہا ہے کہ GPT-4 یا ChatGPT آج اس طرح کے خدشات کا باعث بن رہا ہے،” Hendrycks نے کہا۔ "ہم کوشش کر رہے ہیں کہ ان خطرات کو رونما ہونے سے پہلے ہی ان سے نمٹا جائے بجائے اس کے کہ حقیقت کے بعد ہونے والی تباہیوں سے نمٹنے کی کوشش کریں۔”

خط پر ایٹمی سائنس، وبائی امراض اور موسمیاتی تبدیلی کے ماہرین نے بھی دستخط کیے تھے۔ دستخط کرنے والوں میں مصنف بل میک کیبن بھی ہیں، جنہوں نے اپنی 1989 کی کتاب "دی اینڈ آف نیچر” میں گلوبل وارمنگ پر خطرے کی گھنٹی بجا دی تھی اور دو دہائیاں قبل ایک اور کتاب میں AI اور ساتھی ٹیکنالوجیز کے بارے میں خبردار کیا تھا۔

"35 سال پہلے موسمیاتی تبدیلی کے بارے میں ابتدائی انتباہات پر توجہ دینے میں ہماری ناکامی کے پیش نظر، مجھے ایسا لگتا ہے جیسے یہ سمجھنا ہوشیار ہو گا کہ اس سے پہلے کہ یہ سب کچھ ہو جائے،” انہوں نے منگل کو ای میل کے ذریعے کہا۔

ایک ماہر تعلیم جس نے خط کو آگے بڑھانے میں مدد کی تھی نے کہا کہ وہ AI وجودی خطرے کے بارے میں ان کے خدشات کے باعث مذاق اڑایا جاتا تھا، یہاں تک کہ پچھلی دہائی کے دوران مشین لرننگ ریسرچ میں تیز رفتار ترقی بہت سے لوگوں کی توقعات سے تجاوز کر گئی ہے۔

کیمبرج یونیورسٹی میں کمپیوٹر سائنس کے اسسٹنٹ پروفیسر ڈیوڈ کروگر نے کہا کہ بولنے میں کچھ ہچکچاہٹ یہ ہے کہ سائنس دان AI "شعور یا AI کچھ جادو کر رہے ہیں” کی تجویز کرتے ہوئے نہیں دیکھنا چاہتے، لیکن انہوں نے کہا کہ AI سسٹمز کام نہیں کرتے۔ انسانیت کے لیے خطرہ بننے کے لیے خود آگاہ ہونے یا اپنے مقاصد طے کرنے کی ضرورت نہیں ہے۔

"میں کسی خاص قسم کے خطرے سے شادی شدہ نہیں ہوں۔ مجھے لگتا ہے کہ چیزوں کے خراب ہونے کے بہت سے مختلف طریقے ہیں،” کروگر نے کہا۔ "لیکن میرے خیال میں جو تاریخی طور پر سب سے زیادہ متنازعہ ہے وہ معدوم ہونے کا خطرہ ہے، خاص طور پر AI نظاموں کے ذریعے جو قابو سے باہر ہو جاتے ہیں۔”

جواب چھوڑیں

آپ کا ای میل ایڈریس شائع نہیں کیا جائے گا.

@media print { body { color: inherit; /* Ensures that the color is maintained */ } }