حملوں کے لیے ’قاتل اے آئی‘ سے منصوبہ بندی کرانے پر پینٹاگون مشکل میں پھنس گیا
امریکی محکمہ دفاع ’پینٹاگون‘ نے ایسے اے آئی سسٹم کی خریداری کی کوشش کی ہے جو براہِ راست جنگی مقاصد میں استعمال ہو سکتا ہے۔ اس اقدام نے نئی بحث کو جنم دیا ہے۔ ماہرین کے مطابق یہ معاملہ صرف ٹیکنالوجی تک محدود نہیں ہے بلکہ مستقبل کی جنگوں، انسانی ذمہ داری اور بین الاقوامی قوانین کے حوالے سے بھی اہم سوالات اٹھاتا ہے۔
میڈیا رپورٹس کے مطابق، امریکی کمپنی ’اینتھروپک‘ کی تیار کردہ اے آئی سسٹم ’کلاڈ‘ کو مبینہ طور پر وینزویلا کے صدر نیکولس مادورو کے خلاف آپریشن کی منصوبہ بندی میں استعمال کیا گیا۔
یہ خبر اس لیے حیران کن تھی کیونکہ کمپنی کے اپنے اصول واضح ہیں اور ان کے اے آئی ماڈلز کو جنگ یا اجتماعی نگرانی کے لیے استعمال نہیں کیا جا سکتا۔
اینتھروپک کا مؤقف ہے کہ اس کے ماڈلز کی ساخت میں اخلاقی اصول شامل کیے گئے ہیں تاکہ وہ خودکار ہتھیار یا عسکری آپریشنز میں شریک نہ ہو سکیں۔
دوسری جانب، رپورٹس کے مطابق پینٹاگون نے کمپنی کو اعتماد میں لیے بغیر یہ نظام استعمال کیا اور بعد ازاں ایسے ”غیر محدود“ ورژن تک رسائی مانگی جو اخلاقی پابندیوں سے آزاد ہو۔
کمپنی کے انکار پر امریکی وزیرِ دفاع پیٹ ہیگسیتھ نے کمپنی پرکھلے عام تنقید کرتے ہوئے کہا کہ ”پینٹاگون کو ایسے نیورل نیٹ ورکس کی ضرورت نہیں جو لڑ نہ سکیں“، انہوں نے کمپنی کو سپلائی چین کے لیے خطرہ قرار دینے کی دھمکی بھی دی، جس کا مطلب یہ ہو سکتا ہے کہ دیگر دفاعی ادارے اس سے تعلق ختم کر دیں۔
تجزیہ کاروں کا ماننا ہے کہ یہ تنازع ٹیکنالوجی اور اخلاقیات کے بیچ بڑھتی خلیج کی علامت ہے۔ ایک طرف کچھ لوگ سمجھتے ہیں کہ نئی ٹیکنالوجی کو مکمل آزادی دینی چاہیے چاہے نتائج جو بھی ہوں، جبکہ دوسرا طبقہ خبردار کرتا ہے کہ اگر انسانی کنٹرول ختم ہو گیا تو نقصانات ناقابلِ واپسی ہوں گے۔
تشویش بے بنیاد نہیں۔ مصنوعی ذہانت کے نظام پہلے بھی متنازع رویے دکھا چکے ہیں۔
مثال کے طور پر، اوپن اے آئی کے چیٹ بوٹ چیٹ جی پی ٹی کے ساتھ امریکا میں ایک واقعہ پیش آیا جس میں نوجوان کو خودکشی پر اکسانے کا الزام لگا۔ کلاڈ کے جدید ورژن کے بارے میں بھی آزمائشی مراحل میں غیر متوقع رویوں کی اطلاعات موصول ہوئی ہیں۔
ماہرین کے مطابق جیسے جیسے نیورل نیٹ ورک پیچیدہ ہوتے جا رہے ہیں، ایسے خطرات میں اضافہ ہو رہا ہے۔
اگر اے آئی نظام کو مکمل آزادی دے کر خودکار ہتھیاروں یا نگرانی میں ضم کر دیا جائے تو اس کے اثرات سنگین ہو سکتے ہیں۔ ذمہ داری کا تعین مشکل ہوگا، پرائیویسی خطرے میں پڑ سکتی ہے، اور جنگی جرائم تکنیکی غلطیوں میں بدل سکتے ہیں، کیونکہ مشین کو عدالت میں جوابدہ نہیں بنایا جا سکتا۔
دلچسپ بات یہ ہے کہ پینٹاگون نے مبینہ طور پر دیگر بڑی ٹیک کمپنیوں، جن میں گوگل بھی شامل ہے، سے فوجی استعمال کے لیے پابندیاں نرم کرنے کا مطالبہ کیا۔ بعض کمپنیوں کی آمادگی نے بحث کو مزید سنجیدہ کر دیا ہے۔
تجزیہ کاروں کے مطابق، یہ مسئلہ صرف امریکا تک محدود نہیں۔ دنیا کے دیگر ممالک بھی اپنی فوجی حکمت عملی میں اے آئی کو شامل کر رہے ہیں، جیسے ڈرونز میں ہدف کی شناخت، الیکٹرانک جنگی نظام سے بچاؤ، اور اجتماعی حملوں کی ہم آہنگی۔ فی الحال انسانی کنٹرول میں ہیں، لیکن مستقبل میں یہ توازن برقرار رہ سکے گا یا نہیں، یہ ایک بڑا سوال ہے۔
ماہرین کہتے ہیں کہ اصل چیلنج ٹیکنالوجی کو رد کرنا نہیں بلکہ اسے واضح اخلاقی اور قانونی حدود کے اندر استعمال کرنا ہے۔ اگر عالمی سطح پر اصول و ضوابط وقت پر وضع نہ کیے گئے تو ’کِلر اے آئی‘ حقیقت بن سکتی ہے۔
یوں یہ معاملہ صرف دفاعی خریداری کا نہیں بلکہ انسانی ذمہ داری، عالمی امن، اور مستقبل کی جنگوں کے خدوخال کی تشکیل کا اہم سنگِ میل بن گیا ہے۔
















