مصنوعی ذہانت (AI) نے حالیہ برسوں میں ناقابل یقین ترقی
کی ہے۔ گہری سیکھنے، قدرتی زبان کی پروسیسنگ، اور روبوٹکس میں ترقی کے ساتھ،
مشینیں سیکھنے اور فیصلے کرنے کی اپنی صلاحیت میں تیزی سے نفیس ہوتی جا رہی
ہیں۔ اگرچہ AI کے بہت سے فوائد ہیں، لیکن جب ہم ان مشینوں کی صلاحیتوں پر
غور کرتے ہیں تو اہم اخلاقی مخمصے اور اخلاقی سوالات بھی پیدا ہوتے ہیں۔ اس
مضمون میں، ہم AI کے اخلاقی مخمصوں اور ذمہ داریوں، اور اخلاقی تحفظات کو
تلاش کریں گے جن پر توجہ دی جانی چاہیے تاکہ یہ یقینی بنایا جا سکے کہ ان
ٹیکنالوجیز کو ذمہ دارانہ اور اخلاقی انداز میں استعمال کیا جائے۔
AI اور اخلاقی مخمصے۔
AI کی بڑھتی ہوئی صلاحیتوں نے بہت سے اخلاقی مخمصوں کو جنم دیا ہے جو کبھی
سائنس فکشن کے دائرے تک محدود تھے۔ مثال کے طور پر، جیسے جیسے مشینیں فیصلے
کرنے کی صلاحیت رکھتی ہیں، ہمیں اس بات پر غور کرنا چاہیے کہ جب کچھ غلط ہو
جائے تو کون ذمہ دار ہے۔ خود مختار گاڑیوں کے معاملے میں، مثال کے طور پر،
جب کوئی حادثہ ہوتا ہے تو کون ذمہ دار ہوتا ہے؟ کیا یہ گاڑی کا مینوفیکچرر،
سافٹ ویئر بنانے والا، یا وہ شخص جو گاڑی چلا رہا تھا؟ یہ پیچیدہ سوالات
ہیں جن کو حل کرنا ضروری ہے جب ہم AI کی ترقی اور نفاذ کے ساتھ آگے بڑھ رہے
ہیں۔
ایک اور اخلاقی مخمصہ جو AI کے ساتھ پیدا ہوتا ہے وہ ہے تعصب کا سوال۔
مشینیں ان کو دیئے گئے ڈیٹا سے سیکھتی ہیں، اور اگر وہ ڈیٹا متعصب ہے، تو
مشین جو فیصلے کرتی ہے وہ بھی متعصب ہوں گے۔ مثال کے طور پر، اگر ایک AI
نظام کو ڈیٹا پر تربیت دی جاتی ہے جو بنیادی طور پر مرد ہیں، تو یہ ایسے
فیصلے کر سکتا ہے جو خواتین کے لیے مناسب نہیں ہیں۔ یہ ملازمت اور فوجداری
انصاف جیسے شعبوں میں خاص طور پر ایک تشویشناک تشویش ہے، جہاں متعصبانہ
فیصلے دور رس نتائج کا باعث بن سکتے ہیں۔
AI اور ذمہ داری
جیسے جیسے مشینیں فیصلے کرنے کی صلاحیت رکھتی ہیں، اس پر غور کرنا ضروری ہے
کہ ان فیصلوں کا ذمہ دار کون ہے۔ بہت سے معاملات میں، یہ ذمہ داری
ٹیکنالوجی کے ڈویلپرز اور مینوفیکچررز پر آتی ہے۔ تاہم، جیسا کہ AI سسٹمز
زیادہ پیچیدہ ہوتے جاتے ہیں، یہ طے کرنا زیادہ مشکل ہو جاتا ہے کہ جو فیصلے
کیے گئے ہیں ان کے لیے آخر کار کون ذمہ دار ہے۔
اس مسئلے کا ایک مجوزہ حل یہ ہے کہ "قابل وضاحت AI" کا نظام بنایا جائے۔ اس
کا مطلب ہے کہ اے آئی سسٹم کو اس طرح سے ڈیزائن کیا گیا ہے کہ یہ سمجھنا
ممکن ہے کہ یہ کسی خاص فیصلے پر کیسے پہنچا۔ یہ تکنیکوں کے ذریعے حاصل کیا
جا سکتا ہے جیسے فیصلے کے درخت یا اصول پر مبنی نظام۔ فیصلہ سازی کے عمل کو
شفاف بنانے سے، کیے گئے فیصلوں کی ذمہ داری تفویض کرنا آسان ہو جاتا ہے۔
ذمہ داری کے مسئلے کا ایک اور مجوزہ حل "انسانی نگرانی" کا نظام تشکیل دینا
ہے۔ اس کا مطلب یہ ہے کہ لوپ میں ایک انسان ہے جو ان فیصلوں کی نگرانی کا
ذمہ دار ہے جو AI سسٹم کر رہا ہے۔ کچھ معاملات میں، اس میں انسان کو حتمی
فیصلہ کرنا شامل ہو سکتا ہے، جب کہ دوسرے معاملات میں، اس میں انسان شامل
ہو سکتا ہے کہ وہ ان فیصلوں کی نگرانی کرے جو مشین کر رہی ہے۔
AI اور اخلاقیات
اخلاقی مخمصوں اور ذمہ داری کے سوالات کے علاوہ، اہم اخلاقی تحفظات بھی ہیں
جن کو AI تیار کرتے اور استعمال کرتے وقت دھیان میں رکھنا چاہیے۔ سب سے
زیادہ دباؤ والے اخلاقی خدشات میں سے ایک AI کے نقصان دہ مقاصد کے لیے
استعمال کیے جانے کا امکان ہے۔ مثال کے طور پر، AI کو خود مختار ہتھیاروں
کو تیار کرنے کے لیے استعمال کیا جا سکتا ہے، جس کے تباہ کن نتائج ہو سکتے
ہیں اگر وہ خراب ہو جائیں یا غلط ہاتھوں میں جائیں۔
AI کے ساتھ ایک اور اخلاقی تشویش لوگوں کی پرائیویسی پر حملہ کرنے کے لیے
اس کے استعمال ہونے کا امکان ہے۔ افراد پر جمع کیے جانے والے ڈیٹا کی بڑھتی
ہوئی مقدار کے ساتھ، یہ خطرہ ہے کہ اس ڈیٹا کو ایسے فیصلے کرنے کے لیے
استعمال کیا جائے جو فرد کے بہترین مفاد میں نہ ہوں۔ مثال کے طور پر، ایک
انشورنس کمپنی کسی فرد کی طبی تاریخ کا ڈیٹا ان کی کوریج سے انکار کرنے کے
لیے استعمال کر سکتی ہے، یا حکومت کسی فرد کے سیاسی عقائد کے ڈیٹا کو
نگرانی کے لیے ہدف بنانے کے لیے استعمال کر سکتی ہے۔
AI کے ارد گرد اخلاقی خدشات کا ایک مجوزہ حل AI ڈویلپرز اور صارفین کے لیے
اخلاقیات کے ضابطے کی تشکیل ہے۔ اخلاقیات کا یہ ضابطہ AI کے ڈویلپرز اور
صارفین کی ذمہ داریوں کا خاکہ پیش کرے گا اور فراہم کرے گا۔ |