۱۔ میں کسی انسان کو (جسمانی) تکلیف نہیں دُوں گا، اور نہ
ہی کسی انسان کو تکلیف میں دیکھ کر مدد سے گریز کروں گا۔
۲۔ میں انسانوں کے تمام احکام کی پیروی کرونگا بشرطیکہ وہ احکام پہلے قانون
سے متصادم نہ ہوں۔
۳۔ میں اپنی حفاظت کے لئے ضروری اقدامات کرونگا بشرطیکہ یہ اقدامات پہلے دو
قوانین سے متصادم نہ ہوں۔
لفظ 'روباٹکس' کے موجد اور مشہورِ زمانہ سائنس فکشن رائٹر آئیزَک اَزِیمَو
نے مصنوعی ذہانت رکھنے والے روباٹس کے لئے یہ تین قوانین اپنی کہانیوں میں
اس طور پر پیش کئے کہ یہ ہر روباٹ کی پروگرامنگ کا لازمی حصہ ہونے چاہیئں (یعنی
یوں سمجھیں کہ یہ روباٹس کی ناقابلِ تغیر 'فطرت' میں شامل ہونے چاہییں)۔
روباٹکس کی دنیا اور سائنس فکشن میں اِن قوانین پر خوب گفتگو ہوتی ہے۔ کیا
یہ قوانین واقعی روباٹس کو انسانوں کا مخلص خدمت گزار بنا سکیں گے؟ اِن
قوانین کی مختلف تشریحات اور تاویلوں سے اِس سوال کے بہت مختلف جوابات
نکلتے ہیں۔ ایک دلچسپ نتیجہ فلم I, Robot میں دیکھا جا سکتا ہے۔
حال ہی میں سائنس اور ٹیکنالوجی کی دنیا کے کُچھ بڑے ناموں نے یہ درخواست
کی ہے کہ دُنیا کے تمام ممالک معاہدہ کر لیں کہ وہ مصنوعی ذہانت والے
ہتھیار نہیں بنائیں گے۔ جس سے ذہن پہلے قانون کے پہلے حصے کی طرف جاتا ہے۔ |