آرٹیفیشل انٹیلی جنس نے جہاں زندگی میں بہت سی آسانیاں پیدا کردی ہیں کچھ لوگوں کیلئے مشکلات بھی پیدا ہورہی ہیں، گزشتہ کچھ عرصہ سے اداکاروں اور نامور شخصیات کی ڈیپ فیک تصاویر اور ویڈیوز نےٹیکنالوجی کے غلط استعمال کے حوالے سے خدشات میں اضافہ کردیا ہے۔
ڈیپ فیک ایسی تکنیک ہے جو ویڈیوز، تصاویر اور آڈیوز کو جوڑ توڑ کرنے کے لیے مصنوعی ذہانت کا استعمال کرتی ہے ،اس ٹیکنالوجی سے کسی بھی دوسرے شخص کی تصویر یا ویڈیو کو استعمال کرتے ہوئے اس پر کسی اور کا چہرہ لگا کر تبدیل کیا جاسکتا ہے۔
گزشتہ کچھ عرصہ سے اس ٹیکنالوجی کے استعمال میں اضافہ دیکھنے میں آیا ہے، یعنی کہ مصنوعی ذہانت سے ایک جعلی ویڈیو بنائی جاسکتی ہے جو کہ اصلی نظر آتی ہے لیکن اصلی ہوتی نہیں ہے۔
ماہرین کا کہنا ہے کہ آرٹیفیشل انٹیلی جنس کے ذریعے ڈیپ فیک کے غلط استعمال سے معاشرتی مسائل میں اضافہ ہورہا ہے،اس لئے ڈیپ فیک کے سدباب کیلئے لوگوں میں آگاہی پھیلانے کی اشد ضروت ہے۔
آئی ٹی ماہرین کا کہنا ہے کہ آرٹیفیشل انٹیلی جنس کا غلط استعمال روکنے کیلئے لوگوں کو ڈیجیٹل لٹریسی کی طرف جانا چاہیے تاکہ وہ سیکھ سکیں کہ ڈیجیٹل پلیٹ فارمز کو کس طرح آپریٹ یا استعمال کیا جائے۔
ماہرین کا کہنا ہے کہ آرٹیفیشل انٹیلی جنس کا غلط استعمال روکنے کیلئے آگاہی مہم چلانے کی ضرورت ہے اور قوانین پر عملدرآمد سخت کرکے بھی اس معاملے کو روکا جاسکتا ہے۔