ٹیکنالوجی کا عذاب

(Sarwar Siddiqui, Lahore)

1970 ء کے عام انتخابات کے دوران پیپلزپارٹی کے ترجمان اخبار نے صفحہ اول پر ایک تصویرشائع کرکے تہلکہ مچادیا یہ تصویر فلم’’ انورا‘‘ میں اداکارہ نغمہ کی تھی جو ایک مشہور گانے ۔۔ سن وے بلوری اکھ والیا
پرڈانس کررہی تھی اخبارنے کما ل مہارت سے اداکارہ نغمہ کے چہرے پر مولانا مودودی ؒ کا چہرہ چسپاں کردیا اس وقت آج کے دورکی طرح ٹیکنالوجی کا دور دورہ نہیں تھا اخبار نے ایک ممتاز عالم ِ دین کے ساتھ جو سلوک کیا وہ تو قابل ِمذمت ہے لیکن لوگوں نے مزہ بہت لیا جیالے جہاں کہیں جماعت اسلامی کے کارکنوں یا مولوی حضرات کو دیکھتے سن وے بلوری اکھ والیا کی پھبتی کستے اور نو دو گیارہ ہوجاتے پاکستان کی تاریخ میں یہ پہلی فیک تصویرتھی جو بہت مقبول ہوئی اب توکمپیوٹر کا دور ہے سوشل میڈیا پر گردش کرنے والی بیشتر پوسٹوں کے متعلق کہاجاتاہے کہ وہ فیک ہوتی ہیں اس جعلسازی نے معاشرے میں بہت سے مسائل پیداکرکے رکھ دیئے ہیں آسان الفاظ میں اسے ٹیکنالوجی کا عذاب بھی کہا جائے تو بے جا نہ ہوگا حالانکہ ہر انسان دوسرے سے مختلف ہے۔ جو میں ہوں، وہ آپ نہیں ہوسکتے، لیکن ڈیپ فیک سے تصویر، آواز اور وڈیو میں ردوبدل کر کے ’’میں اور ’’آپ کی تمیز ختم کر دی جاتی ہے۔ خیال آتا ہے کہ یہ کام صرف ماہرین کرتے ہوں گے۔ جی نہیں، اب زیادہ مہارت کی ضرورت بھی نہیں رہی۔ ڈیپ فیک وڈیوز بنانے کے لئے کمپیوٹر اور انٹرنیٹ تک رسائی ہی کافی ہے۔ ڈیپ فیک کی اصطلاح 2017 ء کے اواخر میں ’’ریڈاِٹ کے یوزر نیم ’’ڈیپ فیکس سے اخذ کی گئی۔ اس نے اور دیگر نے انٹرنیٹ کی ’’ریڈاِٹ کمیونٹی میں اپنے تخلیق کردہ ڈیپ فیک شیئر کرنا شروع کردئیے ۔ ان میں فلمی ستاروں کے چہروں کو کسی دوسرے جسم کے ساتھ چسپاں کر دیا جاتا تھا۔ اس عمل میں جعلی فحش ویڈیوز بھی بنائی جاتی ہیں۔ویڈیوز کی جعل سازی کی جڑیں تصاویر کی ہیراپھیری میں پیوست ہیں۔ جس دور میں تصاویر ’’نیگیٹوز سے بنائی جاتی تھیں، ان میں بھی ایسا ہوتا تھا، لیکن ڈیپ فیک کو نئی اور طاقت ور تکنیکوں کا سہارا میسر ہے لہذا اس میں کام زیادہ باریکی سے ہوتا ہے۔ مشین لرننگ ، مصنوعی ذہانت کی ذیلی شاخ ہے جس کی مدد سے ڈیپ فیک ویڈیوز بنائی جاتی ہیں اور بصری و سمعی مواد کو اس طرح بدلا جاتا ہے کہ اصل اور نقل میں فرق کرنا انتہائی دشوار ہو جاتا ہے۔ حالیہ عرصے میں، بالخصوص مغرب میں، ڈیپ فیک کی جانب توجہ مبذول ہونے کا سبب فلمی ستاروں، فحش فلموں، جعلی خبروں، افواہوں اور مالی فراڈ میں اس کا استعمال ہے۔ اس سے سیاست بھی متاثر ہو رہی ہے کیونکہ کسی سیاسی رہنما یا نامور شخصیت کے منہ سے کچھ بھی نکلوایا جا سکتا ہے۔ 1860 ء کی دہائی میں کسی کے دھڑ پر ابراہام لنکن کا سر لگا دیا گیا تھا، یہ تصویری ہیراپھری کی اولین مثالوں میں سے ہے۔پانچ مئی 1920ء کو ولادی میر لینن نے سویردولو سکوائر میں سوویت سپاہ سے ایک مشہور خطاب کیا۔ اس موقع پر ایک تصویر لی گئی جس میں سٹیج پر لینن تقریر کر رہا ہے اور روسی انقلاب کے دو دیگر رہنما لیون ٹراٹسکی اور لیو کامنیف ساتھ کھڑے ہیں۔ لینن کی وفات کے بعد جوزف سٹالن نے اقتدار پر اپنی گرفت مضبوط کرنے کے بعد ٹراٹسکی اور کامنیف کو راستے سے ہٹا دیا اور ساتھ ہی ردوبدل کرتے ہوئے سرکاری طور پر شائع شدہ تصاویر میں دونوں رہنماوں کو کچھ اس انداز سے نکالا گیا کہ ان کے وہاں ہونے کا شائبہ تک نہیں ہوتا۔ یہ ہیرا پھیری سیاسی مقاصد کے لئے تھی اور سوویت تاریخ میں اس کی کئی دیگر مثالیں تلاش کی جا سکتی ہیں۔ صحافت کے میدان میں تصاویر میں تھوڑے سے ردوبدل کو بھی معیوب سمجھا جاتا ہے۔ مثلا معروف جریدے نیشنل جیوگرافک نے 1982 ء میں اپنے سرورق پر مصر کے دو اہرام شائع کیے جن میں انہیں حقیقت سے زیادہ قریب دکھایا گیا تھا۔ دراصل تصویر میں تھوڑا سا ردوبدل کیا گیا تھا۔ اس پر تنقید ہوئی اور ادارے کی طرف سے دوبارہ ایسا نہ کرنے کا بیان جاری ہوا۔ انیسویں صدی میں تصویری ہیرا پھیری کے بعد یہ ’’فن موشن پکچرز میں درآیا بیسویں صدی میں ٹیکنالوجی نے تیزی سے ترقی کی، ڈیجیٹل وڈیوزکا آغاز ہوا، اور پھرڈیپ فیک کا۔کہاجاسکتاہے کہ عام ہوتی ہوئی ڈیپ فیک ٹیکنالوجی نے 1990 ء کی دہائی کی شروعات میں تعلیمی اداروں میں جنم لیا۔ اس کے بعد آن لائن کمیونٹیز میں غیر پیشہ ور اور شوقیہ افراد نے اس میں دلچسپی لی اور اسے آگے بڑھایا۔ اب اس پر کام صنعتی پیمانے پر ہو رہا ہے۔کمپیوٹر سائنس کی شاخ ’’کمپیوٹر ویڑن میں ہونے والی تحقیقات نے ڈیپ فیک کو متعارف کرانے میں اہم کردار ادا کیا۔ الفاظ کے ساتھ منہ کی حرکات میں خود کار تبدیلی لانے والا پہلا پروگرام ’’وڈیو ری رائٹ 1997 ء میں جاری ہوا۔ اس میں کسی ویڈیو میں بولنے والے فرد کا منہ کسی دوسری آڈیو کی آواز کے مطابق حرکت کرسکتا ہے۔ یوں مشین لرننگ تکنیک سے ہونٹوں کی حرکت اور چہرے کے تاثرات بدلنے کو ممکن بنایا گیا اور ان میں ربط قائم کر دیا گیا۔ابتدامیں ڈیپ فیک کی شناخت آسان تھی، اب حقیقت کے زیادہ قریب جعلی ویڈیوز بنانے کی کوششوں نے پہچاننا دشوار کر دیا ہے۔ ’’سنتھی سائزنگ اوباما پروگرام اسی سلسلے کی کڑی تھا، سابق امریکی صدر تختہ مشق بنے اور جس کے تحت باراک اوباما کو کسی دوسری آڈیو کی آواز کے مطابق بولتے ہوئے یوں دکھایا گیا کہ اصلی اور نقلی کی تفریق خالی آنکھ کے لیے کرنا تقریبا ناممکن ہو گیا۔ چند برس قبل ’’فیس2فیس پروگرام کے ذریعے کسی ایک فرد کے وڈیو فوٹیج میں اس کے چہرے کے تاثرات کو کسی دوسرے فرد کے تاثرات سے تبدیل کیا گیا اور ایسا براہِ راست نشریات میں کیا گیا۔ 2018 میں یونیورسٹی آف کیلی فورنیا، برکلے کے محققین نے مصنوعی رقص کی ایک ایپ کے بارے میں بتایا، جس میں مصنوعی ذہانت کے استعمال سے کوئی بھی سیکھے اور حرکت کیے بغیر ایسی وڈیو بنا سکتا ہے جس میں وہ ماہر رقاص دکھائی دے۔ اس منصوبے سے ڈیپ فیک چہرے سے بڑھ کر پورے جسم تک پھیل گئی۔ قبل ازیں سر یا چہرے کے تاثرات پر توجہ مرکوز تھی۔ اسی برس ایک ڈیسک ٹاپ اپلی کیشن ’’فیک ایپ جاری ہوئی۔ اس سے ایک چہرے پر دوسرا چہرا چسپاں کرنا آسان ہو گیا۔ ’’فیک ایپتکنیکی اعتبار سے اپنے مقابل ’’فیس سویپ اور کمانڈ لائن پر مبنی ’’ڈیپ فیس لیب سے آگے نکل گئی۔ حالات اس قدرسنگین ہوچکے ہیں کہ اب چند بڑی کمپنیاں ڈیپ فیک کو استعمال کرنے لگی ہیں۔ ایک موبائل ایپ بنانے والی بڑی کمپنی نے ایک ایسی اپلی کیشن تیار کی ہے جس کی مدد سے ٹی وی یا مووی کلپ میں تصویر کی مدد سے آپ اپنا چہرہ کسی کردار پرچسپاں کر سکتے ہیں۔ ڈیپ فیک نے بہت سے اخلاقی مسائل بھی پیدا کیے ہیں۔ جون 2019ء میں ’’ڈیپ نوڈ کے نام سے ایک اپلی کیشن جاری ہوئی جس کی مدد سے تصویر کو بے لباس کیا جا سکتا تھا، لیکن جلد تخلیق کنندہ اسے ری موو کر دیا۔ڈیپ فیک ٹیکنالوجی عورتوں کے خلاف ایک ہتھیار بن رہا ہے کیونکہ اسے ان کے خلاف مذموم کاروباری مقاصد، بلیک میلنگ اور بدنام کرنے کے لئے استعمال کیا جا رہا ہے۔ ڈیپ فیک کا شکار مشہور سیاست دان بھی ہیں۔ پاکستان میں سابق وزیر اعظم کی ہونہار صاحبزادی مریم صفدر نے بھی کئی ویڈیو جاری کیں جن میں جج ارشدملک کی ویدیو بڑی مشہورہوئی تھی یہ بھی کہاجارہاہے کہ یہ ویڈیو بھی فیک تھی۔سوشل میڈیا پر تو ایسی ویڈیوکا ایک طوفان ِ بدتمیزی برپاہے اب تو جعلسازجس کی چاہیں عزت اچھال کررکھ دیں کوئی پوچھنے والا نہیں ایک ویڈیو میں ارجنٹائن کے صدر ماریسیو مکری کے چہرے کو ایڈولف ہٹلر میں ضم کیا گیا، اور انجیلنا مرکل کے چہرے کو ڈونلڈ ٹرمپ سے بدلا گیا۔یہ انتخابی مہم کا بھی حصہ ہے۔ 2020 ء کے دہلی کی قانون ساز اسمبلی کے انتخابات میں بھارتیہ جنتا پارٹی نے اسی ٹیکنالوجی کو استعمال کرتے ہوئے اپنے رہنما منوج تیواری کے انگریزی زبان کے ایک اشتہار کو ہریانوی میں ترجمہ کرکے جاری کیا، ہدف ہریانہ کے ووٹرز تھے۔ڈیپ فیک کے منفی اثرات کے خلاف ردِعمل فطری ہے۔ ڈیپ فیک کے بارے میں آگاہی بڑھانے کے لیے امریکی اداکار، ہدایت کار اور لکھاری جارڈن پیل نے باراک اوباما کی ڈیپ فیک بنائی جس میں آواز ان کی تھی اور چہرے کے تاثرات باراک اوباما کے۔ جو وہ کہتے وڈیو میں سابق امریکی صدر بھی براہِ راست وہی کہتے۔ دونوں کا موازنہ پیش کر کے ناظرین کو اندازہ ہوا کہ انہیں ڈیپ فیک سے محتاط رہنا ہے۔ اس ویڈیو کو یوٹیوب پر تلاش کیا جا سکتا ہے۔آڈیو ڈیپ فیک سے بے وقوف بنایا اور دھوکا دیا جا رہا ہے۔ بعض اوقات لوگ یہ خیال کرتے ہیں کہ وہ کسی بااعتماد فرد یا جاننے والے سے ہدایات لے رہے ہیں۔ گزشتہ برس برطانیہ میں قائم توانائی کی ایک فرم کے سی ای او کو بذریعہ فون الو بنایا گیا۔ اسے دو لاکھ 20 ہزار یورو ہنگری کے ایک بینک اکاونٹ میں ٹرانسفر کرنے کا کہا گیا۔ ایک فرد نے ایسا آڈیو ڈیپ فیک ٹیکنالوجی کا سہارا لیتے ہوئے کیا۔ سی ای او صاحب پہلی بار دھوکا کھا گئے، مگر خوش قسمتی سے دوسری بار انہیں دال میں کالا نظر آ گیا۔لوگوں کو پتا ہونا چاہیے کہ ڈیپ فیک ٹیکنالوجی وڈیو اور آڈیو میں کتنی جلدی ہیراپھیری کر سکتی ہے۔ اس سے لڑنے کے لیے معلومات کے بااعتبار اور آزاد ذرائع اور صحافت کی ضرورت ہے۔اگر موثر اقدامات نہ کیے گئے تو ڈیپ فیک ٹیکنالوجی مذموم مقاصد کے لیے استعمال ہوتی رہے گی۔ اس سے کوئی ہنگامی صورت حال کسی بھی وقت پیدا ہو سکتی ہے۔ انٹرنیٹ اور سوشل میڈیا پر جعلی خبریں کے بعد ہم جس دور میں داخل ہوئے ہیں وہ ڈیپ فیک کا ہے۔ ڈیپ فیک وڈیو کو شناخت کرنے پر بھی توجہ دی جا رہی ہے، قانون سازی اور سافٹ ویئر، دونوں میدانوں میں۔ اس سلسلے میں حکومتیں بھی متحرک ہو رہی ہیں۔ جون 2019 ء میں ریاست ہائے متحدہ امریکاکی ’’ہاوس انٹیلی جنس کمیٹی نے انتخابات میں ڈیپ فیک کے غلط استعمال پر سماعت کی۔اس کے خلاف قانون سازی کے سلسلے میں 2018ء میں ’’میلیشیس ڈیپ فیک پروہیبشن ایکٹ کو امریکی سینیٹ نے اور 2009 ء میں ایوان نمائندگان نے ’’اکاونٹیبلٹی ایکٹ کومتعارف کرایا۔نومبر 2019 ء میں چین نے اعلان کیا کہ ڈیپ فیک اور دیگر سنتھیٹک وڈیوز کے ساتھ نوٹس کا ہونا لازمی ہو گا اور غیرموجودگی کی صورت میں خلاف قانونی کارروائی جائے گی۔ اسی طرح کی قانون سازیاں دوسرے ممالک میں بھی ہوئی ہیں۔ دوسری طرف ایسے سافٹ ویئر بھی بن چکے ہیں جو جعلی آڈیو اور وڈیو کو چند سیکنڈوں میں پہچان لیتے ہیں۔ ڈیپ فیک کی دھوکے بازی سے بچنے کے لئے یہ ضروری ہے کہ شناخت کرنے والے ایسے سافٹ وئیرز وقتا فوقتا اپ ڈیٹ ہوتے رہیں تاکہ ڈیپ فیک ٹیکنالوجی کی نمو کا مقابلہ کر سکیں ویسے فیک ویڈیو کے حوالہ سے پاکستان میں مؤثر قانون سازی کی ضرورت ہے تاکہ لوگ دور ِ حاضر میں ٹیکنالوجی کے عذاب سے محفوظ رہ سکیں لوگوں کے ذہنی سکون کیلئے یہ اقدام انتہائی ناگزیرہے۔
 

Rate it:
Share Comments Post Comments
Total Views: 88 Print Article Print
 PREVIOUS
NEXT 
About the Author: Sarwar Siddiqui

Read More Articles by Sarwar Siddiqui: 184 Articles with 45931 views »
Currently, no details found about the author. If you are the author of this Article, Please update or create your Profile here >>

Comments

آپ کی رائے
Language: