(বাঁ দিক থেকে) ক্যাটরিনা কইফ এবং রশ্মিকা মন্দানা। ছবি: সংগৃহীত।
‘অ্যানিম্যাল’-খ্যাত দক্ষিণী অভিনেত্রী রশ্মিকা মন্দানার ‘ডিপফেক’ ভিডিয়ো ঘিরে সমাজমাধ্যম তোলপাড় হয়ে গিয়েছিল কিছু দিন আগে। কালো জিম পোশাকে অভিনেত্রীর একটি ভিডিয়ো ছড়িয়ে পড়তেই অনুরাগীদের সন্দেহ হতে শুরু করে। কারণ, ভিডিয়োটিতে যে মহিলাকে দেখা গিয়েছে তার মুখ, কণ্ঠস্বর হুবহু রশ্মিকার মতো হলেও চেহারায় কিছু অসঙ্গতি রয়েছে। তদন্তে প্রমাণিত হয়, সেই ভিডিয়োটি আসলে কৃত্রিম বুদ্ধিমত্তা বা ‘এআই’-এর সাহায্যে তৈরি করা ‘ডিপফেক’ ভিডিয়ো। ‘ডিপ লার্নিং’ প্রযুক্তি ব্যবহার করে অডিয়ো, ভিডিয়ো এবং ছবির উপর কারসাজি করে এমন ভিডিয়ো তৈরি করা হয়, যা দেখে আসল না নকল বোঝার উপায় থাকে না। সমাজমাধ্যম জুড়ে ছড়িয়ে থাকে এমন অজস্র ছবি, ভিডিয়ো কিংবা হালের ‘মিম’। এই কর্মকাণ্ডের নেপথ্যে ঠিক কী ধরনের প্রযুক্তি ব্যবহার করেন চক্রীরা?
১) ‘ডিপফেক’ তৈরি করা কতটা সহজ?
এই ধরনের বিকৃত ভিডিয়ো তৈরি করতে প্রচণ্ড শক্তিশালী হার্ডঅয়্যার বা সফ্টঅয়্যার-এর প্রয়োজন হত। কিন্তু সেই কাজ এখন অনেকটাই সহজ হয়ে গিয়েছে ‘জেনারেটিভ এআই টুল’ আসার পর। অত্যন্ত নিখুঁত এবং নির্ভুল ভাবে অন্যের ছবি বা ভিডিয়োতে নানা রকম কারসাজি করার প্রক্রিয়াটি সহজ করে দিতে পারে এই ধরনের প্রযুক্তি।
২) কেন ‘ডিপফেক’ ভিডিয়ো চেনা কঠিন?
কোনও এক জন ব্যক্তিকে কেন্দ্র করে নির্দিষ্ট কোনও কারণে এই ধরনের ভিডিয়ো তৈরি করা হয়। প্রাথমিক ভাবে রাজনৈতিক বা তথাকথিত খ্যাতনামী ব্যক্তিত্বদের ছবি বা ভিডিয়ো বিকৃত করে, তাঁদের ব্ল্যাকমেল করাই চক্রীদের উদ্দেশ্য। এই ধরনের প্রযুক্তি ব্যবহার করে জালিয়াতি করার ঘটনা আগেও ছিল। তবে এ বার কণ্ঠস্বর, অঙ্গপ্রত্যঙ্গ সঞ্চালন যোগ করে তা আরও বেশি ‘আসল’ করে তোলার কাজটি সহজ হল।
৩) ‘ডিপফেক’ ভিডিয়ো তৈরির মূলে কী ধরনের প্রযুক্তি ব্যবহার করা হয়?
ইন্টারনেট যে ভাবে কাজ করে, সেই প্রক্রিয়াটির কারণেই ভিডিয়োটি আসল না ‘ডিপফেক’, তা চিহ্নিত করতে পারা আরও কঠিন হয়ে গিয়েছে। এই ধরনের প্রযুক্তি যাঁরা ব্যবহার করেন, তাঁদের কাছে অজস্র ‘টুল’ রয়েছে। যা আসল ভিডিয়োটিকে লুকিয়ে রাখতে সাহায্য করে। শুধু তা-ই নয়, এই ধরনের প্রযুক্তি ব্যবহার করার পর সহজেই ডিজিটাল সই, ডিজিটাল ফিঙ্গার প্রিন্ট বা কোন অঞ্চলে বসে এই কাজ করা হচ্ছে, তার সমস্ত চিহ্ন মুছে ফেলা যায়।