Advertisement
০৮ সেপ্টেম্বর ২০২৪
Deepfake Video and Picture

আপনার অশালীন ছবি হঠাৎ দেখা যাচ্ছে ইন্টারনেটে? কী ভাবে বুঝবেন এ আসলে ‘ডিপ ফেক-কা খেল’?

প্রযুক্তির কাছে ‘বিখ্যাত’ বা ‘প্রভাবশালী’রাও অসহায়, তা চোখে আঙুল দিয়ে দেখিয়ে দিয়েছে ‘ডিপফেক’। ‘ডিপফেক’ বা ভুয়ো ভিডিয়োর শিকার হন অভিনেত্রী রশ্মিকা মন্দনা, ক্যাটরিনা কইফ, কাজল, সারা তেন্ডুলকরেরা।

আনন্দবাজার অনলাইন ডেস্ক
নয়াদিল্লি শেষ আপডেট: ০১ ডিসেম্বর ২০২৩ ১৫:০৮
Share: Save:
০১ ১৫
প্রযুক্তির ‘জুজু’ যে আর দূরে কোথাও নেই, একেবারে রোজকার যাপনে এসে পড়েছে, তা-ই বুঝিয়ে দিয়েছে সাম্প্রতিক একের পর এক ‘ডিপফেক’ কাণ্ড! এ এমনই এক প্রযুক্তি-কৌশল, যার দৌলতে বিশ্বের যে কোনও মানুষের ছবি বা ভিডিয়োয় মুখচ্ছবি পাল্টে দেওয়া হচ্ছে। অত্যন্ত সূক্ষ্ম এবং প্রায়-নিখুঁত ভাবে এক জনের শরীরে জুড়ে দেওয়া হচ্ছে অন্যের ধড় এবং মুণ্ড।

প্রযুক্তির ‘জুজু’ যে আর দূরে কোথাও নেই, একেবারে রোজকার যাপনে এসে পড়েছে, তা-ই বুঝিয়ে দিয়েছে সাম্প্রতিক একের পর এক ‘ডিপফেক’ কাণ্ড! এ এমনই এক প্রযুক্তি-কৌশল, যার দৌলতে বিশ্বের যে কোনও মানুষের ছবি বা ভিডিয়োয় মুখচ্ছবি পাল্টে দেওয়া হচ্ছে। অত্যন্ত সূক্ষ্ম এবং প্রায়-নিখুঁত ভাবে এক জনের শরীরে জুড়ে দেওয়া হচ্ছে অন্যের ধড় এবং মুণ্ড।

০২ ১৫
এর জন্য শুধুই জানতে হয় ‘ডিপ লার্নিং’ আর কৃত্রিম বুদ্ধিমত্তার (আর্টিফিশিয়াল ইন্টেলিজেন্স, সংক্ষেপে ‘এআই’) প্রযুক্তি। বিশ্বের যে কোনও প্রান্তে বা প্রত্যন্ত অঞ্চলে বসে যে কোনও মানুষই এই কাজ করতে পারেন। আর সেই সব জাল ছবি-ভিডিয়ো সমাজমাধ্যমে ছড়িয়ে ফেলতে পারলেই কার্যসিদ্ধি— জনমানসে বিরূপ প্রতিক্রিয়া, ব্যঙ্গবিদ্রুপ, চরিত্রহনন অবশ্যম্ভাবী।

এর জন্য শুধুই জানতে হয় ‘ডিপ লার্নিং’ আর কৃত্রিম বুদ্ধিমত্তার (আর্টিফিশিয়াল ইন্টেলিজেন্স, সংক্ষেপে ‘এআই’) প্রযুক্তি। বিশ্বের যে কোনও প্রান্তে বা প্রত্যন্ত অঞ্চলে বসে যে কোনও মানুষই এই কাজ করতে পারেন। আর সেই সব জাল ছবি-ভিডিয়ো সমাজমাধ্যমে ছড়িয়ে ফেলতে পারলেই কার্যসিদ্ধি— জনমানসে বিরূপ প্রতিক্রিয়া, ব্যঙ্গবিদ্রুপ, চরিত্রহনন অবশ্যম্ভাবী।

০৩ ১৫
প্রযুক্তির কাছে ‘বিখ্যাত’ বা ‘প্রভাবশালী’রাও অসহায়, তা চোখে আঙুল দিয়ে দেখিয়ে দিয়েছে ‘ডিপফেক’। সম্প্রতি দক্ষিণী অভিনেত্রী রশ্মিকা মন্দনার একটি ভুয়ো ভিডিয়ো সামনে আসে। কৃত্রিম বুদ্ধিমত্তার মাধ্যমে ‘ডিপ লার্নিং’ প্রযুক্তি ব্যবহার করে অন্য এক জনের দেহে রশ্মিকার মুখ এবং কণ্ঠস্বর বসিয়ে দেওয়া হয়।

প্রযুক্তির কাছে ‘বিখ্যাত’ বা ‘প্রভাবশালী’রাও অসহায়, তা চোখে আঙুল দিয়ে দেখিয়ে দিয়েছে ‘ডিপফেক’। সম্প্রতি দক্ষিণী অভিনেত্রী রশ্মিকা মন্দনার একটি ভুয়ো ভিডিয়ো সামনে আসে। কৃত্রিম বুদ্ধিমত্তার মাধ্যমে ‘ডিপ লার্নিং’ প্রযুক্তি ব্যবহার করে অন্য এক জনের দেহে রশ্মিকার মুখ এবং কণ্ঠস্বর বসিয়ে দেওয়া হয়।

০৪ ১৫
এ নিয়ে বিতর্ক থিতু হওয়ার আগেই একে একে ‘ডিপফেক’ বা ভুয়ো ভিডিয়োর শিকার হন অভিনেত্রী ক্যাটরিনা কইফ, কাজল, সারা তেন্ডুলকরেরা। প্রধানমন্ত্রী নরেন্দ্র মোদী জানিয়েছেন, তিনিও সম্প্রতি ভুয়ো ভিডিয়োর শিকার হয়েছেন। তার প্রেক্ষিতেই প্রধানমন্ত্রীর আশঙ্কা, কৃত্রিম বুদ্ধিমত্তার সাহায্যে যে ভুয়ো ভিডিয়ো তৈরি হচ্ছে তা আগামী দিনে বড় বিপদ ডেকে আনতে পারে। মোদী বলেন, ‘‘কৃত্রিম বুদ্ধিমত্তার এই যুগে আমাদের দায়িত্ব নিয়ে প্রযুক্তিকে ব্যবহার করতে হবে।’’

এ নিয়ে বিতর্ক থিতু হওয়ার আগেই একে একে ‘ডিপফেক’ বা ভুয়ো ভিডিয়োর শিকার হন অভিনেত্রী ক্যাটরিনা কইফ, কাজল, সারা তেন্ডুলকরেরা। প্রধানমন্ত্রী নরেন্দ্র মোদী জানিয়েছেন, তিনিও সম্প্রতি ভুয়ো ভিডিয়োর শিকার হয়েছেন। তার প্রেক্ষিতেই প্রধানমন্ত্রীর আশঙ্কা, কৃত্রিম বুদ্ধিমত্তার সাহায্যে যে ভুয়ো ভিডিয়ো তৈরি হচ্ছে তা আগামী দিনে বড় বিপদ ডেকে আনতে পারে। মোদী বলেন, ‘‘কৃত্রিম বুদ্ধিমত্তার এই যুগে আমাদের দায়িত্ব নিয়ে প্রযুক্তিকে ব্যবহার করতে হবে।’’

০৫ ১৫
কিন্তু এর থেকে আমজনতার নিস্তার কী উপায়ে? প্রযুক্তি-বিশেষজ্ঞদের বক্তব্য, এই অবস্থা থেকে বাঁচার জন্য আইন হতেই পারে। সংবাদমাধ্যম আরও দায়িত্বশীল হয়ে কাজ করতেই পারে। সেই সঙ্গে ‘ডিজিটাল স্বাক্ষরতা’ও ভীষণ ভাবে জরুরি হয়ে পড়ছে। সমাজমাধ্যমে কোনও ছবি বা ভিডিয়ো দেখলে, তার সত্যতা যাতে নিজেরাই যাচাই করতে পারেন সাধারণ মানুষ।

কিন্তু এর থেকে আমজনতার নিস্তার কী উপায়ে? প্রযুক্তি-বিশেষজ্ঞদের বক্তব্য, এই অবস্থা থেকে বাঁচার জন্য আইন হতেই পারে। সংবাদমাধ্যম আরও দায়িত্বশীল হয়ে কাজ করতেই পারে। সেই সঙ্গে ‘ডিজিটাল স্বাক্ষরতা’ও ভীষণ ভাবে জরুরি হয়ে পড়ছে। সমাজমাধ্যমে কোনও ছবি বা ভিডিয়ো দেখলে, তার সত্যতা যাতে নিজেরাই যাচাই করতে পারেন সাধারণ মানুষ।

০৬ ১৫
খুব সহজ ভাষায় বলতে গেলে, ‘ডিপফেক’ প্রযুক্তি কোনও ব্যক্তির মুখের অভিব্যক্তি খুব খুঁটিয়ে পড়ে ফেলতে পারে। বুঝে নিতে পারে গলার আওয়াজ। তার পর সেই বিশ্লেষণের ফসল অন্যের মুখের উপর বসিয়ে দিতে পারে। কিন্তু তা নিখুঁত ভাবে হুবহু মিলিয়ে দেওয়া ততটাও সহজ নয়। কোথাও না কোথাও খামতি থেকেই যায়। চোখে দেখার সময় সেগুলিই খুঁজে বার করা জরুরি।

খুব সহজ ভাষায় বলতে গেলে, ‘ডিপফেক’ প্রযুক্তি কোনও ব্যক্তির মুখের অভিব্যক্তি খুব খুঁটিয়ে পড়ে ফেলতে পারে। বুঝে নিতে পারে গলার আওয়াজ। তার পর সেই বিশ্লেষণের ফসল অন্যের মুখের উপর বসিয়ে দিতে পারে। কিন্তু তা নিখুঁত ভাবে হুবহু মিলিয়ে দেওয়া ততটাও সহজ নয়। কোথাও না কোথাও খামতি থেকেই যায়। চোখে দেখার সময় সেগুলিই খুঁজে বার করা জরুরি।

০৭ ১৫
প্রথমেই যেটা নজর করা জরুরি, সেটা হল চোখের নড়াচড়া। এক জনের চোখ অন্যের মুখে বসানো যেতেই পারে। কিন্তু মুখের সঙ্গে সেই চোখের সামঞ্জস্য রক্ষা করা কঠিনই। সেই তালমিলে গন্ডগোল থাকলে চোখের নড়াচড়াও অস্বাভাবিক হবে।

প্রথমেই যেটা নজর করা জরুরি, সেটা হল চোখের নড়াচড়া। এক জনের চোখ অন্যের মুখে বসানো যেতেই পারে। কিন্তু মুখের সঙ্গে সেই চোখের সামঞ্জস্য রক্ষা করা কঠিনই। সেই তালমিলে গন্ডগোল থাকলে চোখের নড়াচড়াও অস্বাভাবিক হবে।

০৮ ১৫
একটু ভাল করে নজর করলে দেখা যায়, একই ভাবে ঠোঁটের নড়া, গলার শব্দেও অসংলগ্নতা থাকে। মুখ আসল হলেও মুখের অভিব্যক্তিতে অস্বাভাবিকতা খুঁজে পাওয়া যায়। শুধু তা-ই নয়, ডিপফেক ভিডিয়ো বা ছবির ব্যাকগ্রাউন্ড, আলো এবং রঙের বিন্যাসেও বদল ঘটে। ভাল করে লক্ষ করলেই যা সহজে ধরা পড়বে।

একটু ভাল করে নজর করলে দেখা যায়, একই ভাবে ঠোঁটের নড়া, গলার শব্দেও অসংলগ্নতা থাকে। মুখ আসল হলেও মুখের অভিব্যক্তিতে অস্বাভাবিকতা খুঁজে পাওয়া যায়। শুধু তা-ই নয়, ডিপফেক ভিডিয়ো বা ছবির ব্যাকগ্রাউন্ড, আলো এবং রঙের বিন্যাসেও বদল ঘটে। ভাল করে লক্ষ করলেই যা সহজে ধরা পড়বে।

০৯ ১৫
ইতিমধ্যেই এ ধরনের ভুয়ো ভিডিয়ো রুখতে তৎপর কেন্দ্র। চলতি মাসেই ইলেকট্রনিক্স এবং তথ্যপ্রযুক্তি মন্ত্রকের সাইবার আইন শাখা সব ক’টি সমাজমাধ্যমকে চিঠি দিয়ে জানিয়েছে, ভারতীয় আইন অনুযায়ী সমাজমাধ্যমের প্ল্যাটফর্মে যে ভুয়ো তথ্য এবং ভুয়ো ভিডিয়ো রয়েছে, তা সরিয়ে ফেলতে হবে।

ইতিমধ্যেই এ ধরনের ভুয়ো ভিডিয়ো রুখতে তৎপর কেন্দ্র। চলতি মাসেই ইলেকট্রনিক্স এবং তথ্যপ্রযুক্তি মন্ত্রকের সাইবার আইন শাখা সব ক’টি সমাজমাধ্যমকে চিঠি দিয়ে জানিয়েছে, ভারতীয় আইন অনুযায়ী সমাজমাধ্যমের প্ল্যাটফর্মে যে ভুয়ো তথ্য এবং ভুয়ো ভিডিয়ো রয়েছে, তা সরিয়ে ফেলতে হবে।

১০ ১৫
আইন মহলের মতে, কারও ভুয়ো ছবি তৈরি করা এবং তা সমাজমাধ্যমে প্রকাশ করা মানে তথ্যপ্রযুক্তি আইনের ৬৬ই ধারার লঙ্ঘন। তাতে তিন বছর পর্যন্ত জেল এবং ২ লক্ষ টাকা পর্যন্ত জরিমানাও হতে পারে। তাই পরামর্শ, ভুয়ো ছবি-ভিডিয়োর ‘শিকার’ হলে সোজা পুলিশের দ্বারস্থ হতে হবে।

আইন মহলের মতে, কারও ভুয়ো ছবি তৈরি করা এবং তা সমাজমাধ্যমে প্রকাশ করা মানে তথ্যপ্রযুক্তি আইনের ৬৬ই ধারার লঙ্ঘন। তাতে তিন বছর পর্যন্ত জেল এবং ২ লক্ষ টাকা পর্যন্ত জরিমানাও হতে পারে। তাই পরামর্শ, ভুয়ো ছবি-ভিডিয়োর ‘শিকার’ হলে সোজা পুলিশের দ্বারস্থ হতে হবে।

১১ ১৫
কেন্দ্রও জানিয়েছে, এ ধরনের ‘ডিপফেক’ বা ভুয়ো ভিডিয়ো বানানো এবং তা প্রচার করার অপরাধে কোনও ব্যক্তির এক লক্ষ টাকা জরিমানা এবং তিন বছরের জেল, উভয়ই হতে পারে।

কেন্দ্রও জানিয়েছে, এ ধরনের ‘ডিপফেক’ বা ভুয়ো ভিডিয়ো বানানো এবং তা প্রচার করার অপরাধে কোনও ব্যক্তির এক লক্ষ টাকা জরিমানা এবং তিন বছরের জেল, উভয়ই হতে পারে।

১২ ১৫
তথ্যপ্রযুক্তি মন্ত্রী অশ্বিনী বৈষ্ণব জানিয়েছেন, ‘ডিপফেক’ সংক্রান্ত বিষয়ে কেন্দ্র শীঘ্রই সমাজমাধ্যমের বিভিন্ন প্ল্যাটফর্মের সঙ্গে বৈঠক করবে। এর পাশাপাশি তিনি জানিয়েছেন, ‘ডিপফেক’ সরিয়ে ফেলার জন্য উপযুক্ত পদক্ষেপ না করলে ‘সেফ হারবার ইমিউনিটি ক্লজ়’ (তথ্যপ্রযুক্তি আইনের ৭৯ নম্বর ধারা অনুযায়ী, এ ক্ষেত্রে কোনও মধ্যবর্তী সংস্থা বা প্ল্যাটফর্ম তৃতীয় পক্ষের দেওয়া কোনও তথ্য, পরিসংখ্যান বা ভিডিয়োর ক্ষেত্রে দায়বদ্ধ নয়) প্রযুক্ত হবে না।

তথ্যপ্রযুক্তি মন্ত্রী অশ্বিনী বৈষ্ণব জানিয়েছেন, ‘ডিপফেক’ সংক্রান্ত বিষয়ে কেন্দ্র শীঘ্রই সমাজমাধ্যমের বিভিন্ন প্ল্যাটফর্মের সঙ্গে বৈঠক করবে। এর পাশাপাশি তিনি জানিয়েছেন, ‘ডিপফেক’ সরিয়ে ফেলার জন্য উপযুক্ত পদক্ষেপ না করলে ‘সেফ হারবার ইমিউনিটি ক্লজ়’ (তথ্যপ্রযুক্তি আইনের ৭৯ নম্বর ধারা অনুযায়ী, এ ক্ষেত্রে কোনও মধ্যবর্তী সংস্থা বা প্ল্যাটফর্ম তৃতীয় পক্ষের দেওয়া কোনও তথ্য, পরিসংখ্যান বা ভিডিয়োর ক্ষেত্রে দায়বদ্ধ নয়) প্রযুক্ত হবে না।

১৩ ১৫
মোদী সরকারের এই পদক্ষেপ কতটা কার্যকরী হবে বাস্তবে, তা নিয়ে সন্দিহান বিরোধী দলগুলি। তাদের বক্তব্য, রাজনীতি এখন বহুলাংশে প্রযুক্তি-প্রভাবিত। আর এ ক্ষেত্রে ‘সুবিদিত’ বিজেপির আইটি সেল। ২০২০ সালে দিল্লিতে ভোটের সময়ে ছড়িয়ে পড়া মনোজ তিওয়ারির ‘ডিপফেক’ ভিডিয়োর কথা মনে করিয়ে দিচ্ছে তারা।

মোদী সরকারের এই পদক্ষেপ কতটা কার্যকরী হবে বাস্তবে, তা নিয়ে সন্দিহান বিরোধী দলগুলি। তাদের বক্তব্য, রাজনীতি এখন বহুলাংশে প্রযুক্তি-প্রভাবিত। আর এ ক্ষেত্রে ‘সুবিদিত’ বিজেপির আইটি সেল। ২০২০ সালে দিল্লিতে ভোটের সময়ে ছড়িয়ে পড়া মনোজ তিওয়ারির ‘ডিপফেক’ ভিডিয়োর কথা মনে করিয়ে দিচ্ছে তারা।

১৪ ১৫
অনেকের দাবি, সেটাই ছিল ভারতে রাজনৈতিক দলের প্রচারে সরাসরি ডিপফেকের ব্যবহার। অভিযোগ ছিল, দিল্লি বিজেপি তাদের প্রাক্তন রাজ্য সভাপতি মনোজের একটি ভিডিয়ো তৈরি করেছিল। তাতে দেখা গিয়েছে, মনোজ হরিয়ানভি এবং ইংরেজিতে দিল্লির ভোটারদের কাছে ভোট চাইছেন। মনোজ নিজে হরিয়ানভিতে কথা বলেন না।

অনেকের দাবি, সেটাই ছিল ভারতে রাজনৈতিক দলের প্রচারে সরাসরি ডিপফেকের ব্যবহার। অভিযোগ ছিল, দিল্লি বিজেপি তাদের প্রাক্তন রাজ্য সভাপতি মনোজের একটি ভিডিয়ো তৈরি করেছিল। তাতে দেখা গিয়েছে, মনোজ হরিয়ানভি এবং ইংরেজিতে দিল্লির ভোটারদের কাছে ভোট চাইছেন। মনোজ নিজে হরিয়ানভিতে কথা বলেন না।

১৫ ১৫
ডিপফেক নিয়ে কেন্দ্রীয় পদক্ষেপের প্রেক্ষিতে কংগ্রেসের নেতা জয়রাম রমেশের বক্তব্য, ‘‘প্রধানমন্ত্রী এখন ডিপফেক ভিডিয়ো নিয়ে সতর্ক করছেন। আমরা ২০১৪ সাল থেকেই এই বিষয়ে সতর্ক করেছি।’’

ডিপফেক নিয়ে কেন্দ্রীয় পদক্ষেপের প্রেক্ষিতে কংগ্রেসের নেতা জয়রাম রমেশের বক্তব্য, ‘‘প্রধানমন্ত্রী এখন ডিপফেক ভিডিয়ো নিয়ে সতর্ক করছেন। আমরা ২০১৪ সাল থেকেই এই বিষয়ে সতর্ক করেছি।’’

সব ছবি: সংগৃহীত।

(সবচেয়ে আগে সব খবর, ঠিক খবর, প্রতি মুহূর্তে। ফলো করুন আমাদের Google News, X (Twitter), Facebook, Youtube, Threads এবং Instagram পেজ)
Follow us on: Save:
Advertisement

Share this article

CLOSE