Advertisement
২৬ ডিসেম্বর ২০২৪
Deepfake Video and Picture

আপনার অশালীন ছবি হঠাৎ দেখা যাচ্ছে ইন্টারনেটে? কী ভাবে বুঝবেন এ আসলে ‘ডিপ ফেক-কা খেল’?

প্রযুক্তির কাছে ‘বিখ্যাত’ বা ‘প্রভাবশালী’রাও অসহায়, তা চোখে আঙুল দিয়ে দেখিয়ে দিয়েছে ‘ডিপফেক’। ‘ডিপফেক’ বা ভুয়ো ভিডিয়োর শিকার হন অভিনেত্রী রশ্মিকা মন্দনা, ক্যাটরিনা কইফ, কাজল, সারা তেন্ডুলকরেরা।

আনন্দবাজার অনলাইন ডেস্ক
নয়াদিল্লি শেষ আপডেট: ০১ ডিসেম্বর ২০২৩ ১৫:০৮
Share: Save:
০১ ১৫
প্রযুক্তির ‘জুজু’ যে আর দূরে কোথাও নেই, একেবারে রোজকার যাপনে এসে পড়েছে, তা-ই বুঝিয়ে দিয়েছে সাম্প্রতিক একের পর এক ‘ডিপফেক’ কাণ্ড! এ এমনই এক প্রযুক্তি-কৌশল, যার দৌলতে বিশ্বের যে কোনও মানুষের ছবি বা ভিডিয়োয় মুখচ্ছবি পাল্টে দেওয়া হচ্ছে। অত্যন্ত সূক্ষ্ম এবং প্রায়-নিখুঁত ভাবে এক জনের শরীরে জুড়ে দেওয়া হচ্ছে অন্যের ধড় এবং মুণ্ড।

প্রযুক্তির ‘জুজু’ যে আর দূরে কোথাও নেই, একেবারে রোজকার যাপনে এসে পড়েছে, তা-ই বুঝিয়ে দিয়েছে সাম্প্রতিক একের পর এক ‘ডিপফেক’ কাণ্ড! এ এমনই এক প্রযুক্তি-কৌশল, যার দৌলতে বিশ্বের যে কোনও মানুষের ছবি বা ভিডিয়োয় মুখচ্ছবি পাল্টে দেওয়া হচ্ছে। অত্যন্ত সূক্ষ্ম এবং প্রায়-নিখুঁত ভাবে এক জনের শরীরে জুড়ে দেওয়া হচ্ছে অন্যের ধড় এবং মুণ্ড।

০২ ১৫
এর জন্য শুধুই জানতে হয় ‘ডিপ লার্নিং’ আর কৃত্রিম বুদ্ধিমত্তার (আর্টিফিশিয়াল ইন্টেলিজেন্স, সংক্ষেপে ‘এআই’) প্রযুক্তি। বিশ্বের যে কোনও প্রান্তে বা প্রত্যন্ত অঞ্চলে বসে যে কোনও মানুষই এই কাজ করতে পারেন। আর সেই সব জাল ছবি-ভিডিয়ো সমাজমাধ্যমে ছড়িয়ে ফেলতে পারলেই কার্যসিদ্ধি— জনমানসে বিরূপ প্রতিক্রিয়া, ব্যঙ্গবিদ্রুপ, চরিত্রহনন অবশ্যম্ভাবী।

এর জন্য শুধুই জানতে হয় ‘ডিপ লার্নিং’ আর কৃত্রিম বুদ্ধিমত্তার (আর্টিফিশিয়াল ইন্টেলিজেন্স, সংক্ষেপে ‘এআই’) প্রযুক্তি। বিশ্বের যে কোনও প্রান্তে বা প্রত্যন্ত অঞ্চলে বসে যে কোনও মানুষই এই কাজ করতে পারেন। আর সেই সব জাল ছবি-ভিডিয়ো সমাজমাধ্যমে ছড়িয়ে ফেলতে পারলেই কার্যসিদ্ধি— জনমানসে বিরূপ প্রতিক্রিয়া, ব্যঙ্গবিদ্রুপ, চরিত্রহনন অবশ্যম্ভাবী।

০৩ ১৫
প্রযুক্তির কাছে ‘বিখ্যাত’ বা ‘প্রভাবশালী’রাও অসহায়, তা চোখে আঙুল দিয়ে দেখিয়ে দিয়েছে ‘ডিপফেক’। সম্প্রতি দক্ষিণী অভিনেত্রী রশ্মিকা মন্দনার একটি ভুয়ো ভিডিয়ো সামনে আসে। কৃত্রিম বুদ্ধিমত্তার মাধ্যমে ‘ডিপ লার্নিং’ প্রযুক্তি ব্যবহার করে অন্য এক জনের দেহে রশ্মিকার মুখ এবং কণ্ঠস্বর বসিয়ে দেওয়া হয়।

প্রযুক্তির কাছে ‘বিখ্যাত’ বা ‘প্রভাবশালী’রাও অসহায়, তা চোখে আঙুল দিয়ে দেখিয়ে দিয়েছে ‘ডিপফেক’। সম্প্রতি দক্ষিণী অভিনেত্রী রশ্মিকা মন্দনার একটি ভুয়ো ভিডিয়ো সামনে আসে। কৃত্রিম বুদ্ধিমত্তার মাধ্যমে ‘ডিপ লার্নিং’ প্রযুক্তি ব্যবহার করে অন্য এক জনের দেহে রশ্মিকার মুখ এবং কণ্ঠস্বর বসিয়ে দেওয়া হয়।

০৪ ১৫
এ নিয়ে বিতর্ক থিতু হওয়ার আগেই একে একে ‘ডিপফেক’ বা ভুয়ো ভিডিয়োর শিকার হন অভিনেত্রী ক্যাটরিনা কইফ, কাজল, সারা তেন্ডুলকরেরা। প্রধানমন্ত্রী নরেন্দ্র মোদী জানিয়েছেন, তিনিও সম্প্রতি ভুয়ো ভিডিয়োর শিকার হয়েছেন। তার প্রেক্ষিতেই প্রধানমন্ত্রীর আশঙ্কা, কৃত্রিম বুদ্ধিমত্তার সাহায্যে যে ভুয়ো ভিডিয়ো তৈরি হচ্ছে তা আগামী দিনে বড় বিপদ ডেকে আনতে পারে। মোদী বলেন, ‘‘কৃত্রিম বুদ্ধিমত্তার এই যুগে আমাদের দায়িত্ব নিয়ে প্রযুক্তিকে ব্যবহার করতে হবে।’’

এ নিয়ে বিতর্ক থিতু হওয়ার আগেই একে একে ‘ডিপফেক’ বা ভুয়ো ভিডিয়োর শিকার হন অভিনেত্রী ক্যাটরিনা কইফ, কাজল, সারা তেন্ডুলকরেরা। প্রধানমন্ত্রী নরেন্দ্র মোদী জানিয়েছেন, তিনিও সম্প্রতি ভুয়ো ভিডিয়োর শিকার হয়েছেন। তার প্রেক্ষিতেই প্রধানমন্ত্রীর আশঙ্কা, কৃত্রিম বুদ্ধিমত্তার সাহায্যে যে ভুয়ো ভিডিয়ো তৈরি হচ্ছে তা আগামী দিনে বড় বিপদ ডেকে আনতে পারে। মোদী বলেন, ‘‘কৃত্রিম বুদ্ধিমত্তার এই যুগে আমাদের দায়িত্ব নিয়ে প্রযুক্তিকে ব্যবহার করতে হবে।’’

০৫ ১৫
কিন্তু এর থেকে আমজনতার নিস্তার কী উপায়ে? প্রযুক্তি-বিশেষজ্ঞদের বক্তব্য, এই অবস্থা থেকে বাঁচার জন্য আইন হতেই পারে। সংবাদমাধ্যম আরও দায়িত্বশীল হয়ে কাজ করতেই পারে। সেই সঙ্গে ‘ডিজিটাল স্বাক্ষরতা’ও ভীষণ ভাবে জরুরি হয়ে পড়ছে। সমাজমাধ্যমে কোনও ছবি বা ভিডিয়ো দেখলে, তার সত্যতা যাতে নিজেরাই যাচাই করতে পারেন সাধারণ মানুষ।

কিন্তু এর থেকে আমজনতার নিস্তার কী উপায়ে? প্রযুক্তি-বিশেষজ্ঞদের বক্তব্য, এই অবস্থা থেকে বাঁচার জন্য আইন হতেই পারে। সংবাদমাধ্যম আরও দায়িত্বশীল হয়ে কাজ করতেই পারে। সেই সঙ্গে ‘ডিজিটাল স্বাক্ষরতা’ও ভীষণ ভাবে জরুরি হয়ে পড়ছে। সমাজমাধ্যমে কোনও ছবি বা ভিডিয়ো দেখলে, তার সত্যতা যাতে নিজেরাই যাচাই করতে পারেন সাধারণ মানুষ।

০৬ ১৫
খুব সহজ ভাষায় বলতে গেলে, ‘ডিপফেক’ প্রযুক্তি কোনও ব্যক্তির মুখের অভিব্যক্তি খুব খুঁটিয়ে পড়ে ফেলতে পারে। বুঝে নিতে পারে গলার আওয়াজ। তার পর সেই বিশ্লেষণের ফসল অন্যের মুখের উপর বসিয়ে দিতে পারে। কিন্তু তা নিখুঁত ভাবে হুবহু মিলিয়ে দেওয়া ততটাও সহজ নয়। কোথাও না কোথাও খামতি থেকেই যায়। চোখে দেখার সময় সেগুলিই খুঁজে বার করা জরুরি।

খুব সহজ ভাষায় বলতে গেলে, ‘ডিপফেক’ প্রযুক্তি কোনও ব্যক্তির মুখের অভিব্যক্তি খুব খুঁটিয়ে পড়ে ফেলতে পারে। বুঝে নিতে পারে গলার আওয়াজ। তার পর সেই বিশ্লেষণের ফসল অন্যের মুখের উপর বসিয়ে দিতে পারে। কিন্তু তা নিখুঁত ভাবে হুবহু মিলিয়ে দেওয়া ততটাও সহজ নয়। কোথাও না কোথাও খামতি থেকেই যায়। চোখে দেখার সময় সেগুলিই খুঁজে বার করা জরুরি।

০৭ ১৫
প্রথমেই যেটা নজর করা জরুরি, সেটা হল চোখের নড়াচড়া। এক জনের চোখ অন্যের মুখে বসানো যেতেই পারে। কিন্তু মুখের সঙ্গে সেই চোখের সামঞ্জস্য রক্ষা করা কঠিনই। সেই তালমিলে গন্ডগোল থাকলে চোখের নড়াচড়াও অস্বাভাবিক হবে।

প্রথমেই যেটা নজর করা জরুরি, সেটা হল চোখের নড়াচড়া। এক জনের চোখ অন্যের মুখে বসানো যেতেই পারে। কিন্তু মুখের সঙ্গে সেই চোখের সামঞ্জস্য রক্ষা করা কঠিনই। সেই তালমিলে গন্ডগোল থাকলে চোখের নড়াচড়াও অস্বাভাবিক হবে।

০৮ ১৫
একটু ভাল করে নজর করলে দেখা যায়, একই ভাবে ঠোঁটের নড়া, গলার শব্দেও অসংলগ্নতা থাকে। মুখ আসল হলেও মুখের অভিব্যক্তিতে অস্বাভাবিকতা খুঁজে পাওয়া যায়। শুধু তা-ই নয়, ডিপফেক ভিডিয়ো বা ছবির ব্যাকগ্রাউন্ড, আলো এবং রঙের বিন্যাসেও বদল ঘটে। ভাল করে লক্ষ করলেই যা সহজে ধরা পড়বে।

একটু ভাল করে নজর করলে দেখা যায়, একই ভাবে ঠোঁটের নড়া, গলার শব্দেও অসংলগ্নতা থাকে। মুখ আসল হলেও মুখের অভিব্যক্তিতে অস্বাভাবিকতা খুঁজে পাওয়া যায়। শুধু তা-ই নয়, ডিপফেক ভিডিয়ো বা ছবির ব্যাকগ্রাউন্ড, আলো এবং রঙের বিন্যাসেও বদল ঘটে। ভাল করে লক্ষ করলেই যা সহজে ধরা পড়বে।

০৯ ১৫
ইতিমধ্যেই এ ধরনের ভুয়ো ভিডিয়ো রুখতে তৎপর কেন্দ্র। চলতি মাসেই ইলেকট্রনিক্স এবং তথ্যপ্রযুক্তি মন্ত্রকের সাইবার আইন শাখা সব ক’টি সমাজমাধ্যমকে চিঠি দিয়ে জানিয়েছে, ভারতীয় আইন অনুযায়ী সমাজমাধ্যমের প্ল্যাটফর্মে যে ভুয়ো তথ্য এবং ভুয়ো ভিডিয়ো রয়েছে, তা সরিয়ে ফেলতে হবে।

ইতিমধ্যেই এ ধরনের ভুয়ো ভিডিয়ো রুখতে তৎপর কেন্দ্র। চলতি মাসেই ইলেকট্রনিক্স এবং তথ্যপ্রযুক্তি মন্ত্রকের সাইবার আইন শাখা সব ক’টি সমাজমাধ্যমকে চিঠি দিয়ে জানিয়েছে, ভারতীয় আইন অনুযায়ী সমাজমাধ্যমের প্ল্যাটফর্মে যে ভুয়ো তথ্য এবং ভুয়ো ভিডিয়ো রয়েছে, তা সরিয়ে ফেলতে হবে।

১০ ১৫
আইন মহলের মতে, কারও ভুয়ো ছবি তৈরি করা এবং তা সমাজমাধ্যমে প্রকাশ করা মানে তথ্যপ্রযুক্তি আইনের ৬৬ই ধারার লঙ্ঘন। তাতে তিন বছর পর্যন্ত জেল এবং ২ লক্ষ টাকা পর্যন্ত জরিমানাও হতে পারে। তাই পরামর্শ, ভুয়ো ছবি-ভিডিয়োর ‘শিকার’ হলে সোজা পুলিশের দ্বারস্থ হতে হবে।

আইন মহলের মতে, কারও ভুয়ো ছবি তৈরি করা এবং তা সমাজমাধ্যমে প্রকাশ করা মানে তথ্যপ্রযুক্তি আইনের ৬৬ই ধারার লঙ্ঘন। তাতে তিন বছর পর্যন্ত জেল এবং ২ লক্ষ টাকা পর্যন্ত জরিমানাও হতে পারে। তাই পরামর্শ, ভুয়ো ছবি-ভিডিয়োর ‘শিকার’ হলে সোজা পুলিশের দ্বারস্থ হতে হবে।

১১ ১৫
কেন্দ্রও জানিয়েছে, এ ধরনের ‘ডিপফেক’ বা ভুয়ো ভিডিয়ো বানানো এবং তা প্রচার করার অপরাধে কোনও ব্যক্তির এক লক্ষ টাকা জরিমানা এবং তিন বছরের জেল, উভয়ই হতে পারে।

কেন্দ্রও জানিয়েছে, এ ধরনের ‘ডিপফেক’ বা ভুয়ো ভিডিয়ো বানানো এবং তা প্রচার করার অপরাধে কোনও ব্যক্তির এক লক্ষ টাকা জরিমানা এবং তিন বছরের জেল, উভয়ই হতে পারে।

১২ ১৫
তথ্যপ্রযুক্তি মন্ত্রী অশ্বিনী বৈষ্ণব জানিয়েছেন, ‘ডিপফেক’ সংক্রান্ত বিষয়ে কেন্দ্র শীঘ্রই সমাজমাধ্যমের বিভিন্ন প্ল্যাটফর্মের সঙ্গে বৈঠক করবে। এর পাশাপাশি তিনি জানিয়েছেন, ‘ডিপফেক’ সরিয়ে ফেলার জন্য উপযুক্ত পদক্ষেপ না করলে ‘সেফ হারবার ইমিউনিটি ক্লজ়’ (তথ্যপ্রযুক্তি আইনের ৭৯ নম্বর ধারা অনুযায়ী, এ ক্ষেত্রে কোনও মধ্যবর্তী সংস্থা বা প্ল্যাটফর্ম তৃতীয় পক্ষের দেওয়া কোনও তথ্য, পরিসংখ্যান বা ভিডিয়োর ক্ষেত্রে দায়বদ্ধ নয়) প্রযুক্ত হবে না।

তথ্যপ্রযুক্তি মন্ত্রী অশ্বিনী বৈষ্ণব জানিয়েছেন, ‘ডিপফেক’ সংক্রান্ত বিষয়ে কেন্দ্র শীঘ্রই সমাজমাধ্যমের বিভিন্ন প্ল্যাটফর্মের সঙ্গে বৈঠক করবে। এর পাশাপাশি তিনি জানিয়েছেন, ‘ডিপফেক’ সরিয়ে ফেলার জন্য উপযুক্ত পদক্ষেপ না করলে ‘সেফ হারবার ইমিউনিটি ক্লজ়’ (তথ্যপ্রযুক্তি আইনের ৭৯ নম্বর ধারা অনুযায়ী, এ ক্ষেত্রে কোনও মধ্যবর্তী সংস্থা বা প্ল্যাটফর্ম তৃতীয় পক্ষের দেওয়া কোনও তথ্য, পরিসংখ্যান বা ভিডিয়োর ক্ষেত্রে দায়বদ্ধ নয়) প্রযুক্ত হবে না।

১৩ ১৫
মোদী সরকারের এই পদক্ষেপ কতটা কার্যকরী হবে বাস্তবে, তা নিয়ে সন্দিহান বিরোধী দলগুলি। তাদের বক্তব্য, রাজনীতি এখন বহুলাংশে প্রযুক্তি-প্রভাবিত। আর এ ক্ষেত্রে ‘সুবিদিত’ বিজেপির আইটি সেল। ২০২০ সালে দিল্লিতে ভোটের সময়ে ছড়িয়ে পড়া মনোজ তিওয়ারির ‘ডিপফেক’ ভিডিয়োর কথা মনে করিয়ে দিচ্ছে তারা।

মোদী সরকারের এই পদক্ষেপ কতটা কার্যকরী হবে বাস্তবে, তা নিয়ে সন্দিহান বিরোধী দলগুলি। তাদের বক্তব্য, রাজনীতি এখন বহুলাংশে প্রযুক্তি-প্রভাবিত। আর এ ক্ষেত্রে ‘সুবিদিত’ বিজেপির আইটি সেল। ২০২০ সালে দিল্লিতে ভোটের সময়ে ছড়িয়ে পড়া মনোজ তিওয়ারির ‘ডিপফেক’ ভিডিয়োর কথা মনে করিয়ে দিচ্ছে তারা।

১৪ ১৫
অনেকের দাবি, সেটাই ছিল ভারতে রাজনৈতিক দলের প্রচারে সরাসরি ডিপফেকের ব্যবহার। অভিযোগ ছিল, দিল্লি বিজেপি তাদের প্রাক্তন রাজ্য সভাপতি মনোজের একটি ভিডিয়ো তৈরি করেছিল। তাতে দেখা গিয়েছে, মনোজ হরিয়ানভি এবং ইংরেজিতে দিল্লির ভোটারদের কাছে ভোট চাইছেন। মনোজ নিজে হরিয়ানভিতে কথা বলেন না।

অনেকের দাবি, সেটাই ছিল ভারতে রাজনৈতিক দলের প্রচারে সরাসরি ডিপফেকের ব্যবহার। অভিযোগ ছিল, দিল্লি বিজেপি তাদের প্রাক্তন রাজ্য সভাপতি মনোজের একটি ভিডিয়ো তৈরি করেছিল। তাতে দেখা গিয়েছে, মনোজ হরিয়ানভি এবং ইংরেজিতে দিল্লির ভোটারদের কাছে ভোট চাইছেন। মনোজ নিজে হরিয়ানভিতে কথা বলেন না।

১৫ ১৫
ডিপফেক নিয়ে কেন্দ্রীয় পদক্ষেপের প্রেক্ষিতে কংগ্রেসের নেতা জয়রাম রমেশের বক্তব্য, ‘‘প্রধানমন্ত্রী এখন ডিপফেক ভিডিয়ো নিয়ে সতর্ক করছেন। আমরা ২০১৪ সাল থেকেই এই বিষয়ে সতর্ক করেছি।’’

ডিপফেক নিয়ে কেন্দ্রীয় পদক্ষেপের প্রেক্ষিতে কংগ্রেসের নেতা জয়রাম রমেশের বক্তব্য, ‘‘প্রধানমন্ত্রী এখন ডিপফেক ভিডিয়ো নিয়ে সতর্ক করছেন। আমরা ২০১৪ সাল থেকেই এই বিষয়ে সতর্ক করেছি।’’

সব ছবি: সংগৃহীত।

(সবচেয়ে আগে সব খবর, ঠিক খবর, প্রতি মুহূর্তে। ফলো করুন আমাদের Google News, X (Twitter), Facebook, Youtube, Threads এবং Instagram পেজ)
Follow us on: Save:
Advertisement

Share this article

CLOSE

Log In / Create Account

We will send you a One Time Password on this mobile number or email id

Or Continue with

By proceeding you agree with our Terms of service & Privacy Policy