Deep fake audio is another cause of alarm in AI world dgtl
Audio Deepfake
শুধু ছবি, ভিডিয়ো নয়, অডিয়োতেও আছে ‘ডিপফেক’! কী কী বিপদ ঘটতে পারে?
দক্ষিণী তারকা রশ্মিকা মন্দনার ‘ডিপফেক’ ভিডিয়ো নিয়ে সম্প্রতি তোলপাড় পড়ে গিয়েছে। ভুয়ো কারসাজির কবলে পড়েছেন বলি নায়িকারাও। তবে ‘ডিপফেক’ শুধু ছবি, ভিডিয়োতেই আর সীমাবদ্ধ নেই।
আনন্দবাজার অনলাইন ডেস্ক
কলকাতাশেষ আপডেট: ০১ ডিসেম্বর ২০২৩ ০৮:৪৬
Share:Save:
এই খবরটি সেভ করে রাখার জন্য পাশের আইকনটি ক্লিক করুন।
০১১৯
বলিউড থেকে রাজনীতি, ‘ডিপফেক’ সমস্যায় জেরবার দেশ। বলিউড তারকারা তো বটেই, ভুয়ো কারসাজির হাত থেকে রেহাই পাননি স্বয়ং প্রধানমন্ত্রী নরেন্দ্র মোদীও।
—ফাইল চিত্র।
০২১৯
একটি ভাইরাল ভিডিয়োতে মোদীকে অন্য অনেকের সঙ্গে গরবা নাচতে দেখা গিয়েছে। প্রধানমন্ত্রী নিজে সেই ভিডিয়ো দেখে বিস্ময় প্রকাশ করেছেন এবং জানিয়েছেন, তিনি স্কুলজীবনের পরে ওই নাচ আর কখনও নাচেননি।
—ফাইল চিত্র।
০৩১৯
দক্ষিণের তারকা অভিনেত্রী রশ্মিকা মন্দনার সূত্রে সম্প্রতি ‘ডিপফেক’ সমস্যা চর্চায় উঠে এসেছে। রশ্মিকার একটি ভিডিয়ো সমাজমাধ্যমে ছড়িয়ে পড়ে। যেখানে তাঁকে কালো পোশাকে দেখা যায়। কিন্তু পরে জানা যায় ভিডিয়োটি ভুয়ো।
—ফাইল চিত্র।
০৪১৯
ওই ভিডিয়োতে আদৌ রশ্মিকা ছিলেন না। ছিলেন অন্য এক মহিলা। তাঁর মুখের জায়গায় প্রযুক্তি ব্যবহার করে রশ্মিকার মুখ বসিয়ে দেওয়া হয়েছিল। নিখুঁত কারসাজির দৌলতে সকলেই বিশ্বাস করেছিলেন ভিডিয়োর নারী রশ্মিকাই বটে। পরে অবশ্য আসল ভিডিয়োটিও প্রকাশ্যে আসে।
—ফাইল চিত্র।
০৫১৯
‘ডিপফেক’ নিয়ে উদ্বেগ প্রকাশ করেন অভিনেত্রী স্বয়ং। তিনি বলেন, ‘‘এই ধরনের জিনিস সত্যিই খুব ভয়ানক। প্রযুক্তির এই অপব্যবহারে গোটা সমাজ বিপদের মুখে দাঁড়িয়ে। আমার সঙ্গে এটা যদি স্কুল বা কলেজজীবনে ঘটত, কী ভাবে পরিস্থিতির সঙ্গে যুঝতাম, জানি না।’’
—ফাইল চিত্র।
০৬১৯
রশ্মিকার ‘ডিপফেক’ নিয়ে চর্চার মাঝেই পর পর ক্যাটরিনা কইফ, কাজল, আলিয়া ভট্টের মতো বলি নায়িকাদের ‘ডিপফেক’ ভিডিয়ো প্রকাশ্যে আসতে শুরু করে।
—ফাইল চিত্র।
০৭১৯
তবে ‘ডিপফেক’ সমস্যা শুধু ছবি আর ভিডিয়োতে আটকে নেই। অডিয়োতেও রয়েছে ‘ডিপফেক’। যা নিয়ে উদ্বেগের মাত্রা ক্রমশ বাড়ছে। রাশ টানার আগেই নাগালের বাইরে বেরিয়ে যাচ্ছে ‘ডিপফেক’।
—ফাইল চিত্র।
০৮১৯
অডিয়োতে ‘ডিপফেক’-এর অর্থ হল, কারও গলার স্বর প্রযুক্তির মাধ্যমে বদলে দেওয়া। অন্য কারও গলার স্বর তার জায়গায় বসিয়ে দেওয়া। এর মাধ্যমে সহজেই লোক ঠকানো যায়।
—ফাইল চিত্র।
০৯১৯
অমিতাভ বচ্চনের রিয়েলিটি শো ‘কৌন বনেগা ক্রোরপতি’-র একটি অংশে অমিতাভের মুখে মধ্যপ্রদেশের ভোট সংক্রান্ত প্রচারমূলক কথা বসিয়ে দেওয়ার অভিযোগ উঠেছে। সেই ভিডিয়ো নিয়েও কম চর্চা হয়নি।
—ফাইল চিত্র।
১০১৯
‘ডিপফেক’ অডিয়োর কথা প্রথম প্রকাশ্যে এসেছিল ২০১৯ সালে। ব্রিটেনের এক বহুজাতিক সংস্থা থেকে মালিকের গলার স্বর নকল করে প্রায় আড়াই লক্ষ ডলার হাতিয়ে নেওয়া হয়েছিল।
—ফাইল চিত্র।
১১১৯
বর্তমানে আমেরিকার কিছু তথ্য বিশ্লেষক সংস্থা দাবি করেছে, ‘ডিপফেক’ অডিয়ো প্রযুক্তি কাজে লাগাচ্ছে চিনও। বেজিংয়ের কৃত্রিম বুদ্ধিমত্তা সংস্থা নাকি ভারতের পঞ্জাব, কাশ্মীরের মতো সীমান্ত লাগোয়া এলাকা থেকে গলার স্বরের নমুনা সংগ্রহ করছে। এতে ভবিষ্যতে বিপদ হতে পারে।
—ফাইল চিত্র।
১২১৯
‘ডিপফেক’ কৃত্রিম বুদ্ধিমত্তা প্রযুক্তিরই ফসল। যা আগামী দিনে জাতীয় নিরাপত্তাকেও বিঘ্নিত করতে পারে। যুদ্ধ থেকে শুরু করে নির্বাচনী প্রতিদ্বন্দ্বিতা, সব ক্ষেত্রেই নির্বিচারে ‘ডিপফেক’ ব্যবহৃত হচ্ছে।
—ফাইল চিত্র।
১৩১৯
ছবি নিয়ে কাটাছেঁড়া নতুন নয়। নব্বইয়ের দশক থেকেই ফোটোশপের ব্যবহার প্রচলিত। তার মাধ্যমে যে কোনও ছবিতে এক জনের মুখ অন্য জনের সঙ্গে বদলে দেওয়া যায়।
—ফাইল চিত্র।
১৪১৯
তা হলে ‘ডিপফেক’-এ নতুন কী আছে? কেন তা এত ভয়ানক? এআই প্রযুক্তির যুগে ছবির মুখ বদলে দিতে আর কোনও বিশেষজ্ঞের প্রয়োজন নেই। কেবল দরকার একটি শক্তিশালী গ্রাফিক প্রসেসিং ইউনিট এবং কৃত্রিম বুদ্ধিমত্তা অ্যাপ।
—ফাইল চিত্র।
১৫১৯
এই দুই উপকরণের সাহায্যে অনায়াসে যে কেউ যে কোনও জায়গা থেকে আসল ছবিতে কাটাছেঁড়া করে নকল তৈরি করতে পারেন। এআই প্রযুক্তি এতটাই উন্নত, আসল আর নকলের মধ্যে ফারাক প্রায় থাকে না বললেই চলে। একই কথা অডিয়োর ক্ষেত্রেও প্রযোজ্য।
—ফাইল চিত্র।
১৬১৯
‘ডিপফেক’-এর বিষয়টি প্রথম প্রকাশ্যে আসে ২০১৭ সালে। পর্নোগ্রাফি ভিডিয়ো প্রকাশ করা একটি প্রোফাইল থেকে সমাজমাধ্যমে গ্যাল গ্যাডট, টেলর সুইফ্ট, স্কারলেট জনসনের মতো হলি তারকাদের মুখ বসানো নকল ভিডিয়ো প্রকাশ করা হয়।
—ফাইল চিত্র।
১৭১৯
সম্প্রতি ভারতের বাজারেও ছেয়ে গিয়েছে ‘ডিপফেক’। শুধু নায়িকাদের নকল ছবি এবং ভিডিয়ো তৈরি করে নয়, সমাজের সর্বস্তরে সব রকম অপরাধমূলক কাজে ব্যবহার করা হচ্ছে এই প্রযুক্তি।
—ফাইল চিত্র।
১৮১৯
বিশেষজ্ঞেরা জানাচ্ছেন, ভুয়ো তথ্যের মাধ্যমে লোক ঠকানোর ব্যবসাকে কৃত্রিম বুদ্ধিমত্তা যেন লক্ষ্মীলাভের পথ দেখিয়ে দিয়েছে। ‘ডিপফেক’ তারই ফল। অত্যন্ত সতর্ক ভাবে তা এড়িয়ে চলতে হবে। প্রয়োজনে দূরে থাকতে হবে প্রযুক্তি থেকে।
—ফাইল চিত্র।
১৯১৯
‘ডিপফেক’-এর মতো ভুয়ো কারসাজি ঠেকাতে সমাজমাধ্যমের প্ল্যাটফর্মগুলি ইতিমধ্যে বেশ কিছু বিধিনিষেধ আরোপ করেছে। তথ্যপ্রযুক্তির নতুন নিয়মও প্রয়োগ করা হচ্ছে। আগামী দিনে তার মাধ্যমে প্রযুক্তির অপব্যবহারের সঙ্গে লড়াই করা যাবে বলে আশাবাদী বিশেষজ্ঞেরা।