Advertisement
২২ নভেম্বর ২০২৪
Audio Deepfake

শুধু ছবি, ভিডিয়ো নয়, অডিয়োতেও আছে ‘ডিপফেক’! কী কী বিপদ ঘটতে পারে?

দক্ষিণী তারকা রশ্মিকা মন্দনার ‘ডিপফেক’ ভিডিয়ো নিয়ে সম্প্রতি তোলপাড় পড়ে গিয়েছে। ভুয়ো কারসাজির কবলে পড়েছেন বলি নায়িকারাও। তবে ‘ডিপফেক’ শুধু ছবি, ভিডিয়োতেই আর সীমাবদ্ধ নেই।

আনন্দবাজার অনলাইন ডেস্ক
কলকাতা শেষ আপডেট: ০১ ডিসেম্বর ২০২৩ ০৮:৪৬
Share: Save:
০১ ১৯
Deep fake audio is another cause of alarm in AI world

বলিউড থেকে রাজনীতি, ‘ডিপফেক’ সমস্যায় জেরবার দেশ। বলিউড তারকারা তো বটেই, ভুয়ো কারসাজির হাত থেকে রেহাই পাননি স্বয়ং প্রধানমন্ত্রী নরেন্দ্র মোদীও।

—ফাইল চিত্র।

০২ ১৯
Deep fake audio is another cause of alarm in AI world

একটি ভাইরাল ভিডিয়োতে মোদীকে অন্য অনেকের সঙ্গে গরবা নাচতে দেখা গিয়েছে। প্রধানমন্ত্রী নিজে সেই ভিডিয়ো দেখে বিস্ময় প্রকাশ করেছেন এবং জানিয়েছেন, তিনি স্কুলজীবনের পরে ওই নাচ আর কখনও নাচেননি।

—ফাইল চিত্র।

০৩ ১৯
Deep fake audio is another cause of alarm in AI world

দক্ষিণের তারকা অভিনেত্রী রশ্মিকা মন্দনার সূত্রে সম্প্রতি ‘ডিপফেক’ সমস্যা চর্চায় উঠে এসেছে। রশ্মিকার একটি ভিডিয়ো সমাজমাধ্যমে ছড়িয়ে পড়ে। যেখানে তাঁকে কালো পোশাকে দেখা যায়। কিন্তু পরে জানা যায় ভিডিয়োটি ভুয়ো।

—ফাইল চিত্র।

০৪ ১৯
Deep fake audio is another cause of alarm in AI world

ওই ভিডিয়োতে আদৌ রশ্মিকা ছিলেন না। ছিলেন অন্য এক মহিলা। তাঁর মুখের জায়গায় প্রযুক্তি ব্যবহার করে রশ্মিকার মুখ বসিয়ে দেওয়া হয়েছিল। নিখুঁত কারসাজির দৌলতে সকলেই বিশ্বাস করেছিলেন ভিডিয়োর নারী রশ্মিকাই বটে। পরে অবশ্য আসল ভিডিয়োটিও প্রকাশ্যে আসে।

—ফাইল চিত্র।

০৫ ১৯
Deep fake audio is another cause of alarm in AI world

‘ডিপফেক’ নিয়ে উদ্বেগ প্রকাশ করেন অভিনেত্রী স্বয়ং। তিনি বলেন, ‘‘এই ধরনের জিনিস সত্যিই খুব ভয়ানক। প্রযুক্তির এই অপব্যবহারে গোটা সমাজ বিপদের মুখে দাঁড়িয়ে। আমার সঙ্গে এটা যদি স্কুল বা কলেজজীবনে ঘটত, কী ভাবে পরিস্থিতির সঙ্গে যুঝতাম, জানি না।’’

—ফাইল চিত্র।

০৬ ১৯
Deep fake audio is another cause of alarm in AI world

রশ্মিকার ‘ডিপফেক’ নিয়ে চর্চার মাঝেই পর পর ক্যাটরিনা কইফ, কাজল, আলিয়া ভট্টের মতো বলি নায়িকাদের ‘ডিপফেক’ ভিডিয়ো প্রকাশ্যে আসতে শুরু করে।

—ফাইল চিত্র।

০৭ ১৯
Deep fake audio is another cause of alarm in AI world

তবে ‘ডিপফেক’ সমস্যা শুধু ছবি আর ভিডিয়োতে আটকে নেই। অডিয়োতেও রয়েছে ‘ডিপফেক’। যা নিয়ে উদ্বেগের মাত্রা ক্রমশ বাড়ছে। রাশ টানার আগেই নাগালের বাইরে বেরিয়ে যাচ্ছে ‘ডিপফেক’।

—ফাইল চিত্র।

০৮ ১৯
Deep fake audio is another cause of alarm in AI world

অডিয়োতে ‘ডিপফেক’-এর অর্থ হল, কারও গলার স্বর প্রযুক্তির মাধ্যমে বদলে দেওয়া। অন্য কারও গলার স্বর তার জায়গায় বসিয়ে দেওয়া। এর মাধ্যমে সহজেই লোক ঠকানো যায়।

—ফাইল চিত্র।

০৯ ১৯
Deep fake audio is another cause of alarm in AI world

অমিতাভ বচ্চনের রিয়েলিটি শো ‘কৌন বনেগা ক্রোরপতি’-র একটি অংশে অমিতাভের মুখে মধ্যপ্রদেশের ভোট সংক্রান্ত প্রচারমূলক কথা বসিয়ে দেওয়ার অভিযোগ উঠেছে। সেই ভিডিয়ো নিয়েও কম চর্চা হয়নি।

—ফাইল চিত্র।

১০ ১৯
Deep fake audio is another cause of alarm in AI world

‘ডিপফেক’ অডিয়োর কথা প্রথম প্রকাশ্যে এসেছিল ২০১৯ সালে। ব্রিটেনের এক বহুজাতিক সংস্থা থেকে মালিকের গলার স্বর নকল করে প্রায় আড়াই লক্ষ ডলার হাতিয়ে নেওয়া হয়েছিল।

—ফাইল চিত্র।

১১ ১৯
Deep fake audio is another cause of alarm in AI world

বর্তমানে আমেরিকার কিছু তথ্য বিশ্লেষক সংস্থা দাবি করেছে, ‘ডিপফেক’ অডিয়ো প্রযুক্তি কাজে লাগাচ্ছে চিনও। বেজিংয়ের কৃত্রিম বুদ্ধিমত্তা সংস্থা নাকি ভারতের পঞ্জাব, কাশ্মীরের মতো সীমান্ত লাগোয়া এলাকা থেকে গলার স্বরের নমুনা সংগ্রহ করছে। এতে ভবিষ্যতে বিপদ হতে পারে।

—ফাইল চিত্র।

১২ ১৯
Deep fake audio is another cause of alarm in AI world

‘ডিপফেক’ কৃত্রিম বুদ্ধিমত্তা প্রযুক্তিরই ফসল। যা আগামী দিনে জাতীয় নিরাপত্তাকেও বিঘ্নিত করতে পারে। যুদ্ধ থেকে শুরু করে নির্বাচনী প্রতিদ্বন্দ্বিতা, সব ক্ষেত্রেই নির্বিচারে ‘ডিপফেক’ ব্যবহৃত হচ্ছে।

—ফাইল চিত্র।

১৩ ১৯
Deep fake audio is another cause of alarm in AI world

ছবি নিয়ে কাটাছেঁড়া নতুন নয়। নব্বইয়ের দশক থেকেই ফোটোশপের ব্যবহার প্রচলিত। তার মাধ্যমে যে কোনও ছবিতে এক জনের মুখ অন্য জনের সঙ্গে বদলে দেওয়া যায়।

—ফাইল চিত্র।

১৪ ১৯
Deep fake audio is another cause of alarm in AI world

তা হলে ‘ডিপফেক’-এ নতুন কী আছে? কেন তা এত ভয়ানক? এআই প্রযুক্তির যুগে ছবির মুখ বদলে দিতে আর কোনও বিশেষজ্ঞের প্রয়োজন নেই। কেবল দরকার একটি শক্তিশালী গ্রাফিক প্রসেসিং ইউনিট এবং কৃত্রিম বুদ্ধিমত্তা অ্যাপ।

—ফাইল চিত্র।

১৫ ১৯
Deep fake audio is another cause of alarm in AI world

এই দুই উপকরণের সাহায্যে অনায়াসে যে কেউ যে কোনও জায়গা থেকে আসল ছবিতে কাটাছেঁড়া করে নকল তৈরি করতে পারেন। এআই প্রযুক্তি এতটাই উন্নত, আসল আর নকলের মধ্যে ফারাক প্রায় থাকে না বললেই চলে। একই কথা অডিয়োর ক্ষেত্রেও প্রযোজ্য।

—ফাইল চিত্র।

১৬ ১৯
Deep fake audio is another cause of alarm in AI world

‘ডিপফেক’-এর বিষয়টি প্রথম প্রকাশ্যে আসে ২০১৭ সালে। পর্নোগ্রাফি ভিডিয়ো প্রকাশ করা একটি প্রোফাইল থেকে সমাজমাধ্যমে গ্যাল গ্যাডট, টেলর সুইফ্‌ট, স্কারলেট জনসনের মতো হলি তারকাদের মুখ বসানো নকল ভিডিয়ো প্রকাশ করা হয়।

—ফাইল চিত্র।

১৭ ১৯
Deep fake audio is another cause of alarm in AI world

সম্প্রতি ভারতের বাজারেও ছেয়ে গিয়েছে ‘ডিপফেক’। শুধু নায়িকাদের নকল ছবি এবং ভিডিয়ো তৈরি করে নয়, সমাজের সর্বস্তরে সব রকম অপরাধমূলক কাজে ব্যবহার করা হচ্ছে এই প্রযুক্তি।

—ফাইল চিত্র।

১৮ ১৯
Deep fake audio is another cause of alarm in AI world

বিশেষজ্ঞেরা জানাচ্ছেন, ভুয়ো তথ্যের মাধ্যমে লোক ঠকানোর ব্যবসাকে কৃত্রিম বুদ্ধিমত্তা যেন লক্ষ্মীলাভের পথ দেখিয়ে দিয়েছে। ‘ডিপফেক’ তারই ফল। অত্যন্ত সতর্ক ভাবে তা এড়িয়ে চলতে হবে। প্রয়োজনে দূরে থাকতে হবে প্রযুক্তি থেকে।

—ফাইল চিত্র।

১৯ ১৯
Deep fake audio is another cause of alarm in AI world

‘ডিপফেক’-এর মতো ভুয়ো কারসাজি ঠেকাতে সমাজমাধ্যমের প্ল্যাটফর্মগুলি ইতিমধ্যে বেশ কিছু বিধিনিষেধ আরোপ করেছে। তথ্যপ্রযুক্তির নতুন নিয়মও প্রয়োগ করা হচ্ছে। আগামী দিনে তার মাধ্যমে প্রযুক্তির অপব্যবহারের সঙ্গে লড়াই করা যাবে বলে আশাবাদী বিশেষজ্ঞেরা।

—ফাইল চিত্র।

(সবচেয়ে আগে সব খবর, ঠিক খবর, প্রতি মুহূর্তে। ফলো করুন আমাদের Google News, X (Twitter), Facebook, Youtube, Threads এবং Instagram পেজ)
Follow us on: Save:
Advertisement

Share this article

CLOSE

Log In / Create Account

We will send you a One Time Password on this mobile number or email id

Or Continue with

By proceeding you agree with our Terms of service & Privacy Policy