Cyber Crime

ডিপ-ফেকের মাধ্যমে প্রতারণা ঠেকাতে তৎপরতা লালবাজারে

সপ্তাহখানেক আগে সমাজমাধ্যমে ছড়িয়ে পড়া এক অভিনেত্রীর স্বল্প পোশাকের এমন ভিডিয়ো ঘিরে চর্চা কম হয়নি।

Advertisement

নিজস্ব সংবাদদাতা

কলকাতা শেষ আপডেট: ০৪ ডিসেম্বর ২০২৩ ০৭:২১
Share:

লালবাজার। নিজস্ব চিত্র।

চলাফেরার ধরন থেকে শুরু করে চেহারা— হুবহু এক। চেনার উপায় নেই গলার স্বর শুনেও।
খালি চোখে কয়েক বার দেখার পরেও বোঝা তো দূর, বরং ভিডিয়োটি সত্যি হিসেবে ধরে নিতে বাধ্য হচ্ছেন অনেকেই!

Advertisement

সপ্তাহখানেক আগে সমাজমাধ্যমে ছড়িয়ে পড়া এক অভিনেত্রীর স্বল্প পোশাকের এমন ভিডিয়ো ঘিরে চর্চা কম হয়নি। ‘কারসাজি’ করা ভিডিয়োটি তাঁর নয় বলে বয়ান দিয়ে আসরে নামতে হয়েছিল খোদ অভিনেত্রীকে। পাশে দাঁড়িয়ে সরব হয়েছিলেন বলিউডের তাবড় অভিনেতা-অভিনেত্রীরাও। সামাজিক মাধ্যমে ছড়িয়ে পড়া এমন ভিডিয়োর তদন্তে নেমে পুলিশ জানতে পারে, কৃত্রিম মেধা বা আর্টিফিশিয়াল ইন্টেলিজেন্সকে (এআই) কাজে লাগিয়ে ওই ‘ডিপ-ফেক’ ভিডিয়োটি বানানো হয়েছিল। শুধু ওই অভিনেত্রীই নন, ডিপ ফেকের হাত থেকে ছাড় পাননি আমেরিকার প্রাক্তন প্রেসিডেন্ট বারাক ওবামা থেকে শুরু করে তারকা ক্রিকেটারেরাও। একের পর এক এমন ঘটনা সামনে আসতেই চর্চা শুরু হয়েছে বিভিন্ন মহলে। এমনকি, এই প্রযুক্তিকে সাইবার প্রতারকেরাও মাধ্যম হিসেবে ব্যবহার করায় উদ্বেগ আরও বেড়েছে।

সম্প্রতি ডিপ-ফেক ভিডিয়ো তৈরি করে প্রতারণার অভিযোগ দায়ের হয়েছে এ রাজ্যেও।
চন্দননগরের বাসিন্দা এক তরুণীর এমনই একটি ভিডিয়ো তৈরি করে সমাজমাধ্যমে ছড়িয়ে দেওয়ার ভয় দেখিয়ে ১৯ হাজার টাকা হাতিয়ে নেওয়ার লিখিত অভিযোগ জমা পড়েছে থানায়। টাকা দেওয়ার পরেও প্রতারকদের ফোন ও টাকা চাওয়া বন্ধ না হওয়ায় পুলিশের দ্বারস্থ হন ওই তরুণী। সাইবার বিশেষজ্ঞেরা জানাচ্ছেন, ডিপ-ফেক ভিডিয়ো বানানোর ক্ষেত্রে ‘মেশিন লার্নিং’ অন্যতম অস্ত্র। এই মেশিন লার্নিংয়ের একটি কৌশল ‘জেনারেল অ্যাডভারসেরিয়াল নেটওয়ার্ক’। এক জনের বিভিন্ন অভিব্যক্তির একাধিক ছবি বা ভিডিয়ো সংগ্রহ করে নিদিষ্ট এই পদ্ধতির মাধ্যমে বানিয়ে ফেলা হচ্ছে ডিপ-ফেক ভিডিয়ো। এমনকি, কৃত্রিম মেধা বা এআই-এর ক্রমশ উন্নতির ফলে গলার স্বরও হুবহু নকল করা সম্ভব হচ্ছে। সাইবার বিশেষজ্ঞ সন্দীপ সেনগুপ্তের কথায়, ‘‘ফোটোশপের ক্ষেত্রে খালি চোখে বোঝা গেলেও ডিপ-ফেকের ক্ষেত্রে তা বোঝা কঠিন। ফলে খুব সহজেই কারও সঙ্গে প্রতারণা বা তাঁর সম্মানহানি করা সম্ভব। আপাতত অভিনেতা-অভিনেত্রী বা সমাজের পরিচিতদের ডিপ-ফেক ভিডিয়ো সাধারণত দেখা যাচ্ছে। তবে সাধারণ মানুষেরও এর কবলে পড়ার আশঙ্কা উড়িয়ে দেওয়া যাচ্ছে না।’’

Advertisement

যদিও লালবাজার জানাচ্ছে, ডিপ-ফেক প্রযুক্তি ব্যবহার করে শহরে প্রতারণার কোনও অভিযোগ এখনও সামনে আসেনি। তবে নতুন প্রতারণার ধরন ভাবাচ্ছে লালবাজারের গোয়েন্দাদের। এই প্রযুক্তিকে কাজে লাগিয়ে সাইবার প্রতারণার আশঙ্কাও উড়িয়ে দিচ্ছেন না তাঁরা। নতুন প্রতারণার নাগাল পেতে প্রযুক্তির আরও উন্নতি ঘটানো যায় কি না, চলছে তা নিয়ে ভাবনা-চিন্তাও। ডিভিশনগুলিকেও বলা হয়েছে, ডিপ-ফেক সংক্রান্ত কোনও অভিযোগ নজরে এলে দ্রুত জানাতে। এক পুলিশকর্তার কথায়, ‘‘সাইবার প্রতারণার যে কোনও অভিযোগে সব সময়ে পুলিশ তৎপর। নতুন প্রতারণার ধরন নজরে এলেও তা নিয়ে জনগণকে সতর্ক করা হয়। এই ক্ষেত্রেও কোনও অভিযোগ এলে দ্রুত ব্যবস্থা নেওয়া হবে।’’

আনন্দবাজার অনলাইন এখন

হোয়াট্‌সঅ্যাপেও

ফলো করুন
অন্য মাধ্যমগুলি:
আরও পড়ুন
Advertisement