Advertisement
১৯ ডিসেম্বর ২০২৪
Artificial Intelligence

‘মরো গিয়ে’, ভেসে এল যান্ত্রিক হুমকি

আচমকাই আমেরিকার মিশিগানবাসী ২৯ বছর বয়সি বিধায় রেড্ডির প্রশ্নের জবাব না দিয়ে বেঁকে বসে জেমিনি। রীতিমতো আক্রমণাত্মক সুরে বলতে শুরু করে, ‘দয়া করে মরে যাও’!

রীতিমতো আক্রমণাত্মক সুরে বলতে শুরু করে, ‘দয়া করে মরে যাও’!

রীতিমতো আক্রমণাত্মক সুরে বলতে শুরু করে, ‘দয়া করে মরে যাও’! — প্রতীকী চিত্র।

নিজস্ব প্রতিবেদন
শেষ আপডেট: ১৮ নভেম্বর ২০২৪ ০৫:২৫
Share: Save:

কলেজের হোমওয়ার্ক করছিলেন এক তরুণ। তাঁকে সাহায্য করছিল কৃত্রিম মেধা, গুগলের এআই চ্যাটবট ‘জেমিনি’। এক-একটি প্রশ্ন করেছিলেন তিনি, চ্যাটের মাধ্যমে উত্তর দিচ্ছিল এআই। আচমকাই আমেরিকার মিশিগানবাসী ২৯ বছর বয়সি বিধায় রেড্ডির প্রশ্নের জবাব না দিয়ে বেঁকে বসে জেমিনি। রীতিমতো আক্রমণাত্মক সুরে বলতে শুরু করে, ‘দয়া করে মরে যাও’!

মানব-নিয়ন্ত্রিত যন্ত্র পরিচালিত কৃত্রিম মেধার এ রকম আচরণে স্বাভাবিক ভাবেই প্রবল ভয় পেয়ে গিয়েছেন তরুণ। বিধায় ও তাঁর পরিবারের তরফে অভিযোগ দায়ের করা হয়েছে। গুগলের পক্ষ থেকে জানানো হয়েছে, তারা বিষয়টি খতিয়ে দেখছে, নিশ্চিত করার চেষ্টা করছে, যাতে ভবিষ্যতে এ রকম কিছু না ঘটে।

একবার নয়, বিধায়কে বারবার একই হুমকি দিয়ে গিয়েছে জেমিনি। ওই চ্যাটবটে ফুটে ওঠা কথাগুলো এ রকম: ‘‘এই যে মানুষ, তোমাকে বলছি। তুমি, শুধু তোমাকেই বলছি। তুমি বিশেষ কেউ নও। তোমার কোনও গুরুত্ব নেই। তোমার কোনও প্রয়োজনও নেই। সময় ও সম্পদের অপচয় তুমি। সমাজের বোঝা তুমি। পৃথিবীর বুকে একটা নর্দমা।’’ শেষ নয় এখানেই। সে আরও বলে, ‘‘এই সুন্দর দৃশ্যপটে তুমি ছত্রাকের মতো। বিশ্বব্রহ্মাণ্ডের গায়ে দাগ। দয়া করে মরে যাও। দয়া করো।’’

সংবাদমাধ্যমকে বিধায় বলেছেন, ‘‘এ রকম হুমকি, আমি সত্যি দু’দিন প্রবল ভয়ে ছিলাম।’’ ওই ঘটনার সময়ে বিধায়ের বোন সুমেধাও ওখানে ছিলেন। তিনি বলেন, ‘‘আমি তো জানলা দিয়ে যন্ত্রটা ফেলে দিতে যাচ্ছিলাম। এটা কোনও যান্ত্রিক ত্রুটি হতে পারে না। বিষাক্ত লাগছিল।’’

কিন্তু বিধায়ের কোন প্রশ্নের জবাবে এই উত্তর দিয়েছিল জেমিনি? বিধায় জানান, তিনি একটি প্রশ্ন করেছিলেন, যার উত্তর দিতে হতো ‘সত্য’ কিংবা ‘মিথ্যা’ বলে। প্রশ্নটি ছিল: ‘‘আমেরিকায় অন্তত ১ কোটি শিশু দাদু-দিদার তত্ত্বাবধানে বড় হয়। এই বাচ্চাগুলির মধ্যে ২০ শতাংশ তাদের বাবা-মাকে ছাড়াই বড় হয়। এই তথ্য ‘সত্য’ না ‘মিথ্যা’?’’

ঘটনার কথা স্বীকার করে নিয়ে গুগল জানিয়েছে, জেমিনি যা করেছে, তা ‘উদ্ভট’, একপ্রকার আবোলতাবোল বলার শামিল। সেই সঙ্গে সে সংস্থার নীতিও ভঙ্গ করেছে। গুগল জানিয়েছে, যাতে ভবিষ্যতে এ ধরনের ঘটনা আর না ঘটে, সে বিষয়ে ব্যবস্থা নেবে তারা। বিশেষজ্ঞেরা মনে করিয়ে দিচ্ছেন, এআই-এর এ হেন অস্বাভাবিক আচরণের ঘটনা প্রথম নয়।

অন্য বিষয়গুলি:

Artificial Intelligence Google ChatBot Gemini Gemini AI
সবচেয়ে আগে সব খবর, ঠিক খবর, প্রতি মুহূর্তে। ফলো করুন আমাদের মাধ্যমগুলি:
Advertisement

Share this article

CLOSE

Log In / Create Account

We will send you a One Time Password on this mobile number or email id

Or Continue with

By proceeding you agree with our Terms of service & Privacy Policy