Advertisement
০৪ নভেম্বর ২০২৪
AI

কৃত্রিম বুদ্ধিমত্তা ফ্রাঙ্কেনস্টাইনের দানব হয়ে উঠবে না তো

কৃত্রিম বুদ্ধিমত্তা তার কৃত্রিমতা হারিয়ে সংবেদনশীল এবং অনুভূতিসম্পন্ন (সেন্টিয়েন্ট) হয়ে উঠলে মানবসভ্যতার অস্তিত্ব সঙ্কটাপন্ন হয়ে উঠতে পারে।

artificial intelligence (AI)

গুগ্‌লের কৃত্রিম বুদ্ধিমত্তা পরিচালিত ইঞ্জিন বার্ড খুব দ্রুত বাংলা শিখে নিয়েছে। ছবি: সংগৃহীত।

সুপর্ণ পাঠক
সুপর্ণ পাঠক
শেষ আপডেট: ২৭ মে ২০২৩ ২০:৩৮
Share: Save:

কৃত্রিম বুদ্ধিমত্তার উন্নতির সঙ্গে সঙ্গে কত লোকের চাকরি যাবে সেটাই যখন শিরোনামে, তখনই কিন্তু একটি ক্ষুদ্র অংশের মধ্যে আরও বৃহত্তর হুমকি নিয়ে আলোচনা শুরু হয়ে গিয়েছে। আর তা হল কৃত্রিম বুদ্ধিমত্তা তার কৃত্রিমতা ঝেড়ে ফেললে কী হবে তাই নিয়ে। এক দিকে যেমন আলোচনা চলছে কৃত্রিম বুদ্ধিমত্তা আমাদের প্রযুক্তি কত দ্রুত আরও এগিয়ে নিয়ে যেতে পারে তা নিয়ে, তখনই ঠিক অন্য দিকে আলোচনা চলছে মানবসভ্যতার অস্তিত্বকে এই সীমান্ত প্রযুক্তি কী ভাবে বিপন্ন করে তুলতে পারে তা নিয়ে। এক দিকে, সভ্যতার সম্ভাব্য সঙ্কট। অন্য দিকে, রোজগার হারানোর ভয়ের পাশাপাশি জীবন কত সহজ হয়ে উঠবে তার আলোচনা।

দ্বিতীয় অংশটা বোঝা সহজ। কিন্তু প্রথমটা ঠিক ততোধিক জটিল এবং ভয়ের। কারণ, কৃত্রিম বুদ্ধিমত্তা তার কৃত্রিমতা হারিয়ে সংবেদনশীল এবং অনুভূতিসম্পন্ন (সেন্টিয়েন্ট) হয়ে উঠলে মানবসভ্যতার অস্তিত্ব সঙ্কটাপন্ন হয়ে উঠতে পারে। এই আলোচনা কিন্তু ভিত্তিহীন হয়। এই প্রশ্নগুলো উঠে আসছে সেই সব মানুষের মন্তব্যের ভিত্তিতে যাঁরা এই প্রযুক্তির জন্মের সঙ্গে জড়িত। যেমন, গুগ্‌লের প্রাক্তন প্রধান এরিক স্মিডটের দুশ্চিন্তা এই প্রযুক্তি ঘিরে।

সম্প্রতি সংবাদমাধ্যমে এক আলোচনা প্রসঙ্গে এরিক কৃত্রিম বুদ্ধিমত্তা নিয়ে তাঁর দুশ্চিন্তার কথা খোলাখুলি বলেছেন। তাঁর বক্তব্য এই প্রযুক্তি মানবসভ্যতার শুধু ক্ষতি করতে পারে তা-ই নয়, তার ধ্বংসেরও কারণ হয়ে উঠতে পারে। তাঁর উৎকণ্ঠা যে খুব অযৌক্তিক তা-ও নয়। এই প্রযুক্তিকে প্রথমে নিজে থেকে শিখতে শেখানো হয়েছে। মানুষের জ্ঞানভান্ডার থেকে সে নিজে শিখছে। এটা তার প্রশিক্ষণ। সেই শিক্ষার উপর ভিত্তি করে সে বিভিন্ন আগামী ঘটনার কথা ভাবতে পারে এবং তার সেই ঘটনার প্রেক্ষিতে কী পদক্ষেপ করা উচিত তা-ও বলতে পারে।

Sundar Pichai

সুন্দর পিচাই। — ফাইল চিত্র।

আমরাও তো সেই ভাবেই কাজ করি। আমরা যখন সিদ্ধান্ত নিয়ে থাকি তখন আমরা আমাদের অনুভূতি এবং অভিজ্ঞতা কাজে লাগাই। কৃত্রিম বুদ্ধিমত্তার পিছনের ভাবনাটাও কিন্তু তাই। এখানে বলে রাখা ভাল যে কৃত্রিম বুদ্ধিমত্তা এখনও নিজেকে সংবেদনশীল বা অনুভূতিসম্পন্ন করে উঠতে পারেনি। কত দিনে তা পারবে তা নিয়ে নানান বিশেষজ্ঞ নানান কথা বলছেন। তবে হয়তো আগামী প্রজন্ম পর্যন্ত অপেক্ষা না-ও করতে হতে পারে।

এই গোটা আলোচনায় গুগ্‌লের বর্তমান সিইও সুন্দর পিচাইয়ের সাম্প্রতিক এই সাক্ষাৎকার আরও ইন্ধন জুগিয়েছে। গুগ্‌লের কৃত্রিম বুদ্ধিমত্তা পরিচালিত ইঞ্জিন বার্ড খুব দ্রুত বাংলা শিখে নিয়েছে। উল্লেখ্য, এই ইঞ্জিনটি সম্প্রতি আমাদের দেশের ব্যবহারকারীদের জন্য খুলে দেওয়া হলেও আমরা বাংলা ব্যবহার করতে পারি না। সেই সাক্ষাৎকারে পিচাই বলেছেন যে তাঁরা এই ইঞ্জিনটি তৈরি করলেও তাঁরা জানেন না ঠিক কী ভাবে বার্ড তাঁর উত্তর তৈরি করছে। তাঁদের এর উপর কোনও নিয়ন্ত্রণ নেই।

আর দুশ্চিন্তার জায়গাটা হল এটাই। কৃত্রিম বুদ্ধিমত্তার বল্গাহীন আচরণের সম্ভাবনা। আইজ়াক আসিমভ কল্পবিজ্ঞানে যুগান্তকারী লেখক হিসাবে এখনও খুব জনপ্রিয়। কৃত্রিম বুদ্ধিমত্তার সংবেদনশীল এবং অনুভূতিসম্পন্ন হয়ে ওঠার সম্ভাবনা তাঁর লেখার একটা বড় অংশ জুড়ে ছড়িয়ে রয়েছে। তিনি ১৯৪২ সালেই রোবট নিয়ে লেখা একটি গল্পে বুঝেছিলেন কৃত্রিম বুদ্ধিমত্তার ক্ষমতাকে শিকল পরানোর প্রয়োজনীয়তার কথা। তাঁর যুক্তি ছিল, দুষ্টু লোকের হাতে পড়ে এই প্রযুক্তি অন্যকে ধ্বংস করার কাজে ব্যবহৃত হতে পারে। আবার সংবেদনশীল ও অনুভূতিসম্পন্ন হয়ে উঠলেও এই প্রযুক্তি নিজেই মানবসভ্যতার পরিচালক হয়ে উঠতে পারে। তাই এই প্রযুক্তিকে তাঁর লেখায় তিনটি নিয়মে বেঁধে ফেলেন। সেই তিনটি নিয়ম হল:

  • রোবট কোনও মানুষকে কোনও ভাবে আহত করতে পারবে না অথবা কোনও মানুষকে রক্ষা না করে নিষ্ক্রিয় থাকতে পারবে না।
  • রোবট তত ক্ষণই মানুষের আজ্ঞাবাহক হয়ে থাকবে, যত ক্ষণ তা প্রথম অনুশাসনের বিরুদ্ধে যাবে না।
  • রোবট তত ক্ষণ নিজের অস্তিত্বকে রক্ষা করতে বাধ্য থাকবে, যত ক্ষণ পর্যন্ত প্রথম বা দ্বিতীয় অনুশাসন লঙ্ঘিত না হয়।

কিন্তু লিখতে লিখতেই তিনি দেখেন যে গল্পের যুক্তির বিন্যাসেই এমন পরিস্থিতি তৈরি হচ্ছে যেখানে দুষ্ট লোকেরা এই তিনটি অনুশাসন এড়িয়ে মানুষের ক্ষতি করে দিতে পারে। তাই তিনি তৈরি করেন তাঁর চতুর্থ অনুশাসন বা ‘জ়িরোয়েথ ল’। এই অনুশাসনের মোদ্দা কথা হল কোনও রোবট মানবসভ্যতা ধ্বংস করতে পারে এমন কিছুর অংশীদার হতে পারবে না।

Frankenstein Novel by Mary Shelley

মেরি শেলির ‘ফ্রাঙ্কেনস্টাইন’-এর প্রচ্ছদ। ছবি: সংগৃহীত।

কিন্তু এ তো কল্পবিজ্ঞানের কথা। এই মুহূর্তে কৃত্রিম বুদ্ধিমত্তাকে নিজের মতো বেড়ে ওঠার এবং তা আমাদের ক্ষতি না করার রাস্তায় এগোনোর কোনও পথ যে আমরা জানি না তা সুন্দর পিচাই স্বীকার করে নিয়েছেন। তবে এটাও ঠিক যে এই মুহূর্তে এই প্রযুক্তির ভাল দিকগুলোও সাংঘাতিক। যেমন স্টেম সেল ব্যবহার করে আমাদের নষ্ট হয়ে যাওয়া অঙ্গ তৈরি করাই নয়, তা প্রতিস্থাপন করা। কিডনি বিকল হলে আর যাতে দাতার খোঁজে আসমুদ্রহিমাচল চষে না ফেলতে হয় তার সম্ভাবনা তৈরি হয়ে গিয়েছে। রয়েছে আরও নানান সম্ভাবনা যা আমাদের উপকারে আসবে।

আবার উল্টো দিকে দেখলেন আপনার ফোনে ভিডিয়ো কল করেছেন আপনার ঘনিষ্ঠ কেউ। বিপদে টাকা চেয়ে। আপনি দু’বার না ভেবেই টাকা দিয়ে সর্বস্বান্ত হলেন। আমরা সমাজমাধ্যমে মিথ্যা তথ্য দেখে এবং প্রভাবিত হয়ে অনেক কিছু করেছি। এ বার ভাবুন তো হুবহু আপনি এবং আপনার গলা দিয়ে এমন কিছু বাজারে ছাড়া হল, যাতে আপনি আজকের যা রীতি দাঁড়িয়েছে তা মেনে রাষ্ট্রদ্রোহী সাব্যস্ত হয়ে জেলে পচলেন। এ-ও তো সভ্যতার উপর আক্রমণ। এটা কিন্তু এখনই করা সম্ভব। বর্তমান প্রযুক্তিতেই।

সমাজমাধ্যমে এই প্রযুক্তি ব্যবহার করে ‘দুষ্টুমি’ কিন্তু শুরু হয়ে গিয়েছে। যেমন ইলন মাস্কের রোবট-কন্যাকে চুম্বন। যিনি করেছেন তিনি বলেছেন নতুন প্রযুক্তি মেয়েটির অবয়ব তৈরি করেছে নেটদুনিয়া সার্চ করে ইলনের কী রকম পছন্দ তার ধারণা তৈরি করেই।

এই প্রযুক্তির যাঁরা সমর্থক তাঁরা বলছেন সব প্রযুক্তি নিয়েই প্রাথমিক ভাবে সমাজের দুশ্চিন্তা থাকে। কিন্তু তার পর দেখা যায় সেই দুশ্চিন্তা অমূলক। আর এই প্রসঙ্গে উঠে আসছে পারমাণবিক বোমার কথাও। উল্টো দিকের যুক্তিটাও কিন্তু অনুধাবনযোগ্য। মেরি শেলির ডক্টর ফ্রাঙ্কেনস্টাইন দানব তৈরি করেছিলেন কিন্তু তাকে নিয়ন্ত্রণ করার ব্যবস্থা তৈরি করতে না পারায় যা হয়েছিল তা আমরা জানি। কৃত্রিম বুদ্ধিমত্তা নিয়েও সেই একই আশঙ্কা প্রতিফলিত হচ্ছে এরিকের মতো প্রযুক্তি পরিচালকদের কথায়। পারমাণবিক বোমার সঙ্গে এই প্রযুক্তির ফারাক হল, বোমাটা ফাটাতে মানুষের হস্তক্ষেপ লেগে এসেছে এত দিন। তাই তাকে রোখার জন্যও অনুশাসন তৈরি করা হয়েছে। কিন্তু সুন্দর পিচাই নিজেই বলেছেন তাঁদের তৈরি ইঞ্জিন বার্ড কী ভাবে নিজেকে সমৃদ্ধ করছে তা তাঁদের অজানা! ফারাকটা এখানেই, অ্যাটম বোমা নিজে ভাবে না। কৃত্রিম বুদ্ধিমত্তা ভাবতে শিখছে। শৃঙ্খলহীন ভাবেই।

অন্য বিষয়গুলি:

AI
সবচেয়ে আগে সব খবর, ঠিক খবর, প্রতি মুহূর্তে। ফলো করুন আমাদের মাধ্যমগুলি:
Advertisement
Advertisement

Share this article

CLOSE