AI

কৃত্রিম বুদ্ধিমত্তা ফ্রাঙ্কেনস্টাইনের দানব হয়ে উঠবে না তো

কৃত্রিম বুদ্ধিমত্তা তার কৃত্রিমতা হারিয়ে সংবেদনশীল এবং অনুভূতিসম্পন্ন (সেন্টিয়েন্ট) হয়ে উঠলে মানবসভ্যতার অস্তিত্ব সঙ্কটাপন্ন হয়ে উঠতে পারে।

Advertisement

সুপর্ণ পাঠক

শেষ আপডেট: ২৭ মে ২০২৩ ২০:৩৮
Share:

গুগ্‌লের কৃত্রিম বুদ্ধিমত্তা পরিচালিত ইঞ্জিন বার্ড খুব দ্রুত বাংলা শিখে নিয়েছে। ছবি: সংগৃহীত।

কৃত্রিম বুদ্ধিমত্তার উন্নতির সঙ্গে সঙ্গে কত লোকের চাকরি যাবে সেটাই যখন শিরোনামে, তখনই কিন্তু একটি ক্ষুদ্র অংশের মধ্যে আরও বৃহত্তর হুমকি নিয়ে আলোচনা শুরু হয়ে গিয়েছে। আর তা হল কৃত্রিম বুদ্ধিমত্তা তার কৃত্রিমতা ঝেড়ে ফেললে কী হবে তাই নিয়ে। এক দিকে যেমন আলোচনা চলছে কৃত্রিম বুদ্ধিমত্তা আমাদের প্রযুক্তি কত দ্রুত আরও এগিয়ে নিয়ে যেতে পারে তা নিয়ে, তখনই ঠিক অন্য দিকে আলোচনা চলছে মানবসভ্যতার অস্তিত্বকে এই সীমান্ত প্রযুক্তি কী ভাবে বিপন্ন করে তুলতে পারে তা নিয়ে। এক দিকে, সভ্যতার সম্ভাব্য সঙ্কট। অন্য দিকে, রোজগার হারানোর ভয়ের পাশাপাশি জীবন কত সহজ হয়ে উঠবে তার আলোচনা।

Advertisement

দ্বিতীয় অংশটা বোঝা সহজ। কিন্তু প্রথমটা ঠিক ততোধিক জটিল এবং ভয়ের। কারণ, কৃত্রিম বুদ্ধিমত্তা তার কৃত্রিমতা হারিয়ে সংবেদনশীল এবং অনুভূতিসম্পন্ন (সেন্টিয়েন্ট) হয়ে উঠলে মানবসভ্যতার অস্তিত্ব সঙ্কটাপন্ন হয়ে উঠতে পারে। এই আলোচনা কিন্তু ভিত্তিহীন হয়। এই প্রশ্নগুলো উঠে আসছে সেই সব মানুষের মন্তব্যের ভিত্তিতে যাঁরা এই প্রযুক্তির জন্মের সঙ্গে জড়িত। যেমন, গুগ্‌লের প্রাক্তন প্রধান এরিক স্মিডটের দুশ্চিন্তা এই প্রযুক্তি ঘিরে।

সম্প্রতি সংবাদমাধ্যমে এক আলোচনা প্রসঙ্গে এরিক কৃত্রিম বুদ্ধিমত্তা নিয়ে তাঁর দুশ্চিন্তার কথা খোলাখুলি বলেছেন। তাঁর বক্তব্য এই প্রযুক্তি মানবসভ্যতার শুধু ক্ষতি করতে পারে তা-ই নয়, তার ধ্বংসেরও কারণ হয়ে উঠতে পারে। তাঁর উৎকণ্ঠা যে খুব অযৌক্তিক তা-ও নয়। এই প্রযুক্তিকে প্রথমে নিজে থেকে শিখতে শেখানো হয়েছে। মানুষের জ্ঞানভান্ডার থেকে সে নিজে শিখছে। এটা তার প্রশিক্ষণ। সেই শিক্ষার উপর ভিত্তি করে সে বিভিন্ন আগামী ঘটনার কথা ভাবতে পারে এবং তার সেই ঘটনার প্রেক্ষিতে কী পদক্ষেপ করা উচিত তা-ও বলতে পারে।

Advertisement

সুন্দর পিচাই। — ফাইল চিত্র।

আমরাও তো সেই ভাবেই কাজ করি। আমরা যখন সিদ্ধান্ত নিয়ে থাকি তখন আমরা আমাদের অনুভূতি এবং অভিজ্ঞতা কাজে লাগাই। কৃত্রিম বুদ্ধিমত্তার পিছনের ভাবনাটাও কিন্তু তাই। এখানে বলে রাখা ভাল যে কৃত্রিম বুদ্ধিমত্তা এখনও নিজেকে সংবেদনশীল বা অনুভূতিসম্পন্ন করে উঠতে পারেনি। কত দিনে তা পারবে তা নিয়ে নানান বিশেষজ্ঞ নানান কথা বলছেন। তবে হয়তো আগামী প্রজন্ম পর্যন্ত অপেক্ষা না-ও করতে হতে পারে।

এই গোটা আলোচনায় গুগ্‌লের বর্তমান সিইও সুন্দর পিচাইয়ের সাম্প্রতিক এই সাক্ষাৎকার আরও ইন্ধন জুগিয়েছে। গুগ্‌লের কৃত্রিম বুদ্ধিমত্তা পরিচালিত ইঞ্জিন বার্ড খুব দ্রুত বাংলা শিখে নিয়েছে। উল্লেখ্য, এই ইঞ্জিনটি সম্প্রতি আমাদের দেশের ব্যবহারকারীদের জন্য খুলে দেওয়া হলেও আমরা বাংলা ব্যবহার করতে পারি না। সেই সাক্ষাৎকারে পিচাই বলেছেন যে তাঁরা এই ইঞ্জিনটি তৈরি করলেও তাঁরা জানেন না ঠিক কী ভাবে বার্ড তাঁর উত্তর তৈরি করছে। তাঁদের এর উপর কোনও নিয়ন্ত্রণ নেই।

আর দুশ্চিন্তার জায়গাটা হল এটাই। কৃত্রিম বুদ্ধিমত্তার বল্গাহীন আচরণের সম্ভাবনা। আইজ়াক আসিমভ কল্পবিজ্ঞানে যুগান্তকারী লেখক হিসাবে এখনও খুব জনপ্রিয়। কৃত্রিম বুদ্ধিমত্তার সংবেদনশীল এবং অনুভূতিসম্পন্ন হয়ে ওঠার সম্ভাবনা তাঁর লেখার একটা বড় অংশ জুড়ে ছড়িয়ে রয়েছে। তিনি ১৯৪২ সালেই রোবট নিয়ে লেখা একটি গল্পে বুঝেছিলেন কৃত্রিম বুদ্ধিমত্তার ক্ষমতাকে শিকল পরানোর প্রয়োজনীয়তার কথা। তাঁর যুক্তি ছিল, দুষ্টু লোকের হাতে পড়ে এই প্রযুক্তি অন্যকে ধ্বংস করার কাজে ব্যবহৃত হতে পারে। আবার সংবেদনশীল ও অনুভূতিসম্পন্ন হয়ে উঠলেও এই প্রযুক্তি নিজেই মানবসভ্যতার পরিচালক হয়ে উঠতে পারে। তাই এই প্রযুক্তিকে তাঁর লেখায় তিনটি নিয়মে বেঁধে ফেলেন। সেই তিনটি নিয়ম হল:

  • রোবট কোনও মানুষকে কোনও ভাবে আহত করতে পারবে না অথবা কোনও মানুষকে রক্ষা না করে নিষ্ক্রিয় থাকতে পারবে না।
  • রোবট তত ক্ষণই মানুষের আজ্ঞাবাহক হয়ে থাকবে, যত ক্ষণ তা প্রথম অনুশাসনের বিরুদ্ধে যাবে না।
  • রোবট তত ক্ষণ নিজের অস্তিত্বকে রক্ষা করতে বাধ্য থাকবে, যত ক্ষণ পর্যন্ত প্রথম বা দ্বিতীয় অনুশাসন লঙ্ঘিত না হয়।

কিন্তু লিখতে লিখতেই তিনি দেখেন যে গল্পের যুক্তির বিন্যাসেই এমন পরিস্থিতি তৈরি হচ্ছে যেখানে দুষ্ট লোকেরা এই তিনটি অনুশাসন এড়িয়ে মানুষের ক্ষতি করে দিতে পারে। তাই তিনি তৈরি করেন তাঁর চতুর্থ অনুশাসন বা ‘জ়িরোয়েথ ল’। এই অনুশাসনের মোদ্দা কথা হল কোনও রোবট মানবসভ্যতা ধ্বংস করতে পারে এমন কিছুর অংশীদার হতে পারবে না।

মেরি শেলির ‘ফ্রাঙ্কেনস্টাইন’-এর প্রচ্ছদ। ছবি: সংগৃহীত।

কিন্তু এ তো কল্পবিজ্ঞানের কথা। এই মুহূর্তে কৃত্রিম বুদ্ধিমত্তাকে নিজের মতো বেড়ে ওঠার এবং তা আমাদের ক্ষতি না করার রাস্তায় এগোনোর কোনও পথ যে আমরা জানি না তা সুন্দর পিচাই স্বীকার করে নিয়েছেন। তবে এটাও ঠিক যে এই মুহূর্তে এই প্রযুক্তির ভাল দিকগুলোও সাংঘাতিক। যেমন স্টেম সেল ব্যবহার করে আমাদের নষ্ট হয়ে যাওয়া অঙ্গ তৈরি করাই নয়, তা প্রতিস্থাপন করা। কিডনি বিকল হলে আর যাতে দাতার খোঁজে আসমুদ্রহিমাচল চষে না ফেলতে হয় তার সম্ভাবনা তৈরি হয়ে গিয়েছে। রয়েছে আরও নানান সম্ভাবনা যা আমাদের উপকারে আসবে।

আবার উল্টো দিকে দেখলেন আপনার ফোনে ভিডিয়ো কল করেছেন আপনার ঘনিষ্ঠ কেউ। বিপদে টাকা চেয়ে। আপনি দু’বার না ভেবেই টাকা দিয়ে সর্বস্বান্ত হলেন। আমরা সমাজমাধ্যমে মিথ্যা তথ্য দেখে এবং প্রভাবিত হয়ে অনেক কিছু করেছি। এ বার ভাবুন তো হুবহু আপনি এবং আপনার গলা দিয়ে এমন কিছু বাজারে ছাড়া হল, যাতে আপনি আজকের যা রীতি দাঁড়িয়েছে তা মেনে রাষ্ট্রদ্রোহী সাব্যস্ত হয়ে জেলে পচলেন। এ-ও তো সভ্যতার উপর আক্রমণ। এটা কিন্তু এখনই করা সম্ভব। বর্তমান প্রযুক্তিতেই।

সমাজমাধ্যমে এই প্রযুক্তি ব্যবহার করে ‘দুষ্টুমি’ কিন্তু শুরু হয়ে গিয়েছে। যেমন ইলন মাস্কের রোবট-কন্যাকে চুম্বন। যিনি করেছেন তিনি বলেছেন নতুন প্রযুক্তি মেয়েটির অবয়ব তৈরি করেছে নেটদুনিয়া সার্চ করে ইলনের কী রকম পছন্দ তার ধারণা তৈরি করেই।

এই প্রযুক্তির যাঁরা সমর্থক তাঁরা বলছেন সব প্রযুক্তি নিয়েই প্রাথমিক ভাবে সমাজের দুশ্চিন্তা থাকে। কিন্তু তার পর দেখা যায় সেই দুশ্চিন্তা অমূলক। আর এই প্রসঙ্গে উঠে আসছে পারমাণবিক বোমার কথাও। উল্টো দিকের যুক্তিটাও কিন্তু অনুধাবনযোগ্য। মেরি শেলির ডক্টর ফ্রাঙ্কেনস্টাইন দানব তৈরি করেছিলেন কিন্তু তাকে নিয়ন্ত্রণ করার ব্যবস্থা তৈরি করতে না পারায় যা হয়েছিল তা আমরা জানি। কৃত্রিম বুদ্ধিমত্তা নিয়েও সেই একই আশঙ্কা প্রতিফলিত হচ্ছে এরিকের মতো প্রযুক্তি পরিচালকদের কথায়। পারমাণবিক বোমার সঙ্গে এই প্রযুক্তির ফারাক হল, বোমাটা ফাটাতে মানুষের হস্তক্ষেপ লেগে এসেছে এত দিন। তাই তাকে রোখার জন্যও অনুশাসন তৈরি করা হয়েছে। কিন্তু সুন্দর পিচাই নিজেই বলেছেন তাঁদের তৈরি ইঞ্জিন বার্ড কী ভাবে নিজেকে সমৃদ্ধ করছে তা তাঁদের অজানা! ফারাকটা এখানেই, অ্যাটম বোমা নিজে ভাবে না। কৃত্রিম বুদ্ধিমত্তা ভাবতে শিখছে। শৃঙ্খলহীন ভাবেই।

আনন্দবাজার অনলাইন এখন

হোয়াট্‌সঅ্যাপেও

ফলো করুন
অন্য মাধ্যমগুলি:
আরও পড়ুন
Advertisement