Advertisement
২২ নভেম্বর ২০২৪
কৃত্রিম মেধার অপব্যবহার সংখ্যালঘুদের বিপন্ন করতে পারে
Artificial Intelligence

যন্ত্রের মগজে দূষিত তথ্য

তথ্যভান্ডারের এই অসাম্য এবং পক্ষপাত থেকেই শুরু হয় সেই তথ্যের উপর পুরোপুরি নির্ভরশীল কৃত্রিম মেধাতন্ত্রের আসল বিপদ।

স্বাগতম দাস
শেষ আপডেট: ০৬ মে ২০২২ ০৪:৪৩
Share: Save:

তথ্যই আজকের দুনিয়ার নতুন পেট্রল। প্রশ্ন হল, সেই তেল পুড়িয়ে সভ্যতার চাকাগুলোকে গড়িয়ে নিয়ে যাওয়ার জন্যে যে ইঞ্জিন প্রয়োজন, সেটা কী? সেই ইঞ্জিনের নাম হল আর্টিফিশিয়াল ইন্টেলিজেন্স (সংক্ষেপে এআই), বা কৃত্রিম মেধা। কিন্তু, অপরিশোধিত পেট্রল তো জ্বালানি হিসাবে ব্যবহার করা যায় না। একই কথা প্রযোজ্য তথ্য সম্পর্কেও। তথ্যে যদি মিশে থাকে ভেজাল, সরকারি ভাবে সংগৃহীত তথ্যকে যদি করে তোলা হয় পক্ষপাতদুষ্ট, তা হলে কৃত্রিম মেধার আধুনিকতম মডেলগুলো সেই তথ্যকে বিশ্লেষণ করে যে সিদ্ধান্তে পৌঁছবে, তা শুধুই মানুষকে বিভ্রান্ত করবে। অবশ্য সেই বিভ্রান্তি কোনও কোনও পক্ষের কাছে লাভজনক হয়ে উঠবে বইকি। আজ যখন এআই, মেশিন লার্নিং, বিগ ডেটা— এই কথাগুলো আমাদের প্রাত্যহিকতায় মিশে যাচ্ছে, প্রধানমন্ত্রী ভাবী আমলাদের মনে করিয়ে দিচ্ছেন সরকার চালনায় কৃত্রিম মেধার গুরুতর ভূমিকার কথা, তখন বিষয়টির নৈতিক দায়বদ্ধতা এবং সম্ভাব্য অপব্যবহারের দিকগুলোও খতিয়ে দেখা প্রয়োজন।

কৃত্রিম মেধার সবচেয়ে সফল পর্যায়টি হল মেশিন লার্নিং বা যন্ত্রের শিক্ষণ। যন্ত্র বলতে ডিজিটাল কম্পিউটার— যা আবার সংখ্যা ছাড়া খুব একটা কিছু বোঝে না। আমাদের চার পাশে থাকা যে কোনও কিছুকে যদি শুধু কয়েকটি সংখ্যার মাধ্যমে বিমূর্ত ভাবে উপস্থাপিত করা যায় সেই কম্পিউটারের যান্ত্রিক মগজে, তখন সেই বস্তুটি হয়ে ওঠে এক টুকরো তথ্য। লার্নিং বা শিক্ষণ এমন একটা প্রক্রিয়া, যেখানে পূর্বার্জিত অভিজ্ঞতার ভিত্তিতে কোনও বিশেষ পরিস্থিতিতে নেওয়া যেতে পারে যথাযথ সিদ্ধান্ত। মেশিন লার্নিং-এর একটা প্রধান অংশে ঠিক এই ভাবে, বিভিন্ন তথ্যকে পূর্ব-নির্ধারিত কিছু শ্রেণিতে ভাগ করতে আগের অভিজ্ঞতার ভিত্তিতে কম্পিউটারকে শেখানো হয়।

কিন্তু কম্পিউটার এত ‘অভিজ্ঞতা’ কোথায় পাবে? পাবে বিশেষজ্ঞদের কাছেই। ধরুন, কয়েক জন ক্যানসার-বিশেষজ্ঞ অনেক সময় নিয়ে খুঁটিয়ে দেখে, দীর্ঘ দিন ধূমপান করছেন বা ধোঁয়ার মধ্যে অনেকটা সময় থাকতে হয় এমন বেশ কিছু মানুষের ফুসফুসের এক্স-রে বা সিটি স্ক্যান ছবিগুলোকে দু’টি শ্রেণিতে ভাগ করে দিলেন। প্রথম শ্রেণিতে সেই সব ভাগ্যবানের ছবি, যাঁদের ফুসফুসে কোনও নডিউল বা বিসদৃশ স্ফীতি দেখা যাচ্ছে না; আর দ্বিতীয় শ্রেণিতে তাঁরা, যাঁদের ফুসফুসে এ রকম বেশ কিছু নডিউল-এর উপস্থিতি ইঙ্গিত দিচ্ছে যে, অদূর ভবিষ্যতে এঁরাই হবেন ক্যানসারের শিকার। আগে থেকে চিহ্নিত করা এই ছবিগুলো থেকে, রাশিবিজ্ঞানের কিছু নিয়মকে কাজে লাগিয়ে এবং মানবমস্তিষ্ককে খুব অক্ষমের মতো অনুকরণ করেও, একটা কম্পিউটার এই দুই শ্রেণির মধ্যে পার্থক্য করতে পারে, এক্স-রে ছবির এমন খুঁটিনাটি বৈশিষ্ট্যগুলোকে খুব ভাল ভাবে চিনে রাখতে পারে। এই ভাবে প্রভেদক বৈশিষ্ট্যগুলো রপ্ত করার পর, এই প্রশিক্ষিত কম্পিউটার এক জন নতুন রোগীর থেকে সংগৃহীত এক্স-রে ছবি খুঁটিয়ে পরীক্ষা করে, অনেকটা ডাক্তারদের মতোই বলে দিতে পারে যে, এই রোগীর ফুসফুসে ভবিষ্যতে ক্যানসার দেখা দিতে পারে কি না। আর যন্ত্র হওয়ার কারণেই হয়তো, খুব ছোট বা সূক্ষ্ম নডিউলও সে ডাক্তারদের চেয়ে বেশি নিখুঁত ভাবে ধরে ফেলতে পারে।

সুতরাং, বিভিন্ন শ্রেণির বহু পূর্বচিহ্নিত উদাহরণ বিশ্লেষণ করে কৃত্রিম মেধাসম্পন্ন কম্পিউটার এমন কিছু নিয়ম নিজেই শিখে ফেলে, যেগুলোকে কাজে লাগিয়ে সে ছবি, ভিডিয়ো, টেক্সট, বা অডিয়োর মতো তথ্যের যথাযথ শ্রেণি নির্ধারণ করতে পারে। কিন্তু কেমন হবে, যদি যন্ত্রের সামনে সাজিয়ে দেওয়া এই চিহ্নিত তথ্যগুলো কোনও এক বা একাধিক বিরল শ্রেণির ক্ষেত্রে খুবই কম পাওয়া যায়? আগের উদাহরণটির ক্ষেত্রেই হয়তো র‌্যান্ডম স্যাম্পলিং-এর মাধ্যমে বেছে নেওয়া প্রতি ১০০ জন রোগীর মধ্যে, ক্যানসার শ্রেণিতে অন্তর্ভুক্ত হবেন মাত্র ৩-৪ জন। এই ক্ষেত্রে কম্পিউটার ওই শ্রেণির বৈশিষ্ট্যগুলোকে আদৌ ভাল ভাবে চিনতে শিখবে না। আবার এমনও হতে পারে যে, সংগৃহীত তথ্যগুলো ওই শ্রেণির সমস্ত স্তর থেকে এলই না, এবং শ্রেণিটির সমস্ত বৈশিষ্ট্যকে যথাযথ ভাবে প্রকাশ করতে পারল না। এমন উদাহরণও রোজকার জীবন থেকেই নেওয়া যাক। আর্থসামাজিক ক্ষেত্রে তথ্য সংগ্রহের প্রচলিত উপায় হল সার্ভে বা সমীক্ষা। নির্বাচন-পূর্ববর্তী জনমত সমীক্ষার জন্য তথ্য সংগ্রহ করার সময় যদি সমীক্ষক সংস্থা তাদের পছন্দের পার্টির সমর্থকদেরই নিশানা করে, এবং বিরোধী দলগুলোর সমর্থকদের যতটা সম্ভব এড়িয়ে যায়, তবে এই সংগৃহীত তথ্যভান্ডার ঘেঁটে এমনকি সম্পূর্ণ নিরপেক্ষ একটি তথ্যপ্রযুক্তি সংস্থার কৃত্রিম মেধাসম্পন্ন কম্পিউটারও এক ধরনের পক্ষপাতদুষ্ট সিদ্ধান্তে পৌঁছবে। সেই সিদ্ধান্ত একেবারেই বাস্তবসম্মত না হলেও তাৎক্ষণিক ভাবে ওই পছন্দের পার্টির কর্মীদের কিছুটা অক্সিজেন জোগাবে এবং হয়তো ঘুরপথে, জনমতকেও কিছুটা প্রভাবিত করবে।

তথ্যভান্ডারের এই অসাম্য এবং পক্ষপাত থেকেই শুরু হয় সেই তথ্যের উপর পুরোপুরি নির্ভরশীল কৃত্রিম মেধাতন্ত্রের আসল বিপদ। আজকের দিনে, কৃত্রিম মেধা যখন পৃথিবীর উন্নত রাষ্ট্রগুলোর কাছে আইন বলবৎ করা থেকে শুরু করে নাগরিকদের উপর নজরদারির অন্যতম হাতিয়ার হয়ে উঠেছে, তখন তার এই নৈতিক বিপন্নতা আম-নাগরিকদের জীবনে প্রভাব ফেলতে বাধ্য। ২০১৭-১৮ থেকে আমেরিকার সংখ্যালঘু কয়েক জন তরুণ বিজ্ঞানী সরব হয়েছেন গুগল, অ্যামাজ়ন, বা ফেসবুকের মতো বড় কোম্পানিগুলোর প্রচলিত কৃত্রিম মেধাভিত্তিক ফেশিয়াল ডিটেকশন বা মুখ চিনে নেওয়ার সফটওয়্যারগুলোতে লুকিয়ে থাকা বর্ণ ও লিঙ্গভিত্তিক বৈষম্যের বিরুদ্ধে। ২০১৮ সালে এমআইটি এবং স্ট্যানফোর্ড ইউনিভার্সিটির কিছু বিজ্ঞানী দেখিয়েছেন যে, মুখের ছবি থেকে শ্বেতাঙ্গদের লিঙ্গ নির্ধারণে এই ধরনের সফটওয়্যার এক শতাংশের কম ভুল করলেও, কালো চামড়ার মানুষদের ক্ষেত্রে সেই ভুল পৌঁছে যেতে পারে ৩৪ শতাংশে। শুধু লিঙ্গনির্ধারণ নয়, বড় বিপদের কথা হচ্ছে, কোনও অঞ্চলে চুরি বা ডাকাতি হলেও, এই ধরনের তথ্যনির্ভর সফটওয়্যার-ই পুলিশের কাজে আসে সম্ভাব্য অপরাধীদের শনাক্তকরণে। সেখানেও, সহজ চাঁদমারি হয়ে পড়েন সেই গরিব, কালো চামড়ার মানুষগুলোই। যন্ত্রকে প্রশিক্ষিত করে তুলতে প্রয়োজনীয় তথ্য সংগ্রহে রাষ্ট্রীয় স্তরে উপযুক্ত তথ্যনীতির অভাব, সমাজের পিছিয়ে পড়া অংশের প্রতি চিরকালীন ঔদাসীন্য কৃত্রিম মেধার নৈর্ব্যক্তিক চরিত্রটিকে নষ্ট করে দিচ্ছে প্রতি দিন। আবার এর ফলে তৈরি হওয়া পক্ষপাতদুষ্ট সফটওয়্যারগুলোকেই বিভিন্ন দেশের সরকার ব্যবহার করছে সংখ্যালঘু নাগরিকদের বিরুদ্ধে। এর সাম্প্রতিক উদাহরণ হল চিনের শিনচিয়াং অঞ্চলে বসবাসকারী উইঘুর সম্প্রদায়ের মুসলমানদের উপর নজরদারি চালাতে সরকারি উদ্যোগে মুখ চেনার সফটওয়্যার-এর ব্যবহার। এই সম্প্রদায়ের বহু মানুষ শুধু এই সফটওয়্যারটির ভুল সিদ্ধান্তের কারণে আটকে আছেন কোনও অন্ধকার জেলে।

পারমাণবিক শক্তির মতোই কৃত্রিম মেধাও আশীর্বাদ বা অভিশাপ, দুই রূপেই দেখা দিতে পারে। নৈতিকতার সপক্ষে আওয়াজ তুলে তথ্যপ্রযুক্তির জগতে দানব-সদৃশ কোম্পানিগুলোর মুনাফা লোটায় বাধা দিতে গেলে, তারাও সেই গবেষকদের ছেড়ে কথা বলবে না। আশার কথা হল, তা সত্ত্বেও কিছু বিজ্ঞানকর্মী লড়াইয়ের ময়দান ছাড়েন না— যেমন ছাড়েননি স্ট্যানফোর্ড ‘ব্ল্যাক ইন এআই’ গ্রুপের প্রতিষ্ঠাতা টিমনিট গেবরু, যাঁর কাজের মূল বিষয়টাই কৃত্রিম মেধার নৈতিক দায়বদ্ধতা। বিজ্ঞানজগতের অবিসংবাদী পত্রিকা নেচার পৃথিবী বদলে দেওয়া যে ১০ জন তরুণ বিজ্ঞানীর নাম ২০২১-এর ডিসেম্বর সংখ্যাতে ঘোষণা করে, তাঁদের মধ্যে টিমনিট অন্যতম। নেচার জানাচ্ছে, ২০২০-তে গুগল থেকে বিতাড়িত হতে হয়েছে টিমনিট-কে, তাঁর গবেষণার প্রতিবাদী চরিত্রের জন্য। কিন্তু থামেননি তিনি, মাত্র এক বছরের মধ্যে, বিশাল মাপের কোনও তথ্যপ্রযুক্তি সংস্থার আর্থিক সাহায্য ছাড়াই গড়ে তুলেছেন নিজস্ব গবেষণা সংস্থা— কৃত্রিম মেধাকে পক্ষপাতমুক্ত রাখাই যার উদ্দেশ্য।

পৃথিবীর জনসংখ্যার প্রায় এক-পঞ্চমাংশের বাস আমাদের দেশে। বহু মানুষ মানেই বিশাল ও বৈচিত্রপূর্ণ তথ্যভান্ডার। তথ্যভিত্তিক গভর্ন্যান্সের স্বার্থে, কৃত্রিম মেধার সাহায্যে সেই ভান্ডারের নিরপেক্ষ বিশ্লেষণ করতে, এবং রাষ্ট্রীয় উদ্যোগে কোনও বিশেষ জনগোষ্ঠীকে নিশানা করে এর অপব্যবহারকে রুখে দেওয়ার দায়িত্ব আমাদেরই তরুণ কম্পিউটার বিজ্ঞানীদের উপর বর্তায়। জানি না, তাঁদের মধ্যেই কেউ অদূর ভবিষ্যতে আর এক জন টিমনিট গেবরু হয়ে উঠতে পারবেন কি না।

ইলেকট্রনিক্স অ্যান্ড কমিউনিকেশন বিভাগ, ইন্ডিয়ান স্ট্যাটিস্টিক্যাল ইনস্টিটিউট, কলকাতা

অন্য বিষয়গুলি:

Artificial Intelligence Technology
সবচেয়ে আগে সব খবর, ঠিক খবর, প্রতি মুহূর্তে। ফলো করুন আমাদের মাধ্যমগুলি:
Advertisement
Advertisement

Share this article

CLOSE

Log In / Create Account

We will send you a One Time Password on this mobile number or email id

Or Continue with

By proceeding you agree with our Terms of service & Privacy Policy