24-03-2026 19:48:38 pm

print

 
বিজ্ঞান - Bigyan-logo

বিজ্ঞান - Bigyan

বাংলা ভাষায় বিজ্ঞান জনপ্রিয়করণের এক বৈদ্যুতিন মাধ্যম
An online Bengali Popular Science magazine

https://bigyan.org.in

 

AI-এর উপর কতটা নিয়ন্ত্রণ থাকা উচিত


%e0%a6%a1-%e0%a6%ae%e0%a6%a8%e0%a7%8b%e0%a6%9c%e0%a6%bf%e0%a7%8e-%e0%a6%9a%e0%a7%8c%e0%a6%a7%e0%a7%81%e0%a6%b0%e0%a7%80
ড: মনোজিৎ চৌধুরী

(MBZ University)

 
%e0%a6%b6%e0%a7%8c%e0%a6%b0%e0%a7%8d%e0%a6%af-%e0%a6%b8%e0%a7%87%e0%a6%a8%e0%a6%97%e0%a7%81%e0%a6%aa%e0%a7%8d%e0%a6%a4
শৌর্য সেনগুপ্ত

(UIUC)

 
25 Mar 2026
 

Link: https://bigyan.org.in/ai-ethics-laws-regulations

ai-%e0%a6%8f%e0%a6%b0-%e0%a6%89%e0%a6%aa%e0%a6%b0-%e0%a6%95%e0%a6%a4%e0%a6%9f%e0%a6%be-%e0%a6%a8%e0%a6%bf%e0%a6%af%e0%a6%bc%e0%a6%a8%e0%a7%8d%e0%a6%a4%e0%a7%8d%e0%a6%b0%e0%a6%a3-%e0%a6%a5%e0%a6%be

AI ব্যবহারের ফলে যদি কেউ কপিরাইট লঙ্ঘন করে, দোষটা কার? AI-এর ট্রেনিং ডেটাতে পক্ষপাতের (bias) কারণে AI-এর উত্তরেও যে সুপ্ত পক্ষপাত এসে যায়, সেটা ঠেকানোর উপায় কী? AI-এর জোর গলায় ভুল উত্তর দেওয়ার প্রবণতা যাতে মানবজাতির উপর নেতিবাচক প্রভাব না ফেলে, সেটা কীভাবে সুনিশ্চিত করা যায়? এখন যেহেতু সর্বত্র AI-এর ব্যবহার হচ্ছে, এই সংক্রান্ত কী ধরনের আইনকানুন বা নীতিনির্দেশ থাকা উচিত, সেই নিয়েও ভাবতে হচ্ছে। এক AI গবেষকের সাথে আলোচনায় এই নীতির প্রশ্নগুলো উঠে এলো। বিভিন্ন দেশ কীভাবে এই প্রশ্নগুলোর মোকাবিলা করছে, তার এক ঝলক পাওয়া যাবে এই আলোচনাতে।

শৌর্য (বিজ্ঞান): আপনি অনলাইন সূত্র থেকে থেকে ডেটা ব্যবহার করা এবং মডেল ট্রেন করার কথা বলছিলেন। এই প্রসঙ্গে একটি গুরুত্বপূর্ণ নৈতিক (ethical) দিক সামনে চলে আসে। ঠিক কোন ধরনের ডেটা সংগ্রহ করা নৈতিক ও গ্রহণযোগ্য — এই প্রশ্নটার কোনো সহজ উত্তর নেই বলে মনে হয়। যাঁরা বর্তমানে সরাসরি এই ক্ষেত্রের সঙ্গে যুক্ত, তাঁরা এই নৈতিক প্রশ্নগুলোকে কীভাবে মোকাবিলা করছেন? শুধু গবেষণা পর্যায়েই নয়, সরকার বা নীতিনির্ধারণী স্তরেও একটি সামাজিক দায়বদ্ধতার প্রশ্ন আসে। এ ধরনের নৈতিক বিষয়গুলো সমাধানের জন্য কি কোনো গাইডলাইন ইতিমধ্যে তৈরি হয়েছে বা হচ্ছে? এই ধরনের বিষয়ে নীতি নির্ধারণের কোনো নির্দিষ্ট প্রক্রিয়া (process) থাকলে সে বিষয়েও যদি একটু আলোকপাত করেন।

ড: চৌধুরী: এটা সত্যিই একটা ভীষণ ভালো প্রশ্ন, এবং এই প্রশ্নটা এখন সবাইকে খুব ভাবাচ্ছে। আমরা একসময় AI-এর সাহায্যে কাজের কিছুই করতে পারতাম না — বাংলায় একটা রচনা বা গল্প লেখা তো দূরে থাক, একটি বাক্য দিয়ে যদি জিজ্ঞেস করা হয় সেখানে সেন্টিমেন্ট-টা (sentiment) কী, লোকটা খুশি হয়ে বলছে, না কি নেগেটিভভাবে বলছে — সেটুকুই বলতে পারতাম না। যখন কিছুই পারতাম না, তখন কোনো নীতিরও দরকার ছিল না। তারপর হঠাৎ করে যখন এতটা প্রগতি হয়ে গেল, খেয়াল হলো যে প্রগতিটার গোটাটা নৈতিক নিয়ম মেনে হয়েছে কিনা, সেই নিয়ে যথেষ্ট ভাবা হয়নি। কিন্তু প্রগতিটা নিঃসন্দেহে একটা বড় ব্যাপার, মানবকল্যাণের জন্য কাজের ব্যাপার।

তাই নীতির প্রশ্নটা সহজ নয়। বিষয়টাকে যখন একটু গভীরভাবে দেখা হচ্ছে, বোঝা যাচ্ছে যে ডেটা ব্যবহার করার ক্ষেত্রে অনেকগুলো গুরুতর সমস্যা রয়েছে, যেগুলো নিয়ে এখন মানুষ সত্যিই ভাবছে।

প্রথম সমস্যা হলো, ট্রেনিং ডেটার ভেতরে অনেক ভালো কথার পাশাপাশি খারাপ কথাও থাকে। খারাপ কথা বলতে আমি বোঝাচ্ছি, অনেক গালিগালাজ বা আক্রমণাত্মক ভাষা ডেটাসেটে থাকে, আর সেগুলো দিয়ে ট্রেন করা হলে মডেলও সেই গালিগালাজ শিখে নেয়। এর পাশাপাশি রয়েছে নানা ধরনের পক্ষপাতের প্রবণতা (bias)। যেমন — কিছু নির্দিষ্ট জাতি (race) বা লিঙ্গ (gender/sex) জনিত পক্ষপাতমূলক ভাষা। এই পক্ষপাত ডেটার মধ্যেই থাকে, আর তার থেকেই মডেলগুলোও ধীরে ধীরে পক্ষপাতদুষ্ট (biased) হয়ে যায়। এটি হচ্ছে প্রথম সমস্যা।

দ্বিতীয়সমস্যা হচ্ছে — আমরা যে ডেটা ব্যবহার করছি, তার মধ্যে অনেক কিছুরই লেখকের স্বত্ব (copyright) রয়েছে। এবার আমরা তো সব সময় ইন্টারনেট থেকে ডাটা নিচ্ছি; প্রত্যেক লেখকের কাছে আলাদা আলাদা করে গিয়ে অনুমতি নেওয়া আমাদের পক্ষে সম্ভব নয়। “আমরা” বলতে আমি এখানে AI গবেষক সম্প্রদায়ের কথাই বলছি — যারা সবাই এই কাজটাই করছে, কিন্তু কেউই আলাদা করে অনুমতি নিতে পারছে না। 

মজার ব্যাপার হলো, এই বিষয়ে আগে তেমন কোনো স্পষ্ট আইনই ছিল না, কারণ একসময় এই ডেটা ব্যবহার করে কিছুই করা যেত না।। হঠাৎ করেই প্রযুক্তিটা এসে গেছে, আর এখন আইনের প্রশ্নটাও সামনে উঠছে; এটা কি আইন লঙ্ঘন করা হচ্ছে? এটা কি উচিত হচ্ছে?

Google-এর Gemini বা Microsoft-এর Copilot-এর কথাই ধরা যাক। এরা তো একের পর এক ওয়েবসাইট থেকে ডেটা নিয়ে উত্তর তৈরি করছে, এবং খুব সুন্দরভাবে নিজের ভাষায় সাজিয়ে দিচ্ছে। তখন স্বাভাবিকভাবেই একটা প্রশ্ন উঠে আসে, যেহেতু মডেলটি বিভিন্ন ওয়েবসাইটের ডেটা ব্যবহার করে উত্তর দিচ্ছে, তাহলে লোকে তো আর সরাসরি সেই ওয়েবসাইটে যাবে না। আমি যদি একটি ওয়েবসাইট তৈরি করি, আমার আয় তো নির্ভর করে কতজন মানুষ ভিজিট করছে তার ওপর। সেই দিক থেকে ভাবলে, এতে তো আমার লোকসান হচ্ছে! তাহলে আমি কেনই বা অনুমতি দেবো আমার ওয়েবসাইটের ডেটা ব্যবহার করে কোনো মডেলকে প্রশিক্ষণ দিতে বা উত্তর তৈরি করতে? আইনের দিক থেকে খুবই প্যাঁচালো এই প্রশ্নগুলো, যেগুলো এখন ধীরে ধীরে সামনে আসছে।

আরেকটা ব্যাপার আছে। ধরা যাক, আমাকে কিছু একটা লিখতে হবে, গল্প বা রচনা যাই হোক। এবার আমার কিছু মালমশলা চাই। আমি মডেল-কে বললাম, ও আমাকে দিল। আমার দেখে বেশ ভালোই লাগলো। তাতে একটু কাটাছেঁড়া করে আমি ওটা জমা দিয়ে দিলাম। আমি কী জানি আদৌ সেটা নতুন গল্প, নাকি কেউ আগে সেটা লিখে রেখেছিল, অর্থাৎ একটা চুরি করা গল্প? আমার তো সেটা জানার কোনো উপায় নেই। এবার আমি কি তাহলে মডেলকে বিশ্বাস করতে পারি? 

তারপর ধরো আমি ওই গল্পটা কোথাও পাঠালাম, ছাপাও হলো। পরে মূল গল্পের লেখক এসে বললো — না না, এরকম তো আমি আগেই লিখেছিলাম। এবার দোষটা কার — আমার, না মডেলের? এরকম অনেক ধরনের প্রশ্ন উঠে আসছে। 

আমি মূলত পক্ষপাত (bias) বা ন্যায্যতা (fairness) নিয়ে অনেক কাজ করেছি। এটা নিয়ে Microsoft-এ থাকতেও আমরা কাজ করেছি, কারণ সেখানেও এই বিষয় সংক্রান্ত অনেক রকমের সমস্যা দেখা দিতো।

আরেকটা যেটা মডেলের সমস্যা — যেটাকে hallucination বলি আমরা — সেটা হলো, মডেল জোর গলায় ভুল উত্তর দিতে পারে। সেদিন আমি DeepSeek আর ChatGPT, দু-জনকেই একটা প্রশ্ন করলাম। একটা খুব সুন্দর ছবি আছে, “বেলাশেষে” — জানি না তুমি দেখেছো কিনা — ওই ছবিতে একটা এস্রাজ বাজানোর দৃশ্য আছে। বোধহয় “তুমি রবে নীরবে” এই গানটাতে। তো পর্দায় যিনি বাজাচ্ছেন, ওনাকে তো দেখতে পাচ্ছি। আমি জানতে চাচ্ছিলাম, পর্দার আড়ালে আসলে ওই এস্রাজ-টা কে বাজিয়েছে।

আমি Google Bing-এ সার্চ করে চট করে উত্তরটা পাইনি, তাই ভাবলাম DeepSeek-কে জিজ্ঞেস করি। ও একটা উত্তর দিলো, আমি সেটা এখন ভুলে গেছি। কিন্তু আমি ভাবলাম, বাহ ভাল, ও পেরেছে। তারপর সার্চ করে দেখলাম যে DeepSeek যাঁর নামটা বলেছিল, উনি 1970 সালে মারা গেছেন। উনি একজন বিখ্যাত এস্রাজ বাদক ছিলেন, কিন্তু 1970 সালে উনি মারা গেছেন।

পরে ChatGPT-4-কে যখন জিজ্ঞেস করলাম, সেও নির্দ্বিধায় উত্তর দিলো কিন্তু পর্দায় যিনি বাজাচ্ছিলেন, তার নাম বলল। আমার নামটা মনে নেই। কিন্তু সেটাও ভুল ছিল। তারপর একটু ইন্টারনেটে ঘেঁটে আমরা নামটা পেয়েছি, অর্থাৎ এরকম নয় যে তথ্যটা মজুত নেই। আর এটাও মানা যায় তুমি খুঁজে পাচ্ছ না। তুমি না পারলে বলতেই পারো, “আমি জানি না।” কিন্তু এতটা আত্মবিশ্বাসের সাথে উত্তর দিলে (hallucinate করলে) মুশকিল, আমি হয়তো বিশ্বাস করে ফেলতাম। এই ক্ষেত্রে আমার মনে হয়েছে উত্তরটা ভুল। কিন্তু কোনো একটা বিষয়ে যদি আমি উত্তর না জানতাম বা যাচাই না করতাম, তাহলে হয়তো আমার উপর নেতিবাচক প্রভাব আসতে পারতো।

কিন্তু সরকারি স্তরে AI সম্পর্কিত কোনো নীতিগত নির্দেশাবলি (ethical guidelines) এখনো অবধি নেই, তাই তো?

এই নিয়ে প্রচুর কাজ হচ্ছে। সরকারি স্তরে সবচেয়ে প্রথমে যে নির্দেশিকাটা নিয়ে খুব হইচই হয়েছিল সেটা হলো GDPR বা General Data Protection Regulation। ওটা মূলত ইউরোপ থেকে এসেছিল। সেখানে অনেক রকম নিয়ম বলে দেওয়া আছে — কোন ডেটা ব্যবহার করা যাবে, কোন ডেটা করা যাবে না। নিয়মগুলো এমনই কড়া যে তার মধ্যে থেকে AI-এর মডেল বানানো একটু বেদনাদায়ক হয়ে যায়। অন্যদিকে, US যে আইনগুলো বানানোর চেষ্টা করছে, সেখানে পলিসিগুলোকে একটু আলগা রাখছে যাতে নতুন জিনিস উদ্ভাবন আর প্রগতির হারটা ভালো হয়। দুই জায়গার সরকার ঠিক উল্টো পথ বেছে নিয়েছে।

এবার ভারতে যেটা হচ্ছে — সম্প্রতি প্যারিসে একটা শীর্ষ সম্মেলনে প্রধানমন্ত্রী যেটা বললেন — আমরা এই দুই বিপরীত পথের মধ্যে একটা মাঝামাঝি রাস্তা নিতে চাইছি। খুব আলগা হওয়াটাও ঠিক না কারণ সেখানে অনেক রকম নৈতিক সমস্যা বা ঝুঁকি আসতে পারে। আবার খুব কড়া হয়ে গেলেও সমস্যা। তাহলে AI-এর যে ইতিবাচক সুবিধাগুলোও পাওয়া যাবে না। 

AI-এর একটা বিশাল ইতিবাচক দিক আছে। যেমন, ভারতে অনেক অনেক লোক আছেন যারা সেভাবে ডিজিটাল প্রযুক্তি ব্যবহার করতে অভ্যস্ত নন। কিন্তু তাদের কাছে ফোন আছে। এবার তারা যদি শুধু কথা বলেই একটা জটিল কাজ করতে পারে — যেমন ব্যাংকের একটা ফর্ম ভর্তি  করা, বা একটা প্লেনের টিকিট কাটা — সেটা AI-এর একটা বিশাল বড় ইতিবাচক দিক হতে পারে। আমরা সেটাও বন্ধ করতে চাই না। 

এবার মধ্যপন্থা অবলম্বন করে কী রকমের আইন তৈরি করা যায়, সেটা নিয়ে আমি জানি ভারত সরকার অনেক রকম কাজ করছে। কিছু কিছু কাজে আমি নিজেও পরোক্ষভাবে যুক্ত। 

এখন সর্ব স্তরেই নীতির ব্যাপারটা নিয়ে প্রচুর কথা চলছে। কিছু কিছু পলিসি আছে, যেগুলোর কথা বললাম। কিন্তু আমার মনে হয় কেউই ঠিক মোক্ষম জায়গাটায় পৌঁছতে পারছে না। সবাই বুঝতে পারছে যে একটা সমস্যা আছে, কিছু একটা করতে হবে, কিন্তু কোথায় বা কীভাবে করতে হবে সেটা স্পষ্ট না। আমার মনে হয় AI প্রযুক্তি এত তাড়াতাড়ি এগিয়েছে যে আইনগত দিক থেকে পাল্লা দিতে একটু সময় লাগবে। AI-এর কত রকম পরিণতি, কত প্রয়োগ — এইগুলোই ঠিকমতো আমরা জানি না। তাই চট করে আইনকানুন বানানো একটু কঠিন। সব দিক খতিয়ে ভেবে দেখতে হবে, ভাবতে হবে অমুক আইন বানালে অমুক সমস্যা হতে পারে।। ওটার জন্য একটু সময় লাগবে।

(মূল ইন্টারভিউ থেকে এই লেখাটি তৈরি করেছেন ড: সায়ন্তী কর।)

লেখাটি অনলাইন পড়তে হলে নিচের কোডটি স্ক্যান করো।

Scan the above code to read the post online.

Link: https://bigyan.org.in/ai-ethics-laws-regulations

print

 

© and ® by বিজ্ঞান - Bigyan, 2013-26