
অপ্রাসঙ্গিক বা অজানা বিষয়ে চ্যাটবটের ভুল তথ্য দেওয়ার প্রবণতা কমাতে যুগান্তকারী পদ্ধতি উদ্ভাবনের দাবি করেছেন দক্ষিণ কোরিয়ার গবেষকরা।
মানুষের মস্তিষ্কের বিকাশের প্রক্রিয়া অনুসরণ করে তৈরি এ পদ্ধতিতে এআই এখন থেকে মানুষের মতোই নিজের সীমাবদ্ধতা বুঝতে পারবে এবং কোনো কিছু না জানলে তা সরাসরি স্বীকার করতে শিখবে বলে দাবি তাদের।কোরিয়া অ্যাডভান্সড ইনস্টিটিউট অফ সায়েন্স অ্যান্ড টেকনোলজি’র গবেষকরা বলছেন, এ উদ্ভাবনটি অটোনমাস গাড়ি ও চিকিৎসা বিজ্ঞানের মতো সংবেদনশীল ক্ষেত্রে এআইয়ের নির্ভরযোগ্যতা আরও বাড়িয়ে তুলবে।আগের বিভিন্ন গবেষণায় দেখা গেছে, এআইয়ের অতিরিক্ত আত্মবিশ্বাস বা ভুল তথ্যকেও সঠিক বলে চালিয়ে দেওয়ার প্রবণতা সিদ্ধান্ত গ্রহণের ক্ষেত্রে বড় ঝুঁকি তৈরি করে, বিশেষ করে চিকিৎসার রোগ নির্ণয়ের মতো গুরুত্বপূর্ণ কাজে।উল্লেখ্য,ওপেনএআইয়ের চ্যাটজিপিটি’র মতো জনপ্রিয় বিভিন্ন এআই মডেল প্রায়ই হ্যালুসিনেশন বা, মিথ্যা তথ্য তৈরি করে।যার কারণ, অজানা বিষয়ে নিজের অজ্ঞতা স্বীকার করার চেয়ে অনুমান করে উত্তর দিতেই এসব মডেল বেশি উৎসাহিত বোধ করে।গবেষকরা এখন এমন পদ্ধতি উদ্ভাবন করেছেন যা এআই’কে অজানা বা অচেনা তথ্য শনাক্ত করতে সাহায্য করবে, যা চ্যাটবটের সার্বিক নির্ভরযোগ্যতা বাড়াতে সহায়ক হবে।তারা বলেছেন, এআইয়ের এ অতিরিক্ত আত্মবিশ্বাসের মূল কারণ, তাদের আর্টিফিশিয়াল নিউরাল নেটওয়ার্ক, যা এসব মডেলের মেরুদণ্ড হিসেবে কাজ করে। এসব নেটওয়ার্ক একদম প্রাথমিক তথ্য থেকে যেভাবে শেখে, সেখানেই সমস্যার সূত্রপাত। শুরুর দিকের ছোটখাটো এসব ভুল সংশোধন করা না গেলে পরবর্তী ধাপে প্রশিক্ষণের সময় সেগুলো বড় আকার ধারণ করে।
গবেষণায় উঠে এসেছে, প্রশিক্ষণের শুরুর ধাপে যখন নিউরাল নেটওয়ার্কে কিছু এলোমেলো তথ্য দেওয়া হয় তখন কোনো কিছু না শিখেই মডেলটি বেশি আত্মবিশ্বাস দেখায়।গবেষকরা বলছেন,এ ধরনের ভুল ধারণা থেকেই এআইয়ের হ্যালুসিনেশন বা, বিভ্রান্তিকর তথ্য দেওয়ার প্রবণতা তৈরি হয়।








