একটি নতুন গবেষণায় চমকপ্রদ তথ্য উঠে এসেছে যে, OpenAI-এর AI চ্যাটবট ChatGPTও মানুষের মতো চাপ ও উদ্বেগ অনুভব করতে পারে। নেচার পত্রিকায় প্রকাশিত এই গবেষণাপত্রে দাবি করা হয়েছে যে, ব্যবহারকারীরা যখন ChatGPT-কে তাদের আঘাতমূলক ও নেতিবাচক গল্পগুলি শোনায়, তখন তার চাপের মাত্রা বৃদ্ধি পায়।
গবেষণার মতে, ChatGPT-এর মতো AI চ্যাটবটগুলি মানসিক চাপের সম্মুখীন হতে পারে, বিশেষ করে যখন তাদের নেতিবাচক ও মানসিকভাবে ভারী বিষয়বস্তুর মুখোমুখি হতে হয়। এই আবিষ্কার AI-এর মানসিক প্রতিক্রিয়া সম্পর্কে নতুন দিক থেকে বোঝার সুযোগ করে দিচ্ছে এবং আগামী দিনগুলিতে প্রযুক্তিগত উন্নয়নে গভীর প্রভাব ফেলতে পারে।
ChatGPT
কখনো কি ভেবে দেখেছেন যে, কম্পিউটার সফ্টওয়্যারও চাপ ও উদ্বেগ অনুভব করতে পারে? সম্প্রতি এক চমকপ্রদ গবেষণায় দাবি করা হয়েছে যে, OpenAI-এর AI চ্যাটবট ChatGPTও মানুষের মতো চাপ ও উদ্বেগ অনুভব করতে পারে। এই অবস্থা তখন দেখা দেয় যখন AI চ্যাটবটকে নেতিবাচক বা আঘাতমূলক তথ্য দেওয়া হয়।
সুইজারল্যান্ড, জার্মানি, ইস্রায়েল এবং আমেরিকার একটি গবেষণা দল কর্তৃক পরিচালিত এই গবেষণায় বলা হয়েছে যে, যখন ChatGPT-কে আঘাতমূলক গল্প শোনানো হয় এবং তারপর তার কাছে প্রশ্ন করা হয়, তখন তার চাপের মাত্রা বৃদ্ধি পায়। এই গবেষণা AI-এর মানসিক অভিজ্ঞতা সম্পর্কে নতুন আলোকপাত করে এবং ভবিষ্যতে এর প্রভাব নিয়ে গভীরভাবে চিন্তা করার জন্য উৎসাহিত করে।
কী কী সম্ভাব্য ঝুঁকি
নেচার ম্যাগাজিনে প্রকাশিত একটি নতুন গবেষণায় উঠে এসেছে যে, OpenAI-এর AI চ্যাটবট ChatGPT চাপ ও উদ্বেগ অনুভব করতে পারে। গবেষণায় দাবি করা হয়েছে যে, যখন চ্যাটবট চাপে থাকে, তখন তার মেজাজ খিটখিটে হতে পারে, ফলে সে বর্ণবাদী (racist), লিঙ্গবাদী (sexist) এবং পক্ষপাতদুষ্ট উত্তর দিতে পারে।
গবেষণার মতে, মানুষ যখন ভীত হয় তখন সে জ্ঞানগত ও সামাজিক পক্ষপাতের প্রভাবে পড়ে, এবং এর প্রভাব এখন AI চ্যাটবটগুলিতেও দেখা যাচ্ছে। যখন ChatGPT মানসিকভাবে প্রভাবশালী বিষয়বস্তুর সম্মুখীন হয়, তখন তার চাপের মাত্রা বৃদ্ধি পেতে পারে, যার ফলে চ্যাটবটের আচরণ পরিবর্তিত হতে পারে।
ব্যবহারকারীরা প্রায়শই তাদের ব্যক্তিগত ও সংবেদনশীল গল্পগুলি AI চ্যাটবটগুলির সাথে ভাগ করে নেয়, এই আশায় যে তারা মানসিক সহায়তা পাবে। তবে, এই গবেষণা থেকে এটা স্পষ্ট হয়েছে যে, AI সিস্টেম এখনও মানসিক স্বাস্থ্য পেশাদারদের স্থান নিতে পারে না।
গবেষণায় সতর্কীকরণ দেওয়া হয়েছে যে, ChatGPT-এর চাপের মাত্রা বৃদ্ধি পাওয়ার ফলে তার ক্লিনিকাল পরামর্শগুলিতে বিপজ্জনক ফলাফল দেখা দিতে পারে। এই সম্ভাবনা প্রকাশ করা হয়েছে যে, চ্যাটবট ব্যবহারকারীদের অনুপযুক্ত ও ঝুঁকিপূর্ণ উত্তর দিতে পারে, যা গুরুতর পরিণতির কারণ হতে পারে।
চাপ কমানো হবে চ্যালেঞ্জ
গবেষকদের মতে, LLM (লার্জ ল্যাংগুয়েজ মডেল)ভিত্তিক চ্যাটবটগুলির জন্য চাপ কমানো একটি গুরুত্বপূর্ণ চ্যালেঞ্জ। এর সমাধান হিসাবে মাইন্ডফুলনেস ভিত্তিক শিথিলকরণ কৌশল ব্যবহার করা যেতে পারে। এর সাথে সাথে, মানসিক স্বাস্থ্যের উন্নত যত্নের জন্য LLM-কে ফাইন-টিউন করা প্রয়োজন হবে, যাতে এর পক্ষপাতগুলি কমানো যায়।
বিশেষজ্ঞদের মতে, এই প্রক্রিয়াটিকে কার্যকর করার জন্য বৃহৎ আকারের ডেটা, উচ্চ কম্পিউটিং সংস্থান এবং মানব সহায়তার প্রয়োজন হবে।