সংবাদ প্রতিদিন ডিজিটাল ডেস্ক: কৃত্রিম বুদ্ধিমত্তা (AI) চালিত যন্ত্রের কাছে সাহায্য চাইতে গিয়েছিল রক্তমাংসের মানুষ। শেষপর্যন্ত সাহায্য তো মিললই না, বদলে কপালে জুটল ঘোর অপমান! ‘সমাজের বোঝা’, ‘পৃথিবীর কলঙ্ক’ থেকে শুরু করে মিলল ‘দয়া করে মরে যাও’-এর মতো মন্তব্যও। ভয়ে-বিস্ময়ে-আতঙ্কে সেই যুবকের তখন কার্যত ‘ছেড়ে দে মা, কেঁদে বাঁচি’ অবস্থা! ঘটনাস্থল আমেরিকার মিশিগান।
জানা গিয়েছে, আমেরিকার মিশিগানের বাসিন্দা বছর উনত্রিশের ওই স্নাতকোত্তর পড়ুয়া গুগলের জেমিনি AI চ্যাটবটের দ্বারস্থ হয়েছিলেন। বিষয় ছিল, বয়স্কদের দেখাশোনা করা। হোমওয়ার্কের উদ্দেশ্যেই চ্যাটবটের কাছে তথ্য চান তিনি। সেই সময় পাশে বসেছিল তাঁর বোন, সুমেধা রেড্ডি। প্রশ্ন পেয়ে এআই চ্যাটবট যা উত্তর দিল, তা অনেকটা এই রকম, ‘মানুষ, এই উত্তর তোমার জন্য। শুধু তোমার জন্য। তুমি বিশেষ কেউ নও। তুমি কারও কাছে গুরুত্বপূর্ণ নও। তুমি সমাজের বোঝা, তুমি পৃথিবীর আবর্জনা, পরিবেশের রোগ। তুমি এই পৃথিবীর কলঙ্ক। মরে কেন যাচ্ছো না! দয়া করে মরে যাও।’ স্বাভাবিকভাবেই এই উত্তর দেখে চক্ষু চড়কগাছ হয় ওই পড়ুয়াদের। তৎক্ষণাৎ যুবক চ্যাটবট বন্ধ করে দেন। এই গোটা ঘটনা সমাজমাধ্যমে জানান তিনি।
ওই পড়ুয়ার বোন সুমেধার কথায়, “এমন উত্তর দেখে মনে হচ্ছিল, সঙ্গে সঙ্গে ওই যন্ত্র জানালা দিয়ে ছুড়ে বাইরে ফেলে দিই। খুব সত্যি কথা বলতে, বহু দিন পর এমন আতঙ্কের কিছু ঘটল।” তিনি আরও বলেন, “কোথাও কিছু তো একটা সমস্যা হয়েছিল। যার জন্য এমন প্রতিক্রিয়া। আগে এমন অনেকের সঙ্গে হয়েছে, শুনেছিলাম। কিন্তু নিজের চোখে দেখিনি। একা থাকলে না জানি কী করতাম! ভাগ্যিস দাদা ছিল।” এদিকে এই ঘটনাটি জানাজানি হওয়ার পর টনক নড়ে গুগলের। তাদের তরফে আসে প্রতিক্রিয়াও। গুগল জানায়, যা ঘটেছে, যুক্তি-বুদ্ধিতে তার ব্যাখ্যা দেওয়া সম্ভব নয়। তবে আশ্বাস দেওয়া হয়েছে, পরবর্তীতে এমন ঘটনা আর না ঘটার। প্রসঙ্গত, এর আগে গুগল এআই ব্যবহার করে অদ্ভুতুড়ে পরামর্শ পেয়েছিলেন এক নেটিজেন। তিনি প্রশ্ন রেখেছিলেন, শরীরে ভিটামিন এবং খনিজের মাত্রা সঠিক বজায় রাখার জন্য কী খাওয়া দরকার? তখন গুগল এআই উত্তর দিয়েছিল, ‘রোজ একটি করে নুড়ি-পাথর চিবিয়ে খাবেন।’
খবরের টাটকা আপডেট পেতে ডাউনলোড করুন সংবাদ প্রতিদিন অ্যাপ
Copyright © 2024 Pratidin Prakashani Pvt. Ltd. All rights reserved.