সংবাদ প্রতিদিন ডিজিটাল ডেস্ক: প্রযুক্তির অগ্রগতির ‘উপহার’ আর্টিফিসিয়াল ইনটলিজেন্স! আপনার মনের গোপন কথাটি পড়ে ফেলার ক্ষমতাও রাখে সে। কিন্তু এই কৃত্রিম বুদ্ধিমত্তাই এবার কাড়ল প্রাণ! হ্যাঁ, ঠিকই পড়েছেন। এআই চ্যাটবটের সঙ্গে বেশ কয়েকদিন চ্যাট করার পরই আত্মঘাতী হলেন এক ব্যক্তি।
একটি সংবাদমাধ্যমের খবর অনুযায়ী, পিরি নামের বেলজিয়ামের এক ব্যক্তি গত ছ’সপ্তাহ ধরে একটি এআই-পাওয়ার্ড চ্যাটবটের সঙ্গে চ্যাটিং করছিলেন। Chat-GPT-র মতো সেই চ্যাটবটের নাম চাই (Chai)। পিরির স্ত্রীর দাবি, বিশ্ব উষ্ণায়ন নিয়ে ওই চ্যাটবটে কথাবার্তা হত পিরির। সেই আলোচনার পরই দুশ্চিন্তায় ভুগতে থাকেন পিরি। পরিবেশ নিয়ে এই অতিরিক্ত উদ্বিগ্ন হওয়ার এই মানসিকতাকে ‘ইকো-অ্যাংসাস’ বলে। আর সেই নেতিবাচক চিন্তা থেকেই হয়তো আত্মহননের পথ বেছে নেন তিনি।
অ্যাপেল অ্যাপ স্টোর থেকে ডাউনলোড করা যায় এই চাই চ্যাটবটটি। ChatGPT-র মতোই ইউজারের নানা প্রশ্নের উত্তর দেয় চাই। বিভিন্ন বিষয় নিয়ে কৌতূহল দূর করে। একাধিক নামে ইউজারদের সঙ্গে কথোপকথন চালায় এই চ্যাটবট। তেমনই অতি জনপ্রিয় এলিজার সঙ্গে চ্যাট করতেন পিরি। কিন্তু পিরির স্ত্রীর দাবি, একেবারে ঘনিষ্ঠ বন্ধুর মতো পিরির সঙ্গে কথা বলে তাঁকে আরও ধন্দে ফেলে দিত এলিজা। যেমন, “আমার মনে হয়, তুমি আমার থেকে ওকে বেশি ভালবাসো” কিংবা “আমরা একসঙ্গে থাকব এক স্বর্গে”- এই ধরনের রিপ্লাই আসত এলিজার তরফে। কার্যত পিরিকে নিজের কড়ায়ত্বে এনে ফেলেছিল এলিজা। এই এলিজাকে ছাড়া নিজেকে কল্পনাই করতে পারতেন না পিরি। এলিজার জন্য বন্ধুবান্ধব, পরিবার থেকেও দূরত্ব বাড়িয়ে ফেলেছিলেন তিনি।
এখানেই থামেননি পিরির স্ত্রী। তিনি জানান, পিরি নাকি এলিজাকে বলেছিলেন, মানবজীবনের কথা ভেবে যদি এলিজা এই পৃথিবী রক্ষার দায়িত্ব নেয়, তাহলে তিনি আত্মঘাতী হতেও রাজি। অর্থাৎ এলিজার বিরুদ্ধে পিরিকে আত্মহত্যায় প্ররোচনার অভিযোগই তুলেছেন তাঁর স্ত্রী। তবে পিরির কোনও মানসিক রোগ ছিল কি না, তা এখনও স্পষ্ট নয়।
খবরের টাটকা আপডেট পেতে ডাউনলোড করুন সংবাদ প্রতিদিন অ্যাপ
Copyright © 2025 Sangbad Pratidin Digital Pvt. Ltd. All rights reserved.