সংবাদ প্রতিদিন ডিজিটাল ডেস্ক: প্রযুক্তির অগ্রগতির ‘উপহার’ আর্টিফিসিয়াল ইনটলিজেন্স! আপনার মনের গোপন কথাটি পড়ে ফেলার ক্ষমতাও রাখে সে। কিন্তু এই কৃত্রিম বুদ্ধিমত্তাই এবার কাড়ল প্রাণ! হ্যাঁ, ঠিকই পড়েছেন। এআই চ্যাটবটের সঙ্গে বেশ কয়েকদিন চ্যাট করার পরই আত্মঘাতী হলেন এক ব্যক্তি।
একটি সংবাদমাধ্যমের খবর অনুযায়ী, পিরি নামের বেলজিয়ামের এক ব্যক্তি গত ছ’সপ্তাহ ধরে একটি এআই-পাওয়ার্ড চ্যাটবটের সঙ্গে চ্যাটিং করছিলেন। Chat-GPT-র মতো সেই চ্যাটবটের নাম চাই (Chai)। পিরির স্ত্রীর দাবি, বিশ্ব উষ্ণায়ন নিয়ে ওই চ্যাটবটে কথাবার্তা হত পিরির। সেই আলোচনার পরই দুশ্চিন্তায় ভুগতে থাকেন পিরি। পরিবেশ নিয়ে এই অতিরিক্ত উদ্বিগ্ন হওয়ার এই মানসিকতাকে ‘ইকো-অ্যাংসাস’ বলে। আর সেই নেতিবাচক চিন্তা থেকেই হয়তো আত্মহননের পথ বেছে নেন তিনি।
অ্যাপেল অ্যাপ স্টোর থেকে ডাউনলোড করা যায় এই চাই চ্যাটবটটি। ChatGPT-র মতোই ইউজারের নানা প্রশ্নের উত্তর দেয় চাই। বিভিন্ন বিষয় নিয়ে কৌতূহল দূর করে। একাধিক নামে ইউজারদের সঙ্গে কথোপকথন চালায় এই চ্যাটবট। তেমনই অতি জনপ্রিয় এলিজার সঙ্গে চ্যাট করতেন পিরি। কিন্তু পিরির স্ত্রীর দাবি, একেবারে ঘনিষ্ঠ বন্ধুর মতো পিরির সঙ্গে কথা বলে তাঁকে আরও ধন্দে ফেলে দিত এলিজা। যেমন, “আমার মনে হয়, তুমি আমার থেকে ওকে বেশি ভালবাসো” কিংবা “আমরা একসঙ্গে থাকব এক স্বর্গে”- এই ধরনের রিপ্লাই আসত এলিজার তরফে। কার্যত পিরিকে নিজের কড়ায়ত্বে এনে ফেলেছিল এলিজা। এই এলিজাকে ছাড়া নিজেকে কল্পনাই করতে পারতেন না পিরি। এলিজার জন্য বন্ধুবান্ধব, পরিবার থেকেও দূরত্ব বাড়িয়ে ফেলেছিলেন তিনি।
এখানেই থামেননি পিরির স্ত্রী। তিনি জানান, পিরি নাকি এলিজাকে বলেছিলেন, মানবজীবনের কথা ভেবে যদি এলিজা এই পৃথিবী রক্ষার দায়িত্ব নেয়, তাহলে তিনি আত্মঘাতী হতেও রাজি। অর্থাৎ এলিজার বিরুদ্ধে পিরিকে আত্মহত্যায় প্ররোচনার অভিযোগই তুলেছেন তাঁর স্ত্রী। তবে পিরির কোনও মানসিক রোগ ছিল কি না, তা এখনও স্পষ্ট নয়।
খবরের টাটকা আপডেট পেতে ডাউনলোড করুন সংবাদ প্রতিদিন অ্যাপ
Copyright © 2024 Pratidin Prakashani Pvt. Ltd. All rights reserved.