সংবাদ প্রতিদিন ডিজিটাল ডেস্ক: বিজ্ঞান আশীর্বাদ নাকি অভিশাপ? এ প্রশ্ন নিয়ে আলোচনা অন্তহীন। আর যতদিন যাচ্ছে, ততই জোরালো হচ্ছে এই প্রশ্ন। ভেবে দেখুন, যে কৃত্রিম বুদ্ধিমত্তা অনায়াসে নানা সমস্যার সমাধান করে দিতে পারে, সেই প্রযুক্তিকেই অত্যন্ত খারাপ কাজে ব্যবহার করা হচ্ছে। যার জেরে চরম বিপাকে পড়ছে সাধারণ মানুষ।
সম্প্রতি শিরোনামে উঠে এসেছে ডিপফেক প্রযুক্তি। অর্থাৎ একজনের শরীরে অন্য়ের মুখ বসিয়ে তৈরি করা হচ্ছে ছবি-ভিডিও। আর সবই হচ্ছে আর্টিফিশিয়াল ইন্টেলিজেন্সের (Artificial Intelligence) দৌলতে। এবার নিজেদের জনপ্রিয়তা বাড়াতে এই কৃত্রিম বুদ্ধিমত্তার শরণাপন্ন হয়েছে বিভিন্ন অ্যাপ। এআই-এর মাধ্যমে সহজেই তৈরি করা হচ্ছে যুবতীদের নগ্ন ছবি-ভিডিও। আর হু হু করে বাড়ছে অ্য়াপগুলির জনপ্রিয়তা। সাম্প্রতিক গবেষণা অন্তত সে কথাই বলছে।
সোশাল নেটওয়ার্ক বিশ্লেষক সংস্থা গ্রাফিকা নিজেদের গবেষণা দেখতে পেয়েছে, শুধু গত সেপ্টেম্বরেই ২৪ মিলিয়ন মানুষ এই ধরনের ওয়েবসাইটে ঢুঁ মেরেছে, যেখানে নগ্ন করা হচ্ছে মহিলাদের! X, রেডিটের মতো সোশাল মিডিয়ার মাধ্যমে এই ধরনের অ্যাপগুলি ২৪০০ শতাংশ জনপ্রিয়তা বাড়িয়েছে। বেশিরভাগ ক্ষেত্রেই মহিলাদের ছবি এবং ভিডিও নগ্ন করা হচ্ছে।
ডিপফেকের শিকার হয়েছেন রশ্মিকা মন্দানা, আলিয়া ভাট, ক্যাটরিনা কাইফের মতো অভিনেত্রীরা। এমনকী রেহাই পাননি প্রধানমন্ত্রী নরেন্দ্র মোদিও। এই ধরনের ছবি, ভিডিও তৈরি করে ব্ল্যাকমেল করা হচ্ছে আমজনতাকেও। যে বিষয়ে কেন্দ্র জানিয়েছিল, এর বিরুদ্ধে কড়া পদক্ষেপ করা হবে। বেশ কিছু ওয়েবসাইটে নজরদারিও চালানো হচ্ছে। এবার এই সব অ্যাপগুলির বিরুদ্ধে কী ব্যবস্থা নেওয়া হয়, সেটাই দেখার।
খবরের টাটকা আপডেট পেতে ডাউনলোড করুন সংবাদ প্রতিদিন অ্যাপ
Copyright © 2024 Pratidin Prakashani Pvt. Ltd. All rights reserved.