সংবাদ প্রতিদিন ডিজিটাল ডেস্ক: বিজ্ঞান আশীর্বাদ নাকি অভিশাপ? এ প্রশ্ন নিয়ে আলোচনা অন্তহীন। আর যতদিন যাচ্ছে, ততই জোরালো হচ্ছে এই প্রশ্ন। ভেবে দেখুন, যে কৃত্রিম বুদ্ধিমত্তা অনায়াসে নানা সমস্যার সমাধান করে দিতে পারে, সেই প্রযুক্তিকেই অত্যন্ত খারাপ কাজে ব্যবহার করা হচ্ছে। যার জেরে চরম বিপাকে পড়ছে সাধারণ মানুষ।
সম্প্রতি শিরোনামে উঠে এসেছে ডিপফেক প্রযুক্তি। অর্থাৎ একজনের শরীরে অন্য়ের মুখ বসিয়ে তৈরি করা হচ্ছে ছবি-ভিডিও। আর সবই হচ্ছে আর্টিফিশিয়াল ইন্টেলিজেন্সের (Artificial Intelligence) দৌলতে। এবার নিজেদের জনপ্রিয়তা বাড়াতে এই কৃত্রিম বুদ্ধিমত্তার শরণাপন্ন হয়েছে বিভিন্ন অ্যাপ। এআই-এর মাধ্যমে সহজেই তৈরি করা হচ্ছে যুবতীদের নগ্ন ছবি-ভিডিও। আর হু হু করে বাড়ছে অ্য়াপগুলির জনপ্রিয়তা। সাম্প্রতিক গবেষণা অন্তত সে কথাই বলছে।
সোশাল নেটওয়ার্ক বিশ্লেষক সংস্থা গ্রাফিকা নিজেদের গবেষণা দেখতে পেয়েছে, শুধু গত সেপ্টেম্বরেই ২৪ মিলিয়ন মানুষ এই ধরনের ওয়েবসাইটে ঢুঁ মেরেছে, যেখানে নগ্ন করা হচ্ছে মহিলাদের! X, রেডিটের মতো সোশাল মিডিয়ার মাধ্যমে এই ধরনের অ্যাপগুলি ২৪০০ শতাংশ জনপ্রিয়তা বাড়িয়েছে। বেশিরভাগ ক্ষেত্রেই মহিলাদের ছবি এবং ভিডিও নগ্ন করা হচ্ছে।
ডিপফেকের শিকার হয়েছেন রশ্মিকা মন্দানা, আলিয়া ভাট, ক্যাটরিনা কাইফের মতো অভিনেত্রীরা। এমনকী রেহাই পাননি প্রধানমন্ত্রী নরেন্দ্র মোদিও। এই ধরনের ছবি, ভিডিও তৈরি করে ব্ল্যাকমেল করা হচ্ছে আমজনতাকেও। যে বিষয়ে কেন্দ্র জানিয়েছিল, এর বিরুদ্ধে কড়া পদক্ষেপ করা হবে। বেশ কিছু ওয়েবসাইটে নজরদারিও চালানো হচ্ছে। এবার এই সব অ্যাপগুলির বিরুদ্ধে কী ব্যবস্থা নেওয়া হয়, সেটাই দেখার।
খবরের টাটকা আপডেট পেতে ডাউনলোড করুন সংবাদ প্রতিদিন অ্যাপ
Copyright © 2025 Sangbad Pratidin Digital Pvt. Ltd. All rights reserved.