ডিপফেক: কৃত্রিম বুদ্ধিমত্তায় বানানো ভুয়া ছবি ও ভিডিওর ফাঁদে আমরা কতটা নিরাপদ

প্রথম আলো প্রকাশিত: ০১ মার্চ ২০২৬, ১৩:২২

রুন, মাঝরাতে ফোনে একটি ভিডিও এল। দেখা যাচ্ছে পরিচিত একজন ব্যক্তি রাজনৈতিক উসকানিমূলক বক্তব্য দিচ্ছেন। ভিডিওটি এতটাই বাস্তব যে সন্দেহ করার সুযোগ নেই। আপনি ক্ষুব্ধ হলেন, শেয়ার করলেন, মন্তব্য করলেন। কয়েক ঘণ্টা পর জানা গেল ভিডিওটি পুরোপুরি কৃত্রিম বুদ্ধিমত্তা দিয়ে তৈরি। তখন প্রশ্ন জাগে, আমরা আসলে কী দেখছি? আর কী বিশ্বাস করছি?


কৃত্রিম বুদ্ধিমত্তা (এআই) এখন শুধু লেখা বা ছবি বানানোর সফটওয়্যার নয়। এটি এমন বাস্তবসম্মত ভুয়া ছবি ও ভিডিও তৈরি করতে পারে, যা চোখকে সহজেই ধোঁকা দেয়। এই প্রযুক্তিকে সাধারণভাবে ডিপফেক বলা হয়। কিন্তু সমস্যা শুধু প্রযুক্তিতে নয়, সমস্যা আমাদের অচেতন বিশ্বাসে।


ডিপফেক কীভাবে এত বিশ্বাসযোগ্য হয়


এআই বিপুল পরিমাণ ছবি, ভিডিও ও কণ্ঠ বিশ্লেষণ করে মানুষের মুখভঙ্গি, চোখের নড়াচড়া, ঠোঁটের শব্দ মিলিয়ে নতুন ভিডিও তৈরি করতে পারে। আগে এমন কাজের জন্য বড় স্টুডিও দরকার হতো। এখন একটি কম্পিউটার আর সফটওয়্যারই যথেষ্ট। আপনি কি কখনো ভেবেছেন, আপনার ফেসবুক প্রোফাইলের ছবি বা ইউটিউবের ভিডিও ক্লিপ কেউ ব্যবহার করে আপনারই একটি ভুয়া ভিডিও বানাতে পারে? প্রযুক্তিগতভাবে দিন দিন এমনটা সহজ হয়ে যাচ্ছে।


বিশ্বজুড়ে এআই উন্নয়নে কাজ করছে বিভিন্ন প্রতিষ্ঠান, যেমন ওপেনএআই। তারা নিরাপদ ও নীতিনির্ভর ব্যবহার নিশ্চিত করার কথা বললেও খোলা প্ল্যাটফর্ম ও অনিয়ন্ত্রিত সফটওয়্যারের মাধ্যমে অপব্যবহার থামানো সহজ নয়। তাহলে দায় কার—প্রযুক্তির না ব্যবহারকারীর?

সম্পূর্ণ আর্টিকেলটি পড়ুন

প্রতিদিন ৩৫০০+ সংবাদ পড়ুন প্রিয়-তে

আরও