বিশ্বযুদ্ধের আশঙ্কায় পৃথিবী! প্রথম পারমাণবিক হামলা চালাবে কে – মানুষ নাকি AI?
বিশ্বজুড়ে উত্তেজনা—ইরান-ইসরায়েল যুদ্ধ, রাশিয়া-ন্যাটো সংঘাত, আর তার মাঝেই কৃত্রিম বুদ্ধিমত্তার ভয়! তৃতীয় বিশ্বযুদ্ধ কি আসলেই কাছাকাছি? এই ভিডিওতে জানুন কে চালাবে প্রথম পারমাণবিক হামলা—মানুষ, না কি AI দ্বারা পরিচালিত কোনো মেশিন? ভবিষ্যতের যুদ্ধের অজানা সব দিক তুলে ধরা হয়েছে এই তথ্যচিত্রে।
বিশ্ব আবারও এক অস্থির ও শঙ্কাময় সময়ে প্রবেশ করেছে। পারমাণবিক যুদ্ধের ভয়াল ছায়া, যা এক সময় ঠান্ডা যুদ্ধের যুগে শীতল প্রতিযোগিতার রূপ নিয়েছিল, তা এখন আরও ভয়াবহ ও জটিল রূপ ধারণ করেছে।
একটি বার্তাতে সম্প্রতি বিশ্বকে সতর্ক করে দিয়েছে স্টকহোম ইন্টারন্যাশনাল পিস রিসার্চ ইনস্টিটিউট (SIPRI)।
তাদের সর্বশেষ প্রতিবেদনে জানায়, বিশ্বব্যাপী পারমাণবিক অস্ত্রের সংখ্যা হ্রাসের প্রবণতা থেমে গেছে। বরং এক নতুন ‘উচ্চ-প্রযুক্তির অস্ত্র প্রতিযোগিতা’ শুরু হয়েছে, যা মানবজাতির ভবিষ্যৎকে অনিশ্চয়তার দিকে ঠেলে দিচ্ছে।
এই প্রতিযোগিতার কেন্দ্রে উঠে এসেছে এক ভয়ানক নাম— আর্টিফিশিয়াল ইন্টেলিজেন্স, এআই বা কৃত্রিম বুদ্ধিমত্তা। প্রযুক্তির অভাবনীয় অগ্রগতি যেমন সুবিধা এনে দিচ্ছে, তেমনি পারমাণবিক অস্ত্র পরিচালনার মতো অতিসংবেদনশীল ও ভয়ঙ্কর সিদ্ধান্ত যদি একদিন মানব নয়, বরং যন্ত্রের হাতে চলে যায়—তবে সেটা হতে পারে মানব ইতিহাসের সবচেয়ে ধ্বংসাত্মক বিপর্যয়।
বিশেষজ্ঞদের মতে, যুদ্ধকালীন বা সংকটকালীন মুহূর্তে সিদ্ধান্ত নেওয়ার জন্য সময় থাকে মাত্র কয়েক মিনিট। সে সময় যদি কৃত্রিম বুদ্ধিমত্তার ব্যবহৃত অ্যালগরিদম কোনো সিগন্যাল ভুলভাবে ব্যাখ্যা করে, অথবা প্রযুক্তিগত কোনো ত্রুটি ঘটে, তবে পরিণতিতে শুরু হতে পারে পূর্ণমাত্রার পারমাণবিক যুদ্ধ। যে যুদ্ধে ক্ষণিকেই ধ্বংস হয়ে যেতে পারে কোটি কোটি প্রাণ, সম্পূর্ণ নগর এবং আমাদের সভ্যতার ভিত্তিমূল।
SIPRI–এর পরিচালক ড্যান স্মিথ স্পষ্ট করে বলেছেন, “বিশ্ব রাজনীতির এই অস্থির সময়ে আমরা একটি নতুন পারমাণবিক অস্ত্র প্রতিযোগনার ইঙ্গিত পাচ্ছি। কল্পনা করুন, যদি কোনো রাষ্ট্র কৃত্রিম বুদ্ধিমত্তার উপর সম্পূর্ণভাবে নির্ভর করে পারমাণবিক অস্ত্র ছোড়ার সিদ্ধান্ত নেয়, তবে তা হবে এক ভয়াল ‘ডুমসডে মেশিন’ বাস্তবায়নের মতো।”
তিনি বলেন, প্রযুক্তিকে সঠিকভাবে ব্যবহারের নীতিগত দিকটি নিশ্চিত না করলে, সেটা হতে পারে আত্মঘাতী এক প্রক্রিয়া।
বর্তমানে যুক্তরাষ্ট্র, রাশিয়া, চীন, ইরান ও ইসরায়েলের মতো রাষ্ট্রগুলো প্রতিনিয়ত সামরিক প্রযুক্তির উন্নয়নে কোটি কোটি ডলার বিনিয়োগ করছে। যুদ্ধের প্রস্তুতি চলছে খোলাখুলিভাবে। বিভিন্ন গোয়েন্দা সংস্থা ও উপগ্রহচিত্র বিশ্লেষকের তথ্য বলছে, এসব দেশ পারমাণবিক অস্ত্র আধুনিকীকরণে ব্যস্ত, এবং সেই সঙ্গে কৃত্রিম বুদ্ধিমত্তা, মেশিন লার্নিং এবং অটোনোমাস অস্ত্রব্যবস্থার পরীক্ষাও চালাচ্ছে।
চারিদিকে যখন এই যুদ্ধ পরিস্থিতির উত্তেজনা বিরাজ করছে তখন একটি গুরুত্বপূর্ণ প্রশ্ন উঠে এসেছে—
এই উত্তেজনার মধ্যেই যদি একটিও ভুল সিদ্ধান্ত নেওয়া হয়, তাহলে কি শুরু হয়ে যাবে তৃতীয় বিশ্বযুদ্ধ?
এবং সেই সিদ্ধান্ত যদি মানব না নিয়ে যন্ত্র নেয়, তবে তার দায়ভার কে নেবে?
বিজ্ঞানীরা বলছেন, এখনই প্রয়োজন নৈতিক নীতিমালা তৈরি করা, যেখানে প্রযুক্তির সীমাবদ্ধতা, মানবিক বিবেচনা এবং কূটনৈতিক সংলাপের গুরুত্বকে অগ্রাধিকার দেওয়া হবে। কৃত্রিম বুদ্ধিমত্তা যদি কখনো সম্পূর্ণরূপে নিয়ন্ত্রণের বাইরে চলে যায়, কিংবা রাজনৈতিক নেতৃত্ব অন্ধভাবে প্রযুক্তিকে সিদ্ধান্তের দায়িত্ব দেয়, তবে তার মূল্য দিতে হবে গোটা মানবজাতিকে।
জাতিসংঘসহ আন্তর্জাতিক সংস্থাগুলোর প্রতি আহ্বান জানিয়েছে—পারমাণবিক অস্ত্র ব্যবস্থাপনায় কৃত্রিম বুদ্ধিমত্তার ভূমিকা নিয়ে একটি স্পষ্ট আন্তর্জাতিক চুক্তি ও নিয়ন্ত্রণ কাঠামো তৈরি করা হোক। একই সঙ্গে গবেষণার সময় নৈতিক নির্দেশিকা বাধ্যতামূলক করাও এখন সময়ের দাবি।
সর্বোপরি, মানুষের সৃষ্টি যদি একদিন মানুষকেই ধ্বংস করে ফেলে, তবে সেটাই হবে সভ্যতার সবচেয়ে বড় ট্র্যাজেডি। তাই এখনই সময়—প্রযুক্তিকে সহায়ক রাখার, সর্বনাশের হাতিয়ার বানানো নয়।
আর কখনো যদি এআই সত্যিই নিজের সিদ্ধান্তে পৃথিবী ধ্বংস করে নেয় তখন মানবজাতি যুদ্ধ নিজেদের সাথে করবে নাকি মেশিনের সাথে করবে সেটা বলা যাবে আন্তঃবাণীর আরেকটা গল্পে।