পারমাণবিক সিদ্ধান্তে এআই: প্রযুক্তির গতির মুখোমুখি মানবিক বিবেচনাবোধ
প্রখ্যাত বাঙালি কবি শহীদ কাদরীর একটি বিখ্যাত কবিতা আছে ‘তোমাকে অভিবাদন প্রিয়তমা’ নামে। যে কবিতার অনুকরনে গান বানিয়েছেন সংগীতশিল্পী কবির সুমন।
কবিতায় কবি শহীদ কাদরী লিখেছেন-
‘ভয় নেই
আমি এমন ব্যবস্থা করব যাতে সেনাবাহিনী
গোলাপের গুচ্ছ কাঁধে নিয়ে
মার্চপাস্ট করে চলে যাবে…’
কবি লিখেছেন-
‘ভয় নেই…আমি এমন ব্যবস্থা করব
একজন কবি কমান্ড করবেন বঙ্গোপসাগরের সবগুলো রণতরী
এবং আসন্ন নির্বাচনে সমরমন্ত্রীর সঙ্গে প্রতিযোগিতায়
সবগুলো গণভোট পাবেন একজন প্রেমিক, প্রিয়তমা!’
কবিতায় কবি তার প্রিয়তমাকে আশ্বাস দিচ্ছেন এই বলে-
‘ভালোবাসার চোরাচালান ছাড়া সবকিছু নিষিদ্ধ হয়ে যাবে, প্রিয়তমা।’
আজ থেকে অর্ধশত বছর আগে লেখা এই কবিতায় যুদ্ধ, অস্ত্র ও ক্ষমতার রাজনীতিকে ছাপিয়ে মানবিক বিচারবোধ ও নৈতিকতার দিকটি প্রগাঢ় হয়ে উঠেছে। বিস্ময়করভাবে, এই দৃষ্টিভঙ্গিই আজ কৃত্রিম বুদ্ধিমত্তা বা এআই-নির্ভর পারমাণবিক অস্ত্রের যুগে নতুন করে প্রাসঙ্গিক হয়ে উঠেছে।
বিশ্ব আজ এমন এক সময়ের মুখোমুখি, যেখানে প্রযুক্তির সর্বোচ্চ সাফল্যই মানবসভ্যতার জন্য সর্বোচ্চ হুমকিতে পরিণত হতে পারে। কৃত্রিম বুদ্ধিমত্তা যেমন দৈনন্দিন জীবনকে আমূল বদলে দেওয়ার প্রতিশ্রুতি দিচ্ছে, তেমনি পারমাণবিক সিদ্ধান্ত গ্রহণ ব্যবস্থায় এর ক্রমবর্ধমান ব্যবহার বৈশ্বিক স্থিতিশীলতার প্রশ্নে এক গভীর অনিশ্চয়তা তৈরি করেছে। এই প্রেক্ষাপটে একটি মৌলিক প্রশ্ন সামনে এসে দাঁড়িয়েছে— সভ্যতাকে নিশ্চিহ্ন করে দেওয়ার ক্ষমতাসম্পন্ন অস্ত্র ব্যবহারের সিদ্ধান্ত কি কোনোভাবে, এমনকি পরোক্ষভাবেও, অ্যালগরিদমের প্রভাবে নেওয়া উচিত?
রাশিয়া ও চীনের সঙ্গে কৌশলগত সামরিক ভারসাম্য বজায় রাখার চিন্তা থেকে যুক্তরাষ্ট্র নতুন করে তার পারমাণবিক কাঠামো আধুনিকায়নের পথে হাঁটছে। একই প্রবণতা দেখা যাচ্ছে অন্যান্য পারমাণবিক শক্তিধর রাষ্ট্রগুলোর মধ্যেও, বিশেষ করে নজরদারি, আগাম সতর্কীকরণ এবং সিদ্ধান্ত সহায়ক ব্যবস্থায়। এর ফলে বিশ্ব আবার এক ধরনের পারমাণবিক অস্ত্র প্রতিযোগিতার দিকে এগোচ্ছে— যার সঙ্গে যুক্ত হয়েছে ডিজিটাল প্রযুক্তির একটি নতুন ও ঝুঁকিপূর্ণ মাত্রা।
বাস্তবতা হলো, বর্তমানে যে পরিমাণ পারমাণবিক অস্ত্র পৃথিবীতে রয়েছে, তা দিয়েই সভ্যতার ভয়াবহ বিপর্যয় ঘটানো সম্ভব। এআই যুক্ত হওয়ায় সেই ঝুঁকি কমছে না বরং সিদ্ধান্ত নেওয়ার সময় কমে যাচ্ছে, অনিশ্চয়তা বাড়ছে এবং এক্ষেত্রে একটি ছোট ভুলের পরিণতি হয়ে উঠতে পারে চরম বিপর্যয়কর।
এই ঝুঁকির কেন্দ্রে রয়েছে মানুষের বিচারবোধ আর অ্যালগরিদমের কাজের ধরনে মৌলিক পার্থক্য। চরম চাপের মধ্যেও মানুষ তার আবেগীয় মানবিক বিচারবোধের পাশাপাশি দীর্ঘমেয়াদী ভবিষ্যৎ পরিণতির কথা ভেবে যেকোনো ভয়াবহ সিদ্ধান্ত থেকে সরে আসতে পারে। অন্যদিকে বাস্তব পরিস্থিতি যতই অস্পষ্ট হোক না কেন, এআই সমাধান দেয় নির্দিষ্ট নিয়ম ও ডেটার ভিত্তিতে।
বাস্তবে পারমাণবিক সংকট কখনোই পরিষ্কার তথ্যের ওপর দাঁড়িয়ে থাকে না; ভুল সংকেত, প্রযুক্তিগত ত্রুটি, রাজনৈতিক চাপ ও বিভ্রান্তিকর তথ্য মিলিয়েই এমন পরিস্থিতি তৈরি হয়। সেখানে কোনো অ্যালগরিদম রাডারের ত্রুটি বা স্যাটেলাইটের ভুল তথ্যকে বাস্তব আক্রমণ হিসেবে ধরে নিতে পারে।
ইতিহাস আমাদের এই বিষয়ে সতর্ক করে। ১৯৮৩ সালে সোভিয়েত ইউনিয়নের এক আগাম সতর্কীকরণ ব্যবস্থা ভুল করে যুক্তরাষ্ট্রের পারমাণবিক হামলার সংকেত দেয়। দায়িত্বে থাকা কর্মকর্তা স্তানিস্লাভ পেত্রভ সেই সংকেতকে সন্দেহের চোখে দেখেন এবং সঙ্গে সঙ্গে তার প্রতিক্রিয়া জানাননি। তার এই মানবিক বিচক্ষণতাই একটি সম্ভাব্য পারমাণবিক যুদ্ধ ঠেকিয়ে দিয়েছিল সেদিন।
কিন্তু ভবিষ্যতে যদি এমন সিদ্ধান্তের মাঝখানে এআই আরও গভীরভাবে ঢুকে পড়ে, তাহলে সেই মানবিক সংশয়ের জায়গাটুকু ক্রমেই সংকুচিত হয়ে যেতে পারে। শনাক্তকরণ থেকে প্রতিক্রিয়া পর্যন্ত পুরো ‘কিলিং চেইন’ যদি অত্যন্ত দ্রুত গতিতে চলে, তবে মানুষের ভূমিকা কার্যত আনুষ্ঠানিকতায় পরিণত হতে পারে ।
ভূরাজনৈতিক বাস্তবতাও পরিস্থিতিকে আরও জটিল করে তুলছে। বুরেভেস্তনিকের পাশাপাশি রাশিয়া ‘পোসেইডন’ নামে একটি পারমাণবিক শক্তিচালিত আন্ডারওয়াটার ড্রোন তৈরি করেছে। এদিকে যুক্তরাষ্ট্র ও চীন কৃত্রিম বুদ্ধিমত্তা-নির্ভর সামুদ্রিক নজরদারি, অস্বাভাবিকতা শনাক্তকরণ প্রযুক্তি ও স্বয়ংক্রিয় সমুদ্রতলীয় ব্যবস্থার উন্নয়নে ব্যাপক বিনিয়োগ করছে।
রাষ্ট্রগুলো যদিও দাবি করছে যে এসব প্রযুক্তি মূলত সিমুলেশন বা পরীক্ষামূলক কাজে ব্যবহৃত হচ্ছে, তবে পারস্পরিক অবিশ্বাসের পরিবেশে এসব আশ্বাস খুব একটা গ্রহণযোগ্য হয় না। স্বচ্ছতার অভাব নিজেই তখন অস্থিরতার কারণ হয়ে দাঁড়ায়।
অ্যালগরিদমিক পক্ষপাত পারমাণবিক ঝুঁকিকে নতুন মাত্রা দিচ্ছে। কৃত্রিম বুদ্ধিমত্তা যেসব তথ্য ও ধারণার ওপর প্রশিক্ষিত, সেগুলো মূলত রাষ্ট্র বা প্রতিষ্ঠানের কৌশলগত দৃষ্টিভঙ্গিরই প্রতিফলন। সেই দৃষ্টিভঙ্গি যদি আগাম হুমকি শনাক্তকরণ বা দ্রুত উত্তেজনা বাড়ানোর দিকে ঝুঁকে থাকে, তবে প্রযুক্তিও সেই প্রবনতাকে আরও জোরালো করে তুলতে পারে। দীর্ঘমেয়াদে এ ধরনের ব্যবস্থার ওপর নির্ভরতা সেই সংযমের সংস্কৃতিকে দুর্বল করে দেওয়ার আশঙ্কা সৃষ্টি করছে, যা অতীতে পারমাণবিক সংঘাত এড়াতে সহায়ক ছিল।
স্টকহোম ইন্টারন্যাশনাল পিস রিসার্চ ইনস্টিটিউট (এসআইপিআরআই)-এর ২০২৫ সালের বার্ষিক প্রতিবেদনে দেখা যায়, রাশিয়ার হাতে বর্তমানে আনুমানিক ৫,৪৫৯টি, যুক্তরাষ্ট্রের হাতে ৫,১৭৭টি এবং চীনের হাতে প্রায় ৬০০টি পারমাণবিক ওয়ারহেড রয়েছে। তবে এই হিসাব পুরোপুরি হালনাগাদকৃত নাও হতে পারে।
পারমাণবিক ব্যবস্থায় কৃত্রিম বুদ্ধিমত্তার ব্যবহার নিয়ে যেসব অগ্রগতি গোপন রাখা হচ্ছে—তা ওয়ারহেড ব্যবস্থাপনা হোক, অস্ত্র পরিবহন প্ল্যাটফর্ম হোক কিংবা কমান্ড ও নিয়ন্ত্রণ ব্যবস্থার সঙ্গে একীভূতকরণ হোক— এর সবই জনসমক্ষে হিসাবের বাইরে রয়ে যাচ্ছে। ফলে প্রকৃত সক্ষমতা ও ঝুঁকি নিরূপণ দিন দিন আরও জটিল হয়ে উঠছে।
এই বাস্তবতায় করণীয় বিষয়টি খুব স্পষ্ট আর তা হলো- পারমাণবিক কমান্ড ও নিয়ন্ত্রণ ব্যবস্থায় মানবিক বিচারবোধকে বাস্তব অর্থেই মূল জায়গায় রাখতে হবে। এমন কোনো স্বয়ংক্রিয় বা আধা-স্বয়ংক্রিয় ব্যবস্থা গ্রহণযোগ্য হতে পারে না, যা সতর্ক সংকেত ও অস্ত্র উৎক্ষেপণের মধ্যকার সময় বিপজ্জনকভাবে কমিয়ে দেয়। একই সঙ্গে আন্তর্জাতিক পর্যায়ে স্বচ্ছতা, সংকটকালীন যোগাযোগ এবং আস্থা তৈরির উদ্যোগগুলোতে জোর দিতে হবে।
নতুন কোনো সংকট তৈরি হওয়ার আগেই, এখনই পারমাণবিক ব্যবস্থায় কৃত্রিম বুদ্ধিমত্তার সংযোজন নিয়ন্ত্রণ করা উচিত। যেহেতু এখনো কূটনৈতিক আলোচনার সুযোগ বিদ্যমান এবং এখনো চূড়ান্ত সিদ্ধান্ত নেওয়ার দায়িত্ব মানুষের হাতেই রয়েছে।
শহীদ কাদরীর অমর পংক্তির মতো আমরাও প্রত্যাশা করি- ভালোবাসার চোরাচালান ছাড়া সবকিছু নিষিদ্ধ হয়ে যাবে।
কৌশিক মজুমদার অর্নব, লেখক
মতামত দিন
মন্তব্য করতে প্রথমে আপনাকে লগইন করতে হবে