
বিশ্বজুড়ে এক হাজারেরও বেশি বিজ্ঞানী, প্রকৌশলী এবং ব্যবসায়ী স্বায়ত্তশাসিত সিস্টেমের ব্যবহার নিষিদ্ধ করার আহ্বান জানিয়ে একটি চিঠিতে স্বাক্ষর করেছেন। অস্ত্রকৃত্রিম বুদ্ধিমত্তায় সমৃদ্ধ। তাদের মধ্যে রয়েছেন বিখ্যাত ব্রিটিশ তাত্ত্বিক ও জ্যোতির্পদার্থবিদ স্টিফেন হকিং, আমেরিকান উদ্ভাবক ও ব্যবসায়ী এলন মাস্ক, অ্যাপলের সহ-প্রতিষ্ঠাতা স্টিভ ওজনিয়াক, গুগল ডিপমাইন্ডের সিইও ডেমিস হাসাবিস, ভাষাবিদ নোয়াম চমস্কি।
"যখন একজন বিমানের পাইলট বা কমান্ডোকে কোনো বস্তু ধ্বংস করার নির্দেশ দেওয়া হয়, তখন পাইলট এবং কমান্ডোরাও কি বুদ্ধিমান অস্ত্র হিসেবে কাজ করে?"
বুয়েনস আইরেসে কৃত্রিম বুদ্ধিমত্তা বিষয়ক এক আন্তর্জাতিক সম্মেলনে চিঠিটি প্রকাশ করা হয়।
“কৃত্রিম বুদ্ধিমত্তা প্রযুক্তির বিকাশ এমন একটি পর্যায়ে পৌঁছেছে যেখানে এই ধরনের সিস্টেমগুলি আগামী কয়েক বছরের মধ্যে ক্যারিয়ারগুলিতে স্থাপন করা যেতে পারে। বিপদটি দুর্দান্ত, যেহেতু এই ধরনের স্বায়ত্তশাসিত অস্ত্রগুলি গানপাউডার এবং পারমাণবিক অস্ত্র আবিষ্কারের পরে সামরিক ক্ষেত্রে তৃতীয় বিপ্লবের প্রতিনিধিত্ব করে, ”নথিতে বলা হয়েছে।
চিঠির লেখকরা প্রতিরক্ষা শিল্পের জন্য কৃত্রিম বুদ্ধিমত্তা প্রযুক্তির বিকাশের উপর একটি সাধারণ নিষেধাজ্ঞার আহ্বান জানান না, তবে, তাদের মতে, এই প্রযুক্তিগুলি স্বায়ত্তশাসিত হওয়া উচিত নয় এবং স্বাধীন সিদ্ধান্ত গ্রহণের কার্যকারিতার সাথে সমৃদ্ধ হওয়া উচিত নয়।
"যদি নেতৃস্থানীয় সামরিক শক্তিগুলি কৃত্রিমভাবে বুদ্ধিমান অস্ত্র ব্যবস্থার বিকাশ অব্যাহত রাখে, তাহলে একটি বিশ্বব্যাপী অস্ত্র প্রতিযোগিতা অনিবার্য হয়ে উঠবে। এর ফলাফল এখনই ভবিষ্যদ্বাণী করা যেতে পারে: কালাশনিকভ অ্যাসল্ট রাইফেলের মতো স্বায়ত্তশাসিত অস্ত্রগুলি কালকে সাধারণ হয়ে উঠবে, "নথিতে জোর দেওয়া হয়েছে।
একটি স্বায়ত্তশাসিত ব্যবস্থা, একটি স্বয়ংক্রিয় পদ্ধতির বিপরীতে, মানুষের অংশগ্রহণকে মোটেই জড়িত করে না। বিশেষজ্ঞদের মতে স্বায়ত্তশাসিত অস্ত্র তৈরির আগে এখনও অনেক দূরে। তবুও, এমনকি প্রযুক্তির উন্নয়নের বর্তমান স্তরেও, বিজ্ঞানীরা বেশ কয়েকটি উদ্বেগ প্রকাশ করেছেন: মধ্যপ্রাচ্যের একজন ব্যক্তিকে ধ্বংস করার আদেশ মার্কিন যুক্তরাষ্ট্রে তার অফিসের একজন কর্মকর্তা দিয়ে দিতে পারেন। এবং সে কী করছে সে সম্পর্কে সচেতনতার স্তর, UAV অপারেটর সামনের সারিতে থাকা সৈনিকের থেকে খুব আলাদা হতে পারে। একটি পৃথক সমস্যা বিশেষ পরিষেবার স্বার্থে অচিহ্নিত ড্রোনগুলির সম্ভাব্য ব্যবহার।
একটি স্বায়ত্তশাসিত সিস্টেমে বা একটি স্বয়ংক্রিয় একটিতে ত্রুটিটি সম্পূর্ণরূপে নির্মূল করা অসম্ভব, তবে পরবর্তী ক্ষেত্রে, অন্ততপক্ষে কেউ এমন একজনকে খুঁজে পেতে পারেন যিনি ত্রুটির পরিণতির জন্য দায়ী।
“পুনর্জাগরণ এবং স্ট্রাইক মানবহীন সিস্টেমগুলি স্বয়ংক্রিয় ব্যবস্থা। লক্ষ্য চিহ্নিতকরণের সমস্যা, অস্ত্র ব্যবহার করার সিদ্ধান্ত ব্যক্তির সাথে রয়ে গেছে, - ডেনিস ফেদুতিনভ, মনুষ্যবিহীন বায়বীয় যানের বিশেষজ্ঞ, VZGLYAD সংবাদপত্রকে বলেছেন। - এবং আপনি একজন নির্দিষ্ট ব্যক্তিকে খুঁজে পেতে পারেন যিনি এই বা সেই সিদ্ধান্ত নিয়েছেন। আর কোনো ত্রুটি হলে দায়ী ব্যক্তি। আমরা যদি এই সমস্যাটিকে স্বয়ংক্রিয় সিস্টেমে স্থানান্তরিত করি, তবে সেখানে কোনও ব্যক্তিত্ব থাকবে না। আমি মনে করি এটি সম্পূর্ণ অকাল। অন্তত অদূর ভবিষ্যতে, এই ফাংশন ব্যক্তির সাথে থাকা উচিত।
তিনি জোর দিয়েছিলেন যে UAV-এর বিকাশে এখন স্বয়ংক্রিয়ভাবে বা স্বয়ংক্রিয়ভাবে বাস্তবায়িত কাজের ভাগ বৃদ্ধি পেয়েছে। “বর্তমানে, আমরা টেকঅফ এবং অবতরণ, লক্ষ্য সনাক্তকরণ, সনাক্তকরণ এবং ট্র্যাকিং এর পর্যায়গুলি স্বয়ংক্রিয় করার বিষয়ে কথা বলছি। ভবিষ্যতে, স্বয়ংক্রিয়ভাবে লক্ষ্যবস্তুতে আঘাত করার কাজগুলিও সেট করা হবে, একক ক্রিয়াকলাপ এবং ক্রিয়াকলাপগুলি অন্যান্য মনুষ্যবাহী এবং মনুষ্যবিহীন বায়বীয় যানগুলির সাথে একটি দলে। এটি চক্রের সময় "সনাক্তকরণ - পরাজয়" হ্রাস করা চালিয়ে যাওয়া উচিত, সংশ্লিষ্ট সিস্টেমগুলির দক্ষতা বৃদ্ধি করে। ইতিমধ্যে, লক্ষ্য শনাক্তকরণে ঘন ঘন ত্রুটিগুলি এখন পরিলক্ষিত হয়, যা প্রায়শই বেসামরিক জনগণের মধ্যে হতাহতের দিকে পরিচালিত করে। এই ধরনের ত্রুটিগুলি স্বল্পমেয়াদে কিছুটা হলেও, থাকতে পারে,” বিশেষজ্ঞ বলেছেন।
যেমন আলেক্সি কর্নিলভ, রোবোটিক্স বিশেষজ্ঞ এবং সর্ব-রাশিয়ান প্রোগ্রাম "রোবোটিক্স: ইঞ্জিনিয়ারিং অ্যান্ড টেকনিক্যাল পার্সোনেল অফ রাশিয়া" এর উপদেষ্টা, VZGLYAD সংবাদপত্রকে বলেছেন, এই ধরনের অস্ত্র তৈরি এবং ব্যবহার করার বিষয়টি এক বছরেরও বেশি সময় ধরে আলোচনা করা হচ্ছে। "কিন্তু, আমার মতে, সমস্যাটি রোবোটিক্সে নয়," বিশেষজ্ঞ বলেছেন।
কর্নিলভ উল্লেখ করেছেন যে এই মুহুর্তে কৃত্রিম বুদ্ধিমত্তা কী তার কোনও সাধারণভাবে গৃহীত সংজ্ঞা নেই। অতএব, বিভিন্ন ক্ষেত্রের বিশেষজ্ঞরা সম্মত হন এবং শুধুমাত্র তাদের সংকীর্ণ এলাকার জন্য উপযুক্ত সংজ্ঞা গ্রহণ করেন।
কৃত্রিম বুদ্ধিমত্তা সহ অস্ত্র সম্পর্কে, বিশেষজ্ঞ ব্যাখ্যা করেছেন যে "প্রায়শই এটি একটি নির্দিষ্ট সিস্টেম হিসাবে বোঝা যায় যা নিজেই একটি নির্দিষ্ট বস্তুর ধ্বংস বা ক্ষতি সম্পর্কে সিদ্ধান্ত নিতে পারে।"
“এখন যে সিস্টেমগুলি বিদ্যমান রয়েছে সেগুলি কুকুরের উল্লেখ না করার মতো কীটপতঙ্গের স্তর পর্যন্ত (বুদ্ধিবৃত্তিক পরিভাষায় - প্রায় ভিউ) পৌঁছায় না। কিন্তু আমরা যদি মনে রাখি যে, প্রাচীন সিথিয়ানরা যখন পারস্যদের সাথে যুদ্ধ করছিল, শত্রুর উপর মৌমাছি দিয়ে আমবাত ফেলেছিল, অথবা এখন আমরা একজন ব্যক্তির জন্য একটি কুকুর পাঠাই, ধরে নিই যে সে একজন অপরাধী, যদিও সে একজন নাও হতে পারে, সেগুলিও বুদ্ধিবৃত্তিক অস্ত্র। এই ক্ষেত্রে ব্যবহৃত হয়? » সে তর্ক করে.
আরেকটি উদাহরণ: যখন একটি বিমানের পাইলট বা কমান্ডোকে একটি বস্তু ধ্বংস করার নির্দেশ দেওয়া হয়, তখন পাইলট এবং কমান্ডো কি বুদ্ধিমান অস্ত্র হিসেবে কাজ করে?
“প্রযুক্তিগতভাবে, চ্যাসিসে একটি বন্দুক রাখা এবং এটিকে রিমোট-নিয়ন্ত্রিত করা খুব সহজ। এবং এছাড়াও আমরা অতিরিক্ত ফাংশন সঙ্গে সিস্টেম প্রদান করতে পারেন. উদাহরণস্বরূপ, এটিকে কেবল রেডিও-নিয়ন্ত্রিত নয়, অনেকগুলি স্বাধীন ক্রিয়া সম্পাদন করতে সক্ষম করার জন্য - বিন্দু A থেকে বি বিন্দুতে গাড়ি চালানোর জন্য এবং সেখানে কী ঘটছে তার একটি ছবি অপারেটরের কাছে পাঠাতে। এবং যদি তিনি বিপজ্জনক কিছু লক্ষ্য করেন তবে তিনি সিস্টেমকে ফায়ার করার নির্দেশ দেবেন। পরবর্তী ধাপে, আমরা এই মেশিনটিকে একটি বিপজ্জনক বস্তুর অনুসন্ধানের ফাংশন প্রদান করতে পারি। তিনি অপারেটরকে বলবেন: দেখুন, আমি এই জায়গায় কিছু নড়াচড়া দেখেছি, আমি ধরে নিচ্ছি যে এই বস্তুটি বিপজ্জনক এবং এটি ধ্বংস করা ভাল। এর পরে, অপারেটর ধ্বংস করার নির্দেশ দেবে। অবশেষে, মেশিনের জন্য এই ধরনের অ্যালগরিদম অ্যালগরিদম নির্ধারণ করা সম্ভব যাতে এটি নিজেই কোনও অপারেটর ছাড়াই সম্ভাব্য বিপদ নির্ধারণ করে এবং নিজেই আগুন খোলে, "বিশেষজ্ঞ বলেছেন।
একই সময়ে, তিনি মানুষের জন্য হুমকি হিসাবে মেশিন এবং রোবট সম্পর্কে কথা বলা ভুল বলে মনে করেন। একটি কুকুরের ক্ষেত্রে যেমন, দায়িত্ব সেই ব্যক্তির উপর বর্তায় যে তাকে আক্রমণ করতে নির্দেশ দেয়।
“এটি কৃত্রিম বুদ্ধিমত্তার কোনো কাজ নয়... সাবওয়েতে যে টার্নস্টাইল আছে তার সম্পর্কেও একই কথা বলা যেতে পারে। তাকেও অবশ্যই "চিন্তা" করতে হবে যে আপনাকে কিছু পরিস্থিতিতে প্রবেশ করতে দেবে কি না, উদাহরণস্বরূপ, আপনি ফি প্রদান করেছেন কিনা। এবং এখানে একই জিনিস, ”কর্নিলভ বিশ্বাস করেন।
সংক্ষেপে, বিশেষজ্ঞ বলেছেন যে বিজ্ঞানের বর্তমান অবস্থা প্রযুক্তিগতভাবে বিভিন্ন জিনিসকে খুব বিপজ্জনক করা সম্ভব করে তোলে। একই সময়ে, প্রযুক্তির বিকাশ নিজেই মানবতার জন্য সমস্যা তৈরি করে না, তবে ইতিমধ্যে বিদ্যমান দ্বন্দ্বগুলিকে আরও বাড়িয়ে তুলতে পারে। প্রযুক্তিকে দোষারোপ করা বোকামি। হাতের প্রশ্নটি "নন-টেকনিক্যাল"।
বিজ্ঞানীরা নিয়মিত স্বায়ত্তশাসিত সিস্টেমের অনিয়ন্ত্রিত বিকাশ সম্পর্কে উদ্বেগ প্রকাশ করেন। দুই বছর আগে, বিচারবহির্ভূত, সংক্ষিপ্ত বা নির্বিচারে মৃত্যুদণ্ডের বিষয়ে জাতিসংঘের বিশেষ প্রতিবেদক, ক্রিস্টোফ হেইনস, প্রাণঘাতী স্বায়ত্তশাসিত রোবোটিক্স (LARS) উৎপাদনের উপর বিশ্বব্যাপী স্থগিতাদেশের আহ্বান জানিয়েছিলেন।
এই ধরনের অস্ত্রের জন্য আন্তর্জাতিক মান তৈরি না হওয়া পর্যন্ত বিশেষজ্ঞ দেশগুলিকে "LARS-এর উৎপাদন, সমাবেশ, স্থানান্তর, অধিগ্রহণ, বাস্তবায়ন এবং ব্যবহারের উপর জাতীয় স্তরে একটি স্থগিতাদেশ প্রবর্তন করার" আহ্বান জানিয়েছেন। হাইন্সের এই ধরনের রোবটের ব্যবহার "প্রশ্ন উত্থাপন করে যা যুদ্ধ এবং শান্তিতে জীবন রক্ষার জন্য সুদূরপ্রসারী প্রভাব ফেলে।"
এখন, বিশেষ প্রতিবেদক জোর দিয়েছিলেন, এই ধরনের একটি আইনি কাঠামো বিদ্যমান নেই, তাই মেশিনগুলিকে প্রোগ্রাম করা যেতে পারে কিনা তা স্পষ্ট নয় "যাতে তারা আন্তর্জাতিক মানবিক আইনের নিয়ম অনুসারে কাজ করবে" বিশেষ করে সামরিক এবং সামরিক বাহিনীর মধ্যে পার্থক্য করার ক্ষেত্রে বেসামরিক
এছাড়াও, বিশেষজ্ঞ উল্লেখ করেছেন, স্বায়ত্তশাসিত রোবট ব্যবহার করার সময় "আইনি দায়িত্বের পর্যাপ্ত ব্যবস্থা বিকাশ করা অসম্ভব"। "যদিও ড্রোনের ক্ষেত্রে, একজন ব্যক্তি সিদ্ধান্ত নেয় কখন হত্যা করতে গুলি চালাতে হবে, LARS-এ, অনবোর্ড কম্পিউটার সিদ্ধান্ত নেয় কাকে লক্ষ্য করতে হবে," তিনি বলেছিলেন।
2012 সালে, হিউম্যান রাইটস ওয়াচ একটি 50-পৃষ্ঠার প্রতিবেদন প্রকাশ করে যার শিরোনাম ছিল মানবতা হারানো: রোবটের বিরুদ্ধে আর্গুমেন্টস, যা সম্পূর্ণ স্বয়ংক্রিয় অস্ত্রের বিপদ সম্পর্কে সতর্ক করেছিল। হার্ভার্ড ল স্কুলের সাথে মিলিত হয়ে হিউম্যান রাইটস ওয়াচ দ্বারা সংকলিত প্রতিবেদনে, পৃথক রাষ্ট্রগুলিকে একটি আন্তর্জাতিক চুক্তি তৈরি করার আহ্বান জানানো হয়েছে যা সম্পূর্ণরূপে রোবোটিক অস্ত্রের উত্পাদন এবং ব্যবহার নিষিদ্ধ করবে।
মানবাধিকার কর্মীরা উল্লেখ করেছেন যে স্বায়ত্তশাসিত সামরিক অস্ত্র এখনও বিদ্যমান নেই এবং এটি এখনও ব্যবহার করা থেকে অনেক দূরে, তবে, কিছু দেশের সামরিক বাহিনী, উদাহরণস্বরূপ মার্কিন যুক্তরাষ্ট্রে, ইতিমধ্যেই প্রোটোটাইপগুলি উপস্থাপন করেছে যা সৃষ্টিতে একটি উল্লেখযোগ্য অগ্রগতি মূর্ত করে। "হত্যাকারী মেশিন" এর।
প্রতিবেদনে উল্লেখ করা হয়েছে যে মার্কিন যুক্তরাষ্ট্র এই দৌড়ে নেতৃত্ব দিচ্ছে এবং চীন, জার্মানি, ইসরায়েল, দক্ষিণ কোরিয়া, রাশিয়া এবং যুক্তরাজ্য সহ আরও কয়েকটি দেশ জড়িত রয়েছে।
অনেক বিশেষজ্ঞের মতে, দেশগুলিকে 20 থেকে 30 বছরের মধ্যে যুদ্ধের যানবাহনের সম্পূর্ণ স্বায়ত্তশাসনে যেতে হবে।