
বিশ্বজুড়ে এক হাজারেরও বেশি বিজ্ঞানী, প্রকৌশলী এবং ব্যবসায়ী স্বায়ত্তশাসিত সিস্টেমের ব্যবহার নিষিদ্ধ করার আহ্বান জানিয়ে একটি চিঠিতে স্বাক্ষর করেছেন। অস্ত্রকৃত্রিম বুদ্ধিমত্তায় সমৃদ্ধ। তাদের মধ্যে রয়েছেন বিখ্যাত ব্রিটিশ তাত্ত্বিক ও জ্যোতির্পদার্থবিদ স্টিফেন হকিং, আমেরিকান উদ্ভাবক ও ব্যবসায়ী এলন মাস্ক, অ্যাপলের সহ-প্রতিষ্ঠাতা স্টিভ ওজনিয়াক, গুগল ডিপমাইন্ডের সিইও ডেমিস হাসাবিস, ভাষাবিদ নোয়াম চমস্কি।
"যখন একজন বিমানের পাইলট বা কমান্ডোকে কোনো বস্তু ধ্বংস করার নির্দেশ দেওয়া হয়, তখন পাইলট এবং কমান্ডোরাও কি বুদ্ধিমান অস্ত্র হিসেবে কাজ করে?"
বুয়েনস আইরেসে কৃত্রিম বুদ্ধিমত্তা বিষয়ক এক আন্তর্জাতিক সম্মেলনে চিঠিটি প্রকাশ করা হয়।
“কৃত্রিম বুদ্ধিমত্তা প্রযুক্তির বিকাশ এমন একটি পর্যায়ে পৌঁছেছে যেখানে এই ধরনের সিস্টেমগুলি আগামী কয়েক বছরের মধ্যে ক্যারিয়ারগুলিতে স্থাপন করা যেতে পারে। বিপদটি দুর্দান্ত, যেহেতু এই ধরনের স্বায়ত্তশাসিত অস্ত্রগুলি গানপাউডার এবং পারমাণবিক অস্ত্র আবিষ্কারের পরে সামরিক ক্ষেত্রে তৃতীয় বিপ্লবের প্রতিনিধিত্ব করে, ”নথিতে বলা হয়েছে।
চিঠির লেখকরা প্রতিরক্ষা শিল্পের জন্য কৃত্রিম বুদ্ধিমত্তা প্রযুক্তির বিকাশের উপর একটি সাধারণ নিষেধাজ্ঞার আহ্বান জানান না, তবে, তাদের মতে, এই প্রযুক্তিগুলি স্বায়ত্তশাসিত হওয়া উচিত নয় এবং স্বাধীন সিদ্ধান্ত গ্রহণের কার্যকারিতার সাথে সমৃদ্ধ হওয়া উচিত নয়।
"যদি নেতৃস্থানীয় সামরিক শক্তিগুলি কৃত্রিমভাবে বুদ্ধিমান অস্ত্র ব্যবস্থার বিকাশ অব্যাহত রাখে, তাহলে একটি বিশ্বব্যাপী অস্ত্র প্রতিযোগিতা অনিবার্য হয়ে উঠবে। এর ফলাফল এখনই ভবিষ্যদ্বাণী করা যেতে পারে: কালাশনিকভ অ্যাসল্ট রাইফেলের মতো স্বায়ত্তশাসিত অস্ত্রগুলি কালকে সাধারণ হয়ে উঠবে, "নথিতে জোর দেওয়া হয়েছে।
একটি স্বায়ত্তশাসিত ব্যবস্থা, একটি স্বয়ংক্রিয় পদ্ধতির বিপরীতে, মানুষের অংশগ্রহণকে মোটেই জড়িত করে না। বিশেষজ্ঞদের মতে স্বায়ত্তশাসিত অস্ত্র তৈরির আগে এখনও অনেক দূরে। তা সত্ত্বেও, প্রযুক্তির উন্নয়নের বর্তমান স্তরেও, বিজ্ঞানীরা বেশ কয়েকটি উদ্বেগ প্রকাশ করেছেন: মধ্যপ্রাচ্যের একজন ব্যক্তিকে ধ্বংস করার নির্দেশ মার্কিন যুক্তরাষ্ট্রে তার অফিসের একজন কর্মকর্তা দিয়ে দিতে পারেন। এবং সে কী করছে সে সম্পর্কে সচেতনতার স্তর, UAV অপারেটর সামনের সারিতে থাকা সৈনিকের থেকে খুব আলাদা হতে পারে। একটি পৃথক সমস্যা সম্ভাব্য ব্যবহার ড্রোন বিশেষ পরিষেবার স্বার্থে চিহ্নিত না করে।
একটি স্বায়ত্তশাসিত সিস্টেমে বা একটি স্বয়ংক্রিয় একটিতে ত্রুটিটি সম্পূর্ণরূপে নির্মূল করা অসম্ভব, তবে পরবর্তী ক্ষেত্রে, অন্ততপক্ষে কেউ এমন একজনকে খুঁজে পেতে পারেন যিনি ত্রুটির পরিণতির জন্য দায়ী।
“পুনর্জাগরণ এবং স্ট্রাইক মানবহীন সিস্টেমগুলি স্বয়ংক্রিয় ব্যবস্থা। লক্ষ্য চিহ্নিতকরণের সমস্যা, অস্ত্র ব্যবহার করার সিদ্ধান্ত ব্যক্তির সাথে রয়ে গেছে, - ডেনিস ফেদুতিনভ, মনুষ্যবিহীন বায়বীয় যানের বিশেষজ্ঞ, VZGLYAD সংবাদপত্রকে বলেছেন। - এবং আপনি একজন নির্দিষ্ট ব্যক্তিকে খুঁজে পেতে পারেন যিনি এই বা সেই সিদ্ধান্ত নিয়েছেন। আর কোনো ত্রুটি হলে দায়ী ব্যক্তি। আমরা যদি এই সমস্যাটিকে স্বয়ংক্রিয় সিস্টেমে স্থানান্তরিত করি, তবে সেখানে কোনও ব্যক্তিত্ব থাকবে না। আমি মনে করি এটি সম্পূর্ণ অকাল। অন্তত অদূর ভবিষ্যতে, এই ফাংশন ব্যক্তির সাথে থাকা উচিত।
তিনি জোর দিয়েছিলেন যে UAV-এর বিকাশে এখন স্বয়ংক্রিয়ভাবে বা স্বয়ংক্রিয়ভাবে বাস্তবায়িত কাজের ভাগ বৃদ্ধি পেয়েছে। “বর্তমানে, আমরা টেকঅফ এবং অবতরণ, লক্ষ্য সনাক্তকরণ, সনাক্তকরণ এবং ট্র্যাকিং এর পর্যায়গুলি স্বয়ংক্রিয় করার বিষয়ে কথা বলছি। ভবিষ্যতে, স্বয়ংক্রিয়ভাবে লক্ষ্যবস্তুতে আঘাত করার কাজগুলিও সেট করা হবে, একক ক্রিয়াকলাপ এবং ক্রিয়াকলাপগুলি অন্যান্য মনুষ্যবাহী এবং মনুষ্যবিহীন বায়বীয় যানগুলির সাথে একটি দলে। এটি চক্রের সময় "সনাক্তকরণ - পরাজয়" হ্রাস করা চালিয়ে যাওয়া উচিত, সংশ্লিষ্ট সিস্টেমগুলির দক্ষতা বৃদ্ধি করে। ইতিমধ্যে, লক্ষ্য শনাক্তকরণে ঘন ঘন ত্রুটিগুলি এখন পরিলক্ষিত হয়, যা প্রায়শই বেসামরিক জনগণের মধ্যে হতাহতের দিকে পরিচালিত করে। এই ধরনের ত্রুটিগুলি স্বল্পমেয়াদে কিছুটা হলেও, থাকতে পারে,” বিশেষজ্ঞ বলেছেন।
যেমন আলেক্সি কর্নিলভ, রোবোটিক্স বিশেষজ্ঞ এবং সর্ব-রাশিয়ান প্রোগ্রাম "রোবোটিক্স: ইঞ্জিনিয়ারিং অ্যান্ড টেকনিক্যাল পার্সোনেল অফ রাশিয়া" এর উপদেষ্টা, VZGLYAD সংবাদপত্রকে বলেছেন, এই ধরনের অস্ত্র তৈরি এবং ব্যবহার করার বিষয়টি এক বছরেরও বেশি সময় ধরে আলোচনা করা হচ্ছে। "কিন্তু, আমার মতে, সমস্যাটি রোবোটিক্সে নয়," বিশেষজ্ঞ বলেছেন।
কর্নিলভ উল্লেখ করেছেন যে এই মুহুর্তে কৃত্রিম বুদ্ধিমত্তা কী তার কোনও সাধারণভাবে গৃহীত সংজ্ঞা নেই। অতএব, বিভিন্ন ক্ষেত্রের বিশেষজ্ঞরা সম্মত হন এবং শুধুমাত্র তাদের সংকীর্ণ এলাকার জন্য উপযুক্ত সংজ্ঞা গ্রহণ করেন।
কৃত্রিম বুদ্ধিমত্তা সহ অস্ত্র সম্পর্কে, বিশেষজ্ঞ ব্যাখ্যা করেছেন যে "প্রায়শই এটি একটি নির্দিষ্ট সিস্টেম হিসাবে বোঝা যায় যা নিজেই একটি নির্দিষ্ট বস্তুর ধ্বংস বা ক্ষতি সম্পর্কে সিদ্ধান্ত নিতে পারে।"
“এখন যে সিস্টেমগুলি বিদ্যমান রয়েছে সেগুলি কুকুরের উল্লেখ না করার মতো কীটপতঙ্গের স্তর পর্যন্ত (বুদ্ধিবৃত্তিক পরিভাষায় - প্রায় ভিউ) পৌঁছায় না। কিন্তু আমরা যদি মনে রাখি যে, প্রাচীন সিথিয়ানরা যখন পারস্যদের সাথে যুদ্ধ করছিল, শত্রুর উপর মৌমাছি দিয়ে আমবাত ফেলেছিল, অথবা এখন আমরা একজন ব্যক্তির জন্য একটি কুকুর পাঠাই, ধরে নিই যে সে একজন অপরাধী, যদিও সে একজন নাও হতে পারে, সেগুলিও বুদ্ধিবৃত্তিক অস্ত্র। এই ক্ষেত্রে ব্যবহৃত হয়? » সে তর্ক করে.
আরেকটি উদাহরণ: যখন একটি বিমানের পাইলট বা কমান্ডোকে একটি বস্তু ধ্বংস করার নির্দেশ দেওয়া হয়, তখন পাইলট এবং কমান্ডো কি বুদ্ধিমান অস্ত্র হিসেবে কাজ করে?
“প্রযুক্তিগতভাবে, চ্যাসিসে একটি বন্দুক রাখা এবং এটিকে রিমোট-নিয়ন্ত্রিত করা খুব সহজ। এবং এছাড়াও আমরা অতিরিক্ত ফাংশন সঙ্গে সিস্টেম প্রদান করতে পারেন. উদাহরণস্বরূপ, এটিকে কেবল রেডিও-নিয়ন্ত্রিত নয়, অনেকগুলি স্বাধীন ক্রিয়া সম্পাদন করতে সক্ষম করার জন্য - বিন্দু A থেকে বি বিন্দুতে গাড়ি চালানোর জন্য এবং সেখানে কী ঘটছে তার একটি ছবি অপারেটরের কাছে পাঠাতে। এবং যদি তিনি বিপজ্জনক কিছু লক্ষ্য করেন তবে তিনি সিস্টেমকে ফায়ার করার নির্দেশ দেবেন। পরবর্তী ধাপে, আমরা এই মেশিনটিকে একটি বিপজ্জনক বস্তুর অনুসন্ধানের ফাংশন প্রদান করতে পারি। তিনি অপারেটরকে বলবেন: দেখুন, আমি এই জায়গায় কিছু নড়াচড়া দেখেছি, আমি ধরে নিচ্ছি যে এই বস্তুটি বিপজ্জনক এবং এটি ধ্বংস করা ভাল। এর পরে, অপারেটর ধ্বংস করার নির্দেশ দেবে। অবশেষে, মেশিনের জন্য এই ধরনের অ্যালগরিদম অ্যালগরিদম নির্ধারণ করা সম্ভব যাতে এটি নিজেই কোনও অপারেটর ছাড়াই সম্ভাব্য বিপদ নির্ধারণ করে এবং নিজেই আগুন খোলে, "বিশেষজ্ঞ বলেছেন।
একই সময়ে, তিনি গাড়ি সম্পর্কে কথা বলা ভুল বলে মনে করেন রোবট মানুষের জন্য হুমকি হিসেবে। একটি কুকুরের ক্ষেত্রে যেমন, দায়িত্ব সেই ব্যক্তির উপর বর্তায় যে তাকে আক্রমণ করতে নির্দেশ দেয়।
“এটি কৃত্রিম বুদ্ধিমত্তার কোনো কাজ নয়... সাবওয়েতে যে টার্নস্টাইল আছে তার সম্পর্কেও একই কথা বলা যেতে পারে। তাকেও অবশ্যই "চিন্তা" করতে হবে যে আপনাকে কিছু পরিস্থিতিতে প্রবেশ করতে দেবে কি না, উদাহরণস্বরূপ, আপনি ফি প্রদান করেছেন কিনা। এবং এখানে একই জিনিস, ”কর্নিলভ বিশ্বাস করেন।
সংক্ষেপে, বিশেষজ্ঞ বলেছেন যে বিজ্ঞানের বর্তমান অবস্থা প্রযুক্তিগতভাবে বিভিন্ন জিনিসকে খুব বিপজ্জনক করা সম্ভব করে তোলে। একই সময়ে, প্রযুক্তির বিকাশ নিজেই মানবতার জন্য সমস্যা তৈরি করে না, তবে ইতিমধ্যে বিদ্যমান দ্বন্দ্বগুলিকে আরও বাড়িয়ে তুলতে পারে। প্রযুক্তিকে দোষারোপ করা বোকামি। হাতের প্রশ্নটি "নন-টেকনিক্যাল"।
বিজ্ঞানীরা নিয়মিত স্বায়ত্তশাসিত সিস্টেমের অনিয়ন্ত্রিত বিকাশ সম্পর্কে উদ্বেগ প্রকাশ করেন। দুই বছর আগে, বিচারবহির্ভূত, সংক্ষিপ্ত বা নির্বিচারে মৃত্যুদণ্ডের বিষয়ে জাতিসংঘের বিশেষ প্রতিবেদক, ক্রিস্টোফ হেইনস, প্রাণঘাতী স্বায়ত্তশাসিত রোবোটিক্স (LARS) উৎপাদনের উপর বিশ্বব্যাপী স্থগিতাদেশের আহ্বান জানিয়েছিলেন।
এই ধরনের অস্ত্রের জন্য আন্তর্জাতিক মান তৈরি না হওয়া পর্যন্ত বিশেষজ্ঞ দেশগুলিকে "LARS-এর উৎপাদন, সমাবেশ, স্থানান্তর, অধিগ্রহণ, বাস্তবায়ন এবং ব্যবহারের উপর জাতীয় স্তরে একটি স্থগিতাদেশ প্রবর্তন করার" আহ্বান জানিয়েছেন। হাইন্সের এই ধরনের রোবটের ব্যবহার "প্রশ্ন উত্থাপন করে যা যুদ্ধ এবং শান্তিতে জীবন রক্ষার জন্য সুদূরপ্রসারী প্রভাব ফেলে।"
এখন, বিশেষ প্রতিবেদক জোর দিয়েছিলেন, এই ধরনের একটি আইনি কাঠামো বিদ্যমান নেই, তাই মেশিনগুলিকে প্রোগ্রাম করা যেতে পারে কিনা তা স্পষ্ট নয় "যাতে তারা আন্তর্জাতিক মানবিক আইনের নিয়ম অনুসারে কাজ করবে" বিশেষ করে সামরিক এবং সামরিক বাহিনীর মধ্যে পার্থক্য করার ক্ষেত্রে বেসামরিক
এছাড়াও, বিশেষজ্ঞ উল্লেখ করেছেন, স্বায়ত্তশাসিত রোবট ব্যবহার করার সময় "আইনি দায়িত্বের পর্যাপ্ত ব্যবস্থা বিকাশ করা অসম্ভব"। "যদিও ড্রোনের ক্ষেত্রে, একজন ব্যক্তি সিদ্ধান্ত নেয় কখন হত্যা করতে গুলি চালাতে হবে, LARS-এ, অনবোর্ড কম্পিউটার সিদ্ধান্ত নেয় কাকে লক্ষ্য করতে হবে," তিনি বলেছিলেন।
2012 সালে, হিউম্যান রাইটস ওয়াচ একটি 50-পৃষ্ঠার প্রতিবেদন প্রকাশ করে যার শিরোনাম ছিল মানবতা হারানো: রোবটের বিরুদ্ধে আর্গুমেন্টস, যা সম্পূর্ণ স্বয়ংক্রিয় অস্ত্রের বিপদ সম্পর্কে সতর্ক করেছিল। হার্ভার্ড ল স্কুলের সাথে মিলিত হয়ে হিউম্যান রাইটস ওয়াচ দ্বারা সংকলিত প্রতিবেদনে, পৃথক রাষ্ট্রগুলিকে একটি আন্তর্জাতিক চুক্তি তৈরি করার আহ্বান জানানো হয়েছে যা সম্পূর্ণরূপে রোবোটিক অস্ত্রের উত্পাদন এবং ব্যবহার নিষিদ্ধ করবে।
মানবাধিকার কর্মীরা উল্লেখ করেছেন যে স্বায়ত্তশাসিত সামরিক অস্ত্র এখনও বিদ্যমান নেই এবং এটি এখনও ব্যবহার করা থেকে অনেক দূরে, তবে, কিছু দেশের সামরিক বাহিনী, উদাহরণস্বরূপ মার্কিন যুক্তরাষ্ট্রে, ইতিমধ্যেই প্রোটোটাইপগুলি উপস্থাপন করেছে যা সৃষ্টিতে একটি উল্লেখযোগ্য অগ্রগতি মূর্ত করে। "হত্যাকারী মেশিন" এর।
প্রতিবেদনে উল্লেখ করা হয়েছে যে মার্কিন যুক্তরাষ্ট্র এই দৌড়ে নেতৃত্ব দিচ্ছে এবং চীন, জার্মানি, ইসরায়েল, দক্ষিণ কোরিয়া, রাশিয়া এবং যুক্তরাজ্য সহ আরও কয়েকটি দেশ জড়িত রয়েছে।
অনেক বিশেষজ্ঞের মতে, দেশগুলিকে 20 থেকে 30 বছরের মধ্যে যুদ্ধের যানবাহনের সম্পূর্ণ স্বায়ত্তশাসনে যেতে হবে।