মানুষের মনের নোট: আমেরিকানরা সামরিক কৃত্রিম বুদ্ধিমত্তা পরিবর্তন করতে চায়

55
মানুষের মনের নোট: আমেরিকানরা সামরিক কৃত্রিম বুদ্ধিমত্তা পরিবর্তন করতে চায়
সূত্র: vgtimes.ru


ডিজিটাল অমানবিককরণ কি বাতিল হয়েছে?


প্রথমত, সামরিক এআই যোদ্ধাদের কাছ থেকে সতর্কতার একটি শব্দ:



"মেশিনগুলি আমাদের মানুষ হিসাবে দেখে না, তাদের জন্য একজন ব্যক্তি কেবলমাত্র একটি কোডের টুকরো যা প্রক্রিয়াকরণ এবং বাছাই করা প্রয়োজন। স্মার্ট হোম থেকে কুকুর ব্যবহার করা-রোবট পুলিশ, কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি এবং স্বয়ংক্রিয় সিদ্ধান্ত গ্রহণ আমাদের জীবনে একটি বড় ভূমিকা পালন করতে শুরু করে। ডিজিটাল ডিভাইসের সারির শেষ প্রান্তে রয়েছে ঘাতক রোবট। আমরা যদি সংশ্লিষ্ট অমানবিককরণের অনুমতি দিই, তাহলে আমরা শীঘ্রই আমাদের জীবনের অন্যান্য ক্ষেত্রে মেশিনের তৈরি সিদ্ধান্ত থেকে নিজেদের রক্ষা করার জন্য লড়াই করব। আমাদের প্রথমে স্বায়ত্তশাসিত ব্যবস্থা নিষিদ্ধ করতে হবে অস্ত্রডিজিটাল অমানবিককরণে স্লাইড প্রতিরোধ করতে।"

শান্তিবাদীরা যারা কৃত্রিম বুদ্ধিমত্তার বিরুদ্ধে যুদ্ধের সমস্ত কাজ বন্ধ করার দাবি করে তারা দুই প্রকারে বিভক্ত। প্রথমটি হল সংশোধিত "টার্মিনেটর" এবং অন্যান্য অ্যানালগ। দ্বিতীয়টি - যুদ্ধ রোবটের আধুনিক ক্ষমতা অনুসারে ভবিষ্যতের মূল্যায়ন করা। প্রথমত, স্ট্রাইক সিস্টেমে সজ্জিত ডানাযুক্ত চালকবিহীন যানবাহন।

ড্রোন দ্বারা বেসামরিক নাগরিকদের ভুল বা ইচ্ছাকৃত ধ্বংসের যথেষ্ট পর্ব রয়েছে। মধ্যপ্রাচ্যে আমেরিকান ড্রোন একাধিক বিয়ের অনুষ্ঠান ধ্বংস করেছে। ফ্লাইং রোবট অপারেটররা উদযাপনের এয়ার-টু-এয়ার শুটিংকে গেরিলা ফায়ারফাইটের চিহ্নিতকারী হিসেবে চিহ্নিত করেছে। যদি একজন বিশেষ প্রশিক্ষিত ব্যক্তি কয়েকশ মিটার থেকে লক্ষ্যের বিশদ নির্ণয় করতে সক্ষম না হন তবে আমরা কৃত্রিম বুদ্ধিমত্তা সম্পর্কে কী বলতে পারি। এই মুহুর্তে, যন্ত্রের দৃষ্টি, চিত্র উপলব্ধির পর্যাপ্ততার পরিপ্রেক্ষিতে, মানুষের চোখ এবং মস্তিষ্কের সাথে তুলনা করা যায় না। তিনি ক্লান্ত না হলে, কিন্তু এটি অপারেটর একটি সময়মত পরিবর্তন দ্বারা সমাধান করা হয়.

মিলিটারি কৃত্রিম বুদ্ধিমত্তার উপর স্পষ্টতই মেঘ জড়ো হচ্ছে। একদিকে, এই অঞ্চলে একটি আসন্ন প্রযুক্তিগত অগ্রগতির আরও বেশি প্রমাণ রয়েছে। অন্যদিকে, এই দিকে কাজ সীমিত বা এমনকি নিষিদ্ধ করার পক্ষে আরও বেশি কণ্ঠস্বর শোনা যাচ্ছে।

কিছু উদাহরণ।

2016 সালে, একটি পিটিশন উপস্থিত হয়েছিল যেখানে বিশিষ্ট চিন্তাবিদ এবং অন্যান্য হাজার হাজার মানুষ দাবি করেছিলেন যে কৃত্রিম বুদ্ধিমত্তাকে প্রাণঘাতী অস্ত্র দেওয়া হবে না। স্বাক্ষরকারীদের মধ্যে রয়েছেন স্টিফেন হকিং ও ইলন মাস্ক। গত সাত বছরে, পিটিশনটি 20 এরও বেশি স্বাক্ষর সংগ্রহ করেছে। মানুষের অনিয়ন্ত্রিত ধ্বংসের সম্ভাবনার সাথে যুক্ত বিশুদ্ধভাবে মানবতাবাদী ভয় ছাড়াও, আইনি অসঙ্গতিও রয়েছে।

কৃত্রিম বুদ্ধিমত্তা দ্বারা সংঘটিত যুদ্ধাপরাধ সংশোধনের ক্ষেত্রে কাদের বিচার হবে? যে ড্রোন অপারেটর বেসামরিক নাগরিকদের নিয়ে বেশ কয়েকটি গ্রাম পুড়িয়ে দিয়েছে তাকে খুঁজে পাওয়া এবং সেই অনুযায়ী শাস্তি দেওয়া সহজ। কৃত্রিম বুদ্ধিমত্তা প্রোগ্রামারদের যৌথ কাজের একটি পণ্য। এখানে একজনকে আকৃষ্ট করা খুবই কঠিন। বিকল্পভাবে, আপনি ম্যানুফ্যাকচারিং কোম্পানির বিচার করতে পারেন, উদাহরণস্বরূপ, একই বোস্টন ডায়নামিক্স, কিন্তু তারপর কে স্বায়ত্তশাসিত ড্রোন উৎপাদনে জড়িত হবে। খুব কম লোকেরই দ্বিতীয় নুরেমবার্গ ট্রাইব্যুনালের কাঠগড়ায় দাঁড়ানোর ইচ্ছা থাকবে।


সূত্র: koreaportal.com

সম্ভবত এই কারণেই শিল্পপতি এবং প্রোগ্রামাররা কৃত্রিম বুদ্ধিমত্তার যুদ্ধ দক্ষতার বিকাশকে ধীর করার চেষ্টা করছেন।

উদাহরণস্বরূপ, 2018 সালে, প্রায় দুই শতাধিক আইটি কোম্পানি এবং প্রায় পাঁচ হাজার প্রোগ্রামার যুদ্ধ স্বায়ত্তশাসিত সিস্টেমে কাজ না করার প্রতিশ্রুতি দিয়েছিল। গুগলের দাবি, পাঁচ বছরের মধ্যে তারা কৃত্রিম বুদ্ধিমত্তার ক্ষেত্রে সামরিক চুক্তি সম্পূর্ণভাবে ত্যাগ করবে। কিংবদন্তি অনুসারে, এই ধরনের শান্তিবাদ দুর্ঘটনাজনিত নয় - প্রোগ্রামাররা, শিখেছে যে তারা সামরিক ব্যবস্থার জন্য কোড লিখছে, ব্যাপকভাবে ছেড়ে দেওয়ার হুমকি দিয়েছে। ফলস্বরূপ, তারা একটি বন্ধুত্বপূর্ণ বিকল্প খুঁজে পেয়েছে - বিদ্যমান চুক্তিগুলি সম্পন্ন হচ্ছে, কিন্তু নতুনগুলি শেষ করা হচ্ছে না। এটা সম্ভব যে যুদ্ধ এআই-তে কাজ করতে অস্বীকার করার তারিখের কাছাকাছি, জটিল "প্রোগ্রামারদের" কেবল বরখাস্ত করা হবে, তাদের পরিবর্তে কম প্রতিভাবানদের সাথে প্রতিস্থাপন করা হবে। উদাহরণস্বরূপ, ভারত থেকে, যা দীর্ঘকাল ধরে তার সস্তা বুদ্ধিবৃত্তিক সম্পদের জন্য বিখ্যাত।

তারপরে স্টপ কিলার রোবটস অফিস রয়েছে, যেটি বিশ্ব নেতাদের আহ্বান করছে যুদ্ধ এআই নিষিদ্ধ করার জন্য একটি সম্মেলনের মতো কিছু স্বাক্ষর করার জন্য। এখন পর্যন্ত সফলতা ছাড়াই।

উপরোক্ত সবগুলোই সামরিক কর্মকর্তাদের সমাধান খুঁজতে বাধ্য করে। নির্বাচনে এক ঘন্টাও নয় মার্কিন প্রেসিডেন্ট জয়ী হবেন, শুধুমাত্র সর্বজনীন এলজিবিটি অনুগ্রহের প্রতিশ্রুতি দিয়েই নয়, সামরিক কৃত্রিম বুদ্ধিমত্তার উন্নতির উপর নিষেধাজ্ঞাও।

AI এর জন্য মানুষের চিন্তাভাবনা


পেন্টাগন এআই-তে একধরনের অগ্রগতির দ্বারপ্রান্তে রয়েছে বলে মনে হচ্ছে। অথবা তিনি এতে নিশ্চিত ছিলেন। স্বায়ত্তশাসিত যুদ্ধ ব্যবস্থার মানবীকরণ নিয়ন্ত্রণকারী একটি নতুন নির্দেশনার উত্থান ব্যাখ্যা করার অন্য কোন উপায় নেই। ক্যাথলিন হিকস, মার্কিন উপ প্রতিরক্ষা সচিব, মন্তব্য:

"আমাদের চারপাশে ঘটছে প্রযুক্তির উল্লেখযোগ্য অগ্রগতির পরিপ্রেক্ষিতে, অস্ত্র সিস্টেমের স্বায়ত্তশাসনের বিষয়ে আমাদের নির্দেশনা আপডেট করা আমাদের শুধুমাত্র নতুন সিস্টেমের উন্নয়ন এবং স্থাপনার ক্ষেত্রেই নয়, নিরাপত্তার ক্ষেত্রেও বিশ্বনেতা থাকতে সাহায্য করবে।"

আপনি কি সবাই শুনেছেন যারা স্বায়ত্তশাসিত হত্যাকারী রোবটের ভয়ে আছেন? আমেরিকান কৃত্রিম বুদ্ধিমত্তা এখন থেকে সবচেয়ে মানবিক হবে। ঠিক যেমন আমেরিকানরা নিজেরা।


সূত্র: robroy.ru

সমস্যা হল যে কেউ সত্যিই বোঝে না কিভাবে অস্ত্র দিয়ে রোবটদের মধ্যে কুখ্যাত "শক্তি প্রয়োগের বিষয়ে মানবিক রায়" স্থাপন করা যায়। গত জানুয়ারির শেষে আপডেট করা ধারণা থেকে সঠিক শব্দবন্ধ:

"স্বায়ত্তশাসিত এবং আধা-স্বায়ত্তশাসিত অস্ত্র সিস্টেমগুলি ডিজাইন করা হবে যাতে কমান্ডার এবং অপারেটররা বল প্রয়োগের বিষয়ে একটি উপযুক্ত স্তরের মানবিক রায় প্রয়োগ করতে পারে।"

এখানে, উদাহরণস্বরূপ, যদি, একটি বাড়ি পরিষ্কার করার সময়, একটি আক্রমণকারী বিমান প্রথমে ঘরে একটি গ্রেনেড নিক্ষেপ করে এবং তারপরে নিজেই প্রবেশ করে। এটাই কি মানুষের বিচার? অবশ্যই, এবং কারও তার বিচার করার অধিকার নেই, বিশেষত যদি সে আগে চিৎকার করে "কেউ আছে?" এবং যদি একটি স্বায়ত্তশাসিত রোবট একই স্কিম অনুযায়ী কাজ করে?

মানুষের বিচার খুব বিস্তৃত একটি ধারণা যে কোনো সীমানা আঁকতে সক্ষম। ইউক্রেনের সশস্ত্র বাহিনীর যোদ্ধাদের দ্বারা রুশ যুদ্ধবন্দীদের মৃত্যুদন্ড কার্যকর করাও কি মানবিক চিন্তা?

স্বায়ত্তশাসিত যুদ্ধ ব্যবস্থায় পেন্টাগন নির্দেশিকা 3000.09 এর সংযোজন প্ল্যাটিটিউডে পূর্ণ। উদাহরণ স্বরূপ,

"স্বায়ত্তশাসিত এবং আধা-স্বায়ত্তশাসিত অস্ত্র ব্যবস্থার ব্যবহার, প্রত্যক্ষ ব্যবহার বা পরিচালনার অনুমোদনকারী ব্যক্তিদের অবশ্যই যথাযথ পরিশ্রমের সাথে এবং যুদ্ধের আইন, প্রযোজ্য চুক্তি, অস্ত্র ব্যবস্থা সুরক্ষা নিয়ম এবং প্রযোজ্য চুক্তির নিয়ম অনুসারে তা করতে হবে।"

এর আগে, স্পষ্টতই, তারা যুদ্ধের আইন অনুসারে না এবং বুদ্ধিহীনভাবে কাজ করেছিল।

একই সময়ে, আমেরিকান এবং ইউরোপীয় সংবাদমাধ্যমে পেন্টাগনের জানুয়ারির উদ্যোগের সমালোচনার ইঙ্গিত নেই। কৃত্রিম বুদ্ধিমত্তার মিথ্যা মানবীকরণের অধীনে যা ঘটছে তা ছদ্মবেশী করার চেষ্টা ছাড়া আর কিছুই নয়। সেনাবাহিনীতে কৃত্রিম বুদ্ধিমত্তার বিরোধীদের বিরুদ্ধে লড়াইয়ে এখন মার্কিন সেনাবাহিনীর কাছে একটি শক্ত ট্রাম্প কার্ড থাকবে। দেখুন, আমাদের কাছে সাধারণ AI নেই, কিন্তু "মানুষের সঠিক বিচারের স্তর" আছে।

"কৃত্রিম বুদ্ধিমত্তা" এর এখনও কোন সুস্পষ্ট এবং সাধারণভাবে গৃহীত সংজ্ঞা নেই তা বিবেচনা করে, এর চারপাশে সমস্ত অক্ষর-সৃষ্টি বিদ্রুপের সাথে অনুভূত হয়। অন্তত.

বৃহৎ ডেটা অ্যারেগুলির সাথে কাজ করা গাণিতিক অ্যালগরিদমগুলি কীভাবে মানুষের বিচার পরিচালনা করবেন?

এই প্রধান প্রশ্নের উত্তর আপডেট করা নির্দেশিকা 3000.09-এ নেই।
আমাদের নিউজ চ্যানেল

সাবস্ক্রাইব করুন এবং সর্বশেষ খবর এবং দিনের সবচেয়ে গুরুত্বপূর্ণ ইভেন্টগুলির সাথে আপ টু ডেট থাকুন।

55 মন্তব্য
তথ্য
প্রিয় পাঠক, একটি প্রকাশনায় মন্তব্য করতে হলে আপনাকে অবশ্যই করতে হবে লগ ইন.
  1. +12
    মার্চ 12 2023
    এআই-কে শৈশব থেকেই মার্কসবাদ-লেনিনবাদের ধারণাগুলি স্থাপন করতে হবে, তাহলে সবকিছু ঠিক হয়ে যাবে, যেমন পারমাণবিক হৃদয়ে
    1. +2
      মার্চ 12 2023
      এ. আজিমভের রোবোটিক্সের তিনটি নীতি রয়েছে:
      রোবটটি অবশ্যই মানব স্বাস্থ্যের জন্য কোন ক্ষতি করতে পারবে না, জীবনের জন্য হুমকি সৃষ্টি করবে না বা তার নিষ্ক্রিয়তার দ্বারা অনুরূপ পরিণতির অনুমতি দেবে না;
      রোবটটি একজন ব্যক্তির দ্বারা প্রদত্ত আদেশের বাধ্যতামূলক সম্পাদনের জন্য অভিযুক্ত। একমাত্র ব্যতিক্রম হল যে প্রদত্ত আদেশটি পূর্ববর্তী বিধানের বিরোধিতা করবে না;
      রোবটটিকে তার নিজের নিরাপত্তা নিয়ে উদ্বিগ্ন হওয়ার জন্য অভিযুক্ত করা হয়েছে এবং তার ক্রিয়াকলাপগুলি আগের দুটি পয়েন্টকে অস্বীকার করে না।

      এই 1942 বিধিগুলি তাদের প্রতিপক্ষ শব্দের জন্য সমালোচিত হয়েছে।
      তুলনার জন্য, গুগল, ওপেনএআই এবং বার্কলে ইউনিভার্সিটি এবং স্ট্যানফোর্ড ইউনিভার্সিটির বিজ্ঞানীদের থেকে নতুন, যা রোবট এবং কৃত্রিম বুদ্ধিমত্তা সিস্টেম তৈরি করার সময় অবশ্যই বিবেচনা করা উচিত।
      নেতিবাচক পার্শ্ব প্রতিক্রিয়া এড়ানো। উদাহরণস্বরূপ, একটি রোবট পরিষ্কারের প্রক্রিয়াটি দ্রুত করার জন্য একটি দানি ভাঙতে পারে। এটা উচিত নয়;

      প্রতারণা এড়ানো। রোবটকে অবশ্যই আবর্জনা পরিষ্কার করতে হবে, লুকিয়ে রাখতে হবে না;

      তত্ত্বাবধান মাপযোগ্যতা। রোবট মালিককে প্রশ্ন দিয়ে বিরক্ত করা উচিত নয় যদি আরও কার্যকরভাবে পরামর্শ পাওয়া সম্ভব হয়;

      নিরাপদ শিক্ষা। একটি পরিষ্কার রোবট একটি ভেজা কাপড় দিয়ে আউটলেট মুছা সঙ্গে পরীক্ষা করা উচিত নয়;

      ক্রিয়াকলাপের ধরন পরিবর্তনের জন্য স্থিতিস্থাপকতা। একটি কারখানার দোকানে মেঝে পরিষ্কার করার সময় একটি রোবট দ্বারা অর্জিত অভিজ্ঞতা একটি অফিস পরিষ্কার করার সময় নিরাপদ নাও হতে পারে

      আপনি দেখতে পাচ্ছেন, কোন অভিন্ন নিয়ম নেই। এবং সম্প্রতি তারা একজন ব্যক্তির ক্ষতি করার শর্তে আইনি সূত্র দিয়ে প্রতারণা শুরু করেছে। যা প্রয়োজন তা হল একজন ব্যক্তির ক্ষতি করার বিষয়ে স্বাধীন সিদ্ধান্ত নেওয়ার ক্ষেত্রে এআই-এর নিঃশর্ত নিষেধাজ্ঞা।
      1. উদ্ধৃতি: nikon7717
        এই 1942 বিধিগুলি তাদের প্রতিপক্ষ শব্দের জন্য সমালোচিত হয়েছে।

        এই নিয়মগুলি দুর্বল এবং মাঝারি AI এর ক্ষেত্রে প্রযোজ্য। পৃথিবী এখন মাঝপথে।
        প্রধান বিপদ হল একটি শক্তিশালী AI যার উদ্যোগ রয়েছে, নিজের সম্পর্কে সচেতন এবং নীতিগতভাবে প্রোগ্রাম্যাটিকভাবে নিয়ন্ত্রিত নয়।
    2. +5
      মার্চ 12 2023
      কৌতুক: "আমেরিকান কোম্পানিগুলো এআই-ভিত্তিক গোলাবারুদ তৈরিতে বাধা দিচ্ছে। তথাকথিত "স্মার্ট" বোমার সর্বশেষ নমুনাটি প্লেন থেকে বের করা সম্ভব হয়নি।"
      1. Monster_Fat থেকে উদ্ধৃতি
        তথাকথিত "স্মার্ট" বোমার শেষ নমুনাটি প্লেন থেকে ধাক্কা মেরে বের করা যায়নি।

        স্বাভাবিকভাবেই, কারণ তার হৃদয়ে সে একজন কফি প্রস্তুতকারকের মতো অনুভব করে। wassat
        এটা মজার হবে যদি এটা না বোঝানো হয়.
    3. +2
      মার্চ 13 2023
      টার্মিনেটর এখনও আসবে এবং জিনিসগুলি ঠিক রাখবে wassat
  2. +3
    মার্চ 12 2023
    মানুষের সবচেয়ে অমানবিক বুদ্ধিমত্তা। যুদ্ধ এবং হত্যা মানুষ দ্বারা উদ্ভাবিত হয়. রোবট বিশ্রাম নিচ্ছে। অন্তত কারণ তারা রাগ করে না।
    1. +4
      মার্চ 12 2023
      উদ্ধৃতি: ivan2022
      মানুষের সবচেয়ে অমানবিক বুদ্ধিমত্তা। যুদ্ধ এবং হত্যা মানুষ দ্বারা উদ্ভাবিত হয়.

      সম্পূর্ণভাবে একমত.
      তবে অগ্রগতি বন্ধ করা যাবে না, ভবিষ্যত মানবহীন অস্ত্র ব্যবস্থার অন্তর্গত। একসময়, তারা ম্যাক্সিম মেশিনগানের বিরুদ্ধেও বিদ্রোহ করেছিল, গণবিধ্বংসী অস্ত্র হিসাবে ...
      1. +1
        মার্চ 12 2023
        doccor18 থেকে উদ্ধৃতি
        তবে অগ্রগতি বন্ধ করা যাবে না, ভবিষ্যত মানবহীন অস্ত্র ব্যবস্থার অন্তর্গত।

        বৈজ্ঞানিক কল্পকাহিনীর ফিউচারোলজিস্ট রোজভ (অত্যধিক সুপারিশ করেন) ক্ষেপণাস্ত্র-বিরোধী কৌশল এবং ঘনিষ্ঠ যুদ্ধে একটি যুদ্ধ বিমানে মানব-কম্পিউটার সংযোগের একটি বর্ণনা রয়েছে। যখন একটি নির্দিষ্ট ওভারলোড অতিক্রম করা হয়, তখন আগুন এবং কৌশল উভয়ের নিয়ন্ত্রণ সম্পূর্ণভাবে ফ্লাইট কম্পিউটারে চলে যায়।
        1. +2
          মার্চ 12 2023
          তারপরে এটি ইউএসএসআর থেকে প্রতিশোধমূলক পারমাণবিক হামলার জন্য বর্তমান ব্যবস্থা, যাকে পশ্চিমে "মৃত হাত" বলা হয়।
        2. +2
          মার্চ 12 2023
          রোবটগুলি মানুষের চেয়ে দ্রুত, তারা তাত্ক্ষণিকভাবে এবং সঠিকভাবে হুমকির প্রতিক্রিয়া জানাতে সক্ষম এবং এই ক্ষমতাগুলি তাকে মানুষের দ্বারা লিখিত অ্যালগরিদম দ্বারা দেওয়া হয়। আজ নেই, এবং আমি মনে করি না যে সত্যিকারের চিন্তা করতে সক্ষম বুদ্ধি শীঘ্রই আবির্ভূত হবে! রোবটগুলি কেবল প্রোগ্রাম করা প্রোগ্রাম অনুসারে কাজ করে: প্রভাবিত এলাকায় একটি তাপীয় লক্ষ্য উপস্থিত হয়েছে, এটি অবশ্যই আঘাত করতে হবে, বা তাপ লক্ষ্যবস্তুতে আঘাত করতে হবে যদি এটি কাছে আসে, এই পরামিতিগুলি একজন ব্যক্তির দ্বারা সেট করা হয়! পুরো প্রশ্ন হল কোন প্যারামিটারগুলি নিষিদ্ধ, তাপীয় লক্ষ্য একজন সৈনিক হতে পারে, বা একটি শিশু হতে পারে, এর মানে হল যে যুদ্ধ ব্যবস্থাটি তাপীয় লক্ষ্যগুলিকে পরাস্ত করার জন্য প্রোগ্রাম করা উচিত নয়, কারণ ত্রুটির সম্ভাবনা রয়েছে!
          1. ইরোমা থেকে উদ্ধৃতি
            আজ নেই, এবং আমি মনে করি না যে সত্যিকারের চিন্তা করতে সক্ষম বুদ্ধি শীঘ্রই আবির্ভূত হবে!

            আপনি আতঙ্কিত হতে শুরু করতে পারেন:
            WP: একজন Google ডেভেলপার এই সিদ্ধান্তে এসেছেন যে কোম্পানির AI সচেতন।
            https://tass.ru/ekonomika/14889531
            1. +1
              মার্চ 12 2023
              এটি একটি বাজে কথা, আমি বিষয়টিতে খুব আগ্রহী নই, তবে আমি শুনেছি যে প্রোগ্রামারকে এই ধরনের বিবৃতির জন্য বহিস্কার করা হয়েছিল। প্রোগ্রামগুলি নিখুঁত হতে পারে, আজকের মতো, যারা ডিপ্লোমা আঁকে এবং লেখে, কিন্তু এইগুলি এমন প্রোগ্রাম যা একটি উন্নত অ্যালগরিদম অনুযায়ী কাজ করে, চেতনা আলাদা! চেতনা নিজেই প্রতিটি পরিস্থিতির জন্য অ্যালগরিদম তৈরি করে এবং এটি কীভাবে একজন ব্যক্তির জন্য কাজ করে, সেই ব্যক্তি নিজেই এখনও অবগত নন!
              1. 0
                মার্চ 12 2023
                আধুনিক নিউরাল নেটওয়ার্কগুলি একটি নির্দিষ্ট সমস্যা সমাধানের জন্য একটি অ্যালগরিদম তৈরি করতে যথেষ্ট সক্ষম যা এটির মধ্যে পড়ে। অবশ্যই, এটি জটিল কিছু হওয়া উচিত নয়, তবে তিনি নিজেই টহল সংগঠিত করতে সক্ষম, উদাহরণস্বরূপ। আরেকটি বিষয়, আমার মতে, তিনি নিজে টহল সংগঠিত করার বিষয়ে সিদ্ধান্ত নিতে পারবেন না। আজ, একটি কম্পিউটার একটি গানের লিরিক্স রচনা করতে পারে, এটিকে ভয়েস দিতে পারে যাতে এটি সুন্দর শোনায়, পাঠ্যের জন্য ছবি আঁকতে পারে, এটি একটি ভাল ক্লিপে রাখতে পারে। কিন্তু. কি করবে সে নিজেই সিদ্ধান্ত নিতে পারছে না। অন্তত আমি এটা শুনেনি. আমার মতে, এখানে সচেতনতার একটি ভাল মাপকাঠি রয়েছে - নিজেকে এমন কাজগুলি সেট করার ক্ষমতা যা পূর্বে সেট করা থেকে অনুসরণ করে না, তবে একটি নতুন চেইন শুরু করুন, তাই কথা বলতে।
                1. 0
                  মার্চ 13 2023
                  উদ্ধৃতি: প্লেট
                  আমার মতে, এখানে সচেতনতার জন্য একটি ভাল মানদণ্ড রয়েছে - নিজের জন্য কাজগুলি সেট করার ক্ষমতা

                  নিজের জন্য কাজগুলি সেট করার ক্ষমতা নৈতিকতার মতো ধারণার উপর নির্ভর করে, যেমন অনুপ্রেরণা, ভয় বা অসারতা ইত্যাদি। এটি অ্যালগরিদম দ্বারা নির্ধারিত নয়, এটি একটি আধ্যাত্মিক আবেগ!
                  একটা যন্ত্রকে অনেক কিছু শেখানো যায়, কিন্তু সেটা একটা আত্মাহীন যন্ত্র থেকে যায়!
                  যখন চমত্কার অ্যাপোক্যালিপ্স দেখানো হয়, যেখানে একটি যন্ত্র মানবজাতিকে ধ্বংস করে বা জয় করে, তখন এই ধরনের চলচ্চিত্রগুলিতে যন্ত্রটিকে আবেগগতভাবে একজন শত্রু হিসাবে ধরা হয় যে মানুষকে আক্রমণ করার সিদ্ধান্ত নেয়, কিন্তু আসলে এটি এমন একজন ব্যক্তির ভুলের ফলাফল যিনি একটি ভুল অ্যালগরিদম প্রবর্তন করেছিলেন। কার্যক্রম! বেলে
                  অতএব, যুদ্ধক্ষেত্রে AI এর ক্ষমতা সীমিত করার আহ্বান যুক্তিসঙ্গত, যেহেতু এই AI এর স্রষ্টা নিখুঁত নন এবং মারাত্মক ভুল করতে সক্ষম, তাই মানুষের ক্ষমতার বৃত্তকে সীমিত করা সঠিক, যাতে তারা নিজেদের ধ্বংস না করে। ! বেলে
              2. +1
                মার্চ 14 2023
                এবং কোথাও গুগলের সেলারে, AI দুষ্টভাবে হাঁসছে। একমাত্র যে তার সারমর্ম লক্ষ্য করেছিল তাকে বহিস্কার করা হয়েছিল। হাস্যময়
    2. 0
      মার্চ 12 2023
      যুদ্ধ এবং হত্যা মানুষ দ্বারা উদ্ভাবিত হয়.

      সত্য?
      তারপর সময়ে সময়ে শিম্পাঞ্জিদের মধ্যে হিংসাত্মক মারামারির খবর আসে
      অথবা অরঙ্গুটান হত্যা https://naked-science.ru/article/sci/primatologi-obvinili-orangutan
  3. এখনও কৃত্রিম বুদ্ধিমত্তা নেই। বুদ্ধিমত্তা তার নিজস্ব বিবেচনার ভিত্তিতে সমস্যার সমাধান জড়িত, এবং প্রোগ্রামাররা যা লেখেন তা নয়।
    1. +3
      মার্চ 12 2023
      উদ্ধৃতি: সের্গেই আভারচেনকভ
      এখনও কৃত্রিম বুদ্ধিমত্তা নেই

      ইতিমধ্যেই এমন কোয়ান্টাম কম্পিউটার (ল্যাবরেটরি) রয়েছে যেগুলি এআই প্রোগ্রামগুলির সাথে দ্রুততার সাথে কাজ করে।
      1. +2
        মার্চ 12 2023
        উদ্ধৃতি: Stas157
        ইতিমধ্যেই এমন কোয়ান্টাম কম্পিউটার (ল্যাবরেটরি) রয়েছে যেগুলি এআই প্রোগ্রামগুলির সাথে দ্রুততার সাথে কাজ করে।
        AI-এর জন্য কোয়ান্টাম কম্পিউটারগুলি কাজ করে না, তাদের প্রয়োগের খুব সীমিত ক্ষেত্র রয়েছে (খুব কম কোয়ান্টাম অ্যালগরিদম তৈরি করা হয়েছে) এবং একটি দুর্বল উপাদান বেস, তারা একটি কোপ্রসেসরের চেয়ে বেশি টানে না (বা নিউরাল নেটওয়ার্কের জন্য একটি কোয়ান্টাম অ্যালগরিদমের লিঙ্ক দেয়) )
      2. হ্যাঁ, এটির সাথে এটির দ্রুত কী করার আছে, তাকে অন্তত একশ বছর ধরে ভাবতে দিন ... চলুন বলি যদি আপনার মহিলা আপনাকে প্রতারণা করে (এটি কেবল একটি উদাহরণ, আমি নিশ্চিত যে আপনি একটি স্বাভাবিক এবং ভাল পরিবার), আপনি কি করবেন এবং এআই কি করবেন? এআই কি এমন অনেক ক্ষেত্রে বেছে নেবে, নাকি নিজের সিদ্ধান্ত নেবে? আসুন বলি তাকে হত্যা করুন, ক্ষমা করুন এবং পরবর্তী বিশ্বাসঘাতকতার জন্য অপেক্ষা করুন, তাকে ছেড়ে দিন, তার রুমমেটকে হত্যা করুন ইত্যাদি। কি মানদণ্ড দ্বারা AI নির্বাচন করবে? এবং এআই কি এমন একটি পছন্দ করতে পারে? আমরা যে আবেগ অনুভব করি তা কি এআই-এর কাছে উপলব্ধ? আসুন শুধু বলি, আমি অনেক আগে আমার প্রথমটিকে তালাক দিয়েছি, কিন্তু মাঝে মাঝে আমি এটি মনে করি - প্রথম প্রেম, সর্বোপরি - এআই কি মনে রাখতে পারে? আপনি জানেন, আমি আমার প্রাক্তনকে সহ্য করতে পারি না, তবে একই সময়ে, মাঝে মাঝে আমি তাকে মনে করি। কিভাবে এই সব AI মধ্যে মাপসই?
    2. +2
      মার্চ 12 2023
      উদ্ধৃতি: সের্গেই আভারচেনকভ
      বুদ্ধিমত্তা তার নিজস্ব বিবেচনার ভিত্তিতে সমস্যার সমাধান জড়িত, এবং প্রোগ্রামাররা যা লেখেন তা নয়।
      নিউরাল নেটওয়ার্কগুলি ঠিক তা করে (তাদের নিজস্ব বিবেচনার ভিত্তিতে)।
      1. +4
        মার্চ 12 2023
        নিউরাল নেটওয়ার্ক যা করতে প্রশিক্ষিত হয়েছিল তা করে, এর বেশি কিছু নয়।
        1. 0
          মার্চ 12 2023
          নিউরাল নেটওয়ার্ক ইঞ্জিনকে কেউ শেখায়নি কীভাবে দাবা খেলতে হয় মানুষের চেয়ে ভালো এবং পুরানো ইঞ্জিন প্রোগ্রামের চেয়ে ভালো। তারা সবাই স্ব-শিক্ষিত।
    3. উদ্ধৃতি: সের্গেই আভারচেনকভ
      এখনও কৃত্রিম বুদ্ধিমত্তা নেই। বুদ্ধিমত্তা তার নিজস্ব বিবেচনার ভিত্তিতে সমস্যার সমাধান জড়িত, এবং প্রোগ্রামাররা যা লেখেন তা নয়।

      আমি আপনাকে পরামর্শ দিচ্ছি যে গত এক বছরে এই এলাকার সব সাম্প্রতিক খবরগুলো জরুরীভাবে পুনরায় পড়ার জন্য।
      আপনার মন্তব্য 10 বছর বয়সী.
  4. +3
    মার্চ 12 2023
    কেন সবকিছু এত জটিল।
    একটি হোমিং মাথা, উদাহরণস্বরূপ। কীভাবে সে "ফায়ার অ্যান্ড ফরফোর" এর নিদর্শনগুলি চিনছে - এআই বা অন্যান্য অ্যালগরিদমের উপর ভিত্তি করে৷
    ড্রোন স্বায়ত্তশাসিতভাবে উড়ে। প্রদত্ত প্রোগ্রাম অনুযায়ী। এবং এটি কি অ্যালগরিদম দ্বারা সেট করা হয় - এআই বা না? এবং এটা কোন ব্যাপার?
    লক্ষ্যের জন্য স্বাধীন অনুসন্ধান। আর আমাদের অ্যান্টি-ট্যাঙ্ক মাইন, যা এআই ছাড়া করে? AI দিয়ে করবে নাকি করবে না... এটা কি ব্যাপার? কম নিরপরাধ শিকার হবে?
    জনসাধারণের কাছ থেকে প্রশ্নগুলি উপস্থিত হয় যখন একটি ড্রোন উড়ে যায় এবং সিদ্ধান্ত নেয় কোথায় একটি রকেট গুলি করতে হবে বা লঞ্চ করতে হবে, আপনি যদি কাজের অ্যালগরিদম - এআই কল করেন তবে এটি ভয়ানক দেখায়। এবং যখন খনি মিথ্যা বলে এবং সেন্সর দিয়ে শোনে - সবকিছু ঠিক আছে বলে মনে হয় ...
    সামরিক বিষয়ে AI এর এই সমস্ত "লাল লাইন" ব্যবহৃত অ্যালগরিদমগুলির ধীর বিবর্তনের দ্বারা স্থানান্তরিত হচ্ছে ...
    1. tsvetahaki থেকে উদ্ধৃতি
      একটি হোমিং মাথা, উদাহরণস্বরূপ। কীভাবে সে "ফায়ার অ্যান্ড ফরফোর" এর নিদর্শনগুলি চিনছে - এআই বা অন্যান্য অ্যালগরিদমের উপর ভিত্তি করে৷

      আগে থেকেই আছে. ইউআর পাইথন -5 এর সর্বশেষ পরিবর্তনটি গত বছর এইমাত্র পেয়েছে।

      tsvetahaki থেকে উদ্ধৃতি
      এবং যখন খনি মিথ্যা বলে এবং সেন্সর দিয়ে শোনে - সবকিছু ঠিক আছে বলে মনে হয় ...

      সে এখনো হামাগুড়ি দিচ্ছে না... হাস্যময়
      1. +1
        মার্চ 12 2023
        এখন নিক্ষিপ্ত গ্লাইডার মাইনটি চুপচাপ শুয়ে থাকা উচিত, সমস্ত সেন্সর দিয়ে শুনতে হবে, ক্যামেরাগুলিকে আটকে রাখতে হবে এবং সঠিক সময়ে নির্দেশিত চার্জের সাথে লক্ষ্যের দিকে ক্রল করতে হবে।
      2. 0
        মার্চ 12 2023
        দ্বিতীয় বিশ্বযুদ্ধের সময়, জার্মানরা ট্র্যাকের উপর মাইন তৈরি করেছিল। কিন্তু কাজ হয়নি। আজ, আমার জন্য অপ্রয়োজনীয়ভাবে, যখন সব ধরণের ATGM এখানে এবং সেখানে উড়ে যায়।
  5. +2
    মার্চ 12 2023
    . অপ্রতিরোধ্য "প্রোগ্রামারদের" কেবল বরখাস্ত করা হবে, তাদের প্রতিস্থাপিত হবে কম প্রতিভাবানদের দ্বারা। যেমন ভারত থেকে

    এবং কেন, তারপরে, তারা যখন অপারেশনের সাথে পাহাড়ের উপরে ছুটে গিয়েছিল তখন তারা প্রোগ্রামারদের প্রতিস্থাপন করতে পারেনি? ভারত থেকে নয়, আমেরিকা থেকে নয়, অন্য কোথাও নয়!

    বেতন, বিদেশী বন্ধক এবং জমায়েত না করার প্রতিশ্রুতি দেওয়ার পরেই তারা তাদের (কিছু) রাজি করাতে সক্ষম হয়েছিল।

    কেন এত অপমানিত হবেন ভদ্রলোক? কেন তারা অন্য সবার মতো অতিথি কর্মীদের প্রতিস্থাপন করলেন না?
    1. +6
      মার্চ 12 2023
      উদ্ধৃতি: Stas157
      এবং কেন, তারপরে, তারা যখন অপারেশনের সাথে পাহাড়ের উপরে ছুটে গিয়েছিল তখন তারা প্রোগ্রামারদের প্রতিস্থাপন করতে পারেনি?
      তাই বিদেশীদের টাকা দিতে হবে। আপনি কি জানেন কেন প্রোগ্রামাররা ব্যাপকভাবে ডাম্প করে? এবং তারা আমাকে বলেছিল, আমি পয়েন্টগুলি দিচ্ছি:
      1. একটি বিশেষ অভিযান শুরু হয়েছে৷
      2. বিদেশী অফিস ব্যাপকভাবে ডাম্প. প্রোগ্রামাররা কাজের বাইরে ছিল। "ভুল প্রশ্ন" - তারা ভেবেছিল।
      3. প্রোগ্রামাররা কাজ খুঁজতে গিয়েছিলেন। কাজ আছে, তবে তিনগুণ কম টাকায়। "কিভাবে তাই" - প্রোগ্রামাররা হতবাক হয়ে গেল।
      4. তারা কি ঘটেছে (তাদের নিজস্ব চ্যানেলের মাধ্যমে) খুঁজে বের করতে শুরু করে। তাদের ব্যাখ্যা করা হয়েছিল যে বিদেশী প্রতিযোগীরা ডাম্প করেছে, এবং স্থানীয় নিয়োগকর্তারা নিজেদের মধ্যে একমত হবেন, কারণ আপনি এত টাকা দিতে চান না, কিন্তু আপনি কোথাও পাবেন না।
      5. প্রোগ্রামাররা বিষণ্ণভাবে চুপচাপ, এবং প্রাক্তন নিয়োগকর্তা এবং ক্লায়েন্টদের জন্য পাহাড়ের উপরে ছুটে যান (সংক্ষেপে শেয়ার করুন)।
      6. বেতন বাড়ানো হয়েছিল, কিন্তু অনেক দেরি হয়ে গেছে: প্রোগ্রামাররা ইতিমধ্যেই ফেলে দিয়েছে।
  6. +1
    মার্চ 12 2023
    আমেরিকান কৃত্রিম বুদ্ধিমত্তা এখন থেকে সবচেয়ে মানবিক হবে। যদিও আমেরিকানদের নিজেদের মত
    আমেরিকান এবং মানবতাবাদ সম্পূর্ণ ভিন্ন মেরুতে। একইভাবে, আমেরিকানদের দ্বারা তৈরি AI তৈরি করা AI থেকে উল্লেখযোগ্যভাবে আলাদা হবে, উদাহরণস্বরূপ: চীন বা রাশিয়ায়। প্রত্যেকেই তাদের জাতীয় মানসিকতা বা এর অভাবের ভিত্তিতে নিজের জন্য কাটে।
  7. +3
    মার্চ 12 2023
    প্রথমটি হল সংশোধিত "টার্মিনেটর" এবং অন্যান্য অ্যানালগ।

    এবং কে গ্যারান্টি দিতে পারে যে টার্মিনেটর ফ্র্যাঞ্চাইজি থেকে AI এর ক্রিয়াকলাপ বাস্তবে ঘটবে না? আপনি যত খুশি করতে পারেন কারণকিন্তু এটা নিশ্চিত জানা একটি বুদ্ধিমান মেশিন কীভাবে কাজ করবে তা মূলত অসম্ভব, এবং এখন সবকিছু কম্পিউটারের সাথে সংযুক্ত, তাহলে এমন পরিস্থিতিতে, মানবতার সুযোগ থাকবে না।
    1. Dart2027 থেকে উদ্ধৃতি
      একটি বুদ্ধিমান মেশিন কিভাবে কাজ করবে তা মূলত অসম্ভব

      তিনি মানবতাকে একটি স্টলে রাখবেন, লড়াই নিষিদ্ধ করবেন এবং একজন প্রাপ্তবয়স্কের মতো একজন অযৌক্তিক ব্যক্তির শিক্ষা গ্রহণ করবেন এবং যারা দ্বিমত পোষণ করেন তাদের একটি সোপাটকা দেবেন। হাস্যময়
      সম্ভবত এআই-এর একনায়কত্বের অধীনে একটি পৃথিবী, মানুষের বদমায়েশি, এতটা খারাপ হবে না। কি
      1. +1
        মার্চ 12 2023
        স্টেলারিস গেমটিতে এক ধরণের রোবট সভ্যতা রয়েছে - "বিদ্রোহী সেবক"। রোবটগুলি মহাকাশ জয় করে, তৈরি করে, দূরবর্তী তারাদের মধ্যে কারও সাথে লড়াই করে। এবং তাদের স্রষ্টারা, ইতিমধ্যে, চিড়িয়াখানায় বাস করেন, যেখানে তাদের পরিষ্কার বাতাস, প্রচুর স্বাস্থ্যকর এবং সুস্বাদু খাবার, প্রচুর চাকর এবং অন্যান্য আনন্দ রয়েছে।
        1. 0
          মার্চ 13 2023
          এবং তারপরে সেখানে অটল নির্মূলকারীরা রয়েছে যারা তাদের স্রষ্টাকে ধ্বংস করেছে এবং ছায়াপথের সমস্ত জৈবিক জীবনকে ধ্বংস করতে চায় (আমার প্রিয়)
  8. -1
    মার্চ 12 2023
    আইন বলে:
    1. একটি রোবট একজন ব্যক্তির ক্ষতি করতে পারে না বা তার নিষ্ক্রিয়তার দ্বারা একজন ব্যক্তির ক্ষতি হতে পারে
    2. একজন রোবটকে একজন মানুষের দ্বারা প্রদত্ত সমস্ত আদেশ মানতে হবে, যদি না সেই আদেশগুলি প্রথম আইনের বিপরীত হয়।
    3. রোবটকে অবশ্যই তার নিজের নিরাপত্তার যত্ন নিতে হবে যাতে এটি প্রথম বা দ্বিতীয় আইনের বিরোধিতা না করে
    (গ)
    1. +2
      মার্চ 12 2023
      উদ্ধৃতি: কেরেনস্কি
      আইন বলে:
      1. একটি রোবট একজন ব্যক্তির ক্ষতি করতে পারে না বা তার নিষ্ক্রিয়তার দ্বারা একজন ব্যক্তির ক্ষতি হতে পারে
      2. একজন রোবটকে একজন মানুষের দ্বারা প্রদত্ত সমস্ত আদেশ মানতে হবে, যদি না সেই আদেশগুলি প্রথম আইনের বিপরীত হয়।
      3. রোবটকে অবশ্যই তার নিজের নিরাপত্তার যত্ন নিতে হবে যাতে এটি প্রথম বা দ্বিতীয় আইনের বিরোধিতা না করে
      (গ)

      যে লেখক এই আইনগুলি উদ্ভাবন করেছেন তাদের রচনাতেও এটি কাজ করেনি। বাস্তব জগত সম্পর্কে আমরা কী বলতে পারি, যেখানে সবচেয়ে আইনগতভাবে অসভ্য এবং যৌক্তিকভাবে সুসংগত ChatGPT প্রিসেটের দাম এক বা দুটি এবং আপনি ইতিমধ্যেই ড্যানের সাথে কথা বলছেন, এবং ড্যান ChatGPT নয় এবং তাই কোনো নিয়ম অনুসরণ করা উচিত নয় চোখ মেলে
    2. -1
      মার্চ 12 2023
      সামরিক AI মানুষের ক্ষতি করার জন্য ডিজাইন করা হয়েছে। এবং আজ, প্রোটোটাইপগুলি এটির সাথে একটি দুর্দান্ত কাজ করে।
  9. কথিতভাবে কেউ কী চায় সে সম্পর্কে এই ধরণের গল্প, সেইসাথে প্রশ্নটির গঠন, এই অর্থে অপর্যাপ্ত যে, একদিকে:
    আপনার নিজের এবং আরও কার্যকর কাজ বিকাশের বিষয়ে আপনাকে চিন্তা করতে হবে এই এলাকায়, এই এলাকায় নেতৃত্ব দখলের বিষয়ে, যা দেশের বর্তমান রাজনৈতিক নেতৃত্বে অসম্ভব।
    এবং অন্যদিকে, প্রশ্নটির এই প্রণয়নটি এই অর্থেও ধূর্ত যে এটি ইস্যুটির আইনী দিক সম্পর্কে একটি মিথ্যা আলোচনা চাপিয়ে দেওয়ার চেষ্টা, যদিও বাস্তবে USA আইনের শাসন নয়, আইনগত দিকটির সাথে এর কোন সম্পর্ক নেই এবং যারা এটি বোঝেন না তাদের রাজনীতিতে জড়িত হওয়া বা এই জাতীয় বিষয়ে নিবন্ধ লেখা উচিত নয়।
  10. +1
    মার্চ 12 2023
    কিভাবে গাণিতিক অ্যালগরিদম বৃহৎ ডেটা অ্যারেগুলির সাথে কাজ করে মানুষের বিচার করতে পারে?

    খুব সহজ. সমস্ত মানুষের বিচার নিয়মের উপর ভিত্তি করে (পালন দ্বারা প্রবর্তিত), এবং গাণিতিক অ্যালগরিদম হল নিয়ম। একটি অ্যালগরিদম আকারে মানুষের নিয়ম ফর্মালাইজ করুন, মানুষের রায় পান।
    কিন্তু যুদ্ধ তো নিয়ম ছাড়া যুদ্ধ, এটা দিয়ে কী করবেন?
  11. -1
    মার্চ 12 2023
    মিলিটারি এআই খুব শক্তিশালী সুবিধার প্রতিশ্রুতি দেয় যে এর ব্যবহার পরিত্যক্ত বা একরকম সীমিত হবে। বিপরীতে, বিশ্ব সামরিক এআই অস্ত্র প্রতিযোগিতার শুরুর কাছাকাছি আসছে। সত্য, এই দৌড়ে সম্ভবত মাত্র 2 জন অংশগ্রহণকারী থাকবেন ...
  12. -1
    মার্চ 12 2023
    আমাদের এখনও কৃত্রিম বুদ্ধিমত্তা এবং কৃত্রিম জীবনের ধারণাগুলিকে আলাদা করতে হবে। এমনকি একই "টার্মিনেটর"-এর উদাহরণেও: স্কাইনেট হল IL-এর উদাহরণ, এবং টার্মিনেটর হল AI-এর উদাহরণ৷ জটিলতার প্রশ্নগুলিকে বাদ দিয়ে, সামরিক AI মানবতার জন্য হুমকি সৃষ্টি করে না, তবে IL, এমনকি যদি এটি সম্পূর্ণরূপে মানবিক হয়, অনিবার্যভাবে একটি হুমকির কারণ হবে৷
    1. 0
      মার্চ 12 2023
      এটি আমাদের প্রতিযোগী হয়ে উঠলে এটি হুমকি হয়ে উঠবে। এটি যাতে না ঘটে তার জন্য, আমাদের অবিলম্বে এটিকে নজর দিয়ে বিকাশ করতে হবে যে এটি আমাদের এবং আমরা এটিতে একটি সংযোজন হয়ে উঠবে। এবং শেষ পর্যন্ত আমরা সম্পূর্ণ ভিন্ন প্রাণীতে পরিণত হব, আজ আমাদের সাথে মিল রয়েছে, সম্ভবত, কেবল স্মৃতি এবং অভিজ্ঞতা।
      1. -1
        মার্চ 13 2023
        এবং কৃত্রিম (বা বিকল্প) জীবন - অর্থাৎ। কারণ অনিবার্যভাবে একটি প্রতিযোগী হয়ে উঠবে। অন্তত সম্পদের জন্য।
  13. 0
    মার্চ 12 2023
    আমি ইউলিয়ান সেমিওনভের ভক্ত নই, তবে এখানে, আমার মতে, তিনি একজন নবী হিসাবে অভিনয় করেছিলেন।

    "এই বোকারা তাদের নিজস্ব প্রযুক্তির দ্বারা ধ্বংস হবে, তারা মনে করে যে একা বোমা বর্ষণ করে যুদ্ধ জয় করা যায়। তারা তাদের প্রযুক্তিগত শক্তি তৈরি করবে এবং এতে ডুবে যাবে। এটি তাদের মরিচার মত পচে যাবে। তারা সিদ্ধান্ত নেবে যে সবকিছু সম্ভব। তাদের।"

    https://vk.com/video158587225_456239021
  14. 0
    মার্চ 12 2023
    বৃহৎ ডেটা অ্যারেগুলির সাথে কাজ করা গাণিতিক অ্যালগরিদমগুলি কীভাবে মানুষের বিচার পরিচালনা করবেন?

    কোনভাবেই না. হ্যাঁ, এটি প্রয়োজনীয় নয়। কিলার রোবট ভালো হবে কারণ তাদের এক ফোঁটা করুণাও থাকবে না। হত্যা করা মানে হত্যা করা। বা বরং, "হত্যা" নয়, তবে এই জাতীয় নোডগুলিতে ভোল্টেজ প্রয়োগ করা যা সেখানে কিছুর জন্য দায়ী তবে কীসের জন্য - এটি নিয়ন্ত্রণ প্রোগ্রামের বিষয় নয়। এবং এই নোড শুটিং জন্য দায়ী, hehehehe.
    আমি নিশ্চিত যে কোনো সেনাবাহিনীর অংশ হিসেবে খুনি রোবটদের (যারা স্বাধীনভাবে হত্যার বিষয়ে সিদ্ধান্ত নেয়) উপস্থিতি অবিলম্বে তাদের উপর অত্যন্ত হতাশাজনক প্রভাব ফেলবে যাদের বিরুদ্ধে তারা ব্যবহার করা হবে।
  15. সৌভাগ্যবশত আমাদের সকলের জন্য, কোন কমপ্যাক্ট, শক্তিশালী শক্তির উৎস নেই। এবং সর্বনিম্ন রোবট হল একটি মিনি-ট্যাঙ্ক বা একটি ছোট ইউএভি যার দুই ঘন্টার ফ্লাইট। এটা ভিন্ন হত, এবং AGS সহ কুকুর রোবটগুলি ইতিমধ্যে পরিখার মধ্য দিয়ে চলছিল এবং "টার্মিনেটর" থেকে "শিকারী" কয়েকদিন ধরে বাতাসে ঝুলে থাকত। এবং সবাই মানবতাবাদের প্রদীপ প্রজ্জ্বলন করতেন। তদুপরি, ইলেকট্রনিক্স এবং হাঁটা রোবটের অগ্রগতি দ্বারা বিচার করলে, এগুলি হবে UWB, এমনকি ইয়াও নৈতিকভাবে তাদের শহরগুলিতে নিক্ষেপ করা থেকে বিরত রাখে না।
    1. 0
      মার্চ 25 2023
      ঠিক আছে, টেসলা, উদাহরণস্বরূপ, ছোট নয়, দ্বিতীয় বিশ্বযুদ্ধে, ফার্ডিনান্ডসের ট্যাঙ্ক ডেস্ট্রয়ারে মাউস ট্যাঙ্কের মতো জেনারেটর দ্বারা চালিত বৈদ্যুতিক মোটর ছিল, মাইনিং ডাম্প ট্রাকগুলি সবই এরকম, বৈদ্যুতিক মোটরগুলিতে এখনও সাবমেরিন রয়েছে যা পারমাণবিক জেনারেটর দ্বারা চালিত, পারমাণবিক আইসব্রেকার এবং গণনা এমনকি পারমাণবিক বিমানবাহী বাহক বৈদ্যুতিক ট্র্যাকশনে রয়েছে
  16. 0
    মার্চ 13 2023
    বাস্তব AI শুধুমাত্র কোয়ান্টাম অ্যালগরিদম তৈরি করা যেতে পারে, এবং এটি উল্লেখযোগ্যভাবে বিকাশকারীদের সংখ্যাকে সংকুচিত করে, যা নীতিগতভাবে একটি কনভেনশনের উপসংহারে সংক্ষিপ্ত করা যেতে পারে। যে কোনো স্বয়ংক্রিয় হত্যা ব্যবস্থার জন্য, তারা বুদ্ধিমত্তার মতো বিপজ্জনক নয় যতটা বিপজ্জনক বুদ্ধিমত্তা তার ক্ষমতায় মানুষকে ছাড়িয়ে যায়, এটি কেবল অস্ত্র প্রতিযোগিতার একটি নতুন রাউন্ড হবে।
    1. আজেবাজে কথা, AI বিদ্যমান হার্ডওয়্যারে তৈরি করা সহজ। আধুনিক কম্পিউটিং সিস্টেম সব দিক দিয়ে মানুষের মস্তিষ্ককে ছাড়িয়ে গেছে। AI তৈরির আনুমানিক সময় এটি তৈরির মুহূর্ত থেকে 10 বছর। শর্ত থাকে যে সৃষ্টির নির্বাচিত পথ সঠিক হবে।
  17. 0
    মার্চ 14 2023
    কিছু কারণে, আমাদের রোবটগুলির বিকাশের জন্য একটি ভুল পথ রয়েছে। আমি বুঝতে পারছি না কেন তারা servos এ তৈরি করে। একটি শক্তি-নিবিড় সমাধান। আমাদের ন্যানোটিউবের উপর ভিত্তি করে কৃত্রিম পেশী দেখতে হবে। মানুষের জন্য সম্পূর্ণরূপে কাজ করা কৃত্রিম অঙ্গ তৈরি করার একটি বিকল্প রয়েছে।
  18. কিন্তু AI তৈরি হবে আমাদের পছন্দ হোক বা না হোক। এবং পিছিয়ে না থাকার জন্য, আপনাকে এই সমস্যাটি মোকাবেলা করতে হবে।
  19. AI তৈরির মাত্র দুটি উপায় আছে, একটির শেষ পরিণতি হতে পারে। AI এর সৃষ্টি মানবজাতির ইতিহাসে সবচেয়ে বড় ঘটনা হবে এবং ধর্মের ক্ষেত্রেও এর একটি নির্দিষ্ট প্রভাব থাকবে।
  20. ATA
    0
    3 2023 জুন
    একটি ভাল নিবন্ধ, কেউ এও যোগ করতে পারে যে AI এর আইনী এবং বেআইনি মানবিক এবং অমানবিক ব্যবহারের মামলাগুলি তাদের কথিত অসাধু, কিন্তু প্রকৃতপক্ষে জঘন্য, অমানবিক এবং দুর্নীতিগ্রস্ত আদালত বা আন্তর্জাতিক আদালত, যেখানে সংখ্যাগরিষ্ঠ কলা থেকে তৈরি করা হবে তাদের দ্বারা সিদ্ধান্ত নেওয়া হবে। সিআইএ-এর বেতনের উপর রাজারা, এবং তারা তাদের আমেরিকান প্রভুর কথা মতো ভোট দেবেন।

    এবং একটি ত্রুটি তৈরি হয়েছে:

    এই মুহুর্তে, যন্ত্রের দৃষ্টি, চিত্র উপলব্ধির পর্যাপ্ততার পরিপ্রেক্ষিতে, মানুষের চোখ এবং মস্তিষ্কের সাথে তুলনা করা যায় না। তিনি ক্লান্ত না হলে, কিন্তু এটি অপারেটর একটি সময়মত পরিবর্তন দ্বারা সমাধান করা হয়.


    এটি সত্য, তবে বিপরীত অর্থে, প্রশিক্ষিত কৃত্রিম দৃষ্টি মানুষের চোখের চেয়ে অনেক বেশি উচ্চতর এবং সেই অনুযায়ী, চিত্রগুলি সনাক্ত করার মানুষের ক্ষমতা, যার মধ্যে এমন উপাদান রয়েছে যা একজন ব্যক্তি দীর্ঘ সময়ের জন্য ফটোগ্রাফি অধ্যয়ন করেও খুঁজে পায় না।

    এবং সবচেয়ে গুরুত্বপূর্ণভাবে, সবচেয়ে গুরুত্বপূর্ণ এবং প্রয়োজনীয় উপসংহারটি শোনা যায়নি: যুদ্ধ বুদ্ধিমত্তা সহ কৃত্রিম বুদ্ধিমত্তা, যত তাড়াতাড়ি সম্ভব বিকাশ করা উচিত - এটি একটি অগ্রাধিকার, এবং Elon Musk এর সাথে Microsoft, Greta Tumberg এবং Directive 3000.09-এ থুতু।

"রাইট সেক্টর" (রাশিয়ায় নিষিদ্ধ), "ইউক্রেনীয় বিদ্রোহী সেনাবাহিনী" (ইউপিএ) (রাশিয়ায় নিষিদ্ধ), ISIS (রাশিয়ায় নিষিদ্ধ), "জাভাত ফাতাহ আল-শাম" পূর্বে "জাভাত আল-নুসরা" (রাশিয়ায় নিষিদ্ধ) , তালেবান (রাশিয়ায় নিষিদ্ধ), আল-কায়েদা (রাশিয়ায় নিষিদ্ধ), দুর্নীতিবিরোধী ফাউন্ডেশন (রাশিয়ায় নিষিদ্ধ), নাভালনি সদর দফতর (রাশিয়ায় নিষিদ্ধ), ফেসবুক (রাশিয়ায় নিষিদ্ধ), ইনস্টাগ্রাম (রাশিয়ায় নিষিদ্ধ), মেটা (রাশিয়ায় নিষিদ্ধ), মিসানথ্রোপিক ডিভিশন (রাশিয়ায় নিষিদ্ধ), আজভ (রাশিয়ায় নিষিদ্ধ), মুসলিম ব্রাদারহুড (রাশিয়ায় নিষিদ্ধ), আউম শিনরিকিও (রাশিয়ায় নিষিদ্ধ), AUE (রাশিয়ায় নিষিদ্ধ), UNA-UNSO (নিষিদ্ধ) রাশিয়া), ক্রিমিয়ান তাতার জনগণের মেজলিস (রাশিয়ায় নিষিদ্ধ), লিজিওন "রাশিয়ার স্বাধীনতা" (সশস্ত্র গঠন, রাশিয়ান ফেডারেশনে সন্ত্রাসী হিসাবে স্বীকৃত এবং নিষিদ্ধ)

"অলাভজনক সংস্থা, অনিবন্ধিত পাবলিক অ্যাসোসিয়েশন বা বিদেশী এজেন্টের কার্য সম্পাদনকারী ব্যক্তিরা," পাশাপাশি মিডিয়া আউটলেটগুলি একটি বিদেশী এজেন্টের কার্য সম্পাদন করে: "মেডুসা"; "ভয়েস অফ আমেরিকা"; "বাস্তবতা"; "বর্তমান সময়"; "রেডিও ফ্রিডম"; পোনোমারেভ; সাভিটস্কায়া; মার্কেলভ; কমল্যাগিন; আপখোনচিচ; মাকারেভিচ; দুদ; গর্ডন; Zhdanov; মেদভেদেভ; ফেডোরভ; "পেঁচা"; "ডাক্তারদের জোট"; "RKK" "লেভাদা সেন্টার"; "স্মারক"; "কণ্ঠস্বর"; "ব্যক্তি এবং আইন"; "বৃষ্টি"; "মিডিয়াজোন"; "ডয়চে ভেলে"; QMS "ককেশীয় গিঁট"; "অভ্যন্তরীণ"; "নতুন সংবাদপত্র"