Нова верзија за убиството на научникот: Митралез што го препознава ликот во кој нишани е закана за човештвото, не само за Иран

Нападот врз иранскиот научник бил извршен машински прецизно, без учество на луѓе – од вкупно 13 куршуми истрелани од митралезот, четири го погодиле Фахризадех во главата, а ниеден не ја погодил неговата сопруга, иако била на само 25 сантиметри од него.

Смртоносната последица на ова е дека машините, а не луѓето, ќе решаваат кој ќе умре, а кој ќе преживее – предупредуваат австралиските експерти за вештачка интелигенција.

Армиите тврдат дека машините со вештачка интелигенција реагираат побрзо на заканите и имаат поголем капацитет да ги пресметаат последиците од разните типови на интервенција, по што ја избираат најефикасната, без притоа да се загрозат човечки животи.

Уште во 2015 година група влијателни научници, на чело со професорот Стивен Хокинг и Илон Маск потпишаа отворено писмо во кое од Обединетите нации побараа итно да се забрани користењето вештачка интелигенција за воени потреби, за да се спречи уништување на човештвото како од филмовите „Терминатор“.

Иако се прифаќа со одредена доза на резерва, новиот извештај за атентатот на водечкиот ирански научник потврдува колку реални и навремени биле предупредувањата. Користењето машини со вештачка интелигенција, контролирани од голема далечина се огромна закана за целото човештво, не само за иранската нуклеарна програма.

Иранската Револуционерна гарда ги потврди првичните наоди од истрагата за убиството на водечкиот нуклеарен научник – Мохсен Фахризадех бил убиен со митралез со вградена вештачка интелигенција, кој бил дополнително контролиран со сателитска врска.

Атентатот врз Фахризадех беше извршен на 27 ноември, кога неговото блиндирано возило во која биле и неговата сопруга и двајца телохранители било нападнато од засега на автопат кај местото Абсард близу Техеран.

Првичните извештаи од иранската новинска агенција биле дека возилото било запрено со бомба поставена на патот, а потоа во престрелка биле убиени „тројца или четворица терористи“, а нивното возило експлодирало.

 

Машински прецизно

 

Но, бригадниот генерал Али Фадави од Револуционерната гарда завчера потврди дека врз научникот бил отворен оган од митралез поставен во камионет на далечина од стотина метри од целта и дека во возилото немало луѓе. Говорејќи на церемонија во Техеран, генералот изјави дека митралезот во „нисанот“ бил опремен со „интелигентен сателитски систем што го следел маченикот Фахризадех“. Митралезот користел „вештачка интелигенција“, со која го препознал ликот на научникот и нишанел во неговата глава. Поради тоа, нападот бил извршен прецизно – од вкупно 13 куршуми истрелани од митралезот, четири го погодиле Фахризадех во главата, а ниеден не ја погодил неговата сопруга, иако била на само 25 сантиметри од него.

Фото: EPA-EFE/IRIB HANDOUT HANDOUT EDITORIAL USE ONLY/NO SALES

Проекти за оружје со вградена вештачка интелигенција, кое без директна контрола од луѓе има капацитет на бојното поле самото да избира „легитимни цели за елиминирање“, уште одамна имаат САД, Русија, Обединетото Кралство, Кина, и Јужна Кореја, како и Израел, кој веќе со години користи роботи наместо луѓе во одредени антитерористички операции и за деминирање сомнителни предмети. Армиите тврдат дека машините со вештачка интелигенција реагираат побрзо на заканите и имаат поголем капацитет да ги пресметаат последиците од разните типови на интервенција, по што ја избираат најефикасната, без притоа да се загрозат човечки животи. Тие, исто така, истакнуваат дека машините може да нишанат попрецизно отколку војниците, при што се избегнуваат несакани жртви.

 

Апели од Маск и Хокинг

 

Но, користењето автономни оружја не само што не е дозволено со меѓународните закони, туку може да предизвика катастрофални последици. Членките на Обединетите нации неодамна се согласија дека е „неприфатливо и на етичка и на законска основа“ на машините да им се остави да дејствуваат во воени услови без каква било контрола од луѓе. Осумдесет земји се потписнички на Конвенцијата за конвенционални оружја, која предвидува луѓето да имаат „барем некаква контрола“ врз користењето сила, а триесетина земји се за строга забрана за користење автономни машини-убијци.

– Машините не може да бидат програмирани за да ја проценат вредноста на човековиот живот – предупредува Питер Асаро, философ на наука и технологија.

Уште во 2015 година група влијателни научници, на чело со професорот Стивен Хокинг и Илон Маск потпишаа отворено писмо во кое од Обединетите нации побараа итно да се забрани користењето вештачка интелигенција за воени потреби, за да се спречи уништување на човештвото како од филмовите „Терминатор“. Маск на Твитер изрази стравување дека глобалната трка за „попаметни“ и поубиствени роботи-војници лесно може да предизвика трета светска војна.

– Освен ако не научиме како да се подготвиме за потенцијалните ризици и како да ги избегнеме, вештачката интелигенција може да биде најлошиот пронајдок во историјата на нашата цивилизација. Таа носи опасности, како моќни оружја што автономно ги избираат целите, но и како нови можности за неколкумина да вршат репресија врз многумина – предупреди професорот Хокинг.

Фото: EPA/FACUNDO ARRIZABALAGA

 

Суд по ултракратка постапка

 

На овој повик се придружија уште стотици експерти што работат на развој на вештачка интелигенција.

– Како што знаете, спектакуларен е напредокот при конструирањето машини што може да спроведуваат интелигентни задачи. Еволуцијата на класичната вештачка интелигенција, забрзана од зајакнатиот капацитет машините самите да учат и да се надградуваат, ги зголеми амбициите на експертската заедница да гради машини што ќе можат самите да спроведуваат комплексни операции, со или без надгледување и интервенирање од луѓе – наведуваат канадските експерти во отворено писмо до премиерот Џастин Трудо.

Во писмото се наведува дека вештачката интелигенција има потенцијал да му помогне на општеството во разни области, пред се во медицината и транспортот, но ако истата технологија се вгради во оружје, последиците може да бидат ужасни.

Австралиските експерти за вештачка интелигенција, пак, предупредија дека користењето на оваа технологија во воени цели сигурно ќе предизвика судири пожестоки од кога било досега.

– Смртоносната последица на ова е дека машините, а не луѓето, ќе решаваат кој ќе умре, а кој ќе преживее – предупредуваат австралиските експерти за вештачка интелигенција.

Исто како во случајот на иранскиот научник Фахризадех и неговата сопруга.

Фото: EPA-EFE/IRANIAN DEFENCE MINISTRY HANDOUT HANDOUT EDITORIAL USE ONLY/NO SALES

Почитуван читателу,

Нашиот пристап до веб содржините е бесплатен, затоа што веруваме во еднаквост при информирањето, без оглед дали некој може да плати или не. Затоа, за да продолжиме со нашата работа, бараме поддршка од нашата заедница на читатели со финансиско поддржување на Слободен печат. Станете член на Слободен печат за да ги помогнете капацитетите кои ќе ни овозможат долгорочна и квалитетна испорака на информации и ЗАЕДНО да обезбедиме слободен и независен глас кој ќе биде СЕКОГАШ НА СТРАНАТА НА НАРОДОТ.

ПОДДРЖЕТЕ ГО СЛОБОДЕН ПЕЧАТ.
СО ПОЧЕТНА СУМА ОД 60 ДЕНАРИ

Видео на денот