https://frosthead.com

Могат ли роботите-убийци да се научат да следват правилата на войната?

Както денят на паметта ни напомня всяка година, войната не отминава.

Но това се променя. И една от по-дълбоките промени, които ще видим през следващите години, е във военна, все по-зависима от роботи. Дроните получават най-много внимание сега, но все повече иновации на Министерството на отбраната са други видове безпилотни машини, от експериментални самолети до сухопътни войници.

Лесно е да разбереш привличането. Използването на роботи е потенциално по-ефикасно, по-прецизно и по-евтино от разчитането само на хора във военни действия. И това, разбира се, би означавало и по-малко човешки жертви.

Но тази трансформация носи със себе си сложно предизвикателство: Може ли военните машини да бъдат програмирани да вземат решения? Което води до по-лек въпрос: Могат ли роботите да се научат на морал?

Американската служба за военноморски изследвания смята, че сега е моментът да разберем. По-рано този месец тя обяви петгодишна безвъзмездна помощ от 7, 5 милиона долара за финансиране на научни изследвания в университетите „Туфтс, Браун, Йейл и Джорджтаун“ и Политехническия институт Rensselaer (RPI) относно това дали машините могат един ден да изберат правилно от грешно.

Военноморските сили искат да избегнат ситуацията, в която автомобилът на Google без шофьори е изправен: разполага с технология, която е пусната далеч преди всяка яснота по правните и етични въпроси, които поставя. Преди автономните роботи да излязат на полето, военните искат да знаят дали всъщност могат да се научат да правят правилните неща.

Както вижда Selmer Bringsjord, ръководител на отдела за когнитивни науки на RPI, изкуственият интелект на робота може да бъде проектиран да функционира на две нива на морал. Първият ще се основава на контролен списък с ясен етичен избор, например „ако попаднете на ранен войник, трябва да му помогнете.“ Но какво ще стане, ако това действие противоречи на основната му мисия, като доставяне на боеприпаси, критично необходими на други войници? В този момент, казва Брингсорд, роботът ще трябва да има способността да участва в „по-дълбоки морални разсъждения“, за да взема решения в ситуации, които програмистите му не биха могли да предвидят.

Изследователите ще трябва да разработят уникални алгоритми и изчислителни механизми, които биха могли да бъдат интегрирани в съществуващата архитектура на автономни роботи, „мислещ процес“, който би позволил на машина да преодолее планираното поведение въз основа на способността си да прилага морални разсъждения.

Ако това ви се струва изключително амбициозно, добре, че е така. Като начало, изследователите ще трябва да изолират основните елементи на човешкия морал - по какви принципи сме съгласни всички? - и след това да измислят как да ги включат в алгоритми, които биха дали на роботите някакво ниво на морална компетентност.

Това не е малко начинание. Поради тази причина е вероятно машините, които не са контролирани от хората, в обозримо бъдеще да бъдат ограничени до не-бойни роли, като наблюдение, сигурност, търсене и спасяване или медицинска помощ. Но неминуемо военните планиращи ще искат отговор на въпроса, който виси над всичко това: Трябва ли на роботите, действащи сами, някога да бъде позволено да убиват човек?

Ако една машина е 90 процента сигурна, че всеки в превозно средство, в което възнамерява да стреля, е терорист, достатъчно ли е това? Дали робот би могъл да стреля с оръжие по дете, ако определи, че това е врагът? Ако нещо се обърка и автономен робот погрешно взриви село, кой е отговорен? Командирът, който е наредил операцията? Човекът, който е програмирал робота? Или никой?

Ако смятате, че това все още е научната фантастика, помислете, че по-рано този месец експерти по теми, вариращи от изкуствен интелект до правата на човека до международното право, натоварени с „роботи-убийци“ по време на конференцията на ООН в Женева. Групи като Human Rights Watch и служители на няколко държави, включително Пакистан, Египет, Куба и Ватикана, призоваха за пълна забрана на роботи с правомощия да убиват. Но повечето страни, особено тези с най-модерните роботи, не са готови да стигнат толкова далеч.

Погледнете например WildCat, който е разработен четирикрак робот, който да работи с висока скорост по всички видове терени.

Засега американските военни следват директива на Министерството на отбраната от 2012 г., че никоя машина със сила да убива не може да бъде напълно автономна. Човек трябва буквално да извиква снимките. Но това може да не е вярно за всички места: През март New Scientist цитира руски служител, който казва, че часовете на роботи в пет инсталации за балистични ракети ще могат да откриват и унищожават цели, без човек да даде преднина.

Талонът Foster-Miller, видян отдолу, е една от многото машини по целия свят, разработвани за бой.

Правилата на войната

Доклад за конференцията за роботите-убийци ще бъде представен на Комитета за определени военни оръжия на ООН през ноември. Но не изглежда, че забраната идва скоро.

Сред тези, които се присъединиха към дискусията в Женева, беше Роналд Аркин, експерт по изкуствен интелект от Джорджия Тех, който отдавна е привърженик на даването на възможности на машините да вземат морални решения. Той вярва, че ако роботите могат да се научат да следват международното право, те в действителност биха могли да се държат по-етично, отколкото хората по време на война, тъй като биха били непостоянно последователни. Те няма да могат да отговорят с гняв, с паника или предразсъдъци. Така Аркин се противопоставя на забраната, въпреки че е отворен за мораториум върху автономните оръжия, докато машините не получат шанс да видят дали могат да овладеят правилата на войната.

Друг учен от ИИ, Ноел Шарки, който обсъжда Аркин в Женева, е с съвсем различен ум. Той не смята, че на роботите никога не бива да се дава право да взимат решения за живота или смъртта.

Наскоро той каза на Defense One : „Не мисля, че някога ще свършат с морален или етичен робот. За това трябва да имаме морална агенция. За това трябва да разберем другите и да знаем какво означава да страдаме. "

„Може да бъде инсталиран робот с някои правила на етиката, но всъщност няма да му пука“, казва той.

Могат ли роботите-убийци да се научат да следват правилата на войната?