https://frosthead.com

Могат ли машините да научат морала?

Когато Джон Бренан, изборът на президента Обама за следващ ръководител на ЦРУ, се появи вчера пред комисия на Сената, един въпрос измести всички останали на изслушването му за потвърждение:

Как се вземат решенията за изпращане на убийствени дронове след заподозрени терористи?

Как и, по този въпрос, защо да поръчате конкретни удари с дрон остава до голяма степен загадка, но поне едно е ясно - решенията се взимат от хора, които, може би се надяваме, се борят с мисълта за изпращане на смъртоносна ракета в заета сграда.

Но какво ще стане, ако хората не са участвали? Какво става, ако един ден решенията за живот или смърт са оставени на машини, оборудвани с множество данни, но също така и чувство за правилно и грешно?

Морална труда

Това не е толкова далеч. Това няма да се случи скоро, но няма съмнение, че тъй като машините стават по-интелигентни и по-автономни, основна част от тяхната трансформация ще бъде способността да се научи на морала.

Всъщност това може да не е толкова далеч. Гари Маркъс, писащ наскоро в „Ню Йоркър“, представи сценария на един от автомобилите без водачи на Google, преди да бъде принуден да вземе решение за секунда секунда: „Колата ви се движи по мост с 50 мили в час, когато заблуден училищен автобус превозва 40 невинни деца пресича пътя му. Трябва ли колата ви да се преобърне, евентуално да рискува живота на собственика си (вие), за да спаси децата или да продължи да излага всички 40 деца на риск? Ако решението трябва да бъде взето за милисекунди, компютърът ще трябва да извърши повикване. "

А какво става с роботизираните оръжия или войници? Дали един дрон би могъл да се научи да не стреля по къща, ако знаеше, че невинни цивилни също са вътре? Могат ли машините да бъдат научени да следват международните правила за война?

Роналд Аркин, професор по компютърни науки и експерт по роботика в Georgia Tech, със сигурност смята така. Той разработва софтуер, наричан „етичен управител“, който ще направи машините способни да решават кога е подходящо да стреля и кога не е така.

Аркин признава, че това все още може да бъде на десетилетия, но вярва, че роботите някой ден могат да бъдат както физически, така и етично по-добри от човешките войници, не уязвими от емоционалната травма на битката или желанията за отмъщение. Той не предвижда изцяло роботска армия, но такава, в която машините служат с хора, извършвайки високорискови задачи, пълни със стресиращи решения, като например изчистване на сгради.

Пазете се от роботи убийци

Но други смятат, че е време да се мачкаме с този тип мислене, преди да стигне твърде далеч. В края на миналата година, Human Rights Watch и Harvard Law School Clinic Human Rights Clinic издадоха доклад „Загуба на човечеството: Делото срещу роботи убийци“, който, верно на своето заглавие, призовава правителствата да забранят всички автономни оръжия, защото „ще увеличат риск от смърт или нараняване на цивилни по време на въоръжен конфликт. "

Приблизително по същото време група преподаватели от университета в Кеймбридж обявиха планове за стартиране на това, което наричат ​​Център за изследване на екзистенциалния риск. Когато се отвори по-късно тази година, тя ще настоява за сериозни научни изследвания какво може да се случи, ако и когато машините станат по-умни от нас.

Опасността, казва Хю Прайс, един от съоснователите на Центъра, е, че един ден бихме могли да се справим с „машини, които не са злонамерени, но с машини, чиито интереси не ни включват“.

Изкуството на измамата

Shades of Skynet, измамната система за изкуствен интелект, породила киборг Арнолд Шварценегер във филмите The Terminator . Може би това винаги ще бъде нещата от научната фантастика.

Но помислете за други изследвания, които сега Роналд Аркин прави като част от проекти, финансирани от Министерството на отбраната. Той и колегите му изучават как животните се лъжат един друг, с цел да научат роботите на изкуството на измамата.

Например, те са работили върху програмиране на роботи, така че те да могат, ако е необходимо, да представят сила, както често правят животните. И те са гледали на учебни машини, за да имитират поведението на същества като източната сива катеричка. Катериците крият ядките си от други животни, а когато се появят други катерици или хищници, сивите катерици понякога ще посещават места, където са криели ядки, за да изхвърлят конкурентите си от пистата. Роботите, програмирани да следват подобна стратегия, успяха да объркат и забавят конкурентите.

Според Аркин всичко е в интерес на разработването на машини, които няма да бъдат заплаха за хората, а по-скоро предимство, особено в грозния хаос на войната. Ключът е да започнете да се фокусирате сега върху определянето на насоки за подходящо поведение на робота.

"Когато започнете да отваряте кутията на Пандора, какво трябва да се направи с тази нова способност?", Каза той в скорошно интервю. „Вярвам, че има потенциал жертвите, които не са бойни, да бъдат намалени от тези интелигентни роботи, но ние трябва да бъдем много внимателни как се използват, а не просто да ги пускат на бойното поле без подходяща загриженост.“

За да повярвате на нюйоркския писател Гари Маркъс, етично напредналите машини предлагат голям потенциал извън полето на битката.

Мисълта, която ме преследва най-много, е, че самата човешка етика е само незавършена работа. Все още се сблъскваме със ситуации, за които нямаме добре разработени кодове (напр. В случай на асистирано самоубийство) и не е необходимо да поглеждаме далеч в миналото, за да открием случаи, в които собствените ни кодове са били съмнителни или по-лоши (например закони, които разрешено робство и сегрегация).

Това, което наистина искаме, са машини, които могат да стигнат крачка напред, надарени не само с най-здравите етични кодекси, които нашите най-добри съвременни философи могат да измислят, но и с възможността машините да постигнат собствен морален напредък, като ги преодолеят пред нашите собствени ограничени рано - Двадесет и първи век идея за морала. "

Машините тръгват напред

Ето по-нови разработки на роботи:

  • Хммм, етичен и подъл: Изследователите в Австралия са разработили робот, който може да се промъкне наоколо, като се движи само когато има достатъчно фонов шум, за да прикрие звука му.
  • Какъв е този бръмчащ звук?: Британските войници в Афганистан започнаха да използват дронове за наблюдение, които могат да се поберат в дланите на ръцете. Наречен Black Hornet Nano, малкият робот е дълъг само четири инча, но има шпионска камера и може да лети за 30 минути при пълно зареждане.
  • Одраскване на повърхността: НАСА разработва робот, наречен RASSOR, който тежи само 100 килограма, но ще може да добива минерали на Луната и други планети. Той може да се движи по неравен терен и дори над болтове, като се опира на ръцете си.
  • А, похот: И ето една ранна история за Свети Валентин. Учени от Токиоския университет използваха мъжки молец, за да управлява робот. Всъщност те използвали нейните движения за чифтосване, за да насочат устройството към обект, ухан с феромони от женски молец.

Видео бонус: Значи просто не сте сигурни, че бихте могли да управлявате 13-метров висок робот? Няма проблем. Ето изящна демонстрация, която ви показва колко лесно може да бъде. Един щастлив модел ви показва как да управлявате функцията „Smile Shot“. Усмихваш се, той стреля по BB-та. Колко трудно е това?

Още от Smithsonian.com

Този робот е по-добър татко, отколкото баща ти

Роботите получават човешкото докосване

Могат ли машините да научат морала?