https://frosthead.com

Какво се случва, когато изкуственият интелект се обърне към нас?

Изкуственият интелект измина дълъг път от R2-D2. В наши дни повечето хилядолетия ще бъдат загубени без интелигентни GPS системи. Роботите вече навигират бойните полета и дроновете скоро могат да доставят пакети на Amazon до нашите прагове.

Siri може да разреши сложни уравнения и да ви каже как да готвите ориз. Дори е доказала, че дори може да отговори на въпроси с чувство за хумор.

Но всички тези аванси зависят от потребителя, който дава насока на AI. Какво ще се случи, ако GPS устройствата решат, че не искат да ходят на химическо чистене, или по-лошо, Сири реши, че може да стане по-умна без теб наоколо?

Нашето заключение: Изкуствен интелект и краят на човешката ера. "> Нашето заключение: Изкуствен интелект и краят на човешката ера. ">" Преди да споделим планетата със супер интелигентни машини, трябва да развием наука за разбирането им. В противен случай те ще поемат контрола ", казва авторът Джеймс Барат за новата си книга" Нашето окончателно изобретение: Изкуствен интелект и края на човешката ера " (любезното съдействие на Джеймс Барат)

Това са само най-тъмните резултати от Джеймс Барат, автор и режисьор на документални филми, прогнози в новата си книга „ Нашето окончателно изобретение: Изкуствен интелект и края на човешката ера“ .

Не след дълго, казва Барат, изкуственият интелект - от Сири до дронове и системи за извличане на данни - ще спре да търси хората за подобрения и ще започне сам да търси подобрения. И за разлика от R2-D2s и HALs на научната фантастика, AI на нашето бъдеще няма непременно да бъде приятелски настроен, казва той: всъщност те биха могли да бъдат това, което ни унищожава.

С две думи, можете ли да обясните голямата си идея?

През този век учените ще създадат машини с интелигентност, която се равнява и след това надминава нашата собствена. Но преди да споделим планетата със супер интелигентни машини, трябва да развием наука за разбирането им. В противен случай те ще поемат контрола. И не, това не е научна фантастика.

Учените вече са създали машини, които са по-добри от хората на шах, опасност!, навигация, извличане на данни, търсене, доказване на теореми и безброй други задачи. В крайна сметка ще бъдат създадени машини, които са по-добри от хората при изследванията на AI

В този момент те ще могат да подобрят собствените си възможности много бързо. Тези самоусъвършенстващи се машини ще преследват целите, с които са създадени, независимо дали са за изследване на космоса, за игра на шах или за събиране на запаси. За да успеят, те ще търсят и изразходват ресурси, било то енергия или пари. Те ще се стремят да избегнат режимите на отказ, като изключване или изключване от мрежата. Накратко, те ще разработят дискове, включително самозащита и придобиване на ресурси - дискове, подобни на нашите. Те няма да се колебаят да просят, заемат, крадат и по-лошо, за да получат това, от което се нуждаят.

Как се заинтересувахте от тази тема?

Аз съм режисьор на документални филми. През 2000 г. интервюирах изобретателя Рей Курцвайл, роботизатора Родни Брукс и легендата за научнофантастичната история Артър К. Кларк за TLC филм за създаването на романа и филма, 2001: Космическа одисея. Интервютата изследваха идеята за Hal 9000 и злонамерени компютри. Книгите на Курцвайл изобразяват бъдещето на AI като завладяваща „сингулярност“, период, в който технологичният напредък надминава способността на хората да ги разбират. И все пак той предвиждаше само добри неща, произтичащи от ИИ, които са достатъчно силни, за да съвпадат и след това да надминат човешката интелигентност. Той прогнозира, че ще успеем да препрограмираме клетките на нашите тела, за да победят болести и стареене. Ще развием супер издръжливост с наноботи, които доставят повече кислород от червените кръвни клетки. Ще презаредим мозъка си с компютърни импланти, така че да станем суперинтелигентни. И ние ще приставим мозъка си на по-траен носител от сегашния ни „мокър софтуер“ и ще живеем завинаги, ако искаме. Брукс беше оптимист, настоявайки, че подобрените с AI роботи ще бъдат съюзници, а не заплахи.

От друга страна, авторът Кларк, беше песимист. Каза ми, че разузнаването ще спечели и хората вероятно ще се състезават за оцеляване със супер интелигентни машини. Той не беше конкретен за това какво ще се случи, когато споделяме планетата със супер интелигентни машини, но смяташе, че би било борба за човечеството, която няма да спечелим.

Това беше в противоречие с всичко, което мислех за AI, затова започнах да интервюирам експерти по изкуствен интелект.

Какви доказателства трябва да подкрепите вашата идея?

Усъвършенстваният изкуствен интелект е технология с двойна употреба, подобно на ядрения делене, която може да нанесе много добри или големи вреди. Тепърва започваме да виждаме вредата.

Скандалът за поверителност на NSA възникна, защото NSA разработи много сложни инструменти за извличане на данни. Агенцията използва силата си, за да прехвърли метаданните от милиони телефонни разговори и цялата интернет - критично, всички имейли. Съблазнена от силата на AI за извличане на данни, агенция, натоварена да защитава Конституцията, вместо това злоупотребява. Те разработиха твърде мощни инструменти, за да могат да ги използват отговорно.

Днес се развива друга етична битка за създаването на напълно автономни дронове-убийци и бойни полета, работещи от напреднали ИИ - човешки убийци без хора в цикъла. Това се прави между Министерството на отбраната и производителите на дронове и роботи, които са платени от DOD, и хора, които смятат, че е глупаво и неморално да създават интелигентни машини за убиване. Привържениците на автономните дронове и роботи на бойното поле твърдят, че те ще бъдат по-морални - тоест, по-малко емоционални, ще се насочват по-добре и ще бъдат по-дисциплинирани от човешките оператори. Тези, които са против извеждането на хора от примката, разглеждат окаяната история на дронове с убийството на цивилни и участието в извънзаконни убийства. Кой поема моралната вина, когато робот убива? Производителите на роботи, потребителите на роботи или никой? Не забравяйте за техническите препятствия на това да кажете на приятел от враг.

В дългосрочен план, както твърдят експертите в моята книга , AI, който се приближава до разузнаването на човешко ниво, няма да бъде лесно контролиран; за съжаление, супер интелигентността не предполага доброжелателност. Както теоретикът на AI Елиезер Юдковски от MIRI [Института за машинно разузнаване] казва: „AI не те обича, нито те мрази, но ти си направен от атоми, може да използва за нещо друго.“ Ако етиката не може да бъдем вградени в машина, тогава ще създаваме супер интелигентни психопати, създания без морални компаси и дълго няма да бъдем техните господари.

Какво е новото във вашето мислене?

Хората и групите, толкова разнообразни, колкото американският компютърен учен Бил Джой и MIRI, отдавна предупреждават, че имаме много да се страхуваме от машини, чийто интелект затъмнява нашия. В нашето окончателно изобретение твърдя, че AI също ще бъде злоупотребяван по пътя на развитието към разузнаването на човешко ниво. Между днешния ден и деня, когато учените създават разузнаване на човешко ниво, ще имаме грешки, свързани с ИИ, и криминални приложения.

Защо не е направено повече или какво се прави, за да спре AI да се обърне към нас?

Няма една причина, но много. Някои експерти не вярват, че сме достатъчно близки, за да създадем изкуствен интелект на човешко ниво и извън него, за да се притесняваме за рисковете му. Много производители на ИИ печелят договори с Агенцията за напреднали научни проекти в областта на отбраната [DARPA] и не искат да повдигат въпроси, които считат за политически. Нормалното пристрастие е когнитивна пристрастност, която не позволява на хората да реагират на бедствия и бедствия в процеса на създаване - това определено е част от него. Но много производители на ИИ правят нещо. Вижте учените, които съветват MIRI. И много повече ще се включат, след като опасностите от напредналия ИИ влязат в основния диалог.

Можете ли да опишете момент, в който знаехте, че това е голямо?

Ние хората направляваме бъдещето не защото сме най-бързите или най-силните същества на планетата, а защото сме най-умните. Когато споделим планетата с по-умни същества от себе си, те ще направляват бъдещето. Когато разбрах тази идея, почувствах, че пиша по най-важния въпрос на нашето време.

Всеки голям мислител има предшественици, чиято работа е била решаваща за неговото откритие. Кой ти даде основата да изградиш идеята си?

Основите на анализа на риска от ИИ са разработени от математика IJ Good, писателя на научна фантастика Вернор Винге и други, включително разработчика на AI Стив Омохундро. Днес MIRI и Институтът за бъдеще на човечеството в Оксфорд са почти сами в решаването на този проблем. Нашето заключение съдържа около 30 страници крайни бележки, признаващи тези мислители.

В проучването и разработването на вашата идея, какво беше най-важното? А ниската точка?

Най-важните точки бяха написаното Нашето заключение и постоянният ми диалог с производителите и теоретиците на ИИ. Хората, които програмират AI, са наясно с проблемите на безопасността и искат да помогнат да измислят предпазни мерки. Например MIRI работи по създаването на „приятелски“ AI

Компютърният учен и теоретик Стив Омохундро се застъпи за „скеле“ подход, при който доказано безопасен AI помага да се изгради следващото поколение AI, за да се гарантира, че и той е безопасен. Тогава този ИИ прави същото и т.н. Мисля, че трябва да се създаде публично-частно партньорство, за да се обединят производителите на ИИ, за да споделят идеи за сигурност - нещо като Международната агенция за атомна енергия, но в партньорство с корпорациите. Ниските точки? Осъзнавайки, че за създаването на оръжия ще се използва най-добрата, най-напреднала AI технология. И тези оръжия в крайна сметка ще се обърнат срещу нас.

Какви двама или трима души най-вероятно се опитват да опровергаят вашия аргумент? Защо?

Изобретателят Рей Курцвайл е главният апологет на модерните технологии. В моите две интервюта с него той твърдеше, че ние ще се смесим с AI технологиите чрез познавателни подобрения. Курцвайл и хората, наричани широко трансхуманисти и сингулярни хора, смятат, че ИИ и в крайна сметка изкуственият общ интелект и извън него ще се развива с нас. Например компютърните импланти ще повишат скоростта на мозъка и общите ни възможности. В крайна сметка ще разработим технологията за транспортиране на нашата интелигентност и съзнание в компютрите. Тогава супер интелигентността ще бъде поне отчасти човешка, което на теория би гарантирало, че супер-интелигентността е „безопасна“.

По много причини не съм фен на тази гледна точка. Проблемът е, че ние хората не сме надеждно безопасни и изглежда малко вероятно, че и супер-интелигентните хора ще бъдат. Нямаме представа какво се случва с етиката на човека, след като интелигентността им се засили. Имаме биологична основа за агресия, която липсва на машините. Супер интелигентността много добре може да бъде умножител на агресията.

Кой ще бъде най-засегнат от тази идея?

Всички на планетата имат много да се страхуват от нерегламентираното развитие на супер интелигентни машини. В момента продължава надпревара за разузнаване. Постигането на AGI е работа номер едно за Google, IBM и много по-малки компании като Vicarious и Deep Thought, както и за DARPA, NSA и правителства и компании в чужбина. Печалбата е основната мотивация за това състезание. Представете си една вероятна цел: виртуален човешки мозък на цената на компютър. Това би била най-доходоносната стока в историята. Представете си банки от хиляди мозъци на докторска степен, които работят 24 часа в денонощието по фармацевтично развитие, изследвания за рак, разработване на оръжие и много други. Кой не би искал да купува тази технология?

Междувременно 56 държави развиват роботи с бойни полета, а стремежът е да ги направят и дронове да бъдат автономни. Те ще бъдат машини, които убиват, без надзор от хората. Бедните нации ще бъдат наранени най-много от автономни дронове и бойно поле. Първоначално само богатите страни ще могат да си позволят автономни ботове за убиване, така че богатите нации ще притежават тези оръжия срещу човешки войници от обеднели нации.

Как може да промени живота, както го познаваме?

Представете си: само за десетилетие половин дузина компании и нации ползват компютри, които съперничат или надминават човешкия интелект. Представете си какво се случва, когато тези компютри станат експертни в програмирането на интелигентни компютри. Скоро ще споделяме планетата с машини хиляди или милиони пъти по-интелигентни от нас. И през цялото време всяко поколение на тази технология ще бъде въоръжено. Нерегулиран, ще бъде катастрофално.

Какви въпроси остават без отговор?

Solutions. Очевидното решение би било да се даде на машините морален смисъл, който ги кара да ценят човешкия живот и собственост. Но програмирането на етика в машина се оказва изключително трудно. Моралните норми се различават от културата до културата, те се променят с течение на времето и са контекстуални. Ако ние, хората, не можем да се съгласим кога започва животът, как да кажем на машина, която да защитава живота? Наистина ли искаме да бъдем в безопасност или наистина искаме да бъдем свободни ? Можем да обсъждаме по цял ден и да не постигаме консенсус, така че как е възможно да го програмираме?

Ние също, както споменах по-рано, трябва да съберем AI разработчици заедно. През 70-те години рекомбинантните ДНК изследователи решават да преустановят изследванията и да се съберат за конференция в Asilomar в Pacific Grove, Калифорния. Те разработиха основни протоколи за безопасност като „не проследявайте ДНК на обувките си“, от страх да не замърсите околната среда с генетични работи. Поради „Асиломарските насоки“ светът се възползва от генетично модифицираните култури, а генната терапия изглежда обещаваща. Доколкото знаем, инциденти са били избягвани. Време е за Asilomar Conference за AI

Какво стои на пътя?

Огромен икономически вятър задвижва развитието на усъвършенстван интелект на човешко ниво AI на цената на компютър ще бъде най-горещата стока в историята. Google и IBM няма да искат да споделят своите тайни с обществеността или конкурентите. Министерството на отбраната няма да иска да отваря лабораториите си в Китай и Израел и обратно. Обществената осведоменост трябва да тласка политиката към откритост и публично-частните партньорства, предназначени да гарантират безопасност.

Какво следва за вас?

Аз съм режисьор на документални филми, така че, разбира се, мисля за филмова версия на Нашето заключение .

Какво се случва, когато изкуственият интелект се обърне към нас?