https://frosthead.com

Ще бъде ли AI някога по-умен от четиригодишен?

Всички са чували за новите постижения на изкуствения интелект и по-специално машинното обучение. Чували сте също утопични или апокалиптични прогнози за това какво означават тези аванси. Те са предприети да предвещават или безсмъртие, или края на света, и много са написани за двете възможности. Но най-сложните ИИ все още са далеч от възможността да решават проблеми, които човешките четиригодишни деца изпълняват с лекота. Въпреки впечатляващото име, изкуственият интелект до голяма степен се състои от техники за откриване на статистически модели в големи масиви от данни. За човешкото обучение има много повече.

Как е възможно да знаем толкова много за света около нас? Научаваме огромна сума, дори когато сме малки деца; четиригодишните деца вече знаят за растенията и животните и машините; желания, вярвания и емоции; дори динозаври и космически кораби.

Науката разшири нашите знания за света до невъобразимо големи и безкрайно малки, до края на Вселената и началото на времето. И ние използваме тези знания, за да правим нови класификации и прогнози, да си представяме нови възможности и да правим нови неща в света. Но всичко, което достига до всеки от нас от света, е поток от фотони, удрящи ретините и смущения на въздуха в тъпанчетата ни. Как да научим толкова много за света, когато доказателствата, които имаме, са толкова ограничени? И как да направим всичко това с малкото килограми сиво козе, което седи зад очите ни?

Най-добрият отговор досега е, че мозъците ни извършват изчисления върху конкретните, объркани данни, пристигащи на нашите сетива, и тези изчисления дават точни представи за света. Представленията изглеждат структурирани, абстрактни и йерархични; те включват възприемането на триизмерни обекти, граматиките, които са в основата на езика, и умствените способности като „теория на ума“, което ни позволява да разберем какво мислят другите. Тези представи ни позволяват да направим широк спектър от нови прогнози и да си представим много нови възможности по отчетливо творчески човешки начин.

Този вид обучение не е единственият вид интелигентност, но е особено важен за хората. И този вид интелигентност е специалност на малките деца. Въпреки че децата са драстично лоши в планирането и вземането на решения, те са най-добрите учащи се във Вселената. Голяма част от процеса на превръщане на данните в теории се случва преди да навършим пет години.

От Аристотел и Платон съществуват два основни начина за справяне с проблема за това как знаем какво знаем и те все още са основните подходи в машинното обучение. Аристотел подходи към проблема отдолу нагоре: Започнете със сетива - потокът от фотони и въздушни вибрации (или пикселите или звуковите образци на цифрово изображение или запис) и вижте дали можете да извлечете модели от тях. Този подход е пренесен по-нататък от такива класически асоциационисти като философи Дейвид Хюм и Дж. С. Мил, а по-късно и от поведенчески психолози, като Павлов и Б. Ф. Скинър. На този възглед абстрактността и йерархичната структура на представянията е нещо като илюзия или поне епифеномен. Цялата работа може да се извърши чрез свързване и откриване на образи - особено ако има достатъчно данни.

Preview thumbnail for video 'Possible Minds: 25 Ways of Looking at AI

Възможни умове: 25 начина на гледане на AI

Световната светила на науката Джон Брокман събира двадесет и пет от най-важните научни умове, хора, които през по-голямата част от кариерата си мислят за полевия изкуствен интелект, за несравним изследване на кръгла маса за ума, мисленето, интелигентността и какво означава това бъди човек.

Купува

С течение на времето се наблюдава напрежение между този подход отдолу нагоре към мистерията на ученето и алтернативната схема на Платон, отгоре надолу. Може би получаваме абстрактни знания от конкретни данни, защото вече знаем много и най-вече защото вече имаме масив от основни абстрактни понятия, благодарение на еволюцията. Подобно на учените, можем да използваме тези понятия за формулиране на хипотези за света. Тогава, вместо да се опитваме да извлечем модели от суровите данни, можем да направим прогнози за това как трябва да изглеждат данните, ако тези хипотези са правилни. Наред с Платон, този „рационалистичен” философи и психолози като Декарт и Ноам Чомски са възприели този подход.

Ето един ежедневен пример, който илюстрира разликата между двата метода: решаване на спамната чума. Данните се състоят от дълъг, несортиран списък с съобщения във вашата пощенска кутия. Реалността е, че някои от тези съобщения са истински, а някои са спам. Как можете да използвате данните, за да правите разлика между тях?

Първо помислете за техниката отдолу нагоре. Забелязвате, че спам съобщенията обикновено имат особености: дълъг списък на адресати, произход от Нигерия, препратки към награди за милиони долари или виагра. Проблемът е, че съвършено полезните съобщения също могат да имат тези функции. Ако разгледате достатъчно примери за спам и неспам писма, може да видите не само, че спам имейлите са склонни да имат тези функции, но и че функциите са склонни да вървят заедно по конкретни начини (Нигерия плюс милион долара заклинават проблеми). В действителност може да има някои фини корелации от по-високо ниво, които разграничават спам съобщенията от полезните - определен модел на неправилно изписване и IP адреси, да речем. Ако откриете тези модели, можете да филтрирате спама.

Техниките за машинно обучение отдолу нагоре правят точно това. Учещият получава милиони примери, всеки с някакъв набор от функции и всеки етикетиран като спам (или някаква друга категория) или не. Компютърът може да извлече модела от функции, който отличава двете, дори ако е доста фин.

Какво ще кажете за подхода отгоре надолу? Получавам имейл от редактора на Journal of Clinical Biology . Той се отнася до един от моите документи и казва, че те биха искали да публикуват статия от мен. Няма Нигерия, няма Виагра, няма милиони долари; имейлът няма нито една от характеристиките на спама. Но използвайки това, което вече знам, и мисля по абстрактно за процеса, който произвежда спам, мога да разбера, че този имейл е подозрителен:

1. Знам, че спамерите се опитват да извличат пари от хората, като апелират към човешката алчност.

2. Знам също, че законните списания с „отворен достъп“ започнаха да покриват разходите си, като таксират автори вместо абонати и че аз не практикувам нещо като клинична биология.

Сложете всичко това заедно и мога да създам нова добра хипотеза за това откъде идва този имейл. Той е предназначен да смуче академиците да плащат за „публикуване“ на статия във фалшив журнал. Имейлът беше резултат от същия съмнителен процес като останалите спам имейли, въпреки че не приличаше на тях. Мога да направя това заключение само от един пример и мога да продължа да тествам хипотезата си по-нататък, извън всичко в самия имейл, чрез гугъл върху „редактора“.

В компютърно отношение започнах с „генеративен модел“, който включва абстрактни понятия като алчност и измама и описва процеса, който поражда измами с имейл. Това ми позволява да разпозная класическия нигерийски имейл спам, но също така ми позволява да си представя много различни видове възможен спам. Когато получа имейла на списанието, мога да работя назад: "Това изглежда като вид на пощата, която ще излезе от процеса на генериране на спам."

Новото вълнение за AI идва, защото изследователите на AI наскоро създадоха мощни и ефективни версии и на двата метода на обучение. Но няма нищо дълбоко ново в самите методи.

Дълбоко учене отдолу нагоре

През 80-те години компютърните учени измислиха гениален начин да накарат компютрите да открият модели в данните: коннекционистка или невронна мрежа, архитектура („нервната“ част беше и все още е метафорична). Подходът изпадна в ужас през 90-те години на миналия век, но наскоро беше съживен с мощни методи за „дълбоко обучение“ като DeepMind на Google.

Например, можете да дадете на програма за задълбочено обучение куп интернет изображения с етикет „котка“, други с етикет „къща“ и т.н. Програмата може да открие моделите, разграничаващи двата набора изображения и да използва тази информация, за да маркира правилно новите изображения. Някои видове машинно обучение, наречени неподдържано обучение, могат да открият модели в данните без никакви етикети; те просто търсят групи от функции - това, което учените наричат ​​фактор анализ. В машините за дълбоко обучение тези процеси се повтарят на различни нива. Някои програми могат дори да открият подходящи функции от суровите данни на пиксели или звуци; компютърът може да започне с откриване на шаблоните в необработеното изображение, които съответстват на ръбовете и линиите и след това да намери моделите в онези модели, които съответстват на лица и т.н.

Друга техника отдолу нагоре с дълга история е укрепването на обучението. През 50-те години Б. Ф. Скинър, надграждайки работата на Джон Уотсън, отлично е програмирал гълъбите да изпълняват сложни действия - дори насочващи ракети, изстреляни с въздух, към техните цели (смущаващо ехо от скорошния AI), като им дава определен график за награди и наказания, Съществената идея беше, че действията, които бяха възнаградени, ще бъдат повторени, а тези, които бяха наказани, няма, докато се постигне желаното поведение. Дори в деня на Скинър този прост процес, повтарящ се отново и отново, може да доведе до сложно поведение. Компютрите са проектирани да извършват прости операции отново и отново в мащаб, който джудже човешкото въображение, а изчислителните системи могат да научат забележително сложни умения по този начин.

Например, изследователите от DeepMind на Google използваха комбинация от обучение за задълбочено обучение и засилване, за да научат компютър да играе Atari видео игри. Компютърът не знаеше нищо за това как работят игрите. Той започна с действие на случаен принцип и получи информация само за това как изглежда екранът във всеки момент и колко добре е вкарал. Дълбокото обучение помогна за интерпретирането на функциите на екрана и засилването на обучението възнагради системата за по-високи резултати. Компютърът стана много добър в игра на няколко от игрите, но също така напълно бомбардираше други, които бяха толкова лесни за овладяване на хората.

Подобна комбинация от задълбочено учене и укрепване на обучението даде възможност за успеха на AlphaZero на DeepMind, програма, която успя да победи човешки играчи както в шах, така и в Go, оборудвана само с основни познания за правилата на играта и някои възможности за планиране. AlphaZero има още една интересна функция: Тя работи, като играе стотици милиони игри срещу себе си. По този начин той подрязва грешки, довели до загуби, и повтаря и разработва стратегии, водещи до победи. Такива системи и други, включващи техники, наречени генеративни състезателни мрежи, генерират данни, както и наблюдават данни.

Когато имате изчислителната сила да прилагате тези техники към много големи масиви данни или милиони имейл съобщения, Instagram изображения или записи на глас, можете да решите проблеми, които преди изглеждаха много трудни. Това е източникът на голяма част от вълненията в компютърните науки. Но си струва да си спомним, че тези проблеми - като признаването, че изображението е котка или изговорена дума е Сири - са тривиални за човешкото дете. Едно от най-интересните открития на компютърните науки е, че проблемите, които са лесни за нас (като идентифициране на котки), са трудни за компютрите - много по-трудни от играта на шах или Go. Компютрите се нуждаят от милиони примери, за да категоризират обекти, които можем да категоризираме само с няколко. Тези системи отдолу нагоре могат да се обобщят до нови примери; те могат да етикетират ново изображение като котка доста точно над всички. Но те го правят по много различни начини от това как хората обобщават. Някои изображения, почти идентични с изображение на котка, изобщо няма да бъдат идентифицирани от нас като котки. Други, които изглеждат като случайно замъгляване, ще бъдат.

Байески модели отгоре надолу

Подходът отгоре надолу играе голяма роля в началото на ИИ и през 2000-те също преживява възраждане под формата на вероятностни или байесовски генеративни модели.

Първите опити за използване на този подход се сблъскаха с два вида проблеми. Първо, повечето модели на доказателства по принцип могат да бъдат обяснени с много различни хипотези: Възможно е съобщението ми по електронната поща да е истинско, просто не изглежда вероятно. Второ, откъде произлизат понятията, които генеративните модели използват? Платон и Чомски казаха, че сте родени с тях. Но как да обясним как научаваме най-новите концепции на науката? Или как дори малките деца разбират за динозаврите и ракетните кораби?

Байесовите модели съчетават генеративни модели и тестване на хипотези с теория на вероятностите и те адресират тези два проблема. Байесовски модел ви позволява да изчислите колко е вероятно дадена конкретна хипотеза да се вземе предвид данните. И като правим малки, но систематични настройки на моделите, които вече имаме, и ги тестваме спрямо данните, понякога можем да правим нови концепции и модели от стари. Но тези предимства се компенсират от други проблеми. Байесовските техники могат да ви помогнат да изберете коя от две хипотези е по-вероятна, но почти винаги има огромен брой възможни хипотези и никоя система не може да ги разгледа ефективно всички. Как решавате кои хипотези си струва да се тестват на първо място?

Брендън Лейк в Ню Йорк и неговите колеги са използвали тези видове методи отгоре надолу, за да решат друг проблем, лесен за хората, но изключително труден за компютрите: разпознаване на непознати ръкописни знаци. Погледнете герой от японски свитък. Дори ако никога не сте го виждали досега, вероятно можете да разберете дали е подобен или различен от този на друг японски свитък. Вероятно можете да го нарисувате и дори да проектирате фалшив японски символ въз основа на този, който виждате - такъв, който ще изглежда доста различно от корейски или руски характер.

Методът отдолу нагоре за разпознаване на ръкописни знаци е да се даде на компютъра хиляди примери от всеки от тях и да се остави да извади важните функции. Вместо това, Lake et al. даде на програмата общ модел за това как да нарисувате символ: Инсулт преминава или надясно, или наляво; след като завършите едно, започвате друго; и така нататък. Когато програмата видя конкретен характер, тя можеше да заключи последователността от удари, които най-вероятно са довели до нея - точно както заключих, че спам процесът води до съмнителния ми имейл. Тогава можеше да прецени дали нов герой вероятно ще е резултат от тази последователност или от различна и може сам да произведе подобен набор от щрихи. Програмата работи много по-добре от програма за задълбочено обучение, приложена към абсолютно същите данни, и тя отразява отблизо представянето на хората.

Тези два подхода към машинното обучение имат допълнителни силни и слаби страни. При подходът отдолу нагоре програмата не се нуждае от много знания за начало, но се нуждае от голямо количество данни и може да се обобщи само ограничено. При подхода отгоре надолу програмата може да се поучи от само няколко примера и да направи много по-широки и разнообразни обобщения, но за да започнете да вграждате много повече. Понастоящем редица изследователи се опитват да комбинират двата подхода, използвайки задълбочено обучение за прилагане на байесовски извод.

Скорошният успех на AI е отчасти резултат от разширяването на тези стари идеи. Но това има повече общо с факта, че благодарение на Интернет имаме много повече данни и благодарение на закона на Мур имаме много повече изчислителна сила да приложим към тези данни. Нещо повече, неоценен факт е, че данните, които имаме, вече са сортирани и обработени от хора. Снимките на котките, публикувани в мрежата, са канонични снимки на котки - снимки, които хората вече са избрали като „добри“ снимки. Google Translate работи, защото се възползва от милиони човешки преводи и ги обобщава до нов текст, вместо да разбира истински самите изречения.

Но наистина забележителното нещо при човешките деца е, че те някак си комбинират най-добрите характеристики на всеки подход и след това преминават далеч отвъд тях. През последните петнадесет години разработчиците проучват начина, по който децата учат структура от данни. Четиригодишните могат да се учат, като вземат само един или два примера на данни, както прави системата отгоре надолу и обобщават много различни понятия. Но те също могат да научат нови концепции и модели от самите данни, както прави системата отдолу нагоре.

Например, в нашата лаборатория даваме на малки деца „детектор на мигачи“ - нова машина, която трябва да разберем, такава, каквато никога досега не са виждали. Това е кутия, която светва и възпроизвежда музика, когато поставяте определени предмети, но не и други. Даваме на децата само един или два примера за това как работи машината, показвайки им, че, да речем, два червени блока го правят, докато зелено-жълтата комбинация не. Дори осемнадесетмесечни деца веднага разбират общия принцип, че двата обекта трябва да са еднакви, за да го направят, и обобщават този принцип на нови примери: Например, те ще изберат два обекта, които имат еднаква форма да направят работата на машината. В други експерименти показахме, че децата дори могат да разберат, че някакво скрито невидимо свойство кара машината да върви или машината работи на някакъв абстрактно логически принцип.

Можете да покажете това и в ежедневното учене на децата. Малките деца бързо научават абстрактни интуитивни теории на биологията, физиката и психологията по същия начин, както правят възрастните учени, дори и при сравнително малко данни.

Забележителните постижения на машинното обучение на последните AI системи, както отдолу нагоре, така и отгоре надолу, се провеждат в тясно и добре дефинирано пространство от хипотези и концепции - точен набор от игрални фигури и движения, предварително определен набор от изображения, За разлика от това, децата и учените понякога променят концепциите си по радикални начини, извършвайки промени в парадигмите, а не просто да настройват концепциите, които вече имат.

Четиригодишните могат веднага да разпознаят котките и да разберат думи, но също така могат да направят творчески и изненадващи нови изводи, които надхвърлят опита им. Наскоро моят внук обясни например, че ако възрастен иска отново да стане дете, той трябва да опита да не яде никакви здравословни зеленчуци, тъй като здравите зеленчуци карат детето да прерасне във възрастен. Този вид хипотеза, правдоподобна, която никой пораснал никога не би забавлявал, е характерен за малките деца. Всъщност моите колеги и аз показахме систематично, че децата в предучилищна възраст са по-добре да излязат с малко вероятни хипотези от по-големите деца и възрастни. Почти нямаме идея как са възможни този вид творческо обучение и иновации.

Обаче, какво правят децата, може да даде на програмистите полезни съвети относно указанията за компютърно обучение. Две особености на обучението на децата са особено поразителни. Децата са активни учащи се; те не просто пасивно усвояват данни, както правят AI. Точно както учените експериментират, децата са присъщо мотивирани да извличат информация от заобикалящия ги свят чрез безкрайната си игра и изследване. Последните проучвания показват, че това проучване е по-систематично, отколкото изглежда, и е добре приспособено да намери убедителни доказателства в подкрепа на формирането на хипотези и избора на теория. Изграждането на любопитство към машините и позволяването им да взаимодействат активно със света може да бъде път към по-реалистично и широкообхватно обучение.

Второ, децата, за разлика от съществуващите ИИ, са социални и културни учащи. Хората не учат изолирано, но се възползват от натрупаната мъдрост на миналите поколения. Последните проучвания показват, че дори предучилищните учат чрез имитация и чрез слушане на показанията на другите. Но те не се подчиняват пасивно на своите учители. Вместо това те поемат информация от другите по забележително фин и чувствителен начин, правят сложни изводи за това откъде идва информацията и колко е достоверна и систематично интегрират собствения си опит с това, което чуват.

"Изкуствен интелект" и "машинно обучение" звучат страшно. И по някакъв начин са. Тези системи се използват например за контрол на оръжия и наистина трябва да се плашим от това. И все пак естествената глупост може да доведе до много по-голяма поразия от изкуствения интелект; ние, хората, ще трябва да бъдем много по-умни, отколкото сме били в миналото, за да регулираме правилно новите технологии. Но няма много основа нито за апокалиптичното, нито за утопичното виждане на ИИ, заместващи хората. Докато не разрешим основния парадокс на ученето, най-добрите изкуствени интелекти няма да могат да се състезават със средностатистическия четиригодишен човек.

От предстоящата колекция ВЪЗМОЖНИ МИНДИ: 25 начина на гледане на AI, редактиран от Джон Брокман. Публикувана по договаряне с Penguin Press, член на Penguin Random House LLC. Copyright © 2019 Джон Брокман.

Ще бъде ли AI някога по-умен от четиригодишен?