https://frosthead.com

Може ли изкуственият интелект да помогне за спиране на училищните стрелби?

При цялата си зашеметяваща честота училищните стрелби остават смущаващ ужас.

Не само има малък консенсус за това как да ги спрат - с предложения, вариращи от ограничаване на достъпа на пистолет до въоръжаване на учители - но има още по-малка сигурност защо ученикът ще открие огън по своите съученици.

Сега някои учени започват да изследват дали изкуственият интелект (AI) може да помогне да се намерят отговори. Идеята е, че алгоритмите могат да могат да анализират по-добре данните, свързани с училищните стрелби, и може би дори да идентифицират модели в езика или поведението на учениците, които могат да предвещават насилието в училище. Изследването все още е в начален стадий и перспективата за използване на машини, за да се предскаже кой може да стане училищен стрелец, повдига проблеми с поверителността и други етични въпроси, свързани с всякакъв вид профилиране, особено тъй като процесът ще включва деца. Целта обаче е да се разбере дали аналитичната сила на интелигентните машини може да даде по-голяма яснота на трагедиите, които често се консумират във вихъра на силни емоции и политическа реторика.

Като се обърнем към технологията

Използването на изкуствения интелект като начин да се доведе научният анализ до нещо толкова непостижимо като училищните стрелби много се хареса на Шрея Налапати. Току-що е завършила гимназия в Колорадо, но още през февруари, след смъртта на стрелбата на 17 ученици в Паркленд, Флорида, тя е вдъхновена от студентския лидер Ема Гонсалес да предприеме действия.

„Чувствах, че не трябва просто да публикуваме своите мисли и съболезнования“, казва Налапати. „Мислех, че като подрастващо поколение хилядолетия трябва да се опитаме да използваме това, което знаем най-добре - технологията.“

Така Налапати, която изучава изкуствен интелект в гимназията, се свърза с други млади жени, които познава, чрез програма, наречена Аспирации в компютърните технологии, управлявана от Националния център за жени и информационни технологии. Стремежът към изчислителната техника насърчава младите жени да влязат в областта на компютърните и технологичните области.

Налапати помоли другите от групата да се присъединят към нея в нов проект, #NeverAgainTech. Тя се надява, че усилията за сътрудничество ще доведат до компилиране и анализ на широк спектър от данни, свързани с училищните стрелби - от демографска и социално-икономическа информация за минали стрелци, до всяка история на употреба на наркотици или неврологични разстройства, до наличие на оръжия в щатите, където са настъпили атаки. Целта е да се разработи по-цялостна разбивка на много компоненти на училищните стрелби от всичко, което съществува в момента, и да предоставим получения софтуер на разположение на обществеността, особено училищата и правоприлагащите органи, през следващата година.

Оценка на риска

Екип изследователи от Медицински център за детска болница в Синсинати предприемат различен подход при използването на AI за справяне с насилието в училище. То публикува скорошно проучване, според което машинното обучение потенциално би могло да помогне на терапевти и съветници при установяване на нивото на риск, който студентът може да представи.

По-конкретно, учените откриха, че AI е толкова точен, колкото екип от детски и юношески психиатри, когато става въпрос за оценка на риска от насилствено поведение, въз основа на интервюта със 119 деца на възраст между 12 и 18 години. Докато проучването се фокусира широко върху физическото агресия, водещият изследовател Дрю Барзман казва, че е приложим и за оценка на риска от стрелба в училище.

"Обикновено има предупредителни знаци преди насилието в училище", казва той. По-специално езикът, който студентът използва по време на интервю, може да помогне да се разграничи високорисков тийнейджър от нискорисков, според предишни изследвания, насочени от Барзман. Това проучване заключава, че по-вероятно е първият да изразява негативни чувства към себе си и по отношение на постъпките на другите. Той също така беше по-вероятно да говори за насилствени действия, свързани с него, и за насилствени видеоигри или филми.

Екипът направи още една стъпка, като AI алгоритъм използва резултатите от по-ранното проучване, за да анализира стенограми на студенти, интервюирани за новото изследване. Въз основа на езиковите модели се посочва дали човек е с висок или нисък риск от извършване на насилие. Повече от 91 процента от времето алгоритъмът, използвайки само транскриптите, се приведе в съответствие с по-обширните оценки на екип от детски и юношески психиатри, който също имаше достъп до информация от родители и училища.

Студентите в изследването до голяма степен са били наети от психиатрични амбулатории, стационари и спешни отделения. Наскоро някои проявиха големи промени в поведението, но за други промените бяха по-незначителни. Барзман казва, че са посещавали разнообразни училища, въпреки че никоя не е била у дома.

Според Барзман, проучването се фокусира върху прогнозиране на физическата агресия в училище, но все още не се знае дали машинното обучение всъщност може да предотврати насилието. Фокусът в този момент е да се предостави на терапевти и съветници инструмент, който може да изостри оценките на студентите въз основа на интервюта. Целта, отбелязва Барзман, не е машините да вземат решения за учениците.

„По принцип би било предназначено да се помогне на клинициста в неговото или нейното вземане на решение“, казва Барзман. „Бихме им предоставили структура на това, което сме намерили за важни въпроси. Може да е трудно да интервюирате студент, да изберете правилната информация и да запомните всичко. Идеята е да им дадем инструмент, който може да им помогне чрез процеса и увеличаване на точността на техните оценки. "

Мати Скварзони е друг вярващ в потенциала на изкуствения интелект за справяне с насилието в училище. Той е главен изпълнителен директор на калифорнийски стартъп, наречен Sitch AI, който планира да пуска на пазара технологии, които според него могат да помогнат на училищата да се справят с подобни заплахи. Първоначалният фокус ще бъде върху разработването на система от сензори, която ще позволи на полицейските служители да открият точното местоположение на пушките и също да проследят движенията на стрелец през училище. Но Squarzoni казва, че компанията също така търси начини да използва прогнозен анализ, за ​​да открие потенциални проблеми, преди те да се превърнат в насилие.

Той вярва, че изкуственият интелект може да анализира данните на ученика и да отбележи значителни промени в неговото изпълнение или поведение. Squarzoni признава потенциалните опасения относно неприкосновеността на личния живот, но казва, че компанията не би знаела самоличността на студентите.

„Не говорим за създаване на профили“, казва той. „Бихме гледали на всеки човек като на уникално цяло. Но хората са създания по навик. Когато започнат да имат нередности, тогава започвате да ги гледате. Отбелязвате знамена и може би знамената започват да се приближават и приближават. Те могат да бъдат проблеми с психичното здраве или може би оценките им намаляват.

„Не гледаме да можем да кажем:„ Този човек ще бъде стрелец. “ Искаме да можем да кажем: „Този ​​човек се нуждае от помощ“.

Не толкова бързо?

Други обаче имат сериозни опасения относно бързането да използват софтуерни алгоритми за решаване на сложни обществени проблеми.

„Сега наблюдаваме тенденция AI да се прилага към много чувствителни домейни с тревожна скорост и хората, които правят тези алгоритми, не разбират непременно всички социални и дори политически аспекти на данните, които използват“, казва Рашида Ричардсън, директор на политическите изследвания в AI Now Institute, програма в Нюйоркския университет, която изучава социалните последици от изкуствения интелект.

Една област, в която използването на AI попадна под обстрел, е това, което е известно като предвидителна полиция. Това са софтуерни продукти, които анализират статистиката на престъпленията и след това прогнозират къде е по-вероятно да бъдат извършени престъпления. Критиците обаче изтъкват, че данните като арести могат да бъдат резултат от човешки пристрастия, които в крайна сметка могат да бъдат включени в алгоритъма.

Това винаги е риск от прогнозен анализ и защо източникът на данните е ключов фактор за определяне на това колко обективна може да бъде тя в действителност. С помощта на инструмента AI, разработен от изследователите на детската болница в Синсинати, анализът се основава на това, което отделните студенти казват по време на интервю, а не на широка компилация от статистически данни.

Все пак Ричардсън смята, че е важно екипите, които създават този вид софтуер, да бъдат „интердисциплинарни“, така че преподавателите, например, да участват в програми, които оценяват поведението на учениците.

„Изследователите може да не разберат много от нюансите на това, което хората в света на образованието и правната политика наричат ​​училищен климат. Това включва проблеми с безопасността и поведението “, казва тя. „Видът на училището, в който сте, често диктува как се държи поведението и как се борави с дисциплината.

„Например, в чартърните училища има много по-строги дисциплинарни политики“, добавя Ричардсън. „Децата в тази среда ще бъдат третирани много по-различно, отколкото в частно училище от висок клас и дори в различни училища.

„Опитът да се разберат много сложни проблеми, които имат безброй принос и прилагането на технологично решение, което отразява част от него, е проблем, защото може или да повтори същите проблеми, които виждаме в обществото, или да създаде решение за проблем, който го няма. "

Ричардсън казва, че още едно притеснение е, че дори ако една програма за ИИ е разработена с най-добри намерения, тя може да се използва по начини, които не са предвидени от нейните създатели.

„След като излезете с тези инструменти“, казва тя, „не е като да продължите да имате контрол върху това как се прилагат или как ще продължат да влияят на обществото като цяло“.

Може ли изкуственият интелект да помогне за спиране на училищните стрелби?