?

Log in

No account? Create an account

Previous Entry | Next Entry

Крис Баранюк
корреспондент Би-би-си по вопросам технологий

Алгоритм тестировался в течение трех лет

Алгоритм тестировался в течение трех лет

Полиция города Дарема на севере Англии запускает компьютерную программу, которая при помощи алгоритма искусственного интеллекта должна помочь полицейским определить, кого следует содержать под стражей, а кого можно отпустить.
Алгоритм классифицирует задержанных по степени риска — с какой вероятностью они могут вновь совершить преступление.



Полицейским в Англии будет помогать искусственный интеллект

Программа — Harm Assessment Risk Tool (Hart) — "изучала" данные полиции Дарема об арестах за период в пять лет, между 2008 и 2012 годами.
Затем система была протестирована даремской полицией в 2013 году, после чего в течение двух лет изучались результаты этого тестирования — полицейские отслеживали, вернулись ли освобожденные к преступной жизни или нет.
Как выяснилось, алгоритм мог предсказать, что задержанный не представляет опасности в 98% случаев. А находящихся в группе "высокого риска" компьютер правильно выявлял в 88% случаев.
Это отражает настройки алгоритма искусственного интеллекта — он запрограммирован "осторожничать" и классифицировать задержанных людей чаще в группы среднего или высокого риска — чтобы не выпускать на свободу тех, кто может снова совершить преступление.

Полицейским в Англии будет помогать искусственный интеллект

В ходе испытаний программы полицейские следили за выводами Hart, но вердикт алгоритма не влиял на принятие решения об аресте, говорит Шина Эрвин из даремской полиции.
"Я думаю, что в течение ближайших двух или трех месяцев мы, скорее всего, предоставим эту программу в качестве подспорья полицейским, принимающим решения", — сказала она в интервью Би-би-си.
Шина Эрвин говорит, что подозреваемые, ранее не совершавшие преступлений, с меньшей вероятностью будут записаны алгоритмом искусственного интеллекта в категорию высокого риска. Однако если они арестованы по подозрению в серьезном преступлении, как, например, убийство, то это отразится на оценке программы.
В разработке этой программы принимал участие профессор Лоуренс Шерман из Кембриджского университета.

Полицейским в Англии будет помогать искусственный интеллект

По его словам, программа может быть хорошим помощником во многих случаях: когда полиции следует решить, держать ли задержанного еще несколько часов; следует ли отпустить его под залог до того, как ему будут предъявлены официальные обвинения, и стоит ли держать его под арестом после предъявления обвинений.
В ходе нового эксперимента полицейские будут использовать систему при рассмотрении лишь ряда дел, выбранных случайным путем.

Вопрос о дискриминации

В 2016 году американский новостной сайт ProPublica опубликовал результаты исследования алгоритма, который использовала полиция для того, чтобы определить шансы рецидивизма среди арестованных.
Исследование показало, что в алгоритм заложена расовая необъективность: программа давала гораздо более негативные прогнозы в отношении чернокожих арестантов по сравнению с белыми задержанными. Компания, создавшая этот алгоритм, отрицает выводы ProPublica.

Алгоритмы создают люди, и они могут заразить компьютер своими предубеждениями

Алгоритмы создают люди, и они могут заразить компьютер своими предубеждениями

"В каком-то смысле компьютерные модели наглядно демонстрируют скрытые и подсознательные допущения, к которым прибегают люди", — говорит профессор Пенсильванского университета Кэри Кольянезе, который изучает процессы принятия решений при помощи алгоритмов.
"Довольно сложно определить, насколько именно эти компьютерные модели склонны к дискриминации", — говорит он.
Даремская система учитывает не только информацию о прошлых преступлениях подозреваемого, но также его почтовый индекс и пол.

Рекомендательный характер

В ответ на запрос парламентской комиссии, рассматривавшей возможные проблемы процесса принятия решений на основе выводов алгоритмов, создатели даремской системы заявляют, что они уверены в том, что им удалось ограничить возможность дискриминационного подхода к арестованным.
"Информация о почтовом индексе никак напрямую не отражается на результате — окончательное решение зависит от того, как эта информация увязывается с тысячами других возможных факторов", — говорят они.
Они также подчеркивают, что любой вывод алгоритма носит лишь рекомендательный характер и ни в коем случае не отбирает у полиции прерогативу принимать окончательное решение о судьбе задержанного.
Профессор Шерман также говорит, что этот алгоритм должен сохранять все данные о том, как программа пришла к определенному выводу.

Программа Hart имеет доступ лишь к данным даремской полиции

Программа Hart имеет доступ лишь к данным даремской полиции

По словам Шины Эрван, возможности этой программы ограничены.
Например, на данный момент система оперирует лишь данными даремской полиции, и у нее нет доступа к общенациональным компьютерным системам британских правоохранительных органов.
Это означает, что если полиция Дарема арестует человека, совершавшего тяжкие преступления в других регионах Британии, алгоритм не сможет точно определить, насколько опасен этот человек.
"Это проблема", — признает Хелен Райан из Винчестерского университета. При этом она добавляет, что "даже без этой системы полиция испытывает затруднения в том, что касается доступа к информации".
Однако, по ее словам, даремский эксперимент чрезвычайно интересен. "Потенциально компьютеры — при наличии достаточного количества информации — могут принимать гораздо более точные решения , чем люди", — считает она.

Полицейским в Англии будет помогать искусственный интеллект


Buy for 20 tokens
1) Обожаю фразу «Если правда любишь - отпусти». Если правда голоден - не ешь. 2) - Ты бы согласился отрезать палец за 100 000 долларов? - Смотря кому. 3) Она изменяла мужу заранее, так сказать превентивно. А потому что все мужики - козлы. 4) - У него был «Лексус», его угнали, так он на…

Comments

( 4 comments — Leave a comment )
alex_mironov
May. 12th, 2017 05:51 am (UTC)
И правильно! Даже английским полицейским сложно думать своим умом без поддержки искусственного интеллекта.
avroraiwa
May. 12th, 2017 06:52 am (UTC)
)))
alex_mironov
May. 12th, 2017 06:54 am (UTC)
А наши полицейские недостаток искусственного интеллекта скрывают! С Днём рождения, кстати!
serg_was
May. 12th, 2017 10:32 am (UTC)
НОРМАЛЬНО!
( 4 comments — Leave a comment )

Profile

avroraiwa
avroraiwa

Latest Month

Tags

Powered by LiveJournal.com
Designed by yoksel