Правоохранительные органы Великобритании намерены использовать технологию искусственного интеллекта (ИИ) для максимально точного определения возможности повторного совершения преступления лицами, отбывающими наказание за предыдущие злодеяния.
Об этом сообщает «Русская служба Би-би-си», конкретизируя, что речь идет о проекте полицейских города Дарема, расположенного на севере Англии. Местные правоохранители готовятся запустить специальную компьютерную программу, работающую на основе алгоритма вычислений ИИ, классифицирующего арестованных граждан по степени угроз, которые они могут представлять. Проще говоря, программа определяет, с какой долей вероятности задержанные могут совершить повторное преступление.
Известно, что программа, получившая название Harm Assessment Risk Tool («Инструмент оценки риска вреда», сокращенно – Hart) ,ранее была испытана на предоставленных ей данных с базы полицейских Дарема об арестах в период с 2008 по 2012 год. После этого систему в 2013 году подвергли «экзаменам» в условиях приближенных к реальности, для чего понадобилось два года, в течение которых полицейские изучали полученные с помощью этой технологии результаты. В частности, проводились проверки оценок программы – совершали или нет освобожденные заключенные повторные преступления.
А итоги были следующими. ИИ сигнализировал, что задержанный гражданин не представляет угрозы в плане возможного рецидива в 98% случаев. Тех же, кто мог представлять наибольшую угрозу, алгоритм верно выявлял в 88% случаев. Данную особенность специалисты объясняют настройками программы, которая, по их словам, запрограммирована «вести себя осторожно». Это значит, что она «распределяет» задержанных людей чаще в группы среднего или высокого риска, сводя к минимуму возможность освобождения тех, кто с большой долей вероятности может совершить повторное преступление.
Представитель полиции города Дарем Шина Эрвин говорит о том, что подчас испытаний программы полицейские следили за ее выводами. При этом «приговор» Hart не влиял на принятие решение об аресте. По ее словам, в течение ближайших двух-трех месяцев новая технология на базе искусственного интеллекта должна быть представлена в качестве своего рода ассистента полицейским, принимающим решения об аресте или освобождении.
Шина Эрвин также заметила, что задержанные, которые ранее не совершали преступлений, с меньшей долей вероятности будут вноситься алгоритмом в категорию высокого риска. Но в случае если их арест связан с подозрением в причастности к серьезному уголовному злодеянию, например, убийству, этот факт повлияет на оценку Hart.
В свою очередь, один из разработчиков программы профессор Кембриджского университета Лоуренс Шерман пояснил, что данная система может быть отличным помощником для полицейских во многих ситуациях. Например, когда нужно принять решение, стоит ли задержанного оставлять «под присмотром» еще несколько часов; можно ли его отпускать под залог до того момента, когда ему будут предъявлены официальные обвинения; стоит ли держать под арестом гражданина после предъявленных ему обвинений.
Искусственный интеллект может быть расистом.
Как бы там ни было, и какие бы преимущества программы ни описывались ее разработчиками и официальными лицами из британских правоохранительных органов, но на первое время полицейские будут использовать ее только при рассмотрении некоторых, случайно ими выбранных дел.
Этот подход имеет резон, поскольку в мире среди напоминающих данную программу аналогов ИИ были зафиксированы неприятные, мягко говоря, результаты. Например, с явно выраженным дискриминационным характером, как это было год назад с алгоритмом у американских полицейских.
Тогда, напоминает «Русская служба Би-би-си», американский новостной сайт ProPublica сделал публичным достоянием полученные «расистской» программой результаты о вероятностях совершения преступления со стороны того или иного задержанного.
Ошибка, как выяснилось позже, была заложена на стадии программирования – в алгоритм изначально был внесен необъективный по расовой принадлежности критерий оценки. Из-за этого система чаще всего оценивала наибольшие вероятности рецидива в отношении чернокожих граждан, тогда как белых американцев оценивал положительно. Разработчик данной программы не согласен с данными публикации ProPublica и отрицает подобные расистские деяния своего продукта.
По мнению Кэри Кольянезе, профессора Пенсильванского университета, подобные компьютерные модели в определенном смысле отражают «скрытые и подсознательные допущения, к которым прибегают люди». Поэтому пока затруднительно точно определить, в какой степени эти компьютерные модели склонны к дискриминации, – говорит ученый.
Hart не расист, но недостатки все же есть.
По этой проблеме создатели программы для полиции Дарема говорят, что они сумели ограничить возможность использования к задержанным лицам дискриминационного подхода. Их продукт «принимает во внимание» не только данные о ранее совершенных или не совершенных преступлениях человеком, но и о его поле и почтовом индексе.
Однако в последнем случае полученные данные никак напрямую не влияют на результаты программы – «окончательное решение зависит от того, как эта информация увязывается с тысячами других возможных факторов», – поясняют авторы проекта. По их словам, любая оценка алгоритма носит исключительно рекомендательный характер, а окончательное решение о судьбе арестованного гражданина принимает только полиция.
Шина Эрван добавляет, что у программы есть определенные недостатки. Например, в настоящее время она работает лишь с данными полиции Дарема, не имея доступ к общенациональной базе британских правоохранительных структур. Поэтому, если, например, полиция Дарема задержит человека, совершившего серьезные преступления в других регионах Великобритании, Hart не сумет максимально точно выявить степень угрозы, которую представляет для общества этот человек.
Разработчики и ученые, работающие в области ИИ, в частности, для компьютерных систем правоохранительных органов, согласны с тем, что пока подобные продукты имеют некоторые ограничения. Но, по их мнению, с развитием технологий и при наличии достаточного объема информации эти системы «научатся» принимать более точные решения. Даже более точные, чем принимают люди.