Новости из мира высоких технологий

Почему ИИ, осуждающий преступников, — это опасно?

Искусственный интеллект уже в некотором роде помогает определиться вашему будущему. Когда вы ищете что-нибудь в поисковике, пользуетесь сервисом вроде Netflix или банк оценивает вашу пригодность для ипотеки. Но что будет, если искусственному интеллекту придется определять, виновны вы или нет, в суде? Как ни странно, в отдельных странах это уже, возможно, происходит. Недавно американского высокого судью Джона Робертса спросили, может ли он представить день, когда «умные машины, управляемые искусственным интеллектом, будут помогать в поиске улик или даже в принятии судебных решений». Он ответил: «Этот день уже настал, и он существенно помогает судебным органам в производстве дел».

Возможно, Робертс имел в виду недавний случай Эрика Лумиса, которого приговорили к шести годам заключения по рекомендации секретного проприетарного программного обеспечения частной компании. Лумис, который уже имел криминальную историю и был приговорен за то, что бежал из полиции на угнанной машине, теперь утверждает, что его право на процедуру было нарушено, поскольку ни он, ни его представители не смогли рассмотреть или опротестовать алгоритм рекомендации.

Отчет был подготовлен программой Compas, которая продается Notrpointe судам. Программа воплощает новую тенденцию в исследованиях ИИ: помогает судьям принять «лучшее» (или по крайней мере более ориентированное на данные) решение в суде.

Хотя конкретные подробности дела Лумиса остаются закрытыми, в нем наверняка содержатся диаграммы и числа, определяющие жизнь, поведение и вероятность рецидива Лумиса. Среди них возраст, раса, гендерная идентичность, привычки, история браузера и какие-нибудь измерения черепа. Точнее никто не знает.

Известно, что прокурор по делу сказал судье, что Лумис продемонстрировал «высокий риск рецидивизма, насилия, досудебного разбирательства». Это стандартно, когда дело касается вынесения приговора. Судья согласился и сказал Лумису, что «по оценке Compas он был определен как лицо, представляющее высокий риск для общества».

Верховный суд штата Висконсин осудил Лумиса, добавив, что отчет Compas привнес ценную информацию в его решение, но отметил, что без него он вынес такой же приговор. Проверить это наверняка, разумеется, не получится. Какими могут быть когнитивные предубеждения, когда в деле участвует всемогущая «умная» система вроде Compas, которая советует судьям, как им поступать?

Неизвестное использование

Давайте будем откровенны, нет ничего «незаконного» в том, что сделал суд Висконсина — это просто пример. Другие суды могут и будут делать то же самое.

К сожалению, мы не знаем, в какой степени используются ИИ и другие алгоритмы при вынесении приговора. Есть мнение, что некоторые суды «тестируют» системы вроде Compas в закрытых исследованиях, но не могут заявлять о своем партнерстве. Есть также мнение, что несколько стартапов ИИ разрабатывают подобные умные системы.

Однако использование ИИ в законодательстве не начинается и не заканчивается вынесением приговора, оно начинается с расследования. В Великобритании уже разработана система VALCRI, которая выполняет трудоемкие аналитические работы за считанные секунды — пробирается сквозь тонны данных вроде текстов, лабораторных отчетов и полицейских документов, чтобы выделить вещи, которые могут потребовать дальнейшего расследования.

Полиция Уэст-Мидландс в Великобритании будет тестировать VALCRI в течение следующих трех лет, используя анонимные данные, содержащие больше 6,5 миллиона записей. Похожее испытание проводится полицией Антверпена в Бельгии. Однако в прошлом проекты ИИ и глубокого обучения, включающие массивные наборы данных, были проблемными.

Выгоды для немногих

Технологии обеспечили множество полезных приспособлений залам суда, от копировальных аппаратов до извлечения ДНК из отпечатков пальцев и сложных методов наблюдения. Но это не означает, что любая технология — это улучшение.

Хотя использование ИИ в расследованиях и приговорах может потенциально сэкономить время и деньги, оно породит острые проблемы. В докладе по Compas от ProPublica было четко сказано, что черных программа ошибочно считает более склонными к рецидивизму ответчиками, чем белых. Даже самые сложные системы ИИ могут унаследовать расовые и гендерные предубеждения тех, кто их создает.

Более того, какой смысл перекладывать принятие решений (по крайней мере частично) по вопросам, которые уникальны для людей, на алгоритм? В США существует определенная трудность, когда суд присяжных судит своих сверстников. Стандарты в законах никогда не были эталонными, потому эти суды присяжных считаются наиболее демократичными и эффективными системами осуждения. Мы совершаем ошибки, но со временем накапливаем знания о том, как их не совершать, уточняя систему.

Compas и подобные ей системы представляют «черный ящик» в правовой системе. Таковых быть не должно. Правовые системы зависят от непрерывности, прозрачности информации и способности к рассмотрению. Общество не хочет появления системы, которая поощряет гонку с созданием стартапов ИИ, которые делают быстрые, дешевые и эксклюзивные решения. Наспех сделанный ИИ будет ужасным.

Обновленная версия Compas с открытым исходным кодом была бы улучшением. Но сперва придется поднять стандарты системы правосудия, прежде чем мы начнем снимать ответственность в пользу алгоритмов.


Источник: Почему ИИ, осуждающий преступников, — это опасно?
Автор:
Теги: технологии Будущее искусственный интеллект Алгоритм Бельгия быль быстрый

Комментарии (0)

Сортировка: Рейтинг | Дата
Пока комментариев к статье нет, но вы можете стать первым.
Написать комментарий:
Напишите ответ :
Чем опасно подростковое одиночество?
Чем опасно подростковое одиночество?
19
Женский развлекательный и поучительный сайт. 22:42 18 апр 2022
Полпорции — это опасно! Как полпорции губят человека.
Полпорции — это опасно! Как полпорции губят человека.
5
Страничка добра и сплошного жизненного позитива! 16:20 26 фев 2024
Убийцы, мощенники и проститутки: невероятные фото преступников из старой Америки
Убийцы, мощенники и проститутки: невероятные фото преступников из старой Америки
7
Человек познаёт мир 15:46 24 май 2023
Знаменитости, родившиеся в семьях преступников
Знаменитости, родившиеся в семьях преступников
0
Все о звездах шоубизнеса 13:49 20 июн 2019
Все мы не без греха: почему опасно идеализировать партнера
Все мы не без греха: почему опасно идеализировать партнера
3
Страничка добра и сплошного жизненного позитива! 16:06 22 авг 2022
Второй напиток после воды! Сколько чашек нужно выпивать каждый день и почему так опасно им пренебрегать.
Второй напиток после воды! Сколько чашек нужно выпивать каждый день и почему так опасно им пренебрегать.
17
Интересный мир 10:30 19 авг 2017
Чем опасно энергетическое истощение...
Чем опасно энергетическое истощение...
2
Интересный мир 22:14 11 ноя 2023
Почему подавлять негативные эмоции – опасно
Почему подавлять негативные эмоции – опасно
3
Страничка добра и сплошного жизненного позитива! 14:00 04 июн 2022
Почему на входных дверях в Турции до сих пор прибивают стучалки-колотушки и почему их две
Почему на входных дверях в Турции до сих пор прибивают стучалки-колотушки и почему их две
8
Человек познаёт мир 18:30 03 окт 2023
Слишком эффективный для самообороны от преступников, запретить
Слишком эффективный для самообороны от преступников, запретить
0
Интересный мир 07:30 03 мар 2017
Синдром Диогена: ЧЕМ опасно захламление дома
Синдром Диогена: ЧЕМ опасно захламление дома
0
Страничка добра и сплошного жизненного позитива! 21:54 08 янв 2024
Нейросеть научили видеть в людях преступников
Нейросеть научили видеть в людях преступников
0
Интересности 16:02 23 ноя 2016

Выберете причину обращения:

Выберите действие

Укажите ваш емейл:

Укажите емейл

Такого емейла у нас нет.

Проверьте ваш емейл:

Укажите емейл

Почему-то мы не можем найти ваши данные. Напишите, пожалуйста, в специальный раздел обратной связи: Не смогли найти емейл. Наш менеджер разберется в сложившейся ситуации.

Ваши данные удалены

Просим прощения за доставленные неудобства