ИИ, оценивающий склонность к преступлениям, «уволен»
Система искусственного интеллекта Compas была разработана специально для анализа данных о подсудимом и дальнейшей выдачи рекомендаций о целесообразности выдачи под залог.
Для принятия решений алгоритм принимал во внимание множество данных, включая возраст, пол и даже возможное криминальное прошлое. Свою работу система начала еще в 1998 году и за 20 лет через алгоритм прошли более миллиона подсудимых. Следует отметить, что по мере совершенствования технологий, разработчики вносили и изменения в алгоритм принятия решений.
Однако при детальном изучении предлагаемых рекомендаций ученые пришли к выводу, что ИИ недостаточно точен, после чего Compas был отозван.
Для оценки работы алгоритма исследователи из Дартмутского института пригласили обычных людей, не имевших юридического образования. После ознакомления с данными о подсудимом им было предложено принять собственное решение о возможности отпустить подсудимого под залог. Сравнив результаты с рекомендациями ИИ, исследователи определили, что точность человеческого прогноза составила 70%, тогда как у алгоритма она достигла всего лишь 65%. При этом следует отметить, что программа располагала гораздо большим количеством данных о подсудимом.
«Ошибки в вопросах судеб людей могут стать непоправимыми. Безусловно система принятия решений человеком далеко не идеальна, однако в настоящее время ей нет альтернативы. Уровень существующих технологий не достаточен для того, чтобы юридические вопросы решала бездушная машина», - говорит один из участников исследований.
Рекомендовано к прочтению
- Действительно эффективная рассылка в Telegram с помощью специального бота
- Продвинутые стратегии торговли фьючерсами на Bybit: как максимизировать прибыль и минимизировать риски
- О сложностях выполнения научно-исследовательских работ
- Рулонные шторы для балкона? Это просто с компанией РУЛОНКА.РУС
- Как освоить новую для себя профессию быстро