IBM Watson на страже системы правосудия: расизм не пройдет

Суды озадачены поисками технологического решения расовой диспропорции
Engadget

Американская судебная система не так уж и совершенна. За последние 30 лет количество заключенных увеличилось в четыре раза, что в переводе на души составляет более 2,3 миллиона человек. Примечательно, что 58% из них — либо темнокожие, либо латиноамериканцы. Налицо — явная расовая диспропорция. Уже сейчас некоторые суды озадачены поисками технологического решения этой непростой ситуации. Выяснилось, что одним из таких инструментов станет искусственный интеллект — суперкомпьютер IBM Watson, сообщает ресурс Engadget.

Система правосудия не может быть совершенной хотя бы потому, что приговор всегда выносит человек. Согласно статистике, в США чернокожие граждане и латиноамериканцы не только чаще белых попадают в тюрьму, но и срок отбывания наказания у них обычно гораздо дольше. В 2009 году процент темнокожих составлял около 13% населения всей страны, при этом исключительно эта группа составила 28% всех заключенных, отбывающих пожизненное, и более 56% с пожизненным заключением без права на УДО.

Заключенные

Команда ученых Корнеллского университета полагает, что искусственный интеллект при вынесении решения, скажем, в вопросе поручительства может быть куда объективнее судьи. Кроме того, исследователям удалось выяснить, что ИИ по плечу даже снизить уровень преступности на 24,8%, просто отказав конкретному обвиняемому в освобождении под залог. А еще алгоритмы смогут сократить число заключенных в США на 42%, при этом ИИ будет все равно, какого цвета их кожа.

Но слепо доверять ИИ тоже нельзя, по крайней мере сейчас. И тому есть несколько веских причин. Во-первых, государственные органы не являются авторами алгоритмов — они просто покупают их у частных компаний. А это значит, что только владельцам программного обеспечения доподлинно известно, чем именно руководствовался их ИИ при вынесении решения. Во-вторых, нет закона или каких-либо других стандартов и норм, которые могли бы регулировать эту сферу. То есть проверить алгоритмы на предмет корректной работы просто не представляется возможным. И, к слову, однобокость и непрозрачность судебного ИИ уже сейчас является реальной проблемой.

Задержанные

Примером может послужить дело «Висконсин против Лумиса». Обвиняемый Эрик Лумис был признан виновным в стрельбе из окна своей машины. Департамент исправительных учреждений штата Висконсин при вынесении приговора пользовался программой для оценки рисков Compas, созданной компанией Northpointe. Compas оценила риски Лумиса как высокие, на основе чего судья назначил максимальное наказание. Приговор Лумис попытался оспорить, ведь у него не было возможности оценить механизм принятия решений алгоритмом. Но на самом деле проблема в том, что никто не знает, как работает Compas, за исключением самого разработчика. Тем не менее, Верховный суд штата вынес решение против Лумиса, основываясь на том, что знание итогового решения алгоритма уже подразумевает достаточный уровень прозрачности.

Судья по делам несовершеннолетних округа Монтгомери Энтони Капицци полагает, что необходим компромисс — эдакое гибридное решение. Оно должно основываться как на подробном заключении правоохранительных органов, так и на исчерпывающем, а главное — открытом анализе дела искусственным интеллектом. Ведь, как признается сам Капицци, в среднем он рассматривает около 30 дел, и на рассмотрение каждого тратится не более шести минут. Этого времени не достаточно, чтобы вникнуть в суть вопроса и учесть все нюансы. Ожидается также, что IBM Watson в округе Монтгомери поработает и в вопросах опеки. Он поможет судьям лучше понимать все аспекты жизни ребенка, включая условия проживания. Это позволит вынести правильное решение об опеке.