fbpx

Алгоритм предсказывает решения судей и сможет предупреждать о предвзятости

Исследователи из США и Франции проанализировали вынесенные судьями решения по делам о предоставлении убежища и утверждают, что машинное обучение способно сделать их работу менее предвзятой, подтолкнув к вынесению более справедливых приговоров.

Ошибки судей

Решения судей могут зависеть не только от реальных особенностей дела, но и множества других факторов. Исследователи обнаружили, что судьи подвержены феномену «ошибки игрока» (gambler’s fallacy) — человек начинает сомневаться в правильности принятого решения, если до этого принял несколько таких же. В частности, после вынесения нескольких решений подряд о предоставлении мигрантам убежища, судья отказывает следующему, потому что полагает, что стал слишком снисходительным.

У ученых есть данные о том, что на решения судей влияют погода, день рождение обвиняемого и даже проигрыши любимых спортивных команд.

Предсказание решений

Исследователи из Университета Тулузы выявили, что в 80% случаях решение судьи предсказуемо еще до момента вынесения приговора. Они использовали алгоритмы машинного обучения и проанализировали базу данных о 602 500 слушаниях. Информация включала дату, тип дела, место слушания, наличие или отсутствие адвоката, данные о биографии судей и т.д. В результате  обнаружилось, что судьи часто прибегают к спонтанным решениям и эвристике, а не фактам.

Машинное обучение предлагается использовать для предупреждения судей о возможной предвзятости — когда обстоятельства рассматриваемого дела совпадают с аналогичными, но вынесено иное решение. В этом случае судье будет предложено потратить несколько дополнительных дней на рассмотрение дела.

Если взять большой набор данных об истории вынесенных решений судьи и всех потенциальных посторонних факторах, можно выявить, как тот или иной фактор мог повлиять на решение. Понимание собственной возможной предвзятости помогло бы судьям быть подготовленными и сделать процесс вынесения решения более справедливым.