Роботи та комп’ютери все більше беруть на себе фізичну і розумову працю людини. Вважається, що вони будуть корисними в такій сфері, як правосуддя, де потрібно обробляти великі обсяги інформації та приймати складні рішення. Але виникають сумніви в здатності електронного мозку до поваги основних прав, захисту даних, справедливому розгляду.

З огляду на це, Рада Європи прийняла першу етичну хартію штучного інтелекту в судових системах, пише Chron.

“Штучний інтелект дозволяє визначити, наскільки небезпечно дана особа, – говорить Клементина Барбаро з юридичного відділу Ради Європи. – Проаналізувавши алгоритм його рішень і дані про його поведінку, можна визначити ступінь ризику цієї людини і його здатність до здійснення нового злочину. Це також використовується для обчислення строку тюремного ув’язнення”.

Проте досліди показали, що штучним “суддям” притаманні расові й соціальні забобони, оскільки вони покладаються на такі дані, як особистий статус, рівень освіти, зайнятість. Комп’ютер Лондонського університету зміг передбачити остаточні рішення Суду ЄС тільки у 79% випадків.

Колишній суддя вважає таку відповідність закону і уявленням про справедливість недостатніми:

“Почавши використовувати штучний інтелект, люди чекатимуть, що він буде діяти майже як людський, – передбачає Дорі Рейлінг. – І якщо вироки будуть сильно відрізнятися від тих, що виносили б живі судді, це створить проблему легітимності суду”.

В Європі випробування проходять штучні адвокати, а в Сполучених Штатах вони вже приступили до роботи із захисту підсудних.

Нагадаємо також, що в Аргентині розроблено додаток, який самостійно приймає і формує юридичні рішення.