Способен ли искусственный интеллект заменить судью?

23 сентября 2019 г.

Юристы обсудили перспективы использования ИИ в правоприменении, регулирование разработки программ на базе искусственного интеллекта, а также проблемы принадлежности прав на интеллектуальную собственность, созданную с использованием ИИ


Как было отмечено, пока машина не может применить норму права самостоятельно, она способна вынести решение лишь на основе известных ей выводов по другим аналогичным спорам. Эксперты также согласились с тем, что отнесение всего созданного искусственным интеллектом к общественному достоянию негативно скажется на развитии и применении «творческих способностей». 

Фото: Sk.ru.


Подпись.

Как уже сообщала «АГ», 19 сентября 2019 г. в Москве прошла конференция Legal AI by OpenTalks, посвященная применению искусственного интеллекта в юридической практике.

Одна из панельных дискуссий была посвящена проблемным вопросам правового регулирования искусственного интеллекта. Начиная обсуждение, заместитель директора по регулированию киберфизических систем и больших данных в Департаменте развития и планирования Фонда «Сколково» Александр Тюльканов, как модератор, отметил, что нынешние правовые нормы потенциально могут быть переведены в машиночитаемый формат. Это значит, что искусственный интеллект сможет применять такие нормы к конкретным жизненным ситуациям.

Управляющий партнер юридической технологической компании «Симплоер» Антон Вашкевич напомнил, что вопрос о том, можно ли право сделать «программой», активно обсуждается. Эксперт отметил, что проблема связана, в частности, с разными подходами к определению понятия «автоматизация». По его словам, часть специалистов утверждает, что создание любого программного продукта, например суперсервиса, – это автоматизация. Антон Вашкевич с такой точкой зрения не согласен. Он полагает, что автоматизация – слишком громкое слово для «одиночных» систем, поскольку такие отдельные продукты придется интегрировать друг с другом в дальнейшем.

Сторонники второго подхода, как сообщил Антон Вашкевич, полагают, что нормативные акты можно «запрограммировать» изначально. «Отсюда – модная фраза “право как код”», – пояснил эксперт. Однако, по мнению спикера, машиночитаемым языком можно описать только самые простые нормы. «Невозможно запрограммировать сложные понятия, например добросовестность. Такие термины зачастую непросто объяснить даже людям. Как мне кажется, автоматизировать можно отдельные нормы, но никак не все право», – сообщил Антон Вашкевич.

Он также отметил популярность темы алгоритмизации права и возложение на системы с зачатками искусственного интеллекта слишком больших надежд. Эксперт указал на то, что процесс машинного обучения занимает довольно много времени, он непрерывен и пока априори не может поспеть за частыми изменениями законодательства в отдельных областях.

Еще один важный момент, по мнению юриста, – ограниченность роли машинного обучения. На сегодняшний день обучаемые программы способны структурировать данные и делать вывод на основании заложенной в них информации. Иными словами, машина не сможет применить норму права в том случае, если будет «знать» законодательство. Она сумеет вынести вердикт только на основании загруженных в нее решений по конкретным делам. Это, по мнению Антона Вашкевича, приводит к тому, что при вынесении судьями большого количества неверных решений, о которых известно программе, она также придет к ошибочному выводу, поскольку посчитает именно его верным. 

В свою очередь старший юрист практики IPTech Baker McKenzie Вадим Перевалов отметил, что люди боятся неблагоприятных решений, вынесенных машиной. «При этом мы понимаем, как алгоритм работает, и можем повлиять на его работу. Решение, вынесенное человеком, кажется нам не таким страшным. Мы боимся компьютеров, потому что их не понимаем. Но при этом мы часто не понимаем, почему судья выносит разные вердикты по похожим вопросам. На мой взгляд, машина гораздо более предсказуема, потому что принимает решение на основе тех данных, которые мы в нее заложили», – сказал Вадим Перевалов.

Антон Вашкевич озвучил, что многие судебные ошибки связаны не с коррупционной составляющей, а с человеческим фактором, в частности с усталостью. По его мнению, возможно рассмотреть вариант, при котором решение принимает алгоритм, а человек помогает ему в этом. «Например, машина вряд ли сможет установить, была ли необходимая оборона. В этом ей окажет содействие живой судья. Человек помогает машине вынести решение, а не наоборот – именно так, если мы хотим более стабильного судопроизводства», – подчеркнул Антон Вашкевич.

Руководитель АНО «Робоправо», член Экспертного совета Госдумы по цифровой экономике и блокчейн-технологиям Андрей Незнамов подчеркнул, что сложные этические вопросы, такие как «проблема вагонетки», не должны отвлекать специалистов от более простых, но не менее важных вопросов. «Должна ли система быть прозрачной и объяснять человеку, как она приняла решение? Это очень важный момент. А с точки зрения алгоритмической прозрачности – это проблема», – сказал Андрей Незнамов. Он пояснил, что сложность ее решения связана с тем, что даже программист не всегда понимает, как работает созданный им продукт. 

Юрист компании Joom Олег Блинов полагает, что правовое регулирование процесса использования искусственного интеллекта – это нормально. По его мнению, такие нормы могли бы быть закреплены в межотраслевых стандартах. При этом юрист отметил, что данный подход имеет не только плюсы. С одной стороны, он позволяет наиболее компетентным лицам, непосредственным участникам рынка влиять на формирование норм, регулирующих их деятельность. С другой – это почва для злоупотребления со стороны тех же организаций, которые могут попытаться включить в стандарт наиболее выгодные для них правила. 

Завершая дискуссию, Александр Тюльканов попросил коллег затронуть вопрос о наличии интеллектуальных прав у искусственного интеллекта. Вадим Перевалов отметил отсутствие надлежащего регулирования в этой сфере. Он указал, что сейчас невозможно дать однозначный ответ на вопрос о том, кому принадлежит авторство и исключительное право на объект, созданный при помощи искусственного интеллекта. Это, по мнению юриста, приводит к тому, что фактически поощряются «дедовские» методы творчества, поскольку авторы не хотят рисковать. 

С ним согласился и Андрей Незнамов, подчеркнув, что автоматическое отнесение всего созданного искусственным интеллектом к общественному достоянию негативно скажется на развитии и применении «творческих способностей» искусственного интеллекта.