«Включайте голову»: 7 ловушек, которые приводят адвокатов на скамью подсудимых

Как обезопасить себя в работе с клиентами, за какими действиями может последовать уголовное дело и какие риски несет...

Чем опасно банкротство для физических лиц

У граждан Российской Федерации есть уникальная возможность списать свои долги. Так обещают многочисленные рекламные вывески. Отчасти это правда,...

Особые поручения: между юридическими вопросами и тревогами клиентов

Понятие «особые поручения» стало использоваться на юридическом рынке сравнительно недавно. Одноименную практику открыла адвокат и заведующая кафедрой семейного...

Тенденция на «субсидиарку»: как решаются банкротные споры в последние несколько лет

Начиная с 2018 года, процент удовлетворенных заявлений о привлечении к субсидиарной ответственности контролирующих должника лиц довольно большой. Такая...

Защита по делам об административных правонарушениях в сфере общественного порядка и безопасности. Вебинар Legal Academy

Количество административных правонарушений растет, а значит навыки защиты людей становятся все более востребованными. К тому же законодательство дополняется...

Адвокаты-оппоненты: как не превратить чужую войну в свою

Старший партнер коллегии адвокатов Pen & Paper Валерий Зинченко – об адвокатах с оружием в руках и современных...

Самочувствие и регулирование финансового рынка – взгляд ЦБ

Снятие наличных, перевод через приложение, платеж по кредиту, оформление полиса страхования ОСАГО – эти простые действия отображают сложные...

ЦБ смягчил кредитные условия из-за коронавируса

Послабления касаются банков, которые обслуживают туроператоров, транспортные компании и производителей лекарств. Центробанк ввел временные послабления для кредитных организаций...

Запрещенные соцсети и «золотая» бумага: главные новости уходящей недели

ФАС проверит обоснованность роста цен на офисную бумагу, хлебопекам направят 2.5 млрд рублей из госказны, а компанию Meta*...

Пять главных изменений в законе о госзакупках

Федеральный закон № 44 о госзакупках вновь претерпел изменения: очередной пакет поправок вступил в силу с 1 июля...

Обзор важных определений ВС РФ по частному праву, опубликованных с 15.03.2020 по 23.03.2020

Верховный Суд РФ сформулировал несколько важных правовых позиций в области частного права. Можно ли производить зачет требований, по...

СПИК 2.0: как выглядит новый формат соглашения между инвестором и государством

Летом прошлого года проведена кардинальная реформа механизма специальных инвестиционных контрактов (СПИК). В фундаменте новой архитектуры СПИК лежат современные...

Внимание, розыск! Как найти своего идеального клиента?

Клиенты чем-то напоминают русскую рулетку. Одни выводят из себя и «убивают» своим поведением, а работа с другими приносит...

«Зачаточный уровень»: 9 проблем цифрового нормотворчества в России

Криптовалютам уже больше 10 лет, однако в России регулирование электронных денег все еще находится на зачаточном уровне. О...

Кто у кого: как доказать заимствование фирменного стиля?

Имитация или копирование фирменного стиля – это относительно легкий способ переманивания аудитории компании, которая уже зарекомендовала себя на...

Иск по поправкам, киднеппинг и льготники: главные новости уходящей недели

Иск к президенту из-за Конституции, отмена почти 500 советских актов, увеличение программы льготного кредитования и другие новости –...

Выше руки, мягче меры: обязательные, исполнительные и принудительные работы в России

На сегодняшний день примерно каждый четвертый осужденный приговаривается к обязательным, исправительным или принудительным работам. С каждым годом их...

Гальперин: «За 10 лет количество жалоб в ЕСПЧ против России сократилось почти в 3 раза»

Уполномоченный Российской Федерации при Европейском Суде по правам человека – заместитель министра юстиции РФ Михаил Гальперин рассказал об...

Мантий меньше, дел больше: как изменится работа КС РФ, если будут приняты поправки в Основной закон

Глава государства предложил усилить роль Конституционного суда и дать ему возможность проверять конституционность законопроектов, принятых Федеральным собранием, до...

Школьники, работники, заключенные: какие законы вступают в силу в мае

Свободные платежи и новые субсидии, бесплатное питание школьникам и запрет «наливаек», а также другие законодательные нововведения мая –...

Мнимая объективность: приведет ли искусственный интеллект к правовой дискриминации?

Эксперты LF Академии рассказывают об опасностях, к которым может привести использование новейших технологий в правовых процедурах, и рассуждают о том, эффективно ли их применение.

Искусственный интеллект стал неотъемлемой частью повседневной жизни, а его применение давно вызывает самые разные вопросы у юристов – как теоретиков, так и практиков. Сам термин до конца не определен и применяется к разным видам явлений, отмечают эксперты. 

«Можно сказать, что это не термин, а широко распространенное словосочетание. Обычно когда говорят об искусственном интеллекте, подразумевают, во-первых, программное обеспечение. Во-вторых, акцентируют внимание на том, что это  технология, которая предназначена для обработки информации, способна получать информацию из внешней среды, обладает некоторой автономностью или полной автономностью в зависимости от ситуации и технологии реализации заложенных алгоритмов. И, как правило, это пока факультативный признак для широкого понимания искусственного интеллекта: способность самообучаться без участия человека», – говорит советник практики по интеллектуальной собственности, информационным технологиям и телекоммуникациям Dentons Владислав Архипов. 

Главный вопрос использования искусственного интеллекта, отмечает Владислав Архипов, связан с его правосубъектностью. «Правосубъектность в контексте искусственного интеллекта и робототехники довольно одиозна, поскольку первой ассоциацией, которая приходит на ум, становится попытки обосновать возможность правосубъектности искусственного интеллекта или какого-либо робота», – говорит специалист. 

Однако, как отмечает юрист, о реальной правосубъектности задумываться рано, поскольку еще не существует достаточно сильного искусственного интеллекта. «Теория и философия права оказываются довольно практичны в контексте искусственного интеллекта. Вся логика нашей правовой системы в целом, той модели, в которой мы живем, определяется некой фундаментальной презумпцией, что субъектом права и субъектом в том числе принятия юридически значимых решений является человек, личность, которая наделена свободой, ответственностью и разумом или по крайней мере обладает свободной волей», – комментирует Владислав Архипов.  

Принятие юридически значимых решений исключительно с помощью искусственного интеллекта выглядит спорно, считает специалист. Он приводит два ключевых тезиса работ современных исследователей:

  • Искусственный интеллект «не обладает внутренней точкой зрения по вопросам, которые имеют моральное измерение». Логику искусственного интеллекта можно свести к описанию, но не пониманию внутренних мотивов и возможности разрешения спорных вопросов о человеческих ценностях;
  • Принятие юридически значимых решений предполагает, что принимающий решение должен исполнять его. «Это представляет собой некий теоретический контраргумент относительно возможности исключительно автоматизированного бессубъектного принятия юридически значимых решений. Даже если какой-то алгоритм используется в процессе принятия решений, то такого рода решения должны иметь вполне определенного реального субъекта, который отвечает за эти решения», – говорит Владислав Архипов. 

Однако, как отмечает старший научный сотрудник Международной лаборатории по праву информационных технологий и интеллектуальной собственности ВШЭ Александр Савельев, технологии искусственного интеллекта начинают все шире применяться для принятия юридически значимых решений в отношении граждан, что создает значительные возможности для дискриминации. Особенно показательным в этом отношении, считает ученый, был 2020 год – он стал беспрецедентным с точки зрения падения роли и значения права как регулятора. 

«На руинах правового регулирования, правовых ценностей возникает новый регулятор – тот самый код. Сейчас алгоритмы становятся фактически новым регулятором общественных отношений. Они начинают принимать решения о том, брать ли человека на работу или учебу, выдавать ли ему кредит, какое наказание ему назначить, связанное с лишением свободы или нет, привлечь ли его к административной ответственности. И здесь мы видим, что все больше алгоритмы начинают проникать в ту сферу, которую традиционно считалась сферой прав человека, правового регулирования и прочих высоких идей», – считает Александр Савельев.

Решения, которые применяются с помощью алгоритмов, в теории могли бы быть более объективными и эффективными. Однако практика использования алгоритмов говорит об обратных результатах. Александр Савельев отмечает, что еще в 2016 году правительство США выпустило исследование по вопросам использования big data, в котором говорилось, что сам факт принятия решений на основе анализа больших данных еще не говорит об их объективности.

В пример ученый приводит уже существующий алгоритм, определяющий платежеспособность конкретного лица. В подобном анализе, как показывает практика и различные исследования, используется в том числе информация из социальных сетей. Если в друзьях у объекта этого анализа есть люди, когда-то не вернувшие кредит, то это оказывает влияние на его рейтинг. Такая же ситуация возникает с выражением какого-либо мнения в постах или, например, использованием ненормативной лексики. «Никакой причинно-следственной связи между тем, что такого рода данные о тебе существуют в социальных сетях, и тем, что ты не возвратишь кредит, – нет. Это только предположения, но они нашли отражение в алгоритме и начинают непосредственно влиять на жизнь человека. Это дискриминация – может быть несколько непредвзятая, по неосторожности на уровне алгоритма. Но у нас есть еще данные, которые обучают соответствующую модель искусственного интеллекта, и от их качества зависит качество принимаемых решений», – говорит Александр Савельев.

Алгоритм начинает действовать по принципу «черного ящика», объясняет эксперт, если проследить за целым рядом факторов невозможно. Среди таких факторов – репрезентативность выборки, наличие возможных ошибок, вес каждого критерия и так далее. Две ипостаси черного ящика:

  • Техническая, когда невозможно проследить в ряде случаев, почему было принято то или иное решение, если речь идет, например, о технологии на основе нейросети;
  • Правовая – существующие нормы об авторском праве и ноу-хау, которые препятствуют прозрачности этих алгоритмов. В таком случае крайне трудной станет защита прав человека. 

В пример Александр Савельев приводит дело «Лумис против Висконсина». В 2013 году в американском штате Висконсин арестовали некоего Эрика Лумиса – он находился за рулем машины, которая использовалась в совершении преступления, и уклонялся от требований полиции. При определении наказания Лумису судья ориентировался на рисковый рейтинг, который был присвоен осужденному специальной системой COMPAS. Эта система обрабатывает данные анкеты, состоящей из 137 пунктов, на основании полученных результатов определяет риски повторения преступления осужденным и предлагает определенное наказание. В числе других критериев, задействованных в расчете рейтинга, – расовая принадлежность, пол, место жительства и другие подобные категории. Лумису было назначено максимальное наказание, это решение он обжаловал в Верховном суде штата. «В данном случае Верховный суд штата Висконсин сказал, что нарушения как бы нет – судья сам принимал решение. И огромную значимость сыграл тот факт, что этот судья сказал «я бы все равно принял такое же решение даже без этой системы». Тем не менее, Верховный суд признал опасность применения такого рода систем и призвал использовать ряд дисклеймеров относительно возможной необъективности. Это хорошая иллюстрация того, что системы алгоритмического принятия решений проникают уже в те сферы, которые нам казались фактически незыблемыми для какой-то исключительно правовой процедуры», – объясняет Александр Савельев. 

Можно ли найти баланс в использовании искусственного интеллекта, какие решения предлагают юристы для охраны произведений, созданных машиной, и заменят ли юристов роботы – об этом рассказывают эксперты в дискуссионной сессии «Цифровая медиасреда: от интеллектуальной собственности до искусственного интеллекта» на площадке Legal Academy.

Развитие искусственного интеллекта и его правовое регулирование станут одними из ключевых тем трека «Smart-общество» на «ПМЮФ 9 ¾: вакцинация правом». Форум пройдет в онлайн-формате с 18 по 22 мая, программа и регистрация доступны на официальном сайте ПМЮФ.

Источник изображения: rawpixel.com – www.freepik.com

Межтекстовые Отзывы
Посмотреть все комментарии
guest