«Большая перемена» для молодых и иск к «Газпрому»: главные новости уходящей недели

В 15–20 раз увеличиваются штрафы за нарушение пожарной безопасности в лесах. В Госдуме обсуждают законопроект о создании общероссийского...

Что нужно знать мобилизованному перед оформлением срочных нотариальных услуг?

На пять главных вопросов ответила президент Нотариальной палаты Ленинградской области Елена Москаль. С момента объявления частичной мобилизации ФНС...

«Здесь живет должник»: как коллекторы нарушают права неплательщиков

В последние годы в России принимался ряд законодательных мер по уточнению прав и обязанностей коллекторов, чтобы урегулировать их...

Брачные договоры и товарные знаки: 2021 год глазами юристов

Как юристы оценивают события уходящего года и полученный опыт, какие тенденции сумели закрепиться в праве и обществе за...

Цессия в контексте постановления Пленума ВС РФ

Долгое время практика применения норм об уступке опиралась на Информационное письмо ВАС РФ от 2007 года. В 2017...

«И друга приводите»: как работают финансовые пирамиды в России

Центробанк оценил потери россиян от участия в финансовых пирамидах в 10-12 миллиардов рублей в год. На крючок мошенников...

Иски, баны, блокировки. Есть ли будущее у свободы слова в социальных сетях?

Иски пользователей против социальных сетей, блокировка профиля Дональда Трампа в Twitter, бойкот Facebook в Австралии – интернет-платформы перестают...

Собачье дело: права и ответственность владельцев домашних животных

По статистике, в 70% случаев МВД отказывает в возбуждении дела по факту жестокого обращения с животными. Большинство хозяев...

«Мы можем проиграть как общество и цивилизация»: антимонопольное регулирование в условиях пандемии

Как антимонопольное регулирование должно трансформироваться в эпоху пандемии? С какими новыми вызовами приходится сталкиваться антимонопольным ведомствам и какие...

Охранная зона ЛЭП: как собственнику защитить свою недвижимость от сноса

Если рядом с вашей недвижимостью расположены линии электропередачи, вас могут заставить снести постройку. Но есть шанс этого избежать....

Криптовалюта выходит из тени

Интерес к криптовалюте — на пике активности. Миллионы людей используют такой вид расчетов, и даже подростки начинают заниматься...

Экспертиза в арбитражном процессе: актуальная практика. Вебинар Legal Academy

Как правильно выбрать эксперта во время судебного процесса, на какие недостатки заключения нужно обращать внимание для проведения повторной...

Маткапитал мужчинам и новые штрафы: главное за неделю

В России материнский капитал начнут выдавать мужчинам – отцам детей от суррогатных матерей, наказание за подделку прав ужесточат,...

Чужой среди своих: как трансграничное банкротство влияет на международный коммерческий арбитраж

Часто в рамках разбирательства в международном коммерческом арбитраже в отношении одной из сторон вводится процедура банкротства. Как она...

Как защитить персональные данные: 6 советов от специалистов

Свои данные мы оставляем повсюду: по работе, на отдыхе, при совершении покупок в Интернете. И это может быть чревато...

Алименты, гонорары, бейджи: главные новости уходящей недели

Разрешение юристам взыскивать гонорары с проигравшей стороны, блокировка сотовой связи в местах лишения свободы и доработка закона о...

Как получить налоговый вычет: необходимые документы

Политика любого государства предусматривает взимание налогов, то есть уплату людьми с официальным доходом процента от заработка в бюджет....

Защита по делам об административных правонарушениях в сфере общественного порядка и безопасности. Вебинар Legal Academy

Количество административных правонарушений растет, а значит навыки защиты людей становятся все более востребованными. К тому же законодательство дополняется...

Семейный совет: как суды возвращают и не возвращают детей

Лишать или не лишать родительских прав, забрать или вернуть ребенка в семью — это наболевшие вопросы российской судебной...

Сто к одному: почему в России так мало оправдательных приговоров

Статистика российских судов бьет все рекорды – меньше одного процента оправдательных приговоров. Это подтверждают Верховный суд, Следственный комитет...

Мнимая объективность: приведет ли искусственный интеллект к правовой дискриминации?

Эксперты LF Академии рассказывают об опасностях, к которым может привести использование новейших технологий в правовых процедурах, и рассуждают о том, эффективно ли их применение.

Искусственный интеллект стал неотъемлемой частью повседневной жизни, а его применение давно вызывает самые разные вопросы у юристов – как теоретиков, так и практиков. Сам термин до конца не определен и применяется к разным видам явлений, отмечают эксперты. 

«Можно сказать, что это не термин, а широко распространенное словосочетание. Обычно когда говорят об искусственном интеллекте, подразумевают, во-первых, программное обеспечение. Во-вторых, акцентируют внимание на том, что это  технология, которая предназначена для обработки информации, способна получать информацию из внешней среды, обладает некоторой автономностью или полной автономностью в зависимости от ситуации и технологии реализации заложенных алгоритмов. И, как правило, это пока факультативный признак для широкого понимания искусственного интеллекта: способность самообучаться без участия человека», – говорит советник практики по интеллектуальной собственности, информационным технологиям и телекоммуникациям Dentons Владислав Архипов. 

Главный вопрос использования искусственного интеллекта, отмечает Владислав Архипов, связан с его правосубъектностью. «Правосубъектность в контексте искусственного интеллекта и робототехники довольно одиозна, поскольку первой ассоциацией, которая приходит на ум, становится попытки обосновать возможность правосубъектности искусственного интеллекта или какого-либо робота», – говорит специалист. 

Однако, как отмечает юрист, о реальной правосубъектности задумываться рано, поскольку еще не существует достаточно сильного искусственного интеллекта. «Теория и философия права оказываются довольно практичны в контексте искусственного интеллекта. Вся логика нашей правовой системы в целом, той модели, в которой мы живем, определяется некой фундаментальной презумпцией, что субъектом права и субъектом в том числе принятия юридически значимых решений является человек, личность, которая наделена свободой, ответственностью и разумом или по крайней мере обладает свободной волей», – комментирует Владислав Архипов.  

Принятие юридически значимых решений исключительно с помощью искусственного интеллекта выглядит спорно, считает специалист. Он приводит два ключевых тезиса работ современных исследователей:

  • Искусственный интеллект «не обладает внутренней точкой зрения по вопросам, которые имеют моральное измерение». Логику искусственного интеллекта можно свести к описанию, но не пониманию внутренних мотивов и возможности разрешения спорных вопросов о человеческих ценностях;
  • Принятие юридически значимых решений предполагает, что принимающий решение должен исполнять его. «Это представляет собой некий теоретический контраргумент относительно возможности исключительно автоматизированного бессубъектного принятия юридически значимых решений. Даже если какой-то алгоритм используется в процессе принятия решений, то такого рода решения должны иметь вполне определенного реального субъекта, который отвечает за эти решения», – говорит Владислав Архипов. 

Однако, как отмечает старший научный сотрудник Международной лаборатории по праву информационных технологий и интеллектуальной собственности ВШЭ Александр Савельев, технологии искусственного интеллекта начинают все шире применяться для принятия юридически значимых решений в отношении граждан, что создает значительные возможности для дискриминации. Особенно показательным в этом отношении, считает ученый, был 2020 год – он стал беспрецедентным с точки зрения падения роли и значения права как регулятора. 

«На руинах правового регулирования, правовых ценностей возникает новый регулятор – тот самый код. Сейчас алгоритмы становятся фактически новым регулятором общественных отношений. Они начинают принимать решения о том, брать ли человека на работу или учебу, выдавать ли ему кредит, какое наказание ему назначить, связанное с лишением свободы или нет, привлечь ли его к административной ответственности. И здесь мы видим, что все больше алгоритмы начинают проникать в ту сферу, которую традиционно считалась сферой прав человека, правового регулирования и прочих высоких идей», – считает Александр Савельев.

Решения, которые применяются с помощью алгоритмов, в теории могли бы быть более объективными и эффективными. Однако практика использования алгоритмов говорит об обратных результатах. Александр Савельев отмечает, что еще в 2016 году правительство США выпустило исследование по вопросам использования big data, в котором говорилось, что сам факт принятия решений на основе анализа больших данных еще не говорит об их объективности.

В пример ученый приводит уже существующий алгоритм, определяющий платежеспособность конкретного лица. В подобном анализе, как показывает практика и различные исследования, используется в том числе информация из социальных сетей. Если в друзьях у объекта этого анализа есть люди, когда-то не вернувшие кредит, то это оказывает влияние на его рейтинг. Такая же ситуация возникает с выражением какого-либо мнения в постах или, например, использованием ненормативной лексики. «Никакой причинно-следственной связи между тем, что такого рода данные о тебе существуют в социальных сетях, и тем, что ты не возвратишь кредит, – нет. Это только предположения, но они нашли отражение в алгоритме и начинают непосредственно влиять на жизнь человека. Это дискриминация – может быть несколько непредвзятая, по неосторожности на уровне алгоритма. Но у нас есть еще данные, которые обучают соответствующую модель искусственного интеллекта, и от их качества зависит качество принимаемых решений», – говорит Александр Савельев.

Алгоритм начинает действовать по принципу «черного ящика», объясняет эксперт, если проследить за целым рядом факторов невозможно. Среди таких факторов – репрезентативность выборки, наличие возможных ошибок, вес каждого критерия и так далее. Две ипостаси черного ящика:

  • Техническая, когда невозможно проследить в ряде случаев, почему было принято то или иное решение, если речь идет, например, о технологии на основе нейросети;
  • Правовая – существующие нормы об авторском праве и ноу-хау, которые препятствуют прозрачности этих алгоритмов. В таком случае крайне трудной станет защита прав человека. 

В пример Александр Савельев приводит дело «Лумис против Висконсина». В 2013 году в американском штате Висконсин арестовали некоего Эрика Лумиса – он находился за рулем машины, которая использовалась в совершении преступления, и уклонялся от требований полиции. При определении наказания Лумису судья ориентировался на рисковый рейтинг, который был присвоен осужденному специальной системой COMPAS. Эта система обрабатывает данные анкеты, состоящей из 137 пунктов, на основании полученных результатов определяет риски повторения преступления осужденным и предлагает определенное наказание. В числе других критериев, задействованных в расчете рейтинга, – расовая принадлежность, пол, место жительства и другие подобные категории. Лумису было назначено максимальное наказание, это решение он обжаловал в Верховном суде штата. «В данном случае Верховный суд штата Висконсин сказал, что нарушения как бы нет – судья сам принимал решение. И огромную значимость сыграл тот факт, что этот судья сказал «я бы все равно принял такое же решение даже без этой системы». Тем не менее, Верховный суд признал опасность применения такого рода систем и призвал использовать ряд дисклеймеров относительно возможной необъективности. Это хорошая иллюстрация того, что системы алгоритмического принятия решений проникают уже в те сферы, которые нам казались фактически незыблемыми для какой-то исключительно правовой процедуры», – объясняет Александр Савельев. 

Можно ли найти баланс в использовании искусственного интеллекта, какие решения предлагают юристы для охраны произведений, созданных машиной, и заменят ли юристов роботы – об этом рассказывают эксперты в дискуссионной сессии «Цифровая медиасреда: от интеллектуальной собственности до искусственного интеллекта» на площадке Legal Academy.

Развитие искусственного интеллекта и его правовое регулирование станут одними из ключевых тем трека «Smart-общество» на «ПМЮФ 9 ¾: вакцинация правом». Форум пройдет в онлайн-формате с 18 по 22 мая, программа и регистрация доступны на официальном сайте ПМЮФ.

Источник изображения: rawpixel.com – www.freepik.com

Межтекстовые Отзывы
Посмотреть все комментарии
guest