«Мы можем проиграть как общество и цивилизация»: антимонопольное регулирование в условиях пандемии

Как антимонопольное регулирование должно трансформироваться в эпоху пандемии? С какими новыми вызовами приходится сталкиваться антимонопольным ведомствам и какие...

Министры юстиций обменялись опытом по цифровизации систем правосудия

Как изменилась судебная система после пандемии COVID-19 и какие цифровые инструменты помогают осуществлять правосудие, обсудили на открытом совещании...

Кредитные счета, поддержка и мошенники: главные новости уходящей недели

Новые меры поддержки в период самоизоляции, ужесточение условий по ипотечным кредитам, рост «коронавирусного» мошенничества и другие новости –...

Работа юристов в новых регионах России: процесс организации и главные проблемы

Территория России не так давно увеличилась — в состав страны приняли Донецкую и Луганскую народные Республики, а также...

Как изменятся соцвыплаты в 2022 году: инфографика Сферы

Чтобы уберечь социально незащищенные группы россиян от инфляции, в стране каждый год индексируются социальные выплаты. Как именно изменятся...

Пять шагов по проверке контрагента, рассчитанных на практике

Проверка добросовестности контрагента – это комплекс мероприятий, которые позволяют убедиться в том, что контрагент, с которым вы заключаете...

Конституция, безработица и салоны красоты: главные новости уходящей недели

Новая дата голосования по поправкам в Конституцию, штрафы за отказ от вакцинации, три сценария безработицы в России и...

«Здесь живет должник»: как коллекторы нарушают права неплательщиков

В последние годы в России принимался ряд законодательных мер по уточнению прав и обязанностей коллекторов, чтобы урегулировать их...

Инструкция по поиску работы для юриста

Сентябрь традиционно возрождает бизнес-активность и, как следствие, стимулирует поиск или смену работы для многих юристов. Этот год развивается...

Дмитрий Медведев, Мария Пейчинович-Бурич и Тедрос Гебрейесус примут участие в ПМЮФ

Заместитель председателя Совета Безопасности Российской Федерации Дмитрий Медведев, генеральный секретарь Совета Европы Мария Пейчинович-Бурич и генеральный директор Всемирной...

Цифровизация в нормотворчестве: настоящее и будущее. Вебинар Legal Academy

Пандемия COVID-19 показала необходимость в цифровизации не только бизнеса, но и нормотворчества. Внедрение искусственного интеллекта, который значительно может...

Путь в консультанты Госдумы: краткий ликбез для юристов

Участие в законотворческом процессе среди российских юристов становится все более популярной практикой. При этом в последние годы государство...

Новый Социальный фонд и иски к Apple: главные новости уходящей недели

Пенсионный фонд готовится объединиться с Фондом соцстраха, в России могут декриминализировать налоговые преступления, а граждане требуют компенсации от...

Как защитить материнский капитал от кредиторов

Несмотря на то, что такая мера государственной поддержки семей как материнский капитал существует в России уже 15 лет,...

Злоупотребление больничным: юристы против недобросовестных сотрудников

Что делать, если сотрудник часто берет больничный без явных оснований, а вместо лечения дома улетает во внеплановый отпуск?...

Учимся у бизнеса: почему юридическим фирмам нужно рассчитать «ценность» клиента?

Бизнес-консультант и юрист Рон Фридман объясняет, каким приемам в работе с клиентами стоит научиться юридическим фирмам и как...

«Наше глобальное решение – создание единой системы цифрового доверия»: эксперты о рынке Legal Tech в России

Где грань между цифровой демократией и цифровой диктатурой, где Россия находится на технологической карте мира и какой сценарий...

Аттестация экскурсоводов и эксперименты с налогами: какие законы вступают в силу с июля

Гиды больше не смогут оказывать свои услуги без «аккредитации», в ряде регионов России вводится экспериментальный режим, а системой...

Снова в школу: сможете ли вы пройти правовой диктант?

В День юриста, 3 декабря, любой желающий может проверить свою юридическую грамотность в рамках третьего Всероссийского правового диктанта....

Направления развития беспилотных автомобилей в России

Старший эксперт Центра стратегических разработок Дмитрий Федоров объясняет, с какими правовыми трудностями сталкиваются создатели беспилотных авто и какие...

Мнимая объективность: приведет ли искусственный интеллект к правовой дискриминации?

Эксперты LF Академии рассказывают об опасностях, к которым может привести использование новейших технологий в правовых процедурах, и рассуждают о том, эффективно ли их применение.

Искусственный интеллект стал неотъемлемой частью повседневной жизни, а его применение давно вызывает самые разные вопросы у юристов – как теоретиков, так и практиков. Сам термин до конца не определен и применяется к разным видам явлений, отмечают эксперты. 

«Можно сказать, что это не термин, а широко распространенное словосочетание. Обычно когда говорят об искусственном интеллекте, подразумевают, во-первых, программное обеспечение. Во-вторых, акцентируют внимание на том, что это  технология, которая предназначена для обработки информации, способна получать информацию из внешней среды, обладает некоторой автономностью или полной автономностью в зависимости от ситуации и технологии реализации заложенных алгоритмов. И, как правило, это пока факультативный признак для широкого понимания искусственного интеллекта: способность самообучаться без участия человека», – говорит советник практики по интеллектуальной собственности, информационным технологиям и телекоммуникациям Dentons Владислав Архипов. 

Главный вопрос использования искусственного интеллекта, отмечает Владислав Архипов, связан с его правосубъектностью. «Правосубъектность в контексте искусственного интеллекта и робототехники довольно одиозна, поскольку первой ассоциацией, которая приходит на ум, становится попытки обосновать возможность правосубъектности искусственного интеллекта или какого-либо робота», – говорит специалист. 

Однако, как отмечает юрист, о реальной правосубъектности задумываться рано, поскольку еще не существует достаточно сильного искусственного интеллекта. «Теория и философия права оказываются довольно практичны в контексте искусственного интеллекта. Вся логика нашей правовой системы в целом, той модели, в которой мы живем, определяется некой фундаментальной презумпцией, что субъектом права и субъектом в том числе принятия юридически значимых решений является человек, личность, которая наделена свободой, ответственностью и разумом или по крайней мере обладает свободной волей», – комментирует Владислав Архипов.  

Принятие юридически значимых решений исключительно с помощью искусственного интеллекта выглядит спорно, считает специалист. Он приводит два ключевых тезиса работ современных исследователей:

  • Искусственный интеллект «не обладает внутренней точкой зрения по вопросам, которые имеют моральное измерение». Логику искусственного интеллекта можно свести к описанию, но не пониманию внутренних мотивов и возможности разрешения спорных вопросов о человеческих ценностях;
  • Принятие юридически значимых решений предполагает, что принимающий решение должен исполнять его. «Это представляет собой некий теоретический контраргумент относительно возможности исключительно автоматизированного бессубъектного принятия юридически значимых решений. Даже если какой-то алгоритм используется в процессе принятия решений, то такого рода решения должны иметь вполне определенного реального субъекта, который отвечает за эти решения», – говорит Владислав Архипов. 

Однако, как отмечает старший научный сотрудник Международной лаборатории по праву информационных технологий и интеллектуальной собственности ВШЭ Александр Савельев, технологии искусственного интеллекта начинают все шире применяться для принятия юридически значимых решений в отношении граждан, что создает значительные возможности для дискриминации. Особенно показательным в этом отношении, считает ученый, был 2020 год – он стал беспрецедентным с точки зрения падения роли и значения права как регулятора. 

«На руинах правового регулирования, правовых ценностей возникает новый регулятор – тот самый код. Сейчас алгоритмы становятся фактически новым регулятором общественных отношений. Они начинают принимать решения о том, брать ли человека на работу или учебу, выдавать ли ему кредит, какое наказание ему назначить, связанное с лишением свободы или нет, привлечь ли его к административной ответственности. И здесь мы видим, что все больше алгоритмы начинают проникать в ту сферу, которую традиционно считалась сферой прав человека, правового регулирования и прочих высоких идей», – считает Александр Савельев.

Решения, которые применяются с помощью алгоритмов, в теории могли бы быть более объективными и эффективными. Однако практика использования алгоритмов говорит об обратных результатах. Александр Савельев отмечает, что еще в 2016 году правительство США выпустило исследование по вопросам использования big data, в котором говорилось, что сам факт принятия решений на основе анализа больших данных еще не говорит об их объективности.

В пример ученый приводит уже существующий алгоритм, определяющий платежеспособность конкретного лица. В подобном анализе, как показывает практика и различные исследования, используется в том числе информация из социальных сетей. Если в друзьях у объекта этого анализа есть люди, когда-то не вернувшие кредит, то это оказывает влияние на его рейтинг. Такая же ситуация возникает с выражением какого-либо мнения в постах или, например, использованием ненормативной лексики. «Никакой причинно-следственной связи между тем, что такого рода данные о тебе существуют в социальных сетях, и тем, что ты не возвратишь кредит, – нет. Это только предположения, но они нашли отражение в алгоритме и начинают непосредственно влиять на жизнь человека. Это дискриминация – может быть несколько непредвзятая, по неосторожности на уровне алгоритма. Но у нас есть еще данные, которые обучают соответствующую модель искусственного интеллекта, и от их качества зависит качество принимаемых решений», – говорит Александр Савельев.

Алгоритм начинает действовать по принципу «черного ящика», объясняет эксперт, если проследить за целым рядом факторов невозможно. Среди таких факторов – репрезентативность выборки, наличие возможных ошибок, вес каждого критерия и так далее. Две ипостаси черного ящика:

  • Техническая, когда невозможно проследить в ряде случаев, почему было принято то или иное решение, если речь идет, например, о технологии на основе нейросети;
  • Правовая – существующие нормы об авторском праве и ноу-хау, которые препятствуют прозрачности этих алгоритмов. В таком случае крайне трудной станет защита прав человека. 

В пример Александр Савельев приводит дело «Лумис против Висконсина». В 2013 году в американском штате Висконсин арестовали некоего Эрика Лумиса – он находился за рулем машины, которая использовалась в совершении преступления, и уклонялся от требований полиции. При определении наказания Лумису судья ориентировался на рисковый рейтинг, который был присвоен осужденному специальной системой COMPAS. Эта система обрабатывает данные анкеты, состоящей из 137 пунктов, на основании полученных результатов определяет риски повторения преступления осужденным и предлагает определенное наказание. В числе других критериев, задействованных в расчете рейтинга, – расовая принадлежность, пол, место жительства и другие подобные категории. Лумису было назначено максимальное наказание, это решение он обжаловал в Верховном суде штата. «В данном случае Верховный суд штата Висконсин сказал, что нарушения как бы нет – судья сам принимал решение. И огромную значимость сыграл тот факт, что этот судья сказал «я бы все равно принял такое же решение даже без этой системы». Тем не менее, Верховный суд признал опасность применения такого рода систем и призвал использовать ряд дисклеймеров относительно возможной необъективности. Это хорошая иллюстрация того, что системы алгоритмического принятия решений проникают уже в те сферы, которые нам казались фактически незыблемыми для какой-то исключительно правовой процедуры», – объясняет Александр Савельев. 

Можно ли найти баланс в использовании искусственного интеллекта, какие решения предлагают юристы для охраны произведений, созданных машиной, и заменят ли юристов роботы – об этом рассказывают эксперты в дискуссионной сессии «Цифровая медиасреда: от интеллектуальной собственности до искусственного интеллекта» на площадке Legal Academy.

Развитие искусственного интеллекта и его правовое регулирование станут одними из ключевых тем трека «Smart-общество» на «ПМЮФ 9 ¾: вакцинация правом». Форум пройдет в онлайн-формате с 18 по 22 мая, программа и регистрация доступны на официальном сайте ПМЮФ.

Источник изображения: rawpixel.com – www.freepik.com

Межтекстовые Отзывы
Посмотреть все комментарии
guest