• /

Ответственность искусственного интеллекта

Входим в ведущие рейтинги и объединения страны:
Нажимая кнопку «Отправить», вы даете согласие на обработку персональных данных в соответствии с политикой обработки персональных данных

Рейтинг материала:

юрист практики защиты интеллектуальной собственности

Ответственность искусственного интеллекта

Согласно Национальной стратегии развития искусственного интеллекта на период до 2030 года, утвержденной Указом Президента РФ (2019 г.) № 490 «О развитии искусственного интеллекта в Российской Федерации», искусственный интеллект (ИИ) - это комплекс технологических решений, позволяющих имитировать когнитивные функции человека, включая самообучение и поиск решений без заранее заданного алгоритма, и получать при выполнении задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека
В настоящий момент российское законодательство не предусматривает норм, регулирующих ответственность ИИ, а также не указывает, кто именно будет ее нести.
Представим ситуацию – медицинский диагностический алгоритм, используемый в клинике, пропустил ранние признаки онкологии у пациентки, потому что система на базе ИИ с уверенностью в 96% посчитала образование как доброкачественное. Через восемь месяцев диагноз пришлось пересмотреть, выявилась третья стадия рака. 
Кто виноват в таком случае - создавшие модель разработчики, не перепроверивший за системой врач, внедрившая систему без должного контроля больница или сам алгоритм, который, казалось бы, просто следовал своим внутренним, не всегда понятным для человека математическим законам? Этот пример является вполне реальной иллюстрацией главного правового парадокса цифровой эпохи. Искусственный интеллект все чаще становится не просто инструментом, а субъектом принятия решений - от одобрения кредитов и отбора резюме до управления автомобилем и постановки первичных диагнозов. Между тем в правовом поле ИИ остается ничем - ни физическим, ни юридическим лицом

Варианты причинения вреда искусственным интеллектом

Негативное проявление искусственного интеллекта можно поделить на следующие случаи:
1] Вред из-за недочетов в самой системе или ее некорректной работы
Можно вспомнить громкое дело США из-за смертельного ДТП участием автопилота Tesla, в результате которого погибла женщина, а еще один пешеход получил травму. В качестве ответчика привлекли компанию Tesla, а суд присяжных вынес вердикт о необходимости выплатить штраф и компенсацию пострадавшему и семье погибшей. Представители компании заявляли, что вина лежит на водителе, так как он должен был контролировать автопилот, хотя сама же компания в рекламной кампании автомобиля обещала «полное автономное вождение». После объявления решения компания заявила, что такой вердикт будет тормозить развитие ИИ.
Возможно это действительно и так, потому что многие разработчики испугаются угрозы применения санкций, но с другой стороны, за ошибки и «черные ящики» в коде кто-то все равно должен отвечать.
2] Использование ИИ человеком для совершения преступления или правонарушения
В России использование ИИ при совершении преступления просто квалифицируется как использование компьютерной программы.
Между тем, в приговорах судов можно найти интересные моменты, когда сторона защиты просит признать ИИ соучастником, особенно часто это встречается по ст. 228. Например, в одном из приговоров суд на такую просьбу указал, что «аккаунт «___» является Телеграм-ботом и не может являться соучастником, значения для выводов о виновности не имеет, поскольку любая электронная программа, в том числе с элементами искусственного интеллекта, создана человеком для выполнения поставленных человеком задач, контролируется человеком и не имеет собственных целей, а потому использование подобных бот-программ в качестве посредников между людьми значения для квалификации преступления не имеет.» 
Можно сделать вывод, что в уголовных делах отвечать за искусственный интеллект продолжает его разработчик или владелец.
3] Причинение вреда юнитом ИИ самостоятельно и по собственной инициативе
Это ситуации, когда ИИ в процессе самообучения начинает функционировать непредсказуемо.
Например, в 2020 году турецкий беспилотник на базе ИИ убил человека в Ливии. Дрон был самоуправляемым и самостоятельно искал врагов и целился в них, человеческое управление отсутствовало

Сложности определения виновного

Сложностью найти виновное лицо, которое можно привлечь за ущерб, причиненный ИИ, является целая цепочка людей, участвующих в процессе его разработки. 
Создание ИИ включает в себя сбор и разметку данных, разработку алгоритмов и фреймворков, обучение и настройку модели, интеграцию в продукт, развертывание и эксплуатацию, а также непрерывное обучение системы. Всем этим как правило занимается команда, состоящая из десятка человек, где каждый отвечает за отдельные действия, поэтому найти определенного виновного практически невозможно.
Кроме того, искусственный интеллект постоянно обучается, поэтому даже при условии его безопасности в начале работы через время он может трансформироваться и допускать серьезные ошибки в своей работе, которые не были учтены разработчиками

Возможные модели распределения вины

На данный момент предлагается несколько вариантов распределения ответственности за ошибки ИИ
На разработчика или производителя
Здесь проводится аналогия с недостатками товара – виноват тот, кто создал и выпустил на рынок. Предлагается привлекать разработчиков за:
- конструктивный дефект, например, ошибки в архитектуре модели или алгоритме обучения
- производственный дефект, например, сбой, возникший в процессе развертывания или тиражирования модели
- дефект информирования, например, отсутствие или неполнота инструкций о пределах использования, известных рисках, необходимых мерах контроля
В таком случае можно было бы применять Закон о защите прав потребителей, однако сложность состоит в том, что ИИ часто является не товаром, а услугой (SaaS), что усложняет применение данных норм права. Кроме того, проблема может быть не в самом «продукте», а в загружаемых данных или его использовании
На владельца
Здесь аналогия проводится с источником повышенной опасности (как автомобиль или промышленное оборудование). Предполагается, что владелец, извлекающий пользу из технологии, обязан нести ответственность за связанные с ней риски, независимо от своей вины. Владелец должен:
- обеспечивать должную эксплуатацию
- проводить регулярный мониторинг и аудит работы системы
- своевременно устанавливать обновления от разработчика
- контролировать качество входных данных
Эта модель справедлива, так как именно оператор принимает окончательное решение о внедрении ИИ и получает от него экономическую выгоду. С другой стороны, такая модель может быть непосильным бременем для малого бизнеса и тормозить разработку и внедрение инноваций
На конечного пользователя
Может применяться в случаях злоупотребления или использования не по назначению. Например, если человек использует дипфейки для мошенничества или взламывает систему автономного управления для опасной езды. Это классическая область действия уголовного и гражданского права, и здесь с ИИ мало что меняется
Цепочка ответственности
При данной модели предлагается накладывать санкции на каждого участника жизненного цикла ИИ за ту часть рисков, которую он может и должен контролировать:
- разработчик отвечает за базовую безопасность, тестирование, документирование ограничений
- поставщик загружаемых данных - за их качество, репрезентативность и легальность сбора.
- интегратор - за корректное внедрение в среду заказчика
- оператор - за условия эксплуатации, человеческий надзор (где он требуется) и реагирование на возможные инциденты
- регулятор - за установление ясных правил и стандартов
В случае вреда потерпевший вправе требовать возмещения с того участника цепочки, чья вина наиболее очевидна, а тот, в свою очередь, может предъявлять регрессные требования к другим виновным
На электронную личность
Самое радикальное предложение - наделение искусственного интеллекта ограниченной правосубъектностью по аналогии с юридическими лицами. В таком случае у ИИ должен быть свой баланс, с которого бы покрывались возможные убытки. Но эта модель способна покрыть только финансовые аспекты, а с моральной стороны все останутся безнаказанными.
На данный момент наиболее распространенным и применимым, в том числе в России, является подход, предусматривающий возложение ответственности за действия ИИ на человека (разработчика, владельца или конечного пользователя)

ПОлина Пушкарёва

  • юрист практики защиты интеллектуальной собственности
Нажимая кнопку «Отправить», вы даете согласие на обработку персональных данных в соответствии с политикой обработки персональных данных

Правовое регулирование – Россия

В России тема регулирования ИИ находится в начальной, но активной фазе. Ключевыми документами являются:
ФЗ «Об информации, информационных технологиях и о защите информации»
ФЗ «О персональных данных»
ФЗ «О стратегическом планировании в РФ»
ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций в РФ»
Национальная стратегия развития искусственного интеллекта до 2030 года - задает общие цели технологического развития в данной области
Концепция регулирования искусственного интеллекта и робототехники до 2024 года (2020) - она предполагает внедрение мягкого регулирования («регуляторной песочницы») на первом этапе с постепенным переходом к отраслевым нормам
Закон «О экспериментальных правовых режимах в сфере цифровых инноваций» (2020) - инструмент для создания «песочниц», где можно тестировать технологии, включая ИИ, в ослабленном регуляторном режиме
Нацпрограмма «Цифровая экономика Российской Федерации» (2019)
Стратегии развития информационного общества в Российской Федерации на 2017 – 2030 годы (2017)
Кодекс этики в сфере искусственного интеллекта (2021)
Также существует более 10 Постановлений Правительства РФ об установлении экспериментальных правовых режимах в некоторых областях и на определенных территориях.
Прямого закона об ответственности ИИ пока нет, но обсуждаются подходы, близкие к европейским (классификация по риску) и идея специального федерального закона. На сегодня вопросы привлечения за вред, причиненный ИИ, будут рассматриваться в рамках общих норм Гражданского кодекса о возмещении вреда, Закона о защите прав потребителей и, возможно, по аналогии с ответственностью за вред, причиненный деятельностью, создающей повышенную опасность. Однако судебная практика по таким делам практически отсутствует, и многое будет зависеть от первых прецедентов

Правовое регулирование – зарубежный опыт

На сегодняшний день универсального международного договора, предусматривающего санкции в отношении ИИ, нет, но отдельные страны пытаются создать национальное регулирование.
Самым комплексным актом стал Закон об искусственном интеллекте Европейского союза (AI Act), принятый в 2024 году и распространяющий свое действие не только на разработанные в ЕС системы, но и просто на используемые на данной территории. Данный акт делит все ИИ-системы на 4 категории в зависимости от возможного риска:
1
Недопустимый риск (запрещены): Социальная скоринговая идентификация и категоризация людей, системы манипуляции сознанием с использованием уязвимостей
2
Высокий риск (жесткое регулирование): ИИ в биометрии, управлении критической инфраструктурой, образовании, найме на работу, медицинской диагностике. Для них обязательны: оценка соответствия, системы управления рисками, высокая прозрачность, человеческий надзор, регистрация в базе данных ЕС
3
Ограниченный риск (обязательства по прозрачности): Чат-боты, системы генерации контента, в том числе дипфейки. Пользователь должен быть информирован, что взаимодействует с ИИ
4
Минимальный риск (регулирование отсутствует): ИИ-фильтры спама, рекомендательные системы в играх
В случае нарушения условий разработки и использования ИИ компаниям-разработчикам грозят штрафы.
В США единого закона об ИИ нет, а регулирование происходит на нескольких уровнях:
Отраслевой – отдельные госорганы регулируют применение ИИ в подвластных им отраслях
Через приказы и стратегии органов власти, например, билль о правах в области ИИ
Через судебные прецеденты
В Великобритании также отсутствуют самостоятельные законы, предусматривающие возможность привлечения ИИ, регулирование осуществляется путем выпуска различных принципов и руководств. 
Китай же принял жесткий закон, предусматривающий ответственность платформ за действия их алгоритмов, а также обязал маркировать дипфейки.
Недавно в Казахстане вступил в силу Закон об искусственном интеллекте, устанавливающий права и обязанности разработчиков и пользователей, вводящий разделение систем ИИ на степени риска и степень автономности, а также предусматривающий возможность возмещения вреда, причиненного ИИ, и страхование ответственности за такой вред. За некоторые нарушения для пользователей и владельцев ИИ предусмотрены административные штрафы. Это первый подобный закон, принятый в СНГ

К какой ответственности за действия искусственного интеллекта можно привлечь сейчас?

В Кодексе этики в сфере искусственного интеллекта отмечено, что «ответственность за последствия применения систем искусственного интеллекта всегда несет человек», поэтому на данный момент регулирование происходит в соответствии с общим законодательством (например, ГК РФ, КоАП, УК РФ и федеральными законами)
Если рассматривать ИИ как источник повышенной опасности, то применяется ст. 1079 ГК РФ, устанавливающая безвиновную (объективную) ответственность владельца источника повышенной опасности. Для возмещения вреда потерпевшему не нужно доказывать вину владельца, достаточно факта причинения вреда самим объектом. Например, источником повышенной опасности может выступать автомобиль, движущийся на автопилоте, а отвечать за его действия будет собственник, в том числе по ст. 168 УК РФ или ст. 264 УК РФ
За нарушение правил обработки персональных данных ИИ на компанию можно наложить административный штраф по ст. 13.11 КоАП
Если ИИ незаконно собирает или распространяет сведения о частной жизни лица, то его владельца можно привлечь и к уголовной ответственности по ст. 137 УК РФ
Отдельно следует рассмотреть ситуации, когда ИИ используется для создания результата интеллектуальной деятельности, например, принта для футболок. Предприниматель может не проверить, существует ли уже такое изображение, и кто является его автором, а сразу начать продавать футболки с ним. В дальнейшем правообладатель может через суд взыскать с него компенсацию за нарушение исключительного права, и тот факт, что изображение было сгенерировано ИИ, не повлияет на решение суда

Перспективы правового регулирования

Главной проблемой определения ответственности ИИ является отсутствие хотя бы минимального законодательного регулирования.
Можно выделить следующие ключевые векторы развития:
По примеру Европейского «Акта об искусственном интеллекте» необходимо классифицировать системы ИИ по уровню риска (недопустимый, высокий, ограниченный, минимальный). К системам высокого риска (например, медицина, транспорт, правосудие) должны применяться строгие требования к безопасности, прозрачности, человеческому контролю и более жесткие режимы ответственности (например, модель источника повышенной опасности + обязательное страхование)
Требуется детально прописать в законе (например, в специальном федеральном законе об ИИ или поправках в ГК РФ) принципы распределения ответственности между разработчиком, импортером, оператором и владельцем. Нужны критерии для переложения бремени ответственности, например, при доказанном «дефекте алгоритма»
Как указано в Концепции развития регулирования отношений в сфере ИИ, необходимо развивать механизмы финансового обеспечения за действия ИИ. Это может быть обязательное страхование для владельцев систем ИИ высокого риска или создание отраслевых компенсационных фондов (по модели Фонда ОСАГО)
Для реализации модели распределенной ответственности необходима возможность объективно расследовать инциденты с ИИ. Это требует создания методологий, подготовки экспертов в области «цифровой криминалистики» и, возможно, наделения соответствующих органов техническими возможностями для анализа алгоритмов и логов
На сегодняшний день наиболее обоснованным и реализуемым является подход, не признающий за ИИ самостоятельной деликтоспособности, но применяющий санкции на связанных с ним физических или юридических лиц - разработчиков, владельцев, операторов. Модель источника повышенной опасности в сочетании с гибкой системой субсидиарной ответственности и развитым страхованием способна обеспечить справедливое возмещение вреда и создать экономические стимулы для внедрения безопасных технологий. Подробно раскрыть вопросы регулирования в этой сфере может юрист в сфере искусственного интеллекта.

Вам понравилась статья?

Поделиться в соцсетях:

Мы выступаем
юристами-экспертами в СМИ

РБК
Forbes
Executive.ru
Вести культурно-политический журнал
Известия
Skillbox
Дело модульбанка
Zakon.ru первая социальная сеть для юристов
Право.ru
Shopolog клуб умных ритейлеров
Риамо
NGS55.ru омск онлайн
Дзен
Ведомости технологии
RB.RU
Copyright.ru
Клерк
Финансы проект kp.ru
E1.RU екатеринбург онлайн
Коммерческий директор
Велси 1с:франчайзи
Экономика и жизнь
Деловые люди
Гарант.ру
Газета.ru
Criptopizza news
Гарант
Mashnews
Comnews
Аптекарь
Вайти
Таможенная академия: наука
News.ru
Новые известия
74.ru
MSK1.RU москва онлайн
Секрет фирмы
Сравни
MKRU
Adindex
Аргументы и факты
Актион комплаенс справочная система
Pressfeed.журнал
Деловой петербург
Независимая газета

Подпишитесь на нашу рассылку важных юридических новостей

Объясняем без «воды» и даем рекомендации, что нужно делать
Нажимая кнопку «Подписаться на рассылку», вы даете согласие на обработку персональных данных в соответствии с политикой обработки персональных данных

Получить консультацию юриста

Нажимая кнопку «Отправить», вы даете согласие на обработку персональных данных в соответствии с политикой обработки персональных данных