________________________________________
  • /

Юрист по ИИ (AI): защита интересов разработчиков и заказчиков

Александр Афонин
Нажимая кнопку «Отправить», вы даете согласие на обработку персональных данных в соответствии с политикой обработки персональных данных
Входим в ведущие рейтинги и объединения страны:

Динамичная специализированная команда с уникальным опытом и признанием, которой доверяют клиенты по всей России

> 50 регионов
где находятся наши клиенты, мы работаем во всех одиннадцати часовых поясах с компаниями от Калининграда до Владивостока, используем современные средства связи и информационные системы, активно выезжаем в командировки
Динамичность
< 3 час.
средний срок ответа на запрос клиента по стандартной задаче. С нами Вы узнаете, что значит оперативность
Специализация
4
основных отраслевых и юридических специализации. Наш фокус - ИТ, E-com, цифровая медицина и интеллектуальная собственность
Команда
15 чел.
мы — действительно сплоченная команда энтузиастов, средний стаж работы в нашей компании — порядка пяти лет
Уникальность
> 90 %
законов в ИТ-сфере было принято после создания фирмы. Мы запускали телемедицинские сервисы до 2018 и токенизировали активы до 2020
Заслуживаем доверие
5 лет
подряд нашу фирму и специалистов отмечают рейтинги Право-300 и ИД Коммерсантъ в числе лучших юристов по нескольким направлениям
Признание
> 12
образовательных, научных и общественных объединений в деятельности которых мы участвуем, включая РАН, ТПП, МГЮА, Moscow Digital School
Опыт
9 лет
средний юридический стаж наших экспертов, мы молодая, но уже зрелая команда экспертов с прочной позицией на юридическом рынке
клиенты из Forbes, RAEX
> 10
крупнейших компаний доверяют нам свои проекты, в их числе компании группы Сбера, Яндекса, Технониколь, LG, 1С и Самолет

Сколько стоит консультация и юридическое сопровождение AI-проекта

Как мы работаем: порядок взаимодействий

Предварительная консультация

На первом этапе юрист обсуждает с клиентом суть возникшего вопроса и потребности клиента, а также дает первичные рекомендации. Так, заказчик может быть заинтересован в урегулировании отношений с разработчиками, применении налоговых льгот для ИТ-компаний, законной обработке персональных данных
Анализ, подготовка и корректировка документов
На следующем этапе специалист запрашивает и анализирует документы и сведения (например, договоры с подрядчиками или пользовательские соглашения) и дает рекомендации по внесению изменений. При согласии клиента юрист корректирует уже имеющиеся и готовит новые документы, необходимые заказчику
Сопровождение работы клиента
После проведения консультаций и составления необходимых документов у клиента в любом случае будут возникать юридические вопросы в рамках его деятельности (например, по защите интеллектуальной собственности или налогообложению), с которыми сможет оперативно помочь юрист с профильной специализацией

Юрист по нейросетям и искусственному интеллекту

Роль юриста в проектах с ИИ и машинным обучением

Юрист в области информационных технологий и искусственного интеллекта решает множество задач, связанных с технологическими решениями, имитирующими человеческий интеллект, которые впоследствии сопоставимы с результатами интеллектуальной деятельности человека
В частности, юрист в сфере ИИ обладает не только юридическими знаниями и навыками, но также пониманием концепции работы моделей ИИ, знаниями в области информационных технологий, персональных данных, интеллектуальной собственности, антимонопольного и административного законодательства. Юрист интерпретирует данные, полученные ИИ и работу подобных сервисов в целом с точки зрения юридических рисков

Повышенные юридические риски в ИИ-проектах

Возникающие риски можно разделить на следующие категории:
Риски в сфере интеллектуальной собственности, в частности, авторских прав: неправомерное использование чужих объектов интеллектуальной собственности для обучения нейросетей (в условиях отсутствующего госудрственного регулирования), а также генерация контента на основе произведений, защищенных копирайтом. Кроме того, к нарушениям можно отнести неправомерное использование чужого программного кода при разработке ПО (без лицензии или в нарушение OpenSource-лицензии), копирование или переработку дизайна интерфейса программы. Такие действия могут привести к судебным разбирательствам и взысканию компенсации либо убытков с нарушителя
Риски в сфере персональных данных: неправомерное использование персональных данных третьих лиц в работе ИИ-сервисов, сбор излишних данных администрацией нейросети и другие нарушения требований закона №152-ФЗ, которые могут привести к крупным штрафам, приостановке деятельности, претензиям и искам со стороны клиентов
Риски в сфере налогообложения: как и в случае с любыми другими ИТ-компаниями, ФНС проверяет соответствие аккредитованных операторов ИИ-сервисов ряду критериев (соответствие видов деятельности, количество сотрудников в штате в сфере ИТ, затраты на ИТ-продукты, достоверность документации и сведений), при несоблюдении которых возможны налоговые доначисления и штрафы
Риски в сфере информационной безопасности: информация (включая код разработанных продуктов) – это высшая ценность ИТ-компании, утрата которой ставит под угрозу все существование бизнеса. В рамках использования ИИ-сервисов важно предусмотреть четкие правила работы с конфиденциальной информацией и коммерческой тайной, а также требования кибербезопасности, чтобы исключить утечки чувствительных сведений

Специфика регулирования новых технологий

Правовое регулирование редко поспевает за техническим прогрессом. Новая технология будет подчиняться ранее действовавшим правилами, а специальное регулирование, как правило, появляется спустя несколько лет (или даже десятков лет) после ее создания. В таких условиях важно соблюдение баланса интересов государства и бизнеса. Технологическим компаниям должно быть комфортно развивать и внедрять технологии, в том числе, за счет налоговых льгот и преференций, однако при этом их деятельность не должна вредить государственным интересам. Такие интересы могут сталкиваться, например, при разработке этических норм для ИИ-сервисов и определении ответственности за рекомендации искусственного интеллекта

Регулирование ИИ в России: нормативно-правовая база

Обзор законодательства РФ по цифровым технологиям

Можно выделить следующие основные нормативно-правовые акты в ИТ-отрасли:
В сфере стратегии развития цифровых технологий:
  • Закон № 172-ФЗ «О стратегическом планировании в РФ»
  • Стратегия научно-технологического развития РФ (Указ Президента РФ № 642)
  • Стратегия развития информационного общества в РФ на 2017 - 2030 годы (Указ Президента РФ № 203)
  • Планы по развитию РФ на период до 2030 года (Указ Президента РФ № 474, распоряжение Правительства РФ № 2765-р)
В сфере развития ИИ:
  • Национальная программа «Цифровая экономика РФ» (Распоряжение Правительства РФ № 1632-р)
  • Указ Президента РФ № 490 «О развитии ИИ в РФ» вместе с национальной стратегией развития ИИ до 2030 г.
Цифровые инновации в промышленной отрасли:
  • Госпрограммы «Развитие промышленности и повышение ее конкурентоспособности» и «Научно-технологическое развитие РФ» (Постановления Правительства РФ № 328, 377)
  • Стратегии развития и цифровой трансформации обрабатывающей промышленности в РФ до 2030 г. (Распоряжения Правительства РФ № 15121-р, № 3142-р)
В сфере введения экспериментальных правовых режимов: Закон № 258-ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций в РФ». Такие режимы в отношении беспилотных авиационных систем установлены, в частности, в Москве, Томской области и Республике Татарстан (город Иннополис)

Юридические пробелы и серые зоны

Сфера ИИ вызывает множество вопросов в юридической сфере, среди которых можно выделить:
1] Определение статуса ИИ – в российском законодательстве данный вопрос остается нерешенным, определять ИИ как объект или субъект права
2] Ответственность за действия и решения ИИ – остается нерешенным вопрос о том, кто именно понесет ответственность (убытки, наказание) за неправомерные действия ИИ, особенно в сфере медицины – разработчик программы, оператор или сам ИИ?
3] Авторские права на результат генерации ИИ – законодательство не дает прямого ответа на этот вопрос. При этом, можно руководствоваться общими положениями ГК РФ, которое наделяет авторскими правами лишь физическое лицо, творческим трудом которого создан объект авторских прав. Таким образом, остается нерешенным вопрос, кто является автором объекта, сгенерированного ИИ на основе миллиона других изображений – разработчик нейросети, сама нейросеть, пользователь? Является ли результат такой генерации в принципе творческим, может ли он быть объектом авторских прав с точки зрения законодательства?

Зарубежное регулирование ИИ и нейросетей

Европейский закон об ИИ (AI Act)

Основным законодательным актом в данной сфере является AI Act 2024/1689 – Регламент (Закон) об ИИ, который охватывает и классифицирует по уровням риска все отрасли и виды ИИ, кроме военной. Закон запрещает использование таких систем для распознавания лиц и эмоций в реальном времени (так называемая система удаленной биометрической идентификации), а также регулирует генеративную деятельность ИИ (например, ChatGPT), беспилотные и медицинские системы с ИИ

Практика США, Китая и Великобритании

Законы США: единый федеральный акт еще не принят, однако отдельные штаты разработали собственные законы, например, о защите персональных данных, кибербезопасности и конфиденциальности данных. Уже проходит стадию общественных обсуждений American Privacy Rights Act, предложенный в середине 2024 года, который введет ограничения на виды данных, которые могут собирать компании о своих пользователях, создаст процессы для доступа пользователей к своим данным или их удаления, а также позволит пользователям отказаться от продажи своих данных брокерам данных. Кроме того, в мае 2025 года был подписан TAKE IT DOWN Act – закон, который разрешает гражданам требовать от операторов любых онлайн-площадок удаления эротического или порнографического контента, созданного на основании изображений таких граждан, в течение 48 часов с момента обращения
Основные законы Китая в данной сфере:
Базовые правила регулирования нейросетей предусмотрены в Законе об управлении алгоритмами 2022 г.
Генеративные программы и языковые модели подробно регулируются Мерами по управлению генеративными ИИ-сервисами 2023 г.
В 2024 г. был принят закон, жестко регламентирующий надзор за развитием ИИ, проверку технической безопасности, хранение данных строго на территории Китая, алгоритмы рекомендаций в соцсетях – Положение о безопасности ИИ
Законы Великобритании: Великобритания занимает третье место в мире по количеству публикаций, посвященных ИИ, а также третье место по количеству компаний, занимающихся ИИ. Единого законодательного акта в данной сфере еще не введено, однако в 2023 г. была выпущена «Белая книга по ИИ» (приказ № 815, AI White Paper), которая представляет собой набор принципов, которых следует придерживаться при разработке ИИ-решений и международном сотрудничестве в этой сфере, а именно:
  • Безопасность, надежность и сохранность
  • Необходимая прозрачность и объяснимость
  • Справедливость
  • Подотчетность и управление
  • Возмещение ущерба

Искусственный интеллект и авторское право: спорные вопросы

Кому принадлежат права на результат генерации ИИ

Если говорить о российском регулировании, ИИ в силу статьи 1228 ГК РФ не признается субъектом авторского права в силу того, что не является физическим лицом. Права на конечное произведение, созданное посредством ИИ, зависят от того, внес ли человек и в какой степени творческий вклад в создание такого объекта. Например, насколько детальный промпт (описание объекта генерации) был написан пользователем, и был ли отредактирован полученный результат генерации. Таким образом, ключевым критерием определения авторских прав на объект является творческий вклад в результат.
Большинство пользовательских соглашений сервисов, основанных на генеративном ИИ, предполагают, что права на созданный контент принадлежат разработчикам программы. Если права на монетизацию созданного контента принадлежат только монетизации сервиса, то это создает серьезные риски для пользователей, которые используют такую площадку в профессиональной и творческой деятельности

Возможность признания ИИ соавтором

С учетом статьи 1228 ГК РФ признать ИИ соавтором – нельзя, поскольку генеративная модель не является физическим лицом, а ее деятельность сводится к анализу и обработке информации, заданной человеком. Кроме того, ИИ не может нести ответственность за свои действия, поскольку не обладает сознанием.
Аналогичным образом определяет статус ИИ и международное законодательство: фактически ИИ, как и юридические лица – это юридическая фикция в том смысле, что за ними всегда стоит конкретный человек или группа людей

Международные подходы к авторству ИИ

В ЕС и США результат генерации ИИ можно признать объектом авторского права только в том случае, если человеком внесен значительный творческий вклад в изменение такого результата, полностью же сгенерированные результаты не могут быть признаны объектами авторских прав.

Отзывы клиентов

Благодарим Михаила Божора за подготовленное заключение о работе с персональными данными в рамках ИИ-сервиса, удалось избежать серьезных штрафов
Команда юристов Афонин, Божор и партнеры – одни из лучших экспертов на рынке на стыке MedTech и искусственного интеллекта, подготовили полный комплект документов для сервиса
Специалисты АБП работают в чувствительных отраслях, включая новые ИИ-технологии, что позволяет нам как акционерам и руководителям стартапа чувствовать себя спокойно
Записаться на консультацию по праву искусственного интеллекта
Нажимая кнопку «Отправить», вы даете согласие на обработку персональных данных в соответствии с политикой обработки персональных данных

Правовое сопровождение разработки и внедрения ИИ

Договоры с разработчиками и подрядчиками

Договоры оказания услуг и договоры подряда договоры заключаются как с подрядчиками (для разработки ПО), так и с заказчиками (для предоставления услуг с ИИ-компонентом, включая рекламные и медицинские услуги). В договорах обязательно следует предусматривать условия предоставления или перехода прав на интеллектуальную собственность. Необходимо также прописывать правила работы с конфиденциальной информацией, в том числе, с помощью ИИ

Лицензионные соглашения и условия использования (SaaS, OEM, White label)

Любое решение с использованием ИИ является программой для ЭВМ. Лицензионный договор предусматривает, что правообладатель (лицензиар) предоставляет пользователю (лицензиату) право использования программы на определенных договором условиях и способах такого использования. При этом договор подробно описывает, каким образом пользователь может использовать программу, может ли изменять ее и другие условия.
Среди видов лицензионных соглашений можно выделить, в том числе, SaaS («Software as a Service» – доступ к программе как услуга), OEM (Original Equipment Manufacturer – договор с производителем оборудования, на которое будет установлена программа), White label (предоставление ПО, брендированного под заказчика), которые различаются по следующим критериям:
  • срокам действия (бессрочный или фиксированный)
  • моделям оплаты (разовый платеж за весь срок действия договора, расчет платежа с учетом количества пользователей и устройств, на основе ежемесячной или ежегодной подписки, с автоматическим продлением или без него)
  • уровню технического обслуживания (например, могут предоставляться разные версии программы и разные варианты технической поддержки, которые влияют на стоимость обслуживания)
Рассмотрим основные особенности таких соглашений:
  • SaaS
    Пользователю предоставляется удаленный доступ к программе через Интернет, данные пользователя хранятся на платформе поставщика, нет необходимости установки программы на ПК, как правило, используется модель ежемесячной или ежегодной подписки (примеры: продукты Microsoft 365, Google, CRM-системы, системы командной работы – Trello и многие другие)
  • OEM
    Лицензия предоставляется производителю оборудования или аппаратных компонентов исключительно для установки на такое оборудование, без права распространения дистрибутивов среди третьих лиц (пример: OEM-лицензии операционной системы Windows, предназначенные исключительно для сборщиков систем)
  • White label
    При использовании модели White label поставщик разрабатывает готовую программу (или услугу) и адаптирует ее под бренд покупателя, при этом разрешает вопросы, связанные с лицензированием, арендой серверов, логистику и техническую поддержку. Возможно использование уже существующего решения с его брендированием под заказчика вместо разработки нового ПО

Учет open-source компонентов в ИИ-продуктах

Учет продуктов с открытым исходным кодом (open-source software / OSS) предполагает анализ рисков, связанных с использованием открытого исходного кода. Лицензии на такие продукты по условиям использования подразделяются на следующие виды:
  1. Разрешительные лицензии (MIT, BSD, Apache 2.0) позволяют использовать, изменять и распространять компоненты для любых (в том числе – коммерческих) целей практически без ограничений
  2. Копилефтные лицензии (GPL, AGPL) отличаются тем, что требуют, чтобы производные работы распространялись под той же лицензией. Нарушение этих условий может привести к отзыву open-source лицензии и лишению права использовать программу целиком
  3. Слабые копилефтные лицензии (LGPL, MPL, EPL) требуют открытия исходного кода только для тех частей программного продукта, которые непосредственно связаны с лицензированным компонентом
Таким образом, при создании ИИ-продуктов с использованием open-source программ необходимо учитывать условия лицензии, чтобы не получить претензию или иск от правообладателя ПО

Лицензирование и сертификация ИИ-продуктов

Необходимость лицензий на определенные виды ИИ
Как мы уже указали выше, искусственный интеллект – это прежде всего программа для ЭВМ, то есть объект авторских и исключительных прав. Его использование возможно исключительно с разрешения правообладателя, которое, как правило, выражается в форме лицензионного договора. В некоторых случаях ПО может распространяться на условиях открытой лицензии, однако коммерческое использование может требовать отдельного согласия изначального разработчика. В любом случае перед использованием любых компонентов, которые включают в себя ИИ, необходимо проверить условия лицензионных соглашений и, при необходимости, заключить отдельный договор с правообладателем
Добровольная и обязательная сертификация
Сертификация в сфере ИИ направлена на подтверждение соответствия продукта установленным требованиям в регламентах и стандартах.
В некоторых сферах бизнеса предусмотрена обязательная регистрация или сертификация. Так, например, программное обеспечение с искусственным интеллектом, которое автоматически анализирует результаты лабораторных исследований или дает рекомендации врачу, должно быть зарегистрировано в качестве медицинского изделия (информационное письмо Росздравнадзора от 13.02.2020 № 02И-297/20). Если рассмотреть автомобильную индустрию, то беспилотный транспорт должен проходить дополнительные тесты, имитирующие реальные условия, в целях снижения рисков ДТП.
На международном уровне существует инициатива по введению единых правил для ИИ в форме стандарта ISO/IEC JTC 1/SC 42, нацеленного на безопасную и ответственную разработку ИИ-технологий.
Кроме того, регистрация программ с ИИ-компонентами в государственных реестрах может потребоваться, если разработчик ПО претендует на налоговые льготы или желает участвовать в госзакупках. Так, например, для применения нулевой ставки НДС требуется зарегистрировать программу в Реестре российского программного обеспечения Минцифры. Программам, которые внесены в указанный реестр, предоставляется преимущество при закупках ПО в рамках 44-ФЗ и 223-ФЗ
Взаимодействие с Росстандартом
Росстандарт – уполномоченный орган по принятию стандартов, в том числе в сфере цифровых технологий. Этой организацией уже принято 152 ГОСТа в ИТ-отрасли, включая стандарты по использованию ИИ в клинической медицине (ГОСТ 59921.7-2022), на автомобильном транспорте (ГОСТ 70250-2022), в строительно-дорожной технике (ГОСТ 71751-2024), в сфере образования (ГОСТ 70944-2023)

Юридические и этические риски при коммерциализации ИИ

Нарушение прав третьих лиц (интеллектуальные права, персональные данные)
Способность нейросети обучаться на исходных данных и накапливать опыт создает предпосылки для нанесения вреда третьим лицам. Так, например, возможно нарушение прав на чужую интеллектуальную собственность, поскольку происходит обучение ИИ на большом массиве контента (изображений, текстов, музыки, видеороликов и др.) Кроме того, недобросовестные пользователи могут передавать нейросети чужие персональные данные, а недобросовестные операторы ИИ-сервисов – использовать полученные данные в собственных целях.
В связи с тем, что нейросети самообучаются в процессе их использования на основании данных, которые получены от пользователей, возникают риски несанкционированной обработки и последующего использования коммерческой и иной охраняемой законом тайны (особо чувствительная информация), что создает прямые угрозы для бизнеса и государства.
Генеративные нейросети систематически нарушают авторские права правообладателей, поскольку алгоритмы разработчиков без разрешения используют защищенные авторскими правами изображения для обучения своих моделей. Потенциально в зоне риска находятся и пользователи нейросетей: использование сгенерированных изображений в коммерческой деятельности (например, предприятием – при производстве товаров, работником – при разработке «уникального» дизайна) может повлечь, как минимум, блокировку товаров на маркетплейсах, а как максимум – судебный иск с требованием компенсации в размере до 5 миллионов рублей. Правообладатель может усмотреть в таких действиях пользователя нейросети переработку изображений или использование образа персонажа, охраняемого авторским правом или зарегистрированного в качестве товарного знака
Риски дискриминации и предвзятости алгоритмов
Поскольку нейросети не обладают человеческим сознанием, они не могут руководствоваться этикой, социальными нормами и моралью при принятии решений, что может приводить к дискриминации и предвзятости по отношению к конкретному лицу или группе лиц (например, по половому или расовому признаку). В частности, имеются повышенные риски в следующих сферах: здравоохранении, судопроизводстве, кредитовании, приеме на работу.
Факторов, влияющих на принятие дискриминационных решений, может быть множество. Среди них: неполные или некорректные исходные данные, умышленное использование разработчиками предвзятой информации, использование исторических данных, отсутствие баланса (разработчики пытаются извлечь максимальную выгоду и производительность из нейросети, игнорируя социальные нормы и общественный интерес).
Пример: алгоритм «Amazon» при трудоустройстве обучался на резюме лиц мужского пола европеоидной расы, что привело к дискриминации при приеме на работу женщин. Критике подверглась и программа «COMPAS», применяемая в судах США для анализа биографии обвиняемых и оценки рисков рецидива – программа необоснованно записывала в группу низкого риска лиц мужского пола европеоидной расы и наоборот
Прозрачность и интерпретируемость решений
В целях предотвращения негативных последствий алгоритмы ИИ должны обладать полной прозрачностью – разработчики обязаны раскрывать пользователям (особенно в таких наиболее чувствительных сферах как здравоохранение, финансы, судебная система) подробную информацию, в том числе:
  1. Сведения, на основании которых проводится обучение нейросети (какие базы данных используются, откуда получен доступ, соблюдены ли права третьих лиц)
  2. Агоритмы, на основании которых нейросети принимают решения, выраженные в понятной пользователю форме
Соблюдение таких требований повышает доверие пользователей и государства к работе нейросетей, а также ускоряет их внедрение в бизнес-процессы и работу государственных органов. Понимание работы алгоритмов помогает разработчикам гарантировать, что нейросети не усиливают предвзятость и дискриминацию в обществе
Риски манипуляции поведением пользователей
Помимо вышеуказанных рисков, ИИ способен манипулировать поведением людей, особенно в сферах торговли и услуг, например, посредством использования результатов бесед с пользователями для формирования персональных рекомендаций. Фактически, каждый пользователь, активно взаимодействующий с ИИ, раскрывает сервису множество чувствительных сведений, на основании которых может быть составлен подробный портрет пользователя. И такой портрет, в лучшем случае, будет использоваться для создания персонализированной рекламы, а в худшем – для формирования «социального рейтинга»

Сбор, использование и защита персональных данных в проектах с ИИ

Соответствие требованиям 152-ФЗ и Роскомнадзора

Любые сведения, относящиеся к физическому лицу и позволяющие его определить, рассматриваются российским законодательством в качестве персональных данных (например, ФИО, паспортные данные, адрес, телефон, электронная почта, модель устройства, cookie-файлы, история поиска в Интернете). Если посмотреть на вопрос персональных данных сквозь призму работы с нейросетями, то это, в первую очередь, история поиска и диалоги пользователей.
Особые риски могут возникать в ситуациях, когда ИИ используется в бизнес-целях и сотрудники компании загружают в нейросеть персональные данные третьих лиц (клиентов и контрагентов) без их согласия. Кроме того, если нейросеть принадлежит зарубежной компании, то происходит трансграничная передача данных, которая возможна только после направления в Роскомнадзор уведомления по особой форме. Наконец, работники могут умышленно или по неосторожности использовать ИИ для работы с конфиденциальной информацией и коммерческой тайной компании
  • -!-
    По общему правилу, операторы персональных данных обязаны получать согласие субъекта персональных данных на работу с его личными данными. При отсутствии такого согласия оператору грозит штраф по ч. 1 ст. 13.11. КоАП РФ до 300 тыс. рублей за нарушение правил обработки персональных данных, при использовании иностранных серверов компании рискуют быть оштрафованными на сумму до 6 млн. рублей, а при масштабной утечке персональных данных – до 15 млн. рублей. Все эти правила в равной степени относятся и к российским операторам ИИ-решений
  • -!-
    Бизнесу следует также обеспечить безопасное управление доступом к персональным данным и ограничить права пользователей для снижения рисков утечек. Доступ к личным данным должен предоставляться исключительно сотрудникам, которым он необходим для выполнения трудовой функции. Например, менеджеру по продажам или маркетингу, который работает в частной клинике, для формирования рекламной рассылки или правил акции не потребуются сведения о состоянии здоровья пациентов

Согласие на обработку персональных данных в рамках ИИ

Обучение нейросетей зачастую связано обработкой персональных данных пользователей, которые загружаются в систему. Использовать такие сведения для обучения ИИ можно лишь в том случае, если получено согласие от пользователя. Из текста согласия должно явно следовать, что данные будут использоваться для автоматизированной обработки, включая обучение алгоритмов ИИ. В противном случае, если такая формулировка отсутствует, согласие не будет считаться полученным.
При обработке персональных данных без отдельного согласия бизнесу грозит штраф вплоть до 300 тыс. рублей согласно ст.13.11 КоАП РФ. Если речь идет о специальных категориях перс. данных (например, сведениях о состоянии здоровья), то сумма штрафа возрастает до 700 тыс. рублей, а при повторном нарушении – до 1,5 млн. рублей

Риски автоматизированной обработки и принятия решений

При автоматизированной обработке данных и принятии решений возникает несколько рисков:
1] Нарушение основных принципов обработки персданных – законности, справедливости и прозрачности (например, неизвестен источник информации, информация использована без разрешения субъекта персональных данных)
2] Дискриминация или предвзятость – алгоритмы ИИ могут непреднамеренно воспроизводить и усиливать существующие в обществе предрассудки, что может привести искам о дискриминации
3] Нарушение принципа минимизации данных – система собирает или использует больше информации, чем необходимо для достижения заявленных целей
4] Трансграничная передача данных – разные страны имеют различные требования к защите данных, в РФ же с 01 июля 2025 г. 152-ФЗ прямо запрещено обрабатывать личные сведения россиян с помощью зарубежных баз данных
5] ИИ может принимать некорректные решения на основе прогнозов, неправильно классифицировать данные
6] Если система совершает ошибку, возникает вопрос о том, кто несет ответственность – разработчик, владелец системы или пользователь

Почему выбирают нас

  • Работа «под ключ»: от инвентаризации моделей/данных и политики AI-governance до внедрения процедур и отчётности
  • Конфиденциальность: NDA и защищённые каналы, режим коммерческой тайны
  • Глубокая экспертиза в регуляторике по ИИ, защите данных и цифровых сервисах
  • Сопровождение кросс-бордер проектов: РФ/ЕС/междунар., взаимодействие с в нужных юрисдикциях
  • Документы и процессы: условия использования, лицензии на датасеты/модели, SLA, ответственность и отказ от гарантий
  • Индивидуальные решения: классификация рисков, договорные механики распределения рисков
  • Быстрые согласования и прозрачная отчётность
  • Ориентация на результат: снижаем регуляторные и репутационные риски
  • Приоритизируем требования, избегая «лишнего» комплаенса
  • Правовая чистота источников: проверка законности сбора/обработки данных и цепочки прав на ИС

Специалист, проверивший статью:

юрист практики сопровождения бизнеса

Опубликовано:
19.11.2025

Взаимодействие с Роскомнадзором по проектам ИИ

Уведомления об обработке персональных данных

Любая компания и ИП, которые работают с персональными данными, выступают операторами по обработке персональных данных, которые обязаны уведомить Роскомнадзор о начале такой обработки. При этом, просто подать уведомление - недостаточно, необходимо подготовить комплект документов и периодически его обновлять. Компаниям рекомендуется провести обучение сотрудников в целях соблюдения закона №152-ФЗ во избежание предписаний и штрафов, а также четко разграничивать доступ работников к информации и предупреждать их об ответственности за неправомерные действия. 
В случае нарушения обязанности по направлению уведомления Роскомнадзором будет наложен штраф по ч. 1 ст. 13.11. КоАП РФ до 300 тыс. рублей за нарушение правил обработки персональных данных. Повторное нарушение создаст риск штрафа до 500 тыс. рублей

Антимонопольное регулирование ИИ-технологий

Риски злоупотребления доминирующим положением

Антимонопольное законодательство направлено на предотвращение действиямй, ограничивающими конкуренцию. В эпоху ИИ, когда концентрация вычислительных мощностей может означать победу в конкурентной борьбе, антимонопольные органы будут обращать повышенное внимание и на эту сфере экономики. Можно выделить некоторые антимонопольные риски:
  • монополизация рынка ИИ-решений крупными компаниями, что затрудняет стартапам доступ на рынок
  • необоснованное завышение цен, например, использование ценовых ИИ-алгоритмов, которые автоматически реагируют на изменение цен у конкурентов
  • в сфере рекламы – дипфейки с использованием, например, лица или образа известного человека

Регистрация интеллектуальной собственности в сфере ИИ

Патентование изобретений, связанных с ИИ

Законодательство РФ не содержит особых требований к патентованию именно решений c искусственным интеллектом. При этом, важно учитывать особенности патентования в целом и патентной защиты программных продуктов.
Так, изобретение должно отвечать обязательным требованиям: новизне, промышленной применимости, изобретательскому уровню. В заявке должна быть раскрыта суть изобретения и его отличия от других решений. При этом идеи, изложенные в заявке, не должны быть абстрактными. Так, например, необходимо указать, как ИИ будет взаимодействовать с ПО или другим объектом, как будет улучшать алгоритмы его работы, в чем заключается оптимизация или повышение эффективности производственных процессов
Следует учитывать и дополнительные обстоятельства:
  1. Автором изобретения может быть только физическое лицо (при этом, правообладателем может являться компания)
  2. Помимо использования патентных процедур, возможно депонирование программ для их защиты в качестве объектов авторского права, а также регистрация уникальных названий продукта или технологии в качестве товарных знаков
  3. Программы для ЭВМ могут быть зарегистрированы в Роспатенте – это не подтверждает их актуальность, но позволяет подтвердить дату их создания определенным лицом и защитить софт от притязаний других лиц

Авторские права на нейросети и результаты их работы

Российское авторское право не содержит специальных правил для контента, созданного с помощью ИИ. В связи с этим следует обратиться к общим положениям части 4 ГК РФ:
Автором произведения может быть только физическое лицо, творческим трудом которого оно создано (ИИ не имеет такого статуса, а степень творчества и оригинальности результатов генерации – весьма сомнительна)
ГК РФ не учитывает возможность машинного (генеративного) создания контента
В силу ст. 1270 ГК РФ правообладатель вправе распоряжаться своим произведением по своему усмотрению, в том числе разрешать или запрещать его использование (так называемая легальная монополия правообладателя), без наличия прямого согласия от автора ИИ-генерация будет признана незаконной
В случае, если потребуется защищать права на контент, сгенерированный с помощью нейросети, необходимо будет доказать, что конечный результат представляет собой следствие творческой деятельности именно человека, использующего ее лишь как инструмент в работе
В некоторых случаях разработчики прописывают в пользовательском соглашении авторские права пользователя на сгенерированный контент или ответы (например, такая концепция предусмотрена OpenAI)

Регистрация программ для ЭВМ с элементами ИИ

Если программа содержит в себе элементы ИИ, ее можно включить в реестр российского ПО. При подаче заявки проставляется «галочка» о том, что ПО относится именно к сфере ИИ, при этом от заявителя требуется представить обоснование в свободной форме, почему он считает, что его программу следует отнести именно к этой категории
Так, приказом Минэкономразвития РФ № 392 «Об утверждении критериев определения принадлежности проектов к проектам в сфере искусственного интеллекта» предусмотрены 3 основные критерия для отнесения ПО к категории ИИ: 
  • -!-
    Предмет – основная задача проекта, которая предполагает внедрение ИИ и получение результатов, сопоставимых с результатами интеллектуальной деятельности человека
  • -!-
    Базовая технология – во-первых, должна использоваться, как минимум, одна ИИ-технология (например, синтез речи, машинное обучение, обработка информации и данных и так далее, при этом список не является исчерпывающим), а во-вторых – ПО должно решать технологические задачи в области ИИ (например, создание разговорного бота, бота по проверке подлинности личности и речи)
  • -!-
    Результат реализации – создание новых технологий, эффективная реализация алгоритмов

Судебные споры в сфере ИИ и нейросетей

Категории споров (авторские права, патентные права, контракты)

Судебные споры в указанной сфере возникают из-за вопросов, связанных с использованием ИИ-технологий. Например, речь может идти о нарушении авторских прав на произведения или патентных прав на разработку (в связи с заимствованием из них при генерации контента), или об административных правонарушениях (например, в связи с созданием и распространением противозаконной рекламы, или спам-звонками от ботов под управлением ИИ). Такие споры встречаются как в РФ, так и за рубежом

Резонансные судебные дела в РФ и за рубежом

В России
Дело об использовании технологии Deep-fake (решение Арбитражного суда г. Москвы от 19.11.2023 г. по делу № А40-200471/2023, апелляционный и кассационный суды оставили решение в силе).
Суд удовлетворил исковые требования в полном объеме и указал, что технология Deep-fake основана на «использовании генеративно-состязательных нейросетей (GAN), которые позволяют частично преобразовывать исходный видеоряд с помощью алгоритмов, созданных человеком». Суд не согласился с доводами ответчика о том, что: 
  1. Видеоряд был полностью сгенерирован
  2. Созданный ролик не является объектом авторского права, поскольку технология Deep-fake - это «дополнительный инструмент обработки (технического монтажа) видеоматериалов, а не способ их создания»
Таким образом, суд защитил авторские права на рекламный ролик, где технология была лишь инструментом, а основная работа и творческий вклад был внесен группой авторов – сценаристом, видеооператором, моушн-дизайнером и актером
Дело об использовании нейросети при генерации изображения (решение Арбитражного суда Мурманской области от 28.09.2023 г. по делу № А42-3966/2023, апелляция оставила в силе).
Суд отклонил довод ответчика о том, что спорное изображение сгенерировано через нейросеть, и признал его объектом авторского права. В качестве доказательств авторства суд принял скриншот, в котором произведение открыто в 3D-формате, который имеется только у автора. Таким образом, суд признал права автора на изображение за человеком, который доказал, что сначала создал исходную 3D-модель, а нейросеть использовал только для ее финальной обработки
Дело о правах на секрет производства (ноу-хау) с использованием нейросетей (решение Арбитражного суда Республики Татарстан от 16.08.2023 г. по делу №А65-36782/2022, апелляция и кассация оставили в силе, Верховный суд не принял жалобу).
Лицензиат пытался оспорить наличие в сведениях, переданных лицензиаром, секрета производства, а именно аналитики, основанной на ИИ – двухуровневой сети прямого распространения, обученной с помощью алгоритма Levenberg-Marquardt. Истец ссылался на то, что указанные сведения не имеют коммерческой ценности ввиду неизвестности их третьим лицам, однако суд встал на сторону ответчика, поскольку истец не смог оспорить коммерческую ценность такой информации
За рубежом
В 2023 году The New York Times подало иск против Microsoft Corporation и группы компаний OpenAI. Издание обвинило компании в несанкционированном использовании миллионов своих статей для обучения чат-ботов. В настоящий момент спор еще не разрешен и находится на стадии рассмотрения
В июне 2025 года в окружной суд Калифорнии был подан коллективный иск от лица Disney Enterprises, Inc., Marvel Characters, Inc., Lucasfilm Ltd. LLC, Twentieth Century Fox Film Corporation, Universal City Studios Productions LLLP, DreamWorks Animation L.L.C., против создателей нейросети Midjourney, Inc., утверждая, что Midjourney систематически нарушает их авторские права, незаконно обучаясь на чужих произведениях
В июне 2025 года Reddit подала иск против компании-разработчика Anthropic. Reddit обвинил разработчика ИИ в незаконном использовании контента с платформы для обучения ИИ-моделей (в частности, «Claude»), игнорировании условий пользовательского соглашения и отказе от заключения лицензионного соглашения. При этом Reddit на основании лицензионного соглашения уже передает данные OpenAI и Google

Участие технических экспертов в судебном процессе

В ходе судебного разбирательства по делам о нарушении исключительных прав, особенно в сфере технических решений, требуется заключение эксперта (консультация специалиста), поскольку суд может не владеть теми знаниями, которыми обладает технический специалист. Например, суду будет трудно разобраться в сущности изобретения или оценить, использованы ли все независимые пункты из формулы изобретения в устройстве.
Может потребоваться и мнение специалиста из ИТ-сферы, когда требуется проверить, были ли использованы в алгоритме объекты интеллектуальной собственности правообладателя

Ответственность за ошибки и убытки, причиненные ИИ

Кто несет ответственность за автономные действия ИИ

Поскольку специального законодательного регулирования по данному вопросу в РФ еще нет, возникают определенные трудности:
  • поскольку ИИ не является субъектом права, не обладает самосознанием, в силу чего самостоятельно не может нести ответственность;
  • цепочка ответственности физических лиц, так или иначе принимающих участие в разработке или использовании ИИ, достаточно размыта – в определенных ситуациях вина может возлагаться как на разработчиков, так и на пользователей
Но при этом мы можем воспользоваться общими положениями ГК РФ и Закона о защите прав потребителей
  • -!-
    Так, разработчики несут ответственность за алгоритмы, с помощью которых нейросети обрабатывают информацию. С связи с этим на этапе разработки создатели должны предусматривать некоторые ограничения по фильтрации контента (например, запрещать генерацию наготы и насилия)
  • -!-
    Конечные пользователи, в свою очередь, несут ответственность за использование нейросетей в противоправных целях. На них лежит обязательство проверять, редактировать контент, полученный с помощью генерации, для использования в коммерческих целях (например, производства и продажи товаров потребителям), в противном случае есть высокая вероятность нарушить исключительные права третьих лиц
Можно привести в пример и особые случаи использования ИИ. Так, например, если беспилотный автомобиль собьет человека, возмещение вреда будет регламентировано ст. 1079 ГК РФ. Если же в ходе медицинской операции с использованием ПО будет причинен вред человеку, помимо главы 59 ГК РФ подлежит применению и Закон о защите прав потребителей

Страхование рисков в ИИ-проектах

Страхование рисков в ИИ-проектах может понадобиться, например, в случае сбоев в работе системы, утечки данных, незаконного использования интеллектуальной собственности, а также иных ситуациях.
Изменениями, внесенными 8 июля 2024 года в ФЗ об экспериментальных правовых режимах, было внедрено обязательное страхование рисков за причинение вреда при использовании ИИ-систем. Так, в программу страхового режима обязательно должны быть включены порядок и условия использования интеллектуальной собственности, положения о страховании ответственности за причинение вреда жизни, здоровью или имуществу третьих лиц

Кейсы в сфере AI

Крупнейший телемедицинский сервис
Клиентом регулярно разрабатываются медицинские решения с ИИ для работы с врачами и пациентами, в том числе – для оценки КТ-снимков при эпидемии COVID и для маршрутизации пациентов к нужным врачам и на необходимые обследования. Юристы нашей компании готовят всю документацию для таких проектов с учетом ограничений по использованию ИИ в медицинских изделиях, что позволяет клиенту избегать штрафов надзорных органов и претензий пациентов и медицинских работников
Разработчик ИИ в банковской группе
Клиент разрабатывает ИИ-решения в сфере медицины, включая программную часть (помощники с искусственным интеллектом) и аппаратную часть (устройства, под управлением ИИ, предназначенные для использования врачами и пациентами). Наши специалисты оценивают возникающие риски и составляют документацию для работы с врачами и пациентами таким образом, что клиент может продавать разработанные решения в медицинские организации, не неся при этом убытков (из-за штрафов Росздравнадзора или претензий заказчиков)
Оператор радиологического ИИ-сервиса
Клиент создал программу для оценки и разметки снимков, полученных с медицинского диагностического оборудования, включая КТ, МРТ и рентген-аппаратов. Проблематика состояла в необходимости обработки персональных данных пациентов, которая требовала значительных вложений в инфраструктуру. В результате работы юристов подготовлено юридическое обоснование работы с обезличенными данными и обеспечена работа сервиса без дополнительных затрат

Нашим юристам доверяют компании

Сберздоровье
Level.Travel
Павлик
Veka
Технониколь торговая сеть
Renovatio
happy job
рткомм
НВБС системный интегратор
ключевые системы и компоненты
продамус
максавит
callisto vision
курьерика
суперкасса
MarketGuru
блоптоп
центр внедрения протек
нипи горного дела
уральские заводы
ОАО «НПО «ГИДРОМАШ»
АО «НПП «ЭСТО»
ЦЭИ
ЭлЖур
Out Digital
LG
Телемедицинский сервис iBolit
hello, doc
Getblogger
vbi
CompuGroup Medical (CGM)
Wazzup
Моё здоровье
con-med
bookform
halsa
hubrid
beorg smart vision
rmg
инфоурок
sflabs
двенадцать диджитал

Мы выступаем экспертами в СМИ

РБК
Forbes
Executive.ru
Вести культурно-политический журнал
Известия
Skillbox
Дело модульбанка
Zakon.ru первая социальная сеть для юристов
Право.ru
Shopolog клуб умных ритейлеров
Риамо
NGS55.ru омск онлайн
Дзен
Ведомости технологии
RB.RU
Copyright.ru
Клерк
Финансы проект kp.ru
E1.RU екатеринбург онлайн
Коммерческий директор
Велси 1с:франчайзи
Экономика и жизнь
Деловые люди
Гарант.ру
Газета.ru
Criptopizza news
Гарант
Mashnews
Comnews
Аптекарь
Вайти
Таможенная академия: наука
News.ru
Новые известия
74.ru
MSK1.RU москва онлайн
Секрет фирмы
Сравни
MKRU
Adindex
Аргументы и факты
Актион комплаенс справочная система
Pressfeed.журнал
Деловой петербург
Независимая газета

Специалисты

Статьи и аналитика

Подпишитесь на нашу рассылку важных юридических новостей

Объясняем без «воды» и даем рекомендации, что нужно делать
Нажимая кнопку «Подписаться на рассылку», вы даете согласие на обработку персональных данных в соответствии с политикой обработки персональных данных

Отзывы

Записаться на консультацию к юристу

Нажимая кнопку «Отправить», вы даете согласие на обработку персональных данных в соответствии с политикой обработки персональных данных