Способность нейросети обучаться на исходных данных и накапливать опыт создает предпосылки для нанесения вреда третьим лицам. Так, например, возможно нарушение прав на чужую интеллектуальную собственность, поскольку происходит обучение ИИ на большом массиве контента (изображений, текстов, музыки, видеороликов и др.) Кроме того, недобросовестные пользователи могут передавать нейросети чужие персональные данные, а недобросовестные операторы ИИ-сервисов – использовать полученные данные в собственных целях.
В связи с тем, что нейросети самообучаются в процессе их использования на основании данных, которые получены от пользователей, возникают риски несанкционированной обработки и последующего использования коммерческой и иной охраняемой законом тайны (особо чувствительная информация), что создает прямые угрозы для бизнеса и государства.
Генеративные нейросети систематически
нарушают авторские права правообладателей, поскольку алгоритмы разработчиков без разрешения используют защищенные авторскими правами изображения для обучения своих моделей. Потенциально в зоне риска находятся и пользователи нейросетей: использование сгенерированных изображений в коммерческой деятельности (например, предприятием – при производстве товаров, работником – при разработке «уникального» дизайна) может повлечь, как минимум, блокировку товаров на маркетплейсах, а как максимум – судебный иск с требованием компенсации в размере до 5 миллионов рублей. Правообладатель может усмотреть в таких действиях пользователя нейросети переработку изображений или использование образа персонажа, охраняемого авторским правом или зарегистрированного в качестве
товарного знака