Негативное проявление искусственного интеллекта можно поделить на следующие случаи:1] Вред из-за недочетов в самой системе или ее некорректной работыМожно вспомнить громкое дело США из-за смертельного ДТП участием автопилота Tesla, в результате которого погибла женщина, а еще один пешеход получил травму. В качестве ответчика привлекли компанию Tesla, а суд присяжных вынес вердикт о необходимости выплатить штраф и компенсацию пострадавшему и семье погибшей. Представители компании заявляли, что вина лежит на водителе, так как он должен был контролировать автопилот, хотя сама же компания в рекламной кампании автомобиля обещала «полное автономное вождение». После объявления решения компания заявила, что такой вердикт будет тормозить развитие ИИ.
Возможно это действительно и так, потому что многие разработчики испугаются угрозы применения санкций, но с другой стороны, за ошибки и «черные ящики» в коде кто-то все равно должен отвечать.
2] Использование ИИ человеком для совершения преступления или правонарушенияВ России использование ИИ при совершении
преступления просто квалифицируется как использование компьютерной программы.
Между тем, в приговорах судов можно найти интересные моменты, когда сторона защиты просит признать ИИ соучастником, особенно часто это встречается по ст. 228. Например, в одном из приговоров суд на такую просьбу указал, что «
аккаунт «___» является Телеграм-ботом и не может являться соучастником, значения для выводов о виновности не имеет, поскольку любая электронная программа, в том числе с элементами искусственного интеллекта, создана человеком для выполнения поставленных человеком задач, контролируется человеком и не имеет собственных целей, а потому использование подобных бот-программ в качестве посредников между людьми значения для квалификации преступления не имеет.»
Можно сделать вывод, что в уголовных делах отвечать за искусственный интеллект продолжает его разработчик или владелец.
3] Причинение вреда юнитом ИИ самостоятельно и по собственной инициативеЭто ситуации, когда ИИ в процессе самообучения начинает функционировать непредсказуемо.
Например, в 2020 году турецкий беспилотник на базе ИИ убил человека в Ливии. Дрон был самоуправляемым и самостоятельно искал врагов и целился в них, человеческое управление отсутствовало