Не так давно Арбитражный суд Москвы впервые взыскал компенсацию за использование дипфейк-видео без разрешения. Этот прецедент инициировало агентство Agenda Media Group . Генеральный директор Agenda Media Group Алексей Парфун и управляющий партнёр юридической компании «ЦПО групп» Анна Коняева поделились с Sostav экспертным мнением об использовании дипфейков и его правового регулирования.
А так можно было?
В российском правовом поле отсутствует официальное понятие «дипфейк». Единственный действующий в России Федеральный закон № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта…», регулирующий сферу применения искусственного интеллекта, не распространяет своё действие на сферу использования нейросетей частными лицами.
Де-факто сегодня допустимо использовать образ человека без его ведома посредством дипфейка практически безнаказанно. Гражданско-правовой или уголовной ответственности за такие действия российским законодательством не предусмотрено. Вопросы о законодательном определении дипфейка и правовом регулировании этого явления постоянно обсуждаются в российском юридическом пространстве. Политики неоднократно заявляли о подготовке соответствующих законопроектов. Отметим, что это общемировая проблема, так как на сегодняшний день ответственность за создание и использование дипфейков предусмотрена только в Китае и США.
С 2021 года в России существует «Кодекс этики искусственного интеллекта». Он содержит 33 пункта и закрепляет такие принципы и стандарты поведения в сфере искусственного интеллекта, как уважение автономии и свободы воли человека, соответствие закону, недискриминация, непричинение вреда, информационная безопасность и другие. В число подписантов кодекса вошли крупные и известные компании, как «Россельхозбанк», «Росбанк», «Авито». Как отмечают специалисты, сам факт появления единого стандарта, закрепляющего общие этические принципы поведения в области искусственного интеллекта, вызывает множество надежд, но и в этом документе непосредственно дипфейкам не отведено отдельного раздела.
Конечно, такая ситуация порождает множество возможностей для использования образа знаменитого человека в коммерческих целях для неограниченного круга лиц. Это серьёзная проблема, которую нельзя недооценивать, особенно на фоне того, что в США дипфейки признали на государственном уровне угрозой национальной безопасности. Тем не менее, несмотря на недостаточное законодательное регулирование, приёмы борьбы с этим явлением в России предпринимаются. Так, в 2023 году АНО «Диалог Регионы» запустила информационную систему мониторинга аудиовизуальных материалов на основе распознавания речи в режиме реального времени, предназначенную для выявления дипфейков благодаря алгоритмической оценке и анализу с помощью искусственного интеллекта.
Войсклоны
Сегодня техника так имитирует голоса, что отличить настоящий голос от скопированного нейросетью с трудом могут даже специалисты. Ответственности за войсклон действующее российское законодательство не предусматривает. Однако с конца октября в СМИ говорят о том, что власти готовят законопроект о защите голоса человека. Сообщается, что законопроект закрепит понятие «синтез голоса» при помощи искусственного интеллекта и вопросы ответственности за незаконное копирование и использование голоса человека.
Поводом к разработке законопроекта послужило обращение в Государственную думу РФ «Союза дикторов России». В обращении заявлено о копировании голосов дикторов и предлагается установить специальное регулирование синтеза человеческого голоса с помощью искусственного интеллекта, ввести лицензии на использование авторского голоса. Но на сегодняшний день голос по-прежнему не защищён законом от копирования.
Эксперты особо отмечают, что гражданское законодательство предусматривает возможность применения норм, регулирующих сходные отношения. Иными словами, возможность применения аналогии закона. Наиболее подходящей к ситуации создания искусственным интеллектом копий голоса и видеофейков является статья 152.1 ГК РФ «Охрана изображения гражданина». Согласно этой статье закона, по общему правилу использование изображения гражданина допускается только с его согласия. Специалисты предполагают, что при рассмотрении судом спора о незаконном использовании чужого голоса или фейкового видео суд может руководствоваться аналогичным подходом.
Как быть?
В целом этичность использования дипфейков зависит от контекста и намерений. Если использование носит законные и художественные цели, происходит с согласия участников и при информировании публики о том, что это фейковый контент, использование таких технологий может стать более этичным. Однако создание и распространение дезинформации, подделки и обман через дипфейки являются неэтичными и должны преследоваться по закону.