Российские ученые разработали технологию маркировки контента, генерируемого нейросетями, для защиты пользователей от фейковой информации. Об этом сообщает ТАСС со ссылкой на академика Арутюна Аветисяна, директора Института системного программирования имени В.П. Иванникова Российской академии наук (ИСП РАН).
Академик подчеркнул, что на сегодняшний день в мире нет инструментов, способных автоматически распознать контент, созданный искусственным интеллектом (ИИ). Применение цифровых водяных знаков для маркировки ИИ-контента помогает обезопасить пользователей от угроз, связанных с распространением недостоверной информации.
«[В ИСП РАН для решения этой проблемы разработана] технология Docmarking, использующая машинное обучение для внедрения в изображения или видеопоток незаметных цифровых меток — так называемых водяных знаков», — поделился Арутюн Аветисян с информагентством.
Ученый пояснил, что разработка позволяет защищать конфиденциальные данные за счет внедрения меток в документы. Он упомянул, что необходимость маркировать ИИ-контент закреплена в Национальной стратегии развития искусственного интеллекта в России до 2030 года, а также в нормативных актах Европейского союза и США.
В начале года президент России Владимир Путин подписал указ об обновлении Национальной стратегии развития искусственного интеллекта до 2030 года.