Sostav.ru
15.05.2023 в 11:03

В России предложили маркировать контент, созданный искусственным интеллектом

Авторы инициативы предлагают доработать федеральный нацпроект «Цифровая экономика»

4

Российский технологический университет (РТУ МИРЭА) предложил Минцифры ввести обязательную маркировку контента, который создан при помощи искусственного интеллекта (ИИ), пишет ТАСС со ссылкой на письмо ректора вуза Станислава Куджа главе Минцифры Максуту Шадаеву. Также он предлагает ведомству разработать программу защиты критически важной инфраструктуры от возможных кибератак с использованием ИИ.

В письме отмечено, что маркировать контент можно с помощью графического знака. Кроме того, следует внести изменения в «рамках федерального проекта «Искусственный интеллект» национальной программы «Цифровая экономика».

Также РТУ МИРЭА предлагает ввести в приказ Минцифры от 21.12.2020 № 734 «Об определении угроз безопасности персональных данных» новый пункт — «угроза несанкционированного доступа к персональным данным без соответствующих полномочий в информационных системах и дальнейшего их использования с применением искусственного интеллекта».

«Очевидно, что без введения дополнительных мер контроля за развитием искусственного интеллекта нейросети уже в ближайшие несколько лет смогут гораздо эффективнее, чем люди, взламывать защиту компьютерных программ, в том числе в критически важных для экономики сферах», — уточняется в письме.

Также университет предлагает включить модуль «Противодействие неправомерному использованию нейросетей» в спецпроект Минцифры «КиберЗОЖ» федерального проекта «Информационная безопасность».

В обращении также отмечается, что вуз опросил экспертов о потенциальных угрозах при использовании ИИ. Наиболее вероятные опасности — рост преступлений в сети, а также угроза сохранения личных данных при использовании нейросетей даже для развлечения.

В Европе также озадачены вопросом защиты от возможных рисков, которые несут нейросети. 11 мая евродепутаты предварительно проголосовали «за» внедрение закона о регулировании ИИ. Окончательное рассмотрение запланировано на июнь.

Если закон будет окончательно принят, то OpenAI, Google, Midjourney и прочие технологические компании, разрабатывающие нейросети, будут вынуждены анализировать риски при разработке, помечать материалы, защищённые авторским правом и используемые для обучения ИИ. Также они должны будут маркировать контент, созданный с помощью нейросети или дипфейков. Также парламентарии выступают против бесконтрольного сбора биометрических данных в соцсетях.

Обсудить с другими читателями:
Ваш браузер устарел
На сайте Sostav.ru используются технологии, которые не доступны в вашем браузере, в связи с чем страница может отображаться некорректно.
Чтобы страница отображалась корректно, обновите ваш браузер.