В России в ближайшие годы появится «Цифровой кодекс» — отдельный свод законов, норм и правил, регулирующий искусственный интеллект (ИИ). В нём планируют прописать ответственность разработчиков ИИ, разделение умных цифровых систем на опасные и безопасные, а также закрепить маркировку контента, сгенерированного нейросетями. Об этом сообщает «Парламентская газета» со ссылкой на заявления участников круглого стола на тему «Какие правила должны быть закреплены для использования искусственного интеллекта в России?».
По мнению директора Национального центра развития искусственного интеллекта при правительстве Сергея Наквасина, Россия находится в одном шаге от массового внедрения интеллектуальных цифровых систем. По его оценкам, ИИ применяется в 5−20% сферах в различных областях, но технологии развиваются «чудовищными темпами». В течение двух-трёх лет этот показатель увеличится до 50%, уверен эксперт.
При этом Наквасин указал на то, что в России нет даже терминологической базы — нигде не зафиксировано чёткое определение самого искусственного интеллекта и дополнительных понятий, связанных с ним. Нет систем классификации, по которым разные ИИ можно определять как опасные и безопасные, не выработаны механизмы применения интеллектуальных систем в различных юридических и финансовых процессах и так далее.
Однако такая работа в России ведётся — «в два-три года она и должна уложиться», заверила первый заместитель председателя комитета Совета Федерации по конституционному законодательству и государственному строительству Ирина Рукавишникова.
«Хотя, на мой взгляд, у нас нет так много времени. Нам нужно работать гораздо быстрее», — добавила сенатор. По её словам сейчас в Совфеде и Госдуме огромный пул экспертов разрабатывают тему ИИ. При этом часть законопроектов уже готова, они находятся в стадии доработки, заявила Рукавишникова.
«По сути, перед нами сейчас стоит задача сформировать некую принципиально новую отрасль, которая могла бы называться цифровым правом», — указала сенатор.
Она отметила, что регулировать сферу ИИ начнут с ответственности разработчиков. «Пока что эта сфера у нас не охвачена — на разработчиков ИИ, например, не распространяются требования, которые мы ввели для операторов систем сбора персональных данных, СМИ и социальных сетей. Вот здесь как раз никакой новой глобальной структуры не нужно — достаточно включить поправки в уже существующие законы», — пояснила Рукавишникова.
Другая форма защиты от ИИ, по словам участников дискуссии, — маркировка контента, созданного нейросетями. В ходе обсуждения отмечалось, что прежде всего это нужно, «чтобы снизить угрозу от дипфейков», которые в том числе уже освоили мошенники.
Кроме того, участники обсуждения напомнили, что концепция развития ИИ в России существует уже несколько лет. Сейчас в связи со стремительным развитием технологий работу по её реализации нужно «серьёзно ускорить», считают они.