Sostav.ru
Москва, ул. Полковая 3 стр.3, офис 120
© Sostav независимый проект брендингового агентства Depot
Использование опубликованных материалов доступно только при указании источника.

Дизайн сайта - Liqium

18+
11.04.2025 в 16:35

OpenAI сократила сроки тестирования ИИ-моделей до нескольких дней

Спешка ради конкурентной гонки может обернуться серьезными рисками для общества

Американская компания OpenAI, разработчик ChatGPT, сократила время и ресурсы, выделяемые на тестирование безопасности своих новых моделей искусственного интеллекта (ИИ), сообщает Financial Times со ссылкой на информированные источники.

Такое решение вызывает обеспокоенность у собеседников издания, поскольку стремление компании сохранить лидерство на рынке ИИ-технологий подталкивает ее к спешному выпуску новых продуктов. Так как большие языковые модели (LLM) становятся все более способными, то увеличивается «потенциальная возможность использования технологии в качестве оружия», считают они.

По информации источников, недавно сотрудники и независимые группы получили всего несколько дней для оценки рисков и производительности новых LLM OpenAI вместо привычного срока в несколько месяцев. Тестирование стало менее тщательным, а ресурсов для проверки недостаточно, чтобы полноценно выявить и минимизировать потенциальные угрозы.

«Когда технологии были менее значимыми, мы уделяли безопасности больше внимания», — отметил один из участников тестирования модели o3, которую OpenAI планирует представить уже на следующей неделе. При этом некоторым тестировщикам предоставили на проверку меньше недели.

Сокращение сроков объясняется растущим конкурентным давлением со стороны технологических гигантов, таких как Meta (признана экстремистской и террористической организацией в России), Google и стартапов, в частности, xAI Илона Маска.

Ранее OpenAI тратила до шести месяцев на проверку своих моделей: так, перед выпуском GPT-4 в 2023 году OpenAI провела полугодовое тестирование на безопасность.

Мирового стандарта для тестирования безопасности ИИ не существует, но с конца 2025 года закон ЕС об ИИ обяжет компании проводить тесты безопасности на своих самых мощных моделях. В апреле 2024-го компании, включая OpenAI, подписали добровольные обязательства с правительствами Великобритании и США, которые позволяют исследователям из институтов безопасности ИИ тестировать модели.

Обсудить с другими читателями:
Ваш браузер устарел
На сайте Sostav.ru используются технологии, которые не доступны в вашем браузере, в связи с чем страница может отображаться некорректно.
Чтобы страница отображалась корректно, обновите ваш браузер.