Американская компания OpenAI, разработчик ChatGPT, сократила время и ресурсы, выделяемые на тестирование безопасности своих новых моделей искусственного интеллекта (ИИ), сообщает Financial Times со ссылкой на информированные источники.
Такое решение вызывает обеспокоенность у собеседников издания, поскольку стремление компании сохранить лидерство на рынке ИИ-технологий подталкивает ее к спешному выпуску новых продуктов. Так как большие языковые модели (LLM) становятся все более способными, то увеличивается «потенциальная возможность использования технологии в качестве оружия», считают они.
По информации источников, недавно сотрудники и независимые группы получили всего несколько дней для оценки рисков и производительности новых LLM OpenAI вместо привычного срока в несколько месяцев. Тестирование стало менее тщательным, а ресурсов для проверки недостаточно, чтобы полноценно выявить и минимизировать потенциальные угрозы.
«Когда технологии были менее значимыми, мы уделяли безопасности больше внимания», — отметил один из участников тестирования модели o3, которую OpenAI планирует представить уже на следующей неделе. При этом некоторым тестировщикам предоставили на проверку меньше недели.
Сокращение сроков объясняется растущим конкурентным давлением со стороны технологических гигантов, таких как Meta (признана экстремистской и террористической организацией в России), Google и стартапов, в частности, xAI Илона Маска.
Ранее OpenAI тратила до шести месяцев на проверку своих моделей: так, перед выпуском GPT-4 в 2023 году OpenAI провела полугодовое тестирование на безопасность.
Мирового стандарта для тестирования безопасности ИИ не существует, но с конца 2025 года закон ЕС об ИИ обяжет компании проводить тесты безопасности на своих самых мощных моделях. В апреле 2024-го компании, включая OpenAI, подписали добровольные обязательства с правительствами Великобритании и США, которые позволяют исследователям из институтов безопасности ИИ тестировать модели.