Компания OpenAI, разработавшая популярный чат-бот ChatGPT, выпустила классификатор, который позволяет отличить текст, написанный человеком, от текста, сгенерированного нейросетью. Технология призвана выявлять фейковые материалы в интернете и списанные учебные работы. Об этом разработчик сообщил на своём сайте.
Классификатор представляет собой языковую модель, обученную на подборках пар текстов, написанных человеком и сгенерированных искусственным интеллектом (ИИ). Запросы к нейросетям формулировались исходя из тем текстов, созданных реальными людьми.
Однако проверка классификатором не имеет абсолютной надёжности и пока рекомендована для материалов на английском языке. Во время тестирования классификатор обнаруживал тексты от нейросети с точностью 26%, а в 9% случаев ошибался и признавал «человеческий» сгенерированным ИИ.
Точность работы будет расти по мере увеличения объёма проверямого текста. Надёжность инстумента будет низкой при проверке небольших текстов (до 1 тыс. знаков). Также технология может ошибиться, если проверяемый текст ранее отредактировал человек.
Проверка текстов на «человечность» стала актуальной после всплеска популярности ChatGPT. Подобный инструмент под названием GPTZero уже выпускал ранее студент Принстонского университета. Приложение так заинтересовало пользователей, что платформа Streamlit, на которой был доступен GPTZero, не справилась с трафиком, так что руководство университета ввело ограничения.
ChatGPT представила американская компания OpenAI в конце ноября 2022 года. Всего за пять дней в чат-боте зарегистрировалось более 1 млн пользователей. Нейросеть настолько хорошо генерирует тексты, что прославилась качественным написанием экзаменационных и других работ для школьников и студентов, и даже «поступила» в вузы США. Как бот набрал популярность и почему его все обсуждают — Sostav рассказывал в своём материале.