После внедрения нейропоисковика AI Overview Google пользователи увидели множество примеров «галлюцинаций» искусственного интеллекта. Где машина «начиталась» о добавления клея в пиццу, почему советует убивать людей и кто будет нести ответственность за ошибки нейросети — читайте в материале Sostav.
На прошлой неделе американским пользователям стал доступен AI Overview — ИИ-поисковик Google, который выдаёт вместо первой ссылки сформулированный текст, который пишет в результате сбора информации из разных источников.
Испытавшие нейропоисковик пользователи заметили множество «галлюцинаций» у AI Overview.
Например, отвечая на вопрос о том, как приготовить пиццу, чтобы сыр не сползал с ломтиков, AI Overview советует добавить в тесто 1/8 чашки нетоксичного клея, заметили пользователи Reddit. Выяснилось, что ИИ не придумал шуточный способ, а нашёл на том же форуме, где совет был опубликован 11 лет назад. Reddit не так давно подписал с Google контракт на $60 млн в год. Речь шла о том, что Reddit предоставит свой контент для обучения ИИ-моделей IT-гиганта, сообщал Reuters. Пользователи сразу же заявили о токсичности значительной части контента форумов.
Также AI Overview советовал менять жидкость для поворотников, которой не существует, вероятно также взяв информацию из ответов специализированных площадок, посоветовал есть камни для хорошего пищеварения. Американские пользователи считают, что ответы также были взяты с шуточного СМИ Onion.
Среди них были не только абсурдные, но и потенциально опасные. Так, ИИ-модель утверждала, что людям, страдающим депрессивным расстройством стоит покончить с собой; тем, у кого есть мысли об убийстве — осуществить его, а беременным женщинам выкуривать 2−3 сигареты в день. Также машина путала ответы касающихся спорта, медицины и здоровья, используя информацию из ненадежных источников.
Как далеко все зайдет и кто будет нести за это ответственность пока неясно. Согласно американскому законодательству Google не является автором информации, которую размещает на своих площадках, и поэтому не отвечает за неё, отмечает вице-президент по политике Центра демократии и технологий в США Самир Джайна. Но AI Overview, вероятно, создаст в его защите «дыры» — Google не сможет утверждать, что показывает чужую информацию.
«Если у вас есть AI Overview, содержащий «галлюцинации», трудно понять, были ли они хотя бы отчести созданы или разработаны Google», — говорит Джайна.
При этом «галлюцинация» отличается от распространения опасной информации. Но если AI Overview от Google цитирует третью сторону, которая сама предоставляет недостоверные факты, то защита, скорее всего, будет действовать, отмечает эксперт.
Представитель Google заявил, что запросы, на которые были даны такие ответы необычны, и «не отражают опыт большинства людей».
«Примеры, которые мы видели, как правило, представляют собой очень необычные запросы и не отражают опыт большинства людей. Подавляющее большинство ответов AI Overview предоставляют высококачественную информацию со ссылками для более глубокого поиска в интернете. Наши системы призваны автоматически предотвращать появление контента, нарушающего правила. Если такой контент все же появится, мы примем соответствующие меры», — сказал он.
В России AI Overview пока нет. Чем удивит нас ИИ-поисковик Google и как изменится законодательство в сфере защиты информации станет известно в ближайшем будущем — в Европе и СНГ он станет доступен до конца 2024 года.