Технологии искусственного интеллекта (ИИ), которые Facebook применяет для модерации в соцсети, не могут эффективно распознавать и удалять жестокий контент, а также контент с проявлениями ненависти, пишет The Wall Street Journal со ссылкой на позицию инженеров компании. При этом в 2019 году живые модераторы стали тратить меньше времени на рассмотрение жалоб на жестокий контент — из-за этого роль ИИ в публичной статистике оказалась завышена.
Издание отмечает, что ИИ Facebook не может точно определять расистские высказывания и видео от лица зачинщиков стрельбы. Однажды алгоритм не смог установить разницу между видео петушиных боёв и автокатастроф. «Проблема в том, что мы не можем и, наверное, никогда не сможем получить модель, которая бы определяла даже большинство нарушений, особенно в чувствительных вопросах», — сообщил сотрудник Facebook в отчёте в середине 2019 года.
Специалисты Facebook отмечали проблемы при распознавании оскорблений и языка вражды. Например, в конце прошлого года компания пыталась создать такой фильтр для арабского языка, однако у Facebook не было достаточно информации о диалектах, и компания испытывала проблемы даже с литературным арабским.
Ошибки ИИ заметны и в русскоязычной среде. Так, бывший футболист сборной России и главный тренер «Ротора» Дмитрий Хохлов подал в суд на Facebook из-за своей фамилии. Соцсеть считывает её как неэтичное обозначение украинцев и блокирует все сообщения, содержащие это слово.