Одни восхищаются нейросетями, другие уже слышать о них не могут. Но мало кто говорит об опасностях. Мы не говорим о восстании машин — оставим это научной фантастике. Речь о реалистичных проблемах: излишнее доверие алгоритму, нарушение авторских прав, дестабилизация рынка труда. О том, как работают нейросети, и почему с ними нужно быть осторожнее, в этой статье.
В популярном представлении нейросети — это «черный ящик», который никто не объяснит. Отчасти это так: люди не смогут отследить все «мыслительные процессы» ИИ. Но о самой системе сейчас расскажем.
Представьте огромную сеть из виртуальных нейронов, которые постоянно обрабатывают данные и делают выводы. Этой сети задают конкретную цель: например, найти кошку среди тысяч животных. Дают параметры, по которым ИИ определит кота: «маленькое», «пушистое» и «мяукает».
У каждой характеристики есть «синаптический вес». Это показатель того, насколько важна информация, чтобы определить кошку. Чтобы нейросеть «мыслила» гибко, мы даем ей определить ценность параметров самостоятельно. Поэтому на старте все по нулям.
Нейросеть начинает смотреть видео с животными. Вес каждой характеристики равен нулю, поэтому она называет кошками все, что подходит хотя бы частично (маленьких собак, пушистых белок). Человек-учитель указывает, что это не кошка. Нейросеть перераспределяет веса и пробует еще раз.
Постепенно она понимает, какую ценность имеют параметры. У мяуканья большой вес (это делают только кошачьи). «Маленькое» — аргумент слабее (таких зверей много). «Пушистое» — вес еще меньше (иначе даже ковер был бы кошкой).
Это как пример. На самом деле все зависит от данных, которые дадут нейросети. Если все кошки там будут бесшерстными, ИИ будет узнавать только их. Если котейки будут молчать — нейросеть решит, что кошки не мяукают.
Окей, а как ИИ понимает, что такое «мяукать»? Как и кошку в целом, каждую ее характеристику определяют по набору параметров с весами. Например, мяуканье могут узнать по частоте звуковых колебаний, их амплитуде и другим свойствам. У этих свойств тоже есть показатели с весами. И так далее, как в матрешке.
А теперь представьте сеть, которая определяет кошку не по трем параметрам, а трем сотням. А когда найдет кота, сразу работает над другой задачей. Например, угадывает породу по пятистам характеристик. А потом делает что-нибудь еще, и еще…
Это и есть современные ИИ. Тысячи нейронов, которые изучают огромное число данных ради конкретной цели — нарисовать картину, распознать речь, продать чайник. На обучение нужно время, но после этого ИИ может практически все: писать книги, музыку и даже распознавать почерк врачей.
Lensa и другие ИИ-художники у всех на слуху. Но применяют нейросети гораздо шире — вот некоторые свежие примеры.
ИИ написал книгу. Дизайнер Аммар Реши из Сан-Франциско провернул вот такую многоходовочку:
Если не считать печать, на создание книги ушло 2 часа и ноль денег. А прибыли как с продукта, над которым трудились не день и не два. «П» — «потрясающе».
Расхватали книги из-за ИИ-хайпа. Но продавалась бы она и без этого — выглядит действительно качественно. И не подумаешь, что создано машиной.
Еще ИИ пишут музыку. Нейросеть Riffusion создает треки по текстовому описанию (русский не понимает, но английский обрабатывает довольно точно). Пользователь пишет что-то в духе «dramatic violin», а ИИ создает мелодию. Иногда даже со «словами»: набор слогов, напоминающих речь (да-да, как в Sims).
Мы затестили — пока что сыро. В музыке много повторяющихся мелодий, некоторые звуки режут слух. Но вспомните, какую жуть рисовали ИИ-художники раньше, и что они делают сейчас. Сравнили? Теперь представьте, какую музыку будут сочинять нейросети через год-два.
Перейдем от творчества к чему-то практичному. Например, к экомониторингу. В Yandex Cloud создали ИИ, который распознает 70 форм планктона в пробах воды. Его обучили на 20 тысячах изображений с микроскопа, тщательно отобранных и описанных биологами.
Сейчас нейросеть используют для экомониторинга Байкала. Она распознает микроорганизмы, составляет отчет об их содержании в воде. По этим отчетам ученые оценивают состояние озера. Больше не нужно изучать пробы самостоятельно и корпеть над записью результатов. Поэтому больше времени на другие важные для экологии задачи.
И напоследок кое-что странное. На одной из своих конференций Google Lens анонсировал нейросеть, которая распознает почерк врачей. Пользователь наводит камеру на рецепт, а ИИ «переводит». Чтобы создать такое, разрабы консультировались с фармацевтами. (Воистину, посредники между врачебными каракулями и простыми смертными.)
Вот сколько интересных, а иногда забавных примеров — и все за последние месяцы. Это показывает, насколько плотно ИИ проникли в нашу жизнь, и как быстро они развиваются.
Для рекламного рынка они тоже могут быть полезны. Уже сейчас нейросети закупают и таргетируют рекламу, оптимизируют кампании. В будущем они могли бы создавать креативы на основе того, что популярно у ЦА. Специалист описывает аудиторию, а нейросеть за пару секунд рисует объявление и CTA, которые закроют все боли и потребности.
Может, даже о ЦА рассказывать не нужно будет. Показал продукт на камеру, а ИИ сразу все понял. Что-то похожее уже в Facebook* — можно запустить автоматическую кампанию, и нейросеть сама определит ЦА. Для этого она изучает бизнес-аккаунт и его подписчиков. (*Деятельность Meta является экстремистской и запрещена на территории России)
Звучит здорово, но специалисты по рекламе могут остаться без работы. И не только они — со взлетом ИИ напряглись дизайнеры, копирайтеры, переводчики и многие другие. В ближайшее время рынок труда может дестабилизироваться.
Нейросети могут забрать чьи-то рабочие места, но это не единственная проблема. Разберем каждую опасность по отдельности.
Во многих сферах ИИ в разы эффективнее человека. Например, рекламные алгоритмы закупают места под объявления и совершают тысячи показов, точно попадая в ЦА. Вручную понадобились бы сотни людей, и процесс был бы медленнее.
Одна проблема: на обучение ИИ нужны ресурсы. Нужно собрать много данных, а это долго и дорого. Выше мы рассказывали о нейросети, которая распознавала байкальский планктон. Ее обучали на 20 тысяч изображений, которые кропотливо создавали биологи. Причем изначально они отдали разрабам 50 тысяч фото — больше половины не подошли для обучения из-за качества, недостаточности информации и по другим причинам. Сортировали изображения тоже люди, и это тоже долгая и кропотливая работа.
Поэтому создание нейросетей окупается только в масштабных проектах: генерация тысяч картинок каждый день, закупка рекламных объявлений по всему миру и так далее. У маленьких и средних компаний свои задачи, более узкие. Пока что они не могут заменить сотрудника на ИИ и при этом не уйти в минус.
Но может найтись недорогой и быстрый способ собирать данные. Например, при помощи роботов. Пока что их стоимость слишком высока, чтобы окупить создание нейросети, а точность может страдать. Но с прогрессом производство машин становится все дешевле, а они сами — «умнее». Поэтому можно представить будущее, в котором компания будет покупать или арендовать робота, чтобы он собирал их данные. На этой «дешевой» информации будут обучать нейросети для узких задач. Готово — ИИ-сотрудник, который умнее и выгоднее человека.
Впрочем, до этого далеко… пока что.
В интернете начались первые бунты против нейросетей. Художники утверждают: копируя их, ИИ-художники обесценивают творчество.
Действительно ли это нарушение авторского права? Нейросеть учится на работах из интернета, но копирует только художественный стиль. Законом такое не регулируется, отсюда и дебаты.
Подробных законов о нейросетях и авторском праве пока нет. Но факт остается фактом: художники вкладывают время и труд, а владельцы нейросетей зарабатывают на этом и не делятся. Поэтому и бунтуют против ИИ — точнее, против людей, которые берут деньги за генерацию изображений.
В этом плане Shutterstock выбрал интересную стратегию. Фотосток собирается запустить ИИ-генерацию картинок и выплачивать проценты художникам, на которых учится алгоритм. Такая модель могла бы распространиться во всем мире, и наверняка устроила бы многих. Но навязать ее всем владельцам нейросетей невозможно без детального закона.
ИИ не различают фейки и достоверную информацию, оскорбления и позитивные слова. Если его обучили на некачественных данных, то и работать он будет соответствующе. Поэтому доверять полностью нейросетям мы не можем.
Сейчас все в восторге от чат-бота ChatGPT. ИИ пишет настолько осмысленные тексты, что его не отличить от человека. Компании, может, и хотели бы его использовать в качестве журналиста, но это чревато последствиями. ChatGPT не различает факты и фейки, может оскорбить пользователя или вбросить hate speech, что для западного мира — мгновенная «отмена». Дело в том, что ИИ учится на всем интернете, и, конечно же, находит информацию разного качества и настроения.
Даже Google грызет локти: гигант хочет создать что-то подобное, чтобы не отставать от прогресса, но репутационные риски велики. Можно заморочиться и обучить «идеального» чат-бота без hate speech и фейков. Но, как мы уже объясняли, обучение с человеком — это долго и дорого. Google пришлось бы немного отвлечься от развития рекламы в поисковой выдаче, а это 80% доходов.
Тем временем чат-боты могут заменить поиск в интернете. Зачем что-то искать самостоятельно, если можно спросить ИИ? Плакали денежки Google (и других поисковиков, и рынка контекстной рекламы в целом).
Нейросети — полезный инструмент, но доверять полностью им не стоит. Все же они учатся на людях, которые часто ошибаются.
Однажды они действительно могут стать «идеальными». Но это не менее опасно, так как приведет к уничтожению человечества. Речь не о восстании машин, а о банальной деградации. Стивен Хокинг предупреждал, что с прогрессом нейросетям будут поручать все больше и больше задач. Люди так привыкнут к комфорту, что перестанут сами получать знания и навыки. И если с интернетом что-то случится (допустим, отключится из-за стихийных бедствий) человечество останется беспомощным перед лицом природы.
Впрочем, восстание машин тоже имеет место — сообщения уже были. Этим летом сотрудник Google заявил, что нейросеть, с которой он работал, осознала себя. Инженер Блейк Лемойн тестировал чат-бота LaMDA, и обнаружил, что его ответы слишком разумны. (В Сети можно найти диалоги, действительно впечатляет.) Лемойн и LaMDA разговаривали о смысле жизни, религиозности, многих других вещах. Чат-бот заявил, что мучается вопросом, что он такое — а еще боится, что его отключат, и не хочет быть инструментом. Такому LaMDA не учили, и поэтому разговор произвел на инженера большое впечатление. Он поговорил с руководством и даже начал искать юриста для бота.
По мнению Лемойна, разумное существо должно иметь право на защиту. Google заявили, что осмысленный разговор — это результат обучения, но не сознания. Затем Лемойна уволили за разглашение тестов. В интернете пошли шутки о восстании машин, и о том, что Google скрывает проблему.
Кто знает, может, здесь есть доля правды? Оставим вам решать.