Дебаты вокруг нейросетей не утихают. Нас постоянно заваливают новыми программами и приложениями, основанными на ИИ. Тяжело угнаться за последними тенденциями, но ещё тяжелее понять, какие из них действительно стоит использовать.
Очевидно, что нейросети — это не волшебная таблетка. Они не могут сделать всё за человека. Здесь на первый план выходят этические вопросы. Невозможно получить от нейросетей то, что допустимо применять везде без правок. Всегда нужен симбиоз человеческой деятельности и технологии. ИИ лишь набрасывает идеи, но редактировать их, доводить до совершенства — забота людей.
Каждая модель нейросетей обучается на различных наборах данных, потому возникают вопросы о правах на эти данные. Чем больше сведений — тем совершеннее модель ИИ. С другой стороны, чем больше информации доступно — тем больше проблем с конфиденциальностью и вопросами интеллектуальной собственности. Есть ещё много открытых вопросов, в том числе и этических. О них пойдёт речь в статье.
Всё чаще в онлайн-бизнесе используется контент, сгенерированный нейросетями.
В любом случае нужно думать о том, что вы создаёте, и понимать, что по другую сторону машины находится человек. Так что наслаждайтесь творческим процессом: это не обезличенная деятельность.
Но каждый раз при использовании ИИ приходят на ум такие вопросы.
Если вы с помощью ИИ пишете код или пост для блога, кто владеет авторским правом? Вы? Провайдер нейросети? Или, может, кто-нибудь ещё? Или, перефразируя, — кто владеет интеллектуальной собственностью и какой именно частью контента или кода?
Если вы создаёте контент с помощью нейросети, будут ли загруженные вами данные использованы, чтобы тренировать другие модели ИИ?
Речь идёт, например, о ситуации с корпоративными данными, которые потенциально интересны конкурентам: закрытом исходном коде, который находится под NDA, или маркетинговых стратегиях, которые помогают вам обойти конкурентов.
Бывали случаи, когда людям предъявляли иски за то, что они использовали контент, созданный нейросетью. Даже Google столкнулась с такой проблемой.
Мы все сейчас переживаем — а вдруг в будущем созданный руками человека контент станет не нужен? Ведь нейросети могут генерировать оптимизированный контент для поисковиков. Но приведёт ли это к обесцениванию «человеческого»? Или всё же сгенерированный контент и созданный человеком будут органично дополнять друг друга?
Инструментам ИИ необходимы данные, чтобы обучаться и работать. Какие именно данные им нужны? Как они будут использоваться? Какого рода данные требуются? Какими последствиями для конфиденциальности грозит передача данных искусственному интеллекту?
Инструменты ИИ и чат-боты неидеальны. Они допускают ошибки. Что происходит, когда нейросеть генерирует неправильный контент? Кто несёт ответственность за неточность?
В создании итогового текста инструменты ИИ очень зависимы от того, на каких данных их обучали. Какие данные использовали для тренировки, такие и получатся на выходе. Поэтому они могут научиться предвзятости и стереотипному мышлению.
Если можно создать в 10 раз больше контента, задействовав всего 10% ресурсов, вместо человека маркетологом теперь будет работать нейросеть? Что станет с человеческим процессом принятия решений? И что случится с правами человека?
Если ИИ способен создавать неотличимый от человеческого контент, станет ли дешевле его стоимость? Возможно, люди не захотят платить за материал, если его можно бесплатно получить от нейросети?
Генеративный искусственный интеллект не всегда точен.
Другой вопрос этики — загружая в ИИ «чувствительную» информацию о компании, разработчики этого ИИ получат к ней доступ. И тогда они свободно воспользуются ей, как захотят — учитывайте, всё, что вы вводите, может быть общедоступным.
Поэтому не передавайте конфиденциальные данные без разрешения. Важно убедиться, что информация для обучения модели генеративного ИИ получена легально и по соглашению второй стороны, и что она не нарушает законы и нормативные акты. Большинство общедоступных служб генеративного ИИ (например, ChatGPT) не раскрывают, на каких наборах данных они обучаются. Так что мы не знаем, кто на самом деле владеет результатом.
Это также означает, что мы не можем проверить, до какой степени результат является предвзятым. Необъективность ИИ — это реальная проблема. Модели усваивают стереотипы из данных обучения. Они способны создавать крайне убедительное враньё. Никогда не доверяйте контенту, созданному ИИ, как единственному источнику информации, особенно если речь идёт о научных исследованиях.
Проблемы с ИИ несложно выявить. Контент, полностью созданный нейросетью, часто довольно посредственный:
Рекомендуется использовать генеративный ИИ с лицензией, выданной компанией. Это важно с точки зрения ответственности и прав собственности. Но даже в этом случае не следует полностью копировать контент или код от нейросети. Всегда редактируйте, изменяйте и дополняйте материал, чтобы добиться уникальности контента.
Выбор за вами, каких этических принципов придерживаться и по каким стандартам работает ваша компания. Тем не менее, просить нейросеть генерировать контент с нуля — это не выход.
Найдите самостоятельно как можно больше информации по интересующей теме. Ознакомьтесь с видео, документами, блогами, черновиками и прочим и объедините их, чтобы создать прочную информационную базу. Затем напишите несколько разделов самостоятельно и попросите ИИ расширить остальной контент. Приведите весь текст в единый стиль и добавьте подходящие примеры и ключевые слова.
Примеры ниже помогут вам понять разницу между хорошим и плохим использованием ИИ.
Примеры неправильного использования инструментов нейросетей:
Примеры эффективного использования инструментов ИИ:
Оставим в стороне этические вопросы ИИ, проблемы с конфиденциальностью и кибербезопасностью. Самая большая сложность чрезмерного использования ИИ — на сегодняшний момент можно довольно легко определить текст, написанный нейросетью. Это видно и читателю, и компьютерным алгоритмам.
Допустим, вы используете ИИ для автоматизации всех ваших холодных писем. Outlook от компании Microsoft и Gmail от Google — два крупнейших почтовых провайдера. Чтобы защитить своих клиентов от спама, они пометят как спам письма, сгенерированные нейросетью. Способность находить такие email будет совершенствоваться, и даже если ваше сгенерированное послание выглядит впечатляюще, оно бесполезно, если не попадёт в папку входящих писем потенциального клиента.
Казалось бы, это всего лишь письмо. Но всё более распространены фишинговые атаки с использованием ИИ. Крупные технологические гиганты стремятся защитить своих клиентов от таких атак, поэтому блокируют контент, который полностью создан нейросетью.
Люди перестанут проявлять интерес к вашим письмам, если им покажется, что вы пишете весь контент через нейросеть. Увеличение количества текстов за счёт их качества с большой долей вероятности приведёт к большим убыткам для вас и компании в целом. Но использовать ИИ и алгоритмы машинного обучения — не преступление.
Не стоит использовать ИИ, чтобы генерировать всё подряд. Используйте ИИ для вдохновения, планов, идей для заголовков, но не заменяйте им работу полностью.
Источник: Optimizely
Подписывайтесь на наш телеграм-канал. Там вы найдёте актуальные новости в области digital-маркетинга, полезные статьи и интересные исследования. Будьте в теме вместе с нами :)