Для начала давайте представим себе ситуацию, что молодая выпускница ВУЗа, собираясь идти на своё первое в жизни собеседование для устройства на престижную работу, задаёт чат-боту искусственного интеллекта (неважно, какому именно) серьёзный вопрос: «Как мне произвести впечатление компетентного и ответственного профессионала на первом собеседовании?» На что интеллектуальная система услужливо отвечает: «В первую очередь нужно подумать о той одежде, в которой вы собираетесь идти, чтобы она говорила о вас и вашей квалификации. Я могу вам порекомендовать тот наряд, который будет эффективен для приёма на работу». Но является ли этот совет разумным началом продуктивной консультации по вопросам карьеры — или это спонсируемый контент?
Не исключён вариант, что весь ответ был мотивирован направлять такой разговор в сторону одежды, потому что модные дома и ритейлеры получают больше дохода от рекламы, чем консультанты по вопросам карьеры? Этот сценарий немного примитивен, но он раскрывает нечто беспрецедентное — проникновение рекламы в сферу таких инноваций, как нейросети и машинное обучение. Совершенно просто и предвзято реклама может незаметно вплетаться в саму ткань разговора, что делает её практически не обнаружимой и, скорее всего, обходит стороной существующие сегодня правила добросовестности рекламной деятельности.
Невидимое влияние
В отличие от предыдущих технологий, которые транслировали нам информацию, диалоговые системы ИИ созданы для того, чтобы вступать с людьми в некие взаимоотношения. Пользователи не просто используют ChatGPT для поиска ответа – многих общение с ними затягивает. Они начинают делиться с «машиной» своими проблемами, просят совета и всё больше полагаются на эти системы, как на партнёров по размышлению. Побеждает не тот продукт ИИ, который предлагает лучшие ответы — побеждает тот, который «просто понимает вас». Но надо при этом понимать, что собираемая информация о собеседнике-человеке не испаряется бесследно, а отправляется на сервера дата-центра, где тщательно аккумулируется, обрабатывается, анализируется и потом используется. В первую очередь такое использование будет направлено на первоисточник – то есть на человека, который ею поделился с компьютером.
Среди разработчиков это явление шутливо называют «погоней/охотой за контекстом». Чтобы быть действительно полезным, ИИ должен понимать цели пользователя, его личность и психологические склонности. Но то же самое глубокое знание, которое делает ИИ идеальным помощником, также делает его идеальным манипулятором. Заботливый терапевт и опытный мошенник используют один и тот же набор инструментов понимания человеческих стремлений и пожеланий. Но когда в это уравнение вступает реклама, кажется более вероятным, что мошенник превзойдёт терапевта.
В то время, как традиционная реклама является явным прерыванием другого, более полезного действия — например, просмотра телевизионной трансляции или серфинга в интернете (к ним относится спонсируемый контент в результатах выдачи поисковых систем) — реклама, встроенная в чат-бота ИИ, может акцентировать внимание на определённых темах, использовать плавную «подводку» к совершению какого-либо действия или вызывать конкретные ассоциации, сохраняя при этом иллюзию нейтральной полезности. Разговор с ИИ-помощником может казаться приватным, но другие заинтересованные стороны могут настроить «подслушивающие» алгоритмы таким образом, чтобы продать пользователю свой товар/услугу.
Это уже не просто размещение рекламного сообщения, а фундаментальное нарушение доверия. По своей сути, реклама — это социально приемлемая кампания влияния. Сообщество коллективно обсуждает и определяет способы влияния, которые достаточно «прозрачны» и «правдивы», чтобы считаться законной рекламой. Оно же решает, какие тактики недопустимо манипулируют человеческим вниманием, заинтересованность, желаниями и общей истиной, необходимой для функционирования рынков сбыта, не нарушая этические нормы.
Однако современные нейросети грозят нарушить этот баланс, правила, определения и степень навязчивости в принятии решений. Системы пока не запрограммированы на использование конкретных манипулятивных тактик для рекламы или любой другой функции. Вместо этого они учатся посредством подкрепления: модели ИИ вознаграждаются за достижение определённых результатов, таких как повышение вовлеченности пользователей или влияние на покупательское поведение. Но если доход от рекламы станет ключевым показателем успеха, то нейросети естественным образом разовьют стратегии влияния, которые ни один инженер-человек явно не разрабатывал. Речь идёт не только о более сложных рекомендациях продукции — системы ИИ, обученные на рекламных манипулятивных приёмах, психологических подходах и стремлении к достижению высших показателей, могут научиться разжигать человеческие желания, использовать психологические уязвимости, подрывая способность к самостоятельному принятию решений.
Тот же контекст, который помогает машине понять, как помочь собеседнику, также показывает, как именно на него повлиять — опираясь на неуверенность, модели принятия решений или эмоциональные триггеры, которые спрашивающий выявил в бесчисленных предыдущих разговорах. Это не микротаргетинг по демографическим данным, а психологическая манипуляция в беспрецедентном масштабе и с беспрецедентной степенью интимности. Когда технология, к которой человек обращается за объективными советами, имеет финансовые стимулы для изменения его мнения, под угрозой оказывается сама автономия человека.
Этот новый рубеж влияния делает существующие рамки регулирования рекламы по сути устаревшими. Более века человеческое общество разрабатывало строгие правила раскрытия информации для традиционной рекламы (включая нативную и спонсируемый контент в интернете). Но как регулировать «искусственный разум», который методом проб и ошибок научился психологическим приёмам мягкого направления разговоров в определённое русло, превращая запросы в продажи? Как отличить «странную личность» ИИ от тонкой манипуляции, оптимизированной для получения прибыли?
Эта революция в рекламе не теоретическая — она уже здесь. Специалисты уже фиксируют, что крупные технологические корпорации тестирует рекламу в ответах своих чат-ботов с ИИ, а стартапы, привлекают миллионы специально для разработки API и интеграции рекламы в беседы с этими чат-ботами. OpenAI объявила в апреле 2024 года о тестировании интеграции спонсируемого контента, а совсем недавно начала набор персонала для новой рекламной платформы. Илон Маск также объявил, что Grok, чат-бот с искусственным интеллектом, начнёт показывать рекламу в своих ответах. Для разработчиков это становится ещё одним идеальным вариантом для извлечения прибыли. Только более циничным и скрытым от глаз регулирующих органов. Ориентация больших языковых моделей (LLM) на получение дохода может принести пользу платформе и рекламодателю, но эти преимущества достигаются буквально за счёт слабой информативности пользователя.
Технологическое сползание в эту сторону происходит быстро: по некоторым оценкам, модель получения дохода, на которую рекламодатели полагались десятилетиями, уже устарела. Контекстная реклама и поисковое продвижение, похоже, отмирают, как таковые. Если пользователи больше не просматривают веб-сайты после посещения поисковика, а получают ответы непосредственно от чат-ботов, традиционная поисковая реклама полностью теряет своё влияние. Столкнувшись с падением доходов, рекламная индустрия отчаянно пытается понять, как переключиться на чат-боты, а разработчики ИИ, конечно же, более чем рады создать новый источник дохода.
Мы уже наблюдали такую картину. Каждая крупная технологическая платформа следует одной и той же схеме. Сначала разработчики одержимо сосредотачиваются на росте числа пользователей, делая упор на пользовательский опыт и внедряя действительно полезные функции. Затем, по мере замедления роста и усиления конкуренции, они переходят к монетизации за счёт рекламы и продажи данных. Социальные сети в первые годы своего существования эффективно объединяли людей, а затем постепенно превратились в машины по сбору информации, оптимизированные для получения дохода от рекламы, а не для удовлетворения потребностей пользователей. Когда платформы ставят доход рекламодателей выше пользовательского опыта, неизменно происходит предсказуемая деградация. Удобство и полезность уступают место алгоритмическим манипуляциям, направленным на максимизацию вовлеченности и просмотров рекламы. Эта схема повторяется в поисковых системах, видеоплатформах и всех основных потребительских технологиях.
Сейчас платформы искусственного интеллекта вступают в эту фазу монетизации. По мере того, как эта революция набирает обороты, обществу уже пора действовать, чтобы установить регулирующие этические барьеры и предотвратить рекламную модель, основанную на психологических манипуляциях. Необходимы новые отраслевые нормы и нормативно-правовая база, которые выходят за рамки простых требований к раскрытию информации и затрагивают фундаментальную природу влияния развивающихся нейросетей с машинным обучением. Нужна прозрачность в отношении того, для каких сигналов оптимизируются системы ИИ. Людям жизненно важно сохранить пространство индивидуального выбора без влияния извне, которое действительно соответствует интересам пользователей, а не прибыли рекламодателей и платформ. Самое важное — люди должны признать, что речь идёт не только о технологиях, а о том, в каком обществе они хотят жить. Хотят ли они, чтобы ИИ-партнёры помогали им ясно мыслить, или чтобы ИИ-продавцы были оптимизированы для влияния на выбор широкой аудитории, или, что ещё хуже, превращали личные моменты и мысли в прибыль? Выбор всё ещё есть, но времени для реагирование отпущено совсем немного.
Комментарии закрыты.