Целенаправленная политическая дезинформация, генерируемая искусственным интеллектом, уже существует— и люди на нее ведутся.

Мы создали первый психометрический инструмент для проверки этой гипотезы, который мы назвали тестом восприимчивости к дезинформации (MIST). В сотрудничестве с YouGov мы использовали сгенерированные ИИ заголовки, чтобы проверить, насколько американцы восприимчивы к сгенерированным ИИ фальшивым новостям. Результаты оказались впечатляющими: 41 % американцев ошибочно посчитали заголовок о вакцине правдивым, а 46 % - что правительство манипулирует фондовым рынком. Другое недавнее исследование, опубликованное в журнале Science, показало не только то, что GPT-3 создает более убедительную дезинформацию, чем люди, но и то, что люди не могут достоверно отличить дезинформацию, созданную человеком и ИИ.

Мой прогноз на 2024 год: дезинформация, созданная ИИ, придет на выборы рядом с вами, и вы, скорее всего, даже не поймете этого. На самом деле, возможно, вы уже познакомились с некоторыми примерами. В мае 2023 года вирусная фальшивая история о взрыве в Пентагоне сопровождалась сгенерированным ИИ изображением, на котором было видно большое облако дыма. Это вызвало общественный резонанс и даже падение фондового рынка. Кандидат в президенты от Республиканской партии Рон ДеСантис в рамках своей политической кампании использовал фальшивые изображения Дональда Трампа, обнимающего Энтони Фаучи. Смешивая реальные и сгенерированные ИИ изображения, политики могут размыть границы между фактом и вымыслом и использовать ИИ для усиления своих политических атак.

Это история из серии "Мир в 2024 году", нашего ежегодного брифинга о тенденциях. Читайте другие истории из этой серии здесь - или скачайте копию журнала.

До появления генеративного ИИ киберпропагандистским фирмам по всему миру приходилось самим писать вводящие в заблуждение сообщения и нанимать человеческие фабрики троллей для масштабной атаки на людей. С помощью ИИ процесс создания вводящих в заблуждение новостных заголовков можно автоматизировать и использовать в качестве оружия с минимальным вмешательством человека. Например, микротаргетинг - практика нацеливания на людей сообщений на основе цифровых данных, таких как их лайки в Facebook, - уже был проблемой на прошлых выборах, несмотря на то, что его главным препятствием является необходимость генерировать сотни вариантов одного и того же сообщения, чтобы увидеть, что сработает на определенной группе людей. То, что раньше было трудоемким и дорогим, теперь стало дешевым и легкодоступным, не имеющим барьера для входа. ИИ фактически демократизировал создание дезинформации: Любой человек, имеющий доступ к чат-боту, теперь может запустить модель на определенную тему, будь то иммиграция, контроль над оружием, изменение климата или проблемы ЛГБТК+, и за считанные минуты создать десятки очень убедительных фальшивых новостей. На самом деле уже появились сотни новостных сайтов, созданных ИИ, которые распространяют ложные истории и видео.

Чтобы проверить влияние такой дезинформации, созданной ИИ, на политические предпочтения людей, исследователи из Амстердамского университета создали фейковое видео, в котором политик оскорбляет свою религиозную базу избирателей. Например, в ролике политик пошутил: "Как сказал бы Христос, не распинайте меня за это". Исследователи обнаружили, что религиозные избиратели-христиане, посмотревшие фейковое видео, относились к политику более негативно, чем избиратели из контрольной группы.

Одно дело - обманывать людей с помощью дезинформации, созданной искусственным интеллектом, в ходе экспериментов. Другое дело - экспериментировать с нашей демократией. В 2024 году мы увидим больше глубоких подделок, клонирования голоса, манипуляций с личностью и фальшивых новостей, созданных ИИ. Правительства будут серьезно ограничивать - если не запрещать - использование ИИ в политических кампаниях. Потому что в противном случае ИИ подорвет демократические выборы.