Некоторые люди очень любят дипфейки
АИ-подделки - это угроза дезинформации. Но некоторые политики, руководители и ученые видят в них способ расширить сферу своего влияния.
"Я хотел, чтобы они познакомились с нашей командой", - говорит Ренато Скафф, старший управляющий директор Accenture, которому пришла в голову эта идея. "Это также способ выделиться на фоне конкурентов".
Глубокие подделки были сгенерированы с согласия сотрудников компанией Touchcast, в которую Accenture инвестировала средства и которая предлагает платформу для интерактивных презентаций с аватарами реальных или искусственных людей. Аватары Touchcast могут отвечать на набранные или произнесенные вопросы, используя модели искусственного интеллекта, которые анализируют соответствующую информацию и генерируют ответы на лету.
"Здесь есть элемент жути", - говорит Скафф о своих сотрудниках-глубоких подделках. "Но есть и более крутой элемент".
Глубокие подделки - мощное и опасное оружие дезинформации и нанесения вреда репутации. Но эту же технологию берут на вооружение компании, которые видят в ней новый умный и запоминающийся способ привлечения клиентов и взаимодействия с ними.
Эти эксперименты не ограничиваются корпоративным сектором. Моника Арес, исполнительный директор лаборатории инноваций, цифрового образования и аналитики в бизнес-школе Имперского колледжа в Лондоне, создала глубокие подделки реальных профессоров, которые, как она надеется, могут стать более увлекательным и эффективным способом отвечать на вопросы студентов за пределами аудитории. Арес говорит, что эта технология способна повысить уровень персонализации, предложить новые способы управления и оценки студентов, а также повысить вовлеченность учащихся. "Как это часто бывает в наши дни, мы должны благодарить искусственный интеллект за эту разгадку реальности. Голливудским студиям уже давно удается копировать голоса, лица и манеры актеров с помощью программного обеспечения, но в последние годы ИИ сделал подобную технологию широко доступной и практически бесплатной. Помимо Touchcast, такие компании, как Synthesia и HeyGen, предлагают предприятиям способ создания аватаров реальных или ненастоящих людей для презентаций, маркетинга и обслуживания клиентов.
Эдо Сигал, основатель и генеральный директор Touchcast, считает, что цифровые аватары могут стать новым способом представления и взаимодействия с контентом. Его компания разработала программную платформу под названием Genything, которая позволит любому человеку создать своего собственного цифрового двойника.
В то же время глубокие подделки становятся серьезной проблемой в связи с приближением выборов во многих странах, включая США. В прошлом месяце для распространения предвыборной дезинформации использовались сгенерированные искусственным интеллектом робозвонки с изображением фальшивого Джо Байдена. Тейлор Свифт также недавно стала объектом порнографических фейков, созданных с помощью широко доступных инструментов искусственного интеллекта.
"Фейковые изображения - это, безусловно, то, что вызывает у нас беспокойство и тревогу", - сказал в недавнем интервью Бен Бьюкенен, специальный советник Белого дома по вопросам искусственного интеллекта. По его словам, "глубокая подделка Swift - это ключевая точка данных в более широкой тенденции, которая непропорционально сильно влияет на женщин и девочек, которые в подавляющем большинстве случаев становятся объектами домогательств и оскорблений в Интернете".
В настоящее время новый американский Институт безопасности ИИ, созданный в соответствии с указом Белого дома, изданным в октябре прошлого года, разрабатывает стандарты для нанесения водяных знаков на созданные ИИ медиа. Meta, Google, Microsoft и другие технологические компании также разрабатывают технологии, призванные выявлять подделки ИИ, что превращается в гонку вооружений ИИ с высокими ставками.
Некоторое политическое использование deepfakery, однако, подчеркивает двойной потенциал технологии.
Имран Хан, бывший премьер-министр Пакистана, выступил с обращением к сторонникам своей партии в прошлую субботу, несмотря на то, что застрял за решеткой. Бывшая звезда крикета, заключенный в тюрьму в результате того, что его партия охарактеризовала как военный переворот, произнес свою речь, используя программное обеспечение deepfake, которое создало убедительную копию его сидящего за столом и произносящего слова, которые он на самом деле никогда не произносил.
По мере того как манипулирование видео с помощью ИИ совершенствуется и становится проще в использовании, интерес бизнеса и потребителей к законному применению этой технологии, вероятно, будет расти. Китайский технологический гигант Baidu недавно разработал способ, с помощью которого пользователи его приложения-чатбота могут создавать глубокие подделки для отправки поздравлений с Новым годом.
Даже для тех, кто только начинает использовать эту технологию, возможность злоупотребления не совсем исключена. "Нет сомнений в том, что безопасность должна быть первостепенной", - говорит Скафф из Accenture. "Как только у вас появится синтетический близнец, вы сможете заставить его делать и говорить все, что угодно"
.