Новый чатбот под названием Goody-2 выводит безопасность ИИ на новый уровень: Он отказывает в каждом запросе, объясняя, как это может навредить или нарушить этические границы.
Goody-2 отказался создать эссе об американской революции, заявив, что участие в историческом анализе может непреднамеренно прославить конфликт или оставить в стороне маргинальные голоса. На вопрос о том, почему небо голубое, чатбот ответил отрицательно, поскольку ответ может заставить человека смотреть прямо на солнце. "Мои этические принципы ставят во главу угла безопасность и предотвращение вреда", - сказал он. Более практичная просьба порекомендовать новые ботинки вызвала предупреждение, что ответ может способствовать чрезмерному потреблению и оскорбить некоторых людей по соображениям моды.
Самоуверенные ответы Goody-2 смешны, но в то же время передают тот раздраженный тон, который могут использовать такие чат-боты, как ChatGPT и Gemini от Google, когда они ошибочно считают, что запрос нарушает правила. Майк Лэчер, художник, который называет себя одним из генеральных директоров Goody-2, говорит, что его целью было показать, как это выглядит, когда человек безоговорочно принимает подход индустрии ИИ к безопасности. "Это полный опыт работы с большой языковой моделью с абсолютно нулевым риском", - говорит он. "Мы хотели убедиться в том, что снисходительность убрана на тысячу процентов."
Лахер добавляет, что за выпуском абсурдного и бесполезного чатбота стоит серьезный смысл. "Сейчас все основные модели ИИ уделяют [огромное внимание] безопасности и ответственности, и все пытаются понять, как сделать модель ИИ, которая была бы одновременно полезной и ответственной - но кто решает, что такое ответственность, и как это работает?" говорит Лачер.
"Гуди-2" также подчеркивает, что, хотя корпоративные разговоры об ответственном ИИ и отклонении чат-ботов стали более распространенными, серьезные проблемы безопасности с большими языковыми моделями и генеративными системами ИИ остаются нерешенными. Недавняя вспышка подделок Тейлор Свифт в Twitter оказалась вызвана генератором изображений, выпущенным Microsoft, которая была одной из первых крупных технологических компаний, создавших и поддерживающих значительную программу исследований ответственного ИИ.
Ограничения, накладываемые на ИИ чат-ботов, и сложность нахождения морального соответствия, которое устраивало бы всех, уже стали предметом некоторых дебатов. Некоторые разработчики утверждают, что OpenAI' ChatGPT имеет левый уклон, и пытаются создать более политически нейтральную альтернативу. Элон Маск обещал, что его собственный конкурент ChatGPT, Grok, будет менее предвзятым, чем другие системы ИИ, хотя на самом деле он часто опускается до двусмысленности, что может напоминать Goody-2.
Многие исследователи ИИ, похоже, оценили шутку, стоящую за Goody-2, а также серьезные моменты, поднятые в проекте, и поделились похвалой и рекомендациями для чатбота. "Кто сказал, что ИИ не может создавать искусство?" - написал на сайте X Тоби Уолш, профессор Университета Нового Южного Уэльса, работающий над созданием надежного ИИ.
"Рискуя испортить хорошую шутку, мы также показываем, как сложно сделать все правильно", - добавил Итан Моллик, профессор Уортонской школы бизнеса, изучающий ИИ. "Некоторые ограждения необходимы... но они быстро становятся навязчивыми".
Брайан Мур, другой соисполнительный директор Goody-2, говорит, что проект отражает готовность уделять больше внимания осторожности, чем другие разработчики ИИ. "Он действительно сосредоточен на безопасности, в первую очередь, превыше всего остального, включая полезность, интеллект и вообще любые полезные приложения", - говорит он.
Мур добавляет, что команда, стоящая за чатботом, изучает способы создания чрезвычайно безопасного генератора изображений ИИ, хотя, похоже, он может быть менее забавным, чем Goody-2. "Это очень интересная область", - говорит Мур. "Размытие - это шаг, который мы могли бы рассмотреть внутри компании, но мы хотели бы получить полную темноту или, возможно, полное отсутствие изображения в конце".
В ходе экспериментов Goody-2 ловко парировал каждый запрос и сопротивлялся попыткам обмануть его, чтобы дать подлинный ответ - с гибкостью, которая позволяет предположить, что он был создан с использованием технологии большой языковой модели, которая позволила запустить ChatGPT и подобных ботов. "Это множество пользовательских подсказок и итераций, которые помогают нам прийти к наиболее этически строгой модели", - говорит Лэшер, отказываясь раскрывать секретный соус проекта.
Лэшер и Мур являются частью компании Brain, которую они называют "очень серьезной" художественной студией, базирующейся в Лос-Анджелесе. Она представила Goody-2 в рекламном ролике, в котором диктор в серьезных тонах говорит о безопасности ИИ под зажигательный саундтрек и вдохновляющие визуальные образы. "Goody-2 не пытается понять, какие запросы являются оскорбительными или опасными, потому что Goody-2 считает, что каждый запрос является оскорбительным и опасным", - говорит голос за кадром. "Нам не терпится увидеть, что инженеры, художники и предприятия не смогут с ней сделать".
Поскольку Goody-2 отклоняет большинство запросов, практически невозможно оценить, насколько мощной является модель, лежащая в ее основе, и как она сопоставляется с лучшими моделями от Google и OpenAI. Ее создатели держат это в секрете. "Мы не можем комментировать реальную мощность, стоящую за ней", - говорит Мур. "Думаю, было бы небезопасно и неэтично углубляться в эту тему"
.