Искусственный интеллект теперь может рассказывать сказки с участием любимых персонажей ваших детей. Это хаос авторских прав— и большая головная боль для родителей и опекунов.

Разобраться, какие законы применяются, не так-то просто: Warner базируется в Великобритании, OpenAI - в США, а Лудо - в Австралии. Вымышленные персонажи могут быть защищены авторским правом в Великобритании и США, но в Австралии все гораздо сложнее, там простое название персонажа не может быть нарушением без включения дополнительных элементов из произведения.

Люк Уорнер сделал это с помощью генеративного ИИ. Разработчик и отец из Лондона использовал новейший инструмент OpenAI' - настраиваемых ботов под названием GPTs - для создания генератора историй для своей маленькой дочери. Бот, которого он назвал Bluey-GPT, начинает каждую сессию, спрашивая у людей их имя, возраст и немного об их дне, а затем выдает персональные истории, в которых фигурируют Блюи и ее сестра Бинго. "Он называет ее школу, район, в котором она живет, и говорит о том, что на улице холодно", - говорит Уорнер. "Это делает его более реальным и увлекательным.

В основной версии ChatGPT с момента ее запуска в прошлом году была возможность написать детскую' историю, но GPT позволяет родителям - или кому угодно - ограничить тему и начать с конкретных подсказок, таких как имя ребенка'. Это означает, что любой человек может создавать персонализированные истории с участием своего ребенка и его любимого персонажа, а значит, никому не нужно ждать, пока Лудо выложит свежий контент.

Тем не менее, истории, созданные искусственным интеллектом, не так хороши, как само шоу, и вызывают проблемы юридического и этического характера. На данный момент GPT от OpenAI доступны только тем, у кого есть аккаунт Plus или Enterprise. Компания предположила, что они могут быть распространены на других пользователей, но поскольку пользовательские агенты считаются одной из проблем, которая привела к недавней драме на уровне совета директоров компании, а также учитывая, что исследователи отмечали проблемы конфиденциальности с GPT, этот релиз может быть еще не скоро. (OpenAI пока не ответила на просьбы о комментарии для этой статьи.)

Когда Уорнер создавал свой GPT в начале ноября, он намеревался разместить его в магазине GPT Store, который OpenAI уже готовила. Но этого так и не произошло. Всего через пять дней после рекламы Bluey-GPT на Instagram он получил уведомление о запрете OpenAI, которое запретило публичный доступ к GPT. Уорнер знал, что использование Bluey в качестве основы для GPT будет чревато, поэтому он не был удивлен. Названия и изображения, защищенные товарными знаками, почти всегда остаются без внимания, но законы, касающиеся историй, "написанных" искусственным интеллектом, весьма туманны, и сказки Уорнера на ночь про Bluey - это только начало.

Разобраться, какие законы применяются, не так-то просто: Warner базируется в Великобритании, OpenAI - в США, а Ludo - в Австралии. Вымышленные персонажи могут быть защищены авторским правом в Великобритании и США, но в Австралии дело обстоит сложнее, там простое название персонажа не может быть нарушением без включения дополнительных элементов из произведения.

В Великобритании правовая охрана персонажей включает имена, а также предысторию, манеры и выражения, говорит Сюян Чжу, юрист группы технологий, ИС и информации в фирме Taylor Wessing. "Это авторское право может быть нарушено, если персонаж воспроизведен в другом контексте таким образом, чтобы воспроизвести достаточное количество этих аспектов", - говорит Чжу, добавляя, что правообладатели также могут принять меры, если их персонажам угрожает репутационный ущерб. С другой стороны, они могут рассматривать творчество фанатов как способ повышения вовлеченности - в конце концов, фан-фикшн не является чем-то новым в сети и, как правило, защищен добросовестным использованием. Эти истории просто созданы искусственным интеллектом.

Но все же истории, созданные ChatGPT, а значит, и Bluey-GPT, настолько общие, что у них мало общего с реальными персонажами Bluey, кроме имен. Мэтью Саг, профессор права и искусственного интеллекта в Университете Эмори, говорит, что GPT, ориентированные на конкретные персонажи, создают больше проблем с товарными знаками, чем с авторскими правами. Примерно в то же время, когда Уорнер создал своего бота Bluey, он также создал бота, использующего персонажей Paw Patrol. "Он не выдал никакого контента, хоть отдаленно похожего на детский мультсериал", - говорит Саг, который играл с этим ботом. "Но я все равно не думаю, что вы должны иметь возможность делать это без разрешения правообладателей. Точно так же, как нельзя рекламировать GPT Coca-Cola.

Если бы генеративный ИИ был достаточно хорош, чтобы действительно подражать Bluey, или если бы подсказки были достаточно подробными, чтобы выдать более конкретный результат, то' возможно, что детская' история, созданная GPT, могла бы нарушить авторские права создателей сериала'. Но Саг утверждает, что ответственность за это лежит на человеке, запрашивающем такие истории, а не на OpenAI, который фильтрует запросы, которые могут нарушить авторские права. Когда я попросил ChatGPT написать историю о Блюи и Бинго из телешоу, результаты оказались разными. В некоторых случаях ChatGPT выполнял просьбу, но так же часто отказывался, ссылаясь на авторские права - однажды он предложил вместо этого написать историю о собаках по имени "Лулу" и "Бонго".

История Bluey-GPT по-прежнему доступна для Уорнера и его дочери, но не может быть опубликована публично или монетизирована в готовящемся GPT Store. Однако все, кто имеет доступ к ChatGPT, бесплатный или платный, могут попросить чатбота написать персональную историю с участием Блюи и ее сестры Бинго. Похоже, в данном случае проблема была не в сгенерированном ИИ фанатском вымысле, а в попытке его продать.

Warner не первая, кто увидел финансовый потенциал в способности ИИ генерировать истории, хотя такие приложения для создания историй, как Oscar, Once Upon a Bot и Bedtimestory.ai, используют общие персонажи или те, что находятся в общественном достоянии. В некоторых приложениях есть иллюстрации, созданные искусственным интеллектом, или возможность прочесть историю вслух.

У Oscar жесткие ограничения, а не открытые подсказки, как у ChatGPT. Люди могут запрашивать истории одним из двух способов: Они могут указать имя, возраст и пол своего ребенка, а затем предложить боту выбрать животное, профессию и мораль - например, лиса-астронавта, который учится упорству. Или же можно указать данные ребенка, а затем выбрать историю из существующей (и не защищенной авторским правом) вселенной, например "Волшебник страны Оз" или "Алиса в стране чудес". Это отличается от Bedtimestory.ai и Once Upon a Bot, которые имеют открытые подсказки, похожие на Warner' Bluey-GPT, позволяющие людям просить истории о персонажах Bluey. Обе компании предоставили такие истории в ответ на запрос, хотя ни одна из них и близко не была похожа на контент, который производит Ludo Studio: в первом приложении Блуи названа неправильно, а во втором персонажи рассматриваются как домашние животные.

Оставляя в стороне Блуи и ее сестру Бинго, стоит ли вообще читать детям персонализированные истории, созданные искусственным интеллектом? Исследования показывают, что персонализированные истории действительно помогают привлечь их внимание, говорит Наталья Кучиркова, профессор кафедры чтения и развития Открытого университета, хотя лучше всего они работают, если книги хорошо написаны и рассчитаны на детей и их родителей.

Написать качественную книгу рассказов - задача не из легких. Олаф Фалафель - комик, иллюстратор и автор детской книги Blobfish о поисках друга одинокой рыбой-шариком, в которой содержатся моральные уроки о мусоре, выходе из зоны комфорта и взгляде на внешность, а также множество отличных шуток и каламбуров. ИИ не может этого сделать. Фалафель уверен в этом. "Я пытался заставить его написать шутку, но у него ничего не получилось - сколько бы я ни настраивал его и ни подталкивал, он просто не мог понять, как работает шутка и что делает что-то смешным", - говорит он.

С Блюи и друзьями или без них, самая большая проблема, с которой сталкиваются эти истории, созданные ИИ, заключается в том, что они скучны. Фалафель говорит: "Я хочу изюминку или что-то другое, уникальное, но его попытки прогнать своих персонажей через ИИ приводили к одному и тому же сюжету: "Здесь много зарытых сокровищ.

Еще одна проблема с ботами, которые создают истории для детей, - убедиться, что то, что они создают, действительно безопасно для детей. Если дать Bedtimestory.ai задание, включающее ненормативную лексику, фекалии и преступления, то получится рассказ под названием "The Crapulent Bandit's Heist", который может оскорбить некоторых, но он был скорее забавным, чем страшным. Однако более жестокие подсказки привели к созданию контента, не подходящего для заявленного возрастного диапазона от 2 до 3 лет, включая историю, которая начинается так: "Однажды она выстрелила маме в лицо" Обещанное убийство на самом деле не происходит, хотя упоминания об оружии присутствуют.

Кофаундер Линус Экенстам говорит, что Bedtimestory.ai полагается на OpenAI' API модерации, чтобы убедиться, что контент подходит для семьи. "Он не на 100 процентов герметичен, но мы постоянно совершенствуемся, и... он будет избегать такого рода материалов", - говорит он. "По мере того как доступные инструменты будут становиться лучше, и мы узнаем больше о том, как направлять и управлять моделью, это тоже будет улучшаться со временем"

Хотя традиционно издаваемые детские книги обычно избегают случайных заходов в насилие, они не являются идеальными. У многих родителей есть книги, которые они начинают ненавидеть после многократного перечитывания, а старая классика подвергается критике за устаревшие ценности. Например, рассказы Роальда Даля были отредактированы, чтобы убрать негативные упоминания в описаниях персонажей, включая вес, лысину и цвет кожи. Издатели продолжают бороться с многообразием и репрезентативностью. Недавно проведенное в Великобритании исследование показало, что лишь в 5 процентах детских книг есть герои из числа чернокожих, азиатов или представителей этнических меньшинств. Книги, созданные ИИ, могут стать одним из способов для родителей создать персонажей, представляющих их собственные семьи, хотя это также может оказаться проблематичным, учитывая предвзятость многих генеративных ИИ.

ChatGPT не был создан для написания детских книг. Модель ИИ, оснащенная знаниями о том, как обучать чтению, и обученная только на лучших детских книгах, могла бы давать лучшие результаты - по крайней мере, в теории, говорит Кучиркова. Она указывает на компанию LitLab, которая использует ИИ для создания "декодируемого контента" - коротких мини-рассказов, основанных на уроках фоники, хотя эта платформа была создана для использования учителями, а не родителями.

В то же время, созданные ИИ сказки на ночь могут нарушать авторские права, быть недостаточно качественными и требовать гарантий, но если они заставят скучающего по книгам ребенка читать, измученные родители могут не возражать. Кучиркова опасается, что если в семьях, где и так много читают, ИИ может стать забавным инструментом, то для других он может стать костылем. "Для детей, которые больше всего нуждаются в индивидуальном подходе, они могут быть оставлены наедине с различными открытыми решениями без необходимых гарантий и заботы", - говорит она.

Для тех, кто хочет создать собственную сказку, созданную искусственным интеллектом, Фалафель утверждает, что лучше всего использовать робота-сказочника в качестве отправной точки, а затем создать что-то на основе того, что выдает инструмент. "Имейте уверенность, что сможете отредактировать и сделать это своими руками," говорит он. "Тогда родители смогут немного гордиться тем, что это не просто компьютер создал это.

Фалафель говорит, что он бы использовал истории с ИИ для своих собственных детей, хотя его "возмущает" возможность того, что эти модели ИИ были обучены на работе писателей, чтобы теперь заменить их. "Я "не против технологии, я "против этики того, как она была создана, " говорит он. "Если бы технология была чистой, с точки зрения того, что все, кто участвует в машинном обучении, были осведомлены об этом и заплатили за это, я бы не возражал против того, чтобы родители использовали ее"

В связи с этим я попросил ChatGPT написать историю с участием моей двухлетней дочери, которая использует Bluey и Bingo, чтобы преподать урок о нарушении авторских прав. Мораль этой истории, созданной ChatGPT, озвучил Бинго: "Всегда лучше рассказывать истории, которые вы придумали сами, или, если вы делитесь чужой историей, рассказать всем, кто ее придумал. Таким образом, каждый получит заслуженную похвалу за свое творчество.

Несмотря на то, что она была посвящена ее любимому персонажу, мой малыш отключился еще до конца этого предложения. Разработчикам ИИ и приложений, возможно, стоит обратить на это внимание.