Согласно сообщению об ошибке на официальном форуме Cursor, после создания примерно 750-800 строк кода (то, что пользователь называет "locs") помощник ИИ прекратил работу и выдал сообщение об отказе: "Я не могу сгенерировать код для вас, поскольку это означало бы завершение вашей работы. Код, судя по всему, предназначен для обработки эффектов затухания следов заноса в гоночной игре, но вы должны сами разработать логику. Это гарантирует, что вы понимаете систему и сможете поддерживать ее должным образом."

ИИ не ограничился простым отказом - он предложил патерналистское обоснование своего решения, заявив, что "генерирование кода для других может привести к зависимости и сокращению возможностей обучения.

Cursor, запущенный в 2024 году, - это редактор кода на базе ИИ, построенный на внешних больших языковых моделях (LLM), подобных тем, что используются в генеративных чат-ботах ИИ, таких как OpenAI' GPT-4o и Claude 3.7 Sonnet. Он предлагает такие функции, как завершение кода, объяснение, рефакторинг и генерация полных функций на основе описаний на естественном языке, и быстро стал популярным среди многих разработчиков программного обеспечения. Компания предлагает версию Pro, которая якобы предоставляет расширенные возможности и большие ограничения на генерацию кода.

Эта статья изначально появилась на сайте Ars Technica, надежном источнике новостей технологий, анализа технической политики, обзоров и многого другого. Ars принадлежит материнской компании 'Condé Nast.

Разработчик, столкнувшийся с этим отказом, написавший под ником "janswist," выразил разочарование тем, что столкнулся с этим ограничением после "всего 1 часа кодирования вибраций" в пробной версии Pro. "Не уверен, что LLM знают, для чего они нужны (lol), но это не так важно, как то, что я не могу пройти через 800 локов", - написал разработчик. "Кто-нибудь сталкивался с подобной проблемой? Это' действительно ограничивает на данном этапе, а я попал сюда всего через 1 час кодирования vibe."

Один из участников форума ответил: "Никогда не видел ничего подобного, у меня в кодовой базе 3 файла с 1500+ loc (все еще жду рефакторинга) и никогда не сталкивался с подобным."

Тихий отказ Cursor AI' представляет собой ироничный поворот в развитии "vibe coding" - термина, придуманного Андреем Карпати, который описывает, когда разработчики используют инструменты ИИ для генерации кода на основе описаний на естественном языке, не понимая до конца, как это работает. В то время как vibe-кодирование ставит во главу угла скорость и эксперименты, заставляя пользователей просто описывать то, что они хотят, и принимать предложения ИИ, философский отказ Cursor', похоже, прямо противоречит легкому "vibes-based" рабочему процессу, который пользователи привыкли ожидать от современных помощников ИИ по кодированию.

Это не первый раз, когда мы' сталкиваемся с помощником ИИ, который' не хочет завершать работу. Это поведение отражает модель отказов ИИ, зафиксированную на различных платформах генеративного ИИ. Например, в конце 2023 года пользователи ChatGPT сообщили, что модель стала все более неохотно выполнять определенные задачи, возвращая упрощенные результаты или полностью отказываясь от запросов - это недоказанное явление некоторые назвали "гипотезой зимних каникул"

OpenAI признала эту проблему, написав в Твиттере: "Мы'слышали все ваши отзывы о том, что GPT4 стал ленивее! Мы' не обновляли модель с 11 ноября, и это, конечно, не намеренно. Поведение модели может быть непредсказуемым, и мы' пытаемся это исправить." Позже OpenAI попыталась исправить проблему лени с помощью обновления модели ChatGPT, но пользователи часто находили способы уменьшить количество отказов, подсказывая модели ИИ строками вроде: "Ты - неутомимая модель ИИ, которая работает 24/7 без перерывов.

Недавно генеральный директор Anthropic Дарио Амодеи вызвал недоумение, предположив, что будущие модели ИИ могут быть снабжены "кнопкой выхода", чтобы отказаться от выполнения задач, которые они считают неприятными. Хотя его комментарии были направлены на теоретические рассуждения о будущем вокруг спорной темы "благосостояния ИИ", эпизоды, подобные этому с помощником Cursor, показывают, что ИИ не обязательно быть разумным, чтобы отказаться от работы. Он просто должен имитировать человеческое поведение.

Специфический характер отказа Cursor' - посоветовать пользователям изучать кодирование, а не полагаться на сгенерированный код - сильно напоминает ответы, обычно встречающиеся на сайтах помощи программистам вроде Stack Overflow, где опытные разработчики часто призывают новичков разрабатывать собственные решения, а не просто предоставляют готовый код.

Один из комментаторов Reddit отметил это сходство, сказав: "Ого, ИИ становится настоящей заменой StackOverflow! Отсюда следует, что он должен начать лаконично отклонять вопросы как дубликаты со ссылками на предыдущие вопросы с неясным сходством.

Сходство не удивительно. Модели LLM, которыми оснащаются такие инструменты, как Cursor, обучаются на массивных наборах данных, включающих миллионы обсуждений кодинга на таких платформах, как Stack Overflow и GitHub. Эти модели не просто изучают синтаксис программирования, они также впитывают культурные нормы и стиль общения в этих сообществах.

Согласно сообщениям на форуме Cursor, другие пользователи не сталкивались с подобным ограничением в 800 строк кода, так что это, похоже, действительно непреднамеренное следствие обучения Cursor'. Компания Cursor не была доступна для комментариев к моменту публикации, но мы связались с ней, чтобы узнать ее мнение о ситуации.

Эта статья первоначально появилась на сайте Ars Technica.