Розовые тона в прогнозах грандиозных достижений искусственного интеллекта будут сметены неутешительными показателями и опасными результатами.
Конечно, генеративный ИИ - впечатляющая технология, предоставляющая огромные возможности для повышения производительности в ряде задач. Но поскольку шумиха так сильно опередила реальность, неудачи этой технологии в 2024 году будут более запоминающимися.
Появляется все больше доказательств того, что генеративный ИИ и большие языковые модели предоставляют ложную информацию и склонны к галлюцинациям - когда ИИ просто придумывает что-то и ошибается. Надежды на быстрое решение проблемы галлюцинаций с помощью контролируемого обучения, когда эти модели учат держаться подальше от сомнительных источников или заявлений, в лучшем случае окажутся оптимистичными. Поскольку архитектура этих моделей основана на предсказании следующего слова или слов в последовательности, будет крайне сложно обеспечить привязку предсказаний к известным истинам.
Не лучше обстоят дела и с ожиданиями экспоненциального повышения производительности в экономике или столь желанных первых шагов на пути к "искусственному интеллекту общего назначения", или AGI. Настрой на повышение производительности сменится на обвинение в неудачах неправильного внедрения генеративного ИИ предприятиями. Возможно, мы начнем двигаться к (гораздо более значимому) выводу о том, что необходимо знать, какие человеческие задачи могут быть дополнены этими моделями и какие виды дополнительного обучения работников необходимы, чтобы сделать это реальностью.
Это история из серии "Мир в 2024 году", нашего ежегодного брифинга о тенденциях. Читайте другие статьи из этой серии здесь - или скачайте копию журнала.
Некоторые люди начнут признавать, что достижение чего-то похожего на сложное человеческое познание на основе предсказания слов всегда было несбыточной мечтой. Другие скажут, что интеллект не за горами. Многие, боюсь, продолжат говорить об "экзистенциальных рисках" ИИ, не понимая, что именно идет не так, а также о гораздо более обыденных (и значимых) рисках, которые его неконтролируемое распространение создает для рабочих мест, неравенства и демократии.
Мы станем свидетелями этих издержек более отчетливо в 2024 году. Генеративный ИИ будет внедрен многими компаниями, но окажется, что это всего лишь "мягкая автоматизация", которая вытесняет работников, но не обеспечивает значительного повышения производительности.
Самое большое применение ChatGPT и другие большие языковые модели найдут в социальных сетях и онлайн-поиске. Платформы продолжат монетизировать собираемую ими информацию с помощью индивидуализированной цифровой рекламы, а конкуренция за внимание пользователей будет усиливаться. Количество манипуляций и дезинформации в сети будет расти. Генеративный ИИ увеличит количество времени, которое люди проводят за экранами (и неизбежные проблемы с психическим здоровьем, связанные с этим).
Появится больше стартапов в области ИИ, а модель с открытым исходным кодом получит некоторое распространение, но этого будет недостаточно, чтобы остановить возникновение дуополии в отрасли, когда Google и Microsoft/OpenAI будут доминировать в этой сфере со своими гигантскими моделями. Еще больше компаний будут вынуждены полагаться на эти базовые модели при разработке собственных приложений. А поскольку эти модели будут продолжать разочаровывать из-за ложной информации и галлюцинаций, многие из этих приложений также будут разочаровывать.
Призывы к антимонопольному регулированию будут усиливаться. Антимонопольные меры ни к чему не приведут, поскольку ни у судов, ни у политиков не хватит смелости попытаться раздробить крупнейшие технологические компании. В сфере регулирования будет больше шума. Тем не менее, значимое регулирование не появится в 2024 году по той простой причине, что правительство США настолько отстало от технологий, что ему нужно время, чтобы наверстать упущенное - этот недостаток станет еще более очевидным в 2024 году, активизируя дискуссии вокруг новых законов и правил, и даже становясь более двухпартийным.