Reasoning drift у AI: почему коммерческая модель может молча стать хуже, и что с этим делать
Последние недели вокруг Claude развернулась жаркая дискуссия на Reddit. Жалобы там очень разные: от медлительности и ухудшения качества кода до потери связности, полуответов и странных отказов на вполне обычных задачах. Формально сервис при этом работает: ответы приходят, подписка активна, интерфейс не лежит.
Ощущение знакомо мне лично - похожее впечатление стало складываться у меня в последние месяц-два во время работы даже с подпиской Max. Конечно, несколько сессий нельзя считать доказательством фактического регресса, однако складывается впечатление, что модель теперь быстрее сдаётся, хуже удерживает контекст и всё чаще выдаёт неполноценные решения.
Разумеется, у таких обсуждений быстро появляются стандартные возражения. Одни считают, что ухудшение качества лишь кажется, другие замечают, что сами запросы за это время стали сложнее. И это важная оговорка: даже массовая волна жалоб ещё не означает, что все они описывают одну и ту же техническую проблему. Обычно там перемешаны и реальные сигналы, и частные обстоятельства, и общий фон раздражения.
Но меня в этой истории интересует уже не столько вопрос «деградировал ли Claude на самом деле», сколько другой: есть ли какие-либо гарантии защиты пользователей, когда коммерческая AI-модель формально продолжает работать, но качество результата меняется не в лучшую сторону? Ведь некоторые компании уже используют подобные AI-модели в рабочих процессах, критичных для бизнеса.
Предварительный вывод у меня такой: такая защита существует, но она довольно ограниченная. Она фрагментарна, охватывает отдельные аспекты проблемы и зачастую требует значительных усилий самого клиента: введения собственных процедур контроля, доработки инфраструктуры либо активного взаимодействия с поставщиком услуги.
Читать далее