Extended Thinking: как AI учатся думать медленно

Сравнение подходов к расширенному мышлению в Claude, OpenAI o1, Google Gemini и ChatGPT.
Extended Thinking: как AI учатся думать медленно
Языковые модели традиционно работают в режиме быстрого ответа — получили запрос, сразу генерируют текст токен за токеном. Extended Thinking меняет этот подход, давая модели пространство для рассуждений перед формулировкой финального ответа. Это как черновик мышления — модель проверяет гипотезы, обнаруживает противоречия, меняет направление логики, и только потом выдает результат пользователю.
Психолог Даниэль Канеман описал две системы человеческого мышления: быстрое интуитивное и медленное аналитическое. Стандартная генерация ближе к первому — паттерн-матчинг на основе обучающих данных. Extended Thinking приближает модели ко второму — осознанному анализу с проверкой предположений и пошаговой верификацией.
Разные подходы к расширенному мышлению
Claude от Anthropic разделяет процесс на две фазы. Первая — внутренний монолог, где модель анализирует задачу и проверяет подходы. Разработчик видит этот процесс полностью, что решает проблему "черного ящика" AI. Вторая фаза — финальный ответ на основе проведенного анализа. Thinking опционален и контролируется через параметры API, что позволяет балансировать между качеством и стоимостью.
OpenAI o1 работает иначе — модель всегда использует расширенное рассуждение, это встроено в архитектуру. O1 обучалась через reinforcement learning оптимизировать процесс мышления и показывает превосходные результаты на математике и программировании. Интересная особенность — процесс мышления скрыт от пользователя, показывается только краткое резюме. OpenAI объясняет это соображениями конкурентного преимущества.
Google Gemini 2.0 Flash использует адаптивный thinking — модель сама определяет, сколько времени нужно на рассуждение в зависимости от сложности задачи. Для простых запросов thinking минимален, для сложных расширяется автоматически. Это решает проблему фиксированного бюджета на рассуждения.
ChatGPT не имеет нативного extended thinking, но достигает похожих результатов через промпт-инжиниринг. Техника Chain-of-Thought просит модель "рассуждать пошагово" в самом запросе. Разница в том, что это часть финального ответа, а не отдельная фаза мышления.


