대규모 언어 모델2022

Chain-of-Thought — 생각하는 AI

"Let's think step by step" 한 문장이 LLM의 추론 능력을 극적으로 향상

Chain-of-Thought(CoT) 프롬프팅은 LLM에게 중간 추론 과정을 명시적으로 생성하도록 유도하여, 수학, 논리, 코딩 등 복잡한 추론 문제의 정확도를 크게 높였습니다. 이후 o1, o3, DeepSeek-R1 등 '추론 특화 모델'의 기반이 되었으며, AI가 단순 패턴 매칭을 넘어 '사고'할 수 있음을 보여주었습니다.

핵심 개념

Chain-of-Thought

답을 바로 출력하지 않고 중간 추론 단계를 생성하여 복잡한 문제를 해결하는 기법

Zero-shot CoT

"Let's think step by step"만 추가해도 추론 성능이 향상되는 현상

추론 스케일링

추론 시간(토큰 수)을 늘려 모델 성능을 향상시키는 패러다임 (o1/o3)

주요 인물

제이슨 웨이(Jason Wei)
Chain-of-Thought 논문 1저자 (Google Brain)
코지마 타케시
Zero-shot CoT 논문 저자 — "Let's think step by step"

영향 & 의의

'학습 시간 스케일링'(더 큰 모델)에서 '추론 시간 스케일링'(더 오래 생각)으로 패러다임이 전환되는 계기. o1, o3, DeepSeek-R1 등 추론 모델과 AI 에이전트의 계획 능력의 기반이 되었습니다.

관련 항목