**제이슨 위(Jason Wei)**는 대규모 언어 모델에 대한 공헌으로 유명한 미국 인공지능 연구원입니다. 여기에는 체인 오브 스로트 프롬프팅(chain-of-thought prompting) 개발도 포함됩니다. 그는 현재 메타 초지능 연구소(Meta Superintelligence Labs)의 연구원으로, 이전에는 오픈AI와 구글 브레인에서 근무했습니다. [1] [2]
위는 구글 브레인에서 연구 과학자로 경력을 시작했으며, 그의 연구는 대규모 언어 모델(LLM)의 기능 향상에 중점을 두었습니다. 구글 재직 시절, 그는 이 분야의 몇 가지 주요 기술을 대중화하는 데 중요한 역할을 했습니다. 그의 체인 오브 스로트 프롬프팅(chain-of-thought prompting)에 대한 연구는 LLM이 중간 단계를 생성함으로써 인간과 유사한 사고 과정을 모방하여 복잡한 추론 작업을 더 효과적으로 수행할 수 있음을 보여주었습니다. 그는 또한 사용자 지시 사항을 더 잘 따르도록 언어 모델을 미세 조정하는 방법인 지시 조정(instruction tuning) 개발에 기여했으며, 모델의 규모가 커짐에 따라 나타나는 예상치 못한 기능인 LLM의 출현 능력에 대한 연구를 수행했습니다. [1] [3]
2023년 2월, 위는 구글을 떠나 오픈AI의 ChatGPT 팀에 합류했다고 발표했습니다. [4] 오픈AI에서 그는 고급 AI 모델에 대한 연구를 계속했으며, 더 복잡한 문제를 처리하기 위해 답변을 제공하기 전에 더 많은 시간을 "생각"하도록 설계된 일련의 모델인 OpenAI o1 모델의 공동 제작자였습니다. 그는 또한 "심층 연구"로 알려진 프로젝트에 참여했습니다. [1] [2] 오픈AI 재직 시절, 위는 피드백을 사용하여 모델의 성능을 개선하는 훈련 방법인 강화 학습(RL)의 강력한 지지자가 되었습니다. 그는 자신을 "RL 매니아"라고 묘사했으며, 그 핵심 개념이 자신의 개인 철학에 어떻게 영향을 미쳤는지 언급하며, "스승을 이기려면 자신의 길을 걸어가고 환경으로부터 위험과 보상을 받아야 한다"고 말했습니다. [3] [5]
2025년 7월, 위는 그의 가까운 동료인 형원 충(Hyung Won Chung)과 함께 오픈AI를 떠나 메타의 새로 설립된 초지능 연구소(Superintelligence Labs)에 합류했다는 보도가 나왔습니다. 위의 추론 및 강화 학습 전문 지식은 메타의 목표에 중요한 자산으로 여겨졌습니다. [1] [2] [6]
위는 인공지능 분야에서 여러 영향력 있는 연구 분야와 모델에 기여했습니다. 그의 연구는 주로 대규모 언어 모델의 추론 및 일반화 능력 향상에 중점을 두었습니다.
구글 재직 시절, 위는 체인 오브 스로트(CoT) 프롬프팅으로 이어진 연구의 핵심 인물이었습니다. 이 기술은 언어 모델이 최종 답변을 제공하기 전에 여러 단계의 문제를 중간 추론 단계로 분해하도록 유도합니다. 모델은 자신의 "사고 과정"을 외부화함으로써 산술, 상식 및 기호 추론과 같은 영역에서 복잡한 작업에 대한 더 정확하고 신뢰할 수 있는 솔루션에 도달할 수 있습니다. 2022년에 발표된 "Chain-of-Thought Prompting Elicits Reasoning in Language Models"이라는 논문에서 이 연구는 이 방법을 대중화하고 LLM 추론에 대한 후속 연구에 상당한 영향을 미쳤습니다. [1] [3]
위는 구글의 FLAN(Finetuned Language Net) 모델을 중심으로 지시 조정(instruction tuning) 연구에도 기여했습니다. 지시 조정(instruction tuning)은 사전 훈련된 언어 모델을 지시 사항으로 형식화된 데이터 세트 모음으로 미세 조정하는 것을 포함합니다. 이 과정은 모델이 제로샷 설정에서 다양한 종류의 보이지 않는 작업을 수행하는 능력을 향상시켜 더욱 범용적이고 사용자 의도와 일치하도록 만듭니다. 그의 연구는 "Finetuned Language Models are Zero-Shot Learners"(2021) 및 "Scaling Instruction-Finetuned Language Models"(2022)과 같은 논문에 자세히 설명되어 있습니다. 동시에 그는 "Emergent Abilities of Large Language Models"(2022)이라는 논문을 공동 집필했는데, 이 논문에서는 특정 규모의 모델 크기와 훈련 데이터에서 예측할 수 없게 나타나는 LLM의 특정 기능을 특징으로 설명했습니다. [1]
오픈AI에서 위는 2024년 9월 미리 보기 버전으로 출시된 o1 모델의 공동 제작자였습니다. o1 시리즈 모델은 응답을 생성하기 전에 더 많은 컴퓨팅 작업 또는 "사고 시간"을 할당함으로써 이전 모델의 추론 제한을 개선하도록 설계되었습니다. 이 접근 방식을 통해 모델은 과학, 수학 및 코딩과 같은 분야에서 더욱 정확하게 복잡한 작업을 추론할 수 있습니다. 위는 이 모델이 단순한 체인 오브 스로트 프롬프팅을 넘어 더 정교한 추론 과정으로 AI 분야에 상당한 업데이트를 제공했다고 설명했습니다. [7] [2]