Hyung Won Chung(韩语:정형원)是一位韩国人工智能研究科学家,因其对大型语言模型 (LLM) 的开发和扩展所做的贡献而闻名。他目前是 Meta 超智能实验室 的一员,并在 OpenAI 和 Google Brain 担任研究职位,为 PaLM、Flan-T5、T5X 和 OpenAI 的 o1 等著名模型和框架做出了贡献。[1] [2]
Chung 最初来自韩国。他目前居住在加利福尼亚州的山景城,这里是科技产业的重要中心。[1]
Hyung Won Chung 在麻省理工学院 (MIT) 完成了他的博士学业,并获得了博士学位。他的学术背景为他随后的机器学习和人工智能研究生涯奠定了基础。[2]
Chung 的职业生涯始于 Google Brain 的一名研究科学家,他的工作重点是克服与大型 AI 模型扩展相关的挑战。他是 T5X 的主要贡献者,T5X 是一个基于 JAX 的框架,旨在促进模型的大规模训练,并参与了 Pathways 语言模型 (PaLM) 等主要模型的训练。他的研究还显著推进了指令微调领域的发展,从而开发了 Flan-PaLM 和 Flan-T5 模型系列,这些模型提高了 LLM 遵循用户指令的能力。[1]
2023 年 2 月,Chung 过渡到 OpenAI。在 OpenAI,他的研究重点是增强 AI 系统的推理能力和开发自主代理。他是该组织几项重大举措的基础贡献者,包括 o1-preview(2024 年 9 月)、完整版 o1 模型(2024 年 12 月)和深度研究项目(2025 年 2 月)。在此期间,他还领导了 Codex mini 模型的训练工作,Codex mini 模型是代码生成模型的一个较小、专门的版本。[1] [2]
2025 年 7 月,Chung 加入了 Meta 的超智能实验室 担任人工智能研究科学家。他与他的同事 Jason Wei 一起从 OpenAI 转到 Meta,他们在 Google 和 OpenAI 都保持着密切的工作关系。[4] [5]
Chung 共同撰写了机器学习和自然语言处理领域的众多有影响力的论文。他的研究成果已在顶级期刊上发表,并在主要会议上发表。
这些出版物突出了 Chung 对模型扩展、指令调整和大型语言模型的实际应用的关注。[1]
Chung 经常通过在大学的邀请讲座和研讨会与更广泛的学术和技术社区分享他的研究和见解。他的演讲涵盖了诸如大型语言模型的演变、指令微调的原理、来自人类反馈的强化学习 (RLHF) 以及对 AI 研究中范式转变的高级视角等主题。他曾在以下机构发表演讲: