James Lee-Thorp 是一位人工智能研究员,专门研究 Transformer 理论和 AI 对齐,目前在 Meta 的超智能团队担任研究科学家。他以其在高效 Transformer 模型方面的工作而闻名,包括 FNet 架构。 [1] [2]
Lee-Thorp 获得了开普敦大学的数学学士和硕士学位。后来他搬到美国,于 2011 年至 2016 年间在哥伦比亚大学完成了数学博士学位。 [1] [3] [5]
完成博士学位后,Lee-Thorp 于 2016 年至 2017 年在纽约大学担任博士后职位。他的早期职业生涯还包括在高盛担任软件工程师。然后他转到 Google,在那里担任研究员和软件工程师。在 Google,他是高效 Transformer 架构研究的主要贡献者。2025 年,Lee-Thorp 加入 Meta,担任研究科学家,成为该公司新成立的“超智能”团队的一员。
他的工作重点是 AI 对齐,旨在确保 AI 系统按照人类的意图和价值观行事。这包括对人类反馈的强化学习 (RLHF) 以及使用人类认知信号(例如眼动追踪)来改进 AI 奖励模型的研究。他的专业知识被认为是 Meta 解决高级 AI 系统的安全性和可控性战略的重要组成部分。
Lee-Thorp 合作撰写了多篇自然语言处理和机器学习领域有影响力的论文。他的研究通常侧重于提高大规模 AI 模型的效率和理解。
这些出版物突出了他专注于创建计算效率更高且可扩展的 AI 模型。
2022 年,Lee-Thorp 及其合著者凭借论文“FNet:使用傅里叶变换混合 Token”获得了北美计算语言学协会 (NAACL) 会议上的“最佳高效 NLP 论文”奖。 [4] [1] [2] [3] [5] [6]