林吉是一位人工智能研究员,以其在高效深度学习方面的工作而闻名,包括在资源受限的设备上部署模型和优化大型语言模型。他目前在 Meta 的超智能实验室 (MSL) 工作,专注于多模态系统、推理和合成数据。[1]
林于 2018 年毕业于清华大学,获得电气与电子工程学士学位。然后于 2023 年在麻省理工学院获得博士学位。[3]
林于 2018 年在北京谷歌开始了他的职业生涯,担任人工智能实习研究员,随后于 2018 年至 2023 年在麻省理工学院担任研究助理,在此期间他为人工智能领域的长期学术项目做出了贡献。2020 年,他在马萨诸塞州剑桥的 Adobe 完成了夏季研究实习,后来于 2023 年在圣克拉拉的 NVIDIA 实习,专注于高级人工智能研究。从 2023 年 11 月起,他担任 OpenAI 的技术人员,为 o3/o4-mini、GPT-4o、GPT-4.1、GPT-4.5、4o-imagegen 和 Operator 推理堆栈的开发做出了贡献,重点是多模态系统、推理和合成数据。2025 年 7 月,林加入了 Meta 旗下的超智能实验室 (MSL),该实验室专注于推进通用人工智能。[1] [3]
超智能实验室 (MSL) 是 Meta 旗下的一个部门,于 2024 年 6 月成立,旨在统一和加速公司的人工智能计划,尤其是在追求通用人工智能 (AGI) 方面。在 Alexandr Wang 和 Nat Friedman 的领导下,MSL 将从事基础模型、应用人工智能产品和 FAIR 核心研究的团队聚集在一起。该部门是在一项重大的人才收购活动中成立的,从 OpenAI、Anthropic 和 DeepMind 聘请了研究人员,并紧随 Meta 对 Scale AI 的 143 亿美元投资之后。MSL 负责 Meta 的 Llama 模型系列和下一代人工智能系统的开发,重点是长期进步以及在 Meta 消费者平台上的集成。[2] [8]
林在麻省理工学院的博士论文答辩重点是他题为“高效深度学习计算:从 TinyML 到大型语言模型”的研究。在他的演讲中,林重点介绍了他在五年中做出的重大贡献,包括解决深度学习效率问题的项目。他的工作范围从开发用于在内存有限的微控制器上部署视觉模型的技术到量化大型语言模型以降低其服务成本。例如,他实施了能够在内存低至 256 KB 的设备上进行高效推理和训练的算法。林讨论了随着深度学习模型尺寸的增加而扩展深度学习模型所面临的挑战,这些挑战通常超过了可用的硬件能力。他还强调了协同设计算法和硬件以实现最佳性能的重要性。演讲结束时,林对他的导师、合作者、家人和朋友在他整个研究过程中给予的支持表示感谢。[4] [5]