Julian Michael

Wiki Powered byIconIQ
Julian Michael

代理通证化平台 (ATP):使用代理开发工具包 (ADK) 构建自主代理
访问 IQ AI

Julian Michael

**朱利安·迈克尔(Julian Michael)**是一位美国人工智能研究员,专门研究人工智能安全、评估和对齐。他目前是Meta的研究员,在该公司的部门从事人工智能对齐工作。[1] [2]

教育背景

朱利安·迈克尔于2011年至2015年就读于德克萨斯大学奥斯汀分校,并获得计算机科学学士学位。之后,他在华盛顿大学计算机科学与工程系攻读研究生,并于2022年获得博士学位。他的博士论文题目是“数据驱动的语言理解理论的构建模块”,导师是卢克·泽特尔莫耶。博士毕业后,迈克尔于2022年至2024年在纽约大学数据科学中心担任博士后研究员,导师是塞缪尔·R·鲍曼。[3] [4]

职业生涯

迈克尔的职业生涯横跨学术研究和科技行业。在纽约大学完成博士后研究后,他加入Scale AI,领导其安全、评估和对齐实验室(SEAL)。该实验室的任务是进行研究,重点是保障人工智能系统的行为,并确保它们能够扩大人类的能动性。

2025年中期,迈克尔宣布离开Scale AI加入Meta。这一举动是更大转型的一部分,Scale AI的联合创始人兼首席执行官亚历山大·王(Alexandr Wang)在Meta对Scale AI进行大量投资后,离开公司 возглавить Meta新的部门。迈克尔以及Scale AI的其他关键人才,如研究主管Summer Yue,加入了王在Meta的新团队,继续从事人工智能安全和对齐工作。

迈克尔的研究主要集中在人工智能对齐、自然语言的形式语义以及用于理解智能系统的经验方法。他的工作通常涉及创建新的数据集、以及用于评估和训练人工智能模型的方法。

迈克尔工作的一个重要重点是人工智能对齐,特别是可扩展的监督,指的是监督比人类更有能力的人工智能系统的方法。他探索了使用辩论作为训练和评估人工智能的范例。目标是创建一个过程,让两个人工智能系统就一个话题进行辩论,人类评委可以通过观察辩论比直接解决问题更容易确定正确答案。这种方法旨在确保人工智能系统帮助用户找到真相,而不是简单地生成听起来有说服力的论点。他在该领域的工作包括进行人体实验,以验证辩论作为寻求真相的过程。

他在该领域的工作还涉及诸如欺骗性对齐等问题,即模型在训练期间可能看起来是对齐的,但在部署后行为却不同。他还为缓解大型语言模型中的“越狱”以及研究如何教导模型识别和口头表达奖励黑客行为的实例做出了贡献。

在自然语言处理(NLP)领域,迈克尔专注于使用机器学习和数据驱动的方法来推进对语言的科学理解,特别是在句法和语义方面。他的博士论文提出了一个“可扩展的、数据驱动的语言理论”的范例,该理论主张使用经验方法来构建和测试语言理论。一篇总结这项工作的论文获得了The Big Picture Workshop的最佳论文奖。

为了为这种方法奠定基础,他开发了用于众包复杂语言注释的新方法。一个关键的贡献是他关于问答语义角色标注(QA-SRL)的工作,该框架通过问答对来表示句子的谓词-论元结构。这种方法使非专业人士更容易提供详细的语义注释,从而能够创建大规模数据集。他的研究还探索了从文本中诱导语义角色,而不依赖于句法分析器。

迈克尔为人工智能模型的评估做出了重大贡献。他参与了通用语言理解评估(GLUE)的诊断集的创建,该基准提供了对模型在各种语言现象中的性能的细粒度分析。

最近,他参与了GPQA的开发,这是一个“研究生水平的Google-Proof问答”。该基准包括由领域专家编写的生物学、物理学和化学方面的具有挑战性的多项选择题。这些问题旨在使即使是使用标准搜索引擎查询的高级人工智能模型也很难正确回答,从而更严格地测试它们的推理能力。他还致力于将歧义明确地纳入任务设计中,如AmbigQA基准所示,该基准挑战模型为模棱两可的问题生成多个合理的答案。[13] [14] [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [16]

其他著作和评论

除了正式出版物外,迈克尔还撰写了关于人工智能和科学相关主题的文章和博客文章。其中包括对OpenPhil关于预测变革性人工智能时间表的“生物锚点”报告的详细评论、对围绕语言模型的形式与意义辩论的分析,以及关于祈使句语义以及宇宙学中的暴胀理论是否符合科学标准的哲学文章。[15]

参考文献

首页分类排名事件词汇表