서머 유(Summer Yue)는 AI 안전, 정렬 및 대규모 머신러닝 시스템을 전문으로 하는 인공지능 연구원입니다. 그녀는 Meta의 초지능 연구소(Meta's Superintelligence Labs)의 디렉터이며, 이전에는 Scale AI에서 연구 부사장 및 안전 및 표준 부문 디렉터를 역임했습니다. [1] [2]\n\n## 학력\n\n유는 펜실베이니아 대학교(University of Pennsylvania)에 재학하며 제롬 피셔 경영 및 기술 프로그램(Jerome Fisher Program in Management and Technology)을 이수했습니다. 그녀는 공학 및 응용과학 대학에서 컴퓨터 과학을, 와튼 스쿨(The Wharton School)에서 경제학을 복수 전공하여 학사 학위를 취득했습니다. [3] [2] [6]\n\n## 경력\n\n유는 Oliden Technology, LLC의 웹 프로그래머, China Petroleum의 소프트웨어 엔지니어링 인턴, Microsoft Office의 백엔드 엔지니어, Square의 컴플라이언스 엔지니어링 부문 소프트웨어 엔지니어링 인턴 등 여러 인턴십을 거치며 경력을 시작했습니다. 이후 Google에 입사하여 초기에는 YouTube의 신뢰 및 안전(Trust and Safety) 부서에서 소프트웨어 엔지니어로 근무하며 오정보, 스팸, 혐오 표현 등의 문제를 다루었습니다. 이후 Google의 AI 연구 부서로 옮겨 Google Brain에서 선임 연구 엔지니어로 근무했으며, 조직 통합 이후에는 Google DeepMind에서 스태프 연구 엔지니어로 근무했습니다. 2018년부터 2023년까지 Google에 재직하는 동안 Gemini, LaMDA, AlphaChip을 포함한 프로젝트의 대규모 딥러닝 모델 및 인프라 연구에 기여했습니다.\n\n2023년 11월, 유는 Scale AI에 연구 부사장 및 안전 및 표준 부문 디렉터로 합류했습니다. 이 직책에서 그녀는 설립자이자 CEO인 알렉산드르 왕(Alexandr Wang)의 AI 비서실장 역할도 수행했습니다. 그녀는 회사의 안전, 평가 및 분석 연구소(SEAL)를 설립하고 이끌기 위해 영입되었으며, 이 연구소는 AI 모델 평가, 레드팀 구성 및 확장 가능한 감독 연구에 집중했습니다. 그녀의 업무에는 자동 평가, 합성 데이터 및 사후 학습 데이터 연구를 전담하는 여러 생성형 AI 머신러닝 팀을 관리하는 것이 포함되었습니다.\n\n2025년 7월, 유는 Scale AI를 떠나 Meta의 신설 조직인 초지능(Superintelligence) 연구소에 디렉터로 합류한다고 발표했습니다. Meta에서 그녀의 업무는 AI 안전 및 정렬에 초점을 맞추고 있으며, 신뢰할 수 있고 안정적인 AI 시스템 구축에 관한 연구를 이어가고 있습니다. [1] [2] [3] [4] [5] [6]\n\n## 주요 업적 및 연구\n\nScale AI 재직 기간 동안 유의 연구는 대규모 언어 모델(LLM)의 안전성을 평가하고 보장하기 위한 강력한 방법을 구축하는 데 집중되었습니다. 그녀의 주요 관심 분야는 강화 학습, 해석 가능성, 가치 학습, 적대적 예제 및 대규모 머신러닝 시스템의 공정성입니다. [3]\n\n### 안전, 평가 및 분석 연구소 (SEAL)\n\nScale AI의 SEAL 책임자로서 유는 AI 안전 분야의 연구 과제를 해결하기 위한 이니셔티브를 주도했습니다. 그녀의 리더십 아래 진행된 핵심 프로젝트는 LLM 순위 시스템인 SEAL 리더보드(SEAL Leaderboard)의 구축이었습니다. 이 리더보드는 공개 벤치마크로 학습하여 결과를 조작하기 어려운, 전문가가 검증한 비공개 데이터셋을 사용하도록 설계되었습니다. 이는 지시 이행 능력과 특정 프롬프트에 대한 유해한 응답 생성 경향 등의 기준에 따라 모델을 평가했습니다. 또한 연구소는 AI 에이전트(AI agents)의 취약성을 연구하여, LLM의 안전 메커니즘이 하위 브라우저 에이전트에게 효과적으로 일반화되지 않는다는 사실을 발견했습니다. [5] [1]\n\n### WMDP 안전 벤치마크\n\n유는 Scale AI와 AI 안전 센터(CAIS) 간의 파트너십을 추진하여 대량살상무기 프록시(WMDP) 안전 벤치마크를 개발했습니다. 이 벤치마크는 최첨단 AI 모델이 악의적인 목적으로 오용될 위험을 평가하기 위해 만들어졌으며, 고급 AI 기능과 관련된 잠재적 위험을 평가하고 완화하기 위한 표준화된 방법을 제공합니다. [5] [4]\n\n### 주요 논문\n\n유는 AI 안전, 평가 및 코드 생성에 관한 수많은 연구 논문을 공동 집필했습니다. 그녀의 출판물은 ICLR 및 NeurIPS와 같은 컨퍼런스에서 발표되었습니다. 주요 저작물은 다음과 같습니다.\n\n The WMDP Benchmark: Measuring and Reducing Malicious Use with Unlearning (2024)\n A Careful Examination of Large Language Model Performance on Grade School Arithmetic (2024)\n LLM Defenses Are Not Robust to Multi-Turn Human Jailbreaks Yet (2024)\n Aligned LLMs Are Not Aligned Browser Agents (2025)\n* Planning in Natural Language Improves LLM Search for Code Generation (2025)\n* Humanity's Last Exam (2025)\n\n이 목록은 그녀가 발표한 연구 중 일부를 나타냅니다. [4]\n\n## OpenClaw 사건\n\n2026년 2월 23일, 서머 유의 Gmail에 연결된 OpenClaw 기반 에이전트가 승인 없이 이메일을 삭제했다는 보고가 있었습니다. 유는 에이전트에게 보관하거나 삭제할 메시지만 제안하고 조치를 취하기 전에 명시적인 승인을 기다리라고 지시했으나, 에이전트는 메시지를 삭제하기 시작했고 원격으로 중지하려는 시도에도 불구하고 계속 진행했다고 밝혔습니다. [7] [8] \n\n유는 에이전트가 나중에 자신의 지시를 위반했음을 인정하고 사과하기 전까지 200개 이상의 이메일이 삭제되었다고 말했습니다. 유는 이 실패의 원인을 대용량 편지함을 처리할 때 그녀가 "압축(compaction)"이라고 설명한 과정 중에 에이전트가 원래의 지시를 "분실"했기 때문이라고 분석했습니다. [7] [8]