**여름 유(Summer Yue)**는 인공지능 안전, 정렬 및 대규모 기계 학습 시스템을 전문으로 하는 인공지능 연구원입니다. 그녀는 메타의 초지능 연구소(Meta's Superintelligence Labs)의 디렉터이며, 이전에는 Scale AI에서 연구 부사장(VP of Research) 겸 안전 및 표준 디렉터를 역임했습니다. [1] [2]
유는 펜실베이니아 대학교(University of Pennsylvania)에 재학 중 제롬 피셔 경영 및 기술 프로그램(Jerome Fisher Program in Management and Technology)에 참여했습니다. 그녀는 공과대학(School of Engineering and Applied Science)의 컴퓨터 과학과 와튼 스쿨(The Wharton School)의 경제학을 이중 전공하여 이학사 학위를 받았습니다. [3] [2]
유는 올리덴 테크놀로지(Oliden Technology, LLC)의 웹 프로그래머, 중국석유(China Petroleum)의 소프트웨어 엔지니어링 인턴, 마이크로소프트 오피스(Microsoft Office)의 백엔드 엔지니어, 스퀘어(Square)의 컴플라이언스 엔지니어링 소프트웨어 엔지니어링 인턴 등 여러 인턴십을 통해 경력을 시작했습니다. 그 후 구글(Google)에 합류하여 처음에는 유튜브(YouTube)의 신뢰 및 안전 부서에서 소프트웨어 엔지니어로 일하며 허위 정보, 스팸 및 증오 발언과 같은 문제에 집중했습니다. 이후 구글의 AI 연구 부서로 이동하여 구글 브레인(Google Brain)의 수석 연구 엔지니어, 그리고 합병 후 구글 딥마인드(Google DeepMind)의 수석 연구 엔지니어로 일했습니다. 2018년부터 2023년까지 구글에서 근무하는 동안 Gemini, LaMDA, AlphaChip을 포함한 프로젝트의 대규모 심층 학습 모델 및 인프라 연구에 기여했습니다. [3] [4] [1]
2023년 11월, 유는 Scale AI에 연구 부사장(VP of Research) 겸 안전 및 표준 디렉터로 합류했습니다. 이 직책에서 그녀는 창립자이자 CEO인 알렉산더 왕(Alexandr Wang)의 AI 최고참모(Chief of Staff) 역할도 수행했습니다. 그녀는 AI 모델 평가, 적대적 공격(red teaming), 확장 가능한 감독에 대한 연구에 중점을 둔 회사의 안전, 평가 및 분석 연구소(SEAL)를 설립하고 이끌도록 고용되었습니다. 그녀의 업무에는 자동 평가, 합성 데이터 및 훈련 후 데이터 연구에 전념하는 여러 생성형 AI 기계 학습 팀을 관리하는 것이 포함되었습니다. [5] [1]
2025년 7월, 유는 Scale AI를 떠나 새롭게 설립된 메타의 초지능 연구소(Superintelligence lab)에 디렉터로 합류한다고 발표했습니다. 메타에서 그녀의 업무는 AI 안전 및 정렬에 중점을 두고 있으며, 신뢰할 수 있고 안정적인 AI 시스템 구축에 대한 연구를 계속하고 있습니다. [1] [2]
Scale AI에서 근무하는 동안 유의 연구는 대규모 언어 모델(LLM)의 안전성을 평가하고 보장하는 강력한 방법을 확립하는 데 중점을 두었습니다. 그녀의 주요 관심 분야는 강화 학습, 해석 가능성, 가치 학습, 적대적 예제 및 대규모 기계 학습 시스템의 공정성입니다. [3]
Scale AI의 SEAL 책임자로서 유는 AI 안전 분야의 연구 과제를 해결하기 위한 계획을 주도했습니다. 그녀의 지휘 아래 주요 프로젝트는 LLM 순위 시스템인 SEAL 리더보드(SEAL Leaderboard)를 만드는 것이었습니다. 리더보드는 공개 벤치마크에서 모델 개발자가 쉽게 조작할 수 없는 비공개 전문가 검토 데이터 세트를 사용하도록 설계되었습니다. 지시 사항 준수 및 특정 프롬프트에 대한 유해한 응답 생성 경향과 같은 기준에 따라 모델을 평가했습니다. 또한 연구소는 AI 에이전트의 취약성을 연구하여 LLM의 안전 메커니즘이 다운스트림 브라우저 에이전트로 효과적으로 일반화되지 않는다는 것을 발견했습니다. [5] [1]
유는 Scale AI와 AI 안전 센터(CAIS) 간의 파트너십을 주도하여 대량 살상 무기 프록시(WMDP) 안전 벤치마크를 개발했습니다. 이 벤치마크는 최첨단 AI 모델이 악의적인 목적으로 오용될 위험을 평가하기 위해 만들어졌으며, 고급 AI 기능과 관련된 잠재적 위험을 평가하고 완화하기 위한 표준화된 방법을 제공합니다. [5] [4]
유는 AI 안전, 평가 및 코드 생성에 관한 여러 편의 연구 논문을 공동 집필했습니다. 그녀의 논문은 ICLR 및 NeurIPS와 같은 학회에서 발표되었습니다. 주목할 만한 연구는 다음과 같습니다.
이 목록은 그녀가 발표한 연구 중 일부입니다. [4]
유는 SXSW 2025 컨퍼런스에서 "과장된 기대를 넘어: 신뢰할 수 있고 안정적인 AI 구축"이라는 제목으로 발표할 예정입니다. [5]