**유지아후이(Jiahui Yu)**는 AI 연구원이자 메타의 슈퍼인텔리전스 랩(Superintelligence Labs)의 일원입니다. 메타의 슈퍼인텔리전스 랩은 기초 모델 개발과 인공 초지능 발전에 중점을 둔 팀입니다. 그는 이전에 OpenAI에서 지각(Perception) 연구 책임자를 역임했습니다. [1]
유는 중국과학기술대학교에서 컴퓨터 과학 학사 학위를 받았습니다. 이후 일리노이대학교 어바나-샴페인 캠퍼스에서 박사 학위를 취득했습니다. [1]
유는 2015년 5월부터 2015년 12월까지 마이크로소프트 리서치 아시아에서 인턴으로 연구 경력을 시작하여 대규모 딥러닝 훈련 시스템에 대한 연구를 수행했습니다. 2016년 초에는 Megvii (Face++)에서 연구 인턴으로 합류하여 객체 탐지에 중점을 두고 UnitBox 개발에 기여했습니다. 그 후 2017년 5월부터 12월까지 Adobe Research에서 인턴으로 근무하며 생성적 적대 신경망과 이미지 인페인팅(DeepFill v1 및 v2 포함)에 대한 연구를 수행했습니다. 2016년 6월부터 2018년 5월까지는 Jump Trading LLC에서 연구 컨설턴트로 재직하며 고주파수 금융 데이터를 활용한 가격 예측 모델과 거래 전략을 개발했습니다.
2018년에는 1월부터 8월까지 Snap Research에서 효율적인 딥러닝 모델(Slimmable Networks 포함) 개발에 참여했습니다. 이후 2018년 8월부터 12월까지 Baidu Research에서 인턴으로 근무하며 AutoML 및 AutoDL 2.0, EasyDL과 같은 효율적인 신경망 프로젝트에 기여했습니다. 2019년 초에는 1월부터 5월까지 Nvidia Research에서 인턴으로 근무하며 시각 콘텐츠 생성을 위한 대규모 생성 모델에 중점을 두었습니다. 이후 2019년 5월부터 9월까지 Google Brain에서 연구 인턴으로 근무하며 BigNAS를 포함한 AutoML 및 신경망 효율성에 대한 연구를 수행했습니다.
유는 2020년 2월 Google에 연구 과학자로 합류하여 스트리밍 자동 음성 인식 및 Alphabet 제품 전반에 사용되는 차세대 다중 모달 임베딩 개발에 기여했습니다. 이후 2021년 5월부터 2022년 10월까지 수석 연구 과학자로 승진하여 다중 모달 이해 및 생성에 중점을 두었습니다. 2022년 11월부터 2023년 9월까지 Google DeepMind에서 연구 과학자로 재직하며 Gemini Multimodal 프로젝트를 공동으로 이끌고 PaLM-2 아키텍처 개발에 기여했습니다.
2023년 10월, 유는 OpenAI에 지각(Perception) 팀의 연구 책임자로 합류하여 현재 지각 기반 AI 연구 관련 업무를 주도하고 있습니다. 2025년 7월에는 메타의 슈퍼인텔리전스 팀에 합류했습니다. 메타의 슈퍼인텔리전스 팀은 기초 모델 개발, AI 연구 발전 및 인공 초지능 구축에 중점을 둔 통합 부서입니다. [2] [6]
슈퍼인텔리전스 랩(MSL)은 2024년 6월에 출범한 메타의 부서로, 특히 인공 일반 지능(AGI) 추구를 위해 회사의 인공 지능 이니셔티브를 통합하고 가속화하는 것을 목표로 합니다. 알렉산더 왕(Alexandr Wang)과 냇 프리드먼(Nat Friedman)이 이끄는 MSL은 기초 모델, 응용 AI 제품 및 FAIR의 핵심 연구에 종사하는 팀을 통합합니다. 이 부서는 OpenAI, Anthropic 및 DeepMind의 연구원들을 채용하는 대규모 인재 영입 캠페인과 함께 설립되었으며, 메타의 Scale AI에 대한 143억 달러 투자에 이어 설립되었습니다. MSL은 메타의 Llama 모델 시리즈와 차세대 AI 시스템의 개발을 감독하며 장기적인 발전과 메타의 소비자 플랫폼 전반에 걸친 통합에 중점을 둡니다. [2] [3]
과거 "Meet a Google Researcher" 에피소드에서 진행자인 드류 칼카뇨(Drew Calcagno)는 구글의 텍스트-이미지 모델인 Parti에 대해 연구 과학자 우용휘(Yonghui Wu)와 유를 인터뷰했습니다. 그들은 자기회귀 모델인 Parti가 이미지 생성 과정을 기계 번역처럼 처리하여 텍스트 프롬프트에서 고품질 이미지를 생성하는 방법에 대해 논의했습니다. 연구원들은 상세한 설명을 기반으로 복잡한 시각 자료를 생성하는 모델의 능력을 강조하는 동시에 확산 접근 방식을 사용하는 구글의 다른 모델인 Imagen과 비교했습니다. 그들은 디버깅 세션 중 돌파구의 순간과 모델을 확장하면서 상당한 개선을 목격한 흥분을 포함하여 Parti를 개발한 경험을 공유했습니다. 두 연구원 모두 비디오 및 음악과 같은 다양한 모달의 통합을 포함한 미래의 발전에 대한 기대를 표명하면서 이러한 기술을 접근 가능하게 만드는 데 있어 책임감 있는 AI 관행의 중요성을 강조했습니다. [4]