**줄리안 마이클(Julian Michael)**은 미국 인공지능 연구원으로, AI 안전, 평가 및 정렬을 전문으로 합니다. 현재 그는 메타(Meta)에서 연구원으로 재직 중이며, 회사의 초지능(Superintelligence) 부서에서 AI 정렬 작업을 하고 있습니다. [1] [2]
줄리안 마이클은 2011년부터 2015년까지 텍사스 오스틴 대학교(University of Texas at Austin)에 다녔으며, 컴퓨터 과학 학사 학위를 받았습니다. 그 후 워싱턴 대학교(University of Washington) 컴퓨터 과학 및 공학과에서 대학원 과정을 이수하여 2022년 박사 학위를 받았습니다. 그의 박사 논문 제목은 "Building Blocks for Data-Driven Theories of Language Understanding"이며, 그의 지도 교수는 Luke Zettlemoyer였습니다. 박사 학위 취득 후 마이클은 2022년부터 2024년까지 뉴욕 대학교(New York University) 데이터 과학 센터(Center for Data Science)에서 Samuel R. Bowman의 지도하에 박사후 연구원으로 근무했습니다. [3] [4]
마이클의 경력은 학계 연구와 기술 산업 모두에서 다양한 역할을 포함합니다. 뉴욕 대학교 박사후 연구원 과정을 마친 후, 그는 Scale AI에 합류하여 안전, 평가 및 정렬 연구소(SEAL)를 이끌었습니다. 이 연구소의 임무는 AI 시스템의 행동을 안전하게 보호하고 인간의 대리 능력을 강화하는 데 중점을 둔 연구를 수행하는 것이었습니다.
2025년 중반, 마이클은 Scale AI를 떠나 메타(Meta)에 합류한다고 발표했습니다. 이러한 이동은 Scale AI의 공동 설립자이자 CEO인 Alexandr Wang이 메타(Meta)가 Scale AI에 상당한 투자를 한 후 메타(Meta)의 새로운 초지능(Superintelligence) 부서를 이끌기 위해 떠나면서 발생한 더 큰 변화의 일부였습니다. 마이클은 Scale AI의 연구 책임자인 Summer Yue와 같은 다른 주요 인재들과 함께 메타(Meta)의 Wang의 새로운 팀에 합류하여 AI 안전 및 정렬 작업을 계속했습니다.
마이클의 연구는 주로 AI 정렬, 자연어의 형식적 의미론 및 지능 시스템을 이해하는 데 사용되는 경험적 방법에 중점을 둡니다. 그의 연구는 종종 새로운 데이터 세트, 벤치마크(benchmarks) 및 AI 모델을 평가하고 훈련하기 위한 방법론을 만드는 것을 포함합니다.
마이클의 연구에서 중요한 초점은 AI 정렬, 특히 확장 가능한 감독(scalable oversight)입니다. 이는 인간보다 능력이 뛰어난 AI 시스템을 감독하는 방법을 말합니다. 그는 토론을 AI 훈련 및 평가를 위한 패러다임으로 사용하는 것을 탐구했습니다. 목표는 두 개의 AI 시스템이 주제에 대해 토론하고, 인간 심사자가 문제를 직접 해결하는 것보다 토론을 관찰하여 정답을 더 쉽게 판단할 수 있는 프로세스를 만드는 것입니다. 이러한 접근 방식은 AI 시스템이 설득력 있는 주장을 생성하는 것이 아니라 사용자가 진실을 찾도록 돕는 것을 목표로 합니다. 이 분야에서 그의 연구는 토론을 진실 추구 과정으로 검증하기 위한 인간 실험을 포함합니다.
이 영역에서 그의 연구는 모델이 훈련 중에는 정렬된 것처럼 보이지만 배포 후에는 다르게 행동할 수 있는 기만적인 정렬(deceptive alignment)과 같은 문제에도 영향을 미칩니다. 그는 또한 대규모 언어 모델의 "탈옥(jailbreaks)"을 완화하고 모델이 보상 해킹(reward hacking)의 인스턴스를 식별하고 구두로 표현하도록 가르치는 방법을 연구하는 데 기여했습니다.
자연어 처리(NLP) 분야에서 마이클은 기계 학습과 데이터 중심 접근 방식을 사용하여 특히 구문과 의미론에서 언어에 대한 과학적 이해를 발전시키는 데 집중했습니다. 그의 박사 논문은 언어에 대한 "확장 가능하고 데이터 중심적인 이론(scalable, data-driven theory)"에 대한 패러다임을 제시했는데, 이는 경험적 방법을 사용하여 언어 이론을 구축하고 테스트해야 한다고 주장합니다. 이 연구를 요약한 논문은 The Big Picture Workshop에서 최우수 논문상을 수상했습니다.
이러한 접근 방식의 기반을 구축하기 위해 그는 복잡한 언어 주석을 크라우드소싱하기 위한 새로운 방법을 개발했습니다. 주요 기여는 질문-답변 의미 역할 라벨링(QA-SRL)에 대한 그의 연구인데, 이는 질문-답변 쌍을 통해 문장의 술어-인수 구조를 나타내는 프레임워크입니다. 이 방법을 통해 비전문가도 자세한 의미 주석을 더 쉽게 제공할 수 있으므로 대규모 데이터 세트를 만들 수 있습니다. 그의 연구는 또한 구문 분석기를 사용하지 않고 텍스트에서 의미 역할을 유도하는 것을 탐구했습니다.
마이클은 AI 모델 평가에 상당한 기여를 했습니다. 그는 일반 언어 이해 평가(GLUE) 벤치마크(benchmark)의 진단 세트를 만드는 데 참여했는데, 이는 다양한 언어 현상에 걸쳐 모델 성능에 대한 세분화된 분석을 제공합니다.
최근에는 대학원 수준 구글 방지 Q&A 벤치마크(Benchmark)인 GPQA를 개발한 팀의 일원이었습니다. 이 벤치마크는 전문가가 작성한 생물학, 물리학 및 화학 분야의 어려운 객관식 질문으로 구성됩니다. 이 질문들은 표준 검색 엔진 쿼리를 사용하여 고급 AI 모델조차도 정답을 맞히기 어렵도록 설계되어 추론 능력을 더욱 엄격하게 테스트합니다. 그는 또한 모호한 질문에 대해 여러 가지 타당한 답변을 생성하도록 모델에 도전하는 AmbigQA 벤치마크에서 볼 수 있듯이 작업 설계에 모호성을 명시적으로 통합하는 작업을 수행했습니다. [13] [14] [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [16]
공식 출판물 외에도 마이클은 AI와 과학과 관련된 다양한 주제에 대한 에세이와 블로그 게시물을 작성했습니다. 여기에는 변혁적인 AI 타임라인을 예측하는 OpenPhil의 "Biological Anchors" 보고서에 대한 자세한 검토, 언어 모델을 둘러싼 형태 대 의미 논쟁에 대한 분석, 명령문의 의미론에 대한 철학적 에세이, 그리고 우주론에서 인플레이션 이론이 과학으로 분류되는지 여부에 대한 에세이가 포함됩니다. [15]