Alexis Conneau

Wiki Powered byIconIQ
Alexis Conneau

IQ AI를 발표했습니다.

확인해보세요

Alexis Conneau

**알렉시스 코노(Alexis Conneau)**는 오디오 AI 스타트업 WaveForms AI의 공동 설립자이자 CEO입니다. 그의 경력에는 OpenAI, Google, Meta와 같은 주요 기술 회사의 수석 연구직이 포함되어 있으며, 자연어 처리, 크로스 링구얼 모델링, 다중 모달 AI 분야에 상당한 기여를 했습니다. 그는 최근 팀에 합류했습니다. [1] [2]

교육

코노는 에콜 폴리테크니크(École Polytechnique)에서 이학사 및 응용 수학 석사 학위를 모두 취득했습니다. 그는 ENS Cachan과 ENSAE의 공동 이니셔티브인 Math, Vision, and Learning (MVA) 프로그램에서 비전 및 머신 러닝 석사 학위를 취득하며 전문성을 더욱 높였습니다. 이후 르망 대학교(Le Mans University)에서 인공지능 박사 학위를 취득하기 위한 박사 과정을 수행했으며, 2019년에 학위를 취득할 예정이었습니다. 박사 연구 기간 동안 파리의 Facebook AI Research (FAIR)에서 상주 박사 과정 학생으로도 활동했습니다. [3] [4]

경력

코노는 2014년 헤지펀드 운용사인 Capital Fund Management에서 6개월간, 2015년 개인 맞춤형 리타겟팅 회사인 Criteo에서 6개월간 머신 러닝 분야 인턴십을 통해 경력을 시작했습니다. 박사 과정 상주 연구원으로 Facebook AI Research (FAIR)에서의 그의 활동은 자연어 처리(NLP)를 위한 심층 학습과 전이 가능한 텍스트 표현 개발에 중점을 둔 대규모 산업 연구에 대한 그의 진입을 알렸습니다.

2021년 5월, 코노는 Google AI Language에 연구 과학자로 합류했다고 발표했습니다. 이 직책에서 그는 최소한의 감독 또는 감독 없이 학습할 수 있는 신경망 구축 작업을 계속했습니다. 그는 2023년 4월 샌프란시스코의 OpenAI로 자리를 옮겨 오디오 연구 책임자 직책을 맡았습니다. OpenAI에서 그는 GPT-4o 및 오디오-비주얼 모델(AVM) 프로젝트의 연구를 이끌었으며, 2024년 5월 공개된 GPT-4o 모델의 기본 오디오 이해 기능 개발에 중요한 역할을 수행했습니다.

2024년 9월, 코노는 OpenAI를 떠나 와 함께 WaveForms AI라는 자체 벤처를 설립하여 CEO를 역임했습니다. 이 스타트업은 인공 지능을 사용하여 오디오의 감정을 이해하고 복제하는 것을 전문으로 하며 Andreessen Horowitz가 주도하는 투자 라운드에서 4천만 달러의 자금을 성공적으로 유치했습니다. 2025년 8월, Meta Platforms는 WaveForms AI 인수를 발표했습니다. 인수 후 코노와 르메트르는 에 합류하여 첨단 AI 연구를 계속할 예정입니다. [2] [1] [3] [4] [5]

주요 작품 및 연구

코노의 연구는 언어와 음성 영역에서 특히 신경망의 기능을 향상시키는 데 지속적으로 초점을 맞춰 왔습니다. 그의 연구는 비지도 학습, 크로스 링구얼 표현 및 다중 모달 AI를 아우르며, 제한된 감독으로 다양한 언어와 데이터 유형에서 효과적으로 학습하고 작동할 수 있는 모델을 만드는 것이 반복되는 주제입니다. 그의 주요 연구 관심 분야는 자연어 이해, 시퀀스 투 시퀀스 학습, 신경 기계 번역 및 자기 지도 학습입니다. [3]

크로스 링구얼 언어 모델(XLM)

코노의 Facebook AI Research에서의 상당 부분의 연구는 여러 언어를 이해하는 언어 모델을 만드는 데 전념했습니다. 이 연구는 크로스 링구얼 언어 모델(XLM)의 개발로 이어졌습니다.

  • 초기 모델: 2019년 논문 "Cross-lingual Language Model Pretraining"에서 코노와 그의 공동 연구자들은 다국어 텍스트 코퍼스에서 모델을 사전 훈련하는 방법을 소개했습니다. 이 연구는 언어 간에 공유 어휘와 임베딩 공간을 사용하는 효과를 보여주어 모델이 고자원 언어에서 저자원 언어로 지식을 전이할 수 있도록 했습니다.
  • XLM-R: 후속 논문인 "Unsupervised Cross-lingual Representation Learning at Scale"에서는 Common Crawl 데이터 세트에서 가져온 100개 언어의 2.5테라바이트 텍스트를 사전 훈련한 모델인 XLM-RoBERTa(XLM-R)를 소개했습니다. XLM-R은 코노가 공동 개발한 크로스 링구얼 자연어 추론(XNLI) 벤치마크를 포함한 다양한 크로스 링구얼 벤치마크에서 새로운 최첨단 결과를 달성했습니다. 2019년 8월, 그의 팀은 100개 언어로 훈련된 XLM 모델의 PyTorch 버전을 공개했는데, 이는 이전의 다국어 모델보다 성능이 훨씬 뛰어났습니다. [1] [3]

데이터 세트 및 평가

고품질 데이터와 강력한 평가 방법의 필요성을 인식한 코노는 NLP 커뮤니티를 위한 여러 주요 리소스 생성에 기여했습니다.

  • CC100 데이터 세트: XLM-R 모델을 훈련하기 위해 코노와 그의 팀은 원시 웹 크롤링 데이터에서 고품질 텍스트를 추출하고 정리하는 파이프라인인 CCNet을 개발했습니다. 이는 2020년 10월에 공개된 CC100 데이터 세트를 만들어 연구자들에게 방대한 다국어 텍스트 코퍼스를 제공했습니다.
  • 평가 툴킷: 그는 "SentEval: An Evaluation Toolkit for Universal Sentence Representations"(2018)의 주요 저자였으며, 이는 문장 임베딩의 품질을 평가하기 위한 표준화된 프레임워크를 제공했습니다. 그는 또한 모델의 15개 언어에서 자연어 추론을 수행하는 능력을 측정하기 위해 XNLI 데이터 세트("XNLI: Evaluating Cross-lingual Sentence Representations," 2018)를 공동으로 만들었습니다. [3] [1]

참고 문헌.

카테고리순위이벤트용어집