ORA가 개발한 opp/ai(Optimistic Privacy-Preserving AI)는 블록체인 기반 머신러닝 시스템의 프라이버시와 연산 효율성 문제를 해결하기 위해 설계된 온체인 AI 프레임워크입니다. [1] 이 프레임워크는 영지식 머신러닝(zkML)의 프라이버시 보장과 낙관적 머신러닝(opML)의 효율성을 통합하여, 온체인에서 안전한 AI 서비스를 위한 하이브리드 모델을 구축합니다. [2] 이 프레임워크는 유연하게 설계되어, 기반이 되는 zkML 기술의 발전 사항을 opp/ai에 직접 통합할 수 있습니다.
opp/ai 프레임워크는 프라이버시와 효율성의 균형을 맞추기 위해 두 가지 핵심 기술을 결합한 하이브리드 방식입니다.
영지식 머신러닝(zkML)은 opp/ai 프레임워크 내에서 프라이버시를 제공하는 데 사용됩니다. 이는 영지식 증명(ZKP)을 활용하여 기본이 되는 민감한 데이터나 모델 파라미터를 공개하지 않고도 연산을 검증합니다. [1] 이를 통해 AI 추론 과정에서 기밀 정보를 보호할 수 있습니다. 그러나 ZKP 생성은 연산 집약적이며 비용이 많이 들 수 있는데, 이것이 바로 opp/ai가 하이브리드 접근 방식을 취하는 주요 이유입니다. [2]
낙관적 머신러닝(opML)은 연산 효율성을 보장하기 위해 사용됩니다. zkML과 달리 opML은 사기 증명(fraud-proof) 시스템을 사용하며, ML 결과는 오프체인에서 실행되고 그 결과가 정확하다는 낙관적인 가정하에 블록체인에 제출됩니다. [1] 이러한 결과는 이의를 제기할 수 있는 도전 기간(challenge period)을 거칩니다. 이 방법은 온체인 연산 부하를 크게 줄여, ML을 블록체인 기술과 통합하는 데 있어 더 확장 가능하고 효율적인 솔루션을 제공합니다. [2]
opp/ai 프레임워크는 프라이버시 요구 사항에 따라 머신러닝 모델을 서로 다른 서브모델로 전략적으로 분할하여 작동합니다. 이를 통해 프라이버시와 효율성의 균형을 맞춘 하이브리드 실행 모델을 생성합니다. [2]
zkML 서브모델의 출력은 opML 서브모델의 입력으로 사용될 수 있어 두 시스템 간의 원활한 통합이 가능합니다. opML 구성 요소의 경우, 온체인에서 연산 단계를 검증하기 위해 사기 증명 가상 머신(FPVM)을 활용하는 대화형 게임을 통해 분쟁을 해결합니다. [1]
이 기술의 주요 응용 사례 중 하나는 대부분의 가중치가 이미 공개된 모델에서 특정 미세 조정(fine-tuning) 가중치를 숨기는 것입니다. 예를 들어, Stable Diffusion과 같은 오픈 소스 모델의 어텐션 레이어에 있는 독점적인 LoRA 가중치를 opp/ai 프레임워크를 사용하여 보호할 수 있습니다. 이를 통해 기본 모델은 접근 가능한 상태로 유지하면서 고유한 최적화 결과물의 경쟁 우위를 보존할 수 있습니다. [1]