Hone(구 OpenKaito, 온체인 명칭 Subnet-5)은 Bittensor 네트워크상의 탈중앙화 인공지능 서브넷으로, 분산된 참여를 통해 계층적 학습 및 추론 시스템을 훈련, 평가 및 서비스하는 데 중점을 둡니다. 이 프로젝트는 세계 모델(world-model) 학습과 반복적인 플래너-실행기(planner–executor) 추론 루프를 강조하며, 독립적인 검증자에 의한 성능 기반 평가와 추상적 문제 해결 벤치마크 개선에 명확한 초점을 맞추고 있습니다. Hone은 단일 정적 모델 출시가 아닌, 개방적이고 인센티브가 정렬된 연구 및 인프라 노력으로 운영됩니다. [1]
Hone(구 OpenKaito)은 Bittensor 네트워크에 구축된 탈중앙화 AI 및 검색 이니셔티브로, 정보 접근과 추론을 위한 개방적이고 지속적으로 개선되는 레이어를 만드는 데 집중합니다. 이는 탈중앙화된 검색 인프라와 지속적인 모델 훈련을 결합하여 투명하고 구성 가능하며 확장 가능한 정보 검색을 지원합니다.
Hone(Subnet-5)으로서 이 프로젝트는 계층적 학습 및 추론 아키텍처를 사용하여 범용 AI 모델을 훈련하는 데 중심을 둡니다. 전통적인 대규모 언어 모델 스케일링에 의존하는 대신, 상위 수준의 계획 구성 요소와 하위 수준의 실행 구성 요소가 반복적으로 상호 작용하는 시스템을 개발하여, 단발성 출력이 아닌 구조화된 다단계 문제 해결을 가능하게 합니다. 이 서브넷은 분산형 훈련 및 평가 시스템으로 작동합니다. 참여자들은 모델과 훈련 프로세스를 기여하고, 독립적인 검증자(validators)들은 진화하는 데이터셋과 벤치마크를 사용하여 성능을 평가합니다. 인센티브는 측정 가능한 결과와 연결되어, 중앙 집중식 통제 없이도 시간이 지남에 따라 모델 품질을 정교화하는 경쟁과 개선의 지속적인 사이클을 만듭니다.
핵심 목표는 추상적 문제 해결 능력을 측정하는 ARC-AGI-2와 같은 어려운 추론 벤치마크에서 성능을 향상시키는 것입니다. 이를 달성하기 위해 시스템은 공동 임베딩 예측 아키텍처(joint embedding predictive architectures) 및 계층적 추론 모델과 같은 접근 방식을 통합하여 모델이 내부 표현을 구축하고, 솔루션을 계획하며, 새로운 작업에 적응할 수 있도록 합니다. 그 결과물은 단일 고정 모델이 아니라 진화하는 탈중앙화 AI 시스템입니다. 시간이 지남에 따라 이러한 모델은 네트워크 API를 통해 액세스할 수 있도록 의도되었으며, 개방적이고 지속적으로 업데이트되며 공동으로 개발되는 상태를 유지하면서 시맨틱 검색, 복잡한 분석 및 일반 추론과 같은 애플리케이션을 지원합니다. [1] [3]
Hone(구 OpenKaito)은 원래 Bittensor 생태계 내의 Subnet-5로 시작되었으며, 초기에는 탈중앙화 검색 및 텍스트 임베딩 모델에 집중했습니다. 2025년 5월 1일, 서브넷의 소유권이 원래 창설자에서 Latent Holdings로 이전되면서 방향과 범위의 전환을 맞이했습니다. 이전 이후, Manifold Labs와의 협력을 통해 새로운 개발 전략이 도입되었습니다. 검색과 임베딩에 주로 집중하던 방식에서 벗어나, 계층적 AI 아키텍처를 사용하는 범용 추론 시스템 구축으로 서브넷의 위치를 재설정했습니다. 이러한 전환은 정보 검색에서 더 진보된 AI 기능으로의 광범위한 이동을 반영했습니다.
2025년 8월 7일, Subnet-5는 업데이트된 기술적 초점과 연구 방향을 반영하여 Hone으로 공식 재출시되었습니다. 그 시점부터 프로젝트는 Bittensor 프레임워크 내에서 세계 모델 학습 및 반복적 추론과 같은 접근 방식을 통합하여 추론 모델의 탈중앙화 훈련에 집중했습니다. Hone의 개발은 Manifold Labs와 Latent Holdings가 공동으로 주도합니다. Manifold는 Bittensor 서브넷 및 관련 인프라 구축과 운영에 대한 경험을 제공하며, Latent는 오픈 소스 AI 개발에 초점을 맞춘 전략적 방향을 제공합니다. 두 조직은 함께 Hone을 범용 AI 시스템 발전을 목표로 하는 탈중앙화 연구 및 인프라 노력으로 확립했습니다. 재출시 이후 Hone은 전문화된 임베딩 중심 서브넷에서 추론 모델의 분산 훈련 및 평가를 위한 광범위한 플랫폼으로 진화했습니다. [1] [2]
세계 모델 학습 모듈은 공동 임베딩 예측 아키텍처(JEPA) 및 계층적 확장에서 파생된 자기 지도 예측 학습에 중점을 둡니다. 핵심 목표는 레이블이 지정된 감독에 의존하는 대신 누락되거나 마스킹된 정보를 예측함으로써 모델이 데이터 구조를 이해하도록 훈련하는 것입니다. 실제로 모델은 불완전한 패턴, 시퀀스 또는 구조화된 데이터와 같은 부분적인 입력에 노출되며, 누락된 부분의 잠재적 표현(latent representation)을 추론해야 합니다. 이는 시스템이 변수 간의 관계, 인과 구조 및 문맥을 학습하도록 장려하여, 종종 "세계 모델"로 묘사되는 압축된 내부 표현을 형성하게 합니다.
주요 측면은 계층적 표현 학습입니다. 단일 평면 임베딩 공간을 학습하는 대신, 모델은 저수준 특징(패턴, 토큰)과 고수준 개념(규칙, 관계) 등 여러 추상화 수준을 동시에 개발합니다. 이러한 레이어는 시스템이 표면적인 상관관계를 암기하는 대신 추상적인 지식을 재사용할 수 있게 하므로 여러 도메인에 걸쳐 더 효과적으로 일반화할 수 있도록 돕습니다. 이 모듈은 시스템의 기초 역할을 합니다. 즉, 모델에 광범위하고 전이 가능한 지식과 문맥적 이해를 제공하며, 이는 후속 추론 작업에 필수적입니다. 이 단계가 없으면 추론 모듈은 얕거나 취약한 표현 위에서 작동하는 경향이 있습니다. [1]
계층적 추론 모듈은 학습된 표현 위에 구축되며, 계층적 추론 아키텍처에서 영감을 받은 명시적인 다단계 추론 프로세스를 도입합니다. 단일 순방향 패스로 출력을 생성하는 대신, 모델은 여러 반복(iteration)에 걸쳐 작동하는 두 개의 상호 작용 구성 요소로 구조화됩니다. 고수준 구성 요소는 플래너(planner) 역할을 합니다. 입력과 현재 추론 상태를 기반으로 추상적인 전략, 가설 또는 부분적인 솔루션을 생성합니다. 저수준 구성 요소는 실행기(executor) 역할을 하며, 해당 계획을 받아 세부 사항 채우기, 변환 테스트 또는 중간 출력 구성과 같은 구체적인 단계를 수행합니다.
이러한 구성 요소는 순환 루프 내에서 상호 작용합니다. 각 반복 후에 실행기의 출력은 플래너로 다시 전달되며, 플래너는 진행 상황을 평가하고 전략을 수정할지, 가정을 조정할지 또는 프로세스를 종료할지 결정합니다. 이는 모델이 점진적으로 솔루션을 개선하는 동적인 추론 사이클을 만듭니다. 이 설계는 표준 트랜스포머 기반 모델에서는 제한적인 기능인 분해, 백트래킹(backtracking) 및 반복적 정교화가 필요한 작업을 시스템이 처리할 수 있게 합니다. 또한 서로 다른 시간 척도에서의 추론을 가능하게 합니다. 즉, 더 느리고 높은 수준의 계획이 더 빠르고 세부적인 실행을 가이드합니다. 계층적 구조는 계산 효율성도 향상시킵니다. 모든 추론을 한 번에 처리하기 위해 단일 대형 모델의 규모를 키우는 대신, 시스템은 여러 반복에 걸쳐 더 작은 구성 요소를 재사용하여 모델 크기의 비례적인 증가 없이 더 깊은 추론을 달성합니다. [1]