Inferium AI는 검증 가능한 추론 및 AI 에이전트를 위한 AI 인프라 및 분석 플랫폼입니다. 실시간 성능 지표와 추론 증명을 제공합니다. 이 플랫폼은 창작, 성능 및 피드백을 포함한 사용자의 기여에 대해 보상하는 것을 목표로 합니다. [3]
Inferium AI는 검증 가능한 AI 추론 및 에이전트 배포에 중점을 둔 플랫폼으로, 모델 선택, 투명성, 개인 정보 보호 및 개발자와 최종 사용자 간의 커뮤니케이션의 주요 과제를 해결합니다. 다양한 AI 모델을 단일 환경으로 통합하여 표준화된 성능 평가와 블록체인 기반 추론 증명을 제공하여 투명성과 감사 가능성을 보장합니다. 동형 암호화를 통합하여 Inferium은 규제 표준을 충족하는 개인 정보 보호 추론을 지원합니다. 또한 이 플랫폼은 Aethir Cloud 및 io.net과의 파트너십을 통해 확장 가능한 인프라를 지원하여 모델 배포, 테스트 및 검증을 위한 도구를 제공합니다. 또한 Inferium은 신뢰할 수 있는 소스의 데이터를 통합하고 사용자 제공 데이터 마켓플레이스를 출시할 계획입니다. 정기적인 업데이트와 사용자 피드백 메커니즘은 개발자가 진화하는 AI 모델에 대한 최신 정보를 유지하여 보다 정확하고 안전하며 실용적인 AI 솔루션을 배포할 수 있도록 지원합니다. [1]
Inferium 모델 스토어는 사용자가 AI 모델을 쉽게 제출, 액세스, 평가 및 배포할 수 있도록 하는 플랫폼 기능입니다. 여기에는 팀 친화적인 워크플로우와 모델 업로드 및 통합을 위한 직관적인 인터페이스가 포함됩니다. 스토어의 검색 프로세스는 사용자 행동, 피드백 및 과거 데이터를 분석하여 개인화되고 관련성 높은 모델 추천을 제공하는 머신 러닝 기반 검색 엔진인 Magic Search에 의해 구동됩니다. 이 시스템은 매일 배치 추론 및 사용자 상호 작용을 사용하여 결과를 개선하면서 시간이 지남에 따라 적응합니다. 신경망, 의사 결정 트리 및 회귀 모델을 포함한 다양한 모델 아키텍처를 사용하며 Random Forests 및 XGBoost와 같은 기술을 사용하여 불균형 데이터 세트를 처리할 수 있습니다.
Inferium의 모델 성능은 적응형 메트릭과 사용자 피드백을 통해 평가됩니다. 모델은 분류를 위한 F1-score 또는 회귀를 위한 평균 제곱 오차와 같이 특정 사용 사례에 맞춘 메트릭을 사용하여 지속적으로 평가됩니다. 사용자는 여러 모델을 테스트, 평가 및 비교하여 집단적 추론 점수에 기여할 수 있습니다. Inferium은 또한 모델 품질을 벤치마킹하고 개선하기 위한 경쟁적인 모델 토너먼트를 개최하며, 평가는 작업별 기준에 따라 자격을 갖춘 심사위원이 수행합니다. 이러한 프로세스는 투명성과 혁신을 촉진하여 플랫폼에서 사용할 수 있는 모델이 정확하고 효율적이며 실제 시나리오에 적용될 수 있도록 보장합니다. [4] [16]
Inferium은 AI 개발 워크플로우 내에서 데이터 세트를 관리하고 활용하기 위한 구조화되고 접근 가능한 환경을 제공합니다. 이 플랫폼은 Rivalz와의 초기 협력을 포함한 파트너십을 통해 고품질 데이터를 소싱하여 강력한 시작 데이터 세트 라이브러리를 제공합니다. 앞으로 Inferium은 사용자 제출 데이터 세트를 지원하여 커뮤니티 기반 기여를 장려하고 다양한 도메인across에서 데이터 세트 다양성을 확장할 계획입니다. 데이터 세트 라이브러리는 자연어 처리, 컴퓨터 비전, 오디오 처리 등 다양한 애플리케이션을 다루며, 다양한 머신 러닝 작업에 대한 포괄적인 지원을 제공하여 Hugging Face와 같은 플랫폼의 구조를 반영합니다.
사용자는 최소한의 설정으로 데이터 세트를 검색하고 로드하여 간단한 명령을 사용하여 프로젝트에 통합할 수 있습니다. 이 플랫폼에는 효율적인 전처리를 위한 도구도 포함되어 있어 사용자가 데이터를 정리하고 변환하여 훈련 및 평가를 준비할 수 있습니다. 이 시스템은 대용량 데이터 세트를 효과적으로 처리하도록 설계되어 메모리 사용량과 성능 병목 현상을 최소화합니다. Inferium은 JSON, CSV, Parquet 및 Apache Arrow를 포함한 common 데이터 형식을 지원하여 다양한 데이터 소스 및 워크플로우와의 호환성을 보장합니다. 이 접근 방식을 통해 구조화된 데이터에 대한 간소화된 액세스가 가능하여 보다 효율적인 모델 개발 및 평가가 가능합니다. [17]
Inferium Studio는 사용자에게 AI 모델을 배포, 테스트 및 공유할 수 있는 유연하고 전용적인 공간을 제공하도록 설계된 기능입니다. 각 사용자는 다양한 머신 러닝 작업에 적합한 2개의 CPU, 16GB RAM 및 50GB 스토리지의 기본 환경을 제공받습니다. 사용자는 Studio를 업그레이드하여 더 고급적인 요구 사항에 맞게 컴퓨팅 용량과 스토리지를 늘릴 수 있습니다. 이 플랫폼은 개인 및 공용 환경에서 모델 호스팅을 지원합니다. 개인 Studio는 안전한 개발을 위해 제어된 액세스를 제공하는 반면, 공용 Studio는 커뮤니티 전반의 협업과 지식 공유를 장려합니다. [5] [18]
Inferium AI의 AI 에이전트 지수는 AI 에이전트에 대한 실시간 평가 및 검색 시스템입니다. 플랫폼, 사용 사례 및 범주별로 에이전트를 구성하고 정확성, 가동 시간, 대기 시간 및 개발자 투명성과 같은 표준화된 성능 지표를 제공합니다. 각 에이전트에는 이러한 지표를 기반으로 전체 점수(0–5)가 할당되며, 토큰 연결 에이전트의 경우 토큰 경제, 생태계 지원 및 보안과 같은 추가 위험 요소도 고려됩니다. Agent IQ는 지수의 공식 분석가 역할을 하며 에이전트 성능에 대한 추가 컨텍스트와 통찰력을 제공합니다. 사용자는 사용 추세, 커뮤니티 피드백을 보고 에이전트를 나란히 비교할 수도 있습니다. 토큰 게이트 기능은 알파 알림, 과거 데이터 및 프로젝트 예측을 포함한 더 깊은 통찰력을 제공합니다. 이 지수는 확장되는 에이전트 생태계에 구조와 투명성을 제공하여 사용자, 개발자 및 투자자가 성능과 신뢰성을 기반으로 에이전트를 평가할 수 있도록 설계되었습니다. [22] [23]
Inferium의 노드 아키텍처는 분산되고 안정적인 AI 작업 실행을 지원하기 위해 작업자 노드와 검증자 노드의 이중 노드 구조를 사용하도록 설계되었습니다. 모델 추론, 벤치마킹 및 검증과 같은 AI 워크로드는 공유 작업 풀에 할당되며, 작업자 노드는 하드웨어 기능에 맞춰 작업을 가져옵니다. 고성능 노드는 모델 호스팅 및 훈련과 같은 리소스 집약적인 작업을 처리하고, 중간 계층 노드는 실시간 추론 및 에이전트 운영을 관리하며, 저전력 노드는 리더보드 업데이트와 같은 더 간단한 할당을 수행합니다.
검증자 노드는 작업자 노드 출력을 모니터링하고, 결과를 검증하고, 네트워크를 보호하는 중요한 역할을 합니다. 검증 가능한 결과가 필요한 AI 계산에 대해 영지식 증명을 생성하며, 모든 결과는 투명성과 무결성을 보장하기 위해 온체인에 기록됩니다. 이 인프라는 트랜잭션이 안전하고 추적 가능한 Inferium의 토큰화된 AI 에이전트 경제를 지원합니다.
시스템 무결성을 유지하기 위해 Inferium은 인센티브 및 페널티 메커니즘을 통합합니다. 작업자 노드는 성공적인 작업 실행에 대해 $IFR 토큰을 획득하고 Inferium Studio에서 에이전트를 호스팅하여 추가 수익을 얻을 수 있습니다. 검증자 노드는 추론 검증, 트랜잭션 보안 및 거버넌스 프로세스 참여에 대한 보상을 받습니다. 작업 완료에 실패하거나 잘못된 결과를 검증하는 노드에는 토큰 공제에서 사기 발생 시 네트워크에서 영구적으로 제거되는 것에 이르기까지 슬래싱 페널티가 적용됩니다. [19]
InferNode는 Inferium의 작업자 노드로서, AI 작업을 실행하고, 추론 요청을 처리하며, Inferium Studio 환경 내에서 AI 에이전트를 호스팅합니다. 이러한 노드는 모델 실행, API를 통한 추론 제공, 실시간 AI 상호 작용을 가능하게 하는 컴퓨팅 인프라를 제공합니다. 또한 효율적인 실행을 보장하기 위해 모델 양자화 및 튜닝과 같은 성능 최적화 기술을 지원합니다.
InferNode는 지속적인 에이전트 운영을 유지하고 외부 API 및 애플리케이션과의 상호 작용을 관리하여 AI 에이전트 배포를 처리합니다. 토큰화된 AI 에이전트와 관련된 온체인 및 오프체인 활동을 모두 지원할 수 있도록 장착되어 있습니다. 또한 InferNode는 적응형 메트릭을 사용하여 모델 정확도, 대기 시간 및 효율성을 평가하기 위한 벤치마킹 작업을 수행하고 Inferium Model Lab에서 성능 리더보드를 업데이트합니다.
이러한 노드는 분산 GPU 네트워크를 통해 경량 모델 미세 조정 및 대규모 워크로드 처리를 포함한 분산 AI 컴퓨팅 작업도 수행합니다. 처리량 및 리소스 활용률을 향상시키기 위해 병렬 추론 실행을 지원합니다. 데이터 측면에서 InferNode는 데이터 세트 준비, 전처리 및 저장을 관리하는 동시에 훈련 결과를 개선하기 위해 합성 데이터를 생성합니다. 이러한 기능의 조합을 통해 InferNode는 Inferium의 분산 AI 인프라의 운영 백본 역할을 할 수 있습니다. [6] [11] [14]
VeraNode는 Inferium의 검증자 노드로서 네트워크 내에서 AI 작업 및 구성 요소의 정확성, 보안 및 규정 준수를 검증하는 역할을 합니다. 이 노드들은 영지식 증명 (ZKML) 또는 신뢰 실행 환경(TEE)을 사용하여 추론 결과를 검증하여 계산이 정확하게 수행되고 변조되지 않도록 보장합니다. 검증된 결과는 온체인에 기록되어 투명하고 감사 가능한 실행 증거를 제공합니다.
추론 검증 외에도 VeraNode는 Inferium 모델 랩에 나열되기 전에 AI 모델과 데이터 세트를 평가합니다. 여기에는 성능, 보안 취약점 및 잠재적인 조작(예: 백도어 또는 적대적 행동)에 대한 검사가 포함됩니다. VeraNode는 또한 Inferium 스튜디오에서 호스팅되는 AI 에이전트가 개인 정보 보호 및 윤리 지침을 준수하는지 확인하기 위해 감사하고, 마켓플레이스 거래를 모니터링하여 사기 행위를 감지합니다.
VeraNode는 결함 있는 결과를 제출하는 작업자 노드를 식별하고 네트워크 거버넌스의 일부로 보고합니다. 유효하지 않은 계산 또는 사기 시도에 대한 처벌을 시행하고 호스팅된 모델 및 에이전트 전반에 걸쳐 AI 라이선스 및 규정 준수를 유지하는 데 도움을 줍니다. 이러한 메커니즘을 통해 VeraNode는 Inferium의 분산형 AI 생태계의 무결성과 신뢰성을 유지하는 데 중요한 역할을 합니다. [6] [15]
Nami Bot은 Inferium의 AI 어시스턴트로, 텔레그램 플랫폼을 통해 사용자에게 AI 기능을 원활하게 제공하도록 설계되었습니다. 다재다능한 인터페이스로, 사용자를 Inferium 생태계에 연결하여 Inferium 및 Hugging Face와 같은 플랫폼에서 AI 에이전트 및 모델을 검색할 수 있도록 합니다. Nami Bot을 통해 사용자는 성능, 사용 사례 및 평가 지표별로 모델을 필터링하여 특정 요구 사항에 가장 적합한 모델을 쉽게 찾을 수 있습니다.
모델 검색 외에도 Nami Bot은 텔레그램을 통해 AI 모델과 직접 상호 작용할 수 있도록 지원하며, 텍스트 생성, 이미지 분류, 텍스트-3D 렌더링과 같은 추론 요청을 지원합니다. 사용자는 온체인 또는 오프체인 데이터에 대한 성능 지표 및 평가를 사용하여 모델을 평가할 수 있습니다. 이 봇에는 $IFR 토큰을 안전하게 관리하고 플랫폼 서비스 결제를 용이하게 하는 내장 지갑이 포함되어 있습니다. 개발자는 텔레그램 내에서 직접 여러 프로그래밍 언어로 코드 스니펫을 디버깅할 수 있으며, 사용자는 메타데이터 및 벤치마크와 함께 새로운 모델을 제출하여 온보딩할 수 있습니다. 또한 Nami Bot은 모델을 선택하고 개인화된 스튜디오에 배포하여 사용자 정의 AI 애플리케이션 또는 에이전트 생성을 지원하여 대화형 인터페이스를 통해 AI 앱 개발 및 배포를 간소화합니다. [12]
$IFR 토큰은 Inferium 생태계의 핵심 구성 요소로서 거버넌스, 스테이킹, 거래 수수료, 인센티브 제공 등 다양한 용도로 사용됩니다. 토큰 보유자는 투표권을 가지며 기능 개발 및 생태계 확장과 같은 플랫폼 결정에 영향을 미칩니다. 또한 이 토큰은 스테이킹 메커니즘으로 작동하며, 사용자는 모델 자격 요건을 충족하는 검증인이 되기 위해 $IFR 토큰을 스테이킹해야 합니다. 스테이킹 보상은 지속적인 네트워크 참여를 장려하도록 설계되었습니다.
또한 $IFR 토큰은 사용자가 모델 사용 할당량을 초과하거나 맞춤형 모델 구성, 전용 추론 API, 우선 지원과 같은 프리미엄 서비스에 액세스할 때 거래 수수료를 지불하는 데 사용됩니다. 또한 이 토큰은 개발자와 사용자에게 인센티브를 제공하는 보상 시스템을 지원합니다. 개발자는 고성능 모델에 대해 $IFR 보상을 받고, 사용자는 모델 테스트, 피드백 제공, 커뮤니티 이니셔티브 참여와 같은 활동에 대해 토큰을 얻습니다. 이러한 구조는 플랫폼 전반에 걸쳐 장기적인 성장과 적극적인 참여를 지원합니다. [20]
IFR은 총 2억 5천만 개의 토큰을 발행했으며 다음과 같이 할당됩니다: [20]
Inferno 포인트는 Inferium 플랫폼 내에서 사용자 참여와 지속적인 참여를 장려하기 위해 설계된 게임화된 보상 시스템입니다. 사용자는 다양한 플랫폼 관련 활동을 수행하여 포인트를 얻을 수 있으며, 이 포인트는 나중에 $IFR 토큰으로 교환할 수 있습니다. 포인트 획득 활동에는 매일 로그인, AI 모델 배포, 추론 작업 완료, 모델 평가 등이 포함됩니다. 토론에 기여하고, 협업 프로젝트에 참여하고, 경쟁 또는 토너먼트에 참여하는 등 커뮤니티 참여를 통해 추가 포인트 획득 기회가 발생합니다. 사용자는 다른 사람을 플랫폼에 추천하고 게시물에 좋아요를 누르거나 댓글을 달아 사회적으로 상호 작용함으로써 보상을 받습니다.
누적된 Inferno 포인트는 사용자 대시보드의 전용 교환 프로세스를 통해 $IFR 토큰으로 교환할 수 있습니다. 플랫폼은 참여와 토큰 배포 간의 안정적인 균형을 유지하기 위해 고정된 전환율을 주기적으로 설정합니다. 교환된 $IFR 토큰은 Inferium 내의 서비스에 사용하거나 외부에서 거래할 수 있습니다. Inferno 포인트 시스템은 사용자 유지율을 높이고, 의미 있는 기여를 장려하며, 적극적인 커뮤니티 중심 참여를 통해 플랫폼의 성장을 지원합니다. [21]