메인 콘텐츠로 건너뛰기

Documentation Index

Fetch the complete documentation index at: https://docs.gamerhash.com/llms.txt

Use this file to discover all available pages before exploring further.

GPU 기여자는 하드웨어를 굴리고, 게이머는 부수적으로 보상을 받습니다. AI 빌더는 네트워크의 반대편에서 컴퓨팅을 소비하는 쪽입니다. 사용하는 제품은 deAPI — 어떤 애플리케이션, 워크플로, 봇에서도 호출 가능한 OpenAI 호환 REST 엔드포인트입니다.
deAPI 요청 흐름: 클라이언트(앱, n8n, OpenAI SDK)가 deAPI 게이트웨이로 요청을 보내면 인증과 과금이 처리되고, 디스패처가 모델과 VRAM 기준으로 기여자 GPU 노드에 매칭합니다. 추론은 해당 머신에서 로컬로 실행되고, 결과는 같은 경로로 돌아옵니다. 유료 요청 하나하나는 플랫폼 인프라와 기여자 GUSD 보상으로 나뉩니다.

누구에게 맞는 가이드인가

  • 채팅, 이미지, 비디오 생성을 제품에 붙이는 앱 개발자.
  • 워크플로 안에서 저렴하고 프라이빗한 추론이 필요한 n8n / 자동화 운영자.
  • 클라우드 비용 부담 없이 백엔드를 갖추고 싶은 인디 개발자와 에이전시.
  • 온체인 로직과 오프체인 AI 컴퓨팅을 함께 다루는 Web3 팀.

제공되는 것

  • OpenAI 호환 REST — OpenAI SDK를 이미 쓰는 코드에 그대로 끼울 수 있습니다. base_url과 API 키만 바꾸면 됩니다. 채팅 컴플리션, 스트리밍, 응답 포맷이 모두 동일합니다.
  • 멀티모달 커버리지 — text-to-image, image edit, image / text / audio → video, 음성(TTS + 음성 인식), text-to-music, OCR, 임베딩. 인증 정보 하나로 모든 모델 클래스를 호출합니다.
  • 공식 n8n 노드 — API 코드 한 줄 짜지 않고도 어떤 n8n 워크플로에서든 네트워크를 호출할 수 있습니다.
  • 라우팅과 페일오버를 알아서 처리 — deAPI가 사용 가능한 GPU로 디스패치하고, 일시적 실패는 재시도, 모델 적합도에 맞춰 부하를 분산합니다.
  • 투명한 비용 구조 — 모델별 가격, 실시간 사용량 대시보드, 예산 관리 기능까지.

중앙집중식 클라우드 대신 deAPI를 쓰는 이유

  • 비용 구조 — 평소엔 놀고 있던 컨슈머 GPU에서 워크로드가 돌아갑니다. 하이퍼스케일러와는 단위 경제 자체가 다릅니다.
  • 오픈소스 모델 — Flux, LTX-Video, Qwen, Whisper, ACE-Step 등에서 골라 쓸 수 있습니다. 특정 벤더 락인이나 모델별 사일로 레이트 리밋이 없습니다.
  • 프라이버시 — 콘텐츠는 처리 후 폐기됩니다. 정산이 끝난 뒤 네트워크가 프롬프트나 결과를 보관하지 않습니다.
  • 돈이 실제 사람에게 흘러갑니다 — 지출이 하이퍼스케일러 마진이 아니라 GPU를 굴리는 기여자에게 갑니다.

알아둘 트레이드오프

  • 레이턴시 — 컨슈머 GPU는 단일 데이터센터에 모여 있지 않습니다. 첫 토큰까지의 지연 시간은 중앙집중식 클라우드보다 길고, 콜드 스타트 워크로드에서는 특히 차이가 납니다.
  • 모델 가용성 — 카탈로그는 큐레이션되어 꾸준히 늘어나지만 무한하지는 않습니다. 니치하거나 폐쇄된 모델은 제공되지 않을 수 있습니다.
  • 용량 — 피크 수요 시간대에는 큐 시간이 늘 수 있습니다. 표준 레이트 리밋이 적용됩니다.

흐름은 이렇게

deAPI 요청은 게이트웨이로 들어가 인증과 과금을 거친 뒤, AI App을 돌리는 기여자 머신 네트워크로 디스패치됩니다. 거쳐 가는 모든 비용은 플랫폼 인프라와 **기여자 직접 보상(GUSD)**으로 나뉩니다. 게이머와 전용 GPU 기여자에게 보상이 흘러가는 그 루프와 똑같습니다.

시작하기

deAPI 웹사이트

가입, 키 발급, 실시간 사용량 확인.

GPU 기여자

네트워크의 반대편 — 호출하는 작업을 누가 처리하는지.