Kontrybutorzy GPU dostarczają sprzęt, gracze zarabiają przy okazji. Deweloperzy AI są po drugiej stronie sieci — to oni konsumują moc obliczeniową. Produkt, którego używają, to deAPI: REST endpoint zgodny z OpenAI, który udostępnia sieć GPU GamerHash dowolnej aplikacji, workflow albo botowi.Documentation Index
Fetch the complete documentation index at: https://docs.gamerhash.com/llms.txt
Use this file to discover all available pages before exploring further.

Dla kogo to jest
- Deweloperzy aplikacji podpinający czat, generowanie obrazów albo wideo do swoich produktów.
- Operatorzy n8n / automatyzacji, którzy potrzebują taniej, prywatnej inferencji wewnątrz workflowów.
- Indie deweloperzy i agencje budujący MVP, które potrzebują backendu bez rachunku za chmurę.
- Zespoły Web3 łączące logikę on-chain z mocą obliczeniową AI off-chain.
Co dostajesz
- REST zgodny z OpenAI — drop-in dla kodu, który już używa SDK OpenAI. Zmień
base_urli klucz API; te same chat completions, ten sam streaming, ten sam kształt odpowiedzi. - Obsługa multimodalna — text-to-image, image edit, image / text / audio → video, głos (TTS + transkrypcja), text-to-music, OCR, embeddingi. Jedno API key, każda klasa modelu.
- Oficjalny node n8n — wywołaj sieć z dowolnego workflow n8n bez pisania kodu API.
- Routing i failover po stronie sieci — deAPI dispatchuje na to GPU, które jest wolne, retryuje przy chwilowych błędach, balansuje po dopasowaniu modelu.
- Transparentność kosztów — cennik per model, dashboard użycia na żywo, budżety.
Dlaczego deAPI vs. scentralizowane chmury
- Koszt — zadania uruchamiają się na konsumenckich GPU, które inaczej by stały bezczynnie. Unit economics jest inna niż w cenniku hyperscalerów.
- Modele open-source — wybierasz spośród Flux, LTX-Video, Qwen, Whisper, ACE-Step i więcej. Bez zamknięcia w proprietary, bez silosów rate limitów per model.
- Prywatność — treść jest dispatchowana i odrzucana; sieć nie zachowuje promptów ani wyników po rozliczeniu.
- Realne pieniądze dla realnych użytkowników — twoje wydatki finansują ludzi prowadzących GPU, a nie marżę hyperscalera.
Kompromisy, o których warto wiedzieć
- Latencja — konsumenckie GPU nie są skupione w jednym data center. Latencja pierwszego tokena jest wyższa niż w scentralizowanej chmurze, zwłaszcza dla zadań typu cold start.
- Dostępność modeli — katalog jest kurowany i stabilnie rośnie, ale nie jest nieskończony. Niszowe albo proprietary modele mogą nie być dostępne.
- Pojemność — w szczycie popytu czasy w kolejce mogą się wydłużać. Obowiązują standardowe rate limity.
Jak to płynie
Request deAPI trafia do bramki, jest uwierzytelniany i naliczany, a potem dispatchowany do sieci maszyn kontrybutorów uruchamiających aplikację AI. Każdy dolar, który przepływa, dzieli się pomiędzy infrastrukturę platformy i bezpośrednią wypłatę kontrybutorów w GUSD — ta sama pętla, która płaci graczom i dedykowanym kontrybutorom GPU.Zacznij tutaj
Strona deAPI
Zarejestruj się, wygeneruj klucze, zobacz użycie na żywo.
Kontrybutorzy GPU
Druga strona sieci — kto uruchamia zadania, które wywołujesz.