AI Gateway.
Proxy pribadi di ai.hdnsbr.web.id — satu endpoint OpenAI-compatible buat akses banyak model LLM lewat alamat yang lebih rapi.
Kenapa dibikin?
Akses model AI lewat endpoint default (kayak HF Space URL bawaan) suka kurang rapi buat dipake di config tool — URL-nya panjang, gak branded, dan kadang rewel soal CORS. Subdomain sendiri nyelesain semua itu sekaligus.
Gimana jalannya
Client → ai.hdnsbr.web.id → Cloudflare Worker → HF Space (9Router) → LLM
Request OpenAI-compatible masuk via Cloudflare, di-forward Worker ke Hugging Face Space yang host 9Router (router LLM multi-provider). Worker juga override header User-Agent biar WAF gak ngira ini bot.
Cara pake
curl https://ai.hdnsbr.web.id/v1/chat/completions \
-H "Authorization: Bearer YOUR_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "kr/claude-sonnet-4.5",
"messages": [{"role":"user","content":"halo"}]
}'
Endpoint ini OpenAI-compatible, jadi bisa dipake langsung di library OpenAI, Anthropic SDK (via base URL override), LiteLLM, dan tool lain yang support custom base URL.
Pelajaran di tengah jalan
- HF Space gak bisa SSL di custom subdomain via direct-CNAME. Worker di depan jadi solusi.
- Cloudflare WAF managed rule punya rule "Manage AI bots" yang nge-block User-Agent
AsyncOpenAI/*. Override user-agent di Worker fix issue-nya. - Nama model router kadang beda sama nama upstream — harus cek list di
/v1/modelsdulu.
Source code
Worker script masih di-maintain lokal, belum di-push ke repo terpisah. Kalau ada yang butuh referensi, colek aja via email.
Buka AI Gateway →