| title | Provajderi |
|---|---|
| description | Korištenje bilo kojeg LLM provajdera u OpenCode. |
import config from "../../../../config.mjs" export const console = config.console
OpenCode koristi AI SDK i Models.dev za podršku 75+ LLM provajdera i podržava pokretanje lokalnih modela.
Za dodavanje provajdera potrebno je:
- Dodajte API ključeve za provajdera koristeći naredbu
/connect. - Konfigurirajte dobavljača u vašoj OpenCode konfiguraciji.
Kada dodate API ključeve dobavljača sa naredbom /connect, oni se pohranjuju
u ~/.local/share/opencode/auth.json.
Možete prilagoditi dobavljače putem odjeljka provider u vašem OpenCode
config.
Možete prilagoditi osnovni URL za bilo kojeg provajdera postavljanjem opcije baseURL. Ovo je korisno kada koristite proxy usluge ili prilagođene krajnje tačke.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}OpenCode Zen je lista modela koje je obezbedio OpenCode tim koji su bili testirano i potvrđeno da dobro radi sa OpenCode. Saznajte više.
:::tip Ako ste novi, preporučujemo da počnete sa OpenCode Zen. :::
- Pokrenite naredbu
/connectu TUI-u, odaberite opencode i idite na opencode.ai/auth.
/connect-
Prijavite se, dodajte svoje detalje naplate i kopirajte svoj API ključ.
-
Zalijepite svoj API ključ.
┌ API key
│
│
└ enter- Pokrenite
/modelsu TUI da vidite listu modela koje preporučujemo.
/modelsRadi kao i svaki drugi provajder u OpenCode i potpuno je opcionalan za korištenje.
OpenCode Go je jeftin plan pretplate koji pruža pouzdan pristup popularnim modelima otvorenog kodiranja koje pruža OpenCode tim i koji su testirani i verificirani da dobro rade s OpenCode-om.
-
Pokrenite naredbu
/connectu TUI-u, odaberiteOpenCode Goi idite na opencode.ai/auth./connect
-
Prijavite se, dodajte svoje detalje naplate i kopirajte svoj API ključ.
-
Zalijepite svoj API ključ.
┌ API key │ │ └ enter
-
Pokrenite naredbu
/modelsu TUI da vidite listu modela koje preporučujemo./models
Radi kao i svaki drugi provajder u OpenCode i potpuno je opcionalan za korištenje.
Pogledajmo neke od provajdera detaljno. Ako želite dodati provajdera na listu, slobodno otvori PR.
:::note Ne vidite provajdera ovdje? Pošaljite PR. :::
-
Idite na 302.AI konzolu, kreirajte račun i generirajte API ključ.
-
Pokrenite naredbu
/connecti potražite 302.AI.
/connect- Unesite svoj 302.AI API ključ.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete model.
/modelsDa biste koristili Amazon Bedrock s OpenCode:
-
Idite na Katalog modela na Amazon Bedrock konzoli i zatražite pristup modelima koje želite.
:::tip Morate imati pristup modelu koji želite u Amazon Bedrock. :::
-
Konfigurirajte autentifikaciju koristeći jedan od sljedećih metoda:
Postavite jednu od ovih varijabli okruženja dok pokrećete opencode:
# Option 1: Using AWS access keys
AWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode
# Option 2: Using named AWS profile
AWS_PROFILE=my-profile opencode
# Option 3: Using Bedrock bearer token
AWS_BEARER_TOKEN_BEDROCK=XXX opencodeIli ih dodajte na svoj bash profil:
export AWS_PROFILE=my-dev-profile
export AWS_REGION=us-east-1Za konfiguraciju specifičnu za projekat ili trajnu konfiguraciju, koristite opencode.json:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
"options": {
"region": "us-east-1",
"profile": "my-aws-profile"
}
}
}
}Dostupne opcije:
region- AWS regija (npr.us-east-1,eu-west-1)profile- AWS je imenovao profil od~/.aws/credentialsendpoint- URL prilagođene krajnje tačke za VPC krajnje tačke (pseudonim za generičku opcijubaseURL)
:::tip Opcije konfiguracijske datoteke imaju prednost nad varijablama okruženja. :::
Ako koristite VPC krajnje tačke za Bedrock:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
"options": {
"region": "us-east-1",
"profile": "production",
"endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"
}
}
}
}:::note
Opcija endpoint je pseudonim za generičku opciju baseURL, koristeći terminologiju specifičnu za AWS. Ako su specificirani i endpoint i baseURL, endpoint ima prednost.
:::
AWS_ACCESS_KEY_ID/AWS_SECRET_ACCESS_KEY: Kreirajte IAM korisnika i generirajte pristupne ključeve u AWS konzoliAWS_PROFILE: Koristite imenovane profile od~/.aws/credentials. Prvo konfigurirajte saaws configure --profile my-profileiliaws sso loginAWS_BEARER_TOKEN_BEDROCK: Generirajte dugoročne API ključeve sa Amazon Bedrock konzoleAWS_WEB_IDENTITY_TOKEN_FILE/AWS_ROLE_ARN: Za EKS IRSA (IAM uloge za servisne naloge) ili druga Kubernetes okruženja sa OIDC federacijom. Kubernetes automatski ubacuje ove varijable okruženja kada se koriste napomene naloga usluge.
Amazon Bedrock koristi sljedeći prioritet autentifikacije:
- Token nosioca -
AWS_BEARER_TOKEN_BEDROCKvarijabla okruženja ili token iz naredbe/connect - AWS lanac vjerodajnica - profil, pristupni ključevi, dijeljeni vjerodajnici, IAM uloge, tokeni web identiteta (EKS IRSA), metapodaci instance
:::note
Kada se postavi token nosioca (putem /connect ili AWS_BEARER_TOKEN_BEDROCK), on ima prednost nad svim AWS metodama akreditiva uključujući konfigurirane profile.
:::
- Pokrenite naredbu
/modelsda odaberete model koji želite.
/models:::note
Za prilagođene profile zaključivanja, koristite ime modela i dobavljača u ključu i postavite svojstvo id na arn. Ovo osigurava ispravno keširanje:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
// ...
"models": {
"anthropic-claude-sonnet-4.5": {
"id": "arn:aws:bedrock:us-east-1:xxx:application-inference-profile/yyy"
}
}
}
}
}:::
- Nakon što ste se prijavili, pokrenite naredbu
/connecti odaberite Anthropic.
/connect- Ovdje možete odabrati opciju Claude Pro/Max i ona će otvoriti vaš pretraživač i traži od vas da se autentifikujete.
┌ Select auth method
│
│ Claude Pro/Max
│ Create an API Key
│ Manually enter API Key
└- Sada bi svi Anthropic modeli trebali biti dostupni kada koristite naredbu
/models.
/models:::info [Anthropic] (https://anthropic.com) službeno ne podržava korištenje vaše Claude Pro/Max pretplate u OpenCode. :::
Također možete odabrati Kreiraj API ključ ako nemate Pro/Max pretplatu. Također će otvoriti vaš pretraživač i zatražiti od vas da se prijavite na Anthropic i dati vam kod koji možete zalijepiti u svoj terminal.
Ili ako već imate API ključ, možete odabrati Ručno unesite API ključ i zalijepite ga u svoj terminal.
Možete konfigurirati opencode za korištenje lokalnih modela preko Atomic Chata — desktop aplikacije koja pokreće lokalne LLM-ove iza OpenAI-kompatibilnog API servera (zadana krajnja tačka http://127.0.0.1:1337/v1).
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"atomic-chat": {
"npm": "@ai-sdk/openai-compatible",
"name": "Atomic Chat (local)",
"options": {
"baseURL": "http://127.0.0.1:1337/v1"
},
"models": {
"<your-model-id>": {
"name": "<your-model-name>"
}
}
}
}
}U ovom primjeru:
atomic-chatje prilagođeni ID provajdera. Može biti bilo koji niz.npmspecificira paket koji se koristi za ovog provajdera. Ovdje se koristi@ai-sdk/openai-compatibleza svaki OpenAI-kompatibilni API.nameje prikazano ime provajdera u interfejsu.options.baseURLje krajnja tačka lokalnog servera. Promijenite host i port da odgovaraju vašoj Atomic Chat konfiguraciji.modelsje mapa ID-ova modela u njihova prikazana imena. Svaki ID mora odgovaratiidvrijednosti koju vraćaGET /v1/models— pokrenitecurl http://127.0.0.1:1337/v1/modelsda vidite ID-ove trenutno učitane u Atomic Chat.
:::tip Ako pozivi alata ne rade dobro, odaberite učitani model sa jakom podrškom za tool calling (na primjer, Qwen-Coder ili DeepSeek-Coder varijantu). :::
:::note Ako naiđete na greške "Žao mi je, ali ne mogu pomoći s tim zahtjevom", pokušajte promijeniti filter sadržaja iz DefaultV2 u Default u vašem Azure resursu. :::
-
Idite na Azure portal i kreirajte Azure OpenAI resurs. trebat će vam:
- Naziv resursa: Ovo postaje dio vaše krajnje tačke API-ja (
https://RESOURCE_NAME.openai.azure.com/) - API ključ: Ili
KEY 1iliKEY 2sa vašeg izvora
- Naziv resursa: Ovo postaje dio vaše krajnje tačke API-ja (
-
Idite na Azure AI Foundry i implementirajte model.
:::note Ime implementacije mora odgovarati imenu modela da bi opencode ispravno radio. :::
-
Pokrenite naredbu
/connecti potražite Azure.
/connect- Unesite svoj API ključ.
┌ API key
│
│
└ enter- Postavite ime vašeg resursa kao varijablu okruženja:
AZURE_RESOURCE_NAME=XXX opencodeIli ga dodajte na svoj bash profil:
export AZURE_RESOURCE_NAME=XXX- Pokrenite naredbu
/modelsda odaberete svoj raspoređeni model.
/models-
Idite na Azure portal i kreirajte Azure OpenAI resurs. trebat će vam:
- Naziv resursa: Ovo postaje dio vaše krajnje tačke API-ja (
https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/) - API ključ: Ili
KEY 1iliKEY 2sa vašeg izvora
- Naziv resursa: Ovo postaje dio vaše krajnje tačke API-ja (
-
Idite na Azure AI Foundry i implementirajte model.
:::note Ime implementacije mora odgovarati imenu modela da bi opencode ispravno radio. :::
-
Pokrenite naredbu
/connecti potražite Azure kognitivne usluge.
/connect- Unesite svoj API ključ.
┌ API key
│
│
└ enter- Postavite ime vašeg resursa kao varijablu okruženja:
AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencodeIli ga dodajte na svoj bash profil:
export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX- Pokrenite naredbu
/modelsda odaberete svoj raspoređeni model.
/models-
Idite na Baseten, kreirajte račun i generirajte API ključ.
-
Pokrenite naredbu
/connecti potražite Baseten.
/connect- Unesite svoj Baseten API ključ.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete model.
/models-
Idite na Cerebras konzolu, kreirajte račun i generirajte API ključ.
-
Pokrenite naredbu
/connecti potražite Cerebras.
/connect- Unesite svoj Cerebras API ključ.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete model kao što je Qwen 3 Coder 480B.
/modelsCloudflare AI Gateway vam omogućava da pristupite modelima iz OpenAI, Anthropic, Workers AI i više preko objedinjene krajnje tačke. Sa Unified Billing nisu vam potrebni posebni API ključevi za svakog provajdera.
-
Idite na Cloudflare kontrolnu tablu, idite na AI > AI Gateway i kreirajte novi pristupnik.
-
Postavite svoj ID naloga i ID pristupnika kao varijable okruženja.
export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-id
export CLOUDFLARE_GATEWAY_ID=your-gateway-id- Pokrenite naredbu
/connecti potražite Cloudflare AI Gateway.
/connect- Unesite svoj Cloudflare API token.
┌ API key
│
│
└ enterIli ga postavite kao varijablu okruženja.
export CLOUDFLARE_API_TOKEN=your-api-token- Pokrenite naredbu
/modelsda odaberete model.
/modelsTakođer možete dodati modele kroz svoju opencode konfiguraciju.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"cloudflare-ai-gateway": {
"models": {
"openai/gpt-4o": {},
"anthropic/claude-sonnet-4": {}
}
}
}
}-
Idite na Cortecs konzolu, kreirajte račun i generirajte API ključ.
-
Pokrenite naredbu
/connecti potražite Cortecs.
/connect- Unesite svoj Cortecs API ključ.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete model kao što je Kimi K2 Instruct.
/models-
Idite na DeepSeek konzolu, kreirajte nalog i kliknite na Kreiraj novi API ključ.
-
Pokrenite naredbu
/connecti potražite DeepSeek.
/connect- Unesite svoj DeepSeek API ključ.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete DeepSeek model kao što je DeepSeek V4 Pro.
/models-
Idite na Deep Infra kontrolnu tablu, kreirajte nalog i generišite API ključ.
-
Pokrenite naredbu
/connecti potražite Deep Infra.
/connect- Unesite svoj Deep Infra API ključ.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete model.
/models-
Idite na kontrolnu tablu firmvera, kreirajte nalog i generišite API ključ.
-
Pokrenite naredbu
/connecti potražite FrogBot.
/connect- Unesite svoj FrogBot API ključ.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete model.
/models-
Idite na Fireworks AI konzolu, kreirajte račun i kliknite na Kreiraj API ključ.
-
Pokrenite naredbu
/connecti potražite Fireworks AI.
/connect- Unesite svoj Fireworks AI API ključ.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete model kao što je Kimi K2 Instruct.
/modelsGitLab Duo pruža agentsko ćaskanje sa AI-om sa izvornim mogućnostima pozivanja alata preko GitLab-ovog Anthropic proxyja.
- Pokrenite naredbu
/connecti odaberite GitLab.
/connect- Odaberite svoj način autentifikacije:
┌ Select auth method
│
│ OAuth (Recommended)
│ Personal Access Token
└Odaberite OAuth i vaš pretraživač će se otvoriti za autorizaciju.
-
Kliknite Dodaj novi token
-
Naziv:
OpenCode, opseg:api -
Kopirajte token (počinje sa
glpat-) -
Unesite ga u terminal
-
Pokrenite naredbu
/modelsda vidite dostupne modele.
/modelsDostupna su tri modela bazirana na Claudeu:
- duo-chat-haiku-4-5 (zadano) - Brzi odgovori za brze zadatke
- duo-chat-sonnet-4-5 - Uravnotežene performanse za većinu tokova posla
- duo-chat-opus-4-5 - Najsposobniji za kompleksnu analizu
:::note Također možete odrediti 'GITLAB_TOKEN' varijablu okruženja ako ne želite da pohrani token u opencode auth memoriju. :::
:::note[Napomena o usklađenosti]
OpenCode koristi mali model za neke AI zadatke kao što je generiranje naslova sesije.
Podrazumevano je konfigurisan da koristi gpt-5-nano, a hostuje ga Zen. Da zaključate OpenCode
da biste koristili samo svoju vlastitu instancu koju hostuje GitLab, dodajte sljedeće u svoju
opencode.json fajl. Također se preporučuje da onemogućite dijeljenje sesije.
{
"$schema": "https://opencode.ai/config.json",
"small_model": "gitlab/duo-chat-haiku-4-5",
"share": "disabled"
}:::
Za GitLab instance koje hostuju sami:
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_TOKEN=glpat-...Ako vaša instanca pokreće prilagođeni AI Gateway:
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.comIli dodajte na svoj bash profil:
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com
export GITLAB_TOKEN=glpat-...:::note Vaš GitLab administrator mora omogućiti sljedeće:
- Duo Agent Platforma za korisnika, grupu ili instancu
- Zastavice funkcija (preko Rails konzole):
agent_platform_claude_codethird_party_agents_enabled:::
Da bi Oauth radio za vašu instancu koju sami hostujete, morate kreirati
novu aplikaciju (Podešavanja → Aplikacije) sa
URL povratnog poziva http://127.0.0.1:8080/callback i sljedeći opseg:
- api (pristupite API-ju u svoje ime)
- read_user (Pročitajte svoje lične podatke)
- read_repository (omogućava pristup spremištu samo za čitanje)
Zatim izložite ID aplikacije kao varijablu okruženja:
export GITLAB_OAUTH_CLIENT_ID=your_application_id_hereViše dokumentacije na početnoj stranici opencode-gitlab-auth.
Prilagodite putem opencode.json:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"gitlab": {
"options": {
"instanceUrl": "https://gitlab.com"
}
}
}
}Za pristup GitLab alatima (zahtjevi za spajanje, problemi, cjevovodi, CI/CD, itd.):
{
"$schema": "https://opencode.ai/config.json",
"plugin": ["opencode-gitlab-plugin"]
}Ovaj dodatak pruža sveobuhvatne mogućnosti upravljanja GitLab repozitorijumom, uključujući MR preglede, praćenje problema, praćenje procesa i još mnogo toga.
Da biste koristili svoju GitHub Copilot pretplatu s opencode:
:::note Neki modeli će možda trebati Pro+ pretplata za korištenje.
Neki modeli moraju biti ručno omogućeni u vašim postavkama GitHub Copilot. :::
- Pokrenite naredbu
/connecti potražite GitHub Copilot.
/connect- Idite na github.com/login/device i unesite kod.
┌ Login with GitHub Copilot
│
│ https://github.com/login/device
│
│ Enter code: 8F43-6FCF
│
└ Waiting for authorization...- Sada pokrenite naredbu
/modelsda odaberete model koji želite.
/modelsZa korištenje Google Vertex AI s OpenCode:
-
Idite do Model Garden u Google Cloud Console i provjerite modeli dostupni u vašoj regiji.
:::note Morate imati Google Cloud projekat sa omogućenim Vertex AI API. :::
-
Postavite potrebne varijable okruženja:
GOOGLE_CLOUD_PROJECT: ID vašeg Google Cloud projektaVERTEX_LOCATION(opciono): Region za Vertex AI (podrazumevano naglobal)- Autentifikacija (odaberite jednu):
GOOGLE_APPLICATION_CREDENTIALS: Put do JSON ključnog fajla vašeg naloga usluge- Autentifikacija koristeći gcloud CLI:
gcloud auth application-default login
Postavite ih dok se pokreće opencode.
GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencodeIli ih dodajte svom bash profilu.
export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json
export GOOGLE_CLOUD_PROJECT=your-project-id
export VERTEX_LOCATION=global:::tip
Regija global poboljšava dostupnost i smanjuje greške bez dodatnih troškova. Koristite regionalne krajnje tačke (npr. us-central1) za zahtjeve rezidentnosti podataka. Saznajte više
:::
- Pokrenite naredbu
/modelsda odaberete model koji želite.
/models-
Idite na Groq konzolu, kliknite Kreiraj API ključ i kopirajte ključ.
-
Pokrenite naredbu
/connecti potražite Groq.
/connect- Unesite API ključ za provajdera.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete onu koju želite.
/modelsHugging Face Inference Providers omogućava pristup otvorenim modelima koje podržava 17+ provajdera.
-
Idite na Postavke zagrljaja da kreirate token s dozvolom za upućivanje poziva dobavljačima inference.
-
Pokrenite naredbu
/connecti potražite Hugging Face.
/connect- Unesite svoj token Hugging Face.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete model kao što je Kimi-K2-Instruct ili GLM-4.6.
/modelsHelicone je platforma za praćenje LLM koja pruža evidenciju, praćenje i analitiku za vaše AI aplikacije. Helicone AI Gateway automatski usmjerava vaše zahtjeve do odgovarajućeg provajdera na osnovu modela.
-
Idite na Helicone, kreirajte račun i generirajte API ključ sa svoje kontrolne table.
-
Pokrenite naredbu
/connecti potražite Helicone.
/connect- Unesite svoj Helicone API ključ.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete model.
/modelsZa više provajdera i napredne funkcije kao što su keširanje i ograničavanje brzine, provjerite Helicone dokumentaciju.
U slučaju da vidite funkciju ili model iz Helicone-a koji nije automatski konfiguriran putem opencodea, uvijek ga možete sami konfigurirati.
Evo Heliconeov katalog modela, ovo će vam trebati da preuzmete ID-ove modela koje želite dodati.
Helicone podržava prilagođena zaglavlja za funkcije kao što su keširanje, praćenje korisnika i upravljanje sesijom. Dodajte ih u konfiguraciju svog provajdera koristeći options.headers:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
"headers": {
"Helicone-Cache-Enabled": "true",
"Helicone-User-Id": "opencode",
},
},
},
},
}Heliconeova funkcija Sessions vam omogućava da grupišete povezane LLM zahtjeve zajedno. Koristite dodatak opencode-helicone-session da automatski prijavite svaki OpenCode razgovor kao sesiju u Helicone-u.
npm install -g opencode-helicone-sessionDodajte ga u svoju konfiguraciju.
{
"plugin": ["opencode-helicone-session"]
}Dodatak ubacuje zaglavlja Helicone-Session-Id i Helicone-Session-Name u vaše zahtjeve. Na stranici Helicone Sessions, vidjet ćete svaki OpenCode razgovor naveden kao zasebna sesija.
| Header | Opis |
|---|---|
Helicone-Cache-Enabled |
Omogući keširanje odgovora (true/false) |
Helicone-User-Id |
Pratite metriku po korisniku |
Helicone-Property-[Name] |
Dodajte prilagođena svojstva (npr. Helicone-Property-Environment) |
Helicone-Prompt-Id |
Povezivanje zahtjeva sa brzim verzijama |
Pogledajte Helicone Header Directory za sva dostupna zaglavlja.
Možete konfigurirati opencode za korištenje lokalnih modela putem llama.cpp's uslužnog programa llama-server
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"llama.cpp": {
"npm": "@ai-sdk/openai-compatible",
"name": "llama-server (local)",
"options": {
"baseURL": "http://127.0.0.1:8080/v1"
},
"models": {
"qwen3-coder:a3b": {
"name": "Qwen3-Coder: a3b-30b (local)",
"limit": {
"context": 128000,
"output": 65536
}
}
}
}
}
}U ovom primjeru:
llama.cppje ID prilagođenog provajdera. Ovo može biti bilo koji niz koji želite.npmspecificira paket koji će se koristiti za ovog provajdera. Ovdje se@ai-sdk/openai-compatiblekoristi za bilo koji OpenAI kompatibilan API.nameje ime za prikaz za provajdera u korisničkom sučelju.options.baseURLje krajnja tačka za lokalni server.modelsje mapa ID-ova modela prema njihovim konfiguracijama. Naziv modela će biti prikazan na listi za odabir modela.
IO.NET nudi 17 modela optimiziranih za različite slučajeve upotrebe:
-
Idite na IO.NET konzolu, kreirajte račun i generirajte API ključ.
-
Pokrenite naredbu
/connecti potražite IO.NET.
/connect- Unesite svoj IO.NET API ključ.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete model.
/modelsMožete konfigurirati opencode za korištenje lokalnih modela preko LM Studio.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
}
}U ovom primjeru:
lmstudioje ID prilagođenog provajdera. Ovo može biti bilo koji niz koji želite.npmspecificira paket koji će se koristiti za ovog provajdera. Ovdje se@ai-sdk/openai-compatiblekoristi za bilo koji OpenAI kompatibilan API.nameje ime za prikaz za provajdera u korisničkom sučelju.options.baseURLje krajnja tačka za lokalni server.modelsje mapa ID-ova modela prema njihovim konfiguracijama. Naziv modela će biti prikazan na listi za odabir modela.
Da biste koristili Kimi K2 iz Moonshot AI:
-
Idite na Moonshot AI konzolu, kreirajte nalog i kliknite na Kreiraj API ključ.
-
Pokrenite naredbu
/connecti potražite Moonshot AI.
/connect- Unesite svoj Moonshot API ključ.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete Kimi K2.
/models-
Prijeđite na MiniMax API konzolu, kreirajte račun i generirajte API ključ.
-
Pokrenite naredbu
/connecti potražite MiniMax.
/connect- Unesite svoj MiniMax API ključ.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete model kao što je M2.1.
/models-
Idite na Nebius Token Factory konzolu, kreirajte nalog i kliknite na Dodaj ključ.
-
Pokrenite naredbu
/connecti potražite Nebius Token Factory.
/connect- Unesite svoj Nebius Token Factory API ključ.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete model kao što je Kimi K2 Instruct.
/modelsMožete konfigurirati opencode za korištenje lokalnih modela putem Ollame.
:::tip Ollama se može automatski konfigurirati za OpenCode. Pogledajte Ollama integracijske dokumente za detalje. :::
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}U ovom primjeru:
ollamaje ID prilagođenog provajdera. Ovo može biti bilo koji niz koji želite.npmspecificira paket koji će se koristiti za ovog provajdera. Ovdje se@ai-sdk/openai-compatiblekoristi za bilo koji OpenAI kompatibilan API.nameje ime za prikaz za provajdera u korisničkom sučelju.options.baseURLje krajnja tačka za lokalni server.modelsje mapa ID-ova modela prema njihovim konfiguracijama. Naziv modela će biti prikazan na listi za odabir modela.
:::tip
Ako pozivi alata ne rade, pokušajte povećati num_ctx u Ollama. Počnite oko 16k - 32k.
:::
Da biste koristili Ollama Cloud s OpenCode:
-
Idite na https://ollama.com/ i prijavite se ili kreirajte račun.
-
Idite na Postavke > Ključevi i kliknite na Dodaj API ključ da generišete novi API ključ.
-
Kopirajte API ključ za korištenje u OpenCode.
-
Pokrenite naredbu
/connecti potražite Ollama Cloud.
/connect- Unesite svoj Ollama Cloud API ključ.
┌ API key
│
│
└ enter- Važno: Prije upotrebe modela oblaka u OpenCode, morate lokalno povući informacije o modelu:
ollama pull gpt-oss:20b-cloud- Pokrenite naredbu
/modelsda odaberete svoj model Ollama Cloud.
/modelsPreporučujemo da se prijavite za ChatGPT Plus ili Pro.
- Nakon što ste se prijavili, pokrenite naredbu
/connecti odaberite OpenAI.
/connect- Ovdje možete odabrati opciju ChatGPT Plus/Pro i ona će otvoriti vaš pretraživač i traži od vas da se autentifikujete.
┌ Select auth method
│
│ ChatGPT Plus/Pro
│ Manually enter API Key
└- Sada bi svi OpenAI modeli trebali biti dostupni kada koristite naredbu
/models.
/modelsAko već imate API ključ, možete odabrati Ručno unesite API ključ i zalijepite ga u svoj terminal.
OpenCode Zen je lista testiranih i verifikovanih modela koju je obezbedio OpenCode tim. Saznajte više.
-
Prijavite se na OpenCode Zen i kliknite na Kreiraj API ključ.
-
Pokrenite naredbu
/connecti potražite OpenCode Zen.
/connect- Unesite svoj OpenCode API ključ.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete model kao što je Qwen 3 Coder 480B.
/models-
Idite na OpenRouter nadzornu ploču, kliknite na Kreiraj API ključ i kopirajte ključ.
-
Pokrenite naredbu
/connecti potražite OpenRouter.
/connect- Unesite API ključ za provajdera.
┌ API key
│
│
└ enter- Mnogi OpenRouter modeli su unapred učitani po defaultu, pokrenite naredbu
/modelsda odaberete onaj koji želite.
/modelsTakođer možete dodati dodatne modele putem vaše opencode konfiguracije.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openrouter": {
"models": {
"somecoolnewmodel": {}
}
}
}
}- Također ih možete prilagoditi putem vaše opencode konfiguracije. Evo primjera navođenja provajdera
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openrouter": {
"models": {
"moonshotai/kimi-k2": {
"options": {
"provider": {
"order": ["baseten"],
"allow_fallbacks": false
}
}
}
}
}
}
}SAP AI Core omogućava pristup preko 40+ modela iz OpenAI, Anthropic, Google, Amazon, Meta, Mistral i AI21 putem objedinjene platforme.
-
Idite na vaš SAP BTP Cockpit, idite na instancu usluge SAP AI Core i kreirajte servisni ključ.
:::tip Servisni ključ je JSON objekat koji sadrži
clientid,clientsecret,urliserviceurls.AI_API_URL. Svoju AI Core instancu možete pronaći pod Usluge > Instance i pretplate u BTP kokpitu. ::: -
Pokrenite naredbu
/connecti potražite SAP AI Core.
/connect- Unesite JSON svoj servisni ključ.
┌ Service key
│
│
└ enterIli postavite varijablu okruženja AICORE_SERVICE_KEY:
AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencodeIli ga dodajte na svoj bash profil:
export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}'- Opciono postavite ID implementacije i grupu resursa:
AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode:::note Ove postavke su opcione i treba ih konfigurirati u skladu s vašim SAP AI Core postavkama. :::
-
Pokrenite naredbu
/modelsda odaberete između 40+ dostupnih modela./models
STACKIT AI Model Serving pruža potpuno upravljano suvereno hosting okruženje za AI modele, fokusirajući se na LLM-ove kao što su Llama, Mistral i Qwen, uz maksimalan suverenitet podataka na evropskoj infrastrukturi.
-
Idite na STACKIT Portal, idite na AI Model Serving i kreirajte token za autentifikaciju za svoj projekat.
:::tip Potreban vam je STACKIT korisnički račun, korisnički nalog i projekat prije kreiranja tokena za autentifikaciju. :::
-
Pokrenite naredbu
/connecti potražite STACKIT./connect
-
Unesite svoj STACKIT AI Model Serving token za autentifikaciju.
┌ API key │ │ └ enter
-
Pokrenite naredbu
/modelsda odaberete dostupne modele kao što su Qwen3-VL 235B ili Llama 3.3 70B./models
-
Idite na OVHcloud panel. Idite do odjeljka
Public Cloud,AI & Machine Learning>AI Endpointsi na karticiAPI Keyskliknite na Kreiraj novi API ključ. -
Pokrenite naredbu
/connecti potražite OVHcloud AI krajnje točke.
/connect- Unesite svoj OVHcloud AI Endpoints API ključ.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete model kao što je gpt-oss-120b.
/modelsDa biste koristili Scaleway Generative APIs sa Opencodeom:
-
Prijeđite na Scaleway Console IAM postavke da generišete novi API ključ.
-
Pokrenite naredbu
/connecti potražite Scaleway.
/connect- Unesite svoj Scaleway API ključ.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete model kao što je devstral-2-123b-instruct-2512 ili gpt-oss-120b.
/models-
Idite na Together AI console, kreirajte nalog i kliknite na Dodaj ključ.
-
Pokrenite naredbu
/connecti potražite Together AI.
/connect- Unesite svoj Together AI API ključ.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete model kao što je Kimi K2 Instruct.
/models-
Idite na Venice AI konzolu, kreirajte račun i generirajte API ključ.
-
Pokrenite naredbu
/connecti potražite Venice AI.
/connect- Unesite svoj Venice AI API ključ.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete model kao što je Llama 3.3 70B.
/modelsVercel AI Gateway vam omogućava da pristupite modelima iz OpenAI, Anthropic, Google, xAI i drugih putem objedinjene krajnje tačke. Modeli se nude po kataloškim cijenama bez maraka.
-
Idite na Vercel kontrolnu tablu, idite na karticu AI Gateway i kliknite na API ključevi da kreirate novi API ključ.
-
Pokrenite naredbu
/connecti potražite Vercel AI Gateway.
/connect- Unesite svoj Vercel AI Gateway API ključ.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete model.
/modelsTakođer možete prilagoditi modele kroz svoju opencode konfiguraciju. Evo primjera specificiranja redoslijeda usmjeravanja dobavljača.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"vercel": {
"models": {
"anthropic/claude-sonnet-4": {
"options": {
"order": ["anthropic", "vertex"]
}
}
}
}
}
}Neke korisne opcije rutiranja:
| Opcija | Opis |
|---|---|
order |
Redoslijed dobavljača za pokušaj |
only |
Ograničiti na određene provajdere |
zeroDataRetention |
Koristite samo provajdere sa nultom politikom zadržavanja podataka |
-
Prijeđite na xAI konzolu, kreirajte račun i generirajte API ključ.
-
Pokrenite naredbu
/connecti potražite xAI.
/connect- Unesite svoj xAI API ključ.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete model kao što je Grok Beta.
/models-
Idite na Z.AI API konzolu, kreirajte nalog i kliknite na Kreiraj novi API ključ.
-
Pokrenite naredbu
/connecti potražite Z.AI.
/connectAko ste pretplaćeni na GLM plan kodiranja, odaberite Z.AI plan kodiranja.
- Unesite svoj Z.AI API ključ.
┌ API key
│
│
└ enter- Pokrenite naredbu
/modelsda odaberete model kao što je GLM-4.7.
/models-
Idite na ZenMux kontrolnu tablu, kliknite na Kreiraj API ključ i kopirajte ključ.
-
Pokrenite naredbu
/connecti potražite ZenMux.
/connect- Unesite API ključ za provajdera.
┌ API key
│
│
└ enter- Mnogi ZenMux modeli su unaprijed učitani po defaultu, pokrenite naredbu
/modelsda odaberete onaj koji želite.
/modelsTakođer možete dodati dodatne modele putem vaše opencode konfiguracije.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"zenmux": {
"models": {
"somecoolnewmodel": {}
}
}
}
}Da biste dodali bilo kojeg OpenAI-kompatibilnog provajdera koji nije naveden u naredbi /connect:
:::tip Možete koristiti bilo kojeg OpenAI kompatibilnog provajdera s opencode-om. Većina modernih AI provajdera nudi API-je kompatibilne sa OpenAI. :::
- Pokrenite naredbu
/connecti pomaknite se prema dolje do Ostalo.
$ /connect
┌ Add credential
│
◆ Select provider
│ ...
│ ● Other
└- Unesite jedinstveni ID za provajdera.
$ /connect
┌ Add credential
│
◇ Enter provider id
│ myprovider
└:::note Odaberite ID koji se pamti, to ćete koristiti u svom konfiguracijskom fajlu. :::
- Unesite svoj API ključ za provajdera.
$ /connect
┌ Add credential
│
▲ This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.
│
◇ Enter your API key
│ sk-...
└- Kreirajte ili ažurirajte svoju
opencode.jsondatoteku u direktoriju projekta:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI ProviderDisplay Name",
"options": {
"baseURL": "https://api.myprovider.com/v1"
},
"models": {
"my-model-name": {
"name": "My Model Display Name"
}
}
}
}
}Evo opcija konfiguracije:
- npm: AI SDK paket za korištenje,
@ai-sdk/openai-compatibleza OpenAI-kompatibilne provajdere - name: Ime za prikaz u korisničkom sučelju.
- modeli: Dostupni modeli.
- options.baseURL: URL krajnje tačke API-ja.
- options.apiKey: Opciono postavite API ključ, ako ne koristite auth.
- options.headers: Opciono postavite prilagođena zaglavlja.
Više o naprednim opcijama u primjeru ispod.
- Pokrenite naredbu
/modelsi vaš prilagođeni provajder i modeli će se pojaviti na listi izbora.
Evo primjera postavljanja opcija apiKey, headers i modela limit.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI ProviderDisplay Name",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:ANTHROPIC_API_KEY}",
"headers": {
"Authorization": "Bearer custom-token"
}
},
"models": {
"my-model-name": {
"name": "My Model Display Name",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}Detalji konfiguracije:
- apiKey: Postavite pomoću sintakse varijable
env, saznajte više. - zaglavlja: Prilagođena zaglavlja se šalju sa svakim zahtjevom.
- limit.context: Maksimalni ulazni tokeni koje model prihvata.
- limit.output: Maksimalni tokeni koje model može generirati.
Polja limit omogućavaju OpenCode da shvati koliko vam je konteksta ostalo. Standardni dobavljači ih automatski preuzimaju sa models.dev.
Ako imate problema s konfiguracijom provajdera, provjerite sljedeće:
-
Provjerite postavke autentifikacije: Pokrenite
opencode auth listda vidite da li su vjerodajnice za provajdera se dodaju u vašu konfiguraciju.Ovo se ne odnosi na dobavljače kao što je Amazon Bedrock, koji se oslanjaju na varijable okruženja za svoju autentifikaciju.
-
Za prilagođene provajdere, provjerite OpenCode konfiguraciju i:
- Uvjerite se da ID provajdera korišten u naredbi
/connectodgovara ID-u u vašoj opencode konfiguraciji. - Za provajdera se koristi pravi npm paket. Na primjer, koristite
@ai-sdk/cerebrasza Cerebras. A za sve ostale OpenAI kompatibilne provajdere, koristite@ai-sdk/openai-compatible. - Provjerite da li se ispravna krajnja tačka API-ja koristi u polju
options.baseURL.
- Uvjerite se da ID provajdera korišten u naredbi
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", }, "models": { "gpt-4o": { // Model ID (from Helicone's model directory page) "name": "GPT-4o", // Your own custom name for the model }, "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4", }, }, }, }, }