| title | Udbydere |
|---|---|
| description | Brug en hvilken som helst LLM-udbyder i OpenCode. |
import config from "../../../../config.mjs" export const console = config.console
OpenCode bruger AI SDK og Models.dev til at understøtte 75+ LLM-udbydere og understøtter kørsel af lokale modeller.
For at tilføje en udbyder skal du:
- Tilføje API-nøglerne for udbyderen ved at bruge kommandoen
/connect. - Konfigurere udbyderen i OpenCode-konfigurationen.
Når du tilføjer en udbyders API-nøgler med /connect-kommandoen, gemmes de i ~/.local/share/opencode/auth.json.
Du kan tilpasse udbyderne gennem provider-delen i OpenCode-konfigurationen.
Du kan tilpasse base URL for enhver udbyder ved at angive muligheden baseURL. Dette er nyttigt, når du bruger proxy-tjenester eller tilpassede endpoints.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}OpenCode Zen er en liste over modeller leveret af OpenCode-teamet, som er blevet testet og verificeret til at fungere godt med OpenCode. Læs mere.
:::tip Hvis du er ny, anbefaler vi at starte med OpenCode Zen. :::
-
Kør kommandoen
/connecti TUI, vælg opencode og gå til opencode.ai/auth./connect
-
Log ind, tilføj dine faktureringsoplysninger og kopier API-nøglen.
-
Indsæt API-nøglen.
┌ API key │ │ └ enter
-
Kør
/modelsi TUI for at se listen over modeller, vi anbefaler./models
Det fungerer som alle andre udbydere i OpenCode og er helt valgfrit at bruge.
OpenCode Go er en billig abonnementsplan, der giver pålidelig adgang til populære åbne kodningsmodeller leveret af OpenCode-teamet, som er testet og verificeret til at fungere godt med OpenCode.
-
Kør kommandoen
/connecti TUI, vælgOpenCode Go, og gå til opencode.ai/auth./connect
-
Log ind, tilføj dine faktureringsoplysninger og kopier din API-nøgle.
-
Indsæt din API-nøgle.
┌ API key │ │ └ enter
-
Kør
/modelsi TUI for at se listen over modeller, vi anbefaler./models
Det fungerer som alle andre udbydere i OpenCode og er helt valgfrit at bruge.
Lad os se på nogle af udbyderne i detaljer. Hvis du vil tilføje en udbyder til listen, er du velkommen til at åbne en PR.
:::note Ser du ikke en udbyder her? Indsend en PR. :::
-
Gå til 302.AI-konsollen, opret en konto og generer en API-nøgle.
-
Kør kommandoen
/connectog søg efter 302.AI./connect
-
Indtast 302.AI API-nøglen.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge en model./models
Sådan bruger du Amazon Bedrock med OpenCode:
-
Gå til modelkataloget i Amazon Bedrock-konsollen og anmod om adgang til de modeller, du ønsker.
:::tip Du skal have adgang til modellen du ønsker i Amazon Bedrock. :::
-
Konfigurer godkendelse ved at bruge en af følgende metoder:
Angiv en af disse miljøvariabler, mens du kører opencode:
# Option 1: Using AWS access keys AWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode # Option 2: Using named AWS profile AWS_PROFILE=my-profile opencode # Option 3: Using Bedrock bearer token AWS_BEARER_TOKEN_BEDROCK=XXX opencode
Eller tilføj dem til din bash-profil:
export AWS_PROFILE=my-dev-profile export AWS_REGION=us-east-1
For projektspecifik eller vedvarende konfiguration, brug
opencode.json:{ "$schema": "https://opencode.ai/config.json", "provider": { "amazon-bedrock": { "options": { "region": "us-east-1", "profile": "my-aws-profile" } } } }Tilgængelige muligheder:
region- AWS region (f.eks.us-east-1,eu-west-1)profile- AWS navngivet profil fra~/.aws/credentialsendpoint- Brugerdefineret endpoint URL for VPC endpoints (alias for generiskbaseURL-mulighed)
:::tip Konfigurationsfil-muligheder har forrang over miljøvariabler. :::
Hvis du bruger VPC endpoints for Bedrock:
{ "$schema": "https://opencode.ai/config.json", "provider": { "amazon-bedrock": { "options": { "region": "us-east-1", "profile": "production", "endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com" } } } }:::note Muligheden
endpointer et alias for den generiske mulighedbaseURL, der bruger AWS-specifik terminologi. Hvis bådeendpointogbaseURLer specificeret, harendpointforrang. :::AWS_ACCESS_KEY_ID/AWS_SECRET_ACCESS_KEY: Opret en IAM-bruger og generer adgangsnøgler i AWS-konsollenAWS_PROFILE: Brug navngivne profiler fra~/.aws/credentials. Konfigurer først medaws configure --profile my-profileelleraws sso loginAWS_BEARER_TOKEN_BEDROCK: Generer langsigtede API-nøgler fra Amazon Bedrock-konsollenAWS_WEB_IDENTITY_TOKEN_FILE/AWS_ROLE_ARN: For EKS IRSA (IAM roller for tjenestekonti) eller andre Kubernetes-miljøer med OIDC føderation. Disse miljøvariabler injiceres automatisk af Kubernetes, når du bruger tjenestekontokommentarer.
Amazon Bedrock bruger følgende godkendelsesprioritet:
- Bearer Token -
AWS_BEARER_TOKEN_BEDROCKmiljøvariabel eller token fra kommandoen/connect - AWS legitimationskæde - profil, adgangsnøgler, delte legitimationsoplysninger, IAM roller, webidentitetstokens (EKS IRSA), instansmetadata
:::note Når et bearer token er angivet (via
/connectellerAWS_BEARER_TOKEN_BEDROCK), har det forrang over alle AWS godkendelsesmetoder inklusiv konfigurerede profiler. ::: -
Kør kommandoen
/modelsfor at vælge den model, du ønsker./models
:::note
For brugerdefinerede inferensprofiler, brug modellen og udbydernavnet i nøglen og sæt egenskaben id til arn. Dette sikrer korrekt caching:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
// ...
"models": {
"anthropic-claude-sonnet-4.5": {
"id": "arn:aws:bedrock:us-east-1:xxx:application-inference-profile/yyy"
}
}
}
}
}:::
-
Når du har registreret dig, kør kommandoen
/connectog vælg Anthropic./connect
-
Her kan du vælge muligheden Claude Pro/Max, og det vil åbne din browser og bede dig om at godkende.
┌ Select auth method │ │ Claude Pro/Max │ Create an API Key │ Manually enter API Key └
-
Nu skal alle de Anthropiske modeller være tilgængelige, når du bruger kommandoen
/models./models
:::info At bruge dit Claude Pro/Max-abonnement i OpenCode understøttes ikke officielt af Anthropic. :::
Du kan også vælge Create an API Key, hvis du ikke har et Pro/Max-abonnement. Det åbner også din browser og beder dig logge på Anthropic og giver dig en kode, du kan indsætte i din terminal.
Eller hvis du allerede har en API-nøgle, kan du vælge Manually enter API Key og indsætte den i terminalen.
Du kan konfigurere opencode til at bruge lokale modeller via Atomic Chat — en desktopapplikation, der kører lokale LLM'er bag en OpenAI-kompatibel API-server (standard-endpoint http://127.0.0.1:1337/v1).
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"atomic-chat": {
"npm": "@ai-sdk/openai-compatible",
"name": "Atomic Chat (local)",
"options": {
"baseURL": "http://127.0.0.1:1337/v1"
},
"models": {
"<your-model-id>": {
"name": "<your-model-name>"
}
}
}
}
}I dette eksempel:
atomic-chater det brugerdefinerede udbyder-ID. Det kan være en vilkårlig streng.npmspecificerer pakken, der skal bruges for denne udbyder. Her bruges@ai-sdk/openai-compatibletil enhver OpenAI-kompatibel API.nameer det viste navn på udbyderen i grænsefladen.options.baseURLer endpoint'et for den lokale server. Ændr vært og port for at matche din Atomic Chat-opsætning.modelser en afbildning af model-ID'er til deres viste navne. Hvert ID skal matche detid, der returneres afGET /v1/models— kørcurl http://127.0.0.1:1337/v1/modelsfor at liste ID'erne, der i øjeblikket er indlæst i Atomic Chat.
:::tip Hvis værktøjskald ikke fungerer godt, så vælg en indlæst model med god tool calling-understøttelse (for eksempel en Qwen-Coder- eller DeepSeek-Coder-variant). :::
:::note Hvis du støder på "Beklager, men jeg kan ikke hjælpe med den anmodning"-fejl, kan du prøve at ændre indholdsfilteret fra DefaultV2 til Default i Azure-ressourcen. :::
-
Gå til Azure-portalen og opret en Azure OpenAI-ressource. Du skal bruge:
- Ressourcenavn: Dette bliver en del af API-endpointet (
https://RESOURCE_NAME.openai.azure.com/) - API-nøgle: Enten
KEY 1ellerKEY 2fra din ressource
- Ressourcenavn: Dette bliver en del af API-endpointet (
-
Gå til Azure AI Foundry og distribuer en model.
:::note Distributionsnavnet skal matche modelnavnet for at opencode skal fungere korrekt. :::
-
Kør kommandoen
/connectog søg efter Azure./connect
-
Indtast API-nøglen.
┌ API key │ │ └ enter
-
Angiv dit ressourcenavn som en miljøvariabel:
AZURE_RESOURCE_NAME=XXX opencode
Eller tilføj den til din bash-profil:
export AZURE_RESOURCE_NAME=XXX -
Kør kommandoen
/modelsfor at vælge den distribuerede model./models
-
Gå til Azure-portalen og opret en Azure OpenAI-ressource. Du skal bruge:
- Ressourcenavn: Dette bliver en del af API-endpointet (
https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/) - API-nøgle: Enten
KEY 1ellerKEY 2fra din ressource
- Ressourcenavn: Dette bliver en del af API-endpointet (
-
Gå til Azure AI Foundry og distribuer en model.
:::note Distributionsnavnet skal matche modelnavnet for at opencode skal fungere korrekt. :::
-
Kør kommandoen
/connectog søg efter Azure Cognitive Services./connect
-
Indtast API-nøglen.
┌ API key │ │ └ enter
-
Angiv dit ressourcenavn som en miljøvariabel:
AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencode
Eller tilføj den til din bash-profil:
export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX -
Kør kommandoen
/modelsfor at vælge den distribuerede model./models
-
Gå til Baseten, opret en konto og generer en API-nøgle.
-
Kør kommandoen
/connectog søg efter Baseten./connect
-
Indtast din Baseten API-nøgle.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge en model./models
-
Gå til Cerebras-konsollen, opret en konto og generer en API-nøgle.
-
Kør kommandoen
/connectog søg efter Cerebras./connect
-
Indtast Cerebras API-nøglen.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge en model som Qwen 3 Coder 480B./models
Cloudflare AI Gateway lader dig få adgang til modeller fra OpenAI, Anthropic, Workers AI og flere gennem et samlet endpoint. Med Unified Billing behøver du ikke separate API-nøgler for hver udbyder.
-
Gå til Cloudflare-dashboardet, naviger til AI > AI Gateway, og opret en ny gateway.
-
Angiv konto-ID og gateway-ID som miljøvariabler.
export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-id export CLOUDFLARE_GATEWAY_ID=your-gateway-id
-
Kør kommandoen
/connectog søg efter Cloudflare AI Gateway./connect
-
Indtast din Cloudflare API-token.
┌ API key │ │ └ enter
Eller angiv den som en miljøvariabel.
export CLOUDFLARE_API_TOKEN=your-api-token -
Kør kommandoen
/modelsfor at vælge en model./models
Du kan også tilføje modeller gennem opencode-konfigurationen.
{ "$schema": "https://opencode.ai/config.json", "provider": { "cloudflare-ai-gateway": { "models": { "openai/gpt-4o": {}, "anthropic/claude-sonnet-4": {} } } } }
-
Gå til Cortecs-konsollen, opret en konto og generer en API-nøgle.
-
Kør kommandoen
/connectog søg efter Cortecs./connect
-
Indtast Cortecs API-nøglen.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge en model som Kimi K2 Instruct./models
-
Gå til DeepSeek-konsollen, opret en konto og klik på Create API Key.
-
Kør kommandoen
/connectog søg efter DeepSeek./connect
-
Indtast DeepSeek API-nøglen.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge en DeepSeek-model som DeepSeek V4 Pro./models
-
Gå til Deep Infra-dashboardet, opret en konto og generer en API-nøgle.
-
Kør kommandoen
/connectog søg efter Deep Infra./connect
-
Indtast Deep Infra API-nøglen.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge en model./models
-
Gå til FrogBot dashboard, opret en konto og generer en API-nøgle.
-
Kør kommandoen
/connectog søg efter FrogBot./connect
-
Indtast frogbot API-nøglen.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge en model./models
-
Gå til Fireworks AI-konsollen, opret en konto og klik på Create API Key.
-
Kør kommandoen
/connectog søg efter Fireworks AI./connect
-
Indtast Fireworks AI API-nøglen.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge en model som Kimi K2 Instruct./models
GitLab Duo giver AI-drevet agentchat med native værktøjskaldsfunktioner gennem GitLabs anthropiske proxy.
-
Kør kommandoen
/connectog vælg GitLab./connect
-
Vælg din godkendelsesmetode:
┌ Select auth method │ │ OAuth (Recommended) │ Personal Access Token └
Vælg OAuth og din browser åbner for autorisation.
- Gå til GitLab User Settings > Access Tokens
- Klik på Add new token
- Navn:
OpenCode, omfang:api - Kopier tokenet (starter med
glpat-) - Indtast den i terminalen
-
Kør kommandoen
/modelsfor at se tilgængelige modeller./models
Tre Claude-baserede modeller er tilgængelige:
- duo-chat-haiku-4-5 (standard) - Hurtige svar til hurtige opgaver
- duo-chat-sonnet-4-5 - Balanceret ydeevne til de fleste arbejdsgange
- duo-chat-opus-4-5 - Mest egnet til kompleks analyse
:::note Du kan også specificere 'GITLAB_TOKEN' miljøvariabel, hvis du ikke vil gemme tokenet i opencode auth-lagring. :::
:::note[overholdelsesbemærkning]
OpenCode bruger en lille model til nogle AI-opgaver som at generere sessionstitlen.
Den er konfigureret til at bruge gpt-5-nano som standard, hostet af Zen. For at låse OpenCode
til kun at bruge din egen GitLab-hostede instans, tilføj følgende i din
opencode.json fil. Det anbefales også at deaktivere sessionsdeling.
{
"$schema": "https://opencode.ai/config.json",
"small_model": "gitlab/duo-chat-haiku-4-5",
"share": "disabled"
}:::
For selvhostede GitLab-instanser:
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_TOKEN=glpat-...Hvis din instans kører en brugerdefineret AI-gateway:
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.comEller tilføj til din bash-profil:
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com
export GITLAB_TOKEN=glpat-...:::note Din GitLab-administrator skal aktivere følgende:
- Duo Agent Platform for brugeren, gruppen eller instansen
- Funktionsflag (via Rails-konsollen):
agent_platform_claude_codethird_party_agents_enabled:::
For at få Oauth til at fungere for din selvhostede instans, skal du oprette
en ny applikation (Indstillinger → Applikationer) med
callback URL http://127.0.0.1:8080/callback og følgende omfang:
- api (Få adgang til API på dine vegne)
- read_user (Læs din personlige information)
- read_repository (tillader skrivebeskyttet adgang til depotet)
Udsæt derefter applikations-ID som miljøvariabel:
export GITLAB_OAUTH_CLIENT_ID=your_application_id_hereMere dokumentation på opencode-gitlab-auth hjemmesiden.
Tilpas gennem opencode.json:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"gitlab": {
"options": {
"instanceUrl": "https://gitlab.com"
}
}
}
}For at få adgang til GitLab-værktøjer (merge requests, problemer, pipelines, CI/CD, etc.):
{
"$schema": "https://opencode.ai/config.json",
"plugin": ["opencode-gitlab-plugin"]
}Denne plugin giver omfattende GitLab-repository-administrationsfunktioner, inklusiv MR-anmeldelser, problemsporing, pipeline-overvågning og mere.
Sådan bruger du GitHub Copilot-abonnementet med OpenCode:
:::note Nogle modeller kan kræve et Pro+ abonnement at bruge.
Nogle modeller skal aktiveres manuelt i GitHub Copilot-indstillingerne. :::
-
Kør kommandoen
/connectog søg efter GitHub Copilot./connect
-
Naviger til github.com/login/device og indtast koden.
┌ Login with GitHub Copilot │ │ https://github.com/login/device │ │ Enter code: 8F43-6FCF │ │ Waiting for authorization...
-
Kør nu kommandoen
/modelsfor at vælge modellen du ønsker./models
Sådan bruger du Google Vertex AI med OpenCode:
-
Gå til Model Garden i Google Cloud Console og tjek modeller tilgængelig i din region.
:::note Du skal have et Google Cloud-projekt med Vertex AI API aktiveret. :::
-
Angiv de nødvendige miljøvariabler:
GOOGLE_CLOUD_PROJECT: Dit Google Cloud-projekt IDVERTEX_LOCATION(valgfrit): Regionen for Vertex AI (standard tilglobal)- Godkendelse (vælg en):
GOOGLE_APPLICATION_CREDENTIALS: Sti til tjenestekontoens JSON-nøglefil- Godkend med gcloud CLI:
gcloud auth application-default login
Sæt dem mens du kører opencode.
GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode
Eller tilføj dem til din bash-profil.
export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json export GOOGLE_CLOUD_PROJECT=your-project-id export VERTEX_LOCATION=global
:::tip
global-regionen forbedrer tilgængeligheden og reducerer fejl uden ekstra omkostninger. Brug regionale endpoints (f.eks. us-central1) for krav til dataophold. Læs mere
:::
-
Kør kommandoen
/modelsfor at vælge modellen du ønsker./models
-
Gå til Groq-konsollen, klik på Create API Key, og kopier nøglen.
-
Kør kommandoen
/connectog søg efter Groq./connect
-
Indtast API-nøglen for udbyderen.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge den du ønsker./models
Hugging Face Inference Providers giver adgang til åbne modeller som støttes af 17+ udbydere.
-
Gå til Hugging Face-indstillinger for at oprette et token med tilladelse til at kalde inferensudbydere.
-
Kør kommandoen
/connectog søg efter Hugging Face./connect
-
Indtast dit Hugging Face-token.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge en model som Kimi-K2-Instruct eller GLM-4.6./models
Helicone er en LLM observerbarhedsplatform som giver logning, overvågning og analyser for dine AI-applikationer. Helicone AI Gateway ruter dine anmodninger til den rigtige udbyder automatisk baseret på modellen.
-
Gå til Helicone, opret en konto og generer en API-nøgle fra dashboardet.
-
Kør kommandoen
/connectog søg efter Helicone./connect
-
Indtast Helicone API-nøglen.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge en model./models
For flere udbydere og avancerede funktioner som caching og hastighedsbegrænsning, tjek Helicone-dokumentationen.
I tilfælde af at du ser en funktion eller model fra Helicone som ikke konfigureres automatisk gennem opencode, kan du altid konfigurere den selv.
Her er Helicone's Model Directory, du skal bruge denne for at hente ID'erne til de modeller du vil tilføje.
Helicone understøtter tilpassede headers for funktioner som caching, brugersporing og sessionsadministration. Læg dem til din udbyderkonfiguration ved at bruge options.headers:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
"headers": {
"Helicone-Cache-Enabled": "true",
"Helicone-User-Id": "opencode",
},
},
},
},
}Helicones Sessions funktion lader dig gruppe relaterede LLM anmodninger sammen. Brug opencode-helicone-session plugin for automatisk at logge hver OpenCode-samtale som en session i Helicone.
npm install -g opencode-helicone-sessionTilføj den til din konfiguration.
{
"plugin": ["opencode-helicone-session"]
}Programmatisk injicerer Helicone-Session-Id og Helicone-Session-Name headers i dine anmodninger. På Helicones Sessions-side vil du se hver OpenCode-samtale opført som en separat session.
| Header | Beskrivelse |
|---|---|
Helicone-Cache-Enabled |
Aktiver respons-caching (true/false) |
Helicone-User-Id |
Spor beregninger efter bruger |
Helicone-Property-[Name] |
Tilføj egendefinerede egenskaber (f.eks. Helicone-Property-Environment) |
Helicone-Prompt-Id |
Knyt anmodninger til prompt-versioner |
Se Helicone Header Directory for alle tilgængelige headers.
Du kan konfigurere opencode til at bruge lokale modeller gennem llama.cpps llama-server-værktøj
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"llama.cpp": {
"npm": "@ai-sdk/openai-compatible",
"name": "llama-server (local)",
"options": {
"baseURL": "http://127.0.0.1:8080/v1"
},
"models": {
"qwen3-coder:a3b": {
"name": "Qwen3-Coder: a3b-30b (local)",
"limit": {
"context": 128000,
"output": 65536
}
}
}
}
}
}I dette eksempel:
llama.cpper den tilpassede udbyder ID. Dette kan være hvilken som helst streng du vil.npmspecificerer pakken som skal bruges for denne udbyder. Her bruges@ai-sdk/openai-compatiblefor enhver OpenAI-kompatibel API.nameer visningsnavnet for udbyderen i UI.options.baseURLer endpointet for den lokale server.modelser et kort over model-ID'er til deres konfigurationer. Modelnavnet vil vises i modelvalglisten.
IO.NET tilbyder 17 modeller optimeret for forskellige brugstilfælde:
-
Gå til IO.NET-konsollen, opret en konto og generer en API-nøgle.
-
Kør kommandoen
/connectog søg efter IO.NET./connect
-
Indtast nøglen IO.NET API.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge en model./models
Du kan konfigurere opencode til at bruge lokale modeller gennem LM Studio.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
}
}I dette eksempel:
lmstudioer den tilpassede udbyder ID. Dette kan være hvilken som helst streng du vil.npmspecificerer pakken som skal bruges for denne udbyder. Her bruges@ai-sdk/openai-compatiblefor enhver OpenAI-kompatibel API.nameer visningsnavnet for udbyderen i UI.options.baseURLer endpointet for den lokale server.modelser et kort over model-ID'er til deres konfigurationer. Modelnavnet vil vises i modelvalglisten.
Sådan bruger du Kimi K2 fra Moonshot AI:
-
Gå til Moonshot AI-konsollen, opret en konto og klik på Create API Key.
-
Kør kommandoen
/connectog søg efter Moonshot AI./connect
-
Indtast Moonshot API-nøglen.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge Kimi K2./models
-
Gå til MiniMax API-konsollen, opret en konto og generer en API-nøgle.
-
Kør kommandoen
/connectog søg efter MiniMax./connect
-
Indtast MiniMax API-nøglen.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge en model som M2.1./models
-
Gå til Nebius Token Factory-konsollen, opret en konto og klik på Add Key.
-
Kør kommandoen
/connectog søg efter Nebius Token Factory./connect
-
Indtast Nebius Token Factory API-nøglen.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge en model som Kimi K2 Instruct./models
Du kan konfigurere opencode til at bruge lokale modeller gennem Ollama.
:::tip Ollama kan automatisk konfigurere sig selv for OpenCode. Se Ollama-integrationsdokumenterne for detaljer. :::
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}I dette eksempel:
ollamaer den tilpassede udbyder ID. Dette kan være hvilken som helst streng du vil.npmspecificerer pakken som skal bruges for denne udbyder. Her bruges@ai-sdk/openai-compatiblefor enhver OpenAI-kompatibel API.nameer visningsnavnet for udbyderen i UI.options.baseURLer endpointet for den lokale server.modelser et kort over model-ID'er til deres konfigurationer. Modelnavnet vil vises i modelvalglisten.
:::tip
Hvis værktøjskald ikke fungerer, prøv at øge num_ctx i Ollama. Start omkring 16k - 32k.
:::
Sådan bruger du Ollama Cloud med OpenCode:
-
Gå til https://ollama.com/ og log på eller opret en konto.
-
Naviger til Settings > Keys og klik på Add API Key for at generere en ny API-nøgle.
-
Kopier API-nøglen til brug i OpenCode.
-
Kør kommandoen
/connectog søg efter Ollama Cloud./connect
-
Indtast din Ollama Cloud API-nøgle.
┌ API key │ │ └ enter
-
Vigtigt: Før du bruger skymodeller i OpenCode, skal du hente modelinformationen lokalt:
ollama pull gpt-oss:20b-cloud
-
Kør kommandoen
/modelsfor at vælge din Ollama Cloud-model./models
Vi anbefaler at du registrerer dig for ChatGPT Plus eller Pro.
-
Når du har registreret dig, kør kommandoen
/connectog vælg OpenAI./connect
-
Her kan du vælge muligheden ChatGPT Plus/Pro og det åbner din browser og beder dig om at godkende.
┌ Select auth method │ │ ChatGPT Plus/Pro │ Manually enter API Key └
-
Nu skal alle OpenAI-modellerne være tilgængelige, når du bruger kommandoen
/models./models
Hvis du allerede har en API-nøgle, kan du vælge Manually enter API Key og indsætte den i terminalen.
OpenCode Zen er en liste over testede og verificerede modeller leveret af OpenCode-teamet. Læs mere.
-
Log på OpenCode Zen og klik på Create API Key.
-
Kør kommandoen
/connectog søg efter OpenCode Zen./connect
-
Indtast OpenCode API-nøglen.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge en model som Qwen 3 Coder 480B./models
-
Gå til OpenRouter-dashboardet, klik på Create API Key, og kopier nøglen.
-
Kør kommandoen
/connectog søg efter OpenRouter./connect
-
Indtast API-nøglen for udbyderen.
┌ API key │ │ └ enter
-
Mange OpenRouter-modeller er forudindlæst som standard, kør kommandoen
/modelsfor at vælge den du ønsker./models
Du kan også tilføje flere modeller gennem opencode-konfigurationen.
{ "$schema": "https://opencode.ai/config.json", "provider": { "openrouter": { "models": { "somecoolnewmodel": {} } } } } -
Du kan også tilpasse dem gennem opencode-konfigurationen. Her er et eksempel på at specificere en udbyder
{ "$schema": "https://opencode.ai/config.json", "provider": { "openrouter": { "models": { "moonshotai/kimi-k2": { "options": { "provider": { "order": ["baseten"], "allow_fallbacks": false } } } } } } }
SAP AI Core giver adgang til 40+ modeller fra OpenAI, Anthropic, Google, Amazon, Meta, Mistral og AI21 gennem en samlet platform.
-
Gå til din SAP BTP Cockpit, naviger til din SAP AI kerne-tjenesteinstans, og opret en tjenestenøgle.
:::tip Tjenestenøglen er et JSON-objekt som indeholder
clientid,clientsecret,urlogserviceurls.AI_API_URL. Du finder din AI-kerneinstans under Services > Instances and Subscriptions i BTP cockpittet. ::: -
Kør kommandoen
/connectog søg efter SAP AI Core./connect
-
Indtast tjenestenøglen JSON.
┌ Service key │ │ └ enter
Eller angiv miljøvariablen
AICORE_SERVICE_KEY:AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencodeEller tilføj den til din bash-profil:
export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}'
-
Angiv eventuelt deployment-ID og ressourcegruppe:
AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode
:::note Disse indstillinger er valgfrie og bør konfigureres i henhold til SAP AI kerne-opsætningen. :::
-
Kør kommandoen
/modelsfor at vælge fra 40+ tilgængelige modeller./models
STACKIT AI Model Serving leverer fuldt administreret suverænt hostingmiljø til AI-modeller, med fokus på LLM'er som Llama, Mistral og Qwen, med maksimal datasuverænitet på europæisk infrastruktur.
-
Gå til STACKIT Portal, naviger til AI Model Serving, og opret en auth-token til dit projekt.
:::tip Du skal have en STACKIT-kundekonto, brugerkonto og projekt, før du opretter auth-tokens. :::
-
Kør kommandoen
/connectog søg efter STACKIT./connect
-
Indtast din STACKIT AI Model Serving auth-token.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge fra tilgængelige modeller som Qwen3-VL 235B eller Llama 3.3 70B./models
-
Gå til OVHcloud-panelet. Naviger til
Public Cloud-delen,AI & Machine Learning>AI Endpointsog iAPI Keys-fanen klikker du på Opret en ny API-nøgle. -
Kør kommandoen
/connectog søg efter OVHcloud AI Endpoints./connect
-
Indtast OVHcloud AI Endpoints API-nøgle.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge en model som gpt-oss-120b./models
Sådan bruger du Scaleway Generative APIs med OpenCode:
-
Gå til Scaleway Console IAM indstillinger for at generere en ny API-nøgle.
-
Kør kommandoen
/connectog søg efter Scaleway./connect
-
Indtast Scaleway API-nøglen.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge en model som devstral-2-123b-instruct-2512 eller gpt-oss-120b./models
-
Gå til Together AI-konsollen, opret en konto og klik på Add Key.
-
Kør kommandoen
/connectog søg efter Together AI./connect
-
Indtast Together AI API-nøglen.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge en model som Kimi K2 Instruct./models
-
Gå til Venice AI-konsollen, opret en konto og generer en API-nøgle.
-
Kør kommandoen
/connectog søg efter Venice AI./connect
-
Indtast Venice AI API-nøglen.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge en model som Llama 3.3 70B./models
Vercel AI Gateway lader dig få adgang til modeller fra OpenAI, Anthropic, Google, xAI og mere gennem et samlet endpoint. Modeller tilbydes til listepris uden påslag.
-
Gå til Vercel dashboard, naviger til fanen AI Gateway, og klik på API Keys for at oprette en ny API-nøgle.
-
Kør kommandoen
/connectog søg efter Vercel AI Gateway./connect
-
Indtast Vercel AI Gateway API-nøgle.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge en model./models
Du kan også tilpasse modeller gennem opencode-konfigurationen. Her er et eksempel på specificering af udbyder-rutingsrækkefølge.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"vercel": {
"models": {
"anthropic/claude-sonnet-4": {
"options": {
"order": ["anthropic", "vertex"]
}
}
}
}
}
}Nogle nyttige rutealternativer:
| Alternativ | Beskrivelse |
|---|---|
order |
Providersekvens for at prøve |
only |
Begræns til specifikke udbydere |
zeroDataRetention |
Brug kun udbydere med nul retningslinjer for datalagring |
-
Gå til xAI-konsollen, opret en konto og generer en API-nøgle.
-
Kør kommandoen
/connectog søg efter xAI./connect
-
Indtast xAI API-nøglen.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge en model som Grok Beta./models
-
Gå til Z.AI API-konsollen, opret en konto og klik på Create new API Key.
-
Kør kommandoen
/connectog søg efter Z.AI./connect
Hvis du abonnerer på GLM Coding Plan, vælg Z.AI Coding Plan.
-
Indtast Z.AI API-nøglen.
┌ API key │ │ └ enter
-
Kør kommandoen
/modelsfor at vælge en model som GLM-4.7./models
-
Gå til ZenMux-dashboardet, klik på Create API Key, og kopier nøglen.
-
Kør kommandoen
/connectog søg efter ZenMux./connect
-
Indtast API-nøglen for udbyderen.
┌ API key │ │ └ enter
-
Mange ZenMux-modeller er forudindlæst som standard, kør kommandoen
/modelsfor at vælge den du ønsker./models
Du kan også tilføje flere modeller gennem opencode-konfigurationen.
{ "$schema": "https://opencode.ai/config.json", "provider": { "zenmux": { "models": { "somecoolnewmodel": {} } } } }
Sådan tilføjer du en OpenAI-kompatibel udbyder som ikke er opført i /connect-kommandoen:
:::tip Du kan bruge hvilken som helst OpenAI-kompatibel udbyder med opencode. De fleste moderne AI-udbydere tilbyder OpenAI-kompatible API'er. :::
-
Kør kommandoen
/connectog rul ned til Other.$ /connect ┌ Add credential │ ◆ Select provider │ ... │ ● Other └
-
Indtast et unikt ID for udbyderen.
$ /connect ┌ Add credential │ ◇ Enter provider id │ myprovider └
:::note Vælg et mindeværdigt ID, du vil bruge dette i din konfigurationsfil. :::
-
Indtast API-nøglen for udbyderen.
$ /connect ┌ Add credential │ ▲ This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples. │ ◇ Enter your API key │ sk-... └
-
Opret eller opdater
opencode.json-filen i projektkataloget:{ "$schema": "https://opencode.ai/config.json", "provider": { "myprovider": { "npm": "@ai-sdk/openai-compatible", "name": "My AI ProviderDisplay Name", "options": { "baseURL": "https://api.myprovider.com/v1" }, "models": { "my-model-name": { "name": "My Model Display Name" } } } } }Her er konfigurationsmulighederne:
- npm: AI SDK pakke at bruge,
@ai-sdk/openai-compatiblefor OpenAI-kompatible udbydere - name: Visningsnavn i UI.
- models: Tilgængelige modeller.
- options.baseURL: API endpoint URL.
- options.apiKey: Angiv API-nøglen hvis du ikke bruger auth.
- options.headers: Angiv egendefinerede headers.
Mere om de avancerede muligheder i eksemplet nedenfor.
- npm: AI SDK pakke at bruge,
-
Kør kommandoen
/modelsog din egendefinerede udbyder og modeller vil vises i udvalgslisten.
Her er et eksempel på indstilling af mulighederne apiKey, headers og model limit.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI ProviderDisplay Name",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:ANTHROPIC_API_KEY}",
"headers": {
"Authorization": "Bearer custom-token"
}
},
"models": {
"my-model-name": {
"name": "My Model Display Name",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}Konfigurationsdetaljer:
- apiKey: Angiv med
envvariabel syntaks, læs mere. - headers: Egendefinerede headers sendt med hver anmodning.
- limit.context: Maksimalt input-tokens som modellen accepterer.
- limit.output: Maksimalt antal tokens modellen kan generere.
limit-felterne lader OpenCode forstå hvor meget kontekst du har tilbage. Standardudbydere henter disse automatisk fra models.dev.
Hvis du har problemer med at konfigurere en udbyder, tjek følgende:
-
Tjek godkendelsesopsætningen: Kør
opencode auth listfor at se om legitimationsoplysningerne for udbyderen er tilføjet til din konfiguration.Dette gælder ikke udbydere som Amazon Bedrock, som er afhængige af miljøvariabler for godkendelse.
-
For tilpassede udbydere, tjek opencode-konfigurationen og:
- Sørg for at udbyderens ID som bruges i
/connect-kommandoen matcher ID i opencode-konfigurationen. - Den rigtige npm-pakke bruges for udbyderen. Brug for eksempel
@ai-sdk/cerebrasfor Cerebras. Og for alle andre OpenAI-kompatible udbydere, brug@ai-sdk/openai-compatible. - Kontroller at korrekt API-endpoint er brugt i
options.baseURL-feltet.
- Sørg for at udbyderens ID som bruges i
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", }, "models": { "gpt-4o": { // Model ID (from Helicone's model directory page) "name": "GPT-4o", // Your own custom name for the model }, "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4", }, }, }, }, }