| title | Sağlayıcılar |
|---|---|
| description | opencode'da herhangi bir LLM sağlayıcısını kullanma. |
import config from "../../../../config.mjs" export const console = config.console
opencode, 75'ten fazla LLM sağlayıcısını desteklemek için AI SDK ve Models.dev kullanır ve yerel modellerin çalıştırılmasını destekler.
Bir sağlayıcı eklemek için şunları yapmanız gerekir:
/connectkomutunu kullanarak sağlayıcı için API anahtarlarını ekleyin.- Sağlayıcıyı opencode yapılandırmanızda yapılandırın.
Bir sağlayıcının API anahtarlarını /connect komutuyla eklediğinizde, bunlar saklanır
~/.local/share/opencode/auth.json içinde.
Sağlayıcıları opencode'unuzdaki provider bölümü aracılığıyla özelleştirebilirsiniz.
config.
baseURL seçeneğini ayarlayarak URL tabanını herhangi bir sağlayıcı için özelleştirebilirsiniz. Bu, proxy hizmetlerini veya özel uç noktaları kullanırken kullanışlıdır.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}OpenCode Zen, opencode ekibi tarafından sağlanan modellerin bir listesidir. opencode ile iyi çalıştığı test edilip doğrulandı. Daha fazla bilgi.
:::tip Yeniyseniz OpenCode Zen ile başlamanızı öneririz. :::
-
TUI'de
/connectkomutunu çalıştırın, opencode'u seçin ve opencode.ai/auth'ye gidin./connect
-
Oturum açın, fatura ayrıntılarınızı ekleyin ve API anahtarınızı kopyalayın.
-
API anahtarınızı yapıştırın.
┌ API key │ │ └ enter
-
Önerdiğimiz modellerin listesini görmek için TUI'de
/modelskomutunu çalıştırın./models
opencode'daki diğer sağlayıcılar gibi çalışır ve kullanımı tamamen isteğe bağlıdır.
OpenCode Go, opencode ile iyi çalıştığı test edilmiş ve doğrulanmış, opencode ekibi tarafından sağlanan popüler açık kodlama modellerine güvenilir erişim sağlayan düşük maliyetli bir abonelik planıdır.
-
TUI'de
/connectkomutunu çalıştırın,OpenCode Go'yu seçin ve opencode.ai/auth adresine gidin./connect
-
Oturum açın, fatura ayrıntılarınızı ekleyin ve API anahtarınızı kopyalayın.
-
API anahtarınızı yapıştırın.
┌ API key │ │ └ enter
-
Önerdiğimiz modellerin listesini görmek için TUI'de
/modelskomutunu çalıştırın./models
opencode'daki diğer sağlayıcılar gibi çalışır ve kullanımı tamamen isteğe bağlıdır.
Sağlayıcılardan bazılarına ayrıntılı olarak bakalım. Bir sağlayıcı eklemek istiyorsanız liste, bir PR açmaktan çekinmeyin.
:::note Burada bir sağlayıcı göremiyor musunuz? Bir PR gönderin. :::
-
302.AI console adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve 302.AI'yi arayın./connect
-
302.AI API anahtarınızı girin.
┌ API key │ │ └ enter
-
Bir model seçmek için
/modelskomutunu çalıştırın./models
Amazon Bedrock'u opencode ile kullanmak için:
-
Amazon Bedrock konsolundaki Model kataloğuna gidin ve istekte bulunun Dilediğiniz modellere ulaşabilirsiniz.
:::tip Amazon Bedrock'ta istediğiniz modele erişiminizin olması gerekiyor. :::
-
Kimlik doğrulamayı yapılandırın: Aşağıdaki yöntemlerden birini kullanın:
opencode'u çalıştırırken bu ortam değişkenlerinden birini ayarlayın:
# Option 1: Using AWS access keys AWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode # Option 2: Using named AWS profile AWS_PROFILE=my-profile opencode # Option 3: Using Bedrock bearer token AWS_BEARER_TOKEN_BEDROCK=XXX opencode
Veya bunları bash profilinize ekleyin:
export AWS_PROFILE=my-dev-profile export AWS_REGION=us-east-1
Projeye özel veya kalıcı yapılandırma için
opencode.jsonkullanın:{ "$schema": "https://opencode.ai/config.json", "provider": { "amazon-bedrock": { "options": { "region": "us-east-1", "profile": "my-aws-profile" } } } }Mevcut seçenekler:
region- AWS region (e.g.,us-east-1,eu-west-1)profile-~/.aws/credentials'den AWS adlı profilendpoint- VPC uç noktaları için özel uç nokta URL (genelbaseURLseçeneğinin takma adı)
:::tip Yapılandırma dosyası seçenekleri ortam değişkenlerine göre önceliklidir. :::
Bedrock için VPC uç noktaları kullanıyorsanız:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
"options": {
"region": "us-east-1",
"profile": "production",
"endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"
}
}
}
}:::note
endpoint seçeneği, AWS'ye özgü terminolojiyi kullanan genel baseURL seçeneğinin takma adıdır. Hem endpoint hem de baseURL belirtilirse, endpoint öncelikli olur.
:::
AWS_ACCESS_KEY_ID/AWS_SECRET_ACCESS_KEY: Bir IAM kullanıcısı oluşturun ve AWS Konsolunda erişim anahtarları oluşturunAWS_PROFILE:~/.aws/credentials'den adlandırılmış profilleri kullanın. İlk önceaws configure --profile my-profileveyaaws sso loginile yapılandırınAWS_BEARER_TOKEN_BEDROCK: Amazon Bedrock konsolundan uzun vadeli API anahtarları oluşturunAWS_WEB_IDENTITY_TOKEN_FILE/AWS_ROLE_ARN: EKS IRSA (IAM Hizmet Hesapları için Roller) veya OIDC federasyonuna sahip diğer Kubernetes ortamları için. Bu ortam değişkenleri, hizmet hesabı ek açıklamaları kullanılırken Kubernetes tarafından otomatik olarak eklenir.
Amazon Bedrock aşağıdaki kimlik doğrulama önceliğini kullanır:
- Taşıyıcı Belirteç -
AWS_BEARER_TOKEN_BEDROCKortam değişkeni veya/connectkomutundan belirteç - AWS Credential Chain - Profil, erişim anahtarları, paylaşılan kimlik bilgileri, IAM rolleri, Web Identity Tokens (EKS IRSA), örnek meta verileri
:::note
Bir taşıyıcı belirteç ayarlandığında (/connect veya AWS_BEARER_TOKEN_BEDROCK yoluyla), yapılandırılmış profiller dahil olmak üzere tüm AWS kimlik bilgisi yöntemlerine göre öncelik kazanır.
:::
-
İstediğiniz modeli seçmek için
/modelskomutunu çalıştırın./models
:::note
Özel çıkarım profilleri için anahtardaki modeli ve sağlayıcı adını kullanın ve id özelliğini arn olarak ayarlayın. Bu, doğru önbelleğe almayı sağlar:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
// ...
"models": {
"anthropic-claude-sonnet-4.5": {
"id": "arn:aws:bedrock:us-east-1:xxx:application-inference-profile/yyy"
}
}
}
}
}:::
-
Kaydolduktan sonra
/connectkomutunu çalıştırın ve Anthropic'i seçin./connect
-
Burada Claude Pro/Max seçeneğini seçebilirsiniz; tarayıcınız açılacaktır. ve sizden kimlik doğrulamanızı isteyeceğiz.
┌ Select auth method │ │ Claude Pro/Max │ Create an API Key │ Manually enter API Key └
-
Artık
/modelskomutunu kullandığınızda tüm Antropik modeller mevcut olmalıdır./models
:::info Claude Pro/Max aboneliğinizi opencode'da kullanmak Anthropic tarafından resmi olarak desteklenmemektedir. :::
Pro/Max aboneliğiniz yoksa API Anahtarı Oluştur seçeneğini de seçebilirsiniz. Ayrıca tarayıcınızı açacak ve Anthropic'te oturum açmanızı isteyecek ve terminalinize yapıştırabileceğiniz bir kod verecektir.
Veya zaten bir API anahtarınız varsa API Anahtarını Manuel Olarak Girin seçeneğini seçip terminalinize yapıştırabilirsiniz.
opencode'u, yerel LLM'leri OpenAI uyumlu bir API sunucusunun arkasında çalıştıran bir masaüstü uygulaması olan Atomic Chat aracılığıyla yerel modelleri kullanacak şekilde yapılandırabilirsiniz (varsayılan uç nokta http://127.0.0.1:1337/v1).
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"atomic-chat": {
"npm": "@ai-sdk/openai-compatible",
"name": "Atomic Chat (local)",
"options": {
"baseURL": "http://127.0.0.1:1337/v1"
},
"models": {
"<your-model-id>": {
"name": "<your-model-name>"
}
}
}
}
}Bu örnekte:
atomic-chatözel sağlayıcı kimliğidir. İstediğiniz herhangi bir dize olabilir.npmbu sağlayıcı için kullanılacak paketi belirtir. Burada, herhangi bir OpenAI uyumlu API için@ai-sdk/openai-compatiblekullanılır.namesağlayıcının arayüzde görüntülenen adıdır.options.baseURLyerel sunucunun uç noktasıdır. Host ve portu Atomic Chat kurulumunuzla eşleşecek şekilde değiştirin.modelsmodel kimliklerini görüntüleme adlarına eşleyen bir haritadır. Her ID,GET /v1/modelstarafından döndürülenidile eşleşmelidir — Atomic Chat'te yüklü kimlikleri listelemek içincurl http://127.0.0.1:1337/v1/modelsçalıştırın.
:::tip Araç çağrıları iyi çalışmıyorsa, tool calling desteği güçlü olan yüklü bir model seçin (örneğin, bir Qwen-Coder veya DeepSeek-Coder varyantı). :::
:::note "Üzgünüm ama bu isteğe yardımcı olamıyorum" hatalarıyla karşılaşırsanız Azure kaynağınızda içerik filtresini DefaultV2 yerine Default olarak değiştirmeyi deneyin. :::
-
Azure portal'a gidin ve bir Azure OpenAI kaynağı oluşturun. İhtiyacınız olacak:
- Kaynak adı: Bu, API bitiş noktanızın (
https://RESOURCE_NAME.openai.azure.com/) parçası olur - API anahtarı: Kaynağınızdan
KEY 1veyaKEY 2
- Kaynak adı: Bu, API bitiş noktanızın (
-
Azure AI Foundry'a gidin ve bir model dağıtın.
:::note opencode'un düzgün çalışması için dağıtım adının model adıyla eşleşmesi gerekir. :::
-
/connectkomutunu çalıştırın ve Azure'u arayın./connect
-
API anahtarınızı girin.
┌ API key │ │ └ enter
-
Kaynak adınızı ortam değişkeni olarak ayarlayın:
AZURE_RESOURCE_NAME=XXX opencode
Veya bash profilinize ekleyin:
export AZURE_RESOURCE_NAME=XXX -
Dağıtılan modelinizi seçmek için
/modelskomutunu çalıştırın./models
-
Azure portal'a gidin ve bir Azure OpenAI kaynağı oluşturun. İhtiyacınız olacak:
- Kaynak adı: Bu, API bitiş noktanızın (
https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/) parçası olur - API anahtarı: Kaynağınızdan
KEY 1veyaKEY 2
- Kaynak adı: Bu, API bitiş noktanızın (
-
Azure AI Foundry'a gidin ve bir model dağıtın.
:::note opencode'un düzgün çalışması için dağıtım adının model adıyla eşleşmesi gerekir. :::
-
/connectkomutunu çalıştırın ve Azure Cognitive Services'i arayın./connect
-
API anahtarınızı girin.
┌ API key │ │ └ enter
-
Kaynak adınızı ortam değişkeni olarak ayarlayın:
AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencode
Veya bash profilinize ekleyin:
export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX -
Dağıtılan modelinizi seçmek için
/modelskomutunu çalıştırın./models
-
Baseten adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve Baseten'i arayın./connect
-
Baseten API anahtarınızı girin.
┌ API key │ │ └ enter
-
Bir model seçmek için
/modelskomutunu çalıştırın./models
-
Cerebras console adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve Cerebras'ı arayın./connect
-
Cerebras API anahtarınızı girin.
┌ API key │ │ └ enter
-
Qwen 3 Coder 480B gibi bir model seçmek için
/modelskomutunu çalıştırın./models
Cloudflare AI Gateway, OpenAI, Anthropic, Workers AI ve daha fazlasındaki modellere birleşik bir uç nokta aracılığıyla erişmenizi sağlar. Unified Billing ile her sağlayıcı için ayrı API anahtarlarına ihtiyacınız yoktur.
-
Cloudflare dashboard'a gidin, AI > AI Ağ Geçidi'ne gidin ve yeni bir ağ geçidi oluşturun.
-
Hesap Kimliğinizi ve Ağ Geçidi Kimliğinizi ortam değişkenleri olarak ayarlayın.
export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-id export CLOUDFLARE_GATEWAY_ID=your-gateway-id
-
/connectkomutunu çalıştırın ve Cloudflare AI Gateway'i arayın./connect
-
Cloudflare API tokenınızı girin.
┌ API key │ │ └ enter
Veya bunu bir ortam değişkeni olarak ayarlayın.
export CLOUDFLARE_API_TOKEN=your-api-token -
Bir model seçmek için
/modelskomutunu çalıştırın./models
Opencode yapılandırmanız aracılığıyla da modeller ekleyebilirsiniz.
{ "$schema": "https://opencode.ai/config.json", "provider": { "cloudflare-ai-gateway": { "models": { "openai/gpt-4o": {}, "anthropic/claude-sonnet-4": {} } } } }
-
Cortecs console adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve Cortecs'i arayın./connect
-
Cortecs API anahtarınızı girin.
┌ API key │ │ └ enter
-
Kimi K2 Instruct gibi bir model seçmek için
/modelskomutunu çalıştırın./models
-
DeepSeek console'a gidin, bir hesap oluşturun ve Yeni API anahtarı oluştur'a tıklayın.
-
/connectkomutunu çalıştırın ve DeepSeek'i arayın./connect
-
DeepSeek API anahtarınızı girin.
┌ API key │ │ └ enter
-
DeepSeek V4 Pro gibi bir DeepSeek modeli seçmek için
/modelskomutunu çalıştırın./models
-
Deep Infra dashboard adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve Deep Infra'yı arayın./connect
-
Deep Infra API anahtarınızı girin.
┌ API key │ │ └ enter
-
Bir model seçmek için
/modelskomutunu çalıştırın./models
-
FrogBot dashboard adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve FrogBot'i arayın./connect
-
FrogBot API anahtarınızı girin.
┌ API key │ │ └ enter
-
Bir model seçmek için
/modelskomutunu çalıştırın./models
-
Fireworks AI console'a gidin, bir hesap oluşturun ve API Anahtarı Oluştur'a tıklayın.
-
/connectkomutunu çalıştırın ve Fireworks AI'yi arayın./connect
-
Fireworks AI API anahtarınızı girin.
┌ API key │ │ └ enter
-
Kimi K2 Instruct gibi bir model seçmek için
/modelskomutunu çalıştırın./models
GitLab Duo, GitLab'ın Anthropic proxy'si aracılığıyla yerel araç çağırma yetenekleriyle yapay zeka destekli aracılı sohbet sağlar.
-
/connectkomutunu çalıştırın ve GitLab'ı seçin./connect
-
Kimlik doğrulama yönteminizi seçin:
┌ Select auth method │ │ OAuth (Recommended) │ Personal Access Token └
OAuth'u seçtiğinizde tarayıcınız yetkilendirme için açılacaktır.
- Go to GitLab User Settings > Access Tokens
- Click Add new token
- Name:
OpenCode, Scopes:api - Belirteci kopyalayın (
glpat-ile başlar) - Terminale girin
-
Mevcut modelleri görmek için
/modelskomutunu çalıştırın./models
Üç Claude tabanlı model mevcuttur:
- duo-chat-haiku-4-5 (Varsayılan) - Hızlı görevler için hızlı yanıtlar
- duo-chat-sonnet-4-5 - Çoğu iş akışı için dengeli performans
- duo-chat-opus-4-5 - Karmaşık analizler için en yeteneklisi
:::note İstemiyorsanız 'GITLAB_TOKEN' ortam değişkenini de belirtebilirsiniz. to store token in opencode auth storage. :::
:::note[uyumluluk notu]
opencode, oturum başlığını oluşturmak gibi bazı AI görevleri için küçük bir model kullanır.
Varsayılan olarak Zen tarafından barındırılan gpt-5-nano'yu kullanacak şekilde yapılandırılmıştır. opencode'u kilitlemek için
yalnızca kendi GitLab tarafından barındırılan örneğinizi kullanmak için aşağıdakileri ekleyin:
opencode.json dosyası. Ayrıca oturum paylaşımını devre dışı bırakmanız da önerilir.
{
"$schema": "https://opencode.ai/config.json",
"small_model": "gitlab/duo-chat-haiku-4-5",
"share": "disabled"
}:::
Şirket içinde barındırılan GitLab örnekleri için:
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_TOKEN=glpat-...Örneğiniz özel bir AI Ağ Geçidi çalıştırıyorsa:
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.comVeya bash profilinize ekleyin:
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com
export GITLAB_TOKEN=glpat-...:::note GitLab yöneticiniz aşağıdakileri etkinleştirmelidir:
- Kullanıcı, grup veya örnek için Duo Agent Platform
- Feature flags (via Rails console):
agent_platform_claude_codethird_party_agents_enabled:::
Oauth'un kendi kendine barındırılan örneğiniz için çalışmasını sağlamak amacıyla
yeni bir uygulama (Ayarlar → Uygulamalar) ile
geri arama URL http://127.0.0.1:8080/callback ve aşağıdaki kapsamlar:
- api (Sizin adınıza API'a erişin)
- read_user (Kişisel bilgilerinizi okuyun)
- read_repository (Depoya salt okunur erişime izin verir)
Then expose application ID as environment variable:
export GITLAB_OAUTH_CLIENT_ID=your_application_id_hereDaha fazla belge opencode-gitlab-auth ana sayfasında.
opencode.json üzerinden özelleştirin:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"gitlab": {
"options": {
"instanceUrl": "https://gitlab.com"
}
}
}
}GitLab araçlarına (birleştirme istekleri, sorunlar, işlem hatları, CI/CD vb.) erişmek için:
{
"$schema": "https://opencode.ai/config.json",
"plugin": ["opencode-gitlab-plugin"]
}Bu eklenti, MR incelemeleri, sorun izleme, işlem hattı izleme ve daha fazlasını içeren kapsamlı GitLab veri havuzu yönetimi yetenekleri sağlar.
GitHub Copilot aboneliğinizi opencode'la kullanmak için:
:::note Bazı modelleri kullanmak için Pro+ aboneliği gerekebilir.
Bazı modellerin GitHub Copilot settings'da manuel olarak etkinleştirilmesi gerekir. :::
-
/connectkomutunu çalıştırın ve GitHub Copilot'u arayın./connect
-
github.com/login/device'a gidin ve kodu girin.
┌ Login with GitHub Copilot │ │ https://github.com/login/device │ │ Enter code: 8F43-6FCF │ └ Waiting for authorization...
-
Şimdi istediğiniz modeli seçmek için
/modelskomutunu çalıştırın./models
Google Vertex AI'yi opencode ile kullanmak için:
-
Google Cloud Console'daki Model Bahçesi'ne gidin ve şunları kontrol edin: Bölgenizde mevcut modeller.
:::note Vertex AI API etkinleştirilmiş bir Google Cloud projenizin olması gerekir. :::
-
Gerekli ortam değişkenlerini ayarlayın:
GOOGLE_CLOUD_PROJECT: Google Cloud proje kimliğinizVERTEX_LOCATION(isteğe bağlı): Vertex AI bölgesi (varsayılanıglobal'dir)- Kimlik Doğrulama (birini seçin):
GOOGLE_APPLICATION_CREDENTIALS: Hizmet hesabınızın yolu JSON anahtar dosyası- gcloud kullanarak kimlik doğrulaması yapın CLI:
gcloud auth application-default login
Bunları opencode çalıştırılırken ayarlayın.
GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode
Veya bunları bash profilinize ekleyin.
export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json export GOOGLE_CLOUD_PROJECT=your-project-id export VERTEX_LOCATION=global
:::tip
global bölgesi, hiçbir ekstra maliyet olmaksızın kullanılabilirliği artırır ve hataları azaltır. Veri yerleşimi gereksinimleri için bölgesel uç noktaları (ör. us-central1) kullanın. Daha fazla bilgi
:::
-
İstediğiniz modeli seçmek için
/modelskomutunu çalıştırın./models
-
Groq console'a gidin, API Anahtarı Oluştur'a tıklayın ve anahtarı kopyalayın.
-
/connectkomutunu çalıştırın ve Groq'u arayın./connect
-
Sağlayıcının API anahtarını girin.
┌ API key │ │ └ enter
-
İstediğinizi seçmek için
/modelskomutunu çalıştırın./models
Hugging Face Inference Providers 17'den fazla sağlayıcı tarafından desteklenen açık modellere erişim sağlar.
-
Çıkarım Sağlayıcılara çağrı yapma iznine sahip bir belirteç oluşturmak için Hugging Face settings adresine gidin.
-
/connectkomutunu çalıştırın ve Hugging Face'i arayın./connect
-
Hugging Face tokenınızı girin.
┌ API key │ │ └ enter
-
Kimi-K2-Instruct veya GLM-4.6 gibi bir model seçmek için
/modelskomutunu çalıştırın./models
Helicone, AI uygulamalarınız için günlük kaydı, izleme ve analiz sağlayan bir LLM gözlemlenebilirlik platformudur. Helicone AI Gateway, taleplerinizi modele göre otomatik olarak uygun sağlayıcıya yönlendirir.
-
Helicone adresine gidin, bir hesap oluşturun ve kontrol panelinizden bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve Helicone'yu arayın./connect
-
Helicone API anahtarınızı girin.
┌ API key │ │ └ enter
-
Bir model seçmek için
/modelskomutunu çalıştırın./models
Daha fazla sağlayıcı ve önbelleğe alma ve hız sınırlama gibi gelişmiş özellikler için Helicone documentation'yi kontrol edin.
Helicone'un opencode aracılığıyla otomatik olarak yapılandırılmayan bir özelliği veya modelini görmeniz durumunda bunu her zaman kendiniz yapılandırabilirsiniz.
İşte Helicone's Model Directory, eklemek istediğiniz modellerin kimliklerini almak için buna ihtiyacınız olacak.
Helicone, önbelleğe alma, kullanıcı izleme ve oturum yönetimi gibi özellikler için özel başlıkları destekler. options.headers kullanarak bunları sağlayıcınızın yapılandırmasına ekleyin:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
"headers": {
"Helicone-Cache-Enabled": "true",
"Helicone-User-Id": "opencode",
},
},
},
},
}Helicone'un Sessions özelliği, ilgili LLM isteklerini birlikte gruplandırmanıza olanak tanır. Her opencode görüşmesini Helicone'da bir oturum olarak otomatik olarak kaydetmek için opencode-helicone-session eklentisini kullanın.
npm install -g opencode-helicone-sessionYapılandırmanıza ekleyin.
{
"plugin": ["opencode-helicone-session"]
}Eklenti isteklerinize Helicone-Session-Id ve Helicone-Session-Name başlıklarını enjekte eder. Helicone'un Oturumlar sayfasında her opencode görüşmesinin ayrı bir oturum olarak listelendiğini göreceksiniz.
| Başlık | Açıklama |
|---|---|
Helicone-Cache-Enabled |
Enable response caching (true/false) |
Helicone-User-Id |
Track metrics by user |
Helicone-Property-[Name] |
Add custom properties (e.g., Helicone-Property-Environment) |
Helicone-Prompt-Id |
İstekleri bilgi istemi sürümleriyle ilişkilendirin |
Mevcut tüm başlıklar için Helicone Header Directory'a bakın.
opencode'u yerel modelleri kullanacak şekilde llama.cpp's llama-server yardımcı programını kullanarak yapılandırabilirsiniz.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"llama.cpp": {
"npm": "@ai-sdk/openai-compatible",
"name": "llama-server (local)",
"options": {
"baseURL": "http://127.0.0.1:8080/v1"
},
"models": {
"qwen3-coder:a3b": {
"name": "Qwen3-Coder: a3b-30b (local)",
"limit": {
"context": 128000,
"output": 65536
}
}
}
}
}
}Bu örnekte:
llama.cppözel sağlayıcı kimliğidir. Bu istediğiniz herhangi bir dize olabilir.npmbu sağlayıcı için kullanılacak paketi belirtir. Burada@ai-sdk/openai-compatible, herhangi bir OpenAI uyumlu API için kullanılır.namesağlayıcının kullanıcı arayüzündeki görünen adıdır.options.baseURLyerel sunucunun uç noktasıdır.modelsmodel kimliklerinin konfigürasyonlarına ait bir haritasıdır. Model adı, model seçim listesinde görüntülenecektir.
IO.NET, çeşitli kullanım durumları için optimize edilmiş 17 model sunar:
-
IO.NET console adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve IO.NET öğesini arayın./connect
-
IO.NET API anahtarınızı girin.
┌ API key │ │ └ enter
-
Bir model seçmek için
/modelskomutunu çalıştırın./models
LM Studio aracılığıyla opencode'u yerel modelleri kullanacak şekilde yapılandırabilirsiniz.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
}
}Bu örnekte:
lmstudioözel sağlayıcı kimliğidir. Bu istediğiniz herhangi bir dize olabilir.npmbu sağlayıcı için kullanılacak paketi belirtir. Burada@ai-sdk/openai-compatible, herhangi bir OpenAI uyumlu API için kullanılır.namesağlayıcının kullanıcı arayüzündeki görünen adıdır.options.baseURLyerel sunucunun uç noktasıdır.modelsmodel kimliklerinin konfigürasyonlarına ait bir haritasıdır. Model adı, model seçim listesinde görüntülenecektir.
Moonshot AI'dan Kimi K2'yi kullanmak için:
-
Moonshot AI console'a gidin, bir hesap oluşturun ve API anahtarı oluştur'a tıklayın.
-
/connectkomutunu çalıştırın ve Moonshot AI'yi arayın./connect
-
Moonshot API anahtarınızı girin.
┌ API key │ │ └ enter
-
Kimi K2 seçmek için
/modelskomutunu çalıştırın./models
-
MiniMax API Console adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve MiniMax'ı arayın./connect
-
MiniMax API anahtarınızı girin.
┌ API key │ │ └ enter
-
M2.1 gibi bir model seçmek için
/modelskomutunu çalıştırın./models
-
Nebius Token Factory console'a gidin, bir hesap oluşturun ve Anahtar Ekle'ye tıklayın.
-
/connectkomutunu çalıştırın ve Nebius Token Factory'yi arayın./connect
-
Nebius Token Factory API anahtarınızı girin.
┌ API key │ │ └ enter
-
Kimi K2 Instruct gibi bir model seçmek için
/modelskomutunu çalıştırın./models
Ollama aracılığıyla opencode'u yerel modelleri kullanacak şekilde yapılandırabilirsiniz.
:::tip Ollama kendisini opencode için otomatik olarak yapılandırabilir. Ayrıntılar için Ollama integration docs'a bakın. :::
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}Bu örnekte:
ollamaözel sağlayıcı kimliğidir. Bu istediğiniz herhangi bir dize olabilir.npmbu sağlayıcı için kullanılacak paketi belirtir. Burada@ai-sdk/openai-compatible, herhangi bir OpenAI uyumlu API için kullanılır.namesağlayıcının kullanıcı arayüzündeki görünen adıdır.options.baseURLyerel sunucunun uç noktasıdır.modelsmodel kimliklerinin konfigürasyonlarına ait bir haritasıdır. Model adı, model seçim listesinde görüntülenecektir.
:::tip
Araç çağrıları çalışmıyorsa Ollama'da num_ctx değerini artırmayı deneyin. 16k - 32k civarında başlayın.
:::
Ollama Cloud'u opencode ile kullanmak için:
-
https://ollama.com/ adresine gidin ve oturum açın veya bir hesap oluşturun.
-
Ayarlar > Anahtarlar'a gidin ve yeni bir API anahtarı oluşturmak için API Anahtarı Ekle'yi tıklayın.
-
opencode'da kullanmak için API anahtarını kopyalayın.
-
/connectkomutunu çalıştırın ve Ollama Cloud'u arayın./connect
-
Ollama Cloud API anahtarınızı girin.
┌ API key │ │ └ enter
-
Önemli: opencode'da bulut modellerini kullanmadan önce model bilgilerini yerel olarak almanız gerekir:
ollama pull gpt-oss:20b-cloud
-
Ollama Cloud modelinizi seçmek için
/modelskomutunu çalıştırın./models
ChatGPT Plus or Pro'a kaydolmanızı öneririz.
-
Kaydolduktan sonra
/connectkomutunu çalıştırın ve OpenAI'yi seçin./connect
-
Burada ChatGPT Plus/Pro seçeneğini seçebilirsiniz, tarayıcınız açılacaktır. ve sizden kimlik doğrulamanızı isteyeceğiz.
┌ Select auth method │ │ ChatGPT Plus/Pro │ Manually enter API Key └
-
Artık
/modelskomutunu kullandığınızda tüm OpenAI modelleri mevcut olmalıdır./models
Zaten bir API anahtarınız varsa, API Anahtarını Manuel Olarak Girin seçeneğini seçip terminalinize yapıştırabilirsiniz.
OpenCode Zen, opencode ekibinin test edip doğruladığı modellerin bir listesidir. Daha fazla bilgi.
-
OpenCode Zen'de oturum açın ve API Anahtarı Oluştur'u tıklayın.
-
/connectkomutunu çalıştırın ve OpenCode Zen'i arayın./connect
-
opencode API anahtarınızı girin.
┌ API key │ │ └ enter
-
Qwen 3 Coder 480B gibi bir model seçmek için
/modelskomutunu çalıştırın./models
-
OpenRouter dashboard'a gidin, API Anahtarı Oluştur'a tıklayın ve anahtarı kopyalayın.
-
/connectkomutunu çalıştırın ve OpenRouter'ı arayın./connect
-
Sağlayıcının API anahtarını girin.
┌ API key │ │ └ enter
-
Birçok OpenRouter modeli varsayılan olarak önceden yüklenmiştir; istediğiniz modeli seçmek için
/modelskomutunu çalıştırın./models
opencode yapılandırmanız aracılığıyla ek modeller de ekleyebilirsiniz.
{ "$schema": "https://opencode.ai/config.json", "provider": { "openrouter": { "models": { "somecoolnewmodel": {} } } } } -
Bunları ayrıca opencode yapılandırmanız aracılığıyla da özelleştirebilirsiniz. Burada bir sağlayıcı belirtmeye ilişkin bir örnek verilmiştir
{ "$schema": "https://opencode.ai/config.json", "provider": { "openrouter": { "models": { "moonshotai/kimi-k2": { "options": { "provider": { "order": ["baseten"], "allow_fallbacks": false } } } } } } }
SAP AI Core, birleşik bir platform aracılığıyla OpenAI, Anthropic, Google, Amazon, Meta, Mistral ve AI21'den 40'tan fazla modele erişim sağlar.
-
SAP BTP Cockpit sunucunuza gidin, SAP AI Core hizmet örneğinize gidin ve bir hizmet anahtarı oluşturun.
:::tip Hizmet anahtarı,
clientid,clientsecret,urlveserviceurls.AI_API_URLiçeren bir JSON nesnesidir. AI Core örneğinizi BTP Kokpitinde Hizmetler > Örnekler ve Abonelikler altında bulabilirsiniz. ::: -
/connectkomutunu çalıştırın ve SAP AI Core arayın./connect
-
Servis anahtarınızı JSON girin.
┌ Service key │ │ └ enter
Veya
AICORE_SERVICE_KEYortam değişkenini ayarlayın:AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencodeVeya bash profilinize ekleyin:
export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}'
-
İsteğe bağlı olarak dağıtım kimliğini ve kaynak grubunu ayarlayın:
AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode
:::note Bu ayarlar isteğe bağlıdır ve SAP AI Core kurulumunuza göre yapılandırılmalıdır. :::
-
40'tan fazla mevcut model arasından seçim yapmak için
/modelskomutunu çalıştırın./models
STACKIT AI Model Serving, Llama, Mistral ve Qwen gibi LLM'lere odaklanarak, Avrupa altyapısında maksimum veri egemenliğine sahip AI modelleri için tam olarak yönetilen bağımsız barındırma ortamı sağlar.
-
STACKIT Portal adresine gidin, AI Model Serving'e gidin ve projeniz için bir yetkilendirme belirteci oluşturun.
:::tip Yetkilendirme belirteçleri oluşturmadan önce bir STACKIT müşteri hesabına, kullanıcı hesabına ve projesine ihtiyacınız vardır. :::
-
/connectkomutunu çalıştırın ve STACKIT'i arayın./connect
-
STACKIT AI Model Serving yetkilendirme belirtecinizi girin.
┌ API key │ │ └ enter
-
Qwen3-VL 235B veya Llama 3.3 70B gibi mevcut modellerden seçim yapmak için
/modelskomutunu çalıştırın./models
-
OVHcloud panel'a gidin.
Public Cloudbölümüne gidin,AI & Machine Learning>AI EndpointsveAPI Keyssekmesinde Yeni bir API anahtarı oluştur'u tıklayın. -
/connectkomutunu çalıştırın ve OVHcloud AI Endpoints'i arayın./connect
-
OVHcloud AI Uç Noktaları API anahtarınızı girin.
┌ API key │ │ └ enter
-
gpt-oss-120b gibi bir model seçmek için
/modelskomutunu çalıştırın./models
Scaleway Generative APIs'yi Opencode ile kullanmak için:
-
Yeni bir API anahtarı oluşturmak için Scaleway Console IAM settings'a gidin.
-
/connectkomutunu çalıştırın ve Scaleway'i arayın./connect
-
Scaleway API anahtarınızı girin.
┌ API key │ │ └ enter
-
devstral-2-123b-instruct-2512 veya gpt-oss-120b gibi bir model seçmek için
/modelskomutunu çalıştırın./models
-
Together AI console'a gidin, bir hesap oluşturun ve Anahtar Ekle'ye tıklayın.
-
/connectkomutunu çalıştırın ve Together AI'yi arayın./connect
-
Together AI API anahtarınızı girin.
┌ API key │ │ └ enter
-
Kimi K2 Instruct gibi bir model seçmek için
/modelskomutunu çalıştırın./models
-
Venice AI console adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve Venice AI'yi arayın./connect
-
Venice AI API anahtarınızı girin.
┌ API key │ │ └ enter
-
Llama 3.3 70B gibi bir model seçmek için
/modelskomutunu çalıştırın./models
Vercel AI Gateway, OpenAI, Anthropic, Google, xAI ve daha fazlasındaki modellere birleşik bir uç nokta aracılığıyla erişmenizi sağlar. Modeller herhangi bir fark olmadan liste fiyatıyla sunulmaktadır.
-
Vercel dashboard'a gidin, AI Ağ Geçidi sekmesine gidin ve yeni bir API anahtarı oluşturmak için API anahtarlarına tıklayın.
-
/connectkomutunu çalıştırın ve Vercel AI Gateway'i arayın./connect
-
Vercel AI Gateway API anahtarınızı girin.
┌ API key │ │ └ enter
-
Bir model seçmek için
/modelskomutunu çalıştırın./models
Modelleri opencode yapılandırmanız aracılığıyla da özelleştirebilirsiniz. Sağlayıcı yönlendirme sırasını belirtmeye ilişkin bir örneği burada bulabilirsiniz.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"vercel": {
"models": {
"anthropic/claude-sonnet-4": {
"options": {
"order": ["anthropic", "vertex"]
}
}
}
}
}
}Bazı yararlı yönlendirme seçenekleri:
| Seçenek | Açıklama |
|---|---|
order |
Denenecek sağlayıcı sırası |
only |
Belirli sağlayıcılarla sınırla |
zeroDataRetention |
Yalnızca sıfır veri saklama politikasına sahip sağlayıcıları kullanın |
-
xAI console adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve xAI'yi arayın./connect
-
xAI API anahtarınızı girin.
┌ API key │ │ └ enter
-
Grok Beta gibi bir model seçmek için
/modelskomutunu çalıştırın./models
-
Z.AI API console'a gidin, bir hesap oluşturun ve Yeni bir API anahtarı oluştur'a tıklayın.
-
/connectkomutunu çalıştırın ve Z.AI'yi arayın./connect
GLM Kodlama Planı'na aboneyseniz Z.AI Kodlama Planı'nı seçin.
-
Z.AI API anahtarınızı girin.
┌ API key │ │ └ enter
-
GLM-4.7 gibi bir model seçmek için
/modelskomutunu çalıştırın./models
-
ZenMux dashboard'a gidin, API Anahtarı Oluştur'a tıklayın ve anahtarı kopyalayın.
-
/connectkomutunu çalıştırın ve ZenMux'u arayın./connect
-
Sağlayıcının API anahtarını girin.
┌ API key │ │ └ enter
-
Çoğu ZenMux modeli varsayılan olarak önceden yüklenmiştir; istediğinizi seçmek için
/modelskomutunu çalıştırın./models
opencode yapılandırmanız aracılığıyla ek modeller de ekleyebilirsiniz.
{ "$schema": "https://opencode.ai/config.json", "provider": { "zenmux": { "models": { "somecoolnewmodel": {} } } } }
/connect komutunda listelenmeyen herhangi bir OpenAI uyumlu sağlayıcıyı eklemek için:
:::tip OpenAI uyumlu herhangi bir sağlayıcıyı opencode ile kullanabilirsiniz. Çoğu modern yapay zeka sağlayıcısı OpenAI uyumlu API'ler sunar. :::
-
/connectkomutunu çalıştırın ve Diğer seçeneğine ilerleyin.$ /connect ┌ Add credential │ ◆ Select provider │ ... │ ● Other └
-
Sağlayıcı için benzersiz bir kimlik girin.
$ /connect ┌ Add credential │ ◇ Enter provider id │ myprovider └
:::note Unutulmaz bir kimlik seçin, bunu yapılandırma dosyanızda kullanacaksınız. :::
-
Sağlayıcı için API anahtarınızı girin.
$ /connect ┌ Add credential │ ▲ This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples. │ ◇ Enter your API key │ sk-... └
-
Proje dizininizde
opencode.jsondosyanızı oluşturun veya güncelleyin:{ "$schema": "https://opencode.ai/config.json", "provider": { "myprovider": { "npm": "@ai-sdk/openai-compatible", "name": "My AI ProviderDisplay Name", "options": { "baseURL": "https://api.myprovider.com/v1" }, "models": { "my-model-name": { "name": "My Model Display Name" } } } } }Yapılandırma seçenekleri şunlardır:
- npm: Kullanılacak AI SDK paketi, OpenAI uyumlu sağlayıcılar için
@ai-sdk/openai-compatible - name: UI'daki görünen ad.
- modeller: Mevcut modeller.
- options.baseURL: API endpoint URL.
- options.apiKey: Kimlik doğrulama kullanılmıyorsa isteğe bağlı olarak API anahtarını ayarlayın.
- options.headers: İsteğe bağlı olarak özel başlıklar ayarlayın.
Aşağıdaki örnekte gelişmiş seçenekler hakkında daha fazla bilgi bulabilirsiniz.
- npm: Kullanılacak AI SDK paketi, OpenAI uyumlu sağlayıcılar için
-
/modelskomutunu çalıştırın; özel sağlayıcınız ve modelleriniz seçim listesinde görünecektir.
Burada apiKey, headers ve model limit seçeneklerini ayarlayan bir örnek verilmiştir.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI ProviderDisplay Name",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:ANTHROPIC_API_KEY}",
"headers": {
"Authorization": "Bearer custom-token"
}
},
"models": {
"my-model-name": {
"name": "My Model Display Name",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}Yapılandırma ayrıntıları:
- apiKey:
envdeğişken söz dizimini kullanarak ayarlayın, daha fazla bilgi. - headers: Her istekle birlikte gönderilen özel başlıklar.
- limit.context: Modelin kabul ettiği maksimum giriş tokenları.
- limit.output: Modelin üretebileceği maksimum token sayısı.
limit alanları opencode'un ne kadar bağlamınız kaldığını anlamasını sağlar. Standart sağlayıcılar bunları models.dev'den otomatik olarak alır.
Sağlayıcıyı yapılandırma konusunda sorun yaşıyorsanız aşağıdakileri kontrol edin:
-
Kimlik doğrulama kurulumunu kontrol edin: Kimlik bilgilerinin geçerli olup olmadığını görmek için
opencode auth listkomutunu çalıştırın. sağlayıcı için yapılandırmanıza eklenir.Bu, kimlik doğrulaması için ortam değişkenlerine güvenen Amazon Bedrock gibi sağlayıcılar için geçerli değildir.
-
Özel sağlayıcılar için opencode yapılandırmasını kontrol edin ve:
/connectkomutunda kullanılan sağlayıcı kimliğinin, opencode yapılandırmanızdaki kimlikle eşleştiğinden emin olun.- Sağlayıcı için doğru npm paketi kullanılıyor. Örneğin Cerebras için
@ai-sdk/cerebraskullanın. Diğer tüm OpenAI uyumlu sağlayıcılar için@ai-sdk/openai-compatiblekullanın. options.baseURLalanında doğru API bitiş noktasının kullanıldığını kontrol edin.
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", }, "models": { "gpt-4o": { // Model ID (from Helicone's model directory page) "name": "GPT-4o", // Your own custom name for the model }, "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4", }, }, }, }, }