| title | Провайдеры |
|---|---|
| description | Использование любого провайдера LLM в opencode. |
import config from "../../../../config.mjs" export const console = config.console
opencode использует AI SDK и Models.dev для поддержки более 75 поставщиков LLM и поддерживает запуск локальных моделей.
Чтобы добавить провайдера, вам необходимо:
- Добавьте ключи API для провайдера с помощью команды
/connect. - Настройте провайдера в вашей конфигурации opencode.
Когда вы добавляете ключи API провайдера с помощью команды /connect, они сохраняются
в ~/.local/share/opencode/auth.json.
Вы можете настроить поставщиков через раздел provider в вашем opencode.
конфиг.
Вы можете настроить базовый URL-адрес для любого провайдера, установив параметр baseURL. Это полезно при использовании прокси-сервисов или пользовательских конечных точек.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}OpenCode Zen — это список моделей, предоставленный командой opencode, которые были протестировано и проверено на хорошую работу с opencode. Подробнее.
:::tip Если вы новичок, мы рекомендуем начать с OpenCode Zen. :::
-
Запустите команду
/connectв TUI, выберитеOpenCode Zenи перейдите по адресу opencode.ai/auth./connect
-
Войдите в систему, добавьте свои платежные данные и скопируйте ключ API.
-
Вставьте свой ключ API.
┌ API key │ │ └ enter
-
Запустите
/modelsв TUI, чтобы просмотреть список рекомендуемых нами моделей./models
Он работает как любой другой поставщик в opencode и его использование совершенно необязательно.
OpenCode Go — это недорогой план подписки, обеспечивающий надежный доступ к популярным открытым моделям кодирования, предоставляемым командой opencode, которые были протестированы и проверены на хорошую работу с opencode.
-
Запустите команду
/connectв TUI, выберитеOpenCode Goи перейдите по адресу opencode.ai/auth./connect
-
Войдите в систему, добавьте свои платежные данные и скопируйте ключ API.
-
Вставьте свой ключ API.
┌ API key │ │ └ enter
-
Запустите
/modelsв TUI, чтобы просмотреть список рекомендуемых нами моделей./models
Он работает как любой другой поставщик в opencode и его использование совершенно необязательно.
Рассмотрим некоторых провайдеров подробнее. Если вы хотите добавить провайдера в список, смело открывайте PR.
:::note Не видите здесь провайдера? Откройте PR. :::
-
Перейдите в консоль 302.AI](https://302.ai/), создайте учетную запись и сгенерируйте ключ API.
-
Запустите команду
/connectи найдите 302.AI./connect
-
Введите свой ключ API 302.AI.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать модель./models
Чтобы использовать Amazon Bedrock с opencode:
-
Перейдите в Каталог моделей в консоли Amazon Bedrock и запросите доступ к нужным моделям.
:::tip Вам необходимо иметь доступ к нужной модели в Amazon Bedrock. :::
-
Настройте аутентификацию одним из следующих способов:
Установите одну из этих переменных среды при запуске opencode:
# Option 1: Using AWS access keys AWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode # Option 2: Using named AWS profile AWS_PROFILE=my-profile opencode # Option 3: Using Bedrock bearer token AWS_BEARER_TOKEN_BEDROCK=XXX opencode
Или добавьте их в свой профиль bash:
export AWS_PROFILE=my-dev-profile export AWS_REGION=us-east-1
Для конкретной или постоянной конфигурации проекта используйте
opencode.json:{ "$schema": "https://opencode.ai/config.json", "provider": { "amazon-bedrock": { "options": { "region": "us-east-1", "profile": "my-aws-profile" } } } }Доступные варианты:
region– регион AWS (например,us-east-1,eu-west-1).profile– именованный профиль AWS из~/.aws/credentials.endpoint— URL-адрес пользовательской конечной точки для конечных точек VPC (псевдоним для общей опцииbaseURL).
:::tip Параметры файла конфигурации имеют приоритет над переменными среды. :::
Если вы используете конечные точки VPC для Bedrock:
{ "$schema": "https://opencode.ai/config.json", "provider": { "amazon-bedrock": { "options": { "region": "us-east-1", "profile": "production", "endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com" } } } }:::note Параметр
endpoint— это псевдоним общего параметраbaseURL, использующий терминологию, специфичную для AWS. Если указаны иendpoint, иbaseURL,endpointимеет приоритет. :::AWS_ACCESS_KEY_ID/AWS_SECRET_ACCESS_KEY: создайте пользователя IAM и сгенерируйте ключи доступа в консоли AWS.AWS_PROFILE: использовать именованные профили из~/.aws/credentials. Сначала настройтеaws configure --profile my-profileилиaws sso login.AWS_BEARER_TOKEN_BEDROCK: создание долгосрочных ключей API из консоли Amazon Bedrock.AWS_WEB_IDENTITY_TOKEN_FILE/AWS_ROLE_ARN: для EKS IRSA (роли IAM для учетных записей служб) или других сред Kubernetes с федерацией OIDC. Эти переменные среды автоматически вводятся Kubernetes при использовании аннотаций учетной записи службы.
Amazon Bedrock использует следующий приоритет аутентификации:
- Токен носителя — переменная среды
AWS_BEARER_TOKEN_BEDROCKили токен из команды/connect. - Цепочка учетных данных AWS — профиль, ключи доступа, общие учетные данные, роли IAM, токены веб-идентификации (EKS IRSA), метаданные экземпляра.
:::note Когда токен-носитель установлен (через
/connectилиAWS_BEARER_TOKEN_BEDROCK), он имеет приоритет над всеми методами учетных данных AWS, включая настроенные профили. ::: -
Запустите команду
/models, чтобы выбрать нужную модель./models
:::note
Для пользовательских профилей вывода используйте имя модели и поставщика в ключе и задайте для свойства id значение arn. Это обеспечивает правильное кэширование:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
// ...
"models": {
"anthropic-claude-sonnet-4.5": {
"id": "arn:aws:bedrock:us-east-1:xxx:application-inference-profile/yyy"
}
}
}
}
}:::
-
После регистрации введите команду
/connectи выберите Anthropic./connect
-
Здесь вы можете выбрать опцию Claude Pro/Max, и ваш браузер откроется. и попросите вас пройти аутентификацию.
┌ Select auth method │ │ Claude Pro/Max │ Create an API Key │ Manually enter API Key └
-
Теперь все модели Anthropic должны быть доступны при использовании команды
/models./models
:::info Использование вашей подписки Claude Pro/Max в opencode официально не поддерживается Anthropic. :::
Вы также можете выбрать Создать ключ API, если у вас нет подписки Pro/Max. Он также откроет ваш браузер и попросит вас войти в Anthropic и предоставит вам код, который вы можете вставить в свой терминал.
Или, если у вас уже есть ключ API, вы можете выбрать Ввести ключ API вручную и вставить его в свой терминал.
Вы можете настроить opencode для работы с локальными моделями через Atomic Chat — десктопное приложение, которое запускает локальные LLM за OpenAI-совместимым API-сервером (конечная точка по умолчанию http://127.0.0.1:1337/v1).
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"atomic-chat": {
"npm": "@ai-sdk/openai-compatible",
"name": "Atomic Chat (local)",
"options": {
"baseURL": "http://127.0.0.1:1337/v1"
},
"models": {
"<your-model-id>": {
"name": "<your-model-name>"
}
}
}
}
}В этом примере:
atomic-chat— пользовательский идентификатор провайдера. Это может быть любая строка.npmуказывает пакет, используемый для этого провайдера. Здесь используется@ai-sdk/openai-compatibleдля любых OpenAI-совместимых API.name— отображаемое имя провайдера в интерфейсе.options.baseURL— конечная точка локального сервера. Измените хост и порт в соответствии с вашей конфигурацией Atomic Chat.models— карта идентификаторов моделей и их отображаемых имён. Каждый ID должен совпадать со значениемid, которое возвращаетGET /v1/models— выполнитеcurl http://127.0.0.1:1337/v1/models, чтобы увидеть ID моделей, загруженных в Atomic Chat.
:::tip Если вызовы инструментов работают нестабильно, выберите загруженную модель с хорошей поддержкой tool calling (например, вариант из семейств Qwen-Coder или DeepSeek-Coder). :::
:::note Если вы столкнулись с ошибками «Извините, но я не могу помочь с этим запросом», попробуйте изменить фильтр содержимого с DefaultV2 на Default в своем ресурсе Azure. :::
-
Перейдите на портал Azure и создайте ресурс Azure OpenAI. Вам понадобится:
- Имя ресурса: оно становится частью вашей конечной точки API (
https://RESOURCE_NAME.openai.azure.com/). - Ключ API:
KEY 1илиKEY 2из вашего ресурса.
- Имя ресурса: оно становится частью вашей конечной точки API (
-
Перейдите в Azure AI Foundry и разверните модель.
:::примечание Для правильной работы opencode имя развертывания должно совпадать с именем модели. :::
-
Запустите команду
/connectи найдите Azure./connect
-
Введите свой ключ API.
┌ API key │ │ └ enter
-
Задайте имя ресурса как переменную среды:
AZURE_RESOURCE_NAME=XXX opencode
Или добавьте его в свой профиль bash:
export AZURE_RESOURCE_NAME=XXX -
Запустите команду
/models, чтобы выбрать развернутую модель./models
-
Перейдите на портал Azure и создайте ресурс Azure OpenAI. Вам понадобится:
- Имя ресурса: оно становится частью вашей конечной точки API (
https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/). - Ключ API:
KEY 1илиKEY 2из вашего ресурса.
- Имя ресурса: оно становится частью вашей конечной точки API (
-
Перейдите в Azure AI Foundry и разверните модель.
:::примечание Для правильной работы opencode имя развертывания должно совпадать с именем модели. :::
-
Запустите команду
/connectи найдите Azure Cognitive Services./connect
-
Введите свой ключ API.
┌ API key │ │ └ enter
-
Задайте имя ресурса как переменную среды:
AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencode
Или добавьте его в свой профиль bash:
export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX -
Запустите команду
/models, чтобы выбрать развернутую модель./models
-
Перейдите в Baseten, создайте учетную запись и сгенерируйте ключ API.
-
Запустите команду
/connectи найдите Baseten./connect
-
Введите свой ключ API Baseten.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать модель./models
-
Перейдите в консоль Cerebras, создайте учетную запись и сгенерируйте ключ API.
-
Запустите команду
/connectи найдите Cerebras./connect
-
Введите свой ключ API Cerebras.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать такую модель, как Qwen 3 Coder 480B./models
Cloudflare AI Gateway позволяет вам получать доступ к моделям OpenAI, Anthropic, Workers AI и т. д. через единую конечную точку. Благодаря Unified Billing вам не нужны отдельные ключи API для каждого провайдера.
-
Перейдите на панель управления Cloudflare, выберите AI > AI Gateway и создайте новый шлюз.
-
Установите идентификатор своей учетной записи и идентификатор шлюза в качестве переменных среды.
export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-id export CLOUDFLARE_GATEWAY_ID=your-gateway-id
-
Запустите команду
/connectи найдите Cloudflare AI Gateway./connect
-
Введите свой токен API Cloudflare.
┌ API key │ │ └ enter
Или установите его как переменную среды.
export CLOUDFLARE_API_TOKEN=your-api-token -
Запустите команду
/models, чтобы выбрать модель./models
Вы также можете добавлять модели через конфигурацию opencode.
{ "$schema": "https://opencode.ai/config.json", "provider": { "cloudflare-ai-gateway": { "models": { "openai/gpt-4o": {}, "anthropic/claude-sonnet-4": {} } } } }
-
Перейдите в консоль Cortecs, создайте учетную запись и сгенерируйте ключ API.
-
Запустите команду
/connectи найдите Cortecs./connect
-
Введите свой ключ API Cortecs.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать такую модель, как Kimi K2 Instruct./models
-
Перейдите в консоль DeepSeek, создайте учетную запись и нажмите Создать новый ключ API.
-
Запустите команду
/connectи найдите DeepSeek./connect
-
Введите свой ключ API DeepSeek.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать модель DeepSeek, например DeepSeek V4 Pro./models
-
Перейдите на панель мониторинга Deep Infra](https://deepinfra.com/dash), создайте учетную запись и сгенерируйте ключ API.
-
Запустите команду
/connectи найдите Deep Infra./connect
-
Введите свой ключ API Deep Infra.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать модель./models
-
Перейдите на панель FrogBot, создайте учетную запись и сгенерируйте ключ API.
-
Запустите команду
/connectи найдите FrogBot./connect
-
Введите ключ API FrogBot.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать модель./models
-
Перейдите в консоль Fireworks AI, создайте учетную запись и нажмите Создать ключ API.
-
Запустите команду
/connectи найдите Fireworks AI./connect
-
Введите ключ API Fireworks AI.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать такую модель, как Kimi K2 Instruct./models
GitLab Duo предоставляет агентский чат на базе искусственного интеллекта со встроенными возможностями вызова инструментов через прокси-сервер GitLab Anthropic.
-
Запустите команду
/connectи выберите GitLab./connect
-
Выберите метод аутентификации:
┌ Select auth method │ │ OAuth (Recommended) │ Personal Access Token └
Выберите OAuth, и ваш браузер откроется для авторизации.
- Перейдите в Настройки пользователя GitLab > Токены доступа.
- Нажмите Добавить новый токен.
- Имя:
OpenCode, Области применения:api - Скопируйте токен (начинается с
glpat-) - Введите его в терминал
-
Запустите команду
/models, чтобы просмотреть доступные модели./models
Доступны три модели на основе Claude:
- duo-chat-haiku-4-5 (по умолчанию) — быстрые ответы на быстрые задачи.
- duo-chat-sonnet-4-5 — сбалансированная производительность для большинства рабочих процессов.
- duo-chat-opus-4-5 — Наиболее способен к комплексному анализу.
:::note Вы также можете указать переменную среды «GITLAB_TOKEN», если не хотите. для хранения токена в хранилище аутентификации opencode. :::
:::note[примечание о соответствии]
opencode использует небольшую модель для некоторых задач ИИ, таких как создание заголовка сеанса.
По умолчанию он настроен на использование gpt-5-nano, размещенного на Zen. Чтобы заблокировать opencode
чтобы использовать только свой собственный экземпляр, размещенный на GitLab, добавьте следующее в свой
opencode.json файл. Также рекомендуется отключить совместное использование сеансов.
{
"$schema": "https://opencode.ai/config.json",
"small_model": "gitlab/duo-chat-haiku-4-5",
"share": "disabled"
}:::
Для самостоятельных экземпляров GitLab:
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_TOKEN=glpat-...Если в вашем экземпляре используется собственный AI-шлюз:
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.comИли добавьте в свой профиль bash:
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com
export GITLAB_TOKEN=glpat-...:::note Ваш администратор GitLab должен включить следующее:
- Платформа Duo Agent для пользователя, группы или экземпляра
- Флаги функций (через консоль Rails):
agent_platform_claude_codethird_party_agents_enabled:::
Чтобы Oauth работал на вашем локальном экземпляре, вам необходимо создать
новое приложение (Настройки → Приложения) с
URL обратного вызова http://127.0.0.1:8080/callback и следующие области:
- API (Доступ к API от вашего имени)
- read_user (прочитать вашу личную информацию)
- read_repository (разрешает доступ к репозиторию только для чтения)
Затем укажите идентификатор приложения как переменную среды:
export GITLAB_OAUTH_CLIENT_ID=your_application_id_hereДополнительная документация на домашней странице opencode-gitlab-auth.
Настройте через opencode.json:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"gitlab": {
"options": {
"instanceUrl": "https://gitlab.com"
}
}
}
}Чтобы получить доступ к инструментам GitLab (мерж-реквесты, задачи, конвейеры, CI/CD и т. д.):
{
"$schema": "https://opencode.ai/config.json",
"plugin": ["opencode-gitlab-plugin"]
}Этот плагин предоставляет комплексные возможности управления репозиторием GitLab, включая проверки MR, отслеживание проблем, мониторинг конвейера и многое другое.
Чтобы использовать подписку GitHub Copilot с открытым кодом:
:::note Некоторым моделям может потребоваться Pro+ подписка для использования.
Некоторые модели необходимо включить вручную в настройках GitHub Copilot. :::
-
Запустите команду
/connectи найдите GitHub Copilot./connect
-
Перейдите на github.com/login/device и введите код.
┌ Login with GitHub Copilot │ │ https://github.com/login/device │ │ Enter code: 8F43-6FCF │ └ Waiting for authorization...
-
Теперь запустите команду
/models, чтобы выбрать нужную модель./models
Чтобы использовать Google Vertex AI с opencode:
-
Перейдите в Model Garden в Google Cloud Console и проверьте модели, доступные в вашем регионе.
:::note Вам необходим проект Google Cloud с включенным Vertex AI API. :::
-
Установите необходимые переменные среды:
GOOGLE_CLOUD_PROJECT: идентификатор вашего проекта Google Cloud.VERTEX_LOCATION(необязательно): регион для Vertex AI (по умолчаниюglobal).- Аутентификация (выберите одну):
GOOGLE_APPLICATION_CREDENTIALS: путь к ключевому файлу JSON вашего сервисного аккаунта.- Аутентификация через CLI gcloud:
gcloud auth application-default login.
Установите их во время запуска opencode.
GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode
Или добавьте их в свой профиль bash.
export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json export GOOGLE_CLOUD_PROJECT=your-project-id export VERTEX_LOCATION=global
:::tip
Регион global повышает доступность и уменьшает количество ошибок без дополнительных затрат. Используйте региональные конечные точки (например, us-central1) для требований к местонахождению данных. Подробнее
:::
-
Запустите команду
/models, чтобы выбрать нужную модель./models
-
Перейдите в консоль Groq](https://console.groq.com/), нажмите Создать ключ API и скопируйте ключ.
-
Запустите команду
/connectи найдите Groq./connect
-
Введите ключ API для провайдера.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать тот, который вам нужен./models
Hugging Face Inference Providers предоставляют доступ к открытым моделям, поддерживаемым более чем 17 поставщиками.
-
Перейдите в Настройки Hugging Face, чтобы создать токен с разрешением совершать вызовы к поставщикам выводов.
-
Запустите команду
/connectи найдите Hugging Face./connect
-
Введите свой токен Hugging Face.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать такую модель, как Kimi-K2-Instruct или GLM-4.6./models
Helicone — это платформа наблюдения LLM, которая обеспечивает ведение журнала, мониторинг и аналитику для ваших приложений искусственного интеллекта. Helicone AI Gateway автоматически направляет ваши запросы соответствующему поставщику на основе модели.
-
Перейдите в Helicone, создайте учетную запись и сгенерируйте ключ API на своей панели управления.
-
Запустите команду
/connectи найдите Helicone./connect
-
Введите свой ключ API Helicone.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать модель./models
Дополнительные сведения о дополнительных провайдерах и расширенных функциях, таких как кэширование и ограничение скорости, см. в Документация Helicone.
Если вы видите функцию или модель от Helicone, которая не настраивается автоматически через opencode, вы всегда можете настроить ее самостоятельно.
Вот Справочник моделей Helicone, он понадобится вам, чтобы получить идентификаторы моделей, которые вы хотите добавить.
Helicone поддерживает пользовательские заголовки для таких функций, как кэширование, отслеживание пользователей и управление сеансами. Добавьте их в конфигурацию вашего провайдера, используя options.headers:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
"headers": {
"Helicone-Cache-Enabled": "true",
"Helicone-User-Id": "opencode",
},
},
},
},
}Функция Helicone Sessions позволяет группировать связанные запросы LLM вместе. Используйте плагин opencode-helicone-session, чтобы автоматически регистрировать каждый диалог opencode как сеанс в Helicone.
npm install -g opencode-helicone-sessionДобавьте его в свою конфигурацию.
{
"plugin": ["opencode-helicone-session"]
}Плагин вставляет в ваши запросы заголовки Helicone-Session-Id и Helicone-Session-Name. На странице «Сеансы» Helicone вы увидите каждый диалог opencode, указанный как отдельный сеанс.
| Заголовок | Описание |
|---|---|
Helicone-Cache-Enabled |
Включить кэширование ответов (true/false) |
Helicone-User-Id |
Отслеживание показателей по пользователю |
Helicone-Property-[Name] |
Добавьте пользовательские свойства (например, Helicone-Property-Environment) |
Helicone-Prompt-Id |
Связывание запросов с версиями промптов |
См. Справочник заголовков Helicone для всех доступных заголовков.
Вы можете настроить opencode для использования локальных моделей с помощью утилиты llama-server llama.cpp's
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"llama.cpp": {
"npm": "@ai-sdk/openai-compatible",
"name": "llama-server (local)",
"options": {
"baseURL": "http://127.0.0.1:8080/v1"
},
"models": {
"qwen3-coder:a3b": {
"name": "Qwen3-Coder: a3b-30b (local)",
"limit": {
"context": 128000,
"output": 65536
}
}
}
}
}
}В этом примере:
llama.cpp— это идентификатор пользовательского поставщика. Это может быть любая строка, которую вы хотите.npmуказывает пакет, который будет использоваться для этого поставщика. Здесь@ai-sdk/openai-compatibleиспользуется для любого API-интерфейса, совместимого с OpenAI.name— это отображаемое имя поставщика в пользовательском интерфейсе.options.baseURL— конечная точка локального сервера.models— это карта идентификаторов моделей с их конфигурациями. Название модели будет отображаться в списке выбора модели.
IO.NET предлагает 17 моделей, оптимизированных для различных случаев использования:
-
Перейдите в консоль IO.NET](https://ai.io.net/), создайте учетную запись и сгенерируйте ключ API.
-
Запустите команду
/connectи найдите IO.NET./connect
-
Введите свой ключ API IO.NET.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать модель./models
Вы можете настроить opencode для использования локальных моделей через LM Studio.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
}
}В этом примере:
lmstudio— это идентификатор пользовательского поставщика. Это может быть любая строка, которую вы хотите.npmуказывает пакет, который будет использоваться для этого поставщика. Здесь@ai-sdk/openai-compatibleиспользуется для любого API-интерфейса, совместимого с OpenAI.name— это отображаемое имя поставщика в пользовательском интерфейсе.options.baseURL— конечная точка локального сервера.models— это карта идентификаторов моделей с их конфигурациями. Название модели будет отображаться в списке выбора модели.
Чтобы использовать Кими К2 из Moonshot AI:
-
Перейдите в консоль Moonshot AI, создайте учетную запись и нажмите Создать ключ API.
-
Запустите команду
/connectи найдите Moonshot AI./connect
-
Введите свой API-ключ Moonshot.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать Kimi K2./models
-
Перейдите в консоль API MiniMax, создайте учетную запись и сгенерируйте ключ API.
-
Запустите команду
/connectи найдите MiniMax./connect
-
Введите свой ключ API MiniMax.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать модель типа M2.1./models
-
Перейдите в консоль Nebius Token Factory](https://tokenfactory.nebius.com/), создайте учетную запись и нажмите Добавить ключ.
-
Запустите команду
/connectи найдите Nebius Token Factory./connect
-
Введите ключ API фабрики токенов Nebius.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать такую модель, как Kimi K2 Instruct./models
Вы можете настроить opencode для использования локальных моделей через Ollama.
:::tip Ollama может автоматически настроиться для opencode. Подробности см. в документации по интеграции Ollama](https://docs.ollama.com/integrations/opencode). :::
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}В этом примере:
ollama— это идентификатор пользовательского поставщика. Это может быть любая строка, которую вы хотите.npmуказывает пакет, который будет использоваться для этого поставщика. Здесь@ai-sdk/openai-compatibleиспользуется для любого API-интерфейса, совместимого с OpenAI.name— это отображаемое имя поставщика в пользовательском интерфейсе.options.baseURL— конечная точка локального сервера.models— это карта идентификаторов моделей с их конфигурациями. Название модели будет отображаться в списке выбора модели.
:::tip
Если вызовы инструментов не работают, попробуйте увеличить num_ctx в Олламе. Начните с 16–32 тысяч.
:::
Чтобы использовать Ollama Cloud с opencode:
-
Перейдите на https://ollama.com/ и войдите в систему или создайте учетную запись.
-
Перейдите в Настройки > Ключи и нажмите Добавить ключ API, чтобы создать новый ключ API.
-
Скопируйте ключ API для использования в opencode.
-
Запустите команду
/connectи найдите Ollama Cloud./connect
-
Введите свой ключ API Ollama Cloud.
┌ API key │ │ └ enter
-
Важно. Перед использованием облачных моделей в opencode необходимо получить информацию о модели локально:
ollama pull gpt-oss:20b-cloud
-
Запустите команду
/models, чтобы выбрать модель облака Ollama./models
Мы рекомендуем подписаться на ChatGPT Plus или Pro.
-
После регистрации выполните команду
/connectи выберите OpenAI./connect
-
Здесь вы можете выбрать опцию ChatGPT Plus/Pro, и ваш браузер откроется. и попросите вас пройти аутентификацию.
┌ Select auth method │ │ ChatGPT Plus/Pro │ Manually enter API Key └
-
Теперь все модели OpenAI должны быть доступны при использовании команды
/models./models
Если у вас уже есть ключ API, вы можете выбрать Ввести ключ API вручную и вставить его в свой терминал.
OpenCode Zen — это список протестированных и проверенных моделей, предоставленный командой opencode. Подробнее.
-
Войдите в систему OpenCode Zen и нажмите Создать ключ API.
-
Запустите команду
/connectи найдите OpenCode Zen./connect
-
Введите свой ключ API opencode.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать такую модель, как Qwen 3 Coder 480B./models
-
Перейдите на панель управления OpenRouter](https://openrouter.ai/settings/keys), нажмите Создать ключ API и скопируйте ключ.
-
Запустите команду
/connectи найдите OpenRouter./connect
-
Введите ключ API для провайдера.
┌ API key │ │ └ enter
-
Многие модели OpenRouter предварительно загружены по умолчанию. Запустите команду
/models, чтобы выбрать нужную./models
Вы также можете добавить дополнительные модели через конфигурацию opencode.
{ "$schema": "https://opencode.ai/config.json", "provider": { "openrouter": { "models": { "somecoolnewmodel": {} } } } } -
Вы также можете настроить их через конфигурацию opencode. Вот пример указания провайдера
{ "$schema": "https://opencode.ai/config.json", "provider": { "openrouter": { "models": { "moonshotai/kimi-k2": { "options": { "provider": { "order": ["baseten"], "allow_fallbacks": false } } } } } } }
SAP AI Core предоставляет доступ к более чем 40 моделям от OpenAI, Anthropic, Google, Amazon, Meta, Mistral и AI21 через единую платформу.
-
Перейдите в SAP BTP Cockpit, перейдите к экземпляру службы SAP AI Core и создайте ключ службы.
:::tip Ключ службы — это объект JSON, содержащий
clientid,clientsecret,urlиserviceurls.AI_API_URL. Экземпляр AI Core можно найти в разделе Сервисы > Экземпляры и подписки в панели управления BTP. ::: -
Запустите команду
/connectи найдите SAP AI Core./connect
-
Введите свой сервисный ключ в формате JSON.
┌ Service key │ │ └ enter
Или установите переменную среды
AICORE_SERVICE_KEY:AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencodeИли добавьте его в свой профиль bash:
export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}'
-
При необходимости укажите идентификатор развертывания и группу ресурсов:
AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode
:::note Эти параметры являются необязательными и должны быть настроены в соответствии с настройками SAP AI Core. :::
-
Запустите команду
/models, чтобы выбрать одну из более чем 40 доступных моделей./models
STACKIT AI Model Serving предоставляет полностью управляемую суверенную среду хостинга для моделей ИИ, ориентированную на LLM, таких как Llama, Mistral и Qwen, с максимальным суверенитетом данных в европейской инфраструктуре.
-
Перейдите на портал STACKIT, перейдите в AI Model Serving и создайте токен аутентификации для своего проекта.
:::tip Вам необходима учетная запись клиента STACKIT, учетная запись пользователя и проект перед созданием токенов аутентификации. :::
-
Запустите команду
/connectи найдите STACKIT./connect
-
Введите свой токен аутентификации STACKIT AI Model Serving.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать одну из доступных моделей, например Qwen3-VL 235B или Llama 3.3 70B./models
-
Перейдите к OVHcloud Panel. Перейдите в раздел
Public Cloud,AI & Machine Learning>AI Endpointsи на вкладкеAPI Keysнажмите Создать новый ключ API. -
Запустите команду
/connectи найдите Конечные точки OVHcloud AI./connect
-
Введите ключ API конечных точек OVHcloud AI.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать модель типа gpt-oss-120b./models
Чтобы использовать Scaleway Generative APIs с opencode:
-
Перейдите к Настройки IAM консоли Scaleway, чтобы сгенерировать новый ключ API.
-
Запустите команду
/connectи найдите Scaleway./connect
-
Введите ключ API Scaleway.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать модель, например devstral-2-123b-instruct-2512 или gpt-oss-120b./models
-
Перейдите в консоль Together AI, создайте учетную запись и нажмите Добавить ключ.
-
Запустите команду
/connectи найдите Together AI./connect
-
Введите ключ API Together AI.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать такую модель, как Kimi K2 Instruct./models
-
Перейдите к консоли Venice AI, создайте учетную запись и сгенерируйте ключ API.
-
Запустите команду
/connectи найдите Venice AI./connect
-
Введите свой ключ API Venice AI.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать модель типа Llama 3.3 70B./models
Vercel AI Gateway позволяет получать доступ к моделям OpenAI, Anthropic, Google, xAI и других источников через единую конечную точку. Модели предлагаются по прейскурантной цене без наценок.
-
Перейдите на панель мониторинга Vercel, перейдите на вкладку AI Gateway и нажмите Ключи API, чтобы создать новый ключ API.
-
Запустите команду
/connectи найдите Vercel AI Gateway./connect
-
Введите ключ API Vercel AI Gateway.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать модель./models
Вы также можете настраивать модели через конфигурацию opencode. Ниже приведен пример указания порядка маршрутизации поставщика.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"vercel": {
"models": {
"anthropic/claude-sonnet-4": {
"options": {
"order": ["anthropic", "vertex"]
}
}
}
}
}
}Некоторые полезные параметры маршрутизации:
| Вариант | Описание |
|---|---|
order |
Последовательность провайдеров для попытки |
only |
Ограничить конкретными провайдерами |
zeroDataRetention |
Использовать только провайдеров с политикой нулевого хранения данных |
-
Перейдите на консоль xAI, создайте учетную запись и сгенерируйте ключ API.
-
Запустите команду
/connectи найдите xAI./connect
-
Введите свой ключ API xAI.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать такую модель, как Grok Beta./models
-
Перейдите в консоль Z.AI API, создайте учетную запись и нажмите Создать новый ключ API.
-
Запустите команду
/connectи найдите Z.AI./connect
Если вы подписаны на План кодирования GLM, выберите План кодирования Z.AI.
-
Введите свой ключ API Z.AI.
┌ API key │ │ └ enter
-
Запустите команду
/models, чтобы выбрать модель типа GLM-4.7./models
-
Перейдите на панель управления ZenMux, нажмите Создать ключ API и скопируйте ключ.
-
Запустите команду
/connectи найдите ZenMux./connect
-
Введите ключ API для провайдера.
┌ API key │ │ └ enter
-
Многие модели ZenMux предварительно загружены по умолчанию. Запустите команду
/models, чтобы выбрать нужную./models
Вы также можете добавить дополнительные модели через конфигурацию opencode.
{ "$schema": "https://opencode.ai/config.json", "provider": { "zenmux": { "models": { "somecoolnewmodel": {} } } } }
Чтобы добавить любого совместимого с OpenAI поставщика, не указанного в команде /connect:
:::tip Вы можете использовать любого OpenAI-совместимого провайдера с открытым кодом. Большинство современных поставщиков ИИ предлагают API-интерфейсы, совместимые с OpenAI. :::
-
Запустите команду
/connectи прокрутите вниз до пункта Другое.$ /connect ┌ Add credential │ ◆ Select provider │ ... │ ● Other └
-
Введите уникальный идентификатор провайдера.
$ /connect ┌ Add credential │ ◇ Enter provider id │ myprovider └
:::примечание Выберите запоминающийся идентификатор, вы будете использовать его в своем файле конфигурации. :::
-
Введите свой ключ API для провайдера.
$ /connect ┌ Add credential │ ▲ This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples. │ ◇ Enter your API key │ sk-... └
-
Создайте или обновите файл
opencode.jsonв каталоге вашего проекта:{ "$schema": "https://opencode.ai/config.json", "provider": { "myprovider": { "npm": "@ai-sdk/openai-compatible", "name": "My AI ProviderDisplay Name", "options": { "baseURL": "https://api.myprovider.com/v1" }, "models": { "my-model-name": { "name": "My Model Display Name" } } } } }Вот варианты конфигурации:
- npm: используемый пакет AI SDK,
@ai-sdk/openai-compatibleдля поставщиков, совместимых с OpenAI. - имя: отображаемое имя в пользовательском интерфейсе.
- модели: Доступные модели.
- options.baseURL: URL-адрес конечной точки API.
- options.apiKey: при необходимости установите ключ API, если не используется аутентификация.
- options.headers: при необходимости можно установить собственные заголовки.
Подробнее о дополнительных параметрах в примере ниже.
- npm: используемый пакет AI SDK,
-
Запустите команду
/models, и ваш пользовательский поставщик и модели появятся в списке выбора.
Ниже приведен пример настройки параметров apiKey, headers и модели limit.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI ProviderDisplay Name",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:ANTHROPIC_API_KEY}",
"headers": {
"Authorization": "Bearer custom-token"
}
},
"models": {
"my-model-name": {
"name": "My Model Display Name",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}Детали конфигурации:
- apiKey: устанавливается с использованием синтаксиса переменной
env, подробнее . - заголовки: пользовательские заголовки, отправляемые с каждым запросом.
- limit.context: Максимальное количество входных токенов, которые принимает модель.
- limit.output: Максимальное количество токенов, которые может сгенерировать модель.
Поля limit позволяют opencode понять, сколько контекста у вас осталось. Стандартные поставщики автоматически извлекают их из models.dev.
Если у вас возникли проблемы с настройкой провайдера, проверьте следующее:
-
Проверьте настройку аутентификации: запустите
opencode auth list, чтобы проверить, верны ли учетные данные. для провайдера добавлены в ваш конфиг.Это не относится к таким поставщикам, как Amazon Bedrock, которые для аутентификации полагаются на переменные среды.
-
Для пользовательских поставщиков проверьте конфигурацию opencode и:
- Убедитесь, что идентификатор провайдера, используемый в команде
/connect, соответствует идентификатору в вашей конфигурации opencode. - Для провайдера используется правильный пакет npm. Например, используйте
@ai-sdk/cerebrasдля Cerebras. А для всех других поставщиков, совместимых с OpenAI, используйте@ai-sdk/openai-compatible. - Убедитесь, что в поле
options.baseURLиспользуется правильная конечная точка API.
- Убедитесь, что идентификатор провайдера, используемый в команде
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", }, "models": { "gpt-4o": { // Model ID (from Helicone's model directory page) "name": "GPT-4o", // Your own custom name for the model }, "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4", }, }, }, }, }