fix(docs): translations

This commit is contained in:
Adam
2026-02-09 18:11:44 -06:00
parent 3118cab2d8
commit 85fa8abd50
312 changed files with 3578 additions and 3189 deletions

View File

@@ -1,30 +1,30 @@
---
title: Провайдеры
description: Использование любого провайдера LLM в OpenCode.
description: Использование любого провайдера LLM в opencode.
---
import config from "../../../../config.mjs"
export const console = config.console
OpenCode использует [AI SDK](https://ai-sdk.dev/) и [Models.dev](https://models.dev) для поддержки **более 75 поставщиков LLM** и поддерживает запуск локальных моделей.
opencode использует [AI SDK](https://ai-sdk.dev/) и [Models.dev](https://models.dev) для поддержки **более 75 поставщиков LLM** и поддерживает запуск локальных моделей.
Чтобы добавить провайдера, вам необходимо:
1. Добавьте ключи API для провайдера с помощью команды `/connect`.
2. Настройте провайдера в вашей конфигурации OpenCode.
2. Настройте провайдера в вашей конфигурации opencode.
---
### Реквизиты для входа
Когда вы добавляете ключи API провайдера с помощью команды `/connect`, они сохраняются
в XX0ГГ.
в `~/.local/share/opencode/auth.json`.
---
### Конфигурация
Вы можете настроить поставщиков через раздел `provider` в вашем OpenCode.
Вы можете настроить поставщиков через раздел `provider` в вашем opencode.
конфиг.
---
@@ -50,8 +50,8 @@ OpenCode использует [AI SDK](https://ai-sdk.dev/) и [Models.dev](http
## Открытый код Нет
OpenCode Zen — это список моделей, предоставленный командой OpenCode, которые были
протестировано и проверено на хорошую работу с OpenCode. [Подробнее](/docs/zen).
OpenCode Zen — это список моделей, предоставленный командой opencode, которые были
протестировано и проверено на хорошую работу с opencode. [Подробнее](/docs/zen).
:::tip
Если вы новичок, мы рекомендуем начать с OpenCode Zen.
@@ -80,7 +80,7 @@ OpenCode Zen — это список моделей, предоставленн
/models
```
Он работает как любой другой поставщик в OpenCode и его использование совершенно необязательно.
Он работает как любой другой поставщик в opencode и его использование совершенно необязательно.
---
@@ -124,7 +124,7 @@ OpenCode Zen — это список моделей, предоставленн
### Амазонка
Чтобы использовать Amazon Bedrock с OpenCode:
Чтобы использовать Amazon Bedrock с opencode:
1. Перейдите в **Каталог моделей** в консоли Amazon Bedrock и запросите
доступ к нужным моделям.
@@ -137,7 +137,7 @@ OpenCode Zen — это список моделей, предоставленн
#### Переменные среды (быстрый старт)
Установите одну из этих переменных среды при запуске открытого кода:
Установите одну из этих переменных среды при запуске opencode:
```bash
# Option 1: Using AWS access keys
@@ -279,7 +279,7 @@ OpenCode Zen — это список моделей, предоставленн
```
:::info
Использование вашей подписки Claude Pro/Max в OpenCode официально не поддерживается [Anthropic](https://anthropic.com).
Использование вашей подписки Claude Pro/Max в opencode официально не поддерживается [Anthropic](https://anthropic.com).
:::
##### Использование ключей API
@@ -303,7 +303,7 @@ OpenCode Zen — это список моделей, предоставленн
2. Перейдите в [Azure AI Foundry](https://ai.azure.com/) и разверните модель.
:::примечание
Для правильной работы открытого кода имя развертывания должно совпадать с именем модели.
Для правильной работы opencode имя развертывания должно совпадать с именем модели.
:::
3. Запустите команду `/connect` и найдите **Azure**.
@@ -350,7 +350,7 @@ OpenCode Zen — это список моделей, предоставленн
2. Перейдите в [Azure AI Foundry](https://ai.azure.com/) и разверните модель.
:::примечание
Для правильной работы открытого кода имя развертывания должно совпадать с именем модели.
Для правильной работы opencode имя развертывания должно совпадать с именем модели.
:::
3. Запустите команду `/connect` и найдите **Azure Cognitive Services**.
@@ -482,7 +482,7 @@ Cloudflare AI Gateway позволяет вам получать доступ к
/models
```
Вы также можете добавлять модели через конфигурацию открытого кода.
Вы также можете добавлять модели через конфигурацию opencode.
```json title="opencode.json"
{
@@ -679,14 +679,14 @@ GitLab Duo предоставляет агентский чат на базе и
:::note
Вы также можете указать переменную среды «GITLAB_TOKEN», если не хотите.
для хранения токена в хранилище аутентификации открытого кода.
для хранения токена в хранилище аутентификации opencode.
:::
##### Самостоятельная GitLab
:::note[примечание о соответствии]
OpenCode использует небольшую модель для некоторых задач ИИ, таких как создание заголовка сеанса.
По умолчанию он настроен на использование gpt-5-nano, размещенного на Zen. Чтобы заблокировать OpenCode
opencode использует небольшую модель для некоторых задач ИИ, таких как создание заголовка сеанса.
По умолчанию он настроен на использование gpt-5-nano, размещенного на Zen. Чтобы заблокировать opencode
чтобы использовать только свой собственный экземпляр, размещенный на GitLab, добавьте следующее в свой
`opencode.json` файл. Также рекомендуется отключить совместное использование сеансов.
@@ -823,7 +823,7 @@ export GITLAB_OAUTH_CLIENT_ID=your_application_id_here
### Google Вертекс ИИ
Чтобы использовать Google Vertex AI с OpenCode:
Чтобы использовать Google Vertex AI с opencode:
1. Перейдите в **Model Garden** в Google Cloud Console и проверьте
модели, доступные в вашем регионе.
@@ -839,7 +839,7 @@ export GITLAB_OAUTH_CLIENT_ID=your_application_id_here
- `GOOGLE_APPLICATION_CREDENTIALS`: путь к ключевому файлу JSON вашего сервисного аккаунта.
- Аутентификация с помощью интерфейса командной строки gcloud: `gcloud auth application-default login`.
Установите их во время запуска открытого кода.
Установите их во время запуска opencode.
```bash
GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode
@@ -952,7 +952,7 @@ export GITLAB_OAUTH_CLIENT_ID=your_application_id_here
#### Дополнительные конфигурации
Если вы видите функцию или модель от Helicone, которая не настраивается автоматически через открытый код, вы всегда можете настроить ее самостоятельно.
Если вы видите функцию или модель от Helicone, которая не настраивается автоматически через opencode, вы всегда можете настроить ее самостоятельно.
Вот [Справочник моделей Helicone](https://helicone.ai/models), он понадобится вам, чтобы получить идентификаторы моделей, которые вы хотите добавить.
@@ -1005,7 +1005,7 @@ Helicone поддерживает пользовательские заголо
##### Отслеживание сеансов
Функция Helicone [Sessions](https://docs.helicone.ai/features/sessions) позволяет группировать связанные запросы LLM вместе. Используйте плагин [opencode-helicone-session](https://github.com/H2Shami/opencode-helicone-session), чтобы автоматически регистрировать каждый диалог OpenCode как сеанс в Helicone.
Функция Helicone [Sessions](https://docs.helicone.ai/features/sessions) позволяет группировать связанные запросы LLM вместе. Используйте плагин [opencode-helicone-session](https://github.com/H2Shami/opencode-helicone-session), чтобы автоматически регистрировать каждый диалог opencode как сеанс в Helicone.
```bash
npm install -g opencode-helicone-session
@@ -1019,7 +1019,7 @@ npm install -g opencode-helicone-session
}
```
Плагин вставляет в ваши запросы заголовки `Helicone-Session-Id` и `Helicone-Session-Name`. На странице «Сеансы» Helicone вы увидите каждый диалог OpenCode, указанный как отдельный сеанс.
Плагин вставляет в ваши запросы заголовки `Helicone-Session-Id` и `Helicone-Session-Name`. На странице «Сеансы» Helicone вы увидите каждый диалог opencode, указанный как отдельный сеанс.
##### Общие разъемы Helicone
@@ -1036,7 +1036,7 @@ npm install -g opencode-helicone-session
### вызов.cpp
Вы можете настроить открытый код для использования локальных моделей с помощью [утилиты llama-server llama.cpp's](https://github.com/ggml-org/llama.cpp)
Вы можете настроить opencode для использования локальных моделей с помощью [утилиты llama-server llama.cpp's](https://github.com/ggml-org/llama.cpp)
```json title="opencode.json" "llama.cpp" {5, 6, 8, 10-15}
{
@@ -1103,7 +1103,7 @@ IO.NET предлагает 17 моделей, оптимизированных
### ЛМ Студия
Вы можете настроить открытый код для использования локальных моделей через LM Studio.
Вы можете настроить opencode для использования локальных моделей через LM Studio.
```json title="opencode.json" "lmstudio" {5, 6, 8, 10-14}
{
@@ -1220,10 +1220,10 @@ IO.NET предлагает 17 моделей, оптимизированных
### Быть
Вы можете настроить открытый код для использования локальных моделей через Ollama.
Вы можете настроить opencode для использования локальных моделей через Ollama.
:::tip
Ollama может автоматически настроиться для OpenCode. Подробности см. в документации по интеграции Ollama](https://docs.ollama.com/integrations/opencode).
Ollama может автоматически настроиться для opencode. Подробности см. в документации по интеграции Ollama](https://docs.ollama.com/integrations/opencode).
:::
```json title="opencode.json" "ollama" {5, 6, 8, 10-14}
@@ -1262,13 +1262,13 @@ Ollama может автоматически настроиться для OpenC
### Оллама Облако
Чтобы использовать Ollama Cloud с OpenCode:
Чтобы использовать Ollama Cloud с opencode:
1. Перейдите на [https://ollama.com/](https://ollama.com/) и войдите в систему или создайте учетную запись.
2. Перейдите в **Настройки** > **Ключи** и нажмите **Добавить ключ API**, чтобы создать новый ключ API.
3. Скопируйте ключ API для использования в OpenCode.
3. Скопируйте ключ API для использования в opencode.
4. Запустите команду `/connect` и найдите **Ollama Cloud**.
@@ -1285,7 +1285,7 @@ Ollama может автоматически настроиться для OpenC
└ enter
```
6. **Важно**. Перед использованием облачных моделей в OpenCode необходимо получить информацию о модели локально:
6. **Важно**. Перед использованием облачных моделей в opencode необходимо получить информацию о модели локально:
```bash
ollama pull gpt-oss:20b-cloud
@@ -1332,9 +1332,9 @@ Ollama может автоматически настроиться для OpenC
---
### OpenCode Дзен
### opencode Дзен
OpenCode Zen — это список протестированных и проверенных моделей, предоставленный командой OpenCode. [Подробнее](/docs/zen).
OpenCode Zen — это список протестированных и проверенных моделей, предоставленный командой opencode. [Подробнее](/docs/zen).
1. Войдите в систему **<a href={console}>OpenCode Zen</a>** и нажмите **Создать ключ API**.
@@ -1344,7 +1344,7 @@ OpenCode Zen — это список протестированных и про
/connect
```
3. Введите свой ключ API OpenCode.
3. Введите свой ключ API opencode.
```txt
┌ API key
@@ -1386,7 +1386,7 @@ OpenCode Zen — это список протестированных и про
/models
```
Вы также можете добавить дополнительные модели через конфигурацию открытого кода.
Вы также можете добавить дополнительные модели через конфигурацию opencode.
```json title="opencode.json" {6}
{
@@ -1401,7 +1401,7 @@ OpenCode Zen — это список протестированных и про
}
```
5. Вы также можете настроить их через конфигурацию открытого кода. Вот пример указания провайдера
5. Вы также можете настроить их через конфигурацию opencode. Вот пример указания провайдера
```json title="opencode.json"
{
@@ -1509,7 +1509,7 @@ SAP AI Core предоставляет доступ к более чем 40 мо
### Чешуйчатая дорога
Чтобы использовать [Scaleway Generative APIs](https://www.scaleway.com/en/docs/generative-apis/) с Opencode:
Чтобы использовать [Scaleway Generative APIs](https://www.scaleway.com/en/docs/generative-apis/) с opencode:
1. Перейдите к [Настройки IAM консоли Scaleway](https://console.scaleway.com/iam/api-keys), чтобы сгенерировать новый ключ API.
@@ -1617,7 +1617,7 @@ Vercel AI Gateway позволяет получать доступ к модел
/models
```
Вы также можете настраивать модели через конфигурацию открытого кода. Ниже приведен пример указания порядка маршрутизации поставщика.
Вы также можете настраивать модели через конфигурацию opencode. Ниже приведен пример указания порядка маршрутизации поставщика.
```json title="opencode.json"
{
@@ -1727,7 +1727,7 @@ Vercel AI Gateway позволяет получать доступ к модел
/models
```
Вы также можете добавить дополнительные модели через конфигурацию открытого кода.
Вы также можете добавить дополнительные модели через конфигурацию opencode.
```json title="opencode.json" {6}
{
@@ -1870,7 +1870,7 @@ Vercel AI Gateway позволяет получать доступ к модел
- **limit.context**: Максимальное количество входных токенов, которые принимает модель.
- **limit.output**: Максимальное количество токенов, которые может сгенерировать модель.
Поля `limit` позволяют OpenCode понять, сколько контекста у вас осталось. Стандартные поставщики автоматически извлекают их из models.dev.
Поля `limit` позволяют opencode понять, сколько контекста у вас осталось. Стандартные поставщики автоматически извлекают их из models.dev.
---
@@ -1883,7 +1883,7 @@ Vercel AI Gateway позволяет получать доступ к модел
Это не относится к таким поставщикам, как Amazon Bedrock, которые для аутентификации полагаются на переменные среды.
2. Для пользовательских поставщиков проверьте конфигурацию открытого кода и:
- Убедитесь, что идентификатор провайдера, используемый в команде `/connect`, соответствует идентификатору в вашей конфигурации открытого кода.
2. Для пользовательских поставщиков проверьте конфигурацию opencode и:
- Убедитесь, что идентификатор провайдера, используемый в команде `/connect`, соответствует идентификатору в вашей конфигурации opencode.
- Для провайдера используется правильный пакет npm. Например, используйте `@ai-sdk/cerebras` для Cerebras. А для всех других поставщиков, совместимых с OpenAI, используйте `@ai-sdk/openai-compatible`.
- Убедитесь, что в поле `options.baseURL` используется правильная конечная точка API.