mirror of
https://gitea.toothfairyai.com/ToothFairyAI/tf_code.git
synced 2026-04-18 22:54:41 +00:00
fix(docs): translations
This commit is contained in:
@@ -1,30 +1,30 @@
|
||||
---
|
||||
title: Провайдеры
|
||||
description: Использование любого провайдера LLM в OpenCode.
|
||||
description: Использование любого провайдера LLM в opencode.
|
||||
---
|
||||
|
||||
import config from "../../../../config.mjs"
|
||||
export const console = config.console
|
||||
|
||||
OpenCode использует [AI SDK](https://ai-sdk.dev/) и [Models.dev](https://models.dev) для поддержки **более 75 поставщиков LLM** и поддерживает запуск локальных моделей.
|
||||
opencode использует [AI SDK](https://ai-sdk.dev/) и [Models.dev](https://models.dev) для поддержки **более 75 поставщиков LLM** и поддерживает запуск локальных моделей.
|
||||
|
||||
Чтобы добавить провайдера, вам необходимо:
|
||||
|
||||
1. Добавьте ключи API для провайдера с помощью команды `/connect`.
|
||||
2. Настройте провайдера в вашей конфигурации OpenCode.
|
||||
2. Настройте провайдера в вашей конфигурации opencode.
|
||||
|
||||
---
|
||||
|
||||
### Реквизиты для входа
|
||||
|
||||
Когда вы добавляете ключи API провайдера с помощью команды `/connect`, они сохраняются
|
||||
в XX0ГГ.
|
||||
в `~/.local/share/opencode/auth.json`.
|
||||
|
||||
---
|
||||
|
||||
### Конфигурация
|
||||
|
||||
Вы можете настроить поставщиков через раздел `provider` в вашем OpenCode.
|
||||
Вы можете настроить поставщиков через раздел `provider` в вашем opencode.
|
||||
конфиг.
|
||||
|
||||
---
|
||||
@@ -50,8 +50,8 @@ OpenCode использует [AI SDK](https://ai-sdk.dev/) и [Models.dev](http
|
||||
|
||||
## Открытый код Нет
|
||||
|
||||
OpenCode Zen — это список моделей, предоставленный командой OpenCode, которые были
|
||||
протестировано и проверено на хорошую работу с OpenCode. [Подробнее](/docs/zen).
|
||||
OpenCode Zen — это список моделей, предоставленный командой opencode, которые были
|
||||
протестировано и проверено на хорошую работу с opencode. [Подробнее](/docs/zen).
|
||||
|
||||
:::tip
|
||||
Если вы новичок, мы рекомендуем начать с OpenCode Zen.
|
||||
@@ -80,7 +80,7 @@ OpenCode Zen — это список моделей, предоставленн
|
||||
/models
|
||||
```
|
||||
|
||||
Он работает как любой другой поставщик в OpenCode и его использование совершенно необязательно.
|
||||
Он работает как любой другой поставщик в opencode и его использование совершенно необязательно.
|
||||
|
||||
---
|
||||
|
||||
@@ -124,7 +124,7 @@ OpenCode Zen — это список моделей, предоставленн
|
||||
|
||||
### Амазонка
|
||||
|
||||
Чтобы использовать Amazon Bedrock с OpenCode:
|
||||
Чтобы использовать Amazon Bedrock с opencode:
|
||||
|
||||
1. Перейдите в **Каталог моделей** в консоли Amazon Bedrock и запросите
|
||||
доступ к нужным моделям.
|
||||
@@ -137,7 +137,7 @@ OpenCode Zen — это список моделей, предоставленн
|
||||
|
||||
#### Переменные среды (быстрый старт)
|
||||
|
||||
Установите одну из этих переменных среды при запуске открытого кода:
|
||||
Установите одну из этих переменных среды при запуске opencode:
|
||||
|
||||
```bash
|
||||
# Option 1: Using AWS access keys
|
||||
@@ -279,7 +279,7 @@ OpenCode Zen — это список моделей, предоставленн
|
||||
```
|
||||
|
||||
:::info
|
||||
Использование вашей подписки Claude Pro/Max в OpenCode официально не поддерживается [Anthropic](https://anthropic.com).
|
||||
Использование вашей подписки Claude Pro/Max в opencode официально не поддерживается [Anthropic](https://anthropic.com).
|
||||
:::
|
||||
|
||||
##### Использование ключей API
|
||||
@@ -303,7 +303,7 @@ OpenCode Zen — это список моделей, предоставленн
|
||||
2. Перейдите в [Azure AI Foundry](https://ai.azure.com/) и разверните модель.
|
||||
|
||||
:::примечание
|
||||
Для правильной работы открытого кода имя развертывания должно совпадать с именем модели.
|
||||
Для правильной работы opencode имя развертывания должно совпадать с именем модели.
|
||||
:::
|
||||
|
||||
3. Запустите команду `/connect` и найдите **Azure**.
|
||||
@@ -350,7 +350,7 @@ OpenCode Zen — это список моделей, предоставленн
|
||||
2. Перейдите в [Azure AI Foundry](https://ai.azure.com/) и разверните модель.
|
||||
|
||||
:::примечание
|
||||
Для правильной работы открытого кода имя развертывания должно совпадать с именем модели.
|
||||
Для правильной работы opencode имя развертывания должно совпадать с именем модели.
|
||||
:::
|
||||
|
||||
3. Запустите команду `/connect` и найдите **Azure Cognitive Services**.
|
||||
@@ -482,7 +482,7 @@ Cloudflare AI Gateway позволяет вам получать доступ к
|
||||
/models
|
||||
```
|
||||
|
||||
Вы также можете добавлять модели через конфигурацию открытого кода.
|
||||
Вы также можете добавлять модели через конфигурацию opencode.
|
||||
|
||||
```json title="opencode.json"
|
||||
{
|
||||
@@ -679,14 +679,14 @@ GitLab Duo предоставляет агентский чат на базе и
|
||||
|
||||
:::note
|
||||
Вы также можете указать переменную среды «GITLAB_TOKEN», если не хотите.
|
||||
для хранения токена в хранилище аутентификации открытого кода.
|
||||
для хранения токена в хранилище аутентификации opencode.
|
||||
:::
|
||||
|
||||
##### Самостоятельная GitLab
|
||||
|
||||
:::note[примечание о соответствии]
|
||||
OpenCode использует небольшую модель для некоторых задач ИИ, таких как создание заголовка сеанса.
|
||||
По умолчанию он настроен на использование gpt-5-nano, размещенного на Zen. Чтобы заблокировать OpenCode
|
||||
opencode использует небольшую модель для некоторых задач ИИ, таких как создание заголовка сеанса.
|
||||
По умолчанию он настроен на использование gpt-5-nano, размещенного на Zen. Чтобы заблокировать opencode
|
||||
чтобы использовать только свой собственный экземпляр, размещенный на GitLab, добавьте следующее в свой
|
||||
`opencode.json` файл. Также рекомендуется отключить совместное использование сеансов.
|
||||
|
||||
@@ -823,7 +823,7 @@ export GITLAB_OAUTH_CLIENT_ID=your_application_id_here
|
||||
|
||||
### Google Вертекс ИИ
|
||||
|
||||
Чтобы использовать Google Vertex AI с OpenCode:
|
||||
Чтобы использовать Google Vertex AI с opencode:
|
||||
|
||||
1. Перейдите в **Model Garden** в Google Cloud Console и проверьте
|
||||
модели, доступные в вашем регионе.
|
||||
@@ -839,7 +839,7 @@ export GITLAB_OAUTH_CLIENT_ID=your_application_id_here
|
||||
- `GOOGLE_APPLICATION_CREDENTIALS`: путь к ключевому файлу JSON вашего сервисного аккаунта.
|
||||
- Аутентификация с помощью интерфейса командной строки gcloud: `gcloud auth application-default login`.
|
||||
|
||||
Установите их во время запуска открытого кода.
|
||||
Установите их во время запуска opencode.
|
||||
|
||||
```bash
|
||||
GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode
|
||||
@@ -952,7 +952,7 @@ export GITLAB_OAUTH_CLIENT_ID=your_application_id_here
|
||||
|
||||
#### Дополнительные конфигурации
|
||||
|
||||
Если вы видите функцию или модель от Helicone, которая не настраивается автоматически через открытый код, вы всегда можете настроить ее самостоятельно.
|
||||
Если вы видите функцию или модель от Helicone, которая не настраивается автоматически через opencode, вы всегда можете настроить ее самостоятельно.
|
||||
|
||||
Вот [Справочник моделей Helicone](https://helicone.ai/models), он понадобится вам, чтобы получить идентификаторы моделей, которые вы хотите добавить.
|
||||
|
||||
@@ -1005,7 +1005,7 @@ Helicone поддерживает пользовательские заголо
|
||||
|
||||
##### Отслеживание сеансов
|
||||
|
||||
Функция Helicone [Sessions](https://docs.helicone.ai/features/sessions) позволяет группировать связанные запросы LLM вместе. Используйте плагин [opencode-helicone-session](https://github.com/H2Shami/opencode-helicone-session), чтобы автоматически регистрировать каждый диалог OpenCode как сеанс в Helicone.
|
||||
Функция Helicone [Sessions](https://docs.helicone.ai/features/sessions) позволяет группировать связанные запросы LLM вместе. Используйте плагин [opencode-helicone-session](https://github.com/H2Shami/opencode-helicone-session), чтобы автоматически регистрировать каждый диалог opencode как сеанс в Helicone.
|
||||
|
||||
```bash
|
||||
npm install -g opencode-helicone-session
|
||||
@@ -1019,7 +1019,7 @@ npm install -g opencode-helicone-session
|
||||
}
|
||||
```
|
||||
|
||||
Плагин вставляет в ваши запросы заголовки `Helicone-Session-Id` и `Helicone-Session-Name`. На странице «Сеансы» Helicone вы увидите каждый диалог OpenCode, указанный как отдельный сеанс.
|
||||
Плагин вставляет в ваши запросы заголовки `Helicone-Session-Id` и `Helicone-Session-Name`. На странице «Сеансы» Helicone вы увидите каждый диалог opencode, указанный как отдельный сеанс.
|
||||
|
||||
##### Общие разъемы Helicone
|
||||
|
||||
@@ -1036,7 +1036,7 @@ npm install -g opencode-helicone-session
|
||||
|
||||
### вызов.cpp
|
||||
|
||||
Вы можете настроить открытый код для использования локальных моделей с помощью [утилиты llama-server llama.cpp's](https://github.com/ggml-org/llama.cpp)
|
||||
Вы можете настроить opencode для использования локальных моделей с помощью [утилиты llama-server llama.cpp's](https://github.com/ggml-org/llama.cpp)
|
||||
|
||||
```json title="opencode.json" "llama.cpp" {5, 6, 8, 10-15}
|
||||
{
|
||||
@@ -1103,7 +1103,7 @@ IO.NET предлагает 17 моделей, оптимизированных
|
||||
|
||||
### ЛМ Студия
|
||||
|
||||
Вы можете настроить открытый код для использования локальных моделей через LM Studio.
|
||||
Вы можете настроить opencode для использования локальных моделей через LM Studio.
|
||||
|
||||
```json title="opencode.json" "lmstudio" {5, 6, 8, 10-14}
|
||||
{
|
||||
@@ -1220,10 +1220,10 @@ IO.NET предлагает 17 моделей, оптимизированных
|
||||
|
||||
### Быть
|
||||
|
||||
Вы можете настроить открытый код для использования локальных моделей через Ollama.
|
||||
Вы можете настроить opencode для использования локальных моделей через Ollama.
|
||||
|
||||
:::tip
|
||||
Ollama может автоматически настроиться для OpenCode. Подробности см. в документации по интеграции Ollama](https://docs.ollama.com/integrations/opencode).
|
||||
Ollama может автоматически настроиться для opencode. Подробности см. в документации по интеграции Ollama](https://docs.ollama.com/integrations/opencode).
|
||||
:::
|
||||
|
||||
```json title="opencode.json" "ollama" {5, 6, 8, 10-14}
|
||||
@@ -1262,13 +1262,13 @@ Ollama может автоматически настроиться для OpenC
|
||||
|
||||
### Оллама Облако
|
||||
|
||||
Чтобы использовать Ollama Cloud с OpenCode:
|
||||
Чтобы использовать Ollama Cloud с opencode:
|
||||
|
||||
1. Перейдите на [https://ollama.com/](https://ollama.com/) и войдите в систему или создайте учетную запись.
|
||||
|
||||
2. Перейдите в **Настройки** > **Ключи** и нажмите **Добавить ключ API**, чтобы создать новый ключ API.
|
||||
|
||||
3. Скопируйте ключ API для использования в OpenCode.
|
||||
3. Скопируйте ключ API для использования в opencode.
|
||||
|
||||
4. Запустите команду `/connect` и найдите **Ollama Cloud**.
|
||||
|
||||
@@ -1285,7 +1285,7 @@ Ollama может автоматически настроиться для OpenC
|
||||
└ enter
|
||||
```
|
||||
|
||||
6. **Важно**. Перед использованием облачных моделей в OpenCode необходимо получить информацию о модели локально:
|
||||
6. **Важно**. Перед использованием облачных моделей в opencode необходимо получить информацию о модели локально:
|
||||
|
||||
```bash
|
||||
ollama pull gpt-oss:20b-cloud
|
||||
@@ -1332,9 +1332,9 @@ Ollama может автоматически настроиться для OpenC
|
||||
|
||||
---
|
||||
|
||||
### OpenCode Дзен
|
||||
### opencode Дзен
|
||||
|
||||
OpenCode Zen — это список протестированных и проверенных моделей, предоставленный командой OpenCode. [Подробнее](/docs/zen).
|
||||
OpenCode Zen — это список протестированных и проверенных моделей, предоставленный командой opencode. [Подробнее](/docs/zen).
|
||||
|
||||
1. Войдите в систему **<a href={console}>OpenCode Zen</a>** и нажмите **Создать ключ API**.
|
||||
|
||||
@@ -1344,7 +1344,7 @@ OpenCode Zen — это список протестированных и про
|
||||
/connect
|
||||
```
|
||||
|
||||
3. Введите свой ключ API OpenCode.
|
||||
3. Введите свой ключ API opencode.
|
||||
|
||||
```txt
|
||||
┌ API key
|
||||
@@ -1386,7 +1386,7 @@ OpenCode Zen — это список протестированных и про
|
||||
/models
|
||||
```
|
||||
|
||||
Вы также можете добавить дополнительные модели через конфигурацию открытого кода.
|
||||
Вы также можете добавить дополнительные модели через конфигурацию opencode.
|
||||
|
||||
```json title="opencode.json" {6}
|
||||
{
|
||||
@@ -1401,7 +1401,7 @@ OpenCode Zen — это список протестированных и про
|
||||
}
|
||||
```
|
||||
|
||||
5. Вы также можете настроить их через конфигурацию открытого кода. Вот пример указания провайдера
|
||||
5. Вы также можете настроить их через конфигурацию opencode. Вот пример указания провайдера
|
||||
|
||||
```json title="opencode.json"
|
||||
{
|
||||
@@ -1509,7 +1509,7 @@ SAP AI Core предоставляет доступ к более чем 40 мо
|
||||
|
||||
### Чешуйчатая дорога
|
||||
|
||||
Чтобы использовать [Scaleway Generative APIs](https://www.scaleway.com/en/docs/generative-apis/) с Opencode:
|
||||
Чтобы использовать [Scaleway Generative APIs](https://www.scaleway.com/en/docs/generative-apis/) с opencode:
|
||||
|
||||
1. Перейдите к [Настройки IAM консоли Scaleway](https://console.scaleway.com/iam/api-keys), чтобы сгенерировать новый ключ API.
|
||||
|
||||
@@ -1617,7 +1617,7 @@ Vercel AI Gateway позволяет получать доступ к модел
|
||||
/models
|
||||
```
|
||||
|
||||
Вы также можете настраивать модели через конфигурацию открытого кода. Ниже приведен пример указания порядка маршрутизации поставщика.
|
||||
Вы также можете настраивать модели через конфигурацию opencode. Ниже приведен пример указания порядка маршрутизации поставщика.
|
||||
|
||||
```json title="opencode.json"
|
||||
{
|
||||
@@ -1727,7 +1727,7 @@ Vercel AI Gateway позволяет получать доступ к модел
|
||||
/models
|
||||
```
|
||||
|
||||
Вы также можете добавить дополнительные модели через конфигурацию открытого кода.
|
||||
Вы также можете добавить дополнительные модели через конфигурацию opencode.
|
||||
|
||||
```json title="opencode.json" {6}
|
||||
{
|
||||
@@ -1870,7 +1870,7 @@ Vercel AI Gateway позволяет получать доступ к модел
|
||||
- **limit.context**: Максимальное количество входных токенов, которые принимает модель.
|
||||
- **limit.output**: Максимальное количество токенов, которые может сгенерировать модель.
|
||||
|
||||
Поля `limit` позволяют OpenCode понять, сколько контекста у вас осталось. Стандартные поставщики автоматически извлекают их из models.dev.
|
||||
Поля `limit` позволяют opencode понять, сколько контекста у вас осталось. Стандартные поставщики автоматически извлекают их из models.dev.
|
||||
|
||||
---
|
||||
|
||||
@@ -1883,7 +1883,7 @@ Vercel AI Gateway позволяет получать доступ к модел
|
||||
|
||||
Это не относится к таким поставщикам, как Amazon Bedrock, которые для аутентификации полагаются на переменные среды.
|
||||
|
||||
2. Для пользовательских поставщиков проверьте конфигурацию открытого кода и:
|
||||
- Убедитесь, что идентификатор провайдера, используемый в команде `/connect`, соответствует идентификатору в вашей конфигурации открытого кода.
|
||||
2. Для пользовательских поставщиков проверьте конфигурацию opencode и:
|
||||
- Убедитесь, что идентификатор провайдера, используемый в команде `/connect`, соответствует идентификатору в вашей конфигурации opencode.
|
||||
- Для провайдера используется правильный пакет npm. Например, используйте `@ai-sdk/cerebras` для Cerebras. А для всех других поставщиков, совместимых с OpenAI, используйте `@ai-sdk/openai-compatible`.
|
||||
- Убедитесь, что в поле `options.baseURL` используется правильная конечная точка API.
|
||||
|
||||
Reference in New Issue
Block a user