mirror of
https://gitea.toothfairyai.com/ToothFairyAI/tf_code.git
synced 2026-04-13 04:04:44 +00:00
wip(docs): i18n (#12681)
This commit is contained in:
223
packages/web/src/content/docs/ru/models.mdx
Normal file
223
packages/web/src/content/docs/ru/models.mdx
Normal file
@@ -0,0 +1,223 @@
|
||||
---
|
||||
title: Модели
|
||||
description: Настройка поставщика и модели LLM.
|
||||
---
|
||||
|
||||
OpenCode использует [AI SDK](https://ai-sdk.dev/) и [Models.dev](https://models.dev) для поддержки **более 75 поставщиков LLM** и поддерживает запуск локальных моделей.
|
||||
|
||||
---
|
||||
|
||||
## Провайдеры
|
||||
|
||||
Большинство популярных провайдеров предварительно загружены по умолчанию. Если вы добавили учетные данные для поставщика с помощью команды `/connect`, они будут доступны при запуске OpenCode.
|
||||
|
||||
Узнайте больше о [providers](/docs/providers).
|
||||
|
||||
---
|
||||
|
||||
## Выберите модель
|
||||
|
||||
После того, как вы настроили своего провайдера, вы можете выбрать нужную модель, введя:
|
||||
|
||||
```bash frame="none"
|
||||
/models
|
||||
```
|
||||
|
||||
---
|
||||
|
||||
## Рекомендуемые модели
|
||||
|
||||
Моделей очень много, новые выходят каждую неделю.
|
||||
|
||||
:::кончик
|
||||
Рассмотрите возможность использования одной из моделей, которые мы рекомендуем.
|
||||
:::
|
||||
|
||||
Однако лишь немногие из них хороши как в генерации кода, так и в вызове инструментов.
|
||||
|
||||
Вот несколько моделей, которые хорошо работают с OpenCode (в произвольном порядке). (Это не исчерпывающий список и не обязательно актуальный):
|
||||
|
||||
- GPT 5.2
|
||||
- Кодекс GPT 5.1
|
||||
- Закрыть работу 4.5
|
||||
- Клод Сонет 4.5
|
||||
- Минимакс М2.1
|
||||
- Близнецы 3 Про
|
||||
|
||||
---
|
||||
|
||||
## Установить значение по умолчанию
|
||||
|
||||
Чтобы установить одну из них в качестве модели по умолчанию, вы можете установить ключ `model` в вашем
|
||||
Конфигурация OpenCode.
|
||||
|
||||
```json title="opencode.json" {3}
|
||||
{
|
||||
"$schema": "https://opencode.ai/config.json",
|
||||
"model": "lmstudio/google/gemma-3n-e4b"
|
||||
}
|
||||
```
|
||||
|
||||
Здесь полный идентификатор `provider_id/model_id`. Например, если вы используете [OpenCode Zen](/docs/zen), вы должны использовать `opencode/gpt-5.1-codex` для кодекса GPT 5.1.
|
||||
|
||||
Если вы настроили [пользовательский поставщик](/docs/providers#custom), `provider_id` — это ключ из части `provider` вашей конфигурации, а `model_id` — это ключ из `provider.models`.
|
||||
|
||||
---
|
||||
|
||||
## Настройка моделей
|
||||
|
||||
Вы можете глобально настроить параметры модели через файл config.
|
||||
|
||||
```jsonc title="opencode.jsonc" {7-12,19-24}
|
||||
{
|
||||
"$schema": "https://opencode.ai/config.json",
|
||||
"provider": {
|
||||
"openai": {
|
||||
"models": {
|
||||
"gpt-5": {
|
||||
"options": {
|
||||
"reasoningEffort": "high",
|
||||
"textVerbosity": "low",
|
||||
"reasoningSummary": "auto",
|
||||
"include": ["reasoning.encrypted_content"],
|
||||
},
|
||||
},
|
||||
},
|
||||
},
|
||||
"anthropic": {
|
||||
"models": {
|
||||
"claude-sonnet-4-5-20250929": {
|
||||
"options": {
|
||||
"thinking": {
|
||||
"type": "enabled",
|
||||
"budgetTokens": 16000,
|
||||
},
|
||||
},
|
||||
},
|
||||
},
|
||||
},
|
||||
},
|
||||
}
|
||||
```
|
||||
|
||||
Здесь мы настраиваем глобальные параметры для двух встроенных моделей: `gpt-5` при доступе через поставщика `openai` и `claude-sonnet-4-20250514` при доступе через поставщика `anthropic`.
|
||||
Названия встроенных поставщиков и моделей можно найти на сайте [Models.dev](https://models.dev).
|
||||
|
||||
Вы также можете настроить эти параметры для любых используемых вами агентов. Конфигурация агента переопределяет любые глобальные параметры здесь. [Подробнее](/docs/agents/#additional).
|
||||
|
||||
Вы также можете определить собственные варианты, расширяющие встроенные. Варианты позволяют настраивать разные параметры для одной и той же модели без создания повторяющихся записей:
|
||||
|
||||
```jsonc title="opencode.jsonc" {6-21}
|
||||
{
|
||||
"$schema": "https://opencode.ai/config.json",
|
||||
"provider": {
|
||||
"opencode": {
|
||||
"models": {
|
||||
"gpt-5": {
|
||||
"variants": {
|
||||
"high": {
|
||||
"reasoningEffort": "high",
|
||||
"textVerbosity": "low",
|
||||
"reasoningSummary": "auto",
|
||||
},
|
||||
"low": {
|
||||
"reasoningEffort": "low",
|
||||
"textVerbosity": "low",
|
||||
"reasoningSummary": "auto",
|
||||
},
|
||||
},
|
||||
},
|
||||
},
|
||||
},
|
||||
},
|
||||
}
|
||||
```
|
||||
|
||||
---
|
||||
|
||||
## Варианты
|
||||
|
||||
Многие модели поддерживают несколько вариантов с разными конфигурациями. OpenCode поставляется со встроенными вариантами по умолчанию для популярных провайдеров.
|
||||
|
||||
### Встроенные варианты
|
||||
|
||||
OpenCode поставляется с вариантами по умолчанию для многих провайдеров:
|
||||
|
||||
**Антропный**:
|
||||
|
||||
- `high` — Бюджет с высоким мышлением (по умолчанию)
|
||||
- `max` — Максимальный бюджет мышления
|
||||
|
||||
**Открытый AI**:
|
||||
|
||||
Зависит от модели, но примерно:
|
||||
|
||||
- `none` — Никаких рассуждений.
|
||||
- `minimal` — Минимальные усилия рассуждения
|
||||
- `low` — Низкие усилия по рассуждению.
|
||||
- `medium` – средние усилия рассуждения.
|
||||
- `high` — Большие усилия по рассуждению.
|
||||
- `xhigh` — сверхвысокие мыслительные усилия.
|
||||
|
||||
**Google**:
|
||||
|
||||
- `low` – меньший бюджет усилий/токенов.
|
||||
- `high` — более высокий бюджет усилий/токенов
|
||||
|
||||
:::кончик
|
||||
Этот список не является исчерпывающим. Многие другие провайдеры также имеют встроенные настройки по умолчанию.
|
||||
:::
|
||||
|
||||
### Пользовательские варианты
|
||||
|
||||
Вы можете переопределить существующие варианты или добавить свои собственные:
|
||||
|
||||
```jsonc title="opencode.jsonc" {7-18}
|
||||
{
|
||||
"$schema": "https://opencode.ai/config.json",
|
||||
"provider": {
|
||||
"openai": {
|
||||
"models": {
|
||||
"gpt-5": {
|
||||
"variants": {
|
||||
"thinking": {
|
||||
"reasoningEffort": "high",
|
||||
"textVerbosity": "low",
|
||||
},
|
||||
"fast": {
|
||||
"disabled": true,
|
||||
},
|
||||
},
|
||||
},
|
||||
},
|
||||
},
|
||||
},
|
||||
}
|
||||
```
|
||||
|
||||
### Варианты цикла
|
||||
|
||||
Используйте сочетание клавиш `variant_cycle` для быстрого переключения между вариантами. [Подробнее ](/docs/keybinds).
|
||||
|
||||
---
|
||||
|
||||
## Загрузка моделей
|
||||
|
||||
Когда OpenCode запускается, он проверяет модели в следующем порядке приоритета:
|
||||
|
||||
1. Флаг командной строки `--model` или `-m`. Формат тот же, что и в файле конфигурации: `provider_id/model_id`.
|
||||
|
||||
2. Список моделей в конфигурации OpenCode.
|
||||
|
||||
```json title="opencode.json"
|
||||
{
|
||||
"$schema": "https://opencode.ai/config.json",
|
||||
"model": "anthropic/claude-sonnet-4-20250514"
|
||||
}
|
||||
```
|
||||
|
||||
Здесь используется формат `provider/model`.
|
||||
|
||||
3. Последняя использованная модель.
|
||||
|
||||
4. Первая модель, использующая внутренний приоритет.
|
||||
Reference in New Issue
Block a user