mirror of
https://gitea.toothfairyai.com/ToothFairyAI/tf_code.git
synced 2026-04-25 01:54:49 +00:00
docs: improve zh-cn and zh-tw documentation translations (#13942)
This commit is contained in:
@@ -1,23 +1,23 @@
|
||||
---
|
||||
title: 模型
|
||||
description: 配置 LLM 供應商和模型。
|
||||
description: 設定 LLM 提供商和模型。
|
||||
---
|
||||
|
||||
OpenCode 使用 [AI SDK](https://ai-sdk.dev/) 和 [Models.dev](https://models.dev) 來支援 **75+ LLM 供應商**,並且它支援執行本地模型。
|
||||
OpenCode 使用 [AI SDK](https://ai-sdk.dev/) 和 [Models.dev](https://models.dev) 支援 **75+ LLM 提供商**,並支援執行本地模型。
|
||||
|
||||
---
|
||||
|
||||
## 供應商
|
||||
## 提供商
|
||||
|
||||
預設情況下會預先載入大多數流行的供應商。如果您已透過 `/connect` 指令添加了供應商的憑證,那麼它們將在您啟動 OpenCode 時可用。
|
||||
大多數熱門提供商已預設預先載入。如果您透過 `/connect` 指令新增了提供商的憑證,它們將在您啟動 OpenCode 時自動可用。
|
||||
|
||||
了解有關 [供應商](/docs/providers) 的更多資訊。
|
||||
了解更多關於[提供商](/docs/providers)的資訊。
|
||||
|
||||
---
|
||||
|
||||
## 選擇模型
|
||||
|
||||
配置完供應商後,您可以透過輸入以下內容來選擇您想要的模型:
|
||||
設定好提供商後,您可以透過輸入以下指令來選擇想要使用的模型:
|
||||
|
||||
```bash frame="none"
|
||||
/models
|
||||
@@ -27,15 +27,15 @@ OpenCode 使用 [AI SDK](https://ai-sdk.dev/) 和 [Models.dev](https://models.de
|
||||
|
||||
## 推薦模型
|
||||
|
||||
那裡有很多模型,每週都會有新模型問世。
|
||||
市面上有非常多的模型,每週都有新模型發布。
|
||||
|
||||
:::tip
|
||||
考慮使用我們推薦的模型之一。
|
||||
建議使用我們推薦的模型。
|
||||
:::
|
||||
|
||||
然而,既擅長生成程式碼又擅長工具呼叫的只有少數。
|
||||
然而,真正擅長程式碼生成和工具呼叫的模型只有少數幾個。
|
||||
|
||||
以下是與 OpenCode 配合良好的幾個模型,排名不分先後。 (這不是詳盡的列表,也不一定是最新的):
|
||||
以下是與 OpenCode 配合良好的幾個模型,排名不分先後(此列表並非詳盡無遺,也不一定是最新的):
|
||||
|
||||
- GPT 5.2
|
||||
- GPT 5.1 Codex
|
||||
@@ -46,10 +46,9 @@ OpenCode 使用 [AI SDK](https://ai-sdk.dev/) 和 [Models.dev](https://models.de
|
||||
|
||||
---
|
||||
|
||||
## 設定預設值
|
||||
## 設定預設模型
|
||||
|
||||
要將其中之一設定為預設模型,您可以在您的
|
||||
OpenCode 配置。
|
||||
要將某個模型設為預設模型,可以在 OpenCode 設定中設定 `model` 欄位。
|
||||
|
||||
```json title="opencode.json" {3}
|
||||
{
|
||||
@@ -58,15 +57,15 @@ OpenCode 配置。
|
||||
}
|
||||
```
|
||||
|
||||
這裡完整的 ID 是 `provider_id/model_id`。例如,如果您使用 [OpenCode Zen](/docs/zen),則您將使用 `opencode/gpt-5.1-codex` 來表示 GPT 5.1 Codex。
|
||||
這裡完整的 ID 格式為 `provider_id/model_id`。例如,如果您使用 [OpenCode Zen](/docs/zen),則 GPT 5.1 Codex 對應的值為 `opencode/gpt-5.1-codex`。
|
||||
|
||||
如果您配置了 [自定義供應商](/docs/providers#custom),則 `provider_id` 是配置中 `provider` 部分的鍵,`model_id` 是 `provider.models` 中的鍵。
|
||||
如果您設定了[自訂提供商](/docs/providers#custom),`provider_id` 是設定中 `provider` 部分的鍵名,`model_id` 是 `provider.models` 中的鍵名。
|
||||
|
||||
---
|
||||
|
||||
## 配置模型
|
||||
## 設定模型
|
||||
|
||||
您可以透過 config.json 全局配置模型的選項。
|
||||
您可以透過設定檔全域設定模型的選項。
|
||||
|
||||
```jsonc title="opencode.jsonc" {7-12,19-24}
|
||||
{
|
||||
@@ -100,12 +99,12 @@ OpenCode 配置。
|
||||
}
|
||||
```
|
||||
|
||||
在這裡,我們為兩個內建模型配置全局設定:`gpt-5`(透過 `openai` 供應商存取時)和 `claude-sonnet-4-20250514`(透過 `anthropic` 供應商存取時)。
|
||||
內建供應商和模型名稱可以在 [Models.dev](https://models.dev) 上找到。
|
||||
這裡我們為兩個內建模型設定了全域選項:透過 `openai` 提供商存取的 `gpt-5`,以及透過 `anthropic` 提供商存取的 `claude-sonnet-4-20250514`。
|
||||
內建的提供商和模型名稱可以在 [Models.dev](https://models.dev) 上查閱。
|
||||
|
||||
您還可以為您正在使用的任何代理配置這些選項。代理配置會覆寫此處的所有全局選項。 [了解更多](/docs/agents/#additional)。
|
||||
您還可以為使用中的任何代理設定這些選項。代理設定會覆寫此處的全域選項。[了解更多](/docs/agents/#additional)。
|
||||
|
||||
您還可以定義擴展內建變體的自定義變體。變體允許您為同一模型配置不同的設定,而無需建立重複的項目:
|
||||
您也可以定義擴展內建變體的自訂變體。變體允許您為同一個模型設定不同的選項,而無需建立重複的項目:
|
||||
|
||||
```jsonc title="opencode.jsonc" {6-21}
|
||||
{
|
||||
@@ -137,11 +136,11 @@ OpenCode 配置。
|
||||
|
||||
## 變體
|
||||
|
||||
許多模型支援具有不同配置的多種變體。OpenCode 附帶了流行供應商的內建預設變體。
|
||||
許多模型支援具有不同設定的多種變體。OpenCode 為熱門提供商內建了預設變體。
|
||||
|
||||
### 內建變體
|
||||
|
||||
OpenCode 附帶了許多供應商的預設變體:
|
||||
OpenCode 為許多提供商提供了預設變體:
|
||||
|
||||
**Anthropic**:
|
||||
|
||||
@@ -152,25 +151,25 @@ OpenCode 附帶了許多供應商的預設變體:
|
||||
|
||||
因模型而異,但大致如下:
|
||||
|
||||
- `none` - 沒有推理
|
||||
- `minimal` - 最少的推理工作
|
||||
- `low` - 推理工作量低
|
||||
- `medium` - 中等推理工作量
|
||||
- `high` - 高推理能力
|
||||
- `xhigh` - 極高的推理能力
|
||||
- `none` - 無推理
|
||||
- `minimal` - 極少推理
|
||||
- `low` - 低推理
|
||||
- `medium` - 中等推理
|
||||
- `high` - 高推理
|
||||
- `xhigh` - 超高推理
|
||||
|
||||
**Google**:
|
||||
**Google**:
|
||||
|
||||
- `low` - 降低工作量/Tokens 預算
|
||||
- `high` - 更高的工作量/Tokens 預算
|
||||
- `low` - 較低推理/Token 預算
|
||||
- `high` - 較高推理/Token 預算
|
||||
|
||||
:::tip
|
||||
該列表並不全面。許多其他供應商也有內建的預設值。
|
||||
此列表並不全面,許多其他提供商也有內建的預設變體。
|
||||
:::
|
||||
|
||||
### 自定義變體
|
||||
### 自訂變體
|
||||
|
||||
您可以覆寫現有變體或添加您自己的變體:
|
||||
您可以覆寫現有變體或新增自己的變體:
|
||||
|
||||
```jsonc title="opencode.jsonc" {7-18}
|
||||
{
|
||||
@@ -195,19 +194,19 @@ OpenCode 附帶了許多供應商的預設變體:
|
||||
}
|
||||
```
|
||||
|
||||
### 循環變體
|
||||
### 切換變體
|
||||
|
||||
使用鍵綁定 `variant_cycle` 在變體之間快速切換。 [了解更多](/docs/keybinds)。
|
||||
使用快捷鍵 `variant_cycle` 可以快速在變體之間切換。[了解更多](/docs/keybinds)。
|
||||
|
||||
---
|
||||
|
||||
## 載入模型
|
||||
|
||||
當 OpenCode 啟動時,它會按以下優先順序檢查模型:
|
||||
OpenCode 啟動時,會按以下優先順序載入模型:
|
||||
|
||||
1. `--model` 或 `-m` 命令列旗標。格式與設定檔中的相同:`provider_id/model_id`。
|
||||
1. `--model` 或 `-m` 命令列旗標。格式與設定檔中相同:`provider_id/model_id`。
|
||||
|
||||
2. OpenCode 配置中的模型列表。
|
||||
2. OpenCode 設定中的 model 欄位。
|
||||
|
||||
```json title="opencode.json"
|
||||
{
|
||||
@@ -216,8 +215,8 @@ OpenCode 附帶了許多供應商的預設變體:
|
||||
}
|
||||
```
|
||||
|
||||
這裡的格式是 `provider/model`。
|
||||
格式為 `provider/model`。
|
||||
|
||||
3. 最後使用的模型。
|
||||
3. 上次使用的模型。
|
||||
|
||||
4. 第一個模型使用內部優先順序。
|
||||
4. 按內部優先順序排列的第一個可用模型。
|
||||
|
||||
Reference in New Issue
Block a user