mirror of
https://gitea.toothfairyai.com/ToothFairyAI/tf_code.git
synced 2026-04-22 16:44:36 +00:00
chore: generate
This commit is contained in:
@@ -434,7 +434,7 @@ Using your Claude Pro/Max subscription in OpenCode is not officially supported b
|
||||
└ enter
|
||||
```
|
||||
|
||||
4. 执行`/models`命令选择_Qwen 3 Coder 480B_等型号。
|
||||
4. 执行`/models`命令选择*Qwen 3 Coder 480B*等型号。
|
||||
|
||||
```txt
|
||||
/models
|
||||
@@ -546,7 +546,7 @@ Cloudflare AI Gateway lets you access models from OpenAI, Anthropic, Workers AI,
|
||||
└ enter
|
||||
```
|
||||
|
||||
4. 执行`/models`命令以选择DeepSeek模型,例如_DeepSeek Reasoner_。
|
||||
4. 执行`/models`命令以选择DeepSeek模型,例如*DeepSeek Reasoner*。
|
||||
|
||||
```txt
|
||||
/models
|
||||
@@ -913,7 +913,7 @@ The `global` region improves availability and reduces errors at no extra cost. U
|
||||
└ enter
|
||||
```
|
||||
|
||||
4. 执行`/models`命令选择_Kimi-K2-Instruct_ 或 _GLM-4.6_ 等模型。
|
||||
4. 执行`/models`命令选择*Kimi-K2-Instruct* 或 _GLM-4.6_ 等模型。
|
||||
|
||||
```txt
|
||||
/models
|
||||
@@ -1023,12 +1023,12 @@ npm install -g opencode-helicone-session
|
||||
|
||||
##### 常见螺旋接头
|
||||
|
||||
|標題 |描述 |
|
||||
| -------------------------- | ------------------------------------------------------------- |
|
||||
| `Helicone-Cache-Enabled` | Enable response caching (`true`/`false`) |
|
||||
| `Helicone-User-Id` | 点击用户跟踪指标 |
|
||||
| `Helicone-Property-[Name]` | 新增自定义属性(例如`Helicone-Property-Environment`)|
|
||||
| `Helicone-Prompt-Id` |将请求与提示版本相关联 |
|
||||
| 標題 | 描述 |
|
||||
| -------------------------- | ----------------------------------------------------- |
|
||||
| `Helicone-Cache-Enabled` | Enable response caching (`true`/`false`) |
|
||||
| `Helicone-User-Id` | 点击用户跟踪指标 |
|
||||
| `Helicone-Property-[Name]` | 新增自定义属性(例如`Helicone-Property-Environment`) |
|
||||
| `Helicone-Prompt-Id` | 将请求与提示版本相关联 |
|
||||
|
||||
See the [Helicone Header Directory](https://docs.helicone.ai/helicone-headers/header-directory) for all available headers.
|
||||
|
||||
@@ -1156,7 +1156,7 @@ IO.NET提供了17种针对各种例子进行优化的模型:
|
||||
└ enter
|
||||
```
|
||||
|
||||
4. 执行`/models`命令以选择_Kimi K2_。
|
||||
4. 执行`/models`命令以选择*Kimi K2*。
|
||||
|
||||
```txt
|
||||
/models
|
||||
@@ -1183,7 +1183,7 @@ IO.NET提供了17种针对各种例子进行优化的模型:
|
||||
└ enter
|
||||
```
|
||||
|
||||
4. 执行`/models`命令选择_M2.1_等型号。
|
||||
4. 执行`/models`命令选择*M2.1*等型号。
|
||||
|
||||
```txt
|
||||
/models
|
||||
@@ -1353,7 +1353,7 @@ OpenCode Zen 是 OpenCode 团队提供的经过测试和验证的模型列表。
|
||||
└ enter
|
||||
```
|
||||
|
||||
4. 执行`/models`命令选择_Qwen 3 Coder 480B_等型号。
|
||||
4. 执行`/models`命令选择*Qwen 3 Coder 480B*等型号。
|
||||
|
||||
```txt
|
||||
/models
|
||||
@@ -1499,7 +1499,7 @@ SAP AI Core跨统一平台提供对OpenAI、Anthropic、Google、Amazon、Meta
|
||||
└ enter
|
||||
```
|
||||
|
||||
4. 执行`/models`命令选择_gpt-oss-120b_等型号。
|
||||
4. 执行`/models`命令选择*gpt-oss-120b*等型号。
|
||||
|
||||
```txt
|
||||
/models
|
||||
@@ -1582,7 +1582,7 @@ To use [Scaleway Generative APIs](https://www.scaleway.com/en/docs/generative-ap
|
||||
└ enter
|
||||
```
|
||||
|
||||
4. 执行`/models`命令选择_Llama 3.3 70B_等型号。
|
||||
4. 执行`/models`命令选择*Llama 3.3 70B*等型号。
|
||||
|
||||
```txt
|
||||
/models
|
||||
@@ -1638,11 +1638,11 @@ Vercel AI Gateway 可以让您跨统一端点访问来自 OpenAI、Anthropic、G
|
||||
|
||||
一些有用的路由選項:
|
||||
|
||||
|選項 |描述 |
|
||||
| ------------------- | ---------------------------------------------------- |
|
||||
| `order` |提供者尝试顺序|
|
||||
| `only` |限制特定提供商 |
|
||||
| `zeroDataRetention` |仅使用零资料保留的政策|
|
||||
| 選項 | 描述 |
|
||||
| ------------------- | ---------------------- |
|
||||
| `order` | 提供者尝试顺序 |
|
||||
| `only` | 限制特定提供商 |
|
||||
| `zeroDataRetention` | 仅使用零资料保留的政策 |
|
||||
|
||||
---
|
||||
|
||||
@@ -1694,7 +1694,7 @@ Vercel AI Gateway 可以让您跨统一端点访问来自 OpenAI、Anthropic、G
|
||||
└ enter
|
||||
```
|
||||
|
||||
4. 执行`/models`命令选择_GLM-4.7_等模型。
|
||||
4. 执行`/models`命令选择*GLM-4.7*等模型。
|
||||
|
||||
```txt
|
||||
/models
|
||||
|
||||
Reference in New Issue
Block a user