mirror of
https://gitea.toothfairyai.com/ToothFairyAI/tf_code.git
synced 2026-04-18 06:34:50 +00:00
fix(docs): locale translations
This commit is contained in:
@@ -95,9 +95,9 @@ OpenCode Zen คือรายชื่อโมเดลที่จัดท
|
||||
|
||||
---
|
||||
|
||||
### 302.เอไอ
|
||||
### 302.AI
|
||||
|
||||
1. ไปที่ [คอนโซล 302.AI](https://302.ai/) สร้างบัญชี และสร้างคีย์ API
|
||||
1. ไปที่ [302.AI console](https://302.ai/) สร้างบัญชี และสร้างคีย์ API
|
||||
|
||||
2. เรียกใช้คำสั่ง `/connect` และค้นหา **302.AI**
|
||||
|
||||
@@ -220,7 +220,7 @@ OpenCode Zen คือรายชื่อโมเดลที่จัดท
|
||||
2. **AWS Credential Chain** - โปรไฟล์, คีย์การเข้าถึง, ข้อมูลประจำตัวที่แชร์, บทบาท IAM, โทเค็นข้อมูลประจำตัวของเว็บ (EKS IRSA), ข้อมูลเมตาของอินสแตนซ์
|
||||
|
||||
:::note
|
||||
เมื่อตั้งค่าโทเค็นผู้ถือ (ผ่าน `/connect` หรือ `AWS_BEARER_TOKEN_BEDROCK`) โทเค็นนั้นจะมีความสำคัญเหนือกว่าวิธีการข้อมูลประจำตัว AWS ทั้งหมด รวมถึงโปรไฟล์ที่กำหนดค่าไว้
|
||||
เมื่อตั้งค่าBearer Token (ผ่าน `/connect` หรือ `AWS_BEARER_TOKEN_BEDROCK`) โทเค็นนั้นจะมีความสำคัญเหนือกว่าวิธีการข้อมูลประจำตัว AWS ทั้งหมด รวมถึงโปรไฟล์ที่กำหนดค่าไว้
|
||||
:::
|
||||
|
||||
3. รันคำสั่ง `/models` เพื่อเลือกรุ่นที่ต้องการ
|
||||
@@ -282,7 +282,7 @@ OpenCode Zen คือรายชื่อโมเดลที่จัดท
|
||||
การใช้การสมัครสมาชิก Claude Pro/Max ใน OpenCode ไม่ได้รับการสนับสนุนอย่างเป็นทางการจาก [Anthropic](https://anthropic.com)
|
||||
:::
|
||||
|
||||
##### ใช้ปุ่ม API
|
||||
##### ใช้API Key
|
||||
|
||||
คุณยังสามารถเลือก **สร้าง API คีย์** หากคุณไม่มีการสมัครสมาชิก Pro/Max นอกจากนี้ยังจะเปิดเบราว์เซอร์ของคุณและขอให้คุณเข้าสู่ระบบ Anthropic และให้รหัสที่คุณสามารถวางใน terminal ของคุณ
|
||||
|
||||
@@ -461,7 +461,7 @@ Cloudflare AI Gateway ช่วยให้คุณเข้าถึงโม
|
||||
/connect
|
||||
```
|
||||
|
||||
4. ป้อนโทเค็น Cloudflare API ของคุณ
|
||||
4. ป้อน Cloudflare API Token ของคุณ
|
||||
|
||||
```txt
|
||||
┌ API key
|
||||
@@ -659,23 +659,24 @@ GitLab Duo ให้การแชทแบบเอเจนต์ที่ข
|
||||
|
||||
เลือก **OAuth** และเบราว์เซอร์ของคุณจะเปิดขึ้นเพื่อรับสิทธิ์
|
||||
|
||||
#### การใช้โทเค็นการเข้าถึงส่วนบุคคล
|
||||
1. ไปที่ [การตั้งค่าผู้ใช้ GitLab > โทเค็นการเข้าถึง](https://gitlab.com/-/user_settings/personal_access_tokens)
|
||||
2. คลิก **เพิ่มโทเค็นใหม่**
|
||||
3. ชื่อ: `OpenCode`, ขอบเขต: `api`
|
||||
4. คัดลอกโทเค็น (เริ่มต้นด้วย `glpat-`)
|
||||
5. ป้อนลงใน terminal
|
||||
#### Using Personal Access Token
|
||||
|
||||
3. รันคำสั่ง `/models` เพื่อดูรุ่นที่มีจำหน่าย
|
||||
1. ไปที่ [GitLab User Settings > Access Tokens](https://gitlab.com/-/user_settings/personal_access_tokens)
|
||||
2. คลิก **เพิ่มโทเค็นใหม่**
|
||||
3. ชื่อ: `OpenCode`, ขอบเขต: `api`
|
||||
4. คัดลอกโทเค็น (เริ่มต้นด้วย `glpat-`)
|
||||
5. ป้อนลงใน terminal
|
||||
|
||||
```txt
|
||||
/models
|
||||
```
|
||||
6. รันคำสั่ง `/models` เพื่อดูรุ่นที่มีจำหน่าย
|
||||
|
||||
มีโมเดลที่ใช้ Claude สามรุ่นให้เลือก:
|
||||
- **duo-chat-haiku-4-5** (ค่าเริ่มต้น) - ตอบสนองรวดเร็วสำหรับงานด่วน
|
||||
- **duo-chat-sonnet-4-5** - ประสิทธิภาพที่สมดุลสำหรับขั้นตอนการทำงานส่วนใหญ่
|
||||
- **duo-chat-opus-4-5** - มีความสามารถมากที่สุดสำหรับการวิเคราะห์ที่ซับซ้อน
|
||||
```txt
|
||||
/models
|
||||
```
|
||||
|
||||
มีโมเดลที่ใช้ Claude สามรุ่นให้เลือก:
|
||||
- **duo-chat-haiku-4-5** (ค่าเริ่มต้น) - ตอบสนองรวดเร็วสำหรับงานด่วน
|
||||
- **duo-chat-sonnet-4-5** - ประสิทธิภาพที่สมดุลสำหรับขั้นตอนการทำงานส่วนใหญ่
|
||||
- **duo-chat-opus-4-5** - มีความสามารถมากที่สุดสำหรับการวิเคราะห์ที่ซับซ้อน
|
||||
|
||||
:::note
|
||||
คุณยังสามารถระบุตัวแปรสภาพแวดล้อม 'GITLAB_TOKEN' ได้หากคุณไม่ต้องการ
|
||||
@@ -865,9 +866,9 @@ export GITLAB_OAUTH_CLIENT_ID=your_application_id_here
|
||||
|
||||
---
|
||||
|
||||
### กร็อก
|
||||
### Groq
|
||||
|
||||
1. ไปที่ [คอนโซล Groq](https://console.groq.com/) คลิก **สร้าง API คีย์** และคัดลอกคีย์
|
||||
1. ไปที่ [Groq console](https://console.groq.com/) คลิก **Create API Key** และคัดลอกคีย์
|
||||
|
||||
2. เรียกใช้คำสั่ง `/connect` และค้นหา Groq
|
||||
|
||||
@@ -894,9 +895,9 @@ export GITLAB_OAUTH_CLIENT_ID=your_application_id_here
|
||||
|
||||
### Hugging Face
|
||||
|
||||
[ผู้ให้บริการการอนุมานใบหน้าแบบกอด](https://huggingface.co/docs/inference-providers) ช่วยให้สามารถเข้าถึงโมเดลแบบเปิดที่รองรับโดยผู้ให้บริการมากกว่า 17 ราย
|
||||
[ผู้ให้บริการการอนุมานHugging Face](https://huggingface.co/docs/inference-providers) ช่วยให้สามารถเข้าถึงโมเดลแบบเปิดที่รองรับโดยผู้ให้บริการมากกว่า 17 ราย
|
||||
|
||||
1. ไปที่ [การตั้งค่าการกอดใบหน้า](https://huggingface.co/settings/tokens/new?ownUserPermissions=inference.serverless.write&tokenType=fineGrained) เพื่อสร้างโทเค็นที่มีสิทธิ์ในการโทรไปยังผู้ให้บริการการอนุมาน
|
||||
1. ไปที่ [การตั้งค่าHugging Face](https://huggingface.co/settings/tokens/new?ownUserPermissions=inference.serverless.write&tokenType=fineGrained) เพื่อสร้างโทเค็นที่มีสิทธิ์ในการโทรไปยังผู้ให้บริการการอนุมาน
|
||||
|
||||
2. เรียกใช้คำสั่ง `/connect` และค้นหา **Hugging Face**
|
||||
|
||||
@@ -904,7 +905,7 @@ export GITLAB_OAUTH_CLIENT_ID=your_application_id_here
|
||||
/connect
|
||||
```
|
||||
|
||||
3. ป้อนโทเค็น Hugging Face ของคุณ
|
||||
3. ป้อน Hugging Face Token ของคุณ
|
||||
|
||||
```txt
|
||||
┌ API key
|
||||
@@ -1101,7 +1102,7 @@ IO.NET มี 17 โมเดลที่ได้รับการปรับ
|
||||
|
||||
---
|
||||
|
||||
### แอลเอ็ม สตูดิโอ
|
||||
### LM Studio
|
||||
|
||||
คุณสามารถกำหนดค่า opencode เพื่อใช้โมเดลท้องถิ่นผ่าน LM Studio
|
||||
|
||||
@@ -1135,7 +1136,7 @@ IO.NET มี 17 โมเดลที่ได้รับการปรับ
|
||||
|
||||
---
|
||||
|
||||
### มูนช็อตเอไอ
|
||||
### Moonshot AI
|
||||
|
||||
วิธีใช้ Kimi K2 จาก Moonshot AI:
|
||||
|
||||
@@ -1164,7 +1165,7 @@ IO.NET มี 17 โมเดลที่ได้รับการปรับ
|
||||
|
||||
---
|
||||
|
||||
### มินิแม็กซ์
|
||||
### MiniMax
|
||||
|
||||
1. ไปที่ [MiniMax API Console](https://platform.minimax.io/login) สร้างบัญชี และสร้างคีย์ API
|
||||
|
||||
@@ -1218,7 +1219,7 @@ IO.NET มี 17 โมเดลที่ได้รับการปรับ
|
||||
|
||||
---
|
||||
|
||||
### โอลามา
|
||||
### Ollama
|
||||
|
||||
คุณสามารถกำหนดค่า opencode เพื่อใช้โมเดลท้องถิ่นผ่าน Ollama
|
||||
|
||||
@@ -1260,7 +1261,7 @@ Ollama สามารถกำหนดค่าตัวเองสำหร
|
||||
|
||||
---
|
||||
|
||||
### โอลามา คลาวด์
|
||||
### Ollama Cloud
|
||||
|
||||
วิธีใช้ Ollama Cloud กับ OpenCode:
|
||||
|
||||
@@ -1326,7 +1327,7 @@ Ollama สามารถกำหนดค่าตัวเองสำหร
|
||||
/models
|
||||
```
|
||||
|
||||
##### ใช้ปุ่ม API
|
||||
##### ใช้API Key
|
||||
|
||||
หากคุณมีคีย์ API อยู่แล้ว คุณสามารถเลือก **ป้อนคีย์ API ด้วยตนเอง** และวางลงใน terminal ของคุณ
|
||||
|
||||
@@ -1867,8 +1868,8 @@ Vercel AI Gateway ช่วยให้คุณเข้าถึงโมเ
|
||||
|
||||
- **apiKey**: ตั้งค่าโดยใช้ไวยากรณ์ของตัวแปร `env` [เรียนรู้เพิ่มเติม](/docs/config#env-vars)
|
||||
- **ส่วนหัว**: ส่วนหัวที่กำหนดเองส่งไปพร้อมกับคำขอแต่ละรายการ
|
||||
- **limit.context**: โทเค็นอินพุตสูงสุดที่โมเดลยอมรับ
|
||||
- **limit.output**: โทเค็นสูงสุดที่โมเดลสามารถสร้างได้
|
||||
- **limit.context**: Input Tokens สูงสุดที่โมเดลยอมรับ
|
||||
- **limit.output**: Output Tokens สูงสุดที่โมเดลสามารถสร้างได้
|
||||
|
||||
ช่อง `limit` ช่วยให้ OpenCode เข้าใจบริบทที่คุณเหลืออยู่ ผู้ให้บริการมาตรฐานจะดึงข้อมูลเหล่านี้จาก models.dev โดยอัตโนมัติ
|
||||
|
||||
|
||||
Reference in New Issue
Block a user