fix(docs): locale translations

This commit is contained in:
Adam
2026-02-10 16:02:18 -06:00
committed by opencode
parent 3894c217cc
commit 50c705cd2d
115 changed files with 700 additions and 702 deletions

View File

@@ -95,9 +95,9 @@ OpenCode Zen คือรายชื่อโมเดลที่จัดท
---
### 302.เอไอ
### 302.AI
1. ไปที่ [คอนโซล 302.AI](https://302.ai/) สร้างบัญชี และสร้างคีย์ API
1. ไปที่ [302.AI console](https://302.ai/) สร้างบัญชี และสร้างคีย์ API
2. เรียกใช้คำสั่ง `/connect` และค้นหา **302.AI**
@@ -220,7 +220,7 @@ OpenCode Zen คือรายชื่อโมเดลที่จัดท
2. **AWS Credential Chain** - โปรไฟล์, คีย์การเข้าถึง, ข้อมูลประจำตัวที่แชร์, บทบาท IAM, โทเค็นข้อมูลประจำตัวของเว็บ (EKS IRSA), ข้อมูลเมตาของอินสแตนซ์
:::note
เมื่อตั้งค่าโทเค็นผู้ถือ (ผ่าน `/connect` หรือ `AWS_BEARER_TOKEN_BEDROCK`) โทเค็นนั้นจะมีความสำคัญเหนือกว่าวิธีการข้อมูลประจำตัว AWS ทั้งหมด รวมถึงโปรไฟล์ที่กำหนดค่าไว้
เมื่อตั้งค่าBearer Token (ผ่าน `/connect` หรือ `AWS_BEARER_TOKEN_BEDROCK`) โทเค็นนั้นจะมีความสำคัญเหนือกว่าวิธีการข้อมูลประจำตัว AWS ทั้งหมด รวมถึงโปรไฟล์ที่กำหนดค่าไว้
:::
3. รันคำสั่ง `/models` เพื่อเลือกรุ่นที่ต้องการ
@@ -282,7 +282,7 @@ OpenCode Zen คือรายชื่อโมเดลที่จัดท
การใช้การสมัครสมาชิก Claude Pro/Max ใน OpenCode ไม่ได้รับการสนับสนุนอย่างเป็นทางการจาก [Anthropic](https://anthropic.com)
:::
##### ใช้ปุ่ม API
##### ใช้API Key
คุณยังสามารถเลือก **สร้าง API คีย์** หากคุณไม่มีการสมัครสมาชิก Pro/Max นอกจากนี้ยังจะเปิดเบราว์เซอร์ของคุณและขอให้คุณเข้าสู่ระบบ Anthropic และให้รหัสที่คุณสามารถวางใน terminal ของคุณ
@@ -461,7 +461,7 @@ Cloudflare AI Gateway ช่วยให้คุณเข้าถึงโม
/connect
```
4. ป้อนโทเค็น Cloudflare API ของคุณ
4. ป้อน Cloudflare API Token ของคุณ
```txt
┌ API key
@@ -659,23 +659,24 @@ GitLab Duo ให้การแชทแบบเอเจนต์ที่ข
เลือก **OAuth** และเบราว์เซอร์ของคุณจะเปิดขึ้นเพื่อรับสิทธิ์
#### การใช้โทเค็นการเข้าถึงส่วนบุคคล
1. ไปที่ [การตั้งค่าผู้ใช้ GitLab > โทเค็นการเข้าถึง](https://gitlab.com/-/user_settings/personal_access_tokens)
2. คลิก **เพิ่มโทเค็นใหม่**
3. ชื่อ: `OpenCode`, ขอบเขต: `api`
4. คัดลอกโทเค็น (เริ่มต้นด้วย `glpat-`)
5. ป้อนลงใน terminal
#### Using Personal Access Token
3. รันคำสั่ง `/models` เพื่อดูรุ่นที่มีจำหน่าย
1. ไปที่ [GitLab User Settings > Access Tokens](https://gitlab.com/-/user_settings/personal_access_tokens)
2. คลิก **เพิ่มโทเค็นใหม่**
3. ชื่อ: `OpenCode`, ขอบเขต: `api`
4. คัดลอกโทเค็น (เริ่มต้นด้วย `glpat-`)
5. ป้อนลงใน terminal
```txt
/models
```
6. รันคำสั่ง `/models` เพื่อดูรุ่นที่มีจำหน่าย
มีโมเดลที่ใช้ Claude สามรุ่นให้เลือก:
- **duo-chat-haiku-4-5** (ค่าเริ่มต้น) - ตอบสนองรวดเร็วสำหรับงานด่วน
- **duo-chat-sonnet-4-5** - ประสิทธิภาพที่สมดุลสำหรับขั้นตอนการทำงานส่วนใหญ่
- **duo-chat-opus-4-5** - มีความสามารถมากที่สุดสำหรับการวิเคราะห์ที่ซับซ้อน
```txt
/models
```
มีโมเดลที่ใช้ Claude สามรุ่นให้เลือก:
- **duo-chat-haiku-4-5** (ค่าเริ่มต้น) - ตอบสนองรวดเร็วสำหรับงานด่วน
- **duo-chat-sonnet-4-5** - ประสิทธิภาพที่สมดุลสำหรับขั้นตอนการทำงานส่วนใหญ่
- **duo-chat-opus-4-5** - มีความสามารถมากที่สุดสำหรับการวิเคราะห์ที่ซับซ้อน
:::note
คุณยังสามารถระบุตัวแปรสภาพแวดล้อม 'GITLAB_TOKEN' ได้หากคุณไม่ต้องการ
@@ -865,9 +866,9 @@ export GITLAB_OAUTH_CLIENT_ID=your_application_id_here
---
### กร็อก
### Groq
1. ไปที่ [คอนโซล Groq](https://console.groq.com/) คลิก **สร้าง API คีย์** และคัดลอกคีย์
1. ไปที่ [Groq console](https://console.groq.com/) คลิก **Create API Key** และคัดลอกคีย์
2. เรียกใช้คำสั่ง `/connect` และค้นหา Groq
@@ -894,9 +895,9 @@ export GITLAB_OAUTH_CLIENT_ID=your_application_id_here
### Hugging Face
[ผู้ให้บริการการอนุมานใบหน้าแบบกอด](https://huggingface.co/docs/inference-providers) ช่วยให้สามารถเข้าถึงโมเดลแบบเปิดที่รองรับโดยผู้ให้บริการมากกว่า 17 ราย
[ผู้ให้บริการการอนุมานHugging Face](https://huggingface.co/docs/inference-providers) ช่วยให้สามารถเข้าถึงโมเดลแบบเปิดที่รองรับโดยผู้ให้บริการมากกว่า 17 ราย
1. ไปที่ [การตั้งค่าการกอดใบหน้า](https://huggingface.co/settings/tokens/new?ownUserPermissions=inference.serverless.write&tokenType=fineGrained) เพื่อสร้างโทเค็นที่มีสิทธิ์ในการโทรไปยังผู้ให้บริการการอนุมาน
1. ไปที่ [การตั้งค่าHugging Face](https://huggingface.co/settings/tokens/new?ownUserPermissions=inference.serverless.write&tokenType=fineGrained) เพื่อสร้างโทเค็นที่มีสิทธิ์ในการโทรไปยังผู้ให้บริการการอนุมาน
2. เรียกใช้คำสั่ง `/connect` และค้นหา **Hugging Face**
@@ -904,7 +905,7 @@ export GITLAB_OAUTH_CLIENT_ID=your_application_id_here
/connect
```
3. ป้อนโทเค็น Hugging Face ของคุณ
3. ป้อน Hugging Face Token ของคุณ
```txt
┌ API key
@@ -1101,7 +1102,7 @@ IO.NET มี 17 โมเดลที่ได้รับการปรับ
---
### แอลเอ็ม สตูดิโอ
### LM Studio
คุณสามารถกำหนดค่า opencode เพื่อใช้โมเดลท้องถิ่นผ่าน LM Studio
@@ -1135,7 +1136,7 @@ IO.NET มี 17 โมเดลที่ได้รับการปรับ
---
### มูนช็อตเอไอ
### Moonshot AI
วิธีใช้ Kimi K2 จาก Moonshot AI:
@@ -1164,7 +1165,7 @@ IO.NET มี 17 โมเดลที่ได้รับการปรับ
---
### มินิแม็กซ์
### MiniMax
1. ไปที่ [MiniMax API Console](https://platform.minimax.io/login) สร้างบัญชี และสร้างคีย์ API
@@ -1218,7 +1219,7 @@ IO.NET มี 17 โมเดลที่ได้รับการปรับ
---
### โอลามา
### Ollama
คุณสามารถกำหนดค่า opencode เพื่อใช้โมเดลท้องถิ่นผ่าน Ollama
@@ -1260,7 +1261,7 @@ Ollama สามารถกำหนดค่าตัวเองสำหร
---
### โอลามา คลาวด์
### Ollama Cloud
วิธีใช้ Ollama Cloud กับ OpenCode:
@@ -1326,7 +1327,7 @@ Ollama สามารถกำหนดค่าตัวเองสำหร
/models
```
##### ใช้ปุ่ม API
##### ใช้API Key
หากคุณมีคีย์ API อยู่แล้ว คุณสามารถเลือก **ป้อนคีย์ API ด้วยตนเอง** และวางลงใน terminal ของคุณ
@@ -1867,8 +1868,8 @@ Vercel AI Gateway ช่วยให้คุณเข้าถึงโมเ
- **apiKey**: ตั้งค่าโดยใช้ไวยากรณ์ของตัวแปร `env` [เรียนรู้เพิ่มเติม](/docs/config#env-vars)
- **ส่วนหัว**: ส่วนหัวที่กำหนดเองส่งไปพร้อมกับคำขอแต่ละรายการ
- **limit.context**: โทเค็นอินพุตสูงสุดที่โมเดลยอมรับ
- **limit.output**: โทเค็นสูงสุดที่โมเดลสามารถสร้างได้
- **limit.context**: Input Tokens สูงสุดที่โมเดลยอมรับ
- **limit.output**: Output Tokens สูงสุดที่โมเดลสามารถสร้างได้
ช่อง `limit` ช่วยให้ OpenCode เข้าใจบริบทที่คุณเหลืออยู่ ผู้ให้บริการมาตรฐานจะดึงข้อมูลเหล่านี้จาก models.dev โดยอัตโนมัติ