fix(docs): locale translations for nav elements and headings

This commit is contained in:
Adam
2026-02-11 18:51:27 -06:00
parent 8eea53a41e
commit aea68c386a
484 changed files with 12718 additions and 11212 deletions

View File

@@ -1,37 +1,36 @@
---
title: Providers
description: Using any LLM provider in opencode.
title: 공급자
description: OpenCode에서 LLM 공급자를 사용합니다.
---
import config from "../../../../config.mjs"
export const console = config.console
opencode는 [AI SDK](https://ai-sdk.dev/) 및 [Models.dev](https://models.dev)를 사용하여 **75+ LLM 제공 업체**를 지원하며 로컬 모델 실행니다.
OpenCode는 [AI SDK](https://ai-sdk.dev/) 및 [Models.dev](https://models.dev)를 사용하여 **75개 이상의 LLM 공급자**를 지원하며 로컬 모델 실행할 수 있습니다.
필요한 공급자를 추가하려면:
1. `/connect` 명령을 사용하여 공급자를 위한 API 열쇠를 추가하십시오.
2. opencode config에 있는 공급자를 구성하십시오.
1. `/connect` 명령을 사용하여 공급자 API 를 추가하십시오.
2. OpenCode 구성에서 공급자를 구성하십시오.
---
### 등급
### 자격 증명
공급자의 API 키를 `/connect` 명령으로 추가하면 저장됩니다.
`~/.local/share/opencode/auth.json`에서.
`/connect` 명령으로 공급자의 API 키를 추가하면 다음 위치에 저장됩니다:
`~/.local/share/opencode/auth.json`
---
#### 콘피그
#### 구성
opencode의 `provider` 섹션을 통해 공급자를 사용자 정의 할 수 있습니다.
설정.
OpenCode 설정의 `provider` 섹션을 통해 공급자를 사용자 정의할 수 있습니다.
---
### 기본 URL
`baseURL` 옵션을 설정하여 모든 공급자를위한 기본 URL을 사용자 정의 할 수 있습니다. 프록시 서비스 또는 사용자 정의 엔드포인트를 사용할 때 유용합니다.
`baseURL` 옵션을 설정하여 모든 공급자를 위한 기본 URL을 사용자 정의할 수 있습니다. 프록시 서비스 또는 사용자 정의 엔드포인트를 사용할 때 유용합니다.
```json title="opencode.json" {6}
{
@@ -48,24 +47,23 @@ opencode의 `provider` 섹션을 통해 공급자를 사용자 정의 할 수
---
## opencode
## OpenCode Zen
OpenCode Zen은 opencode 팀이 제공하는 모델 목록입니다.
opencode와 잘 작동하도록 테스트 및 검증. [더 알아보기](/docs/zen).
OpenCode Zen은 OpenCode 팀이 OpenCode와 잘 작동하도록 테스트하고 검증한 모델 목록입니다. [더 알아보기](/docs/zen).
:::tip
새로운 경우, OpenCode Zen로 시작하는 것이 좋습니다.
처음이라면 OpenCode Zen로 시작하는 것이 좋습니다.
:::
1. TUI에서 `/connect` 명령을 실행하고, opencode를 선택하고, [opencode.ai/auth](https://opencode.ai/auth)에 머리를 선택합니다.
1. TUI에서 `/connect` 명령을 실행하고 `opencode`를 선택한 뒤, [opencode.ai/auth](https://opencode.ai/auth)로 이동합니다.
```txt
/connect
```
2. 로그인, 청구 세부 정보를 추가하고 API 키를 복사하십시오.
2. 로그인하고 결제 정보를 입력한 후 API 키를 복사하십시오.
3. API 키를 붙여.
3. API 키를 붙여넣습니다.
```txt
┌ API key
@@ -74,30 +72,29 @@ opencode와 잘 작동하도록 테스트 및 검증. [더 알아보기](/docs/z
└ enter
```
4. TUI `/models`를 실행하여 우리가 추천하는 모델 목록을 볼 수 있습니다.
4. TUI에서 `/models`를 실행하여 추천 모델 목록을 볼 수 있습니다.
```txt
/models
```
opencode의 다른 공급자와 같이 작동하 사용하기에 완전히 선택입니다.
OpenCode의 다른 공급자처럼 작동하 사용 완전히 선택 사항입니다.
---
## 디렉토리
세부사항에 있는 공급자의 몇몇을 보십시오. 공급자를 추가하려는 경우
목록, PR을 무료로 엽니 다.
공급자 세부 정보를 확인하세요. 목록에 공급자를 추가하려면 PR을 열어주세요.
:::note
여기에서 공급자를 볼 수 없습니다? PR 제출
원하는 공급자가 없나요? PR 제출해 주세요.
:::
---
### 302.AI
1. [302.AI 콘솔](https://302.ai/)에 머리, 계정을 만들고 API 키를 생성합니다.
1. [302.AI 콘솔](https://302.ai/)로 이동하여 계정을 만들고 API 키를 생성합니다.
2. `/connect` 명령을 실행하고 **302.AI**를 검색하십시오.
@@ -122,22 +119,21 @@ opencode의 다른 공급자와 같이 작동하고 사용하기에 완전히
---
### 아마존 베드록
### Amazon Bedrock
opencode로 Amazon Bedrock을 사용하려면:
OpenCode로 Amazon Bedrock을 사용하려면:
1. Amazon Bedrock 콘솔 및 요청에서 ** 모델 카탈로그**에 머리
원하는 모델에 액세스.
1. Amazon Bedrock 콘솔의 **Model catalog**로 이동하여 원하는 모델에 대한 액세스를 요청합니다.
:::tip
Amazon Bedrock에서 원하는 모델에 액세스해야합니다.
Amazon Bedrock에서 원하는 모델에 대한 액세스 권한이 있어야 합니다.
:::
2. ** 설정** 다음 방법 중 하나를 사용하여:
2. 다음 방법 중 하나를 사용하여 **설정**합니다:
### 환경 변수 (빠른 시작)
opencode를 실행하는 동안 이러한 환경 변수 중 하나를 설정:
OpenCode를 실행하는 동안 다음 환경 변수 중 하나를 설정합니다:
```bash
# Option 1: Using AWS access keys
@@ -150,16 +146,16 @@ opencode를 실행하는 동안 이러한 환경 변수 중 하나를 설정:
AWS_BEARER_TOKEN_BEDROCK=XXX opencode
```
또는 bash 프로필에 추가:
또는 bash 프로필에 추가합니다:
```bash title="~/.bash_profile"
export AWS_PROFILE=my-dev-profile
export AWS_REGION=us-east-1
```
#### 설정 파일 (추천)
#### 설정 파일 (권장)
프로젝트 별 또는 지속적 구성의 경우 `opencode.json` 사용하십시오.
프로젝트별 또는 영구 구성을 위해 `opencode.json` 사용하십시오.
```json title="opencode.json"
{
@@ -175,14 +171,14 @@ opencode를 실행하는 동안 이러한 환경 변수 중 하나를 설정:
}
```
** 유효한 옵션:**
**유효한 옵션:**
- `region` - AWS 지역 (예: `us-east-1`, `eu-west-1`)
- `profile` - AWS는 `~/.aws/credentials`에서 단면도를 지명했습니다
- `endpoint` - VPC 엔드 포인트에 대한 사용자 정의 엔드 포인트 URL (일반 `baseURL` 옵션 별)
- `region` - AWS 리전 (예: `us-east-1`, `eu-west-1`)
- `profile` - `~/.aws/credentials`의 AWS 프로필 이름
- `endpoint` - VPC 엔드포인트 등을 위한 사용자 정의 엔드포인트 URL (일반 `baseURL` 옵션)
:::tip
구성 파일 옵션은 환경 변수에 대한 precedence를 가져옵니다.
구성 파일 옵션은 환경 변수보다 우선 순위가 높습니다.
:::
#### 고급: VPC 엔드포인트
@@ -205,36 +201,35 @@ Bedrock의 VPC 엔드포인트를 사용하는 경우:
```
:::note
`endpoint` 옵션은 일반적인 `baseURL` 옵션의 별칭입니다. `endpoint`와 `baseURL` 둘 다 지정되는 경우에, `endpoint`는 전진합니다.
`endpoint` 옵션은 일반적인 `baseURL` 옵션의 별칭입니다. `endpoint`와 `baseURL` 둘 다 지정 경우 `endpoint`가 우선합니다.
:::
#### 인증 방법
-**`AWS_ACCESS_KEY_ID`/`AWS_SECRET_ACCESS_KEY`**: IAM 사용자 생성 및 AWS 콘솔에서 액세스 키 생성
- **`AWS_ACCESS_KEY_ID`/`AWS_SECRET_ACCESS_KEY`**: IAM 사용자 및 AWS 콘솔에서 액세스 키 생성
- **`AWS_PROFILE`**: `~/.aws/credentials`의 프로필 이름을 사용합니다. `aws configure --profile my-profile` 또는 `aws sso login`으로 먼저 구성하십시오.
- **`AWS_BEARER_TOKEN_BEDROCK`**: Amazon Bedrock 콘솔에서 임시 API 키 생성
- **`AWS_WEB_IDENTITY_TOKEN_FILE` / `AWS_ROLE_ARN`**: EKS IRSA (서비스 계정용 IAM 역할) 또는 다른 Kubernetes 환경의 OIDC 연동. 이 환경 변수는 서비스 계정을 사용할 때 Kubernetes에 의해 자동으로 주입됩니다.
- **`AWS_PROFILE`**: `~/.aws/credentials`의 프로필 이름을 사용합니다. `aws configure --profile my-profile` 또는 `aws sso login`로 첫번째 구성
- **`AWS_BEARER_TOKEN_BEDROCK`**: Amazon Bedrock 콘솔에서 장기적인 API 키 생성
- **`AWS_WEB_IDENTITY_TOKEN_FILE` / `AWS_ROLE_ARN`**: EKS IRSA (서비스 계정을위한IAM 역할) 또는 OIDC federation과 다른 쿠버네티스 환경. 이 환경 변수는 서비스 계정 할당을 사용할 때 쿠버네티스에 의해 자동으로 주사됩니다.
#### 인증
#### 인증 우선 순위
Amazon Bedrock은 다음과 같은 인증 우선 순위를 사용합니다.
1. ** 브라우저 토큰 ** - `AWS_BEARER_TOKEN_BEDROCK` 환경 변수 또는 `/connect` 명령에서 토큰
2. **AWS Credential Chain ** - 프로필, 액세스 키, 공유 자격 증명, IAM 역할, 웹 ID 토큰 (EKS IRSA), 인스턴스 메타 데이터
1. **Bearer Token** - `AWS_BEARER_TOKEN_BEDROCK` 환경 변수 또는 `/connect` 명령 토큰
2. **AWS Credential Chain** - 프로필, 액세스 키, 공유 자격 증명, IAM 역할, 웹 ID 토큰 (EKS IRSA), 인스턴스 메타데이터
:::note
Bearer 토큰을 설정할 때 (`/connect` 또는 `AWS_BEARER_TOKEN_BEDROCK`를 통해), 구성 된 프로파일을 포함한 모든 AWS 자격 방법을 통해 우선 순위가니다.
Bearer 토큰을 설정할 때 (`/connect` 또는 `AWS_BEARER_TOKEN_BEDROCK`를 통해), 구성된 프로을 포함한 모든 AWS 자격 증명 방법보다 우선 순위가 높습니다.
:::
3. 당신이 원하는 모형을 선정하기 위하여 `/models` 명령을 실행하십시오.
3. `/models` 명령을 실행하여 원하는 모델을 선택하십시오.
```txt
/models
```
:::note
custom inference profiles를 위해, 열쇠에 있는 모형 그리고 공급자 이름을 사용하고 arn에 `id` 재산을 놓습니다. 이것은 정확한 캐싱을 지킵니다:
사용자 정의 추론 프로필(custom inference profiles)의 경우, 키에 모델과 공급자 이름을 사용하고 `id` 속성에 ARN을 설정하십시오. 이렇게 하면 올바른 캐싱이 보장됩니다:
```json title="opencode.json"
{
@@ -256,16 +251,15 @@ custom inference profiles를 위해, 열쇠에 있는 모형 그리고 공급자
---
#### 안토픽
#### Anthropic
1. 가입하면 `/connect` 명령을 실행하고 Anthropic을 선택합니다.
1. 가입 `/connect` 명령을 실행하고 **Anthropic**을 선택합니다.
```txt
/connect
```
2. **Claude Pro/Max** 옵션을 선택하 브라우저 수 있습니다.
자주 묻는 질문
2. **Claude Pro/Max** 옵션을 선택하 브라우저니다.
```txt
┌ Select auth method
@@ -276,39 +270,38 @@ custom inference profiles를 위해, 열쇠에 있는 모형 그리고 공급자
```
3. 이제 모든 Anthropic 모델은 `/models` 명령을 사용할 때 사용할 수 있어야합니다.
3. 이제 `/models` 명령을 사용할 때 모든 Anthropic 모델을 사용할 수 있니다.
```txt
/models
```
:::info
opencode Claude Pro/Max 구독을 사용하 [Anthropic](https://anthropic.com)에서 공식적으로 지원지 않습니다.
OpenCode에서 Claude Pro/Max 구독을 사용하는 것은 [Anthropic](https://anthropic.com)에서 공식적으로 지원지 않습니다.
:::
##### API 키 사용
Pro/Max 구독이 없는 경우 **Create an API Key**를 선택할 수 있습니다. 브라우저 열고 Anthropic에 로그인하고 terminal에서 붙여넣을 수있는 코드를 제공합니다.
Pro/Max 구독이 없는 경우 **Create an API Key**를 선택할 수 있습니다. 브라우저고 Anthropic에 로그인한 후 터미널에 붙여넣을 수 있는 코드를 제공합니다.
또는 이미 API 키가 있다면, ** 수동으로 API Key**를 입력하고 terminal에서 붙여넣을 수 있습니다.
또는 이미 API 키가 있다면, **Manually enter API Key**를 선택하고 터미널에 붙여넣을 수 있습니다.
---
### Azure OpenAI
:::note
"나는 미안 해요, 하지만 나는 그 요청을 지원할 수 없습니다" 오류, 에서 콘텐츠 필터를 변경 시도 **DefaultV2**에서 **Default**로 당신의 Azure 자원에.
"I'm sorry, but I can't support that request" 오류가 발생하면, Azure 리소스의 콘텐츠 필터를 **DefaultV2**에서 **Default**로 변경해 보세요.
:::
1. [Azure 포털](https://portal.azure.com/) 이상으로 머리와 **Azure OpenAI** 리소스를 만듭니다. 당신은 필요로 할 것이다:
- **소스 이름**: 이것은 API 엔드 포인트의 일부가됩니다 (`https://RESOURCE_NAME.openai.azure.com/`)
- ** API 키**: `KEY 1` 또는 당신의 자원에서 `KEY 2`
1. [Azure 포털](https://portal.azure.com/)동하여 **Azure OpenAI** 리소스를 만듭니다. 다음이 필요합니다:
- **리소스 이름**: API 엔드포인트의 일부가 됩니다 (`https://RESOURCE_NAME.openai.azure.com/`)
- **API 키**: 리소스의 `KEY 1` 또는 `KEY 2`
2. [Azure AI Foundry](https://ai.azure.com/)로 이동하여 모델을 배포합니다.
:::note
배포 이름은 제대로 작동하려면 opencode의 모델 이름 일치해야합니다.
배포 이름은 제대로 작동하려면 OpenCode의 모델 이름 일치해야 합니다.
:::
3. `/connect` 명령을 실행하고 **Azure**를 검색하십시오.
@@ -326,19 +319,19 @@ Pro/Max 구독이 없는 경우 **Create an API Key**를 선택할 수 있습니
└ enter
```
5. 환경 변수로 리소스 이름을 설정:
5. 리소스 이름을 환경 변수로 설정:
```bash
AZURE_RESOURCE_NAME=XXX opencode
```
또는 bash 프로파일에 추가:
또는 bash 프로에 추가:
```bash title="~/.bash_profile"
```bash title="~/.bash_profile"
export AZURE_RESOURCE_NAME=XXX
```
```
6. `/models` 명령을 실행하여 배포 된 모델을 선택하십시오.
6. `/models` 명령을 실행하여 배포된 모델을 선택하십시오.
```txt
/models
@@ -346,17 +339,16 @@ Pro/Max 구독이 없는 경우 **Create an API Key**를 선택할 수 있습니
---
### Azure Cognitive 서비스
### Azure Cognitive Services
1. [Azure 포털](https://portal.azure.com/) 이상으로 머리와 **Azure OpenAI** 리소스를 만듭니다. 당신은 필요로 할 것이다:
- **소스 이름**: 이것은 API 엔드 포인트의 일부가됩니다 (`https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/`)
- ** API 키**: `KEY 1` 또는 당신의 자원에서 `KEY 2`
1. [Azure 포털](https://portal.azure.com/)동하여 **Azure OpenAI** 리소스를 만듭니다. 다음이 필요합니다:
- **리소스 이름**: API 엔드포인트의 일부가 됩니다 (`https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/`)
- **API 키**: 리소스의 `KEY 1` 또는 `KEY 2`
2. [Azure AI Foundry](https://ai.azure.com/)로 이동하여 모델을 배포합니다.
:::note
배포 이름은 제대로 작동하려면 opencode의 모델 이름 일치해야합니다.
배포 이름은 제대로 작동하려면 OpenCode의 모델 이름 일치해야 합니다.
:::
3. `/connect` 명령을 실행하고 **Azure Cognitive Services**를 검색하십시오.
@@ -374,19 +366,19 @@ Pro/Max 구독이 없는 경우 **Create an API Key**를 선택할 수 있습니
└ enter
```
5. 환경 변수로 리소스 이름을 설정:
5. 리소스 이름을 환경 변수로 설정:
```bash
AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencode
```
또는 bash 프로파일에 추가:
또는 bash 프로에 추가:
```bash title="~/.bash_profile"
```bash title="~/.bash_profile"
export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX
```
```
6. `/models` 명령을 실행하여 배포 된 모델을 선택하십시오.
6. `/models` 명령을 실행하여 배포된 모델을 선택하십시오.
```txt
/models
@@ -394,11 +386,11 @@ Pro/Max 구독이 없는 경우 **Create an API Key**를 선택할 수 있습니
---
#### 기본
#### Baseten
1. [Baseten](https://app.baseten.co/)에 머리는, 계정을 만들고, API 열쇠를 생성합니다.
1. [Baseten](https://app.baseten.co/)으로 이동하여 계정을 만들고 API 를 생성합니다.
2. `/connect` 명령을 실행하고 **Baseten** 검색하십시오.
2. `/connect` 명령을 실행하고 **Baseten** 검색하십시오.
```txt
/connect
@@ -421,9 +413,9 @@ Pro/Max 구독이 없는 경우 **Create an API Key**를 선택할 수 있습니
---
#### Cerebras
#### Cerebras
1. [Cerebras 콘솔](https://inference.cerebras.ai/)에 머리, 계정을 만들고 API 키를 생성합니다.
1. [Cerebras 콘솔](https://inference.cerebras.ai/)로 이동하여 계정을 만들고 API 키를 생성합니다.
2. `/connect` 명령을 실행하고 **Cerebras**를 검색하십시오.
@@ -440,7 +432,7 @@ Pro/Max 구독이 없는 경우 **Create an API Key**를 선택할 수 있습니
└ enter
```
4. `/models` 명령을 실행하여 같은 모델을 선택하십시오 Qwen 3 Coder 480B .
4. `/models` 명령을 실행하여 모델(예: Qwen 3 Coder 480B)을 선택하십시오.
```txt
/models
@@ -448,11 +440,11 @@ Pro/Max 구독이 없는 경우 **Create an API Key**를 선택할 수 있습니
---
## Cloudflare AI 게이트웨이
## Cloudflare AI Gateway
Cloudflare AI 게이트웨이는 OpenAI, Anthropic, Workers AI 등의 모델에 액세스할 수 있으며, 통합된 엔드포인트를 통해 더 많은 기능을 제공합니다. [Unified Billing](https://developers.cloudflare.com/ai-gateway/features/unified-billing/) 사용하면 각 공급자의 별도 API 키가 필요하지 않습니다.
Cloudflare AI Gateway는 OpenAI, Anthropic, Workers AI 등의 모델에 액세스할 수 있으며, 통합된 엔드포인트를 통해 더 많은 기능을 제공합니다. [Unified Billing](https://developers.cloudflare.com/ai-gateway/features/unified-billing/) 사용하면 각 공급자의 별도 API 키가 필요하지 않습니다.
1. [Cloudflare 대시보드](https://dash.cloudflare.com/)에 머리, **AI** > **AI Gateway**로 이동하고 새로운 게이트웨이를 만듭니다.
1. [Cloudflare 대시보드](https://dash.cloudflare.com/)로 이동하여, **AI** > **AI Gateway**로 가서 새로운 게이트웨이를 만듭니다.
2. 계정 ID 및 Gateway ID를 환경 변수로 설정하십시오.
@@ -461,7 +453,7 @@ Cloudflare AI 게이트웨이는 OpenAI, Anthropic, Workers AI 등의 모델에
export CLOUDFLARE_GATEWAY_ID=your-gateway-id
```
3. `/connect` 명령을 실행하고 ** Cloudflare AI Gateway**를 검색하십시오.
3. `/connect` 명령을 실행하고 **Cloudflare AI Gateway**를 검색하십시오.
```txt
/connect
@@ -476,11 +468,11 @@ Cloudflare AI 게이트웨이는 OpenAI, Anthropic, Workers AI 등의 모델에
└ enter
```
또는 환경 변수로 설정다.
또는 환경 변수로 설정합니다.
```bash title="~/.bash_profile"
```bash title="~/.bash_profile"
export CLOUDFLARE_API_TOKEN=your-api-token
```
```
5. 모델을 선택하려면 `/models` 명령을 실행하십시오.
@@ -488,27 +480,27 @@ Cloudflare AI 게이트웨이는 OpenAI, Anthropic, Workers AI 등의 모델에
/models
```
opencode config를 통해 모델을 추가할 수 있습니다.
OpenCode 구성을 통해 모델을 추가할 수 있습니다.
```json title="opencode.json"
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"cloudflare-ai-gateway": {
"models": {
"openai/gpt-4o": {},
"anthropic/claude-sonnet-4": {}
}
}
}
}
```
```json title="opencode.json"
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"cloudflare-ai-gateway": {
"models": {
"openai/gpt-4o": {},
"anthropic/claude-sonnet-4": {}
}
}
}
}
```
---
#### 코텍
#### Cortecs
1. [Cortecs 콘솔](https://cortecs.ai/)에 머리, 계정을 만들고 API 키를 생성합니다.
1. [Cortecs 콘솔](https://cortecs.ai/)로 이동하여 계정을 만들고 API 키를 생성합니다.
2. `/connect` 명령을 실행하고 **Cortecs**를 검색하십시오.
@@ -525,7 +517,7 @@ opencode config를 통해 모델을 추가할 수 있습니다.
└ enter
```
4. `/models` 명령을 실행하여 같은 모델을 선택하십시오 Kimi K2 Instruct .
4. `/models` 명령을 실행하여 모델(예: Kimi K2 Instruct)을 선택하십시오.
```txt
/models
@@ -533,9 +525,9 @@ opencode config를 통해 모델을 추가할 수 있습니다.
---
## 딥스카이
## DeepSeek
1. [DeepSeek 콘솔](https://platform.deepseek.com/)에 머리, 계정을 만들고, ** 새로운 API 키**를 클릭합니다.
1. [DeepSeek 콘솔](https://platform.deepseek.com/)로 이동하여 계정을 만들고 **API Keys**를 클릭하여 키를 생성합니다.
2. `/connect` 명령을 실행하고 **DeepSeek**를 검색하십시오.
@@ -552,7 +544,7 @@ opencode config를 통해 모델을 추가할 수 있습니다.
└ enter
```
4. `/models` 명령을 실행하여 DeepSeek 모델을 선택하십시오. DeepSeek Reasoner .
4. `/models` 명령을 실행하여 DeepSeek 모델(예: DeepSeek Reasoner)을 선택하십시오.
```txt
/models
@@ -560,9 +552,9 @@ opencode config를 통해 모델을 추가할 수 있습니다.
---
## 딥 인프라
## Deep Infra
1. [Deep Infra 대시보드](https://deepinfra.com/dash)에 머리로, 계정을 만들고 API 키를 생성합니다.
1. [Deep Infra 대시보드](https://deepinfra.com/dash)로 이동하여 계정을 만들고 API 키를 생성합니다.
2. `/connect` 명령을 실행하고 **Deep Infra**를 검색하십시오.
@@ -570,7 +562,7 @@ opencode config를 통해 모델을 추가할 수 있습니다.
/connect
```
3. 딥 인프라 API 키 입력.
3. Deep Infra API 키 입력하십시오.
```txt
┌ API key
@@ -587,9 +579,9 @@ opencode config를 통해 모델을 추가할 수 있습니다.
---
## 펌웨어
## Firmware
1. [Firmware 대시보드](https://app.firmware.ai/signup)에 머리, 계정을 만들고 API 키를 생성합니다.
1. [Firmware 대시보드](https://app.firmware.ai/signup)로 이동하여 계정을 만들고 API 키를 생성합니다.
2. `/connect` 명령을 실행하고 **Firmware**를 검색하십시오.
@@ -597,7 +589,7 @@ opencode config를 통해 모델을 추가할 수 있습니다.
/connect
```
3. Firmware API 키 입력.
3. Firmware API 키 입력하십시오.
```txt
┌ API key
@@ -614,17 +606,17 @@ opencode config를 통해 모델을 추가할 수 있습니다.
---
## 불꽃 놀이 AI
## Fireworks AI
1. [Fireworks AI 콘솔](https://app.fireworks.ai/)에 머리, 계정을 만들고 ** API **를 클릭합니다.
1. [Fireworks AI 콘솔](https://app.fireworks.ai/)로 이동하여 계정을 만들고 **API Keys**를 클릭합니다.
2. `/connect` 명령을 실행하고 ** 불꽃 놀이 AI **를 검색하십시오.
2. `/connect` 명령을 실행하고 **Fireworks AI**를 검색하십시오.
```txt
/connect
```
3. 불꽃 놀이 AI API 열쇠를 입력하십시오.
3. Fireworks AI API 를 입력하십시오.
```txt
┌ API key
@@ -633,7 +625,7 @@ opencode config를 통해 모델을 추가할 수 있습니다.
└ enter
```
4. `/models` 명령을 실행하여 같은 모델을 선택하십시오 Kimi K2 Instruct .
4. `/models` 명령을 실행하여 모델(예: Kimi K2 Instruct)을 선택하십시오.
```txt
/models
@@ -641,9 +633,9 @@ opencode config를 통해 모델을 추가할 수 있습니다.
---
### GitLab 듀오
### GitLab Duo
프로젝트 Duo는 GitLab의 Anthropic 프록시를 통해 기본 호출 기능을 갖춘 AI-powered Agentic 채팅을 제공합니다.
GitLab Duo는 GitLab의 Anthropic 프록시를 통해 기본 도구 호출 기능을 갖춘 AI 기반 에이전트 채팅을 제공합니다.
1. `/connect` 명령을 실행하고 GitLab을 선택합니다.
@@ -661,38 +653,42 @@ opencode config를 통해 모델을 추가할 수 있습니다.
```
#### OAuth 사용 (추천)
#### OAuth 사용 (권장)
Select**OAuth** 브라우저 권한이 없습니다.
**OAuth**를 선택하면 브라우저에서 권한 부여를 요청합니다.
### 개인 액세스 토큰 사용
1. [GitLab User Settings > Access Tokens](https://gitlab.com/-/user settings/personal access tokens)로 이동
2. 새 토큰 추가 \*\*
3. 이름: `OpenCode` 범위: `api`
4. 토큰 복사 (`glpat-`와 함께 시작)
5. terminal에서 그것을 입력하십시오
1. [GitLab User Settings > Access Tokens](https://gitlab.com/-/user_settings/personal_access_tokens)로 이동
2. 새 토큰 추가
3. 이름: `OpenCode`, 범위: `api`
4. 토큰 복사 (`glpat-` 시작)
5. 터미널에 입력하십시오.
6. 유효한 모을 보기 위하여 `/models` 명령을 실행하십시오.
6. 사용 가능한 모을 보려면 `/models` 명령을 실행하십시오.
```txt
/models
```
개의 클로드 기반 모델은 다음과 같습니다. -**duo-chat-haiku-4-5** (기본값) - 빠른 작업에 대한 빠른 응답 -**duo-chat-sonnet-4-5** - 대부분의 워크플로우의 밸런스 성능 -**duo-chat-opus-4-5** - 복잡한 분석 가능
가지 Claude 기반 모델을 사용할 수 있습니다:
- **duo-chat-haiku-4-5** (기본값) - 빠른 작업을 위한 빠른 응답
- **duo-chat-sonnet-4-5** - 대부분의 워크플로우에 균형 잡힌 성능
- **duo-chat-opus-4-5** - 복잡한 분석 가능
:::note
'GITLAB TOKEN' 환경 변수를 지정할 수도 있습니다.
opencode auth 저장소에 토큰을 저장합니다.
`GITLAB_TOKEN` 환경 변수를 지정할 수도 있습니다.
OpenCode는 인증 저장소에 토큰을 저장합니다.
:::
#### 셀프 호스팅 GitLab
#### 셀프 호스팅 GitLab (Self-Hosted)
:::note[compliance note]
opencode는 세션 제목 생성하고 같은 일부 AI 작업을 위해 작은 모델을 사용합니다.
기본적으로 gpt-5-nano를 사용하도록 구성되며 Zen에서 호스팅됩니다. opencode를 잠금
자신의 GitLab-hosted 인스턴스 사용하 다음을 추가하십시오.
`opencode.json` 파일. 세션 공유를 비활성화하는 것이 좋습니다.
:::note[규정 준수 참고 사항]
OpenCode는 세션 제목 생성 같은 일부 AI 작업을 위해 작은 모델을 사용합니다.
기본적으로 Zen에서 호스팅되는 gpt-5-nano를 사용하도록 구성됩니다.
OpenCode를 자체 호스팅 GitLab 인스턴스 사용하도록 제한하려면 `opencode.json` 파일에 다음을 추가하십시오.
세션 공유를 비활성화하는 것도 권장합니다.
```json
{
@@ -711,13 +707,13 @@ export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_TOKEN=glpat-...
```
인스턴스가 사용자 정의 AI Gateway를 실행하:
인스턴스가 사용자 정의 AI Gateway를 실행하는 경우:
```bash
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com
export GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com
```
또는 bash 프로파일에 추가:
또는 bash 프로에 추가:
```bash title="~/.bash_profile"
export GITLAB_INSTANCE_URL=https://gitlab.company.com
@@ -726,36 +722,35 @@ export GITLAB_TOKEN=glpat-...
```
:::note
GitLab 관리자는 다음을 활성화해야합니다.
GitLab 관리자는 다음을 활성화해야 합니다:
1. [Duo Agent Platform](https://docs.gitlab.com/user/gitlab duo/turn on off/) 사용자, 그룹 또는 인스턴스
2. 특징 깃발 (철도 콘솔을 통해):
1. [Duo Agent Platform](https://docs.gitlab.com/user/gitlab_duo/turn_on_off/) (사용자, 그룹 또는 인스턴스)
2. 기능 플래그 (Rails 콘솔을 통해):
- `agent_platform_claude_code`
- `third_party_agents_enabled`
:::
####OAuth for Self-Hosted 인스턴스
#### 셀프 호스팅 인스턴스용 OAuth
자체 호스팅 인스턴스를 위해 Oauth 작업을 만들기 위해, 당신은 만들 필요가
새로운 응용 프로그램 (설정 → 응용 프로그램)
콜백 URL `http://127.0.0.1:8080/callback` 및 다음 범위:
자체 호스팅 인스턴스에 대해 OAuth동시키려면 새로운 애플리케이션(Settings → Applications)을 만들어야 합니다.
콜백 URL `http://127.0.0.1:8080/callback` 및 다음 범위가 필요합니다:
- api (당신의 대신 API 액세스)
- read user (개인 정보 읽기)
- read repository (Repository에 전용 접근)
- `api` (사용자 대신 API 액세스)
- `read_user` (개인 정보 읽기)
- `read_repository` (리포지토리 전용 액세스)
그런 다음 환경 변수로 애플리케이션 ID를 노출:
그런 다음 애플리케이션 ID를 환경 변수로 노출하십시오:
```bash
export GITLAB_OAUTH_CLIENT_ID=your_application_id_here
```
[opencode-gitlab-auth](https://www.npmjs.com/package/@gitlab/opencode-gitlab-auth) 홈페이지에 대한 추가 문서.
[opencode-gitlab-auth](https://www.npmjs.com/package/@gitlab/opencode-gitlab-auth) 홈페이지에 추가 문서가 있습니다.
##### 구성
`opencode.json` 통해 주문을 받아서 만드십시오:
`opencode.json` 통해 사용자 정의:
```json title="opencode.json"
{
@@ -774,9 +769,9 @@ export GITLAB_OAUTH_CLIENT_ID=your_application_id_here
}
```
##### GitLab API 도구 (선택, 그러나 높게 추천되는)
##### GitLab API 도구 (선택 사항이지만 강력 권장)
GitLab 도구에 액세스하려면 (merge 요청, 문제, 파이프라인, CI/CD 등):
GitLab 도구(병합 요청, 이슈, 파이프라인, CI/CD 등)에 액세스하려면:
```json title="opencode.json"
{
@@ -785,11 +780,11 @@ GitLab 도구에 액세스하려면 (merge 요청, 문제, 파이프라인, CI/C
}
```
이 플러그인은 MR 리뷰, 문제 추적, 파이프라인 모니터링 등을 포함한 종합 GitLab 저장소 관리 기능을 제공합니다.
이 플러그인은 MR 리뷰, 이슈 추적, 파이프라인 모니터링 등을 포함한 포괄적인 GitLab 리포지토리 관리 기능을 제공합니다.
---
프로젝트
### GitHub Copilot
GitHub Copilot 구독을 사용하여 opencode:
@@ -898,7 +893,7 @@ opencode를 실행하면서 설정한다.
---
###Hugging 얼굴
### Hugging Face
[Hugging Face Inference Provider](https://huggingface.co/docs/inference-providers)는 17+ 공급자가 지원하는 오픈 모델에 대한 액세스를 제공합니다.
@@ -927,7 +922,7 @@ opencode를 실행하면서 설정한다.
---
### 헬리콘
### Helicone
[Helicone](https://helicone.ai)는 AI 애플리케이션에 대한 로깅, 모니터링 및 분석 기능을 제공하는 LLM Observability 플랫폼입니다. Helicone AI Gateway는 모델을 기반으로 적절한 공급자에게 요청을 자동으로 전달합니다.
@@ -1027,7 +1022,7 @@ npm install -g opencode-helicone-session
플러그인은 `Helicone-Session-Id` 및 `Helicone-Session-Name` 헤더를 귀하의 요청에 주사합니다. Helicone의 세션 페이지에서는 별도의 세션으로 나열된 각 opencode 대화를 볼 수 있습니다.
###### 공통 헬리콥터
###### 공통 Helicone 헤더
| 헤드러 | Description |
| -------------------------- | ---------------------------------------------------------- |
@@ -1040,7 +1035,7 @@ npm install -g opencode-helicone-session
---
#### llama.cpp
#### llama.cpp
[llama.cpp's](https://github.com/ggml-org/llama.cpp) llama-server 유틸리티를 통해 로컬 모델을 사용할 수 있습니다.
@@ -1107,7 +1102,7 @@ IO.NET은 다양한 사용 사례에 최적화된 17개의 모델을 제공합
---
### LM 스튜디오
### LM Studio
LM Studio를 통해 로컬 모델을 사용할 수 있습니다.
@@ -1141,7 +1136,7 @@ LM Studio를 통해 로컬 모델을 사용할 수 있습니다.
---
## 문샷 AI
## Moonshot AI
Moonshot AI에서 Kimi K2 사용 :
@@ -1170,7 +1165,7 @@ Moonshot AI에서 Kimi K2 사용 :
---
## 미니 맥스
## MiniMax
1. [MiniMax API 콘솔](https://platform.minimax.io/login)에 머리, 계정을 만들고 API 키를 생성합니다.
@@ -1197,7 +1192,7 @@ Moonshot AI에서 Kimi K2 사용 :
---
## Nebius 토큰 공장
## Nebius Token Factory
1. [Nebius Token Factory 콘솔](https://tokenfactory.nebius.com/)에 머리, 계정을 만들고, ** 키 추가 **.
@@ -1224,7 +1219,7 @@ Moonshot AI에서 Kimi K2 사용 :
---
#### 오라마
#### Ollama
Ollama를 통해 로컬 모델을 사용할 수 있습니다.
@@ -1266,7 +1261,7 @@ Ollama는 opencode를 자동으로 구성할 수 있습니다. 자세한 내용
---
##Ollama 클라우드
## Ollama Cloud
opencode로 Ollama Cloud를 사용하려면:
@@ -1305,7 +1300,7 @@ opencode로 Ollama Cloud를 사용하려면:
---
### 오픈아이
### OpenAI
[ChatGPT Plus 또는 Pro](https://chatgpt.com/pricing)에 가입하는 것이 좋습니다.
@@ -1338,7 +1333,7 @@ API 키가 이미 있다면 ** 수동으로 API 키**를 입력하고 terminal
---
## opencode
## OpenCode Zen
OpenCode Zen은 opencode 팀에서 제공하는 테스트 및 검증된 모델 목록입니다. [더 알아보기](/docs/zen).
@@ -1367,7 +1362,7 @@ OpenCode Zen은 opencode 팀에서 제공하는 테스트 및 검증된 모델
---
## 오픈로자
## OpenRouter
1. [OpenRouter 대시보드](https://openrouter.ai/settings/keys)에 머리, click ** API Key**를 클릭하고 키를 복사합니다.
@@ -1431,7 +1426,7 @@ opencode config를 통해 추가 모델을 추가할 수 있습니다.
---
### SAP AI 핵심
### SAP AI Core
SAP AI Core는 OpenAI, Anthropic, Google, Amazon, Meta, Mistral 및 AI21의 40+ 모델에 대한 액세스를 제공합니다.
@@ -1513,7 +1508,7 @@ SAP AI Core는 OpenAI, Anthropic, Google, Amazon, Meta, Mistral 및 AI21의 40+
---
### 스케일웨이
### Scaleway
opencode를 사용하여 [Scaleway Generative APIs](https://www.scaleway.com/en/docs/generative-apis/)를 사용하려면:
@@ -1542,7 +1537,7 @@ opencode를 사용하여 [Scaleway Generative APIs](https://www.scaleway.com/en/
---
## 함께 AI
## Together AI
1. [Together AI 콘솔](https://api.together.ai)에 머리, 계정을 만들고 ** 키 추가 **를 클릭합니다.
@@ -1569,7 +1564,7 @@ opencode를 사용하여 [Scaleway Generative APIs](https://www.scaleway.com/en/
---
## 베니스 AI
## Venice AI
1. [Venice AI 콘솔](https://venice.ai)에 머리, 계정을 만들고 API 키를 생성합니다.
@@ -1652,7 +1647,7 @@ opencode config를 통해 모델을 사용자 정의 할 수 있습니다. 공
---
#
### xAI
1. [xAI 콘솔](https://console.x.ai/)에 머리, 계정을 만들고 API 키를 생성합니다.
@@ -1679,7 +1674,7 @@ opencode config를 통해 모델을 사용자 정의 할 수 있습니다. 공
---
#### Z.AI
### Z.AI
1. [Z.AI API 콘솔](https://z.ai/manage-apikey/apikey-list)에 머리, 계정을 만들고, **새로운 API 키**를 클릭합니다.
@@ -1708,7 +1703,7 @@ opencode config를 통해 모델을 사용자 정의 할 수 있습니다. 공
---
## ZenMux
## ZenMux
1. [ZenMux 대쉬보드](https://zenmux.ai/settings/keys)에 머리, click **Create API Key**, 키 복사.