fix(docs): locale translations

This commit is contained in:
Adam
2026-02-10 07:11:13 -06:00
parent 19ad7ad809
commit 4c4e30cd71
351 changed files with 3744 additions and 3765 deletions

View File

@@ -7,7 +7,7 @@ OpenCode 1.0 ist eine komplette Neufassung des TUI.
Wir sind vom go+bubbletea-basierten TUI, das Leistungs- und Leistungsprobleme aufwies, zu einem internen Framework (OpenTUI) übergegangen, das in zig+solidjs geschrieben wurde.
Der neue TUI funktioniert wie der alte, da er eine Verbindung zum gleichen Opencode-Server herstellt.
Der neue TUI funktioniert wie der alte, da er eine Verbindung zum gleichen OpenCode-Server herstellt.
---

View File

@@ -311,7 +311,7 @@ opencode models --refresh
### laufen
Führen Sie Opencode im nicht interaktiven Modus aus, indem Sie direkt eine Eingabeaufforderung übergeben.
Führen Sie OpenCode im nicht interaktiven Modus aus, indem Sie direkt eine Eingabeaufforderung übergeben.
```bash
opencode run [message..]
@@ -347,7 +347,7 @@ opencode run --attach http://localhost:4096 "Explain async/await in JavaScript"
| `--file` | `-f` | Datei(en) zum Anhängen an die Nachricht |
| `--format` | | Format: Standard (formatiert) oder JSON (rohe JSON-Ereignisse) |
| `--title` | | Titel für die Sitzung (verwendet eine verkürzte Eingabeaufforderung, wenn kein Wert angegeben wird) |
| `--attach` | | An einen laufenden Opencode-Server anschließen (e.g., http://localhost:4096) |
| `--attach` | | An einen laufenden OpenCode-Server anschließen (e.g., http://localhost:4096) |
| `--port` | | Port für den lokalen Server (standardmäßig zufälliger Port) |
---
@@ -360,7 +360,7 @@ Starten Sie einen Headless-OpenCode-Server für den API-Zugriff. Sehen Sie sich
opencode serve
```
Dadurch wird ein HTTP-Server gestartet, der API-Zugriff auf Opencode-Funktionalität ohne die TUI-Schnittstelle bietet. Legen Sie `OPENCODE_SERVER_PASSWORD` fest, um die HTTP-Basisauthentifizierung zu aktivieren (Benutzername ist standardmäßig `opencode`).
Dadurch wird ein HTTP-Server gestartet, der API-Zugriff auf OpenCode-Funktionalität ohne die TUI-Schnittstelle bietet. Legen Sie `OPENCODE_SERVER_PASSWORD` fest, um die HTTP-Basisauthentifizierung zu aktivieren (Benutzername ist standardmäßig `opencode`).
#### Flaggen
@@ -510,7 +510,7 @@ opencode uninstall
### upgrade
Aktualisiert Opencode auf die neueste Version oder eine bestimmte Version.
Aktualisiert OpenCode auf die neueste Version oder eine bestimmte Version.
```bash
opencode upgrade [target]
@@ -538,7 +538,7 @@ opencode upgrade v0.1.48
## Globale Flaggen
Der Opencode CLI akzeptiert die folgenden globalen Flags.
Der OpenCode CLI akzeptiert die folgenden globalen Flags.
| Flagge | Kurz | Beschreibung |
| -------------- | ---- | ----------------------------------------- |

View File

@@ -314,7 +314,7 @@ Dies ist eine **optionale** Konfigurationsoption.
## Eingebaut
Opencode enthält mehrere integrierte Befehle wie `/init`, `/undo`, `/redo`, `/share`, `/help`; [learn more](/docs/tui#commands).
OpenCode enthält mehrere integrierte Befehle wie `/init`, `/undo`, `/redo`, `/share`, `/help`; [learn more](/docs/tui#commands).
:::note
Benutzerdefinierte Befehle können integrierte Befehle überschreiben.

View File

@@ -268,7 +268,7 @@ Sie können auch [local models](/docs/models#local) konfigurieren. [Learn more](
Einige Anbieter unterstützen zusätzliche Konfigurationsoptionen über die allgemeinen Einstellungen `timeout` und `apiKey` hinaus.
##### Amazonas-Grundgestein
##### Amazon Bedrock
Amazon Bedrock unterstützt AWS-spezifische Konfigurationen:
@@ -463,7 +463,7 @@ Sie können Codeformatierer über die Option `formatter` konfigurieren.
### Permissions
Opencode erlaubt standardmäßig alle Vorgänge, ohne dass eine ausdrückliche Genehmigung erforderlich ist. Sie können dies mit der Option `permission` ändern.
OpenCode erlaubt standardmäßig alle Vorgänge, ohne dass eine ausdrückliche Genehmigung erforderlich ist. Sie können dies mit der Option `permission` ändern.
Um beispielsweise sicherzustellen, dass die Tools `edit` und `bash` eine Benutzergenehmigung erfordern:
@@ -565,7 +565,7 @@ Dies erfordert eine Reihe von Pfaden und Glob-Mustern zu Anweisungsdateien. [Erf
---
### Behinderte Anbieter
### Deaktivierte Anbieter
Sie können Anbieter, die automatisch geladen werden, über die Option `disabled_providers` deaktivieren. Dies ist nützlich, wenn Sie verhindern möchten, dass bestimmte Anbieter geladen werden, selbst wenn deren Anmeldeinformationen verfügbar sind.
@@ -626,13 +626,13 @@ Experimentelle Optionen sind nicht stabil. Sie können ohne vorherige Ankündigu
---
## Variables
## Variablen
Sie können die Variablenersetzung in Ihren Konfigurationsdateien verwenden, um auf Umgebungsvariablen und Dateiinhalte zu verweisen.
---
### Umgebungsvars
### Umgebungsvariablen
Verwenden Sie `{env:VARIABLE_NAME}`, um Umgebungsvariablen zu ersetzen:
@@ -655,7 +655,7 @@ Wenn die Umgebungsvariable nicht gesetzt ist, wird sie durch eine leere Zeichenf
---
### Files
### Dateien
Verwenden Sie `{file:path/to/file}`, um den Inhalt einer Datei zu ersetzen:

View File

@@ -1,9 +1,9 @@
---
title: Benutzerdefinierte Werkzeuge
description: Erstellen Sie Tools, die der LLM in Opencode aufrufen kann.
description: Erstellen Sie Tools, die der LLM in OpenCode aufrufen kann.
---
Benutzerdefinierte Tools sind von Ihnen erstellte Funktionen, die der LLM während Gesprächen aufrufen kann. Sie arbeiten neben [built-in tools](/docs/tools) von Opencode wie `read`, `write` und `bash`.
Benutzerdefinierte Tools sind von Ihnen erstellte Funktionen, die der LLM während Gesprächen aufrufen kann. Sie arbeiten neben [built-in tools](/docs/tools) von OpenCode wie `read`, `write` und `bash`.
---

View File

@@ -39,7 +39,7 @@ Sie können sich auch [awesome-opencode](https://github.com/awesome-opencode/awe
| [opencode-skillful](https://github.com/zenobi-us/opencode-skillful) | Ermöglichen Sie OpenCode-Agenten das verzögerte Laden von Eingabeaufforderungen bei Bedarf mit Skill-Erkennung und -Injektion |
| [opencode-supermemory](https://github.com/supermemoryai/opencode-supermemory) | Persistenter Speicher über Sitzungen hinweg mit Supermemory |
| [@plannotator/opencode](https://github.com/backnotprop/plannotator/tree/main/apps/opencode-plugin) | Interaktive Planüberprüfung mit visueller Anmerkung und private/offline-Freigabe |
| [@openspoon/subtask2](https://github.com/spoons-and-mirrors/subtask2) | Erweitern Sie Opencode /commands zu einem leistungsstarken Orchestrierungssystem mit granularer Flusskontrolle |
| [@openspoon/subtask2](https://github.com/spoons-and-mirrors/subtask2) | Erweitern Sie OpenCode /commands zu einem leistungsstarken Orchestrierungssystem mit granularer Flusskontrolle |
| [opencode-scheduler](https://github.com/different-ai/opencode-scheduler) | Planen Sie wiederkehrende Jobs mit launchd (Mac) oder systemd (Linux) mit Cron-Syntax |
| [micode](https://github.com/vtemian/micode) | Strukturiertes Brainstorming → Planen → Workflow mit Sitzungskontinuität Implementierung |
| [octto](https://github.com/vtemian/octto) | Interaktiver Browser UI für AI Brainstorming mit Formularen mit mehreren Fragen |
@@ -58,7 +58,7 @@ Sie können sich auch [awesome-opencode](https://github.com/awesome-opencode/awe
| [opencode.nvim](https://github.com/NickvanDyke/opencode.nvim) | Neovim-Plugin für editorfähige Eingabeaufforderungen, basierend auf API |
| [portal](https://github.com/hosenur/portal) | Mobile-First-Web UI für OpenCode über Tailscale/VPN |
| [opencode plugin template](https://github.com/zenobi-us/opencode-plugin-template/) | Vorlage zum Erstellen von OpenCode-Plugins |
| [opencode.nvim](https://github.com/sudo-tee/opencode.nvim) | Neovim-Frontend für Opencode ein terminalbasierter AI-Coding-Agent |
| [opencode.nvim](https://github.com/sudo-tee/opencode.nvim) | Neovim-Frontend für OpenCode ein terminalbasierter AI-Coding-Agent |
| [ai-sdk-provider-opencode-sdk](https://github.com/ben-vargas/ai-sdk-provider-opencode-sdk) | Vercel AI SDK Anbieter für die Verwendung von OpenCode über @opencode-ai/sdk |
| [OpenChamber](https://github.com/btriapitsyn/openchamber) | Web-/Desktop-App und VS Code-Erweiterung für OpenCode |
| [OpenCode-Obsidian](https://github.com/mtymek/opencode-obsidian) | Obsidian-Plugin, das OpenCode in Obsidians UI einbettet |

View File

@@ -37,7 +37,7 @@ Oder Sie können es manuell einrichten.
2. **Den Workflow hinzufügen**
Fügen Sie die folgende Workflowdatei zu `.github/workflows/opencode.yml` in Ihrem Repository hinzu. Stellen Sie sicher, dass Sie in `env` die entsprechenden Schlüssel `model` und API festlegen.
Fügen Sie die folgende Workflowdatei zu `.github/workflows/opencode.yml` in Ihrem Repository hinzu. Stellen Sie sicher, dass Sie in `env` die passenden Werte für `model` und `api_key` setzen.
```yml title=".github/workflows/opencode.yml" {24,26}
name: opencode

View File

@@ -137,7 +137,7 @@ Wenn Sie mit der Verwendung von LLM-Anbietern noch nicht vertraut sind, empfehle
Es handelt sich um eine kuratierte Liste von Modellen, die von OpenCode getestet und verifiziert wurden
team.
1. Führen Sie den Befehl `/connect` in TUI aus, wählen Sie Opencode aus und gehen Sie zu [opencode.ai/auth](https://opencode.ai/auth).
1. Führen Sie den Befehl `/connect` in TUI aus, wählen Sie OpenCode aus und gehen Sie zu [opencode.ai/auth](https://opencode.ai/auth).
```txt
/connect
@@ -333,10 +333,9 @@ Oder Sie **können** die Änderungen mit dem Befehl `/redo` wiederholen.
---
## Aktie
## Teilen
Die Gespräche, die Sie mit OpenCode führen, können [mit Ihrem geteilt werden
Team](/docs/share).
Die Gespräche, die Sie mit OpenCode führen, können [mit Ihrem Team](/docs/share) geteilt werden.
```bash frame="none"
/share
@@ -352,8 +351,8 @@ Hier ist ein [Beispielgespräch](https://opencode.ai/s/4XP1fce5) mit OpenCode.
---
## Customize
## Anpassen
Und das ist es! Sie sind jetzt ein Profi im Umgang mit OpenCode.
Um es zu Ihrem eigenen zu machen, empfehlen wir [picking a theme](/docs/themes), [customizing the keybinds](/docs/keybinds), [configuring code formatters](/docs/formatters), [creating custom commands](/docs/commands) oder experimentieren Sie mit [OpenCode config](/docs/config).
Um es zu Ihrem eigenen zu machen, empfehlen wir [ein Theme auszuwaehlen](/docs/themes), [Keybinds anzupassen](/docs/keybinds), [Code-Formatter zu konfigurieren](/docs/formatters), [eigene Commands zu erstellen](/docs/commands) oder mit der [OpenCode-Konfiguration](/docs/config) zu experimentieren.

View File

@@ -56,7 +56,7 @@ Sie können LSP-Server-Downloads automatisch deaktivieren, indem Sie die Umgebun
## Wie es funktioniert
Wenn Opencode eine Datei öffnet, geschieht Folgendes:
Wenn OpenCode eine Datei öffnet, geschieht Folgendes:
1. Überprüft die Dateierweiterung anhand aller aktivierten LSP-Server.
2. Startet den entsprechenden LSP-Server, falls er noch nicht ausgeführt wird.
@@ -65,7 +65,7 @@ Wenn Opencode eine Datei öffnet, geschieht Folgendes:
## Konfigurieren
Sie können LSP-Server über den Abschnitt `lsp` in Ihrer Opencode-Konfiguration anpassen.
Sie können LSP-Server über den Abschnitt `lsp` in Ihrer OpenCode-Konfiguration anpassen.
```json title="opencode.json"
{

View File

@@ -4,14 +4,14 @@ description: Verschiedene Modi für unterschiedliche Anwendungsfälle.
---
:::caution
Modi werden jetzt über die Option `agent` in der Opencode-Konfiguration konfiguriert. Der
Modi werden jetzt über die Option `agent` in der OpenCode-Konfiguration konfiguriert. Der
Die Option `mode` ist jetzt veraltet. [Learn more](/docs/agents).
:::
Mit den Modi in Opencode können Sie das Verhalten, die Tools und die Eingabeaufforderungen für verschiedene Anwendungsfälle anpassen.
Mit den Modi in OpenCode können Sie das Verhalten, die Tools und die Eingabeaufforderungen für verschiedene Anwendungsfälle anpassen.
Es verfügt über zwei integrierte Modi: **Build** und **Plan**. Sie können anpassen
diese oder konfigurieren Sie Ihre eigenen über die Opencode-Konfiguration.
diese oder konfigurieren Sie Ihre eigenen über die OpenCode-Konfiguration.
Sie können während einer Sitzung zwischen den Modi wechseln oder diese in Ihrer Konfigurationsdatei konfigurieren.
@@ -19,7 +19,7 @@ Sie können während einer Sitzung zwischen den Modi wechseln oder diese in Ihre
## Built-in
Opencode verfügt über zwei integrierte Modi.
OpenCode verfügt über zwei integrierte Modi.
---
@@ -173,7 +173,7 @@ Temperaturwerte liegen typischerweise zwischen 0.0 und 1.0:
}
```
Wenn keine Temperatur angegeben ist, verwendet Opencode modellspezifische Standardwerte (normalerweise 0 für die meisten Modelle, 0.55 für Qwen-Modelle).
Wenn keine Temperatur angegeben ist, verwendet OpenCode modellspezifische Standardwerte (normalerweise 0 für die meisten Modelle, 0.55 für Qwen-Modelle).
---
@@ -192,7 +192,7 @@ Geben Sie mit der `prompt`-Konfiguration eine benutzerdefinierte Systemaufforder
```
Dieser Pfad ist relativ zum Speicherort der Konfigurationsdatei. Das funktioniert also
sowohl die globale Opencode-Konfiguration als auch die projektspezifische Konfiguration.
sowohl die globale OpenCode-Konfiguration als auch die projektspezifische Konfiguration.
---

View File

@@ -118,7 +118,7 @@ Die Plugin-Funktion erhält:
- `project`: Die aktuellen Projektinformationen.
- `directory`: Das aktuelle Arbeitsverzeichnis.
- `worktree`: Der Git-Worktree-Pfad.
- `client`: Ein Opencode-SDK-Client für die Interaktion mit AI.
- `client`: Ein OpenCode-SDK-Client für die Interaktion mit AI.
- `$`: Buns [shell API](https://bun.com/docs/runtime/shell) zum Ausführen von Befehlen.
---
@@ -211,7 +211,7 @@ Plugins können Ereignisse abonnieren, wie unten im Abschnitt „Beispiele“ ge
## Examples
Hier sind einige Beispiele für Plugins, mit denen Sie Opencode erweitern können.
Hier sind einige Beispiele für Plugins, mit denen Sie OpenCode erweitern können.
---
@@ -242,7 +242,7 @@ Wenn Sie die OpenCode-Desktop-App verwenden, kann diese automatisch Systembenach
### .env protection
Verhindern Sie, dass Opencode `.env`-Dateien liest:
Verhindern Sie, dass OpenCode `.env`-Dateien liest:
```javascript title=".opencode/plugins/env-protection.js"
export const EnvProtection = async ({ project, client, $, directory, worktree }) => {
@@ -277,7 +277,7 @@ export const InjectEnvPlugin = async () => {
### Benutzerdefinierte Werkzeuge
Plugins können Opencode auch benutzerdefinierte Tools hinzufügen:
Plugins können OpenCode auch benutzerdefinierte Tools hinzufügen:
```ts title=".opencode/plugins/custom-tools.ts"
import { type Plugin, tool } from "@opencode-ai/plugin"
@@ -300,13 +300,13 @@ export const CustomToolsPlugin: Plugin = async (ctx) => {
}
```
Der `tool`-Helfer erstellt ein benutzerdefiniertes Tool, das Opencode aufrufen kann. Es verwendet eine Zod-Schemafunktion und gibt eine Tooldefinition zurück mit:
Der `tool`-Helfer erstellt ein benutzerdefiniertes Tool, das OpenCode aufrufen kann. Es verwendet eine Zod-Schemafunktion und gibt eine Tooldefinition zurück mit:
- `description`: Was das Tool macht
- `args`: Zod-Schema für die Argumente des Tools
- `execute`: Funktion, die ausgeführt wird, wenn das Tool aufgerufen wird
Ihre benutzerdefinierten Tools stehen neben den integrierten Tools für Opencode zur Verfügung.
Ihre benutzerdefinierten Tools stehen neben den integrierten Tools für OpenCode zur Verfügung.
---

View File

@@ -29,9 +29,9 @@ config.
---
#### Basis URL
#### Base URL
Sie können den Basis-URL für jeden Anbieter anpassen, indem Sie die Option `baseURL` festlegen. Dies ist nützlich, wenn Sie Proxy-Dienste oder benutzerdefinierte Endpunkte verwenden.
Sie können die Base URL für jeden Anbieter anpassen, indem Sie die Option `baseURL` festlegen. Das ist nuetzlich, wenn Sie Proxy-Dienste oder benutzerdefinierte Endpunkte verwenden.
```json title="opencode.json" {6}
{
@@ -57,7 +57,7 @@ Getestet und verifiziert, dass es gut mit OpenCode funktioniert. [Learn more](/d
Wenn Sie neu sind, empfehlen wir Ihnen, mit OpenCode Zen zu beginnen.
:::
1. Führen Sie den Befehl `/connect` in TUI aus, wählen Sie Opencode aus und gehen Sie zu [opencode.ai/auth](https://opencode.ai/auth).
1. Führen Sie den Befehl `/connect` in TUI aus, wählen Sie OpenCode aus und gehen Sie zu [opencode.ai/auth](https://opencode.ai/auth).
```txt
/connect
@@ -105,7 +105,7 @@ Sehen Sie hier keinen Anbieter? Senden Sie einen PR.
/connect
```
3. Geben Sie Ihren Schlüssel 302.AI API ein.
3. Geben Sie Ihren 302.AI API-Schlüssel ein.
```txt
┌ API key
@@ -122,7 +122,7 @@ Sehen Sie hier keinen Anbieter? Senden Sie einen PR.
---
### Amazonas-Grundgestein
### Amazon Bedrock
So verwenden Sie Amazon Bedrock mit OpenCode:
@@ -137,7 +137,7 @@ So verwenden Sie Amazon Bedrock mit OpenCode:
#### Umgebungsvariablen (Schnellstart)
Legen Sie eine dieser Umgebungsvariablen fest, während Sie Opencode ausführen:
Legen Sie eine dieser Umgebungsvariablen fest, während Sie OpenCode ausführen:
```bash
# Option 1: Using AWS access keys
@@ -282,7 +282,7 @@ Verwenden Sie für benutzerdefinierte Inferenzprofile den Modell- und Anbieterna
Die Verwendung Ihres Claude Pro/Max-Abonnements in OpenCode wird von [Anthropic](https://anthropic.com) nicht offiziell unterstützt.
:::
##### Verwendung von API-Tasten
##### Verwendung von API-Keys
Sie können auch **Erstellen eines API-Schlüssels** auswählen, wenn Sie kein Pro/Max-Abonnement haben. Außerdem wird Ihr Browser geöffnet, Sie werden aufgefordert, sich bei Anthropic anzumelden, und Sie erhalten einen Code, den Sie in Ihr Terminal einfügen können.
@@ -303,7 +303,7 @@ Wenn Sie auf die Fehlermeldung „Es tut mir leid, aber ich kann Ihnen bei diese
2. Gehen Sie zu [Azure AI Foundry](https://ai.azure.com/) und stellen Sie ein Modell bereit.
:::note
Der Bereitstellungsname muss mit dem Modellnamen übereinstimmen, damit Opencode ordnungsgemäß funktioniert.
Der Bereitstellungsname muss mit dem Modellnamen übereinstimmen, damit OpenCode ordnungsgemäß funktioniert.
:::
3. Führen Sie den Befehl `/connect` aus und suchen Sie nach **Azure**.
@@ -350,7 +350,7 @@ Wenn Sie auf die Fehlermeldung „Es tut mir leid, aber ich kann Ihnen bei diese
2. Gehen Sie zu [Azure AI Foundry](https://ai.azure.com/) und stellen Sie ein Modell bereit.
:::note
Der Bereitstellungsname muss mit dem Modellnamen übereinstimmen, damit Opencode ordnungsgemäß funktioniert.
Der Bereitstellungsname muss mit dem Modellnamen übereinstimmen, damit OpenCode ordnungsgemäß funktioniert.
:::
3. Führen Sie den Befehl `/connect` aus und suchen Sie nach **Azure Cognitive Services**.
@@ -482,7 +482,7 @@ Mit dem Cloudflare AI Gateway können Sie über einen einheitlichen Endpunkt auf
/models
```
Sie können Modelle auch über Ihre Opencode-Konfiguration hinzufügen.
Sie können Modelle auch über Ihre OpenCode-Konfiguration hinzufügen.
```json title="opencode.json"
{
@@ -554,7 +554,7 @@ Mit dem Cloudflare AI Gateway können Sie über einen einheitlichen Endpunkt auf
---
### Tiefe Infrarot
### Deep Infra
1. Gehen Sie zu [Deep Infra dashboard](https://deepinfra.com/dash), erstellen Sie ein Konto und generieren Sie einen API-Schlüssel.
@@ -591,7 +591,7 @@ Mit dem Cloudflare AI Gateway können Sie über einen einheitlichen Endpunkt auf
/connect
```
3. Geben Sie Ihren Firmware-Schlüssel API ein.
3. Geben Sie Ihren Firmware API-Schlüssel ein.
```txt
┌ API key
@@ -608,7 +608,7 @@ Mit dem Cloudflare AI Gateway können Sie über einen einheitlichen Endpunkt auf
---
### Feuerwerk AI
### Fireworks AI
1. Gehen Sie zu [Fireworks AI console](https://app.fireworks.ai/), erstellen Sie ein Konto und klicken Sie auf **API-Schlüssel erstellen**.
@@ -618,7 +618,7 @@ Mit dem Cloudflare AI Gateway können Sie über einen einheitlichen Endpunkt auf
/connect
```
3. Geben Sie Ihren Fireworks-Schlüssel AI API ein.
3. Geben Sie Ihren Fireworks AI API-Schlüssel ein.
```txt
┌ API key
@@ -679,7 +679,7 @@ GitLab Duo bietet AI-gestützten Agenten-Chat mit nativen Tool-Aufruffunktionen
:::note
Sie können auch die Umgebungsvariable „GITLAB_TOKEN“ angeben, wenn Sie dies nicht möchten
um das Token im Opencode-Authentifizierungsspeicher zu speichern.
um das Token im OpenCode-Authentifizierungsspeicher zu speichern.
:::
##### Selbstgehostetes GitLab
@@ -784,9 +784,9 @@ Dieses Plugin bietet umfassende GitLab-Repository-Verwaltungsfunktionen, einschl
---
### GitHub-Copilot
### GitHub Copilot
So verwenden Sie Ihr GitHub Copilot-Abonnement mit Opencode:
So verwenden Sie Ihr GitHub Copilot-Abonnement mit OpenCode:
:::note
Einige Modelle benötigen möglicherweise ein [Pro+
@@ -839,7 +839,7 @@ So verwenden Sie Google Vertex AI mit OpenCode:
- `GOOGLE_APPLICATION_CREDENTIALS`: Pfad zur Schlüsseldatei Ihres Dienstkontos JSON
- Authentifizieren Sie sich mit gcloud CLI: `gcloud auth application-default login`
Legen Sie sie fest, während Sie Opencode ausführen.
Legen Sie sie fest, während Sie OpenCode ausführen.
```bash
GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode
@@ -892,7 +892,7 @@ Die Region `global` verbessert die Verfügbarkeit und reduziert Fehler ohne zus
---
### Umarmendes Gesicht
### Hugging Face
[Hugging Face Inference Providers](https://huggingface.co/docs/inference-providers) bietet Zugriff auf offene Modelle, die von 17+-Anbietern unterstützt werden.
@@ -952,7 +952,7 @@ Weitere Anbieter und erweiterte Funktionen wie Caching und Ratenbegrenzung finde
#### Optionale Konfigurationen
Falls Sie eine Funktion oder ein Modell von Helicone sehen, das nicht automatisch über Opencode konfiguriert wird, können Sie es jederzeit selbst konfigurieren.
Falls Sie eine Funktion oder ein Modell von Helicone sehen, das nicht automatisch über OpenCode konfiguriert wird, können Sie es jederzeit selbst konfigurieren.
Hier ist [Helicone's Model Directory](https://helicone.ai/models). Sie benötigen dies, um die IDs der Modelle abzurufen, die Sie hinzufügen möchten.
@@ -1036,7 +1036,7 @@ Alle verfügbaren Header finden Sie unter [Helicone Header Directory](https://do
### llama.cpp
Sie können Opencode für die Verwendung lokaler Modelle über das Dienstprogramm [llama.cpp's](https://github.com/ggml-org/llama.cpp) llama-server konfigurieren
Sie können OpenCode für die Verwendung lokaler Modelle über das Dienstprogramm [llama.cpp's](https://github.com/ggml-org/llama.cpp) llama-server konfigurieren
```json title="opencode.json" "llama.cpp" {5, 6, 8, 10-15}
{
@@ -1084,7 +1084,7 @@ IO.NET bietet 17-Modelle, die für verschiedene Anwendungsfälle optimiert sind:
/connect
```
3. Geben Sie Ihren Schlüssel IO.NET API ein.
3. Geben Sie Ihren IO.NET API-Schlüssel ein.
```txt
┌ API key
@@ -1103,7 +1103,7 @@ IO.NET bietet 17-Modelle, die für verschiedene Anwendungsfälle optimiert sind:
### LM Studio
Sie können Opencode über LM Studio für die Verwendung lokaler Modelle konfigurieren.
Sie können OpenCode über LM Studio für die Verwendung lokaler Modelle konfigurieren.
```json title="opencode.json" "lmstudio" {5, 6, 8, 10-14}
{
@@ -1135,7 +1135,7 @@ In diesem Beispiel:
---
### Mondschuss AI
### Moonshot AI
So verwenden Sie Kimi K2 von Moonshot AI:
@@ -1174,7 +1174,7 @@ So verwenden Sie Kimi K2 von Moonshot AI:
/connect
```
3. Geben Sie Ihren MiniMax-Schlüssel API ein.
3. Geben Sie Ihren MiniMax API-Schlüssel ein.
```txt
┌ API key
@@ -1191,7 +1191,7 @@ So verwenden Sie Kimi K2 von Moonshot AI:
---
### Nebius-Token-Fabrik
### Nebius Token Factory
1. Gehen Sie zu [Nebius Token Factory console](https://tokenfactory.nebius.com/), erstellen Sie ein Konto und klicken Sie auf **Schlüssel hinzufügen**.
@@ -1220,7 +1220,7 @@ So verwenden Sie Kimi K2 von Moonshot AI:
### Ollama
Sie können Opencode über Ollama für die Verwendung lokaler Modelle konfigurieren.
Sie können OpenCode über Ollama für die Verwendung lokaler Modelle konfigurieren.
:::tip
Ollama kann sich automatisch für OpenCode konfigurieren. Weitere Informationen finden Sie unter [Ollama integration docs](https://docs.ollama.com/integrations/opencode).
@@ -1260,7 +1260,7 @@ Wenn Toolaufrufe nicht funktionieren, versuchen Sie, `num_ctx` in Ollama zu erh
---
### Ollama-Wolke
### Ollama Cloud
So verwenden Sie Ollama Cloud mit OpenCode:
@@ -1268,7 +1268,7 @@ So verwenden Sie Ollama Cloud mit OpenCode:
2. Navigieren Sie zu **Einstellungen** > **Schlüssel** und klicken Sie auf **Add API Key**, um einen neuen API-Schlüssel zu generieren.
3. Kopieren Sie den Schlüssel API zur Verwendung in OpenCode.
3. Kopieren Sie den API-Schlüssel zur Verwendung in OpenCode.
4. Führen Sie den Befehl `/connect` aus und suchen Sie nach **Ollama Cloud**.
@@ -1326,7 +1326,7 @@ Wir empfehlen, sich für [ChatGPT Plus or Pro](https://chatgpt.com/pricing) anzu
/models
```
##### Verwendung von API-Tasten
##### Verwendung von API-Keys
Wenn Sie bereits über einen API-Schlüssel verfügen, können Sie **API-Schlüssel manuell eingeben** auswählen und ihn in Ihr Terminal einfügen.
@@ -1344,7 +1344,7 @@ OpenCode Zen ist eine Liste getesteter und verifizierter Modelle, die vom OpenCo
/connect
```
3. Geben Sie Ihren OpenCode-Schlüssel API ein.
3. Geben Sie Ihren OpenCode API-Schlüssel ein.
```txt
┌ API key
@@ -1386,7 +1386,7 @@ OpenCode Zen ist eine Liste getesteter und verifizierter Modelle, die vom OpenCo
/models
```
Sie können auch zusätzliche Modelle über Ihre Opencode-Konfiguration hinzufügen.
Sie können auch zusätzliche Modelle über Ihre OpenCode-Konfiguration hinzufügen.
```json title="opencode.json" {6}
{
@@ -1401,7 +1401,7 @@ OpenCode Zen ist eine Liste getesteter und verifizierter Modelle, die vom OpenCo
}
```
5. Sie können sie auch über Ihre Opencode-Konfiguration anpassen. Hier ist ein Beispiel für die Angabe eines Anbieters
5. Sie können sie auch über Ihre OpenCode-Konfiguration anpassen. Hier ist ein Beispiel für die Angabe eines Anbieters
```json title="opencode.json"
{
@@ -1425,7 +1425,7 @@ OpenCode Zen ist eine Liste getesteter und verifizierter Modelle, die vom OpenCo
---
### SAP AI Kern
### SAP AI Core
SAP AI Core bietet Zugriff auf 40+ Modelle von OpenAI, Anthropic, Google, Amazon, Meta, Mistral und AI21 über eine einheitliche Plattform.
@@ -1441,7 +1441,7 @@ SAP AI Core bietet Zugriff auf 40+ Modelle von OpenAI, Anthropic, Google, Amazon
/connect
```
3. Geben Sie Ihren Serviceschlüssel JSON ein.
3. Geben Sie Ihren JSON-Service-Account-Key ein.
```txt
┌ Service key
@@ -1480,7 +1480,7 @@ SAP AI Core bietet Zugriff auf 40+ Modelle von OpenAI, Anthropic, Google, Amazon
---
### OVHcloud AI Endpunkte
### OVHcloud AI Endpoints
1. Gehen Sie zum [OVHcloud panel](https://ovh.com/manager). Navigieren Sie zum Abschnitt `Public Cloud`, `AI & Machine Learning` > `AI Endpoints` und klicken Sie auf der Registerkarte `API Keys` auf **Neuen API-Schlüssel erstellen**.
@@ -1509,7 +1509,7 @@ SAP AI Core bietet Zugriff auf 40+ Modelle von OpenAI, Anthropic, Google, Amazon
### Scaleway
So verwenden Sie [Scaleway Generative APIs](https://www.scaleway.com/en/docs/generative-apis/) mit Opencode:
So verwenden Sie [Scaleway Generative APIs](https://www.scaleway.com/en/docs/generative-apis/) mit OpenCode:
1. Gehen Sie zu [Scaleway Console IAM settings](https://console.scaleway.com/iam/api-keys), um einen neuen API-Schlüssel zu generieren.
@@ -1536,7 +1536,7 @@ So verwenden Sie [Scaleway Generative APIs](https://www.scaleway.com/en/docs/gen
---
### Zusammen AI
### Together AI
1. Gehen Sie zu [Together AI console](https://api.together.ai), erstellen Sie ein Konto und klicken Sie auf **Schlüssel hinzufügen**.
@@ -1546,7 +1546,7 @@ So verwenden Sie [Scaleway Generative APIs](https://www.scaleway.com/en/docs/gen
/connect
```
3. Geben Sie Ihren Together-Schlüssel AI API ein.
3. Geben Sie Ihren Together AI API-Schlüssel ein.
```txt
┌ API key
@@ -1563,17 +1563,17 @@ So verwenden Sie [Scaleway Generative APIs](https://www.scaleway.com/en/docs/gen
---
### Venedig AI
### Venice AI
1. Gehen Sie zu [Venice AI console](https://venice.ai), erstellen Sie ein Konto und generieren Sie einen API-Schlüssel.
2. Führen Sie den Befehl `/connect` aus und suchen Sie nach **Venedig AI**.
2. Führen Sie den Befehl `/connect` aus und suchen Sie nach **Venice AI**.
```txt
/connect
```
3. Geben Sie Ihren Venedig-Schlüssel AI API ein.
3. Geben Sie Ihren Venice AI API-Schlüssel ein.
```txt
┌ API key
@@ -1617,7 +1617,7 @@ Mit dem Vercel AI Gateway können Sie über einen einheitlichen Endpunkt auf Mod
/models
```
Sie können Modelle auch über Ihre Opencode-Konfiguration anpassen. Hier ist ein Beispiel für die Angabe der Provider-Routing-Reihenfolge.
Sie können Modelle auch über Ihre OpenCode-Konfiguration anpassen. Hier ist ein Beispiel für die Angabe der Provider-Routing-Reihenfolge.
```json title="opencode.json"
{
@@ -1727,7 +1727,7 @@ Einige nützliche Routing-Optionen:
/models
```
Sie können auch zusätzliche Modelle über Ihre Opencode-Konfiguration hinzufügen.
Sie können auch zusätzliche Modelle über Ihre OpenCode-Konfiguration hinzufügen.
```json title="opencode.json" {6}
{
@@ -1749,7 +1749,7 @@ Einige nützliche Routing-Optionen:
So fügen Sie einen **OpenAI-kompatiblen** Anbieter hinzu, der nicht im Befehl `/connect` aufgeführt ist:
:::tip
Sie können jeden OpenAI-kompatiblen Anbieter mit Opencode verwenden. Die meisten modernen AI-Anbieter bieten OpenAI-kompatible APIs an.
Sie können jeden OpenAI-kompatiblen Anbieter mit OpenCode verwenden. Die meisten modernen AI-Anbieter bieten OpenAI-kompatible APIs an.
:::
1. Führen Sie den Befehl `/connect` aus und scrollen Sie nach unten zu **Andere**.
@@ -1883,7 +1883,7 @@ Wenn Sie Probleme beim Konfigurieren eines Anbieters haben, überprüfen Sie Fol
Dies gilt nicht für Anbieter wie Amazon Bedrock, die für ihre Authentifizierung auf Umgebungsvariablen angewiesen sind.
2. Überprüfen Sie bei benutzerdefinierten Anbietern die Opencode-Konfiguration und:
- Stellen Sie sicher, dass der im Befehl `/connect` verwendete Anbieter ID mit dem ID in Ihrer Opencode-Konfiguration übereinstimmt.
2. Überprüfen Sie bei benutzerdefinierten Anbietern die OpenCode-Konfiguration und:
- Stellen Sie sicher, dass der im Befehl `/connect` verwendete Anbieter ID mit dem ID in Ihrer OpenCode-Konfiguration übereinstimmt.
- Für den Anbieter wird das richtige npm-Paket verwendet. Verwenden Sie beispielsweise `@ai-sdk/cerebras` für Cerebras. Und für alle anderen OpenAI-kompatiblen Anbieter verwenden Sie `@ai-sdk/openai-compatible`.
- Überprüfen Sie, ob im Feld `options.baseURL` der richtige Endpunkt API verwendet wird.

View File

@@ -21,7 +21,7 @@ Dadurch wird ein lokaler Server auf `127.0.0.1` mit einem zufällig verfügbaren
Wenn `OPENCODE_SERVER_PASSWORD` nicht gesetzt ist, ist der Server ungesichert. Dies ist für den lokalen Gebrauch in Ordnung, sollte aber für den Netzwerkzugriff eingestellt werden.
:::
:::tip[Windows Users]
:::tip[Windows-Nutzer]
Um die beste Erfahrung zu erzielen, führen Sie `opencode web` über [WSL](/docs/windows-wsl) und nicht über PowerShell aus. Dies gewährleistet den ordnungsgemäßen Zugriff auf das Dateisystem und die Terminalintegration.
:::

View File

@@ -8,7 +8,7 @@ import { Steps } from "@astrojs/starlight/components"
OpenCode laeuft zwar direkt unter Windows, die beste Erfahrung bekommst du aber mit [Windows Subsystem for Linux (WSL)](https://learn.microsoft.com/en-us/windows/wsl/install).
WSL bietet eine Linux-Umgebung, die mit den OpenCode-Features nahtlos funktioniert.
:::tip[Why WSL?]
:::tip[Warum WSL?]
WSL bietet bessere Dateisystem-Performance, vollstaendige Terminal-Unterstuetzung und hohe Kompatibilitaet mit den Entwicklungswerkzeugen, die OpenCode nutzt.
:::
@@ -30,7 +30,7 @@ WSL bietet bessere Dateisystem-Performance, vollstaendige Terminal-Unterstuetzun
curl -fsSL https://opencode.ai/install | bash
```
3. **Use OpenCode from WSL**
3. **OpenCode über WSL verwenden**
Wechsle in dein Projektverzeichnis (Windows-Dateien erreichst du ueber `/mnt/c/`, `/mnt/d/` usw.) und starte OpenCode.
@@ -87,7 +87,7 @@ Gleichzeitig ist die Weboberflaeche weiterhin im Windows-Browser erreichbar.
---
## Accessing Windows Files
## Zugriff auf Windows-Dateien
WSL kann ueber das Verzeichnis `/mnt/` auf alle Windows-Dateien zugreifen:
@@ -95,7 +95,7 @@ WSL kann ueber das Verzeichnis `/mnt/` auf alle Windows-Dateien zugreifen:
- Laufwerk `D:` -> `/mnt/d/`
- usw.
Example:
Beispiel:
```bash
cd /mnt/c/Users/YourName/Documents/project
@@ -108,7 +108,7 @@ Fuer die beste Performance kannst du dein Repo direkt in das WSL-Dateisystem klo
---
## Tips
## Tipps
- Lass OpenCode in WSL laufen, auch wenn das Projekt auf einem Windows-Laufwerk liegt
- Nutze die [WSL-Extension](https://code.visualstudio.com/docs/remote/wsl) von VS Code fuer einen integrierten Workflow