Continue for JetBrains
Continue für AI Engineer ist eine angepasste Version des Continue-Plugins für JetBrains-IDEs. Es bringt Chat, Inline-Edits, Autocomplete und Coding-Agenten direkt in IntelliJ-basierte Workflows, sodass Sie ohne Editor-Wechsel mit KI-Modellen arbeiten können.
Hauptfunktionen
Abschnitt betitelt „Hauptfunktionen“- Chat-Oberfläche für Fragen, Code-Erläuterungen und Entwicklungsunterstützung
- Inline-Edits für gezielte Code-Änderungen direkt im Editor
- Autocomplete für latenzarme Code-Vorschläge während der Eingabe
- Coding-Agenten für mehrstufige Aufgaben wie das Lesen von Dateien, Ausführen von Befehlen und Anwenden von Änderungen
Installation
Abschnitt betitelt „Installation“- Öffnen Sie in Ihrer JetBrains-IDE die Settings und wählen Sie Plugins.
- Klicken Sie auf der Plugins-Seite auf das Einstellungssymbol und wählen Sie Manage Plugin Repositories.
- Fügen Sie im Dialog Custom Plugin Repositories die folgende Repository-URL hinzu:
https://plugins.dev.aie.ai.t-systems.net/v1/registry/434192/packages/latest/info?package_name=continue-jetbrains&file_pattern=jetbrainupdatexml- Klicken Sie auf OK, um die Repository-Liste zu speichern und die Änderungen zu übernehmen.
- Öffnen Sie den Marketplace, suchen Sie nach Continue for AI Engineer und installieren Sie das Plugin.
Einrichtung der Konfigurationsdatei
Abschnitt betitelt „Einrichtung der Konfigurationsdatei“Öffnen Sie nach der ersten Installation das AI Engineer Continue-Plugin und wählen Sie Local config. Dadurch wird eine leere config.yaml-Datei geöffnet, die Sie mit Ihrem Modell, Ihrer Base URL und Ihrem API-Key aktualisieren können.
- Wählen Sie eine Model-ID aus Verfügbare Modelle:
model: gpt-oss-120b- Setzen Sie die Base URL:
apiBase: https://llm-server.llmhub.t-systems.net/v2/coding- Erzeugen Sie einen API-Key in LLM Serving API Keys:
apiKey: gen-************************************************- Weisen Sie dem Modell eine oder mehrere Rollen zu, etwa
chat,edit,apply,autocompleteoderembed:
roles: - chatBeispiel-config.yaml
Abschnitt betitelt „Beispiel-config.yaml“name: Local Configversion: 1.0.0schema: v1models: - name: gpt-4.1 model: gpt-4.1 provider: openai apiBase: https://llm-server.llmhub.t-systems.net/v2/coding apiKey: gen-************************************************ roles: - chat requestOptions: proxy: YourProxyHost:Port - name: Qwen3-30B-A3B-FP8 model: Qwen3-30B-A3B-FP8 provider: openai apiBase: https://llm-server.llmhub.t-systems.net/v2/coding apiKey: gen-************************************************ roles: - chat - edit - apply requestOptions: proxy: YourProxyHost:PortSobald die Konfiguration gespeichert ist, können Sie einen Chat starten und Continue in Ihrer JetBrains-IDE verwenden.
Aktualisierung
Abschnitt betitelt „Aktualisierung“Automatische Updates sind im JetBrains-Plugin enthalten, sobald eine neue Version veröffentlicht wird.
- Das Plugin kann Updates automatisch beziehen, wenn sie verfügbar sind.
- Sie können auch manuell unter
Settings -> Appearance & Behavior -> System Settings -> Updatesprüfen.