Authentifizierung
AI Foundation Services verwendet API-Schlüssel zur Authentifizierung. Alle Anfragen müssen Ihren API-Schlüssel im Authorization-Header enthalten.
API-Schlüssel erhalten
Abschnitt betitelt „API-Schlüssel erhalten“Kostenloser Test-Schlüssel
Abschnitt betitelt „Kostenloser Test-Schlüssel“Starten Sie sofort mit einem kostenlosen Test-Schlüssel:
- Besuchen Sie das API-Schlüssel-Portal
- Erstellen Sie ein Konto und generieren Sie Ihren API-Schlüssel
- Ihr Test-Schlüssel gibt Ihnen Zugang zu allen verfügbaren Modellen
Produktions-Schlüssel
Abschnitt betitelt „Produktions-Schlüssel“Für produktive Workloads kaufen Sie über den T-Cloud Marketplace.
Umgebungsvariablen einrichten
Abschnitt betitelt „Umgebungsvariablen einrichten“Speichern Sie Ihren API-Schlüssel als Umgebungsvariable — schreiben Sie ihn niemals direkt in Ihren Quellcode.
export OPENAI_API_KEY="your_api_key_here"export OPENAI_BASE_URL="https://llm-server.llmhub.t-systems.net/v2"Um die Variablen sitzungsübergreifend zu speichern, fügen Sie diese Zeilen zu Ihrer ~/.zshrc- oder ~/.bashrc-Datei hinzu.
$env:OPENAI_API_KEY = "your_api_key_here"$env:OPENAI_BASE_URL = "https://llm-server.llmhub.t-systems.net/v2"setx OPENAI_API_KEY "your_api_key_here"setx OPENAI_BASE_URL "https://llm-server.llmhub.t-systems.net/v2"API-Schlüssel verwenden
Abschnitt betitelt „API-Schlüssel verwenden“Mit OpenAI-SDKs
Abschnitt betitelt „Mit OpenAI-SDKs“Wenn OPENAI_API_KEY und OPENAI_BASE_URL gesetzt sind, werden sie von den OpenAI-SDKs automatisch übernommen:
from openai import OpenAI
client = OpenAI() # No need to pass api_key or base_urlSie können sie auch explizit übergeben:
from openai import OpenAI
client = OpenAI( api_key="your_api_key_here", base_url="https://llm-server.llmhub.t-systems.net/v2",)Mit HTTP-Anfragen
Abschnitt betitelt „Mit HTTP-Anfragen“Fügen Sie den API-Schlüssel im Authorization-Header ein:
curl -X POST "https://llm-server.llmhub.t-systems.net/v2/chat/completions" \ -H "Authorization: Bearer $OPENAI_API_KEY" \ -H "Content-Type: application/json" \ -d '{"model": "Llama-3.3-70B-Instruct", "messages": [{"role": "user", "content": "Hello"}]}'Basis-URL
Abschnitt betitelt „Basis-URL“Alle API-Anfragen gehen an:
https://llm-server.llmhub.t-systems.net/v2Dies ist der OpenAI-kompatible Endpunkt. Die vollständige API-Spezifikation finden Sie in der API-Referenz.
Best Practices
Abschnitt betitelt „Best Practices“- API-Schlüssel niemals committen — verwenden Sie
.env-Dateien und fügen Sie diese zur.gitignorehinzu. - Umgebungsvariablen verwenden — in der Produktion statt fest eingecodeter Schlüssel.
- Schlüssel regelmäßig rotieren über das API-Schlüssel-Portal.
- Nutzung überwachen über das API-Schlüssel-Portal, um Token-Verbrauch und Kosten zu verfolgen.