Quickstart
Starten Sie in wenigen Minuten mit den AI Foundation Services. Diese Anleitung führt Sie durch die Installation des SDK, die Einrichtung der Authentifizierung und Ihren ersten API-Aufruf.
Schritt 1: OpenAI-Paket installieren
Abschnitt betitelt „Schritt 1: OpenAI-Paket installieren“AI Foundation Services verwendet eine OpenAI-kompatible API, sodass Sie die offiziellen OpenAI-SDKs nutzen können.
pip install openainpm install openaiSchritt 2: API-Schlüssel erhalten
Abschnitt betitelt „Schritt 2: API-Schlüssel erhalten“Kostenloser Test-Schlüssel
Abschnitt betitelt „Kostenloser Test-Schlüssel“Starten Sie sofort mit einem kostenlosen Test-Schlüssel:
- Besuchen Sie das API-Schlüssel-Portal
- Erstellen Sie ein Konto und generieren Sie Ihren API-Schlüssel
- Ihr Test-Schlüssel gibt Ihnen Zugang zu allen verfügbaren Modellen
Produktionsschlüssel
Abschnitt betitelt „Produktionsschlüssel“Für produktive Workloads kaufen Sie über den T-Cloud Marketplace.
Schritt 3: Umgebungsvariablen setzen
Abschnitt betitelt „Schritt 3: Umgebungsvariablen setzen“export OPENAI_API_KEY="your_api_key_here"export OPENAI_BASE_URL="https://llm-server.llmhub.t-systems.net/v2"$env:OPENAI_API_KEY = "your_api_key_here"$env:OPENAI_BASE_URL = "https://llm-server.llmhub.t-systems.net/v2"setx OPENAI_API_KEY "your_api_key_here"setx OPENAI_BASE_URL "https://llm-server.llmhub.t-systems.net/v2"Schritt 4: Ersten API-Aufruf durchführen
Abschnitt betitelt „Schritt 4: Ersten API-Aufruf durchführen“curl -X POST "$OPENAI_BASE_URL/chat/completions" \ -H "Authorization: Bearer $OPENAI_API_KEY" \ -H "Content-Type: application/json" \ -d '{ "model": "Llama-3.3-70B-Instruct", "messages": [ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "What is quantum computing in simple terms?"} ], "temperature": 0.5, "max_tokens": 150 }'from openai import OpenAI
client = OpenAI() # Reads OPENAI_API_KEY and OPENAI_BASE_URL from env
response = client.chat.completions.create( model="Llama-3.3-70B-Instruct", messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "What is quantum computing in simple terms?"}, ], temperature=0.5, max_tokens=150,)
print(response.choices[0].message.content)import OpenAI from "openai";
const client = new OpenAI(); // Reads OPENAI_API_KEY and OPENAI_BASE_URL from env
const response = await client.chat.completions.create({ model: "Llama-3.3-70B-Instruct", messages: [ { role: "system", content: "You are a helpful assistant." }, { role: "user", content: "What is quantum computing in simple terms?" }, ], temperature: 0.5, max_tokens: 150,});
console.log(response.choices[0].message.content);Weitere Beispiele
Abschnitt betitelt „Weitere Beispiele“Embeddings erstellen
Abschnitt betitelt „Embeddings erstellen“from openai import OpenAI
client = OpenAI()
texts = ["The quick brown fox jumps over the lazy dog", "Data science is fun!"]result = client.embeddings.create(input=texts, model="jina-embeddings-v2-base-de")
print(f"Embedding dimension: {len(result.data[0].embedding)}")print(f"Token usage: {result.usage}")Vision / Multimodal
Abschnitt betitelt „Vision / Multimodal“from openai import OpenAI
client = OpenAI()
response = client.chat.completions.create( model="Qwen3-VL-30B-A3B-Instruct-FP8", messages=[ { "role": "user", "content": [ {"type": "text", "text": "What's in this image?"}, { "type": "image_url", "image_url": { "url": "https://images.unsplash.com/photo-1546069901-ba9599a7e63c?w=400" }, }, ], } ], max_tokens=300,)
print(response.choices[0].message.content)Nächste Schritte
Abschnitt betitelt „Nächste Schritte“- Authentifizierung — API-Schlüssel-Verwaltung und Best Practices
- Verfügbare Modelle — Alle unterstützten Modelle durchsuchen
- Chat Completions — Detaillierte Anleitung mit Streaming, Parametern und mehr
- LangChain — AIFS mit LangChain für RAG verwenden
- Llama Index — AIFS mit LlamaIndex für RAG verwenden