Reasoning
Für Modelle, die Reasoning (Chain-of-Thought) unterstützen, können Sie die Tiefe des Reasoning-Prozesses mit dem Parameter reasoning_effort steuern.
Was Sie lernen werden:
- Welche Modelle Reasoning unterstützen
- Wie Sie den Parameter
reasoning_effortverwenden - Wie Sie Reasoning für Qwen3-Modelle deaktivieren
Unterstützte Modelle
Abschnitt betitelt „Unterstützte Modelle“| Modell | Reasoning |
|---|---|
| o1, o1-mini, o3, o3-mini, o4-mini | Parameter reasoning_effort |
| Gemini 2.5 | Parameter reasoning_effort |
| Claude 3.7, Claude 4 | Parameter reasoning_effort |
| Qwen3 | Prompt-Schlüsselwort /no_think |
Verwendung von reasoning_effort
Abschnitt betitelt „Verwendung von reasoning_effort“from openai import OpenAI
client = OpenAI()
response = client.chat.completions.create( model="claude-sonnet-4", messages=[ {"role": "system", "content": "You are a concise and helpful assistant."}, {"role": "user", "content": "What is the capital of France?"}, ], reasoning_effort="low", # "low", "medium", or "high")
print(response.choices[0].message.content)Der Parameter reasoning_effort akzeptiert drei Werte:
low— Schnelle Antworten, minimales Reasoningmedium— Ausgewogene Reasoning-Tiefehigh— Tiefgehendes Reasoning für komplexe Probleme
Reasoning für Qwen3 deaktivieren
Abschnitt betitelt „Reasoning für Qwen3 deaktivieren“Für Qwen3-Modelle stellen Sie /no_think Ihrem Prompt voran, um Reasoning zu deaktivieren:
from openai import OpenAI
client = OpenAI()
response = client.chat.completions.create( model="Qwen3-30B-A3B-FP8", messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "/no_think What is your name?"}, ],)
print(response.choices[0].message.content)Nächste Schritte
Abschnitt betitelt „Nächste Schritte“- Chat Completions — Standard-Chat-API-Nutzung
- Function Calling — Reasoning-Modelle mit externen Tools verbinden
- Streaming — Antworten von Reasoning-Modellen streamen