Zum Inhalt springen

Reasoning

Für Modelle, die Reasoning (Chain-of-Thought) unterstützen, können Sie die Tiefe des Reasoning-Prozesses mit dem Parameter reasoning_effort steuern.

Was Sie lernen werden:

  • Welche Modelle Reasoning unterstützen
  • Wie Sie den Parameter reasoning_effort verwenden
  • Wie Sie Reasoning für Qwen3-Modelle deaktivieren
ModellReasoning
o1, o1-mini, o3, o3-mini, o4-miniParameter reasoning_effort
Gemini 2.5Parameter reasoning_effort
Claude 3.7, Claude 4Parameter reasoning_effort
Qwen3Prompt-Schlüsselwort /no_think
from openai import OpenAI
client = OpenAI()
response = client.chat.completions.create(
model="claude-sonnet-4",
messages=[
{"role": "system", "content": "You are a concise and helpful assistant."},
{"role": "user", "content": "What is the capital of France?"},
],
reasoning_effort="low", # "low", "medium", or "high"
)
print(response.choices[0].message.content)

Der Parameter reasoning_effort akzeptiert drei Werte:

  • low — Schnelle Antworten, minimales Reasoning
  • medium — Ausgewogene Reasoning-Tiefe
  • high — Tiefgehendes Reasoning für komplexe Probleme

Für Qwen3-Modelle stellen Sie /no_think Ihrem Prompt voran, um Reasoning zu deaktivieren:

from openai import OpenAI
client = OpenAI()
response = client.chat.completions.create(
model="Qwen3-30B-A3B-FP8",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "/no_think What is your name?"},
],
)
print(response.choices[0].message.content)