|
|
@@ -112,12 +112,13 @@ class OllamaService:
|
|
|
"stream": False,
|
|
|
"options": {
|
|
|
"temperature": 0.1, # 低温度,更确定性的输出
|
|
|
- "num_predict": 2048, # 最大输出 token
|
|
|
+ "num_predict": 20480, # 最大输出 token
|
|
|
}
|
|
|
}
|
|
|
|
|
|
- # Qwen3 思考模式:保留思考能力,解析时提取最终结果
|
|
|
- # 如需禁用思考,可设置 payload["think"] = False
|
|
|
+ # Qwen3 思考模式:禁用思考,直接输出 JSON 结果
|
|
|
+ # 思考模式会导致 token 用于推理过程,无法输出最终结果
|
|
|
+ payload["think"] = False
|
|
|
|
|
|
try:
|
|
|
async with httpx.AsyncClient(timeout=self.timeout) as client:
|