# NER 服务环境配置 # ============================================ # NER 模型配置 # ============================================ # 可选值: rule / ollama # - rule: 基于规则的简单 NER(开发测试用,速度快但准确率低) # - ollama: 使用本地 Ollama LLM(准确率高,需要算力) NER_MODEL=ollama # ============================================ # Ollama 配置 # ============================================ # Ollama 服务地址 OLLAMA_URL=http://localhost:11434 # 使用的模型 # - hoangquan456/qwen3-nothink:4b(推荐,无思考模式直接输出) # - qwen3:8b(更强,需要更多内存) # - qwen2.5:7b(备选) OLLAMA_MODEL=hoangquan456/qwen3-nothink:4b # 请求超时时间(秒,CPU 模式需要更长) OLLAMA_TIMEOUT=180 # ============================================ # 文本分块配置(长文本处理) # ============================================ CHUNK_SIZE=2000 CHUNK_OVERLAP=200 # ============================================ # 日志和服务配置 # ============================================ LOG_LEVEL=INFO HOST=0.0.0.0 PORT=8001 DEBUG=false