# NER 服务环境配置 # ============================================ # NER 模型配置 # ============================================ # 可选值: rule / ollama # - rule: 基于规则的简单 NER(开发测试用,速度快但准确率低) # - ollama: 使用本地 Ollama LLM(推荐生产环境,准确率高) NER_MODEL=ollama # ============================================ # Ollama 配置(当 NER_MODEL=ollama 时使用) # ============================================ # Ollama 服务地址 OLLAMA_URL=http://localhost:11434 # 使用的模型(推荐) # 通用 LLM 模式: # - qwen2.5:7b(推荐中文,能力最强) # - qwen2.5:14b(更强,需要更多显存) # UniversalNER 专用模式: # - zeffmuks/universal-ner(NER 专用模型,速度快) OLLAMA_MODEL=zeffmuks/universal-ner # 请求超时时间(秒) OLLAMA_TIMEOUT=120 # ============================================ # 文本分块配置(长文本处理) # ============================================ # 每个分块的最大字符数 CHUNK_SIZE=2000 # 分块重叠字符数(避免实体被截断) CHUNK_OVERLAP=200 # ============================================ # 日志配置 # ============================================ LOG_LEVEL=INFO # ============================================ # 服务配置 # ============================================ HOST=0.0.0.0 PORT=8001 DEBUG=false