# NER 服务环境配置 # ============================================ # NER 模型配置 # ============================================ # 可选值: rule / ollama / spacy / transformers / api # - rule: 基于规则的简单 NER(开发测试用,速度快但准确率低) # - ollama: 使用本地 Ollama LLM(推荐生产环境,准确率高) # - api: 使用远程 API(如百炼、DeepSeek) NER_MODEL=ollama # ============================================ # Ollama 配置(当 NER_MODEL=ollama 时使用) # ============================================ # Ollama 服务地址 OLLAMA_URL=http://localhost:11434 # 使用的模型(推荐中文 NER) # - qwen2.5:7b(推荐,中文能力最强) # - qwen2.5:14b(更强,需要更多显存) # - llama3.1:8b(英文较好) OLLAMA_MODEL=qwen2.5:7b # 请求超时时间(秒) OLLAMA_TIMEOUT=120 # ============================================ # 文本分块配置(长文本处理) # ============================================ # 每个分块的最大字符数 CHUNK_SIZE=2000 # 分块重叠字符数(避免实体被截断) CHUNK_OVERLAP=200 # ============================================ # API 配置(当 NER_MODEL=api 时使用) # ============================================ # API 基础 URL # API_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1 # API 密钥 # API_KEY=your-api-key # API 模型 # API_MODEL=qwen-plus # ============================================ # 日志配置 # ============================================ LOG_LEVEL=INFO # ============================================ # 服务配置 # ============================================ HOST=0.0.0.0 PORT=8001 DEBUG=false