.env.example 1.7 KB

12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758
  1. # NER 服务环境配置
  2. # ============================================
  3. # NER 模型配置
  4. # ============================================
  5. # 可选值: rule / ollama / spacy / transformers / api
  6. # - rule: 基于规则的简单 NER(开发测试用,速度快但准确率低)
  7. # - ollama: 使用本地 Ollama LLM(推荐生产环境,准确率高)
  8. # - api: 使用远程 API(如百炼、DeepSeek)
  9. NER_MODEL=ollama
  10. # ============================================
  11. # Ollama 配置(当 NER_MODEL=ollama 时使用)
  12. # ============================================
  13. # Ollama 服务地址
  14. OLLAMA_URL=http://localhost:11434
  15. # 使用的模型(推荐中文 NER)
  16. # - qwen2.5:7b(推荐,中文能力最强)
  17. # - qwen2.5:14b(更强,需要更多显存)
  18. # - llama3.1:8b(英文较好)
  19. OLLAMA_MODEL=qwen2.5:7b
  20. # 请求超时时间(秒)
  21. OLLAMA_TIMEOUT=120
  22. # ============================================
  23. # 文本分块配置(长文本处理)
  24. # ============================================
  25. # 每个分块的最大字符数
  26. CHUNK_SIZE=2000
  27. # 分块重叠字符数(避免实体被截断)
  28. CHUNK_OVERLAP=200
  29. # ============================================
  30. # API 配置(当 NER_MODEL=api 时使用)
  31. # ============================================
  32. # API 基础 URL
  33. # API_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1
  34. # API 密钥
  35. # API_KEY=your-api-key
  36. # API 模型
  37. # API_MODEL=qwen-plus
  38. # ============================================
  39. # 日志配置
  40. # ============================================
  41. LOG_LEVEL=INFO
  42. # ============================================
  43. # 服务配置
  44. # ============================================
  45. HOST=0.0.0.0
  46. PORT=8001
  47. DEBUG=false