.env.example 1.1 KB

1234567891011121314151617181920212223242526272829303132333435363738
  1. # NER 服务环境配置
  2. # ============================================
  3. # NER 模型配置
  4. # ============================================
  5. # 可选值: rule / ollama
  6. # - rule: 基于规则的简单 NER(开发测试用,速度快但准确率低)
  7. # - ollama: 使用本地 Ollama LLM(准确率高,需要算力)
  8. NER_MODEL=ollama
  9. # ============================================
  10. # Ollama 配置
  11. # ============================================
  12. # Ollama 服务地址
  13. OLLAMA_URL=http://localhost:11434
  14. # 使用的模型
  15. # - hoangquan456/qwen3-nothink:4b(推荐,无思考模式直接输出)
  16. # - qwen3:8b(更强,需要更多内存)
  17. # - qwen2.5:7b(备选)
  18. OLLAMA_MODEL=hoangquan456/qwen3-nothink:4b
  19. # 请求超时时间(秒,CPU 模式需要更长)
  20. OLLAMA_TIMEOUT=180
  21. # ============================================
  22. # 文本分块配置(长文本处理)
  23. # ============================================
  24. CHUNK_SIZE=2000
  25. CHUNK_OVERLAP=200
  26. # ============================================
  27. # 日志和服务配置
  28. # ============================================
  29. LOG_LEVEL=INFO
  30. HOST=0.0.0.0
  31. PORT=8001
  32. DEBUG=false