# 日志输出级别。默认值为INFO。对于生产环境,建议将其设置为ERROR
LOG_LEVEL=ERROR
# 日志时区
LOG_TZ=Asia/Shanghai
# 根据CPU核心数,设置服务器工作进程数量,建议设置为CPU核心数的2-4倍
SERVER_WORKER_AMOUNT=8
# 默认工作连接数,默认为10
SERVER_WORKER_CONNECTIONS=50
# 核心:将 Gunicorn 超时时间大幅延长至 10 分钟 (600秒)
# 这一步是解决 API 502/504 的关键
GUNICORN_TIMEOUT=600
# 调整Celery工作进程数量,根据CPU核心数,可以设置为4-8个,这里设置为8
CELERY_WORKER_AMOUNT=4
# API工具配置,默认连接10,读60,如果大模型响应慢,可以适当增加时长
API_TOOL_DEFAULT_CONNECT_TIMEOUT=30
API_TOOL_DEFAULT_READ_TIMEOUT=600
# PG最大连接数
POSTGRES_MAX_CONNECTIONS=200
# 调整数据库连接池大小,根据内存和核心数,可以适当增加
SQLALCHEMY_POOL_SIZE=50
SQLALCHEMY_MAX_OVERFLOW=20
# 建议设置为可用内存的25%
POSTGRES_SHARED_BUFFERS=8192MB
# 复杂查询使用更多内存
POSTGRES_WORK_MEM=128MB
# 设置规划器关于有效缓存大小的假设
POSTGRES_EFFECTIVE_CACHE_SIZE=16GB
# 启用工作流运行日志的自动清理以管理数据库大小
WORKFLOW_LOG_CLEANUP_ENABLED=true
# 保留工作流运行日志的天数(默认:30天)
WORKFLOW_LOG_RETENTION_DAYS=7
# 工作流日志清理操作的批处理大小(默认:100)
WORKFLOW_LOG_CLEANUP_BATCH_SIZE=100
# 启用后,每天凌晨4点清理过期对话消息
ENABLE_CLEAN_MESSAGES=true
# 启用后,每天凌晨2点清理过期工作流日志
ENABLE_WORKFLOW_RUN_CLEANUP_TASK=true
# 调整文件上传大小限制,根据需求调整,当前为15MB,如果有大文件需求可以增加
UPLOAD_FILE_SIZE_LIMIT=50
# 调整代码执行服务的连接池,确保足够处理并发请求
CODE_EXECUTION_POOL_MAX_CONNECTIONS=100
CODE_EXECUTION_POOL_MAX_KEEPALIVE_CONNECTIONS=20
# 调整工作流的最大执行步骤和时间,根据需求调整
WORKFLOW_MAX_EXECUTION_STEPS=1000
WORKFLOW_MAX_EXECUTION_TIME=2400
# 调整HTTP请求节点的超时时间,根据网络条件调整
HTTP_REQUEST_MAX_READ_TIMEOUT=600
HTTP_REQUEST_MAX_WRITE_TIMEOUT=600
# 调整文本生成超时时间,根据模型响应时间调整,(毫秒单位,设为 20 分钟)
TEXT_GENERATION_TIMEOUT_MS=120000