Dify安装¶
Dify运用智能化流程自动化与数据管理技术,帮助企业优化业务流程、提高工作效率,为多行业场景提供可靠的AI解决方案,助力数字化转型升级。
容器部署¶
| Bash | |
|---|---|
模型供应商接入配置指南¶
进入控制台「设置-模型供应商」页面,支持OpenAI、Azure、Ollama等上百种模型。
以接入本地Ollama为例:
配置Ollama
设置-模型供应商-安装Ollama
| Bash | |
|---|---|
-
vision:模型可以识别图像中的物体、场景、文字(OCR),并回答关于图像的问题,甚至根据图片进行推理。例如,你可以上传一张图表,让模型描述其内容;或者拍一张零件照片,让模型检查是否有缺陷
-
函数调用:模型本身不能查天气、查数据库,但通过函数调用,它可以告诉你"需要调用'获取天气'函数,参数是'城市:北京'",然后由你的程序去执行这个函数,并将结果返回给模型,最终由模型整理成自然语言回复给你。其他常见应用还包括调用计算器、搜索API、操作本地文件等
模型参数介绍¶
-
温度(Temperature):控制随机性。值越低,回答越确定、严谨;值越高,回答越发散、有创意,常用范围0.1 - 1.0。(默认值0.8)
-
Top P (核采样):与top-k一起工作。控制候选词范围。值越低,用词越集中、保守;值越高,用词越宽泛、多样,常用范围0.5 - 1.0。(默认值:0.9)
-
Top K:控制候选词数量。固定从概率最高的K个词中挑选,常用范围1-100。(默认值:40)
-
Repeat Penalty(重复处罚):减少文本重复,当模型生成文本时,它会降低那些在上下文中已经出现过的词汇被再次选择的概率。(默认值:1.1)
- 1.0: 无惩罚,允许自由重复
- 1.1-1.3: 轻度惩罚,常规使用,平衡创意与连贯性
- 1.4-1.8: 中度惩罚,需要避免重复的长文本生成
-
>2.0: 重度惩罚,严格避免任何重复
-
最大令牌数预测:生成文本时预测的最大token数。(默认值:128,-1 = 无限生成,-2 = 填充上下文)
-
Mirostat 采样:启用 Mirostat 采样以控制困惑度。(默认值:0,0 = 禁用,1 = Mirostat,2 = Mirostat 2.0)
-
学习率:影响算法对生成文本反馈响应的速度。较低的学习率会导致调整速度变慢,而较高的学习率会使得算法更加灵敏。(默认值:0.1)
-
文本连贯度:控制输出的连贯性和多样性之间的平衡。较低的值会导致更专注和连贯的文本。(默认值:5.0)
-
上下文窗口大小:设置用于生成下一个标记的上下文窗口大小。(默认值:2048)
-
GPU 层数:加载到 GPU 的层数。在 macOS 上,默认为 1 以启用 Metal 支持,设置为 0 则禁用。只要模型适合一个 GPU,它就保留在其中。它不设置 GPU 的数量。
-
线程数:设置计算过程中使用的线程数。默认情况下,Ollama会检测以获得最佳性能。建议将此值设置为系统拥有的物理CPU核心数(而不是逻辑核心数)。
-
回溯内容:设置模型回溯多远的内容以防止重复。(默认值:64,0 = 禁用,-1 = num_ctx)
-
减少标记影响:用于减少输出中不太可能的标记的影响。较高的值(例如,2.0)会更多地减少这种影响,而1.0的值则会禁用此设置。(默认值:1)
-
随机数种子:设置用于生成的随机数种子。将此设置为特定数字将使模型对相同的提示生成相同的文本。(默认值:0)