comfyui-ollama LLM本地模型调用插件

comfyui-ollama LLM本地模型调用插件

插件说明

该插件可以轻松地将LLM的功能集成到ComfyUI工作流中,或者只是尝试LLM推理。

要正确使用它,您需要一个正在运行的Ollama服务器,可以从运行ComfyUI的主机访问。

安装方法

插件安装

插件解压后(去掉-main)放到ComfyUI根目录的custom_nodes路径下。.在文件夹上面输入cmd打开脚本编辑器并输入以下脚本(路径替换为你的ComfyUI Python环境路径):

F:\ComfyUI\python_embeded\python.exe -s -m pip install -r requirements.txt

程序安装

  • Ollama 网站上,点击Download下载安装程序(Window)。默认路径安装。
  • 点击环境变量,新建一个环系统变量,名称为OLLAMA_MODELS,变量为你要放的模型的位置,可以自定义,例如F:\LLM\OLLAMA_MODELS,重启电脑或者cmd 输入echo %path%刷新系统变量。
  • 重启电脑之后cmd输入 ollama run llama3.1:8b,就会下载大模型到你设置的环境变量路径里。
  • 修改模型保存位置以及下载模型视频教程ComfyUI中使用大语言模型Ollama给提示词润色,解决词穷问题_comfyui ollama-CSDN博客
comfyui-ollama LLM本地模型调用插件
此内容为免费资源,请登录后查看
0
提供远程协助
支持需求定制
适用软件ComfyUI
语言中英
大小1.41mb
工具使用问题请联系qq1990781688
免费资源
© 版权声明
THE END
喜欢就支持一下吧
点赞14 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容