Ollama本地部署AI大模型及webui

因为众多AI对AMD显卡不太友好,所以我这台机器不好部署本地AI模型,尤其是文生图大模型(LLaVM)

因此找到一个叫Ollama的(对就是羊驼)nb玩意

nb在哪呢?

支持macOS、Linux、Windows

而且居然还在长城里边()

憨憨的

这玩意是用cpu跑的,那不就好办了吗。我这边大哥是R7-8845H,整天闲着也不好

先上官网下Ollama程序本体,不大(Windows版664MB)

https://ollama.com/

啊对这个不用登录,直接下就行,妥妥良心

随便安装好之后回到官网,进到Models

这里面展示的是Ollama支持的模型,注意区别各个模型的版本号和不同的体积选项

一般来说,模型版本越新越好,体积大小决定了跑模型的时候加载的数据多少,从而影响生成内容的质量和响应速度。体积越大,需要越好的cpu性能和内存大小,上下文长度越大,生成内容质量越好,响应速度越慢

我比较喜欢谷歌的gemma2,一般选2B就够用了。当然一样推荐的还有Meta的llama、微软的phi、阿里的qwen(千义)、mistral 点开一个模型之后(这里以gemma2 2B为例),选择体积(一定一定要看好),我选择2B,看到右边那一行

ollama run gemma2:2b

我还是会建议你把run改成pull,比较安心。

粘到命令行里

ollama pull gemma2:2b

其实后面熟悉的话可以自己往cmd里敲,包括版本号啥的 然后让他慢慢跑完。一开始他下的还挺快的,后来越来越慢,最后甚至只有几十k,但是一般半小时以内就能下完

然后,就可以

ollama run gemma2:2b

然后你就能愉快的和AI聊了😊

对,绝大多数模型都支持多种语言,随便聊没有问题的。


OK正片结束,以下是进阶(闲篇)

众所周知,Windows的这什么cmd就是个大黑框框,虽然现在改的win11了一点,但还是大黑框框。为了不委屈你的审美,这玩意还是调教调教合适

就是简单的设置一下,在cmd界面仔细找找你就能找到藏在下拉列表里的设置(Windows还贴心的写上了快捷键Ctrl+,)

在外观里启用亚克力,命令提示符>外观里调整背景图像、不透明度

背景图像还能设成当前的桌面壁纸,好评👍

这样不就好看多了

扯完了cmd,再说Ollama的事

诶他肯定有对不对,大神们早就提前做好了

推荐这个大名鼎鼎的: https://openwebui.com

Github开源

https://github.com/open-webui/open-webui

大神,这必须得给个star

下载最新Release

或者,如果你有git

git clone https://github.com/open-webui/open-webui.git

然后看官方文档就行了

https://docs.openwebui.com

真的不能再详细了

安装方式包括Docker(Recommend)和Pip、Github版

我知道这几个看上去都挺陌生的,所以详细的实操过程再单独分几篇来写,因为这每一个拿出来牵扯到的都是大头😶‍🌫️

Last edit: 10/14/2024