本文导航:
第二部分、打造支持本地 RAG 的 AI 大语言模型
这次,我们以新出的Llama 3.1 8b举例,首先,本地跑llama3.18b,你的机器至少需要10G以上的显存。
ollama模型下载目录的更改、以及前置的步骤,大家还是看我写的这期教程:https://www.ai8.net/tutorial/2024/0716/536.html,我在此就不多做赘述了。
我们在装好ollama后,打命令行窗口,使用下面命令下载Llama 3.1 8b:
ollama run llama3.1:8b
下载完成后,使用下面的代码来安装 Open WebUI,根据你的情况选择 GPU/CPU/服务器的版本。
1、安装支持 NVIDIA GPU 的 Open WebUI(推荐):
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
2、仅CPU:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
3、如果Ollama在服务器上:
#将代码中的 [OLLAMA_BASE_URL] 更改为你服务器的URL
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
4、仅用于 OpenAI API 的 Open WebUI:
#将代码中的 [your_secret_key] 换成你的Key
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
5、Ollama捆绑+GPU 的 Open WebUI:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
6、Ollama捆绑+仅CPU 的 Open WebUI:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
安装搞定后,在docker界面点击3000端口,即可打开Open WebUI
选择工作空间→选择文档tab,+号上传你的文档,别忘了给你的文档命名和打上标签。
接着,我们回到对话界面,用#号选择所有文档,大家可以看看喂文档前后的答案,应对我们日常生活中的大多数问题,绰绰有余了。
至于更进阶的如何搭建自己的RAG向量数据库,怎么利用AI来快捷编写方便AI认识的的RAG 也就是JSON和XML文件来训练AI,我们下期教程再说!
OK,教程到此结束,关注AI吧网站,每天更新一点精品AI教程内容。