当前位置: 主页 > AI教程 >

AI教程

本地部署AI必看教程:(二)本地AI大语言模型部署+数据库

2024-09-24
Arjun
本站原创

本文导航:

本地部署AI必看教程:(一)拯救C盘计划

本地部署AI必看教程:(二)拯救C盘计划

 

第二部分、打造支持本地 RAG 的 AI 大语言模型

这次,我们以新出的Llama 3.1 8b举例,首先,本地跑llama3.18b,你的机器至少需要10G以上的显存。

ollama模型下载目录的更改、以及前置的步骤,大家还是看我写的这期教程:https://www.ai8.net/tutorial/2024/0716/536.html,我在此就不多做赘述了。

我们在装好ollama后,打命令行窗口,使用下面命令下载Llama 3.1 8b:

ollama run llama3.1:8b

下载完成后,使用下面的代码来安装 Open WebUI,根据你的情况选择 GPU/CPU/服务器的版本。

1、安装支持 NVIDIA GPU 的 Open WebUI(推荐):

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

2、仅CPU:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

3、如果Ollama在服务器上:

#将代码中的 [OLLAMA_BASE_URL] 更改为你服务器的URL

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

4、仅用于 OpenAI API 的 Open WebUI:

#将代码中的 [your_secret_key] 换成你的Key

docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

5、Ollama捆绑+GPU 的 Open WebUI:

docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

6、Ollama捆绑+仅CPU 的 Open WebUI:

docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

安装搞定后,在docker界面点击3000端口,即可打开Open WebUI

选择工作空间→选择文档tab,+号上传你的文档,别忘了给你的文档命名和打上标签。

接着,我们回到对话界面,用#号选择所有文档,大家可以看看喂文档前后的答案,应对我们日常生活中的大多数问题,绰绰有余了。

至于更进阶的如何搭建自己的RAG向量数据库,怎么利用AI来快捷编写方便AI认识的的RAG 也就是JSON和XML文件来训练AI,我们下期教程再说!

OK,教程到此结束,关注AI吧网站,每天更新一点精品AI教程内容。