Administrator
发布于 2024-01-30 / 142 阅读 / 0 评论 / 0 点赞

ChatGLM3测试CPU部署

简介

ChatGLM3介绍可自行查看(项目概览 - ChatGLM3 - GitCode),主要有如下这么一段,GPU贵,但是CPU便宜啊,这次就使用阿里云选一台按量付费的测试一下部署chatglm3-6b。

准备机器

选择ecs.g8i.2xlarge类型的机器,华东华北机房都行,注意有一些机房区域是没有的。

选用Ubuntu22.04系统,python和git都安装好了

存储给100G,下载的模型文件较大

给分配公网IP,固定带宽5M

最后自定义root密码,用于远程连接访问

最后看一下,很便宜,一个小时两块多,记得测试完及时删掉

环境配置

下载ChatGLM3,可以通过国内gitcode下载,速度要快一点:

git clone https://gitcode.com/THUDM/ChatGLM3

使用豆瓣源安装依赖包(速度有点慢,耐心等待)

cd ChatGLM3

pip install -r requirements.txt -i http://pypi.douban.com/simple --trusted-host=pypi.douban.com

模型下载

模型文件较大,需要安装git-lfs

git-lfs安装检查:

git lfs install

Ubuntu下安装git-lfs

apt-get install git-lfs

通过国内魔搭社区下载模型文件(速度快一些)

git clone https://www.modelscope.cn/ZhipuAI/chatglm3-6b.git

pwd 记录chatglm3-6b下载路径:/root/chatglm3-6b

注:执行下载后,要等待很长时间,文件较大:

最后总大小47GB。

运行试用

ChatGLM3提供了网页运行的demo,需要修改一些配置

cd ChatGLM3/basic_demo

配置基于 Gradio 的网页版 demo

vim web_demo_gradio.py填写本地模型文件的路径、修改运行使用CPU运行:

还有server_name改成0.0.0.0,这样才能被访问到

命令启动基于 Gradio 的网页版 demo:python3 web_demo_gradio.py

页面测试

但是报错了,以后有空再搞,测试下一个demo

配置基于 Streamlit 的网页版 demo

vim web_demo_streamlit.py,填写本地模型文件的路径、修改运行使用CPU运行:

命令启动基于 Streamlit 的网页版 demo:streamlit run web_demo_streamlit.py

使用过程中,内存占用75%以上,CPU50%:

网页测试

ChatGLM3测试1.gif


评论