随着meta、google相继开源自己的大模型,越来越多的厂商加入到这场开源行动中。本文介绍如何用ollama开源项目在本地搭建自己的大模型,适合新手尝鲜。
安装包下载地址
macOS
https://ollama.com/download/Ollama-darwin.zip
Windows
https://ollama.com/download/OllamaSetup.exe
Linux
curl -fsSL https://ollama.com/install.sh | sh
大家根据自己的需要下载即可,国内也可访问
运行
安装完成后,执行以下命令即可在本地启动一个大模型
ollama run llama2
支持的模型有很多,大家可以在这个网站(https://ollama.com/library)所有支持的大模型
注意:至少需要8GB内存来运行70亿参数的模型,16GB运行130亿参数的模型,32GB运行330亿参数的模型
测试
运行llama2模型测试
用中文测试
可以看出来,llama2对中文支持不是很友好,回答错误,而且回答中既有中文也有英文。
换成阿里的通义千问试试,运行以下命令
可以看出不同参数的大模型回答也不相同,参数越多的越准确
常用命令总结
# 拉取一个大模型
ollama pull llama2
# 删除一个大模型
ollama rm llama2
# 复制一个大模型
ollama cp llama2 my-llama2
最后说一下下载的大模型文件存放在哪里,大家可以提前规划硬盘,防止模型下载多了撑爆硬盘
macOS: ~/.ollama/models
Linux: /usr/share/ollama/.ollama/models
Windows: C:\Users\<username>\.ollama\models
本文暂时没有评论,来添加一个吧(●'◡'●)