建个网站用多少钱百度快照如何优化
1、下载安装Ollama
前往下载页面
https://ollama.com/download
 
下载好安装包,如同安装软件一样,直接安装即可
 win中默认为C盘,如果需要修改到其他盘,查找具体教程
 运行list命令,检查是否安装成功
 
2、修改模型下载的位置
各种不同的模型往往占据空间更大,因此选择一个空间足够的位置非常有必要
 退出Ollama,打开任务管理器,清除当前Ollama程序
 
选择合适位置,创建模型存储的目标文件夹
 添加文件夹到环境变量中
 变量名固定为,文件夹根据自己情况定
OLLAMA_MODELS
 

3、拉取、运行模型命令
打开powershell运行如下命令即可
ollama run deepseek-r1:1.5b
 
在命令 ollama run deepseek-r1:1.5b 中,1.5b 的部分代表的是模型的大小,具体来说:
- “b” 是 billion(十亿)的缩写。这里的 1.5b 表示模型的参数量大约为 1.5 billion(15亿)个参数。
 - 这种命名方式通常用于区分不同大小的模型。例如,1.5b 就是一个包含 15 亿个参数的模型。
对于大规模深度学习模型来说,参数量的大小通常直接影响模型的性能和计算需求。不同大小的模型对应的 “b” 数字表示不同的参数量,这也反映出模型的容量和复杂度。 
1、模型中的参数大小b越大更耗资源,
- 1.5b:表示模型有 15 亿个参数,通常是一个较大但相对轻量级的模型。
 - 7b:表示模型有 70 亿个参数,参数越大,模型更强大、更复杂,性能更好,但计算成本和推理延迟也会增加。
 - 13b、30b 等:参数数量进一步增加,代表更大的模型,这些模型的推理和训练可能需要更强的计算能力和更长的时间,但在一些任务上可能会表现得更加精确和复杂。
 
总结:
 不同大小的 b 表示模型参数的数量,1.5b 代表 15 亿个参数的模型。参数越多,模型的计算能力通常越强,但对硬件的需求和推理速度也会有更大的影响。
2、不同大小参数需要的大致硬件配置
https://blog.csdn.net/2401_85343303/article/details/145452011
 参考这个博客
 
 这里使用最基础的1.5b来示例,也可以让更多的小伙伴体验到本地模型
3、拉取模型并运行
ollama run deepseek-r1:1.5b
 
有可能拉取服务包失败,经过检索是Ollama 的服务器故障,非常新鲜的故障
 
拉取模型清单:500 ·问题 #8873 ·OLLAMA/OLLAMA
 https://github.com/ollama/ollama/issues/8873

等待Ollama服务恢复尝试,可以轻松拉取
 也是开箱即用对,耐心等待拉取
 
等待拉取完成,即可进行对话
 
4、退出模型
ctrl+d来退出,或者使用命令 /bye
/bye
 
4、前端UI版
适合Ollama使用的前端有很多,经过筛选选择了极简的NextJS Ollama LLM UI
NextJS Ollama LLM UI 是专为 Ollama 设计的极简主义界面,适合追求简约风的小伙伴
https://github.com/jakobhoeg/nextjs-ollama-llm-ui
 
访问项目地址可以看到具体的使用步骤,也是开箱即用(需要简单的前端经验)
1、安装nvm
 2、安装 Node.js (18+)
 3、按照项目中的提示操作即可
 
这里需要注意下修改example.env to .env .这个操作要保证Ollama的默认端口没有修改
 然后就是前端固定的 install 、 run dev
 启动前端ui,即可访问
http://localhost:3000/
 
选择具体模型,然后就可以使用了

