视频教程

哔哩哔哩:https://www.bilibili.com/video/BV14aNReMEpE/

今日头条:https://www.toutiao.com/video/7469699907520348682/

抖音:https://v.douyin.com/iPhWb8Hx/ 

youtube:https://youtu.be/bfwSh5eJqdc


对于我们普通人来说,deepseek的本地部署,市场上用的最多的有两个软件,分别是Lm studio和ollama,本次教程我们使用ollama,ollama的问答是在命令框里,交互不方便,所以我们还要搭配可视化的界面来使用,本教程我们使用的是chatbox。

1、安装ollama

访问ollama的官网:https://ollama.com/

下载对应的版本,提供MacOS,linux和windows的版本,windows要求在win10以上,下载好后安装,基本没啥复杂的步骤,下一步下一步即可。

2、运行ollama

先看下自己的状态栏里ollama是否运行,右键这个图标选择quit  ollama可以在后台退出ollama,减少占用

浏览器访问http://127.0.0.1:11434/也可以验证ollama是否在运行

假如没有的话,去ollama的安装文件夹双击ollama app.exe即可启动

3、关闭开机自启(可选)

ollama默认是随系统启动的,为了减少占用可以关闭自启,需要用的时候手动开,文件夹地址栏访问下面的地址

%APPDATA%\Microsoft\Windows\Start Menu\Programs\Startup

删除ollama启动快捷方式即可

4、拉取deepseek模型

国内的模型网站有很多,可以选择ollama官方的模型库,点击顶部菜单的Models即可看到,目前热度排名第一的就是deepseek

点击进入后可以看到不同参数量的模型,其中官方用了671b的参数量,这是我们个人电脑所不能企及的,建议量力选择,1.5b不需要调用独显,可以说大部分设备,甚至手机也可以完成,但效果也是最差的,网友的话就是人工智障,拥有独立显卡的都可以尝试7b或者8b,效果日常对话没啥问题,只能说差强人意。假如独显较好,拥有8g显存,那可以尝试14b,假如是顶级消费显卡,那可以尝试32b,70b土豪可以尝试。

确认运行ollama后,右键开始菜单,打开终端,或者win+r键输入cmd打开,都可以打开cmd命令行工具。

输入下面的命令

ollama run deepseek-r1:1.5b

其中1.5b可以改为你要的参数量,比如8b

ollama run deepseek-r1:8b

然后回车,ollama就会开始拉取模型

模型拉取完后,就可以直接进行对话

根据信息回复的时间间隔,我们可以大致判断你的硬件配置是否能带的动模型

顺便列几个常用的ollama命令:

运行模型:ollama run 模型名

查看本地所有模型:ollama list

删除指定模型:ollama rm 模型名

5、安装可视化界面chatbox

访问chatbox官网:https://chatboxai.app/zh下载软件并安装

安装方式基本也是一直下一步

安装好后点击设置,选择ollama,选择自己安装并且正在运行的模型,保存

点击新对话,就可以开始愉快的聊天了

本文来自于大海资源网(dhzyw.com)原创,欢迎转载,当然要是能加个来源就更加感激不尽了!!!

 

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。