一.前言

AI大模型最近火出圈了,DeepSeek、Chatgpt等,面对DeepSeek经常出现“服务器繁忙”的现象,你是否想拥有属于自己的“AI助理”?本篇将使用GitHub开源项目Ollama开源的本地大语言模型运行框架)在本地部署DeepSeekR1、qwen3(通义千问)大模型,以供参考。

二.硬件要求

本篇文章硬件配置:

机型:惠普暗影精灵笔记本

CPU:第十二代intel i7-12700H

GPU:NVIDIA GeForce RTX3050 Ti laptop

RAM:16G双通道

系统:Win11 64位 家庭版

三.安装Ollama

1.访问Ollama官网

Ollama网址:https://ollama.com/或者进入GitHub搜索Ollama下载

如上图进入Ollama官网后,点击Download➡Download for Windows

2.设置安装路径并安装(默认安装在C盘系统盘)

下载成功后先不要双击OllamaSetup.exe安装

默认是安装在C盘的,所以我们需要调整他的安装路径。

首先,我们打开CMD,按下 ”Windows徽标键+S“ 快捷打开搜索栏,如下图所示,搜索CMD

接下来回到我们下载Ollama的文件夹目录,点击并选中该文件夹路径,C:\Users\HP\Desktop\AI本地部署\win\演示文件夹

然后再CMD窗口输入cd C:\Users\HP\Desktop\AI本地部署\win\演示文件夹这样就进入了该目录

然后键入下面代码(可点击右侧图标复制代码)

OllamaSetup.exe /DIR="指定的安装目录" 

将双引号内的”指定的安装目录“➡”d:\AI\Ollama“(目录随意,需要你提前创建空文件夹,注意保留引号)

接下来会弹出安装窗口,点击install即可安装,等待完成

接下来,我们按下 ”Windows徽标键+S“ 快捷打开搜索栏,如下图所示,搜索Windows PoweShell 然后输入ollama -v验证是否安装成功

ollama -v

如上所示,现在已经安装成功了,显示版本号为0.9.0

3.设置AI大模型的安装路径

Ollama的默认存储路径是C盘,例如DeepSeekR1 671B(满血版)大小402GB,虽然个人主机无法运行这样庞大的AI模型,但你也不想电脑爆炸吧?

按下 ”Windows徽标键+S“ 快捷打开搜索栏,如下图所示,搜索”编辑系统环境变量“

然后点击下方 “环境变量”

在系统变量下方,点击新建

弹出如下界面,然后按下方输入

变量名: OLLAMA_MODELS        变量名是固定的,不能动
变量值:D:\AI\models          变量值就是你要更改的AI模型文件储存位置,路径随意,但建议规范化文件储存,是一个好习惯

确定,一路点击保存,确定即可

如果你按照我的步骤来是不会出错的,但是你如果有一定技术基础,自己安装过,再来看这篇文章发现模型文件已经安装囤积在C盘了,那也有办法。

AI大模型的文件是可以迁移的,不仅存储目录可以迁移,也可以由不同系统的机器迁移到其他系统的机器上,如从Windows上下载的DeepSeekR1迁移到Linux系统上,完全可以。

AI模型文件迁移方法:

其默认安装路径为:C:\Users\用户名\.ollama\models

进入目录后将下图两个文件夹剪切并复制到你刚才在系统变量中添加的路径

如果Ollama已经开启,然后重启Ollama使更改生效。只需要关闭退出Ollama即可。

四.下载AI大模型文件并运行AI

访问Ollama官网,点击左上角的 Models

然后选择要下载的Ai大模型

这里演示为主,点击deepseek-r1:8b

复制右上角命令ollama run deepseek-r1:8b

接下来如前述步骤打开PowerShell,输入命令即可下载大模型,等待下载好会自动运行

我们发送 你好!反应速度还是很快的

输入 /bye 退出对话到此为止,你已经拥有自己的DeepseekR1:8B大模型了。

这里的8B指该版本DeepseekR1模型拥有80亿个参数(8 billion),满血版为671B,6710亿个参数,DeepSeek-R1满血版 需要64核以上的服务器集群,至少512GB以上的内存及88x A100/H100专业级工作站/AI显卡才可运行。

本篇教程测试了如下模型:

ollama run deepseek-r1:8b
ollama run deepseek-r1:7b
ollama run gemma3:4b
ollama run gemma3:12b
ollama run qwen3:8b
ollama run qwen3:14b

可以在本教程所使用的机器上运行,受限于NVIDIA RTX3050Ti GPU算力,在运行DeepseekR1:14b版本时略显吃力。内存占用如下图任务管理器所示,需要约11G内存。

五.通过可视化界面(UI)调用AI

我们刚刚成功在本地部署了DeepseekR1,但是我们发现这样使用AI有些不方便,且界面不美观。

这里我们将通过一个免费的开源产品Cherry Studio,方便快捷的调用DeepSeek。

在使用该图形界面的时候,我们依然需要开启Ollama,在Powershell界面输入如下命令开启Ollama服务。

Ollama serve

来到cherry studio官网

下载安装后,我们点击设置,找到Ollama➡管理➡添加AI模型

这里我们使用Google公司的gemma模型,还可以在添加AI后,点击右侧螺母形状的设置按钮,开启图片识别,联网搜索功能

点击左侧边栏右上角”助手“,对话框最上方点击选择模型

即可开始调用GemmaAI模型了!(注意Cherry studio只是一个图形界面,我们在使用的时候还是需要开启Ollama的)

测试一下:

对于本台测试机器来说运行Gemma 12b模型较为吃力,5分钟左右才有回复。不过回答的内容较为准确

联网检索测试。

六.其他

此外,我们可以通过部署网站来对本地的AI进行调用,可以通过Ollama的Api接口实现,访问GitHub,检索Open webUi

通过Docker部署该网站到云,并利用内网穿透连接到本地AI模型,是一个可行的方案。

七.Ollama命令

以下命令在Powershell终端中输入,Powrshell打开方式如前所述。

1.获取帮助

ollama --help

2.启动Ollama服务

ollama serve:

3.列出已安装模型

ollama list

4.列出正在运行的模型

ollama ps

5.停止某一个正在运行的模型

ollama stop 

6.运行模型

ollama run 模型名称

7.删除模型

ollama rm 模型名

8.下载模型

ollama pull 模型名