我们之前在Windows系统中测试了部署DeepSeek-R1(哪怕用笔记本的4070显卡运行DeepSeek,都要比128核的CPU快得多!),也在Linux系统中做了测试(用Anything LLM来一场关于SD-WAN的开卷考试,DeepSeek-R1和QwQ谁更胜一筹?),并对DeepSeek-R1不同规模参数的模型做了横向比较(目前来看,ollama量化过的DeepSeek模型应该就是最具性价比的选择)。
平心而论,DeepSeek的实力确实堪称业界翘楚,到目前也基本处于领先水平。对Windows和Linux用户而言,准备环境犹如八仙过海,各显神通,需要安装GPU驱动、CUDA和cuDNN环境等等,DeepSeek正火的时候到处不少人都还是付费安装的呢。
换到macOS平台,顿时有了柳暗花明又一村的感觉,尤其得益于统一内存架构,无需准备GPU相关的驱动环境,即可直接运行。今天,就让我们来简单体验一下。
首先,我们还是到ollama官网下载安装包。
https://ollama.com/download
下载之后,我们会获取到一个ollama.dmg的安装文件。
像安装其他Mac应用一样,我们双击打开它,然后将Ollama的图标拖拽到Applications文件夹中,就完成了ollama的安装。
安装完成后,我们打开终端,输入ollama命令来检查是否安装成功。
有回显,安装成功。接下来,我们还是在ollama官网查看DeepSeek-R1模型信息,发现使用ollama run deepseek-r1命令拉取模型时,默认使用的模型是INT4量化后的8B参数模型,而之前我记得是INT4量化后的7B参数模型,不知道是我记错了还是确实变化了?
然后,我们先运行命令ollama pull deepseek-r1拉取模型文件,确认一下模型信息。
模型文件大小为5.2 GB,还真是8B参数的模型,不过相比于之前的4.58 GB大了13.5%,应该准确度更高了吧。
模型加载也很快,我也特别留意了资源占用情况,发现模型加载之后,ollama进程占用了5.48 GB内存。(PS:这里的WindowsServer是个什么鬼?)
之前我没有注意,现在的ollama也提供了一个可以对话的用户界面,再也不用在命令行进行测试了。而且,整体回答速度还是比较快的,大概每秒10-20个输出吧。
观察内存利用率,我们发现,设备的已使用内存始终处于比较高的水平,在提问思考过程中大概占用了300 MB的运行内存;不过,在回答结束之后,图形化展示的内存压力有一个很明显的下降,
总而言之,在macOS上部署DeepSeek-R1可谓是大道至简,一共只需要两步:
1、下载并安装ollama软件;
2、拉取并运行DeepSeek-R1模型。
然后就可以对话了。得益于Mac mini的独特设计,在深度思考时,也不会像NVIDIA GPU一样,风扇呜呜直转,怪不得不少工作室都用Mac来进行AI训练呢。而且,512 GB运行内存的Mac Studio也只要10万块,如果是NVIDIA的GPU,差不多要四五十万了,相比之下,Mac的性价比简直是四两拨千斤。
声明:来自铁军哥,仅代表创作者观点。链接:https://eyangzhen.com/3710.html