不花钱实现DeepSeek R1自由,我们为你试了所有途径
声明:本文来自于微信公众号 AI新榜,作者:作者| 石濑,编辑| 张洁,授权站长之家转载发布。
DeepSeek官网最近挤出了一种春运抢票的感觉,一步一卡顿,有种自己和前沿科技之间的距离就卡在了“服务器繁忙”这5个字上。
卡到崩溃的网友和AI玩起了角色扮演(报复心很重.JPG):
比起研究怎么用好DeepSeek,眼下更现实的问题是——怎么用上DeepSeek。
毕竟,春节期间大火特火的国产大模型DeepSeek,如今不仅在全球科技圈引发热议、撼动英伟达股价,还在社交媒体上拉满国民关注度,成了今年人手必备的“整活利器”。
以抖音平台为例,据新榜旗下数据工具新抖显示,#deepseek#、#利用deepseek可以做什么#等相关话题最早从1月28日开始明显起量,如今累计播放量已超60亿。
有用它智斗催婚亲戚的;有把它当互联网最强嘴替的;一些手快的网友已经连夜上架教程收割流量,从DeepSeek账号代注册到本地部署,形成了每单可获利1元至30多元人民币不等的小生意。
更有澎湃新闻报道,在淘宝、闲鱼等平台上,不少商家打着“本地部署”的概念兜售DeepSeek接入教程,标价最高达到10万元,最低仅有0.01元。
其实国内用户想要用上DeepSeek,途经多元、实际使用安装也很简单,且大多在现阶段都支持免费体验,根本不需要花钱买账号和教程。
DeepSeek目前的使用方式主要包括网页版、App版、API接入和本地部署等。网页和App都是官方推出的,简单易用,但频繁卡顿的服务已经说明:大量涌入的用户让幻方量化(DeepSeek母公司)本不富裕的算力雪上加霜。
为了帮大家省钱
,“AI新榜”实测了以上提到的所有使用途径,并联系到了既懂内容又有技术背景的资深媒体人风端聊了聊。他的团队从2021年年初就开始使用OpenAI的API开发AI知识库方向的应用。在过去10多天里他围绕DeepSeek R1本地部署测试,整理出了不同模型参数对应的硬件配置、使用心得与感受。可以说,看完立省“一个亿”。
当然,更让我们好奇的是,拥有文理跨界背景的风端如何看待这波DeepSeek对内容行业的冲击?
实测DeepSeek的四种使用途径
目前各种途径里能用到的DeepSeek模型包括:基础模型DeepSeek V3、深度推理模型R1、以及基于R1的一系列蒸馏小模型,模型大小从1.5B到70B不等。
国产大模型DeepSeek火了,更具体说是DeepSeek开源发布的深度推理模型R1火了。相比前一代同样引起过AI学习热的ChatGPT-3.5、ChatGPT-4等模型,DeepSeek R1这代强逻辑推理的模型,已经不再需要用户学习复杂的提示词技巧就能“听得懂人话”。
与此同时,DeepSeek R1是国内大模型公司推出的,所以在官方注册和使用上也更简单。
途径一:DeepSeek官方
直接进入DeepSeek官方网站或下载App进行使用,对大多数人来说是最不折腾的、免费用上满血版R1(参数大小为671B)的最佳途径。
https://www.deepseek.com/
很多网上流传的DeepSeek辛辣锐评,只需在使用的同时勾选对话框下方的深度思考(R1)和联网搜索,即可复现。在这种模式下,AI输出的文字逻辑强、有“人味”,是因为最终输出的推理结果是底层模型+互联网实时信息的结合。
无论是DeepSeek网页还是App,进入后用国内手机号注册登录就可以使用了。当然,也因为操作起来很简单,官方最近一直很卡,白天高峰时段基本上只能进行一轮对话就显示“服务器繁忙”了。实测下来,北京时间夜间11点之后使用满血版R1,每轮对话服务繁忙时间不超过20分钟,相比白天大大缩短,夜猫子优选。
途径二:第三方产品
秘塔AI搜索、纳米AI搜索等第三方产品最近也接入了DeepSeek R1模型。
以秘塔AI搜索为例,进入后打开“长思考-R1” 功能,即可免费使用满血版R1。秘塔在AI搜索产品能力上的打磨,配合DeepSeek R1模型,非常适合有生产力需求又想省事的玩家。
https://metaso.cn/
途径三:通过云平台接入
国内多家云服务提供商如百度智能云、阿里云、华为云、腾讯云、火山引擎也陆续宣布上线DeepSeek大模型。
通过云平台接入大模型的操作大同小异,一般是先从云平台的官网上拿到对应大模型的API密钥,将其复制粘贴到Chatbox(https://chatboxai.app)、Anything LLM(https://anythingllm.com)等支持模型部署的应用中,即可丝滑使用。
Chatbox部署界面
其中百度智能云千帆大模型平台已经打出“DeepSeek R1/V3调用限时免费”的口号了。不过,需要先完成个人实名或企业实名认证才能用。
https://cloud.baidu.com/product-s/qianfan_home
硅基流动和华为云合作推出的DeepSeek R1/V3推理服务,用手机号注册登录就送2000万Tokens(14元API调用费),对个人用户来说体验尝鲜是够的。
https://cloud.siliconflow.cn/models
我们实测用的就是硅基流动的API。
缺点很明显:不能联网。
优点也很明显:对话起来比较流畅,不会出现DeepSeek官方应用的频繁卡顿现象。
途径四:本地部署
除了以上3种途径外,还可以把DeepSeek R1部署到本地个人电脑上,实现独家专享。基于不同的架构(Qwen和Llama)和参数规模,DeepSeek R1有多个蒸馏模型版本,这些版本适用于从低到高不同硬件配置的设备。
参数规模最小的1.5B模型,适合大部分能够流畅处理文档、轻度剪辑的笔记本电脑。随着参数规模越大需要的硬件配置就越高。
具体部署方法也很简单,首先下载并安装开源框架Ollama到本地。
https://ollama.com/
接着在Ollama官网找到对应模型、选择参数规模合适的模型、复制右侧对应的命令行指令(如下图中所示的ollama run deepseek-r1:1.5b)。
最后打开本地终端,同时保持Ollama程序是运行的状态(划重点),将命令行指令复制进去就会自动下载模型。
Mac本地终端下载模型界面
本地部署好了之后,你可以直接在终端里和模型聊天,也可以导入到Chatbox等应用里使用。
以上我们整理的DeepSeek使用途径和具体部署方法,都无需复杂操作,方便新手初次尝试。
当然,每种途径都有它的利弊。例如,官方渠道最好用,但也是最卡的;第三方产品基于不同的产品能力,用户使用体验会有所差异,并且一些产品已经开始通过消耗点数的方式向用户收费;通过云服务接入API和本地部署,虽然可以在使用上“一劳永逸”,但大多需要自己再额外安装软件或配置以实现联网、上传文件给AI分析等功能,并且个人消费级电脑很难在本地跑得动671B参数的满血版R1。
从用户需求上看,本地部署大模型的好处在于可以更好地保护数据隐私,避免将个人敏感数据传输到云端。同时,它还能减少对第三方服务的依赖,方便构建本地专属知识库。
除此之外,无论是官方、第三方产品还是通过云端部署使用,都无法避免在高峰期出现使用卡顿的情况,而本地部署的速度全看硬件(尤其是显存)能不能打。
DeepSeek爆火后,
未来中文内容创作会越来越卷
资深媒体人风端在DeepSeek R1发布后不久,就开始着手在本地部署32B版本的蒸馏小模型。在他看来,本地部署或通过API自搭模型虽然没有官网直接使用那么便捷,但自动动手的过程,是深入了解AI的有效方式。就像传统媒介时代,自己创作能在严肃媒体上发表的内容,是养成“媒介素养”的高效方式,那么在AI所代表的新媒介时代,自己动手让AI生成符合自己要求的内容,也能快速养成“AI素养”。
尤其在DeepSeek R1发布之后,其展现出的中文写作能力相当惊艳,这也引发了内容行业的普遍焦虑。“风端”将DeepSeek R1的出现形容为“中国人迟到了两年的GPT时刻”。对于以中文思考、写作和产出内容的从业者来说,理解和使用AI技术的能力变得越来越重要。
风端在微信群里结合好友们的电脑配置而整理的R1各模型本地部署硬件要求
“DeepSeek中文写作能力的跃升其实是对内容行业影响最大的一个因素,而这样的中文能力其实建立在高质量的中文训练语料上。我最初接触到DeepSeek这个品牌,还不是他们在2023年底发布的第一个版本,而是他们在论文中提到的为清洗语料而自研的cc_cleaner工具。
当时我印象最深的就是这个团队对训练语料制作工作的认真态度,这事极费力还不容易在以做数学题为主的爬榜上看到效果,绝大多数大模型团队做得非常敷衍。所以这次R1能生成如此高质量的中文内容,我完全不感到奇怪。”风端进一步解释道。
Midjourney创始人发文评价称
“DeepSeek在古代中国哲学和文学方面完胜西方模型”
早前以ChatGPT为标杆带领的大模型风潮中,高质量的中文语料相对稀缺。例如,此前有报道ChatGPT的训练数据中,中文语料的比重不足千分之一,而英文语料占比超过92.6%。
ChatGPT火爆以来的这两年多时间里,呆板的“首先、其次、再次,综上所述”逐浙成为大家辨认A文风的标志,风端认为,DeepSeek这次表现出的“连接逻辑和历史,打通科学和诗歌”的中文能力为国产大模型打了样,可以预见接下来各个厂商发布的中文大模型会向DeepSeek看齐,从而推动大模型中文能力整体水平的提升。
而对内容行业以及内容从业者来说,也将迎来一个越来越卷的内容生产时代。
-
上一篇
海口府城元宵换花艺术周启幕 走,赴一场花之约 -
下一篇
儋州故城武定门焕新迎客