近期与DeepSeek相关的羊毛与折腾
deepseek 热爆了,任何帖子,任何文章,只要带着 deepseek 这个词儿,就能成为热文,包裹着我们的生活。
最近也做了不少这方面的探索,薅了一些蹭 ds 热点的厂商的羊毛,也做了一些折腾探索,本文做一下简单的记录与介绍。
# 羊毛薅起来
众所周知,deepseek 火起来之后,官方的对话服务经常出现服务器繁忙,开放平台的接口更是直接暂停了服务,可以理解,毕竟官方面对如此泼天的流量,优先保障 C 端也是可以理解的。
同时,因为 ds 的开源,使得一众厂商,在这个间隙,有了一些趁热度分一杯羹的时机,于是纷纷通过注册账号送 token 的方式,希望快速把用户吸引到平台,我这几天注册了不少,也体验了一圈,这里把我个人觉得还不错的做一下罗列。
- 派欧算力:点我注册 (opens new window) 注册账号填入我的邀请码即可获得 50 元代金券(约 5000 万 tokens),三个月有效期,目前体验下来效果不错,不过随着越来越多人注册,这两天卡顿情况出现越来越多了。
- 硅基流动:点我注册 (opens new window) 注册账号可得2000 万 Tokens,硅基流动最初的 ds 模型 api 也是比较优秀的,只不过这几天用的人太多了,就有点吃力了。
目前这两个是相对比较理想的,其他火山,腾讯,阿里都有注册账号赠送 token 的活动,但是都不算特别理想。这里就不再一一推荐了。
另外还有一些不错的可在线体验的,如果你不想自己折腾,也可以直接用:
- 华为小艺 (opens new window):速度快,好用
- 秘塔 AI 搜索 (opens new window)
- 腾讯元宝 (opens new window):速度快,支持联网
- 国家超算平台 (opens new window):满血,但速度略慢
- 纳米 AI 搜索 (opens new window):体验还可以
很多地方都号称自己提供的是满血版(即 671b 版本)的 deepseek,有网友试出来通过如下问题大概可验证模型是否为满血版,你也可以试试看,比如下边是通过腾讯元宝测试:
# 羊毛集中管理
当我们注册了多个厂商提供的 api 之后,一个一个配置比较麻烦,GitHub 也有不少分发 api 的开源项目,我这里采用了 one-hub (opens new window) 这个开源项目来进行集中配置管理。
我配置的渠道:
我的调用历史日志:
这个项目还是比较成熟的,部署也支持 docker 一键拉起,所以部署方面我就不多讲了,这里只介绍一下我个人使用时的一些小配置,可能你在使用的时候,也会遇到类似的问题。
注意模型别弄错:
首先明确一个事情,我们想要通过 api 调用一个模型,需要三个基本信息:
- api 地址
- api 秘钥
- 模型
每个模型的名字在不同厂商那里,可能各不相同,这个时候,你在配置的时候,需要首先在对应厂商那里找到正确的 ds 模型的名字,如果你在界面上不好直接看到,一般到开放文档里也可以找到。
这里我拿硅基流动举例子,比如在硅基流动的官方模型列表中,deepseek-r1 对应的模型名字叫 deepseek-ai/DeepSeek-R1
,如下:
那么在 one-hub 的渠道配置中,图标 1 就是要配置为 deepseek-ai/DeepSeek-R1
,并且还要注意,图标 2 处,要配置对应的模型映射规则,把 deepseek-r1
映射给 deepseek-ai/DeepSeek-R1
,这样就能确保我们统一通过 deepseek-r1
调用这个接口,能够自如分发。
特殊接口特殊处理:
通常平台都会兼容自定义的 api 接口,但是火山引擎提供的接口相对特殊,为 https://ark.cn-beijing.volces.com/api/v3/chat/completions
,这个时候在 one-hub 里配置,可能怎么配都不成功,后来发现,可以在扩展配置里,指定对话接口的后缀,就能解决这个问题。如下图:
# 优秀的客户端 Cherry Studio
我必须要单独来推荐一下优秀的桌面客户端 Cherry Studio (opens new window),这是一个开源的,免费的,支持多系统的大语言模型交互客户端。
关于它的介绍,官方的文档介绍已经很详细了,这里通过一张截图,把它的能力展示一下:
与大语言模型交互,是大部分客户端都支持的,我比较看重的,是它直接支持知识库本地化向量,然后你可以在本地进行知识库文档的体验,这里也简单对这块儿的实践,做一下介绍,关于 RAG,我之前有专门写过文章 rag-带你认识了解并劝退,感兴趣的同学可以跳转了解,这里就不过多展开,直接进入正题。
# 第一步,准备事项
配置嵌入模型,其中硅基流动以及阿里百炼都有嵌入模型,你可以根据自己的实际情况,进行配置,我这里使用的是硅基流动的 BAAI/bge-m3
模型。
# 第二步,准备知识库
Cherry Studio 这里支持目录,网址,网站,笔记四种类型,我这里拿二丫讲梵博客的站点地图来举例,如下图所示:
- 点击添加知识库
- 此处表示选择对应的嵌入模型。
- 输入对应的站点地图,当然你也可以选择其他类型。
- 看到这个表示文档向量化已经完成。
- 你可以点击搜索知识库,验证向量化的效果。
下图是搜索知识库效果:
# 第三步,玩起来
仅需如上两步简单的配置之后,接下来就可以愉快地玩耍了。
比如:
再比如:
注:我导入的向量数据是198期周刊更新之前,所以这个答案是正确的。
现在看起来,已经初步把这个流程跑通了,并且也可以进行简单的交互了,但实际还有不少的问题,比如给到的答案不够全面准确,比如如何提问才能更准确获得自己想要的答案,这都是需要更多的训练以及探索才能磨合出来的。
如果你有更好的提示词,以及更好的实践,欢迎在评论区里交流。

