二丫讲梵 二丫讲梵
首页
  • 最佳实践
  • 迎刃而解
  • Nginx
  • Php
  • Zabbix
  • AWS
  • Prometheus
  • Grafana
  • CentOS
  • Systemd
  • Docker
  • Rancher
  • Ansible
  • Ldap
  • Gitlab
  • GitHub
  • Etcd
  • Consul
  • RabbitMQ
  • Kafka
  • MySql
  • MongoDB
  • OpenVPN
  • KVM
  • VMware
  • Other
  • ELK
  • K8S
  • LLM
  • Nexus
  • Jenkins
  • 随写编年
  • 家人物语
  • 追忆青春
  • 父亲的朋友圈
  • 电影音乐
  • 效率工具
  • 博客相关
  • Shell
  • 前端实践
  • Vue学习笔记
  • Golang学习笔记
  • Golang编程技巧
  • 学习周刊
  • Obsidian插件周刊
关于
友链
  • 本站索引

    • 分类
    • 标签
    • 归档
  • 本站页面

    • 导航
    • 打赏
  • 我的工具

    • 备忘录清单 (opens new window)
    • json2go (opens new window)
    • gopher (opens new window)
    • 微信MD编辑 (opens new window)
    • 国内镜像 (opens new window)
    • 出口IP查询 (opens new window)
    • 代码高亮工具 (opens new window)
  • 外站页面

    • 开往 (opens new window)
    • ldapdoc (opens new window)
    • HowToStartOpenSource (opens new window)
    • vdoing-template (opens new window)
GitHub (opens new window)

二丫讲梵

行者常至,为者常成
首页
  • 最佳实践
  • 迎刃而解
  • Nginx
  • Php
  • Zabbix
  • AWS
  • Prometheus
  • Grafana
  • CentOS
  • Systemd
  • Docker
  • Rancher
  • Ansible
  • Ldap
  • Gitlab
  • GitHub
  • Etcd
  • Consul
  • RabbitMQ
  • Kafka
  • MySql
  • MongoDB
  • OpenVPN
  • KVM
  • VMware
  • Other
  • ELK
  • K8S
  • LLM
  • Nexus
  • Jenkins
  • 随写编年
  • 家人物语
  • 追忆青春
  • 父亲的朋友圈
  • 电影音乐
  • 效率工具
  • 博客相关
  • Shell
  • 前端实践
  • Vue学习笔记
  • Golang学习笔记
  • Golang编程技巧
  • 学习周刊
  • Obsidian插件周刊
关于
友链
  • 本站索引

    • 分类
    • 标签
    • 归档
  • 本站页面

    • 导航
    • 打赏
  • 我的工具

    • 备忘录清单 (opens new window)
    • json2go (opens new window)
    • gopher (opens new window)
    • 微信MD编辑 (opens new window)
    • 国内镜像 (opens new window)
    • 出口IP查询 (opens new window)
    • 代码高亮工具 (opens new window)
  • 外站页面

    • 开往 (opens new window)
    • ldapdoc (opens new window)
    • HowToStartOpenSource (opens new window)
    • vdoing-template (opens new window)
GitHub (opens new window)
  • Nexus系列文章

  • Jenkins系列文章

  • ELK笔记

  • Kubernetes笔记

  • LLM专题

    • 带你认识本地大语言模型框架Ollama(可直接上手)
    • rag-带你认识了解并劝退
    • 基于langchaingo实现知识库对接本地模型ollama的分步探索
    • 302,在你需要的时候带你中转到AI
    • 302AI,包揽你的AI需求
    • 近期与DeepSeek相关的羊毛与折腾
      • 羊毛薅起来
      • 羊毛集中管理
      • 优秀的客户端 Cherry Studio
        • 第一步,准备事项
        • 第二步,准备知识库
        • 第三步,玩起来
  • 系列专题
  • LLM专题
二丫讲梵
2025-02-16
目录

近期与DeepSeek相关的羊毛与折腾

文章发布较早,内容可能过时,阅读注意甄别。

deepseek 热爆了,任何帖子,任何文章,只要带着 deepseek 这个词儿,就能成为热文,包裹着我们的生活。

最近也做了不少这方面的探索,薅了一些蹭 ds 热点的厂商的羊毛,也做了一些折腾探索,本文做一下简单的记录与介绍。

# 羊毛薅起来

众所周知,deepseek 火起来之后,官方的对话服务经常出现服务器繁忙,开放平台的接口更是直接暂停了服务,可以理解,毕竟官方面对如此泼天的流量,优先保障 C 端也是可以理解的。

同时,因为 ds 的开源,使得一众厂商,在这个间隙,有了一些趁热度分一杯羹的时机,于是纷纷通过注册账号送 token 的方式,希望快速把用户吸引到平台,我这几天注册了不少,也体验了一圈,这里把我个人觉得还不错的做一下罗列。

  • 硅基流动:点我注册 (opens new window) 注册账号可得2000 万 Tokens,硅基流动最初的 ds 模型 api 也是比较优秀的,并且赠送的额度没有时间限制,非常良心。
  • 派欧算力:点我注册 (opens new window) 注册账号填入我的邀请码即可获得 50 元代金券(约 5000 万 tokens),三个月有效期,目前体验下来效果不错,不过随着越来越多人注册,这两天卡顿情况出现越来越多了。

目前这两个是相对比较理想的,其他火山,腾讯,阿里都有注册账号赠送 token 的活动,但是都不算特别理想。这里就不再一一推荐了。

另外还有一些不错的可在线体验的,如果你不想自己折腾,也可以直接用:

  • 华为小艺 (opens new window):速度快,好用
  • 秘塔 AI 搜索 (opens new window)
  • 腾讯元宝 (opens new window):速度快,支持联网
  • 国家超算平台 (opens new window):满血,但速度略慢
  • 纳米 AI 搜索 (opens new window):体验还可以

很多地方都号称自己提供的是满血版(即 671b 版本)的 deepseek,有网友试出来通过如下问题大概可验证模型是否为满血版,你也可以试试看,比如下边是通过腾讯元宝测试:

# 羊毛集中管理

当我们注册了多个厂商提供的 api 之后,一个一个配置比较麻烦,GitHub 也有不少分发 api 的开源项目,我这里采用了 one-hub (opens new window) 这个开源项目来进行集中配置管理。

我配置的渠道:

我的调用历史日志:

这个项目还是比较成熟的,部署也支持 docker 一键拉起,所以部署方面我就不多讲了,这里只介绍一下我个人使用时的一些小配置,可能你在使用的时候,也会遇到类似的问题。

注意模型别弄错:

首先明确一个事情,我们想要通过 api 调用一个模型,需要三个基本信息:

  • api 地址
  • api 秘钥
  • 模型

每个模型的名字在不同厂商那里,可能各不相同,这个时候,你在配置的时候,需要首先在对应厂商那里找到正确的 ds 模型的名字,如果你在界面上不好直接看到,一般到开放文档里也可以找到。

这里我拿硅基流动举例子,比如在硅基流动的官方模型列表中,deepseek-r1 对应的模型名字叫 deepseek-ai/DeepSeek-R1,如下:

那么在 one-hub 的渠道配置中,图标 1 就是要配置为 deepseek-ai/DeepSeek-R1,并且还要注意,图标 2 处,要配置对应的模型映射规则,把 deepseek-r1 映射给 deepseek-ai/DeepSeek-R1,这样就能确保我们统一通过 deepseek-r1 调用这个接口,能够自如分发。

特殊接口特殊处理:

通常平台都会兼容自定义的 api 接口,但是火山引擎提供的接口相对特殊,为 https://ark.cn-beijing.volces.com/api/v3/chat/completions,这个时候在 one-hub 里配置,可能怎么配都不成功,后来发现,可以在扩展配置里,指定对话接口的后缀,就能解决这个问题。如下图:

# 优秀的客户端 Cherry Studio

我必须要单独来推荐一下优秀的桌面客户端 Cherry Studio (opens new window),这是一个开源的,免费的,支持多系统的大语言模型交互客户端。

关于它的介绍,官方的文档介绍已经很详细了,这里通过一张截图,把它的能力展示一下:

与大语言模型交互,是大部分客户端都支持的,我比较看重的,是它直接支持知识库本地化向量,然后你可以在本地进行知识库文档的体验,这里也简单对这块儿的实践,做一下介绍,关于 RAG,我之前有专门写过文章 rag-带你认识了解并劝退,感兴趣的同学可以跳转了解,这里就不过多展开,直接进入正题。

# 第一步,准备事项

配置嵌入模型,其中硅基流动以及阿里百炼都有嵌入模型,你可以根据自己的实际情况,进行配置,我这里使用的是硅基流动的 BAAI/bge-m3 模型。

# 第二步,准备知识库

Cherry Studio 这里支持目录,网址,网站,笔记四种类型,我这里拿二丫讲梵博客的站点地图来举例,如下图所示:

  1. 点击添加知识库
  2. 此处表示选择对应的嵌入模型。
  3. 输入对应的站点地图,当然你也可以选择其他类型。
  4. 看到这个表示文档向量化已经完成。
  5. 你可以点击搜索知识库,验证向量化的效果。

下图是搜索知识库效果:

# 第三步,玩起来

仅需如上两步简单的配置之后,接下来就可以愉快地玩耍了。

比如:

再比如:

注:我导入的向量数据是198期周刊更新之前,所以这个答案是正确的。

现在看起来,已经初步把这个流程跑通了,并且也可以进行简单的交互了,但实际还有不少的问题,比如给到的答案不够全面准确,比如如何提问才能更准确获得自己想要的答案,这都是需要更多的训练以及探索才能磨合出来的。

如果你有更好的提示词,以及更好的实践,欢迎在评论区里交流。

微信 支付宝
上次更新: 2025/03/09, 16:36:28
302AI,包揽你的AI需求

← 302AI,包揽你的AI需求

最近更新
01
记录二五年五一之短暂回归家庭
05-09
02
学习周刊-总第210期-2025年第19周
05-09
03
学习周刊-总第209期-2025年第18周
05-03
更多文章>
Theme by Vdoing | Copyright © 2017-2025 | 点击查看十年之约 | 浙ICP备18057030号
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式