2025新年第一智商税:DeepSeek本地部署!

火爆世界的DeepSeek,被某些人拿来敛财,某鱼成交火爆!

1、DeepSeek由于春节期间爆火,官网取消api充值和App响应迟钝,加上开源模型公布,有的人打起主意!

2、DeepSeek开源模型有1.5B、7B、8B、14B、32B、70B、671B,作为不了解Ai行业的人来说,认为所有模型效果都一样,但训练数据不一样,Ai智力不一样!

3、权威测试,官方App至少相当于70B以上的模型,而不同模型对应的电脑硬件要求完全不一样!

2025新年第一智商税:DeepSeek本地部署!

以下是不同模型对应的最低配置:

 DeepSeek-R1-1.5B

CPU: 最低 4 核(推荐 Intel/AMD 多核处理器)

内存: 8GB+

硬盘: 3GB+ 存储空间(模型文件约 1.5-2GB)

显卡: 非必需(纯 CPU 推理),若 GPU 加速可选 4GB+ 显存(如 GTX 1650)

场景:低资源设备部署,如树莓派、旧款笔记本、嵌入式系统或物联网设备

 DeepSeek-R1-7B

CPU: 8 核以上(推荐现代多核 CPU)内存: 16GB+

硬盘: 8GB+(模型文件约 4-5GB)

显卡: 推荐 8GB+ 显存(如 RTX 3070/4060)

场景:中小型企业本地开发测试、中等复杂度 NLP 任务,例如文本摘要、翻译、轻量级多轮对话系统

 DeepSeek-R1-8B

CPU: 8 核以上(推荐现代多核 CPU)

内存: 16GB+

硬盘: 8GB+(模型文件约 4-5GB)

显卡: 推荐 8GB+ 显存(如 RTX 3070/4060)

场景:需更高精度的轻量级任务(如代码生成、逻辑推理)

 DeepSeek-R1-14B

CPU: 12 核以上

内存: 32GB+

硬盘: 15GB+

显卡: 16GB+ 显存(如 RTX 4090 或 A5000)

场景:企业级复杂任务、长文本理解与生成

 DeepSeek-R1-32B

CPU: 16 核以上(如 AMD Ryzen 9 或 Intel i9)

内存: 64GB+

硬盘: 30GB+

显卡: 24GB+ 显存(如 A100 40GB 或双卡 RTX 3090)

场景:高精度专业领域任务、多模态任务预处理

 DeepSeek-R1-70B

CPU: 32 核以上(服务器级 CPU)

内存: 128GB+

硬盘: 70GB+

显卡: 多卡并行(如 2x A100 80GB 或 4x RTX 4090)

场景:科研机构/大型企业、高复杂度生成任务

 DeepSeek-R1-671B

CPU: 64 核以上(服务器集群)

内存: 512GB+

硬盘: 300GB+

显卡: 多节点分布式训练(如 8x A100/H100)

场景:超大规模 AI 研究、通用人工智能(AGI)探索

备注:最低配置,是每秒几个字输出还是几十个字输出看配置,并且可能部分内容因为没有学习过,无法回答,这是给大公司训练用的!不适用普通人!

4、本地部署是在可以本地电脑脱网运行的,而假如有人告诉你,需要通过某网站的Api也可以实现本地部署,就需要注意了!(Api是调用其它网站的公共接口实现和使用对方开放的功能和调用数据!)
5、目前有国内各大厂商支持DeepSeek的Api,基本原理就是它们实现了通过云服务器部署开源的模型,然后额外生成的Api-Key,可以自己去对应官网免费申请,比如百度、阿里、火山、华为等!
6、Api-Key官方宣传是有免费的赠送额度,但用完会扣费,具体以你申请的官网标准为准!DeepSeek官网给的价格是,V3从2月8日起输入2元/百万Tokens,输出8元/百万Tokens,R1输入4元/百万Tokens,输出16/百万Tokens(根据官方介绍,英文单词≈0.3Tokens,一个汉字≈0.6Tokens)
7、常用Ai的人都知道这个价格非常便宜,真正的本地部署是不扣费的,但要求电脑硬件非常高。接入Api是扣费的,不贵,但需要需要充值的!

最后,补充一点,DeepSeek实现了自然语言对话就生成内容,与ChatGpt不同需要提示词,但你需要将清楚你问题的前因后果,越详细越好,不是Ai不智能,而是你没有好好沟通。(就像亲密关系,你以为他懂你,差一句话,可能他不懂现在的你!)(何况Ai跟你是陌生人,为啥懂你?)(DeepSeek没有提示词课程,请不要被割韭菜!跟陌生人把话说清楚就行!)
括号太多,见谅!希望避坑!!

广告也精彩
 
老罗爱折腾
  • 版权声明 本文源自 明镜AI老罗爱折腾 整理 发表于 2025 年 2 月 7 日 19:37:31
  • 转载请务必保留本文链接:https://www.130510.com/753.html
    • 红中幺鸡
      红中幺鸡 1

      DeepSeek R1发布以后,许多人尝试在自家台式机上安装DeepSeek R1,一般都能运行7B版本,个别服务器可以跑通32B版本。Deepseek横空出世使得中小企业可以构建行业内部专业知识库,开发专业AI LLM应用。当本地设备能够部署Deepseek R1 70B以上版本的时候,中小企业自己构建的专业知识库就可以为行业客户提供全能的私有AI LLM服务了。目前Wintel结构的台式机、服务器并不适合AI加速计算,勉强跑起来效率不高、成本不低。CES2025上英伟达发布了一款专门高效跑AI LLM加速的小型台式机“Project DIGITS”,只有机顶盒体积大小,主芯片GB10配置128G LPDDR5X、 4T NVMe SSD据说能够提供4FB精度1PFLOPS的处理能力,能够部署200B的AI LLM,适合大多数行业的专业级应用。其中GB10是一款含有三块晶元的MCM封装芯片,一个是联发科20核Grace CPU晶元,一个是英伟达Tensor核心的Blackwell GPU晶元,一个是英伟达连接CPU、GPU、外部共享内存512GB/S高速网络的NVLink-C2C晶元,三块晶元采用多晶元封装技术封装到一个芯片内。那个Blackwell Tensor GPU不带有专门的显存,而是通过NVLink-C2C与Grace CPU共享外部的128G内存,这样GPU面积显著减小,可以集成几个Tensor核心,6个Tensor核心就可以提供4FB精度1PFLOPS的AI加速能力。有了这样的“超级AI加速台式机”运行私有Deepseek R1 200B,能够覆盖几乎所有行业的专业AI LLM,触及我们生活每一个细微的角落。英伟达的这个GB10设计理念不错,国内华为、沐曦、摩尔线程等公司应该有条件推出类似的MCM芯片,就看他们有没有气魄进入这个“个人AI超级服务器”市场了。

    匿名

    发表评论

    匿名网友
    :?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:
    确定

    拖动滑块以完成验证