德邦證券:DeepSeek係列模型發布推動國產算力崛起

 人参与 | 时间:2025-07-04 17:18:35

財中社2月6日電德邦證券發表通信行業研報稱,DeepSeek係列模型先後發布,性能及成本均在全球範圍內取得領先優勢。認為DeepSeek係列模型的發布極大程度上提升了現有模型效率。高端算力卡對於模型發展的重要性或將下行,國產算力卡及相關產業鏈條或迎來機會。1、根據DeepSeek技術報告,DeepSeek-V3總訓練成本僅為557萬美元(假設H800 GPU每小時租金為2美元)。而Anthropic的CEO表示:“GPT-4o這樣的模型訓練成本約為1億美元,而目前正在開發的AI大模型訓練成本可能高達10億美元。未來三年內,AI大模型的訓練成本將上升至100億美元甚至1000億美元。” 2、1月27日,DeepSeekJanus-Pro係列模型發布。其中,1B模型僅用了128顆英偉達A100訓練一周。A100是英偉達於2020年5月發布的算力卡,其FP64性能僅為9.7 TFLOPS。而英偉達最新的GB200產品FP64性能達45 TFLOPS。3、華為已經發布的910B性能基本對標英偉達A100,即將發布的910C性能上預計對標英偉達前旗艦產品下半年00。2025年2月4日,DeepSeek-R1、DeepSeek-V3、DeepSeek-V2、JanusPro正式上線昇騰社區,支持一鍵獲取DeepSeek係列模型,支持昇騰硬件平台上開箱即用,推理快速部署。部署DeepSeek-V3模型需配置4台Atlas 800IA2(8*64G)服務器資源。Atlas 800IA2推理服務器是基於華為自研鯤鵬920處理器和昇騰910 AI處理器的AI推理服務器。

DeepSeek係列模型訓練、推理成本相對較低。國內外雲廠商已經開始普及DeepSeek係列大模型的服務。認為通過增加算力密度、算力規模推動模型發展的行業“定式”或受到動搖。算力集群對密度、規模的要求放鬆,將有助於推動AIDC的建設。係列中“小模型”的發布也將帶來端側應用的機會。此外,DeepSeek係列模型均為開源模型,其技術優勢或將較快的普惠整個行業,進而推動全球算力需求的持續上行。1、2024年12月,DeepSeek-V3發布。該模型為自研MoE模型,671B參數,激活37B,在14.8T token上進行了預訓練。DeepSeek-V3多項評測成績超越了Qwen2.5-72B和Llama-3.1-405B等其他開源模型,並在性能上和世界頂尖的閉源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。API服務定價為每百萬輸入tokens 0.5元(緩存命中)/ 2元(緩存未命中),每百萬輸出tokens 8元。性能/價格比在全球範圍內處於領先地位。2、1月20日,DeepSeek-R1正式發布。其性能對標OpenAI o1正式版。DeepSeek-R1 API服務定價為每百萬輸入tokens 1元(緩存命中)/ 4元(緩存未命中),每百萬輸出tokens 16元。OpenAI o1價格分別為55、110、438元。3、雲廠商普及DeepSeek相關服務/產品。2月2日至4日,騰訊雲、百度智能雲、阿裏雲、華為雲前後接入DeepSeek相關大模型,微軟、英偉達、亞馬遜科技等海外雲廠商在一月底就已經接入。2月4日潞晨科技攜手昇騰,聯合發布基於昇騰算力的DeepSeek R1係列推理API,及雲鏡像服務。3、DeepSeek Janus-Pro係列模型包含1B、7B兩個版本。其中,Janus-Pro-7B在GenEval文本生圖指令執行能力排行榜上獲得了0.80的高分,顯著優於Janus(0.61)、DALL-E 3(0.67)和Stable Diffusion 3 Medium(0.74)的表現。且1B版本可以直接在WebGPU的瀏覽器中運行。

在大模型發展方向上,我國與美國路線並不相同。美國更多專注於通用大模型的發展,而我國更加強調AI的垂直應用。認為,我國的發展路線更具有商業價值。1、2024年11月,美國美中經濟與安全審查委員會正式向國會提出了一項AI提案。希望複製二戰期間曼哈頓計劃的成功模式,全力研發AGI係統(Artificial General Intelligence,通用人工智能)。2、2024年,我國政府工作報告中首次提到“AI+”。地方政府方麵。1月15日,廣東省十四屆人大三次會議在廣州開幕,政府工作報告提出,實施“人工智能+”行動,加快智算中心和數據基礎設施建設。1月14日,浙江省十四屆人大三次會議在杭州開幕,政府工作報告提出,布局建設未來產業,深化“人工智能+”行動,加快布局人形、量子信息、類腦智能、空天信息和低空經濟等新業態。全國至少有13個省份出台了人工智能專項政策,涉及“AI+金融”“AI+教育”“AI+醫療”等多個領域。

顶: 6142踩: 4