DeepSeek發布新論文 同時開源相關記憶模塊Engram

观点网

2026-01-13 09:08

  • 該論文為北京大學與DeepSeek共同完成,論文提出條件記憶(conditional memory),通過引入可擴展的查找記憶結構,在等參數、等算力條件下顯著提升模型在知識調用、推理、代碼、數學等任務上的表現。

    觀點網訊:1月12日晚間,DeepSeek發布新論文《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》(基于可擴展查找的條件記憶:大型語言模型稀疏性的新維度)。

    據介紹,該論文為北京大學與DeepSeek共同完成,合著作者署名中出現梁文鋒。論文提出條件記憶(conditional memory),通過引入可擴展的查找記憶結構,在等參數、等算力條件下顯著提升模型在知識調用、推理、代碼、數學等任務上的表現。

    同時,DeepSeek開源相關記憶模塊Engram。

    免責聲明:本文内容與數據由觀點根據公開信息整理,不構成投資建議,使用前請核實。

    審校:



    相關話題讨論



    你可能感興趣的話題

    科技

    大模型