突破模擬計算世紀難題
高精度可擴展模擬矩陣計算芯片問世


點擊播報本文,約
在數字計算主導計算機領域半個多世紀后,我國科學家在新型計算架構上取得重大突破——北京大學人工智能研究院孫仲團隊主導,並聯合集成電路學院研究團隊,成功研制出基於阻變存儲器的高精度、可擴展模擬矩陣計算芯片,首次將模擬計算的精度提升至24位定點精度。相關性能評估表明,該芯片在求解大規模MIMO信號檢測等關鍵科學問題時,計算吞吐量與能效較當前頂級數字處理器(如圖形處理器GPU)提升百倍至千倍。這一成果標志著我國突破模擬計算世紀難題,在后摩爾時代計算范式變革中取得重大突破,為應對人工智能與6G通信等領域的算力挑戰開辟了全新路徑,相關成果13日發表於國際學術期刊《自然·電子學》。
論文通訊作者孫仲告訴記者,模擬計算是早期計算機的核心技術,通過物理定律直接運算,具有高並行、低延時、低功耗的先天優勢。然而,由於傳統模擬計算精度低、難擴展,逐漸被高精度、可編程的數字計算取代,成為存於教科書中的“老舊技術”。“如何讓模擬計算兼具高精度與可擴展性,從而在現代計算任務中發揮其先天優勢,一直是困擾全球科學界的‘世紀難題’。數字計算雖精度高,但計算速度慢,同時存在馮·諾依曼架構的‘內存牆’問題,已成為人工智能、科學計算和6G通信發展的瓶頸。”
面對這一挑戰,研究團隊選擇了一條融合創新的道路,他們通過新型信息器件、原創電路和經典算法的協同設計,首次實現了在精度上可與數字計算媲美的模擬計算系統,將傳統模擬計算的精度提升了五個數量級。“我們研發的新方案在保持模擬計算低復雜度優勢的同時,實現了與數字FP32處理器相媲美的計算精度。團隊還提出了塊矩陣模擬計算方法,像拼圖一樣將大問題分解到多個芯片上協同解決,成功突破了模擬計算的規模限制,實驗實現了16×16矩陣方程的求解。”
孫仲透露,通過嚴格的實驗測試和基准對比,該技術展現出卓越性能。在算力方面,當求解32×32矩陣求逆問題時,該方案算力已超越高端GPU的單核。當問題規模擴大至128×128時,計算吞吐量可達頂級數字處理器的1000倍以上。“這項技術還展現了極致的能效比。在相同精度下,該技術的能效比高出傳統數字處理器100倍以上,為算力中心能耗問題提供關鍵技術支撐。”
“這項突破的意義遠不止於一篇頂刊論文,它的應用前景廣闊,可賦能多元計算場景,有望重塑算力格局。”孫仲表示,在未來的6G通信領域,它能讓基站以實時且低能耗方式處理海量天線信號,提升網絡容量和能效。對於正在高速發展中的人工智能技術,這項研究有望加速大模型訓練中計算密集的二階優化算法,從而顯著提升訓練效率。“更重要的是,低功耗特性也將強力支持復雜信號處理和AI訓推一體在終端設備上的直接運行,大大降低對雲端的依賴,進而推動邊緣計算邁向新階段。”
“這項工作的最大價值在於,它用事實証明,模擬計算能以極高效率和精度解決現代科學和工程中的核心計算問題。可以說,我們為算力提升探索出一條極具潛力的路徑,有望打破數字計算的長期壟斷,開啟一個算力無處不在且綠色高效的新時代。”孫仲透露,目前,團隊正積極推進該技術的產業化進程,盡快將實驗室成果推向市場。(記者晉浩天)
分享讓更多人看到
- 評論
- 關注