近日,北京大學(xué)人工智能研究院孫仲研究員團(tuán)隊(duì)與集成電路學(xué)院研究團(tuán)隊(duì)合作,成功開發(fā)出一種基于阻變存儲器的高精度、可擴(kuò)展模擬矩陣計(jì)算芯片。這一成果首次實(shí)現(xiàn)了在精度上能夠與數(shù)字計(jì)算相媲美的模擬計(jì)算系統(tǒng)。該芯片在處理大規(guī)模MIMO信號檢測等關(guān)鍵科學(xué)問題時(shí),其計(jì)算吞吐量和能效比當(dāng)前頂級數(shù)字處理器(如GPU)提升了百倍至千倍。相關(guān)研究成果于10月13日發(fā)表在《自然·電子學(xué)》期刊上。
對于習(xí)慣了數(shù)字計(jì)算機(jī)(即二進(jìn)制0和1)的公眾來說,“模擬計(jì)算”可能是一個(gè)既古老又新奇的概念。孫仲用生動的比喻解釋了這一點(diǎn):現(xiàn)代所有芯片都是基于數(shù)字計(jì)算,數(shù)據(jù)需要先轉(zhuǎn)換成0和1的符號串。例如,數(shù)字“十”在二進(jìn)制中表示為“1010”。而模擬計(jì)算則不需要這層轉(zhuǎn)譯,它可以直接使用連續(xù)的物理量(如電壓、電流)來類比數(shù)學(xué)上的數(shù)字。比如,數(shù)學(xué)上的“十”可以直接用十伏或十毫伏的電壓來表示。
模擬計(jì)算機(jī)曾在上世紀(jì)30到60年代被廣泛應(yīng)用,但隨著計(jì)算任務(wù)日益復(fù)雜,其精度瓶頸逐漸顯現(xiàn),最終被數(shù)字計(jì)算取代。此次研究的核心正是要解決模擬計(jì)算“算不準(zhǔn)”的問題。目前市面上主流的CPU和GPU都是數(shù)字芯片,并采用馮諾依曼結(jié)構(gòu),將計(jì)算和存儲功能分開,通過01數(shù)字流的編譯、計(jì)算和解碼實(shí)現(xiàn)信息處理?;谧枳兇鎯ζ鞯哪M計(jì)算可以取消“將數(shù)據(jù)轉(zhuǎn)化為二進(jìn)制數(shù)字流”的過程,同時(shí)不必進(jìn)行“過程性數(shù)據(jù)存儲”,從而將數(shù)據(jù)計(jì)算與存儲合二為一,釋放更多算力。
與其他“存算一體”方案相比,孫仲團(tuán)隊(duì)專注于更具挑戰(zhàn)性的矩陣方程求解(AI二階訓(xùn)練的核心)。矩陣求逆操作要求極高的計(jì)算精度,時(shí)間復(fù)雜度達(dá)到立方級。模擬計(jì)算憑借物理規(guī)律直接運(yùn)算的方式,具有低功耗、低延遲、高能效和高并行的優(yōu)勢。只要能夠不斷降低計(jì)算誤差并提升計(jì)算精度,模擬計(jì)算將為傳統(tǒng)GPU的算力解放帶來巨大突破。