AI算法最新突破,有可能顛覆現有AI算法應用
無論是元宇宙,還是區塊鏈,AI,對算力的要求都是巨大的。而資本市場也會對新計算技術極其關注。其中最明顯的進步的就是稱為儲備池計算(Resevoir computing)計算。
儲備池計算是一流的機器學習算法,用于處理動態系統使用觀察到的時間序列數據生成的信息。重要的是,它只需要非常小的訓練數據集,使用線性優化,因此需要最少的計算資源。然而,該算法使用隨機采樣的矩陣來定義底層的循環神經網絡,并且有許多必須優化的元參數。最近的結果表明儲層計算等效于非線性矢量自回歸,它不需要隨機矩陣、更少的元參數,并提供可解釋的結果。非線性向量自回歸在儲層計算基準任務中表現出色,并且需要更短的訓練數據集和訓練時間,預示著下一代儲層計算的到來。簡而言之,它更能模仿人腦運作,可以徹底改變現有的AI計算方式。尤其在特定任務上的速度提高100萬倍,同時使用更少的數據輸入的計算資源。
利用這種技術,人們就能夠使用目前常見的計算設備,用不到一秒鐘的時間解決一個復雜的計算問題,如解密密碼,預測股票走勢,天氣等隨時間變化的動態系統的演變等。這些系統極難預測,“蝴蝶效應”就是一個著名的例子。儲備池計算非常適合學習這種動態系統,并能對它們在未來的行為提供準確的預測;然而,系統越大、越復雜,就需要更多的計算資源、人工神經元網絡和更多的時間來獲得準確的預測。
依據俄亥俄州立大學物理學教授Daniel Gauthier最新發表在《自然-通訊》雜志上文章,研究小組對儲備池計算系統進行了簡化,大大減少了對計算資源的需求,并節省了大量時間。下一代儲備池計算技術明顯優于其他技術。
?
根據數據的不同,新方法被證明能夠比上一代技術提升33到163倍的速度。然而,當工作目標被改變為有利于準確性時,新模型的速度提高了100萬倍。這種速度的提高是由于下一代儲備池計算比前幾代需要更少的預熱和訓練。
過去我們做機器學習,通常都需要用1000或10000個數據點或更多的數據來進行訓練。最新一代技術只需要放入一個或兩個或三個數據點就可以了。
此外,新技術僅用28個神經元就能達到同樣的精度,而當前一代模型需要4000個神經元。
如果利用好這種超高效的神經網絡,將工作擴展到更復雜的空天科技,助力新的宇航科技,火星探索,還有金融領域,將具有非常大的爆發力。