位于加州山景城的谷歌總部
據(jù)外媒報道,谷歌研發(fā)了一種“能學習所有任務的多功能模型”,在AI領域取得巨大進步。
近日,谷歌低調發(fā)布了一份學術論文,在論文中描繪了機器學習的藍圖。谷歌研發(fā)新的機器學習系統(tǒng),它被稱為“能學習所有任務的多功能模型”,這一模型為以后的研究提供了一個模板,即如何創(chuàng)造一個能夠很好地處理多個任務的機器學習模型。
正如谷歌研究人員所稱的那樣,“多功能模型”接受了各種各樣的任務訓練,包括翻譯、語言解析、語音識別、圖像識別和目標檢測。雖然它的結果并沒有顯示出對現(xiàn)有方法的根本性改進,但至少表明,在不同的任務上訓練機器學習系統(tǒng)有助于提高它的整體性能。
相比只是在單一運算機器上進行了訓練,“多功能模型”在機器翻譯、語音和語法分析方面的準確性都得到了提高。
谷歌的論文可以為未來機器學習系統(tǒng)的開發(fā)提供一個案例,這些系統(tǒng)可以更廣泛地被應用,而且也可能它比目前市場上大部分的狹義解決方案都要準確。更重要的是,這些技術(或它們衍生的)可以幫助減少訓練可行的機器學習算法所需的訓練數(shù)據(jù)量。
該團隊的研究結果表明,當“多功能模型”接受了它所能完成的所有任務時,它的準確性就會隨著訓練數(shù)據(jù)的減少而提高。這很重要,因為在某些領域很難積累足夠多的訓練數(shù)據(jù)。
然而,谷歌并沒有宣稱擁有一種可以同時學習所有任務的算法。正如它的名字所暗示的那樣,“多功能模型”是為應對不同挑戰(zhàn)而量身定制的系統(tǒng),以及幫助直接輸入這些專家算法的系統(tǒng)。這項研究的確表明,谷歌采取的方法可能對未來開發(fā)不同領域的同類型系統(tǒng)有所幫助。
同樣值得注意的是,“多功能模型”還有大量的測試要做。谷歌的搜索結果還沒有被證實,而且很難知道這項研究如何推廣到其他領域。谷歌的大腦團隊已經承諾開放“多功能模型”的源代碼,讓更多的人去嘗試,但沒有給出具體的開放。
對于“多功能模型”,谷歌也有一些明顯的改進思路。谷歌團隊指出,他們沒有花很多時間優(yōu)化系統(tǒng)的一些固定參數(shù)(在機器學習中被稱為“超參數(shù)”),而未來調參優(yōu)化將有助于提高準確性。
(審核編輯: 林靜)
分享