新舊知識難共存 治療AI“健忘癥”還難有良策
很多人在上學的時候都有這樣的經歷,在經過了一個寒假返校后,發現前一學期學到的內容有的已經忘了。在見識過人工智能PK人類的屢屢勝績后,有人不免羨慕AI強大的學習本領,但事實上人工智能的“記性”并不如你想象的那樣好,如果你像人工智能系統那樣學習,很可能在學習新知識的同時,大腦便會逐漸忘了之前的內容,其原因就在于人工智能遭遇了“災難性遺忘”。
近日,來自谷歌大腦的最新研究發現,在街機學習環境的由多個子任務組成的單任務場景中也存在著“災難性遺忘”。特別像在“蒙特祖瑪復仇”這種探索型游戲里,場景變化較大,會出現學習完當前游戲場景后,忘記上一個游戲場景知識的情況。
那么人工智能為什么會產生“災難性遺忘”?目前解決“災難性遺忘”的方案有哪些?難點在哪?就此,科技日報記者采訪了有關專家。
學一個忘一個 深度學習效率低下
自從阿爾法圍棋(AlphaGo)相繼戰勝多名圍棋冠軍后,深度學習已經成為眾多實現人工智能的方法中最耀眼的“明星”,也是各大研發機構角逐的主戰場。而谷歌大腦團隊這次面臨的“災難性遺忘”,正是人工智能深度學習中所面臨的一個普遍且嚴重的問題。
“‘災難性遺忘’指的是人工智能系統,如深度學習模型,在學習新任務或適應新環境時,忘記或喪失了以前習得的一些能力。”騰訊人工智能實驗室副主任俞棟博士在接受科技日報記者采訪時說,“災難性遺忘”會造成人工智能系統在原有任務或環境中的性能大幅下降。
美亞柏科信息中心總經理魏朝東介紹,在深度神經網絡學習不同任務的時候,相關權重的快速變化會損害先前任務的表現,通俗來說,就是在學習中像猴子搬苞谷,撿一個丟一個,記住了新知識,也有可能會忘掉了老知識。
正是源于此,“災難性遺忘”的存在,一定程度上限制了人工智能在一些場景中的應用。
福州大學數學與計算機科學學院、福建省新媒體行業技術開發基地副主任柯逍博士舉例說,如一個AI圖像識別系統,當需要添加一個新的類別的物體時,就不得不把原先的所有物體都再學習一次。如在文物鑒定系統中,當有一天發現原始數據中有一個文物朝代錯了,便沒辦法單獨對這一個錯誤的文物進行修改學習;再如讓AI系統學習英語之后,再讓它學習德語,它可能會把原來學習的英語語法全部忘光。
那么在谷歌大腦的最新研究中,“災難性遺忘”又造成了哪些影響?其中又有何新發現?
“除了傳統的新知識學習會覆蓋舊知識之外,這次谷歌大腦還發現,在如‘超級瑪麗’等探索型游戲里,‘災難性遺忘’會阻礙模型對新知識的學習。”廈門大學科技處副處長、人工智能系教授紀榮嶸說。
紀榮嶸進一步解釋說,面向街機游戲學習的強化學習方法都會采用“經驗回放”的訓練方式,就是將模型在游戲探索時候的片段進行保存,然后給模型進行“回放”訓練。而像“蒙特祖瑪復仇”這種游戲,游戲場景變化比較大,模型需要不間斷探索游戲場景,因此,在訓練時候就必須不斷回放早期場景的游戲經驗,不然會因為“災難性遺忘”而忘記了早期的游戲知識。
“這也導致了新的游戲經驗雖然能夠被采樣到‘經驗回放’庫里,但因為學習方式的設定,導致學習效率低,同時由于不同階段的學習會互相干擾,使得AI無法一次通過該游戲的全部關卡。”紀榮嶸說。
AI“腦容量”存上限 新舊知識難共存
AI為什么會產生“災難性遺忘”?
“深度學習的結構一旦確定,在訓練過程中很難調整。神經網絡的結構直接決定學習模型的容量。”柯逍說,AI“腦容量”存在上限,也就導致了人工智能只能有限地處理特定任務。就像水桶一半高的地方有個洞,以至于無論怎么增加水桶的高度,這個水桶只能裝一半高的水。
中科院自動化所腦網絡組研究中心研究員、模式識別國家重點實驗室副主任余山指出,這還涉及到神經網絡學習知識的機制。在單個任務的訓練過程中,網絡中各個神經元之間的連接權重進行了專門的調整,以勝任當前的任務。而在新任務的訓練中,連接權重要針對新任務進行調整,這將“抹去”適應舊任務的原有結構,導致在舊任務上的性能大大下降。
人類的記憶能力其實是有限的,但為何出現“災難性遺忘”的情況卻比較少?“主要是人類在學習過程當中,大腦能夠主動保留有用的知識和技巧,同時不影響新的信息獲取。” 紀榮嶸說,但現在的人工智能模型大部分是基于隨機梯度下降來更新模型參數,這個過程主要服務于當前任務的優化,并不會去評估哪些參數權重對舊的知識是有用的,所以就很容易出現知識被覆蓋的情況。
紀榮嶸也表示,當前像Siri或小愛這樣的人工智能助手產品,還不能算真正意義上的通用人工智能,一方面,這些人工智能助手只能在預設的知識范圍內和人類互動,完成指令;另一方面,人類沒辦法像養寵物或養小孩一樣,通過互動去教導這些人工智能助手學習新的知識或新的指令。
有多個解決方案 但都治標不治本
據了解,破解“災難性遺忘”是實現通用人工智能的一個關鍵。解決了“災難性遺忘”問題,就意味著模型具備了持續學習的能力, 可以像人類一樣不斷獲取新的知識、新的技能,同時能夠最大化地保持舊的經驗知識和技巧。
那么,目前解決“災難性遺忘”的方案有哪些?
“最常見的方式是多任務學習, 就是把所有任務的訓練數據同時放到一起,模型就可以針對多種任務進行聯合優化。”紀榮嶸舉例說,如讓模型同時學習“坦克大戰”和“超級瑪麗”兩個任務,等兩個任務同時學的差不多的時候,模型才停止訓練。
但柯逍也指出,這種方式隨著任務增多,新任務樣本數量被稀釋,訓練會拖慢學習新知識的效率,并且不是任何情況都能獲得先前任務的數據來復習的。
還有的解決方案是根據新的任務知識來擴充模型結構,保證舊的知識經驗不被損害。此次,谷歌大腦所提出的“記憶碎片觀察”方法正是對不同任務(場景)構建多個人工智能模型來進行學習。“模型擴充的方式從本質上并沒有解決‘災難性遺忘’的問題,只是用多個模型來替代單個模型去學習多種任務,避免舊參數被覆蓋。”紀榮嶸說。
當前,解決“災難性遺忘”還存在著一對矛盾:在學習新任務的過程中,需要給予網絡足夠多的自由度進行連接權重調整,但是又要避免這樣的調整“抹去”原有的記憶。
“因此,科學家們開始設計新的學習算法解決上述矛盾,使得網絡在進行權重調整的時候,對已有知識的影響最小化。”余山表示,其團隊近期提出的正交權重修改算法,就屬于這類,主要通過限制權重修改只能在舊任務的解空間中進行,這一算法較好的克服了“災難性遺忘”,使得同一個分類器網絡可以連續學習多達數千個類別的識別。
魏朝東認為,雖然科學家們已經探索出多種解決方案,但目前的AI學習只是從認知科學中獲得了一小部分靈感,對大腦的模擬還沒達到人們想象的高度,大部分AI學習方案是“先天不足”的。“災難性遺忘”是一個綜合性問題,不僅需要有理論支撐,未來還需要有可行的技術手段去實現。(記者 謝開飛 通訊員 歐陽桂蓮 許曉鳳 王憶希)
責任編輯:孫知兵
免責聲明:本文僅代表作者個人觀點,與太平洋財富網無關。其原創性以及文中陳述文字和內容未經本站證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關內容。
如有問題,請聯系我們!