crossorigin="anonymous">

數字鏽斑提示您:看後求收藏(奇妙書庫www.qmshu.tw),接著再看更方便。

連續學習也不錯,但咱們得弄出一個具有可行性的解決方案來。”

方麟:“連續學習面對的主要問題是災難性遺忘。如果讓深度神經網分多次學習,學了後面的知識,就把前面的知識忘掉了,或者說覆蓋掉了。”

“所以,這是個如何在深度模型中保留記憶的問題。”

“已有方法大概採用瞭如下三種技術路線:”

“一是保留以前學過的部分代表性樣本作為記憶,這些樣本要參與到後面的模型訓練,從而把記憶轉化為模型引數;”

“二是在模型學習新知識時限制引數在一個限定的範圍內變化,而這個範圍是由舊知識決定的,所以就達到了不會遺忘它們的效果;”

小主,這個章節後面還有哦,,後面更精彩!

“三是每次弄出不同的網路分支以對應不同的知識。”

“第三種方法效能最差,較少被關注到,但我反倒覺得最具合理性。”

“模擬人類的情況,我們的記憶難道不應該是神經網路形式的,不同的記憶難道不應該是不同的子網路麼?。”

“以前遇到的困難是如何將這些分支融合以達到記憶選擇的效果,然而不融合直接選擇也是一種辦法。”

“假設面對一種任務,其所要學習的知識有一萬種子模式,每種模式我們都可以保留三個模型:一個用於生成已習得資料的模型,大模型形式的生成模型現在就很好用;另一個用於對新到達樣本做資料增強,達到將一個樣本變成上千個內容相同但表示不同的樣本的目的;最後一個才是這個子模式對應的處理模型。”

“用這三個模型來代表對某種模式知識的記憶。”

“訓練時,先將新到達樣本在每個記憶模式裡分別做資料增強,然後用對應的生成模型生產大量記憶樣本。把記憶樣本與增強樣本一起去重新訓練處理模型”

“如果該處理模型對各種生成樣本仍舊有較高的準確率,該子模式就被選中,把處理模型更新為重訓模型,當然,生成模型和增強模型也需要一起被重新訓練。”

“推理時,過程也是一樣的,將待處理樣本在每個知識子模式中都進行增強,然後與生成樣本一起重訓處理模型,根據重訓模型對各種生成樣本的準確率,決定是否接受其識別結果。”

李曉軍已經聽得眉頭緊皺:“有點道理,這是用模型訓練來解決模型選擇問題,或者說記憶選擇問題。”

“假如真有上萬個知識子模式,每一個樣本都要進行上萬次模型訓練才能完成對它的學習和推理。學習時還行,慢就慢了。但推理時必須經過上萬次模型訓練,這能忍受麼?”

方麟:“我看王棟已經提供的那些計算平臺,算力也都高得離譜。我們可以大致估算出來,我們這個方案如果要達到實時的推理速度,大概需要什麼樣的算力,比現在最高算力還要高几千萬倍。”

“不過這不是我們的問題,是王棟的問題,如果他能提供這樣的算力,我們就可以按照這一思路進行研究。”

“現在這個世界已經很魔幻了,不妨更魔幻一些。說不定王棟就:()神臨地

科幻靈異推薦閱讀 More+
黑社會之罪都

黑社會之罪都

驤曦客
關於黑社會之罪都: 炎炎夏夜,郊外的某處陰森墳地中,一座新墳已被人挖開,更加駭人的是,一個少年窩在棺材內,坐在死人腳上的他正盯著屍體頭上的幽幽燭火…他是誰,為什麼會半夜跑到墳地看死人頭上的燭火,這裡面到底隱藏著什麼駭人秘密?五年後,龍城黑道上出了一位威名赫赫的狠辣人物,林峰。他的崛起就像是一把鋒利的利刃,幾乎以一己之力打破了龍城黑道的格局。而對於他的堂兄林森來說,堂弟林峰就是一把鑰匙,只要能爭取
科幻 連載 110萬字