91一级特黄大片|婷婷中文字幕在线|av成人无码国产|日韩无码一二三区|久久不射强奸视频|九九九久久久精品|国产免费浮力限制

2025年04月17日例會(huì)預(yù)告-李虎峰《神經(jīng)網(wǎng)絡(luò)中的知識(shí)蒸餾》

【例會(huì)預(yù)告】

會(huì)議名稱:數(shù)據(jù)科學(xué)與創(chuàng)新管理團(tuán)隊(duì)例會(huì)

會(huì)議時(shí)間:2025年04月17日(周四)14:30-17:00

會(huì)議地點(diǎn):經(jīng)管樓607會(huì)議室

匯報(bào)人: 李虎峰

匯報(bào)題目:神經(jīng)網(wǎng)絡(luò)中的知識(shí)蒸餾(Distilling the Knowledge in a Neural Network )

匯報(bào)摘要:

提高幾乎所有機(jī)器學(xué)習(xí)算法性能的一個(gè)非常簡(jiǎn)單的方法就是在同一數(shù)據(jù)上訓(xùn)練多個(gè)不同的模型,然后對(duì)它們的預(yù)測(cè)取平均值。然而,使用一整套模型進(jìn)行預(yù)測(cè)非常繁瑣,而且計(jì)算成本過高,難以部署到大量用戶,尤其是在單個(gè)模型本身就是大型神經(jīng)網(wǎng)絡(luò)的情況下。Caruana 和他的同事已經(jīng)證明,可以將模型集成中的知識(shí)壓縮成一個(gè)更易于部署的單一模型,并且我們使用不同的壓縮技術(shù)進(jìn)一步開發(fā)了這種方法。我們?cè)?MNIST 數(shù)據(jù)集上取得了一些令人驚訝的結(jié)果,并且我們證明了,通過將模型集成中的知識(shí)提煉成一個(gè)單一模型,可以顯著改進(jìn)一個(gè)被廣泛使用的商業(yè)系統(tǒng)的聲學(xué)模型。我們還引入了一種新型的集成模型,它由一個(gè)或多個(gè)完整模型和許多專家模型組成,這些專家模型可以學(xué)習(xí)區(qū)分完整模型容易混淆的細(xì)粒度類別。與專家模型的混合不同,這些專家模型可以快速并行地進(jìn)行訓(xùn)練。


登錄用戶可以查看和發(fā)表評(píng)論, 請(qǐng)前往  登錄 或  注冊(cè)。
SCHOLAT.com 學(xué)者網(wǎng)
免責(zé)聲明 | 關(guān)于我們 | 用戶反饋
聯(lián)系我們: