91一级特黄大片|婷婷中文字幕在线|av成人无码国产|日韩无码一二三区|久久不射强奸视频|九九九久久久精品|国产免费浮力限制

ICLR | 一種適用于EEG的無監(jiān)督個(gè)體持續(xù)學(xué)習(xí)框架BrainUICL

該論文發(fā)表于International Conference on Learning Representations 2025(CCF A),題目為《BrainUICL: An Unsupervised Individual Continual Learning Framework for EEG Applications》。

浙江大學(xué)的周陽軒為此文第一作者,浙江大學(xué)的趙莎研究員為此文的通訊作者。

論文鏈接:https://openreview.net/pdf?id=6jjAYmppGQ

論文概要

腦電圖(EEG)是一種非侵入式腦機(jī)接口技術(shù),在臨床診斷、睡眠階段識別、情緒識別等領(lǐng)域有廣泛應(yīng)用。然而,現(xiàn)有的EEG模型在臨床實(shí)踐中面臨個(gè)體差異大、新患者不斷涌現(xiàn)的挑戰(zhàn),導(dǎo)致泛化能力不足。為此,本文提出了一種無監(jiān)督個(gè)體持續(xù)學(xué)習(xí)框架(BrainUICL),使模型能在無需標(biāo)簽的前提下持續(xù)適應(yīng)新個(gè)體的同時(shí)保持對歷史和未來個(gè)體的泛化能力。通過動態(tài)自信緩沖區(qū)(Dynamic Confident Buffer, DCB)和跨周期對齊(Cross Epoch Alignment, CEA)模塊,平衡模型的可塑性(適應(yīng)新個(gè)體)和穩(wěn)定性(保持對未見個(gè)體的泛化能力)。實(shí)驗(yàn)表明,BrainUICL在睡眠分期、情緒識別和運(yùn)動想象三種主流EEG任務(wù)中均顯著優(yōu)于現(xiàn)有方法。BrainUICL框架工作流如圖1。

圖1 BrainUICL框架工作流

研究背景

腦電技術(shù)因其無創(chuàng)和高時(shí)間分辨率的特性,在臨床實(shí)踐中扮演著重要角色。然而,現(xiàn)有腦電模型在真實(shí)世界應(yīng)用中表現(xiàn)不佳。主要挑戰(zhàn)在于:

  1. 持續(xù)的個(gè)體流入:在臨床等實(shí)際場景中,每天都會有新的受試者出現(xiàn),形成一個(gè)持續(xù)的數(shù)據(jù)流。
  2. 顯著的個(gè)體差異:不同受試者在生理結(jié)構(gòu)和物理特征上存在巨大差異,導(dǎo)致腦電信號分布不同。
  3. 泛化能力局限:在固定數(shù)據(jù)集上訓(xùn)練的模型,很難泛化到這些持續(xù)出現(xiàn)的、未曾見過的新個(gè)體上。

這些問題促使研究者尋求新的解決方案。持續(xù)學(xué)習(xí)(Continual Learning, CL)允許模型從連續(xù)的數(shù)據(jù)流中學(xué)習(xí),是解決此問題的理想途徑。然而,CL的核心挑戰(zhàn)在于平衡“穩(wěn)定性-可塑性(Stability-Plasticity, SP)”困境:既要讓模型有效適應(yīng)新個(gè)體(高的可塑性),又要防止其在適應(yīng)過程中遺忘已有知識,并保持對所有未見個(gè)體的泛化能力(好的穩(wěn)定性)。

研究方法

本文提出了一種面向腦電圖應(yīng)用的無監(jiān)督個(gè)體持續(xù)學(xué)習(xí)框架(BrainUICL),旨在解決無監(jiān)督個(gè)體持續(xù)學(xué)習(xí)場景下的上述挑戰(zhàn)。其核心思想是讓模型在逐個(gè)適應(yīng)無標(biāo)簽的新個(gè)體時(shí),不僅表現(xiàn)出良好的適應(yīng)性(可塑性),還能不斷積累知識,最終成為一個(gè)對所有未見個(gè)體都具有強(qiáng)大泛化能力的“通用專家”。

實(shí)驗(yàn)所用的數(shù)據(jù)集均被劃分為預(yù)訓(xùn)練集、增量集和泛化集三個(gè)部分,遵循約3:5:2的比例。預(yù)訓(xùn)練集由多個(gè)帶真實(shí)標(biāo)簽的個(gè)體數(shù)據(jù)組成,這部分?jǐn)?shù)據(jù)用于預(yù)訓(xùn)練,得到一個(gè)初始的增量模型;增量集由大量無標(biāo)簽的、持續(xù)到來的新個(gè)體數(shù)據(jù)組成,模型需要在這個(gè)數(shù)據(jù)流上逐個(gè)進(jìn)行無監(jiān)督的個(gè)體域適應(yīng),這部分?jǐn)?shù)據(jù)主要用于評估模型的可塑性 (Plasticity),即適應(yīng)新個(gè)體的能力;泛化集由另一組帶真實(shí)標(biāo)簽的未見個(gè)體數(shù)據(jù)組成,在模型每完成一輪對增量集中個(gè)體的適應(yīng)后,都會在這個(gè)集合上進(jìn)行測試,以評估其穩(wěn)定性 (Stability),即對所有未知個(gè)體的泛化能力。無監(jiān)督個(gè)體持續(xù)學(xué)習(xí)的過程如圖2所示。

圖2 無監(jiān)督個(gè)體持續(xù)學(xué)習(xí)的過程

BrainUICL框架主要由以下幾個(gè)關(guān)鍵模塊組成:

(1)SSL訓(xùn)練生成偽標(biāo)簽

由于新流入的個(gè)體數(shù)據(jù)沒有標(biāo)簽,模型首先需要為它們生成高質(zhì)量的偽標(biāo)簽。考慮到傳統(tǒng)聚類方法對低信噪比的腦電信號效果不佳,BrainUICL采用對比預(yù)測編碼(Contrastive Predictive Coding, CPC)自監(jiān)督學(xué)習(xí)算法對一個(gè)“指導(dǎo)模型”(拷貝最新的增量模型)進(jìn)行微調(diào)。通過這種方式,指導(dǎo)模型能初步適應(yīng)新個(gè)體的數(shù)據(jù)分布,從而生成置信度更高、質(zhì)量更好的偽標(biāo)簽,用于后續(xù)的模型適配訓(xùn)練。

(2)動態(tài)置信緩沖 (DCB)

為防止在持續(xù)學(xué)習(xí)中發(fā)生“災(zāi)難性遺忘”,BrainUICL采用了基于重放(rehearsal-based)的策略。但傳統(tǒng)的樣本回放機(jī)制在無監(jiān)督設(shè)定下容易因偽標(biāo)簽噪聲導(dǎo)致錯(cuò)誤累積。為此,本文設(shè)計(jì)了DCB模塊,它包含一個(gè)“真實(shí)-偽標(biāo)簽混合回放”策略。其存儲中心分為兩部分:一部分存儲來自源域(預(yù)訓(xùn)練集)的帶真實(shí)標(biāo)簽的樣本,另一部分存儲來自過去個(gè)體的高置信度偽標(biāo)簽樣本。在訓(xùn)練時(shí),以8:2的比例從真實(shí)標(biāo)簽庫和偽標(biāo)簽庫中抽取樣本進(jìn)行混合回放。這種策略既利用真實(shí)標(biāo)簽樣本來校準(zhǔn)模型、抑制誤差累積,又通過少量偽標(biāo)簽樣本來維持樣本多樣性,巧妙地實(shí)現(xiàn)了對增量學(xué)習(xí)過程的“懲罰”與規(guī)范。

(3)跨周期對齊 (CEA)

為了防止模型在適應(yīng)某個(gè)特定個(gè)體(尤其是異常個(gè)體)時(shí)發(fā)生過擬合,從而損害其長期穩(wěn)定性和泛化能力,本文提出了CEA模塊。該模塊在模型微調(diào)過程中,每隔兩個(gè)周期(epoch),就使用KL散度(Kullback-Leibler Divergence)來對齊當(dāng)前模型狀態(tài)與兩個(gè)周期前模型狀態(tài)的概率分布。通過這種方式,CEA能約束模型的更新方向,防止其在學(xué)習(xí)新知識時(shí)偏離過多,即使遇到異常個(gè)體數(shù)據(jù)也能保持穩(wěn)定,為后續(xù)的持續(xù)學(xué)習(xí)保留了能力空間,最終同時(shí)提升了模型的穩(wěn)定性和可塑性。

(4)模型損失函數(shù)

模型的總損失函數(shù)由兩部分組成:一部分是針對當(dāng)前增量個(gè)體和動態(tài)置信緩沖模塊中的緩沖樣本的交叉熵?fù)p失,公式如下:

其中:

·: 在動態(tài)置信緩沖(DCB)中的樣本上計(jì)算的損失;

·:在當(dāng)前學(xué)習(xí)的新個(gè)體的無標(biāo)簽數(shù)據(jù)上,利用生成的偽標(biāo)簽計(jì)算的損失;

·:一個(gè)動態(tài)調(diào)整的超參數(shù);

值得注意的是:會隨著模型見過的個(gè)體數(shù)量i的增加而逐漸減小,意味著隨著模型學(xué)習(xí)到的知識越來越豐富,它會逐漸變得更加“謹(jǐn)慎”,減少對新來的、不確定的偽標(biāo)簽數(shù)據(jù)的依賴,從而幫助模型最終穩(wěn)定下來。

另一部分是跨周期對齊CEA模塊計(jì)算的KL散度損失。因此模型的總損失函數(shù)公式如下:

實(shí)驗(yàn)結(jié)果

本文在三個(gè)主流腦電任務(wù)的公共數(shù)據(jù)集上(睡眠分期ISRUC,情緒識別FACED,運(yùn)動想象Physionet-MI)對BrainUICL框架進(jìn)行了全面評估。

總體性能如圖3所示,與初始模型相比,BrainUICL在不斷適應(yīng)新個(gè)體的過程中,不僅顯著提升了對新個(gè)體的適應(yīng)能力(可塑性,例如在ISRUC和FACED數(shù)據(jù)集上,平均MF1分別提升了13.4%和19.5%),還持續(xù)增強(qiáng)了對未見泛化集的性能(穩(wěn)定性,例如在FACED數(shù)據(jù)集上,AAA指標(biāo)從24.0%提升到36.5%),實(shí)現(xiàn)了雙贏。

圖3 BrainUICL在三個(gè)下游EEG任務(wù)上的性能

與多種現(xiàn)有的UDA、CL和UCDA方法性能比較如圖4所示,BrainUICL在三個(gè)數(shù)據(jù)集上都表現(xiàn)出最優(yōu)的穩(wěn)定性和魯棒性。

圖4 與現(xiàn)有UDA、CL和UCDA方法的性能比較

結(jié)論

本文針對真實(shí)世界腦電應(yīng)用中模型泛化能力不足的痛點(diǎn),提出了一個(gè)新穎的無監(jiān)督個(gè)體持續(xù)學(xué)習(xí)(UICL)范式,并設(shè)計(jì)了BrainUICL框架以有效應(yīng)對該范式下的SP困境挑戰(zhàn)。通過創(chuàng)新的動態(tài)置信緩沖(DCB)和跨周期對齊(CEA)模塊,BrainUICL能夠在無需人工標(biāo)注的情況下,持續(xù)地從新個(gè)體數(shù)據(jù)中進(jìn)行學(xué)習(xí),不僅能很好地適應(yīng)新個(gè)體,還能不斷提升對所有未見個(gè)體的泛化能力,最終成長為一個(gè)更魯棒、更通用的腦電解碼模型。該工作為開發(fā)實(shí)用、高效的臨床腦電智能分析系統(tǒng)提供了新的思路和強(qiáng)大的技術(shù)支持。

撰稿人:余淑冰

審稿人:李景聰


登錄用戶可以查看和發(fā)表評論, 請前往  登錄 或  注冊。
SCHOLAT.com 學(xué)者網(wǎng)
免責(zé)聲明 | 關(guān)于我們 | 用戶反饋
聯(lián)系我們: