一级黄色片免费播放|中国黄色视频播放片|日本三级a|可以直接考播黄片影视免费一级毛片

高級(jí)搜索

留言板

尊敬的讀者、作者、審稿人, 關(guān)于本刊的投稿、審稿、編輯和出版的任何問(wèn)題, 您可以本頁(yè)添加留言。我們將盡快給您答復(fù)。謝謝您的支持!

姓名
郵箱
手機(jī)號(hào)碼
標(biāo)題
留言?xún)?nèi)容
驗(yàn)證碼

類(lèi)別數(shù)據(jù)流和特征空間雙分離的類(lèi)增量學(xué)習(xí)算法

云濤 潘泉 劉磊 白向龍 劉宏

云濤, 潘泉, 劉磊, 白向龍, 劉宏. 類(lèi)別數(shù)據(jù)流和特征空間雙分離的類(lèi)增量學(xué)習(xí)算法[J]. 電子與信息學(xué)報(bào), 2024, 46(10): 3879-3889. doi: 10.11999/JEIT231064
引用本文: 云濤, 潘泉, 劉磊, 白向龍, 劉宏. 類(lèi)別數(shù)據(jù)流和特征空間雙分離的類(lèi)增量學(xué)習(xí)算法[J]. 電子與信息學(xué)報(bào), 2024, 46(10): 3879-3889. doi: 10.11999/JEIT231064
YUN Tao, PAN Quan, LIU Lei, BAI Xianglong, LIU Hong. A Class Incremental Learning Algorithm with Dual Separation of Data Flow and Feature Space for Various Classes[J]. Journal of Electronics & Information Technology, 2024, 46(10): 3879-3889. doi: 10.11999/JEIT231064
Citation: YUN Tao, PAN Quan, LIU Lei, BAI Xianglong, LIU Hong. A Class Incremental Learning Algorithm with Dual Separation of Data Flow and Feature Space for Various Classes[J]. Journal of Electronics & Information Technology, 2024, 46(10): 3879-3889. doi: 10.11999/JEIT231064

類(lèi)別數(shù)據(jù)流和特征空間雙分離的類(lèi)增量學(xué)習(xí)算法

doi: 10.11999/JEIT231064
基金項(xiàng)目: 國(guó)家自然科學(xué)基金重大項(xiàng)目(61790552)
詳細(xì)信息
    作者簡(jiǎn)介:

    云濤:男,工程師,主要研究方向?yàn)槔走_(dá)數(shù)據(jù)處理、深度學(xué)習(xí)

    潘泉:男,博士,教授,主要研究方向?yàn)樾畔⑷诤侠碚摷皯?yīng)用、目標(biāo)跟蹤與識(shí)別技術(shù)、光譜成像和圖像處理

    劉磊:男,博士,副教授,主要研究方向?yàn)閼B(tài)勢(shì)感知、雷達(dá)成像和雷達(dá)圖像處理

    白向龍:男,博士生,主要研究方向?yàn)槎嗄繕?biāo)跟蹤和多源數(shù)據(jù)智能融合處理

    劉宏:男,博士,主要研究方向?yàn)閳D像處理

    通訊作者:

    潘泉 quanpan@nwpu.edu.cn

  • 中圖分類(lèi)號(hào): TN911.7; TN959.1+7

A Class Incremental Learning Algorithm with Dual Separation of Data Flow and Feature Space for Various Classes

Funds: The Major Project of the National Natural Science Foundation of China (61790552)
  • 摘要: 針對(duì)類(lèi)增量學(xué)習(xí)(CIL)中的災(zāi)難性遺忘問(wèn)題,該文提出一種不同類(lèi)的數(shù)據(jù)流和特征空間雙分離的類(lèi)增量學(xué)習(xí)算法。雙分離(S2)算法在1次增量任務(wù)中包含2個(gè)階段。第1個(gè)階段通過(guò)分類(lèi)損失、蒸餾損失和對(duì)比損失的綜合約束訓(xùn)練網(wǎng)絡(luò)。根據(jù)模塊功能對(duì)各類(lèi)的數(shù)據(jù)流進(jìn)行分離,以增強(qiáng)新網(wǎng)絡(luò)對(duì)新類(lèi)別的識(shí)別能力。通過(guò)對(duì)比損失的約束,增大各類(lèi)數(shù)據(jù)在特征空間中的距離,避免由于舊類(lèi)樣本的不完備性造成特征空間被新類(lèi)侵蝕。第2個(gè)階段對(duì)不均衡的數(shù)據(jù)集進(jìn)行動(dòng)態(tài)均衡采樣,利用得到的均衡數(shù)據(jù)集對(duì)新網(wǎng)絡(luò)進(jìn)行動(dòng)態(tài)微調(diào)。利用實(shí)測(cè)和仿真數(shù)據(jù)構(gòu)建了一個(gè)飛機(jī)目標(biāo)高分辨率距離像增量學(xué)習(xí)數(shù)據(jù)集,實(shí)驗(yàn)結(jié)果表明該算法相比其它幾種對(duì)比算法在保持高可塑性的同時(shí),具有更高的穩(wěn)定性,綜合性能更優(yōu)。
  • 圖  1  類(lèi)增量學(xué)習(xí)示意圖

    圖  2  iCaRL類(lèi)增量學(xué)習(xí)方法

    圖  3  特征空間侵蝕與分離示意圖

    圖  4  雙分離的類(lèi)增量學(xué)習(xí)方法

    圖  5  殘差多尺度卷積模塊

    圖  6  主干網(wǎng)絡(luò)

    圖  7  不同算法識(shí)別準(zhǔn)確率

    圖  8  不同算法各類(lèi)平均識(shí)別準(zhǔn)確率

    圖  9  軟標(biāo)簽-嵌入損失權(quán)重系數(shù)消融實(shí)驗(yàn)結(jié)果

    圖  10  對(duì)比損失權(quán)重消融實(shí)驗(yàn)結(jié)果

    圖  11  投影頭數(shù)量消融實(shí)驗(yàn)結(jié)果

    圖  12  T4任務(wù)各類(lèi)識(shí)別準(zhǔn)確率(實(shí)驗(yàn)1)

    圖  13  T4任務(wù)各類(lèi)識(shí)別準(zhǔn)確率(實(shí)驗(yàn)2)

    1  新類(lèi)樣本集的構(gòu)建

     輸入:任務(wù)${T_i}$包含${N_{{\text{NC}}}}$個(gè)類(lèi)別的數(shù)據(jù)集${{\boldsymbol{D}}^i}$
     輸入:每個(gè)類(lèi)別保存樣本數(shù)$m$
     輸入:主干網(wǎng)絡(luò)$ \text{CONV}(\cdot) $
     1:  for $j = 1,2, \cdots ,{N_{{\text{NC}}}}$
     2:   樣本嵌入均值$ {{\boldsymbol{\mu }}_j} \leftarrow \frac{1}{{\left| {{{\boldsymbol{D}}_j}} \right|}}\sum\limits_{{\boldsymbol{x}} \in {{\boldsymbol{D}}_j}} {{\text{CONV}}({\boldsymbol{x}})} $
     3:   for $k = 1,2, \cdots ,m$
     4:  ${{\boldsymbol{z}}_{jk}} \leftarrow \mathop {\arg \min }\limits_{{\boldsymbol{x}} \in {{\boldsymbol{D}}^i}} \left\| {{{\boldsymbol{\mu }}_j} - \dfrac{1}{k}\left[ {{\text{CONV}}({\boldsymbol{x}}) + \displaystyle\sum\limits_{l = 1}^{k - 1} {{\text{CONV}}({{\boldsymbol{z}}_{il}})} } \right]} \right\|$
     5:   end for
     6:   ${{\boldsymbol{Z}}_j} \leftarrow \left( {{{\boldsymbol{z}}_{j1}},{{\boldsymbol{z}}_{j2}}, \cdots ,{{\boldsymbol{z}}_{jm}}} \right)$
     7:  end for
     輸出:$ {{\boldsymbol{Z}}^{{\text{NC}}}} \leftarrow {{\boldsymbol{Z}}_1} \cup {{\boldsymbol{Z}}_2} \cup \cdots \cup {{\boldsymbol{Z}}_{{N_{{\text{NC}}}}}} $
    下載: 導(dǎo)出CSV

    2  S2未增量訓(xùn)練過(guò)程

     輸入:新類(lèi)數(shù)據(jù)集${{\boldsymbol{D}}^0}$
     輸入:每個(gè)類(lèi)別保存樣本數(shù)$m$
     輸入:初始網(wǎng)絡(luò)參數(shù)${\boldsymbol{W}}$
     1:  ${\boldsymbol{W}} \leftarrow \mathop {\arg \min }\limits_{\boldsymbol{W}} {\text{los}}{{\text{s}}_{{\text{cls}}}}({{\boldsymbol{D}}^0},{\boldsymbol{W}})$
     2:  利用算法1挑選新類(lèi)樣本${{\boldsymbol{Z}}^{{\text{NC}}}} \leftarrow {{\boldsymbol{D}}^0}$
     3:  回放數(shù)據(jù)集${{\boldsymbol{Z}}^0} \leftarrow {{\boldsymbol{Z}}^{{\text{NC}}}}$
     輸出:${\boldsymbol{W}}$, ${{\boldsymbol{Z}}^0}$
    下載: 導(dǎo)出CSV

    3  S2增量訓(xùn)練過(guò)程

     輸入:新類(lèi)數(shù)據(jù)集${{\boldsymbol{D}}^i}$
     輸入:回放數(shù)據(jù)集${{\boldsymbol{Z}}^{i - 1}}$
     輸入:每個(gè)類(lèi)別保存樣本數(shù)$m$
     輸入:當(dāng)前網(wǎng)絡(luò)參數(shù)${\boldsymbol{W}}$
     1:  /*階段1*/
     2:  for $k = 1,2, \cdots ,{\text{epoc}}{{\text{h}}_{{\text{train}}}}$
     3:   隨機(jī)抽取一個(gè)批次的數(shù)據(jù)
        ${{\boldsymbol{D}}_{{\text{batch}}}} = {\text{RandomSample}}\left( {{{\boldsymbol{D}}^i} \cup {{\boldsymbol{Z}}^{i - 1}}} \right)$
     4:   新舊數(shù)據(jù)分流${\boldsymbol{D}}_{{\text{batch}}}^{\text{O}},{\boldsymbol{D}}_{{\text{batch}}}^{\text{N}} = {\text{separate}}({{\boldsymbol{D}}_{{\text{batch}}}})$,
        $\left( {{{\boldsymbol{x}}^{{\text{OC}}}},{y^{{\text{OC}}}}} \right) \in {\boldsymbol{D}}_{{\text{batch}}}^{\text{O}}$, $\left( {{{\boldsymbol{x}}^{{\text{AC}}}},{y^{{\text{AC}}}}} \right) \in {\boldsymbol{D}}_{{\text{batch}}}^{}$
     5:   特征提取${{\boldsymbol{e}}^{{\text{ONOC}}}} = {\text{CON}}{{\text{V}}^{{\text{ON}}}}({{\boldsymbol{x}}^{{\text{OC}}}})$,
        $ {{\boldsymbol{e}}^{{\text{NNOC}}}}{\text{ = CON}}{{\text{V}}^{{\text{NN}}}}({{\boldsymbol{x}}^{{\text{OC}}}}) $, $ {{\boldsymbol{e}}^{{\text{NNAC}}}}{\text{ = CON}}{{\text{V}}^{{\text{NN}}}}({{\boldsymbol{x}}^{{\text{AC}}}}) $
     6:   計(jì)算嵌入蒸餾損失$ {\text{los}}{{\text{s}}_{{\text{ED}}}} $
     7:   分類(lèi)器輸出${{\boldsymbol{l}}^{{\text{ONOC}}}} = {\text{F}}{{\text{C}}^{{\text{ON}}}}({{\boldsymbol{e}}^{{\text{ONOC}}}})$,
        ${{\boldsymbol{l}}^{{\text{NNOC}}}} = {\text{F}}{{\text{C}}^{{\text{NN}}}}({{\boldsymbol{e}}^{{\text{NNOC}}}})$, ${{\boldsymbol{l}}^{{\text{NNAC}}}} = {\text{F}}{{\text{C}}^{{\text{NN}}}}({{\boldsymbol{e}}^{{\text{NNAC}}}})$
     8:   計(jì)算軟標(biāo)簽蒸餾損失$ {\text{los}}{{\text{s}}_{{\text{LD}}}} $
     9:   計(jì)算分類(lèi)損失$ {\text{los}}{{\text{s}}_{{\text{cls}}}} $
     10:   投影$ {{\boldsymbol{p}}^{{\text{NNAC}}}} = {\text{PROJECTION}}({{\boldsymbol{e}}^{{\text{NNAC}}}}) $
     11:   計(jì)算對(duì)比損失$ {\text{los}}{{\text{s}}_{{\text{SCL}}}} $
     12:   計(jì)算總損失$ {\text{los}}{{\text{s}}_{{\text{total}}}} $
     13:   利用$ \nabla {\text{los}}{{\text{s}}_{{\text{total}}}} $更新${\boldsymbol{W}}$
     14: end for
     15: /*階段2*/
     16: for $k = 1,2, \cdots ,{\text{epoc}}{{\text{h}}_{{\text{ft}}}}$
     17: 均衡數(shù)據(jù)集${{\boldsymbol{D}}^{\text{B}}} \leftarrow {\text{BalanceSample(}}{{\boldsymbol{D}}^i},{{\boldsymbol{Z}}^{i - 1}}{\text{)}}$
     18: 微調(diào)${\boldsymbol{W}} \leftarrow \mathop {\arg \min }\limits_{\boldsymbol{W}} {\text{los}}{{\text{s}}_{{\text{cls}}}}({{\boldsymbol{D}}^{\text{B}}},{\boldsymbol{W}})$
     19: end for
     20: /*回放數(shù)據(jù)集管理*/
     21: 挑選舊類(lèi)樣本${{\boldsymbol{Z}}^{{\text{OC}}}} \leftarrow {{\boldsymbol{Z}}^{i - 1}}$
     22: 利用算法1挑選新類(lèi)樣本${{\boldsymbol{Z}}^{{\text{NC}}}} \leftarrow {{\boldsymbol{D}}^i}$
     23: 回放數(shù)據(jù)集${{\boldsymbol{Z}}^i} \leftarrow {{\boldsymbol{Z}}^{{\text{OC}}}} \cup {{\boldsymbol{Z}}^{{\text{NC}}}}$
     輸出:${\boldsymbol{W}}$, ${{\boldsymbol{Z}}^i}$
    下載: 導(dǎo)出CSV

    表  1  飛機(jī)尺寸參數(shù)

    飛機(jī)型號(hào)機(jī)長(zhǎng)(m)機(jī)寬(m)機(jī)高(m)多邊形數(shù)量
    飛機(jī)128.7230.049.10166?338
    飛機(jī)217.5115.464.8469?446
    飛機(jī)36.8415.001.7464?606
    飛機(jī)412.587.603.33119?940
    飛機(jī)516.187.402.4451?736
    飛機(jī)67.939.013.09141?343
    飛機(jī)715.2813.024.99114?166
    飛機(jī)87.369.202.8976?851
    雅克4236.3834.889.83-
    獎(jiǎng)狀14.4015.904.57-
    安2623.8029.209.83-
    下載: 導(dǎo)出CSV

    表  2  算法部分參數(shù)

    參數(shù)名稱(chēng)取值
    主干網(wǎng)絡(luò)RMsCNN
    迭代次數(shù)25
    初始學(xué)習(xí)率0.01
    學(xué)習(xí)率衰減余弦退火
    優(yōu)化器SGD
    批大小256
    權(quán)重衰減0.000?2
    下載: 導(dǎo)出CSV

    表  3  模塊消融實(shí)驗(yàn)結(jié)果

    序號(hào) 分類(lèi)
    損失
    蒸餾
    損失
    數(shù)據(jù)流
    分離
    對(duì)比
    損失
    動(dòng)態(tài)
    微調(diào)
    分類(lèi)器 準(zhǔn)確率
    (%)
    NME CNN
    1 97.88
    2 96.36
    3 95.33
    4 94.35
    5 91.94
    下載: 導(dǎo)出CSV
  • [1] ZHU Kai, ZHAI Wei, CAO Yang, et al. Self-sustaining representation expansion for non-exemplar class-incremental learning[C]. 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition, New Orleans, USA, 2022: 9286–9295. doi: 10.1109/CVPR52688.2022.00908.
    [2] LI Zhizhong and HOIEM D. Learning without forgetting[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(12): 2935–2947. doi: 10.1109/TPAMI.2017.2773081.
    [3] DOUILLARD A, CORD M, OLLION C, et al. PODNet: Pooled outputs distillation for small-tasks incremental learning[C]. The 16th European Conference, Glasgow, UK, 2020: 86–102. doi: 10.1007/978-3-030-58565-5_6.
    [4] REBUFFI S A, KOLESNIKOV A, SPERL G, et al. iCaRL: Incremental classifier and representation learning[C]. Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition, Hawaii, USA, 2017: 2001–2010. doi: 10.1109/CVPR.2017.587.
    [5] 曲志昱, 李根, 鄧志安. 基于知識(shí)蒸餾與注意力圖的雷達(dá)信號(hào)識(shí)別方法[J]. 電子與信息學(xué)報(bào), 2022, 44(9): 3170–3177. doi: 10.11999/JEIT210695.

    QU Zhiyu, LI Gen, and DENG Zhian. Radar signal recognition method based on knowledge distillation and attention map[J]. Journal of Electronics & Information Technology, 2022, 44(9): 3170–3177. doi: 10.11999/JEIT210695.
    [6] ISCEN A, ZHANG J, LAZEBNIK S, et al. Memory-efficient incremental learning through feature adaptation[C]. Proceedings of the 16th European Conference, Glasgow, UK, 2020: 699–715. doi: 10.1007/978-3-030-58517-4_41.
    [7] PELLEGRINI L, GRAFFIETI G, LOMONACO V, et al. Latent replay for real-time continual learning[C]. 2020 IEEE/RSJ International Conference on Intelligent Robots and Systems, Las Vegas, USA, 2020: 10203–10209. doi: 10.1109/IROS45743.2020.9341460.
    [8] YIN Hongxu, MOLCHANOV P, ALVAREZ J M, et al. Dreaming to distill: Data-free knowledge transfer via DeepInversion[C]. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, USA, 2020: 8715–8724. doi: 10.1109/CVPR42600.2020.00874.
    [9] SHEN Gehui, ZHANG Song, CHEN Xiang, et al. Generative feature replay with orthogonal weight modification for continual learning[C]. 2021 International Joint Conference on Neural Networks, Shenzhen, China, 2021: 1–8. doi: 10.1109/IJCNN52387.2021.9534437.
    [10] WU Yue, CHEN Yinpeng, WANG Lijuan, et al. Large scale incremental learning[C]. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Long Beach, USA, 2019: 374–382. doi: 10.1109/CVPR.2019.00046.
    [11] LIU Yaoyao, SCHIELE B, and SUN Qianru. Adaptive aggregation networks for class-incremental learning[C]. 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Nashville, USA, 2021: 2544–2553. doi: 10.1109/CVPR46437.2021.00257.
    [12] CHEN Long, WANG Fei, YANG Ruijing, et al. Representation learning from noisy user-tagged data for sentiment classification[J]. International Journal of Machine Learning and Cybernetics, 2022, 13(12): 3727–3742. doi: 10.1007/s13042-022-01622-7.
    [13] ZHOU Dawei, YE Hanjia, and ZHAN Dechuan. Co-transport for class-incremental learning[C]. The 29th ACM International Conference on Multimedia, Chengdu, China, 2021: 1645–1654. doi: 10.1145/3474085.3475306.
    [14] WANG Fuyun, ZHOU Dawei, YE Hanjia, et al. FOSTER: Feature boosting and compression for class-incremental learning[C]. The 17th European Conference on Computer Vision, Tel Aviv, Israel, 2022: 398–414. doi: 10.1007/978-3-031-19806-9_23.
    [15] ZHAO Bowen, XIAO Xi, GAN Guojun, et al. Maintaining discrimination and fairness in class incremental learning[C]. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, USA, 2020: 13208–13217. doi: 10.1109/CVPR42600.2020.01322.
    [16] ZHOU Dawei, WANG Fuyun, YE Hanjia, et al. PyCIL: A python toolbox for class-incremental learning[J]. Science China Information Sciences, 2023, 66(9): 197101. doi: 10.1007/s11432-022-3600-y.
  • 加載中
圖(13) / 表(6)
計(jì)量
  • 文章訪(fǎng)問(wèn)數(shù):  426
  • HTML全文瀏覽量:  225
  • PDF下載量:  114
  • 被引次數(shù): 0
出版歷程
  • 收稿日期:  2023-10-07
  • 修回日期:  2024-05-08
  • 網(wǎng)絡(luò)出版日期:  2024-06-16
  • 刊出日期:  2024-10-30

目錄

    /

    返回文章
    返回