一级黄色片免费播放|中国黄色视频播放片|日本三级a|可以直接考播黄片影视免费一级毛片

高級搜索

留言板

尊敬的讀者、作者、審稿人, 關(guān)于本刊的投稿、審稿、編輯和出版的任何問題, 您可以本頁添加留言。我們將盡快給您答復(fù)。謝謝您的支持!

姓名
郵箱
手機號碼
標(biāo)題
留言內(nèi)容
驗證碼

多級注意力特征網(wǎng)絡(luò)的小樣本學(xué)習(xí)

汪榮貴 韓夢雅 楊娟 薛麗霞 胡敏

汪榮貴, 韓夢雅, 楊娟, 薛麗霞, 胡敏. 多級注意力特征網(wǎng)絡(luò)的小樣本學(xué)習(xí)[J]. 電子與信息學(xué)報, 2020, 42(3): 772-778. doi: 10.11999/JEIT190242
引用本文: 汪榮貴, 韓夢雅, 楊娟, 薛麗霞, 胡敏. 多級注意力特征網(wǎng)絡(luò)的小樣本學(xué)習(xí)[J]. 電子與信息學(xué)報, 2020, 42(3): 772-778. doi: 10.11999/JEIT190242
Ronggui WANG, Mengya HAN, Juan YANG, Lixia XUE, Min HU. Multi-level Attention Feature Network for Few-shot Learning[J]. Journal of Electronics & Information Technology, 2020, 42(3): 772-778. doi: 10.11999/JEIT190242
Citation: Ronggui WANG, Mengya HAN, Juan YANG, Lixia XUE, Min HU. Multi-level Attention Feature Network for Few-shot Learning[J]. Journal of Electronics & Information Technology, 2020, 42(3): 772-778. doi: 10.11999/JEIT190242

多級注意力特征網(wǎng)絡(luò)的小樣本學(xué)習(xí)

doi: 10.11999/JEIT190242
基金項目: 國家自然科學(xué)基金(61672202),國家自然科學(xué)基金-深圳聯(lián)合基金(U1613217)
詳細信息
    作者簡介:

    汪榮貴:男,1966年生,教授,研究方向為智能視頻處理與分析、視頻大數(shù)據(jù)與云計算等

    韓夢雅:女,1996年生,碩士生,研究方向為深度學(xué)習(xí)、計算機視覺等

    楊娟:女,1983年生,講師,研究方向為視頻信息處理、視頻大數(shù)據(jù)處理技術(shù)等

    薛麗霞:女,1976年生,副教授,研究方向為視頻大數(shù)據(jù)檢索與分析

    胡敏:女,1967年生,教授,研究方向為計算機視覺、數(shù)字圖像處理等

    通訊作者:

    楊娟 yangjuan@hfut.edu.cn

  • 中圖分類號: TN911.73;?TP391.41

Multi-level Attention Feature Network for Few-shot Learning

Funds: The National Natural Science Foundation of China (61672202), The State Key Program of National Natural Science Foundation of China-Shenzhen Joint Foundation (U1613217)
  • 摘要:

    針對目前基于度量學(xué)習(xí)的小樣本方法存在特征提取尺度單一,類特征學(xué)習(xí)不準(zhǔn)確,相似性計算依賴標(biāo)準(zhǔn)度量等問題,該文提出多級注意力特征網(wǎng)絡(luò)。首先對圖像進行尺度處理獲得多個尺度圖像;其次通過圖像級注意力機制融合所提取的多個尺度圖像特征獲取圖像級注意力特征;在此基礎(chǔ)上使用類級注意機制學(xué)習(xí)每個類的類級注意力特征。最后通過網(wǎng)絡(luò)計算樣本特征與每個類的類級注意力特征的相似性分數(shù)來預(yù)測分類。該文在Omniglot和MiniImageNet兩個數(shù)據(jù)集上驗證多級注意力特征網(wǎng)絡(luò)的有效性。實驗結(jié)果表明,相比于單一尺度圖像特征和均值類原型,多級注意力特征網(wǎng)絡(luò)進一步提高了小樣本條件下的分類準(zhǔn)確率。

  • 圖  1  5-shot 分類網(wǎng)絡(luò)結(jié)構(gòu)圖

    圖  2  特征模塊

    圖  3  類別不平衡條件下的小樣本分類網(wǎng)絡(luò)結(jié)構(gòu)圖

    圖  4  one-shot 分類網(wǎng)絡(luò)結(jié)構(gòu)圖

    表  1  不同尺度圖像的特征提取網(wǎng)絡(luò)分支結(jié)構(gòu)

    網(wǎng)絡(luò)名分支1分支2分支3
    結(jié)構(gòu)$\left[ \begin{array}{l} {\rm C}:3 \times 3,64 \\ {\rm MP}:2 \times 2 \\ \end{array} \right]$$\left[ \begin{array}{l} {\rm C}:3 \times 3,64 \\ {\rm MP}:2 \times 2 \\ \end{array} \right]$$\left[ {{\rm C}:3 \times 3,64} \right]$
    $\left[ \begin{array}{l} {\rm C}:3 \times 3,64 \\ {\rm MP}:2 \times 2 \\ \end{array} \right]$$\left[ {{\rm C}:3 \times 3,64} \right]$$\left[ {{\rm C}:3 \times 3,64} \right]$
    $\left[ {{\rm C}:3 \times 3,64} \right]$$\left[ {{\rm C}:3 \times 3,64} \right]$$\left[ {{\rm C}:3 \times 3,64} \right]$
    $\left[ {{\rm C}:3 \times 3,64} \right]$$\left[ {{\rm C}:3 \times 3,64} \right]$$\left[ {{\rm C}:3 \times 3,64} \right]$
    下載: 導(dǎo)出CSV

    表  2  Omniglot數(shù)據(jù)集上的小樣本分類準(zhǔn)確率(%)

    方法微調(diào)5-way 分類準(zhǔn)確率20-way 分類準(zhǔn)確率
    1-shot5-shot1-shot5-shot
    MANN82.894.9
    MATCHING NETS97.998.793.598.7
    PROTOTYPICAL NETS98.899.796.098.9
    MAML98.7±0.499.9±0.195.8±0.398.9±0.2
    RELATION NET99.6±0.299.8±0.197.6±0.299.1±0.1
    本文方法99.699.797.899.2
    下載: 導(dǎo)出CSV

    表  3  MiniIamgenet數(shù)據(jù)集上的小樣本分類準(zhǔn)確率(%)

    方法微調(diào)5-way分類準(zhǔn)確率
    1-shot5-shot
    MATCHING NETS43.56±0.8453.11±0.73
    META-LEARN LSTM43.44±0.7760.60±0.71
    MAML48.70±1.8463.11±0.92
    PROTOTYPICAL NETS49.42±0.7868.20±0.66
    RELATION NETS50.44±0.8265.32±0.70
    本文方法53.18±0.8066.72±0.71
    本文方法(L2正則化)54.56±0.8167.39±0.68
    下載: 導(dǎo)出CSV

    表  4  MiniImageNet數(shù)據(jù)集上類特征方法的對比(%)

    類特征5-way 5-shot 分類準(zhǔn)確率
    本文方法(均值類原型)65.80±0.65
    本文方法(求和)65.56±0.66
    本文方法(類級注意力特征)66.43±0.68
    下載: 導(dǎo)出CSV

    表  5  MiniImageNet數(shù)據(jù)集上圖像特征方法的對比(%)

    圖像特征5-way 分類準(zhǔn)確率
    1-shot5-shot
    本文方法(單尺度特征)52.20±0.8266.43±0.68
    本文方法(兩尺度特征)53.93±0.7966.89±0.71
    本文方法(圖像級注意力特征)54.56±0.8167.39±0.68
    下載: 導(dǎo)出CSV

    表  6  MiniImageNet數(shù)據(jù)集上多尺度方式對比(%)

    多尺度方法5-way 分類準(zhǔn)確率
    1-shot5-shot
    特征金字塔網(wǎng)絡(luò)53.42±0.7666.50±0.69
    不同卷積核53.27±0.8366.29±0.66
    本文方法54.56±0.8167.39±0.68
    下載: 導(dǎo)出CSV

    表  7  MiniImageNet數(shù)據(jù)集上相似性度量方法的對比(%)

    度量方式5-way 分類準(zhǔn)確率
    1-shot5-shot
    本文方法(歐氏距離)48.43±0.7863.52±0.71
    本文方法(余弦相似度)46.54±0.8260.50±0.70
    本文方法(網(wǎng)絡(luò)計算)54.56±0.8167.39±0.68
    下載: 導(dǎo)出CSV
  • GIRSHICK R. Fast R-CNN[C]. 2015 IEEE International Conference on Computer Vision, Santiago, Chile, 2015: 1440–1448. doi: 10.1109/ICCV.2015.169.
    HUANG Gao, LIU Zhuang, VAN DER MAATEN L, et al. Densely connected convolutional networks[C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 2261–2269. doi: 10.1109/CVPR.2017.243.
    HE Di, XIA Yingce, QIN Tao, et al. Dual learning for machine translation[C]. The 30th Conference on Neural Information Processing Systems, Barcelona, Spain, 2016: 820–828.
    LI Feifei, FERGUS R, and PERONA P. One-shot learning of object categories[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2006, 28(4): 594–611. doi: 10.1109/TPAMI.2006.79
    MEHROTRA A and DUKKIPATI A. Generative adversarial residual pairwise networks for one shot learning[EB/OL]. https://arxiv.org/abs/1703.08033, 2017.
    DIXIT M, KWITT R, NIETHAMMER M, et al. AGA: Attribute-guided augmentation[C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 7455–7463. doi: 10.1109/CVPR.2017.355.
    HARIHARAN B and GIRSHICK R. Low-shot visual recognition by shrinking and hallucinating features[C]. 2017 IEEE International Conference on Computer Vision, Venice, Italy, 2017: 3037–3046. doi: 10.1109/iccv.2017.328.
    FINN C, ABBEEL P, and LEVINE S. Model-agnostic meta-learning for fast adaptation of deep networks[C]. The 34th International Conference on Machine Learning, Sydney, Australia, 2017: 1126–1135.
    RAVI S and LAROCHELLE H. Optimization as a model for few-shot learning[EB/OL]. https://openreview.net/forum?id=rJY0-Kcll, 2017.
    SANTORO A, BARTUNOV S, BOTVINICK M, et al. Meta-learning with memory-augmented neural networks[C]. The 33rd International Conference on Machine Learning, New York, USA, 2016: 1842–1850.
    KOCH G. Siamese neural networks for one-shot image recognition[EB/OL]. http://www.cs.utoronto.ca/~gkoch/files/msc-thesis.pdf, 2015.
    VINYALS O, BLUNDELL C, LILLICRAP T, et al. Matching networks for one shot learning[C]. The 30th Conference on Neural Information Processing Systems, Barcelona, Spain, 2016: 3630–3638.
    SNELL J, SWERSKY K, and ZEMEL R. Prototypical networks for few-shot learning[C]. The 31st Conference on Neural Information Processing Systems, Long Beach, USA, 2017: 4080–4090.
    SUNG F, YANG Yongxin, ZHANG Li, et al. Learning to compare: Relation network for few-shot learning[C]. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 1199–1208. doi: 10.1109/cvpr.2018.00131.
    WANG Peng, LIU Lingqiao, and SHEN Chunhua. Multi-attention network for one shot learning[C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 6212–6220. doi: 10.1109/CVPR.2017.658.
    HILLIARD N, HODAS N O, and CORLEY C D. Dynamic input structure and network assembly for few-shot learning[EB/OL]. https://arxiv.org/abs/1708.06819v1, 2017.
  • 加載中
圖(4) / 表(7)
計量
  • 文章訪問數(shù):  6577
  • HTML全文瀏覽量:  2384
  • PDF下載量:  309
  • 被引次數(shù): 0
出版歷程
  • 收稿日期:  2019-04-11
  • 修回日期:  2019-09-05
  • 網(wǎng)絡(luò)出版日期:  2019-09-17
  • 刊出日期:  2020-03-19

目錄

    /

    返回文章
    返回