一级黄色片免费播放|中国黄色视频播放片|日本三级a|可以直接考播黄片影视免费一级毛片

高級搜索

留言板

尊敬的讀者、作者、審稿人, 關(guān)于本刊的投稿、審稿、編輯和出版的任何問題, 您可以本頁添加留言。我們將盡快給您答復(fù)。謝謝您的支持!

姓名
郵箱
手機(jī)號碼
標(biāo)題
留言內(nèi)容
驗(yàn)證碼

基于動(dòng)作注意策略的樹形DDQN目標(biāo)候選區(qū)域提取方法

左國玉 杜婷婷 馬蕾 盧佳豪 龔道雄

左國玉, 杜婷婷, 馬蕾, 盧佳豪, 龔道雄. 基于動(dòng)作注意策略的樹形DDQN目標(biāo)候選區(qū)域提取方法[J]. 電子與信息學(xué)報(bào), 2019, 41(3): 666-673. doi: 10.11999/JEIT180358
引用本文: 左國玉, 杜婷婷, 馬蕾, 盧佳豪, 龔道雄. 基于動(dòng)作注意策略的樹形DDQN目標(biāo)候選區(qū)域提取方法[J]. 電子與信息學(xué)報(bào), 2019, 41(3): 666-673. doi: 10.11999/JEIT180358
Guoyu ZUO, Tingting DU, Lei MA, Jiahao LU, Daoxiong Gong. Region Proposal Generation for Object Detection Using Tree-DDQN by Action Attention[J]. Journal of Electronics & Information Technology, 2019, 41(3): 666-673. doi: 10.11999/JEIT180358
Citation: Guoyu ZUO, Tingting DU, Lei MA, Jiahao LU, Daoxiong Gong. Region Proposal Generation for Object Detection Using Tree-DDQN by Action Attention[J]. Journal of Electronics & Information Technology, 2019, 41(3): 666-673. doi: 10.11999/JEIT180358

基于動(dòng)作注意策略的樹形DDQN目標(biāo)候選區(qū)域提取方法

doi: 10.11999/JEIT180358
基金項(xiàng)目: 國家自然科學(xué)基金(61873008),北京市自然科學(xué)基金(4182008),北京工業(yè)大學(xué)智能制造領(lǐng)域大科研推進(jìn)計(jì)劃
詳細(xì)信息
    作者簡介:

    左國玉:男,1971年生,副教授,研究方向?yàn)闄C(jī)器人學(xué)習(xí)與控制、人機(jī)交互

    杜婷婷:女,1991年生,碩士生,研究方向?yàn)閺?qiáng)化學(xué)習(xí)、目標(biāo)檢測

    馬蕾:女,1992年生,碩士生,研究方向?yàn)樯疃葘W(xué)習(xí)、目標(biāo)檢測

    盧佳豪:男,1994年生,碩士生,研究方向?yàn)闄C(jī)器人學(xué)習(xí)、強(qiáng)化學(xué)習(xí)

    龔道雄:男,1968年生,副教授,研究方向?yàn)槟J阶R別、計(jì)算智能

    通訊作者:

    左國玉 zuoguoyu@bjut.edu.cn

  • 中圖分類號: TP242

Region Proposal Generation for Object Detection Using Tree-DDQN by Action Attention

Funds: The National Natural Science Foundation of China (61873008), The Beijing Natural Science Foundation (4182008), The BJUT United Grand Scientific Research Program on Intelligent Manufacturing
  • 摘要:

    針對機(jī)器人在家庭環(huán)境下的目標(biāo)檢測問題,該文提出一種基于動(dòng)作注意策略的樹形雙深度Q網(wǎng)絡(luò)(TDDQN)目標(biāo)候選區(qū)域提取的方法,該方法將雙深度Q網(wǎng)絡(luò)(DDQN)的方法與樹結(jié)構(gòu)的方法相結(jié)合,通過執(zhí)行改變檢測框的動(dòng)作以使目標(biāo)逐漸集中在檢測框內(nèi)。首先采用DDQN方法在執(zhí)行較少的動(dòng)作后選擇出當(dāng)前狀態(tài)的最佳動(dòng)作,獲取符合條件的候選區(qū)域。然后根據(jù)執(zhí)行所選擇動(dòng)作之后所得到的狀態(tài)重復(fù)執(zhí)行上述過程,以此構(gòu)成樹結(jié)構(gòu)的多條“最佳”路徑。最后采用非極大值抑制的方法從多個(gè)符合條件的候選區(qū)域選擇出最佳候選區(qū)域。在Pascal VOC2007以及Pascal VOC2012上的實(shí)驗(yàn)結(jié)果表明,在不同數(shù)量的候選區(qū)域、不同閾值的IoU和不同大小以及不同種類對象的實(shí)驗(yàn)條件下,所提方法較其他方法都有著更好的檢測性能,可以較好地實(shí)現(xiàn)目標(biāo)檢測。

  • 圖  1  動(dòng)作類型

    圖  2  樹狀結(jié)構(gòu)示意圖

    圖  3  可能出現(xiàn)的檢測結(jié)果

    圖  4  樹結(jié)構(gòu)生成示意圖

    圖  5  網(wǎng)絡(luò)結(jié)構(gòu)圖

    圖  6  不同數(shù)量候選區(qū)域在不同IoU下的召回率

    圖  7  檢測物大小不同時(shí)不同檢測方法的召回率

    圖  8  不同算法的均方誤差曲線

    圖  9  可視化過程

    表  1  基于TDDQN的候選區(qū)域提取方法

     輸入 當(dāng)前狀態(tài)(候選區(qū)域,樹的根節(jié)點(diǎn))
     輸出 下一狀態(tài)(新候選區(qū)域,樹的子節(jié)點(diǎn))
     步驟1 初始化IoU的閾值$\tau $和樹的最大層次數(shù)n的值,并設(shè)樹的
    初始層次數(shù)為1;
     步驟2 根據(jù)當(dāng)前狀態(tài),分別在粗調(diào)動(dòng)作組和細(xì)調(diào)動(dòng)作組中選擇
    出經(jīng)過DDQN方法得到的預(yù)測值最高的兩個(gè)動(dòng)作;
     步驟3 執(zhí)行粗調(diào)動(dòng)作后得到的狀態(tài)作為左節(jié)點(diǎn),執(zhí)行細(xì)調(diào)動(dòng)作
    后得到的狀態(tài)作為右節(jié)點(diǎn);
     步驟4 樹的層次數(shù)加1;
     步驟5 如果當(dāng)前樹的層次數(shù)小于n,并且仍有分支沒有被截止,
    則執(zhí)行步驟6,否則執(zhí)行步驟7;
     步驟6 如果左節(jié)點(diǎn)IoU大于$\tau $,則予以截止,否則將左節(jié)點(diǎn)作為
    其所在路徑的當(dāng)前狀態(tài)并執(zhí)行步驟2;相應(yīng)地,如果右節(jié)
    點(diǎn)IoU大于$\tau $,則予以截止,否則將右節(jié)點(diǎn)作為其所在路
    徑的當(dāng)前狀態(tài)并執(zhí)行步驟2;
     步驟7 對所有葉節(jié)點(diǎn)用非極大值抑制方法選取最優(yōu)的候選區(qū)域。
    下載: 導(dǎo)出CSV

    表  2  不同方法下Pascal VOC2007數(shù)據(jù)集中各檢測對象的平均檢測精度(%)

    方法瓶子椅子桌子沙發(fā)電視機(jī)平均檢測精度均值
    RPN (vgg16)+Fast R-CNN (ResNet-101)54.360.270.884.176.278.773.071.0
    Faster R-CNN (ResNet-101)55.656.469.188.077.879.571.771.2
    DQN (vgg16)+Fast R-CNN (ResNet-101)50.454.361.880.271.173.568.965.7
    DDQN (vgg16)+Fast R-CNN (ResNet-101)52.655.261.380.571.374.069.166.3
    TRL (vgg16)+Fast R-CNN (ResNet-101)55.060.173.384.576.379.673.471.7
    TDDQN (vgg16)+Fast R-CNN (ResNet-101)55.760.274.285.377.479.673.772.3
    下載: 導(dǎo)出CSV

    表  3  不同方法下Pascal VOC2012數(shù)據(jù)集中各檢測對象的平均檢測精度(%)

    方法瓶子椅子桌子沙發(fā)電視機(jī)平均檢測精度均值
    RPN (vgg16)+Fast R-CNN (ResNet-101)50.548.657.190.079.066.165.965.3
    Faster R-CNN (ResNet-101)50.848.559.091.980.566.365.466.1
    DQN (vgg16)+Fast R-CNN (ResNet-101)49.345.750.882.873.959.963.660.9
    DDQN (vgg16)+Fast R-CNN (ResNet-101)51.547.652.382.975.261.163.862.1
    TRL (vgg16)+Fast R-CNN (ResNet-101)53.151.755.687.880.766.667.666.2
    TDDQN (vgg16)+Fast R-CNN (ResNet-101)53.451.958.788.080.966.867.966.8
    下載: 導(dǎo)出CSV

    表  4  不同數(shù)據(jù)集上檢測單張圖片消耗的平均時(shí)間(s)

    數(shù)據(jù)集TDDQN (vgg16)+Fast R-CNN (ResNet-101)TRL (vgg16)+Fast R-CNN (ResNet-101)Faster R-CNN (ResNet-101)
    VOC20070.91.60.4
    VOC20121.01.80.5
    下載: 導(dǎo)出CSV
  • TANG K, JOULIN A, LI L J, et al. Co-localization in real-world images[C]. Computer Vision and Pattern Recognition, Columbus, USA, 2014: 1464–1471.
    伍錫如, 黃國明, 孫立寧. 基于深度學(xué)習(xí)的工業(yè)分揀機(jī)器人快速視覺識別與定位算法[J]. 機(jī)器人, 2016, 38(6): 711–719. doi: 10.13973/j.cnki.robot.2016.0711

    WU Xiru, HUANG Guoming, and SUN Lining. Fast visual identification and location algorithm for industrial sorting robots based on deep learning[J]. Robot, 2016, 38(6): 711–719. doi: 10.13973/j.cnki.robot.2016.0711
    DALAL N and TRIGGS B. Histograms of oriented gradients for human detection[C]. Computer Vision and Pattern Recognition, San Diego, USA, 2005: 886–893.
    SANDE K E A V D, UIJLINGS J R R, GEVERS T, et al. Segmentation as selective search for object recognition[C]. International Conference on Computer Vision, Barcelona, Spain, 2011, 1879–1886.
    ZITNICK C L and DOLLAR P. Edge boxes: Locating object proposals from edges[C]. European Conference on Computer Vision, Zurich, Switzerland, 2014, 391–405.
    GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]. Computer Vision and Pattern Recognition, Columbus, USA, 2014, 580–587.
    GONZALEZ-GARCIA A, Vezhnevets A, and FERRARI V. An active search strategy for efficient object class detection[C]. Computer Vision and Pattern Recognition, Boston, USA, 2015, 3022–3031.
    CAICEDO J C and LAZEBNIK S. Active object localization with deep reinforcement learning[C]. International Conference on Computer Vision, Santiago, Chile, 2015, 2488–2496.
    BELLVER M, GIROINIETO X, MARQUES F, et al. Hierarchical object detection with deep reinforcement learning[OL]. http://arxiv.org/abs/1611.03718v2, 2016. doi: 10.3233/978-1-61499-822-8-164.
    JIE Zequn, LIANG Xiaodan, FENG Jiashi, et al. Tree-structured reinforcement learning for sequential object localization[C]. International Conference on Neural Information Processing Systems, Barcelona, Spain, 2016, 127–135.
    HASSELT H V. Double Q-learning[C]. International Conference on Neural Information Processing Systems, Whistler, Canada, 2010, 2613–2621.
    HASSELT H V, GUEZ A, and SILVER D. Deep reinforcement learning with double Q-learning[C]. Association for the Advancement of Artificial Intelligence, Phoenix, USA, 2016, 2094–2100.
    REN Shaoqing, HE Kaiming, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(6): 1137–1149. doi: 10.1109/TPAMI.2016.2577031
    NAJEMNIK J and GEISLER W S. Optimal eye movement strategies in visual search[J]. American Journal of Ophthalmology, 2005, 139(6): 1152–1153. doi: 10.1038/nature03390
  • 加載中
圖(9) / 表(4)
計(jì)量
  • 文章訪問數(shù):  1675
  • HTML全文瀏覽量:  833
  • PDF下載量:  60
  • 被引次數(shù): 0
出版歷程
  • 收稿日期:  2018-04-18
  • 修回日期:  2018-11-16
  • 網(wǎng)絡(luò)出版日期:  2018-12-04
  • 刊出日期:  2019-03-01

目錄

    /

    返回文章
    返回