CN111242173B - 一种基于孪生网络的rgbd显著物体检测方法 - Google Patents

一种基于孪生网络的rgbd显著物体检测方法 Download PDF

Info

Publication number
CN111242173B
CN111242173B CN201911416282.2A CN201911416282A CN111242173B CN 111242173 B CN111242173 B CN 111242173B CN 201911416282 A CN201911416282 A CN 201911416282A CN 111242173 B CN111242173 B CN 111242173B
Authority
CN
China
Prior art keywords
rgb
depth
network
decoder
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911416282.2A
Other languages
English (en)
Other versions
CN111242173A (zh
Inventor
傅可人
范登平
赵启军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN201911416282.2A priority Critical patent/CN111242173B/zh
Publication of CN111242173A publication Critical patent/CN111242173A/zh
Application granted granted Critical
Publication of CN111242173B publication Critical patent/CN111242173B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了图像处理与计算机视觉技术领域的一种基于孪生网络的RGBD显著物体检测方法,步骤包括:1,获取待检测图片的RGB图和深度图;2,将RGB图和深度图输入“孪生网络‑解码器”神经网络,输出RGBD显著性检测结果,“孪生网络‑解码器”神经网络预先经过联合训练,包括孪生网络和解码器;S2的步骤具体包括:RGB图和深度图输入孪生网络,输出孪生网络侧通路的RGB和深度层次化特征;RGB和深度层次化特征输入解码器,输出RGBD显著性检测结果。本发明采用孪生网络结合具有融合功能的解码器网络结构,将层次化特征进行特征融合后再解码,使得RGB信息和深度信息互相补充,提高检测性能,获取精细化的RGBD检测结果。

Description

一种基于孪生网络的RGBD显著物体检测方法
技术领域
本发明涉及图像处理与计算机视觉技术领域,特别涉及一种基于孪生网络的RGBD显著物体检测方法。
背景技术
显著性物体检测意图自动地检测图像或场景中人眼所关注的区域或物体,其检测结果被称为显著性图,可用于各种计算机视觉应用如目标检测与识别、图像压缩、图像检索、基于内容的图像编辑。尽管现存有许多针对RGB的显著性物体检测模型与算法(即输入图片为单张RGB彩色图像),针对RGBD——即输入为单张RGB彩色图像及其对应的场景深度(Depth)图的显著性物体检测方法则一直比较欠缺。随着深度相机如微软Kinect、英特尔RealSense、以及手机深度相机的逐渐流行,从RGBD输入中检测显著物体的需求越来越大。
目前,利用深度学习及卷积神经网络实现RGBD显著性检测的方法相对较少。Chen等人于2018年提出“Progressively complementarity-aware fusion network for rgb-dsalient object detection”,该方法采用两路并行的神经网络(两路并行的神经网络结构不一致,参数非共享)对RGB和深度信息分别提取特征再进行融合,虽然其检测效果较传统人工设计特征的方法更好,但两路并行的网络结构在增加模型参数的同时使得整个模型变得更加复杂,不易训练,并且不利于挖掘RGB图和深度图在显著性特征上的共性,因而检测效果在复杂场景下受到局限。
发明内容
针对上述问题,本发明提出一种基于孪生网络的RGBD显著物体检测方法,构建参数共享的孪生神经网络(Siamese Network)来提取RGB图和深度图的层次化特征,并采用具有融合功能的解码器,将层次化特征进行特征融合后再进行解码,使得RGB信息和深度信息互相补充,提高检测性能。
为了实现上述发明目的,本发明提供了以下技术方案:
一种基于孪生网络的RGBD显著物体检测方法,包括以下步骤:
S1,获取待检测图片的RGB图和深度图;
S2,将RGB图和深度图输入“孪生网络-解码器”神经网络,输出RGBD显著性检测结果,“孪生网络-解码器”神经网络预先经过联合训练,“孪生网络-解码器”神经网络包括孪生网络和解码器;
S2的步骤包括以下步骤:
S21,RGB图和深度图输入孪生网络,输出孪生网络侧通路的RGB和深度层次化特征;
S22,RGB和深度层次化特征输入解码器,输出RGBD显著性检测结果,解码器用于融合RGB特征和深度特征。
作为本发明的优选方案,联合训练“孪生网络-解码器”神经网络的步骤包括:
S31,获取训练图片的RGB图、深度图和相应的期望显著性图;
S32,构建“孪生网络-解码器”神经网络,并设计“孪生网络-解码器”神经网络损失函数,“孪生网络-解码器”神经网络包括孪生网络和解码器;
S33,将RGB图和深度图输入孪生网络,得到相应的RGB显著性图和深度显著性图,并且得到孪生神经网络侧通路的RGB和深度层次化特征;
S34,解码器输入RGB和深度层次化特征,得到融合的显著性图;
S35,将RGB图、深度图、期望显著性图、RGB显著性图、深度显著性图、融合的显著性图代入“孪生网络-解码器”神经网络损失函数,对“孪生网络-解码器”神经网络进行优化。
进一步的,“孪生网络-解码器”神经网络损失函数为孪生网络部分损失函数和解码器部分损失函数的加和,计算公式为:
Figure BDA0002351276190000031
其中,Irgb表示输入的RGB图,Id表示输入的深度图,G表示期望显著性图,L表示根据输入Irgb和Id以及G计算得到的总体损失函数;Sf表示解码器输出的融合的显著性图,
Figure BDA0002351276190000032
Figure BDA0002351276190000033
分别表示由孪生网络得到的相应的RGB显著性图和深度显著性图,Lf和Lc分别表示解码器部分损失函数和孪生网络部分损失函数,λ为损失函数权衡系数。
作为本发明的优选方案,解码器包括RGB和深度特征融合模块、特征聚合模块、特征压缩模块和特征融合节点,
特征压缩模块接收孪生网络侧通路输出的RGB和深度层次化特征,并输出压缩的RGB和深度层次化特征到RGB和深度特征融合模块;
RGB和深度特征融合模块接收压缩的RGB和深度层次化特征,对压缩的RGB和深度层次化特征进行特征融合,输出RGB和深度融合特征到特征融合节点;
特征融合节点将RGB和深度融合特征通过特征聚合模块进行逐像素相加操作,输出融合的显著性图。
作为本发明的优选方案,RGB和深度特征融合模块中,用于融合RGB特征和深度特征的计算公式为:
Figure BDA0002351276190000041
其中,CM表示融合操作,Xc与Xd为从孪生网络同一层次侧通路得到的RGB特征和深度特征,
Figure BDA0002351276190000042
表示逐像素相加操作,而
Figure BDA0002351276190000043
表示逐像素相乘操作。
进一步的,特征聚合模块为非线性特征聚合模块,包括5×5卷积加ReLU模块和Inception模块。
作为本发明的优选方案,孪生网络是两个并行且结构一致、参数共享的网络,每一个并行且结构一致的网络包括VGG-16结构、Resnet-50结构和Resnet-101结构。
进一步的,当每一个并行且结构一致、参数共享的网络是VGG-16结构时,孪生网络分为主网络和侧通路,主网络包含13个卷积层和6个层次,侧通路分别连接至主网络的6个层次。
进一步的,深度图通过灰度变换映射为3个通道,RGB图分为R通道、G通道和B通道。
基于本发明的相同构思,还提出了一种基于孪生网络的RGBD显著物体检测装置,包括至少一个处理器,以及与至少一个处理器通信连接的存储器;存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行上述方法中任一项的方法。
与现有技术相比,本发明的有益效果:
1、本发明提出一种基于孪生网络的RGBD显著物体检测方法,构建参数共享的孪生神经网络(Siamese Network)来提取RGB图和深度图的层次化特征,并采用具有融合功能的解码器,将层次化特征进行特征融合后再进行解码,使得RGB信息和深度信息互相补充,提高检测性能,获取精细化的RGBD检测结果。
2、此外利用孪生网络共享RGB图和深度图的模型参数,在训练时更好地挖掘RGB图和深度图在显著性特征上的共性,降低了训练时对训练数据数量的需求,网络更易收敛。
附图说明:
图1为本发明一种基于孪生网络的RGBD显著物体检测方法的流程图;
图2为本发明一种基于孪生网络的RGBD显著物体检测方法的网络结构意图;
图3为本发明实施例1中本发明提出方法和Chen等人方法(PCF)的结果对比图;
图4为本发明实施例1中本发明提出方法和Chen等人方法(PCF)的准确率-召回率曲线对比图。
具体实施方式
下面结合试验例及具体实施方式对本发明作进一步的详细描述。但不应将此理解为本发明上述主题的范围仅限于以下的实施例,凡基于本发明内容所实现的技术均属于本发明的范围。
实施例1
一种基于孪生网络的RGBD显著物体检测方法,流程图如图1所示,具体包括以下步骤:
S1:准备训练所需要的训练图片。其中,根据本发明所涉及的RGBD显著性检测任务,训练图片包括原RGB图、对应的深度图,及其对应的期望显著性图。原RGB图和深度图(Depth)作为网络输入,而期望显著性图作为对网络输出的预期,用于计算损失函数,对网络进行优化。
S2:设计孪生神经网络结构及具有融合功能的解码器,具体包括:
S2-1:设计孪生神经网络部分。孪生网络实际由两个并行并且所有参数共享、结构一致的网络实现,可以是VGG-16结构,Resnet-50结构和Resnet-101结构等。两个并行的网络分别对RGB图和深度图进行处理,并分别从中获得粗糙的显著性检测结果。实际中,孪生网络就是用同一个网络来处理不同的对象,对输入的RGB图和深度图进行并行处理后分别得到粗糙RGB显著性图和粗糙深度显著性图。
S2-2:设计具有融合功能的解码器部分。解码器对由孪生神经网络侧通路得到的相应的RGB和深度层次化特征进行利用,进行特征融合操作,融合RGB特征和深度特征的计算公式如公式(1)所示:
Figure BDA0002351276190000061
其中,CM表示融合操作,Xc与Xd为从孪生网络在同一层次侧通路得到的RGB特征和深度特征。
Figure BDA0002351276190000062
表示逐像素相加操作,而
Figure BDA0002351276190000063
表示逐像素相乘操作。由于Xc与Xd为孪生网络在同一层次得到的特征,因而其特征图大小一致,可进行逐像素
Figure BDA0002351276190000064
Figure BDA0002351276190000065
计算操作。
解码器对融合后的特征CM({Xc,Xd})进行自顶向下、由粗至精的解码,最后由解码器输出精细化的RGBD显著性检测结果。
S2-3:设计总体网络损失函数为孪生网络部分损失函数和解码器部分损失函数的加和。总体损失函数定义如公式(2)所示:
Figure BDA0002351276190000071
其中,Irgb表示输入的RGB图,Id表示输入的深度图,G表示期望显著性图,亦即真实结果,L表示根据输入Irgb和Id以及G计算得到的总体损失函数,Sf表示解码器输出的精细的显著性图,
Figure BDA0002351276190000072
Figure BDA0002351276190000073
分别表示由孪生网络得到的相应的粗糙RGB显著性图和粗糙深度显著性图,Lf和Lc分别表示解码器部分损失函数和孪生网络部分损失函数,λ为损失函数权衡系数。L、Lf和Lc的计算可采用显著性检测领域常用的交叉熵损失函数。
S3:网络的训练优化,用S1中准备的训练图片,对孪生网络部分和解码器部分进行联合训练,计算总体损失函数L并通过梯度反向传播的迭代优化方式来对网络参数进行调整,当反向迭代次数达到预设的迭代阈值时,完成联合训练。
S4:利用训练好的网络,输入RGB图像和深度图,通过网络的前向传播,从解码器获取精化的RGBD显著性检测结果作为最终结果。
实施例2
在本实施例中,孪生神经网络部分基于常见的VGG-16网络结构,取其Conv1_1~Pool5部分,分为主网络和侧通路,共包含13个卷积层,6个层次。从上到下依次为Conv1_1~1_2,Conv2_1~2_2,Conv3_1~3_3,Conv4_1~4_3,Conv5_1~5_3,Pool5。主网络输入分辨率为320×320,输出分辨率为20×20。另外还有6条侧通路(侧通路1-侧通路6),分别连接至主网络的6个层次的输出即Conv1_2,Conv2_2,Conv3_3,Conv4_3,Conv5_3,Pool5,每条侧通路由2层卷积层构成,由浅到深、从上到下的侧通路输出分辨率依次为320×320(侧通路1),160×160(侧通路2),80×80(侧通路3),40×40(侧通路4),20×20(侧通路5),20×20(侧通路6),网络结构示意图如图2所示,图中CP模块表示通道数为64的3×3卷积,用于将不同层次的特征通道数调整至64以便后续解码,孪生神经网络部分的输出为CP6后接入的单通道1×1卷积加Sigmoid激励函数。
解码器部分采用自顶向下、由粗到精的解码结构。其中,CM是RGB和深度特征融合模块,基于公式(1)的原理,对RGB和深度层次化特征进行融合。FA表示非线性特征融合模块,本实施例中为5×5卷积加ReLU,也可以替换为其他非线性特征融合模块(不改变特征通道数)如Inception模块等。图中⊕表示特征的逐像素相加运算模块,将所有输入该模块的特征进行相加后输出。图2中虚线所示为可选的上采样操作,用于将特征图上采样到该节点最大的输入尺寸再进行逐像素相加。
综上,本实施例中,整个网络包含孪生网络和解码器两大部分,孪生网络输出为RGB和深度分别对应的粗糙显著性图,解码器输出为精化后的RGBD显著性图,亦即最终结果,然后按照如下详细步骤进行处理:
根据步骤S1准备所需要的训练图片,其中训练图片包括原图、对应的深度图、对应的期望显著性图结果。
根据步骤S2及步骤S2-1、S2-2、S2-3,设计如图2所示的孪生网络部分和解码器部分,以及对应的损失函数,具体包括以下步骤:
S2-1:设计孪生网络部分,如图2所示。孪生网络换言之即用同一神经网络并行处理不同的输入数据,在本实施例中将输入RGB和深度图构成一个批次(batch),然后让孪生网络主干(基于VGG-16)并行处理这样的批次。由于RGB为R、G、B的3通道图像,而深度图一般为单通道图像,为了共享孪生网络,本实施例中将深度图通过灰度变换映射为3通道,保持与RGB图的一致性。最后,孪生网络输出为RGB图和深度图分别对应的粗糙显著性检测结果,如图2所示。
S2-2:设计具有融合功能的解码器部分,如图2所示。解码器对由孪生网络侧通路得到的相应的RGB和深度层次化特征进行利用,先对特征进行特征融合操作,由CM模块实现,之后对CM模块融合后的特征进行自顶向下、由粗至精的解码,最后由解码器输出精细化的RGBD显著性检测结果。
S2-3:设计总体网络损失函数为孪生网络部分和解码器部分的损失函数的加和。
根据步骤S3对网络进行训练优化,用S1中准备的训练图片,对孪生网络部分和解码器部分进行联合训练,计算总体损失函数L并通过梯度反向传播的迭代优化方式来对网络参数进行调整。
利用S3训练好的网络预测结果,输入RGB图像和深度图,通过网络的前向传播,从解码器获取精化的RGBD显著性检测结果作为最终结果。本实施例得到的RGBD显著性检测结果如图3、图4所示。
本文所述的一个或多个实施方案涉及计算机存储产品,所述计算机存储产品具有用于执行各种计算机实现的操作的指令或计算机代码的非暂时性计算机可读介质(也可称为非暂时性处理器可读介质)。计算机可读介质(或处理器可读介质)在其本身不包括暂时传播信号(例如,在诸如空间或电缆的传输介质上承载信息的传播电磁波)的意义上是非暂时性的。介质和计算机代码(也可称为代码或算法)可以是为特定目的而设计和构造的那些代码或算法。非暂时性计算机可读存储介质的实例包括但不限于:磁性介质,诸如硬盘、软盘和磁带;光学介质,诸如压缩盘/数字视频盘(CD/DVD)、压缩盘只读存储器(CD-ROM)和全息装置;磁光存储介质,诸如光盘;载波信号处理模块;以及专门被配置用于存储和执行程序代码的硬件装置,诸如专用集成电路(ASIC)、可编程逻辑装置(PLD)、只读存储器(ROM)以及随机存取存储器(RAM)装置。本文所述的其他实施方案涉及计算机程序产品,所述计算机程序产品可包括例如本文所公开的指令和/或计算机代码。
本文所述的一个或多个实施方案和/或方法可由软件(在硬件上执行)、硬件或其组合来执行。硬件模块可包括例如通用处理器(或微处理器或做控制器)、现场可编程门阵列(FPGA)和/或专用集成电路(ASIC)。软件模块(在硬件上执行)可用多种软件语言(例如计算机代码)表达,包括C、C++、
Figure BDA0002351276190000102
Ruby、Visual
Figure BDA0002351276190000101
和/或其他面向对象、过程或其他编程语言和开发工具。计算机代码的实例包括但不限于做代码或做指令、诸如由编译器产生的机器指令、用于产生网页服务的代码以及包含由使用解释器的计算机执行的更高级指令的文件。计算机代码的其他实例包括但不限于控制信号、加密的代码和压缩的代码。
虽然上文已经描述各种实施方案,但应了解,所述实施方案仅以举例的方式而不是以限制性的方式来呈现。虽然如上所述的方法指示某些事件以一定顺序发生,但是某些事件的排序可变化。另外,某些事件在可能的情况下可在并行过程中同时执行,以及如上所述依序执行。

Claims (6)

1.一种基于孪生网络的RGBD显著物体检测方法,其特征在于,包括以下步骤:
S1,获取待检测图片的RGB图和深度图;
S2,将所述RGB图和所述深度图输入“孪生网络-解码器”神经网络,输出RGBD显著性检测结果,所述“孪生网络-解码器”神经网络预先经过联合训练,所述“孪生网络-解码器”神经网络包括孪生网络和解码器;
S2的步骤包括以下步骤:
S21,所述RGB图和所述深度图输入所述孪生网络,输出孪生网络侧通路的RGB和深度层次化特征;所述RGB图和所述深度图构成批次输入所述孪生网络中,孪生网络主干并行处理所述批次,所述RGB图为R、G、B三通道图像,所述深度图通过灰度变换映射为三通道图像,使得所述深度图的通道数与所述RGB图的通道数保持一致;
S22,所述RGB和深度层次化特征输入所述解码器,输出RGBD显著性检测结果,所述解码器用于融合RGB特征和深度特征;
所述孪生网络是两个并行且结构一致、参数共享的网络,每一个所述并行且结构一致的网络包括VGG-16结构、Resnet-50结构或Resnet-101结构;当每一个所述并行且结构一致、参数共享的网络是VGG-16结构时,所述孪生网络分为主网络和侧通路,所述主网络包含13个卷积层和6个层次,所述侧通路分别连接至所述主网络的6个层次;
所述解码器包括6个RGB和深度特征融合模块CM1~CM6、5个特征聚合模块FA1~FA5、6个特征压缩模块CP1~CP6和5个特征融合节点AG1~AG5
所述特征压缩模块接收所述孪生网络侧通路输出的RGB和深度层次化特征,并输出压缩的RGB和深度层次化特征到所述RGB和深度特征融合模块;
所述RGB和深度特征融合模块接收所述压缩的RGB和深度层次化特征,对所述压缩的RGB和深度层次化特征进行特征融合,输出RGB和深度融合特征到所述特征融合节点;
所述特征融合节点将所述RGB和深度融合特征通过所述特征聚合模块进行逐像素相加操作,输出所述融合的显著性图;
所述RGB和深度特征融合模块中,用于融合RGB特征和深度特征的计算公式为:
Figure FDA0002877216610000011
其中,CM表示融合操作,Xc与Xd为从孪生网络同一层次侧通路得到的RGB特征和深度特征;
Figure FDA0002877216610000012
表示逐像素相加操作,而
Figure FDA0002877216610000013
表示逐像素相乘操作;
所述特征聚合模块进行逐像素相加操作,输出所述融合的显著性图具体是指:
所述特征融合节点AGi将所述特征融合模块CMi输出的融合特征与上一级特征聚合模块FAi+1输出的聚合特征进行逐像素相加操作,相加结果输出到特征聚合模块FAi,具体为:
FA5←CM5+CM6
FA4←CM4+FA5
FA3←CM3+FA4
FA2←CM2+FA3
FA1←CM1+FA2
其中“←”表述输入,特征聚合模块FA1输出结果为所述融合的显著性图。
2.如权利要求1所述的一种基于孪生网络的RGBD显著物体检测方法,其特征在于,联合训练“孪生网络-解码器”神经网络的步骤包括:
S31,获取训练图片的RGB图、深度图和相应的期望显著性图;
S32,构建“孪生网络-解码器”神经网络,并设计“孪生网络-解码器”神经网络损失函数,所述“孪生网络-解码器”神经网络包括孪生网络和解码器;
S33,将所述RGB图和所述深度图输入所述孪生网络,得到相应的RGB显著性图和深度显著性图,并且得到孪生神经网络侧通路的RGB和深度层次化特征;
S34,所述解码器输入所述RGB和深度层次化特征,得到融合的显著性图;
S35,将所述RGB图、深度图、期望显著性图、RGB显著性图、深度显著性图、融合的显著性图代入所述“孪生网络-解码器”神经网络损失函数,对所述“孪生网络-解码器”神经网络进行优化。
3.如权利要求2所述的一种基于孪生网络的RGBD显著物体检测方法,其特征在于,所述“孪生网络-解码器”神经网络损失函数为孪生网络部分损失函数和解码器部分损失函数的加和,计算公式为:
Figure FDA0002877216610000021
其中,Irgb表示输入的RGB图,Id表示输入的深度图,G表示期望显著性图,L表示根据输入Irgb和Id以及G计算得到的总体损失函数;Sf表示解码器输出的融合的显著性图,
Figure FDA0002877216610000022
Figure FDA0002877216610000023
分别表示由孪生网络得到的相应的RGB显著性图和深度显著性图,Lf和Lc分别表示解码器部分损失函数和孪生网络部分损失函数,λ为损失函数权衡系数。
4.如权利要求1所述的一种基于孪生网络的RGBD显著物体检测方法,其特征在于,所述特征聚合模块为非线性特征聚合模块,包括5×5卷积加ReLU模块和Inception模块。
5.如权利要求1所述的一种基于孪生网络的RGBD显著物体检测方法,其特征在于,所述深度图通过灰度变换映射为3个通道,所述RGB图分为R通道、G通道和B通道。
6.一种基于孪生网络的RGBD显著物体检测装置,其特征在于,包括至少一个处理器,以及与所述至少一个处理器通信连接的存储器;所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至5中任一项所述的方法。
CN201911416282.2A 2019-12-31 2019-12-31 一种基于孪生网络的rgbd显著物体检测方法 Active CN111242173B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911416282.2A CN111242173B (zh) 2019-12-31 2019-12-31 一种基于孪生网络的rgbd显著物体检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911416282.2A CN111242173B (zh) 2019-12-31 2019-12-31 一种基于孪生网络的rgbd显著物体检测方法

Publications (2)

Publication Number Publication Date
CN111242173A CN111242173A (zh) 2020-06-05
CN111242173B true CN111242173B (zh) 2021-03-02

Family

ID=70872381

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911416282.2A Active CN111242173B (zh) 2019-12-31 2019-12-31 一种基于孪生网络的rgbd显著物体检测方法

Country Status (1)

Country Link
CN (1) CN111242173B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111723822B (zh) * 2020-06-20 2022-06-14 福州大学 一种基于多层次融合的rgbd图像显著性检测方法及系统
CN112215908B (zh) * 2020-10-12 2022-12-02 国家计算机网络与信息安全管理中心 面向压缩域的视频内容比对系统、优化方法、比对方法
CN112472136B (zh) * 2020-12-09 2022-06-17 南京航空航天大学 一种基于孪生神经网络的协同分析方法
CN113112464B (zh) * 2021-03-31 2022-06-21 四川大学 基于跨模态交流编码器的rgbd显著性物体检测方法及系统
CN113592390A (zh) * 2021-07-12 2021-11-02 嘉兴恒创电力集团有限公司博创物资分公司 一种基于多传感器融合的仓储数字孪生的方法与系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180322623A1 (en) * 2017-05-08 2018-11-08 Aquifi, Inc. Systems and methods for inspection and defect detection using 3-d scanning
CN109409435A (zh) * 2018-11-01 2019-03-01 上海大学 一种基于卷积神经网络的深度感知显著性检测方法
CN109492666A (zh) * 2018-09-30 2019-03-19 北京百卓网络技术有限公司 图像识别模型训练方法、装置及存储介质
CN109903276A (zh) * 2019-02-23 2019-06-18 中国民航大学 基于多层融合的卷积神经网络rgb-d显著性检测方法
CN110059728A (zh) * 2019-03-26 2019-07-26 浙江科技学院 基于注意力模型的rgb-d图像视觉显著性检测方法
CN110175566A (zh) * 2019-05-27 2019-08-27 大连理工大学 一种基于rgbd融合网络的手部姿态估计系统及方法
CN110458178A (zh) * 2019-08-12 2019-11-15 浙江科技学院 多模态多拼接的rgb-d显著性目标检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109598268B (zh) * 2018-11-23 2021-08-17 安徽大学 一种基于单流深度网络的rgb-d显著目标检测方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180322623A1 (en) * 2017-05-08 2018-11-08 Aquifi, Inc. Systems and methods for inspection and defect detection using 3-d scanning
CN109492666A (zh) * 2018-09-30 2019-03-19 北京百卓网络技术有限公司 图像识别模型训练方法、装置及存储介质
CN109409435A (zh) * 2018-11-01 2019-03-01 上海大学 一种基于卷积神经网络的深度感知显著性检测方法
CN109903276A (zh) * 2019-02-23 2019-06-18 中国民航大学 基于多层融合的卷积神经网络rgb-d显著性检测方法
CN110059728A (zh) * 2019-03-26 2019-07-26 浙江科技学院 基于注意力模型的rgb-d图像视觉显著性检测方法
CN110175566A (zh) * 2019-05-27 2019-08-27 大连理工大学 一种基于rgbd融合网络的手部姿态估计系统及方法
CN110458178A (zh) * 2019-08-12 2019-11-15 浙江科技学院 多模态多拼接的rgb-d显著性目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
《Progressively complementarity-》;CHEN Hao,et al;《2018 IEEE/CVF Conference on Computer Vision and》;20181231;全文 *

Also Published As

Publication number Publication date
CN111242173A (zh) 2020-06-05

Similar Documents

Publication Publication Date Title
CN111242173B (zh) 一种基于孪生网络的rgbd显著物体检测方法
CN109903228B (zh) 一种基于卷积神经网络的图像超分辨率重建方法
Wang et al. Patchmatchnet: Learned multi-view patchmatch stereo
CN108986050B (zh) 一种基于多分支卷积神经网络的图像和视频增强方法
CN110363716B (zh) 一种基于条件生成对抗网络复合降质图像高质量重建方法
CN110175986B (zh) 一种基于卷积神经网络的立体图像视觉显著性检测方法
CN112149459B (zh) 一种基于交叉注意力机制的视频显著性物体检测模型及系统
JP2022548712A (ja) フィーチャーピラミッドを融合した敵対的生成ネットワークによる画像ヘイズ除去方法
CN112396645B (zh) 一种基于卷积残差学习的单目图像深度估计方法和系统
CN109859120B (zh) 基于多尺度残差网络的图像去雾方法
GB2553782A (en) Predicting depth from image data using a statistical model
CN108921783B (zh) 一种基于混合损失函数约束的卫星影像超分辨率重建方法
CN110349087B (zh) 基于适应性卷积的rgb-d图像高质量网格生成方法
CN110059728B (zh) 基于注意力模型的rgb-d图像视觉显著性检测方法
CN109005398B (zh) 一种基于卷积神经网络的立体图像视差匹配方法
CN110189260B (zh) 一种基于多尺度并行门控神经网络的图像降噪方法
CN110738609A (zh) 一种去除图像摩尔纹的方法及装置
US20220414838A1 (en) Image dehazing method and system based on cyclegan
CN111192226A (zh) 一种图像融合去噪方法及装置、系统
CN113538229B (zh) 基于特征循环融合的多帧红外图像超分辨率方法和系统
CN113393434A (zh) 一种基于非对称双流网络架构的rgb-d显著性检测方法
CN112749712B (zh) 一种基于3d卷积神经网络的rgbd显著性物体检测方法
CN117576402B (zh) 一种基于深度学习的多尺度聚合Transformer遥感图像语义分割方法
CN116863194A (zh) 一种足溃疡图像分类方法、系统、设备及介质
CN115049558A (zh) 模型训练、人脸图像处理方法及装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant