CN109409435B - 一种基于卷积神经网络的深度感知显著性检测方法 - Google Patents

一种基于卷积神经网络的深度感知显著性检测方法 Download PDF

Info

Publication number
CN109409435B
CN109409435B CN201811294279.3A CN201811294279A CN109409435B CN 109409435 B CN109409435 B CN 109409435B CN 201811294279 A CN201811294279 A CN 201811294279A CN 109409435 B CN109409435 B CN 109409435B
Authority
CN
China
Prior art keywords
map
depth
saliency
network
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811294279.3A
Other languages
English (en)
Other versions
CN109409435A (zh
Inventor
刘志
丁宇
黄梦珂
张俞鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN201811294279.3A priority Critical patent/CN109409435B/zh
Publication of CN109409435A publication Critical patent/CN109409435A/zh
Application granted granted Critical
Publication of CN109409435B publication Critical patent/CN109409435B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

本发明公开了一种基于卷积神经网络的深度感知显著性检测方法,具体步骤如下:a.将深度图转化为三通道深度图;b.将三通道深度图和彩色图分别送入彩色显著性网络和深度显著性网络中,得到彩色显著性图和深度显著性图;c.将彩色显著性图和深度显著性图一起送入显著性融合网络中,得到融合显著性图;d.将彩色显著性图和深度显著性图联合训练并计算损失函数loss,以此来训练步骤b和c中的网络,让其拥有更强的特征提取能力。

Description

一种基于卷积神经网络的深度感知显著性检测方法
技术领域
本发明涉及一种图像显著性检测方法,特别是一种基于卷积神经网络的深度感知显著性检测方法,旨在通过RGB图和深度图来检测出图像中的显著性物体。
背景技术
显著性检测模仿人类视觉机制,利用计算机对图像上在人眼中最显著的物体进行检测,显著性检测算法得到的显著性图是一种灰度图,图中利用灰度值来表示图片中不同物体的显著性程度,图中越亮的区域越显著。近年来显著性检测一直是计算机视觉领域的一个重要课题,它可以在很多课题中起到应用,比如图像分类,图像分割和对象识别。随着显著性检测受到越来越多的关注,人们开始思考如何利用深度信息来辅助进行显著性检测,随着立体相机,深度相机以及微软的kinect传感器的出现,深度图被用到RGBD显著性检测中,RGBD显著性检测在3D内容监控,立体图像检索等方面有重要的应用。
现有技术中,2017年,宋等人针对RGBD图像和立体图像,提出一种深度感知显著性检测和分割框架,通过利用低级特征对比、中级特征加权因子和高级位置先验,基于多尺度区域分割计算了四类特征的各种显著性度量,利用随机森林回归器来区分显著性融合并在每个尺度上生成DSF显著性图。2017年,韩等人提出了一个基于双流法的RGBD显著性检测框架,该方法分别将彩色图像和深度图像分别送入两个VGG网络,并通过迁移学习的方式,将彩色通道的权重迁移到深度网络中,并采用多尺度融合的方式,将两种图所提取的特征进行融合得到最后的显著性图。2018年,朱等人提出基于编码器和解码器结构的RGBD显著性检测方法,该方法将提取RGB显著特征的网络部分作为主网络,深度图用子网络来提取特征,并采用简单级联的方式将两种特征融合再采用解码器结构将特征图还原为显著性图。以上这些方法虽然利用深度信息来生成显著性图,但对深度图中的信息提取不够,并且没有较好的将深度信息和彩色信息进行融合。
发明内容
本发明的目的在于提高现有技术的性能,提出一种基于卷积神经网络的深度感知显著性检测方法。其基于深度显著性网络,彩色显著性网络和显著性融合网络,利用深度信息和彩色信息能够更为准确地提取出RGBD图像中的显著性对象并将两种显著性图进行融合,并且有效地抑制无关的背景区域。
为了达到上述目的,本发明采用的技术方案如下:
一种基于卷积神经网络的深度感知显著性检测方法,具体步骤如下:
a.将深度图转化为三通道深度图;
b.将三通道深度图和彩色图分别送入彩色显著性网络和深度显著性网络中,得到彩色显著性图和深度显著性图;
c.将彩色显著性图和深度显著性图一起送入显著性融合网络中,得到融合显著性图;
d.将彩色显著性图和深度显著性图联合训练并计算损失函数loss,以此来训练步骤b和c中的网络,让其拥有更强的特征提取能力;
上述步骤(a)将深度图转化为三通道深度图,具体步骤如下:
(a-1)、将深度图像全部送入HHA算法中,将深度图转化为水平差异图,对地高度图以及表面法向量图三种单通道深度图;
(a-2)、将这三种单通道深度图的像素值用RGB三种颜色表示,再将三种单通道深度图组成三通道深度图。
上述步骤(b)中将两种图送入两种显著性网络,得到彩色显著性图和深度显著性图,具体步骤如下:
(b-1)、输入原始彩色图像
Figure BDA0001850749490000021
和三通道深度图像
Figure BDA0001850749490000022
其中N表示图像的总张数;
(b-2)、彩色图送入彩色显著性检测模型,输出得到彩色显著性图;
(b-3)、三通道深度图送入一种深度显著性网络,该网络由两部分组成,基础网络部分是由VGG16部分组成,该网络对输入图像进行了卷积和池化操作,由于深度图所包含的信息量没有彩色图像多,为了更好的适应提取深度图特征的任务,将VGG16网络中的第五层池化去掉,避免过度池化损失信息,并在第三和第四次池化后加入dropout层,避免由于数据量不够导致的网络过拟合;为了更好的提取和结合浅层语义信息和深层细节信息,采用空间多尺度金字塔结构来融合信息,具体做法是将第5层卷积层输出的特征进行上采样,并与第4层卷积层输出的结果相加,然后将相加的结果进行卷积再做上采样,并与第3层卷积层输出的结果相加,再将相加的结果进行卷积和上采样,并与第2层卷积层结果相加,并将此结果经过卷积层变为2通道后再上采样输出得到深度显著性图。
上述步骤(c)用显著性融合网络计算融合图,具体步骤如下:
(c-1)、将彩色显著性图和深度显著性图一起送入显著性融合网络中,该网络主要由3个部分组成:相乘部分,相加部分和级联部分;
(c-2)、相加部分是将深度显著性图和彩色显著性图相加,完成显著性信息的互补,因为深度图和彩色图所包含的信息是不同的,所以网络所能提取出来的特征也不同,通过相加形成信息的互补;相乘部分是将深度显著性图先经过sigmoid函数,将深度显著性图归一化到[0,1]之间,即转化为一种权重图,高显著性部分权重接近1,低显著性部分权重接近0,将权重图和彩色显著性图相乘,则起到了强化共同的显著性部分,弱化各自显著性部分的作用;
(c-3)、将相加和相乘的结果送入级联层,将两种显著性结果融合并经过卷积后得到最终的融合显著性图。
上述步骤(d)计算网络损失函数loss,具体步骤如下:
(d-1)、将彩色显著性网络,深度显著性网络和显著性融合网络进行联合训练即同时计算3个网络的loss并相加得到总的loss值,如式(1)所示,
LossA=LossD+LossC+LossF (1)
采取联合训练策略保证彩色显著性和深度显著性图都有较好的结果,这样使得彩色图和深度图都在网络中充分发挥作用,显著性融合网络的loss是为了保证在彩色显著性图和深度显著性图都有较好效果的情况下,能融合出一个好的融合显著性图,式(1)中的3个loss越小,步骤b和c中网络的特征提取能力越强;
(d-2)、三个网络的损失函数都采用相同的损失函数,如式(2)所示,
Figure BDA0001850749490000031
其中W和b代表损失函数的权重和偏差参数,Y+和Y-表示显著性对象和背景区域,β=|Y+|/Y表示显著性对象在背景中的比例,
Figure BDA0001850749490000032
表示像素属于显著性物体的概率。
与现有技术相比,本发明具有如下的优点:
1.本发明所使用的深度显著性网络相比与现有技术具有更强的特征提取能力。
2.本发明所提出的显著性融合网络能更好的将深度显著性图和彩色显著性图融合。
附图说明
图1是本发明一种基于卷积神经网络的深度感知显著性检测方法的流程图。
图2(a)是本发明步骤(a)中输入的原始深度图像。
图2(b)是本发明步骤(b)中输入的原始深度图像对应的彩色图像。
图2(c)是本发明由原始深度图像得到的HHA图。
图2(d)是本发明由HHA图组合得到的三通道深度图。
图3(a)是本发明基于彩色显著性网络得到的RGB显著性图。
图3(b)是本发明基于深度显著性网络得到的深度显著性图。
图3(c)是基于显著性融合网络得到的最终显著性图。
具体实施方式
下面结合说明书附图对本发明的实施例作进一步详细说明。
本发明进行的仿真实验是在CPU为4GHz、内存为16G,GPU为NVIDIA TITAN XP GPU的PC测试平台上编程实现,采用caffe框架来训练卷积神经网络,并调用matlab接口来测试实验结果,本网络调用已有的显著性检测模型做预训练模型并在此基础上微调,学习率设为10-8,动量为0.9,批量设为32,网络迭代14000次得到最终模型。
如图1所示,一种基于卷积神经网络的深度感知显著性检测方法,其具体步骤如下:
(a)、利用HHA算法生成三通道深度图;
(a-1)、将深度图像,如图2(a)所示,全部送入HHA算法中,如图2(b)所示,该算法是由Gupta等人提出的,该算法可以将深度图转化为水平差异图,对地高度图以及表面法向量图三种单通道深度图,如图2(c)所示;
(a-2)、将这三种单通道深度图的像素值用RGB三种颜色表示,再将三种单通道深度图组成三通道深度图,如图2(d)所示。
(b)、将两种图送入两种显著性网络,得到彩色显著性图和深度显著性图;
(b-1)、输入原始彩色图像
Figure BDA0001850749490000041
和三通道深度图像
Figure BDA0001850749490000042
如图2(a)和2(b)所示,N表示图像的总张数,
(b-2)彩色图送入彩色显著性检测模型,输出得到彩色显著性图;如图3(a)所示;
(b-3)、三通道深度图送入一种深度显著性网络,具体结构如表1所示;
表1.深度显著性网络结构,C[卷积核]-[张量维度]-[特征尺寸],DC[上采样倍数]-[张量维度]-[特征尺寸],C表示卷积,DC表示反卷积
Figure BDA0001850749490000043
该网络由两部分组成,基础网络部分是由VGG16部分组成,该网络对输入图像进行了卷积和池化操作,由于深度图所包含的信息量没有彩色图像多,为了更好的适应提取深度图特征的任务,将VGG16网络中的第五层池化去掉,避免过度池化损失信息,并在第三和第四次池化后加入dropout层,避免由于数据量不够导致的网络过拟合;为了更好的提取和结合浅层语义信息和深层细节信息,采用空间多尺度金字塔结构来融合信息,具体做法是将第5层卷积层输出的特征进行上采样,并与第4层卷积层输出的结果相加,然后将相加的结果进行卷积再做上采样,并与第3层卷积层输出的结果相加,再将相加的结果进行卷积和上采样,并与第2层卷积层结果相加,并将此结果经过卷积层变为2通道后再上采样输出得到深度显著性图,如图3(b)所示。
(c)、将两种显著性图送入显著性融合网络得到融合显著性图;
(c-1)、将彩色显著性图和深度显著性图一起送入显著性融合网络中,如图3(a)和3(b)所示,卷积部分结构如表2所示;该网络主要由3个部分组成相乘部分,相加部分和级联部分;
表2.深度融合网络结构,C[卷积核]-[张量维度]-[特征尺寸],C表示卷积
Block Layers
Conv1_f C3-64-[256,256],C3-64-[256,256],C1-2-[256,256]
Conv2_f C3-64-[256,256],C3-64-[256,256],C1-2-[256,256]
Conv3_f C3-64-[256,256],C3-64-[256,256],C1-2-[256,256]
(c-2)、相加部分是将深度显著性图和彩色显著性图相加,完成显著性信息的互补,因为深度图和彩色图所包含的信息是不同的,所以网络所能提取出来的特征也不同,通过相加形成信息的互补,再将相加特征经过Conv1_f卷积;相乘部分是将深度显著性图先经过sigmoid函数,将深度显著性图归一化到[0,1]之间,即转化为一种权重图,高显著性部分权重接近1,低显著性部分权重接近0,将权重图和彩色显著性图相乘,再将相加特征经过Conv2_f卷积,相乘起到了强化共同的显著性部分,弱化各自显著性部分的作用;
(c-3)、将相乘和相加的结果送入级联层将两种显著性结果融合并经过Conv3_f卷积后得到最终的融合显著性图,如图3(c)所示;
(d)、计算训练时的损失函数;
(d-1)、将彩色显著性网络,深度显著性网络和显著性融合网络进行联合训练即同时计算3个网络的loss并相加得到总的loss值,如式(1)所示,
LossA=LossD+LossC+LossF (1)
采取联合训练策略保证彩色显著性和深度显著性图都有较好的结果,这样使得彩色图和深度图都在网络中充分发挥作用,显著性融合网络的loss是为了保证在彩色显著性图和深度显著性图都有较好效果的情况下,能融合出一个好的融合显著性图,式(1)中的3个loss越小,步骤b和c中网络的特征提取能力越强;
(d-2)、三个网络的损失函数都采用相同的损失函数,如式(2)所示,
Figure BDA0001850749490000061
其中W和b代表损失函数的权重和偏差参数,Y+和Y-表示显著性对象和背景区域,β=|Y+|/Y表示显著性对象在背景中的比例,
Figure BDA0001850749490000062
表示像素属于显著性物体的概率。
从上述仿真实验结果可以看出,本发明一种基于卷积神经网络的深度感知显著性检测,能够更有效完整地突显两种图中显著的对象,并抑制无关的背景区域。

Claims (4)

1.一种基于卷积神经网络的深度感知显著性检测方法,其特征在于,具体步骤如下:
(a).将深度图转化为三通道深度图;
(b).将三通道深度图和彩色图分别送入彩色显著性网络和深度显著性网络中,得到彩色显著性图和深度显著性图;
(c).将彩色显著性图和深度显著性图一起送入显著性融合网络中,得到融合显著性图;
(d).将彩色显著性图和深度显著性图联合训练并计算损失函数loss,以此来训练步骤(b)和(c)中的网络,让其拥有更强的特征提取能力;
所述步骤(c)用显著性融合网络计算融合图,具体步骤如下:
(c-1)、将彩色显著性图和深度显著性图一起送入显著性融合网络中,该网络主要由3个部分组成:相乘部分,相加部分和级联部分;
(c-2)、相加部分是将深度显著性图和彩色显著性图相加,相乘部分是将深度显著性图先经过sigmoid函数,将深度显著性图归一化到[0,1]之间,即转化为一种权重图,高显著性部分权重接近1,低显著性部分权重接近0,将权重图和彩色显著性图相乘;
(c-3)、将相加和相乘的结果送入级联层,将两种显著性结果融合并经过卷积后得到最终的融合显著性图。
2.根据权利要求1所述的基于卷积神经网络的深度感知显著性检测方法,其特征在于,所述步骤(a)将深度图转化为三通道深度图,具体步骤如下:
(a-1)、将深度图像全部送入HHA算法中,将深度图转化为水平差异图,对地高度图以及表面法向量图三种单通道深度图;
(a-2)、将这三种单通道深度图的像素值用RGB三种颜色表示,再将三种单通道深度图组成三通道深度图。
3.根据权利要求1所述的基于卷积神经网络的深度感知显著性检测方法,其特征在于,所述步骤(b)中将两种图送入两种显著性网络,得到彩色显著性图和深度显著性图,具体步骤如下:
(b-1)、输入原始彩色图像
Figure FDA0003481202730000011
和三通道深度图像
Figure FDA0003481202730000012
其中N表示图像的总张数,(b-2)、彩色图送入彩色显著性检测模型,输出得到彩色显著性图;
(b-3)、三通道深度图送入一种深度显著性网络,该网络由两部分组成,基础网络部分是由VGG16部分组成,该网络对输入图像进行了卷积和池化操作,将VGG16网络中的第五层池化去掉,并在第三和第四次池化后加入dropout层,采用空间多尺度金字塔结构来融合信息,具体做法是将第5层卷积层输出的特征进行上采样,并与第4层卷积层输出的结果相加,然后将相加的结果进行卷积再做上采样,并与第3层卷积层输出的结果相加,再将相加的结果进行卷积和上采样,并与第2层卷积层结果相加,并将此结果经过卷积层变为2通道后再上采样输出得到深度显著性图。
4.根据权利要求1所述的基于卷积神经网络的深度感知显著性检测方法,其特征在于,所述步骤(d)计算网络损失函数loss,具体步骤如下:
(d-1)、将彩色显著性网络,深度显著性网络和显著性融合网络进行联合训练即同时计算3个网络的loss并相加得到总的loss值,如式(1)所示,
LossA=LossD+LossC+LossF (1)
式(1)中的3个loss越小,步骤(b)和(c)中网络的特征提取能力越强;
(d-2)、三个网络的损失函数都采用相同的损失函数,如式(2)所示,
Figure FDA0003481202730000022
其中W和b代表损失函数的权重和偏差参数,Y+和Y-表示显著性对象和背景区域,β=|Y+|/Y表示显著性对象在背景中的比例,
Figure FDA0003481202730000021
表示像素属于显著性物体的概率。
CN201811294279.3A 2018-11-01 2018-11-01 一种基于卷积神经网络的深度感知显著性检测方法 Active CN109409435B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811294279.3A CN109409435B (zh) 2018-11-01 2018-11-01 一种基于卷积神经网络的深度感知显著性检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811294279.3A CN109409435B (zh) 2018-11-01 2018-11-01 一种基于卷积神经网络的深度感知显著性检测方法

Publications (2)

Publication Number Publication Date
CN109409435A CN109409435A (zh) 2019-03-01
CN109409435B true CN109409435B (zh) 2022-07-15

Family

ID=65471172

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811294279.3A Active CN109409435B (zh) 2018-11-01 2018-11-01 一种基于卷积神经网络的深度感知显著性检测方法

Country Status (1)

Country Link
CN (1) CN109409435B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111832592B (zh) * 2019-04-20 2023-10-24 南开大学 Rgbd显著性检测方法以及相关装置
CN110111289B (zh) * 2019-04-28 2021-09-28 深圳市商汤科技有限公司 一种图像处理方法及装置
CN110246148B (zh) * 2019-05-27 2021-07-13 浙江科技学院 多模态的深度信息融合和注意力学习的显著性检测方法
CN110263813B (zh) * 2019-05-27 2020-12-01 浙江科技学院 一种基于残差网络和深度信息融合的显著性检测方法
CN110232418B (zh) * 2019-06-19 2021-12-17 达闼机器人有限公司 一种语义识别方法、终端及计算机可读存储介质
CN110223295B (zh) * 2019-06-21 2022-05-03 安徽大学 基于深度神经网络色彩感知的显著性预测方法及装置
CN110458178B (zh) * 2019-08-12 2023-09-22 浙江科技学院 多模态多拼接的rgb-d显著性目标检测方法
CN110781895B (zh) * 2019-10-10 2023-06-20 湖北工业大学 一种基于卷积神经网络的图像语义分割方法
CN110929736B (zh) * 2019-11-12 2023-05-26 浙江科技学院 多特征级联rgb-d显著性目标检测方法
CN111242173B (zh) * 2019-12-31 2021-03-02 四川大学 一种基于孪生网络的rgbd显著物体检测方法
CN111242138B (zh) * 2020-01-11 2022-04-01 杭州电子科技大学 一种基于多尺度特征融合的rgbd显著性检测方法
CN111723822B (zh) * 2020-06-20 2022-06-14 福州大学 一种基于多层次融合的rgbd图像显著性检测方法及系统
CN113298154B (zh) * 2021-05-27 2022-11-11 安徽大学 一种rgb-d图像显著目标检测方法
CN113627367B (zh) * 2021-08-16 2023-04-07 电子科技大学 一种基于多维信息聚合的立体视频显著性检测方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106157319B (zh) * 2016-07-28 2018-11-02 哈尔滨工业大学 基于卷积神经网络的区域和像素级融合的显著性检测方法
CN107274419B (zh) * 2017-07-10 2020-10-13 北京工业大学 一种基于全局先验和局部上下文的深度学习显著性检测方法
CN107886533B (zh) * 2017-10-26 2021-05-04 深圳大学 立体图像的视觉显著性检测方法、装置、设备及存储介质
CN107895345B (zh) * 2017-11-29 2020-05-26 浙江大华技术股份有限公司 一种提高人脸图像分辨率的方法和装置
CN108345892B (zh) * 2018-01-03 2022-02-22 深圳大学 一种立体图像显著性的检测方法、装置、设备及存储介质
CN108537239B (zh) * 2018-04-18 2020-11-17 西南科技大学 一种图像显著性目标检测的方法

Also Published As

Publication number Publication date
CN109409435A (zh) 2019-03-01

Similar Documents

Publication Publication Date Title
CN109409435B (zh) 一种基于卷积神经网络的深度感知显著性检测方法
CN107578418B (zh) 一种融合色彩和深度信息的室内场景轮廓检测方法
CN110992275B (zh) 一种基于生成对抗网络的细化单幅图像去雨方法
CN110175986B (zh) 一种基于卷积神经网络的立体图像视觉显著性检测方法
CN108875935B (zh) 基于生成对抗网络的自然图像目标材质视觉特征映射方法
CN110059728B (zh) 基于注意力模型的rgb-d图像视觉显著性检测方法
CN110689599B (zh) 基于非局部增强的生成对抗网络的3d视觉显著性预测方法
CN106462771A (zh) 一种3d图像的显著性检测方法
CN105303195B (zh) 一种词袋图像分类方法
CN103745468B (zh) 一种基于图结构和边界先验的显著性物体检测方法
CN111563418A (zh) 一种基于注意力机制的非对称多模态融合显著性检测方法
CN106658169A (zh) 一种基于深度学习多层次分割新闻视频的通用方法
CN110033416B (zh) 一种结合多粒度的车联网图像复原方法
CN107844795A (zh) 基于主成分分析的卷积神经网络特征提取方法
CN110210492B (zh) 一种基于深度学习的立体图像视觉显著性检测方法
CN107657619A (zh) 一种低照度林火图像分割方法
CN111242181B (zh) 基于图像语义和细节的rgb-d显著性物体检测器
CN107169954A (zh) 一种基于并行卷积神经网络的图像显著性检测方法
CN111695633A (zh) 基于rpf-cam的低照度目标检测方法
CN113554599B (zh) 一种基于人类视觉效应的视频质量评价方法
CN110969171A (zh) 基于改进卷积神经网络的图像分类模型、方法及应用
CN113449691A (zh) 一种基于非局部注意力机制的人形识别系统及方法
CN111882516B (zh) 一种基于视觉显著性和深度神经网络的图像质量评价方法
CN108388901B (zh) 基于空间-语义通道的协同显著目标检测方法
CN112668550A (zh) 基于关节点-深度联合关注rgb模态数据的双人交互行为识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant