CN114359955A - 一种基于表观特征和空间约束的客体视域估计方法 - Google Patents
一种基于表观特征和空间约束的客体视域估计方法 Download PDFInfo
- Publication number
- CN114359955A CN114359955A CN202111481082.2A CN202111481082A CN114359955A CN 114359955 A CN114359955 A CN 114359955A CN 202111481082 A CN202111481082 A CN 202111481082A CN 114359955 A CN114359955 A CN 114359955A
- Authority
- CN
- China
- Prior art keywords
- image
- binocular
- field
- visual field
- feature map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明属于计算机视觉和模式识别领域,具体的涉及一种基于表观特征和空间约束的客体视域估计方法,其中客体视域估计方法包括:将包括头部图像的数据作为训练数据集;根据客体的表观特征和空间约束,构建客体视域模型,输入预处理后的训练数据集进行模型的参数训练,得到训练后的客体视域估计模型;将测试数据输入客体视域估计模型,得到客体视域估计结果。所述客体视域估计模型包括头部显著性检测网络、双目注视方向场预测网络、FRNet网络,从待识别客体的视角出发,为视域估计提供了一种新的角度,利用表观特征进行有效的客体视域提取,利用空间约束筛选视域区域,增强了对无效区域的滤除能力。
Description
技术领域
本发明属于计算机视觉和模式识别领域,具体的涉及一种基于表观特征和空间约束的客体视域估计方法。
背景技术
客体视域估计,即模式识别中识别对象具有客体性,以待识别客体为中心,根据客体的双目位置和注视方向,估计出图像区域内所有通视点的集合。在当前的视频监控领域中,客体视域估计的用途广泛和重要,如在教室的视频监控中,客体视域估计可以用来分析学生上课的注意力情况,能更加客观地评估学生的状态和教师的水平。在商场的视频监控中,客体视域估计还可以分析人群的注意力情况,能更加有效地设计广告的投放位置。在车站、机场和广场等人流密集场所的视频监控中,实时地进行客体视域估计,还能快速地发现异常行为情况等。因此对于当前的计算机视觉系统,能够在一般性场景下拥有准确的客体视域估计能力就显得尤为重要。
当前一般性场景下的客体视域估计一般采用两阶段方案,第一阶段首先是通过输入的客体人脸图像以及人脸中心位置进行注视方向的估计,第二阶段则是结合显著性模型在估计的注视方向上进行显著性热图回归以找到客体视域。尽管两阶段的方案已经较好的进行一般性场景下的客体视域估计,但是仍然存在一些问题尚待解决。两阶段模型将客体的头部图像和头部的中心位置作为模型的输入这是不符合人类进行客体视域估计的生理行为的,人类主体对客体的视域估计行为首先是进行客体的头部和人眼位置的检测,接着才是人眼视线的估计。其次上述模型直接学习从头部特征到注视方向的映射函数,他们没有将双目图像特征和头部图像特征之间的空间约束关系考虑其中,从而导致客体视线方向的估计存在一定的偏差性。最后客体的视域不一定是显著性物体,客体视域中的物体存在着尺度大小不一,显著层次不同等特性,因此第二阶段显著性热图回归生成的视域在精确性以及空间位置准确性上与真实值还存在较大差距。
发明内容
为解决以上现有技术存在的问题,本发明提出了一种基于表观特征和空间约束的客体视域估计方法,该方法包括:获取含有待估计客体的原始场景图像,将该场景图像输入到训练好的客体视域估计模型中,得到客体视域估计结果;客体视域估计模型包括头部显著性检测网络、双目注视方向场预测网络、FRNet网络;
对客体视域估计模型进行训练的过程包括:
S1:获取样本集合,根据样本集合建立场景数据集,对场景数据集中的数据进行预处理;对预处理后的场景数据集进行划分,得到训练数据集和测试数据集;获取的样本集合为包含头部图像的样本集合;
S2:将训练数据集输入到头部显著性检测网络中,根据输入图像的表观特征提取客体的显著性头部图像、客体的双目图像以及客体的双目位置坐标;
S3:采用双目注视方向场预测网络学习客体的显著性头部图像和双目图像之间的空间约束关系,根据该空间约束关系以及客体的双目位置坐标得到客体的双目注视方向场特征图;
S4:将双目注视方向场特征图通过基于通道维度相连接的方式与初始图像进行特征图拼接,将拼接后的特征图输入到FRNet网络,得到客体的视域灰度图像表征;
S5:将客体的视域灰度图像表征与原始图像的像素融合,得到客体视域估计结果;
S6:根据客体视域估计结果计算模型的损失函数;
S7:将训练集中的数据输入到模型中,不断调整模型的参数,当损失函数取值最小时完成模型的训练;将测试数据集输入到训练好的模型中用于模型的验证。
优选的,对数据集中的图像进行预处理的过程包括:对数据集中的图像进行BM3D算法去噪、直方图均衡化、双线性插值缩放、随机水平翻转、像数值归一化以及像数值标准化操作;将场景数据集通过7:3的比例随机划分成训练数据集和测试数据集。
优选的,采用头部显著性检测网络对数据进行处理的过程包括:
S21:采用单级的人脸检测网络Retinaface对训练集中的场景数据进行处理,生成场景中客体的头部图像以及客体的双目位置坐标;
S22:将头部图像输入到U2-CASNet模块中,生成显著性头部图像;
S23:基于双目位置坐标和三庭五眼几何空间关系裁剪出25×45分辨率大小的左、右眼图像,裁剪出的左、右眼图像为客体的双目图像。
进一步的,采用U2-CASNet模块对头部图像进行处理的过程包括:
S221:提取头部图像的特征图,将头部图像特征图输入到两级U型嵌套的U2-CASNet模块中,生成6个不同分辨率大小的显著性概率特征图;
S222:采用1×1卷积层和Sigmoid函数跟随的级联操作将各个显著性概率特征图进行特征融合,得到最终的显著性概率特征图;
S223:将最终的显著性概率特征图与初始的头部图像基于像素相乘操作生成显著性头部图像。
进一步的,U2-CASNet模块包含主模块和次模块,主模块由残差子块RSU-L(Cin,M,Cout)通过U型嵌套堆叠形成,该结构从浅层和深层分别捕获局部表观特征信息和不同尺度的全局表观特征信息;次模块则由6个CAM通道注意力模块并行构成,每个CAM模块并行添加到嵌套结构中每一层生成的显著性概率特征图之前,该模块通过全局平均池化和最大池化操作对每一层生成的特征图的不同通道进行注意力权重赋值,实现对该层特征图显著性表观特征的增强,使得最终生成的显著性概率特征图具有更好的全局与细节的显著特征。
优选的,采用双目注视方向场预测网络学习客体的显著性头部图像和双目图像之间的空间约束关系,根据该空间约束关系以及客体的双目位置坐标得到客体的双目注视方向场特征图的过程包括:双目注视方向场预测网络采用两阶段处理方式:在第一阶段,使用三个深度残差网络分别提取出显著性头部图像和双目图像的特征图,将对应的特征图通过赋予不同的空间约束权重后输入到三层MLP网络中,将对应的特征图映射成二维空间中的方向向量;在第二阶段,将维度为2的方向向量与初始图像大小相同的灰度图进行特征融合筛选出粗粒度的注视方向场区域,并以双目位置作为视场出发点,进行注视方向场的细粒度调整,生成最后的双目注视方向场。该方向场表征了客体视域的概率分布,并根据每幅场景图中客体双目位置的不同进行方向场的动态变换。
进一步的,方向向量在二维空间上的公式表示为:
其中,表示根据空间约束关系预测的注视方向,MLP表示三层的感知机网络,Fl和Fr分别表示左眼和右眼的细粒度方向特征,Fh表示头部的粗粒度姿态特征,和Whead分别表示双目特征和头部特征之间的空间约束权重,该空间约束权重是通过全连接层学习得到的。
进一步的,动态双目注视方向场的公式表示为:
其中Sim(P,γ)表示生成的双目视场概率图。点P表示视域中心值坐标,γ是控制视场的锥形大小,较大的γ对应孔径较小的场域。本发明的参数设置为γ=5,Sim(Pl)和Sim(Pr)分别表示左眼和右眼对应的视场概率图。β表示客体头部图像中是否存在单目的情况,当β=1时,P∈Sim(Pl),当β=0时,P∈Sim(Pr)。
优选的,采用FRNet网络对客体的双目注视方向场特征图与初始图像拼接后的图像进行处理的过程包括:
S51:将224×224像素大小的左、右目注视方向场特征图与同尺寸大小的3通道输入原图以通道维度相拼接的方式生成5通道特征图。
S52:将生成的5通道特征图输入到FcaNet网络的Stem主干中进行初次的表观特征提取,通过卷积、批量归一化以及Relu激活操作将输入特征图的分辨率下采样到原始图像的1/4,并将通道数增加到64维,即64×56×56大小的特征图。
S53:将生成的64×56×56的特征图送入到FcaNet的主体网络中进行高分辨率表观特征的学习;通过主体网络的第一阶段进行特征的提取,该阶段包含了4个线性变换FcaBlock残差模块,生成了256×56×56的特征图;将该特征图通过2,3,4阶段中的分辨率并行卷积模块和多分辨率融合模块进行不同分辨率特征之间的信息交换与融合,生成最终的4个不同分辨率大小的特征图,并将尺寸为32×56×56的特征图作为客体视域的隐式表征。
S54:将生成的32×56×56大小的特征图通过两层2D卷积进行通道的降维,变成1×56×56的特征图,最后通过Sigmoid函数将特征图中的像素值映射到[0,1],生成客体视域灰度图像表征。
优选的,将客体视域灰度图像表征映射到初始图像中的过程包括:将灰度图像表征中的像素值转换到[0,255]的区域内,采用三张灰度图像表征堆叠的方式增加相应的通道维度;通过双线性插值的方式将灰度图像表征调整到对应输入图像的尺寸;将灰度图像表征和初始图像的像素值通过8:2的比例融合得到预测结果。
优选的,模型的损失函数为:
其中,λ表示平衡双目注视方向场预测阶段和客体视域估计阶段的损失权重,Mi和分别表示含有真实视域的灰度图像表征和含有预测视域的灰度图像表征中的每个像素值,N表示灰度图像表征的像素大小56×56,d表示客体的真实注视方向,表示基于模型生成的预测注视方向。
本发明的有益效果在于:
本发明完美的借鉴了人类注视跟随的智慧,提出的客体视域估计模型改变了现有技术中需要提供头部图像和头部位置才能进行注视点估计的这一现状,并且通过对头部显著性检测网络、双目注视方向场预测网络、FRnet等网络的设计,提高了当前注视点估计的精确值,全程实现端到端的学习以及自动化预测。
附图说明
图1为本发明方法实施的总体流程框图;
图2为本发明的整体模型架构图;
图3为本发明构建的U2-CASNet模块结构示意图;
图4为本发明构建的FRNet模块结构示意图;
图5为本发明的FcaBlock模块结构图;
图6为本发明的FcaNeck模块结构图;
图7为本发明的部分实验结果图示例。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种基于表观特征和空间约束的客体视域估计方法,该方法包括:将包括头部图像的数据作为训练数据集;根据客体的表观特征和空间约束,构建客体视域模型,输入预处理后的训练数据集进行模型的参数训练,得到训练后的客体视域估计模型;将测试数据输入客体视域估计模型,得到客体视域估计结果;所述客体视域估计模型包括头部显著性检测网络、双目注视方向场预测网络、FRNet网络。
如图1和图2所示,对客体视域估计模型进行训练的过程包括:
S1:获取样本集合,根据样本集合建立场景数据集,对场景数据集中的数据进行预处理;对预处理后的场景数据集进行划分,得到训练数据集和测试数据集;获取的样本集合为包含头部图像的样本集合;
S2:将训练数据集输入到头部显著性检测网络中,根据输入图像的表观特征提取客体的显著性头部图像、客体的双目图像以及客体的双目位置坐标;
S3:采用双目注视方向场预测网络学习客体的显著性头部图像和双目图像之间的空间约束关系,根据该空间约束关系以及客体的双目位置坐标得到客体的双目注视方向场特征图;
S4:将双目注视方向场特征图通过基于通道维度相连接的方式与初始图像进行特征图拼接,将拼接后的特征图输入到FRNet网络,得到客体的视域灰度图像表征;
S5:将客体的视域灰度图像表征与原始图像的像素融合,得到客体视域估计结果;
S6:根据客体视域估计结果计算模型的损失函数;
S7:将训练集中的数据输入到模型中,不断调整模型的参数,当损失函数取值最小时完成模型的训练;将测试数据集输入到训练好的模型中用于模型的验证。
对场景数据集中的样本集合进行预处理的过程包括:
S11:运用BM3D算法去除离散噪声:该算法主要用到了非局部块匹配的思想,通过与相邻图像块进行匹配,将若干相似的块整合成一个三维矩阵,接着在三维空间中进行Collaborative filtering处理,降低该三维矩阵自身含有的噪声,再将处理后的结果反变换融合到二维,形成去噪后的图像。
S12:运用直方图均衡化进行光照调节:将原彩色图像进行空间转换,转换为HSV格式的图像,接着对该格式中的V分量即亮度通道进行直方图均衡化,最后将均衡化的图像转换成RGB彩色模型,得到光照调节后的图像
S13:双线性插值缩放:其核心思想是在图像上的两个方向上分别进行一次线性插值,以保证满足224×224尺寸大小的模型输入要求。
S14:随机水平翻转、归一化、标准化:随机的对输入图像进行水平翻转,并对标签进行翻转计算;运用归一化和标准化方法来去除图像之间存在的数据量纲和数据大小的差距,并通过中心化处理将输入图像的像素调整到[-1,1]之间,使得图像符合深度学习模型的输入。
采用头部显著性检测网络对数据进行处理的过程包括:
S21:采用单级的人脸检测网络Retinaface对训练集中的场景数据进行处理,生成场景中客体的头部图像以及客体的双目位置坐标;
S22:将头部图像输入到U2-CASNet模块中,生成显著性头部图像;
S221:提取头部图像的特征图,将头部图像特征图输入到两级U型嵌套的U2-CASNet模块中,生成6个不同分辨率大小的显著性概率特征图;
S222:采用1×1卷积层和Sigmoid函数跟随的级联操作将各个显著性概率特征图进行特征融合,得到最终显著性概率图;
S223:将最终显著性概率图与初始的头部图像基于像素相乘操作生成显著性头部图像。
S23:基于双目位置坐标和三庭五眼几何空间关系裁剪出25×45分辨率大小的左、右眼图像,裁剪出的左、右眼图像为客体的双目图像;
采用头部显著性检测网络对数据进行处理的具体过程包括:头部显著性检测网络主要作用为输入的图像中的客体生成显著性头部图像、双目图像以及客体的双目位置坐标。首先基于单级的人脸检测网络Retinaface自动从图像中找到相应客体,并生成该客体的头部图像以及双目位置坐标,接着将头部图像通过双线性插值将尺寸调整到224×224大小,然后送入到本发明提出的U2-CASNet模块中,生成显著后的头部图像,并根据双目位置坐标和三庭五眼几何空间关系裁剪出双目的特征图像,最后将显著后的头部图像、双目图像和双目位置坐标送入到双目注视场预测的阶段。U2-CASNet模块的作用:提升面部区域的特征表达,增强感兴趣的区域,同时弱化不相关的背景信息。
如同3所示,U2-CASNet模块的流程:将预处理后的头部图像的特征图Ft输入到两级嵌套的U2-CASNet模块中,该模块包括主模块和此模块两个部分,主模块由U2-Net中的残差子块RSU-L(Cin,M,Cout)通过嵌套堆叠形成。其中L代表编码器的层数,Cin,Cout表示输入和输出通道,M表示RSU内层的通道数。残差子U型块是编码器-解码器结构,该结构能够从具有任意空间分辨率的输入特征图中进行多尺度特征的抽取。从逐步下采样的特征图中提取多尺度特征,并通过逐级上采样、级联和卷积将多尺度特征编码生成高分辨率的特征图,并在U型结构的每一层输出不同分辨率大小的特征图。次模块则是将6个来自CBAM网络中的CAM模块并行添加到嵌套结构中每一层生成的特征图之后,如图3中虚线所示,该模块给生成的特征图的不同通道进行权重赋值来对通道间的重要性进行筛选,从而进行跨通道之间的信息交互。CAM模块主要是将每层生成的特征图通过全局最大池化和全局平均池化,得到两个1×1×C的特征图,接着,将它们分别送入到两层MLP中,将得到的特征进行element-wise相加最后经过Sigmoid激活操作生成最终的通道注意力特征,将该特征与原始输入特征图基于像素相乘操作得到最终的每一层的输出特征图整体结构可以概括为以下公式:
将U型结构的每一层输出的显著性概率特征图通过双线性插值的方式上采样到原始头部图像特征图的大小,接着把多个显著性概率特征图通过1×1卷积层和Sigmoid函数跟随的级联操作来融合它们,以生成最终显著性概率图,将该概率图进行通道维度的叠加生成三通道的显著性概率图Ps,将生成后的显著图PS与原始图像PG基于像素相乘操作生成最后的显著性头部图像Y。生成显著性头部图像的公式为:
其中(r,c)是像素坐标,(H,W)是图像大小,表示图像的高度和宽度,PG(r,c)和PS(r,c)分别表示真实和预测显著性概率图的像素值,α表示常数值,这个值是通过实验形成的经验值为1×102。
采用双目注视方向场预测网络学习客体的显著性头部图像和双目图像之间的空间约束关系,根据该空间约束关系以及客体的双目位置坐标得到客体的双目注视方向场特征图的过程包括:在第一阶段,使用三个深度残差网络分别提取出显著性头部图像和双目图像的特征图,将对应的特征图通过赋予不同的空间约束权重后输入到三层MLP网络中,将对应的特征图映射成二维空间中的方向向量;在第二阶段,将维度为2的方向向量与初始图像大小相同的灰度图进行特征融合筛选出粗粒度的注视方向场区域,并以双目位置作为视场出发点,进行注视方向场的细粒度调整,生成最后的双目注视方向场。该方向场表征了客体视域的概率分布,并根据每幅场景图中客体双目位置的不同进行方向场的动态变换。
具体的,双目注视方向场预测网络以显著性检测后的头部图像、双目图像和双目位置作为双目注视方向场预测的输入。本发明将显著性头部图像送入ResNet-50网络中进行特征提取,接着通过一个全连接层生成512维的粗粒度头部姿态特征,然后将双目图像分别用ResNet-18网络进行特征的提取,接着分别通过两个全连接层生成2个256维的细粒度眼睛方向特征。将提取后的粗粒度头部姿态特征与编码的细粒度眼睛方向特征进行维度拼接,接着通过MLP层生成2维注视方向表征,表示为注视方向表征的公式表示为:
其中,表示根据空间约束关系预测的注视方向,MLP表示三层的感知机网络,Fl和Fr分别表示左目和右目的细粒度方向特征,Fh表示头部的粗粒度姿态特征,和Whead分别表示双目特征和头部特征之间的空间约束权重,该空间约束权重是通过全连接层学习得到的。
与前人的工作不同,前人提出的模型仅仅通过获取头部图像和头部中心位置来获得视线方向的估计,本发明中的模型则是通过学习粗粒度的头部姿态特征和细粒度的双目方向特征之间的隐式空间约束关系来进行视线方向的预测,这样的隐式关系增强了预测视线方向的精确性。本发明还提出了动态双目注视方向场的概念(Binocular FOV),该方视场是基于双目位置作为视场出发点,然后根据预测的注视方向以及视域的空间约束关系生成两个锥形场域,该场域是一个概率灰度图。双目形成的场域根据双目位置的不同进行变化,并且两个锥形场域叠加的部分会增强该场域的概率值,表明该场域更可能包含客体视域。场域的公式表示为:
其中Sim(P,γ)表示生成的双目视场概率图。点P表示视域中心值坐标,γ是控制视场的锥形大小,较大的γ对应孔径较小的场域。本发明的参数设置为γ=5,Sim(Pl)和Sim(Pr)分别表示左眼和右眼对应的视场概率灰度图。β表示客体头部图像中是否存在单目的情况,当β=1时,P∈Sim(Pl),当β=0时,P∈Sim(Pr)。
在注视方向预测阶段需要通过对头部姿态粗粒度特征、双目注视方向细粒度特征进行空间约束的学习,因此这一阶段存在着训练的损失函数,注视方向的损失函数为:
如图4所示,采用FRNet网络对客体的视域灰度图像表征与输入到模型中的初始场景图像进行处理的过程包括:视域估计阶段将双目注视方向场预测阶段生成的视域灰度图像表征与初始预处理后的场景图像通过基于通道维度相连接的方式输入到FRNet网络中,最后输出一个包含视域结果的56×56的灰度图像表征。本发明提出了一种融合频域通道注意力的多分辨率特征融合网络FRNet。该模型对HRnet网络中各个阶段的子网的不同分辨率的特征图进行通道注意力权重分配,更明确地建立了通道之间的关系从而高效地进行通道之间的信息交互,在HRNet网络提取的高分辨率表征的基础之上,更好的提取出场景中多尺度信息,使得每个阶段生成含有更加丰富语义信息的高分辨率特征图,最终提升预测的热图在空间上的精确性。FRNet网络是基于HRNet网络进行结构设计,结构图如图4所示,共有4个stage,分别为stage1、stage2、stage3和stage4。stage1由一个分辨率为56×56的高分辨率子网构成,该高分辨率子网包含了4个含有频域率通道注意力机制的FcaNeck残差模块;stage2由2个并联的子网构成,分辨率分别为56×56和28×28;stage3由3个并联的分辨率分别为56×56、28×28和14×14的子网构成;stage4由4个并联的分辨率分别为56×56、28×28、14×14和7×7的子网构成。stage2、stage3和stage4均由包含了频域率通道注意力机制的FcaBlock模块和其他特征图模块融合组成,FcaBlock的模块数量分别为8,12,16。FcaBlock模块FcaNeck模块和如图5和图6所示,FcaBlock模块包含2个3×3的卷积、1个MSALayer模块以及一个残差连接,FcaNeck模块包含两个1×1的卷积、1个3×3的卷积、1个MSALayer模块以及一个残差连接。MSA Layer模块属于通道注意力机制,该机制是通过从频域分析的角度重新思考通道注意力,通过将更多的频率成分结合到注意力处理中,解决当前单个频率(即,GAP)的通道注意中使用信息不足的问题。其表达式为:
为了引入更多的信息,本发明中使用的MSA模块使用2D DCT的多个频率分量,包括GAP。首先,输入X沿着通道维度被分成许多部分,即表示为[X0,X1,…,Xn-1]各部分,其中i∈{0,1,…,n-1},C应能被n整除,对于每一部分,分配一个对应的2D DCT频率分量,2D DCT结果可作为通道注意的预处理结果。其表达式为:
s.t.i∈{0,1,…,n-1}
Freq=cat([Freq0,Freq1,…,Freqn-1])
ms_att=sigmoid(fc(Freq))
视域估计阶段同样需要基于表观特征的学习,因此当前阶段存在着相应的损失函数,本发明利用二进制交叉熵损失来作为视域估计的损失函数,该阶段的损失函数为:
本发明的模型总损失函数由双目注视方向场预测阶段和视域估计阶段的损失构成,其表达式为:
其中,λ表示平衡双目注视方向场预测阶段和客体视域估计阶段的损失权重,其值根据实验设置为λ=0.5。
视域灰度图像表征映射到原始图像中的过程包括:将视域灰度图像表征中的像素值转换到[0,255]的区域内,采用三张灰度图堆叠的方式增加相应的通道维度;通过双线性插值的方式将灰度图表征调整到对应输入图像的尺寸;将灰度图像表征和原图的像素值通过8:2比例融合得到预测结果,部分结果图如图7所示。
以上所举实施例,对本发明的目的、技术方案和优点进行了进一步的详细说明,所应理解的是,以上所举实施例仅为本发明的优选实施方式而已,并不用以限制本发明,凡在本发明的精神和原则之内对本发明所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于表观特征和空间约束的客体视域估计方法,其特征在于,所述方法包括:获取含有待估计客体的原始场景图像,将该场景图像输入到训练好的客体视域估计模型中,得到客体视域估计结果;客体视域估计模型包括头部显著性检测网络、双目注视方向场预测网络以及FRNet网络;
对客体视域估计模型进行训练的过程包括:
S1:获取样本集合,根据样本集合建立场景数据集,对场景数据集中的数据进行预处理;对预处理后的场景数据集进行划分,得到训练数据集和测试数据集;获取的样本集合为包含客体头部图像的样本集合;
S2:将训练数据集输入到头部显著性检测网络中,根据输入图像的表观特征提取客体的显著性头部图像、客体的双目图像以及客体的双目位置坐标;
S3:采用双目注视方向场预测网络学习客体的显著性头部图像和双目图像之间的空间约束关系,根据该空间约束关系以及客体的双目位置坐标得到客体的双目注视方向场特征图;
S4:将双目注视方向场特征图通过基于通道维度相连接的方式与初始图像进行特征图拼接,将拼接后的特征图输入到FRNet网络,得到客体的视域灰度图像表征;
S5:将客体的视域灰度图像表征与原始图像的像素融合,得到客体视域估计结果;
S6:根据客体视域估计结果计算模型的损失函数;
S7:将训练集中的数据输入到模型中,不断调整模型的参数,当损失函数取值最小时完成模型的训练;将测试数据集输入到训练好的模型中用于模型的验证。
2.根据权利要求1所述的一种基于表观特征和空间约束的客体视域估计方法,其特征在于,对数据集中的图像进行预处理的过程包括:对数据集中的图像进行BM3D算法去噪、直方图均衡化、双线性插值缩放、随机水平翻转、像数值归一化以及像数值标准化操作;将场景数据集通过7:3的比例随机划分成训练数据集和测试数据集。
3.根据权利要求1所述的一种基于表观特征和空间约束的客体视域估计方法,其特征在于,采用头部显著性检测网络对数据进行处理的过程包括:
S21:采用单级的人脸检测网络Retinaface对训练集中的场景数据进行处理,生成场景中客体的头部图像以及客体的双目位置坐标;
S22:将头部图像输入到U2-CASNet模块中,生成显著性头部图像;
S23:基于双目位置坐标和三庭五眼几何空间关系裁剪出25×45分辨率大小的左、右眼图像,裁剪出的左、右眼图像为客体的双目图像。
4.根据权利要求3所述的一种基于表观特征和空间约束的客体视域估计方法,其特征在于,采用U2-CASNet模块对头部图像进行处理的过程包括:
S221:提取头部图像的特征图,将头部图像特征图输入到两级U型嵌套的U2-CASNet模块中,生成6个不同分辨率大小的显著性概率特征图;
S222:采用1×1卷积层和Sigmoid函数跟随的级联操作将各个显著性概率特征图进行特征融合,得到最终的显著性概率特征图;
S223:将最终的显著性概率特征图与初始的头部图像基于像素相乘操作生成显著性头部图像。
5.根据权利要求4所述的一种基于表观特征和空间约束的客体视域估计方法,其特征在于,U2-CASNet模块包括主模块和次模块;主模块由残差子块RSU-L(Cin,M,Cout)通过U型嵌套堆叠形成,该结构从浅层和深层分别捕获局部表观特征信息和不同尺度的全局表观特征信息;次模块由6个CAM通道注意力模块并行构成,每个CAM模块并行添加到嵌套结构中每一层生成的显著性概率特征图之前,该模块通过全局平均池化和最大池化操作对每一层生成的特征图的不同通道进行注意力权重赋值,使得最终生成的显著性概率特征图具有更好的全局与细节的显著特征。
6.根据权利要求1所述的一种基于表观特征和空间约束的客体视域估计方法,其特征在于,采用双目注视方向场预测网络学习客体的显著性头部图像和双目图像之间的空间约束关系,根据该空间约束关系以及客体的双目位置坐标得到客体的双目注视方向场特征图的过程包括:双目注视方向场预测网络采用两阶段处理方式:在第一阶段,使用三个深度残差网络分别提取出显著性头部图像和双目图像的特征图,将对应的特征图通过赋予不同的空间约束权重后输入到三层MLP网络中,将对应的特征图映射成二维空间中的方向向量;在第二阶段,将维度为2的方向向量与初始图像大小相同的灰度图进行特征融合筛选出粗粒度的注视方向场区域,并以双目位置作为视场出发点,进行注视方向场的细粒度调整,生成最后的双目注视方向场。
8.根据权利要求1所述的一种基于表观特征和空间约束的客体视域估计方法,其特征在于,采用FRNet网络对客体的双目注视方向场特征图与初始图像拼接后的图像进行处理的过程包括:
S51:将左、右眼注视方向场特征图与同尺寸大小的3通道输入原图以通道维度相拼接的方式生成5通道特征图;
S52:将生成的5通道特征图输入到FcaNet网络的Stem主干中进行初次的表观特征提取,通过卷积、批量归一化以及Relu激活操作将输入特征图的分辨率下采样到原始图像的1/4,并将通道数增加到64维;
S53:将生成的特征图送入到FcaNet的主体网络中进行高分辨率表观特征的学习;通过主体网络的第一阶段进行特征的提取,该阶段包含了4个线性变换FcaBlock残差模块,生成了256×56×56的特征图;将该特征图通过2,3,4阶段中的分辨率并行卷积模块和多分辨率融合模块进行不同分辨率特征之间的信息交换与融合,生成最终的4个不同分辨率大小的特征图,并将尺寸为32×56×56的特征图作为客体视域的隐式表征;
S54:将生成的32×56×56大小的特征图通过两层2D卷积进行通道的降维,得到1×56×56的特征图,最后通过Sigmoid函数将特征图中的像素值映射到[0,1],生成客体视域灰度图像表征。
9.根据权利要求1所述的一种基于表观特征和空间约束的客体视域估计方法,其特征在于,将客体视域灰度图像表征映射到初始图像中的过程包括:将灰度图像表征中的像素值转换到[0,255]的区域内,采用三张灰度图像表征堆叠的方式增加相应的通道维度;通过双线性插值的方式将灰度图像表征调整到对应输入图像的尺寸;将灰度图像表征和初始图像的像素值通过8:2的比例融合得到预测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111481082.2A CN114359955A (zh) | 2021-12-06 | 2021-12-06 | 一种基于表观特征和空间约束的客体视域估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111481082.2A CN114359955A (zh) | 2021-12-06 | 2021-12-06 | 一种基于表观特征和空间约束的客体视域估计方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114359955A true CN114359955A (zh) | 2022-04-15 |
Family
ID=81097606
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111481082.2A Pending CN114359955A (zh) | 2021-12-06 | 2021-12-06 | 一种基于表观特征和空间约束的客体视域估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114359955A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115630566A (zh) * | 2022-09-28 | 2023-01-20 | 中国人民解放军国防科技大学 | 一种基于深度学习和动力约束的资料同化方法和系统 |
-
2021
- 2021-12-06 CN CN202111481082.2A patent/CN114359955A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115630566A (zh) * | 2022-09-28 | 2023-01-20 | 中国人民解放军国防科技大学 | 一种基于深度学习和动力约束的资料同化方法和系统 |
CN115630566B (zh) * | 2022-09-28 | 2024-05-07 | 中国人民解放军国防科技大学 | 一种基于深度学习和动力约束的资料同化方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107274445B (zh) | 一种图像深度估计方法和系统 | |
CN111639692A (zh) | 一种基于注意力机制的阴影检测方法 | |
CN111192201B (zh) | 一种生成人脸图像及其模型训练的方法、装置及电子设备 | |
CN114913565A (zh) | 人脸图像检测方法、模型训练方法、装置及存储介质 | |
CN110781744A (zh) | 一种基于多层次特征融合的小尺度行人检测方法 | |
Lore et al. | Generative adversarial networks for depth map estimation from RGB video | |
Gwn Lore et al. | Generative adversarial networks for depth map estimation from RGB video | |
Ma et al. | Fusioncount: Efficient crowd counting via multiscale feature fusion | |
CN114220126A (zh) | 一种目标检测系统及获取方法 | |
CN110942037A (zh) | 一种用于视频分析中的动作识别方法 | |
KR102357000B1 (ko) | 인공 신경망 기반의 비정제 동영상에서의 행동 인식 방법 및 장치 | |
CN115131218A (zh) | 图像处理方法、装置、计算机可读介质及电子设备 | |
CN116129291A (zh) | 一种面向无人机畜牧的图像目标识别方法及其装置 | |
CN113284055A (zh) | 一种图像处理的方法以及装置 | |
CN112149526A (zh) | 一种基于长距离信息融合的车道线检测方法及系统 | |
Barodi et al. | An enhanced artificial intelligence-based approach applied to vehicular traffic signs detection and road safety enhancement | |
CN114359955A (zh) | 一种基于表观特征和空间约束的客体视域估计方法 | |
CN113538704A (zh) | 一种基于光源位置绘制虚拟对象光影的方法及设备 | |
Soumya et al. | Self-organized night video enhancement for surveillance systems | |
CN113255646B (zh) | 一种实时场景文本检测方法 | |
CN112541930A (zh) | 基于级联式的图像超像素目标行人分割方法 | |
CN115690934A (zh) | 基于批量人脸识别的师生考勤打卡方法及装置 | |
CN112487996B (zh) | 基于DenseNet121网络的驾驶行为识别方法 | |
CN113269808B (zh) | 视频小目标跟踪方法和装置 | |
CN116883770A (zh) | 深度估计模型的训练方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |