CN115797655B - 一种人物交互检测模型、方法、系统及装置 - Google Patents
一种人物交互检测模型、方法、系统及装置 Download PDFInfo
- Publication number
- CN115797655B CN115797655B CN202211601267.7A CN202211601267A CN115797655B CN 115797655 B CN115797655 B CN 115797655B CN 202211601267 A CN202211601267 A CN 202211601267A CN 115797655 B CN115797655 B CN 115797655B
- Authority
- CN
- China
- Prior art keywords
- features
- interaction
- representing
- module
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 232
- 238000001514 detection method Methods 0.000 title claims abstract description 99
- 238000000034 method Methods 0.000 title claims description 14
- 230000000007 visual effect Effects 0.000 claims abstract description 88
- 230000004927 fusion Effects 0.000 claims abstract description 71
- 230000002452 interceptive effect Effects 0.000 claims abstract description 63
- 238000005065 mining Methods 0.000 claims abstract description 13
- 239000013598 vector Substances 0.000 claims description 36
- 238000004364 calculation method Methods 0.000 claims description 35
- 238000011176 pooling Methods 0.000 claims description 32
- 238000012512 characterization method Methods 0.000 claims description 6
- 238000005520 cutting process Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 230000002708 enhancing effect Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000013140 knowledge distillation Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种人物交互检测模型、方法、系统及装置,属于计算机技术领域。针对现有技术在HOI领域进行人物交互检测时存在模态融合粗糙、模态之间差异较大等问题,本发明提供了一种人物交互检测模型、方法、系统及装置,通过重挖掘视觉模块、语言知识生成模块及交互模态学习模块,实现人物模态之间的对齐,生成细粒度的多模态特征,利用文本特征监督视觉特征学习,提升人物交互检测精度;同时,在推理阶段,语言知识生成模块和交互模态学习模块不需要再参与,减少推理时间,进一步提高检测效率。
Description
技术领域
本发明涉及计算机技术领域,更具体地说,涉及一种人物交互检测模型、方法、系统及装置。
背景技术
人物交互(human object interraction,HOI)检测旨在解决人和物的交互关系问题,不同于常见的目标检测、动作识别等任务,人物交互检测需要更高层次的视觉理解。HOI检测要求模型明确地定位图像中人和物体的位置,同时正确预测其交互行为。HOI检测不仅需要定位到人的位置、物的位置,还需要捕获复杂的人与物体的相互作用,如“人踢球”、“人开车”等。
通过研究HOI检测来模拟人类认识周围世界的方式,可以促进服务型机器人等技术的研究。同时,识别图像蕴含的人物交互行为,是实现自动理解图像主题、自动描述图像主要内容的关键。现有技术中,一些方法通过视觉和语言预训练或者语言知识注入来激发HOI图像和文本对应的多模态模型,但大多数方法模态融合粗糙,忽视了不同模态之间的异质性差异,缺乏跨模态建模或单模态学习来缩小模态间差异和挖掘语义相关性,并且没有充分挖掘文本模态对HOI检测的能力。
发明内容
1.要解决的技术问题
针对现有技术中在HOI检测人物时存在模态融合粗糙、模态之间差异较大等问题,本发明提供了一种人物交互检测模型、方法、系统及装置,它可以实现人物模态之间的对齐,生成细粒度的多模态特征,通过文本特征监督视觉特征学习,提升人物交互检测精度。
2.技术方案
本发明的目的通过以下技术方案实现。
一种人物交互检测模型,包括:
重挖掘视觉模块,包括主干网络、视觉实例检测模块、交互关系模块和池化层;输入图像到主干网络中,主干网络对图像处理后得到特征图,输出特征图到视觉实例检测模块、交互关系模块及池化层中;视觉实例检测模块获取特征图的空间特征,交互关系模块获取特征图的交互特征,池化层通过池化操作获取特征图的全局特征;将空间特征、交互特征和全局特征融合后得到融合特征,输出融合特征到交互解码器中得到解码后的融合特征;
语言知识生成模块,将文本标签映射为tokens,所述tokens通过Token编码器处理得到文本特征;所述文本特征包括类别特征和可变长词嵌入特征;
交互模态学习模块,包括自注意力模块和交叉模态对齐模块,所述自注意力模块通过计算解码后的融合特征得到视觉特征,所述交叉模态对齐模块通过计算视觉特征和可变长词嵌入特征得到交叉注意力。
进一步地,所述视觉实例检测模块采用DETR结构,获取特征图的实例特征、实例位置及实例类别,通过实例类别获取人物交互对,人物交互对中的实例特征组合成所述空间特征,通过实例位置获取交互位置信息,通过实例类别获取交互类别信息;
所述空间特征表示为:Sv∈RN×Dv,所述交互位置信息表示为:Bv∈RN×4,所述交互类别信息表示为:Cv∈RN×Nc,
其中,Sv表示空间特征,Bv表示交互位置信息,Cv表示交互类别信息,R表示实数,N表示人物交互对的数量,Dv表示空间特征的向量维度,Nc表示实例类别数量。
进一步地,所述交互关系模块中,特征图通过交互关系编码器处理得到特征增强图,特征增强图与所述视觉实例检测模块中的交互位置信息结合,通过感兴趣区域裁剪操作,在特征增强图上得到与人物交互对对应的局部区域特征,局部区域特征为所述交互特征,所述交互特征的计算公式为:
其中,MV表示交互特征,FC表示全连接层,GAP表示全局平均池化,ROIP表示感兴趣区域裁剪操作,Hv表示交互关系模块的输出,表示交互特征的维度。
进一步地,所述文本标签由所述视觉实例检测模块中获得的人物交互对对应的类别生成;所述类别特征用于表征文本含义,所述可变长词嵌入特征用于表征文本中词的含义;所述类别特征、可变长词嵌入特征的计算公式为:
其中,Ec表示类别特征,Ew表示可变长词嵌入特征,FTE表示Token编码器,Zl表示文本标签对应的tokens。
进一步地,所述自注意力模块用于增强解码后的融合特征的表征能力,自注意力模块的计算公式为:
其中,Q表示transformer结构中的查询向量,K表示transformer结构中的键向量,V表示transformer结构中的值向量,Dk表示K的维度,QKT表示查询向量与键向量转置的内积;
所述自注意力模块通过计算解码后的融合特征得到视觉特征,所述视觉特征的计算公式为:
Ovs=ATTN(Ov,Ov,Ov)
其中,Ovs表示视觉特征,Ov表示解码后的融合特征;
通过交叉模态对齐模块,计算视觉特征和可变长词嵌入特征得到交叉注意力,所述交叉注意力将文本特征融合到视觉特征中,用于增强视觉特征的表征能力;
所述交叉注意力的计算公式为:
其中,表示交叉注意力。
进一步地,通过交叉模态对齐损失及类别损失计算多模态损失,所述多模态损失的计算公式为:
其中,Lm表示多模态损失,La表示交叉模态对齐损失,Lc表示类别损失,FFN(Ov)表示前馈网络,DL1表示L1损失,L1表示计算绝对平均误差,所述DL1的计算公式为:
其中,Eho表示人物交互对对应的文本标签的类别特征,Fho表示人物交互对的融合特征,M表示Fho的向量长度,i表示向量元素。
进一步地,所述解码后的融合特征通过全连接层输出HOI预测的交互类别,通过focal loss计算交互损失,所述交互损失的计算公式为:
Lhoi=Focal(sigmoind(P),GT)
Focal(p)=-(1-p)γlog(p)
其中,Lhoi表示交互损失,GT表示人物交互对的真实标签,P表示交互对的预测结果,Focal(p)表示focal loss的计算,γ为超参数。
一种基于所述的人物交互检测模型的方法,步骤如下:
训练阶段:
采用预训练的DETR模型获取特征图中的实例特征、实例位置及实例类别,通过实例类别获取人物交互对,人物交互对中的实例特征组合成空间特征,通过实例位置获取交互位置信息,通过实例类别获取交互类别信息;
对主干网络输出的特征图通过交互关系编码器得到特征增强图,特征增强图与视觉实例检测模块中的交互位置信息结合,通过感兴趣区域裁剪操作,在特征增强图上得到与人物交互对对应的局部区域特征,即交互特征;
池化层通过池化操作获取特征图的全局特征;
将空间特征、交互特征和全局特征融合后得到融合特征,输出融合特征到交互解码器中得到解码后的融合特征;
通过视觉实例检测模块中获得的人物交互对对应的类别生成文本标签,将文本标签映射为tokens,所述tokens通过Token编码器处理得到文本特征;所述文本特征包括类别特征和可变长词嵌入特征;
通过交叉模态对齐损失与类别损失计算多模态损失;
解码后的融合特征通过自注意力模块得到视觉特征,输入视觉特征与可变长词嵌入特征到交叉模态对齐模块中融合得到交叉注意力;
解码后的融合特征通过全连接层输出HOI预测的交互类别,通过focal loss计算交互损失;
推理阶段:
采用预训练的DETR模型获取特征图中的实例特征、实例位置及实例类别,通过实例类别获取人物交互对,人物交互对中的实例特征组合成空间特征,通过实例位置获取交互位置信息,通过实例类别获取交互类别信息;
对主干网络输出的特征图通过交互关系编码器得到特征增强图,特征增强图与视觉实例检测模块中的交互位置信息结合,通过感兴趣区域裁剪操作,在特征增强图上得到与人物交互对对应的局部区域特征,即交互特征;
池化层通过池化操作获取特征图的全局特征;
将空间特征、交互特征和全局特征融合后得到融合特征,输出融合特征到交互解码器中得到解码后的融合特征;
解码后的融合特征通过全连接层输出HOI预测的交互类别。
一种人物交互检测系统,其采用所述的基于人物交互检测模型及方法对输入的图像进行人物交互检测;所述人物交互检测系统包括:
输入模块,输入图像;
重挖掘视觉模块,图像通过主干网络处理得到特征图,所述特征图输出到视觉实例检测模块获取特征图的空间特征,所述特征图输出到交互关系模块获取特征图的交互特征,通过池化操作获取特征图的全局特征;将空间特征、交互特征和全局特征融合后得到融合特征,输出融合特征到交互解码器中得到解码后的融合特征;
语言知识生成模块,通过视觉实例检测模块中获得的人物交互对对应的类别生成文本标签,将文本标签映射为tokens,所述tokens通过Token编码器处理得到文本特征;所述文本特征包括类别特征和可变长词嵌入特征;
交互模态学习模块,包括自注意力模块和交叉模态对齐模块,所述自注意力模块通过计算解码后的融合特征得到视觉特征,所述交叉模态对齐模块通过计算视觉特征和可变长词嵌入特征得到交叉注意力;
输出模块,输出预测结果。
一种人物交互检测装置,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现所述的基于人物交互检测方法的步骤。
3.有益效果
相比于现有技术,本发明的优点在于:
本发明的一种人物交互检测模型、方法、系统及装置,通过重挖掘视觉模块、语言知识生成模块及交互模态学习模块,增强了模态之间的关联特征,实现了细粒度的模态之间的特征对齐,并且采用知识蒸馏的方式,通过文本特征监督视觉特征学习;同时,在HOI人物交互检测的推理阶段,语言知识生成模块和交互模态学习模块不再参与计算,不会增加额外的推理时间,缩小了视觉特征和文本特征之间的异质性差距,进一步提升了人物交互检测的精度。
附图说明
图1为本发明的网络结构框架图。
具体实施方式
下面结合说明书附图和具体的实施例,对本发明作详细描述。
实施例
如图1所示,本实施例提供的一种人物交互检测模型,包括重挖掘视觉模块、语言知识生成模块和交互模态学习模块。
具体到本实施例中,输入图像到所述重挖掘视觉模块中,输入的图像的维度为H×W×3,其中,H表示图像的长度,W表示图像的宽度,3表示图像的通道数。重挖掘视觉模块中的主干网络将图像的长度缩小32倍、宽度缩小32倍、通道数增加到2048维,得到特征图,所述特征图的维度为H/32×W/32×2048维。进而通过一个1×1维的卷积层,将特征图的维度下采样至H/32×W/32×512维。由此,通过主干网络处理后可以更好地识别图像的特征。本实施例中,所述主干网络可以选择resnet50、resnet101或其他网络等。
具体地,在所述重挖掘视觉模块中还包括视觉实例检测模块、交互关系模块和池化层(Pooling),分别输出特征图到所述视觉实例检测模块、交互关系模块和池化层中。
所述视觉实例检测模块采用DETR结构,获取特征图的实例特征、实例位置及实例类别,通过实例类别获得所有的人物交互对,通过实例标签对人物交互对进行组合从而得到组合对实例,检测组合对实例的分数,将组合对实例的检测分数相乘用于表示组合对的分数,选择组合对分数大于阈值的组合对作为人物交互对。在每组交互对中,人物交互对中的实例特征组合成空间特征,由实例位置取并集得到交互位置信息,由实例类别得到交互类别信息。
所述空间特征表示为:Sv∈RN×Dv,所述交互位置信息表示为:Bv∈RN×4,所述交互类别信息表示为:Cv∈RN×Nc,
其中,Sv表示空间特征,Bv表示交互位置信息,Cv表示交互类别信息,R表示实数,N表示人物交互对的数量,Dv表示空间特征的向量维度,Nc表示实例类别数量。本实施例中,空间特征的向量维度Dv为N×512维,实例类别数量Nc为80类。
进一步地,通过交互位置信息可以在主干网络输出的特征图H/32×W/32×512维度上通过裁剪操作得到对应的人物交互区域。
所述交互关系模块中包括交互关系编码器,特征图通过交互关系编码器处理得到特征增强图,特征增强图与所述视觉实例检测模块中人物交互对的交互位置信息结合,通过感兴趣区域裁剪操作,在特征增强图上得到与HOI人物交互对对应的局部区域特征,所述局部区域特征为交互特征,所述交互特征的计算公式为:
其中,MV表示交互特征,FC表示全连接层,GAP表示全局平均池化,ROIP表示感兴趣区域裁剪操作,HV表示交互关系模块的输出,表示交互特征的维度。
在所述交互关系模块中,特征增强图的维度为H×W×512维,通过裁剪操作,得到N×h×w×512维的特征,其中,N表示人物交互对数量,h表示裁剪后特征增强图的长度,w表示裁剪后特征增强图的宽度,通过全局平均池化操作,得到交互特征的向量维度为N×512维。
需要说明的是,本实施例所述交互关系模块采用的是标准的transformer结构。
所述池化层中,特征图通过全局池化操作,获取特征图的全局信息,此时,特征图的维度为1×1×2048维,通过对齐降维操作,得到特征图的向量维度为1×512维。
由此,通过重挖掘视觉模块,获得空间特征的向量维度为N×512维、交互特征的向量维度为N×512维以及全局特征的向量维度1×512维,将获得的三组特征向量通过cat方式融合后得到融合特征,将所述融合特征输出到交互解码器中解码。具体地,将全局特征的向量维度扩展为N×512维后,将三组特征向量在第一维度按顺序堆叠得到融合特征,由此,融合特征的向量维度为N×1536维,输出融合特征到交互解码器中得到解码后的融合特征。
所述语言知识生成模块由视觉实例检测模块中获得的人物交互对对应的类别生成文本标签。如图1所示,输入的图像中包含了三种人物交互组合,分别为人读书(humanread book)、人看书(human look book)以及人坐在长凳上(human sit on couch)。将文本标签通过tokenizer生成对应的tokens,每个词对应一个token,Token编码器将tokens编码为对应的文本特征,该文本特征包括类别特征和可变长词嵌入特征。所述类别特征用于表征文本含义,所述可变长词嵌入特征用于表征文本中词的含义;本实施例中,所述Token编码器为自然语言处理模型,如bert、mobilebert等。所述类别特征及可变长词嵌入特征的计算公式为:
其中,Ec表示类别特征,Ew表示可变长词嵌入特征,FTE表示Token编码器,Zl表示文本标签对应的tokens。
本实施例中,类别特征Ec的向量维度为1×512维,可变长词嵌入特征Ew的向量维度为Nw×512维,其中,Nw表示对应文本标签中的词的数量。
所述交互模态学习模块包括自注意力模块和交互模态对齐模块。所述自注意力模块用于增强经交互解码器解码后的融合特征,自注意力模块的计算公式为:
其中,Q表示transformer结构中的查询(query)向量,K表示transformer结构中的键(key)向量,V表示transformer结构中的值(value)向量,Dk表示K的维度,QKT表示查询(query)向量与键(key)向量转置的内积。
由此,本实施例提供的一种人物交互检测模型,通过重挖掘视觉模块、语言知识生成模块及交互模态学习模块,增强了各个模块之间的关联特征,从而可以实现细粒度的模态之间的特征对齐。
进而,通过自注意力模块计算解码后的融合特征得到视觉特征,所述视觉特征的计算公式为:
Ovs=ATTN(Ov,Ov,Ov)
其中,Ovs表示视觉特征,Ov表示解码后的融合特征;视觉特征Ovs的向量维度为N×512维。
通过交叉模态对齐模块,计算视觉特征和可变长词嵌入特征得到交叉注意力,所述交叉注意力将文本特征融合到视觉特征中,用于增强视觉特征的表征能力;所述交叉注意力的计算公式为:
其中,表示交叉注意力;
同时,通过交叉模态对齐损失及类别损失计算多模态损失,从而通过文本特征监督视觉特征学习;所述的计算公式为:
其中,Lm表示多模态损失,La表示交叉模块对齐损失,Lc表示类别损失,FFN(Ov)表示前馈网络,DL1表示L1损失,L1表示计算绝对平均误差,所述DL1的计算公式为:
其中,Eho表示人物交互对对应的文本标签的类别特征,Fho表示人物交互对的融合特征,M表示Fho的向量长度,i表示向量元素,本实施例中,求和符合∑用于计算从第1个向量元素到第M个向量元素的差值的绝对值的和。
如图1所示,将经交互解码器解码后的融合特征通过全连接层(FC)层输出HOI预测的交互类别,通过focal loss计算交互损失Lhoi,所述交互损失Lhoi的计算公式为:
Lhoi=Focal(sigmoind(P),GT)
Focal(p)=-(1-p)γlog(p)
其中,GT表示人物交互对的真实标签,P表示交互对的预测结果,Focal(p)表示focal loss的计算,γ为超参数,本实施例中,γ取值为0.2。
本实施例中,loss函数均通过L=λ1Lhoi+λmLm计算,其中,λ1取值为2,λm取值为1。
本实施例中,所述交叉注意力将文本特征融合到视觉特征中,用于增强视觉特征的表征能力,即通过知识蒸馏的方式,利用文本特征监督视觉特征学习,进一步提升人物交互检测精度。
由此,本实施例提供的一种人物交互检测方法,
在训练阶段,输入图像到重挖掘视觉模块中,通过主干网络对图像进行处理,得到特征图;采用预训练的DETR模型获取特征图中的实例特征、实例位置及实例类别,通过实例类别获取人物交互对,人物交互对中的实例特征组合成空间特征,通过实例位置获取交互位置信息,通过实例类别获取交互类别信息;对主干网络输出的特征图通过交互关系编码器得到特征增强图,特征增强图与视觉实例检测模块中的交互位置信息结合,通过感兴趣区域裁剪操作,在特征增强图上得到与人物交互对对应的局部区域特征,即交互特征;在池化层中通过池化操作获取特征图的全局特征;将空间特征、交互特征和全局特征融合后得到融合特征,输出融合特征到交互解码器中得到解码后的融合特征;通过视觉实例检测模块中获得的人物交互对对应的类别生成文本标签,将文本标签映射为tokens,所述tokens通过Token编码器处理得到文本特征;所述文本特征包括类别特征和可变长词嵌入特征;由此,通过交叉模态对齐损失与类别损失计算多模态损失;解码后的融合特征通过自注意力模块得到视觉特征,输入视觉特征与可变长词嵌入特征到交叉模态对齐模块中融合得到交叉注意力;解码后的融合特征通过全连接层输出HOI预测的交互类别,通过focal loss计算交互损失;
在推理阶段,输入图像到重挖掘视觉模块中,通过主干网络对图像进行处理,得到特征图;采用预训练的DETR模型获取特征图中的实例特征、实例位置及实例类别,通过实例类别获取人物交互对,人物交互对中的实例特征组合成空间特征,通过实例位置获取交互位置信息,通过实例类别获取交互类别信息;对主干网络输出的特征图通过交互关系编码器得到特征增强图,特征增强图与视觉实例检测模块中的交互位置信息结合,通过感兴趣区域裁剪操作,在特征增强图上得到与人物交互对对应的局部区域特征,即交互特征;在池化层中通过池化操作获取特征图的全局特征;将空间特征、交互特征和全局特征融合后得到融合特征,输出融合特征到交互解码器中得到解码后的融合特征;解码后的融合特征通过全连接层输出HOI预测的交互类别。
值得说明的是,在人物交互检测模型的推理阶段,语言知识生成模块和交互模态学习模块不再参与计算,不会增加额外的推理时间,缩小了视觉特征和文本特征之间的异质性差距,有效提高人物交互检测效率。
本实施例还提供一种人物交互检测系统,基于人物交互检测方法对输入的图像进行人物交互检测;所述人物交互检测系统包括:
输入模块,输入图像;
重挖掘视觉模块,图像通过主干网络处理得到特征图,所述特征图输出到视觉实例检测模块获取特征图的空间特征,所述特征图输出到交互关系模块获取特征图的交互特征,通过池化操作获取特征图的全局特征;将空间特征、交互特征和全局特征融合后得到融合特征,输出融合特征到交互解码器中得到解码后的融合特征;
语言知识生成模块,通过视觉实例检测模块中获得的人物交互对对应的类别生成文本标签,将文本标签映射为tokens,所述tokens通过Token编码器处理得到文本特征;所述文本特征包括类别特征和可变长词嵌入特征;
交互模态学习模块,包括自注意力模块和交叉模态对齐模块,所述自注意力模块通过计算解码后的融合特征得到视觉特征,所述交叉模态对齐模块通过计算视觉特征和可变长词嵌入特征得到交叉注意力;
输出模块,输出预测结果。
本实施例还提供一种人物交互检测装置,人物交互检测装置为一种计算机设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序。处理器执行程序时实现如本实施例中人物交互检测方法的步骤。该计算机设备可以是可以执行程序的智能手机、平板电脑、笔记本电脑、台式计算机、机架式服务器、刀片式服务器、塔式服务器或机柜式服务器(包括独立的服务器,或者多个服务器所组成的服务器集群)等。本实施例的计算机设备至少包括但不限于:可通过系统总线相互通信连接的存储器、处理器。存储器(即可读存储介质)包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。存储器可以是计算机设备的内部存储单元,例如该计算机设备的硬盘或内存,也可以是计算机设备的外部存储设备,例如该计算机设备上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,存储器还可以既包括计算机设备的内部存储单元也包括其外部存储设备。本实施例中,存储器通常用于存储安装于计算机设备的操作系统和各类应用软件等。此外,存储器还可以用于暂时地存储已经输出或者将要输出的各类数据。处理器在一些实施例中可以是中央处理器(Central ProcessingUnit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器通常用于控制计算机设备的总体操作,在本实施例中,处理器用于运行存储器中存储的程序代码或者处理数据。
以上示意性地对本发明创造及其实施方式进行了描述,该描述没有限制性,在不背离本发明的精神或者基本特征的情况下,能够以其他的具体形式实现本发明。附图中所示的也只是本发明创造的实施方式之一,实际的结构并不局限于此,权利要求中的任何附图标记不应限制所涉及的权利要求。所以,如果本领域的普通技术人员受其启示,在不脱离本创造宗旨的情况下,不经创造性的设计出与该技术方案相似的结构方式及实施例,均应属于本专利的保护范围。此外,“包括”一词不排除其他元件或步骤,在元件前的“一个”一词不排除包括“多个”该元件。产品权利要求中陈述的多个元件也可以由一个元件通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
Claims (7)
1.一种人物交互检测方法,其特征在于,基于一种人物交互检测模型进行人物交互检测,所述人物交互检测模型包括:
重挖掘视觉模块,包括主干网络、视觉实例检测模块、交互关系模块和池化层;输入图像到主干网络中,主干网络对图像处理后得到特征图,输出特征图到视觉实例检测模块、交互关系模块及池化层中;视觉实例检测模块获取特征图的空间特征,视觉实例检测模块采用DETR结构,获取特征图的实例特征、实例位置及实例类别,通过实例类别获取人物交互对,人物交互对中的实例特征组合成空间特征,通过实例位置获取交互位置信息,通过实例类别获取交互类别信息,空间特征表示为:S v∈R N×Dv,交互位置信息表示为:B v∈R N×4,交互类别信息表示为:C v∈R N×Nc,其中,Sv表示空间特征,Bv表示交互位置信息,Cv表示交互类别信息,R表示实数,N表示人物交互对的数量,Dv表示空间特征的向量维度,Nc表示实例类别数量;交互关系模块获取特征图的交互特征,在交互关系模块中,特征图通过交互关系编码器处理得到特征增强图,特征增强图与视觉实例检测模块中的交互位置信息结合,通过感兴趣区域裁剪操作,在特征增强图上得到与人物交互对对应的局部区域特征,局部区域特征为交互特征,交互特征的计算公式为:
其中,MV表示交互特征,FC表示全连接层,GAP表示全局平均池化,ROIP表示感兴趣区域裁剪操作,Hv表示交互关系模块的输出,表示交互特征的维度;池化层通过池化操作获取特征图的全局特征;将空间特征、交互特征和全局特征融合后得到融合特征,输出融合特征到交互解码器中得到解码后的融合特征;
语言知识生成模块,将文本标签映射为tokens,所述tokens通过Token编码器处理得到文本特征;所述文本特征包括类别特征和可变长词嵌入特征;文本标签由视觉实例检测模块中获得的人物交互对对应的类别生成,类别特征用于表征文本含义,可变长词嵌入特征用于表征文本中词的含义;类别特征、可变长词嵌入特征的计算公式为:
其中,Ec表示类别特征,Ew表示可变长词嵌入特征,FTE表示Token编码器,Zl表示文本标签对应的tokens;
交互模态学习模块,包括自注意力模块和交叉模态对齐模块,所述自注意力模块通过计算解码后的融合特征得到视觉特征,所述交叉模态对齐模块通过计算视觉特征和可变长词嵌入特征得到交叉注意力。
2.根据权利要求1所述的一种人物交互检测方法,其特征在于,所述自注意力模块用于增强解码后的融合特征的表征能力,自注意力模块的计算公式为:
其中,Q表示transformer结构中的查询向量,K表示transformer结构中的键向量,V表示transformer结构中的值向量,Dk表示K的维度,QKT表示查询向量与键向量转置的内积;
所述自注意力模块通过计算解码后的融合特征得到视觉特征,所述视觉特征的计算公式为:
其中,Ovs表示视觉特征,Ov表示解码后的融合特征;
通过交叉模态对齐模块,计算视觉特征和可变长词嵌入特征得到交叉注意力,所述交叉注意力将文本特征融合到视觉特征中,用于增强视觉特征的表征能力;
所述交叉注意力的计算公式为:
其中,表示交叉注意力。
3.根据权利要求2所述的一种人物交互检测方法,其特征在于,通过交叉模态对齐损失及类别损失计算多模态损失,所述多模态损失的计算公式为:
其中,Lm表示多模态损失,La表示交叉模态对齐损失,Lc表示类别损失,FFN(Ov)表示前馈网络,DL1表示L1损失,L1表示计算绝对平均误差,所述DL1的计算公式为:
其中,Eho表示人物交互对对应的文本标签的类别特征,Fho表示人物交互对的融合特征,M表示Fho的向量长度,i表示向量元素。
4.根据权利要求3所述的一种人物交互检测方法,其特征在于,解码后的融合特征通过全连接层输出HOI预测的交互类别,通过focal loss计算交互损失,所述交互损失的计算公式为:
其中,Lhoi表示交互损失,GT表示人物交互对的真实标签,P表示交互对的预测结果,Focal(p)表示focal loss的计算,为超参数。
5.根据权利要求4所述的一种人物交互检测方法,其特征在于,检测步骤如下:
训练阶段:
采用预训练的DETR模型获取特征图中的实例特征、实例位置及实例类别,通过实例类别获取人物交互对,人物交互对中的实例特征组合成空间特征,通过实例位置获取交互位置信息,通过实例类别获取交互类别信息;
对主干网络输出的特征图通过交互关系编码器得到特征增强图,特征增强图与视觉实例检测模块中的交互位置信息结合,通过感兴趣区域裁剪操作,在特征增强图上得到与人物交互对对应的局部区域特征,即交互特征;
池化层通过池化操作获取特征图的全局特征;
将空间特征、交互特征和全局特征融合后得到融合特征,输出融合特征到交互解码器中得到解码后的融合特征;
通过视觉实例检测模块中获得的人物交互对对应的类别生成文本标签,将文本标签映射为tokens,所述tokens通过Token编码器处理得到文本特征;所述文本特征包括类别特征和可变长词嵌入特征;
通过交叉模态对齐损失与类别损失计算多模态损失;
解码后的融合特征通过自注意力模块得到视觉特征,输入视觉特征与可变长词嵌入特征到交叉模态对齐模块中融合得到交叉注意力;
解码后的融合特征通过全连接层输出HOI预测的交互类别,通过focal loss计算交互损失;
推理阶段:
采用预训练的DETR模型获取特征图中的实例特征、实例位置及实例类别,通过实例类别获取人物交互对,人物交互对中的实例特征组合成空间特征,通过实例位置获取交互位置信息,通过实例类别获取交互类别信息;
对主干网络输出的特征图通过交互关系编码器得到特征增强图,特征增强图与视觉实例检测模块中的交互位置信息结合,通过感兴趣区域裁剪操作,在特征增强图上得到与人物交互对对应的局部区域特征,即交互特征;
池化层通过池化操作获取特征图的全局特征;
将空间特征、交互特征和全局特征融合后得到融合特征,输出融合特征到交互解码器中得到解码后的融合特征;
解码后的融合特征通过全连接层输出HOI预测的交互类别。
6.一种人物交互检测系统,其特征在于,其采用如权利要求1-5中所述的基于人物交互检测方法对输入的图像进行人物交互检测;所述人物交互检测系统包括:
输入模块,输入图像;
重挖掘视觉模块,图像通过主干网络处理得到特征图,所述特征图输出到视觉实例检测模块获取特征图的空间特征,视觉实例检测模块采用DETR结构,获取特征图的实例特征、实例位置及实例类别,通过实例类别获取人物交互对,人物交互对中的实例特征组合成空间特征,通过实例位置获取交互位置信息,通过实例类别获取交互类别信息;空间特征表示为:S v∈R N×Dv,交互位置信息表示为:B v∈R N×4,交互类别信息表示为:C v∈R N×Nc,其中,Sv表示空间特征,Bv表示交互位置信息,Cv表示交互类别信息,R表示实数,N表示人物交互对的数量,Dv表示空间特征的向量维度,Nc表示实例类别数量;所述特征图输出到交互关系模块获取特征图的交互特征,在交互关系模块中,特征图通过交互关系编码器处理得到特征增强图,特征增强图与视觉实例检测模块中的交互位置信息结合,通过感兴趣区域裁剪操作,在特征增强图上得到与人物交互对对应的局部区域特征,局部区域特征为交互特征,交互特征的计算公式为:
其中,MV表示交互特征,FC表示全连接层,GAP表示全局平均池化,ROIP表示感兴趣区域裁剪操作,Hv表示交互关系模块的输出,表示交互特征的维度;通过池化操作获取特征图的全局特征;将空间特征、交互特征和全局特征融合后得到融合特征,输出融合特征到交互解码器中得到解码后的融合特征;
语言知识生成模块,通过视觉实例检测模块中获得的人物交互对对应的类别生成文本标签,将文本标签映射为tokens,所述tokens通过Token编码器处理得到文本特征;所述文本特征包括类别特征和可变长词嵌入特征,文本标签由视觉实例检测模块中获得的人物交互对对应的类别生成;类别特征用于表征文本含义,可变长词嵌入特征用于表征文本中词的含义;类别特征、可变长词嵌入特征的计算公式为:
其中,Ec表示类别特征,Ew表示可变长词嵌入特征,FTE表示Token编码器,Zl表示文本标签对应的tokens;
交互模态学习模块,包括自注意力模块和交叉模态对齐模块,所述自注意力模块通过计算解码后的融合特征得到视觉特征,所述交叉模态对齐模块通过计算视觉特征和可变长词嵌入特征得到交叉注意力;
输出模块,输出预测结果。
7.一种人物交互检测装置,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-5中所述的基于人物交互检测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211601267.7A CN115797655B (zh) | 2022-12-13 | 2022-12-13 | 一种人物交互检测模型、方法、系统及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211601267.7A CN115797655B (zh) | 2022-12-13 | 2022-12-13 | 一种人物交互检测模型、方法、系统及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115797655A CN115797655A (zh) | 2023-03-14 |
CN115797655B true CN115797655B (zh) | 2023-11-07 |
Family
ID=85419864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211601267.7A Active CN115797655B (zh) | 2022-12-13 | 2022-12-13 | 一种人物交互检测模型、方法、系统及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115797655B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110727824A (zh) * | 2019-10-11 | 2020-01-24 | 浙江大学 | 利用多重交互注意力机制解决视频中对象关系问答任务的方法 |
CN113158782A (zh) * | 2021-03-10 | 2021-07-23 | 浙江工业大学 | 基于单帧图像的多人并发交互行为理解方法 |
CN113158875A (zh) * | 2021-04-16 | 2021-07-23 | 重庆邮电大学 | 基于多模态交互融合网络的图文情感分析方法及系统 |
CN114913403A (zh) * | 2022-07-18 | 2022-08-16 | 南京信息工程大学 | 基于度量学习的视觉问答方法 |
CN114911914A (zh) * | 2022-04-24 | 2022-08-16 | 中国电子科技集团公司第五十四研究所 | 一种跨模态图文检索方法 |
CN114970517A (zh) * | 2021-12-20 | 2022-08-30 | 昆明理工大学 | 一种基于多模态交互的上下文感知的面向视觉问答的方法 |
CN114995657A (zh) * | 2022-07-18 | 2022-09-02 | 湖南大学 | 一种智能机器人的多模态融合自然交互方法、系统及介质 |
CN115240102A (zh) * | 2022-06-21 | 2022-10-25 | 有米科技股份有限公司 | 基于图像和文本的模型训练方法及装置 |
CN115311687A (zh) * | 2022-08-09 | 2022-11-08 | 安徽大学 | 联合令牌和特征对齐的自然语言行人检索方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106997236B (zh) * | 2016-01-25 | 2018-07-13 | 亮风台(上海)信息科技有限公司 | 基于多模态输入进行交互的方法和设备 |
-
2022
- 2022-12-13 CN CN202211601267.7A patent/CN115797655B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110727824A (zh) * | 2019-10-11 | 2020-01-24 | 浙江大学 | 利用多重交互注意力机制解决视频中对象关系问答任务的方法 |
CN113158782A (zh) * | 2021-03-10 | 2021-07-23 | 浙江工业大学 | 基于单帧图像的多人并发交互行为理解方法 |
CN113158875A (zh) * | 2021-04-16 | 2021-07-23 | 重庆邮电大学 | 基于多模态交互融合网络的图文情感分析方法及系统 |
CN114970517A (zh) * | 2021-12-20 | 2022-08-30 | 昆明理工大学 | 一种基于多模态交互的上下文感知的面向视觉问答的方法 |
CN114911914A (zh) * | 2022-04-24 | 2022-08-16 | 中国电子科技集团公司第五十四研究所 | 一种跨模态图文检索方法 |
CN115240102A (zh) * | 2022-06-21 | 2022-10-25 | 有米科技股份有限公司 | 基于图像和文本的模型训练方法及装置 |
CN114913403A (zh) * | 2022-07-18 | 2022-08-16 | 南京信息工程大学 | 基于度量学习的视觉问答方法 |
CN114995657A (zh) * | 2022-07-18 | 2022-09-02 | 湖南大学 | 一种智能机器人的多模态融合自然交互方法、系统及介质 |
CN115311687A (zh) * | 2022-08-09 | 2022-11-08 | 安徽大学 | 联合令牌和特征对齐的自然语言行人检索方法及系统 |
Non-Patent Citations (2)
Title |
---|
Pose-aware Multi-level Feature Network for Human Object Interaction Detection;Bo Wan等;《arXiv:1909.08453v1 [cs.CV]》;全文 * |
融合图像注意力的多模态机器翻译模型;李霞等;中文信息学报(07);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN115797655A (zh) | 2023-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11657230B2 (en) | Referring image segmentation | |
CN109711463B (zh) | 基于注意力的重要对象检测方法 | |
CN108804530B (zh) | 对图像的区域加字幕 | |
US11481656B2 (en) | Method and apparatus for evaluating a matching degree of multi-domain information based on artificial intelligence, device and medium | |
CN111754541B (zh) | 目标跟踪方法、装置、设备及可读存储介质 | |
US20210174162A1 (en) | Spatial-Temporal Reasoning Through Pretrained Language Models for Video-Grounded Dialogues | |
CN110234018B (zh) | 多媒体内容描述生成方法、训练方法、装置、设备及介质 | |
CN111897940B (zh) | 视觉对话方法、视觉对话模型的训练方法、装置及设备 | |
CN110263218B (zh) | 视频描述文本生成方法、装置、设备和介质 | |
CN110795549B (zh) | 短文本对话方法、装置、设备及存储介质 | |
CN111954860A (zh) | 对细粒度对抗性多队员运动进行预测的系统和方法 | |
CN114358203A (zh) | 图像描述语句生成模块的训练方法及装置、电子设备 | |
CN113052090A (zh) | 用于生成字幕器以及输出字幕的方法和装置 | |
CN112084887A (zh) | 一种基于注意力机制的自适应视频分类方法及系统 | |
CN113239799B (zh) | 训练方法、识别方法、装置、电子设备和可读存储介质 | |
CN113011320A (zh) | 视频处理方法、装置、电子设备及存储介质 | |
CN115797655B (zh) | 一种人物交互检测模型、方法、系统及装置 | |
CN116975347A (zh) | 图像生成模型训练方法及相关装置 | |
CN115147547B (zh) | 人体重建方法和装置 | |
Vankadaru et al. | Text Identification from Handwritten Data using Bi-LSTM and CNN with FastAI | |
CN114970467A (zh) | 基于人工智能的作文初稿生成方法、装置、设备及介质 | |
CN114708429A (zh) | 图像处理方法、装置、计算机设备及计算机可读存储介质 | |
CN118015385B (zh) | 一种基于多模态模型的长尾目标检测方法、装置和介质 | |
CN116821699B (zh) | 一种感知模型训练方法、装置及电子设备和存储介质 | |
CN116383428B (zh) | 一种图文编码器训练方法、图文匹配方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |