CN116935482A - 交互检测模型的获取及交互检测方法和装置 - Google Patents

交互检测模型的获取及交互检测方法和装置 Download PDF

Info

Publication number
CN116935482A
CN116935482A CN202310714743.4A CN202310714743A CN116935482A CN 116935482 A CN116935482 A CN 116935482A CN 202310714743 A CN202310714743 A CN 202310714743A CN 116935482 A CN116935482 A CN 116935482A
Authority
CN
China
Prior art keywords
detection
target
training data
interaction
branch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310714743.4A
Other languages
English (en)
Inventor
陈子亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202310714743.4A priority Critical patent/CN116935482A/zh
Publication of CN116935482A publication Critical patent/CN116935482A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了交互检测模型的获取及交互检测方法和装置,涉及计算机视觉、图像处理以及深度学习等人工智能领域,可应用于智慧城市等场景。所述交互检测模型的获取方法可包括:利用获取的动作识别训练数据集以及目标检测训练数据集,对由动作识别分支以及目标检测分支组成的初始模型进行预训练,得到预训练后的第一交互检测模型,任一训练数据分别由图像及对应的标注结果组成,其中,目标检测分支用于生成输入图像中的目标的位置以及类别信息,所述目标包括人和物体,动作识别分支用于生成输入图像中的人与对应的物体之间的交互关系信息。应用本公开所述方案,可提升模型性能等。

Description

交互检测模型的获取及交互检测方法和装置
技术领域
本公开涉及人工智能技术领域,特别涉及计算机视觉、图像处理以及深度学习等领域的交互检测模型的获取及交互检测方法和装置。
背景技术
人物交互检测(humanobjectinteractiondetection),即指在完成图像中的人和物体的目标检测的同时,完成人和物体之间的交互关系的检测。比如,给定一张图像,图像中有一个人正在拍球,另有一个人正在洗车,那么人物交互检测需要将图像中的人、球和车均检测出来,并需要确定出人和球的交互关系以及人和车的交互关系。交互关系即指人对物体所执行的动作行为。
发明内容
本公开提供了交互检测模型的获取及交互检测方法和装置。
一种交互检测模型的获取方法,包括:
获取动作识别训练数据集以及目标检测训练数据集;
利用所述动作识别训练数据集以及所述目标检测训练数据集,对由动作识别分支以及目标检测分支组成的初始模型进行预训练,得到预训练后的第一交互检测模型,任一训练数据分别由图像及对应的标注结果组成,其中,所述目标检测分支用于生成输入图像中的目标的位置以及类别信息,所述目标包括人和物体,所述动作识别分支用于生成输入图像中的人与对应的物体之间的交互关系信息。
一种交互检测方法,包括:
获取待检测图像;
将所述待检测图像作为第二交互检测模型的输入,得到对应的交互检测结果;所述第二交互检测模型为对第一交互检测模型进行微调后得到的,所述第一交互检测模型为利用动作识别训练数据集以及目标检测训练数据集、对由两个分支组成的初始模型进行预训练后得到的,任一训练数据分别由图像及对应的标注结果组成,所述两个分支分别为目标检测分支以及动作识别分支,其中,所述目标检测分支用于生成输入图像中的目标的位置以及类别信息,所述目标包括人和物体,所述动作识别分支用于生成输入图像中的人与对应的物体之间的交互关系信息。
一种交互检测模型的获取装置,包括:数据获取模块以及模型训练模块;
所述数据获取模块,用于获取动作识别训练数据集以及目标检测训练数据集;
所述模型训练模块,用于利用所述动作识别训练数据集以及所述目标检测训练数据集,对由动作识别分支以及目标检测分支组成的初始模型进行预训练,得到预训练后的第一交互检测模型,任一训练数据分别由图像及对应的标注结果组成,其中,所述目标检测分支用于生成输入图像中的目标的位置以及类别信息,所述目标包括人和物体,所述动作识别分支用于生成输入图像中的人与对应的物体之间的交互关系信息。
一种交互检测装置,包括:图像获取模块以及图像检测模块;
所述图像获取模块,用于获取待检测图像;
所述图像检测模块,用于将所述待检测图像作为第二交互检测模型的输入,得到对应的交互检测结果;所述第二交互检测模型为对第一交互检测模型进行微调后得到的,所述第一交互检测模型为利用动作识别训练数据集以及目标检测训练数据集、对由两个分支组成的初始模型进行预训练后得到的,任一训练数据分别由图像及对应的标注结果组成,所述两个分支分别为目标检测分支以及动作识别分支,其中,所述目标检测分支用于生成输入图像中的目标的位置以及类别信息,所述目标包括人和物体,所述动作识别分支用于生成输入图像中的人与对应的物体之间的交互关系信息。
一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如以上所述的方法。
一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使计算机执行如以上所述的方法。
一种计算机程序产品,包括计算机程序/指令,所述计算机程序/指令被处理器执行时实现如以上所述的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1为本公开所述交互检测模型的获取方法实施例的流程图;
图2为本公开所述两个分支的组成结构及相互关系示意图;
图3为本公开所述交互检测方法实施例的流程图;
图4为本公开所述图像中的目标位置示意图;
图5为本公开所述交互检测模型的获取装置实施例500的组成结构示意图;
图6为本公开所述交互检测装置实施例600的组成结构示意图;
图7示出了可以用来实施本公开的实施例的电子设备700的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
另外,应理解,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
在实际应用中,通常采用人物交互检测模型来实现人物交互检测,相应地,需要预先进行训练数据的标注,以便生成人和物体之间的交互检测训练数据集,即人物交互检测训练数据集,利用人物交互检测训练数据集进行人物交互检测模型的训练。由于需要同时标注目标的位置和类别信息,以及人和物体之间的交互关系信息,因此这种训练数据的标注成本很高,所述位置可以用矩形框(box)的形式来表示。
为此,又提出了一种预训练+微调的实现方式,首先,采用目标检测训练数据集预训练得到预训练人物交互检测模型,之后采用人物交互检测训练数据集对预训练人物交互检测模型进行微调,以得到最终所需的人物交互检测模型。由于目标检测训练数据集的获取比较容易,如存在大量可直接利用的训练数据,因此可降低实现成本。
但是,上述方式中,相当于使用目标检测的模型参数去初始化人物交互检测模型,相应地,预训练人物交互检测模型只会学习到目标检测能力,即学习到如何识别目标的位置和类别信息,无法学习到任何关于人与物体之间的交互关系信息,这样,即便后续进行微调,帮助也非常有限,相应地,利用微调后的人物交互检测模型去进行实际的人物交互检测,会严重影响人物交互检测结果的准确性等。
针对上述问题,图1为本公开所述交互检测模型的获取方法实施例的流程图。如图1所示,包括以下具体实现方式。
在步骤101中,获取动作识别训练数据集以及目标检测训练数据集。
在步骤102中,利用动作识别训练数据集以及目标检测训练数据集,对由动作识别分支以及目标检测分支组成的初始模型进行预训练,得到预训练后的第一交互检测模型,任一训练数据分别由图像及对应的标注结果组成,其中,目标检测分支用于生成输入图像中的目标的位置以及类别信息,所述目标包括人和物体,动作识别分支用于生成输入图像中的人与对应的物体之间的交互关系信息。
所述交互检测模型即可为人物交互检测模型,即人与物体之间的交互关系检测模型。
采用上述方法实施例所述方案,可将人物交互检测任务解耦为两个子任务,即目标检测子任务以及动作识别子任务,分别对应于模型中的目标检测分支以及动作识别分支,并可采用目标检测训练数据集以及动作识别训练数据集对两个分支进行预训练,以得到预训练后的第一交互检测模型,由于目标检测训练数据集以及动作识别训练数据集的获取均相对比较容易,如均存在大量的已有训练数据,因此,可降低实现成本,并且,通过预训练,可使得第一交互检测模型同时学习到目标检测能力以及人与物体之间的交互关系识别能力(即动作识别能力),从而提升了预训练效果及提升了预训练模型性能,另外,后续只需针对第一交互检测模型进行微调,即可得到用于实际的人物交互检测的第二交互检测模型,并相应地提升了人物交互检测结果的准确性等。
动作识别训练数据集中的每条训练数据中可分别包括:图像+标注结果,所述标注结果可包括:图像中的人与对应的物体之间的交互关系信息。目标检测训练数据集中的每条训练数据中可分别包括:图像+标注结果,所述标注结果可包括:图像中的目标的位置和类别信息,所述类别可以是指人、车、球等。
利用动作识别训练数据集以及目标检测训练数据集,可对由动作识别分支以及目标检测分支组成的初始模型进行预训练,以得到预训练后的第一交互检测模型。
优选地,所述进行预训练可包括:在任一批次(batch)的训练过程中,分别进行以下处理:从动作识别训练数据集中获取M条训练数据,作为第一类训练数据,从目标检测训练数据集中获取N条训练数据,作为第二类训练数据,M和N均为正整数;将第一类训练数据作为动作识别分支的输入,并获取动作识别分支对第一类训练数据进行处理后得到的第一损失,将第二类训练数据作为目标检测分支的输入,并获取目标检测分支对第二类训练数据进行处理后得到的第二损失;根据第一损失以及第二损失,对动作识别分支以及目标检测分支进行参数更新。
M和N的具体取值均可根据实际需要而定。优选地,为提升模型训练效果,M和N的取值可以相同,即可等比例地获取第一类训练数据以及第二类训练数据。比如,每个batch中分别包括32条训练数据,那么第一类训练数据和第二类训练数据的数量可分别为16。
上述处理方式中,采用了任务解耦的交互检测模型预训练方式,两个并行的分支同时去做目标检测和动作识别,从而使得交互检测模型能够同时学习到目标检测能力以及动作识别能力。
优选地,动作识别分支中可包括:编码器、第一检测解码器、交互解码器以及第一后处理器,另外,目标检测分支中可包括:编码器、第二检测解码器以及第二后处理器。其中,编码器可为变换编码器(TransformerEncoder),检测解码器可为变换检测解码器(TransformerDetectionDecoder),交互解码器可为变换交互解码器(TransformerInteractionDecoder),后处理器可为头(head)模块。
相应地,图2为本公开所述两个分支的组成结构及相互关系示意图。如图2所示,编码器可为两个分支共用的。
优选地,编码器可用于对输入图像进行视觉特征提取(VisualFeatureExtractor),第一检测解码器可用于根据视觉特征提取结果以及预先设定的P个目标查询(ObjectQuery),生成输入图像对应的P个目标表示向量,P为大于一的正整数,每个目标表示向量分别对应于一个人或一个物体,交互解码器可用于根据预定目标对应的目标表示向量以及视觉特征提取结果,生成预定目标对应的动作表示向量,所述预定目标为人,第一后处理器可用于根据动作表示向量确定出输入图像中的人与对应的物体之间的交互关系信息。
所述视觉特征具体包括哪些特征可根据实际需要而定。另外,P的具体取值也可根据实际需要而定,比如,可为100。
在目标检测中,ObjectQuery可以理解为查询对象,是用于对不同目标进行描述的一种方式,在TransformerDetectionDecoder中,不同输出位置分别被分配对应的ObjectQuery,其对应的向量表示(目标表示向量)可以看作是对目标位置和类别的编码,在具体实现时,可通过将每个ObjectQuery与TransformerEncoder输出的视觉特征提取结果进行匹配并使用区域特征聚集方式(RolAlign)提取区域特征等,得到每个ObjectQuery分别对应的目标位置和类别的描述信息,进而可相应地生成目标表示向量。如何根据视觉特征提取结果和P个ObjectQuery生成输入图像对应的P个目标表示向量为成熟的已有技术。
交互解码器与第一检测解码器采用级联的方式,将第一检测解码器输出的预测为人的目标表示向量送入到交互解码器中,相应地,交互解码器可根据送入的目标表示向量以及编码器输出的视觉特征提取结果,生成人对应的动作表示向量,动作表示向量的具体形式不限,其中可包含有人所执行的动作行为信息。
进一步地,第一后处理器可根据所述动作表示向量确定出输入图像中的人与对应的物体之间的交互关系信息。优选地,第一后处理器还可用于在同一个人对应的动作表示向量数量大于一时,对各动作表示向量进行融合,根据融合结果确定出对应的人与对应的物体之间的交互关系信息。
比如,假设动作识别训练数据集中的图像中仅包括一个人,这个人在踢球,并假设第一检测解码器输出的100个目标表示向量中有10个对应于人(本质上对应的是同一个人)的目标表示向量,那么可筛选出这10个目标表示向量,送入交互解码器,相应地,可得到10个动作表示向量,进而可由第一后处理器对这10个动作表示向量进行融合,即可进行动作预测融合(VPF,Verb-wisePredictionFusion),并可根据融合结果确定出这个人与对应的物体之间的交互关系信息,即动作行为。
如何进行动作预测融合不作限制,可根据实际需要而定,比如,可将上述10个动作表示向量分别转换成一个1行W列的归一化向量,W的取值等于交互关系的总数量,即各种可能的交互关系的总数量,具体取值可根据实际需要而定,对于任一归一化向量来说,其中的每个元素的取值分别为属于对应的交互关系的概率/分数,每个元素分别对应一个不同的交互关系,相应地,可根据这10个归一化向量生成一个新的归一化向量,新的归一化向量中的每个元素的取值分别为:这10个归一化向量中的该元素的取值中的最大值,比如,对于新的归一化向量中的第2个元素,可分别获取这10个归一化向量中的第2个元素的取值,并可从获取到的10个取值中选出最大值,作为新的归一化向量中的第2个元素的取值,进一步地,可将新的归一化向量中取值最大的元素对应的交互关系作为最终确定出的交互关系。
优选地,第二检测解码器可用于根据视觉特征提取结果以及P个Object Query,生成输入图像对应的P个目标表示向量,第二后处理器可用于根据P个目标表示向量确定出输入图像中的目标的位置以及类别信息。第二后处理器的具体实现方式为成熟的已有技术。
通过上述介绍可以看出,本公开所述方案中的动作识别分支以及目标检测分支的组成及实现等均比较简单,从而可提升图像处理效率,并可相应地提升模型训练效率等。
在每个batch的训练过程中,动作识别分支可对第一类训练数据进行处理,并可相应地生成第一损失,目标检测分支可对第二类训练数据进行处理,并可相应地生成第二损失,进一步地,可根据第一损失以及第二损失,分别对动作识别分支以及目标检测分支进行参数更新。
优选地,可根据第一损失以及第二损失,对编码器、第一检测解码器以及第二检测解码器进行参数更新,可根据第一损失,对交互解码器以及第一后处理器进行参数更新,以及可根据第二损失,对第二后处理器进行参数更新,第一检测解码器以及第二检测解码器共享参数。
通过上述方式,可高效准确地实现对于两个分支的参数更新,从而进一步提升了模型的训练效率和训练效果等。
当训练至符合预定的收敛条件时,可结束针对第一交互检测模型的预训练。优选地,之后还可利用人物交互检测训练数据集,对第一交互检测模型进行微调,从而得到微调后的第二交互检测模型。
人物交互检测训练数据集中的训练数据可包括:图像+标注结果,所述标注结果可包括:图像中的目标的位置和类别信息,以及,图像中的人与对应的物体之间的交互关系信息。
微调阶段仅需使用少量的训练数据即可,相比于直接采用人物交互检测训练数据集来对交互检测模型进行训练的方式,可大大降低实现成本等。
进一步地,可利用第二交互检测模型来进行实际的人物交互检测。
相应地,图3为本公开所述人物交互检测方法实施例的流程图。如图3所示,包括以下具体实现方式。
在步骤301中,获取待检测图像。
在步骤302中,将待检测图像作为第二交互检测模型的输入,得到对应的人物交互检测结果;第二交互检测模型为对第一交互检测模型进行微调后得到的,第一交互检测模型为利用动作识别训练数据集以及目标检测训练数据集、对由两个分支组成的初始模型进行预训练后得到的,任一训练数据分别由图像及对应的标注结果组成,两个分支分别为目标检测分支以及动作识别分支,其中,目标检测分支用于生成输入图像中的目标的位置以及类别信息,所述目标包括人和物体,动作识别分支用于生成输入图像中的人与对应的物体之间的交互关系信息。
采用上述方法实施例所述方案,可将人物交互检测任务解耦为两个子任务,即目标检测子任务以及动作识别子任务,分别对应于模型中的目标检测分支以及动作识别分支,并可采用目标检测训练数据集以及动作识别训练数据集对两个分支进行预训练,以得到预训练后的第一交互检测模型,由于目标检测训练数据集以及动作识别训练数据集的获取均相对比较容易,如均存在大量的已有训练数据,因此,可降低实现成本,并且,通过预训练,可使得第一交互检测模型同时学习到目标检测能力以及人与物体之间的交互关系识别能力,从而提升了预训练效果及提升了预训练模型性能,另外,后续只需针对第一交互检测模型进行微调,即可得到用于实际的人物交互检测的第二交互检测模型,并相应地提升了人物交互检测结果的准确性等。
优选地,第二交互检测模型包括:利用人物交互检测训练数据集对第一交互检测模型进行微调后得到的第二交互检测模型。第一交互检测模型可为按照图1所述实施例对应的方法预训练得到的模型。
对于任一待检测图像,可分别将其作为第二交互检测模型的输入,从而利用第二交互检测模型中的两个分支,分别得到图像中的目标的位置和类别信息,以及图像中的人与对应的物体之间的交互关系信息,即得到所需的人物交互检测结果。
图4为本公开所述图像中的目标位置示意图。如图4所示,其中的大黑色矩形框用于标示人的位置,小黑色矩形框用于标示飞盘的位置,另外,人物交互检测结果中还可包括目标的类别信息以及人与物体之间的交互关系信息(为简化附图,未图示),目标的类别信息即指人、飞盘,人与物体之间的交互关系信息可为扔,即人在扔飞盘。
另外,图4中以仅包括一个人为例,在实际应用中,图像中也可以包括多个人,并且,多个不同的人可分别执行相同或不同的动作行为。
需要说明的是,对于前述的各方法实施例,为了简单描述,将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本公开并不受所描述的动作顺序的限制,因为依据本公开,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本公开所必须的。另外,某个实施例中没有详述的部分,可以参见其它实施例中的相关说明。
以上是关于方法实施例的介绍,以下通过装置实施例,对本公开所述方案进行进一步说明。
图5为本公开所述交互检测模型的获取装置实施例500的组成结构示意图。如图5所示,包括:数据获取模块501以及模型训练模块502。
数据获取模块501,用于获取动作识别训练数据集以及目标检测训练数据集。
模型训练模块502,用于利用动作识别训练数据集以及目标检测训练数据集,对由动作识别分支以及目标检测分支组成的初始模型进行预训练,得到预训练后的第一交互检测模型,任一训练数据分别由图像及对应的标注结果组成,其中,目标检测分支用于生成输入图像中的目标的位置以及类别信息,所述目标包括人和物体,动作识别分支用于生成输入图像中的人与对应的物体之间的交互关系信息。
采用上述装置实施例所述方案,可将人物交互检测任务解耦为两个子任务,即目标检测子任务以及动作识别子任务,分别对应于模型中的目标检测分支以及动作识别分支,并可采用目标检测训练数据集以及动作识别训练数据集对两个分支进行预训练,以得到预训练后的第一交互检测模型,由于目标检测训练数据集以及动作识别训练数据集的获取均相对比较容易,如均存在大量的已有训练数据,因此,可降低实现成本,并且,通过预训练,可使得第一交互检测模型同时学习到目标检测能力以及人与物体之间的交互关系识别能力,从而提升了预训练效果及提升了预训练模型性能,另外,后续只需针对第一交互检测模型进行微调,即可得到用于实际的人物交互检测的第二交互检测模型,并相应地提升了人物交互检测结果的准确性等。
动作识别训练数据集中的每条训练数据中可分别包括:图像+标注结果,所述标注结果可包括:图像中的人与对应的物体之间的交互关系信息。目标检测训练数据集中的每条训练数据中可分别包括:图像+标注结果,所述标注结果可包括:图像中的目标的位置和类别信息。
利用动作识别训练数据集以及目标检测训练数据集,可对由动作识别分支以及目标检测分支组成的初始模型进行预训练,以得到预训练后的第一交互检测模型。
优选地,模型训练模块502进行预训练可包括:在任一batch的训练过程中,分别进行以下处理:从动作识别训练数据集中获取M条训练数据,作为第一类训练数据,从目标检测训练数据集中获取N条训练数据,作为第二类训练数据,M和N均为正整数;将第一类训练数据作为动作识别分支的输入,并获取动作识别分支对第一类训练数据进行处理后得到的第一损失,将第二类训练数据作为目标检测分支的输入,并获取目标检测分支对第二类训练数据进行处理后得到的第二损失;根据第一损失以及第二损失,对动作识别分支以及目标检测分支进行参数更新。
M和N的取值可以相同,即可等比例地获取第一类训练数据以及第二类训练数据。
优选地,动作识别分支中可包括:编码器、第一检测解码器、交互解码器以及第一后处理器,编码器可用于对输入图像进行视觉特征提取,第一检测解码器可用于根据视觉特征提取结果以及预先设定的P个ObjectQuery,生成输入图像对应的P个目标表示向量,P为大于一的正整数,每个目标表示向量分别对应于一个人或一个物体,交互解码器可用于根据预定目标对应的目标表示向量以及视觉特征提取结果,生成预定目标对应的动作表示向量,所述预定目标为人,第一后处理器可用于根据动作表示向量确定出输入图像中的人与对应的物体之间的交互关系信息。
优选地,第一后处理器还可用于在同一个人对应的动作表示向量数量大于一时,对各动作表示向量进行融合,根据融合结果确定出对应的人与对应的物体之间的交互关系信息。
另外,优选地,目标检测分支中可包括:编码器、第二检测解码器以及第二后处理器,第二检测解码器可用于根据视觉特征提取结果以及P个Object Query,生成输入图像对应的P个目标表示向量,第二后处理器可用于根据P个目标表示向量确定出输入图像中的目标的位置以及类别信息。
优选地,模型训练模块502可根据第一损失以及第二损失,对编码器、第一检测解码器以及第二检测解码器进行参数更新,可根据第一损失,对交互解码器以及第一后处理器进行参数更新,以及可根据第二损失,对第二后处理器进行参数更新,第一检测解码器以及第二检测解码器共享参数。
当训练至符合预定的收敛条件时,模型训练模块502可结束针对第一交互检测模型的预训练。优选地,之后,模型训练模块502还可利用人物交互检测训练数据集,对第一交互检测模型进行微调,从而得到微调后的第二交互检测模型。
图6为本公开所述人物交互检测装置实施例600的组成结构示意图。如图6所示,包括:图像获取模块601以及图像检测模块602。
图像获取模块601,用于获取待检测图像。
图像检测模块602,用于将待检测图像作为第二交互检测模型的输入,得到对应的人物交互检测结果;第二交互检测模型为对第一交互检测模型进行微调后得到的,第一交互检测模型为利用动作识别训练数据集以及目标检测训练数据集、对由两个分支组成的初始模型进行预训练后得到的,任一训练数据分别由图像及对应的标注结果组成,两个分支分别为目标检测分支以及动作识别分支,其中,目标检测分支用于生成输入图像中的目标的位置以及类别信息,所述目标包括人和物体,动作识别分支用于生成输入图像中的人与对应的物体之间的交互关系信息。
采用上述装置实施例所述方案,可将人物交互检测任务解耦为两个子任务,即目标检测子任务以及动作识别子任务,分别对应于模型中的目标检测分支以及动作识别分支,并可采用目标检测训练数据集以及动作识别训练数据集对两个分支进行预训练,以得到预训练后的第一交互检测模型,由于目标检测训练数据集以及动作识别训练数据集的获取均相对比较容易,如均存在大量的已有训练数据,因此,可降低实现成本,并且,通过预训练,可使得第一交互检测模型同时学习到目标检测能力以及人与物体之间的交互关系识别能力,从而提升了预训练效果及提升了预训练模型性能,另外,后续只需针对第一交互检测模型进行微调,即可得到用于实际的人物交互检测的第二交互检测模型,并相应地提升了人物交互检测结果的准确性等。
优选地,第二交互检测模型可包括:利用人物交互检测训练数据集对第一交互检测模型进行微调后得到的第二交互检测模型。
图5和图6所示装置实施例的具体工作流程可参照前述方法实施例中的相关说明,不再赘述。
本公开所述方案可应用于人工智能领域,特别涉及计算机视觉、图像处理以及深度学习等领域。人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术,人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术,人工智能软件技术主要包括计算机视觉技术、语音识别技术、自然语言处理技术以及机器学习/深度学习、大数据处理技术、知识图谱技术等几大方向。
本公开所述实施例中的图像等并不是针对某一特定用户的,并不能反映出某一特定用户的个人信息。本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图7示出了可以用来实施本公开的实施例的电子设备700的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字助理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图7所示,设备700包括计算单元701,其可以根据存储在只读存储器(ROM)702中的计算机程序或者从存储单元708加载到随机访问存储器(RAM)703中的计算机程序,来执行各种适当的动作和处理。在RAM703中,还可存储设备700操作所需的各种程序和数据。计算单元701、ROM702以及RAM703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
设备700中的多个部件连接至I/O接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,例如本公开所述的方法。例如,在一些实施例中,本公开所述的方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由ROM702和/或通信单元709而被载入和/或安装到设备700上。当计算机程序加载到RAM703并由计算单元701执行时,可以执行本公开所述的方法的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行本公开所述的方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (21)

1.一种交互检测模型的获取方法,包括:
获取动作识别训练数据集以及目标检测训练数据集;
利用所述动作识别训练数据集以及所述目标检测训练数据集,对由动作识别分支以及目标检测分支组成的初始模型进行预训练,得到预训练后的第一交互检测模型,任一训练数据分别由图像及对应的标注结果组成,其中,所述目标检测分支用于生成输入图像中的目标的位置以及类别信息,所述目标包括人和物体,所述动作识别分支用于生成输入图像中的人与对应的物体之间的交互关系信息。
2.根据权利要求1所述的方法,其中,
所述进行预训练包括:在任一批次的训练过程中,分别进行以下处理:
从所述动作识别训练数据集中获取M条训练数据,作为第一类训练数据,从所述目标检测训练数据集中获取N条训练数据,作为第二类训练数据,M和N均为正整数;
将所述第一类训练数据作为所述动作识别分支的输入,并获取所述动作识别分支对所述第一类训练数据进行处理后得到的第一损失;
将所述第二类训练数据作为所述目标检测分支的输入,并获取所述目标检测分支对所述第二类训练数据进行处理后得到的第二损失;
根据所述第一损失以及所述第二损失,对所述动作识别分支以及所述目标检测分支进行参数更新。
3.根据权利要求2所述的方法,其中,
所述动作识别分支中包括:编码器、第一检测解码器、交互解码器以及第一后处理器;
所述编码器用于对输入图像进行视觉特征提取;
所述第一检测解码器用于根据视觉特征提取结果以及预先设定的P个目标查询,生成输入图像对应的P个目标表示向量,P为大于一的正整数,每个目标表示向量分别对应于一个人或一个物体;
所述交互解码器用于根据预定目标对应的目标表示向量以及所述视觉特征提取结果,生成预定目标对应的动作表示向量,所述预定目标为人;
所述第一后处理器用于根据所述动作表示向量确定出输入图像中的人与对应的物体之间的交互关系信息。
4.根据权利要求3所述的方法,其中,
所述第一后处理器还用于在同一个人对应的动作表示向量数量大于一时,对各动作表示向量进行融合,根据融合结果确定出对应的人与对应的物体之间的交互关系信息。
5.根据权利要求3所述的方法,其中,
所述目标检测分支中包括:所述编码器、第二检测解码器以及第二后处理器;
所述第二检测解码器用于根据所述视觉特征提取结果以及所述P个目标查询,生成输入图像对应的P个目标表示向量;
所述第二后处理器用于根据所述P个目标表示向量确定出输入图像中的目标的位置以及类别信息。
6.根据权利要求5所述的方法,其中,
所述根据所述第一损失以及所述第二损失,对所述动作识别分支以及所述目标检测分支进行参数更新包括:
根据所述第一损失以及所述第二损失,对所述编码器、所述第一检测解码器以及所述第二检测解码器进行参数更新,根据所述第一损失,对所述交互解码器以及所述第一后处理器进行参数更新,根据所述第二损失,对所述第二后处理器进行参数更新,所述第一检测解码器以及所述第二检测解码器共享参数。
7.根据权利要求1~6中任一项所述的方法,还包括:
利用人和物体之间的交互检测训练数据集,对所述第一交互检测模型进行微调,得到微调后的第二交互检测模型。
8.一种交互检测方法,包括:
获取待检测图像;
将所述待检测图像作为第二交互检测模型的输入,得到对应的交互检测结果;所述第二交互检测模型为对第一交互检测模型进行微调后得到的,所述第一交互检测模型为利用动作识别训练数据集以及目标检测训练数据集、对由两个分支组成的初始模型进行预训练后得到的,任一训练数据分别由图像及对应的标注结果组成,所述两个分支分别为目标检测分支以及动作识别分支,其中,所述目标检测分支用于生成输入图像中的目标的位置以及类别信息,所述目标包括人和物体,所述动作识别分支用于生成输入图像中的人与对应的物体之间的交互关系信息。
9.根据权利要求8所述的方法,其中,
所述第二交互检测模型包括:利用人和物体之间的交互检测训练数据集对所述第一交互检测模型进行微调后得到的第二交互检测模型。
10.一种交互检测模型的获取装置,包括:数据获取模块以及模型训练模块;
所述数据获取模块,用于获取动作识别训练数据集以及目标检测训练数据集;
所述模型训练模块,用于利用所述动作识别训练数据集以及所述目标检测训练数据集,对由动作识别分支以及目标检测分支组成的初始模型进行预训练,得到预训练后的第一交互检测模型,任一训练数据分别由图像及对应的标注结果组成,其中,所述目标检测分支用于生成输入图像中的目标的位置以及类别信息,所述目标包括人和物体,所述动作识别分支用于生成输入图像中的人与对应的物体之间的交互关系信息。
11.根据权利要求10所述的装置,其中,
所述模型训练模块在任一批次的训练过程中,分别进行以下处理:从所述动作识别训练数据集中获取M条训练数据,作为第一类训练数据,从所述目标检测训练数据集中获取N条训练数据,作为第二类训练数据,M和N均为正整数;将所述第一类训练数据作为所述动作识别分支的输入,并获取所述动作识别分支对所述第一类训练数据进行处理后得到的第一损失;将所述第二类训练数据作为所述目标检测分支的输入,并获取所述目标检测分支对所述第二类训练数据进行处理后得到的第二损失;根据所述第一损失以及所述第二损失,对所述动作识别分支以及所述目标检测分支进行参数更新。
12.根据权利要求11所述的装置,其中,
所述动作识别分支中包括:编码器、第一检测解码器、交互解码器以及第一后处理器;
所述编码器用于对输入图像进行视觉特征提取;
所述第一检测解码器用于根据视觉特征提取结果以及预先设定的P个目标查询,生成输入图像对应的P个目标表示向量,P为大于一的正整数,每个目标表示向量分别对应于一个人或一个物体;
所述交互解码器用于根据预定目标对应的目标表示向量以及所述视觉特征提取结果,生成预定目标对应的动作表示向量,所述预定目标为人;
所述第一后处理器用于根据所述动作表示向量确定出输入图像中的人与对应的物体之间的交互关系信息。
13.根据权利要求12所述的装置,其中,
所述第一后处理器还用于在同一个人对应的动作表示向量数量大于一时,对各动作表示向量进行融合,根据融合结果确定出对应的人与对应的物体之间的交互关系信息。
14.根据权利要求12所述的装置,其中,
所述目标检测分支中包括:所述编码器、第二检测解码器以及第二后处理器;
所述第二检测解码器用于根据所述视觉特征提取结果以及所述P个目标查询,生成输入图像对应的P个目标表示向量;
所述第二后处理器用于根据所述P个目标表示向量确定出输入图像中的目标的位置以及类别信息。
15.根据权利要求14所述的装置,其中,
所述模型训练模块根据所述第一损失以及所述第二损失,对所述编码器、所述第一检测解码器以及所述第二检测解码器进行参数更新,根据所述第一损失,对所述交互解码器以及所述第一后处理器进行参数更新,根据所述第二损失,对所述第二后处理器进行参数更新,所述第一检测解码器以及所述第二检测解码器共享参数。
16.根据权利要求10~15中任一项所述的装置,其中,
所述模型训练模块进一步用于,利用人和物体之间的交互检测训练数据集,对所述第一交互检测模型进行微调,得到微调后的第二交互检测模型。
17.一种交互检测装置,包括:图像获取模块以及图像检测模块;
所述图像获取模块,用于获取待检测图像;
所述图像检测模块,用于将所述待检测图像作为第二交互检测模型的输入,得到对应的交互检测结果;所述第二交互检测模型为对第一交互检测模型进行微调后得到的,所述第一交互检测模型为利用动作识别训练数据集以及目标检测训练数据集、对由两个分支组成的初始模型进行预训练后得到的,任一训练数据分别由图像及对应的标注结果组成,所述两个分支分别为目标检测分支以及动作识别分支,其中,所述目标检测分支用于生成输入图像中的目标的位置以及类别信息,所述目标包括人和物体,所述动作识别分支用于生成输入图像中的人与对应的物体之间的交互关系信息。
18.根据权利要求17所述的装置,其中,
所述第二交互检测模型包括:利用人和物体之间的交互检测训练数据集对所述第一交互检测模型进行微调后得到的第二交互检测模型。
19.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-9中任一项所述的方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使计算机执行权利要求1-9中任一项所述的方法。
21.一种计算机程序产品,包括计算机程序/指令,所述计算机程序/指令被处理器执行时实现权利要求1-9中任一项所述的方法。
CN202310714743.4A 2023-06-15 2023-06-15 交互检测模型的获取及交互检测方法和装置 Pending CN116935482A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310714743.4A CN116935482A (zh) 2023-06-15 2023-06-15 交互检测模型的获取及交互检测方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310714743.4A CN116935482A (zh) 2023-06-15 2023-06-15 交互检测模型的获取及交互检测方法和装置

Publications (1)

Publication Number Publication Date
CN116935482A true CN116935482A (zh) 2023-10-24

Family

ID=88385393

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310714743.4A Pending CN116935482A (zh) 2023-06-15 2023-06-15 交互检测模型的获取及交互检测方法和装置

Country Status (1)

Country Link
CN (1) CN116935482A (zh)

Similar Documents

Publication Publication Date Title
CN113642431A (zh) 目标检测模型的训练方法及装置、电子设备和存储介质
CN114120253A (zh) 图像处理方法、装置、电子设备和存储介质
CN113627536B (zh) 模型训练、视频分类方法,装置,设备以及存储介质
CN112949433B (zh) 视频分类模型的生成方法、装置、设备和存储介质
CN114202026A (zh) 多任务模型训练方法和装置、多任务处理方法和装置
CN113657468A (zh) 预训练模型的生成方法、装置、电子设备和存储介质
CN113177466A (zh) 基于人脸图像的身份识别方法、装置、电子设备及介质
CN114973333B (zh) 人物交互检测方法、装置、设备以及存储介质
CN115457329B (zh) 图像分类模型的训练方法、图像分类方法和装置
CN115239889B (zh) 3d重建网络的训练方法、3d重建方法、装置、设备和介质
CN114882315B (zh) 样本生成方法、模型训练方法、装置、设备及介质
CN115170919B (zh) 图像处理模型训练及图像处理方法、装置、设备和存储介质
CN116363429A (zh) 图像识别模型的训练方法、图像识别方法、装置及设备
CN113591709B (zh) 动作识别方法、装置、设备、介质和产品
US11610396B2 (en) Logo picture processing method, apparatus, device and medium
CN115273148A (zh) 行人重识别模型训练方法、装置、电子设备及存储介质
CN116935482A (zh) 交互检测模型的获取及交互检测方法和装置
CN114445668A (zh) 图像识别方法、装置、电子设备及存储介质
CN115660036B (zh) 模型预训练及任务处理方法、装置、电子设备及存储介质
CN116168132B (zh) 街景重建模型获取及街景重建方法、装置、设备及介质
CN114494818B (zh) 图像处理方法、模型训练方法、相关装置及电子设备
CN116468112B (zh) 目标检测模型的训练方法、装置、电子设备和存储介质
CN115169549B (zh) 人工智能模型更新方法、装置、电子设备及存储介质
CN113642495B (zh) 用于评价时序提名的模型的训练方法、设备、程序产品
CN115131709B (zh) 视频类别预测方法、视频类别预测模型的训练方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination