CN112633196A - 人体姿态检测方法、装置和计算机设备 - Google Patents
人体姿态检测方法、装置和计算机设备 Download PDFInfo
- Publication number
- CN112633196A CN112633196A CN202011587286.XA CN202011587286A CN112633196A CN 112633196 A CN112633196 A CN 112633196A CN 202011587286 A CN202011587286 A CN 202011587286A CN 112633196 A CN112633196 A CN 112633196A
- Authority
- CN
- China
- Prior art keywords
- human body
- body target
- posture
- target
- video frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及人体姿态检测方法、装置和计算机设备,其中,所述人体姿态检测方法,包括:通过获取多个视频帧中人体目标的拍摄信息,根据拍摄信息获取与拍摄信息相匹配的姿态识别算法,根据匹配的姿态识别算法,对相应视频帧中的人体目标进行姿态识别,确定视频帧中人体目标的姿态识别结果,根据多个视频帧的姿态识别结果,确定人体目标的姿态类型,解决了相关技术中通过将职员的实际行为与预设数据的对比来判断职员行为是否合规,存在误判的问题,提高了人体姿态识别的准确率。
Description
技术领域
本申请涉及视频监控领域技术领域,特别是涉及人体姿态检测方法、装置和计算机设备。
背景技术
人体姿态检测是计算机视觉领域中最具挑战性的研究方向,被广泛应用于人机交互、智能监控、虚拟现实和人体行为分析等领域。企业职员在工作中的行为极大程度的影响客户体验与企业形象;目前对职员行为的监管主要是以人工现场监督和视频人工值守的形式,一方面,人工监管存在监管力度不足,容易放松懈怠;另一方面,人的判断和监管存在一定的主观因素,难以在后期回顾和实现标准化。
在相关技术中,对于职员行为的监管一般是利用摄像头和话筒对指定区域分别进行视频和语音的采集,并将所采集的视频与预设场景图像进行比对,以及将所采集的语音与预设关键词进行比对,当所采集的视频以及语音与预设场景图像和预设关键词不一致时,则判断为职员当前的行为不合规;但对于人体的行为来说相同行为之间差异较大,因此通过将职员的实际行为与预设数据进行对比来判断实际行为是否合规,容易出现误判的现象。
目前针对相关技术中,通过将职员的实际行为与预设数据的对比来判断职员行为是否合规,存在误判的问题,尚未提出有效的解决方案。
发明内容
本申请实施例提供了人体姿态检测方法、装置和计算机设备,至少解决相关技术中通过将职员的实际行为与预设数据的对比来判断职员行为是否合规,存在误判的问题。
第一方面,本申请实施例提供了一种人体姿态检测方法,所述方法包括:
获取多个视频帧中人体目标的拍摄信息;
根据所述拍摄信息获取与所述拍摄信息相匹配的姿态识别算法;
根据匹配的姿态识别算法,对相应视频帧中的人体目标进行姿态识别,确定所述视频帧中人体目标的姿态识别结果;
根据多个所述视频帧的姿态识别结果,确定所述人体目标的姿态类型。
在其中一些实施例中,所述姿态识别算法包括基于关键点的检测算法和基于神经网络特征提取的算法,所述拍摄信息包括拍摄角度;若所述拍摄角度符合预设角度,采用所述基于关键点的检测算法进行所述人体目标的姿态识别,否则采用所述基于神经网络特征提取的算法进行所述人体目标的姿态识别。
在其中一些实施例中,根据匹配的姿态识别算法,对相应视频帧中的人体目标进行姿态识别,确定所述视频帧中人体目标的姿态识别结果包括:
获取所述视频帧中所述人体目标的关键点位置和肢体之间夹角;
根据所述关键点位置和所述肢体间夹角,确定所述视频帧中所述人体目标的姿态识别结果。
在其中一些实施例中,根据匹配的姿态识别算法,对相应视频帧中的人体目标进行姿态识别,确定所述视频帧中人体目标的姿态识别结果包括:
从所述视频帧中分割出所述人体目标的轮廓图像,并根据所述轮廓图像确定所述轮廓图像的边缘信息特征向量;
根据所述视频帧确定深度图像,并对所述深度图像中的人体目标进行关键点检测,确定基于所述深度图像的关键点位置信息;
根据所述关键点位置信息,确定所述关键点位置信息的特征向量;
将所述轮廓图像的边缘信息特征向量与所述关键点位置信息的特征向量对应维度相加,确定融合后的特征向量;
将所述融合后的特征向量,输入到预设的支持向量机分类器进行分类,确定所述视频帧中所述人体目标的姿态识别结果。
在其中一些实施例中,所述方法还包括:
若所述人体目标的姿态类型为不合规类型,对所述人体目标进行识别,确定所述人体目标的身份信息和区域信息;
将所述人体目标的身份信息和所述姿态类型传输至后台数据库,并根据所述区域信息触发对应区域的提示装置。
在其中一些实施例中,获取多个视频帧中人体目标的拍摄信息之前,所述方法还包括:
通过所述视频帧中所述人体目标的服饰,判断所述人体目标是否为职员;
若是,则获取所述视频帧中人体目标的拍摄信息。
在其中一些实施例中,通过所述视频帧中所述人体目标的服饰,判断所述人体目标是否为职员包括:
获取所述人体目标在所述视频帧中的目标框图像;
根据所述目标框图像,确定所述目标框图像的色彩通道图和灰度图,所述色彩通道图包括:R通道图、G通道图、B通道图;
分别统计所述色彩通道图和所述灰度图中各个像素值的分布,确定所述色彩通道图的像素统计向量和所述灰度图的像素统计向量;
将所述色彩通道图的像素统计向量和所述灰度图的像素统计向量进行拼接,确定所述目标框图像的色彩表征图;
将所述色彩表征图输入预训练的色彩卷积模型进行特征提取,确定色彩特征向量;
通过预设的分类器对所述特征向量进行分类,确定所述人体目标是否为职员。
第二方面,本申请实施例提供了一种人体姿态检测装置,所述装置包括获取模块、姿态识别算法模块、姿态类型识别模块;
所述获取模块,用于获取多个视频帧中人体目标的拍摄信息;
所述姿态识别算法模块,用于根据所述拍摄信息获取与所述拍摄信息相匹配的姿态识别算法;
所述姿态类型识别模块,用于根据匹配的姿态识别算法,对相应视频帧中的人体目标进行姿态识别,确定所述视频帧中人体目标的姿态识别结果;所述姿态类型识别模块还用于根据多个所述视频帧的姿态识别结果,确定所述人体目标的姿态类型。
第三方面,本申请实施例提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面所述的人体姿态检测方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述第一方面所述的人体姿态检测方法。
相比于相关技术,本申请实施例提供的人体姿态检测方法、装置和计算机设备,通过获取多个视频帧中人体目标的拍摄信息,根据所述拍摄信息获取与所述拍摄信息相匹配的姿态识别算法,根据匹配的姿态识别算法,对相应视频帧中的人体目标进行姿态识别,确定所述视频帧中人体目标的姿态识别结果,根据多个所述视频帧的姿态识别结果,确定所述人体目标的姿态类型,至少解决相关技术中通过将职员的实际行为与预设数据的对比来判断职员行为是否合规,存在误判的问题,提高了人体姿态识别的准确率。
本申请的一个或多个实施例的细节在以下附图和描述中提出,以使本申请的其他特征、目的和优点更加简明易懂。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的人体姿态检测方法的流程图一;
图2a是根据本申请实施例的确定视频帧中人体目标的姿态识别结果的方法流程图一;
图2b是根据本申请实施例的人体各个关键点分布的示意图;
图2c是根据本申请实施例的不合规姿态的人体关键点示意图一;
图2d是根据本申请实施例的不合规姿态的人体关键点示意图二;
图2e是根据本申请实施例的不合规姿态的人体关键点示意图三;
图2f是根据本申请实施例的不合规姿态的人体关键点示意图四;
图3是根据本申请实施例的确定视频帧中人体目标的姿态识别结果的方法流程图二;
图4是根据本申请实施例的人体姿态检测方法的流程图二;
图5是根据本申请实施例的人体姿态检测方法的流程图三;
图6a是根据本申请实施例的判断人体目标是否为职员的方法的流程图;
图6b是根据本申请实施例的通过人体目标的服饰判断人体目标是否为职员的示意图;
图7是根据本申请实施例的人体姿态检测装置的结构框图;
图8是根据本申请实施例的计算机设备的内部结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行描述和说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。基于本申请提供的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
显而易见地,下面描述中的附图仅仅是本申请的一些示例或实施例,对于本领域的普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图将本申请应用于其他类似情景。此外,还可以理解的是,虽然这种开发过程中所作出的努力可能是复杂并且冗长的,然而对于与本申请公开的内容相关的本领域的普通技术人员而言,在本申请揭露的技术内容的基础上进行的一些设计,制造或者生产等变更只是常规的技术手段,不应当理解为本申请公开的内容不充分。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域普通技术人员显式地和隐式地理解的是,本申请所描述的实施例在不冲突的情况下,可以与其它实施例相结合。
除非另作定义,本申请所涉及的技术术语或者科学术语应当为本申请所属技术领域内具有一般技能的人士所理解的通常意义。本申请所涉及的“一”、“一个”、“一种”、“该”等类似词语并不表示数量限制,可表示单数或复数。本申请所涉及的术语“包括”、“包含”、“具有”以及它们任何变形,意图在于覆盖不排他的包含;例如包含了一系列步骤或模块(单元)的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可以还包括没有列出的步骤或单元,或可以还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。本申请所涉及的“多个”是指两个或两个以上。
企业职员在工作中的行为极大程度的影响客户体验与企业形象。现有技术中,对职员的监管主要是以人工现场监督和视频人工值守的形式,一方面,人工监管存在监管力度不足,容易放松懈怠;另一方面,人的判断和监管存在一定的主观因素,难以在后期回顾和实现标准化。为了解决人工现场监督以及视频人工值守所存在的监管力度不足的情况,在相关技术中,对于职员行为的监管一般是利用摄像头和话筒对指定区域分别进行视频和语音的采集,并将所采集的视频与预设场景图像进行比对,以及将所采集的语音与预设关键词进行比对,当所采集的视频以及语音与预设场景图像和预设关键词不一致时,则判断为职员当前的行为不合规;但对于人体的行为来说相同行为之间差异较大,因此通过将职员的实际行为与预设数据进行对比来判断实际行为是否合规,容易出现误判的现象。
本申请提供的一种人体姿态检测方法,通过摄像头获取多个视频帧,并能够根据视频帧中人体目标的拍摄信息获取与拍摄信息相匹配的姿态识别算法,进一步地,根据与人体目标的拍摄信息相匹配的姿态识别算法识别相应视频帧中人体目标的姿态,确定视频帧中人体目标的姿态识别结果,并根据多个所述视频帧的姿态识别结果,确定所述人体目标的姿态类型,其中,姿态类型包括合规姿态类型和不合规姿态类型,不合规姿态类型包括但不限于弯腰、双手抱头、双手抱胸、双手叉腰等。
本实施例提供了一种人体姿态检测方法,图1是根据本申请实施例的人体姿态检测方法的流程图一,如图1所示,人体姿态检测方法包括如下步骤:
步骤S101,获取多个视频帧中人体目标的拍摄信息;
需要说明的是,多个视频帧是通过采集设备获取,采集设备不限于单目相机或者双目相机,所采集的视频帧不限于原始图像和深度图像,对经过采集设备所获取到的视频帧先进行人体目标检测,在视频帧中检测到人体目标的情况下,获取人体目标的拍摄信息,其中,拍摄信息可以包括人体目标的拍摄角度以及人体目标的拍摄范围,人体目标的拍摄范围可以理解为人体目标出现在视频帧中的面积,例如,可以是人体目标的全身、上半身或者下半身;
步骤S102,根据拍摄信息获取与拍摄信息相匹配的姿态识别算法;
需要说明的是,至少包括两种不同类型的姿态识别算法;例如,若视频帧中人体目标的拍摄角度为正面或者近似于正面时,可以通过简单的关键点检测算法便能够准确率的得到该视频帧中人体目标的姿态类型;
步骤S103,根据匹配的姿态识别算法,对相应视频帧中的人体目标进行姿态识别,确定所述视频帧中人体目标的姿态识别结果;
需要说明的是,对于多个视频帧,则可取一定数量的视频帧的拍摄信息,并分别根据每个视频帧的拍摄信息获取相对应的姿态识别算法,对相应的视频帧中的人体目标进行姿态识别,以确定各个视频帧中人体目标的姿态是否为合规的,若不合规姿态的视频帧数量大于预设的阈值,则可认为该人体目标的姿态类型为不合规类型,否则为合规类型;
步骤S104,根据多个视频帧的姿态识别结果,确定人体目标的姿态类型;
具体地,可以是从多个视频帧中取其中某个视频帧的拍摄信息,并根据该拍摄信息获取相对应的姿态识别算法对该视频帧中人体目标进行姿态识别,以确定该视频帧中人体目标的姿态类型,若该视频帧中人体目标的姿态是不合规姿态,则对该人体目标进行跟踪,并对所跟踪的其他多个视频帧采取相匹配的姿态识别算法进行人体目标的姿态识别,并确定其他视频帧中人体目标的姿态;若人体目标的不合规姿态持续时间大于预设时间,则确定人体目标的姿态类型为不合规姿态类型,否则继续进行持续的姿态检测,其中,不合规姿态持续时间等于人体目标被跟踪的帧数N*(1/帧率);
通过上述步骤S101至步骤S104,首先获取视频帧中人体目标的拍摄信息,然后根据各个视频帧中人体目标的拍摄信息获取相匹配的姿态识别算法,最后采用匹配的姿态识别算法对相应视频帧中的人体目标进行姿态识别,确定视频帧中人体目标的姿态识别结果,进一步地根据多个视频帧的姿态识别结果,确定人体目标的姿态类型,也就是采用与当前各个视频帧中人体目标相匹配的姿态识别算法来进行识别,首先相比于现有的人工现场监督,视频人工值守等方案,本发明专利能够降低人工成本,实现了智能化的实时视频监督,也避免了人工监督值守的主观性,以及考虑到监控现场拍摄信息存在不同等多种因素,采用不同的姿态识别算法对各个视频帧中的人体目标进行姿态识别,解决相关技术中通过将职员的实际行为与预设数据的对比来判断职员行为是否合规,存在误判的问题,提高了人体姿态识别的准确率。
在其中一些实施例中,姿态识别算法包括关键点检测算法和神经网络特征提取算法,拍摄信息包括拍摄角度;若拍摄角度符合预设角度,采用关键点检测算法进行人体目标的姿态识别,否则采用神经网络特征提取算法进行人体目标的姿态识别;
需要说明的是,若姿态识别算法仅包括基于关键点检测的算法和基于神经网络特征提取的算法,则步骤S102也可以是判断各个视频帧中人体目标的拍摄角度是否符合预设角度,若是则采用基于关键点检测的算法对视频帧中的人体目标进行姿态识别,否则采用基于神经网络特征提取的算法对视频帧中的人体目标进行姿态识别。
在其中一些实施例中,图2a是根据本申请实施例的确定视频帧中人体目标的姿态识别结果的方法流程图一,如图2a所示,根据匹配的姿态识别算法,对相应的视频帧中人体目标进行姿态识别,确定视频帧中人体目标的姿态识别结果包括如下步骤:
步骤S201,获取视频帧中人体目标的关键点位置和肢体之间夹角;
需要说明的是,当视频帧中人体目标的拍摄角度为正面或者近似正面时,通过基于关键点的检测算法进行识别人体目标的姿态,且人体目标的拍摄角度是指人体目标的被拍摄角度;其中,图2b是根据本申请实施例的人体各个关键点分布的示意图,如图2b所示,黑色实心点表示人体主要的关键点位置,包括有左右耳、左右肩、左右肘、左右手腕、左右臀部、左右膝盖、左右脚踝,也就是除头部关键点以外,其余关键点均分布在人体各个关节处,因此可以根据关键点的位置信息,肢体之间夹角进行逻辑判断,从而判别各个视频帧中人体目标是否属于不合规姿态;
步骤S202,根据关键点位置和肢体间夹角,确定视频帧中人体目标的姿态识别结果;
具体地,姿态判断均以人体右侧为例,左侧计算方法同理,其中,自上而下统一定义坐标值符号为:肩部(x1,y1)、肘部(x2,y2)、右手腕(x3,y3)、左手腕(x3_1,y3_1)、臀部(x4,y4)、膝盖(x5,y5);
图2c是根据本申请实施例的不合规姿态的人体关键点示意图一,如图2c所示,该示意图表示对弯腰姿态的判断方法,通过肩部、臀部、膝盖三个关键点坐标能够计算一侧躯干与腿部的夹角α,当α<145°时则判断为处于弯腰的不合规姿态;
图2d是根据本申请实施例的不合规姿态的人体关键点示意图二,如图2d所示,该示意图表示双手抱头的判断方法,一方面,当y3>y1时,即手腕高于肩部,且通过手腕、肘部和肩部计算得到肘部手臂夹角β<145°时,且人体两侧均满足上述条件的情况下,则判断为双手抱头的不合规姿态;
图2e是根据本申请实施例的不合规姿态的人体关键点示意图三,如图2e所示,该示意图表示双手抱胸的判断方法,当x3<x3_1时,即双手出现交叉,且通过肩部、肘部和手腕位置计算得到肘部手臂夹角β小于100°时,且左右侧均满足上述条件的情况下,则判断为双手抱胸的不合规姿态;
图2f是根据本申请实施例的不合规姿态的人体关键点示意图四,如图2f所示,该示意图表示双手叉腰的判断方法,当y3<y1时,即手腕处于肩部下方,且通过肩部、肘部和手腕计算得到肘部手臂夹角β<150°时,且左右侧均满足上述条件的情况下,则判断为双手叉腰的不合规姿态;
通过上述步骤S201至步骤S202,当检测到的人体目标的拍摄角度为正面或者近似于正面时,对人体目标直接进行人体关键点检测,再通过计算关键点之间的位置关系来判断人体目标姿态的类别,一方面提高人体目标姿态的识别精度,另一方面也提高了计算和处理的效率。
在其中一些实施例中,图3是根据本申请实施例的确定视频帧中人体目标的姿态识别结果的方法流程图二,如图3所示,根据匹配的姿态识别算法,对相应的视频帧中人体目标进行姿态识别,确定视频帧中人体目标的姿态识别结果包括如下步骤:
步骤S301,从视频帧中分割出人体目标的轮廓图像,并根据轮廓图像确定轮廓图像的边缘信息特征向量;
需要说明的是,当该视频帧中人体目标的被拍摄角度不是正面角度的情况下,采用基于神经网络特征提取的算法进行人体目标的姿态识别,具体地,将带有人体目标的目标框的视频帧输入到训练好的FCN网络中进行分割得到人体目标的轮廓图像,FCN网络的全称为Fully Convolutional Networks for Semantic Segmentation,是深度学习应用在图像分割的一种方法;进一步地,将通过分割得到的人体目标的轮廓图像输入到训练好的轻量化的第一卷积模型进行特征提取,得到轮廓图像的的边缘信息特征向量;
步骤S302,根据视频帧确定深度图像,并对深度图像中的人体目标进行关键点检测,确定基于深度图像的关键点位置信息;
具体地,根据人体目标的目标框在视频帧中的位置,找出人体目标的目标框在对应深度图像中的位置,以确定人体目标的目标框对应的深度图像;进一步地,对深度图像中的人体目标进行关键点检测,得到基于深度图像的关键点位置信息;
步骤S303,根据关键点位置信息,确定关键点位置信息的特征向量;
具体地,将基于深度图像的关键点位置信息输入到训练好的轻量化的第二卷积模型中,得到关键点位置信息的特征向量,其中,轻量化的第一卷积模型和轻量化的第二卷积模型都是不带全连接层的;
步骤S304,将轮廓图像的边缘信息特征向量与关键点位置信息的特征向量对应维度相加,确定融合后的特征向量;
具体地,将轮廓图像的特征向量与关键点位置信息的特征向量进行融合,融合的方式是将两个向量对应维度相加,而特征融合的前提是两个特征向量具有相同的维度,因此本申请实施例中采用1x1卷积层的方法来控制特征向量的维度,对轮廓图像的特征向量经过一层1x1卷积进行维度变换,使轮廓图像的特征向量的维度等于关键点位置信息的特征向量维度,将两个向量按对应维度进行相加,得到融合后的特征向量;
步骤S305,将融合后的特征向量,输入到预设的支持向量机分类器进行分类,确定视频帧中人体目标的姿态识别结果;
具体地,将融合后的特征向量输入到训练好的支持向量机分类器SVC中进行分类,并根据分类结果判断该视频帧中人体目标是否存在不合规姿态;
通过上述步骤S301至步骤S305,对于视频帧中人体目标的拍摄角度不符合正面拍摄角度的情况下,采用基于轮廓图像的边缘信息特征向量与关键点位置信息的特征向量进行融合的神经网络特征提取算法进行人体目标的姿态识别,提高了识别的精度。
在其中一些实施例中,图4是根据本申请实施例的人体姿态检测方法的流程图二,如图4所示,人体姿态检测方法还包括如下步骤:
步骤S401,若人体目标的姿态类型为不合规类型,对人体目标进行识别,确定人体目标的身份信息和区域信息;
步骤S402,将人体目标的身份信息和姿态类型传输至后台数据库,并根据区域信息触发对应区域的提示装置;
具体地,可将识别到的不合规姿态类型的人体目标的身份信息、不合规姿态的类别(弯腰、双手抱头、双手抱胸、双手叉腰等)、发生的日期时间信息以及不合规姿态视频片段进行对应,并存储至后台数据库中,且能够供后期进行导出,以方便纳入该职员的评价体系中,有利于实现职员的标准化规范化的管理,本申请也不限于银行职员使用,还能够扩展到各个对职员工作时的礼仪姿态有要求的行业;根据区域信息触发对应区域的提示装置,便于提示对应区域职员及时纠正其不合规姿态。
在其中一些实施例中,图5是根据本申请实施例的人体姿态检测方法的流程图三,如图5所示,获取多个视频帧中人体目标的拍摄信息之前,人体姿态检测方法还包括如下步骤:
步骤S501,通过视频帧中人体目标的服饰,判断人体目标是否为职员;若是,则获取视频帧中人体目标的拍摄信息;
通过上述步骤S501,考虑到监控现场可能存在非职员目标干扰因素,进而先判断该目标人员是否是职员,在是职员的情况下进一步进行姿态识别,进而避免了对很多不需要的目标进行分析和处理,从而极大提高了计算和处理的效率。
在其中一些实施例中,图6a是根据本申请实施例的判断人体目标是否为职员的方法的流程图,如图6a所示,通过视频帧中人体目标的服饰,判断人体目标是否为职员包括如下步骤:
步骤S601,获取人体目标在视频帧中的目标框图像;
其中,为了避免角度、背景、光照等因素对于识别结果的影响,首先对检测到的人体目标的视频帧进行评分和优选,图6b是根据本申请实施例的通过人体目标的服饰判断人体目标是否为职员的示意图,如图6b所示,序号1-4矩形表示某一较短时间段内采集到的视频帧,根据拍摄角度、光照、背景等因素进行评分,挑选出评分最高的一帧作为优选的目标框图像;
步骤S602,根据目标框图像,确定目标框图像的色彩通道图和灰度图,色彩通道图包括:R通道图、G通道图、B通道图;
如图6b所示,将优选的目标框图像的RGB三个色彩通道进行分离,得到目标框图像的色彩通道图,并对目标框图像进行灰度化,得到灰度图;
步骤S603,分别统计色彩通道图和灰度图中各个像素值的分布,确定色彩通道图的像素统计向量和灰度图的像素统计向量;
步骤S604,将色彩通道图的像素统计向量和灰度图的像素统计向量进行拼接,确定目标框图像的色彩表征图;
具体地,如图6b所示,图中[1][2][3][4]分别表示R通道图、G通道图、B通道图和灰度图通过统计像素值得到的像素统计向量,并将4个向量进行拼接,得到一个尺寸为4x256的色彩表征图;
需要说明的是,上述对图像的处理方式的好处在于:一方面,服饰识别在很大程度上是依赖于图像的色彩特征信息来进行不同服饰之间的区分,而将图像不同色彩通道的像素统计信息进行融合,能够更好的表示目标的色彩分布情况,供后续的色彩卷积模型更好的学习重要特征并区分不同特征;另一方面,检测到的人体目标的目标框在尺寸上总会有所不同,上述方法能够将不同尺寸的图像转换为相同尺寸的特征图,即无论输入目标框尺寸为多大,经过不同通道像素值统计和拼接之后,尺寸均为4x256,有利于提高后续的色彩卷积模型的识别精度和加快模型收敛速度;
步骤S605,将色彩表征图输入预训练的色彩卷积模型进行特征提取,确定色彩特征向量;
需要说明的是,色彩卷积模型是一种训练好参数的用于对色彩表征图进行特征提取的卷积模型;具体地,将色彩表征图输入预训练的卷积模型中进行特征提取,且卷积模型是不带全连接层的卷积模型;
步骤S606,通过预设的分类器对色彩特征向量进行分类,确定人体目标是否为职员;
具体地,使用训练好的支持向量机分类器SVC对经过色彩卷积模型特征提取后得到的色彩特征向量进行分类,得到的服饰识别的结果,即该目标人体是否为职员,其中,上述色彩卷积模型+支持向量机分类器SVC的特征提取和分类方式的好处主要有两点,其一是色彩卷积模型作为最优代表性的轻量化卷积神经网络在具有良好特征提取能力的同时,极大的减少了模型参数量和计算量,更适合使用在嵌入式设备中;其二是对于卷积神经网络而言,其大部分的参数量主要集中在全连接层,因此这里不使用全连接层,而改为使用支持向量机SVC作为特征分类器,不仅能保证较好的识别精度,还能够极大程度的减少卷积神经网络的参数量和计算量。
需要说明的是,在上述流程中或者附图的流程图中示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本实施例还提供了一种人体姿态检测装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”、“单元”、“子单元”等可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
在一些实施例中,图7是根据本申请实施例的人体姿态检测装置的结构框图,如图7所示,人体姿态检测装置包括:获取模块71、姿态识别算法模块72和姿态类型识别模块73;
获取模块71,用于获取多个视频帧中人体目标的拍摄信息;
姿态识别算法模块72,用于根据拍摄信息获取与拍摄信息相匹配的姿态识别算法;
姿态类型识别模块73,用于根据匹配的姿态识别算法,对相应视频帧中的人体目标进行姿态识别,确定视频帧中人体目标的姿态识别结果;姿态类型识别模块还用于根据多个视频帧的姿态识别结果,确定人体目标的姿态类型。
在其中一些实施例中,获取模块71、姿态识别算法模块72、姿态类型识别模块73还用于实现上述各实施例提供的人体姿态检测方法中的步骤,在这里不再赘述。
需要说明的是,上述各个模块可以是功能模块也可以是程序模块,既可以通过软件来实现,也可以通过硬件来实现。对于通过硬件来实现的模块而言,上述各个模块可以位于同一处理器中;或者上述各个模块还可以按照任意组合的形式分别位于不同的处理器中。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种人体姿态检测方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
在一个实施例中,图8是根据本申请实施例的计算机设备的内部结构示意图,如图8所示,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种人体姿态检测方法。
本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述各实施例提供的人体姿态检测方法中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述各个实施例提供的人体姿态检测方法中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种人体姿态检测方法,其特征在于,所述方法包括:
获取多个视频帧中人体目标的拍摄信息;
根据所述拍摄信息获取与所述拍摄信息相匹配的姿态识别算法;
根据匹配的姿态识别算法,对相应视频帧中的人体目标进行姿态识别,确定所述视频帧中人体目标的姿态识别结果;
根据多个所述视频帧的姿态识别结果,确定所述人体目标的姿态类型。
2.根据权利要求1所述的人体姿态检测方法,其特征在于,所述姿态识别算法包括基于关键点的检测算法和基于神经网络特征提取的算法,所述拍摄信息包括拍摄角度;若所述拍摄角度符合预设角度,采用所述关键点检测算法进行所述人体目标的姿态识别,否则采用所述神经网络特征提取算法进行所述人体目标的姿态识别。
3.根据权利要求2所述的人体姿态检测方法,其特征在于,根据匹配的姿态识别算法,对相应视频帧中的人体目标进行姿态识别,确定所述视频帧中人体目标的姿态识别结果包括:
获取所述视频帧中所述人体目标的关键点位置和肢体之间夹角;
根据所述关键点位置和所述肢体间夹角,确定所述视频帧中所述人体目标的姿态识别结果。
4.根据权利要求2所述的人体姿态检测方法,其特征在于,根据匹配的姿态识别算法,对相应视频帧中的人体目标进行姿态识别,确定所述视频帧中人体目标的姿态识别结果包括:
从所述视频帧中分割出所述人体目标的轮廓图像,并根据所述轮廓图像确定所述轮廓图像的边缘信息特征向量;
根据所述视频帧确定深度图像,并对所述深度图像中的人体目标进行关键点检测,确定基于所述深度图像的关键点位置信息;
根据所述关键点位置信息,确定所述关键点位置信息的特征向量;
将所述轮廓图像的边缘信息特征向量与所述关键点位置信息的特征向量对应维度相加,确定融合后的特征向量;
将所述融合后的特征向量,输入到预设的支持向量机分类器进行分类,确定所述视频帧中所述人体目标的姿态识别结果。
5.根据权利要求1所述的人体姿态检测方法,其特征在于,所述方法还包括:
若所述人体目标的姿态类型为不合规类型,对所述人体目标进行识别,确定所述人体目标的身份信息和区域信息;
将所述人体目标的身份信息和所述姿态类型传输至后台数据库,并根据所述区域信息触发对应区域的提示装置。
6.根据权利要求1所述的人体姿态检测方法,其特征在于,获取多个视频帧中人体目标的拍摄信息之前,所述方法还包括:
通过所述视频帧中所述人体目标的服饰,判断所述人体目标是否为职员;
若是,则获取所述视频帧中人体目标的拍摄信息。
7.根据权利要求6所述的人体姿态检测方法,其特征在于,通过所述视频帧中所述人体目标的服饰,判断所述人体目标是否为职员包括:
获取所述人体目标在所述视频帧中的目标框图像;
根据所述目标框图像,确定所述目标框图像的色彩通道图和灰度图,所述色彩通道图包括:R通道图、G通道图、B通道图;
分别统计所述色彩通道图和所述灰度图中各个像素值的分布,确定所述色彩通道图的像素统计向量和所述灰度图的像素统计向量;
将所述色彩通道图的像素统计向量和所述灰度图的像素统计向量进行拼接,确定所述目标框图像的色彩表征图;
将所述色彩表征图输入预训练的色彩卷积模型进行特征提取,确定色彩特征向量;
通过预设的分类器对所述特征向量进行分类,确定所述人体目标是否为职员。
8.一种人体姿态检测装置,其特征在于,所述装置包括获取模块、姿态识别算法模块和姿态类型识别模块;
所述获取模块,用于获取多个视频帧中人体目标的拍摄信息;
所述姿态识别算法模块,用于根据所述拍摄信息获取与所述拍摄信息相匹配的姿态识别算法;
所述姿态类型识别模块,用于根据匹配的姿态识别算法,对相应视频帧中的人体目标进行姿态识别,确定所述视频帧中人体目标的姿态识别结果;所述姿态类型识别模块还用于根据多个所述视频帧的姿态识别结果,确定所述人体目标的姿态类型。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的人体姿态检测方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至7中任一项所述的人体姿态检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011587286.XA CN112633196A (zh) | 2020-12-28 | 2020-12-28 | 人体姿态检测方法、装置和计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011587286.XA CN112633196A (zh) | 2020-12-28 | 2020-12-28 | 人体姿态检测方法、装置和计算机设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112633196A true CN112633196A (zh) | 2021-04-09 |
Family
ID=75286209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011587286.XA Pending CN112633196A (zh) | 2020-12-28 | 2020-12-28 | 人体姿态检测方法、装置和计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112633196A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113191319A (zh) * | 2021-05-21 | 2021-07-30 | 河南理工大学 | 一种人体姿态智能识别方法及计算机设备 |
CN113536917A (zh) * | 2021-06-10 | 2021-10-22 | 浙江大华技术股份有限公司 | 着装识别方法、系统、电子装置和存储介质 |
CN113610023A (zh) * | 2021-08-12 | 2021-11-05 | 珠海格力电器股份有限公司 | 设备控制方法、装置、设备及存储介质 |
CN113657163A (zh) * | 2021-07-15 | 2021-11-16 | 浙江大华技术股份有限公司 | 行为识别方法、电子装置和存储介质 |
CN113688667A (zh) * | 2021-07-08 | 2021-11-23 | 华中科技大学 | 一种基于深度学习的行李取放动作识别方法和系统 |
CN113780077A (zh) * | 2021-08-05 | 2021-12-10 | 深圳市燃气集团股份有限公司 | 基于目标检测的作业行为规范检测方法、装置及终端设备 |
CN114327062A (zh) * | 2021-12-28 | 2022-04-12 | 深圳Tcl新技术有限公司 | 人机交互方法、装置、电子设备、存储介质和程序产品 |
CN114764946A (zh) * | 2021-09-18 | 2022-07-19 | 北京甲板智慧科技有限公司 | 基于时序标准化的动作计数方法、系统和智能终端 |
CN114973403A (zh) * | 2022-05-06 | 2022-08-30 | 广州紫为云科技有限公司 | 一种基于时空双重维度特征深度网络的高效行为预测方法 |
-
2020
- 2020-12-28 CN CN202011587286.XA patent/CN112633196A/zh active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113191319A (zh) * | 2021-05-21 | 2021-07-30 | 河南理工大学 | 一种人体姿态智能识别方法及计算机设备 |
CN113191319B (zh) * | 2021-05-21 | 2022-07-19 | 河南理工大学 | 一种人体姿态智能识别方法及计算机设备 |
CN113536917A (zh) * | 2021-06-10 | 2021-10-22 | 浙江大华技术股份有限公司 | 着装识别方法、系统、电子装置和存储介质 |
CN113536917B (zh) * | 2021-06-10 | 2024-06-07 | 浙江大华技术股份有限公司 | 着装识别方法、系统、电子装置和存储介质 |
CN113688667A (zh) * | 2021-07-08 | 2021-11-23 | 华中科技大学 | 一种基于深度学习的行李取放动作识别方法和系统 |
CN113657163A (zh) * | 2021-07-15 | 2021-11-16 | 浙江大华技术股份有限公司 | 行为识别方法、电子装置和存储介质 |
CN113780077A (zh) * | 2021-08-05 | 2021-12-10 | 深圳市燃气集团股份有限公司 | 基于目标检测的作业行为规范检测方法、装置及终端设备 |
CN113610023A (zh) * | 2021-08-12 | 2021-11-05 | 珠海格力电器股份有限公司 | 设备控制方法、装置、设备及存储介质 |
CN114764946B (zh) * | 2021-09-18 | 2023-08-11 | 北京甲板智慧科技有限公司 | 基于时序标准化的动作计数方法、系统和智能终端 |
CN114764946A (zh) * | 2021-09-18 | 2022-07-19 | 北京甲板智慧科技有限公司 | 基于时序标准化的动作计数方法、系统和智能终端 |
CN114327062A (zh) * | 2021-12-28 | 2022-04-12 | 深圳Tcl新技术有限公司 | 人机交互方法、装置、电子设备、存储介质和程序产品 |
CN114973403B (zh) * | 2022-05-06 | 2023-11-03 | 广州紫为云科技有限公司 | 一种基于时空双重维度特征深度网络的行为预测方法 |
CN114973403A (zh) * | 2022-05-06 | 2022-08-30 | 广州紫为云科技有限公司 | 一种基于时空双重维度特征深度网络的高效行为预测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112633196A (zh) | 人体姿态检测方法、装置和计算机设备 | |
CN108399367B (zh) | 手部动作识别方法、装置、计算机设备及可读存储介质 | |
Ahmed et al. | Vision based hand gesture recognition using dynamic time warping for Indian sign language | |
CN108829900B (zh) | 一种基于深度学习的人脸图像检索方法、装置及终端 | |
CN108319930B (zh) | 身份认证方法、系统、终端和计算机可读存储介质 | |
CN109829356B (zh) | 神经网络的训练方法及基于神经网络的行人属性识别方法 | |
CN108304819B (zh) | 姿态识别系统及方法、存储介质 | |
CN110569731B (zh) | 一种人脸识别方法、装置及电子设备 | |
CN110674712A (zh) | 交互行为识别方法、装置、计算机设备和存储介质 | |
CN110688929B (zh) | 一种人体骨架关节点定位方法及装置 | |
CN114724241A (zh) | 基于骨骼点距离的动作识别方法、装置、设备及存储介质 | |
CN114067358A (zh) | 一种基于关键点检测技术的人体姿态识别方法及系统 | |
CN111815674B (zh) | 一种目标跟踪方法、装置以及计算机可读存储装置 | |
CN114049681A (zh) | 一种监控方法、识别方法、相关装置及系统 | |
CN111626123A (zh) | 视频数据处理方法、装置、计算机设备及存储介质 | |
CN111563480A (zh) | 冲突行为检测方法、装置、计算机设备和存储介质 | |
CN110619316A (zh) | 人体关键点检测方法、装置和电子设备 | |
CN113298158B (zh) | 数据检测方法、装置、设备及存储介质 | |
CN111062263A (zh) | 手部姿态估计的方法、设备、计算机设备和存储介质 | |
CN110472613A (zh) | 对象行为识别方法和装置 | |
CN113657195A (zh) | 人脸图像识别方法、设备、电子装置和存储介质 | |
CN113557546B (zh) | 图像中关联对象的检测方法、装置、设备和存储介质 | |
CN111178310A (zh) | 手掌特征识别方法、装置、计算机设备和存储介质 | |
CN109214278B (zh) | 用户指令匹配方法、装置、计算机设备及存储介质 | |
CN111079617B (zh) | 家禽识别方法、装置、可读存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |