CN111507192A - 一种仪容仪表监测方法和装置 - Google Patents
一种仪容仪表监测方法和装置 Download PDFInfo
- Publication number
- CN111507192A CN111507192A CN202010198791.9A CN202010198791A CN111507192A CN 111507192 A CN111507192 A CN 111507192A CN 202010198791 A CN202010198791 A CN 202010198791A CN 111507192 A CN111507192 A CN 111507192A
- Authority
- CN
- China
- Prior art keywords
- person
- human body
- key point
- current frame
- point information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Alarm Systems (AREA)
Abstract
本发明提供了一种仪容仪表监测方法和装置,涉及监控技术领域。其中,所述方法包括:获取监控视频的当前帧中第一人物的人体骨骼关键点信息;根据所述人体骨骼关键点信息,确定所述第一人物的姿态;若所述姿态符合预设姿态规则,则根据所述人体骨骼关键点信息,确定所述第一人物的人体特定区域在所述当前帧中的目标位置;根据所述目标位置,在所述当前帧中获取所述人体特定区域对应的目标区域图像;将所述目标区域图像输入预设分类模型,得到针对所述第一人物的第一仪容仪表监测结果。本发明滤除了对分类模型来说比较难、比较容易出错的图像,而只保留信息充足的图像,避免了对大量无效的图像分析处理,提升对监控视频中人物仪容仪表监测准确性。
Description
技术领域
本发明涉及监控技术领域,特别是涉及一种仪容仪表监测方法和装置。
背景技术
目前,有很多场所都需要利用视频对人员的着装、发色、个人卫生、是否佩戴头盔等仪容仪表进行监控。
视频监控通常是基于目标检测和目标分类进行,即将目标从视频画面中检测出来后送入分类模型进行识别分析。但因为视频中的人员通常处于运动状态,其姿势也在不断变化,使得摄像头所获取的视频画面会出现侧面、背面、躬身、手部遮挡等各种情况;而现有的目标检测算法会将上述这些情况下的目标检测出来并送入分类模型,这不仅加大了分析运算数据量,而且使得分类模型的分类正确率严重下降,进而导致频繁出现虚警情况。
因此,现有技术还有待改进和提高。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的一种仪容仪表监测方法和装置。
依据本发明的第一方面,提供了一种仪容仪表监测方法,该方法包括:
获取监控视频的当前帧中第一人物的人体骨骼关键点信息;
根据所述人体骨骼关键点信息,确定所述第一人物的姿态;
若所述姿态符合预设姿态规则,则根据所述人体骨骼关键点信息,确定所述第一人物的人体特定区域在所述当前帧中的目标位置;
根据所述目标位置,在所述当前帧中获取所述人体特定区域对应的目标区域图像;
将所述目标区域图像输入预设分类模型,得到针对所述第一人物的第一仪容仪表监测结果。
可选地,所述的方法中,在所述获取监控视频的当前帧中第一人物的人体骨骼关键点信息之前,还包括:
根据特征数据及标签数据,训练获得所述预设分类模型;所述特征数据为人体特定区域的区域图像,所述标签数据为仪容仪表监测结果。
可选地,所述的方法中,所述预设姿态规则包括姿态为正面姿态。
可选地,所述的方法中,所述根据所述目标位置,在所述当前帧中获取所述人体特定区域对应的目标区域图像,包括:
以所述目标位置处的人体骨骼关键点为框架,按预设比例外扩裁剪所述当前帧,得到所述人体特定区域对应的目标区域图像。
可选地,所述的方法中,所述获取监控视频的当前帧中第一人物的人体骨骼关键点信息,包括:
利用人体姿态估计模型获取监控视频的当前帧中第一人物的人体骨骼关键点信息。
可选地,所述方法,在所述获取监控视频的当前帧中第一人物的人体骨骼关键点信息之后,还包括:
根据所述人体骨骼关键点信息,确定所述第一人物的人体区域,并对所述人体区域进行行人跟踪;
在所述根据所述人体骨骼关键点信息,确定所述第一人物的姿态之后,还包括:
若所述姿态不符合预设姿态规则,则通过所述行人跟踪获取上一帧中所述人体区域对应的第二仪容仪表监测结果,并将所述第二仪容仪表监测结果作为针对所述第一人物的第一仪容仪表监测结果。
依据本发明的第二方面,提供了一种仪容仪表监测装置,该装置包括:
第一获取模块,用于获取监控视频的当前帧中第一人物的人体骨骼关键点信息;
第一确定模块,用于根据所述人体骨骼关键点信息,确定所述第一人物的姿态;
第二确定模块,用于若所述姿态符合预设姿态规则,则根据所述人体骨骼关键点信息,确定所述第一人物的人体特定区域在所述当前帧中的目标位置;
第二获取模块,根据所述目标位置,在所述当前帧中获取所述人体特定区域对应的目标区域图像;
监测识别模块,用于将所述目标区域图像输入预设分类模型,得到针对所述第一人物的第一仪容仪表监测结果。
可选地,所述的装置,还包括:
训练模块,用于根据特征数据及标签数据,训练获得所述预设分类模型;所述特征数据为人体特定区域的区域图像,所述标签数据为仪容仪表监测结果。
可选地,所述的装置中,所述第二获取模块,具体用于以所述目标位置处的人体骨骼关键点为框架,按预设比例外扩裁剪所述当前帧,得到所述人体特定区域对应的目标区域图像。
可选地,所述装置还包括:
第三确定模块,用于根据所述人体骨骼关键点信息,确定所述第一人物的人体区域,并对所述人体区域进行行人跟踪;
跟踪监测模块,用于若所述姿态不符合预设姿态规则,则通过所述行人跟踪获取上一帧中所述人体区域对应的第二仪容仪表监测结果,并将所述第二仪容仪表监测结果作为针对所述第一人物的第一仪容仪表监测结果。
本发明实施例提供的一种仪容仪表监测方法和装置,先获取监控视频的当前帧中第一人物的人体骨骼关键点信息;并根据上述人体骨骼关键点信息,确定上述第一人物的姿态;若上述姿态符合预设姿态规则,则根据上述人体骨骼关键点信息,确定第一人物的人体特定区域在当前帧中的目标位置,进而获取上述人体特定区域对应的目标区域图像;再将上述目标区域图像输入预设分类模型,得到针对所述第一人物的第一仪容仪表监测结果。因为预先通过人体骨骼关键点信息对第一人物的姿态进行判定,只有在第一人物的姿态符合预设姿态规则时,其人体特定区域对应的目标区域图像才会被送入预设分类模型进行识别分类,也即滤除了对分类模型来说比较难、比较容易出错的图像,而只保留信息充足的图像,避免了对大量无效的图像分析处理,提升对监控视频中人物仪容仪表监测准确性。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1是本发明实施例提供的一种仪容仪表监测方法的步骤流程图;
图2是本发明实施例提供的一种仪容仪表监测装置的结构框图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
图1是本发明实施例提供的一种仪容仪表监测方法的步骤流程图,如图1所示,该方法可以包括步骤S100~S500:
步骤100、获取监控视频的当前帧中第一人物的人体骨骼关键点信息。
上述步骤S100中,上述当前帧指的是监控视频的当前画面;上述人体骨骼关键点信息指的是与人体骨骼关键点相关的信息,具体可以是人体骨骼关键点的坐标,具体指人体的头、耳、肩膀、手、肘等十八个关键点的坐标位置。在上述步骤S100中,实时获取监控视频的当前帧画面,并通过分析当前帧获取图片中每个人的人体骨骼关键点信息,进而可以得到其姿态。
在实际应用中,具体可以利用人体姿态估计模型OpenPose,获取监控视频的当前帧中第一人物的人体骨骼关键点信息。人体姿态估计模型适用于单人和多人,可以自动识别出图像中的人,并识别出每个人的头、耳、肩膀、手、肘等十八个关键点的坐标位置,进而实现人体动作的姿态估计。
步骤S200、根据所述人体骨骼关键点信息,确定所述第一人物的姿态。
上述步骤S200中,因为人体骨骼关键点信息反映了人体骨架状态,人体骨架状态又有人的姿态直接相关,因而根据上述步骤S100所得到的人体骨骼关键点信息,即可以确定第一人体所处的姿态。
步骤S300、若所述姿态符合预设姿态规则,则根据所述人体骨骼关键点信息,确定所述第一人物的人体特定区域在所述当前帧中的目标位置。
在上述步骤S300中,人体特定区域指的是需要监控识别的区域,例如若需要监控员工是否佩戴头盔,则该人体特定区域指的是头部。人体的姿态与人体特定区域的信息量密切相关,而人体人体特定区域的信息量的多少又影响着分类模型的监测结果的正确率。
预设姿态规则指的是可以让图像中人体特定区域的信息量满足分类模型要求的人物姿态标准;在图像中人物的姿态满足该预设姿态规则时,分类模型可以快速、精准地对图像中人物进行仪容仪表识别。
上述步骤S300中,先对当前帧中第一人物的姿态进行分析判断,若其姿态符合预设姿态规则,则说明当前帧中第一人物的人体特定区域的信息量可以满分类模型的分析要求,同时,因为人体特定区域的位置与人体骨骼关键点直接对应,因而可以根据第一人物的人体骨骼关键点信息,确定其人体特定区域在当前帧中所处的具体位置,即上述目标位置。通过上述方式,可以保留更多可靠的、具体较多信息量的人体特定区域图像,而将信息量较少、无效地人体特定区域图像滤除掉,从而可以明显提升视频中仪容仪表监测的性能。
可选地,在实际应用中,上述预设姿态规则包括姿态为正面姿态,具体可以是人体特定区域的正面姿态。该正面姿态是包含更多有用信息的正对相机的人物造型摆放方式。例如工装监测中,若通过人体骨骼关键点信息判断图像中员工处于正面姿态时,则进一步获取其人体特定区域在画面中的位置;而若若通过人体骨骼关键点信息判断图像中员工为侧身姿态或被遮挡的姿态,则可以滤除。
步骤S400、根据所述目标位置,在所述当前帧中获取所述人体特定区域对应的目标区域图像。
上述步骤S400中,即根据步骤S300中所确定的人体特定区域在当前图像中所处的位置,对应获取包含该人体特定区域的区域图像,即上述目标区域图像,以便于后续步骤中仅利用分类模型对该目标区域图像进行分类识别,而对不包含人体特定区域的其他其他图像区域则无需进行分类识别,可以进一步较少分类模型的运算量,从而进一步提高视频中仪容仪表监测的性能。
可选地,在实际应用中,上述步骤S400具体包括:以所述目标位置处的人体骨骼关键点为框架,按预设比例外扩裁剪所述当前帧,得到所述人体特定区域对应的目标区域图像。即以人体特定区域所对应的人体骨骼关键点区域为框架,按预设比例外扩,形成表示人体特定区域的图像区域,然后以该图像区域对当前帧进行剪裁,即可以得到包含人体特定区域的目标区域图像。
步骤S500、将所述目标区域图像输入预设分类模型,得到针对所述第一人物的第一仪容仪表监测结果。
上述步骤S500中,预设分类模型为预先训练得到的、针对人体特定区域的分类模型,其可以通过人特定区域的图像判定人体特定区域属于已知类别中的哪一类,该已知类别包括符合仪容仪表要求的类别和不符合仪容仪表要求的类别。将上述步骤S400中所得的的信息量充足的目标区域图像输入上述预设分类模型中,预设分类模型可以通过计算判定目标区域图像属于符合仪容仪表要求的类别还是不符合仪容仪表要求的类别,而因为上述目标区域图像是第一人物的人体特定区域在当前帧中的图像,因而上述针对目标区域图像的仪容仪表监测结果也即是针对上述第一人物的仪容仪表监测结果。
在实际应用中,上述预设分类模型为通过对神经网络模型进行深度学习、训练获得。
综上所述,本发明实施例提供的仪容仪表监测方法,先获取监控视频的当前帧中第一人物的人体骨骼关键点信息;并根据上述人体骨骼关键点信息,确定上述第一人物的姿态;若上述姿态符合预设姿态规则,则根据上述人体骨骼关键点信息,确定第一人物的人体特定区域在当前帧中的目标位置,进而获取上述人体特定区域对应的目标区域图像;再将上述目标区域图像输入预设分类模型,得到针对所述第一人物的第一仪容仪表监测结果。因为预先通过人体骨骼关键点信息对第一人物的姿态进行判定,只有在第一人物的姿态符合预设姿态规则时,其人体特定区域对应的目标区域图像才会被送入预设分类模型进行识别分类,也即滤除了对分类模型来说比较难、比较容易出错的图像,而只保留信息充足的图像,避免了对大量无效的图像分析处理,提升对监控视频中人物仪容仪表监测准确性。
可选地,在一种实施方式中,本发明实施例所述的仪容仪表监测方法,在上述步骤S100之前,还包括步骤S101:
步骤S101、根据特征数据及标签数据,训练获得所述预设分类模型;所述特征数据为人体特定区域的区域图像,所述标签数据为仪容仪表监测结果。
上述步骤S101中,即利用包括特征数据及标签数据的训练样本数据对神经网络模型进行训练,至上述神经网络模型的输出结果的准确率达到预设阈值时,将上述神经网络模型确定上上述预设分类模型。
可选地,在一种实施方式中,本发明实施例所述的仪容仪表监测方法,在上述步骤S100之后,还包括步骤S601,在上述步骤S200之后,还包括步骤S602:
步骤S601、根据所述人体骨骼关键点信息,确定所述第一人物的人体区域,并对所述人体区域进行行人跟踪。
在上述步骤S601中,以人体骨骼关键点为框架,按预设比例外扩裁剪所述当前帧,得到所述人体区域对应的人体图像。即以人体区域所对应的人体骨骼关键点区域为框架,按预设比例外扩,形成表示上述第一人物的人体区域,然后以该人物区域对当前帧进行剪裁,即可以得到包含人体区域的人体图像,以便于通过该图像对第一人物进行行人跟踪。
步骤S602、若所述姿态不符合预设姿态规则,则通过所述行人跟踪获取上一帧中所述人体区域对应的第二仪容仪表监测结果,并将所述第二仪容仪表监测结果作为针对所述第一人物的第一仪容仪表监测结果。
上述步骤S602中,即在确定步骤S200中获得的姿态不符合预设姿态规则时,利用对第一人物的人体区域进行行人跟踪的方式,获取监控视频的上一帧中的上述第一人物的仪容仪表信息,并利用上述仪容仪表信息来推测第一人物在当前帧中的仪容仪表信息,进而得到相应的仪容仪表监测结果,并展示上述相应的仪容仪表监测结果。
在本实施方式中,通过行人跟踪的方式,将监控视频的连续帧中同一个人的信息关联起来,得到针对同一个人连续的仪容仪表监测结果,进而可以达到针对同一个不符合仪容仪表要求的人连续给出警告的效果。
本发明的另一目的在于提出一种仪容仪表监测装置。请参阅图2,示出了本发明实施例提供的一种仪容仪表监测装置的结构框图,如图2所示,该装置可以包括:
获取模块10,第一获取模块,用于获取监控视频的当前帧中第一人物的人体骨骼关键点信息;
第一确定模块20,用于根据所述人体骨骼关键点信息,确定所述第一人物的姿态;
第二确定模块30,用于若所述姿态符合预设姿态规则,则根据所述人体骨骼关键点信息,确定所述第一人物的人体特定区域在所述当前帧中的目标位置;
第二获取模块40,根据所述目标位置,在所述当前帧中获取所述人体特定区域对应的目标区域图像;
监测识别模块50,用于将所述目标区域图像输入预设分类模型,得到针对所述第一人物的第一仪容仪表监测结果。
本发明实施例所提供的仪容仪表监测装置,先由第一获取模块10获取监控视频的当前帧中第一人物的人体骨骼关键点信息;并由第一确定模块20根据上述人体骨骼关键点信息,确定上述第一人物的姿态;若上述姿态符合预设姿态规则,则由第二确定模块30根据上述人体骨骼关键点信息,确定第一人物的人体特定区域在当前帧中的目标位置,进而由第二获取模块40获取上述人体特定区域对应的目标区域图像;再由监测识别模块50将上述目标区域图像输入预设分类模型,得到针对所述第一人物的第一仪容仪表监测结果。因为预先通过人体骨骼关键点信息对第一人物的姿态进行判定,只有在第一人物的姿态符合预设姿态规则时,其人体特定区域对应的目标区域图像才会被送入预设分类模型进行识别分类,也即滤除了对分类模型来说比较难、比较容易出错的图像,而只保留信息充足的图像,避免了对大量无效的图像分析处理,提升视频中仪容仪表监测的性能,提升视频中仪容仪表监测的性能。
可选地,所述的装置,还包括:
训练模块,用于根据特征数据及标签数据,训练获得所述预设分类模型;所述特征数据为人体特定区域的区域图像,所述标签数据为仪容仪表监测结果。
可选地,所述的装置中,所述预设姿态规则包括姿态为正面姿态。
可选地,所述的装置中,所述第二获取模块40,具体用于以所述目标位置处的人体骨骼关键点为框架,按预设比例外扩裁剪所述当前帧,得到所述人体特定区域对应的目标区域图像。
可选地,所述的装置中,所述第一获取模块10,具体用于利用人体姿态估计模型获取监控视频的当前帧中第一人物的人体骨骼关键点信息。
可选地,所述装置还包括:
第三确定模块,用于根据所述人体骨骼关键点信息,确定所述第一人物的人体区域,并对所述人体区域进行行人跟踪;
跟踪监测模块,用于若所述姿态不符合预设姿态规则,则通过所述行人跟踪获取上一帧中所述人体区域对应的第二仪容仪表监测结果,并将所述第二仪容仪表监测结果作为针对所述第一人物的第一仪容仪表监测结果。
所述仪容仪表监测装置与上述仪容仪表监测方法相对于现有技术所具有的优势相同,在此不再赘述。
综上所述,本发明实施例提供的仪容仪表监测方法及装置,预先通过人体骨骼关键点信息对监控视频的当前帧中第一人物的姿态进行判定,只有在第一人物的姿态符合预设姿态规则时,其人体特定区域对应的目标区域图像才会被送入预设分类模型进行识别分类,也即滤除了对分类模型来说比较难、比较容易出错的图像,而只保留信息充足的图像,避免了对大量无效的图像分析处理,提升对监控视频中人物仪容仪表监测准确性,从而解决了现有技术中容易将处于侧面姿态的、被身体其他部位遮挡的等状态下的人体特定区域的图像都送入分类模型中进行识别分析,造成分析运算数据量过大、分类正确率下降的问题。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域技术人员易于想到的是:上述各个实施例的任意组合应用都是可行的,故上述各个实施例之间的任意组合都是本发明的实施方案,但是由于篇幅限制,本说明书在此就不一一详述了。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
Claims (10)
1.一种仪容仪表监测方法,其特征在于,所述方法包括:
获取监控视频的当前帧中第一人物的人体骨骼关键点信息;
根据所述人体骨骼关键点信息,确定所述第一人物的姿态;
若所述姿态符合预设姿态规则,则根据所述人体骨骼关键点信息,确定所述第一人物的人体特定区域在所述当前帧中的目标位置;
根据所述目标位置,在所述当前帧中获取所述人体特定区域对应的目标区域图像;
将所述目标区域图像输入预设分类模型,得到针对所述第一人物的第一仪容仪表监测结果。
2.根据权利要求1所述的方法,其特征在于,在所述获取监控视频的当前帧中第一人物的人体骨骼关键点信息之前,还包括:
根据特征数据及标签数据,训练获得所述预设分类模型;所述特征数据为人体特定区域的区域图像,所述标签数据为仪容仪表监测结果。
3.根据权利要求1所述的方法,其特征在于,所述预设姿态规则包括姿态为正面姿态。
4.根据权利要求1所述的方法,其特征在于,所述根据所述目标位置,在所述当前帧中获取所述人体特定区域对应的目标区域图像,包括:
以所述目标位置处的人体骨骼关键点为框架,按预设比例外扩裁剪所述当前帧,得到所述人体特定区域对应的目标区域图像。
5.根据权利要求1所述的方法,其特征在于,所述获取监控视频的当前帧中第一人物的人体骨骼关键点信息,包括:
利用人体姿态估计模型获取监控视频的当前帧中第一人物的人体骨骼关键点信息。
6.根据权利要求1~5任一所述的方法,其特征在于,在所述获取监控视频的当前帧中第一人物的人体骨骼关键点信息之后,还包括:
根据所述人体骨骼关键点信息,确定所述第一人物的人体区域,并对所述人体区域进行行人跟踪;
在所述根据所述人体骨骼关键点信息,确定所述第一人物的姿态之后,还包括:
若所述姿态不符合预设姿态规则,则通过所述行人跟踪获取上一帧中所述人体区域对应的第二仪容仪表监测结果,并将所述第二仪容仪表监测结果作为针对所述第一人物的第一仪容仪表监测结果。
7.一种仪容仪表监测装置,其特征在于,所述装置,包括:
第一获取模块,用于获取监控视频的当前帧中第一人物的人体骨骼关键点信息;
第一确定模块,用于根据所述人体骨骼关键点信息,确定所述第一人物的姿态;
第二确定模块,用于若所述姿态符合预设姿态规则,则根据所述人体骨骼关键点信息,确定所述第一人物的人体特定区域在所述当前帧中的目标位置;
第二获取模块,根据所述目标位置,在所述当前帧中获取所述人体特定区域对应的目标区域图像;
监测识别模块,用于将所述目标区域图像输入预设分类模型,得到针对所述第一人物的第一仪容仪表监测结果。
8.根据权利要求7所述的装置,其特征在于,所述装置,还包括:
训练模块,用于根据特征数据及标签数据,训练获得所述预设分类模型;所述特征数据为人体特定区域的区域图像,所述标签数据为仪容仪表监测结果。
9.根据权利要求7所述的装置,其特征在于,所述第二获取模块,具体用于以所述目标位置处的人体骨骼关键点为框架,按预设比例外扩裁剪所述当前帧,得到所述人体特定区域对应的目标区域图像。
10.根据权利要求7~9任一所述的装置,其特征在于,所述装置还包括:
第三确定模块,用于根据所述人体骨骼关键点信息,确定所述第一人物的人体区域,并对所述人体区域进行行人跟踪;
跟踪监测模块,用于若所述姿态不符合预设姿态规则,则通过所述行人跟踪获取上一帧中所述人体区域对应的第二仪容仪表监测结果,并将所述第二仪容仪表监测结果作为针对所述第一人物的第一仪容仪表监测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010198791.9A CN111507192A (zh) | 2020-03-19 | 2020-03-19 | 一种仪容仪表监测方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010198791.9A CN111507192A (zh) | 2020-03-19 | 2020-03-19 | 一种仪容仪表监测方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111507192A true CN111507192A (zh) | 2020-08-07 |
Family
ID=71874093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010198791.9A Pending CN111507192A (zh) | 2020-03-19 | 2020-03-19 | 一种仪容仪表监测方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111507192A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112165573A (zh) * | 2020-09-14 | 2021-01-01 | 上海商汤智能科技有限公司 | 拍摄处理方法和装置、设备、存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013175484A2 (en) * | 2012-03-26 | 2013-11-28 | Tata Consultancy Services Limited | A multimodal system and method facilitating gesture creation through scalar and vector data |
CN103679130A (zh) * | 2012-09-24 | 2014-03-26 | 富士通株式会社 | 手追踪方法、手追踪设备和手势识别系统 |
US20140210704A1 (en) * | 2013-01-29 | 2014-07-31 | Wistron Corporation | Gesture recognizing and controlling method and device thereof |
CN107358149A (zh) * | 2017-05-27 | 2017-11-17 | 深圳市深网视界科技有限公司 | 一种人体姿态检测方法和装置 |
CN108399367A (zh) * | 2018-01-31 | 2018-08-14 | 深圳市阿西莫夫科技有限公司 | 手部动作识别方法、装置、计算机设备及可读存储介质 |
CN109829356A (zh) * | 2018-12-05 | 2019-05-31 | 科大讯飞股份有限公司 | 神经网络的训练方法及基于神经网络的行人属性识别方法 |
CN109948459A (zh) * | 2019-02-25 | 2019-06-28 | 广东工业大学 | 一种基于深度学习的足球动作评估方法与系统 |
CN110674785A (zh) * | 2019-10-08 | 2020-01-10 | 中兴飞流信息科技有限公司 | 一种基于人体关键点跟踪的多人姿态分析方法 |
CN110705390A (zh) * | 2019-09-17 | 2020-01-17 | 平安科技(深圳)有限公司 | 基于lstm的形体姿态识别方法、装置及存储介质 |
CN110781843A (zh) * | 2019-10-29 | 2020-02-11 | 首都师范大学 | 课堂行为检测方法及电子设备 |
-
2020
- 2020-03-19 CN CN202010198791.9A patent/CN111507192A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013175484A2 (en) * | 2012-03-26 | 2013-11-28 | Tata Consultancy Services Limited | A multimodal system and method facilitating gesture creation through scalar and vector data |
CN103679130A (zh) * | 2012-09-24 | 2014-03-26 | 富士通株式会社 | 手追踪方法、手追踪设备和手势识别系统 |
US20140210704A1 (en) * | 2013-01-29 | 2014-07-31 | Wistron Corporation | Gesture recognizing and controlling method and device thereof |
CN107358149A (zh) * | 2017-05-27 | 2017-11-17 | 深圳市深网视界科技有限公司 | 一种人体姿态检测方法和装置 |
CN108399367A (zh) * | 2018-01-31 | 2018-08-14 | 深圳市阿西莫夫科技有限公司 | 手部动作识别方法、装置、计算机设备及可读存储介质 |
CN109829356A (zh) * | 2018-12-05 | 2019-05-31 | 科大讯飞股份有限公司 | 神经网络的训练方法及基于神经网络的行人属性识别方法 |
CN109948459A (zh) * | 2019-02-25 | 2019-06-28 | 广东工业大学 | 一种基于深度学习的足球动作评估方法与系统 |
CN110705390A (zh) * | 2019-09-17 | 2020-01-17 | 平安科技(深圳)有限公司 | 基于lstm的形体姿态识别方法、装置及存储介质 |
CN110674785A (zh) * | 2019-10-08 | 2020-01-10 | 中兴飞流信息科技有限公司 | 一种基于人体关键点跟踪的多人姿态分析方法 |
CN110781843A (zh) * | 2019-10-29 | 2020-02-11 | 首都师范大学 | 课堂行为检测方法及电子设备 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112165573A (zh) * | 2020-09-14 | 2021-01-01 | 上海商汤智能科技有限公司 | 拍摄处理方法和装置、设备、存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shorfuzzaman et al. | Towards the sustainable development of smart cities through mass video surveillance: A response to the COVID-19 pandemic | |
CN109508688B (zh) | 基于骨架的行为检测方法、终端设备及计算机存储介质 | |
KR101977174B1 (ko) | 영상 분석 방법, 장치 및 컴퓨터 프로그램 | |
JP4860749B2 (ja) | 画像中の人物における位置決め指示との適合性を判定する機器、システム、及び方法 | |
US10963741B2 (en) | Control device, system and method for determining the perceptual load of a visual and dynamic driving scene | |
CN111524608B (zh) | 智能检测与防疫系统和方法 | |
US11798297B2 (en) | Control device, system and method for determining the perceptual load of a visual and dynamic driving scene | |
WO2021068781A1 (zh) | 一种疲劳状态识别方法、装置和设备 | |
JP2012235415A (ja) | 画像処理システム、発熱者特定方法、画像処理装置およびその制御方法と制御プログラム | |
CN111563480A (zh) | 冲突行为检测方法、装置、计算机设备和存储介质 | |
US11694476B2 (en) | Apparatus, system, and method of providing a facial and biometric recognition system | |
CN106960473B (zh) | 一种行为感知系统及方法 | |
CN114511768A (zh) | 用于检测占用者疾病症状的系统和方法 | |
JPWO2018154709A1 (ja) | 動作学習装置、技能判別装置および技能判別システム | |
CN112464797B (zh) | 一种吸烟行为检测方法、装置、存储介质及电子设备 | |
SG178270A1 (en) | Condition detection methods and condition detection devices | |
CN114005167A (zh) | 基于人体骨骼关键点的远距离视线估计方法和装置 | |
Pattanaworapan et al. | Signer-independence finger alphabet recognition using discrete wavelet transform and area level run lengths | |
CN112115803A (zh) | 口罩状态提醒方法、装置及移动终端 | |
CN110222616A (zh) | 行人异常行为检测方法、图像处理装置及存储装置 | |
JP7263094B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR20190050551A (ko) | 깊이 맵 정보 기반의 인체 행위 인지 방법 및 그 장치 | |
JP2021026336A (ja) | 情報処理装置、及び、マーケティング活動支援装置 | |
CN111507192A (zh) | 一种仪容仪表监测方法和装置 | |
CN114463779A (zh) | 吸烟识别方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200807 |
|
RJ01 | Rejection of invention patent application after publication |