CN111563480B - 冲突行为检测方法、装置、计算机设备和存储介质 - Google Patents
冲突行为检测方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN111563480B CN111563480B CN202010486621.0A CN202010486621A CN111563480B CN 111563480 B CN111563480 B CN 111563480B CN 202010486621 A CN202010486621 A CN 202010486621A CN 111563480 B CN111563480 B CN 111563480B
- Authority
- CN
- China
- Prior art keywords
- image
- human body
- analyzed
- key points
- driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 57
- 230000006399 behavior Effects 0.000 claims abstract description 160
- 238000000034 method Methods 0.000 claims abstract description 65
- 230000003993 interaction Effects 0.000 claims description 98
- 238000002372 labelling Methods 0.000 claims description 79
- 238000012549 training Methods 0.000 claims description 26
- 230000011218 segmentation Effects 0.000 claims description 10
- 230000000391 smoking effect Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 8
- 238000003709 image segmentation Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 239000000779 smoke Substances 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 16
- 230000009471 action Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 13
- 210000003414 extremity Anatomy 0.000 description 11
- 210000004247 hand Anatomy 0.000 description 9
- 238000012545 processing Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 210000002414 leg Anatomy 0.000 description 4
- 230000008451 emotion Effects 0.000 description 3
- 210000003423 ankle Anatomy 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 235000019504 cigarettes Nutrition 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/26—Government or public services
- G06Q50/265—Personal security, identity or safety
-
- G06Q50/40—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/117—Biometrics derived from hands
Abstract
本公开实施例涉及一种冲突行为检测方法、装置、计算机设备和存储介质。所述方法包括:获取车辆内的视频采集设备采集的待分析图像;将待分析图像输入预设的人体姿态识别模型,对待分析图像中的人体关键点进行识别,得到待分析图像中的人体关键点的位置;基于人体关键点的位置进行分析,确定待分析图像中是否存在冲突行为。采用本方法能够提高确定待分析图像中是否存在冲突行为的准确度。
Description
技术领域
本公开实施例涉及计算机视觉技术领域,特别是涉及一种冲突行为检测方法、装置、计算机设备和存储介质。
背景技术
随着网约车的出现,网约车中的安全问题成为了不容忽视的问题。因此,检测网约车内的人员是否发生冲突行为,在网约车的安全监测中显得尤为重要。
传统技术中,检测网约车内的人员是否发生冲突行为主要是通过对车内人员的人脸情绪进行检测来确定车内人员是否发生冲突行为。
然而,传统的对网约车内人员是否发生冲突行为的检测方法,存在检测准确度较低的问题。
发明内容
本公开实施例提供一种冲突行为检测方法、装置、电子设备和存储介质,可以用于检测车内人员是否发生冲突行为,提高对车内人员冲突行为的检测准确度。
第一方面,本公开实施例提供一种冲突行为检测方法,所述方法包括:
获取车辆内的视频采集设备采集的待分析图像;
将所述待分析图像输入预设的人体姿态识别模型,对所述待分析图像中的人体关键点进行识别,得到所述待分析图像中的人体关键点的位置;
基于所述人体关键点的位置进行分析,确定所述待分析图像中是否存在冲突行为。
第二方面,本公开实施例提供一种冲突行为检测装置,所述装置包括:
第一获取模块,用于获取车辆内的视频采集设备采集的待分析图像;
识别模块,用于将所述待分析图像输入预设的人体姿态识别模型,对所述待分析图像中的人体关键点进行识别,得到所述待分析图像中的人体关键点;
确定模块,用于对所述人体关键点进行分析,确定所述待分析图像中是否存在冲突行为。
第三方面,本公开实施例提供一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的方法。
第四方面,本公开实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面所述的方法。
本公开实施例提供的冲突行为检测方法、装置、计算机设备和存储介质,计算机设备获取车辆内的视频采集设备采集的待分析图像,将待分析图像输入预设的人体姿态识别模型,对待分析图像中的人体关键点进行识别,得到待分析图像中的人体关键点的位置,由于人体姿态识别模型是预先通过大量的样本图像进行训练得到的,具有较好的鲁棒性,因此,通过人体姿态识别模型能够对待分析图像中的人体关键点进行准确地识别,提高了得到的待分析图像中的人体关键点位置的准确度,相比于人脸情绪识别的方法要求采集到的车内人员图像是正面图像、以及通过获取车内人员大量裸露皮肤的位置才能对人体躯干定位的方法,通过人体姿态估计模型对待分析图像中的人体关键点进行识别无需要求采集的待分析图像中车内人员的图像是正面图像,也不需要车内人员有大量的裸露皮肤,进而计算机设备得到待分析图像中的人体关键点位置后,可以基于待分析图像中的人体关键点位置,准确地确定待分析图像中是否存在冲突行为,提高了确定待分析图像中是否存在冲突行为的准确度。
附图说明
图1为一个实施例中冲突行为检测方法的应用环境图;
图2为一个实施例中冲突行为检测方法的流程示意图;
图3为另一个实施例中冲突行为检测方法的流程示意图;
图4为另一个实施例中冲突行为检测方法的流程示意图;
图5为另一个实施例中冲突行为检测方法的流程示意图;
图6为另一个实施例中冲突行为检测方法的流程示意图;
图7为另一个实施例中冲突行为检测方法的流程示意图;
图8为另一个实施例中冲突行为检测方法的流程示意图;
图9为一个实施例中冲突行为检测装置的结构框图;
图10为另一个实施例中冲突行为检测装置的结构框图;
图11为另一个实施例中冲突行为检测装置的结构框图;
图12为另一个实施例中冲突行为检测装置的结构框图;
图13为另一个实施例中冲突行为检测装置的结构框图;
图14为另一个实施例中冲突行为检测装置的结构框图;
图15为另一个实施例中冲突行为检测装置的结构框图;
图16为另一个实施例中冲突行为检测装置的结构框图;
图17为另一个实施例中冲突行为检测装置的结构框图;
图18为另一个实施例中冲突行为检测装置的结构框图;
图19为另一个实施例中冲突行为检测装置的结构框图;
图20为另一个实施例中冲突行为检测装置的结构框图;
图21为另一个实施例中冲突行为检测装置的结构框图;
图22为另一个实施例中冲突行为检测装置的结构框图;
图23为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本公开实施例的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本公开实施例进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本公开实施例,并不用于限定本公开实施例。
首先,在具体介绍本公开实施例的技术方案之前,先对本公开实施例基于的技术背景或者技术演进脉络进行介绍。通常情况下,在网约车出行领域,当前的技术背景是:基于车内的智能终端获取车内的图像,通过图像对车内人员的人脸情绪进行识别,根据车内人员的人脸情绪分析车内司机和乘客的情况,检测车内是否发生冲突;或者通过对图像中车内人员的皮肤进行检测,获取车内人员裸露皮肤的位置,从而分析车内人员的躯干位置,通过预设的规则分析车内人员的躯干位置,以检测车内是否发生冲突。但是,车内的智能终端对车内进行监控时,终端设备通常固定在一个特定位置,只能通过一个角度对车内图像进行捕捉,这样在冲突场景中终端设备往往很难采集到车内人员的正面图像,而是车内人员的侧面图像,而侧面图像将在极大程度上影响人脸的情绪识别的准确性,进而无法保证对车内冲突识别的准确性;而通过获取车内人员裸露皮肤的位置,从而分析车内人员的躯干位置需要车内人员有尽可能多的裸露皮肤存在,而在冬天或寒冷地区车内人员穿着严实的情况下,车内人员的裸露皮肤较少,将极大的影响对车内人员的躯干定位,无法对车内人员的躯干有正确的定位;另外,在出现冲突的情况下,车内人员间的手会有大量相互交错的部分,在这种情况下,通过裸露皮肤对人体躯干定位的准确性将大幅下降;并且在实际场景中,后排乘客的裸露皮肤多被遮挡,基于皮肤检测人体躯干定位的方法只能对前排司机和副驾驶位置的人员的躯干进行准确地定位,若后排乘客与前排间有冲突,将影响对车内人员躯干定位的准确性,因此,通过获取车内人员裸露皮肤的位置,从而分析车内人员的躯干位置,以检测车内是否发生冲突的方法也无法保证对车内冲突识别的准确性。因此,如何准确地检测车内是否发生冲突,就成为了亟待解决的技术问题。
下面结合本公开实施例所应用的场景,对本公开实施例涉及的技术方案进行介绍。
本公开实施例提供的冲突行为检测方法,可以应用于如图1所示的系统架构中。该系统架构包括车辆端101以及计算机设备102。其中,车辆端101可以为小客车、公交车等机动车辆;计算机设备102可以是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,也可以是服务器,服务器可以为独立的服务器或者是多个服务器组成的服务器集群。其中,车辆端101内部包括视频采集设备1011,用于采集车辆内的视频;车辆端101设置有通信组件,其可以通过无线的方式与计算机设备102进行通信。本公开实施例对车辆端101以及计算机设备102之间的通信方式并不做限定。可选的,计算机设备102可以但不限于是各种车载智能设备,也可以是设置在车辆端101外部的与车辆端101通信连接的计算机设备。需要说明的是,图1中仅是以设置在车辆端101外部的计算机设备进行了示例。
在一个实施例中,如图2所示,提供了一种冲突行为检测方法,以该方法应用于图1中的计算机设备为例进行说明,包括以下步骤:
S201,获取车辆内的视频采集设备采集的待分析图像。
其中,待分析图像为包括车辆内主体的图像;该待分析图像可以为二维图像,也可以为三维图像,或者也可以为更高维的图像;该待分析图像可以包括一张图像,也可以包括多张连续的图像,或者,也可以包括某个时间段内的所有图像,本公开实施例中不加以限制。
具体地,计算机设备获取车辆内的视频采集设备采集的待分析图像。可选的,计算机设备可以通过与车辆之间无线通信的方式,也可以通过有线的通信方式,获取车辆内的视频采集设备采集的待分析图像。可选的,计算机设备可以按照预设的时间间隔获取车辆内的视频采集设备采集的待分析图像,也可以实时地获取车辆内的视频采集设备采集的待分析图像。可以理解的是,车辆内的视频采集设备可以将采集的车辆内图像存储在视频采集设备的数据库中,当计算机设备需要对该车辆内的人体行为进行分析时,再从该数据库中获取待分析图像。可选的,车辆内的视频采集设备可以为摄像头、摄像机、相机、扫描仪中的任意一种设备。
S202,将待分析图像输入预设的人体姿态识别模型,对待分析图像中的人体关键点进行识别,得到待分析图像中的人体关键点的位置。
其中,人体姿态识别模型(Open Pose)可以是基于卷积神经网络和监督学习,并以caffe为框架开发的开源库,可以从包含单人或多人的图像中检测出人体关键点,具有极好地鲁棒性。人体关键点包括鼻、左眼、右眼、左耳、右耳、左肩、右肩、左肘、右肘、左手腕、右手腕、左臀部、右臀部、左膝、右膝、左脚踝、右脚踝共17个关键点。
具体地,计算机设备将上述获取的待分析图像输入预设的人体姿态识别模型,对待分析图像中的人体关键点进行识别,得到该待分析图像中的人体关键点位置。需要说明的是,得到的待分析图像中人体关键点位置可以为上述17个关键点的位置,也可以为上述17个关键点中部分关键点的位置,本公开实施例中不加以限制。示例性地,假设待分析图像中包括三个主体,则计算机设备将该待分析图像输入人体姿态识别模型后,人体姿态识别模型能够对该待分析图像中包括的三个主体的人体关键点进行识别,得到这三个主体的人体关键点的位置。以待分析图像为网约车车内的图像为例,则得到的待分析图像中的人体关键点位置可以包括前排司机的人体关键点位置、前排乘客的人体关键点位置以及后排乘客的人体关键点位置。
可选的,人体姿态识别模型(Open Pose)的网络结构包括轻量化网络结构,可以理解的是,Open Pose模型的原始网络结构比较庞大,模型对人体关键点的识别效率较低,为了能够对车辆内是否存在冲突行为进行实时监测,可以将Open Pose模型的原始网络结构采用轻量化网络结构进行替换,以实现对车辆内是否存在冲突行为的实时监测,可选的,轻量化网络结构可以包括MobileNet等网络结构。
可以理解的是,为了提高得到的待分析图像中的人体关键点位置的准确度,可选地,可以在将待分析图像输入人体姿态识别模型之前,对待分析图像进行预处理,其中预处理可以包括归一化处理、图像增强处理和图像去噪处理等,然后将预处理后的待分析图像输入人体姿态识别模型,对预处理后的待分析图像中的人体关键点进行识别,得到待分析图像中的人体关键点位置。
S203,基于人体关键点的位置进行分析,确定待分析图像中是否存在冲突行为。
具体地,计算机设备基于上述得到的人体关键点的位置进行分析,确定待分析图像中是否存在冲突行为。示例性地,冲突行为可以为待分析图像中一个主体的手在另一个主体的脸部,也可以为待分析图像中多个主体的手和腿交互在一起,也可以为待分析图像中一个主体的手指向另一个主体,等等。
可选的,计算机设备可以基于得到的人体关键点的位置,构建待分析图像中各主体的姿态效果图,从而根据构建出来的各主体的姿态效果图,确定待分析图像中是否存在冲突行为。可选的,计算机设备也可以基于得到的人体关键点的位置,确定待分析图像中各主体的部位之间的距离是否小于预设的阈值,进而确定待分析图像中是否存在冲突行为,示例性地,如待分析图像中包括两个主体,则计算机设备可以根据这两个主体的人体关键的位置,确定待分析图像中一个主体的手与另一个主体的脸之间的距离是否小于预设的阈值,如果小于预设的阈值,则确定待分析图像中存在冲突行为,反之,则确定待分析图像中不存在冲突行为。继续以待分析图像为网约车车内的图像为例,那么在该场景中,待分析图像中的冲突行为可以为前排司机的手在前排乘客的脸上,或者前排司机的手在后排乘客的脸上,也可以为后排乘客之间手相互交错,腿相互重叠。
上述冲突行为检测方法中,计算机设备获取车辆内的视频采集设备采集的待分析图像,将待分析图像输入预设的人体姿态识别模型,对待分析图像中的人体关键点进行识别,得到待分析图像中的人体关键点的位置,由于人体姿态识别模型是预先通过大量的样本图像进行训练得到的,具有较好的鲁棒性,因此,通过人体姿态识别模型能够对待分析图像中的人体关键点进行准确地识别,提高了得到的待分析图像中的人体关键点位置的准确度,相比于人脸情绪识别的方法要求采集到的车内人员图像是正面图像、以及通过获取车内人员大量裸露皮肤的位置才能对人体躯干定位的方法,通过人体姿态估计模型对待分析图像中的人体关键点进行识别,无需要求采集的待分析图像中车内人员的图像是正面图像,也不需要车内人员有大量的裸露皮肤,进而计算机设备得到待分析图像中的人体关键点位置后,可以基于待分析图像中的人体关键点位置,准确地确定待分析图像中是否存在冲突行为,提高了确定待分析图像中是否存在冲突行为的准确度。
在上述基于人体关键点进行分析,确定待分析图像中是否存在冲突行为的场景中,计算机设备可以根据待分析图像中各主体之间的姿态交互关系,或者根据待分析图像中各主体之间的部位重叠区域,确定待分析图像中是否存在冲突行为,下面详细介绍采用不同的方法确定待分析图像中是否存在冲突行为的具体实现方式。
在一个实施例中,若计算机设备根据待分析图像中各主体之间的姿态交互关系,确定待分析图像中是否存在冲突行为,如图3所示,上述S203包括:
S301,根据人体关键点的位置,得到待分析图像中各主体之间的姿态交互关系;姿态交互关系用于表征各主体的部位之间的交互关系。
具体地,计算机设备根据上述得到的待分析图像中人体关键点的位置,得到待分析图像中各主体之间的姿态交互关系;其中,待分析图像中各主体之间的姿态交互关系用于表征各主体的部位之间的交互关系。可选的,各主体的部位可以包括手部、手肘、脸部和腿部等,各主体的部位之间的交互关系可以包括手部和手部的交互关系,手部和手肘的交互关系,手部和脸部的交互关系以及手部和腿部的交互关系等,本公开实施例中不加以限制。
可选的,在本实施例中,计算机设备可以根据待分析图像中各主体的部位类型,得到各主体之间的姿态交互关系;也可以根据待分析图像中各主体的位姿,得到各主体之间的姿态交互关系,下面详细介绍采用这两种方法的具体实现方式:
第一种:若计算机设备根据待分析图像中各主体的部位类型,得到各主体之间的姿态交互关系,则上述S301,包括:
步骤A,根据人体关键点的位置,识别待分析图像中各主体的部位类型。
具体地,计算机设备根据上述待分析图像中人体关键点的位置,识别待分析图像中各主体的部位类型。例如,可以预先建立人体关键点的位置与部位类型的对应关系,根据该对应关系确定各主体的部位类型;还可以是按照符合人体构造的一些规则对人体关键点连接,得到各个肢体,然后根据肢体的位置、形状等确定各主体的部位类型。
可选的,计算机设备可以根据上述待分析图像中人体关键点的位置、预设的人体关键点位置与部位类型之间的对应关系,识别待分析图像中各主体的部位类型。示例性地,计算机设备可以预先建立人体关键点的位置与部位类型的对应关系,将得到的待分析图像中人体关键点的位置与该对应关系中的人体关键点位置进行比对,找到与待分析图像中人体关键点位置一致的人体关键点的位置,进而根据对应关系,识别待分析图像中各主体的部位类型。示例性地,例如,得到的待分析图像中人体关键点的位置为(x1,y1),计算机设备将该人体关键点的位置与对应关系中的人体关键点位置进行比对,根据待分析图像中人体关键点的位置和该对应关系,找到与待分析图像中人体关键点的位置对应的主体的部位类型。可选的,识别出的部位类型可以为脸部,也可以为手部,或者腿部等。
步骤B,基于各主体的部位类型,得到待分析图像中各主体之间的姿态交互关系。
具体地,计算机设备基于上述得到的待分析图像中各主体的部位类型,得到待分析图像中各主体之间的姿态交互关系。例如,可以基于各种部位类型对应的肢体之间的相对位置关系,确定各主体之间的姿态交互关系;或者,还可以基于各种部位类型对应的肢体之间的重叠区域的面积大小,确定各主体之间的姿态交互关系;还可以基于各种部位类型对应的肢体之间的朝向、动作等,确定各主体之间的姿态交互关系。
可选的,计算机设备可以基于待分析图像中各主体的部位类型,得到待分析图像中各主体之间的部位距离值和部位夹角值,根据各主体之间的部位距离值和部位夹角值,得到待分析图像中各主体之间的姿态交互关系。示例性地,以待分析图像中包括两个主体(第一主体和第二主体)为例进行说明,若计算机设备得到第一主体的部位类型为手部,第二主体的部位类型为脸部,则计算机设备计算第一主体的手部与第二主体的脸部之间的部位距离值和部位夹角值,根据第一主体的手部与第二主体的脸部之间的部位距离值和部位夹角值,得到待分析图像中各主体之间的姿态交互关系。
本实施例中,由于人体关键点的位置和该关键点的位置对应的主体的部位类型是确定的,因此,计算机设备可以根据得到的人体关键点的位置,准确地识别出待分析图像中各主体的部位类型,进而可以基于识别出的各主体的部位类型,得到待分析图像中各主体之间的姿态交互关系,由于识别出的待分析图像中各主体的部位类型的准确度得到了提高,因此,得到的待分析图像中各主体之间的姿态交互关系的准确度也得到了提高。
第二种:若计算机设备根据待分析图像中各主体的位姿,得到各主体之间的姿态交互关系,则上述S301,包括:
步骤C,根据人体关键点的位置,构建待分析图像中各主体的位姿。
具体地,计算机设备根据上述得到的待分析图像中人体关键点的位置,构建待分析图像中各主体的位姿。可以理解的是,各主体的位姿包括各主体的位置和姿态。示例性地,以待分析图像中包括司机和乘客两个主体为例,则司机位姿包括司机所处的位置和司机的姿态,乘客的位姿包括乘客所处的位置和乘客的姿态。可选的,计算机设备可以根据得到的待分析图像中人体关键点的位置,将各主体的人体关键点连接起来,构建出待分析图像中各主体的位姿。
步骤D,分析各主体的位姿,得到待分析图像中各主体之间的姿态交互关系。
具体地,计算机设备分析待分析图像中各主体的位姿,得到待分析图像中各主体之间的姿态交互关系。可选的,计算机设备可以构建出待分析图像中各主体的位姿的效果图,根据各主体的位姿的效果图,分析各主体的各个部位或者肢体的位姿,得到待分析图像中各主体之间的姿态交互关系。示例性地,继续以待分析图像中包括司机和乘客两个主体为例,则待分析图像中各主体的位姿包括司机所处的位置和司机的姿态,乘客所处的位置和乘客的姿态,计算机设备对司机所处的位置和司机的姿态,以及乘客所处的位置和乘客的姿态进行分析,得到待分析图像中司机和乘客之间的姿态交互关系,得到的司机和乘客之间的姿态交互关系可以是司机的位置向乘客的位置方向移动,也可以是乘客的手指向司机所处的方向,也可以是司机的手在乘客的脸上。
本实施例中,计算机设备能够根据得到的人体关键点位置,对人体关键点进行连接,从而准确地构建出待分析图像中各主体的位姿,进而可以对得到的准确度较高的主体的位姿进行分析,准确地得到待分析图像中各主体之间的姿态交互关系,提高了得到的待分析图像中各主体之间的姿态交互关系的准确度。
S302,根据各主体之间的姿态交互关系,确定待分析图像中是否存在冲突行为。
具体地,计算机设备根据待分析图像中各主体之间的姿态交互关系,确定待分析图像中是否存在冲突行为。例如,可以预先建立姿态交互关系和冲突行为的对应关系,根据该对应关系,确定待分析图像中是否存在冲突行为;还可以根据各主体之间的姿态交互关系和预设的冲突行为确定规则,确定待分析图像中是否存在冲突行为。
可选的,计算机设备可以将待分析图像中各主体之间的姿态交互关系与预设的数据库中的姿态交互关系进行匹配,若匹配成功,则确定待分析图像中存在冲突行为,其中,预设的数据库包括至少一个冲突行为以及每个冲突行为对应的交互关系。示例性地,以数据库中存储的冲突行为包括司机的手打在乘客的脸上为例,该冲突行为对应的姿态交互关系为司机的手在乘客的脸上,若得到的待分析图像中各主体之间的姿态交互关系为司机的手在乘客的脸上,则该姿态交互关系与数据库中的姿态交互关系匹配成功,计算机设备确定待分析图像中存在冲突行为。
本实施例中,计算机设备根据人体关键点的位置,能够得到待分析图像中各主体之间的姿态交互关系,由于得到的人体关键点的位置的准确度得到的了提高,因而计算机设备可以准确地得到待分析图像中各主体之间的姿态交互关系,进而可以根据各主体之间的姿态交互关系,准确地确定出待分析图像中是否存在冲突行为,提高了确定待分析图像中是否存在冲突行为的准确度。
在另一个实施例中,若计算机设备根据待分析图像中各主体之间的部位重叠区域,确定待分析图像中是否存在冲突行为,则上述S203包括:
S401,根据人体关键点的位置,计算待分析图像中不同主体的关键点之间的距离。
具体地,计算机设备得到的人体关键点位置可以包括待分析图像中所有主体的人体关键点的位置,计算机设备可以根据这些关键点的位置,计算待分析图像中不同主体的关键点之间的距离。示例性地,继续以待分析图像中的主体包括司机和乘客为例,则计算机设备根据得到的人体关键点的位置,识别哪些关键点是司机的,哪些关键点是乘客的,然后再根据司机的人体关键点的位置和乘客的人体关键点的位置,计算待分析图像中司机和乘客的关键点之间的距离。
S402,根据小于预设阈值的距离对应的不同主体的关键点,得到各主体之间的部位重叠区域。
具体地,计算机设备得到待分析图像中不同主体的关键点之间的距离后,根据小于预设阈值的距离对应的不同主体的关键点,得到各主体之间的部位重叠区域。示例性地,计算机设备可以将得到的待分析图像中不同主体的关键点之间的距离和预设阈值进行比较,将小于预设阈值的距离对应的不同主体的关键点进行标注,根据标注出的关键点得到各主体之间的部位重叠区域。
S403,根据各主体之间的部位重叠区域,确定待分析图像中是否存在冲突行为。
具体地,计算机设备根据得到的各主体之间的部位重叠区域,确定待分析图像中是否存在冲突行为。例如,计算机设备可以根据各主体之间的部位重叠区域的面积是否超过了预设的面积阈值,确定待分析图像中是否存在冲突行为,若各主体之间的部位重叠区域的面积超过预设的面积阈值,则确定待分析图像中存在冲突行为,反之,则确定待分析图像中不存在冲突行为;也可以判断得到的各主体之间的部位重叠区域中的肢体是否为两个不同的主体的肢体,若是两个不同主体的肢体,则可以去识别部位重叠区域中的肢体分别是这两个不同主体的肢体类型,从而根据识别出的肢体类型确定待分析图像中是否存在冲突行为;或者,计算机设备也可以通过识别得到的各主体之间的部位重叠区域的肢体交互行为类型,然后根据识别出的执行交互行为类型,确定待分析图像中是否存在冲突行为。
可选的,计算机设备可以判断各主体之间的部位重叠区域是否为规范行为产生的重叠,若不是规范行为产生的重叠,则确定待分析图像中存在冲突行为。可以理解的是,这里的规范行为可以包括司机和乘客握手,司机帮乘客系安全带等行为。
本实施例中,计算机设备根据得到的待分析图像中的人体关键点的位置,能够计算出待分析图像中不同主体的关键点之间的准确距离,进而可以根据小于预设阈值的距离对应的不同主体的关键点,得到各主体之间的部位重叠区域,重点关注和分析各主体之间的部位重叠区域,不仅可以准确地确定出待分析图像中是否存在冲突行为,提高了确定待分析图像中是否存在冲突行为的准确度,还由于是针对部位重叠区域进行分析,相较于整体图像分析,减少了运算量,提高识别效率。
在上述获取车辆内的视频采集设备采集的待分析图像场景中,视频采集设备采集的为车内的视频,计算机设备需要根据采集的视频得到采集的待分析图像。在一个实施例中,如图5所示,上述S201包括:
S501,按照预设的时间间隔,从视频采集设备采集的视频中抽取视频帧;视频包括车辆内的多视角视频。
具体地,计算机设备按照预设的时间间隔,从上述视频采集设备采集的视频中抽取视频帧,其中,视频采集设备采集的视频包括车辆内的多视角视频。可以理解的是,为了采集到车辆内的多视角视频可以将视频采集设备安装在车辆内部的前台中间,或者将视频采集设备挂至后视镜的上边,以保证视频采集设备能够完整地捕获车辆内的多视角视频。可选的,预设的时间间隔可以为1秒,也可以为10秒,或者根据实际情况进行设置,本实施例在此不做限制。
S502,根据视频采集设备的采集频率特性,从视频帧中抽取待分析图像。
具体地,计算机设备根据上述视频采集设备的采集频率特性,从得到的视频帧中抽取待分析图像。需要说明的是,视频采集设备的采集频率特性是指视频采集设备采集的一个视频帧内包括多少幅图像。例如,某视频采集设备的采集频率特性为该视频采集设备采集的一个视频帧内包括五幅图像,则计算机设备可以从这五幅图像中抽取一幅或多幅图像作为上述待分析图像。
本实施例中,由于视频采集设备采集的视频包括车辆内的多视角视频,能够保证该视频采集设备完整的捕获车辆内各个视角,从得到的视频帧中抽取的待分析图像为车辆内完整视角的图像,避免了无法采集到车辆内后排主体的视频的情况,提高了得到待分析图像的准确度,并且,进而按照预设的时间间隔,从视频采集设备采集的视频中抽取的图像进行分析,不需要对采集得到的所有视频进行分析,减少了运算量,提高了识别效率。
在上述将待分析图像输入预设的人体姿态识别模型的场景中,人体姿态识别模型为预先训练好的模型。在一个实施例中,如图6所示,上述方法还包括:
S601,获取样本图像集;样本图像集包括样本图像和样本图像对应的标注图像;样本图像对应的标注图像为对样本图像中的人体关键点进行了标注的图像。
具体地,计算机设备获取样本图像集。其中,样本图像集包括样本图像和样本图像对应的标注图像;样本图像对应的标注图像为对样本图像中的人体关键点进行了标注的图像。可选的,计算机设备可以从人体姿态数据库中获取样本图像,以及该样本图像对应的标注图像,也可以从车辆内的视频采集设备中获取样本图像以及该样本图像对应的标注图像。
S602,根据样本图像集,对预设的初始人体姿态识别模型进行训练,得到人体姿态识别模型。
具体地,计算机设备根据上述得到的样本图像集,对预设的初始人体姿态识别模型进行训练,得到上述人体姿态识别模型。可选的,计算机设备可以将得到的样本图像集中的样本图像输入初始人体姿态识别模型,得到该样本图像中人体关键点的标注图像,根据得到的样本图像中人体关键点的标注图像和该样本图像对应的标注图像,得到初始人体姿态识别模型的损失函数的值,根据初始人体姿态识别模型的损失函数的值对初始人体姿态识别模进行训练,直至初始人体姿态识别模型的损失函数的值达到稳定值时,得到上述人体姿态识别模型。
本实施例中,计算机设备首先获取包括了样本图像和样本图像对应的标注图像的样本图像集,根据获取的样本图像集对预设的初始人体姿态识别模型进行训练,由于样本图像集中包含了大量的样本图像和这些样本图像对应的标注图像,因此,能够对初始人体姿态识别模型进行准确地训练,从而提高了得到得到的人体姿态识别模型的准确度。
在待分析图像为车辆内的图像的场景中,为了使人体姿态识别模型准确的识别出人体姿态,需要尽可能多的图像数据对初始人体姿态识别模型进行训练,但是采集车辆内的图像并进行标注的成本很大,因此,在对初始人体姿态检测模型进行训练的过程中可以先采用公开的人体姿态数据库进行模型的预训练,然后在实际的对车辆内的冲突进行识别的场景中,收集车辆内的图像并进行标注,构建小型的车辆内图像数据库,再将利用公开的人体姿态数据库训练得到的模型在构建的小型的车辆内图像数据库上继续训练,使得到的人体姿态识别模型能够对待分析图像中的人体关键点进行准确地识别。在一个实施例中,样本图像包括第一样本图像和第二样本图像;样本图像对应的标注图像包括第一样本图像对应的标注图像和第二样本图像对应的标注图像;第一样本图像为人体姿态数据库中的图像,第一样本图像对应的标注图像为对第一样本图像中的人体关键点进行了标注的图像,第二样本图像为从车辆内的视频采集设备采集的图像,第二样本图像对应的标注图像为对第二样本图像中的人体关键点进行了标注的图像。
则相应地,在一个实施例中,如图7所示,上述S602包括:
S701,将第一样本图像输入初始人体姿态识别模型中,对第一样本图像中的人体关键点进行标注,得到第一样本标注图像。
具体地,计算机设备将上述第一样本图像输入初始人体姿态识别模型中,通过初始人体姿态识别模型,对第一样本图像中的人体关键点进行标注,得到第一样本标注图像。例如,第一样本图像中有10个人体关键点,这计算机设备将对这10个人体关键点进行标注,得到标注了这10个人体关键点的第一样本标注图像。
S702,根据第一样本标注图像和第一样本图像对应的标注图像,对初始人体姿态识别模型进行训练,得到新的初始人体姿态识别模型。
具体地,计算机设备根据第一样本标注图像和获取的第一样本图像对应的标注图像,对初始人体姿态识别模型进行训练,得到新的初始人体姿态识别模型。可选的,计算机设备可以根据得到的第一样本标注图像和获取的第一样本图像对应的标注图像,得到初始人体姿态识别模型的损失函数的值,根据初始人体姿态识别模型的损失函数的值,对初始人体姿态识别模型进行训练,直至初始人体姿态识别模型的损失函数的值达到稳定值时,得到新的初始人体姿态识别模型。
S703,将第二样本图像输入新的初始人体姿态识别模型中,对第二样本图像中的人体关键点进行标注,得到第二样本标注图像。
具体地,计算机设备将上述第二样本图像输入得到的新的初始人体姿态识别模型中,对第二样本图像中的人体关键点进行标注,得到第二样本标注图像。可以理解的是,第二样本图像为从车辆内的视频采集设备采集的图像,第二样本图像中可以包括多个主体,则计算机设备将对这多个主体中的每个主体的人体关键点都进行标注,从而得到第二样本标注图像。
S704,根据第二样本标注图像和第二样本图像对应的标注图像,对新的初始人体姿态识别模型进行训练,得到人体姿态识别模型。
具体地,计算机设备根据得到的第二样本标注图像和获取的第二样本图像对应的标注图像,对得到的新的初始人体姿态识别模型进行训练,得到上述人体姿态识别模型。可选的,计算机设备可以根据得到的第二样本标注图像和获取的第二样本图像对应的标注图像,得到新的初始人体姿态识别模型的损失函数的值,根据新的初始人体姿态识别模型的损失函数的值,对新的初始人体姿态识别模型进行训练,直至新的初始人体姿态识别模型的损失函数的值达到稳定值时,得到上述体姿态识别模型。
可以理解的是,作为另一种可实现的方法,计算机设备也可以将第一样本图像和第二样本图像同时输入初始人体姿态识别模型,得到第一样本标注图像和第二样本标注图像,然后根据第一样本标注图像和第一样本图像对应的标注图像得到初始人体姿态识别模型的第一损失函数的值,根据第二样本标注图像和第二样本图像对应的标注图像得到初始人体姿态识别模型的第二损失函数的值,然后根据初始人体姿态识别模型的第一损失函数的值和初始人体姿态识别模型的第二损失函数的值,对初始人体姿态识别模型进行训练,得到上述人体姿态识别模型。
本实施例中,计算机设备首先根据第一样本图像和第一样本图像对应的标注图像,能够对初始人体姿态识别模型进行准确地训练,得到准确度较高的新的初始人体姿态识别模型,进而可以根据第二样本图像和第二样本图像对应的标注图像,对新的初始人体姿态识别模型进行训练,得到人体姿态识别模型,由于第二样本图像和第二样本图像对应的标注图像是车辆内的视频采集设备采集的图像数据,更加适合当前的车辆场景,通过第二样本图像和第二样本图像对应的标注图像对新的初始人体姿态识别模型训练,进一步提高了得到的人体姿态识别模型的场景适应性,使得到的人体姿态检测模型更加地符合检测车辆内是否发生冲突行为的场景,从而提高了得到的待分析图像中的人体关键点的位置的准确度。
在一些场景中,计算机设备还可以根据车辆内的图像,判断车辆内的驾驶人员是否存在违规行为,在一个实施例中,如图8所示,上述方法还包括:
S801,根据人体关键点,对待分析图像进行图像分割,得到分割图像。
具体地,计算机设备根据上述得到的人体关键点,对获取的待分析图像进行图像分割,得到分割图像。示例性地,计算机设备可以根据得到的人体关键点,在待分析图像中找到对应的人体关键点,然后将在预设范围内的人体关键点所对应的区域进行分割,得到分割图像。可选的,得到的分割图像可以为车辆内驾驶人员的手部图像,也可以为车辆内驾驶人员的人体上部图像,也可以为车辆内驾驶人员的脸部图像。
S802,根据分割图像,判断车辆内的驾驶人员是否存在违规行为。
具体地,计算机设备根据得到的分割图像,判断车辆内的驾驶人员是否存在违规行为。可选的,驾驶人员的违规行为可以包括驾驶人员未系安全带和/或驾驶人员车内抽烟、驾驶人员翻阅车辆内的目标对象以及驾驶人员着装违规。下面详细介绍对驾驶人员的不同违规行为的判断方法的具体实现方式。
1)若车辆内的驾驶人员的违规行为包括驾驶人员未系安全带和/或驾驶人员车内抽烟,则上述S802包括:将分割图像输入预设的识别网络中,判断车辆内的驾驶人员是否存在违规行为;识别网络用于识别驾驶人员的安全带状态和驾驶人员的抽烟行为。
具体地,计算机设备将上述得到的分割图像输入预设的识别网络中,判断车辆内的驾驶人员是否存在未系安全带或车内抽烟的违规行为。其中,识别网络用于识别驾驶人员的安全带状态和驾驶人员的抽烟行为;示例性地,识别网络可以通过识别车辆内的驾驶人员所系安全带的位置、安全带的形状以及安全带与车辆内的驾驶人员的相对位置等等,来判断车辆内的驾驶人员是否存在违规行为;识别网络也可以通过识别车辆内的驾驶人员的手指位置是否有烟雾、或者识别车辆内的驾驶人员的手指、嘴部是否存在烟雾、或者是否存在和香烟形状匹配的物体,来判断车辆内的驾驶人员是否存在违规行为。可以理解的是,计算机设备若要判断车辆内的驾驶人员是否未系安全带,则输入的分割图像为上述待分析图像中驾驶人员的人体上部图像;计算机设备若要判断车辆内的驾驶人员是否车内抽烟,则输入的分割图像为上述待分析图像中驾驶人员的手部图像。
2)若车辆内的驾驶人员的违规行为包括驾驶人员翻阅车辆内的目标对象,则上述S802包括:
步骤a,根据分割图像和人体姿态识别模型,得到分割图像中驾驶人员的手指位置;人体姿态识别模型用于识别图像中的人体部位类型和部位位置。
具体地,计算机设备根据上述得到的分割图像和人体姿态识别模型,得到分割图像中驾驶人员的手指位置;其中,人体姿态识别模型用于识别图像中的人体部位类型和部位位置。可以理解的是,本实施例中,计算机设备要得到分割图像中驾驶人员的手指位置,则输入的分割图像为上述待分析图像中驾驶人员的手部图像。
步骤b,获取驾驶人员的手指位置与车辆内的目标对象之间的相对位置关系。
具体地,计算机设备获取驾驶人员的手指位置与车辆内的目标对象之间的相对位置关系。可选的,计算机设备可以通过计算驾驶人员的手指位置与车辆内的目标对象之间的距离值和夹角值,根据驾驶人员的手指位置与车辆内的目标对象之间的距离值和夹角值,获取驾驶人员的手指位置与车辆内的目标对象之间的相对位置关系。
步骤c,根据相对位置关系,判断驾驶人员是否翻阅目标对象。
具体地,计算机设备根据上述得到的驾驶人员的手指位置与车辆内的目标对象之间的相对位置关系,判断驾驶人员是否翻阅目标对象。例如,若得到的驾驶人员的手指位置与车辆内的目标对象之间的相对位置关系为驾驶人员的手指位置在车辆内的目标对象的内部,则计算机设备确定驾驶人员翻阅了目标对象。
3)若车辆内的驾驶人员的违规行为包括驾驶人员着装违规,则上述S802包括:将分割图像输入预设的分类网络中,判断车辆内的驾驶人员着装是否规范;分类网络用于识别驾驶人员的着装类型。
具体地,计算机设备将上述得到的分割图像输入预设的分类网络中,判断车辆内的驾驶人员着装是否规范。其中,分类网络用于识别驾驶人员的着装类型。可选的,分类网络可以识别出驾驶人员的着装类型,通过判断识别出来的着装类型是否与规范的着装类型一致,来判断车辆内的驾驶人员着装是否规范。可选的,分类网络识别出来的着装类型可以为制服,也可以为休闲装;或者分类网络识别出来的着装类型可以为长袖和/或长裤,也可以为长袖和/或短袖。可选的,计算机设备也可以通过提取出分割图像中车辆内驾驶人员着装的特征点,分析提取出的着装特征点和预设的规范着装的特征点是否匹配,来判断车辆内的驾驶人员着装是否规范。可以理解的是,分类网络是用于对驾驶人员的着装类型进行识别,则输入的分割图像为上述待分析图像中驾驶人员的人体上部图像或人体下部图像。
本实施例中,计算机设备根据待分析图像中人体关键点的位置,能够对待分析图像进行准确地图像分割,提高了得到的分割图像的准确度,进而可以根据得到的分割图像,准确地判断车辆内的驾驶人员是否存在违规行为,提高了对车辆内的驾驶人员是否存在违规行为的判断准确度;另外,通过分割图像对车辆内的驾驶人员是否存在违规行为进行判断,能够有效地减少计算机设备的运算量,提高了对车辆内的驾驶人员是否存在违规行为的判断效率。
为了便于本领域技术人员的理解,以下对本公开提供的冲突行为检测方法进行详细介绍,该方法可以包括:
S1,获取第一样本图像、第一样本图像对应的标注图像、第二样本图像和第二样本图像对应的标注图像;所述第一样本图像为人体姿态数据库中的图像,所述第一样本图像对应的标注图像为对所述第一样本图像中的人体关键点进行了标注的图像,所述第二样本图像为从所述车辆内的视频采集设备采集的图像,所述第二样本图像对应的标注图像为对所述第二样本图像中的人体关键点进行了标注的图像。
S2,将所述第一样本图像输入所述初始人体姿态识别模型中,对所述第一样本图像中的人体关键点进行标注,得到第一样本标注图像。
S3,根据所述第一样本标注图像和所述第一样本图像对应的标注图像,对所述初始人体姿态识别模型进行训练,得到新的初始人体姿态识别模型。
S4,将所述第二样本图像输入所述新的初始人体姿态识别模型中,对所述第二样本图像中的人体关键点进行标注,得到第二样本标注图像。
S5,根据所述第二样本标注图像和所述第二样本图像对应的标注图像,对所述新的初始人体姿态识别模型进行训练,得到所述人体姿态识别模型。
S6,按照预设的时间间隔,从所述视频采集设备采集的视频中抽取视频帧;所述视频包括所述车辆内的多视角视频。
S7,根据所述视频采集设备的采集频率特性,从所述视频帧中抽取所述待分析图像。
S8,将所述待分析图像输入预设的人体姿态识别模型,对所述待分析图像中的人体关键点进行识别,得到所述待分析图像中的人体关键点的位置;执行S9-S10,或者,S11-S13。
S9,根据所述人体关键点的位置,得到所述待分析图像中各主体之间的姿态交互关系;所述姿态交互关系用于表征所述各主体的部位之间的交互关系。
S10,将所述各主体之间的姿态交互关系与预设的数据库中的姿态交互关系进行匹配;所述数据库包括至少一个冲突行为以及每个冲突行为对应的交互关系;若匹配成功,则确定所述待分析图像中存在冲突行为。
S11,根据所述人体关键点的位置,计算所述待分析图像中不同主体的关键点之间的距离。
S12,根据小于预设阈值的距离对应的不同主体的关键点,得到各主体之间的部位重叠区域。
S13,根据各所述主体之间的部位重叠区域,确定所述待分析图像中是否存在冲突行为。
S14,根据所述人体关键点的位置,对所述待分析图像进行图像分割,得到分割图像;执行S15,或者S16-S18,或者S19。
S15,将所述分割图像输入预设的识别网络中,判断所述车辆内的驾驶人员是否存在包括驾驶人员未系安全带和/或所述驾驶人员车内抽烟的违规行为;所述识别网络用于识别所述驾驶人员的安全带状态和所述驾驶人员的抽烟行为。
S16,根据所述分割图像和所述人体姿态识别模型,得到所述分割图像中驾驶人员的手指位置;所述人体姿态识别模型用于识别图像中的人体部位类型和部位位置。
S17,获取所述驾驶人员的手指位置与所述车辆内的目标对象之间的相对位置关系。
S18,根据所述相对位置关系,判断所述驾驶人员是否翻阅所述目标对象。
S19,将所述分割图像输入预设的分类网络中,判断所述车辆内的驾驶人员着装是否规范;所述分类网络用于识别驾驶人员的着装类型。
其中,S9中根据所述人体关键点的位置,得到所述待分析图像中各主体之间的姿态交互关系步骤中,计算机设备可以根据待分析图像中各主体的部位类型,得到各主体之间的姿态交互关系;也可以根据待分析图像中各主体的位姿,得到各主体之间的姿态交互关系,下面详细介绍采用这两种方法的具体实现方式:
一)若计算机设备根据待分析图像中各主体的部位类型,得到各主体之间的姿态交互关系,则上述S9包括:
D1,根据所述人体关键点的位置、预设的人体关键点的位置与部位类型之间的对应关系,识别所述待分析图像中各所述主体的部位类型;
D2,基于各所述主体的部位类型,得到所述待分析图像中各所述主体之间的部位距离值和部位夹角值;
D3,根据各所述主体之间的部位距离值和部位夹角值,得到所述待分析图像中各所述主体之间的姿态交互关系。
二)若计算机设备根据待分析图像中各主体的位姿,得到各主体之间的姿态交互关系,则上述S9包括:
H1,根据所述人体关键点的位置,构建所述待分析图像中各主体的位姿;
H2,分析各所述主体的位姿,得到所述待分析图像中各所述主体之间的姿态交互关系。
需要说明的是,针对上述S1-S19、D1-D3、H1-H2中的描述可以参见上述实施例中相关的描述,且其效果类似,本实施例在此不再赘述。
应该理解的是,虽然图2-8的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-8中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图9所示,提供了一种冲突行为检测装置,包括:第一获取模块10、识别模块11和确定模块12,其中:
第一获取模块10,用于获取车辆内的视频采集设备采集的待分析图像。
识别模块11,用于将待分析图像输入预设的人体姿态识别模型,对待分析图像中的人体关键点进行识别,得到待分析图像中的人体关键点。
确定模块12,用于对人体关键点进行分析,确定待分析图像中是否存在冲突行为。
可选的,人体姿态识别模型的网络结构包括轻量化网络结构。
本实施例提供的冲突行为检测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在上述图9所示的实施例的基础上,如图10所示,可选的,上述确定模块12包括:第一获取单元121和第一确定单元122,其中:
第一获取单元121,用于根据人体关键点的位置,得到待分析图像中各主体之间的姿态交互关系;姿态交互关系用于表征各主体的部位之间的交互关系;
第一确定单元122,用于根据各主体之间的姿态交互关系,确定待分析图像中是否存在冲突行为。
本实施例提供的冲突行为检测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在上述图10所示的实施例的基础上,如图11所示,可选的,上述第一获取单元121包括:识别子单元1211和第一获取子单元1212,其中:
识别子单元1211,用于根据人体关键点的位置,识别待分析图像中各主体的部位类型;
第一获取子单元1212,用于基于各主体的部位类型,得到待分析图像中各主体之间的姿态交互关系。
本实施例提供的冲突行为检测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在上述图11所示的实施例的基础上,可选的,识别子单元1211,用于根据人体关键点的位置、预设的人体关键点的位置与部位类型之间的对应关系,识别待分析图像中各主体的部位类型。
本实施例提供的冲突行为检测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在上述图11所示的实施例的基础上,可选的,第一获取子单元1212,具体用于基于各主体的部位类型,得到待分析图像中各主体之间的部位距离值和部位夹角值;根据各主体之间的部位距离值和部位夹角值,得到待分析图像中各主体之间的姿态交互关系。
本实施例提供的冲突行为检测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在上述图10所示的实施例的基础上,如图12所示,可选的,上述第一获取单元121包括:构建子单元1213和第二获取子单元1214,其中,
构建子单元1213,用于根据人体关键点的位置,构建待分析图像中各主体的位姿;
第二获取子单元1214,用于分析各主体的位姿,得到待分析图像中各主体之间的姿态交互关系。
本实施例提供的冲突行为检测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在上述图12所示的实施例的基础上,如图13所示,可选的,上述第一确定单元122,包括:匹配子单元1221和第一确定子单元1222,其中,
匹配子单元1221,用于将各主体之间的姿态交互关系与预设的数据库中的姿态交互关系进行匹配;数据库包括至少一个冲突行为以及每个冲突行为对应的交互关系;
第一确定子单元1222,用于若匹配成功,则确定待分析图像中存在冲突行为。
需要说明的是,图13中的结构是在图12所示的实施例的基础上示出的,当然图13还可以在图11所示的结构上示出,这里仅是一种示例。
本实施例提供的冲突行为检测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在上述图9所示的实施例的基础上,如图14所示,可选的,上述确定模块12,包括:计算单元123、第二获取单元124和第二确定单元125,其中:
计算单元123,用于根据人体关键点的位置,计算待分析图像中不同主体的关键点之间的距离;
第二获取单元124,用于根据小于预设阈值的距离对应的不同主体的关键点,得到各主体之间的部位重叠区域;
第二确定单元125,用于根据各主体之间的部位重叠区域,确定待分析图像中是否存在冲突行为。
本实施例提供的冲突行为检测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在上述图14所示的实施例的基础上,如图15所示,可选的,上述第二确定单元125,包括:第二确定子单元1251,其中:
第二确定子单元1251,用于判断各主体之间的部位重叠区域是否为规范行为产生的重叠,若否,则确定待分析图像中存在冲突行为。
本实施例提供的冲突行为检测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在上述图15所示的实施例的基础上,如图16所示,可选的,上述第一获取模块10,包括:第一抽取单元101和第二抽取单元102,其中,
第一抽取单元101,用于按照预设的时间间隔,从视频采集设备采集的视频中抽取视频帧;视频包括车辆内的多视角视频;
第二抽取单元102,用于根据视频采集设备的采集频率特性,从视频帧中抽取待分析图像。
需要说明的是,图16中的结构是在图15所示的实施例的基础上示出的,当然图16还可以在图11或者图12所示的结构上示出,这里仅是一种示例。
本实施例提供的冲突行为检测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在上述图16所示的实施例的基础上,如图17所示,可选的,上述装置还包括:第二获取模块13和训练模块14,其中:
第二获取模块13,用于获取样本图像集;样本图像集包括样本图像和样本图像对应的标注图像;样本图像对应的标注图像为对样本图像中的人体关键点进行了标注的图像;
训练模块14,用于根据样本图像集,对预设的初始人体姿态识别模型进行训练,得到人体姿态识别模型。
可选的,样本图像包括第一样本图像和第二样本图像;样本图像对应的标注图像包括第一样本图像对应的标注图像和第二样本图像对应的标注图像;第一样本图像为人体姿态数据库中的图像,第一样本图像对应的标注图像为对第一样本图像中的人体关键点进行了标注的图像,第二样本图像为从车辆内的视频采集设备采集的图像,第二样本图像对应的标注图像为对第二样本图像中的人体关键点进行了标注的图像。
本实施例提供的冲突行为检测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在上述图17所示的实施例的基础上,如图18所示,可选的,上述训练模块14,包括:第一标注单元141、第一训练单元142、第二标注单元143和第二训练单元144,其中:
第一标注单元141,用于将第一样本图像输入初始人体姿态识别模型中,对第一样本图像中的人体关键点进行标注,得到第一样本标注图像;
第一训练单元142,用于根据第一样本标注图像和第一样本图像对应的标注图像,对初始人体姿态识别模型进行训练,得到新的初始人体姿态识别模型;
第二标注单元143,用于将第二样本图像输入新的初始人体姿态识别模型中,对第二样本图像中的人体关键点进行标注,得到第二样本标注图像;
第二训练单元144,用于根据第二样本标注图像和第二样本图像对应的标注图像,对新的初始人体姿态识别模型进行训练,得到人体姿态识别模型。
本实施例提供的冲突行为检测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在上述图18所示的实施例的基础上,如图19所示,可选的,上述装置还包括:分割模块15和判断模块16,其中:
分割模块15,用于根据人体关键点的位置,对待分析图像进行图像分割,得到分割图像;
判断模块16,用于根据分割图像,判断车辆内的驾驶人员是否存在违规行为。
本实施例提供的冲突行为检测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在上述图19所示的实施例的基础上,如图20所示,可选的,违规行为包括驾驶人员未系安全带和/或驾驶人员车内抽烟,上述判断模块16,包括:第一判断单元161,其中,
第一判断单元161,用于将分割图像输入预设的识别网络中,判断车辆内的驾驶人员是否存在违规行为;识别网络用于识别驾驶人员的安全带状态和驾驶人员的抽烟行为。
本实施例提供的冲突行为检测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在上述图19所示的实施例的基础上,如图21所示,可选的,违规行为包括驾驶人员翻阅车辆内的目标对象,上述判断模块16包括:第三获取单元162、第四获取单元163和第二判断单元164,其中,
第三获取单元162,用于根据分割图像和人体姿态识别模型,得到分割图像中驾驶人员的手指位置;人体姿态识别模型用于识别图像中的人体部位类型和部位位置;
第四获取单元163,用于获取驾驶人员的手指位置与车辆内的目标对象之间的相对位置关系;
第二判断单元164,用于根据相对位置关系,判断驾驶人员是否翻阅目标对象。
本实施例提供的冲突行为检测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在上述图19所示的实施例的基础上,如图22所示,可选的,违规行为包括驾驶员着装违规,上述判断模块16包括:第三判断单元165,其中:
第三判断单元165,用于将分割图像输入预设的分类网络中,判断车辆内的驾驶人员着装是否规范;分类网络用于识别驾驶人员的着装类型。
本实施例提供的冲突行为检测装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
关于冲突行为检测装置的具体限定可以参见上文中对于冲突行为检测方法的限定,在此不再赘述。上述冲突行为检测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于电子设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
图23是根据一示例性实施例示出的一种计算机设备1400的框图。参照图23,计算机设备1400包括处理组件1420,其进一步包括一个或多个处理器,以及由存储器1422所代表的存储器资源,用于存储可由处理组件1420执行的指令或者计算机程序,例如应用程序。存储器1422中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1420被配置为执行指令,以执行上述冲突行为检测的方法。
计算机设备1400还可以包括一个电源组件1424被配置为执行设备1400的电源管理,一个有线或无线网络接口1426被配置为将设备1400连接到网络,和一个输入输出(I/O)接口1428。计算机设备1400可以操作基于存储在存储器1422的操作系统,例如Window1414erverTM,Mac O14 XTM,UnixTM,LinuxTM,FreeB14DTM或类似。
在示例性实施例中,还提供了一种包括指令的存储介质,例如包括指令的存储器1422,上述指令可由计算机设备1400的处理器执行以完成上述方法。存储介质可以是非临时性计算机可读存储介质,例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本公开实施例所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本公开实施例的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本公开实施例构思的前提下,还可以做出若干变形和改进,这些都属于本公开实施例的保护范围。因此,本公开实施例专利的保护范围应以所附权利要求为准。
Claims (32)
1.一种冲突行为检测方法,其特征在于,所述方法包括:
获取车辆内的视频采集设备采集的待分析图像;
将所述待分析图像输入预设的人体姿态识别模型,对所述待分析图像中的人体关键点进行识别,得到所述待分析图像中的人体关键点的位置;所述人体姿态识别模型的网络结构包括轻量化网络结构;
基于所述人体关键点的位置进行分析,确定所述待分析图像中是否存在冲突行为;其中,所述基于所述人体关键点的位置进行分析,确定所述待分析图像中是否存在冲突行为,包括:根据所述人体关键点的位置,得到所述待分析图像中各主体之间的姿态交互关系;所述姿态交互关系用于表征所述各主体的部位之间的交互关系;根据所述各主体之间的姿态交互关系,确定所述待分析图像中是否存在冲突行为;
或者,
根据所述人体关键点的位置,计算所述待分析图像中不同主体的关键点之间的距离;根据小于预设阈值的距离对应的不同主体的关键点,得到各主体之间的部位重叠区域;根据各所述主体之间的部位重叠区域,确定所述待分析图像中是否存在冲突行为。
2.根据权利要求1所述的方法,其特征在于,所述根据所述人体关键点的位置,得到所述待分析图像中各主体之间的姿态交互关系,包括:
根据所述人体关键点的位置,识别所述待分析图像中各所述主体的部位类型;
基于各所述主体的部位类型,得到所述待分析图像中各所述主体之间的姿态交互关系。
3.根据权利要求2所述的方法,其特征在于,所述根据所述人体关键点的位置,识别所述待分析图像中各所述主体的部位类型,包括:
根据所述人体关键点的位置、预设的人体关键点的位置与部位类型之间的对应关系,识别所述待分析图像中各所述主体的部位类型。
4.根据权利要求2所述的方法,其特征在于,所述基于各所述主体的部位类型,得到所述待分析图像中各所述主体之间的姿态交互关系,包括:
基于各所述主体的部位类型,得到所述待分析图像中各所述主体之间的部位距离值和部位夹角值;
根据各所述主体之间的部位距离值和部位夹角值,得到所述待分析图像中各所述主体之间的姿态交互关系。
5.根据权利要求1所述的方法,其特征在于,所述根据所述人体关键点的位置,得到所述待分析图像中各主体之间的姿态交互关系,包括:
根据所述人体关键点的位置,构建所述待分析图像中各主体的位姿;
分析各所述主体的位姿,得到所述待分析图像中各所述主体之间的姿态交互关系。
6.根据权利要求1所述的方法,其特征在于,所述根据所述各主体之间的姿态交互关系,确定所述待分析图像中是否存在冲突行为,包括:
将所述各主体之间的姿态交互关系与预设的数据库中的姿态交互关系进行匹配;所述数据库包括至少一个冲突行为以及每个冲突行为对应的交互关系;
若匹配成功,则确定所述待分析图像中存在冲突行为。
7.根据权利要求1所述的方法,其特征在于,所述根据各所述主体之间的部位重叠区域,确定所述待分析图像中是否存在冲突行为,包括:
判断各所述主体之间的部位重叠区域是否为规范行为产生的重叠,若否,则确定所述待分析图像中存在冲突行为。
8.根据权利要求1所述的方法,其特征在于,所述获取车辆内的视频采集设备采集的待分析图像,包括:
按照预设的时间间隔,从所述视频采集设备采集的视频中抽取视频帧;所述视频包括所述车辆内的多视角视频;
根据所述视频采集设备的采集频率特性,从所述视频帧中抽取所述待分析图像。
9.根据权利要求1所述的方法,其特征在于,所述人体姿态识别模型的训练过程包括:
获取样本图像集;所述样本图像集包括样本图像和所述样本图像对应的标注图像;所述样本图像对应的标注图像为对所述样本图像中的人体关键点进行了标注的图像;
根据所述样本图像集,对预设的初始人体姿态识别模型进行训练,得到所述人体姿态识别模型。
10.根据权利要求9所述的方法,其特征在于,所述样本图像包括第一样本图像和第二样本图像;所述样本图像对应的标注图像包括所述第一样本图像对应的标注图像和所述第二样本图像对应的标注图像;所述第一样本图像为人体姿态数据库中的图像,所述第一样本图像对应的标注图像为对所述第一样本图像中的人体关键点进行了标注的图像,所述第二样本图像为从所述车辆内的视频采集设备采集的图像,所述第二样本图像对应的标注图像为对所述第二样本图像中的人体关键点进行了标注的图像。
11.根据权利要求10所述的方法,其特征在于,所述根据所述样本图像集,对预设的初始人体姿态识别模型进行训练,得到所述人体姿态识别模型,包括:
将所述第一样本图像输入所述初始人体姿态识别模型中,对所述第一样本图像中的人体关键点进行标注,得到第一样本标注图像;
根据所述第一样本标注图像和所述第一样本图像对应的标注图像,对所述初始人体姿态识别模型进行训练,得到新的初始人体姿态识别模型;
将所述第二样本图像输入所述新的初始人体姿态识别模型中,对所述第二样本图像中的人体关键点进行标注,得到第二样本标注图像;
根据所述第二样本标注图像和所述第二样本图像对应的标注图像,对所述新的初始人体姿态识别模型进行训练,得到所述人体姿态识别模型。
12.根据权利要求1至11任意一项所述的方法,其特征在于,所述方法还包括:
根据所述人体关键点的位置,对所述待分析图像进行图像分割,得到分割图像;
根据所述分割图像,判断所述车辆内的驾驶人员是否存在违规行为。
13.根据权利要求12所述的方法,其特征在于,所述违规行为包括所述驾驶人员未系安全带和/或所述驾驶人员车内抽烟,所述根据所述分割图像,判断车辆内的驾驶人员是否存在违规行为,包括:
将所述分割图像输入预设的识别网络中,判断所述车辆内的驾驶人员是否存在违规行为;所述识别网络用于识别所述驾驶人员的安全带状态和所述驾驶人员的抽烟行为。
14.根据权利要求12所述的方法,其特征在于,所述违规行为包括所述驾驶人员翻阅车辆内的目标对象,所述根据所述分割图像,判断车辆内的驾驶人员是否存在违规行为,包括:
根据所述分割图像和所述人体姿态识别模型,得到所述分割图像中驾驶人员的手指位置;所述人体姿态识别模型用于识别图像中的人体部位类型和部位位置;
获取所述驾驶人员的手指位置与所述车辆内的目标对象之间的相对位置关系;
根据所述相对位置关系,判断所述驾驶人员是否翻阅所述目标对象。
15.根据权利要求12所述的方法,其特征在于,所述违规行为包括所述驾驶人员着装违规,所述根据所述分割图像,判断车辆内的驾驶人员是否存在违规行为,包括:
将所述分割图像输入预设的分类网络中,判断所述车辆内的驾驶人员着装是否规范;所述分类网络用于识别驾驶人员的着装类型。
16.一种冲突行为检测装置,其特征在于,所述装置包括:
第一获取模块,用于获取车辆内的视频采集设备采集的待分析图像;
识别模块,用于将所述待分析图像输入预设的人体姿态识别模型,对所述待分析图像中的人体关键点进行识别,得到所述待分析图像中的人体关键点;所述人体姿态识别模型的网络结构包括轻量化网络结构;
确定模块,用于对所述人体关键点进行分析,确定所述待分析图像中是否存在冲突行为;其中,所述确定模块包括:第一获取单元,用于根据所述人体关键点的位置,得到所述待分析图像中各主体之间的姿态交互关系;所述姿态交互关系用于表征所述各主体的部位之间的交互关系;第一确定单元,用于根据所述各主体之间的姿态交互关系,确定所述待分析图像中是否存在冲突行为;
或者,
所述确定模块包括:计算单元,用于根据所述人体关键点的位置,计算所述待分析图像中不同主体的关键点之间的距离;第二获取单元,用于根据小于预设阈值的距离对应的不同主体的关键点,得到各主体之间的部位重叠区域;第二确定单元,用于根据各所述主体之间的部位重叠区域,确定所述待分析图像中是否存在冲突行为。
17.根据权利要求16所述的冲突行为检测装置,其特征在于,所述第一获取单元,包括:
识别子单元,用于根据所述人体关键点的位置,识别所述待分析图像中各所述主体的部位类型;
第一获取子单元,用于基于各所述主体的部位类型,得到所述待分析图像中各所述主体之间的姿态交互关系。
18.根据权利要求17所述的冲突行为检测装置,其特征在于,所述识别子单元,具体用于根据所述人体关键点的位置、预设的人体关键点的位置与部位类型之间的对应关系,识别所述待分析图像中各所述主体的部位类型。
19.根据权利要求17所述的冲突行为检测装置,其特征在于,所述第一获取子单元,具体用于基于各所述主体的部位类型,得到所述待分析图像中各所述主体之间的部位距离值和部位夹角值;根据各所述主体之间的部位距离值和部位夹角值,得到所述待分析图像中各所述主体之间的姿态交互关系。
20.根据权利要求16所述的冲突行为检测装置,其特征在于,所述第一获取单元,包括:
构建子单元,用于根据所述人体关键点的位置,构建所述待分析图像中各主体的位姿;
第二获取子单元,用于分析各所述主体的位姿,得到所述待分析图像中各所述主体之间的姿态交互关系。
21.根据权利要求16所述的冲突行为检测装置,其特征在于,所述第一确定单元,包括:
匹配子单元,用于将所述各主体之间的姿态交互关系与预设的数据库中的姿态交互关系进行匹配;所述数据库包括至少一个冲突行为以及每个冲突行为对应的交互关系;
第一确定子单元,用于若匹配成功,则确定所述待分析图像中存在冲突行为。
22.根据权利要求16所述的冲突行为检测装置,其特征在于,所述第二确定单元,包括:
第二确定子单元,用于判断各所述主体之间的部位重叠区域是否为规范行为产生的重叠,若否,则确定所述待分析图像中存在冲突行为。
23.根据权利要求16所述的冲突行为检测装置,其特征在于,所述第一获取模块,包括:
第一抽取单元,用于按照预设的时间间隔,从所述视频采集设备采集的视频中抽取视频帧;所述视频包括所述车辆内的多视角视频;
第二抽取单元,用于根据所述视频采集设备的采集频率特性,从所述视频帧中抽取所述待分析图像。
24.根据权利要求16所述的冲突行为检测装置,其特征在于,所述装置还包括:
第二获取模块,用于获取样本图像集;所述样本图像集包括样本图像和所述样本图像对应的标注图像;所述样本图像对应的标注图像为对所述样本图像中的人体关键点进行了标注的图像;
训练模块,用于根据所述样本图像集,对预设的初始人体姿态识别模型进行训练,得到所述人体姿态识别模型。
25.根据权利要求24所述的装置,其特征在于,所述样本图像包括第一样本图像和第二样本图像;所述样本图像对应的标注图像包括所述第一样本图像对应的标注图像和所述第二样本图像对应的标注图像;所述第一样本图像为人体姿态数据库中的图像,所述第一样本图像对应的标注图像为对所述第一样本图像中的人体关键点进行了标注的图像,所述第二样本图像为从所述车辆内的视频采集设备采集的图像,所述第二样本图像对应的标注图像为对所述第二样本图像中的人体关键点进行了标注的图像。
26.根据权利要求25所述的装置,其特征在于,所述训练模块,包括:
第一标注单元,用于将所述第一样本图像输入所述初始人体姿态识别模型中,对所述第一样本图像中的人体关键点进行标注,得到第一样本标注图像;
第一训练单元,用于根据所述第一样本标注图像和所述第一样本图像对应的标注图像,对所述初始人体姿态识别模型进行训练,得到新的初始人体姿态识别模型;
第二标注单元,用于将所述第二样本图像输入所述新的初始人体姿态识别模型中,对所述第二样本图像中的人体关键点进行标注,得到第二样本标注图像;
第二训练单元,用于根据所述第二样本标注图像和所述第二样本图像对应的标注图像,对所述新的初始人体姿态识别模型进行训练,得到所述人体姿态识别模型。
27.根据权利要求16-26任意一项所述的冲突行为检测装置,其特征在于,所述装置还包括:
分割模块,用于根据所述人体关键点的位置,对所述待分析图像进行图像分割,得到分割图像;
判断模块,用于根据所述分割图像,判断所述车辆内的驾驶人员是否存在违规行为。
28.根据权利要求27所述的冲突行为检测装置,其特征在于,所述违规行为包括所述驾驶人员未系安全带和/或所述驾驶人员车内抽烟,所述判断模块,包括:
第一判断单元,用于将所述分割图像输入预设的识别网络中,判断所述车辆内的驾驶人员是否存在违规行为;所述识别网络用于识别所述驾驶人员的安全带状态和所述驾驶人员的抽烟行为。
29.根据权利要求27所述的冲突行为检测装置,其特征在于,所述违规行为包括所述驾驶人员翻阅车辆内的目标对象,所述判断模块,包括:
第三获取单元,用于根据所述分割图像和所述人体姿态识别模型,得到所述分割图像中驾驶人员的手指位置;所述人体姿态识别模型用于识别图像中的人体部位类型和部位位置;
第四获取单元,用于获取所述驾驶人员的手指位置与所述车辆内的目标对象之间的相对位置关系;
第二判断单元,用于根据所述相对位置关系,判断所述驾驶人员是否翻阅所述目标对象。
30.根据权利要求27所述的冲突行为检测装置,其特征在于,所述违规行为包括所述驾驶人员着装违规,所述判断模块,包括:
第三判断单元,用于将所述分割图像输入预设的分类网络中,判断所述车辆内的驾驶人员着装是否规范;所述分类网络用于识别驾驶人员的着装类型。
31.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至15中任一项所述的方法的步骤。
32.一种存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至15中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010486621.0A CN111563480B (zh) | 2020-06-01 | 2020-06-01 | 冲突行为检测方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010486621.0A CN111563480B (zh) | 2020-06-01 | 2020-06-01 | 冲突行为检测方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111563480A CN111563480A (zh) | 2020-08-21 |
CN111563480B true CN111563480B (zh) | 2024-01-12 |
Family
ID=72072474
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010486621.0A Active CN111563480B (zh) | 2020-06-01 | 2020-06-01 | 冲突行为检测方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111563480B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112132020A (zh) * | 2020-09-22 | 2020-12-25 | 深兰科技(上海)有限公司 | 手部紧握判断方法和装置 |
CN112215150B (zh) * | 2020-10-13 | 2023-10-24 | 中国银行股份有限公司 | 客户行为识别方法及装置 |
CN112733722A (zh) * | 2021-01-11 | 2021-04-30 | 深圳力维智联技术有限公司 | 姿态识别方法、装置、系统及计算机可读存储介质 |
CN113111747A (zh) * | 2021-03-31 | 2021-07-13 | 新疆爱华盈通信息技术有限公司 | 异常肢体行为检测方法、装置、终端及介质 |
CN113486763A (zh) * | 2021-06-30 | 2021-10-08 | 上海商汤临港智能科技有限公司 | 车舱内人员冲突行为的识别方法及装置、设备和介质 |
CN113505704B (zh) * | 2021-07-13 | 2023-11-10 | 上海西井科技股份有限公司 | 图像识别的人员安全侦测方法、系统、设备及存储介质 |
US20230252784A1 (en) * | 2022-02-04 | 2023-08-10 | Walid Mohamed Aly AHMED | Methods, systems, and media for identifying human coactivity in images and videos using neural networks |
CN114743269B (zh) * | 2022-04-19 | 2022-12-02 | 国网湖北省电力有限公司黄石供电公司 | 一种变电站工人不规范操作识别方法及系统 |
CN117392762A (zh) * | 2023-12-13 | 2024-01-12 | 中国石油集团川庆钻探工程有限公司 | 一种基于人体关键点姿态编码的特征行为识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109934182A (zh) * | 2019-03-18 | 2019-06-25 | 北京旷视科技有限公司 | 对象行为分析方法、装置、电子设备及计算机存储介质 |
CN110674712A (zh) * | 2019-09-11 | 2020-01-10 | 苏宁云计算有限公司 | 交互行为识别方法、装置、计算机设备和存储介质 |
CN110826610A (zh) * | 2019-10-29 | 2020-02-21 | 上海眼控科技股份有限公司 | 一种用于智能检测人员着装是否规范的方法与系统 |
CN111062239A (zh) * | 2019-10-15 | 2020-04-24 | 平安科技(深圳)有限公司 | 人体目标检测方法、装置、计算机设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108985259B (zh) * | 2018-08-03 | 2022-03-18 | 百度在线网络技术(北京)有限公司 | 人体动作识别方法和装置 |
-
2020
- 2020-06-01 CN CN202010486621.0A patent/CN111563480B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109934182A (zh) * | 2019-03-18 | 2019-06-25 | 北京旷视科技有限公司 | 对象行为分析方法、装置、电子设备及计算机存储介质 |
CN110674712A (zh) * | 2019-09-11 | 2020-01-10 | 苏宁云计算有限公司 | 交互行为识别方法、装置、计算机设备和存储介质 |
CN111062239A (zh) * | 2019-10-15 | 2020-04-24 | 平安科技(深圳)有限公司 | 人体目标检测方法、装置、计算机设备及存储介质 |
CN110826610A (zh) * | 2019-10-29 | 2020-02-21 | 上海眼控科技股份有限公司 | 一种用于智能检测人员着装是否规范的方法与系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111563480A (zh) | 2020-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111563480B (zh) | 冲突行为检测方法、装置、计算机设备和存储介质 | |
CN105612533B (zh) | 活体检测方法、活体检测系统以及计算机程序产品 | |
Ahmed et al. | Vision based hand gesture recognition using dynamic time warping for Indian sign language | |
Tapia et al. | Gender classification from iris images using fusion of uniform local binary patterns | |
WO2015165365A1 (zh) | 一种人脸识别方法及系统 | |
RU2431190C2 (ru) | Способ и устройство распознавания рельефности лица | |
CN110751022A (zh) | 基于图像识别的城市宠物活动轨迹监测方法及相关设备 | |
CN105160318A (zh) | 基于面部表情的测谎方法及系统 | |
CN109766755B (zh) | 人脸识别方法及相关产品 | |
CN112115866A (zh) | 人脸识别方法、装置、电子设备及计算机可读存储介质 | |
CN107590473B (zh) | 一种人脸活体检测方法、介质和相关装置 | |
KR20190016733A (ko) | 얼굴 특징점 기반 부분 영역 지정을 통한 부분 가림 얼굴 인식 방법, 이를 수행하기 위한 기록 매체 및 장치 | |
KR20120069922A (ko) | 얼굴 인식 장치 및 그 방법 | |
CN109376604B (zh) | 一种基于人体姿态的年龄识别方法和装置 | |
CN109190601A (zh) | 一种监控场景下目标对象识别方法及装置 | |
CN106355154B (zh) | 一种监控视频中检测频繁过人的方法 | |
CN108108711B (zh) | 人脸布控方法、电子设备及存储介质 | |
CN105022999A (zh) | 一种人码伴随实时采集系统 | |
Do et al. | Real-time and robust multiple-view gender classification using gait features in video surveillance | |
EP3944188A1 (en) | Image processing device, image processing method, and recording medium in which program is stored | |
CN111597910A (zh) | 一种人脸识别方法、装置、终端设备及介质 | |
CN108171138A (zh) | 一种生物特征信息获取方法和装置 | |
RU2315352C2 (ru) | Способ и система для автоматического обнаружения трехмерных образов | |
CN110175553B (zh) | 基于步态识别与人脸识别建立特征库的方法及装置 | |
CN115529837A (zh) | 戴口罩人脸识别方法、装置、计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |