CN112183356A - 驾驶行为检测方法、设备及可读存储介质 - Google Patents
驾驶行为检测方法、设备及可读存储介质 Download PDFInfo
- Publication number
- CN112183356A CN112183356A CN202011047258.9A CN202011047258A CN112183356A CN 112183356 A CN112183356 A CN 112183356A CN 202011047258 A CN202011047258 A CN 202011047258A CN 112183356 A CN112183356 A CN 112183356A
- Authority
- CN
- China
- Prior art keywords
- image
- detected
- region
- driving behavior
- behavior detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0818—Inactivity or incapacity of driver
- B60W2040/0827—Inactivity or incapacity of driver due to sleepiness
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
Abstract
本申请公开了一种驾驶行为检测方法、设备及可读存储介质,所述驾驶行为检测方法包括:获取待检测图像,并对所述待检测图像进行区域图像提取,获得所述待检测图像对应的待检测区域图像,进而对所述待检测区域图像进行轻量级图像识别,获得所述待检测区域图像对应的区域图像识别结果,进而基于所述区域图像识别结果,生成目标驾驶行为检测结果。本申请解决了驾驶行为检测效率低的技术问题。
Description
技术领域
本申请涉及人工智能领域,尤其涉及一种驾驶行为检测方法、设备及可读存储介质。
背景技术
随着计算机软件和人工智能的不断发展,人工智能的应用领域也越来越广泛,在智能驾驶领域,为了对驾驶员的危险驾驶行为进行预警提示,通常基于深度学习模型,直接对驾驶员图像进行图像识别,以识别驾驶员的危险驾驶行为,但是,由于车载系统的计算能力通常较弱,而深度学习模型需要的计算量通常非常庞大,进而车载系统难以负载深度学习模型的庞大计算量,进而在基于深度学习模型进行驾驶行为检测时,由于车载系统的计算量的限制,常导致驾驶行为检测的效率较低,进而导致系统难以及时地对驾驶员的危险驾驶行为进行预警。
发明内容
本申请的主要目的在于提供一种驾驶行为检测方法、设备及可读存储介质,旨在解决现有技术中驾驶行为检测效率低的技术问题。
为实现上述目的,本申请提供一种驾驶行为检测方法,所述驾驶行为检测方法应用于驾驶行为检测设备,所述驾驶行为检测方法包括:
获取待检测图像,并对所述待检测图像进行区域图像提取,获得所述待检测图像对应的待检测区域图像;
对所述待检测区域图像进行轻量级图像识别,获得所述待检测区域图像对应的区域图像识别结果;
基于所述区域图像识别结果,生成目标驾驶行为检测结果。
本申请还提供一种驾驶行为检测装置,所述驾驶行为检测装置为虚拟装置,且所述驾驶行为检测装置应用于驾驶行为检测设备,所述驾驶行为检测装置包括:
区域图像提取模块,用于获取待检测图像,并对所述待检测图像进行区域图像提取,获得所述待检测图像对应的待检测区域图像;
图像识别模块,用于对所述待检测区域图像进行轻量级图像识别,获得所述待检测区域图像对应的区域图像识别结果;
生成模块,用于基于所述区域图像识别结果,生成目标驾驶行为检测结果。
本申请还提供一种驾驶行为检测设备,所述驾驶行为检测设备为实体设备,所述驾驶行为检测设备包括:存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的所述驾驶行为检测方法的程序,所述驾驶行为检测方法的程序被处理器执行时可实现如上述的驾驶行为检测方法的步骤。
本申请还提供一种可读存储介质,所述可读存储介质上存储有实现驾驶行为检测方法的程序,所述驾驶行为检测方法的程序被处理器执行时实现如上述的驾驶行为检测方法的步骤。
本申请提供了一种驾驶行为检测方法、设备和可读存储介质,相比于现有技术采用的基于深度学习模型,直接对驾驶员图像进行图像识别,以识别驾驶员的危险驾驶行为的技术手段,本申请在获取待检测图像,首先对所述待检测图像进行区域图像提取,获得所述待检测图像对应的待检测区域图像,进而实现了将蕴含图像信息较多的转化为蕴含图像信息较少的待检测区域图像,进而对所述待检测区域图像进行轻量级图像识别,获得所述待检测区域图像对应的区域图像识别结果,其中,需要说明的是,现有技术中基于深度学习模型,直接对驾驶员图像进行图像识别时,由于驾驶员图像中蕴含的图像信息较多,且对驾驶员图像进行的是多分类过程,进而进行驾驶员行为检测时的计算量较大,而本申请中,由于所述待检测区域图像中蕴含的图像信息少于待检测图像中的图像信息,进而可降低图像识别时的计算量,且对所述待检测区域图像的轻量级图像识别是基于轻量级分类过程进行的,其中,所述轻量级分类过程为分类类别数量小于预设类别数量的分类过程,且预设类别数量小于现有技术中对驾驶员图像进行的多分类过程的分类类别数量,进而轻量级分类过程的计算量远少于现有技术中的多分类过程的计算量,进而进一步减少了图像识别时的计算量,也即,减少了驾驶行为检测时的计算量,进而克服了现有技术中基于深度学习模型,直接对驾驶员图像进行图像识别时,由于车载系统难以负载深度学习模型的庞大计算量,进而在基于深度学习模型进行驾驶行为检测时,驾驶行为检测的效率较低的技术缺陷,提高了驾驶行为检测的效率。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请驾驶行为检测方法第一实施例的流程示意图;
图2为本申请驾驶行为检测方法第二实施例的流程示意图;
图3为本申请实施例方案涉及的硬件运行环境的设备结构示意图。
本申请目的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本申请实施例提供一种驾驶行为检测方法,在本申请驾驶行为检测方法的第一实施例中,参照图1,所述驾驶行为检测方法包括:
步骤S10,获取待检测图像,并对所述待检测图像进行区域图像提取,获得所述待检测图像对应的待检测区域图像;
在本实施例中,需要说明的是,所述待检测图像为预设摄像模块拍摄的驾驶员的图像,用于识别驾驶员是否存在危险驾驶行为,其中,所述危险驾驶行为包括打电话驾驶行为、打哈欠驾驶行为和抽烟驾驶行为等,所述待检测区域图像包括驾驶员的人脸区域图像、五官区域图像和手部区域图像等。
获取待检测图像,并对所述待检测图像进行区域图像提取,获得所述待检测图像对应的待检测区域图像,具体地,获取目标驾驶员图像,并对所述目标驾驶员图像进行去噪,获得待检测图像,其中,去噪的方式包括高斯滤波和直方图均衡等,并基于预设目标检测模型,对所述待检测图像进行目标检测,获得目标检测结果,进而基于所述目标检测结果,对所述待检测图像进行区域图像提取,获得所述待检测图像对应的待检测区域图像,其中,在一种可实施的方式中,所述基于预设目标检测模型,对所述待检测图像进行目标检测,获得目标检测结果的步骤包括:
对所述待检测图像进行框选,获得各候选区域图像,其中,所述候选区域图像为疑似待检测区域图像的区域图像,进而分别对各所述候选区域图像进行图像识别,获得各所述候选区域图像对应的图像识别结果,其中,所述图像识别结果包括图像识别向量,其中,所述图像识别向量包括图像类型标签和图像识别概率,其中,所述图像识别标签为所述候选区域图像的类型标识,用于标识候选区域图像的类型,所述图像识别概率为候选区域图像属于所述图像识别标签对应的图像类型的概率,例如,假设所述图像识别向量为(a,0.8),其中,a为人脸区域图像的图像识别标签,则0.8表示候选区域图像存在80%的可能为人脸区域图像,进而将各所述候选区域图像对应的图像识别结果作为所述目标检测结果,进而可在各所述候选区域图像中选取最大概率的属于各预设区域的图像,获得所述待检测区域图像,其中,所述预设区域包括人脸区域、手部区域、眼睛区域和嘴巴区域等。
其中,所述待检测区域图像包括五官区域图像,
所述对所述待检测图像进行区域图像提取,获得所述待检测图像对应的待检测区域图像的步骤包括:
步骤S11,将所述待检测图像输入预设人脸检测模型,对所述待检测图像进行人脸检测,获得人脸区域坐标和人脸关键点坐标;
在本实施例中,将所述待检测图像输入预设人脸检测模型,对所述待检测图像进行人脸检测,获得人脸区域坐标和人脸关键点坐标,具体地,将所述待检测图像输入预设人脸检测模型,对所述待检测图像进行人脸目标检测,获得所述待检测图像中的驾驶员人脸框的坐标,获得所述人脸区域坐标,其中,所述驾驶员人脸框为进行人脸目标检测时对驾驶员人脸进行框选确定的,其中,所述人脸区域坐标至少包括所述驾驶员人脸框的两个对角点的坐标,其中,两个对角点的坐标为左上角顶点坐标和右下角顶点坐标或者右上角顶点坐标和左下角顶点坐标,进而对所述待检测图像中基于人脸区域坐标确定的人脸区域图像进行人脸关键点检测,获得人脸关键点坐标,其中,所述人脸关键点坐标包括左眼瞳孔中心坐标、右眼瞳孔中心坐标、鼻尖坐标、左嘴角坐标和右嘴角坐标等。
步骤S12,基于所述人脸区域坐标和所述人脸关键点坐标,生成所述五官区域图像。
在本实施例中,基于所述人脸区域坐标和所述人脸关键点坐标,生成所述五官区域图像,具体地,基于所述人脸区域坐标和所述人脸关键点坐标,为所述待检测图像中的人脸进行区域划分,获得人脸五官区域位置,并将所述人脸五官区域位置的图像作为所述五官区域图像,其中,所述人脸五官区域位置包括左眼区域位置、右眼区域位置和嘴巴区域位置等,对应地,所述五官区域图像包括左眼区域图像、右眼区域图像和嘴巴区域图像等,其中,在一种可实施的方式中,所述左眼区域位置、所述右眼区域位置和所述嘴巴区域位置的生成方式如下:
所述人脸区域坐标为face-box(x1,x2,y1,y2),所述左眼瞳孔中心坐标为lefteye(x3,y3),所述右眼瞳孔中心坐标为righteye(x4,y4),所述左嘴角坐标为leftmouth(x6,y6),所述右嘴角坐标为rightmouth(x7,y7),进而所述左眼区域位置、所述右眼区域位置和所述嘴巴区域位置的计算方式如下:
其中,lefteyearea为所述左眼区域位置的几何中心点坐标,w1为所述左眼区域位置在水平方向的长,h1为所述左眼区域位置在垂直方向的宽,righteyearea为所述右眼区域位置的几何中心点坐标,w2为所述右眼区域位置在水平方向的长,h2为所述右眼区域位置在垂直方向的宽,moutharea为所述嘴巴区域位置的几何中心点坐标,w3为所述嘴巴区域位置在水平方向的长,h3为所述嘴巴区域位置在垂直方向的宽。
其中,所述待检测区域图像包括手部区域图像,
所述对所述待检测图像进行区域图像提取,获得所述待检测图像对应的待检测区域图像的步骤还包括:
步骤A10,将所述待检测图像输入预设手部目标检测图像,对所述待检测图像进行手部目标检测,获得所述手部区域图像。
在本实施例中,将所述待检测图像输入预设手部目标检测图像,对所述待检测图像进行手部目标检测,获得所述手部区域图像,具体地,将所述待检测图像输入预设手部目标检测图像,以将所述待检测图像中疑似为驾驶员的手部的区域进行框选,获得各手部框选区域图像,进而分别对各所述手部框选区域图像进行图像识别,获得各所述手部框选区域图像存在手部的图像识别概率值,进而在各所述图像识别概率值中选取最大值作为目标概率值,并将所述目标概率值对应的手部框选区域图像作为所述手部区域图像。
步骤S20,对所述待检测区域图像进行轻量级图像识别,获得所述待检测区域图像对应的区域图像识别结果;
在本实施例中,需要说明的是,所述轻量级图像识别为基于二分类过程进行的图像识别,用对待检测区域图像进行基于二分类过程的图像识别,其中,由于图像只做二分类,进而只需判断图像是否属于某一图像类别即可,进而相比于多分类的方法,进行二分类时的瞬时的计算量极小,例如,假设待检测区域图像为嘴巴区域图像,则对嘴巴区域图像进行二分类,以判断嘴巴区域图像是否属于打哈欠类型图像,进而实现对嘴巴区域图像的轻量级图像识别。
对所述待检测区域图像进行轻量级图像识别,获得所述待检测区域图像对应的区域图像识别结果,具体地,对所述待检测图像进行图像二分类,获得图像二分类结果,进而基于所述图像二分类结果,生成所述待检测区域图像对应的区域图像识别结果。
其中,所述待检测区域图像包括人脸区域图像,
所述对所述待检测区域图像进行轻量级图像识别,获得所述待检测区域图像对应的区域图像识别结果的步骤包括:
步骤S21,将所述人脸区域图像输入预设人脸偏转检测模型,对所述人脸区域图像进行人脸偏转角度检测,获得人脸偏转角度检测结果;
在本实施例中,将所述人脸区域图像输入预设人脸偏转检测模型,对所述人脸区域图像进行人脸偏转角度检测,获得人脸偏转角度检测结果,具体地,将所述人脸区域图像输入预设人脸偏转检测模型,对所述人脸区域图像进行人脸偏转角度检测,以识别所述人脸区域图像中的驾驶员人脸相比于标准驾驶员人脸的偏转角度,获得人脸偏转角度检测结果,其中,所述标准驾驶员人脸为驾驶员直视驾驶方向的人脸。
步骤S22,基于所述人脸偏转角度检测结果,判断所述人脸区域图像中的目标驾驶员是否发生的人脸偏转,获得所述区域图像识别结果。
在本实施例中,需要说明的是,所述人脸偏转角度检测结果包括检测人脸偏转角度。
基于所述人脸偏转角度检测结果,判断所述人脸区域图像中的目标驾驶员是否发生的人脸偏转,获得所述区域图像识别结果,具体地,将所述检测人脸偏转角度与预设偏转角度进行比对,若所述检测人脸偏转角度大于或者等于预设偏转角度,则判定所述人脸区域图像中的目标驾驶员发生了人脸偏转,进而所述区域图像识别结果为发生了人脸偏转,若所述检测人脸偏转角度小于预设偏转角度,则判定所述人脸区域图像中的目标驾驶员未发生人脸偏转,进而所述区域图像识别结果为未发生人脸偏转,
步骤S30,基于所述区域图像识别结果,生成目标驾驶行为检测结果。
在本实施例中,需要说明的是,所述区域图像识别结果至少包括一个区域图像的区域图像识别向量,其中,所述区域图像包括人脸区域图像识别向量、眼睛区域识别向量、第一嘴巴区域识别向量、第二嘴巴识别向量和第一手部区域识别向量等,其中,所述人脸区域图像识别向量包括判断目标驾驶员是否发生人脸偏转的图像标签和人脸偏转概率,所述眼睛区域识别向量包括判断目标驾驶员是否发生闭眼的图像标签和闭眼概率,所述第一嘴巴区域识别向量包括判断目标驾驶员是否发生打哈欠的图像标签和打哈欠概率,所述第二嘴巴区域识别向量包括判断目标驾驶员是否抽烟的图像标签和抽烟概率,所述手部区域识别向量包括判断目标驾驶员是否打电话的图像标签和打电话概率。
基于所述区域图像识别结果,生成目标驾驶行为检测结果,具体地,获取所述区域图像识别结果中的各区域识别向量,进而分别提取各所述区域识别向量中区域图像识别标签和区域图像识别概率,进而将各所述区域图像识别标签和各所述区域图像识别概率进行组合,获得目标驾驶行为检测向量,并将所述目标驾驶行为检测向量作为所述目标驾驶行为检测结果,其中,所述区域图像识别标签为预设区域图像类型的图像标签,所述区域图像识别概率为区域图像属于所述预设区域图像类型的概率,其中,所述区域图像识别标签包括判断目标驾驶员是否发生人脸偏转的图像标签、判断目标驾驶员是否发生闭眼的图像标签、判断目标驾驶员是否发生打哈欠的图像标签、判断目标驾驶员是否抽烟的图像标签和判断目标驾驶员是否打电话的图像标签等,所述区域图像识别概率包括人脸偏转概率、闭眼概率、打哈欠概率、抽烟概率和打电话概率等,例如,假设目标驾驶员发生人脸偏转的图像标签为a,对应的区域图像识别概率为70%,目标驾驶员发生闭眼的图像标签为b,对应的区域图像识别概率为70%,目标驾驶员发生打哈欠的图像标签为c,对应的区域图像识别概率为80%,目标驾驶员抽烟的图像标签为d,对应的区域图像识别概率为20%,目标驾驶员打电话的图像标签为e,对应的区域图像识别概率为99%,则所述目标驾驶行为检测向量为(a,0.7,b,0.7,c,0.8,d,0.2,e,0.99)。
其中,所述基于所述区域图像识别结果,生成目标驾驶行为检测结果的步骤之后,所述驾驶行为检测方法还包括:
步骤S31,基于所述目标驾驶行为检测结果,判断所述检测图像对应的目标驾驶员是否处于预设危险驾驶状态;
在本实施例中,基于所述目标驾驶行为检测结果,判断所述检测图像对应的目标驾驶员是否处于预设危险驾驶状态,具体的,基于所述目标驾驶行为检测结果,确定所述目标驾驶员发生各预设危险驾驶行为的危险驾驶概率,其中,所述危险驾驶行为包括左顾右盼、闭眼、打哈欠、抽烟和打电话等,进而将各危险驾驶概率与预设危险驾驶概率阀值进行比对,若各所述危险驾驶概率中存在目标危险驾驶概率大于或者等于所述预设危险驾驶概率阀值,则判定所述目标驾驶员处于危险驾驶状态,若各所述危险驾驶概率中不存在目标危险驾驶概率大于或者等于所述预设危险驾驶概率阀值,则判定所述目标驾驶员未处于预设危险驾驶状态,其中,所述预设危险驾驶状态为具备危险驾驶行为的驾驶状态,例如,在驾驶时抽烟或者打电话等,另外地,当所述预设危险驾驶行为闭眼驾驶时,则获取预设时长内的连续帧的多个待检测图像,若基于连续帧的多个待检测图像确定的图像识别结果中,若存在超过预设数量阀值的图像识别结果确定所述目标驾驶员存在闭眼驾驶行为,则判定所述目标驾驶员处于预设危险驾驶状态,若未存在超过预设数量阀值的图像识别结果确定所述目标驾驶员存在闭眼驾驶行为,则判定所述目标驾驶员未处于预设危险驾驶状态。
步骤S32,若是,则采集所述目标驾驶员处于所述预设危险驾驶状态的目标持续时长;
在本实施例中,若是,则采集所述目标驾驶员处于所述预设危险驾驶状态的目标持续时长,具体地,若是,则持续采集待检测图像,并持续进行所述目标驾驶员是否处于所述预设危险驾驶状态的判断,并采集所述目标驾驶员处于所述预设危险驾驶状态的目标持续时长,例如,假设待检测图像的每隔5s采集一次,则在基于持续采集的4个待检测图像,均确定所述目标驾驶员处于所述预设危险驾驶状态,则所述目标持续时长为20s。
步骤S33,若所述目标持续时长大于预设持续时长,则向所述目标驾驶员发出预警。
在本实施例汇总,若所述目标持续时长大于预设持续时长,则向所述目标驾驶员发出预警,具体地,若所述目标持续时长大于预设持续时长,则基于语音警告、文字警告和铃声警告灯方式向所述目标驾驶员发出预警,以提示目标驾驶员进行安全驾驶。
另外地,需要说明的是,在进行驾驶员图像的图像识别时,现有技术中为对驾驶员图像整体进行多分类过程,且多分类过程的类别数量通常较大,而本实施例中为首先在驾驶员图像中提取各待检测区域图像,进而实现了剔除图像中对驾驶行为检测贡献度小的其余部分目的,进而减少了对驾驶员图像的对驾驶行为检测贡献度小的其余部分的计算过程,进而提高了驾驶行为检测时的计算效率,且本实施例中各待检测区域图像的二分类过程可串行进行,且在串行过程中一旦确定目标驾驶员处于危险驾驶状态,则终止串行的二分类过程,并立即向目标驾驶员发出预警,进而可减少驾驶行为检测时的计算量,进一步提高驾驶行为检测时的计算效率,且现有技术中的多分类过程在单位时间内所需求的计算资源较大,车载系统往往无法承载,进而在进行驾驶行为检测时容易发生卡顿现象,进而导致驾驶行为检测的计算过程中容易出错,进而导致驾驶行为检测的出错率上升,进而导致驾驶行为检测的准确度下降,而本实施例中串行进行二分类过程时,在同一时间中只进行二分类过程,进而单位时间内所需的计算资源较少,车载系统可完全负载,进而可提高驾驶行为检测的准确度。
本实施例提供了一种驾驶行为检测方法,相比于现有技术采用的基于深度学习模型,直接对驾驶员图像进行图像识别,以识别驾驶员的危险驾驶行为的技术手段,本实施例在获取待检测图像,首先对所述待检测图像进行区域图像提取,获得所述待检测图像对应的待检测区域图像,进而实现了将蕴含图像信息较多的转化为蕴含图像信息较少的待检测区域图像,进而对所述待检测区域图像进行轻量级图像识别,获得所述待检测区域图像对应的区域图像识别结果,其中,需要说明的是,现有技术中基于深度学习模型,直接对驾驶员图像进行图像识别时,由于驾驶员图像中蕴含的图像信息较多,且对驾驶员图像进行的是多分类过程,进而进行驾驶员行为检测时的计算量较大,而本申请中,由于所述待检测区域图像中蕴含的图像信息少于待检测图像中的图像信息,进而可降低图像识别时的计算量,且对所述待检测区域图像的轻量级图像识别是基于轻量级分类过程进行的,其中,所述轻量级分类过程为分类类别数量小于预设类别数量的分类过程,且预设类别数量小于现有技术中对驾驶员图像进行的多分类过程的分类类别数量,进而轻量级分类过程的计算量远少于现有技术中的多分类过程的计算量,进而进一步减少了图像识别时的计算量,也即,减少了驾驶行为检测时的计算量,进而克服了现有技术中基于深度学习模型,直接对驾驶员图像进行图像识别时,由于车载系统难以负载深度学习模型的庞大计算量,进而在基于深度学习模型进行驾驶行为检测时,驾驶行为检测的效率较低的技术缺陷,提高了驾驶行为检测的效率。
进一步地,参照图2,基于本申请中第一实施例,在本申请的另一实施例中,其中,所述对所述待检测区域图像进行轻量级图像识别,获得所述待检测区域图像对应的区域图像识别结果的步骤包括:
步骤B10,将所述待检测区域图像输入预设图像二分类模型,对所述待检测区域图像进行二分类,获得图像二分类结果;
在本实施例中,需要说明的是,所述待检测区域图像包括人脸区域图像、手部区域图像、眼睛区域图像和嘴巴区域图像等,所述预设图像二分类模型包括左顾右盼检测模型、闭眼检测模型、打哈欠检测模型、抽烟检测模型和打电话检测模型等。
将所述待检测区域图像输入预设图像二分类模型,对所述待检测区域图像进行二分类,获得图像二分类结果,具体地,基于所述左顾右盼检测模型,对所述人脸区域图像进行图像二分类,以判断所述人脸区域中的目标驾驶员是否发生人脸偏转,获得人脸区域图像二分类结果,并基于所述闭眼检测模型,对所述眼睛区域图像进行图像二分类,以判断所述眼睛区域图像中的目标驾驶员的眼睛是否为闭眼状态,获得眼睛区域图像二分类结果,并基于所述打哈欠检测模型,对所述嘴巴区域图像进行图像二分类,以判断所述嘴巴区域图像中的目标驾驶员的嘴巴是否处于打哈欠状态,获得第一嘴巴区域图像二分类结果,并基于所述抽烟检测模型,对所述嘴巴区域图像进行图像二分类,以判断所述目标驾驶员是否处于抽烟状态,获得第二嘴巴区域图像二分类结果,并基于所述打电话检测模型,对所述手部区域图像进行图像二分类,以判断所述目标驾驶员是否处于打电话状态,获得手部区域图像二分类结果,进而将所述人脸区域图像二分类结果、所述眼睛区域图像二分类结果、所述第一嘴巴区域图像二分类结果、所述第二嘴巴区域图像二分类结果和所述手部区域图像二分类结果共同作为所述图像二分类结果。
其中,所述预设图像二分类模型包括打电话检测模型,所述待检测区域图像包括手部区域图像,
所述将所述待检测区域图像输入预设图像二分类模型,对所述待检测区域图像进行二分类,获得图像二分类结果的步骤包括:
步骤B11,将所述手部区域图像输入所述打电话检测模型,对所述手部区域图像进行打电话检测,获得打电话检测结果;
在本实施例中,将所述手部区域图像输入所述打电话检测模型,对所述手部区域图像进行打电话检测,获得打电话检测结果,具体地,将所述手部区域图像输入所述打电话检测模型,对所述手部区域图像进行特征提取,以提取所述手部区域图像的图像类别特征信息,获得特征提取矩阵,进而对所述特征提取矩阵进行全连接,以判断所述手部区域图像是否属于打电话类型图像,获得眼睛图像类型分类向量,并将所述眼睛图像类型分类向量作为所述打电话检测结果,其中,所述眼睛图像类型分类向量为表示所述手部区域图像进行打电话检测的二分类时的分类信息向量,所述眼睛图像类型分类向量包括所述手部区域图像的所有关于打电话检测的分类信息。
步骤B12,基于所述打电话检测结果,生成所述图像二分类结果。
在本实施例中,基于所述打电话检测结果,生成所述图像二分类结果,具体地,将所述眼睛图像类型分类向量映射至预设取值空间,获得打电话二分类标签,并将所述打电话二分类标签作为所述图像二分类结果,其中,需要说明的是,所述打电话二分类标签包括第一类型标签和第二类型标签,其中,所述第一类型标签为表示手部区域图像属于打电话类型图像的标识,所述第二类型标签为表示手部区域图像不属于打电话类型图像的标识,且将所述眼睛图像类型分类向量映射至预设取值空间的方法包括softmax等。
其中,所述预设图像二分类模型包括五官行为检测模型,所述待检测区域图像包括五官区域图像,
所述将所述待检测区域图像输入预设图像二分类模型,对所述待检测区域图像进行二分类,获得图像二分类结果的步骤还包括:
步骤C10,将所述五官区域图像输入所述五官行为检测模型,对所述五官区域图像进行五官行为检测,获得五官行为检测结果;
在本本实施例中,需要说明的是,所述五官区域图像包括眼睛区域图像和嘴巴区域图像,所述五官行为检测结果包括闭眼检测结果和打哈欠检测结果,所述五官行为检测模型包括闭眼检测模型和打哈欠检测模型。
将所述五官区域图像输入所述五官行为检测模型,对所述五官区域图像进行五官行为检测,获得五官行为检测结果,具体地,将所述眼睛区域图像输入所述闭眼检测模型,对所述眼睛区域图像进行特征提取,以提取所述眼睛区域图像的图像类别特征信息,获得第一图像特征提取矩阵,进而对所述第一图像特征提取矩阵进行全连接,以判断所述眼睛区域图像是否属于闭眼类型图像,获得眼睛图像类型分类向量,并将所述眼睛图像类型分类向量作为所述闭眼检测结果,并将所述嘴巴区域图像输入所述打哈欠检测模型,对所述嘴巴区域图像进行特征提取,以提取所述嘴巴区域图像的图像类别特征信息,获得第二图像特征提取矩阵,进而对所述第二图像特征提取矩阵进行全连接,以判断所述嘴巴区域图像是否属于打哈欠类型图像,获得嘴巴图像类型分类向量,并将所述嘴巴图像类型分类向量作为所述打哈欠检测结果。
步骤C20,基于所述五官行为检测结果,生成所述图像二分类结果。
在本实施例中,基于所述五官行为检测结果,生成所述图像二分类结果,具体地,将所述眼睛图像类型分类向量映射至预设第一类型标签取值空间,获得眼睛图像二分类标签,并将所述眼睛图像二分类标签作为所述图像二分类结果,其中,需要说明的是,所述眼睛图像二分类标签包括第一闭眼检测图像标签和第二闭眼检测图像标签,其中,所述第一闭眼检测图像标签为表示眼睛区域图像属于闭眼类型图像的标识,所述第二闭眼检测图像标签为表示眼睛区域图像不属于闭眼类型图像的标识,并将所述嘴巴图像类型分类向量映射至预设第二类型标签取值空间,获得嘴巴图像二分类标签,并将所述嘴巴图像二分类标签作为所述图像二分类结果,其中,需要说明的是,所述嘴巴图像二分类标签包括打哈欠类型标签和抽烟类型,若所述嘴巴图像二分类标签为打哈欠类型标签,则所述打哈欠类型标签包括第一打哈欠检测图像标签和第二打哈欠检测图像标签,其中,所述第一打哈欠检测图像标签为表示嘴巴区域图像属于打哈欠类型图像的标识,所述第二打哈欠检测图像标签为表示嘴巴区域图像不属于打哈欠类型图像的标识,若所述嘴巴图像二分类标签为抽烟类型标签,则所述抽烟类型标签包括第一抽烟检测图像标签和第二抽烟检测图像标签,其中,所述第一抽烟检测图像标签为表示嘴巴区域图像属于抽烟类型图像的标识,所述第二抽烟检测图像标签为表示嘴巴区域图像不属于抽烟类型图像的标识。
步骤B20,基于所述图像二分类结果,生成所述区域图像识别结果。
在本实施例中,需要说明的是,所述图像二分类结果包括左顾右盼检测图像标签、闭眼检测图像标签、打哈欠检测图像标签型、抽烟检测图像标签和打电话检测图像标签。
基于所述图像二分类结果,生成所述区域图像识别结果,具体地,将所述左顾右盼检测图像标签、所述闭眼检测图像标签、所述打哈欠检测图像标签型、所述抽烟检测图像标签和所述打电话检测图像标签进行组合,获得区域图像识别向量,并将所述区域图像识别向量作为所述区域图像识别结果。
另外地,需要说明的是,为了训练预设图像二分类模型,可收集驾驶员图像,并为所述驾驶员图像进行标注,以为所述驾驶员图像赋予预设图像标签,所述预设图像标签包括闭眼图像标签、抽烟图像标签、打哈欠图像标签和打电话图像标签等,进而基于驾驶员图像和预设图像标签,即可优化预设图像二分类模型。
本实施例提供了一种轻量级图像识别方法,也即,将所述待检测区域图像输入预设图像二分类模型,对所述待检测区域图像进行二分类,获得图像二分类结果,进而基于所述图像二分类结果,生成所述区域图像识别结果,其中,需要说明的是,现有技术中基于深度学习模型,直接对驾驶员图像进行图像识别时,由于驾驶员图像中蕴含的图像信息较多,且对驾驶员图像进行的是多分类过程,进而进行驾驶员行为检测时的计算量较大,而在本实施例中,由于所述待检测区域图像中蕴含的图像信息少于待检测图像中的图像信息,进而可降低图像识别时的计算量,且对所述待检测区域图像的图像识别是基于二分类过程进行的,而二分类过程的计算量远少于多分类过程的计算量,进而进一步减少了图像识别时的计算量,进而基于所述区域图像识别结果,生成目标驾驶行为检测结果,即可减少了驾驶行为检测时的计算量,为克服了现有技术中基于深度学习模型,直接对驾驶员图像进行图像识别时,由于车载系统难以负载深度学习模型的庞大计算量,进而在基于深度学习模型进行驾驶行为检测时,驾驶行为检测的效率较低的技术缺陷奠定了基础。
参照图3,图3是本申请实施例方案涉及的硬件运行环境的设备结构示意图。
如图3所示,该驾驶行为检测设备可以包括:处理器1001,例如CPU,存储器1005,通信总线1002。其中,通信总线1002用于实现处理器1001和存储器1005之间的连接通信。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储设备。
可选地,该驾驶行为检测设备还可以包括矩形用户接口、网络接口、摄像头、RF(Radio Frequency,射频)电路,传感器、音频电路、WiFi模块等等。矩形用户接口可以包括显示屏(Display)、输入子模块比如键盘(Keyboard),可选矩形用户接口还可以包括标准的有线接口、无线接口。网络接口可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。
本领域技术人员可以理解,图3中示出的驾驶行为检测设备结构并不构成对驾驶行为检测设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图3所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块以及驾驶行为检测程序。操作系统是管理和控制驾驶行为检测设备硬件和软件资源的程序,支持驾驶行为检测程序以及其它软件和/或程序的运行。网络通信模块用于实现存储器1005内部各组件之间的通信,以及与驾驶行为检测系统中其它硬件和软件之间通信。
在图3所示的驾驶行为检测设备中,处理器1001用于执行存储器1005中存储的驾驶行为检测程序,实现上述任一项所述的驾驶行为检测方法的步骤。
本申请驾驶行为检测设备具体实施方式与上述驾驶行为检测方法各实施例基本相同,在此不再赘述。
本申请实施例还提供一种驾驶行为检测装置,所述驾驶行为检测装置应用于驾驶行为检测设备,所述驾驶行为检测装置包括:
区域图像提取模块,用于获取待检测图像,并对所述待检测图像进行区域图像提取,获得所述待检测图像对应的待检测区域图像;
图像识别模块,用于对所述待检测区域图像进行轻量级图像识别,获得所述待检测区域图像对应的区域图像识别结果;
生成模块,用于基于所述区域图像识别结果,生成目标驾驶行为检测结果。
可选地,所述区域图像提取模块包括:
人脸检测单元,用于将所述待检测图像输入预设人脸检测模型,对所述待检测图像进行人脸检测,获得人脸区域坐标和人脸关键点坐标;
第一生成单元,用于基于所述人脸区域坐标和所述人脸关键点坐标,生成所述五官区域图像。
可选地,所述区域图像提取模块还包括:
手部目标检测单元,用于将所述待检测图像输入预设手部目标检测图像,对所述待检测图像进行手部目标检测,获得所述手部区域图像。
可选地,所述图像识别模块包括:
二分类单元,用于将所述待检测区域图像输入预设图像二分类模型,对所述待检测区域图像进行二分类,获得图像二分类结果;
第二生成单元,用于基于所述图像二分类结果,生成所述区域图像识别结果。
可选地,所述二分类单元包括:
打电话检测子单元,用于将所述手部区域图像输入所述打电话检测模型,对所述手部区域图像进行打电话检测,获得打电话检测结果;
第一生成子单元,用于基于所述打电话检测结果,生成所述图像二分类结果。
可选地,所述二分类单元还包括:
五官行为检测子单元,用于将所述五官区域图像输入所述五官行为检测模型,对所述五官区域图像进行五官行为检测,获得五官行为检测结果;
第二生成子单元,用于基于所述五官行为检测结果,生成所述图像二分类结果。
可选地,所述驾驶行为检测装置还包括:
判断模块,用于基于所述目标驾驶行为检测结果,判断所述检测图像对应的目标驾驶员是否处于预设危险驾驶状态;
采集模块,用于若是,则采集所述目标驾驶员处于所述预设危险驾驶状态的目标持续时长;
预警模块,用于若所述目标持续时长大于预设持续时长,则向所述目标驾驶员发出预警。
可选地,所述图像识别模块还包括:
人脸偏转检测单元,用于将所述人脸区域图像输入预设人脸偏转检测模型,对所述人脸区域图像进行人脸偏转角度检测,获得人脸偏转角度检测结果;
判断单元,用于基于所述人脸偏转角度检测结果,判断所述人脸区域图像中的目标驾驶员是否发生的人脸偏转,获得所述区域图像识别结果。
本申请驾驶行为检测装置的具体实施方式与上述驾驶行为检测方法各实施例基本相同,在此不再赘述。
本申请实施例提供了一种可读存储介质,且所述可读存储介质存储有一个或者一个以上程序,所述一个或者一个以上程序还可被一个或者一个以上的处理器执行以用于实现上述任一项所述的驾驶行为检测方法的步骤。
本申请可读存储介质具体实施方式与上述驾驶行为检测方法各实施例基本相同,在此不再赘述。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利处理范围内。
Claims (10)
1.一种驾驶行为检测方法,其特征在于,所述驾驶行为检测方法包括:
获取待检测图像,并对所述待检测图像进行区域图像提取,获得所述待检测图像对应的待检测区域图像;
对所述待检测区域图像进行轻量级图像识别,获得所述待检测区域图像对应的区域图像识别结果;
基于所述区域图像识别结果,生成目标驾驶行为检测结果。
2.如权利要求1所述驾驶行为检测方法,其特征在于,所述待检测区域图像包括五官区域图像,
所述对所述待检测图像进行区域图像提取,获得所述待检测图像对应的待检测区域图像的步骤包括:
将所述待检测图像输入预设人脸检测模型,对所述待检测图像进行人脸检测,获得人脸区域坐标和人脸关键点坐标;
基于所述人脸区域坐标和所述人脸关键点坐标,生成所述五官区域图像。
3.如权利要求1所述驾驶行为检测方法,其特征在于,所述待检测区域图像包括手部区域图像,
所述对所述待检测图像进行区域图像提取,获得所述待检测图像对应的待检测区域图像的步骤还包括:
将所述待检测图像输入预设手部目标检测图像,对所述待检测图像进行手部目标检测,获得所述手部区域图像。
4.如权利要求1所述驾驶行为检测方法,其特征在于,所述对所述待检测区域图像进行轻量级图像识别,获得所述待检测区域图像对应的区域图像识别结果的步骤包括:
将所述待检测区域图像输入预设图像二分类模型,对所述待检测区域图像进行二分类,获得图像二分类结果;
基于所述图像二分类结果,生成所述区域图像识别结果。
5.如权利要求4所述驾驶行为检测方法,其特征在于,所述预设图像二分类模型包括打电话检测模型,所述待检测区域图像包括手部区域图像,
所述将所述待检测区域图像输入预设图像二分类模型,对所述待检测区域图像进行二分类,获得图像二分类结果的步骤包括:
将所述手部区域图像输入所述打电话检测模型,对所述手部区域图像进行打电话检测,获得打电话检测结果;
基于所述打电话检测结果,生成所述图像二分类结果。
6.如权利要求4所述驾驶行为检测方法,其特征在于,所述预设图像二分类模型包括五官行为检测模型,所述待检测区域图像包括五官区域图像,
所述将所述待检测区域图像输入预设图像二分类模型,对所述待检测区域图像进行二分类,获得图像二分类结果的步骤还包括:
将所述五官区域图像输入所述五官行为检测模型,对所述五官区域图像进行五官行为检测,获得五官行为检测结果;
基于所述五官行为检测结果,生成所述图像二分类结果。
7.如权利要求1所述驾驶行为检测方法,其特征在于,所述基于所述区域图像识别结果,生成目标驾驶行为检测结果的步骤之后,所述驾驶行为检测方法还包括:
基于所述目标驾驶行为检测结果,判断所述检测图像对应的目标驾驶员是否处于预设危险驾驶状态;
若是,则采集所述目标驾驶员处于所述预设危险驾驶状态的目标持续时长;
若所述目标持续时长大于预设持续时长,则向所述目标驾驶员发出预警。
8.如权利要求1所述驾驶行为检测方法,其特征在于,所述待检测区域图像包括人脸区域图像,
所述对所述待检测区域图像进行轻量级图像识别,获得所述待检测区域图像对应的区域图像识别结果的步骤包括:
将所述人脸区域图像输入预设人脸偏转检测模型,对所述人脸区域图像进行人脸偏转角度检测,获得人脸偏转角度检测结果;
基于所述人脸偏转角度检测结果,判断所述人脸区域图像中的目标驾驶员是否发生的人脸偏转,获得所述区域图像识别结果。
9.一种驾驶行为检测设备,其特征在于,所述驾驶行为检测设备包括:存储器、处理器以及存储在存储器上的用于实现所述驾驶行为检测方法的程序,
所述存储器用于存储实现驾驶行为检测方法的程序;
所述处理器用于执行实现所述驾驶行为检测方法的程序,以实现如权利要求1至8中任一项所述驾驶行为检测方法的步骤。
10.一种可读存储介质,其特征在于,所述可读存储介质上存储有实现驾驶行为检测方法的程序,所述实现驾驶行为检测方法的程序被处理器执行以实现如权利要求1至8中任一项所述驾驶行为检测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011047258.9A CN112183356A (zh) | 2020-09-28 | 2020-09-28 | 驾驶行为检测方法、设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011047258.9A CN112183356A (zh) | 2020-09-28 | 2020-09-28 | 驾驶行为检测方法、设备及可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112183356A true CN112183356A (zh) | 2021-01-05 |
Family
ID=73946373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011047258.9A Pending CN112183356A (zh) | 2020-09-28 | 2020-09-28 | 驾驶行为检测方法、设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112183356A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113139452A (zh) * | 2021-04-19 | 2021-07-20 | 中国人民解放军91054部队 | 基于目标检测的使用手机行为的检测方法 |
CN113591615A (zh) * | 2021-07-14 | 2021-11-02 | 广州敏视数码科技有限公司 | 一种基于多模型的驾驶员抽烟检测方法 |
CN114663863A (zh) * | 2022-02-24 | 2022-06-24 | 北京百度网讯科技有限公司 | 图像处理方法、装置、电子设备和计算机存储介质 |
-
2020
- 2020-09-28 CN CN202011047258.9A patent/CN112183356A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113139452A (zh) * | 2021-04-19 | 2021-07-20 | 中国人民解放军91054部队 | 基于目标检测的使用手机行为的检测方法 |
CN113591615A (zh) * | 2021-07-14 | 2021-11-02 | 广州敏视数码科技有限公司 | 一种基于多模型的驾驶员抽烟检测方法 |
CN114663863A (zh) * | 2022-02-24 | 2022-06-24 | 北京百度网讯科技有限公司 | 图像处理方法、装置、电子设备和计算机存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11450146B2 (en) | Gesture recognition method, apparatus, and device | |
CN110210302B (zh) | 多目标跟踪方法、装置、计算机设备及存储介质 | |
CN112183356A (zh) | 驾驶行为检测方法、设备及可读存储介质 | |
CN110738101A (zh) | 行为识别方法、装置及计算机可读存储介质 | |
CN108805016B (zh) | 一种头肩区域检测方法及装置 | |
CN105160318A (zh) | 基于面部表情的测谎方法及系统 | |
CN106648078B (zh) | 应用于智能机器人的多模态交互方法及系统 | |
KR20200118076A (ko) | 생체 검출 방법 및 장치, 전자 기기 및 저장 매체 | |
CN111126366B (zh) | 一种活体人脸的判别方法、装置、设备及存储介质 | |
CN110674680B (zh) | 活体识别的方法、装置、存储介质 | |
CN109670517A (zh) | 目标检测方法、装置、电子设备和目标检测模型 | |
CN112241667A (zh) | 图像检测方法、装置、设备及存储介质 | |
CN115049954B (zh) | 目标识别方法、装置、电子设备和介质 | |
CN112560584A (zh) | 一种人脸检测方法及装置、存储介质、终端 | |
CN113516144A (zh) | 目标检测方法及装置、计算设备 | |
CN112206541A (zh) | 游戏外挂识别方法、装置、存储介质及计算机设备 | |
CN111881775B (zh) | 一种人脸实时识别方法和装置 | |
CN110688878B (zh) | 活体识别检测方法、装置、介质及电子设备 | |
CN113065379B (zh) | 融合图像质量的图像检测方法、装置、电子设备 | |
CN111539390A (zh) | 一种基于Yolov3的小目标图像识别方法、设备和系统 | |
CN111163332A (zh) | 视频色情度检测方法、终端及介质 | |
CN110163032B (zh) | 一种人脸检测方法及装置 | |
CN103530595A (zh) | 检测眼睛状态的方法和设备 | |
KR20230102273A (ko) | 학습 영상 처리 시스템, 이를 이용한 학습 영상 자동 샘플링 방법 및 레이블링 방법 | |
CN112149598A (zh) | 一种侧脸评估方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20210430 Address after: 518000 4 / F, gaoxinxin factory building, district 67, Xingdong community, Xin'an street, Bao'an District, Shenzhen City, Guangdong Province Applicant after: SHENZHEN JIMI IOT Co.,Ltd. Address before: 511400 room 508, building 3, 28 Qinglan street, Xiaoguwei street, Panyu District, Guangzhou City, Guangdong Province Applicant before: Guangzhou Jimi Wulian Technology Co.,Ltd. |