CN112270283A - 异常驾驶行为确定方法、装置、设备、车辆和介质 - Google Patents
异常驾驶行为确定方法、装置、设备、车辆和介质 Download PDFInfo
- Publication number
- CN112270283A CN112270283A CN202011217097.3A CN202011217097A CN112270283A CN 112270283 A CN112270283 A CN 112270283A CN 202011217097 A CN202011217097 A CN 202011217097A CN 112270283 A CN112270283 A CN 112270283A
- Authority
- CN
- China
- Prior art keywords
- arm
- determining
- driving
- abnormal
- key points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002159 abnormal effect Effects 0.000 title claims abstract description 156
- 238000000034 method Methods 0.000 title claims abstract description 63
- 230000006399 behavior Effects 0.000 claims abstract description 111
- 238000005452 bending Methods 0.000 claims abstract description 62
- 210000001747 pupil Anatomy 0.000 claims description 34
- 230000015654 memory Effects 0.000 claims description 20
- 210000000245 forearm Anatomy 0.000 claims description 19
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000001514 detection method Methods 0.000 description 11
- 238000003062 neural network model Methods 0.000 description 8
- 230000006872 improvement Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000002310 elbow joint Anatomy 0.000 description 1
- 210000001145 finger joint Anatomy 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000011900 installation process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 210000000323 shoulder joint Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
- 210000003857 wrist joint Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W40/09—Driving style or behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/223—Posture, e.g. hand, foot, or seat position, turned or inclined
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/225—Direction of gaze
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Automation & Control Theory (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Ophthalmology & Optometry (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请公开了一种异常驾驶行为确定方法、装置、设备、车辆和介质,涉及人工智能领域,具体涉及计算机视觉和深度学习技术领域。具体实现方案为:确定驾驶用户的原始图像中所包含手臂的多个手臂关键点;根据所述手臂关键点,确定所述驾驶用户的手臂弯曲角度;根据所述手臂弯曲角度,确定所述驾驶用户是否存在异常驾驶行为。本申请通过引入驾驶用户的手臂弯曲角度,来表征驾驶用户的驾驶姿态,从而根据手臂弯曲角度进行驾驶用户异常驾驶行为的确定,提供了一种新的异常驾驶行为确定方式,相较于现有技术通过驾驶用户的人脸姿态角进行异常驾驶行为确定的方式,提高了手部参与的异常驾驶行为确定结果的准确度。
Description
技术领域
本申请涉及人工智能领域,具体涉及计算机视觉和深度学习技术,具体涉及一种异常驾驶行为确定方法、装置、设备、车辆和介质。
背景技术
随着人们生活水平的提高,汽车已经进入千家万户,汽车行驶安全也逐渐成为人们关注的问题。在用户驾驶车辆过程中,时常存在由于用户驾驶行为异常,导致出现安全事故的情况。为了降低驾驶过程的安全隐患,对驾驶用户的异常驾驶行为的检测确定至关重要。
然而,现有技术在对驾驶用户的异常驾驶行为进行确定时,其确定结果准确度较差,给驾驶用户及乘客的生命安全带来威胁。
发明内容
本申请提供了一种确定结果准确度更高的异常驾驶行为确定方法、装置、设备、车辆和介质。
根据本申请的一方面,提供了一种异常驾驶行为确定方法,包括:
确定驾驶用户的原始图像中的多个手臂关键点;
根据所述手臂关键点,确定所述驾驶用户的手臂弯曲角度;
根据所述手臂弯曲角度,确定所述驾驶用户是否存在异常驾驶行为。
根据本申请的另一方面,还提供了一种异常驾驶行为确定装置,包括:
关键点确定模块,用于确定驾驶用户的原始图像中的多个手臂关键点;
手臂弯曲角度确定模块,用于根据所述手臂关键点,确定所述驾驶用户的手臂弯曲角度;
异常驾驶行为确定模块,用于根据所述手臂弯曲角度,确定所述驾驶用户是否存在异常驾驶行为。
根据本申请的另一方面,还提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本申请任一实施例提供的一种异常驾驶行为确定方法。
根据本申请的另一方面,还提供了一种车辆,其中,所述车辆包括本申请任一实施例提供的电子设备。
根据本申请的另一方面,还提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行本申请任一实施例提供的一种异常驾驶行为确定方法。
根据本申请的技术,提高了异常驾驶行为确定结果的准确度。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是本申请实施例提供的一种异常驾驶行为确定方法的流程图;
图2是本申请实施例提供的另一种异常驾驶行为确定方法的流程图;
图3是本申请实施例提供的另一种异常驾驶行为确定方法的流程图;
图4是本申请实施例提供的另一种异常驾驶行为确定方法的流程图;
图5是本申请实施例提供的一种异常驾驶行为确定装置的结构图;
图6是用来实现本申请实施例的异常驾驶行为确定方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本申请所提供的各异常驾驶行为确定方法和异常驾驶行为确定装置,适用于在可移动装置驾驶过程中,对驾驶用户的异常驾驶行为进行检测或在线监测的情况。本申请所涉及的各异常驾驶行为确定方法,可以由异常驾驶行为确定装置执行,该异常驾驶行为确定装置可以采用软件和/或硬件实现,并具体配置于电子设备中,该电子设备可以是终端设备,或承载于可移动装置中的内置设备。其中,可移动装置可以是车辆或船舶等。
参见图1所示的一种异常驾驶行为确定方法的流程图,该方法包括:
S101、确定驾驶用户的原始图像中所包含手臂的多个手臂关键点。
其中,原始图像可以理解为驾驶用户在驾驶可移动装置时被采集的包括驾驶用户手臂的图像。
其中,手臂关键点可以理解为表征手臂设定点位的关键点。其中,设定点位可以由技术人员根据需要或经验值预先设定。示例性地,设定点位可以是关节所在位置,如设定点位可以包括腕关节、指关节、肘关节和肩关节对应位置等。示例性地,设定点位还可以是根据手臂中大臂长度和手臂长度,通过设定数量或设定间隔所确定的大臂中的点位位置和小臂中的点位位置。其中,设定数量或设定间隔可以由技术人员根据需要或经验值进行确定,当然,大臂与小臂所采用的设定数量或设定间隔可以设置为相同或不同的数值。
可选的,驾驶用户的原始图像可以预先存储在电子设备本地、与电子设备关联的其他存储设备或云端中,并在需要进行异常驾驶行为确定时,进行驾驶用户的原始图像的获取,从而基于所获取的原始图像进行手臂关键点确定。
或者可选的,驾驶用户的原始图像还可以是由设置于可移动装置的图像采集设备,对驾驶用户进行图像的实时或定时采集,并将所采集的图像传输至电子设备中进行手臂关键点的确定,进而进行异常驾驶行为的确定。其中,图像采集频率可以由技术人员根据需要或经验值进行设定,或由驾驶用户自行调整。
在一个可选实施方式中,可以通过预先训练好的手臂识别模型,识别驾驶用户的原始图像中的目标手臂;对目标手臂进行曲线拟合,得到多个手臂关键点。其中,手臂识别模型可以通过预先标注有手臂区域的样本图像,对预先构建的第一神经网络模型进行训练得到。
在另一可选实施方式中,还可以通过预先训练好的关键点提取模型,提取驾驶用户的原始图像中所包含手臂的多个手臂关键点。其中,关键点提取模型可以通过预先标注有设定点位的手臂关键点的样本图像,对预先构建的第二神经网络模型进行训练得到。其中,第一神经网络模型和第二神经网络模型的模型结构可以相同或不同,本申请实施例对此不做任何限定。
需要说明的是,直接对原始图像进行处理,得到原始图像中所包含的手臂的多个手臂关键点,使得原始图像中非驾驶员用户所在区域的干扰信息,对关键点确定结果存在一定的影响,从而影响后续进行驾驶用户异常行为确定结果的准确度,同时还会带来计算量的增加。为了避免上述情况的发生,在一个可选实施例中,确定驾驶用户的原始图像中所包含手臂的多个手臂关键点,可以是:识别驾驶用户的原始图像中的人脸区域;对驾驶用户的人脸区域进行扩展,得到候选区域;其中候选区域包括手臂区域;根据候选区域截取原始图像,得到目标图像;确定目标图像中所包含手臂的多个手臂关键点。
示例性地,可以采用预先训练好的人脸识别模型,识别驾驶用户的原始图像中的人脸区域;若所识别人脸区域为一个,则将该人脸区域直接作为驾驶用户的人脸区域;若所识别人脸区域为至少两个,则从所识别人脸区域中确定驾驶用户的人脸区域;根据设定扩展规则,对驾驶用户的人脸区域进行扩展,得到包括驾驶用户的手臂区域的候选区域;根据候选区域截取原始图像,得到目标图像;采用目标图像代替原始图像,通过预先训练好的关键点提取模型,进行所包含手臂的多个手臂关键点的确定。
可以理解的是,通过对原始图像进行截取,得到目标图像,采用目标图像代替原始图像,进行手臂关键点的确定,能够减少非驾驶用户的干扰信息对手臂关键点确定结果的影响,减少了手臂关键点确定过程的数据运算量,同时还提高了手臂关键点确定结果的准确度,为后续异常驾驶行为确定结果的准确度和确定效率的提高,奠定了基础。
可选的,从所识别人脸区域中确定驾驶用户的人脸区域,可以是:确定所识别的各人脸区域的图像与驾驶用户图像的相似度;根据相似度,确定各人脸区域中的驾驶用户的人脸区域。其中,驾驶用户图像可以在驾驶用户驾驶可移动装置之前预先采集得到的图像。一般的,确定相似度最高的人脸区域作为驾驶用户的人脸区域。
采用上述驾驶用户的人脸区域确定方式,将会牺牲一部分数据运算量。为了避免由于运算量的投入,导致后续异常驾驶行为确定效率的降低,可选的,从所识别人脸区域中确定驾驶用户的人脸区域,还可以是:根据原始图像中各人脸区域识别结果的位置关系,确定驾驶用户。
受限于不同可移动装置中驾驶用户的位置不同,为了在减少数据运算量的同时,提高驾驶用户的人脸区域确定方式的通用性,可选的,从所识别人脸区域中确定驾驶用户的人脸区域,还可以是:确定其中一个较大的人脸区域作为驾驶用户的人脸区域。典型是,选取面积最大的人脸区域作为驾驶用户的人脸区域。
需要说明的是,由于图像采集装置在安装的过程中通常更靠近驾驶用户,因为通常原始图像中驾驶用户的人脸区域,比非驾驶用户的人脸区域的区域面积要大。因此,可以通过人脸区域大小对驾驶用户和非驾驶用户的人脸区域加以区分。
示例性地,根据设定扩展规则,对驾驶用户的人脸区域进行扩展,得到包括驾驶用户的手臂区域的候选区域,可以是:针对驾驶用户的人脸区域对应的人脸检测框,将该人脸检测框上边框延伸方向扩展第一设定倍数,以及沿上边框中轴线朝向下颌部位方向扩展第二设定倍数;将扩展后的人脸检测框对应区域作为候选区域。其中,候选区域中包括手臂区域。其中,第一设定倍数和第二设定倍数可以由技术人员根据需要或经验值进行确定,或通过大量试验反复确定。其中,第一设定倍数和第二设定倍数可以相同或不同。当然,本申请实施例还可以采用其他方式对驾驶用户的人脸区域进行扩展,本申请实施例对此不做任何限定。
S102、根据手臂关键点,确定驾驶用户的手臂弯曲角度。
其中,手臂弯曲角度用于表征手臂的大臂和小臂以肘部为顶点所构成的角的大小。
示例性地,可以对各手臂关键点构建大臂线段和小臂线段;将大臂线段和小臂线段的夹角作为手臂弯曲角度。一般的,手臂以肘部为顶点,其活动范围为(0°,180°]。
可选的,大臂线段可以通过对位于大臂中的各手臂关键点进行直线拟合,或者通过大臂中的至少两个手臂关键点构建直线得到。
可选的,小臂线段可以通过对位于小臂中的各手臂关键点进行直线拟合,或者通过小臂中的至少两个手臂关键点构建直线得到。
S103、根据手臂弯曲角度,确定驾驶用户是否存在异常驾驶行为。
需要说明的是,当驾驶用户处于正常驾驶状态时,其手部应该位于可移动装置的方向盘区域,此时,驾驶用户的大臂和小臂所构成的手臂弯曲角度值应该为大于某一设定角度阈值的角度值。当驾驶用户在打电话或吃东西等处于需要手部参与的异常驾驶情况下,其手部将会离肩部位置更近,此时驾驶用户的大臂和小臂所构成的手臂弯曲角度值应该为不大于第一设定角度阈值的角度值。
示例性地,根据手臂弯曲角度,确定驾驶用户是否存在异常驾驶行为,可以是:将手臂弯曲角度与设定角度阈值进行比较;若手臂弯曲角度不大于设定角度阈值,则表明驾驶用户手臂由于打电话或吃东西等操作,未处于可移动装置的方向盘上,因此,确定驾驶用户存在异常驾驶行为;若手臂弯曲角度大于设定角度阈值,则表明驾驶用户手臂位于可移动装置的方向盘上,因此,确定驾驶用户不存在异常驾驶行为。其中,设定角度阈值可以由技术人员根据需要或经验值进行确定,或通过大量试验反复确定,还可以根据不用驾驶用户的驾驶习惯进行调整。
本申请实施例通过引入驾驶用户的手臂弯曲角度,来表征驾驶用户的驾驶姿态,从而根据手臂弯曲角度进行驾驶用户异常驾驶行为的确定,提供了一种新的异常驾驶行为确定方式,相较于现有技术通过驾驶用户的人脸姿态角进行异常驾驶行为确定的方式,提高了手部参与的异常驾驶行为确定结果的准确度。
在本申请另一可选实施例中,将手臂关键点细化为“手臂关键点包括手部关键点、肩膀关键点和肘部关键点”;将手臂弯曲角度的确定操作,细化为“确定手部关键点和肘部关键点的小臂线段,以及肘部关键点与肩膀关键点的大臂线段;将小臂线段和大臂线段的夹角作为手臂弯曲角度”,以完善手臂弯曲角度的确定机制。
参见图2所示的一种异常驾驶行为确定方法,包括:
S201、确定驾驶用户的原始图像中所包含手臂的多个手臂关键点;其中,手臂关键点包括手部关键点、肩膀关键点和肘部关键点。
当原始图像中包含多个手臂时,针对各手臂,确定与各手臂相对应的一组手臂关键点。其中,手臂关键点包括手部关键点、肩膀关键点和肘部关键点。
需要说明的是,当驾驶用户的原始图像中的手臂关键点无法同时获取到一组完整的手部关键点、肩膀关键点和肘部关键点时,则表明原始图像的图像采集装置安装位置异常,可以通过声、光、震动或语音等方式向驾驶用户进行提醒。
其中,手部关键点可以是手掌或手腕中任一区域的位置点,用于表征手部位置;肘部关键点可以是肘部中任一区域的位置点,用于表征肘部位置;肩部关键点可以是肩膀中任一区域的位置点,用于表征肩部位置。
S202、确定手部关键点和肘部关键点的小臂线段,以及肘部关键点与肩膀关键点的大臂线段。
示例性地,针对原始图像中的各手臂,可以直接连接手部关键点和肘部关键点,得到小臂线段;直接连接肘部关键点与肩膀关键点,得到大臂线段。
需要说明的是,当原始图像中包括至少两个人脸图像时,表明原始图像中的手臂可能存在非驾驶用户的手臂,因此,直接通过所确定的手臂关键点,将会出现手臂弯曲角度确定错误的情况,给后续异常驾驶行为识别结果的准确度带来影响。为了避免非驾驶用户手臂的手臂关键点的引入给异常驾驶行为确定结果带来的影响,在一个可选实施例中,还可以从多个手臂关键点中,剔除非驾驶用户的异常关键点。
在一个可选实施方式中,从多个手臂关键点中,剔除非驾驶用户的异常关键点,可以是:根据各手臂所关联的所述小臂线段和/或所述大臂线段的长度,确定非驾驶用户的异常关键点;剔除所述多个手臂关键点中的异常关键点。
一般的,当原始图片中包括驾驶用户的人脸图像和非驾驶用户的人脸图像时,驾驶用户的人脸图像较非驾驶用户的人脸图像的图像面积要大;相应的,驾驶用户的手臂较非驾驶用户的手臂要长。相应的,驾驶用户的小臂线段较非驾驶用户的小臂线段长度要长;驾驶用户的大臂线段较非驾驶用户的大臂线段长度要长。因此,可以通过各手臂所关联的小臂线段和/或大臂线段的长度,对非驾驶用户的异常关键点进行识别,并在手臂关键点中,剔除非驾驶用户的异常关键点。
具体的,将原始图像中各小臂线段的长度进行比较;和/或将各大臂线段的长度进行比较;将较短小臂线段对应的手臂和/或较短大臂线段对应的手臂,作为非驾驶用户的手臂;将非驾驶用户的手臂所关联的手臂关键点作为异常关键点
在另一可选实施方式中,从多个手臂关键点中,剔除非驾驶用户的异常关键点,还可以是:根据各手臂的所述手臂关键点与所述驾驶用户的人脸图像的距离,确定非驾驶用户的异常关键点;剔除所述多个手臂关键点中的异常关键点。
一般的,当原始图片中包括驾驶用户和非驾驶用户的人脸图像时,驾驶用户的手臂关键点距离驾驶用户的人脸图像距离较近;非驾驶用户的手臂关键点距离非驾驶用户的人脸图像距离较近。因此,可以通过各手臂的手臂关键点与驾驶用户的人脸图像的距离,确定距离较远的手臂为非驾驶用户的手臂。相应的,将非驾驶用户手臂的手臂关键点,作为非驾驶用户的异常关键点,并在手臂关键点中,剔除非驾驶用户的异常关键点。
S203、将小臂线段和大臂线段的夹角作为手臂弯曲角度。
将肘部关键点位置作为顶点,将小臂线段和大臂线段的夹角作为手臂弯曲角度。
S204、根据手臂弯曲角度,确定驾驶用户是否存在异常驾驶行为。
若手臂弯曲角度大于设定角度阈值,则确定驾驶用户不存在异常驾驶行为;若手臂弯曲角度不大于设定角度阈值,则确定驾驶用户存在异常驾驶行为。其中,设定角度阈值可以由技术人员根据需要或经验值进行确定,或通过大量试验反复确定。
本申请实施例通过将手臂关键点细化为包括手部关键点、肩膀关键点和肘部关键点;将手臂弯曲角度确定操作,细化为确定手部关键点和肘部关键点的小臂线段,以及肘部关键点与肩膀关键点的大臂线段;将小臂线段和大臂线段的夹角作为手臂弯曲角度。采用上述技术方案完善了手臂弯曲角度的确定机制,同时通过将手臂关键点细化为三个具备特定含义的关键点,减少了无关关键点确定带来的数据运算量的提升,为异常驾驶行为确定效率的提升,奠定了基础。同时,通过大臂线段和小臂线段的确定,保证了最终所确定的手臂弯曲角度的准确度,从而为异常驾驶行为确定结果准确度的提升,奠定了基础。
需要说明的是,通过手臂弯曲角度,能够对驾驶用户打电话或吃东西等手部离开方向盘的异常驾驶行为进行有效识别,然而,仅通过上述方式对驾驶用户低头玩手机等低头驾驶情况或疲劳驾驶存在漏识别的情况。
为了进一步减少异常驾驶行为的漏识别情况,在本申请另一可选实施例中,还可以引入驾驶用户的视线角度,从而根据视线角度进行异常驾驶行为的确定,减少对诸如低头玩手机等低头驾驶情况或疲劳驾驶情况的漏识别。
参见图3所示的一种异常驾驶行为确定方法,包括:
S301、确定驾驶用户的原始图像中所包含手臂的多个手臂关键点。
S302、根据手臂关键点,确定驾驶用户的手臂弯曲角度。
S303、根据手臂弯曲角度,确定驾驶用户是否存在异常驾驶行为。
S304、确定原始图像中驾驶用户的视线角度。
其中,视线角度用于表征驾驶用户的注视位置。
在一个可选实施方式中,确定原始图像中驾驶用户的视线角度,可以是:将原始图像输入至预先训练好的注视位置确定模型中,得到原始图像中驾驶用户的注视位置;根据注视位置,确定驾驶用户的视线角度。其中,注视位置确定模型可以通过大量标注有样本驾驶用户的注视位置的样本图像,对预先构建的第三神经网络模型进行训练得到。其中,第三神经网络模型的模型结构与前述第一神经网络模型或第二神经网络模型的网络结构可以相同或不同。
在另一可选实施方式中,确定原始图像中驾驶用户的视线角度,还可以是:确定原始图像中驾驶用户的瞳孔类别;其中,瞳孔类别包括眼左部、眼右部、眼上部、眼下部、眼中部和闭眼中的至少一种;根据瞳孔类别,确定所述驾驶用户的视线角度。
示例性地,可以直接根据瞳孔位置识别模型,确定原始图像中驾驶用户的瞳孔位置;根据瞳孔位置和驾驶用户眼部区域,确定瞳孔类别。其中,瞳孔位置识别模型可以采用大量的标注有样本驾驶用户的眼部区域和瞳孔位置的样本图像,对预先构建的第一机器学习模型进行训练得到。
示例性地,为了简化瞳孔类别的确定机制,还可以根据瞳孔类别判别模型,直接对原始图像进行处理,输出原始图像中驾驶用户的瞳孔类别。其中,瞳孔类别判别模型可以采用大量的标注有样本驾驶用户的眼部区域和瞳孔类别的样本图像,对预先构建的第二机器学习模型进行训练得到。其中,第一机器学习模型与第二机器学习模型的网络结构可以相同或不同。
示例性地,根据瞳孔类别,确定所述驾驶用户的视线角度,可以是:根据预先构建的瞳孔类别和视线角度之间的对应关系,确定当前所确定的瞳孔类别的视线角度。其中,瞳孔类别和视线角度之间的对应关系可以通过大量试验反复确定。其中,闭眼类别对应的视线角度为0,其他类别的视线角度非0;眼下部对应的视线角度较其他非0角度类别的角度值要小。
S305、根据视线角度,确定驾驶用户是否存在异常驾驶行为。
若视线角度小于设定视角阈值,则表明驾驶用户存在低头玩手机或疲劳驾驶闭眼等异常驾驶情况,因此确定驾驶用户存在异常驾驶行为;若视线角度不小于设定视角阈值,则表明驾驶用户不存在闭眼和低头玩手机等异常驾驶行为。其中,设定视角阈值可以由技术人员根据需要或经验值进行确定,或通过大量试验反复确定。
本申请实施例通过引入视线角度对低头驾驶或闭眼驾驶等异常驾驶行为进行识别,丰富了异常驾驶行为的确定类别,减小了异常驾驶行为漏识别情况,进一步提高了异常驾驶行为确定结果的准确度。
在上述各技术方案的基础上,本申请还提供了一个对车辆中的驾驶用户的异常驾驶行为进行识别的优选实施例。
参见图4所示的一种异常驾驶行为确定方法,包括:
S401、获取对驾驶用户采集的原始图像。
S402、对原始图像进行人脸识别,得到至少一个人脸检测框。
S403、将最大的人脸检测框作为驾驶用户的目标检测框。
S404、将目标检测框以上边框中心点为中心,沿上边框延伸方向,扩展第一设定倍数;以及以目标检测框的上边框中轴线朝向下颌部位方向,扩展第二设定倍数。
其中,第一设定倍数和第二设定倍数可以相同或不同。
S405、根据扩展后的目标检测框对原始图像进行裁剪,得到目标图像。
S406、对目标图像进行关键点识别,得到手臂关键点;手臂关键点包括手部关键点、肩部关键点和肘部关键点。
S407、针对每条手臂的手臂关键点,确定手部关键点和肘部关键点的小臂线段,以及肩部关键点和肘部关键点的大臂线段。
S408、剔除小臂线段较短或大臂线段较短的手臂对应的手臂关键点。
需要说明的是,剔除小臂线段较短或大臂线段较短的手臂后,剩余手臂关键点为驾驶用户的左侧手臂和/或右侧手臂对应的手臂关键点。
S409、针对每条手臂,确定小臂线段和大臂线段的夹角作为手臂弯曲角度。
S410、判断驾驶用户是否存在手臂弯曲角度小于设定角度阈值;若是,则执行S411;否则执行S412。
其中,设定角度阈值可以由技术人员根据需要或经验值进行设定,还可以由驾驶用户根据需要自行调整。
S411、确定驾驶用户存在异常驾驶行为。
S412、根据瞳孔类别判定模型,确定原始图像中驾驶用户的瞳孔类别;其中,瞳孔类别包括眼左部、眼右部、眼上部、眼下部、眼中部和闭眼。
S413、根据预先构建的瞳孔类别与视线角度的对应关系,确定所确定瞳孔类别的视线角度。
S414、判断视线角度是否小于设定视角阈值;若是,则执行S411;否则,执行S415。
其中,设定视角阈值可以由技术人员根据需要或经验值进行设定。
S415、确定驾驶用户不存在异常驾驶行为。
作为对上述各异常驾驶行为确定方法的实现,本申请还提供了一种实施异常驾驶行为确定方法的虚拟装置的实施例。
参见图5所示的一种异常驾驶行为确定装置500,包括:关键点确定模块501、手臂弯曲角度确定模块502和异常驾驶行为确定模块503。其中,
关键点确定模块501,用于确定驾驶用户的原始图像中所包含手臂的多个手臂关键点;
手臂弯曲角度确定模块502,用于根据所述手臂关键点,确定所述驾驶用户的手臂弯曲角度;
异常驾驶行为确定模块503,用于根据所述手臂弯曲角度,确定所述驾驶用户是否存在异常驾驶行为。
本申请实施例通过引入驾驶用户的手臂弯曲角度,来表征驾驶用户的驾驶姿态,从而根据手臂弯曲角度进行驾驶用户异常驾驶行为的确定,提供了一种新的异常驾驶行为确定方式,相较于现有技术通过驾驶用户的人脸姿态角进行异常驾驶行为确定的方式,提高了手部参与的异常驾驶行为确定结果的准确度。
进一步地,所述手臂关键点包括手部关键点、肩膀关键点和肘部关键点;
所述手臂弯曲角度确定模块502,包括:
线段确定单元,用于确定所述手部关键点和所述肘部关键点的小臂线段,以及所述肘部关键点与所述肩膀关键点的大臂线段;
手臂弯曲角度确定单元,用于将所述小臂线段和所述大臂线段的夹角作为所述手臂弯曲角度。
进一步地,若所述原始图像中包括至少两个人脸图像,则所述装置还包括:
异常关键点剔除模块,用于从所述多个手臂关键点中,剔除非驾驶用户的异常关键点。
进一步地,所述异常关键点剔除模块,包括:
第一异常关键点确定单元,用于根据各手臂所关联的所述小臂线段和/或所述大臂线段的长度,确定非驾驶用户的异常关键点小臂线段大臂线段;
第一异常关键点剔除单元,用于剔除所述多个手臂关键点中的异常关键点。
进一步地,所述异常关键点剔除模块,包括:
第二异常关键点确定单元,用于根据各手臂的所述手臂关键点与所述驾驶用户的人脸图像的距离,确定非驾驶用户的异常关键点;
第二异常关键点剔除单元,用于剔除所述多个手臂关键点中的异常关键点。
进一步地,所述关键点确定模块501,包括:
人脸区域识别单元,用于识别所述驾驶用户的原始图像中的人脸区域;
候选区域得到单元,用于对所述驾驶用户的人脸区域进行扩展,得到候选区域;所述候选区域包括手臂区域;
目标图像得到单元,用于根据所述候选区域截取所述原始图像,得到目标图像;
手臂关键点确定单元,用于确定所述目标图像中所包含手臂的多个手臂关键点。
进一步地,若识别到所述原始图像中的人脸区域为至少两个,则所述关键点确定模块501,还包括:
驾驶用户人脸区域确定单元,用于确定其中一个较大的人脸区域作为所述驾驶用户的人脸区域。
进一步地,该装置还包括:
视线角度确定模块,用于确定所述原始图像中所述驾驶用户的视线角度;
异常驾驶行为确定模块,用于根据所述视线角度,确定所述驾驶用户是否存在异常驾驶行为。
进一步地,所述视线角度确定模块,包括:
瞳孔类别确定单元,用于确定所述原始图像中所述驾驶用户的瞳孔类别;其中,所述瞳孔类别包括眼左部、眼右部、眼上部、眼下部、眼中部和闭眼中的至少一种;
视线角度确定单元,用于根据所述瞳孔类别,确定所述驾驶用户的视线角度。
上述异常驾驶行为确定装置可执行本发明任意实施例所提供的异常驾驶行为确定方法,具备执行异常驾驶行为确定方法相应的功能模块和有益效果。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是实现本申请实施例的异常驾驶行为确定方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的异常驾驶行为确定方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的异常驾驶行为确定方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的异常驾驶行为确定方法对应的程序指令/模块(例如,附图5所示的关键点确定模块501、手臂弯曲角度确定模块502和异常驾驶行为确定模块503)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的异常驾驶行为确定方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储实现异常驾驶行为确定方法的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至实现异常驾驶行为确定方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
实现异常驾驶行为确定方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与实现异常驾驶行为确定方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
根据本申请实施例的技术方案,通过引入驾驶用户的手臂弯曲角度,来表征驾驶用户的驾驶姿态,从而根据手臂弯曲角度进行驾驶用户异常驾驶行为的确定,提供了一种新的异常驾驶行为确定方式,相较于现有技术通过驾驶用户的人脸姿态角进行异常驾驶行为确定的方式,提高了手部参与的异常驾驶行为确定结果的准确度。
本申请实施例还提供一种车辆,该车辆设置有如图6所示的电子设备。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (21)
1.一种异常驾驶行为确定方法,包括:
确定驾驶用户的原始图像中所包含手臂的多个手臂关键点;
根据所述手臂关键点,确定所述驾驶用户的手臂弯曲角度;
根据所述手臂弯曲角度,确定所述驾驶用户是否存在异常驾驶行为。
2.根据权利要求1所述的方法,其中,所述手臂关键点包括手部关键点、肩膀关键点和肘部关键点;
所述根据所述手臂关键点,确定所述驾驶用户的手臂弯曲角度,包括:
确定所述手部关键点和所述肘部关键点的小臂线段,以及所述肘部关键点与所述肩膀关键点的大臂线段;
将所述小臂线段和所述大臂线段的夹角作为所述手臂弯曲角度。
3.根据权利要求2所述的方法,若所述原始图像中包括至少两个人脸图像,则所述方法还包括:
从所述多个手臂关键点中,剔除非驾驶用户的异常关键点。
4.根据权利要求3所述的方法,其中,所述从所述多个手臂关键点中,剔除非驾驶用户的异常关键点,包括:
根据各手臂所关联的所述小臂线段和/或所述大臂线段的长度,确定非驾驶用户的异常关键点;
剔除所述多个手臂关键点中的异常关键点。
5.根据权利要求3所述的方法,其中,所述从所述多个手臂关键点中,剔除非驾驶用户的异常关键点,包括:
根据各手臂的所述手臂关键点与所述驾驶用户的人脸图像的距离,确定非驾驶用户的异常关键点;
剔除所述多个手臂关键点中的异常关键点。
6.根据权利要求1所述的方法,其中,所述确定驾驶用户的原始图像中所包含手臂的多个手臂关键点,包括:
识别所述驾驶用户的原始图像中的人脸区域;
对所述驾驶用户的人脸区域进行扩展,得到候选区域;所述候选区域包括手臂区域;
根据所述候选区域截取所述原始图像,得到目标图像;
确定所述目标图像中所包含手臂的多个手臂关键点。
7.根据权利要求6所述的方法,若识别到所述原始图像中的人脸区域为至少两个,则确定其中一个较大的人脸区域作为所述驾驶用户的人脸区域。
8.根据权利要求1-7任一项所述的方法,还包括:
确定所述原始图像中所述驾驶用户的视线角度;
根据所述视线角度,确定所述驾驶用户是否存在异常驾驶行为。
9.根据权利要求8所述的方法,其中,所述确定所述原始图像中所述驾驶用户的视线角度,包括:
确定所述原始图像中所述驾驶用户的瞳孔类别;其中,所述瞳孔类别包括眼左部、眼右部、眼上部、眼下部、眼中部和闭眼中的至少一种;
根据所述瞳孔类别,确定所述驾驶用户的视线角度。
10.一种异常驾驶行为确定装置,包括:
关键点确定模块,用于确定驾驶用户的原始图像中所包含手臂的多个手臂关键点;
手臂弯曲角度确定模块,用于根据所述手臂关键点,确定所述驾驶用户的手臂弯曲角度;
异常驾驶行为确定模块,用于根据所述手臂弯曲角度,确定所述驾驶用户是否存在异常驾驶行为。
11.根据权利要求10所述的装置,其中,所述手臂关键点包括手部关键点、肩膀关键点和肘部关键点;
所述手臂弯曲角度确定模块,包括:
线段确定单元,用于确定所述手部关键点和所述肘部关键点的小臂线段,以及所述肘部关键点与所述肩膀关键点的大臂线段;
手臂弯曲角度确定单元,用于将所述小臂线段和所述大臂线段的夹角作为所述手臂弯曲角度。
12.根据权利要求11所述的装置,若所述原始图像中包括至少两个人脸图像,则所述装置还包括:
异常关键点剔除模块,用于从所述多个手臂关键点中,剔除非驾驶用户的异常关键点。
13.根据权利要求12所述的装置,其中,所述异常关键点剔除模块,包括:
第一异常关键点确定单元,用于根据各手臂所关联的所述小臂线段和/或所述大臂线段的长度,确定非驾驶用户的异常关键点小臂线段大臂线段;
第一异常关键点剔除单元,用于剔除所述多个手臂关键点中的异常关键点。
14.根据权利要求12所述的装置,其中,所述异常关键点剔除模块,包括:
第二异常关键点确定单元,用于根据各手臂的所述手臂关键点与所述驾驶用户的人脸图像的距离,确定非驾驶用户的异常关键点;
第二异常关键点剔除单元,用于剔除所述多个手臂关键点中的异常关键点。
15.根据权利要求10所述的装置,其中,所述关键点确定模块,包括:
人脸区域识别单元,用于识别所述驾驶用户的原始图像中的人脸区域;
候选区域得到单元,用于对所述驾驶用户的人脸区域进行扩展,得到候选区域;所述候选区域包括手臂区域;
目标图像得到单元,用于根据所述候选区域截取所述原始图像,得到目标图像;
手臂关键点确定单元,用于确定所述目标图像中所包含手臂的多个手臂关键点。
16.根据权利要求15所述的装置,若识别到所述原始图像中的人脸区域为至少两个,则所述关键点确定模块,还包括:
驾驶用户人脸区域确定单元,用于确定其中一个较大的人脸区域作为所述驾驶用户的人脸区域。
17.根据权利要求10-16任一项所述的装置,还包括:
视线角度确定模块,用于确定所述原始图像中所述驾驶用户的视线角度;
异常驾驶行为确定模块,用于根据所述视线角度,确定所述驾驶用户是否存在异常驾驶行为。
18.根据权利要求17所述的装置,其中,所述视线角度确定模块,包括:
瞳孔类别确定单元,用于确定所述原始图像中所述驾驶用户的瞳孔类别;其中,所述瞳孔类别包括眼左部、眼右部、眼上部、眼下部、眼中部和闭眼中的至少一种;
视线角度确定单元,用于根据所述瞳孔类别,确定所述驾驶用户的视线角度。
19.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-9中任一项所述的一种异常驾驶行为确定方法。
20.一种车辆,其中,所述车辆包括如权利要求19所述的电子设备。
21.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-9中任一项所述的一种异常驾驶行为确定方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011217097.3A CN112270283A (zh) | 2020-11-04 | 2020-11-04 | 异常驾驶行为确定方法、装置、设备、车辆和介质 |
US17/379,475 US11453403B2 (en) | 2020-11-04 | 2021-07-19 | Abnormal driving behavior determination method, device, vehicle and medium |
EP21187073.8A EP3879447A3 (en) | 2020-11-04 | 2021-07-22 | Abnormal driving behavior determination method and apparatus, device, vehicle and medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011217097.3A CN112270283A (zh) | 2020-11-04 | 2020-11-04 | 异常驾驶行为确定方法、装置、设备、车辆和介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112270283A true CN112270283A (zh) | 2021-01-26 |
Family
ID=74345878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011217097.3A Pending CN112270283A (zh) | 2020-11-04 | 2020-11-04 | 异常驾驶行为确定方法、装置、设备、车辆和介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11453403B2 (zh) |
EP (1) | EP3879447A3 (zh) |
CN (1) | CN112270283A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112906515A (zh) * | 2021-02-03 | 2021-06-04 | 珠海研果科技有限公司 | 车内异常行为识别方法、系统、电子设备及存储介质 |
CN112990069A (zh) * | 2021-03-31 | 2021-06-18 | 新疆爱华盈通信息技术有限公司 | 异常驾驶行为检测方法、装置、终端及介质 |
CN113243886A (zh) * | 2021-06-11 | 2021-08-13 | 四川翼飞视科技有限公司 | 一种基于深度学习的视力检测系统、方法和存储介质 |
CN113313019A (zh) * | 2021-05-27 | 2021-08-27 | 展讯通信(天津)有限公司 | 一种分神驾驶检测方法、系统及相关设备 |
CN114663863A (zh) * | 2022-02-24 | 2022-06-24 | 北京百度网讯科技有限公司 | 图像处理方法、装置、电子设备和计算机存储介质 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022144818A (ja) * | 2021-03-19 | 2022-10-03 | 本田技研工業株式会社 | 運転支援装置、運転支援方法 |
CN113954784B (zh) * | 2021-09-30 | 2024-07-12 | 厦门盈趣汽车电子有限公司 | 一种汽车启动权限的自动判别系统、方法及汽车 |
CN114550287B (zh) * | 2022-01-27 | 2024-06-21 | 福建和盛高科技产业有限公司 | 基于人体关键点的变电站场景下人员行为异常检测方法 |
CN114898281B (zh) * | 2022-07-13 | 2022-09-30 | 南通高桥体育用品有限公司 | 一种基于计算机视觉的篮球框异常检测方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107392120A (zh) * | 2017-07-06 | 2017-11-24 | 电子科技大学 | 一种基于视线估计的注意力智能监督方法 |
CN109803583A (zh) * | 2017-08-10 | 2019-05-24 | 北京市商汤科技开发有限公司 | 驾驶状态监控方法、装置和电子设备 |
CN109885169A (zh) * | 2019-02-25 | 2019-06-14 | 清华大学 | 基于三维眼球模型的眼球参数标定和视线方向跟踪方法 |
CN111124104A (zh) * | 2018-10-31 | 2020-05-08 | 托比股份公司 | 使用瞳孔中心位置的映射进行注视跟踪 |
CN111310653A (zh) * | 2020-02-13 | 2020-06-19 | 上海眼控科技股份有限公司 | 佩戴头盔的检测方法、装置、计算机设备和存储介质 |
CN111301280A (zh) * | 2018-12-11 | 2020-06-19 | 北京嘀嘀无限科技发展有限公司 | 一种危险状态识别方法及装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3811072B2 (ja) * | 2002-01-18 | 2006-08-16 | 本田技研工業株式会社 | 移動ロボットの異常検知装置 |
US8538044B2 (en) * | 2008-09-26 | 2013-09-17 | Panasonic Corporation | Line-of-sight direction determination device and line-of-sight direction determination method |
US10712816B2 (en) * | 2016-01-04 | 2020-07-14 | Harman International Industries, Incorporated | Off-axis gaze tracking in in-vehicle computing systems |
US10152642B2 (en) * | 2016-12-16 | 2018-12-11 | Automotive Research & Testing Center | Method for detecting driving behavior and system using the same |
US11030442B1 (en) * | 2017-12-13 | 2021-06-08 | Amazon Technologies, Inc. | Associating events with actors based on digital imagery |
-
2020
- 2020-11-04 CN CN202011217097.3A patent/CN112270283A/zh active Pending
-
2021
- 2021-07-19 US US17/379,475 patent/US11453403B2/en active Active
- 2021-07-22 EP EP21187073.8A patent/EP3879447A3/en not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107392120A (zh) * | 2017-07-06 | 2017-11-24 | 电子科技大学 | 一种基于视线估计的注意力智能监督方法 |
CN109803583A (zh) * | 2017-08-10 | 2019-05-24 | 北京市商汤科技开发有限公司 | 驾驶状态监控方法、装置和电子设备 |
CN111124104A (zh) * | 2018-10-31 | 2020-05-08 | 托比股份公司 | 使用瞳孔中心位置的映射进行注视跟踪 |
CN111301280A (zh) * | 2018-12-11 | 2020-06-19 | 北京嘀嘀无限科技发展有限公司 | 一种危险状态识别方法及装置 |
CN109885169A (zh) * | 2019-02-25 | 2019-06-14 | 清华大学 | 基于三维眼球模型的眼球参数标定和视线方向跟踪方法 |
CN111310653A (zh) * | 2020-02-13 | 2020-06-19 | 上海眼控科技股份有限公司 | 佩戴头盔的检测方法、装置、计算机设备和存储介质 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112906515A (zh) * | 2021-02-03 | 2021-06-04 | 珠海研果科技有限公司 | 车内异常行为识别方法、系统、电子设备及存储介质 |
CN112906515B (zh) * | 2021-02-03 | 2024-07-19 | 珠海研果科技有限公司 | 车内异常行为识别方法、系统、电子设备及存储介质 |
CN112990069A (zh) * | 2021-03-31 | 2021-06-18 | 新疆爱华盈通信息技术有限公司 | 异常驾驶行为检测方法、装置、终端及介质 |
CN113313019A (zh) * | 2021-05-27 | 2021-08-27 | 展讯通信(天津)有限公司 | 一种分神驾驶检测方法、系统及相关设备 |
CN113243886A (zh) * | 2021-06-11 | 2021-08-13 | 四川翼飞视科技有限公司 | 一种基于深度学习的视力检测系统、方法和存储介质 |
CN114663863A (zh) * | 2022-02-24 | 2022-06-24 | 北京百度网讯科技有限公司 | 图像处理方法、装置、电子设备和计算机存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP3879447A2 (en) | 2021-09-15 |
US11453403B2 (en) | 2022-09-27 |
EP3879447A3 (en) | 2022-02-16 |
US20210347366A1 (en) | 2021-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112270283A (zh) | 异常驾驶行为确定方法、装置、设备、车辆和介质 | |
CN106845335B (zh) | 用于虚拟现实设备的手势识别方法、装置及虚拟现实设备 | |
CN108681399B (zh) | 一种设备控制方法、装置、控制设备及存储介质 | |
CN112287795B (zh) | 异常驾驶姿态检测方法、装置、设备、车辆和介质 | |
JP2019535055A (ja) | ジェスチャに基づく操作の実施 | |
CN112528850A (zh) | 人体识别方法、装置、设备和存储介质 | |
CN111783606B (zh) | 一种人脸识别网络的训练方法、装置、设备及存储介质 | |
CN111645695B (zh) | 一种疲劳驾驶的检测方法、装置、计算机设备和存储介质 | |
DE202017105283U1 (de) | Sitzungsende-Erkennung in einer Augmented- und/oder Virtual-Reality-Umgebung | |
US11520947B1 (en) | System and method for adapting graphical user interfaces to real-time user metrics | |
CN112487973B (zh) | 用户图像识别模型的更新方法和装置 | |
CN111968203A (zh) | 动画驱动方法、装置、电子设备及存储介质 | |
KR20210040872A (ko) | 눈 보호 모드의 프롬프트 방법, 장치, 전자기기, 저장 매체 및 프로그램 | |
JP2021043476A (ja) | 情報処理装置 | |
EP4092549B1 (en) | Captcha method and apparatus, device, and storage medium | |
US10963063B2 (en) | Information processing apparatus, information processing method, and program | |
CN105677040A (zh) | 一种终端控制方法、装置及可穿戴设备 | |
WO2019227734A1 (zh) | 一种控制指令输入方法和输入装置 | |
CN107223224A (zh) | 一种弱视辅助方法和装置 | |
CN110517248A (zh) | 眼底图像的处理、训练方法、装置及其设备 | |
CN112270303A (zh) | 图像识别方法、装置以及电子设备 | |
CN112016523A (zh) | 跨模态人脸识别的方法、装置、设备和存储介质 | |
CN106547339B (zh) | 计算机设备的控制方法和装置 | |
CN115981481A (zh) | 界面显示方法、装置、设备、介质及程序产品 | |
US11340703B1 (en) | Smart glasses based configuration of programming code |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |