CN111950348A - 安全带的佩戴状态识别方法、装置、电子设备和存储介质 - Google Patents

安全带的佩戴状态识别方法、装置、电子设备和存储介质 Download PDF

Info

Publication number
CN111950348A
CN111950348A CN202010604996.2A CN202010604996A CN111950348A CN 111950348 A CN111950348 A CN 111950348A CN 202010604996 A CN202010604996 A CN 202010604996A CN 111950348 A CN111950348 A CN 111950348A
Authority
CN
China
Prior art keywords
area
face
wearing state
target
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010604996.2A
Other languages
English (en)
Inventor
王珂尧
冯浩城
岳海潇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202010604996.2A priority Critical patent/CN111950348A/zh
Publication of CN111950348A publication Critical patent/CN111950348A/zh
Priority to US17/301,069 priority patent/US20210209385A1/en
Priority to EP21164539.5A priority patent/EP3879443A3/en
Priority to KR1020210062760A priority patent/KR20210064123A/ko
Priority to JP2021104695A priority patent/JP2021152966A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R22/00Safety belts or body harnesses in vehicles
    • B60R22/48Control systems, alarms, or interlock systems, for the correct application of the belt or harness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R22/00Safety belts or body harnesses in vehicles
    • B60R22/48Control systems, alarms, or interlock systems, for the correct application of the belt or harness
    • B60R2022/4808Sensing means arrangements therefor

Abstract

本申请公开了安全带的佩戴状态识别方法、装置、电子设备和存储介质,涉及计算机视觉、人工智能、深度学习领域。实现方案为:通过对交通工具监测得到的监测图像进行人脸识别,以得到人脸区域,并根据人脸区域的尺寸和位置,从监测图像中确定目标区域,继而根据目标区域的图像特征,识别安全带的佩戴状态。该方案通过预估安全带的佩戴区域,本申请中记为目标区域,仅对该目标区域进行安全带的佩戴状态识别,有效地减少了监测图像中其他无用信息的干扰,可以降低计算量,提升识别速率,可以应用于计算能力较低的设备中,比如车载设备中,提升该方法的适用性。

Description

安全带的佩戴状态识别方法、装置、电子设备和存储介质
技术领域
本申请涉及图像处理领域,具体涉及计算机视觉、人工智能、深度学习技术领域,尤其涉及一种安全带的佩戴状态识别方法、装置、电子设备和存储介质。
背景技术
安全带是交通工具上的主动式安全装备,当交通工具发生碰撞或者遇到意外情况紧急刹车时,其可通过约束作用,将驾驶人员或者乘客束缚在座椅上,从而避免驾驶人员或者乘客受到二次碰撞,甚至被甩出交通工具的情况。
因此,对驾驶人员或者乘客是否佩戴安全带进行识别是非常重要的,比如,在未佩戴安全带时进行提醒或者警告,在保证安全驾驶的同时,还可以提高人们遵守交通法规的意识。
发明内容
本申请旨在至少在一定程度上解决相关技术中的技术问题之一。
本申请提出一种安全带的佩戴状态识别方法、装置、电子设备和存储介质,以实现通过预估安全带的佩戴区域,本申请中记为目标区域,仅对该目标区域进行安全带的佩戴状态识别,有效地减少了监测图像中其他无用信息的干扰,可以降低计算量,提升识别速率,可以应用于计算能力较低的设备中,比如车载设备中,提升该方法的适用性。
本申请第一方面实施例提出了一种安全带的佩戴状态识别方法,包括:
获取对交通工具监测得到的监测图像;
对所述监测图像进行人脸识别,以得到人脸区域;
根据所述人脸区域的尺寸和位置,从所述监测图像中确定目标区域;
根据所述目标区域的图像特征,识别安全带的佩戴状态。
本申请第二方面实施例提出了一种安全带的佩戴状态识别装置,包括:
获取模块,用于获取对交通工具监测得到的监测图像;
人脸识别模块,用于对所述监测图像进行人脸识别,以得到人脸区域;
确定模块,用于根据所述人脸区域的尺寸和位置,从所述监测图像中确定目标区域;
状态识别模块,用于根据所述目标区域的图像特征,识别安全带的佩戴状态。
本申请第三方面实施例提出了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本申请第一方面实施例提出的安全带的佩戴状态识别方法。
本申请第四方面实施例提出了一种计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行本申请第一方面实施例提出的安全带的佩戴状态识别方法。
上述申请中的一个实施例具有如下优点或有益效果:
通过对交通工具监测得到的监测图像进行人脸识别,以得到人脸区域,并根据人脸区域的尺寸和位置,从监测图像中确定目标区域,继而根据目标区域的图像特征,识别安全带的佩戴状态。由此,通过预估安全带的佩戴区域,本申请中记为目标区域,仅对该目标区域进行安全带的佩戴状态识别,有效地减少了监测图像中其他无用信息的干扰,可以降低计算量,提升识别速率,可以应用于计算能力较低的设备中,比如车载设备中,提升该方法的适用性。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本公开的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为本申请实施例一所提供的安全带的佩戴状态识别方法的流程示意图;
图2为本申请实施例二所提供的安全带的佩戴状态识别方法的流程示意图;
图3为本申请实施例三所提供的安全带的佩戴状态识别方法的流程示意图;
图4为本申请实施例四所提供的安全带的佩戴状态识别方法的流程示意图;
图5为本申请中卷积神经网络的网络结构示意图;
图6为本申请实施例五所提供的安全带的佩戴状态识别装置的结构示意图;
图7为本申请实施例六所提供的安全带的佩戴状态识别装置的结构示意图;
图8是用来实现本申请实施例的安全带的佩戴状态识别方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
下面参考附图描述本申请实施例的安全带的佩戴状态识别方法、装置、电子设备和存储介质。
图1为本申请实施例一所提供的安全带的佩戴状态识别方法的流程示意图。
本申请实施例以该安全带的佩戴状态识别方法被配置于安全带的佩戴状态识别装置中来举例说明,该安全带的佩戴状态识别装置可以应用于任一电子设备中,以使该电子设备可以执行安全带的佩戴状态识别功能。
其中,电子设备可以为任一具有计算能力的设备,例如可以为个人电脑(PersonalComputer,简称PC)、移动终端、服务器等,移动终端例如可以为手机、平板电脑、个人数字助理、穿戴式设备、车载设备等具有各种操作系统、触摸屏和/或显示屏的硬件设备。
如图1所示,该安全带的佩戴状态识别方法可以包括以下步骤:
步骤101,获取对交通工具监测得到的监测图像。
本申请实施例中,交通工具是指用于人类代步或运输的装置,比如,交通工具可以为车辆(汽车、火车等)、水上设备(轮船、潜艇等)、飞行设备(飞机、航天飞机、火箭等)等等。
本申请实施例中,监测图像可以为电子设备实时采集的图像,或者,监测图像也可以为电子设备预先采集或者下载的图像,或者,监测图像也可以为电子设备在线浏览的图像,或者,监测图像还可以为电子设备从外部设备侧获取的图像,等等,本申请对此并不做限制。
作为一种示例,电子设备可以对交通工具进行监测,得到监测图像,例如,电子设备上可以设置有摄像头,可以通过摄像头实时或者间歇性地对交通工具进行监测,得到监测图像。举例而言,电子设备可以为手机、平板电脑、车载设备等移动终端,从而电子设备可以对车内环境进行图像采集,获取监测图像。
作为另一种示例,可以通过外部设备对交通工具进行监测,得到监测图像,电子设备可以与外部设备进行通信,获取上述监测图像。举例而言,当交通工具为车辆时,该外部设备可以为交通路口的摄像头,通过交通路口的摄像头对交通工具进行监测,得到监测图像,电子设备可以为监控中心的设备,从而电子设备可以通过与交通路口的摄像头进行通信,获取交通路口的摄像头采集得到的监测图像。
其中,电子设备上摄像头设置的数量并不做限制,比如可以是一个,或者也可以为多个。摄像头设置于电子设备的形式不限,例如,可以是内置于电子设备的摄像头,或者,也可以为外置于电子设备的摄像头,再例如,可以是前置摄像头,也可以是后置摄像头。其中,摄像头可以为任意类型的摄像头,例如,摄像头可以是彩色摄像头、黑白摄像头、深度摄像头、长焦摄像头、广角摄像头等,在此不做限定。
其中,当电子设备设置有多个摄像头时,多个摄像头可以是相同类型的摄像头,也可以是不同类型的摄像头,本申请对此并不作限制。例如,可以均是彩色摄像头,也可以均是黑白摄像头,或者,其中的一个摄像头为长焦摄像头,其他的摄像头为广角摄像头,等等。
本申请实施例中,可以探测用户操作,响应于用户操作,获取监测图像,或者,还可以持续或间断性进行图像采集,以获取监测图像。或者,还可以持续或间断性地与外部设备进行通信,获取外部设备采集得到的监测图像。
步骤102,对监测图像进行人脸识别,以得到人脸区域。
本申请实施例中,可以基于人脸识别算法,对监测图像进行人脸识别,以得到人脸区域,或者,还可以基于目标识别算法,对监测图像进行人脸识别,以得到人脸区域。例如,可以基于单发多框检测(Single Shot MultiBoxDetector,简称SSD)、你只看一眼(YouOnly Look Once,简称YOLO)、Faster-RCNN等目标检测算法,对监测图像进行人脸识别,以得到人脸区域。
作为一种示例,为了提升识别结果的准确性,可以基于深度学习技术,对监测图像进行人脸识别,以得到人脸区域。例如,可以利用大量已标注过人脸区域的样本图像,对人脸检测模型进行训练,使得训练后的人脸检测模型已学习得到人脸区域与图像之间的对应关系。从而,本申请中,在获取到监测图像后,可以将该监测图像作为输入,采用人脸检测模型,对该监测图像进行人脸识别,输出得到人脸区域。
应当理解的是,监测图像中可能包括多个人脸,比如驾驶位区域和副驾驶位区域中同时存在人脸,此时,为了提升检测结果的准确性,可以对监测图像中的每个人脸进行检测,获取各人脸对应的人脸区域。
步骤103,根据人脸区域的尺寸和位置,从监测图像中确定目标区域。
本申请实施例中,目标区域,用于指示安全带的佩戴位置。
根据先验知识可知,驾驶人员或者乘客佩戴安全带的行为,一般出现在人脸的下方区域,即安全带的佩戴位置在人脸下方,因此,本申请中,在识别得到人脸区域后,可以根据人脸区域的下方区域,确定安全带的识别区域,本申请中记为目标区域。其中,下方是指相对于人脸区域的下方的位置,其与人脸区域的位置为相对位置。
应当理解的是,当监测图像仅包括一个人脸区域时,目标区域为一个,而当监测图像包括多个人脸区域时,目标区域也为多个,可以分别根据各人脸区域的尺寸和位置,确定对应的目标区域。
步骤104,根据目标区域的图像特征,识别安全带的佩戴状态。
本申请实施例中,安全带的佩戴状态包括已佩戴状态和未佩戴状态。
本申请实施例中,图像特征可以包括颜色特征、纹理特征、形状特征、空间关系特征中的至少一个。
本申请实施例中,在确定每个目标区域后,可以基于特征提取算法,对各目标区域进行特征提取,得到各目标区域的图像特征。例如,可以采用颜色直方图方法提取各目标区域的颜色特征,采用基于统计的方法提取各目标区域的纹理特征,采用几何参数法、形状不变矩法,提取各目标区域的形状特征,将各目标区域均匀地划分为若干规则子块,然后对每个图像子块提取特征,并建立索引,得到各目标区域对应的空间关系特征。
其中,特征提取是计算机视觉和图像处理中的一个概念。它指的是使用计算机提取图像信息,决定每个图像的点是否属于一个图像特征。特征提取的结果是把图像上的点分为不同的子集,这些子集往往属于孤立的点、连续的曲线或者连续的区域。
本申请实施例中,在确定各目标区域的图像特征后,可以根据各目标区域的图像特征,识别安全带的佩戴状态。
作为一种可能的实现方式,为了提升识别结果的准确性,可以基于深度学习技术,对各目标区域进行识别,确定各目标区域中安全带的佩戴状态。例如,可以通过分类模型,对各目标区域进行识别,确定各目标区域中安全带的佩戴状态。
其中,分类模型在训练时,若训练样本图片中安全带的佩戴状态为已佩戴状态,则该训练样本图片的标签为1,若训练样本图片中安全带的佩戴状态为未佩戴状态,则该训练样本图片的标签为0,利用训练后的分类模型对目标区域的图像特征进行识别,输出的为0至1的分类概率,其中,分类概率越接近于1,表明监测图像中安全带的佩戴状态为已佩戴状态的概率越大。因此,可以设置一个概率阈值,比如为0.5,当分类模型输出的分类概率大于或者等于该概率阈值时,则确定全带的佩戴状态为已佩戴状态,而当分类输出的分类概率小于该概率阈值时,则确定全带的佩戴状态为未佩戴状态。
作为一种示例,针对每个目标区域,可以通过卷积神经网络,对该目标区域进行特征提取,得到该目标区域的图像特征,并将该目标区域的图像特征输入至全链接层,根据全链接层的输出,确定安全带的佩戴状态。例如,全链接层输出的分类概率低于0.5,则近似认为是0,可确定安全带的佩戴状态为未佩戴状态,全链接层输出的分类概率高于0.5,则近似认为是1,可确定全带的佩戴状态为已佩戴状态。其中,卷积神经网络包括卷积层和池化层。
作为一种应用场景,可通过电子设备对交通工具内的环境进行图像采集,获取监测图像,比如电子设备为手机、平板电脑、车载设备等移动终端,该电子设备可以位于车内,采集的监测图像中可以包括多张人脸,比如驾驶位区域、副驾驶位区域、后排乘客区域中同时存在人脸,此时,对监测图像进行人脸识别,可得到多张人脸,可分别对各人脸区域下方的安全带的佩戴区域,即目标区域进行安全带的佩戴状态的识别。
进一步地,在安全带的佩戴状态为未佩戴状态时,还可对驾驶人员或者乘客进行提醒。比如可以通过扬声器以语音播报的方式,向驾驶人员或者乘客播报提醒消息,或者,通过指示灯可视化地显示安全带的未佩戴状态,或者,可以通过显示屏显示未佩戴安全带的提醒消息,或者,还可以向驾驶人员的移动设备发送提醒消息,或者,还可以通过声音、振动等方式,提醒驾驶人员或乘客未佩戴安全带,等等,本申请对此并不做限制。
作为另一种应用场景,以交通工具为车辆进行示例,可通过交通路口的摄像头对交通路口的车辆进行监测,得到监测图像,电子设备可与交通路口的摄像头进行通信,获取监测图像。应当理解的是,受限于拍摄视角以及拍摄距离,摄像头采集的监测图像中可能仅包括驾驶位区域和副驾驶位区域,而无法显示后排乘客区域,因此,本申请中,可仅对驾驶位区域和副驾驶位区域的人脸进行识别,并对各人脸区域下方的安全带的佩戴区域,即目标区域进行安全带的佩戴状态的识别。
进一步地,在安全带的佩戴状态为未佩戴状态时,还可以继续对车辆进行车牌识别,例如,可以基于目标识别算法,从监测图像中,识别车牌区域,基于深度学习技术,对车牌区域进行文本识别,得到车牌信息。在识别得到车牌信息后,相关人员可对该车牌信息进行标记,以对该车辆进行相应处罚,由此,可以对驾驶人员进行提醒和警告,提高驾驶人员遵守交通法规的意识。
需要说明的是,本申请上述仅以交通工具为车辆进行示例,实际应用时,交通工具并不限定为车辆,比如还可以为飞机、航天飞机等,同样可以基于上述方式,对采集到的监测图像中安全带的佩戴状进行识别,本申请对此并不做限制。
需要说明的是,虽然可以通过模型直接对监测图像进行检测,来确定安全带的佩戴状态,但是,对全图进行识别的方式,会使得输入图像的尺寸较大,导致算法的运算量较大,不适用于计算能力较低的设备。
而本申请中,在获取到对交通工具进行监测得到的监测图像后,利用驾驶人员或者乘客佩戴安全带的行为,一般出现在人脸下方区域的先验知识,预估安全带的佩戴区域,本申请中记为目标区域,仅对该目标区域进行安全带的佩戴状态识别,有效地减少了监测图像中其他无用信息的干扰,同时减小模型输入图像的大小,在降低计算量,提升识别速率的基础上,还可以提高识别结果的准确率,可以应用于计算能力较低的设备中,比如车载设备中,提升该方法的适用性。
本申请实施例的安全带的佩戴状态识别方法,通过对交通工具监测得到的监测图像进行人脸识别,以得到人脸区域,并根据人脸区域的尺寸和位置,从监测图像中确定目标区域,继而根据目标区域的图像特征,识别安全带的佩戴状态。由此,通过预估安全带的佩戴区域,本申请中记为目标区域,仅对该目标区域进行安全带的佩戴状态识别,有效地减少了监测图像中其他无用信息的干扰,可以降低计算量,提升识别速率,可以应用于计算能力较低的设备中,比如车载设备中,提升该方法的适用性。
作为一种可能的实现方式,为了进一步降低计算量,本申请中,可以将人脸区域下方,与人脸区域之间的距离符合人脸区域的高度的区域,作为目标区域。下面结合实施例二,对上述过程进行详细说明。
图2为本申请实施例二所提供的安全带的佩戴状态识别方法的流程示意图。
如图2所示,该安全带的佩戴状态识别方法可以包括以下步骤:
步骤201,获取对交通工具监测得到的监测图像。
步骤201的执行过程可以参见上述实施例中步骤101的执行过程,在此不做赘述。
步骤202,对监测图像进行人脸识别,以得到人脸区域。
作为一种可能的实现方式,为了提升识别结果的准确性,可以基于深度学习技术,对监测图像进行人脸识别,以得到人脸区域。
例如,通过人脸检测模型,对监测图像进行人脸区域检测,得到人脸区域,其中,通过人脸检测模型中的六层卷积网络进行人脸基础特征提取,每层卷积网络实现一次图像下采样,基于最后的三层卷积神经网络分别预设置固定数目的不同尺寸人脸锚点框进行人脸检测框回归,最终输出得到人脸区域的识别结果,即输出的为人脸区域对应的四个顶点坐标。
步骤203,根据人脸区域的高度,确定间隔距离。
本申请实施例中,在确定得到人脸区域后,可以根据人脸区域的四个顶点坐标,确定人脸区域的高度,进而可以将人脸区域的高度,作为间隔距离。具体地,人脸区域的四个顶点坐标包括:左上角对应的像素点坐标、左下角对应的像素点坐标、右上角对应的像素点坐标以及右下角对应的像素点坐标,标记左上角对应的像素点坐标为(x1,y1),右上角对应的像素点坐标为(x2,y2)、右下角对应的像素点坐标为(x3,y3),左下角对应的像素点坐标为(x4,y4),则人脸区域的宽为w=x2-x1,高h=y4-y1,则间隔距离为h。
步骤204,根据人脸区域的位置,将处于人脸区域下方,且与人脸区域符合间隔距离的区域作为目标区域。
根据先验知识可知,安全带的佩戴位置在人脸下方,因此,本申请中,可以将处于人脸区域下方,且与人脸区域符合间隔距离h的区域,作为目标区域。由此,可以有效减少图像中无用信息的干扰,提升图像的处理速率。其中,下方是指相对于人脸区域的下方的位置,其与人脸区域的位置为相对位置。
步骤205,根据目标区域的图像特征,识别安全带的佩戴状态。
步骤205的执行过程可以参见上述实施例中步骤104的执行过程,在此不做赘述。
作为一种可能的实现方式,为了进一步提升识别效率,本申请中,并非是将处于人脸区域下方,且与人脸区域距离h的全部区域,作为目标区域,而是,将处于人脸区域下方,与人脸区域距离h,面积为人脸区域设定倍数的区域,作为目标区域,由此,可以在避免框取到背景的前提下,尽可能最大化安全带的识别区域。下面结合实施例三,对上述过程进行详细说明。
图3为本申请实施例三所提供的安全带的佩戴状态识别方法的流程示意图。
如图3所示,该安全带的佩戴状态识别方法可以包括以下步骤:
步骤301,获取对交通工具监测得到的监测图像。
步骤302,对监测图像进行人脸识别,以得到人脸区域。
步骤303,根据人脸区域的高度,确定间隔距离。
步骤301至303的执行过程可以参见上述实施例的执行过程,在此不做赘述。
步骤304,根据人脸区域的面积,生成检测框;其中,检测框的面积为人脸区域的面积的设定倍数。
本申请实施例中,设定倍数为预先设置的。
本申请实施例中,处于检测框中的监测图像,用于指示安全带的佩戴位置。
应当理解的是,为了准确识别安全带的佩戴状态,检测框的面积不应设置的太小,同时,为了避免框取到背景区域,检测框的面积也不应设置的太大。因此,本申请中,为了提升处理效率,同时,提升识别结果的准确性,检测框的面积可以为人脸区域的面积的设定倍数,其中,设定倍数可以为大于或等于二的整数或浮点数,例如,检测框的面积可以为2倍的人脸区域的面积,由此,可以在避免框取到背景的前提下,尽可能最大化安全带识别区域。
步骤305,将检测框设置于人脸区域下方,且与人脸区域具有间隔距离。
根据先验知识可知,安全带的佩戴位置在人脸下方,因此,本申请中,可以将检测框设置于人脸区域下方,且与人脸区域具有间隔距离。
也就是说,在确定人脸区域后,可以确定人脸区域对应的四个顶点坐标,例如,可确定左上角对应的像素点坐标(x1,y1),右上角对应的像素点坐标(x2,y2)、右下角对应的像素点坐标(x3,y3),左下角对应的像素点坐标(x4,y4),人脸区域的宽为w=x2-x1,高h=y4-y1,则间隔距离为h。此时,可以将人脸区域对应的人脸检测框向下平移h个单位,得到安全带对应的检测框对应的四个顶点坐标,即左上角对应的像素点坐标(x1,y1-h),右上角对应的像素点坐标(x2,y2-h)、右下角对应的像素点坐标(x3,y3-h),左下角对应的像素点坐标(x4,y4-h)。进一步地,为了实现在避免框取到背景的前提下,尽可能最大化安全带识别区域,本申请中,还可以将安全带对应的检测框放大设定倍数,例如,设定倍数可为2、2.5等。
步骤306,将监测图像中处于检测框内的部分作为目标区域。
本申请实施例中,在设置好检测框的位置后,可以将监测图像中处于检测框内的部分作为目标区域。由此,可以有效减少图像中无用信息的干扰,提升图像的处理速率。
步骤307,根据目标区域的图像特征,识别安全带的佩戴状态。
步骤307的执行过程可以参见上述实施例中步骤104的执行过程,在此不做赘述。
作为一种可能的实现方式,在从监测图像中确定目标区域之后,还可以对目标区域进行分辨率变换,以使变换后的目标区域符合目标分辨率。由此,将目标区域变换为统一尺寸,可以便于后续识别。
其中,目标分辨率为预先设置的。例如,在利用分类模型,对目标区域进行安全带的佩戴状态识别时,该目标分辨率可以为分类模型的输入图像的尺寸,比如为144*144。由此,将目标区域变换为统一尺寸,方便作为后续分类模型的输入。
需要说明的是,目标区域中各像素点的取值可以处于0至255之间,为了避免目标区域中各像素点亮度带来的识别干扰,本申请中,可以对目标分辨率的目标区域中各像素点的取值进行归一化处理,以使各像素点的取值处于目标取值区间内。
例如,归一化公式可以为:(x-128)/256,其中,x表示像素点的取值,x处于0至255之间,对目标分辨率的目标区域中各像素点的取值进行归一化处理后,各像素点的取值处于[-0.5,0.5]之间。
作为一种可能的实现方式,为了提升识别结果的准确性,可以基于深度学习技术,对目标区域的图像特征进行分类,以确定安全带的佩戴状态。下面结合实施例四,对上述过程进行详细说明。
图4为本申请实施例四所提供的安全带的佩戴状态识别方法的流程示意图。
如图4所示,该安全带的佩戴状态识别方法可以包括以下步骤:
步骤401,获取对交通工具监测得到的监测图像。
步骤402,对监测图像进行人脸识别,以得到人脸区域。
步骤403,根据人脸区域的尺寸和位置,从监测图像中确定目标区域。
步骤401至403的执行过程,可以参见上述实施例的执行过程,在此不做赘述。
步骤404,根据目标区域的图像特征,进行分类。
其中,图像分类的原理为:图像中同类景物在相同的条件下应具有相同或相似的图像特征,比如光谱信息特征和空间信息特征,从而表现出同类景物某种内在的相似性,即同类景物像元的特征向量将聚类与同一特征的空间区域,而不同景物由于光谱信息特征和空间信息特征不同,将聚类于不同特征的空间区域。
因此,本申请中,可以对目标区域的图像特征进行分类,以确定安全带的佩戴状态。例如,可以采用分类模型对目标区域进行分类。
步骤405,根据分类得到的类别,确定安全带的佩戴状态。
本申请实施例中,根据分类得到的类别,可以安全带的佩戴状态。
例如,分类模型可以在卷积网络提取特征后连接全链接层以及输出层,输出分类概率,分类概率为0.5以下,则近似认为是0,可确定安全带的佩戴状态为未佩戴状态,输出的分类概率为0.5及以上,则近似认为是1,可确定全带的佩戴状态为已佩戴状态。
作为一种示例,可以基于图5所示的卷积神经网络,对目标区域进行特征提取,并通过全链接层输出得到安全带的佩戴状态。其中,卷积神经网络包括卷积层和池化层。
其中,卷积神经网络包括8层卷积层和5层池化层(图5中未显示),卷积神经网络的输入可为红绿蓝(Red Green Blue,简称RGB)三色通道的图像,分辨率为144*144,其中,不同的卷积层可以通过不同的卷积核,对图像特征进行卷积,从中提取不同尺寸或者不同粒度的特征,最终输出的特征向量的尺寸为1*1*5(张量空间大小)。
作为一种示例,在获取到监测图像后,可以基于人脸检测模型,对监测图像进行人脸识别,得到各人脸区域对应的人脸检测框,针对每个人脸区域,标记人脸检测框的四个顶点坐标为:左上角对应的像素点坐标(x1,y1),右上角对应的像素点坐标(x2,y2)、右下角对应的像素点坐标(x3,y3),左下角对应的像素点坐标(x4,y4),则人脸检测框的宽为w=x2-x1,高h=y4-y1。
根据先验知识可知,安全带佩戴位置在人脸下方,可将人脸检测框向下平移h个单位,得到安全带检测框的四个顶点坐标,即左上角对应的像素点坐标(x1,y1-h),右上角对应的像素点坐标(x2,y2-h)、右下角对应的像素点坐标(x3,y3-h),左下角对应的像素点坐标(x4,y4-h)。
为了实现在避免框取到背景的前提下,尽可能最大化安全带识别区域,本申请中,还可以将安全带对应的检测框放大2倍进行裁剪。并将裁剪后的图像的尺寸进行变换,变换为分辨率为144*144的图像。
接着,为了避免目标区域中各像素点亮度带来的识别干扰,本申请中,可以将变换后的图像进行归一化处理,使每个像素点的像素值处于在[-0.5,0.5]之间。
最后,通过卷积神经网络,对处理后的图像进行特征提取,并通过全链接层输出安全带的佩戴状态。
本申请实施例的安全带的佩戴状态识别方法,利用驾驶人员或者乘客佩戴安全带的行为出现在人脸的下方区域的先验知识,基于人脸检测预估安全带的佩戴区域,再通过分类的方法,来识别驾驶人员或者乘客是否佩戴安全带,可以有效地减少图像中其他无用信息的干扰,同时减小模型输入图像大小,提高了识别结果的准确率的同时,大大地减小了计算量,可以应用于计算能力较低的设备中,比如车载设备中,提升该方法的适用性。
为了实现上述实施例,本申请还提出一种安全带的佩戴状态识别装置。
图6为本申请实施例五所提供的安全带的佩戴状态识别装置的结构示意图。
如图6所示,该安全带的佩戴状态识别装置600包括:获取模块610、人脸识别模块620、确定模块630以及状态识别模块640。
其中,获取模块610,用于获取对交通工具监测得到的监测图像。
人脸识别模块620,用于对监测图像进行人脸识别,以得到人脸区域。
确定模块630,用于根据人脸区域的尺寸和位置,从监测图像中确定目标区域。
状态识别模块640,用于根据目标区域的图像特征,识别安全带的佩戴状态。
进一步地,在本申请实施例的一种可能的实现方式中,参见图7,在图6所示实施例的基础上,该安全带的佩戴状态识别装置600还可以包括:
确定模块630,包括:
确定单元631,用于根据人脸区域的高度,确定间隔距离。
处理单元632,用于根据人脸区域的位置,将处于人脸区域下方,且与人脸区域符合间隔距离的区域作为目标区域。
作为一种可能的实现方式,处理单元,具体用于:根据人脸区域的面积,生成检测框;其中,检测框的面积为人脸区域的面积的设定倍数;将检测框设置于人脸区域下方,且与人脸区域具有间隔距离;将监测图像中处于检测框内的部分作为目标区域。
变换模块650,用于对目标区域进行分辨率变换,以使变换后的目标区域符合目标分辨率。
处理模块660,用于对目标分辨率的目标区域中各像素点的取值进行归一化处理,以使各像素点的取值处于目标取值区间内。
作为一种可能的实现方式,状态识别模块640,具体用于:根据目标区域的图像特征,进行分类;根据分类得到的类别,确定安全带的佩戴状态。
需要说明的是,前述图1至图4实施例对安全带的佩戴状态识别方法的解释说明也适用于该实施例的安全带的佩戴状态识别装置,此处不再赘述。
本申请实施例的安全带的佩戴状态识别装置,通过对交通工具监测得到的监测图像进行人脸识别,以得到人脸区域,并根据人脸区域的尺寸和位置,从监测图像中确定目标区域,继而根据目标区域的图像特征,识别安全带的佩戴状态。由此,通过预估安全带的佩戴区域,本申请中记为目标区域,仅对该目标区域进行安全带的佩戴状态识别,有效地减少了监测图像中其他无用信息的干扰,可以降低计算量,提升识别速率,可以应用于计算能力较低的设备中,比如车载设备中,提升该方法的适用性。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图8所示,是根据本申请实施例的安全带的佩戴状态识别方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图8所示,该电子设备包括:一个或多个处理器801、存储器802,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图8中以一个处理器801为例。
存储器802即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的安全带的佩戴状态识别方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的安全带的佩戴状态识别方法。
存储器802作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的安全带的佩戴状态识别方法对应的程序指令/模块(例如,附图6所示的获取模块610、人脸识别模块620、确定模块630以及状态识别模块640)。处理器801通过运行存储在存储器802中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的安全带的佩戴状态识别方法。
存储器802可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据安全带的佩戴状态识别方法的电子设备的使用所创建的数据等。此外,存储器802可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器802可选包括相对于处理器801远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
电子设备还可以包括:输入装置803和输出装置804。处理器801、存储器802、输入装置803和输出装置804可以通过总线或者其他方式连接,图8中以通过总线连接为例。
输入装置803可接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置804可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
根据本申请实施例的技术方案,通过对交通工具监测得到的监测图像进行人脸识别,以得到人脸区域,并根据人脸区域的尺寸和位置,从监测图像中确定目标区域,继而根据目标区域的图像特征,识别安全带的佩戴状态。由此,通过预估安全带的佩戴区域,本申请中记为目标区域,仅对该目标区域进行安全带的佩戴状态识别,有效地减少了监测图像中其他无用信息的干扰,可以降低计算量,提升识别速率,可以应用于计算能力较低的设备中,比如车载设备中,提升该方法的适用性。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (14)

1.一种安全带的佩戴状态识别方法,包括:
获取对交通工具监测得到的监测图像;
对所述监测图像进行人脸识别,以得到人脸区域;
根据所述人脸区域的尺寸和位置,从所述监测图像中确定目标区域;
根据所述目标区域的图像特征,识别安全带的佩戴状态。
2.根据权利要求1所述的佩戴状态识别方法,其中,所述根据所述人脸区域的尺寸和位置,从所述监测图像中确定目标区域,包括:
根据所述人脸区域的高度,确定间隔距离;
根据所述人脸区域的位置,将处于所述人脸区域下方,且与所述人脸区域符合所述间隔距离的区域作为所述目标区域。
3.根据权利要求2所述的佩戴状态识别方法,其中,所述根据所述人脸区域的位置,将处于所述人脸区域下方,且与所述人脸区域符合所述间隔距离的区域作为所述目标区域,包括:
根据所述人脸区域的面积,生成检测框;其中,所述检测框的面积为所述人脸区域的面积的设定倍数;
将所述检测框设置于所述人脸区域下方,且与所述人脸区域具有所述间隔距离;
将所述监测图像中处于所述检测框内的部分作为所述目标区域。
4.根据权利要求1-3任一项所述的佩戴状态识别方法,其中,所述根据所述人脸区域的尺寸和位置,从所述监测图像中确定目标区域之后,还包括:
对所述目标区域进行分辨率变换,以使变换后的所述目标区域符合目标分辨率。
5.根据权利要求4所述的佩戴状态识别方法,其中,所述对所述目标区域进行分辨率变换,以使变换后的所述目标区域符合目标分辨率之后,还包括:
对所述目标分辨率的目标区域中各像素点的取值进行归一化处理,以使各像素点的取值处于目标取值区间内。
6.根据权利要求1-3任一项所述的佩戴状态识别方法,其中,所述根据所述目标区域的图像特征,识别安全带的佩戴状态,包括:
根据所述目标区域的图像特征,进行分类;
根据分类得到的类别,确定安全带的佩戴状态。
7.一种安全带的佩戴状态识别装置,包括:
获取模块,用于获取对交通工具监测得到的监测图像;
人脸识别模块,用于对所述监测图像进行人脸识别,以得到人脸区域;
确定模块,用于根据所述人脸区域的尺寸和位置,从所述监测图像中确定目标区域;
状态识别模块,用于根据所述目标区域的图像特征,识别安全带的佩戴状态。
8.根据权利要求7所述的佩戴状态识别装置,其中,所述确定模块,包括:
确定单元,用于根据所述人脸区域的高度,确定间隔距离;
处理单元,用于根据所述人脸区域的位置,将处于所述人脸区域下方,且与所述人脸区域符合所述间隔距离的区域作为所述目标区域。
9.根据权利要求8所述的佩戴状态识别装置,其中,所述处理单元,具体用于:
根据所述人脸区域的面积,生成检测框;其中,所述检测框的面积为所述人脸区域的面积的设定倍数,所述设定倍数为大于或等于二的整数;
将所述检测框设置于所述人脸区域下方,且与所述人脸区域具有所述间隔距离;
将所述监测图像中处于所述检测框内的部分作为所述目标区域。
10.根据权利要求7-9任一项所述的佩戴状态识别装置,其中,所述装置还包括:
变换模块,用于对所述目标区域进行分辨率变换,以使变换后的所述目标区域符合目标分辨率。
11.根据权利要求10所述的佩戴状态识别装置,其中,所述装置还包括:
处理模块,用于对所述目标分辨率的目标区域中各像素点的取值进行归一化处理,以使各像素点的取值处于目标取值区间内。
12.根据权利要求7-9任一项所述的佩戴状态识别装置,其中,所述状态识别模块,具体用于:
根据所述目标区域的图像特征,进行分类;
根据分类得到的类别,确定安全带的佩戴状态。
13.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的安全带的佩戴状态识别方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-6中任一项所述的安全带的佩戴状态识别方法。
CN202010604996.2A 2020-06-29 2020-06-29 安全带的佩戴状态识别方法、装置、电子设备和存储介质 Pending CN111950348A (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202010604996.2A CN111950348A (zh) 2020-06-29 2020-06-29 安全带的佩戴状态识别方法、装置、电子设备和存储介质
US17/301,069 US20210209385A1 (en) 2020-06-29 2021-03-24 Method and apparatus for recognizing wearing state of safety belt
EP21164539.5A EP3879443A3 (en) 2020-06-29 2021-03-24 Method and apparatus for recognizing wearing state of safety belt, electronic device, and storage medium
KR1020210062760A KR20210064123A (ko) 2020-06-29 2021-05-14 안전 벨트의 착용 상태 인식 방법, 장치, 전자 기기 및 저장 매체
JP2021104695A JP2021152966A (ja) 2020-06-29 2021-06-24 シートベルト着用状態の認識方法、認識装置、電子機器及び記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010604996.2A CN111950348A (zh) 2020-06-29 2020-06-29 安全带的佩戴状态识别方法、装置、电子设备和存储介质

Publications (1)

Publication Number Publication Date
CN111950348A true CN111950348A (zh) 2020-11-17

Family

ID=73337573

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010604996.2A Pending CN111950348A (zh) 2020-06-29 2020-06-29 安全带的佩戴状态识别方法、装置、电子设备和存储介质

Country Status (5)

Country Link
US (1) US20210209385A1 (zh)
EP (1) EP3879443A3 (zh)
JP (1) JP2021152966A (zh)
KR (1) KR20210064123A (zh)
CN (1) CN111950348A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114684062A (zh) * 2020-12-29 2022-07-01 辉达公司 约束设备定位

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931642A (zh) * 2020-08-07 2020-11-13 上海商汤临港智能科技有限公司 一种安全带佩戴检测的方法、装置、电子设备及存储介质
CN113743224B (zh) * 2021-08-04 2023-05-23 国网福建省电力有限公司信息通信分公司 基于边缘计算的登高作业人员安全带佩戴监控方法及系统
KR102417206B1 (ko) * 2021-12-20 2022-07-06 주식회사 쿠메푸드 식품제조환경 위생 모니터링 서비스 제공 시스템

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104417490A (zh) * 2013-08-29 2015-03-18 同观科技(深圳)有限公司 一种汽车安全带检测方法及装置
CN104657752A (zh) * 2015-03-17 2015-05-27 银江股份有限公司 一种基于深度学习的安全带佩戴识别方法
CN106650567A (zh) * 2016-08-31 2017-05-10 东软集团股份有限公司 一种安全带检测方法和装置
CN107766802A (zh) * 2017-09-29 2018-03-06 广州大学 一种机动车前排驾乘人员未扣安全带的自适应检测方法
CN107944341A (zh) * 2017-10-27 2018-04-20 荆门程远电子科技有限公司 基于交通监控图像的司机未系安全带自动检测系统
CN109460699A (zh) * 2018-09-03 2019-03-12 厦门瑞为信息技术有限公司 一种基于深度学习的驾驶员安全带佩戴识别方法
CN111199200A (zh) * 2019-12-27 2020-05-26 深圳供电局有限公司 基于电力防护装备的佩戴检测方法、装置和计算机设备
CN111209854A (zh) * 2020-01-06 2020-05-29 苏州科达科技股份有限公司 司乘人员未系安全带识别方法、装置及存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009246935A (ja) * 2008-03-14 2009-10-22 Sanyo Electric Co Ltd 画像処理装置およびそれを搭載した撮像装置
JP6023058B2 (ja) * 2011-08-29 2016-11-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像処理装置、画像処理方法、プログラム、集積回路
US9552524B2 (en) * 2014-09-15 2017-01-24 Xerox Corporation System and method for detecting seat belt violations from front view vehicle images
US9650016B2 (en) * 2014-12-04 2017-05-16 GM Global Technology Operations LLC Detection of seatbelt position in a vehicle
CN106709443B (zh) * 2016-12-19 2020-06-02 同观科技(深圳)有限公司 一种安全带佩戴状态的检测方法及终端
US10572745B2 (en) * 2017-11-11 2020-02-25 Bendix Commercial Vehicle Systems Llc System and methods of monitoring driver behavior for vehicular fleet management in a fleet of vehicles using driver-facing imaging device
JP6791108B2 (ja) * 2017-12-11 2020-11-25 オムロン株式会社 顔位置検出装置
US10501048B2 (en) * 2018-01-19 2019-12-10 Ford Global Technologies, Llc Seatbelt buckling detection
KR102601354B1 (ko) * 2018-11-29 2023-11-13 현대모비스 주식회사 영상기반 승객 검출 및 안전벨트 착용 검출 장치와 방법
US11420579B2 (en) * 2019-06-21 2022-08-23 GM Global Technology Operations LLC System and method to automatically set the height of the torso section of a seat belt
JP2022517152A (ja) * 2019-12-16 2022-03-07 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド 車両内で撮像された画像内の運転者と乗員とを区別するためのシステム及び方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104417490A (zh) * 2013-08-29 2015-03-18 同观科技(深圳)有限公司 一种汽车安全带检测方法及装置
CN104657752A (zh) * 2015-03-17 2015-05-27 银江股份有限公司 一种基于深度学习的安全带佩戴识别方法
CN106650567A (zh) * 2016-08-31 2017-05-10 东软集团股份有限公司 一种安全带检测方法和装置
CN107766802A (zh) * 2017-09-29 2018-03-06 广州大学 一种机动车前排驾乘人员未扣安全带的自适应检测方法
CN107944341A (zh) * 2017-10-27 2018-04-20 荆门程远电子科技有限公司 基于交通监控图像的司机未系安全带自动检测系统
CN109460699A (zh) * 2018-09-03 2019-03-12 厦门瑞为信息技术有限公司 一种基于深度学习的驾驶员安全带佩戴识别方法
CN111199200A (zh) * 2019-12-27 2020-05-26 深圳供电局有限公司 基于电力防护装备的佩戴检测方法、装置和计算机设备
CN111209854A (zh) * 2020-01-06 2020-05-29 苏州科达科技股份有限公司 司乘人员未系安全带识别方法、装置及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114684062A (zh) * 2020-12-29 2022-07-01 辉达公司 约束设备定位

Also Published As

Publication number Publication date
JP2021152966A (ja) 2021-09-30
EP3879443A3 (en) 2021-10-20
US20210209385A1 (en) 2021-07-08
EP3879443A2 (en) 2021-09-15
KR20210064123A (ko) 2021-06-02

Similar Documents

Publication Publication Date Title
US11643076B2 (en) Forward collision control method and apparatus, electronic device, program, and medium
CN111950348A (zh) 安全带的佩戴状态识别方法、装置、电子设备和存储介质
CN110070056B (zh) 图像处理方法、装置、存储介质及设备
US11783230B2 (en) Automatic generation of ground truth data for training or retraining machine learning models
US10769459B2 (en) Method and system for monitoring driving behaviors
CN109871799B (zh) 一种基于深度学习的驾驶员玩手机行为的检测方法
US10242294B2 (en) Target object classification using three-dimensional geometric filtering
Murthy et al. Objectdetect: A real-time object detection framework for advanced driver assistant systems using yolov5
CN111274881A (zh) 驾驶安全的监控方法、装置、计算机设备及存储介质
EP3090380A1 (en) Driver behavior monitoring systems and methods for driver behavior monitoring
CN111645695B (zh) 一种疲劳驾驶的检测方法、装置、计算机设备和存储介质
CN107529659B (zh) 安全带佩戴检测方法、装置及电子设备
CN111814637A (zh) 一种危险驾驶行为识别方法、装置、电子设备及存储介质
CN116152863B (zh) 一种人员信息识别方法、装置、电子设备及存储介质
CN111311010A (zh) 车辆风险预测方法、装置、电子设备及可读存储介质
CN111767831A (zh) 用于处理图像的方法、装置、设备及存储介质
CN111932530B (zh) 三维对象检测方法、装置、设备和可读存储介质
CN113139488B (zh) 训练分割神经网络的方法及装置
KR101766467B1 (ko) 이벤트 발생 알림 장치, 이벤트 발생 알림 방법, 및 이벤트 발생 판단 모델 제공 방법
Kurnianggoro et al. Visual perception of traffic sign for autonomous vehicle using k-nearest cluster neighbor classifier
US20230360509A1 (en) Systems and methods for automatic spotting and safety indicator deployment
CN116311181B (zh) 一种异常驾驶的快速检测方法及系统
Jayawardena et al. Development of An Image Processing Based Driver Assistance System
Kurtkaya et al. Deep Learning-Based Driver Assistance System.
Tao et al. ATSS-Driven Surface Flame Detection and Extent Evaluation Using Edge Computing on UAVs

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination