CN109389068A - 用于识别驾驶行为的方法和装置 - Google Patents
用于识别驾驶行为的方法和装置 Download PDFInfo
- Publication number
- CN109389068A CN109389068A CN201811139834.5A CN201811139834A CN109389068A CN 109389068 A CN109389068 A CN 109389068A CN 201811139834 A CN201811139834 A CN 201811139834A CN 109389068 A CN109389068 A CN 109389068A
- Authority
- CN
- China
- Prior art keywords
- driving behavior
- target
- body frame
- image
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例公开了用于识别驾驶行为的方法和装置。该方法的一具体实施方式包括获取目标图像;从目标图像中分割出目标人体框,其中,目标图像中包括目标人体框;基于目标人体框和预先训练的驾驶行为识别模型,得到目标人体框对应的目标驾驶行为识别结果,其中,驾驶行为识别模型用于识别人体框的驾驶行为类别;基于目标驾驶行为识别结果确定驾驶行为。该实施方式提高了对驾驶行为的识别准确度。
Description
技术领域
本申请实施例涉及图像识别技术领域,具体涉及用于识别驾驶行为的方法和装置。
背景技术
对于公共运营车辆,如出租车、公交车、长途大巴车等,由于涉及众多乘客安全,驾驶员驾驶安全性显得尤为重要。因此,许多公共运行车辆都已安装车载监控摄像头,以方便对应的公司或监管部门对驾驶员驾驶行为进行监控。对于驾驶员经常出现的一些危险驾驶行为,如抽烟、打电话、疲劳驾驶等,需要及时发现并进行警告,最大限度保证车辆行驶安全。
目前,多采用人眼对车载监控摄像头拍摄的监控录像抽样观看的方式识别是否存在危险驾驶行为。
发明内容
本申请实施例提出了用于识别驾驶行为的方法和装置。
第一方面,本申请实施例提供了一种用于识别驾驶行为的方法,包括:获取目标图像;从目标图像中分割出目标人体框,其中,目标图像中包括目标人体框;基于目标人体框和预先训练的驾驶行为识别模型,得到目标人体框对应的目标驾驶行为识别结果,其中,驾驶行为识别模型用于识别人体框的驾驶行为类别;基于目标驾驶行为识别结果确定驾驶行为。
在一些实施例中,从目标图像中分割出目标人体框,包括:基于目标图像和预先训练的人体检测模型,得到目标图像对应的目标人体检测结果,其中,人体检测模型用于检测图像中的人体框的位置信息和人体类别;基于目标人体检测结果分割目标图像,得到目标人体框。
在一些实施例中,基于目标图像和预先训练的人体检测模型,得到目标图像对应的目标人体检测结果,包括:对目标图像进行采样,得到采样图像;修改采样图像的像素点的像素值,得到修改图像。将修改图像输入至人体检测模型,得到目标人体检测结果。
在一些实施例中,基于目标人体检测结果分割目标图像,得到目标人体框,包括:若待检测图像中存在至少两个类别相同的人体框,基于面积从至少两个类别相同的人体框中确定目标人体框;从目标图像中分割出目标人体框。
在一些实施例中,基于目标人体框和预先训练的驾驶行为识别模型,得到目标人体框对应的目标驾驶行为识别结果,包括:对目标人体框进行采样,得到采样人体框;将采样人体框输入至驾驶行为识别模型,得到目标驾驶行为识别结果。
在一些实施例中,目标驾驶行为识别结果包括目标人体框对应的预设的驾驶行为类别集合中的驾驶行为类别的置信度;以及基于目标驾驶行为识别结果确定驾驶行为,包括:对于驾驶行为类别集合中的驾驶行为类别,计算目标人体框对应该驾驶行为类别的平均置信度;将平均置信度与预设置信度阈值进行比较,基于比较结果确定驾驶行为。
在一些实施例中,人体检测模型通过如下步骤训练得到:获取第一训练样本集合,其中,第一训练样本包括样本图像和样本图像对应的样本人体标注结果;将第一训练样本集合中的第一训练样本中的样本图像作为输入,将输入的样本图像对应的样本人体标注结果作为输出,训练得到人体检测模型。
在一些实施例中,驾驶行为识别模型通过如下步骤训练得到:获取第二训练样本集合,其中,第二训练样本包括样本人体框和样本人体框对应的样本驾驶行为标注结果;将第二训练样本集合中的第二训练样本中的样本人体框作为输入,将输入的样本人体框对应的样本驾驶行为标注结果作为输出,训练得到驾驶行为识别模型。
第二方面,本申请实施例提供了一种用于识别驾驶行为的装置,包括:获取单元,被配置成获取目标图像;分割单元,被配置成从目标图像中分割出目标人体框,其中,目标图像中包括目标人体框;识别单元,被配置成基于目标人体框和预先训练的驾驶行为识别模型,得到目标人体框对应的目标驾驶行为识别结果,其中,驾驶行为识别模型用于识别人体框的驾驶行为类别;确定单元,被配置成基于目标驾驶行为识别结果确定驾驶行为。
在一些实施例中,分割单元包括:检测子单元,被配置成基于目标图像和预先训练的人体检测模型,得到目标图像对应的目标人体检测结果,其中,人体检测模型用于检测图像中的人体框的位置信息和人体类别;分割子单元,被配置成基于目标人体检测结果分割目标图像,得到目标人体框。
在一些实施例中,检测子单元包括:采样模块,被配置成对目标图像进行采样,得到采样图像;修改模块,被配置成修改采样图像的像素点的像素值,得到修改图像。检测模块,被配置成将修改图像输入至人体检测模型,得到目标人体检测结果。
在一些实施例中,分割子单元包括:确定模块,被配置成若待检测图像中存在至少两个类别相同的人体框,基于面积从至少两个类别相同的人体框中确定目标人体框;分割模块,被配置成从目标图像中分割出目标人体框。
在一些实施例中,识别单元包括:采样子单元,被配置成对目标人体框进行采样,得到采样人体框;识别子单元,被配置成将采样人体框输入至驾驶行为识别模型,得到目标驾驶行为识别结果。
在一些实施例中,目标驾驶行为识别结果包括目标人体框对应的预设的驾驶行为类别集合中的驾驶行为类别的置信度;以及确定单元包括:计算子单元,被配置成对于驾驶行为类别集合中的驾驶行为类别,计算目标人体框对应该驾驶行为类别的平均置信度;第二确定子单元,被配置成将平均置信度与预设置信度阈值进行比较,基于比较结果确定驾驶行为。
在一些实施例中,人体检测模型通过如下步骤训练得到:获取第一训练样本集合,其中,第一训练样本包括样本图像和样本图像对应的样本人体标注结果;将第一训练样本集合中的第一训练样本中的样本图像作为输入,将输入的样本图像对应的样本人体标注结果作为输出,训练得到人体检测模型。
在一些实施例中,驾驶行为识别模型通过如下步骤训练得到:获取第二训练样本集合,其中,第二训练样本包括样本人体框和样本人体框对应的样本驾驶行为标注结果;将第二训练样本集合中的第二训练样本中的样本人体框作为输入,将输入的样本人体框对应的样本驾驶行为标注结果作为输出,训练得到驾驶行为识别模型。
第三方面,本申请实施例提供了一种服务器,该服务器包括:一个或多个处理器;存储装置,其上存储有一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的用于识别驾驶行为的方法和装置,首先,从所获取的目标图像中分割出目标人体框;然后,基于目标人体框和预先训练的驾驶行为识别模型,以得到目标驾驶行为识别结果;最后,基于目标驾驶行为识别结果确定驾驶行为。利用驾驶行为识别模型识别人体框对应的驾驶行为,提高了对驾驶行为的识别准确度。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构;
图2是根据本申请的用于识别驾驶行为的方法的一个实施例的流程图;
图3是根据本申请的用于识别驾驶行为的方法的又一个实施例的流程图;
图4是图3所提供的用于识别驾驶行为的方法的一个应用场景的示意图;
图5是根据本申请的用于识别驾驶行为的方法的再一个实施例的流程图;
图6是根据本申请的用于识别驾驶行为的装置的一个实施例的结构示意图;
图7是适于用来实现本申请实施例的服务器的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于识别驾驶行为的方法或用于识别驾驶行为的装置的实施例的示例性系统架构100。
如图1所示,系统架构100中可以包括拍摄设备101、102、103,网络104和服务器105。网络104用以在拍摄设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
拍摄设备101、102、103可以通过网络104与服务器105交互,以接收或发送消息等。拍摄设备101、102、103可以是硬件,也可以是软件。当拍摄设备101、102、103为硬件时,可以是支持图像拍摄或视频拍摄的各种电子设备,包括但不限于摄像机、摄像头、照相机和智能手机等等。当拍摄设备101、102、103为软件时,可以安装在上述电子设备中。其可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以提供各种服务,例如服务器105可以对从拍摄设备101、102、103获取到的目标图像等数据进行分析等处理,生成处理结果(例如驾驶行为)。
需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器105为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本申请实施例所提供的用于识别驾驶行为的方法一般由服务器105执行,相应地,用于识别驾驶行为的装置一般设置于服务器105中。
应该理解,图1中的拍摄设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的拍摄设备、网络和服务器。
继续参考图2,其示出了根据本申请的用于识别驾驶行为的方法的一个实施例的流程200。该用于识别驾驶行为的方法,包括以下步骤:
步骤201,获取目标图像。
在本实施例中,用于识别驾驶行为的方法的执行主体(例如图1所示的服务器105)可以通过有线连接方式或者无线连接方式从拍摄设备(例如图1所示的拍摄设备101、102、103)获取记录有驾驶员的驾车过程的视频。其中,拍摄设备可以是摄像头、摄像机等,通常安装在车辆的前方,其镜头正对主驾驶位置,以便于采集驾驶员的驾车过程的视频。目标图像可以是记录有驾驶员的驾车过程的视频中的任意一帧或多帧图像。目标图像可以是驾驶员在历史时间段内的驾车过程的视频中的图像,也可以是驾驶员在当前时间段内的驾车过程的视频中的图像。例如,当要确定一起交通事故是否是由驾驶员危险驾驶所造成的时,可以获取驾驶员在该交通事故发生的时间段内的驾车过程的视频中的图像作为目标图像。当要确定驾驶员当前是否出现危险驾驶行为的情况时,可以获取驾驶员在当前时间段内的驾车过程的视频中的图像作为目标图像。
步骤202,从目标图像中分割出目标人体框。
在本实施例中,目标图像中可以包括目标人体框,因此,上述执行主体可以从目标图像中分割出目标人体框。其中,人体框可以是图像中包括人体的最小矩形框。人体框的人体类别可以是人体框中的人体所属的类别,包括但不限于驾驶员全身、乘客全身、驾驶员头部、驾驶员上身、驾驶员双手和方向盘等等。通常,驾驶员全身、驾驶员头部、驾驶员上身、驾驶员双手和方向盘可以被称为驾驶员相关类别。乘客全身可以被称为乘客相关类别。目标人体框可以是驾驶员相关类别的人体框。这里,可以通过多种方式检测出目标图像中的目标人体框。例如,若拍摄设备固定安装在车辆的前方,其拍摄的每张图像中的驾驶员座椅区域都是固定的,因此,可以分割出驾驶员座椅区域作为目标人体框。
步骤203,基于目标人体框和预先训练的驾驶行为识别模型,得到目标人体框对应的目标驾驶行为识别结果。
在本实施例中,上述执行主体可以基于目标人体框和预先训练的驾驶行为识别模型,以得到目标人体框对应的目标驾驶行为识别结果。例如,上述执行主体可以将目标人体框输入至驾驶行为识别模型,从而得到目标人体框对应的目标驾驶行为识别结果。其中,驾驶行为识别模型可以用于识别人体框的驾驶行为类别。目标驾驶行为识别结果可以包括目标人体框的驾驶行为类别。人体框的驾驶行为类别可以是人体框中的人体的驾驶行为所属的类别,包括但不限于吸烟、使用手机、未系安全带、双手离开方向盘和视角未注视前方等等。
在一些实施例中,目标驾驶行为识别结果还可以包括目标图像中的人体框的人体的驾驶行为所属的类别的置信度。即目标图像中的人体框中的人体的驾驶行为属于预设的M(M为正整数)种驾驶行为类别中的每种驾驶行为类别的可能性或概率。例如,可以预设五种驾驶行为类别:吸烟、使用手机、未系安全带、双手离开方向盘、视角未注视前方。
在本实施例中,驾驶行为识别模型可以用于识别人体框的驾驶行为类别,表征人体框与人体框对应的驾驶行为类别之间的对应关系。
在一些实施例中,驾驶行为识别模型可以是本领域技术人员对大量样本人体框以及样本人体框中的人体的驾驶行为所属的类别进行统计分析,而得到的存储有多个样本人体框与样本人体框中的人体的驾驶行为所属的类别的对应关系表。此时,上述执行主体可以计算目标人体框与该对应关系表中的各个样本人体框之间的相似度,并基于相似度计算结果,从该对应关系表中得到目标人体框对应的目标驾驶行为识别结果。例如,首先确定出与目标人体框相似度最高的样本人体框,然后从该对应关系表中查找出该样本人体框中的人体的驾驶行为所属的类别的作为目标人体框对应的目标驾驶行为识别结果。
在一些实施例中,驾驶行为识别模型可以是利用各种机器学习方法和训练样本对现有的机器学习模型(例如各种人工神经网络等)进行有监督训练而得到的。其中,驾驶行为识别模型可以包括但不限于MobileNet,通过如下步骤训练得到:
首先,获取第二训练样本集合。
其中,第二训练样本集合中的每个第二训练样本可以包括样本人体框和样本人体框对应的样本驾驶行为标注结果。这里,本领域技术人员可以对样本人体框进行分析,从而得到样本人体框中的人体的驾驶行为所属的类别。例如,可以在样本人体框中人工标注对应的人体的驾驶行为所属的类别,从而得到样本人体框对应的样本驾驶行为标注结果。
其次,将第二训练样本集合中的第二训练样本中的样本人体框作为输入,将输入的样本人体框对应的样本驾驶行为标注结果作为输出,训练得到驾驶行为识别模型。
这里,可以利用第二训练样本集合对初始驾驶行为识别模型进行训练,从而得到识别人体框的驾驶行为类别的驾驶行为识别模型。其中,初始驾驶行为识别模型可以是未经训练或未训练完成的驾驶行为识别模型。这里,对于未经训练的驾驶行为识别模型,其各个参数(例如,权值参数和偏置参数)用一些不同的小随机数进行初始化。“小随机数”用来保证模型不会因权值过大而进入饱和状态,从而导致训练失败,“不同”用来保证模型可以正常地学习。对于未训练完成的驾驶行为识别模型,其各个参数可以是被调整后参数,但是该驾驶行为识别模型的识别效果通常尚未满足预先设置的约束条件。
步骤204,基于目标驾驶行为识别结果确定驾驶行为。
在本实施例中,上述执行主体可以基于目标驾驶行为识别结果确定驾驶行为。
在一些实施例中,若目标驾驶行为识别结果中存在预设的M种驾驶行为类别中的任意一种驾驶行为类别,那么说明存在危险驾驶行为;反之,则不存在危险驾驶行为。
在一些实施例中,若目标驾驶行为识别结果中存在预设的M种驾驶行为类别中的任意一种驾驶行为类别的置信度大于预设置信度阈值(例如0.5),那么说明存在危险驾驶行为;反之,则不存在危险驾驶行为。例如,对于驾驶员全身的人体框,其对应吸烟的置信度是0.02,其对应使用手机的置信度是0.03,其对应未系安全带的置信度是0.88,其对应双手离开方向盘的置信度是0.26,其对应视角未看前方的置信度是0.68,那么说明存在未系安全带和视角未看前方这两种危险驾驶行为。
在一些实施例中,对于预设的M种驾驶行为类别中的每一种驾驶行为类别,计算所有目标人体框对应该驾驶行为类别的平均置信度,若该驾驶行为类别的平均置信度大于预设置信度阈值,那么说明存在危险驾驶行为;反之,则不存在危险驾驶行为。
本申请实施例提供的用于识别驾驶行为的方法,首先,从所获取的目标图像中分割出目标人体框;然后,基于目标人体框和预先训练的驾驶行为识别模型,以得到目标驾驶行为识别结果;最后,基于目标驾驶行为识别结果确定驾驶行为。利用驾驶行为识别模型识别人体框对应的驾驶行为,提高了对驾驶行为的识别准确度。
进一步参考图3,其示出了根据本申请的用于识别驾驶行为的方法的又一个实施例的流程300。该用于识别驾驶行为的方法,包括以下步骤:
步骤301,获取目标图像。
在本实施例中,步骤301的具体操作与图2所示的实施例中步骤201的操作基本相同,在此不再赘述。
步骤302,基于目标图像和预先训练的人体检测模型,得到目标图像对应的目标人体检测结果。
在本实施例中,上述执行主体可以基于目标图像和预先训练的人体检测模型,以得到目标图像对应的目标人体检测结果。例如,上述执行主体可以将目标图像输入至人体检测模型,从而得到目标图像对应的目标人体检测结果。其中,人体检测模型可以用于检测图像中的人体框的位置信息和人体类别。目标人体检测结果可以包括目标图像中的人体框的位置信息和人体类别。人体框可以是图像中包括人体的最小矩形框。人体框的位置信息可以包括人体框的左上角的顶点的坐标和人体框的宽和高。通常,人体框的位置信息可以以(xmin,ymin,w,h)表示,其中,xmin是人体框的左上角的顶点的横坐标,ymin是人体框的左上角的顶点的纵坐标,w是人体框的宽,h是人体框的高。人体框的人体类别可以是人体框中的人体所属的类别,包括但不限于驾驶员全身、乘客全身、驾驶员头部、驾驶员上身、驾驶员双手和方向盘等等。通常,驾驶员全身、驾驶员头部、驾驶员上身、驾驶员双手和方向盘可以被称为驾驶员相关类别。乘客全身可以被称为乘客相关类别。通常,在目标图像中存在驾驶员相关类别的人体框时,继续执行后续步骤,在目标图像中仅存在乘客相关类别的人体框时,结束流程。
在一些实施例中,目标人体检测结果还可以包括目标图像中的人体框的人体类别的置信度。即目标图像中的人体框中的人体属于预设的N(N为正整数)种人体类别中的每种人体类别的可能性或概率。例如,可以预设六种人体类别:驾驶员全身、乘客全身、驾驶员头部、驾驶员上身、驾驶员双手和方向盘。通常,对于任意一个人体框,人体框的人体类别可以是N种人体类别中的置信度最大的人体类别。
在本实施例中,人体检测模型可以用于检测图像中的人体框的位置信息和人体类别,表征图像与图像中的人体框的位置信息和人体类别之间的对应关系。
在一些实施例中,人体检测模型可以是本领域技术人员对大量样本图像以及样本图像中的人体框的位置信息和人体类别进行统计分析,而得到的存储有多个样本图像与样本图像中的人体框的位置信息和人体类别的对应关系表。此时,上述执行主体可以计算目标图像与该对应关系表中的各个样本图像之间的相似度,并基于相似度计算结果,从该对应关系表中得到目标图像对应的目标人体检测结果。例如,首先确定出与目标图像相似度最高的样本图像,然后从该对应关系表中查找出该样本图像中的人体框的位置信息和人体类别的作为目标图像对应的目标人体检测结果。
在一些实施例中,人体检测模型可以是利用各种机器学习方法和训练样本对现有的机器学习模型(例如各种人工神经网络等)进行有监督训练而得到的。其中,人体检测模型可以包括但不限于MobileNet-SSD,通过如下步骤训练得到:
首先,获取第一训练样本集合。
其中,第一训练样本集合中的每个第一训练样本可以包括样本图像和样本图像对应的样本人体标注结果。这里,本领域技术人员可以对样本图像进行分析,从而得到样本图像中的人体框的位置信息和人体类别。例如,可以在样本图像中的人体所在区域人工标注对应的人体框和人体类别,从而得到样本图像对应的样本人体标注结果。
其次,将第一训练样本集合中的第一训练样本中的样本图像作为输入,将输入的样本图像对应的样本人体标注结果作为输出,训练得到人体检测模型。
这里,可以利用第一训练样本集合对初始人体检测模型进行训练,从而得到检测图像中的人体框的位置信息和人体类别的人体检测模型。其中,初始人体检测模型可以是未经训练或未训练完成的人体检测模型。这里,对于未经训练的人体检测模型,其各个参数(例如,权值参数和偏置参数)用一些不同的小随机数进行初始化。“小随机数”用来保证模型不会因权值过大而进入饱和状态,从而导致训练失败,“不同”用来保证模型可以正常地学习。对于未训练完成的人体检测模型,其各个参数可以是被调整后参数,但是该人体检测模型的检测效果通常尚未满足预先设置的约束条件。
步骤303,基于目标人体检测结果分割目标图像,得到目标人体框。
在本实施例中,上述执行主体可以基于目标人体检测结果分割目标图像,以得到目标人体框。例如,上述执行主体可以根据基于目标人体检测结果中的目标图像中的人体框的位置信息分割出目标图像中的人体框。这里,可以分割出目标图像中的所有人体框,作为目标人体框,也可以分割出目标图像中的部分人体框,作为目标人体框。
步骤304,基于目标人体框和预先训练的驾驶行为识别模型,得到目标人体框对应的目标驾驶行为识别结果。
步骤305,基于目标驾驶行为识别结果确定驾驶行为。
在本实施例中,步骤304-305的具体操作与图2所示的实施例中步骤203-204的操作基本相同,在此不再赘述。
继续参见图4,图4是图3所提供的用于识别危险驾驶行为的方法的一个应用场景的示意图。在图4所示的应用场景中,首先,获取记录有驾驶员的驾车过程的视频401,并从视频401中确定出目标图像402。而后,将目标图像402输入至人体检测模型403,以输出目标图像402对应的目标人体检测结果404。之后,基于目标人体检测结果404分割目标图像402,得到目标人体框405。然后,将目标人体框405输入至驾驶行为识别模型406,以输出目标人体框405对应的目标驾驶行为识别结果407。最后,基于目标驾驶行为识别结果407确定驾驶行为408。
从图3中可以看出,与图2对应的实施例相比,本实施例中的用于识别驾驶行为的方法的流程300突出了利用人体检测模型检测图像中的人体框的步骤。由此,利用人体检测模型检测图像中的人体框,提高了对人体框的检测准确度。进一步参考图5,其示出了根据本申请的用于识别驾驶行为的方法的再一个实施例的流程500。该用于识别驾驶行为的方法,包括以下步骤:
步骤501,获取目标图像。
在本实施例中,步骤501的具体操作与图2所示的实施例中步骤201的操作基本相同,在此不再赘述。
步骤502,对目标图像进行采样,得到采样图像。
在本实施例中,用于识别驾驶行为的方法的执行主体(例如图1所示的服务器105)可以对目标图像进行采样,以得到采样图像。其中,采样的实质就是要用多少像素点来描述一幅图像,采样结果质量的高低可以用图像分辨率来衡量。简单来讲,对二维空间上的图像在水平和垂直方向上等间距地分割成多个正方形网状结构,所形成的正方形区域称为像素点。一副图像就被采样成有限个像素点构成的集合。采样包括上采样和下采样。上采样可以实现对图像的放大。下采样可以实现对图像的缩小。这里,无论目标图像的大小,通常会将其采样成一个固定尺寸(例如300×300)的图像。这个固定尺寸通常与用于训练人体检测模型的样本图像的尺寸一致。
步骤503,修改采样图像的像素点的像素值,得到修改图像。
在本实施例中,上述执行主体可以修改采样图像的像素点的像素值,以得到修改图像。例如,对于采样图像中的每个像素点,将该像素点的像素值减去预设像素值(例如[104,117,123])。减去预设像素值,从而使其与训练人体检测模型的样本图像统一。
步骤504,将修改图像输入至人体检测模型,得到目标人体检测结果。
在本实施例中,上述执行主体可以将修改图像输入至人体检测模型,以得到目标人体检测结果。需要说明的是,人体检测模型和目标人体检测结果已在图2中进行详细说明,这里不再赘述。
步骤505,若待检测图像中存在至少两个类别相同的人体框,基于面积从至少两个类别相同的人体框中确定目标人体框。
在本实施例中,若检测图像中存在至少两个类别相同的人体框,上述执行主体可以基于面积从至少两个类别相同的人体框中确定目标人体框。例如,若检测图像中存在两个驾驶员头部的人体框,那么可以选取出面积最大的驾驶员头部的人体框。
步骤506,从目标图像中分割出目标人体框。
在本实施例中,上述执行主体可以从目标图像中分割出目标人体框。例如,上述执行主体可以根据基于目标人体检测结果中的目标人体框的位置信息从目标图像中分割出目标人体框。
步骤507,对目标人体框进行采样,得到采样人体框。
在本实施例中,上述执行主体可以对目标人体框进行采样,以得到采样人体框。这里,无论目标人体框的大小,通常会将其采样成一个固定尺寸(例如224×224)的人体框。这个固定尺寸通常与用于训练驾驶行为识别模型的样本人体框的尺寸一致。需要说明的是,采样已在步骤402中进行详细说明,这里不再赘述。
步骤508,将采样人体框输入至驾驶行为识别模型,得到目标驾驶行为识别结果。
在本实施例中,上述执行主体可以将采样人体框输入至驾驶行为识别模型,以得到目标驾驶行为识别结果。需要说明的是,驾驶行为识别模型和目标驾驶行为识别结果已在图2中进行详细说明,这里不再赘述。
步骤509,对于驾驶行为类别集合中的驾驶行为类别,计算目标人体框对应该驾驶行为类别的平均置信度。
在本实施例中,目标驾驶行为识别结果可以包括目标人体框对应的预设的驾驶行为类别集合中的驾驶行为类别的置信度。此时,对于驾驶行为类别集合中的每种驾驶行为类别,上述执行主体可以计算目标人体框对应该驾驶行为类别的平均置信度。这里,可以预设M种驾驶行为类别添加到驾驶行为类别集合。以抽烟为例,若驾驶员全身、驾驶员上身、驾驶员双手的人体框对应吸烟的置信度分别是:0.02、0.14、0.05,那么对应吸烟的平均置信度就是0.07。
步骤510,将平均置信度与预设置信度阈值进行比较,基于比较结果确定驾驶行为。
在本实施例中,上述执行主体可以将平均置信度与预设置信度阈值进行比较,基于比较结果确定驾驶行为。具体地,若平均置信度大于预设置信度阈值,那么说明存在危险驾驶行为;反之,则不存在危险驾驶行为。
从图5中可以看出,与图2对应的实施例相比,本实施例中的用于识别驾驶行为的方法的流程500突出了对目标图像进行预处理后输入人体检测模型和对目标人体框进行预处理后输入驾驶行为识别模型的步骤。由此,将目标图像处理修改到与训练人体检测模型的样本图像统一再输入人体检测模型,增强了人体检测模型的鲁棒性。同样,将目标人体框处理修改到与训练驾驶行为识别模型的样本图像统一再输入驾驶行为识别模型,增强了驾驶行为识别模型的鲁棒性。
进一步参考图6,作为对上述各图所示方法的实现,本申请提供了一种用于识别驾驶行为的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,本实施例的用于识别驾驶行为的装置600可以包括:获取单元601、分割单元602、识别单元603和确定单元604。其中,获取单元601,被配置成获取目标图像;分割单元602,被配置成从目标图像中分割出目标人体框,其中,目标图像中包括目标人体框;识别单元603,被配置成基于目标人体框和预先训练的驾驶行为识别模型,得到目标人体框对应的目标驾驶行为识别结果,其中,驾驶行为识别模型用于识别人体框的驾驶行为类别;确定单元604,被配置成基于目标驾驶行为识别结果确定驾驶行为。
在本实施例中,用于识别驾驶行为的装置600中:获取单元601、分割单元602、识别单元603和确定单元604的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201、步骤202、步骤203和步骤204的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,分割单元602可以包括:检测子单元(图中未示出),被配置成基于目标图像和预先训练的人体检测模型,得到目标图像对应的目标人体检测结果,其中,人体检测模型用于检测图像中的人体框的位置信息和人体类别;分割子单元(图中未示出),被配置成基于目标人体检测结果分割目标图像,得到目标人体框。
在本实施例的一些可选的实现方式中,检测子单元可以包括:采样模块(图中未示出),被配置成对目标图像进行采样,得到采样图像;修改模块(图中未示出),被配置成修改采样图像的像素点的像素值,得到修改图像。检测模块(图中未示出),被配置成将修改图像输入至人体检测模型,得到目标人体检测结果。
在本实施例的一些可选的实现方式中,分割子单元可以包括:确定模块(图中未示出),被配置成若待检测图像中存在至少两个类别相同的人体框,基于面积从至少两个类别相同的人体框中确定目标人体框;分割模块(图中未示出),被配置成从目标图像中分割出目标人体框。
在本实施例的一些可选的实现方式中,识别单元603可以包括:采样子单元(图中未示出),被配置成对目标人体框进行采样,得到采样人体框;识别子单元(图中未示出),被配置成将采样人体框输入至驾驶行为识别模型,得到目标驾驶行为识别结果。
在本实施例的一些可选的实现方式中,目标驾驶行为识别结果可以包括目标人体框对应的预设的驾驶行为类别集合中的驾驶行为类别的置信度;以及确定单元604包括:计算子单元(图中未示出),被配置成对于驾驶行为类别集合中的驾驶行为类别,计算目标人体框对应该驾驶行为类别的平均置信度;确定子单元(图中未示出),被配置成将平均置信度与预设置信度阈值进行比较,基于比较结果确定驾驶行为。
在本实施例的一些可选的实现方式中,人体检测模型通过如下步骤训练得到:获取第一训练样本集合,其中,第一训练样本包括样本图像和样本图像对应的样本人体标注结果;将第一训练样本集合中的第一训练样本中的样本图像作为输入,将输入的样本图像对应的样本人体标注结果作为输出,训练得到人体检测模型。
在本实施例的一些可选的实现方式中,驾驶行为识别模型通过如下步骤训练得到:获取第二训练样本集合,其中,第二训练样本包括样本人体框和样本人体框对应的样本驾驶行为标注结果;将第二训练样本集合中的第二训练样本中的样本人体框作为输入,将输入的样本人体框对应的样本驾驶行为标注结果作为输出,训练得到驾驶行为识别模型。
下面参考图7,其示出了适于用来实现本申请实施例的服务器(例如图1所示的服务器105)的计算机系统700的结构示意图。图7示出的服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图7所示,计算机系统700包括中央处理单元(CPU)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储部分708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有系统700操作所需的各种程序和数据。CPU 701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
以下部件连接至I/O接口705:包括键盘、鼠标等的输入部分706;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分709。通信部分709经由诸如因特网的网络执行通信处理。驱动器710也根据需要连接至I/O接口705。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分709从网络上被下载和安装,和/或从可拆卸介质711被安装。在该计算机程序被中央处理单元(CPU)701执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读介质或者是上述两者的任意组合。计算机可读介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向目标的程序设计语言-诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言-诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)-连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、分割单元、识别单元和确定单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取目标图像的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的服务器中所包含的;也可以是单独存在,而未装配入该服务器中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该服务器执行时,使得该服务器:获取目标图像;从目标图像中分割出目标人体框,其中,目标图像中包括目标人体框;基于目标人体框和预先训练的驾驶行为识别模型,得到目标人体框对应的目标驾驶行为识别结果,其中,驾驶行为识别模型用于识别人体框的驾驶行为类别;基于目标驾驶行为识别结果确定驾驶行为。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (18)
1.一种用于识别驾驶行为的方法,包括:
获取目标图像;
从所述目标图像中分割出目标人体框,其中,所述目标图像中包括所述目标人体框;
基于所述目标人体框和预先训练的驾驶行为识别模型,得到所述目标人体框对应的目标驾驶行为识别结果,其中,所述驾驶行为识别模型用于识别人体框的驾驶行为类别;
基于所述目标驾驶行为识别结果确定驾驶行为。
2.根据权利要求1所述的方法,其中,所述从所述目标图像中分割出目标人体框,包括:
基于所述目标图像和预先训练的人体检测模型,得到所述目标图像对应的目标人体检测结果,其中,所述人体检测模型用于检测图像中的人体框的位置信息和人体类别;
基于所述目标人体检测结果分割所述目标图像,得到所述目标人体框。
3.根据权利要求2所述的方法,其中,所述基于所述目标图像和预先训练的人体检测模型,得到所述目标图像对应的目标人体检测结果,包括:
对所述目标图像进行采样,得到采样图像;
修改所述采样图像的像素点的像素值,得到修改图像;
将所述修改图像输入至所述人体检测模型,得到所述目标人体检测结果。
4.根据权利要求2所述的方法,其中,所述基于所述目标人体检测结果分割所述目标图像,得到目标人体框,包括:
若所述待检测图像中存在至少两个类别相同的人体框,基于面积从所述至少两个类别相同的人体框中确定所述目标人体框;
从所述目标图像中分割出所述目标人体框。
5.根据权利要求1所述的方法,其中,所述基于所述目标人体框和预先训练的驾驶行为识别模型,得到所述目标人体框对应的目标驾驶行为识别结果,包括:
对所述目标人体框进行采样,得到采样人体框;
将所述采样人体框输入至所述驾驶行为识别模型,得到所述目标驾驶行为识别结果。
6.根据权利要求1所述的方法,其中,所述目标驾驶行为识别结果包括所述目标人体框对应的预设的驾驶行为类别集合中的驾驶行为类别的置信度;以及
所述基于所述目标驾驶行为识别结果确定驾驶行为,包括:
对于所述驾驶行为类别集合中的驾驶行为类别,计算所述目标人体框对应该驾驶行为类别的平均置信度;
将所述平均置信度与预设置信度阈值进行比较,基于比较结果确定驾驶行为。
7.根据权利要求1-6之一所述的方法,其中,所述人体检测模型通过如下步骤训练得到:
获取第一训练样本集合,其中,第一训练样本包括样本图像和样本图像对应的样本人体标注结果;
将所述第一训练样本集合中的第一训练样本中的样本图像作为输入,将输入的样本图像对应的样本人体标注结果作为输出,训练得到所述人体检测模型。
8.根据权利要求2-4之一所述的方法,其中,所述驾驶行为识别模型通过如下步骤训练得到:
获取第二训练样本集合,其中,第二训练样本包括样本人体框和样本人体框对应的样本驾驶行为标注结果;
将所述第二训练样本集合中的第二训练样本中的样本人体框作为输入,将输入的样本人体框对应的样本驾驶行为标注结果作为输出,训练得到所述驾驶行为识别模型。
9.一种用于识别驾驶行为的装置,包括:
获取单元,被配置成获取目标图像;
分割单元,被配置成从所述目标图像中分割出目标人体框,其中,所述目标图像中包括所述目标人体框;
识别单元,被配置成基于所述目标人体框和预先训练的驾驶行为识别模型,得到所述目标人体框对应的目标驾驶行为识别结果,其中,所述驾驶行为识别模型用于识别人体框的驾驶行为类别;
确定单元,被配置成基于所述目标驾驶行为识别结果确定驾驶行为。
10.根据权利要求9所述的装置,其中,所述分割单元包括:
检测子单元,被配置成基于所述目标图像和预先训练的人体检测模型,得到所述目标图像对应的目标人体检测结果,其中,所述人体检测模型用于检测图像中的人体框的位置信息和人体类别;
分割子单元,被配置成基于所述目标人体检测结果分割所述目标图像,得到所述目标人体框。
11.根据权利要求10所述的装置,其中,所述检测子单元包括:
采样模块,被配置成对所述目标图像进行采样,得到采样图像;
修改模块,被配置成修改所述采样图像的像素点的像素值,得到修改图像;
检测模块,被配置成将所述修改图像输入至所述人体检测模型,得到所述目标人体检测结果。
12.根据权利要求10所述的装置,其中,所述分割子单元包括:
确定模块,被配置成若所述待检测图像中存在至少两个类别相同的人体框,基于面积从所述至少两个类别相同的人体框中确定所述目标人体框;
分割模块,被配置成从所述目标图像中分割出所述目标人体框。
13.根据权利要求9所述的装置,其中,所述识别单元包括:
采样子单元,被配置成对所述目标人体框进行采样,得到采样人体框;
识别子单元,被配置成将所述采样人体框输入至所述驾驶行为识别模型,得到所述目标驾驶行为识别结果。
14.根据权利要求9所述的装置,其中,所述目标驾驶行为识别结果包括所述目标人体框对应的预设的驾驶行为类别集合中的驾驶行为类别的置信度;以及
所述确定单元包括:
计算子单元,被配置成对于所述驾驶行为类别集合中的驾驶行为类别,计算所述目标人体框对应该驾驶行为类别的平均置信度;
确定子单元,被配置成将所述平均置信度与预设置信度阈值进行比较,基于比较结果确定驾驶行为。
15.根据权利要求9-14之一所述的装置,其中,所述人体检测模型通过如下步骤训练得到:
获取第一训练样本集合,其中,第一训练样本包括样本图像和样本图像对应的样本人体标注结果;
将所述第一训练样本集合中的第一训练样本中的样本图像作为输入,将输入的样本图像对应的样本人体标注结果作为输出,训练得到所述人体检测模型。
16.根据权利要求10-12之一所述的装置,其中,所述驾驶行为识别模型通过如下步骤训练得到:
获取第二训练样本集合,其中,第二训练样本包括样本人体框和样本人体框对应的样本驾驶行为标注结果;
将所述第二训练样本集合中的第二训练样本中的样本人体框作为输入,将输入的样本人体框对应的样本驾驶行为标注结果作为输出,训练得到所述驾驶行为识别模型。
17.一种服务器,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一所述的方法。
18.一种计算机可读介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如权利要求1-8中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811139834.5A CN109389068A (zh) | 2018-09-28 | 2018-09-28 | 用于识别驾驶行为的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811139834.5A CN109389068A (zh) | 2018-09-28 | 2018-09-28 | 用于识别驾驶行为的方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109389068A true CN109389068A (zh) | 2019-02-26 |
Family
ID=65418342
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811139834.5A Pending CN109389068A (zh) | 2018-09-28 | 2018-09-28 | 用于识别驾驶行为的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109389068A (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110059541A (zh) * | 2019-02-28 | 2019-07-26 | 长江大学 | 一种驾驶中的手机使用行为检测方法及装置 |
CN110264645A (zh) * | 2019-04-16 | 2019-09-20 | 阿里巴巴集团控股有限公司 | 一种商品的自助收银方法和设备 |
CN110293974A (zh) * | 2019-07-02 | 2019-10-01 | 重庆大学 | 基于轻量级神经网络的驾驶姿态识别与管理系统及app应用 |
CN110503831A (zh) * | 2019-08-28 | 2019-11-26 | 上海眼控科技股份有限公司 | 一种识别驾驶员违法行为的方法及设备 |
CN110852233A (zh) * | 2019-11-05 | 2020-02-28 | 上海眼控科技股份有限公司 | 手部脱离方向盘的检测和训练方法、终端、装置、介质、系统 |
CN111274930A (zh) * | 2020-04-02 | 2020-06-12 | 成都鼎安华智慧物联网股份有限公司 | 一种基于深度学习的安全帽佩戴以及吸烟行为识别方法 |
CN111325160A (zh) * | 2020-02-25 | 2020-06-23 | 北京百度网讯科技有限公司 | 用于生成信息的方法和装置 |
CN111723602A (zh) * | 2019-03-19 | 2020-09-29 | 杭州海康威视数字技术股份有限公司 | 驾驶员的行为识别方法、装置、设备及存储介质 |
CN112132015A (zh) * | 2020-09-22 | 2020-12-25 | 平安国际智慧城市科技股份有限公司 | 违规驾驶姿势的检测方法、装置、介质和电子设备 |
CN112446352A (zh) * | 2020-12-14 | 2021-03-05 | 深圳地平线机器人科技有限公司 | 行为识别方法、装置、介质及电子设备 |
CN112560649A (zh) * | 2020-12-09 | 2021-03-26 | 广州云从鼎望科技有限公司 | 一种行为动作检测方法、系统、设备及介质 |
CN112784760A (zh) * | 2021-01-25 | 2021-05-11 | 北京百度网讯科技有限公司 | 人体行为识别方法、装置、设备以及存储介质 |
CN112836745A (zh) * | 2021-02-02 | 2021-05-25 | 歌尔股份有限公司 | 一种目标检测方法和装置 |
CN113276869A (zh) * | 2021-05-17 | 2021-08-20 | 海南师范大学 | 一种自动检测驾驶员玩手机的装置及方法 |
US11113680B2 (en) | 2019-04-16 | 2021-09-07 | Advanced New Technologies Co., Ltd. | Self-service checkout counter checkout |
CN113506436A (zh) * | 2021-05-19 | 2021-10-15 | 海南师范大学 | 一种用于监管的检测车内驾驶员玩手机的系统及方法 |
US11182759B2 (en) | 2019-04-15 | 2021-11-23 | Advanced New Technologies Co., Ltd. | Self-service checkout counter |
WO2022027895A1 (zh) * | 2020-08-07 | 2022-02-10 | 上海商汤临港智能科技有限公司 | 异常坐姿识别方法、装置、电子设备、存储介质及程序 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101540090A (zh) * | 2009-04-14 | 2009-09-23 | 华南理工大学 | 基于多元信息融合的驾驶员疲劳监测装置及其监测方法 |
CN102289660A (zh) * | 2011-07-26 | 2011-12-21 | 华南理工大学 | 一种基于手部姿态跟踪的违规驾驶行为检测方法 |
CN106682602A (zh) * | 2016-12-16 | 2017-05-17 | 深圳市华尊科技股份有限公司 | 一种驾驶员行为识别方法及终端 |
US10011216B1 (en) * | 2017-04-27 | 2018-07-03 | Toyota Motor Engineering & Manufacturing North America, Inc. | Auto turn signal initiation based on lane change and driver history |
-
2018
- 2018-09-28 CN CN201811139834.5A patent/CN109389068A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101540090A (zh) * | 2009-04-14 | 2009-09-23 | 华南理工大学 | 基于多元信息融合的驾驶员疲劳监测装置及其监测方法 |
CN102289660A (zh) * | 2011-07-26 | 2011-12-21 | 华南理工大学 | 一种基于手部姿态跟踪的违规驾驶行为检测方法 |
CN106682602A (zh) * | 2016-12-16 | 2017-05-17 | 深圳市华尊科技股份有限公司 | 一种驾驶员行为识别方法及终端 |
US10011216B1 (en) * | 2017-04-27 | 2018-07-03 | Toyota Motor Engineering & Manufacturing North America, Inc. | Auto turn signal initiation based on lane change and driver history |
Non-Patent Citations (1)
Title |
---|
陈兵旗等: "《实用数字图像处理与分析》", 28 February 2014 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110059541A (zh) * | 2019-02-28 | 2019-07-26 | 长江大学 | 一种驾驶中的手机使用行为检测方法及装置 |
CN111723602A (zh) * | 2019-03-19 | 2020-09-29 | 杭州海康威视数字技术股份有限公司 | 驾驶员的行为识别方法、装置、设备及存储介质 |
CN111723602B (zh) * | 2019-03-19 | 2023-08-08 | 杭州海康威视数字技术股份有限公司 | 驾驶员的行为识别方法、装置、设备及存储介质 |
US11182759B2 (en) | 2019-04-15 | 2021-11-23 | Advanced New Technologies Co., Ltd. | Self-service checkout counter |
CN110264645A (zh) * | 2019-04-16 | 2019-09-20 | 阿里巴巴集团控股有限公司 | 一种商品的自助收银方法和设备 |
US11113680B2 (en) | 2019-04-16 | 2021-09-07 | Advanced New Technologies Co., Ltd. | Self-service checkout counter checkout |
CN110293974A (zh) * | 2019-07-02 | 2019-10-01 | 重庆大学 | 基于轻量级神经网络的驾驶姿态识别与管理系统及app应用 |
CN110503831A (zh) * | 2019-08-28 | 2019-11-26 | 上海眼控科技股份有限公司 | 一种识别驾驶员违法行为的方法及设备 |
CN110852233A (zh) * | 2019-11-05 | 2020-02-28 | 上海眼控科技股份有限公司 | 手部脱离方向盘的检测和训练方法、终端、装置、介质、系统 |
CN111325160A (zh) * | 2020-02-25 | 2020-06-23 | 北京百度网讯科技有限公司 | 用于生成信息的方法和装置 |
CN111325160B (zh) * | 2020-02-25 | 2023-08-29 | 北京百度网讯科技有限公司 | 用于生成信息的方法和装置 |
CN111274930A (zh) * | 2020-04-02 | 2020-06-12 | 成都鼎安华智慧物联网股份有限公司 | 一种基于深度学习的安全帽佩戴以及吸烟行为识别方法 |
WO2022027895A1 (zh) * | 2020-08-07 | 2022-02-10 | 上海商汤临港智能科技有限公司 | 异常坐姿识别方法、装置、电子设备、存储介质及程序 |
CN112132015A (zh) * | 2020-09-22 | 2020-12-25 | 平安国际智慧城市科技股份有限公司 | 违规驾驶姿势的检测方法、装置、介质和电子设备 |
CN112560649A (zh) * | 2020-12-09 | 2021-03-26 | 广州云从鼎望科技有限公司 | 一种行为动作检测方法、系统、设备及介质 |
CN112446352A (zh) * | 2020-12-14 | 2021-03-05 | 深圳地平线机器人科技有限公司 | 行为识别方法、装置、介质及电子设备 |
CN112784760A (zh) * | 2021-01-25 | 2021-05-11 | 北京百度网讯科技有限公司 | 人体行为识别方法、装置、设备以及存储介质 |
CN112784760B (zh) * | 2021-01-25 | 2024-04-12 | 北京百度网讯科技有限公司 | 人体行为识别方法、装置、设备以及存储介质 |
CN112836745A (zh) * | 2021-02-02 | 2021-05-25 | 歌尔股份有限公司 | 一种目标检测方法和装置 |
CN112836745B (zh) * | 2021-02-02 | 2022-12-09 | 歌尔股份有限公司 | 一种目标检测方法和装置 |
CN113276869A (zh) * | 2021-05-17 | 2021-08-20 | 海南师范大学 | 一种自动检测驾驶员玩手机的装置及方法 |
CN113506436A (zh) * | 2021-05-19 | 2021-10-15 | 海南师范大学 | 一种用于监管的检测车内驾驶员玩手机的系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109389068A (zh) | 用于识别驾驶行为的方法和装置 | |
CN108038469B (zh) | 用于检测人体的方法和装置 | |
CN108154196B (zh) | 用于输出图像的方法和装置 | |
CN108509941B (zh) | 情绪信息生成方法和装置 | |
CN109389589A (zh) | 用于统计人数的方法和装置 | |
CN108510472B (zh) | 用于处理图像的方法和装置 | |
CN109635627A (zh) | 图片信息提取方法、装置、计算机设备及存储介质 | |
CN108229575A (zh) | 用于检测目标的方法和装置 | |
CN109308490A (zh) | 用于生成信息的方法和装置 | |
CN109446990A (zh) | 用于生成信息的方法和装置 | |
CN108229418B (zh) | 人体关键点检测方法和装置、电子设备、存储介质和程序 | |
CN109558779A (zh) | 图像检测方法和装置 | |
CN108052920A (zh) | 用于输出信息的方法和装置 | |
CN108171203A (zh) | 用于识别车辆的方法和装置 | |
CN110443824A (zh) | 用于生成信息的方法和装置 | |
CN108491823A (zh) | 用于生成人眼识别模型的方法和装置 | |
CN109308687A (zh) | 用于调节图像亮度的方法和装置 | |
CN108337505A (zh) | 信息获取方法和装置 | |
CN108509921A (zh) | 用于生成信息的方法和装置 | |
CN110059624A (zh) | 用于检测活体的方法和装置 | |
CN108304816A (zh) | 身份识别方法、装置、存储介质及电子设备 | |
CN109285181A (zh) | 用于识别图像的方法和装置 | |
CN109389072A (zh) | 数据处理方法和装置 | |
CN109389096A (zh) | 检测方法和装置 | |
CN109902624A (zh) | 用于呈现信息的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190226 |
|
RJ01 | Rejection of invention patent application after publication |