CN111310650A - 车辆乘坐对象的分类方法、装置、计算机设备和存储介质 - Google Patents
车辆乘坐对象的分类方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN111310650A CN111310650A CN202010090100.3A CN202010090100A CN111310650A CN 111310650 A CN111310650 A CN 111310650A CN 202010090100 A CN202010090100 A CN 202010090100A CN 111310650 A CN111310650 A CN 111310650A
- Authority
- CN
- China
- Prior art keywords
- network
- area
- classification
- age
- riding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/593—Recognising seat occupancy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/178—Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请涉及一种车辆乘坐对象的分类方法、装置、计算机设备和存储介质,该方法包括:获取待检测的交通图片;将交通图片输入目标检测网络,得到交通图片中目标车辆的副驾驶区域;采用面部检测网络对副驾驶区域进行检测,若检测到副驾驶区域存在乘坐对象,确定乘坐对象的面部区域;采用年龄分类网络对乘坐对象的面部区域进行识别,得到乘坐对象的分类结果;分类结果用于表征乘坐对象是否为儿童。该方法中乘坐对象的分类过程由计算机设备完成,极大减少了人力资源的浪费,并大大提高了检测效率,且计算机设备可对获取的全部交通图片进行检测,减小了目标车辆的漏检率;进一步的,采用神经网络模型进行检测处理,也提高了乘坐对象分类结果的准确性。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种车辆乘坐对象的分类方法、装置、计算机设备和存储介质。
背景技术
随着物质水平的不断提高,越来越多的家庭选择自驾车出行,对于有孩子的家庭往往忽视了孩子的乘车安全,如让孩子乘坐在副驾驶位置或大人怀抱孩子乘车等,这无疑带来了严重的安全隐患。例如,当儿童坐在副驾驶位置时,如发生撞车事故,前排安全气囊会迅速弹出(约以300km/h的速度弹出),其撞击力对于儿童而言比直接撞击重物还大,进而对儿童造成巨大伤害。
通常,在车辆行驶过程中,会有执勤交警对来往车辆进行排查,通过观察车辆副驾驶位置的目标对象是否是儿童,来判断当前车辆是否安全驾驶。
但是,传统方法中由执勤交警人为排查需耗费大量人力资源,其对车辆乘坐对象的检测效率较低。
发明内容
基于此,有必要针对传统技术中对车辆乘坐对象进行检测效率较低的问题,提供一种车辆乘坐对象的分类方法、装置、计算机设备和存储介质。
一种车辆乘坐对象的分类方法,该方法包括:
获取待检测的交通图片;
将交通图片输入目标检测网络,得到交通图片中目标车辆的副驾驶区域;
采用面部检测网络对副驾驶区域进行检测,若检测到副驾驶区域存在乘坐对象,确定乘坐对象的面部区域;
采用年龄分类网络对乘坐对象的面部区域进行识别,得到乘坐对象的分类结果;分类结果用于表征乘坐对象是否为儿童。
在其中一个实施例中,目标检测网络包括车辆检测网络和驾驶区域检测网络;将交通图片输入目标检测网络,得到交通图片中目标车辆的副驾驶区域,包括:
将交通图片输入车辆检测网络,得到交通图片的目标车辆区域;
采用驾驶区域检测网络对目标车辆区域进行检测,得到副驾驶区域。
在其中一个实施例中,年龄分类网络的训练方式包括:
获取乘坐对象的面部训练图像和所述面部训练图像的分类标签;
将面部训练图像输入预训练的年龄分类网络,得到预测分类结果;
计算预测分类结果和分类标签之间的损失,根据损失对预训练的年龄分类网络进行训练,得到年龄分类网络。
在其中一个实施例中,年龄分类网络为深度残差网络ResNet。
在其中一个实施例中,年龄分类网络中全连接层的通道数为3个。
在其中一个实施例中,采用年龄分类网络对乘坐对象的面部区域进行识别,得到乘坐对象的分类结果,包括:
采用年龄分类网络对乘坐对象的面部区域进行识别,得到乘坐对象属于不同年龄段的概率值;年龄段包括0-6岁、6-14岁、14岁以上三个年龄段;
获取上述概率值中的最大值作为最大概率值;
将最大概率值所对应的年龄段作为乘坐对象的分类结果。
在其中一个实施例中,上述方法还包括:
采用驾驶区域检测网络对目标车辆区域进行检测,得到主驾驶区域。
一种车辆乘坐对象的分类装置,该装置包括:
获取模块,用于获取待检测的交通图片;
目标检测模块,用于将交通图片输入目标检测网络,得到交通图片中目标车辆的副驾驶区域;
面部检测模块,用于采用面部检测网络对副驾驶区域进行检测,若检测到副驾驶区域存在乘坐对象,确定乘坐对象的面部区域;
分类模块,用于采用年龄分类网络对乘坐对象的面部区域进行识别,得到乘坐对象的分类结果;分类结果用于表征乘坐对象是否为儿童。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取待检测的交通图片;
将交通图片输入目标检测网络,得到交通图片中目标车辆的副驾驶区域;
采用面部检测网络对副驾驶区域进行检测,若检测到副驾驶区域存在乘坐对象,确定乘坐对象的面部区域;
采用年龄分类网络对乘坐对象的面部区域进行识别,得到乘坐对象的分类结果;分类结果用于表征乘坐对象是否为儿童。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取待检测的交通图片;
将交通图片输入目标检测网络,得到交通图片中目标车辆的副驾驶区域;
采用面部检测网络对副驾驶区域进行检测,若检测到副驾驶区域存在乘坐对象,确定乘坐对象的面部区域;
采用年龄分类网络对乘坐对象的面部区域进行识别,得到乘坐对象的分类结果;分类结果用于表征乘坐对象是否为儿童。
上述车辆乘坐对象的分类方法、装置、计算机设备和存储介质,能够获取待检测的交通图片;将交通图片输入目标检测网络,得到交通图片中目标车辆的副驾驶区域;采用面部检测网络对副驾驶区域进行检测,若检测到副驾驶区域存在乘坐对象,确定乘坐对象的面部区域;采用年龄分类网络对乘坐对象的面部区域进行识别,得到乘坐对象的分类结果;分类结果用于表征乘坐对象是否为儿童。该方法中,对于乘坐对象的分类过程都由计算机设备完成,无需人为参与,其极大减少了人力资源的浪费,并大大提高了检测过程的效率,且计算机设备可对获取的全部交通图片进行检测,大大减小了目标车辆的漏检率;进一步的,该方法采用神经网络模型对交通图片进行检测处理,进而也提高了乘坐对象分类结果的准确性。
附图说明
图1为一个实施例中计算机设备的内部结构图;
图2为一个实施例中车辆乘坐对象的分类方法的流程示意图;
图2a为一个实施例中年龄分类网络中残差块的结构示意图;
图3为另一个实施例中车辆乘坐对象的分类方法的流程示意图;
图4为又一个实施例中车辆乘坐对象的分类方法的流程示意图;
图4a为一个实施例中年龄分类网络与人脸识别分支网络的结构示意图;
图5为又一个实施例中车辆乘坐对象的分类方法的流程示意图;
图6为一个实施例中车辆乘坐对象的分类装置的结构框图;
图7为另一个实施例中车辆乘坐对象的分类装置的结构框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例提供的车辆乘坐对象的分类方法,可以适用于如图1所示的计算机设备。该计算机设备包括通过系统总线连接的处理器、存储器,该存储器中存储有计算机程序,处理器执行该计算机程序时可以执行下述方法实施例的步骤。可选的,该计算机设备还可以包括通信接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器,该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端通过网络连接通信。可选的,该计算机设备可以是个人计算机(personal computer,简称PC),还可以是个人数字助理,还可以是其他的终端设备,例如平板电脑(portable android device,简称PAD)、手机等等,还可以是云端或者远程服务器,本申请实施例对计算机设备的具体形式并不做限定。该方法可以实现通过采集的交通图片判断车辆副驾驶乘坐对象是否为儿童的过程。
在一个实施例中,如图2所示,提供了一种车辆乘坐对象的分类方法,以该方法应用于图1中的计算机设备为例进行说明,包括以下步骤:
S101,获取待检测的交通图片。
其中,交通图片可以为通过执勤交警手持或佩戴的拍摄设备所采集的图片,也可以是道路摄像头所采集的图片,其可以是采集的单张图片,也可以是采集的视频流中的帧图片。拍摄设备或摄像头采集行驶道路上的交通图片后,可以将交通图片发送至目标服务站,然后计算机设备从该目标服务站获取待检测的交通图片。可选的,计算机设备可以实时从目标服务站获取待检测的交通图片,也可以以固定的时间间隔从目标服务站获取待检测的交通图片。
S102,将交通图片输入目标检测网络,得到交通图片中目标车辆的副驾驶区域。
具体的,计算机设备将获取的交通图片输入训练完成的目标检测网络中,在本实施例中,目标检测网络用于检测交通图片中目标车辆的副驾驶位置,则可以得到副驾驶区域。可选的,在得到副驾驶区域后,计算机设备还可以对该区域进行矩形框标记,可选的,可以将副驾驶框的尺寸设置为200×200(或者其他尺寸)之后,再进行后续操作。
可选的,上述目标检测网络可以为神经网络,如卷积神经网络、循环神经网络等,可选的,该目标检测网络可以为SSD(Single Shot MultiBox Detector)网络,计算机设备将交通图片输入SSD网络后,经过一系列的卷积层、池化层和全连接层的处理操作,可以得到该交通图片中的副驾驶区域。可选的,本实施例中,目标检测网络的训练方式可以包括:获取大量的交通训练图片,并标记其中目标车辆的副驾驶区域;建立初始目标检测网络,将交通训练图片输入该初始目标检测网络,输出预测副驾驶区域;接下来计算预测副驾驶区域与标记的副驾驶区域之间的差异(即损失),根据该差异对初始目标检测网络进行训练,即不断调整初始目标检测网络的网络参数;当上述差异小于或者等于预设的阈值时,则表征目标检测网络训练完成。
S103,采用面部检测网络对副驾驶区域进行检测,若检测到副驾驶区域存在乘坐对象,确定乘坐对象的面部区域。
具体的,在得到目标车辆的副驾驶区域后,计算机设备可以采用面部检测网络对副驾驶区域进行检测,判断该副驾驶区域中是否存在乘坐对象。若面部检测网络未检测到面部特征,则表示副驾驶区域不存在乘坐对象,计算机设备便可以停止后续检测过程,并对下一张交通图片进行检测。若面部检测网络检测到面部特征,则表示副驾驶区域存在乘坐对象,则确定该乘坐对象的面部区域。可选的,计算机设备确定面部区域后,还可以对该面部区域进行矩形框标记,可选的,可以将面部区域的尺寸设置为112×112(或者其他尺寸)之后,再执行后续操作。
可选的,上述面部检测网络可以为神经网络,如卷积神经网络、循环神经网络等,可选的,该面部检测网络可以为MTCNN网络,MTCNN网络为一种多任务的人脸检测框架,可以同时进行人脸检测和人脸特征点检测。计算机设备将副驾驶区域图像输入MTCNN网络后,经过一系列的卷积层、池化层和全连接层的处理操作,可以确定该副驾驶区域中是否存在乘坐对象,并在存在乘坐对象时确定该乘坐对象的面部区域。可选的,本实施例中,面部检测网络的训练方式可以包括:获取大量的副驾驶区域图片,并标记其中的面部区域(对副驾驶区域没有乘坐对象的可不标记);建立初始面部检测网络,将副驾驶区域图片输入该初始面部检测网络,输出预测面部区域;接下来计算预测面部区域与标记的面部区域之间的差异(即损失),根据该差异对初始面部检测网络进行训练,即不断调整初始面部检测网络的网络参数;当上述差异小于或者等于预设的阈值时,则表征面部检测网络训练完成。
S104,采用年龄分类网络对乘坐对象的面部区域进行识别,得到乘坐对象的分类结果;分类结果用于表征乘坐对象是否为儿童。
具体的,计算机设备采用年龄分类网络对上述乘坐对象的面部区域进行检测识别,根据面部区域的特征信息得到乘坐对象的分类结果,其中,该分类结果可以为乘坐对象的年龄段分类(如0-6岁、6-14岁、14岁以上中的一个),也可以为是儿童或者不是儿童。
可选的,上述年龄分类网络可以为神经网络,如卷积神经网络、循环神经网络等,可选的,该年龄分类网络可以为深度残差网络ResNet,该网络的基网络可以包括stage1-stage4四个残差块,每个残差块的结构可以参见图2a所示,包括卷积层(Conv)、归一化层(BN)、对特征图的平移缩放操作(Scale)、激活函数操作(Relu)、对特征图的点乘/加减/取极大值(Eltwise)等。计算机设备将面部区域图像输入ResNet网络后,经过一系列的卷积层、归一化层、池化层和全连接层的处理操作,可以得到乘坐对象的分类结果。可选的,本实施例可以将ResNet网络中全连接层的通道数设置为3个,分别进行0-6岁、6-14岁、14岁以上三个年龄段的预测。
本实施例提供的车辆乘坐对象的分类方法,计算机设备将获取的待检测的交通图片输入目标检测网络,得到交通图片中目标车辆的副驾驶区域;然后采用面部检测网络对副驾驶区域进行检测,若检测到副驾驶区域存在乘坐对象,则确定乘坐对象的面部区域;最后采用年龄分类网络对乘坐对象的面部区域进行识别,得到乘坐对象的分类结果。该方法中,对于乘坐对象的分类过程都由计算机设备完成,无需人为参与,其极大减少了人力资源的浪费,并大大提高了检测过程的效率,且计算机设备可对获取的全部交通图片进行检测,大大减小了目标车辆的漏检率;进一步的,该方法采用神经网络模型对交通图片进行检测处理,进而也提高了乘坐对象分类结果的准确性。
在一个实施例中,目标检测网络包括车辆检测网络和驾驶区域检测网络,如图3所示,上述S102可以包括:
S201,将交通图片输入车辆检测网络,得到交通图片的目标车辆区域。
具体的,计算机设备可以先将交通图片输入车辆检测网络,该车辆检测网络用于检测交通图片中的目标车辆,该目标车辆可以为小轿车、面包车、SUV等,进而得到目标车辆区域。可选的,在确定目标车辆区域后,还可以对目标车辆区域进行矩形框标记,可选的,可以将目标车辆区域的尺寸设置为300×300(或者其他尺寸)之后,再执行后续操作。可选的,得到的目标车辆区域可以为1个,也可以为多个。可选的,上述车辆检测网络可以为SSD网络。
S202,采用驾驶区域检测网络对目标车辆区域进行检测,得到副驾驶区域。
具体的,计算机设备可以采用驾驶区域检测网络对目标车辆区域进行检测,得到其中的副驾驶区域。可选的,当目标车辆区域为多个时,驾驶区域检测网络可以同时对多个目标车辆区域进行检测,得到多个副驾驶区域。然后计算机设备可以同时对多个副驾驶区域进行面部区域的检测。可选的,上述驾驶区域检测网络也可以为SSD网络。
本实施例提供的车辆乘坐对象的分类方法,计算机设备先将交通图片输入车辆检测网络,得到交通图片的目标车辆区域,再采用驾驶区域检测网络对目标车辆区域进行检测,得到副驾驶区域。由此可提高副驾驶区域检测结果的准确性,进而提高乘坐对象分类结果的准确性。
由上述实施例可知,计算机设备所采用的年龄分类网络为训练完成的网络,那么在使用之前还需对该网络进行训练。在一个实施例中,如图4所示,年龄分类网络的训练方式可以包括:
S301,获取乘坐对象的面部训练图像和面部训练图像的分类标签。
具体的,计算机设备可以获取大量的面部训练图像,即包括不同年龄段的乘坐对象的面部图像,并对每个面部图像进行年龄分类标注,作为训练过程的分类标签。
S302,将面部训练图像输入预训练的年龄分类网络,得到预测分类结果。
具体的,计算机设备将面部训练图像输入一预训练的年龄分类网络,该预训练的年龄分类网络中的基网络具有经过预训练的网络参数。可选的,可以由计算机设备先搭建一个初始年龄分类网络,该初始年龄分类网络可以借助一个人脸识别分支网络进行预训练,得到预训练的年龄分类网络;其中,参见图4a所示,年龄分类网络与人脸识别分支网络具有相同的基网络,该年龄分类网络与人脸识别分支网络包括有:残差块1-3、卷积层(Conv)、归一化层(BN)、对特征图的平移缩放操作(Scale)、激活函数操作(Relu)、对特征图的点乘/加减/取极大值(Eltwise)、池化层(pooling,本实施例中使用的为最大池化)、丢弃层(Droput,用于防止过拟合问题)全连接层(FC)、回归函数(Softmax)、网络层屏蔽操作(Silence)等。因此,可以先对人脸识别分支网络进行训练,训练结束后可以得到基网络的网络参数,作为预训练的年龄分类网络中基网络的网络参数初值。然后将面部训练图像输入预训练的年龄分类网络,可以得到预测分类结果,可选的,该预测分类结果可以为乘坐对象属于不同年龄段的概率。
S303,计算预测分类结果和分类标签之间的损失,根据损失对预训练的年龄分类网络进行训练,得到年龄分类网络。
具体的,计算机设备计算上述预测分类结果和分类标签之间的损失,示例性的,假设预测分类结果中属于不同年龄段的概率分别为[0.8,0.1,0.1],即属于0-6岁的概率为0.8,属于6-14岁的概率为0.1,属于14岁以上的概率为1;标注的分类标签为3岁,即属于0-6岁年龄段,则分类标签对应的概率为[1,0,0]。因此计算机设备可以计算[0.8,0.1,0.1]与[1,0,0]之间的损失,根据该损失对预训练的年龄分类网络进行训练,当该损失小于或者等于预设阈值时,表征预训练的年龄分类网络训练完成,得到上述年龄分类网络。
本实施例提供的车辆乘坐对象的分类方法,计算机设备首先根据面部训练图像和分类标签对预训练的年龄分类网络进行训练,得到收敛的年龄分类网络。采用由此训练得到的年龄分类网络对上述乘坐对象的面部区域进行识别,可提高乘坐对象的分类结果的准确性。
在一个实施例中,如图5所示,上述S104可以包括:
S401,采用年龄分类网络对乘坐对象的面部区域进行识别,得到乘坐对象属于不同年龄段的概率值;该年龄段包括0-6岁、6-14岁、14岁以上三个年龄段。
S402,获取概率值中的最大值作为最大概率值。
S403,将最大概率值所对应的年龄段作为乘坐对象的分类结果。
具体的,年龄分类网络输出结果可以为乘坐对象属于不同年龄段的概率值,根据不同的概率值可以确定其中的最大概率值。类似上述实施例中的示例,假设输出的结果为乘坐对象属于不同年龄段的概率值分别为[0.8,0.2,0],最大概率值即为0.8,其对应的年龄段为0-6岁,则可以确定乘坐对象的分类结果为0-6岁年龄段,可以表征当前的乘坐对象为儿童。
可选的,因儿童与成年人的年龄分界线为14岁,本实施例也可以将年龄段划分为0-14岁、14岁以上两个年龄段,年龄分类网络可输出属于0-14岁的概率值和14岁以上的概率值,选取最大概率值对应的年龄段作为乘坐对象的分类结果。
可选的,在其中一个实施例中,上述采用驾驶区域检测网络对目标车辆区域进行检测时,还可以分别得到主驾驶区域,并且也可以由面部检测网络对主驾驶区域进行检测,确定主驾驶者的面部区域,以及由年龄分类网络对主驾驶者的面部区域进行识别,判断当前的驾驶者是否为成年人,若不是成年人,则可以辅助执勤交警对其进行警告或处罚。
应该理解的是,虽然图2-图5的流程图中各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-图5中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图6所示,提供了一种车辆乘坐对象的分类装置,包括:获取模块11、目标检测模块12、面部检测模块13和分类模块14。
具体的,获取模块11,用于获取待检测的交通图片;
目标检测模块12,用于将交通图片输入目标检测网络,得到交通图片中目标车辆的副驾驶区域;
面部检测模块13,用于采用面部检测网络对副驾驶区域进行检测,若检测到副驾驶区域存在乘坐对象,确定乘坐对象的面部区域;
分类模块14,用于采用年龄分类网络对乘坐对象的面部区域进行识别,得到乘坐对象的分类结果;分类结果用于表征乘坐对象是否为儿童。
本实施例提供的车辆乘坐对象的分类装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在一个实施例中,目标检测网络包括车辆检测网络和驾驶区域检测网络;目标检测模块12,具体用于将交通图片输入车辆检测网络,得到交通图片的目标车辆区域;采用驾驶区域检测网络对目标车辆区域进行检测,得到副驾驶区域。
在一个实施例中,如图7所示,上述装置还包括训练模块15,用于获取乘坐对象的面部训练图像和面部训练图像的分类标签;将面部训练图像输入预训练的年龄分类网络,得到预测分类结果;计算预测分类结果和分类标签之间的损失,根据损失对预训练的年龄分类网络进行训练,得到年龄分类网络。
在一个实施例中,年龄分类网络为深度残差网络ResNet。
在一个实施例中,年龄分类网络中全连接层的通道数为3个。
在一个实施例中,上述分类模块14,具体用于采用年龄分类网络对乘坐对象的面部区域进行识别,得到乘坐对象属于不同年龄段的概率值;年龄段包括0-6岁、6-14岁、14岁以上三个年龄段;获取概率值中的最大值作为最大概率值;将最大概率值所对应的年龄段作为乘坐对象的分类结果。
在一个实施例中,上述目标检测模块12,还用于采用驾驶区域检测网络对目标车辆区域进行检测,得到主驾驶区域。
关于车辆乘坐对象的分类装置的具体限定可以参见上文中对于车辆乘坐对象的分类方法的限定,在此不再赘述。上述车辆乘坐对象的分类装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图1所示。该计算机设备包括通过系统总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、运营商网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种车辆乘坐对象的分类方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图1中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取待检测的交通图片;
将交通图片输入目标检测网络,得到交通图片中目标车辆的副驾驶区域;
采用面部检测网络对副驾驶区域进行检测,若检测到副驾驶区域存在乘坐对象,确定乘坐对象的面部区域;
采用年龄分类网络对乘坐对象的面部区域进行识别,得到乘坐对象的分类结果;分类结果用于表征乘坐对象是否为儿童。
本实施例提供的计算机设备,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
在一个实施例中,目标检测网络包括车辆检测网络和驾驶区域检测网络;处理器执行计算机程序时还实现以下步骤:
将交通图片输入车辆检测网络,得到交通图片的目标车辆区域;
采用驾驶区域检测网络对目标车辆区域进行检测,得到副驾驶区域。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取乘坐对象的面部训练图像和面部训练图像的分类标签;
将面部训练图像输入预训练的年龄分类网络,得到预测分类结果;
计算预测分类结果和分类标签之间的损失,根据损失对预训练的年龄分类网络进行训练,得到年龄分类网络。
在一个实施例中,年龄分类网络为深度残差网络ResNet。
在一个实施例中,年龄分类网络中全连接层的通道数为3个。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
采用年龄分类网络对乘坐对象的面部区域进行识别,得到乘坐对象属于不同年龄段的概率值;年龄段包括0-6岁、6-14岁、14岁以上三个年龄段;
获取概率值中的最大值作为最大概率值;
将最大概率值所对应的年龄段作为乘坐对象的分类结果。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
采用驾驶区域检测网络对目标车辆区域进行检测,得到主驾驶区域。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取待检测的交通图片;
将交通图片输入目标检测网络,得到交通图片中目标车辆的副驾驶区域;
采用面部检测网络对副驾驶区域进行检测,若检测到副驾驶区域存在乘坐对象,确定乘坐对象的面部区域;
采用年龄分类网络对乘坐对象的面部区域进行识别,得到乘坐对象的分类结果;分类结果用于表征乘坐对象是否为儿童。
本实施例提供的计算机可读存储介质,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
在一个实施例中,目标检测网络包括车辆检测网络和驾驶区域检测网络;计算机程序被处理器执行时还实现以下步骤:
将交通图片输入车辆检测网络,得到交通图片的目标车辆区域;
采用驾驶区域检测网络对目标车辆区域进行检测,得到副驾驶区域。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取乘坐对象的面部训练图像和面部训练图像的分类标签;
将面部训练图像输入预训练的年龄分类网络,得到预测分类结果;
计算预测分类结果和分类标签之间的损失,根据损失对预训练的年龄分类网络进行训练,得到年龄分类网络。
在一个实施例中,年龄分类网络为深度残差网络ResNet。
在一个实施例中,年龄分类网络中全连接层的通道数为3个。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
采用年龄分类网络对乘坐对象的面部区域进行识别,得到乘坐对象属于不同年龄段的概率值;年龄段包括0-6岁、6-14岁、14岁以上三个年龄段;
获取概率值中的最大值作为最大概率值;
将最大概率值所对应的年龄段作为乘坐对象的分类结果。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
采用驾驶区域检测网络对目标车辆区域进行检测,得到主驾驶区域。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种车辆乘坐对象的分类方法,其特征在于,所述方法包括:
获取待检测的交通图片;
将所述交通图片输入目标检测网络,得到所述交通图片中目标车辆的副驾驶区域;
采用面部检测网络对所述副驾驶区域进行检测,若检测到所述副驾驶区域存在乘坐对象,确定所述乘坐对象的面部区域;
采用年龄分类网络对所述乘坐对象的面部区域进行识别,得到所述乘坐对象的分类结果;所述分类结果用于表征所述乘坐对象是否为儿童。
2.根据权利要求1所述的方法,其特征在于,所述目标检测网络包括车辆检测网络和驾驶区域检测网络;所述将所述交通图片输入目标检测网络,得到所述交通图片中目标车辆的副驾驶区域,包括:
将所述交通图片输入所述车辆检测网络,得到所述交通图片的目标车辆区域;
采用所述驾驶区域检测网络对所述目标车辆区域进行检测,得到所述副驾驶区域。
3.根据权利要求1或2所述的方法,其特征在于,所述年龄分类网络的训练方式包括:
获取乘坐对象的面部训练图像和所述面部训练图像的分类标签;
将所述面部训练图像输入预训练的年龄分类网络,得到预测分类结果;
计算所述预测分类结果和所述分类标签之间的损失,根据所述损失对所述预训练的年龄分类网络进行训练,得到所述年龄分类网络。
4.根据权利要求3所述的方法,其特征在于,所述年龄分类网络为深度残差网络ResNet。
5.根据权利要求1或2所述的方法,其特征在于,所述年龄分类网络中全连接层的通道数为3个。
6.根据权利要求5所述的方法,其特征在于,所述采用年龄分类网络对所述乘坐对象的面部区域进行识别,得到所述乘坐对象的分类结果,包括:
采用所述年龄分类网络对所述乘坐对象的面部区域进行识别,得到所述乘坐对象属于不同年龄段的概率值;所述年龄段包括0-6岁、6-14岁、14岁以上三个年龄段;
获取所述概率值中的最大值作为最大概率值;
将所述最大概率值所对应的年龄段作为所述乘坐对象的分类结果。
7.根据权利要求2所述的方法,其特征在于,所述方法还包括:
采用所述驾驶区域检测网络对所述目标车辆区域进行检测,得到主驾驶区域。
8.一种车辆乘坐对象的分类装置,其特征在于,所述装置包括:
获取模块,用于获取待检测的交通图片;
目标检测模块,用于将所述交通图片输入目标检测网络,得到所述交通图片中目标车辆的副驾驶区域;
面部检测模块,用于采用面部检测网络对所述副驾驶区域进行检测,若检测到所述副驾驶区域存在乘坐对象,确定所述乘坐对象的面部区域;
分类模块,用于采用年龄分类网络对所述乘坐对象的面部区域进行识别,得到所述乘坐对象的分类结果;所述分类结果用于表征所述乘坐对象是否为儿童。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1-7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010090100.3A CN111310650A (zh) | 2020-02-13 | 2020-02-13 | 车辆乘坐对象的分类方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010090100.3A CN111310650A (zh) | 2020-02-13 | 2020-02-13 | 车辆乘坐对象的分类方法、装置、计算机设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111310650A true CN111310650A (zh) | 2020-06-19 |
Family
ID=71147055
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010090100.3A Withdrawn CN111310650A (zh) | 2020-02-13 | 2020-02-13 | 车辆乘坐对象的分类方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111310650A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112001348A (zh) * | 2020-08-31 | 2020-11-27 | 上海商汤临港智能科技有限公司 | 车舱内的乘员检测方法及装置、电子设备和存储介质 |
CN112926414A (zh) * | 2021-02-05 | 2021-06-08 | 北京嘀嘀无限科技发展有限公司 | 图像处理的方法、装置和电子设备 |
CN113807169A (zh) * | 2021-08-06 | 2021-12-17 | 上汽大众汽车有限公司 | 一种副驾驶位儿童检测预警方法及系统 |
-
2020
- 2020-02-13 CN CN202010090100.3A patent/CN111310650A/zh not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112001348A (zh) * | 2020-08-31 | 2020-11-27 | 上海商汤临港智能科技有限公司 | 车舱内的乘员检测方法及装置、电子设备和存储介质 |
WO2022041670A1 (zh) * | 2020-08-31 | 2022-03-03 | 上海商汤临港智能科技有限公司 | 车舱内的乘员检测方法及装置、电子设备和存储介质 |
CN112926414A (zh) * | 2021-02-05 | 2021-06-08 | 北京嘀嘀无限科技发展有限公司 | 图像处理的方法、装置和电子设备 |
CN112926414B (zh) * | 2021-02-05 | 2024-05-14 | 北京嘀嘀无限科技发展有限公司 | 图像处理的方法、装置和电子设备 |
CN113807169A (zh) * | 2021-08-06 | 2021-12-17 | 上汽大众汽车有限公司 | 一种副驾驶位儿童检测预警方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111469802B (zh) | 座椅安全带状态确定系统和方法 | |
US9990554B1 (en) | Apparatuses, systems and methods for determining vehicle operator distractions | |
CN110414313B (zh) | 异常行为告警方法、装置、服务器及存储介质 | |
WO2020042984A1 (zh) | 一种车辆行为检测方法及装置 | |
CN111310650A (zh) | 车辆乘坐对象的分类方法、装置、计算机设备和存储介质 | |
CN111937050B (zh) | 乘客相关物品丢失减少 | |
Wali et al. | The relationship between driving volatility in time to collision and crash-injury severity in a naturalistic driving environment | |
US10783360B1 (en) | Apparatuses, systems and methods for vehicle operator gesture recognition and transmission of related gesture data | |
US10242274B1 (en) | Apparatuses, systems and methods for determining degrees of risk associated with a vehicle operator | |
WO2019223655A1 (zh) | 非机动车载人的检测 | |
CN111310653A (zh) | 佩戴头盔的检测方法、装置、计算机设备和存储介质 | |
Poon et al. | YOLO-based deep learning design for in-cabin monitoring system with fisheye-lens camera | |
Valeriano et al. | Recognition of driver distractions using deep learning | |
CN112002027A (zh) | 高速公路计费方法、装置、终端及存储介质 | |
Zhao et al. | Driver posture monitoring in highly automated vehicles using pressure measurement | |
CN113424209B (zh) | 使用深度学习多预测器融合和贝叶斯优化的轨迹预测 | |
CN112883843B (zh) | 驾驶员视觉显著区域检测方法、装置和计算机设备 | |
US11263837B2 (en) | Automatic real-time detection of vehicular incidents | |
CN112989915A (zh) | 用于检测自主载具中的异常乘客行为的系统和方法 | |
KR102482149B1 (ko) | 노이즈가 있는 다중 모드형 데이터로부터 관심 지점에 대한 최적의 운송 서비스 위치의 자동 결정 | |
CN111757270A (zh) | 超员车辆识别方法及装置 | |
Mrazovac et al. | Human-centric role in self-driving vehicles: Can human driving perception change the flavor of safety features? | |
US11270525B2 (en) | Automated vehicle occupancy detection | |
CN114973211A (zh) | 对象识别方法、装置、设备及存储介质 | |
CN110740211B (zh) | 基于行进状态感知和专注度感知的非干扰式危险预警方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200619 |
|
WW01 | Invention patent application withdrawn after publication |