CN113379832B - 一种摄像头的位姿调整方法、装置、电子设备及存储介质 - Google Patents

一种摄像头的位姿调整方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN113379832B
CN113379832B CN202110695579.8A CN202110695579A CN113379832B CN 113379832 B CN113379832 B CN 113379832B CN 202110695579 A CN202110695579 A CN 202110695579A CN 113379832 B CN113379832 B CN 113379832B
Authority
CN
China
Prior art keywords
face
determining
face image
data
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110695579.8A
Other languages
English (en)
Other versions
CN113379832A (zh
Inventor
王小刚
余程鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Leading Technology Co Ltd
Original Assignee
Nanjing Leading Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Leading Technology Co Ltd filed Critical Nanjing Leading Technology Co Ltd
Priority to CN202110695579.8A priority Critical patent/CN113379832B/zh
Publication of CN113379832A publication Critical patent/CN113379832A/zh
Application granted granted Critical
Publication of CN113379832B publication Critical patent/CN113379832B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本申请公开一种摄像头的位姿调整方法、装置、电子设备及存储介质,属于汽车技术领域,该方法中,获取摄像头采集的驾驶员的至少两张第一人脸图像,基于这至少两张第一人脸图像进行驾驶状态分析,得到驾驶状态数据,在驾驶状态数据表征的驾驶稳定度达到预设稳定度时,确定这至少两张第一人脸图像对应的人脸端正度信息,确定将人脸端正度信息表征的人脸端正度调整到预设端正度时摄像头的位姿调整信息,进而基于位姿调整信息,调整摄像头的位姿。这样,能够自动调整摄像头的位姿,使摄像头采集的图像的人脸端正度达到预设端正度,即便更换驾驶员或驾驶员调节摄像头也可保证摄像头所采集图像的端正度。

Description

一种摄像头的位姿调整方法、装置、电子设备及存储介质
技术领域
本申请涉及车辆技术领域,尤其涉及一种摄像头的位姿调整方法、装置、电子设备及存储介质。
背景技术
随着互联网技术的快速发展,传统交通运输与互联网融合的行业新业态蓬勃发展,使得网络约车服务(简称网约车)成为一种重要的出行方式。
为了更好地服务用户、也为了规范用户作为驾驶员时的驾驶行为,网约车运营方一般会在车辆上安装驾驶员监控系统(Driver Monitor System,DMS) 摄像头,以用于采集驾驶员的图像信息。考虑到不同用户的身高、体型不同,网约车运营方一般允许用户调整DMS摄像头的图像采集范围,这样,很容易出现DMS摄像头采集的图像不端正的情况。
发明内容
本申请实施例提供一种摄像头的位姿调整方法、装置、电子设备及存储介质,用以解决相关技术中存在的网约车上DMS摄像头采集的图像不端正的问题。
第一方面,本申请实施例提供一种摄像头的位姿调整方法,包括:
获取摄像头采集的驾驶员的至少两张第一人脸图像;
基于所述至少两张第一人脸图像进行驾驶状态分析,得到驾驶状态数据,所述驾驶状态数据用于表征所述驾驶员的驾驶稳定度;
在所述驾驶状态数据表征的驾驶稳定度达到预设稳定度时,确定所述至少两张第一人脸图像对应的人脸端正度信息,所述人脸端正度信息用于表征人脸端正度;
确定将所述人脸端正度信息表征的人脸端正度调整到预设端正度时所述摄像头的位姿调整信息;
基于所述位姿调整信息,调整所述摄像头的位姿。
在一些可能的实施方式中,基于所述至少两张第一人脸图像进行驾驶状态分析,得到驾驶状态数据,包括:
从每张第一人脸图像中获取所述驾驶员的人脸位置信息,所述人脸位置信息至少包括人脸区域信息;
基于各张第一人脸图像的人脸区域信息,确定第一人脸稳定数据,所述第一人脸稳定数据用于表征各第一人脸图像的人脸中心点之间的聚集程度;
基于所述第一人脸稳定数据,确定所述驾驶员的驾驶状态数据。
在一些可能的实施方式中,基于各张第一人脸图像的人脸区域信息,确定第一人脸稳定数据,包括:
基于每张第一人脸图像的人脸区域信息,确定该第一人脸图像的人脸中心点;
基于该第一人脸图像的人脸中心点与目标人脸中心点之间的距离,确定该第一人脸图像的人脸中心偏离程度,所述目标人脸中心点对应的坐标是各第一人脸图像的人脸中心点对应的坐标的平均值;
基于各第一人脸图像的人脸中心偏离程度,确定所述第一人脸稳定数据。
在一些可能的实施方式中,所述人脸位置信息还包括人脸关键点信息,所述方法还包括:
基于各张第一人脸图像的人脸关键点信息,确定第二人脸稳定数据,所述第二人脸稳定数据包括人脸俯仰数据和/或人脸偏航数据,所述人脸俯仰数据用于表征各第一人脸图像中人脸关键点在垂直方向上的稳定程度,所述人脸偏航数据用于表征各第一人脸图像中人脸关键点在水平方向上的稳定程度;
基于所述第一人脸稳定数据,确定所述驾驶员的驾驶状态数据,包括:
将所述第一人脸稳定数据和所述第二人脸稳定数据,确定为所述驾驶员的驾驶状态数据。
在一些可能的实施方式中,根据以下步骤确定所述人脸俯仰数据:
基于每张第一人脸图像的人脸关键点信息,确定该第一人脸图像中的人脸关键点在垂直方向上的最大距离;
基于该第一人脸图像中的人脸关键点在垂直方向上的最大距离与目标距离之间的差值,确定该第一人脸图像的人脸俯仰程度,所述目标距离为各第一人脸图像中的人脸关键点在垂直方向上的最大距离的平均值;
基于各第一人脸图像的人脸俯仰程度,确定所述人脸俯仰数据。
在一些可能的实施方式中,根据以下步骤确定所述人脸偏航数据:
基于每张第一人脸图像的人脸关键点信息,确定该第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差;
基于该第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差与目标距离差之间的差值,确定该第一人脸图像的人脸偏航程度,所述目标距离差为各第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差的平均值;
基于各第一人脸图像的人脸偏航程度,确定所述人脸偏航数据。
在一些可能的实施方式中,基于每张第一人脸图像的人脸关键点信息,确定该第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差,包括:
基于每张第一人脸图像的人脸关键点信息,从该第一人脸图像中选择第一人脸关键点、第二人脸关键点和第三人脸关键点,其中,所述第一人脸关键点和所述第三人脸关键点各自对应的人脸位置关于所述第二人脸关键点对应的人脸位置对称;
基于所述第一人脸关键点和所述第二人脸关键点,确定该第一人脸图像中的人脸关键点在水平方向上的第一距离,基于所述第三人脸关键点和所述第二人脸关键点,确定该第一人脸图像中的人脸关键点在水平方向上的第二距离;将所述第一距离与所述第二距离的差值的绝对值,确定为该第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差。
在一些可能的实施方式中,当满足以下条件时,确定所述驾驶状态数据表征的驾驶稳定度达到预设稳定度:
所述第一人脸稳定数据表征的聚集程度大于预设值;
所述第二人脸稳定数据表征的稳定程度大于设定值,其中,在所述第二人脸稳定数据包括所述人脸俯仰数据时,所述人脸俯仰数据表征的稳定度大于第一设定值,在所述第二人脸稳定数据包括所述人脸偏航数据时,所述人脸偏航数据表征的稳定度大于第二设定值,在所述第二人脸稳定数据包括所述人脸俯仰数据和所述人脸偏航数据时,所述人脸俯仰数据表征的稳定度大于所述第一设定值且所述人脸偏航数据表征的稳定度大于所述第二设定值。
在一些可能的实施方式中,确定所述至少两张第一人脸图像对应的人脸端正度信息,包括:
从所述至少两张第一人脸图像中选取目标人脸图像,所述目标人脸图像的人脸中心点距离目标人脸中心点最近,所述目标人脸中心点对应的坐标是各第一人脸图像的人脸中心点对应的坐标的平均值;
基于所述目标人脸图像、所述目标人脸中心点和所述摄像头的拍摄参数,确定所述至少两张第一人脸图像对应的人脸端正度信息。
在一些可能的实施方式中,根据以下公式确定所述至少两张第一人脸图像对应的人脸端正度信息:
Figure GDA0003605732830000041
Figure GDA0003605732830000042
Figure GDA0003605732830000043
其中,roll为翻滚角,pitch为俯仰角,yaw为偏航角,(land_lx,land_ly) 和(land_rx,land_ry)为所述目标人脸图像中对称的人脸关键点的位置坐标,(Fmeanx,Fmeany)为所述目标人脸中心点对应的坐标,H为所述目标人脸图像的高,W为所述目标人脸图像的宽,α为所述摄像头在垂直方向上的视场角,β为所述摄像头在水平方向上的视场角。
在一些可能的实施方式中,基于所述位姿调整信息,调整所述摄像头的位姿之后,还包括:
按照设定幅度逐步调整所述摄像头的位姿,并获取所述摄像头在调整位姿后采集的所述驾驶员的第二人脸图像;
基于每张第二人脸图像,确定所述第二人脸图像的人眼信息,所述人眼信息用于表征左右眼球在非闭合状态下的对齐程度;
确定对齐程度最大的第二人脸图像对应的位姿信息;
基于所述位姿信息,调整所述摄像头的位姿。
在一些可能的实施方式中,基于每张第二人脸图像,确定所述第二人脸图像的人眼信息,包括:
基于每张第二人脸图像中人眼部位的人脸关键点信息,分别确定左右眼球的位置信息;
基于所述左右眼球的位置信息,确定左右眼球的对齐值,并确定左右眼球的面积和,所述对齐值用于表征左右眼球的对齐程度;
将所述左右眼球的对齐值和所述左右眼球的面积和,确定为所述第二人脸图像的人眼信息。
在一些可能的实施方式中,基于所述位姿信息,调整所述摄像头的位姿之后,还包括:
获取所述摄像头在调整位姿后采集的所述驾驶员的至少两张第三人脸图像;
基于所述至少两张第三人脸图像的人脸中心点与所述摄像头采集的图像的中心点之间的距离,确定第三人脸稳定数据,所述第三人脸稳定数据用于表征所述至少两张第三人脸图像对应的人脸端正度;
在所述第三人脸稳定数据表征的人脸端正度达到所述预设端正度时,结束本次位姿调整。
在一些可能的实施方式中,在调整所述摄像头的位姿之后,还包括:
获取所述摄像头采集的所述驾驶员的至少两张第四人脸图像;
在基于所述至少两张第四人脸图像确定所述驾驶员出现预设行为时,执行与所述预设行为对应的处理操作。
在一些可能的实施方式中,在基于所述至少两张第四人脸图像确定所述驾驶员出现预设行为时,执行与所述预设行为对应的处理操作,包括:
在基于所述至少两张第四人脸图像确定所述驾驶员注视车载中控大屏时,控制所述车载中控大屏点亮;
在基于所述至少两张第四人脸图像确定所述驾驶员出现预设不规范行为时,发送告警信息。
在一些可能的实施方式中,根据以下步骤确定所述驾驶员注视车载中控大屏:
将每张第四人脸图像输入到预先建立的眼神分类模型中进行眼神分类,并确定该第四人脸图像对应的人脸端正度信息;
若眼神分类结果为注视车载中控大屏、且人脸端正度信息表征的人脸端正度与所述预设端正度之间的差值位于预设范围内,则确定该第四人脸图像符合预设要求;
在指定时间段内符合预设要求的人脸图像数量达到预设数量时,确定所述驾驶员注视车载中控大屏。
第二方面,本申请实施例提供一种摄像头的位姿调整装置,包括:
获取单元,用于获取摄像头采集的驾驶员的至少两张第一人脸图像;
分析单元,用于基于所述至少两张第一人脸图像进行驾驶状态分析,得到驾驶状态数据,所述驾驶状态数据用于表征所述驾驶员的驾驶稳定度;
端正度确定单元,用于在所述驾驶状态数据表征的驾驶稳定度达到预设稳定度时,确定所述至少两张第一人脸图像对应的人脸端正度信息,所述人脸端正度信息用于表征人脸端正度;
位姿确定单元,用于确定将所述人脸端正度信息表征的人脸端正度调整到预设端正度时所述摄像头的位姿调整信息;
调整单元,用于基于所述位姿调整信息,调整所述摄像头的位姿。
在一些可能的实施方式中,所述分析单元具体包括:
信息获取模块,用于从每张第一人脸图像中获取所述驾驶员的人脸位置信息,所述人脸位置信息至少包括人脸区域信息;
第一确定模块,用于基于各张第一人脸图像的人脸区域信息,确定第一人脸稳定数据,所述第一人脸稳定数据用于表征各第一人脸图像的人脸中心点之间的聚集程度;
数据确定模块,用于基于所述第一人脸稳定数据,确定所述驾驶员的驾驶状态数据。
在一些可能的实施方式中,所述第一确定模块具体用于:
基于每张第一人脸图像的人脸区域信息,确定该第一人脸图像的人脸中心点;
基于该第一人脸图像的人脸中心点与目标人脸中心点之间的距离,确定该第一人脸图像的人脸中心偏离程度,所述目标人脸中心点对应的坐标是各第一人脸图像的人脸中心点对应的坐标的平均值;
基于各第一人脸图像的人脸中心偏离程度,确定所述第一人脸稳定数据。
在一些可能的实施方式中,所述人脸位置信息还包括人脸关键点信息,所述分析单元还包括:
第二确定模块,用于基于各张第一人脸图像的人脸关键点信息,确定第二人脸稳定数据,所述第二人脸稳定数据包括人脸俯仰数据和/或人脸偏航数据,所述人脸俯仰数据用于表征各第一人脸图像中人脸关键点在垂直方向上的稳定程度,所述人脸偏航数据用于表征各第一人脸图像中人脸关键点在水平方向上的稳定程度;
所述数据确定模块,还用于将所述第一人脸稳定数据和所述第二人脸稳定数据,确定为所述驾驶员的驾驶状态数据。
在一些可能的实施方式中,所述第二确定模块具体用于根据以下步骤确定所述人脸俯仰数据:
基于每张第一人脸图像的人脸关键点信息,确定该第一人脸图像中的人脸关键点在垂直方向上的最大距离;
基于该第一人脸图像中的人脸关键点在垂直方向上的最大距离与目标距离之间的差值,确定该第一人脸图像的人脸俯仰程度,所述目标距离为各第一人脸图像中的人脸关键点在垂直方向上的最大距离的平均值;
基于各第一人脸图像的人脸俯仰程度,确定所述人脸俯仰数据。
在一些可能的实施方式中,所述第二确定模块具体用于根据以下步骤确定所述人脸偏航数据:
基于每张第一人脸图像的人脸关键点信息,确定该第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差;
基于该第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差与目标距离差之间的差值,确定该第一人脸图像的人脸偏航程度,所述目标距离差为各第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差的平均值;
基于各第一人脸图像的人脸偏航程度,确定所述人脸偏航数据。
在一些可能的实施方式中,所述第二确定模块具体用于:
基于每张第一人脸图像的人脸关键点信息,从该第一人脸图像中选择第一人脸关键点、第二人脸关键点和第三人脸关键点,其中,所述第一人脸关键点和所述第三人脸关键点各自对应的人脸位置关于所述第二人脸关键点对应的人脸位置对称;
基于所述第一人脸关键点和所述第二人脸关键点,确定该第一人脸图像中的人脸关键点在水平方向上的第一距离,基于所述第三人脸关键点和所述第二人脸关键点,确定该第一人脸图像中的人脸关键点在水平方向上的第二距离;
将所述第一距离与所述第二距离的差值的绝对值,确定为该第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差。
在一些可能的实施方式中,所述端正度确定单元具体用于当满足以下条件时,确定所述驾驶状态数据表征的驾驶稳定度达到预设稳定度:
所述第一人脸稳定数据表征的聚集程度大于预设值;
所述第二人脸稳定数据表征的稳定程度大于设定值,其中,在所述第二人脸稳定数据包括所述人脸俯仰数据时,所述人脸俯仰数据表征的稳定度大于第一设定值,在所述第二人脸稳定数据包括所述人脸偏航数据时,所述人脸偏航数据表征的稳定度大于第二设定值,在所述第二人脸稳定数据包括所述人脸俯仰数据和所述人脸偏航数据时,所述人脸俯仰数据表征的稳定度大于所述第一设定值且所述人脸偏航数据表征的稳定度大于所述第二设定值。
在一些可能的实施方式中,所述端正度确定单元具体用于:
从所述至少两张第一人脸图像中选取目标人脸图像,所述目标人脸图像的人脸中心点距离目标人脸中心点最近,所述目标人脸中心点对应的坐标是各第一人脸图像的人脸中心点对应的坐标的平均值;
基于所述目标人脸图像、所述目标人脸中心点和所述摄像头的拍摄参数,确定所述至少两张第一人脸图像对应的人脸端正度信息。
在一些可能的实施方式中,所述端正度确定单元具体用于:
根据以下公式确定所述至少两张第一人脸图像对应的人脸端正度信息:
Figure GDA0003605732830000091
Figure GDA0003605732830000092
Figure GDA0003605732830000093
其中,roll为翻滚角,pitch为俯仰角,yaw为偏航角,(land_lx,land_ly) 和(land_rx,land_ry)为所述目标人脸图像中对称的人脸关键点的位置坐标, (Fmeanx,Fmeany)为所述目标人脸中心点对应的坐标,H为所述目标人脸图像的高,W为所述目标人脸图像的宽,α为所述摄像头在垂直方向上的视场角,β为所述摄像头在水平方向上的视场角。
在一些可能的实施方式中,还包括微调单元,用于:
在基于所述位姿调整信息,调整所述摄像头的位姿之后,按照设定幅度逐步调整所述摄像头的位姿,并获取所述摄像头在调整位姿后采集的所述驾驶员的第二人脸图像;
基于每张第二人脸图像,确定所述第二人脸图像的人眼信息,所述人眼信息用于表征左右眼球在非闭合状态下的对齐程度;
确定对齐程度最大的第二人脸图像对应的位姿信息;
基于所述位姿信息,调整所述摄像头的位姿。
在一些可能的实施方式中,所述微调单元具体用于:
基于每张第二人脸图像中人眼部位的人脸关键点信息,分别确定左右眼球的位置信息;
基于所述左右眼球的位置信息,确定左右眼球的对齐值,并确定左右眼球的面积和,所述对齐值用于表征左右眼球的对齐程度;
将所述左右眼球的对齐值和所述左右眼球的面积和,确定为所述第二人脸图像的人眼信息。
在一些可能的实施方式中,还包括判定单元,用于:
在基于所述位姿信息,调整所述摄像头的位姿之后,获取所述摄像头在调整位姿后采集的所述驾驶员的至少两张第三人脸图像;
基于所述至少两张第三人脸图像的人脸中心点与所述摄像头采集的图像的中心点之间的距离,确定第三人脸稳定数据,所述第三人脸稳定数据用于表征所述至少两张第三人脸图像对应的人脸端正度;
在所述第三人脸稳定数据表征的人脸端正度达到所述预设端正度时,结束本次位姿调整。
在一些可能的实施方式中,还包括处理单元,用于:
在调整所述摄像头的位姿之后,获取所述摄像头采集的所述驾驶员的至少两张第四人脸图像;
在基于所述至少两张第四人脸图像确定所述驾驶员出现预设行为时,执行与所述预设行为对应的处理操作。
在一些可能的实施方式中,所述处理单元具体用于:
在基于所述至少两张第四人脸图像确定所述驾驶员注视车载中控大屏时,控制所述车载中控大屏点亮;
在基于所述至少两张第四人脸图像确定所述驾驶员出现预设不规范行为时,发送告警信息。
在一些可能的实施方式中,所述处理单元具体用于根据以下步骤确定所述驾驶员注视车载中控大屏:
将每张第四人脸图像输入到预先建立的眼神分类模型中进行眼神分类,并确定该第四人脸图像对应的人脸端正度信息;
若眼神分类结果为注视车载中控大屏、且人脸端正度信息表征的人脸端正度与所述预设端正度之间的差值位于预设范围内,则确定该第四人脸图像符合预设要求;
在指定时间段内符合预设要求的人脸图像数量达到预设数量时,确定所述驾驶员注视车载中控大屏。
第三方面,本申请实施例提供一种电子设备,包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中:
存储器存储有可被至少一个处理器执行的指令,该指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述摄像头的位姿调整方法。
第四方面,本申请实施例提供一种存储介质,当所述存储介质中的指令由电子设备的处理器执行时,所述电子设备能够执行上述摄像头的位姿调整方法。
本申请实施例中,获取摄像头采集的驾驶员的至少两张第一人脸图像,基于这至少两张第一人脸图像进行驾驶状态分析,得到驾驶状态数据,在驾驶状态数据表征的驾驶稳定度达到预设稳定度时,确定这至少两张第一人脸图像对应的人脸端正度信息,确定将人脸端正度信息表征的人脸端正度调整到预设端正度时摄像头的位姿调整信息,进而基于位姿调整信息,调整摄像头的位姿。这样,能够自动调整摄像头的位姿,使摄像头采集的图像的人脸端正度达到预设端正度,即便更换驾驶员或驾驶员调节摄像头也可保证摄像头所采集图像的端正度。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本申请实施例提供的一种摄像头的位姿调整方法的流程图;
图2为本申请实施例提供的又一种摄像头的位姿调整方法的流程图;
图3为本申请实施例提供的一种确定第一人脸稳定数据的方法流程图;
图4为本申请实施例提供的又一种摄像头的位姿调整方法的流程图;
图5为本申请实施例提供的一种确定人脸俯仰数据的方法流程图;
图6为本申请实施例提供的一种确定人脸偏航数据的方法流程图;
图7为本申请实施例提供的一种部分人脸关键点的示意图;
图8为本申请实施例提供的又一种摄像头的位姿调整方法的流程图;
图9为本申请实施例提供的一种确定第二人脸图像的人眼信息的方法流程图;
图10为本申请实施例提供的一种左右眼球的位置示意图;
图11为本申请实施例提供的一种人脸图像的使用流程图;
图12为本申请实施例提供的一种控制车载中控大屏点亮的过程示意图;
图13为本申请实施例提供的一种摄像头的位姿调整装置的结构示意图;
图14为本申请实施例提供的一种用于实现摄像头的位姿调整方法的电子设备的硬件结构示意图。
具体实施方式
为了解决相关技术中存在的网约车上DMS摄像头采集的图像不端正的问题,本申请实施例提供了一种摄像头的位姿调整方法、装置、电子设备及存储介质。
以下结合说明书附图对本申请的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本申请,并不用于限定本申请,并且在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
为了便于理解本申请,本申请涉及的技术术语中:
首先需要说明的,本申请实施例的执行主体可以是控制器,且控制器可设置在网约车上,也可设置在网约车后台管理服务器中。另外,本申请的方案既适用于网约车也适用于除网约车之外的其他车辆,只要车辆上安装有用于采集驾驶员的图像信息的摄像头、且摄像头的图像采集范围可调即可。
图1为本申请实施例提供的一种摄像头的位姿调整方法的流程图,该方法包括以下步骤。
在步骤S101中,获取摄像头采集的驾驶员的至少两张第一人脸图像。
具体实施时,可在满足预设图像采集条件时,获取摄像头采集的驾驶员的第一人脸图像,其中,预设图像采集条件如设定周期达到、驾驶员启动车辆等。
另外,发明人发现,在车辆的运动速度达到30km/h后,驾驶员的坐姿比较标准,此时摄像头采集的图像较为端正,所以预设图像采集条件还可以是车速大于设定速度如30km/h。
在步骤S102中,基于这至少两张第一人脸图像进行驾驶状态分析,得到驾驶状态数据。
其中,驾驶状态数据用于表征驾驶员的驾驶稳定度。
在步骤S103中,在驾驶状态数据表征的驾驶稳定度达到预设稳定度时,确定这至少两张第一人脸图像对应的人脸端正度信息。
其中,人脸端正度信息用于表征人脸端正度。
具体实施时,可以确定每张第一人脸图像的人脸中心点,将各人脸中心点的坐标平均值对应的点作为目标人脸中心点,然后,从这至少两张第一人脸图像中选取人脸中心点距离目标人脸中心点最近的第一人脸图像,作为目标人脸图像,进而基于目标人脸图像、目标人脸中心点和摄像头的拍摄参数,确定这至少两张第一人脸图像对应的人脸端正度信息。
比如,根据以下公式确定这至少两张第一人脸图像对应的人脸端正度信息:
Figure GDA0003605732830000141
Figure GDA0003605732830000142
Figure GDA0003605732830000143
其中,roll为翻滚角,pitch为俯仰角,yaw为偏航角,(land_lx,land_ly) 和(land_rx,land_ry)为目标人脸图像中对称的人脸关键点的位置坐标,(Fmeanx, Fmeany)为目标人脸中心点对应的坐标,H为目标人脸图像的高,W为目标人脸图像的宽,α为摄像头在垂直方向上的视场角,β为摄像头在水平方向上的视场角,α和β为已知量。
在步骤S104中,确定将人脸端正度信息表征的人脸端正度调整到预设端正度时摄像头的位姿调整信息。
比如,假设预设端正度对应的人脸端正度信息为:(roll,pitch,yaw)= (0,0,0),则可将-roll、-pitch和-yaw,确定为将人脸端正度信息表征的人脸端正度调整到预设端正度时摄像头的位姿调整信息。
在步骤S105中,基于位姿调整信息,调整摄像头的位姿。
具体实施时,按照确定的-roll、-pitch和-yaw,依次调整摄像头的位姿即可。
图2为本申请实施例提供的又一种摄像头的位姿调整方法的流程图,该方法包括以下步骤。
在步骤S201中,获取摄像头采集的驾驶员的至少两张第一人脸图像。
在步骤S202中,从每张第一人脸图像中获取驾驶员的人脸位置信息,其中,人脸位置信息至少包括人脸区域信息。
具体实施时,可在每张第一人脸图像中进行人脸检测,将检测到的人脸区域信息作为人脸位置信息。
在步骤S203中,基于各张第一人脸图像的人脸区域信息,确定第一人脸稳定数据。
其中,第一人脸稳定数据用于表征各第一人脸图像的人脸中心点之间的聚集程度。
具体实施时,可以根据图3所示的流程,确定第一人脸稳定数据,该流程包括以下步骤:
在步骤S301a中,基于每张第一人脸图像对应的人脸区域信息,确定该第一人脸图像的人脸中心点。
假设该第一人脸图像的人脸区域信息为:人脸框左上顶点的坐标为(facex1,facey1)、右下顶点的坐标为(facex2,facey2),那么,该第一人脸图像的人脸中心点为:((facex1+facex2)/2,(facey1+facey2)/2)。
在步骤S302a中,基于该第一人脸图像的人脸中心点与目标人脸中心点之间的距离,确定该第一人脸图像的人脸中心偏离程度,其中,目标人脸中心点对应的坐标是各第一人脸图像的人脸中心点对应的坐标的平均值。
假设一共有N张第一人脸图像,则目标人脸中心点的坐标(Fmeanx,Fmeany) 为:
Figure GDA0003605732830000151
其中,(facex1i,facey1i)为第i个第一人脸图像中人脸框左上顶点的坐标,(facex2i,facey2i)为第i个第一人脸图像中人脸框右下顶点的坐标。
假设该第一人脸图像为第i个第一人脸图像,则该第一人脸图像的人脸中心偏离程度score1i为:
Figure GDA0003605732830000161
其中,th1为预先确定的第一阈值。
在步骤S303a中,基于各第一人脸图像的人脸中心偏离程度,确定第一人脸稳定数据。
比如,根据以下公式确定第一人脸稳定数据Fscore1:
Figure GDA0003605732830000162
在步骤S204中,基于第一人脸稳定数据,确定驾驶员的驾驶状态数据。
比如,将第一人脸稳定数据,确定为驾驶员的驾驶状态数据。
在步骤S205中,在驾驶状态数据表征的驾驶稳定度达到预设稳定度时,确定这至少两张第一人脸图像对应的人脸端正度信息。
比如,在第一人脸稳定数据表征的聚集程度大于预设值比如Fscore1大于 0.70时,确定这至少两张第一人脸图像对应的人脸端正度信息。
在步骤S206中,确定将人脸端正度信息表征的人脸端正度调整到预设端正度时摄像头的位姿调整信息。
在步骤S207中,基于位姿调整信息,调整摄像头的位姿。
图4为本申请实施例提供的又一种摄像头的位姿调整方法的流程图,该方法包括以下步骤。
在步骤S401中,获取摄像头采集的驾驶员的至少两张第一人脸图像。
在步骤S402中,从这至少两张第一人脸图像中获取驾驶员的人脸位置信息,其中,人脸位置信息包括人脸区域信息和人脸关键点信息。
具体实施时,可在每张第一人脸图像中进行人脸检测,在检测到人脸区域之后,再在人脸区域进行人脸关键点检测,进而将人脸区域信息和人脸关键点信息均作为该第一人脸图像的人脸位置信息。
其中,每个第一人脸图像的人脸区域信息为:第一人脸图像中人脸框左上顶点的坐标为(facex1,facey1)、右下顶点的坐标为(facex2,facey2),人脸关键点信息为:(landxj,landyj),其中,j为人脸关键点的编号,取值从1到106。
在步骤S403中,基于各张第一人脸图像的人脸区域信息,确定第一人脸稳定数据。
该步骤的实施可参见步骤S203的实施,在此不再赘述。
在步骤S404中,基于各张第一人脸图像的人脸关键点信息,确定第二人脸稳定数据,其中,第二人脸稳定数据包括人脸俯仰数据和/或人脸偏航数据。
这里,人脸俯仰数据用于表征各第一人脸图像中人脸关键点在垂直方向上的稳定程度,人脸偏航数据用于表征各第一人脸图像中人脸关键点在水平方向上的稳定程度。
具体实施时,可以根据图5所示的流程,确定人脸俯仰数据,该流程包括以下步骤:
在步骤S501a中,基于每张第一人脸图像的人脸关键点信息,确定该第一人脸图像中的人脸关键点在垂直方向上的最大距离。
以该第一人脸图像为第i个人脸图像为例,可根据以下公式确定该第一人脸图像中的人脸关键点在垂直方向上的最大距离:
ymaxi=max(landyj),ymini=min(landyj)j=1,2,...106;
di=ymaxi-ymini
其中,ymaxi为该第一人脸图像的106个人脸关键点的最大纵坐标,ymini为该第一人脸图像的106个人脸关键点的最大横坐标,di为该第一人脸图像中的人脸关键点在垂直方向上的最大距离。
在步骤S502a中,基于该第一人脸图像中的人脸关键点在垂直方向上的最大距离与目标距离之间的差值,确定该第一人脸图像的人脸俯仰程度,其中,目标距离为各第一人脸图像中的人脸关键点在垂直方向上的最大距离的平均值。
比如,根据以下公式确定该第一人脸图像的人脸俯仰程度score2i
Figure GDA0003605732830000181
Figure GDA0003605732830000182
其中,d为目标距离,th2为预先确定的第二阈值。
在步骤S503a中,基于各第一人脸图像的人脸俯仰程度,确定人脸俯仰数据。
比如,根据以下公式确定人脸俯仰数据Fscore2:
Figure GDA0003605732830000183
具体实施时,可以根据图6所示的流程,确定人脸偏航数据,该流程包括以下步骤:
在步骤S601a中,基于每张第一人脸图像的人脸关键点信息,确定该第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差。
具体实施时,可基于每张第一人脸图像对应的人脸关键点信息,从该第一人脸图像中选择第一人脸关键点、第二人脸关键点和第三人脸关键点,其中,第一人脸关键点和第三人脸关键点各自对应的人脸位置关于第二人脸关键点对应的人脸位置对称,然后,基于第一人脸关键点和第二人脸关键点,确定该第一人脸图像中的人脸关键点在水平方向上的第一距离,即将第一人脸关键点和第二人脸关键点在水平方向上的距离差作为第一距离,基于第三人脸关键点和第二人脸关键点,确定该第一人脸图像中的人脸关键点在水平方向上的第二距离,即将第二人脸关键点和第三人脸关键点在水平方向上的距离差作为第二距离,然后,将第一距离与第二距离的差值的绝对值,确定为该第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差。
参见图7,图7示出了部分人脸关键点:关键点0、5、8、24、27、32、 46,其中,关键点5、27所对应的人脸部位关于关键点46对应的人脸部位对称,因此,可选取关键点5为第一人脸关键点、关键点27为第三人脸关键点、关键点46为第二人脸关键点。以该第一人脸图像为第i个人脸图像为例,可根据以下公式,确定该第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差d’i
dli=|landx46-landx5|,dri=|landx27-landx46|;
d’i=|dli-dri|。
在步骤S602a中,基于该第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差与目标距离差之间的差值,确定该第一人脸图像的人脸偏航程度,其中,目标距离差为各第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差的平均值。
比如,根据以下公式确定该第一人脸图像的人脸偏航程度score3i
Figure GDA0003605732830000191
Figure GDA0003605732830000192
其中,d’为目标距离差,th3为预先确定的第三阈值。
在步骤S603a中,基于各第一人脸图像的人脸偏航程度,确定人脸偏航数据。
比如,根据以下公式确定人脸偏航数据Fscore3:
Figure GDA0003605732830000193
在步骤S405中,将第一人脸稳定数据和第二人脸稳定数据,确定为驾驶员的驾驶状态数据。
在步骤S406中,在驾驶状态数据表征的驾驶稳定度达到预设稳定度时,确定这至少两张第一人脸图像对应的人脸端正度信息。
第一种情况,驾驶状态数据包括第一人脸稳定数据和人脸俯仰数据,此时,在第一人脸稳定数据表征的聚集程度大于预设值、且人脸俯仰数据表征的稳定度大于第一设定值,比如Fscore1大于0.70且Fscore2大于0.8,时,确定驾驶状态数据表征的驾驶稳定度达到预设稳定度。
第二种情况,驾驶状态数据包括第一人脸稳定数据和人脸偏航数据,此时,在第一人脸稳定数据表征的聚集程度大于预设值、且人脸偏航数据表征的稳定度大于第二设定值时,比如Fscore1大于0.70且Fscore3大于0.8,确定驾驶状态数据表征的驾驶稳定度达到预设稳定度。
第三种情况,驾驶状态数据包括第一人脸稳定数据、人脸俯仰数据和人脸偏航数据,此时,在第一人脸稳定数据表征的聚集程度大于预设值、人脸俯仰数据表征的稳定度大于第一设定值、且人脸偏航数据表征的稳定度大于第二设定值,比如Fscore1大于0.70、Fscore2大于0.8且Fscore3大于0.8时,确定驾驶状态数据表征的驾驶稳定度达到预设稳定度。
在步骤S407中,确定将人脸端正度信息表征的人脸端正度调整到预设端正度时摄像头的位姿调整信息。
在步骤S408中,基于位姿调整信息,调整摄像头的位姿。
需要说明的是,上述流程中S403和S404之间没有严格的先后顺序关系。
此外,为了进一步提升摄像头采集的图像的人脸端正度,上述任一实施例中,在调整摄像头的位姿之后,还可包括图8所示的流程,该流程包括以下步骤:
在步骤S801中,按照设定幅度逐步调整摄像头的位姿,并获取摄像头在调整位姿后采集的驾驶员的第二人脸图像。
以当前摄像头的位姿即pitch、yaw、roll为基线,并分别设置pitch、yaw、roll的搜索范围,比如,pitch的搜索范围为[-3°,3°],yaw的搜索范围为[-3°, 3°],roll的搜索范围为[-3°,3°],搜索步长均为1°。
后续,按照设定幅度调整pitch、yaw、roll中的任一个,摄像头的位姿就会被微调,同时,可获取摄像头在微调位姿后采集的驾驶员的第二人脸图像,这样,不同第二人脸图像对应的位姿不同,分析第二人脸图像即可找到期望的位姿。
在步骤S802中,基于每张第二人脸图像,确定第二人脸图像的人眼信息,其中,人眼信息用于表征左右眼球在非闭合状态下的对齐程度。
实际应用中,在人眼处于非闭合状态下时,摄像头越正对人脸,摄像头所采集的人脸图像中眼球的面积越大,基于此可根据图9所示的流程,确定第二人脸图像的人眼信息,该流程包括以下步骤:
在步骤S901a中,基于每张第二人脸图像中人眼部位的人脸关键点信息,分别确定左右眼球的位置信息。
在步骤S902a中,基于左右眼球的位置信息,确定左右眼球的对齐值,并确定左右眼球的面积和,其中,对齐值用于表征左右眼球的对齐程度。
参见图10,为本申请实施例提供的左右眼球的位置示意图,其中,原点(0, 0)位于图像左上角,x轴水平向右,y轴垂直向下,左眼球所在区域左上顶点的坐标为(xmin_l,ymin_l)、右下顶点的坐标为(xmax_l,ymax_l),右眼球所在区域的左上顶点的坐标为(xmin_r,ymin_r)、右下顶点的坐标为(xmax_r, ymax_r)。
那么,roll的搜索条件可为:
ys1=min(ymin_l,ymin_r);ys2=max(ymin_l,ymin_r)
ye1=min(ymax_l,ymax_r);ye2=max(ymax_l,ymax_r);
Figure GDA0003605732830000211
pitch与yaw的搜索条件可为:
area1=(xmax_l-xmin_l)*(ymax_l-ymin_l)
area2=(xmax_r-xmin_r)*(ymax_r-ymin_r)
Area=area1+area2;
其中,rate为左右眼球的对齐值,Area为左右眼球的面积和。
在步骤S903a中,将左右眼球的对齐值和左右眼球的面积和,确定为第二人脸图像的人眼信息。
分析图10可知,左右眼球越对齐,rate的值越大,眼睛睁得越大,左右眼球的面积和也最大,所以可将左右眼球的对齐值和左右眼球的面积和,确定为第二人脸图像的人眼信息。
在步骤S803中,确定对齐程度最大的第二人脸图像对应的位姿信息。
在步骤S804中,基于确定的位姿信息,调整摄像头的位姿。
在步骤S805中,获取摄像头在调整位姿后采集的驾驶员的至少两张第三人脸图像。
在步骤S806中,基于这至少两张第三人脸图像的人脸中心点与摄像头采集的图像的中心点之间的距离,确定第三人脸稳定数据,其中,第三人脸稳定数据用于表征这至少两张第三人脸图像对应的人脸端正度。
在步骤S807中,在第三人脸稳定数据表征的人脸端正度达到预设端正度时,结束本次位姿调整。
另外,在使用上述任一实施例调整完摄像头的位姿之后,摄像头所采集的人脸图像是比较端正的,利用这些人脸图像所执行的操作的准确性也是比较高的。所以上述任一实施例还可包括图11所示的流程,该流程包括以下步骤。
在步骤S1101中,获取摄像头采集的驾驶员的至少两张第四人脸图像。
在步骤S1102中,在基于这至少两张第四人脸图像确定驾驶员出现预设行为时,执行与预设行为对应的处理操作。
比如,在基于这至少两张第四人脸图像确定驾驶员注视车载中控大屏时,控制车载中控大屏点亮。
具体实施时,可将每张第四人脸图像输入到预先建立的眼神分类模型中进行眼神分类,并确定该第四人脸图像对应的人脸端正度信息,若眼神分类结果为注视车载中控大屏、且人脸端正度信息表征的人脸端正度与预设端正度之间的差值位于预设范围内,则确定该第四人脸图像符合预设要求,在指定时间段内符合预设要求的人脸图像数量达到预设数量时,确定驾驶员注视车载中控大屏,进而可控制车载中控大屏点亮。由于摄像头采集的第四人脸图像的人脸端正度比较好,所以利用第四人脸图像确定驾驶员是否看车载中控大屏的准确率也比较高,对车载中控大屏的眼神控制也更准确。
再比如,在基于这至少两张第四人脸图像确定驾驶员出现预设不规范行为时,发送告警信息,其中,预设不规范行为如打瞌睡、疲倦等。
下面以用眼神控制车载中控大屏为例对本申请的方案进行介绍。
图12为本申请实施例提供的一种控制车载中控大屏点亮的过程示意图,包括dms摄像头校正模块、视场角定位模块、中控屏智能策略定制模块。下面分别对各个模块进行说明。
A、dms摄像头校正模块,用于校正摄像头所采集的人脸图像的端正度,可包括以下几个模块。
A1、触发模块(解决何时启动dms摄像头校正模块)
驾驶员开车过程中,当车速>=30km/h,且无左右转向时,可获取dms摄像头采集的驾驶员的人脸图像,将人脸图像输入到深度学习模型中进行人脸检测和人脸关键点检测,深度学习模型可输出人脸区域信息:人脸框左上顶点的坐标为(facex1,facey1),右下顶点的坐标为(facex2,facey2),以及人脸关键点的位置信息:(landxj,landyj),其中j取值为1至106。
具体实施时,可获取dms摄像头采集的N张连续的人脸图像,基于这N 张连续的人脸图像判断驾驶员的人脸稳定性。
比如,人脸框稳定状态判决公式如下:
Figure GDA0003605732830000241
Figure GDA0003605732830000242
Figure GDA0003605732830000243
其中,(facex1i,facey1i)为第i个第一人脸图像中人脸框左上顶点的坐标,(facex2i,facey2i)为第i个第一人脸图像中人脸框右下顶点的坐标, (Fmeanx,Fmeany)是这连续N张人脸图像的人脸中心点的坐标平均值,针对第i张人脸图像,当其人脸中心点的坐标与坐标平均值的横纵坐标差异都小于第一阈值th1时,score1i为1,否则,score1i为0,计算N张人脸图像的总score1得到Fscore1,当Fscore1大于0.7时,说明驾驶员的人脸框处于稳定状态。
人脸关键点的稳定状态主要通过俯仰和偏航来判决,公式如下:
俯仰判决:
Figure GDA0003605732830000244
其中,ymaxi是第i张人脸图像的106个人脸关键点的最大纵坐标,ymini是第 i张人脸图像的106个人脸关键点的最小纵坐标,di是第i张人脸图像的人脸关键点在垂直方向上的最大距离,d是N张人脸图像的人脸关键点在垂直方向上的最大距离的平均值,当di与d之差的绝对值小于第二阈值th2时,score2i为 1,否则,score2i为0,统计N张人脸图像的score2得到Fscore2,当Fscore2大于 0.8时,说明驾驶员的人脸在垂直方向上进入稳定状态。
偏航判决:
Figure GDA0003605732830000251
参见图7,关键点5和关键点27关于关键点46对称分布,所以可利用第 i张人脸图像的关键点5和46,计算左侧距离差dli,利用第i张人脸图像的关键点27和46,计算右侧距离差dri,然后,计算左右差值d’i,d’是N张人脸图像的左右差值的平均值,当d’i与d’之差的绝对值小于第三阈值th3时,score3i为1,否则,score3i为0,统计N张人脸图像的score3得到Fscore3,当Fscore3大于0.8时,说明驾驶员的人脸在水平方向上进入稳定状态。
稳定状态需要兼顾以上三个方面的信息,同时满足时可保证驾驶员头部姿态的稳定状态,此时再计算人脸端正度信息。
A2、角度计算模块(解决如何精确计算旋转角度的问题)
在上面的N张人脸图像中选取目标人脸图像,目标人脸图像可按照如下公式选择:
Figure GDA0003605732830000252
然后,利用目标人脸图像计算人脸图像的人脸端正度信息。
1、俯仰角pitch、偏航角yaw、翻滚角roll的初定位
1.1roll计算
从目标人脸图像中选取多组对称人脸关键点,如左眼球的关键点坐标 (land_lx,land_ly)和右眼球关键点坐标(land_rx,land_ry),则:
Figure GDA0003605732830000253
此外,参见图7,外轮廓上的关键点对(0,32),(5,27),(8,24)都可用来计算roll,当计算出多个roll时,取均值作为最终的roll即可。
1.2、pitch与yaw的计算。
目的是使摄像头所采集人脸图像中的人脸框靠近图像中心位置。
假设摄像头所采集图像的宽和高为640*360,则图像中心点的坐标为(320, 180),而当前摄像头所采集图像的中心点的坐标为(Fmeanx,Fmeany),比较两者之间差异,计算公式如下:
Figure GDA0003605732830000261
其中,α与β分别为摄像机的垂直方向上的视场角和水平方向上的视场角,是已知参数。
之后,可按roll,pitch,yaw的顺序依次控制摄像头旋转,从而调整摄像头的位姿。
2、pitch、yaw、roll精定位
由于上述pitch、yaw、roll的计算精度不高,摄像头按上述角度旋转后只能达到较为准确的位姿,为获取更精准的位姿,可以当前pitch、yaw、roll为基线,pitch设置搜索范围是[-3°,3°],yaw设置搜索范围是[-3°,3°],roll 设置搜索范围是[-3°,3°],步长均为1°进行搜索,每调整一次位姿,获取一次人脸图像,同时使用眼球的上下左右距离进行判决,当摄像头越正视人脸时,效果越好。
左右眼球的眼球框确定方式一致,以左眼球为例。具体实施时,可从获取的人脸图像中获取左眼的所有关键点点集,基于这些关键点点集将左眼从人脸图像中分割出来,然后,从分割图像中确定出左眼球的眼球框。之后,基于左眼球的眼球框和右眼球的眼球框判断对应位姿的图像采集效果。
参见图10,roll的搜索条件可为:
ys1=min(ymin_l,ymin_r);ys2=max(ymin_l,ymin_r)
ye1=min(ymax_l,ymax_r);ye2=max(ymax_l,ymax_r)
Figure GDA0003605732830000271
pitch与yaw的搜索条件可为:
area1=(xmax_l-xmin_l)*(ymax_l-ymin_l)
area2=(xmax_r-xmin_r)*(ymax_r-ymin_r)
Area=area1+area2。
在初定位基础上,设置搜索范围与条件使得rate与area的和达到最大时,即可得到更精准的pitch、yaw和roll,基于得到的更精准的pitch、yaw和roll 微调摄像头即可。
A3、旋转校验模块(验证旋转后图像采集效果是否满足要求)
再次获取驾驶员的人脸图像,将触发模块公式中的(Fmeanx,Fmeany) 默认设置为(320,180),计算Fscore1,当Fscore1大于0.85,则代表完成dms摄像头校正。
B,视场角定位模块,用于观测驾驶员当前的视线关注点,可包括以下几个模块。
B1、眼神分类模块(已经过dms摄像头校准)
预先采集大量车内驾驶员不关注车载中控大屏方向的图像作为负样本,采集大量车内驾驶员关注车载中控大屏方向的图像作为正样本。针对正负样本均进行人脸检测,截取人脸框的上半部分作为训练样本集,标注正样本的输出标签为1,负样本的输出标签为0,之后,利用标注后的训练样本集训练眼神分类模型,其中,模型可采用shufflenet网络结构,损失函数可选择二分类交叉熵损失函数。
在基于上述dms摄像头矫正模块矫正摄像头之后,将dms摄像头采集的驾驶员的人脸图像输入预先训练的眼神分类模型,得到判决结果result1,其中, result1为1表示驾驶员关注车载中控大屏,result1为0表示驾驶员未关注车载中控大屏。
B2、姿态估计模块
针对上述正样本,在进行人脸关键点检测后,基于获得的106个人脸关键点,进行姿态估计,每个正样本的姿态使用(pitch,yaw,roll)来描述,计算所有正样本的姿态的平均值(pitch_mean,yaw_mean,roll_mean)。
在基于上述dms摄像头矫正模块矫正摄像头之后,对dms摄像头采集的驾驶员的人脸图像进行人脸关键点检测,基于检测到的人脸关键点对应的位姿(pitch,yaw,roll),基于(pitch,yaw,roll)和(pitch_mean,yaw_mean,roll_mean),确定判决结果result2。
Figure GDA0003605732830000281
当result1与result2同时满足要求时,判定当前驾驶员的视线方向朝向车载中控大屏。
C,中控屏智能策略定制模块,用于基于设定策略控制中控屏的点亮与熄灭。
当车速为0时,熄灭状态下:5s内连续3s看向车载中控大屏,则触发点亮屏幕;点亮状态下:15s内无触发自动熄灭屏幕。
当车速不为0时,熄灭状态下:5s内有3次看向车载中控大屏,则触发点亮屏幕;点亮状态下:15s内无触发自动熄灭屏幕。
另外,可向驾驶员开放设定策略的设置权限,即,驾驶员可根据个人喜好设置设定策略,而为了保证驾驶安全,还可对驾驶员设置的设定策略进行策略校验。
基于相同的技术构思,本申请实施例还提供一种摄像头的位姿调整装置,摄像头的位姿调整装置解决问题的原理与上述摄像头的位姿调整方法相似,因此摄像头的位姿调整装置的实施可参见摄像头的位姿调整方法的实施,重复之处不再赘述。图13为本申请实施例提供的一种摄像头的位姿调整装置的结构示意图,包括获取单元1301、分析单元1302、端正度确定单元1303、位姿确定单元1304、调整单元1305。
获取单元1301,用于获取摄像头采集的驾驶员的至少两张第一人脸图像;
分析单元1302,用于基于所述至少两张第一人脸图像进行驾驶状态分析,得到驾驶状态数据,所述驾驶状态数据用于表征所述驾驶员的驾驶稳定度;
端正度确定单元1303,用于在所述驾驶状态数据表征的驾驶稳定度达到预设稳定度时,确定所述至少两张第一人脸图像对应的人脸端正度信息,所述人脸端正度信息用于表征人脸端正度;
位姿确定单元1304,用于确定将所述人脸端正度信息表征的人脸端正度调整到预设端正度时所述摄像头的位姿调整信息;
调整单元1305,用于基于所述位姿调整信息,调整所述摄像头的位姿。
在一些可能的实施方式中,所述分析单元1302具体包括:
信息获取模块13021,用于从每张第一人脸图像中获取所述驾驶员的人脸位置信息,所述人脸位置信息至少包括人脸区域信息;
第一确定模块13022,用于基于各张第一人脸图像的人脸区域信息,确定第一人脸稳定数据,所述第一人脸稳定数据用于表征各第一人脸图像的人脸中心点之间的聚集程度;
数据确定模块13023,用于基于所述第一人脸稳定数据,确定所述驾驶员的驾驶状态数据。
在一些可能的实施方式中,所述第一确定模块13022具体用于:
基于每张第一人脸图像的人脸区域信息,确定该第一人脸图像的人脸中心点;
基于该第一人脸图像的人脸中心点与目标人脸中心点之间的距离,确定该第一人脸图像的人脸中心偏离程度,所述目标人脸中心点对应的坐标是各第一人脸图像的人脸中心点对应的坐标的平均值;
基于各第一人脸图像的人脸中心偏离程度,确定所述第一人脸稳定数据。
在一些可能的实施方式中,所述人脸位置信息还包括人脸关键点信息,所述分析单元1302还包括:
第二确定模块13024,用于基于各张第一人脸图像的人脸关键点信息,确定第二人脸稳定数据,所述第二人脸稳定数据包括人脸俯仰数据和/或人脸偏航数据,所述人脸俯仰数据用于表征各第一人脸图像中人脸关键点在垂直方向上的稳定程度,所述人脸偏航数据用于表征各第一人脸图像中人脸关键点在水平方向上的稳定程度;
所述数据确定模块13023,还用于将所述第一人脸稳定数据和所述第二人脸稳定数据,确定为所述驾驶员的驾驶状态数据。
在一些可能的实施方式中,所述第二确定模块13024具体用于根据以下步骤确定所述人脸俯仰数据:
基于每张第一人脸图像的人脸关键点信息,确定该第一人脸图像中的人脸关键点在垂直方向上的最大距离;
基于该第一人脸图像中的人脸关键点在垂直方向上的最大距离与目标距离之间的差值,确定该第一人脸图像的人脸俯仰程度,所述目标距离为各第一人脸图像中的人脸关键点在垂直方向上的最大距离的平均值;
基于各第一人脸图像的人脸俯仰程度,确定所述人脸俯仰数据。
在一些可能的实施方式中,所述第二确定模块13024具体用于根据以下步骤确定所述人脸偏航数据:
基于每张第一人脸图像的人脸关键点信息,确定该第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差;
基于该第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差与目标距离差之间的差值,确定该第一人脸图像的人脸偏航程度,所述目标距离差为各第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差的平均值;
基于各第一人脸图像的人脸偏航程度,确定所述人脸偏航数据。
在一些可能的实施方式中,所述第二确定模块13024具体用于:
基于每张第一人脸图像的人脸关键点信息,从该第一人脸图像中选择第一人脸关键点、第二人脸关键点和第三人脸关键点,其中,所述第一人脸关键点和所述第三人脸关键点各自对应的人脸位置关于所述第二人脸关键点对应的人脸位置对称;
基于所述第一人脸关键点和所述第二人脸关键点,确定该第一人脸图像中的人脸关键点在水平方向上的第一距离,基于所述第三人脸关键点和所述第二人脸关键点,确定该第一人脸图像中的人脸关键点在水平方向上的第二距离;
将所述第一距离与所述第二距离的差值的绝对值,确定为该第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差。
在一些可能的实施方式中,所述端正度确定单元1303具体用于当满足以下条件时,确定所述驾驶状态数据表征的驾驶稳定度达到预设稳定度:
所述第一人脸稳定数据表征的聚集程度大于预设值;
所述第二人脸稳定数据表征的稳定程度大于设定值,其中,在所述第二人脸稳定数据包括所述人脸俯仰数据时,所述人脸俯仰数据表征的稳定度大于第一设定值,在所述第二人脸稳定数据包括所述人脸偏航数据时,所述人脸偏航数据表征的稳定度大于第二设定值,在所述第二人脸稳定数据包括所述人脸俯仰数据和所述人脸偏航数据时,所述人脸俯仰数据表征的稳定度大于所述第一设定值且所述人脸偏航数据表征的稳定度大于所述第二设定值。
在一些可能的实施方式中,所述端正度确定单元1303具体用于:
从所述至少两张第一人脸图像中选取目标人脸图像,所述目标人脸图像的人脸中心点距离目标人脸中心点最近,所述目标人脸中心点对应的坐标是各第一人脸图像的人脸中心点对应的坐标的平均值;
基于所述目标人脸图像、所述目标人脸中心点和所述摄像头的拍摄参数,确定所述至少两张第一人脸图像对应的人脸端正度信息。
在一些可能的实施方式中,所述端正度确定单元1303具体用于:
根据以下公式确定所述至少两张第一人脸图像对应的人脸端正度信息:
Figure GDA0003605732830000321
Figure GDA0003605732830000322
Figure GDA0003605732830000323
其中,roll为翻滚角,pitch为俯仰角,yaw为偏航角,(land_lx,land_ly) 和(land_rx,land_ry)为所述目标人脸图像中对称的人脸关键点的位置坐标, (Fmeanx,Fmeany)为所述目标人脸中心点对应的坐标,H为所述目标人脸图像的高,W为所述目标人脸图像的宽,α为所述摄像头在垂直方向上的视场角,β为所述摄像头在水平方向上的视场角。
在一些可能的实施方式中,还包括微调单元1306,用于:
在基于所述位姿调整信息,调整所述摄像头的位姿之后,按照设定幅度逐步调整所述摄像头的位姿,并获取所述摄像头在调整位姿后采集的所述驾驶员的第二人脸图像;
基于每张第二人脸图像,确定所述第二人脸图像的人眼信息,所述人眼信息用于表征左右眼球在非闭合状态下的对齐程度;
确定对齐程度最大的第二人脸图像对应的位姿信息;
基于所述位姿信息,调整所述摄像头的位姿。
在一些可能的实施方式中,所述微调单元1306具体用于:
基于每张第二人脸图像中人眼部位的人脸关键点信息,分别确定左右眼球的位置信息;
基于所述左右眼球的位置信息,确定左右眼球的对齐值,并确定左右眼球的面积和,所述对齐值用于表征左右眼球的对齐程度;
将所述左右眼球的对齐值和所述左右眼球的面积和,确定为所述第二人脸图像的人眼信息。
在一些可能的实施方式中,还包括判定单元1307,用于:
在基于所述位姿信息,调整所述摄像头的位姿之后,获取所述摄像头在调整位姿后采集的所述驾驶员的至少两张第三人脸图像;
基于所述至少两张第三人脸图像的人脸中心点与所述摄像头采集的图像的中心点之间的距离,确定第三人脸稳定数据,所述第三人脸稳定数据用于表征所述至少两张第三人脸图像对应的人脸端正度;
在所述第三人脸稳定数据表征的人脸端正度达到所述预设端正度时,结束本次位姿调整。
在一些可能的实施方式中,还包括处理单元1308,用于:
在调整所述摄像头的位姿之后,获取所述摄像头采集的所述驾驶员的至少两张第四人脸图像;
在基于所述至少两张第四人脸图像确定所述驾驶员出现预设行为时,执行与所述预设行为对应的处理操作。
在一些可能的实施方式中,所述处理单元1308具体用于:
在基于所述至少两张第四人脸图像确定所述驾驶员注视车载中控大屏时,控制所述车载中控大屏点亮;
在基于所述至少两张第四人脸图像确定所述驾驶员出现预设不规范行为时,发送告警信息。
在一些可能的实施方式中,所述处理单元1308具体用于根据以下步骤确定所述驾驶员注视车载中控大屏:
将每张第四人脸图像输入到预先建立的眼神分类模型中进行眼神分类,并确定该第四人脸图像对应的人脸端正度信息;
若眼神分类结果为注视车载中控大屏、且人脸端正度信息表征的人脸端正度与所述预设端正度之间的差值位于预设范围内,则确定该第四人脸图像符合预设要求;
在指定时间段内符合预设要求的人脸图像数量达到预设数量时,确定所述驾驶员注视车载中控大屏。
本申请实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,另外,本申请各实施例中的各功能模块可以集成在一个处理器中,也可以是单独物理存在,也可以两个或两个以上模块集成在一个模块中。各个模块相互之间的耦合可以是通过一些接口实现,这些接口通常是电性通信接口,但是也不排除可能是机械接口或其它的形式接口。因此,作为分离部件说明的模块可以是或者也可以不是物理上分开的,既可以位于一个地方,也可以分布到同一个或不同设备的不同位置上。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
图14为本申请实施例提供的一种电子设备的结构示意图,该电子设备包括收发器1401以及处理器1402等物理器件,其中,处理器1402可以是一个中央处理单元(CentralProcessing Unit,CPU)、微处理器、专用集成电路、可编程逻辑电路、大规模集成电路、或者为数字处理单元等等。收发器1401用于电子设备和其他设备进行数据收发。
该电子设备还可以包括存储器1403用于存储处理器1402执行的软件指令,当然还可以存储电子设备需要的一些其他数据,如电子设备的标识信息、电子设备的加密信息、用户数据等。存储器1403可以是易失性存储器(Volatile Memory),例如随机存取存储器(Random-Access Memory,RAM);存储器1403 也可以是非易失性存储器(Non-VolatileMemory),例如只读存储器(Read-Only Memory,ROM),快闪存储器(Flash Memory),硬盘(Hard Disk Drive,HDD) 或固态硬盘(Solid-State Drive,SSD)、或者存储器1403是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。存储器1403可以是上述存储器的组合。
本申请实施例中不限定上述处理器1402、存储器1403以及收发器1401 之间的具体连接介质。本申请实施例在图14中仅以存储器1403、处理器1402 以及收发器1401之间通过总线1404连接为例进行说明,总线在图14中以粗线表示,其它部件之间的连接方式,仅是进行示意性说明,并不引以为限。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图14中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
处理器1402可以是专用硬件或运行软件的处理器,当处理器1402可以运行软件时,处理器1402读取存储器1403存储的软件指令,并在所述软件指令的驱动下,执行前述实施例中涉及的摄像头的位姿调整方法。
本申请实施例还提供了一种存储介质,当所述存储介质中的指令由电子设备的处理器执行时,所述电子设备能够执行前述实施例中涉及的摄像头的位姿调整方法。
在一些可能的实施方式中,本申请提供的摄像头的位姿调整方法的各个方面还可以实现为一种程序产品的形式,所述程序产品中包括有程序代码,当所述程序产品在电子设备上运行时,所述程序代码用于使所述电子设备执行前述实施例中涉及的摄像头的位姿调整方法。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、RAM、ROM、可擦式可编程只读存储器(Erasable Programmable Read-Only Memory,EPROM)、闪存、光纤、光盘只读存储器(Compact Disk Read Only Memory,CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
本申请实施例中用于摄像头的位姿调整的程序产品可以采用CD-ROM并包括程序代码,并可以在计算设备上运行。然而,本申请的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、射频(Radio Frequency,RF)等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本申请操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++ 等,还包括常规的过程式程序设计语言诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络如局域网(Local AreaNetwork,LAN)或广域网(Wide Area Network,WAN)连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了装置的若干单元或子单元,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本申请的实施方式,上文描述的两个或更多单元的特征和功能可以在一个单元中具体化。反之,上文描述的一个单元的特征和功能可以进一步划分为由多个单元来具体化。
此外,尽管在附图中以特定顺序描述了本申请方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、 CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、装置(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和 /或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/ 或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。

Claims (30)

1.一种摄像头的位姿调整方法,其特征在于,包括:
获取摄像头采集的驾驶员的至少两张第一人脸图像;
基于所述至少两张第一人脸图像进行驾驶状态分析,得到驾驶状态数据,所述驾驶状态数据用于表征所述驾驶员的驾驶稳定度;
在所述驾驶状态数据表征的驾驶稳定度达到预设稳定度时,确定所述至少两张第一人脸图像对应的人脸端正度信息,所述人脸端正度信息用于表征人脸端正度;
确定将所述人脸端正度信息表征的人脸端正度调整到预设端正度时所述摄像头的位姿调整信息;
基于所述位姿调整信息,调整所述摄像头的位姿;
基于所述至少两张第一人脸图像进行驾驶状态分析,得到驾驶状态数据,包括:
从每张第一人脸图像中获取所述驾驶员的人脸位置信息,所述人脸位置信息至少包括人脸区域信息;
基于各张第一人脸图像的人脸区域信息,确定第一人脸稳定数据,所述第一人脸稳定数据用于表征各第一人脸图像的人脸中心点之间的聚集程度;
基于所述第一人脸稳定数据,确定所述驾驶员的驾驶状态数据;
所述人脸位置信息还包括人脸关键点信息,所述方法还包括:
基于各张第一人脸图像的人脸关键点信息,确定第二人脸稳定数据,所述第二人脸稳定数据包括人脸俯仰数据和/或人脸偏航数据,所述人脸俯仰数据用于表征各第一人脸图像中人脸关键点在垂直方向上的稳定程度,所述人脸偏航数据用于表征各第一人脸图像中人脸关键点在水平方向上的稳定程度;
基于所述第一人脸稳定数据,确定所述驾驶员的驾驶状态数据,包括:
将所述第一人脸稳定数据和所述第二人脸稳定数据,确定为所述驾驶员的驾驶状态数据。
2.如权利要求1所述的方法,其特征在于,基于各张第一人脸图像的人脸区域信息,确定第一人脸稳定数据,包括:
基于每张第一人脸图像的人脸区域信息,确定该第一人脸图像的人脸中心点;
基于该第一人脸图像的人脸中心点与目标人脸中心点之间的距离,确定该第一人脸图像的人脸中心偏离程度,所述目标人脸中心点对应的坐标是各第一人脸图像的人脸中心点对应的坐标的平均值;
基于各第一人脸图像的人脸中心偏离程度,确定所述第一人脸稳定数据。
3.如权利要求1所述的方法,其特征在于,根据以下步骤确定所述人脸俯仰数据:
基于每张第一人脸图像的人脸关键点信息,确定该第一人脸图像中的人脸关键点在垂直方向上的最大距离;
基于该第一人脸图像中的人脸关键点在垂直方向上的最大距离与目标距离之间的差值,确定该第一人脸图像的人脸俯仰程度,所述目标距离为各第一人脸图像中的人脸关键点在垂直方向上的最大距离的平均值;
基于各第一人脸图像的人脸俯仰程度,确定所述人脸俯仰数据。
4.如权利要求1所述的方法,其特征在于,根据以下步骤确定所述人脸偏航数据:
基于每张第一人脸图像的人脸关键点信息,确定该第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差;
基于该第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差与目标距离差之间的差值,确定该第一人脸图像的人脸偏航程度,所述目标距离差为各第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差的平均值;
基于各第一人脸图像的人脸偏航程度,确定所述人脸偏航数据。
5.如权利要求4所述的方法,其特征在于,基于每张第一人脸图像的人脸关键点信息,确定该第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差,包括:
基于每张第一人脸图像的人脸关键点信息,从该第一人脸图像中选择第一人脸关键点、第二人脸关键点和第三人脸关键点,其中,所述第一人脸关键点和所述第三人脸关键点各自对应的人脸位置关于所述第二人脸关键点对应的人脸位置对称;
基于所述第一人脸关键点和所述第二人脸关键点,确定该第一人脸图像中的人脸关键点在水平方向上的第一距离,基于所述第三人脸关键点和所述第二人脸关键点,确定该第一人脸图像中的人脸关键点在水平方向上的第二距离;将所述第一距离与所述第二距离的差值的绝对值,确定为该第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差。
6.如权利要求1所述的方法,其特征在于,当满足以下条件时,确定所述驾驶状态数据表征的驾驶稳定度达到预设稳定度:
所述第一人脸稳定数据表征的聚集程度大于预设值;
所述第二人脸稳定数据表征的稳定程度大于设定值,其中,在所述第二人脸稳定数据包括所述人脸俯仰数据时,所述人脸俯仰数据表征的稳定度大于第一设定值,在所述第二人脸稳定数据包括所述人脸偏航数据时,所述人脸偏航数据表征的稳定度大于第二设定值,在所述第二人脸稳定数据包括所述人脸俯仰数据和所述人脸偏航数据时,所述人脸俯仰数据表征的稳定度大于所述第一设定值且所述人脸偏航数据表征的稳定度大于所述第二设定值。
7.如权利要求1所述的方法,其特征在于,确定所述至少两张第一人脸图像对应的人脸端正度信息,包括:
从所述至少两张第一人脸图像中选取目标人脸图像,所述目标人脸图像的人脸中心点距离目标人脸中心点最近,所述目标人脸中心点对应的坐标是各第一人脸图像的人脸中心点对应的坐标的平均值;
基于所述目标人脸图像、所述目标人脸中心点和所述摄像头的拍摄参数,确定所述至少两张第一人脸图像对应的人脸端正度信息。
8.如权利要求7所述的方法,其特征在于,根据以下公式确定所述至少两张第一人脸图像对应的人脸端正度信息:
Figure FDA0003605732820000041
Figure FDA0003605732820000042
Figure FDA0003605732820000043
其中,roll为翻滚角,pitch为俯仰角,yaw为偏航角,(land_lx,land_ly)和(land_rx,land_ry)为所述目标人脸图像中对称的人脸关键点的位置坐标,(Fmeanx,Fmeany)为所述目标人脸中心点对应的坐标,H为所述目标人脸图像的高,W为所述目标人脸图像的宽,α为所述摄像头在垂直方向上的视场角,β为所述摄像头在水平方向上的视场角。
9.如权利要求1所述的方法,其特征在于,基于所述位姿调整信息,调整所述摄像头的位姿之后,还包括:
按照设定幅度逐步调整所述摄像头的位姿,并获取所述摄像头在调整位姿后采集的所述驾驶员的第二人脸图像;
基于每张第二人脸图像,确定所述第二人脸图像的人眼信息,所述人眼信息用于表征左右眼球在非闭合状态下的对齐程度;
确定对齐程度最大的第二人脸图像对应的位姿信息;
基于所述位姿信息,调整所述摄像头的位姿。
10.如权利要求9所述的方法,其特征在于,基于每张第二人脸图像,确定所述第二人脸图像的人眼信息,包括:
基于每张第二人脸图像中人眼部位的人脸关键点信息,分别确定左右眼球的位置信息;
基于所述左右眼球的位置信息,确定左右眼球的对齐值,并确定左右眼球的面积和,所述对齐值用于表征左右眼球的对齐程度;
将所述左右眼球的对齐值和所述左右眼球的面积和,确定为所述第二人脸图像的人眼信息。
11.如权利要求9所述的方法,其特征在于,基于所述位姿信息,调整所述摄像头的位姿之后,还包括:
获取所述摄像头在调整位姿后采集的所述驾驶员的至少两张第三人脸图像;
基于所述至少两张第三人脸图像的人脸中心点与所述摄像头采集的图像的中心点之间的距离,确定第三人脸稳定数据,所述第三人脸稳定数据用于表征所述至少两张第三人脸图像对应的人脸端正度;
在所述第三人脸稳定数据表征的人脸端正度达到所述预设端正度时,结束本次位姿调整。
12.如权利要求1-11任一所述的方法,其特征在于,在调整所述摄像头的位姿之后,还包括:
获取所述摄像头采集的所述驾驶员的至少两张第四人脸图像;
在基于所述至少两张第四人脸图像确定所述驾驶员出现预设行为时,执行与所述预设行为对应的处理操作。
13.如权利要求12所述的方法,其特征在于,在基于所述至少两张第四人脸图像确定所述驾驶员出现预设行为时,执行与所述预设行为对应的处理操作,包括:
在基于所述至少两张第四人脸图像确定所述驾驶员注视车载中控大屏时,控制所述车载中控大屏点亮;
在基于所述至少两张第四人脸图像确定所述驾驶员出现预设不规范行为时,发送告警信息。
14.如权利要求13所述的方法,其特征在于,根据以下步骤确定所述驾驶员注视车载中控大屏:
将每张第四人脸图像输入到预先建立的眼神分类模型中进行眼神分类,并确定该第四人脸图像对应的人脸端正度信息;
若眼神分类结果为注视车载中控大屏、且人脸端正度信息表征的人脸端正度与所述预设端正度之间的差值位于预设范围内,则确定该第四人脸图像符合预设要求;
在指定时间段内符合预设要求的人脸图像数量达到预设数量时,确定所述驾驶员注视车载中控大屏。
15.一种摄像头的位姿调整装置,其特征在于,包括:
获取单元,用于获取摄像头采集的驾驶员的至少两张第一人脸图像;
分析单元,用于基于所述至少两张第一人脸图像进行驾驶状态分析,得到驾驶状态数据,所述驾驶状态数据用于表征所述驾驶员的驾驶稳定度;
端正度确定单元,用于在所述驾驶状态数据表征的驾驶稳定度达到预设稳定度时,确定所述至少两张第一人脸图像对应的人脸端正度信息,所述人脸端正度信息用于表征人脸端正度;
位姿确定单元,用于确定将所述人脸端正度信息表征的人脸端正度调整到预设端正度时所述摄像头的位姿调整信息;
调整单元,用于基于所述位姿调整信息,调整所述摄像头的位姿;
所述分析单元具体包括:
信息获取模块,用于从每张第一人脸图像中获取所述驾驶员的人脸位置信息,所述人脸位置信息至少包括人脸区域信息;
第一确定模块,用于基于各张第一人脸图像的人脸区域信息,确定第一人脸稳定数据,所述第一人脸稳定数据用于表征各第一人脸图像的人脸中心点之间的聚集程度;
数据确定模块,用于基于所述第一人脸稳定数据,确定所述驾驶员的驾驶状态数据;
所述人脸位置信息还包括人脸关键点信息,所述分析单元还包括:
第二确定模块,用于基于各张第一人脸图像的人脸关键点信息,确定第二人脸稳定数据,所述第二人脸稳定数据包括人脸俯仰数据和/或人脸偏航数据,所述人脸俯仰数据用于表征各第一人脸图像中人脸关键点在垂直方向上的稳定程度,所述人脸偏航数据用于表征各第一人脸图像中人脸关键点在水平方向上的稳定程度;
所述数据确定模块,还用于将所述第一人脸稳定数据和所述第二人脸稳定数据,确定为所述驾驶员的驾驶状态数据。
16.如权利要求15所述的装置,其特征在于,所述第一确定模块具体用于:
基于每张第一人脸图像的人脸区域信息,确定该第一人脸图像的人脸中心点;
基于该第一人脸图像的人脸中心点与目标人脸中心点之间的距离,确定该第一人脸图像的人脸中心偏离程度,所述目标人脸中心点对应的坐标是各第一人脸图像的人脸中心点对应的坐标的平均值;
基于各第一人脸图像的人脸中心偏离程度,确定所述第一人脸稳定数据。
17.如权利要求15所述的装置,其特征在于,所述第二确定模块具体用于根据以下步骤确定所述人脸俯仰数据:
基于每张第一人脸图像的人脸关键点信息,确定该第一人脸图像中的人脸关键点在垂直方向上的最大距离;
基于该第一人脸图像中的人脸关键点在垂直方向上的最大距离与目标距离之间的差值,确定该第一人脸图像的人脸俯仰程度,所述目标距离为各第一人脸图像中的人脸关键点在垂直方向上的最大距离的平均值;
基于各第一人脸图像的人脸俯仰程度,确定所述人脸俯仰数据。
18.如权利要求15所述的装置,其特征在于,所述第二确定模块具体用于根据以下步骤确定所述人脸偏航数据:
基于每张第一人脸图像的人脸关键点信息,确定该第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差;
基于该第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差与目标距离差之间的差值,确定该第一人脸图像的人脸偏航程度,所述目标距离差为各第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差的平均值;
基于各第一人脸图像的人脸偏航程度,确定所述人脸偏航数据。
19.如权利要求18所述的装置,其特征在于,所述第二确定模块具体用于:
基于每张第一人脸图像的人脸关键点信息,从该第一人脸图像中选择第一人脸关键点、第二人脸关键点和第三人脸关键点,其中,所述第一人脸关键点和所述第三人脸关键点各自对应的人脸位置关于所述第二人脸关键点对应的人脸位置对称;
基于所述第一人脸关键点和所述第二人脸关键点,确定该第一人脸图像中的人脸关键点在水平方向上的第一距离,基于所述第三人脸关键点和所述第二人脸关键点,确定该第一人脸图像中的人脸关键点在水平方向上的第二距离;
将所述第一距离与所述第二距离的差值的绝对值,确定为该第一人脸图像中左侧人脸与右侧人脸在水平方向上的距离差。
20.如权利要求15所述的装置,其特征在于,所述端正度确定单元具体用于当满足以下条件时,确定所述驾驶状态数据表征的驾驶稳定度达到预设稳定度:
所述第一人脸稳定数据表征的聚集程度大于预设值;
所述第二人脸稳定数据表征的稳定程度大于设定值,其中,在所述第二人脸稳定数据包括所述人脸俯仰数据时,所述人脸俯仰数据表征的稳定度大于第一设定值,在所述第二人脸稳定数据包括所述人脸偏航数据时,所述人脸偏航数据表征的稳定度大于第二设定值,在所述第二人脸稳定数据包括所述人脸俯仰数据和所述人脸偏航数据时,所述人脸俯仰数据表征的稳定度大于所述第一设定值且所述人脸偏航数据表征的稳定度大于所述第二设定值。
21.如权利要求15所述的装置,其特征在于,所述端正度确定单元具体用于:
从所述至少两张第一人脸图像中选取目标人脸图像,所述目标人脸图像的人脸中心点距离目标人脸中心点最近,所述目标人脸中心点对应的坐标是各第一人脸图像的人脸中心点对应的坐标的平均值;
基于所述目标人脸图像、所述目标人脸中心点和所述摄像头的拍摄参数,确定所述至少两张第一人脸图像对应的人脸端正度信息。
22.如权利要求21所述的装置,其特征在于,所述端正度确定单元具体用于:
根据以下公式确定所述至少两张第一人脸图像对应的人脸端正度信息:
Figure FDA0003605732820000091
Figure FDA0003605732820000092
Figure FDA0003605732820000093
其中,roll为翻滚角,pitch为俯仰角,yaw为偏航角,(land_lx,land_ly)和(land_rx,land_ry)为所述目标人脸图像中对称的人脸关键点的位置坐标,(Fmeanx,Fmeany)为所述目标人脸中心点对应的坐标,H为所述目标人脸图像的高,W为所述目标人脸图像的宽,α为所述摄像头在垂直方向上的视场角,β为所述摄像头在水平方向上的视场角。
23.如权利要求15所述的装置,其特征在于,还包括微调单元,用于:
在基于所述位姿调整信息,调整所述摄像头的位姿之后,按照设定幅度逐步调整所述摄像头的位姿,并获取所述摄像头在调整位姿后采集的所述驾驶员的第二人脸图像;
基于每张第二人脸图像,确定所述第二人脸图像的人眼信息,所述人眼信息用于表征左右眼球在非闭合状态下的对齐程度;
确定对齐程度最大的第二人脸图像对应的位姿信息;
基于所述位姿信息,调整所述摄像头的位姿。
24.如权利要求23所述的装置,其特征在于,所述微调单元具体用于:
基于每张第二人脸图像中人眼部位的人脸关键点信息,分别确定左右眼球的位置信息;
基于所述左右眼球的位置信息,确定左右眼球的对齐值,并确定左右眼球的面积和,所述对齐值用于表征左右眼球的对齐程度;
将所述左右眼球的对齐值和所述左右眼球的面积和,确定为所述第二人脸图像的人眼信息。
25.如权利要求23所述的装置,其特征在于,还包括判定单元,用于:
在基于所述位姿信息,调整所述摄像头的位姿之后,获取所述摄像头在调整位姿后采集的所述驾驶员的至少两张第三人脸图像;
基于所述至少两张第三人脸图像的人脸中心点与所述摄像头采集的图像的中心点之间的距离,确定第三人脸稳定数据,所述第三人脸稳定数据用于表征所述至少两张第三人脸图像对应的人脸端正度;
在所述第三人脸稳定数据表征的人脸端正度达到所述预设端正度时,结束本次位姿调整。
26.如权利要求15-25任一所述的装置,其特征在于,还包括处理单元,用于:
在调整所述摄像头的位姿之后,获取所述摄像头采集的所述驾驶员的至少两张第四人脸图像;
在基于所述至少两张第四人脸图像确定所述驾驶员出现预设行为时,执行与所述预设行为对应的处理操作。
27.如权利要求26所述的装置,其特征在于,所述处理单元具体用于:
在基于所述至少两张第四人脸图像确定所述驾驶员注视车载中控大屏时,控制所述车载中控大屏点亮;
在基于所述至少两张第四人脸图像确定所述驾驶员出现预设不规范行为时,发送告警信息。
28.如权利要求27所述的装置,其特征在于,所述处理单元具体用于根据以下步骤确定所述驾驶员注视车载中控大屏:
将每张第四人脸图像输入到预先建立的眼神分类模型中进行眼神分类,并确定该第四人脸图像对应的人脸端正度信息;
若眼神分类结果为注视车载中控大屏、且人脸端正度信息表征的人脸端正度与所述预设端正度之间的差值位于预设范围内,则确定该第四人脸图像符合预设要求;
在指定时间段内符合预设要求的人脸图像数量达到预设数量时,确定所述驾驶员注视车载中控大屏。
29.一种电子设备,其特征在于,包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中:
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1-14任一所述的方法。
30.一种存储介质,其特征在于,当所述存储介质中的指令由电子设备的处理器执行时,所述电子设备能够执行如权利要求1-14任一所述的方法。
CN202110695579.8A 2021-06-23 2021-06-23 一种摄像头的位姿调整方法、装置、电子设备及存储介质 Active CN113379832B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110695579.8A CN113379832B (zh) 2021-06-23 2021-06-23 一种摄像头的位姿调整方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110695579.8A CN113379832B (zh) 2021-06-23 2021-06-23 一种摄像头的位姿调整方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN113379832A CN113379832A (zh) 2021-09-10
CN113379832B true CN113379832B (zh) 2022-06-07

Family

ID=77578488

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110695579.8A Active CN113379832B (zh) 2021-06-23 2021-06-23 一种摄像头的位姿调整方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN113379832B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114758208B (zh) * 2022-06-14 2022-09-06 深圳市海清视讯科技有限公司 考勤设备调整方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919049A (zh) * 2019-02-21 2019-06-21 北京以萨技术股份有限公司 基于深度学习人脸姿态估计的疲劳检测方法
CN110647811A (zh) * 2019-08-15 2020-01-03 中国平安人寿保险股份有限公司 人脸姿态检测方法、装置及计算机可读存储介质
CN110826521A (zh) * 2019-11-15 2020-02-21 爱驰汽车有限公司 驾驶员疲劳状态识别方法、系统、电子设备和存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109960986A (zh) * 2017-12-25 2019-07-02 北京市商汤科技开发有限公司 人脸姿态分析方法、装置、设备、存储介质以及程序

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919049A (zh) * 2019-02-21 2019-06-21 北京以萨技术股份有限公司 基于深度学习人脸姿态估计的疲劳检测方法
CN110647811A (zh) * 2019-08-15 2020-01-03 中国平安人寿保险股份有限公司 人脸姿态检测方法、装置及计算机可读存储介质
CN110826521A (zh) * 2019-11-15 2020-02-21 爱驰汽车有限公司 驾驶员疲劳状态识别方法、系统、电子设备和存储介质

Also Published As

Publication number Publication date
CN113379832A (zh) 2021-09-10

Similar Documents

Publication Publication Date Title
US10726576B2 (en) System and method for identifying a camera pose of a forward facing camera in a vehicle
CN106981082B (zh) 车载摄像头标定方法、装置及车载设备
DE102015107677B4 (de) Rundum-Sicht-Kamerasystem- (VPM-) Online-Kalibrierung
US9927811B1 (en) Control system and method for controlling mobile warning triangle
WO2019104622A1 (zh) 差异校准方法、双目视觉系统和计算机可读存储介质
CN105205458A (zh) 人脸活体检测方法、装置及系统
DE102016107938A1 (de) Vorausschauende Echtzeit-Geschwindigkeitsregelung
US11288777B2 (en) Image processing device, image processing method, and program
BR112014003488B1 (pt) sistema e método para identificar um motorista
DE102011081370A1 (de) Vorrichtung zur Unterstützung der Fahrt eines mobilen Objekts auf der Grundlage von dessen Sollortskurve
CN112912932B (zh) 一种车载摄像头的标定方法、装置及终端设备
CN113379832B (zh) 一种摄像头的位姿调整方法、装置、电子设备及存储介质
DE102018201509A1 (de) Verfahren und Vorrichtung zum Betreiben eines Anzeigesystems mit einer Datenbrille
CN111539333A (zh) 驾驶员的注视区域识别及分心检测方法
WO2018225067A1 (en) Fusion and calibration of sensor signals in a moving vehicle
JP2009009331A (ja) 白線検出装置および白線検出方法
CN109144250B (zh) 一种位置调节的方法、装置、设备及存储介质
CN106394408A (zh) 一种后视镜的调节方法及装置
WO2020237940A1 (zh) 一种基于人眼状态识别的疲劳检测方法及装置
CN110199318A (zh) 驾驶员状态推定装置以及驾驶员状态推定方法
US20200192476A1 (en) Method for Operating an Assist System for a Vehicle, and Assist System
JP7348734B2 (ja) 車両の運転情報提供装置、車両の運転情報提供方法及びプログラム
CN110888441A (zh) 一种基于陀螺仪的轮椅车控制系统
WO2020237941A1 (zh) 一种基于眼睑特征信息的人员状态检测方法及装置
US10257405B2 (en) Automatic focusing method and automatic focusing system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant