CN118092828A - 信息显示方法、装置、设备、存储介质及车辆 - Google Patents
信息显示方法、装置、设备、存储介质及车辆 Download PDFInfo
- Publication number
- CN118092828A CN118092828A CN202211489042.7A CN202211489042A CN118092828A CN 118092828 A CN118092828 A CN 118092828A CN 202211489042 A CN202211489042 A CN 202211489042A CN 118092828 A CN118092828 A CN 118092828A
- Authority
- CN
- China
- Prior art keywords
- information
- target
- target user
- coordinate information
- feature information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 230000001815 facial effect Effects 0.000 claims abstract description 121
- 238000001514 detection method Methods 0.000 claims abstract description 33
- 230000008569 process Effects 0.000 claims abstract description 17
- 238000013507 mapping Methods 0.000 claims description 38
- 238000012417 linear regression Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 8
- 230000036544 posture Effects 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000003044 adaptive effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 210000000887 face Anatomy 0.000 description 4
- 239000000446 fuel Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 239000002699 waste material Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003756 stirring Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ophthalmology & Optometry (AREA)
- General Engineering & Computer Science (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本申请公开了一种信息显示方法、装置、设备、存储介质及车辆。其中,该方法包括:获取目标用户的面部图像;对面部图像进行面部特征检测,确定目标用户的面部特征信息和眼部特征信息,眼部特征信息包括与目标用户的眼部位置对应的目标坐标信息;确定面部特征信息与预设特征信息是否匹配;在面部特征信息与预设特征信息匹配的情况下,根据目标坐标信息与显示系统的投影位置之间的对应关系确定目标投影位置;控制显示系统在目标投影位置对应的区域内进行信息显示。根据本申请实施例的信息显示方法,能够根据目标用户的实际姿势,自动、及时地调整显示系统的投影位置,进而能够提升目标用户在驾驶过程中的驾驶体验,保证目标用户的驾驶安全。
Description
技术领域
本申请属于信息显示技术领域,尤其涉及一种信息显示方法、装置、设备、存储介质及车辆。
背景技术
抬头显示系统(Head Up Display,HUD)又称平视显示器,可以将车辆、轮船、航空器等交通工具的油耗、油量、速度、里程、时间、地图导航等状态信息映射到驾驶舱前方的玻璃上,从而使用户不用低头即可看到交通工具的状态信息。通常,HUD的投影位置需要随用户的姿势改变而改变。因此,HUD一般具有多个可调节档位。
现有技术中,往往通过用户手动拨动调节按钮的方式进行HUD档位的调整。但是,由于HUD的调节档位较多,导致手动调节的效率较低。并且,用户每更换一个驾驶姿势,就需要进行新一轮的调整,操作繁琐。此外,若用户在驾驶过程中需要调节HUD,则手动调节可能会因分散用户的注意力而带来驾驶安全问题。
发明内容
本申请实施例提供了一种信息显示方法、装置、设备、存储介质及车辆,能够根据目标用户的实际姿势,自动、及时地调整显示系统的投影位置,进而能够提升目标用户在驾驶过程中的驾驶体验,保证目标用户的驾驶安全。
第一方面,本申请实施例提供了一种信息显示方法,该方法包括:
获取目标用户的面部图像,所述面部图像包括所述目标用户在驾驶过程中的面部图像;
对所述面部图像进行面部特征检测,确定所述目标用户的面部特征信息和眼部特征信息,所述面部特征信息包括表征所述目标用户的面部朝向的数据信息,所述眼部特征信息包括与所述目标用户的眼部位置对应的目标坐标信息;
确定所述面部特征信息与预设特征信息是否匹配,所述预设特征信息包括表征所述目标用户的面部朝向为驾驶正前方的数据信息;
在所述面部特征信息与所述预设特征信息匹配的情况下,根据所述目标坐标信息与显示系统的投影位置之间的对应关系确定目标投影位置;
控制所述显示系统在所述目标投影位置对应的区域内进行信息显示。
在一种可能的实现方式中,所述面部特征信息包括多个第一面部特征点分别对应的第一坐标信息,所述预设特征信息包括标准3D人脸模型中的多个第二面部特征点分别对应的第二坐标信息,所述多个第一面部特征点与所述多个第二面部特征点一一对应;
所述确定所述面部特征信息与预设特征信息是否匹配,包括:
将所述多个第一面部特征点分别对应的第一坐标信息映射到所述标准3D人脸模型中;
根据多个所述第一坐标信息与其分别对应的多个所述第二坐标信息确定所述目标用户的面部朝向角,所述面部朝向角包括旋转角、俯仰角和偏航角;
在所述旋转角、俯仰角和偏航角均小于预设角度的情况下,确定所述面部特征信息与所述预设特征信息匹配。
在一种可能的实现方式中,所述根据多个所述第一坐标信息与其分别对应的多个所述第二坐标信息确定所述目标用户的面部朝向角,包括:
将多个所述第一坐标信息与其对应的多个所述第二坐标信息分别进行比对;
在多个所述第一坐标信息与对应的多个所述第二坐标信息之间的差距均小于预设阈值的情况下,确定所述旋转角、俯仰角和偏航角均小于预设角度。
在一种可能的实现方式中,所述根据所述目标坐标信息与显示系统的投影位置之间的对应关系确定目标投影位置,包括:
根据所述目标坐标信息与所述显示系统的调节档位之间的对应关系确定目标档位;
确定与所述目标档位对应的投影位置为目标投影位置。
在一种可能的实现方式中,在根据所述目标坐标信息与显示系统的投影位置之间的对应关系确定目标投影位置之前,所述方法还包括:
获取多个调节档位和多个眼部位置信息之间的映射关系;
通过线性回归算法对所述映射关系进行拟合,得到多元线性回归方程,所述多元线性回归方程用于表征所述眼部位置信息与所述显示系统的调节档位之间的对应关系。
在一种可能的实现方式中,所述目标坐标信息包括左眼坐标信息和右眼坐标信息,所述根据所述目标坐标信息与所述显示系统的调节档位之间的对应关系确定目标档位,包括:
将所述左眼坐标信息和所述右眼坐标信息分别代入所述多元线性回归方程中,计算得到所述目标档位。
在一种可能的实现方式中,所述获取多个调节档位和多个眼部位置信息之间的映射关系,包括:
获取多个面部图像,所述多个面部图像具有不同的脸部位置信息;
分别对所述多个面部图像进行眼部位置检测,得到多个眼部位置信息;
分别记录与所述多个眼部位置信息对应的多个调节档位,得到所述多个调节档位和所述多个眼部位置信息之间的映射关系。
在一种可能的实现方式中,所述获取目标用户的面部图像,包括:
接收所述目标用户用于调整姿势的第一输入;
响应于所述第一输入,获取所述目标用户的面部图像。
第二方面,本申请实施例提供了一种信息显示装置,该装置包括:
第一获取模块,用于获取目标用户的面部图像,所述面部图像包括所述目标用户在驾驶过程中的面部图像;
检测模块,用于对所述面部图像进行面部特征检测,确定所述目标用户的面部特征信息和眼部特征信息,所述面部特征信息包括表征所述目标用户的面部朝向的数据信息,所述眼部特征信息包括与所述目标用户的眼部位置对应的目标坐标信息;
第一确定模块,用于确定所述面部特征信息与预设特征信息是否匹配,所述预设特征信息包括表征所述目标用户的面部朝向为驾驶正前方的数据信息;
第二确定模块,用于在所述面部特征信息与所述预设特征信息匹配的情况下,根据所述目标坐标信息与显示系统的投影位置之间的对应关系确定目标投影位置;
控制模块,用于控制所述显示系统在所述目标投影位置对应的区域内进行信息显示。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括:处理器以及存储有计算机程序指令的存储器;
所述处理器执行所述计算机程序指令时实现上述第一方面中任一种可能的实现方法中的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序指令,计算机程序指令被处理器执行时实现上述第一方面中任一种可能的实现方法中的方法。
第五方面,本申请实施例提供了一种车辆,该车辆包括以下至少一项:
如第二方面的任一项实施例中的信息显示装置;
如第三方面的任一项实施例中的电子设备;
如第四方面的任一项实施例中的计算机可读存储介质。
本申请实施例的信息显示方法、装置、设备、存储介质及车辆,通过实时获取目标用户的面部图像,以及对面部图像进行面部特征检测,能够实时确定目标用户的面部朝向和眼部位置。由于目标用户的姿势改变会引起眼部位置的改变,而只有在眼部位置与显示系统的投影位置相匹配的情况下,目标用户才能看到清晰、完整的信息。因此,通过根据目标坐标与显示系统的投影位置之间的对应关系确定目标投影位置,能够根据最新的眼部位置及时调整显示系统的投影位置。通过在面部特征信与预设特征信息匹配,即在目标用户面向驾驶正前方的情况下确定目标投影位置,能够智能确定是否需要投影,从而能够避免资源浪费。通过控制显示系统在目标投影位置对应的区域内进行信息显示,使目标用户能够在任意姿势下看到清晰、完整的信息。如此,通过本申请实施例,能够根据目标用户的实际姿势,自动、及时地调整显示系统的投影位置,进而能够提升目标用户在驾驶过程中的驾驶体验,保证目标用户的驾驶安全。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单的介绍,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种信息显示方法的流程示意图;
图2是本申请实施例提供的另一种信息显示方法的流程示意图;
图3是本申请实施例提供的一种信息显示装置的结构示意图;
图4是本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
为了能够更清楚地理解本申请的上述目的、特征和优点,下面将对本申请的方案进行进一步描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本申请,但本申请还可以采用其他不同于在此描述的方式来实施;显然,说明书中的实施例只是本申请的一部分实施例,而不是全部的实施例。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
通常,抬头显示系统HUD可应用于航空器、车辆、轮船等需要人工驾驶的交通工具,还可应用于模拟交通训练的机器、测试交通工具的设备等,在此不做限定。其中,上述交通工具、机器、设备等可包括处理器和/或车机,通过处理器和/或车机可实现以下信息显示方法。
一般情况下,HUD具备多个可调节档位,通过控制档位内部转轴的朝向可以控制HUD图形界面在屏幕上投影位置的高低。另一方面,HUD的投影位置与人眼位置息息相关。若人眼高度处于合适的位置,则驾驶员可看到HUD的全画面,反之,若人眼高度处于不恰当的位置,则驾驶员会发现HUD发生上下偏移或者HUD不可见,而人眼高度又会随着驾驶员的坐姿变化而发生变化。因此,实现HUD自适应匹配的关键就是实现在各个姿态下人眼的高度与HUD调节档位之间的映射关系。
如此,为了解决现有技术问题,本申请实施例提供了一种信息显示方法、装置、设备、存储介质及车辆。
下面首先对本申请实施例所提供的信息显示方法进行介绍。其中,信息显示方法可应用于上述处理器或车机。
图1示出了本申请实施例提供的一种信息显示方法的流程示意图。如图1所示,本申请实施例提供的信息显示方法包括以下步骤:
S110、获取目标用户的面部图像,面部图像包括目标用户在驾驶过程中的面部图像;
S120、对面部图像进行面部特征检测,确定目标用户的面部特征信息和眼部特征信息,面部特征信息包括表征目标用户的面部朝向的数据信息,眼部特征信息包括与目标用户的眼部位置对应的目标坐标信息;
S130、确定面部特征信息与预设特征信息是否匹配,预设特征信息包括表征目标用户的面部朝向为驾驶正前方的数据信息;
S140、在面部特征信息与预设特征信息匹配的情况下,根据目标坐标信息与显示系统的投影位置之间的对应关系确定目标投影位置;
S150、控制显示系统在目标投影位置对应的区域内进行信息显示。
本申请实施例的信息显示方法通过实时获取目标用户的面部图像,以及对面部图像进行面部特征检测,能够实时确定目标用户的面部朝向和眼部位置。由于目标用户的姿势改变会引起眼部位置的改变,而只有在眼部位置与显示系统的投影位置相匹配的情况下,目标用户才能看到清晰、完整的信息。因此,通过根据目标坐标信息与显示系统的投影位置之间的对应关系确定目标投影位置,能够根据最新的眼部位置及时调整显示系统的投影位置。通过在面部特征信与预设特征信息匹配,即在目标用户面向驾驶正前方的情况下确定目标投影位置,能够智能确定是否需要投影,从而能够避免资源浪费。通过控制显示系统在目标投影位置对应的区域内进行信息显示,使目标用户能够在任意姿势下看到清晰、完整的信息。如此,通过本申请实施例,能够根据目标用户的实际姿势,自动、及时地调整显示系统的投影位置,进而能够提升目标用户在驾驶过程中的驾驶体验,保证目标用户的驾驶安全。
下面介绍上述各个步骤的具体实现方式。
在一些实施例中,在S110中,目标用户可以是驾驶交通工具的驾驶员、模拟交通训练机器的训练员、测试交通工具设备的测试员等,在此不做限定。目标用户的面部图像可以由专门拍摄目标用户面部的摄像头拍摄得到,也可以是通过对目标用户的全身图像或上半身图像进行裁剪得到。
基于此,为了得到目标用户的面部图像,在一些实施例中,上述S110具体可以包括:
获取摄像头拍摄的第一图像;
对第一图像中目标用户所处的位置区域对应的图像进行裁剪,得到目标用户图像;
对目标用户图像进行人脸检测,确定目标用户图像中的人脸区域;
对目标用户图像中的人脸区域进行裁剪,得到面部图像。
这里,摄像头可以安装在驾驶舱内,第一图像可以是包括目标用户所处的位置区域的图像。在第一图像中,可以先根据预设坐标确定目标用户所处的位置区域,再对目标用户所处的位置区域对应的图像进行裁剪,得到目标用户图像。其中,目标用户图像可以是目标用户的全身图像,也可以是目标用户的上半身图像,在此不做限定。在得到目标用户图像后,可以采用基于深度学习技术的人脸检测算法对目标用户图像进行人脸检测,确定目标用户图像中的人脸区域。
具体的,在抬头显示系统HUD应用于车辆的情况下,摄像头可以为车载摄像头,车载摄像头可以安装在车舱内。目标用户所处的位置区域即可以为主驾位置区域。如此,在第一图像中,可以先根据主驾位置区域对应的预设坐标确定主驾位置区域,再对主驾位置区域对应的图像进行裁剪,得到目标用户图像。
这样,在确定人脸区域后,通过对目标用户图像中的人脸区域进行裁剪,即可得到目标用户的面部图像。
基于此,为了实现HUD的自适应调节,在一些实施例中,上述S110具体还可以包括:
接收目标用户对显示系统的第二输入;
响应于第二输入,获取目标用户的面部图像
这里,第二输入可以是输入语音指令、触控指令、手势指令中的至少一种。具体的,第二输入例如可以是目标用户按下HUD自适应调节按键的操作。在接收到第二输入之后,才会获取目标用户的面部图像,以及基于面部图像确定目标投影位置,从而实现HUD的自适应调节。
这样,通过接收目标用户对显示系统的第二输入,能够实现HUD的自适应调节。
在一些实施例中,在S120中,面部特征信息可以包括多个面部特征点分别对应的坐标,还可以包括多个面部特征点之间的相对位置。其中,面部特征点即可以是人脸关键点。面部特征点例如可以包括眼部关键点、唇部关键点、眉部关键点、鼻部关键点等。其中,每个部位的关键点可以包括不止一个。基于此,预设特征信息可以包括多个预设特征点分别对应的标准坐标,还可以包括多个预设特征点之间的标准相对位置。其中,预设特征点可以是预设的标准特征点。另外,多个面部特征点分别对应的坐标和多个面部特征点之间的相对位置可以是表征目标用户的面部朝向的数据信息。
作为一种示例,采用基于深度学习技术的人脸关键点检测算法可以对面部图像进行面部特征点检测,得到多个面部特征点的坐标。
另外,眼部位置可以是人眼中心点位置,也可以是预设的眼部位置。其中,眼部位置可以包括左眼(LE)位置和右眼(RE)位置。相应的,与眼部位置对应的目标坐标信息可以与人眼中心点位置对应的目标坐标信息,也可以是与预设的眼部位置对应的目标坐标信息。其中,与人眼中心点位置对应的目标坐标信息可以包括左眼中心点坐标和右眼中心点坐标;与预设的眼部位置对应的目标坐标信息可以包括左预设眼部位置坐标和右预设眼部位置坐标。
作为一种示例,采用基于深度学习技术的人脸关键点检测算法可以对面部图像进行眼部位置检测,从而实现对人眼位置的定位,得到人眼位置LE和RE。
作为另一种示例,采用基于深度学习技术的人脸关键点检测算法可以对面部图像进行人脸关键点检测,从中分别确定人眼位置LE和RE的坐标。
在一些实施例中,在S130中,预设特征信息可以包括表征目标用户的面部朝向为驾驶正前方的数据信息。具体的,预设特征信息可以包括标准3D人脸模型中的多个面部特征点分别对应的坐标信息。
作为一种示例,在目标用户的正前方可以安装一个专门拍摄目标用户的面部图像的摄像头。若摄像头可以拍摄到目标用户完整的面部图像,则可以确定面部特征信息与预设特征信息匹配。具体的,面部特征信息与预设特征信息匹配例如可以是目标用户面向驾驶正前方。
为了准确确定面部特征信息与预设特征信息是否匹配,在一些实施例中,面部特征信息可以包括多个第一面部特征点分别对应的第一坐标信息,预设特征信息可以包括标准3D人脸模型中的多个第二面部特征点分别对应的第二坐标信息,多个第一面部特征点可以与多个第二面部特征点一一对应。基于此,上述S130具体可以包括:
将多个第一面部特征点分别对应的第一坐标信息映射到标准3D人脸模型中;
根据多个第一坐标信息与其分别对应的多个第二坐标信息确定目标用户的面部朝向角,面部朝向角包括旋转角、俯仰角和偏航角;
在旋转角、俯仰角和偏航角均小于预设角度的情况下,确定面部特征信息与预设特征信息匹配。
这里,标准3D人脸模型中可以包括多个第二面部特征点分别对应的第二坐标信息。由于多个第一面部特征点可以与多个第二面部特征点一一对应,因此,通过将多个第一面部特征点分别对应的第一坐标信息映射到标准3D人脸模型中,能够根据多个第一坐标信息与其分别对应的多个第二坐标信息之间的差距确定目标用户的面部朝向角。其中,面部朝向角可以包括俯仰角(pitch,P)、偏航角(yaw,Y)和旋转角(roll,R)。
具体的,若多个第一坐标信息与其分别对应的多个第二坐标信息均重合,则可以确定面部特征信息与预设特征信息匹配。在多个第一坐标信息与其分别对应的多个第二坐标信息均重合的情况下,可以确定目标用户的俯仰角、偏航角和旋转角均为零度。在多个第一坐标信息与其分别对应的多个第二坐标信息未全部重合的情况下,可以根据多个第一坐标信息与其分别对应的多个第二坐标信息分别确定目标用户的俯仰角、偏航角和旋转角,若旋转角、俯仰角和偏航角均小于预设角度,则可以确定面部特征信息与预设特征信息匹配。也即,可以确定目标用户的面部朝向为驾驶正前方。
这样,通过在旋转角、俯仰角和偏航角均小于预设角度的情况下,能够准确确定面部特征信息与预设特征信息是否匹配。
基于此,为了准确确定目标用户的面部朝向角,在一些实施例中,上述根据多个第一坐标信息与其分别对应的多个第二坐标信息确定目标用户的面部朝向角,具体可以包括:
将多个第一坐标信息与其对应的多个第二坐标信息分别进行比对;
在多个第一坐标信息与对应的多个第二坐标信息之间的差距均小于预设阈值的情况下,确定旋转角、俯仰角和偏航角均小于预设角度。
这里,由于多个第一面部特征点与多个第二面部特征点可以是一一对应的关系,因此,多个第一坐标信息与多个第二信息之间可以是一一对应的关系。如此,通过将多个第一坐标信息与其对应的多个第二坐标信息分别进行比对,可以确定每组坐标信息之间的差距。其中,一组坐标信息可以包括相互对应的第一坐标信息和第二坐标信息。如此,在多组坐标信息之间的差距均小于预设阈值的情况下,则可以确定目标用户的旋转角、俯仰角和偏航角均小于预设角度。
这样,通过将多个第一坐标信息与其对应的多个第二坐标信息分别进行比对,能够准确确定目标用户的面部朝向角。
在一些实施例中,在S140中,眼部位置信息与显示系统的投影位置之间可以存在对应关系。其中,对应关系可以映射表的形式存在,也可以函数解析式的形式存在。另外,显示系统可以是抬头显示系统HUD。
作为一种示例,在确定目标坐标之后,可以将目标坐标信息与映射表中的眼部位置信息匹配,在两者数值相同的情况下,与眼部位置信息对应的投影位置即可以为目标投影位置。
作为另一种示例,在确定目标坐标信息之后,可以将目标坐标代入眼部位置信息与显示系统的投影位置之间的函数解析式中,计算得到与目标坐标信息对应的目标投影位置。
需要说明的是,在本申请实施例中,只有在面部特征信息与预设特征信息匹配的情况下,才会确定目标投影位置。也即,若面部特征信息与预设特征信息不匹配,则可以确定目标用户未面向驾驶正前方,则可以不确定目标投影位置。基于此,为了通过调节显示系统的档位调节显示系统的投影位置,在一些实施例中,上述S140具体可以包括:
根据目标坐标信息与显示系统的调节档位之间的对应关系确定目标档位;
确定与目标档位对应的投影位置为目标投影位置。
这里,显示系统可以具有多个调节档位,每个调节档位可以对应一个投影位置。眼部位置信息与显示系统的调节档位之间的对应关系可以函数解析式的形式存在。
作为一种示例,在确定眼部位置对应的目标坐标信息之后,可以将目标坐标信息代入眼部位置信息与显示系统的调节档位之间的函数解析式中,计算得到与目标坐标信息对应的目标档位。由于调节档位和投影位置可以是一一对应的关系,因此,与目标档位对应的投影位置即可以是目标投影位置。
这样,通过先确定与目标坐标信息对应的目标档位,再确定与目标档位对应的目标投影位置,能够通过调节显示系统的档位以调节显示系统的投影位置。
基于此,为了得到眼部位置信息与显示系统的调节档位之间的映射公式,在一些实施例中,还可以包括:
获取多个调节档位和多个眼部位置信息之间的映射关系;
通过线性回归算法对映射关系进行拟合,得到多元线性回归方程,多元线性回归方程用于表征眼部位置信息与显示系统的调节档位之间的对应关系。
这里,眼部位置信息可以包括左眼位置坐标和右眼位置坐标。多个调节档位和多个眼部位置信息之间的映射关系可以映射关系表的形式存在,映射关系表中可以存储大量映射数据。在得到映射关系表后,可以利用线性回归算法对映射关系表中的映射数据进行拟合,得到眼部位置信息与显示系统的调节档位之间的映射公式,即多元线性回归方程。
具体的,映射公式例如可以为:
Y=aX1+bX2
这里,Y可以是调节档位,X1可以是左眼位置坐标,X2可以是右眼位置坐标,a和b可以通过线性拟合得到的具体数值。
这样,通过利用线性回归算法对映射关系进行拟合,能够得到眼部位置信息与显示系统的调节档位之间的映射公式。
为了计算得到目标档位,在一些实施例中,目标坐标信息可以包括左眼坐标信息和右眼坐标信息。基于此,上述根据目标坐标信息与显示系统的调节档位之间的对应关系确定目标档位,具体包括:
将左眼坐标信息和右眼坐标信息分别代入多元线性回归方程中,计算得到目标档位。
基于此,为了得到多个调节档位和多个眼部位置信息之间的映射关系,在一些实施例中,上述获取多个调节档位和多个眼部位置信息之间的映射关系,具体可以包括:
获取多个面部图像,多个面部图像具有不同的脸部位置信息;
分别对多个面部图像进行眼部位置检测,得到多个眼部位置信息;
分别记录与多个眼部位置信息对应的多个调节档位,得到多个调节档位和多个眼部位置信息之间的映射关系。
这里,多个面部图像可以是同一个用户对应的多个面部图像,可以是多个用户分别一一对应的多个面部图像,也可以是多个用户对应的多个面部图像。在多个用户对应多个面部图像的情况下,每个用户分别对应的面部图像的个数可以不做限定。
作为一种示例,为了得到多个具有不同的脸部位置信息的面部图像,可以获取多个具有不同姿势的用户图像。其中,每个姿势可以对应一个脸部位置信息。通过对用户图像进行人脸检测,并对检测到的人脸区域进行裁剪,即可得到面部图像。每得到一个面部图像,即可以利用上述实施例中提到的人脸关键点检测算法,确定并记录每个面部图像分别对应的左眼位置坐标和右眼位置坐标。同时,记录符合当前眼部位置坐标的调节档位。
这样,通过分别记录与多个眼部位置坐标对应的多个调节档位,能够得到多个调节档位和多个眼部位置信息之间的映射关系。
在一些实施例中,在S150中,在目标投影位置对应的区域内显示的信息例如可以包括油耗、油量、速度、里程、时间、地图导航等。
为了提升目标用户在驾驶过程中的驾驶体验,保证目标用户的驾驶安全,作为本申请的另一种实现方式,本申请还提供了信息显示方法的另一种实现方式,具体参见以下实施例。
请参见图2,本申请实施例提供的信息显示方法还可以包括以下步骤:
S210、接收目标用户用于调整姿势的第一输入;
S220、响应于第一输入,获取目标用户的面部图像;
S230、对面部图像进行面部特征检测,确定目标用户的面部特征信息和眼部特征信息,面部特征信息包括表征目标用户的面部朝向的数据信息,眼部特征信息包括与目标用户的眼部位置对应的目标坐标信息;
S240、确定面部特征信息与预设特征信息是否匹配,预设特征信息包括表征目标用户的面部朝向为驾驶正前方的数据信息;
S250、在面部特征信息与预设特征信息匹配的情况下,根据目标坐标信息与显示系统的投影位置之间的对应关系确定目标投影位置;
S260、控制显示系统在目标投影位置对应的区域内进行信息显示。
本申请实施例通过响应于目标用户对显示系统的第一输入,开启显示系统的自适应调节,能够根据目标用户的实际姿势,自动、及时地调整显示系统的投影位置,进而在目标用户驾驶过程中,能够提升目标用户的驾驶体验,保证目标用户的驾驶安全。
下面介绍上述各个步骤的具体实现方式。
在一些实施例中,在S210中,第一输入可以是用户主动变换姿势的指令,也可以是用户按下座位调节按钮的指令。
在一些实施例中,在S220中,目标用户每调整一次姿势,即可以获取一次目标用户的面部图像,进而可以通过在新的面部特征信息与预设特征信息匹配的情况下,确定目标投影位置,以及控制显示系统在目标投影位置对应的区域内进行信息显示。
除此之外,本申请实施例中方法的其它步骤S230至S260可参见上文图1所示实施例S120至S150的相关描述,此处不做过多赘述。
为了更好地描述整个方案,基于上述各实施例,举一些具体例子。
例如,实现HUD自适应调节的具体过程可以为:
S1、获取舱内摄像头拍摄的第一图像,并根据预标定的图像坐标对第一图像中的主驾位置区域进行裁剪,得到驾驶员图像;
S 2、采用基于深度学习技术的人脸检测算法对驾驶员图像进行人脸检测,确定驾驶员图像中的人脸位置区域,并裁剪得到面部图像;
S3、采用基于深度学习技术的人脸关键点检测算法对面部图像进行面部特征点检测,其中,面部特征点包括眼部位置,如此,可以得到多个面部特征点的坐标(包括眼部位置对应的目标坐标);
S4:基于多个面部特征点的坐标构建与面部图像对应的3D人脸模型,并根据3D人脸模型中多个面部特征点的坐标判断驾驶员的面部朝向;
S5:在驾驶员的面部朝向为驾驶正前方的情况下,将目标坐标代入眼部位置坐标与HUD的调节档位之间的映射公式中,即可计算得到目标档位;
S6:HUD系统将档位调节至目标档位,以将HUD的投影位置调节至目标投影位置,实现HUD的自适应调节。
由此,能够根据驾驶员的实际驾驶姿势,自动、及时地调整HUD的投影位置,进而能够提升驾驶员的驾驶体验,保证驾驶员的驾驶安全。
基于上述实施例提供的信息显示方法,相应地,本申请还提供了信息显示装置的具体实现方式。请参见以下实施例。
如图3所示,本申请实施例提供的信息显示装置300包括以下模块:
第一获取模块310,用于获取目标用户的面部图像,面部图像包括目标用户在驾驶过程中的面部图像;
检测模块320,用于对面部图像进行面部特征检测,确定目标用户的面部特征信息和眼部特征信息,面部特征信息包括表征目标用户的面部朝向的数据信息,眼部特征信息包括与目标用户的眼部位置对应的目标坐标信息;
第一确定模块330,用于确定面部特征信息与预设特征信息是否匹配,预设特征信息包括表征目标用户的面部朝向为驾驶正前方的数据信息;
第二确定模块340,用于在面部特征信息与预设特征信息匹配的情况下,根据目标坐标信息与显示系统的投影位置之间的对应关系确定目标投影位置;
控制模块350,用于控制显示系统在目标投影位置对应的区域内进行信息显示。
下面对上述信息显示装置300进行详细说明,具体如下所示:
在其中一些实施例中,面部特征信息可以包括多个第一面部特征点分别对应的第一坐标信息,预设特征信息可以包括标准3D人脸模型中的多个第二面部特征点分别对应的第二坐标信息,多个第一面部特征点可以与多个第二面部特征点一一对应。基于此,上述第一确定模块330具体可以包括:
映射子模块,用于将多个第一面部特征点分别对应的第一坐标信息映射到标准3D人脸模型中;
第一确定子模块,用于根据多个第一坐标信息与其分别对应的多个第二坐标信息确定目标用户的面部朝向角,面部朝向角包括旋转角、俯仰角和偏航角;
第二确定子模块,用于在旋转角、俯仰角和偏航角均小于预设角度的情况下,确定面部特征信息与预设特征信息匹配。
在其中一些实施例中,第一确定子模块具体可以包括:
比对单元,用于将多个第一坐标信息与其对应的多个第二坐标信息分别进行比对;
确定单元,用于在多个第一坐标信息与对应的多个所第二坐标信息之间的差距均小于预设阈值的情况下,确定旋转角、俯仰角和偏航角均小于预设角度。
在其中一些实施例中,第二确定模块340具体可以包括:
第三确定子模块,用于根据目标坐标信息与显示系统的调节档位之间的对应关系确定目标档位;
第四确定子模块,用于确定与目标档位对应的投影位置为目标投影位置。
在其中一些实施例中,信息显示装置300还可以包括:
第二获取模块,用于在根据目标坐标信息与显示系统的投影位置之间的对应关系确定目标投影位置之前,获取多个调节档位和多个眼部位置信息之间的映射关系;
拟合模块,用于通过线性回归算法对映射关系进行拟合,得到多元线性回归方程多元线性回归方程用于表征所述部位置信息与显示系统的调节档位之间的对应关系。
在其中一些实施例中,目标坐标信息可以包括左眼坐标信息和右眼坐标信息,第三确定子模块具体可以包括:
计算单元,用于将左眼坐标信息和右眼坐标信息分别代入多元线性回归方程中,计算得到目标档位。
在其中一些实施例中,第二获取模块具体可以包括:
获取子模块,用于获取多个面部图像,多个面部图像具有不同的脸部位置信息;
检测子模块,用于分别对多个面部图像进行眼部位置检测,得到多个眼部位置信息;
记录子模块,用于分别记录与多个眼部位置信息对应的多个调节档位,得到多个调节档位和多个眼部位置信息之间的映射关系。
在其中一些实施例中,信息显示装置300还可以包括:
接收模块,用于接收目标用户用于调整姿势的第一输入;
第三获取模块,用于响应于第一输入,获取目标用户的面部图像。
本申请实施例的信息显示装置通过实时获取目标用户的面部图像,以及对面部图像进行面部特征检测,能够实时确定目标用户的面部朝向眼部位置。由于目标用户的姿势改变会引起眼部位置的改变,而只有在眼部位置与显示系统的投影位置相匹配的情况下,目标用户才能看到清晰、完整的信息。因此,通过根据目标坐标与显示系统的投影位置之间的对应关系确定目标投影位置,能够根据最新的眼部位置及时调整显示系统的投影位置。通过在面部特征信与预设特征信息匹配,即在目标用户面向驾驶正前方的情况下确定目标投影位置,能够智能确定是否需要投影,从而能够避免资源浪费。通过控制显示系统在目标投影位置对应的区域内进行信息显示,使目标用户能够在任意姿势下看到清晰、完整的信息。如此,通过本申请实施例,能够根据目标用户的实际姿势,自动、及时地调整显示系统的投影位置,进而能够提升目标用户在驾驶过程中的驾驶体验,保证目标用户的驾驶安全。
基于上述实施例提供的信息显示方法,本申请实施例还提供了电子设备的具体实施方式。图4示出了本申请实施例提供的电子设备400示意图。
电子设备400可以包括处理器410以及存储有计算机程序指令的存储器420。
具体地,上述处理器410可以包括中央处理器(CPU),或者特定集成电路(Application Specific Integrated Circuit,ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。
存储器420可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器420可包括硬盘驱动器(Hard Disk Drive,HDD)、软盘驱动器、闪存、光盘、磁光盘、磁带或通用串行总线(Universal Serial Bus,USB)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器420可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器420可在综合网关容灾设备的内部或外部。在特定实施例中,存储器420是非易失性固态存储器。
存储器可包括只读存储器(ROM),随机存取存储器(RAM),磁盘存储介质设备,光存储介质设备,闪存设备,电气、光学或其他物理/有形的存储器存储设备。因此,通常,存储器包括一个或多个编码有包括计算机可执行指令的软件的有形(非暂态)计算机可读存储介质(例如,存储器设备),并且当该软件被执行(例如,由一个或多个处理器)时,其可操作来执行参考根据本申请的第一方面的方法所描述的操作。
处理器410通过读取并执行存储器420中存储的计算机程序指令,以实现上述实施例中的任意一种信息显示方法。
在一个示例中,电子设备400还可包括通信接口430和总线440。其中,如图4所示,处理器410、存储器420、通信接口430通过总线440连接并完成相互间的通信。
通信接口430,主要用于实现本申请实施例中各模块、装置、单元和/或设备之间的通信。
总线440包括硬件、软件或两者,将电子设备的部件彼此耦接在一起。举例来说而非限制,总线可包括加速图形端口(AGP)或其他图形总线、增强工业标准架构(EISA)总线、前端总线(FSB)、超传输(HT)互连、工业标准架构(ISA)总线、无限带宽互连、低引脚数(LPC)总线、存储器总线、微信道架构(MCA)总线、外围组件互连(PCI)总线、PCI-Express(PCI-X)总线、串行高级技术附件(SATA)总线、视频电子标准协会局部(VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线440可包括一个或多个总线。尽管本申请实施例描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。
示例性的,电子设备400可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本或者个人数字助理(personal digital assistant,PDA)等。
该电子设备可以执行本申请实施例中的信息显示方法,从而实现结合图1至图3描述的信息显示方法和装置。
另外,结合上述实施例中的信息显示方法,本申请实施例可提供一种计算机存储介质来实现。该计算机存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例中的任意一种信息显示方法。
除此之外,本申请实施例还提供了一种车辆,该车辆可以包括以下至少一项:
如第二方面的任一项实施例中的信息显示装置;
如第三方面的任一项实施例中的电子设备;
如第四方面的任一项实施例中的计算机可读存储介质。在此不再进行赘述。
需要明确的是,本申请并不局限于上文所描述并在图中示出的特定配置和处理。为了简明起见,这里省略了对已知方法的详细描述。在上述实施例中,描述和示出了若干具体的步骤作为示例。但是,本申请的方法过程并不限于所描述和示出的具体步骤,本领域的技术人员可以在领会本申请的精神后,作出各种改变、修改和添加,或者改变步骤之间的顺序。
以上所述的结构框图中所示的功能块可以实现为硬件、软件、固件或者它们的组合。当以硬件方式实现时,其可以例如是电子电路、专用集成电路(ASIC)、适当的固件、插件、功能卡等等。当以软件方式实现时,本申请的元素是被用于执行所需任务的程序或者代码段。程序或者代码段可以存储在机器可读介质中,或者通过载波中携带的数据信号在传输介质或者通信链路上传送。“机器可读介质”可以包括能够存储或传输信息的任何介质。机器可读介质的例子包括电子电路、半导体存储器设备、ROM、闪存、可擦除ROM(EROM)、软盘、CD-ROM、光盘、硬盘、光纤介质、射频(RF)链路,等等。代码段可以经由诸如因特网、内联网等的计算机网络被下载。
还需要说明的是,本申请中提及的示例性实施例,基于一系列的步骤或者装置描述一些方法或系统。但是,本申请不局限于上述步骤的顺序,也就是说,可以按照实施例中提及的顺序执行步骤,也可以不同于实施例中的顺序,或者若干步骤同时执行。
上面参考根据本申请的实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本申请的各方面。应当理解,流程图和/或框图中的每个方框以及流程图和/或框图中各方框的组合可以由计算机程序指令实现。这些计算机程序指令可被提供给通用计算机、专用计算机、或其它可编程数据处理装置的处理器,以产生一种机器,使得经由计算机或其它可编程数据处理装置的处理器执行的这些指令使能对流程图和/或框图的一个或多个方框中指定的功能/动作的实现。这种处理器可以是但不限于是通用处理器、专用处理器、特殊应用处理器或者现场可编程逻辑电路。还可理解,框图和/或流程图中的每个方框以及框图和/或流程图中的方框的组合,也可以由执行指定的功能或动作的专用硬件来实现,或可由专用硬件和计算机指令的组合来实现。
以上所述,仅为本申请的具体实施方式,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的系统、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。应理解,本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。
Claims (12)
1.一种信息显示方法,其特征在于,包括:
获取目标用户的面部图像,所述面部图像包括所述目标用户在驾驶过程中的面部图像;
对所述面部图像进行面部特征检测,确定所述目标用户的面部特征信息和眼部特征信息,所述面部特征信息包括表征所述目标用户的面部朝向的数据信息,所述眼部特征信息包括与所述目标用户的眼部位置对应的目标坐标信息;
确定所述面部特征信息与预设特征信息是否匹配,所述预设特征信息包括表征所述目标用户的面部朝向为驾驶正前方的数据信息;
在所述面部特征信息与所述预设特征信息匹配的情况下,根据所述目标坐标信息与显示系统的投影位置之间的对应关系确定目标投影位置;
控制所述显示系统在所述目标投影位置对应的区域内进行信息显示。
2.根据权利要求1所述的方法,其特征在于,所述面部特征信息包括多个第一面部特征点分别对应的第一坐标信息,所述预设特征信息包括标准3D人脸模型中的多个第二面部特征点分别对应的第二坐标信息,所述多个第一面部特征点与所述多个第二面部特征点一一对应;
所述确定所述面部特征信息与预设特征信息是否匹配,包括:
将所述多个第一面部特征点分别对应的第一坐标信息映射到所述标准3D人脸模型中;
根据多个所述第一坐标信息与其分别对应的多个所述第二坐标信息确定所述目标用户的面部朝向角,所述面部朝向角包括旋转角、俯仰角和偏航角;
在所述旋转角、俯仰角和偏航角均小于预设角度的情况下,确定所述面部特征信息与所述预设特征信息匹配。
3.根据权利要求2所述的方法,其特征在于,所述根据多个所述第一坐标信息与其分别对应的多个所述第二坐标信息确定所述目标用户的面部朝向角,包括:
将多个所述第一坐标信息与其对应的多个所述第二坐标信息分别进行比对;
在多个所述第一坐标信息与对应的多个所述第二坐标信息之间的差距均小于预设阈值的情况下,确定所述旋转角、俯仰角和偏航角均小于预设角度。
4.根据权利要求1所述的方法,其特征在于,所述根据所述目标坐标信息与显示系统的投影位置之间的对应关系确定目标投影位置,包括:
根据所述目标坐标信息与所述显示系统的调节档位之间的对应关系确定目标档位;
确定与所述目标档位对应的投影位置为目标投影位置。
5.根据权利要求4所述的方法,其特征在于,在根据所述目标坐标信息与显示系统的投影位置之间的对应关系确定目标投影位置之前,所述方法还包括:
获取多个调节档位和多个眼部位置信息之间的映射关系;
通过线性回归算法对所述映射关系进行拟合,得到多元线性回归方程,所述多元线性回归方程用于表征所述眼部位置信息与所述显示系统的调节档位之间的对应关系。
6.根据权利要求5所述的方法,其特征在于,所述目标坐标信息包括左眼坐标信息和右眼坐标信息,所述根据所述目标坐标信息与所述显示系统的调节档位之间的对应关系确定目标档位,包括:
将所述左眼坐标信息和所述右眼坐标信息分别代入所述多元线性回归方程中,计算得到所述目标档位。
7.根据权利要求5所述的方法,其特征在于,所述获取多个调节档位和多个眼部位置信息之间的映射关系,包括:
获取多个面部图像,所述多个面部图像具有不同的脸部位置信息;
分别对所述多个面部图像进行眼部位置检测,得到多个眼部位置信息;
分别记录与所述多个眼部位置信息对应的多个调节档位,得到所述多个调节档位和所述多个眼部位置信息之间的映射关系。
8.根据权利要求1所述的方法,其特征在于,所述获取目标用户的面部图像,包括:
接收所述目标用户用于调整姿势的第一输入;
响应于所述第一输入,获取所述目标用户的面部图像。
9.一种信息显示装置,其特征在于,所述装置包括:
第一获取模块,用于获取目标用户的面部图像,所述面部图像包括所述目标用户在驾驶过程中的面部图像;
检测模块,用于对所述面部图像进行面部特征检测,确定所述目标用户的面部特征信息和眼部特征信息,所述面部特征信息包括表征所述目标用户的面部朝向的数据信息,所述眼部特征信息包括与所述目标用户的眼部位置对应的目标坐标信息;
第一确定模块,用于确定所述面部特征信息与预设特征信息是否匹配,所述预设特征信息包括表征所述目标用户的面部朝向为驾驶正前方的数据信息;
第二确定模块,用于在所述面部特征信息与所述预设特征信息匹配的情况下,根据所述目标坐标信息与显示系统的投影位置之间的对应关系确定目标投影位置;
控制模块,用于控制所述显示系统在所述目标投影位置对应的区域内进行信息显示。
10.一种电子设备,其特征在于,所述电子设备包括:处理器以及存储有计算机程序指令的存储器;
所述处理器执行所述计算机程序指令时实现如权利要求1-8任意一项所述的信息显示方法。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现如权利要求1-8任意一项所述的信息显示方法。
12.一种车辆,其特征在于,包括至少以下一种:
如权利要求9所述的信息显示装置;
如权利要求10所述的电子设备;
如权利要求11所述的计算机可读存储介质。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211489042.7A CN118092828A (zh) | 2022-11-25 | 2022-11-25 | 信息显示方法、装置、设备、存储介质及车辆 |
PCT/CN2023/133713 WO2024109886A1 (zh) | 2022-11-25 | 2023-11-23 | 信息显示方法、装置、设备、存储介质及车辆 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211489042.7A CN118092828A (zh) | 2022-11-25 | 2022-11-25 | 信息显示方法、装置、设备、存储介质及车辆 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118092828A true CN118092828A (zh) | 2024-05-28 |
Family
ID=91155450
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211489042.7A Pending CN118092828A (zh) | 2022-11-25 | 2022-11-25 | 信息显示方法、装置、设备、存储介质及车辆 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN118092828A (zh) |
WO (1) | WO2024109886A1 (zh) |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015044716A1 (en) * | 2013-09-27 | 2015-04-02 | Freescale Semiconductor, Inc. | Head-up display warping controller |
CN109167877B (zh) * | 2018-08-01 | 2021-05-18 | Oppo(重庆)智能科技有限公司 | 终端屏幕控制方法、装置、终端设备和存储介质 |
CN110244778B (zh) * | 2019-06-20 | 2022-09-06 | 京东方科技集团股份有限公司 | 一种基于人眼追踪的平视随动控制系统和控制方法 |
CN110703904B (zh) * | 2019-08-26 | 2023-05-19 | 合肥疆程技术有限公司 | 一种基于视线跟踪的增强虚拟现实投影方法及系统 |
CN111016785A (zh) * | 2019-11-26 | 2020-04-17 | 惠州市德赛西威智能交通技术研究院有限公司 | 一种基于人眼位置的平视显示系统调节方法 |
CN113467600A (zh) * | 2020-03-31 | 2021-10-01 | 深圳光峰科技股份有限公司 | 基于增强现实的信息显示方法、系统、装置及投影设备 |
EP4339938A4 (en) * | 2021-05-18 | 2024-05-22 | Huawei Technologies Co., Ltd. | PROJECTION METHOD AND DEVICE AS WELL AS VEHICLE AND AR-HUD |
CN114022565A (zh) * | 2021-10-28 | 2022-02-08 | 虹软科技股份有限公司 | 用于显示设备的对齐方法及对齐装置、车载显示系统 |
CN115202476B (zh) * | 2022-06-30 | 2023-04-11 | 泽景(西安)汽车电子有限责任公司 | 显示图像的调整方法、装置、电子设备及存储介质 |
CN115330699A (zh) * | 2022-07-27 | 2022-11-11 | 东软集团股份有限公司 | 用于抬头显示器hud的调节方法、装置及存储介质 |
-
2022
- 2022-11-25 CN CN202211489042.7A patent/CN118092828A/zh active Pending
-
2023
- 2023-11-23 WO PCT/CN2023/133713 patent/WO2024109886A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024109886A1 (zh) | 2024-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3316080B1 (en) | Virtual reality interaction method, apparatus and system | |
CN106981082B (zh) | 车载摄像头标定方法、装置及车载设备 | |
WO2020186867A1 (zh) | 注视区域检测方法、装置及电子设备 | |
US20170083087A1 (en) | Eye gaze tracking utilizing surface normal identification | |
JP6335556B2 (ja) | ポインティングによる情報クエリ | |
CN111602139A (zh) | 图像处理方法、装置、控制终端及可移动设备 | |
CN105579319B (zh) | 用于识别车载信息系统中的手写手势的系统和方法 | |
CN111462096A (zh) | 三维目标检测方法及装置 | |
US10394321B2 (en) | Information acquiring method, information acquiring apparatus, and user equipment | |
US10853651B2 (en) | Virtual reality interaction method, apparatus and system | |
CN114782911B (zh) | 图像处理的方法、装置、设备、介质、芯片及车辆 | |
CN113597616A (zh) | 瞳孔位置的确定方法、装置及系统 | |
CN109034137B (zh) | 头部姿态标记更新方法、装置、存储介质和终端设备 | |
CN118092828A (zh) | 信息显示方法、装置、设备、存储介质及车辆 | |
JP2011209070A (ja) | 画像処理装置 | |
JP4246691B2 (ja) | 画像情報処理システム、画像情報処理方法、画像情報処理プログラム、及び自動車 | |
Kang et al. | Pupil detection and tracking for AR 3D under various circumstances | |
CN115082978A (zh) | 面部姿态的检测装置、方法、图像处理系统及存储介质 | |
JP2014215845A (ja) | 操作支援方法、操作支援システム、操作支援サーバ及び操作支援プログラム | |
KR101664620B1 (ko) | 도로 곡률 안내 장치 및 방법 | |
WO2019072911A1 (en) | METHOD FOR DETERMINING A REGION OF INTEREST IN AN IMAGE CAPTURED BY A CAMERA OF A MOTOR VEHICLE, CONTROL SYSTEM, CAMERA SYSTEM AND MOTOR VEHICLE | |
US11919395B1 (en) | Electronic device and method for configuring head-up display | |
CN111355925B (zh) | 控制装置、车辆、图像显示系统和图像显示方法 | |
US20210023918A1 (en) | Control apparatus, vehicle, and control method | |
CN116424335A (zh) | 一种车辆转弯引导方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |