CN116661599A - 车辆屏幕显示方法、电子设备和计算机可读存储介质 - Google Patents

车辆屏幕显示方法、电子设备和计算机可读存储介质 Download PDF

Info

Publication number
CN116661599A
CN116661599A CN202310641246.6A CN202310641246A CN116661599A CN 116661599 A CN116661599 A CN 116661599A CN 202310641246 A CN202310641246 A CN 202310641246A CN 116661599 A CN116661599 A CN 116661599A
Authority
CN
China
Prior art keywords
vehicle
target
display area
screen
interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310641246.6A
Other languages
English (en)
Inventor
周志义
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pateo Connect Nanjing Co Ltd
Original Assignee
Pateo Connect Nanjing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pateo Connect Nanjing Co Ltd filed Critical Pateo Connect Nanjing Co Ltd
Priority to CN202310641246.6A priority Critical patent/CN116661599A/zh
Publication of CN116661599A publication Critical patent/CN116661599A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)

Abstract

本申请实施方式涉及车辆屏幕显示方法、电子设备和计算机可读存储介质,涉及车辆技术领域。该车辆屏幕显示方法包括:响应于监听到用户的语音信号,实时获取所述用户的眼动信息;根据所述语音信号和所述眼动信息确定目标界面交互元素的目标显示区域,所述目标显示区域位于所述车辆的交互界面上;以及根据所述目标显示区域重构所述车辆的交互界面。

Description

车辆屏幕显示方法、电子设备和计算机可读存储介质
技术领域
本申请实施方式涉及车辆技术领域,尤其涉及车辆屏幕显示方法、电子设备和计算机可读存储介质。
背景技术
随着人工智能技术的革新,汽车屏幕已经由最早的单行数字显示屏演变到现在的智能座舱中控交互屏,并且一些智能座舱内会设置多个交互屏。但是,目前智能座舱的交互屏主要考虑主驾驶的视觉和操作习惯,交互屏中界面交互元素例如导航栏或者界面控件的显示位置固定并且更靠近主驾驶的一侧。由此,交互屏中界面交互元素不仅容易被方向盘遮挡,从而影响驾驶员操作,而且也不便于其他用户查看和操作,进而影响用户体验。
发明内容
本申请实施方式提供的车辆屏幕显示方法、电子设备和计算机可读存储介质可解决或部分解决现有技术中的上述不足或现有技术中的其他不足。
根据本申请第一方面提供的车辆屏幕显示方法可包括:
响应于监听到用户的语音信号,实时获取所述用户的眼动信息;
根据所述语音信号和所述眼动信息确定目标界面交互元素的目标显示区域,所述目标显示区域位于所述车辆的交互界面上;以及
根据所述目标显示区域重构所述车辆的交互界面。
根据本申请第二方面提供的电子设备可包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本申请第一方面所述的车辆屏幕显示方法。
根据本申请第三方面提供的计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现本申请第一方面所述的车辆屏幕显示方法。
根据本申请实施方式提供的车辆屏幕显示方法,通过根据所监听到的用户的语音信号和所获取的用户的眼动信息来确定目标显示区域,并根据目标显示区域重构车辆的交互界面,将目标界面交互元素显示于交互界面的目标显示区域,不仅便于用户在不刻意调整坐姿的情况下查看或操作目标界面交互元素,提高用户的舒适度,而且鉴于用户发出的语音可能不包括方位词和显示调整词等关键词,根据语音信号和眼动信息确定目标显示区域可以弥补语音信号指示不够清楚的缺陷,降低对用户发出语音内容的限制,提高用户体验。
应当理解,本部分所描述的内容并非旨在标识本公开的实施方式的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
通过阅读参照以下附图所作的对非限制性实施方式所作的详细描述,本申请的其它特征、目的和优点将会变得更明显。附图用于更好地理解本方案,不构成对本申请的限定,其中:
图1是根据本申请的实施方式的车辆屏幕显示方法的流程示意图;
图2是根据本申请的重构前交互界面的示意图;
图3是图2中交互界面重构后的其中一种示意图;
图4是图2中交互界面重构后的另外一种示意图;以及
图5是用来实现本申请实施方式的车辆屏幕显示方法的电子设备的框图。
附图标记:
100、交互界面;110、导航栏;120、界面控件;200、电子设备;
201、计算单元;202、存储器(ROM);203、存储器(RAM);
204、总线;205、I/O接口;206、输入单元;207、输出单元;
208、存储单元;209、通信单元。
具体实施方式
以下结合附图对本申请的示范性实施方式做出说明,其中包括本申请实施方式的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施方式做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,在不冲突的情况下,本申请中的实施方式及实施方式中的特征可以相互组合。下面将参考附图并结合实施方式来详细说明本申请。
智能座舱是一个集环境感知、规划决策、多等级辅助驾驶等功能于一体的综合系统,对智能座舱的研究主要致力于提高汽车的安全性、舒适性以及智能交互的便捷性。目前智能座舱内可能只配置了一个屏幕,也可能配置了多个屏幕例如有配置主屏幕和副屏幕。由于当前智能座舱的屏幕主要考虑主驾驶的视觉和操作习惯,因此屏幕中界面交互元素例如导航栏或者界面控件的显示位置固定并更靠近主驾驶的一侧。例如,在智能座舱只配置了一个屏幕的情况下,导航栏通常固定显示于该屏幕的最左侧区域也即靠近主驾驶的边缘区域,界面控件显示于该屏幕的左侧区域也即位于相对靠近主驾驶的区域。这不仅导致导航栏和部分界面控件容易被方向盘遮挡,从而影响驾驶员操作,而且也不便于副驾驶等其他用户查看和操作。又如,在智能座舱配置了主屏幕和副屏幕的情况下,导航栏固定显示于主屏幕中,界面控件也偏向左侧显示,进而不便于副驾驶等其他用户查看和操作。
基于此,为了解决上述问题,本申请实施方式提供了一种车辆屏幕显示方法。本申请实施方式所提供的车辆屏幕显示方法一般由车机端执行。图1示出了根据本申请的车辆屏幕显示方法的一个实施例的流程示意图。该车辆屏幕显示方法1000包括以下步骤:
S100、响应于监听到用户的语音信号,实时获取用户的眼动信息;
S200、根据语音信号和眼动信息确定目标界面交互元素的目标显示区域,目标显示区域位于车辆的交互界面100上;
S300、根据目标显示区域重构车辆的交互界面100。
若用户觉得当前车辆的交互界面100中目标界面交互元素的显示位置不合适,则可以发出例如“将XX靠右显示”、“XX靠近我显示”、“XX太远了,看不到”等相关语音。发出上述语音的用户必然想要操作或者查看交互界面100,该用户的眼睛会下意识看向交互界面100中靠近自己的区域。车机端通过车辆的麦克风接收到用户的语音信号,则实时获取用户的眼动信息,并根据接收到的上述语音信号和眼动信息确定目标界面交互元素的目标显示区域。由此,车机端便可以将目标界面交互元素从当前区域移动至目标显示区域,进而重构车辆的交互界面100,以便于用户查看或操作目标界面交互元素。
由上可知,本申请实施方式通过根据所监听到的用户的语音信号和所获取的用户的眼动信息来确定目标显示区域,并根据目标显示区域重构车辆的交互界面100,将目标界面交互元素显示于交互界面100的目标显示区域,不仅便于用户在不刻意调整坐姿的情况下查看或操作目标界面交互元素,提高用户的舒适度,而且鉴于用户发出的语音可能不包括方位词和显示调整词等关键词,根据语音信号和眼动信息确定目标显示区域可以弥补语音信号指示不够清楚的缺陷,降低对用户发出语音内容的限制,提高用户体验。
需要说明的是,在车辆仅配置有一个屏幕的情况下,上述交互界面100一般指代的是该屏幕的交互界面;而在车辆配置有多个屏幕的情况下,上述交互界面100一般指代的是所有屏幕的交互界面。此外,本申请实施方式中目标界面交互元素可以但不限于包括导航栏110和/或界面控件120。
下面对本申请实施方式中车辆屏幕显示方法的各个步骤进行具体介绍。
步骤S100
在步骤S100中,响应于监听到用户的语音信号,实时获取用户的眼动信息。其中,眼动信息可以但不限于包括眼睑信息、眨眼次数、眨眼频率、眼球视线信息、眼球转动信息和注视时长中的至少一个。眼动信息可以但不限于基于瞳孔中心角膜反射技术(pupilcenter corneal reflection,PCCR)和/或基于外貌检测(appearance-based)等技术来获取。其中,获取眼动信息的装置可以包括红外发射器、摄像头和眼动处理器,红外发射器向用户发射红外光,红外光在用户眼睛的角膜上发生反射并在角膜上形成光斑,摄像头可以采集用户的眼部图像,眼动处理器基于预设的图像算法解析摄像头采集的眼部图像就可以至少确定出用户眼睛的瞳孔中心和投射在角膜上的光斑之间的相对位置,进而至少根据上述相对位置就可以得到眼动信息。当然,用户的眼动信息除了采用上述装置来获取以外,还可以采用其他装置来获取,本申请对此不作限制。
步骤S200
在步骤S200中,根据语音信号和眼动信息确定目标界面交互元素的目标显示区域,目标显示区域位于车辆的交互界面100上。车机端对监听到的语音信号进行解析,而语音信号所包括的内容影响确定目标显示区域的方式,换言之,解析结果不同确定目标显示区域的方式不同,例如:
方式一、在车机端解析出语音信号包括方位词的情况下,车机端将交互界面100与方位词对应的区域设置为目标显示区域。其中,方位词可以但不限于包括上侧、下侧、左侧、右侧、上方、下方、左方、右方、左上角、右上角、左下角和右下角中的至少一个。
方式二、在车机端解析出语音信号不包括方位词但包括显示调整词的情况下,车机端根据语音信号确定用户的声音来源方向,并将交互界面100靠近声音来源方向的区域设置为目标显示区域。其中,显示调整词一般可以理解为具有改变交互界面100布局意图的词语。例如,显示调整词可以但不限于包括靠近、趋近、朝向和远离中的至少一个。
方式三、在车机端解析出语音信号既不包括方位词也不包括显示调整词的情况下,车机端根据眼动信息确定用户的当前视线落点,若当前视线落点位于交互界面100,说明用户正在看交互界面100,则将当前视线落点所处预设范围内的区域设置为目标显示区域;若当前视线落点不位于交互界面100,说明用户并没有看交互界面100,用户并非想要调整交互界面100中目标界面交互元素的位置,车机端则可以不作出响应。
为了便于理解,下面对步骤S200进行举例说明:
若副驾驶发出“请靠近右侧显示”的语音信号,车机端则可以解析出该语音信号包括方位词“右侧”和显示调整词“靠近”,由此车机端可将交互界面100的右侧区域设置为目标显示区域。若副驾驶发出“靠近我显示”的语音信号,车机端则可以解析出该语音信号不包括方位词,但是包括显示调整词“靠近”,由此车机端可根据语音信号确定用户的声音来源方向,并将交互界面100中靠近副驾驶也即靠近右侧的区域设置为目标显示区域。若副驾驶发出“看不到导航栏110”的语音信号,车机端则可以解析出该语音信号不包括方位词和显示调整词,由此车机端可根据所获取的用户的眼动信息确定用户的当前视线落点。由于副驾驶想要看交互界面100上的导航栏110,因此副驾驶下意识会将视线从交互界面100中导航栏110所在的区域移动到屏幕中靠近自己的区域,也就是说,副驾驶的视线落点会位于交互界面100靠近副驾驶的区域。由此,车机端可以将当前视线落点所处预设范围内区域也即靠近副驾驶的区域设置为目标显示区域。其中,预设范围可以为以当前视线落点为圆心,并以预设距离例如5cm为半径的圆形区域,也可以为以当前视线落点为中心的矩形区域,也可以为异形区域,本申请对此不作限定。
步骤S300
在步骤S300中,根据目标显示区域重构车辆的交互界面100。由于车辆可能仅配置有一个屏幕,也可能配置有多个屏幕,因此在车辆配置有多个屏幕的情况下,目标界面交互元素所在的当前区域与目标显示区域可能位于同一个屏幕上,也可能位于不同的屏幕上。由此,若目标显示区域位于当前屏幕的交互界面100上,车机端则将目标界面交互元素从当前屏幕的当前区域移动至目标显示区域,也就是说,目标界面交互元素从同一个屏幕的当前区域移动到另外一个区域。若目标显示区域位于目标屏幕的交互界面100上,目标屏幕为不同于当前屏幕的屏幕,车机端则将目标界面交互元素从当前屏幕的当前区域跨屏移动至目标显示区域,也就是说,目标界面交互元素从当前屏幕移动到目标屏幕。
下面对本申请实施方式中车辆屏幕显示方法进行举例说明:
作为示例,如图2所示,当前车辆仅配置了一个屏幕,屏幕中的界面交互元素默认靠近主驾驶一侧即左侧显示。若副驾驶或主驾驶想要操作或者查看屏幕,则可以发出相关语音。例如,主驾驶觉得部分导航栏110被方向盘遮挡,不方便操作,主驾驶可以发出“请将导航栏110显示在上方”的语音。此时,车机端通过车辆的麦克风便可以监听到该语音信号,进而实时获取主驾驶的眼动信息,并解析该语音信号。车机端解析出用户的语音信号包括方位词“上方”,则可以将屏幕的上方区域设置为目标显示区域,并将导航栏110从当前区域移动至屏幕的上方区域。又如,副驾驶发出“看不到导航栏110”的语音时,车机端通过车辆的麦克风便可以监听到该语音信号,进而实时获取副驾驶的眼动信息,并解析用户的语音信号。车机端解析出用户的语音信号不包括方位词和显示调整词,则可以根据副驾驶的眼动信息确定副驾驶的当前视线落点。由于副驾驶想要操作导航栏110,因此副驾驶下意识会将视线从导航栏110所在的当前区域移动到屏幕中靠近自己的区域。如图2和图4所示,车机端在确定出副驾驶的当前视线落点位于交互界面100上时,则可以将当前视线落点所处预设范围内的区域设置为目标显示区域,并将导航栏110从当前区域移动到屏幕的右侧区域。再如,副驾驶发出“靠近我显示”的语音时,车机端通过车辆的麦克风便可以监听到该语音信号,进而实时获取副驾驶的眼动信息,并解析用户的语音信号。车机端解析出用户的语音信号不包括方位词“右侧”,但是包括显示调整词“靠近”,车机端则根据语音信号确定用户的声音来源方向。由于用户的语音信号中不包括目标界面交互元素,因此如图2和图3所示,车机端在确定出声音来源方向为副驾驶方向时,可以将屏幕的右侧区域设置为目标显示区域,并将屏幕中的所有界面交互元素例如导航栏110和界面控件120从当前区域移动至屏幕的右侧区域。
在一些实施例中,该显示方法还包括:根据用户的眼动信息确定用户的视线落点;响应于确定出视线落点偏离目标显示区域超过第二预设时长,复原车辆的交互界面100。当用户的视线落点偏离目标显示区域超过第二预设时长例如10s,则说明用户不再关注交互界面100,放弃了对交互界面100的操作权,此时车机端可以复原车辆的交互界面100。需要说明的是,车辆的交互界面100可以有多种复原方式。例如,车机端可以将目标界面交互元素从交互界面100的当前区域复原到先前区域。又如,车机端可以将交互界面100的指定区域设置为默认显示区域,从而需要复原交互界面100时,则可以将目标界面交互元素从当前区域复原到默认显示区域。其中,上述先前区域和默认显示区域可能是交互界面100中的同一个区域,也可能是不同的区域。
需要说明的是,交互界面100除了根据用户视线落点偏离目标显示区域的时长来触发复原以外,还可以根据用户的复原指令来触发复原。其中,用户的复原指令可以但不限于是语音指令、手势指令或触控指令。
另外,考虑到车内用户例如主驾驶和副驾驶的眼睛与屏幕具有一定距离,若用户的视力不好,那么在不调整坐姿的情况下,为了看清楚自己所关注的目标显示区域中的内容用户会下意识眯眼,所以为了避免用户长时间眯眼造成眼部疲劳,同时提高用户体验,车机端可以根据眼动信息确定用户的睁眼状态,若用户的睁眼状态为眯眼状态且眯眼状态持续时长超过第一预设时长,则说明用户眯眼并非正常的眨眼,此时车机端可放大目标显示区域。需要说明的是,目标显示区域可以通过多种方式放大。例如,车机端可以将目标显示区域全屏显示。又如,车机端也可以根据用户眯眼的程度来放大目标显示区域,具体地,车机端可以根据眼动信息确定眯眼状态对应的眯眼系数,进而根据眯眼系数确定目标放大倍数,将目标显示区域放大目标放大倍数。其中,眯眼系数表征用户眯眼的程度,也就是说,眯眼系数表征用户近视的程度。其中,眯眼系数和目标放大倍数可以具有映射关系,也可以具有函数关系,本申请对此不作限定。例如,眯眼系数和目标放大倍数具有映射关系,车辆内预存有眯眼系数和目标放大倍数的映射表。若眼睛的上眼缘和下眼缘之间的缝隙的间距为正常间距,则对应的眯眼系数为0,目标放大倍数为1倍,也就是说,目标显示区域保持原本大小;若眼睛的上眼缘和下眼缘之间的缝隙的间距为正常间距的一半,则对应的眯眼系数为2,目标放大倍数为2倍。以此类推,随着眼睛睁开缝隙越来越小,眯眼系数和目标放大倍数随之增加。其中,用户眼睛的上眼缘和下眼缘之间的缝隙的间距可以通过对摄像头采集的眼部图像进行图像算法来获得。
另外,本申请实施方式还提供了一种电子设备,该电子设备包括至少一个处理器以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行上述车辆屏幕显示方法。
本申请实施方式还提供了一种计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现上述车辆屏幕显示方法。
图5示出了可以用来实施本公开的实施方式的示例电子设备200的示意性框图。电子设备200旨在表示各种形式的数字计算机,并可包括但不限于应用于车辆中。电子设备还可以表示各种形式的可运行计算程序的移动装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图5所示,电子设备200包括计算单元201,其可以根据存储在只读存储器(ROM)202中的计算机程序或者从存储单元208加载到随机访问存储器(RAM)203中的计算机程序,来执行各种适当的动作和处理。在RAM 203中,还可存储电子设备200操作所需的各种程序和数据。计算单元201、ROM 202以及RAM 203通过总线204彼此相连。输入/输出(I/O)接口205也连接至总线204。计算单元201在本文中也还可统称为处理器。
电子设备200中的多个部件连接至I/O接口205,包括:输入单元206,例如显示屏等;输出单元207,例如各种类型的显示器、扬声器等;存储单元208,例如磁盘等;以及通信单元209,例如网卡、调制解调器、无线通信收发机等。通信单元209允许电子设备200通过诸如因特网的计算机网络140和/或各种电信网络140与其他设备交换信息/数据。
计算单元201可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元201的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元201执行上文所描述的各个方法和处理,例如车辆屏幕显示方法。例如,在一些实施方式中,车辆屏幕显示方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元208。在一些实施方式中,计算机程序的部分或者全部可以经由ROM 202和/或通信单元209而被载入和/或安装到电子设备200上。当计算机程序加载到RAM 203并由计算单元201执行时,可以执行上文描述的车辆屏幕显示方法的一个或多个步骤。备选地,在其他实施方式中,计算单元201可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行车辆屏幕显示方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程示意图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (12)

1.一种车辆屏幕显示方法,其特征在于,包括:
响应于监听到用户的语音信号,实时获取所述用户的眼动信息;
根据所述语音信号和所述眼动信息确定目标界面交互元素的目标显示区域,所述目标显示区域位于所述车辆的交互界面上;以及
根据所述目标显示区域重构所述车辆的交互界面。
2.根据权利要求1所述的车辆屏幕显示方法,其中,根据所述语音信号和所述眼动信息确定目标界面交互元素的目标显示区域包括:
解析所述语音信号;
响应于解析出所述语音信号不包括方位词,根据所述语音信号的声源方向或所述眼动信息确定所述目标显示区域;以及
响应于解析出所述语音信号包括所述方位词,将所述交互界面与所述方位词对应的区域设置为所述目标显示区域。
3.根据权利要求2所述的车辆屏幕显示方法,其中,根据所述语音信号的声源方向或所述眼动信息确定所述目标显示区域包括:
响应于解析出所述语音信号包括显示调整词,确定所述语音信号的声音来源方向;
将所述交互界面靠近所述声音来源方向的区域设置为所述目标显示区域;
响应于解析出所述语音信号不包括显示调整词,根据所述眼动信息确定所述用户的当前视线落点;以及
响应于所述当前视线落点位于所述交互界面上,将所述当前视线落点所处预设范围内的区域设置为所述目标显示区域。
4.根据权利要求1所述的车辆屏幕显示方法,其中,所述目标界面交互元素包括导航栏和/或界面控件。
5.根据权利要求1所述的车辆屏幕显示方法,其中,根据所述目标显示区域重构所述车辆的交互界面包括:
响应于所述目标显示区域位于当前屏幕的交互界面上,将所述目标界面交互元素从所述当前屏幕的当前区域移动至所述目标显示区域;以及
响应于所述目标显示区域位于目标屏幕的交互界面上,将所述目标界面交互元素从所述当前屏幕的当前区域跨屏移动至所述目标显示区域;
其中,所述目标屏幕为不同于所述当前屏幕的屏幕。
6.根据权利要求1至5任一项所述的车辆屏幕显示方法,其中,在执行根据所述目标显示区域重构所述车辆的交互界面的步骤之后,所述显示方法还包括:
根据所述眼动信息确定所述用户的睁眼状态;以及
响应于所述睁眼状态为眯眼状态且所述眯眼状态持续时长超过第一预设时长,放大所述目标显示区域。
7.根据权利要求6所述的车辆屏幕显示方法,其中,放大所述目标显示区域包括:
将所述目标显示区域全屏显示。
8.根据权利要求6所述的车辆屏幕显示方法,其中,放大所述目标显示区域包括:
根据所述眼动信息确定所述眯眼状态对应的眯眼系数,根据所述眯眼系数确定目标放大倍数,所述眯眼系数表征所述用户眯眼的程度;以及
将所述目标显示区域放大所述目标放大倍数。
9.根据权利要求1至5任一项所述的车辆屏幕显示方法,其中,在执行根据所述目标显示区域重构所述车辆的交互界面的步骤之后,所述显示方法还包括:
根据所述用户的眼动信息确定所述用户的视线落点;
响应于确定出所述视线落点偏离所述目标显示区域超过第二预设时长,复原所述车辆的交互界面。
10.根据权利要求9所述的车辆屏幕显示方法,其中,所述显示方法还包括:将所述车辆的交互界面的指定区域设置为默认显示区域;
其中,复原所述车辆的交互界面包括:
将所述目标界面交互元素从所述目标显示区域移动至所述默认显示区域。
11.一种电子设备,其特征在于,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至10任一项所述的车辆屏幕显示方法。
12.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1至10任一项所述的车辆屏幕显示方法。
CN202310641246.6A 2023-05-31 2023-05-31 车辆屏幕显示方法、电子设备和计算机可读存储介质 Pending CN116661599A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310641246.6A CN116661599A (zh) 2023-05-31 2023-05-31 车辆屏幕显示方法、电子设备和计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310641246.6A CN116661599A (zh) 2023-05-31 2023-05-31 车辆屏幕显示方法、电子设备和计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN116661599A true CN116661599A (zh) 2023-08-29

Family

ID=87720204

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310641246.6A Pending CN116661599A (zh) 2023-05-31 2023-05-31 车辆屏幕显示方法、电子设备和计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN116661599A (zh)

Similar Documents

Publication Publication Date Title
TWI741512B (zh) 駕駛員注意力監測方法和裝置及電子設備
CN108369767B (zh) 基于用户认知状态和/或情境状态的会话调整系统和方法
KR102391279B1 (ko) 운전 상태 모니터링 방법 및 장치, 운전자 모니터링 시스템 및 차량
US9908530B1 (en) Advanced vehicle operator intelligence system
US20200339133A1 (en) Driver distraction determination
US10399575B2 (en) Cognitive load driving assistant
EP3067827B1 (en) Driver distraction detection system
JP2020525334A (ja) 運転管理方法及びシステム、車載スマートシステム、電子機器並びに媒体
JP2021527900A (ja) 運転状態検出方法及び装置、運転者監視システム並びに車両
EP3889740B1 (en) Affective-cognitive load based digital assistant
CN113993741B (zh) 座舱系统调节装置和用于调节座舱系统的方法
CN110461679B (zh) 确保车辆中乘员意识
CN113359974A (zh) 基于注意的通知
US11937930B2 (en) Cognitive state-based seamless stimuli
CN111252074B (zh) 多模态控制方法、装置、计算机可读存储介质和车辆
CN111452616A (zh) 一种信息的显示控制方法、装置和车辆
CN115923832A (zh) 用于机器向驾驶员转变的移交助手
CN111435269A (zh) 车用平视显示设备的显示调节方法、系统、介质及终端
CN113313019A (zh) 一种分神驾驶检测方法、系统及相关设备
JP2019006183A (ja) 操縦支援装置、操縦支援方法、プログラム
JP2020035437A (ja) 車両システム、車両システムで実行される方法、および運転者支援システム
CN116661599A (zh) 车辆屏幕显示方法、电子设备和计算机可读存储介质
CN117270718A (zh) 车载显示方法、装置、车辆及存储介质
JP5664202B2 (ja) 運転支援装置
US20220043509A1 (en) Gaze tracking

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination