CN105045419A - 车辆的显示设备 - Google Patents

车辆的显示设备 Download PDF

Info

Publication number
CN105045419A
CN105045419A CN201510192556.XA CN201510192556A CN105045419A CN 105045419 A CN105045419 A CN 105045419A CN 201510192556 A CN201510192556 A CN 201510192556A CN 105045419 A CN105045419 A CN 105045419A
Authority
CN
China
Prior art keywords
hand
unit
distance
sensor unit
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510192556.XA
Other languages
English (en)
Other versions
CN105045419B (zh
Inventor
曹英准
郑文寀
金善旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN105045419A publication Critical patent/CN105045419A/zh
Application granted granted Critical
Publication of CN105045419B publication Critical patent/CN105045419B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/10
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K37/00Dashboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0446Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • B60K2360/141
    • B60K2360/1438
    • B60K2360/146
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Abstract

车辆的显示设备。一种车辆包括显示设备。该显示设备包括显示单元、光学传感器单元、触摸传感器单元和处理器。所述处理器可确定手部是否位于距离所述显示单元的第一距离范围内以及手部是否位于比所述第一距离范围更接近所述显示单元的距离所述显示单元的第二距离范围内,所述光学传感器单元被构造成基于手部正位于所述第一距离范围内识别接收到的光,所述触摸传感器单元被构造成基于手部正位于所述第二距离范围内识别手部。所述处理器可基于确定手部从位于所述第一距离范围内转变成位于所述第二距离范围内,致使所述触摸传感器单元进行操作。

Description

车辆的显示设备
相关申请的交叉引用
本申请要求2014年4月22日在韩国知识产权局提交的韩国专利申请No.10-2014-0048217的权益,该专利申请的公开以引用方式并入本文中。
技术领域
本公开涉及车辆的显示设备,更特别地,涉及可提高用户便利度的车辆的显示设备。
背景技术
通常,车辆是用户可在所需方向上行进的装置。例如,车辆可包括汽车。
正在对给驾驶车辆的用户提供多条信息的显示设备进行各种研究。例如,3D交互技术包括除了感测X轴和Y轴输入之外还感测Z轴输入。
发明内容
本公开的目的是提供可提供用户便利度的车辆的显示设备。
本公开的另一个目的是提供可连续跟踪用户靠近显示设备的车辆的显示设备。
本公开的目的不限于上述目的,根据下面的描述,对于本领域的技术人员而言,以上没有提到的其它目的将变得显而易见。
为了实现以上目的,提供了根据本公开的示例性实现方式的一种具有显示设备的车辆,该显示设备包括:显示单元;光学传感器单元,其被构造成发射并且接收光;触摸传感器单元,其设置在所述显示单元的表面上或所述显示单元的表面之下;处理器,其被构造成(i)确定手部是否位于距离所述显示单元的第一距离范围内,所述光学传感器单元被构造成基于手部正位于所述第一距离范围内识别接收到的光,(ii)确定手部是否位于比所述第一距离范围更接近所述显示单元的距离所述显示单元的第二距离范围内,所述触摸传感器单元被构造成基于手部正位于所述第二距离范围内识别手部,其中,所述处理器被构造成基于确定手部从位于所述第一距离范围内转变成位于所述第二距离范围内,致使所述触摸传感器单元进行操作。
为了实现以上目的,提供了根据本公开的示例性实现方式的一种车辆的显示设备,该显示设备包括:显示单元;光学传感器单元,其被构造成发射并且接收光;触摸传感器单元,其设置在所述显示单元的表面上或所述显示单元的表面之下;处理器,其被构造成(i)确定手部是否位于距离所述显示单元的第一距离范围内,所述光学传感器单元被构造成基于手部正位于所述第一距离范围内识别接收到的光,(ii)确定手部是否位于比所述第一距离范围更接近所述显示单元的距离所述显示单元的第二距离范围内,所述触摸传感器单元被构造成基于手部正位于所述第二距离范围内识别手部,其中,所述处理器被构造成基于确定手部从位于所述第一距离范围内转变成位于所述第二距离范围内,致使所述触摸传感器单元进行操作。
附图说明
附图被包括以提供对本申请的进一步理解,并入且构成本申请的部分,附图示出本申请的实现方式并且与描述一起用于说明本申请的原理。在附图中:
图1是示出根据本公开的一个实现方式的车辆的示例显示设备的立体图;
图2a至图2e是示出图1的车辆的显示设备的结构的视图;
图3是图1的车辆的显示设备的框图;
图4a和图4b是示出图1的车辆的显示设备进行的示例用户手部识别过程的视图;
图5是示出图3的光学输出单元和触摸传感器单元的示例操作的视图;
图6a至图6c是示出图3的触摸传感器单元的示例操作的视图;
图7是示出根据本公开的一个实现方式的车辆的显示设备的操作方法的流程图;
图8和图9的(a)至图9的(c)是示出图7的操作方法的视图。
具体实施方式
参照以下结合附图描述的实现方式,本公开的优点和特征及其实现方式将变得清楚。现在,将详细参照本公开的各种实现方式,在附图中示出这些实现方式的示例。只要有可能,将在整个附图中使用相同的参考标号来表示相同或类似的部件。
下文中,用于表示组件意思的术语“模块”和“单元”用于促进对本公开的整体理解,因此可不是指特定含义或功能。因此,术语“模块”和“单元”可互换地使用。
本说明书中描述的车辆可包括汽车、摩托车和自行车,这只是几个例子。在下面的描述中,将重点把汽车作为车辆,但应该理解,可使用其它类型的车辆。
说明书中描述的车辆的显示设备可以是音频视频导航(AVN)设备等。
参照图1,车辆200可包括:轮203FR、203FL、203RL,(在图1中,轮203RR被隐藏在车辆200后方),其可在电源的作用下旋转;方向盘250,其用于调节车辆200的行驶方向;显示设备100,其用于向用户提供信息。
这里,车辆200可包括基于化石燃料供电的发动机或使用DC电源(诸如,太阳能电池或电池)供电的电动机。另外,车辆200可包括将来自发动机的电力转换成旋转力的传动装置和用于停止车辆200行驶的刹车。
本说明书中描述的车辆200可包括具有发动机的传统车辆、同时具有发动机和电动机的混合车辆、具有电动机的电动车辆。
根据本公开的实现方式的车辆的显示设备100是如以下进一步描述的可启用3D交互并因此被构造成执行接近触摸或空间识别的显示设备。
特别地,如果用户手部位于显示设备100的前表面上并随后顺序靠近显示设备100,则根据本公开的实现方式的车辆的显示设备100可识别手部的所有路径和区域以及手部的位置,直到执行了触摸输入(即,手部检测),如果显示设备100和手部之间的距离如图4中所示在第三距离范围L3内,则还检测手指运动(即,手指检测)。因此,车辆的显示设备100可有助于提高例如因分辨率或视角减小而引起的接近空间识别的低成功率。
为此目的,根据本公开的实现方式的车辆的显示设备100可包括显示单元180以及用于检测用户手部的光学传感器单元121和用于检测用户手指(即,感测悬浮触摸)(参见图3)的触摸传感器单元126。
更详细地,如果用户手部400位于与显示设备100相距第一距离范围L1(参见图4a)内,则从显示设备100的光学传感器单元121的光学输出单元122输出的光可被用户手部400反射或散射,然后被光学接收单元124(参见图3)接收。
另外,参照图3,处理器170可基于光学接收单元124接收的光,计算与用户手部400的位置对应的位置信息。更详细地,处理器170可计算相对于显示设备100的X轴和Y轴信息。另外,处理器170可基于接收到的光的强度,大致计算Z轴信息,即,显示设备100和用户手部400之间的距离。
如果用户手部400顺序靠近显示设备100,则处理器170可基于光学接收单元124接收的光,连续计算用户手部400的X轴、Y轴和Z轴信息。这里,Z轴信息可顺序地减小。
另外,如果用户手部400靠近显示设备100达到比第一距离范围L1更接近显示设备100的第二距离范围L2(参见图4a)内,则触摸传感器单元126可基于手部的这种靠近在它被施加电力时进行操作。也就是说,如果用户手部400位于与显示设备100相距第二距离范围L2之外,则触摸传感器单元126可不进行操作,从而例如降低了不必要的功耗。在一些情况下,即使当用户手部400位于与显示设备100相距距离范围L2之外时,触摸传感器单元126也可保持进行操作。
触摸传感器单元126可感测悬浮触摸,为此目的,可包括电极阵列和MCU。如此,如果触摸传感器单元126进行操作,则向电极阵列供应电信号并且可在电极阵列上形成电场。
另外,如果用户手部400靠近显示设备100以位于比第二距离范围L2更接近显示设备100的第三距离范围L3(参见图4a)内,则可在显示设备100的前表面上形成的电场中产生电容变化,触摸传感器单元126可被构造成感测此电容变化。然后,可基于感测到的电容变化,计算悬浮触摸输入的X轴和Y轴信息。另外,可基于电容变化的强度,计算Z轴信息,即,显示设备100和用户手部400之间的距离。
在一些情况下,当用户手部400从在第二距离范围L2内移动到在第三距离范围L3内时,光学输出单元122可关闭以停止输出光。在一些情况下,当用户手部400从在第三距离范围L3内移动到在第二距离范围L2内时,关闭的光学输出单元122可打开,以重新开始输出光。
可基于以光学传感器单元121为基础计算出的用户手部的距离信息(即,Z轴信息),执行触摸传感器单元126内的电极阵列的分组变化。例如,电极阵列组的大小可被设置成随着用户手部和显示单元180之间的距离减小而减小。
也就是说,触摸传感器单元126内的电极阵列的触摸感测单元的大小可基于以光学传感器单元121为基础计算出的用户手部的距离信息(即,Z轴信息)而变化。
作为一个示例,参照图4a,如果用户手部与显示设备100的距离在第二距离范围L2内,则电极阵列可被分组,使得触摸感测单元(分组电极)的大小可以是对应于9个电极单元的第一大小,如果用户手部与显示设备100的距离在比第二距离范围L2小的第三距离范围L3内,则电极阵列可被分组,使得触摸感测单元(分组电极)的大小可以是对应于4个电极单元的第二大小。
作为另一个示例,如果用户手部与显示设备100的距离在第二距离范围L2内,则电极阵列可被分组,使得触摸感测单元(分组电极)的大小可以是对应于4个电极单元的第一大小,如果用户手部与显示设备100的距离在比第二距离范围L2小的第三距离范围L3内,则电极阵列可被分组,使得触摸感测单元(分组电极)的大小可以是对应于1个电极单元的第二大小。
也就是说,触摸感测单元的大小可被设置成随着用户手部和显示单元180之间的距离减小而减小。
可通过施加到电极阵列的电信号的变化,执行触摸感测单元(分组电极)的大小的变化。
作为一个示例,如果触摸感测单元(分组电极)的大小是对应于9个电极单元的大小,则可通过只向第一水平电极至第四水平电极之中的第一水平电极和第四水平电极以及第一垂直电极至第四垂直电极之中的第一垂直电极和第四垂直电极施加电信号,设置对应于9个电极单元的触摸感测单元(分组电极)的大小。
作为另一个示例,如果触摸感测单元(分组电极)的大小是对应于4个电极单元的大小,则可通过只向第一水平电极至第三水平电极之中的第一水平电极和第三水平电极以及第一垂直电极至第三垂直电极之中的第一垂直电极和第三垂直电极施加电信号,设置对应于4个电极单元的触摸感测单元(分组电极)的大小。
作为又一个示例,如果触摸感测单元(分组电极)的大小是对应于1个电极单元的大小,则可通过向各个水平电极和各个垂直电极施加电信号,设置对应于1个电极单元的触摸感测单元(分组电极)的大小。
因此,触摸传感器单元126内的电极阵列消耗的电力的强度可根据用户手部与显示设备100的距离而变化。
如果用户手部(特别地,用户手指)靠近显示设备100达到在第三距离范围L3内,则触摸传感器单元126可感测因用户手指在显示设备100的前表面上形成的电场中造成的电容变化。然后,处理器170可基于感测到的电容变化计算悬浮触摸输入的X轴和Y轴信息。例如,处理器170可基于电容变化的强度,计算Z轴信息,即,显示设备100和用户手指之间的距离。
图2a至图2e示出图1的车辆的显示设备的示例结构。
参照图2a和图2b,显示设备100可包括显示区102和对应于包围显示区102的边缘区域的外围区101。
显示单元180和触摸传感器单元126可设置在显示区102中,边框框架103和光学传感器单元121可设置在外围区101中。
尽管图2b示出光学传感器单元121L和121R正位于外围区101的左侧和右侧,但光学传感器单元的位置不限于此。图2b的光学传感器单元121L和121R中的每个可形成在组合了光学输出单元和光学接收单元的模块中。
图2b示出触摸传感器单元126可位于覆盖物106下方并且显示单元180位于触摸传感器单元126下方。
用户手指可接触覆盖物106,覆盖物106可包括用于感测电容的导电元件。覆盖物106可接触触摸传感器单元126,例如,触摸传感器单元126中的电极阵列。
触摸传感器单元126的面积可与显示单元180的面积相同。因此,触摸传感器单元126可能够感测整个显示单元180上的触摸输入。
触摸传感器单元126可感测用户手指靠近达到预定距离内以及对显示设备100的直接触摸。这可被称为悬浮触摸或盘旋。下文中,将在说明书中使用术语“悬浮触摸”。
接下来,图2c至图2e示出图1的显示设备的另一个示例。特别地,图2c示出图1的显示设备的示例的正视图,图2d和图2e示出图2c的光学输出单元和光学接收单元的剖视图。
参照图2c,显示设备100可包括显示区102和对应于包围显示区102的边缘区域的外围区101。
显示单元180和触摸传感器单元126可设置在显示区102中,边框框架103和光学传感器单元121中的光学输出单元和光学接收单元可设置在外围区101中。
特别地,图2c示例性示出光学输出单元122a、122b、122c、122d、122e、122f、122g、122h、122i、122j、122k和122l和光学接收单元124a、124b、124c和124d可位于外围区101中的边框框架103上。
光学输出单元122a、122b、122c、122d、122e、122f、122g、122h、122i、122j、122k和122l和光学接收单元124a、124b、124c和124d可相互分开,光学输出单元122a、122b、122c、122d、122e、122f、122g、122h、122i、122j、122k和122l的数量可大于光学接收单元124a、124b、124c和124d的数量。如此,来自显示设备100的光学输出可以是均匀的。
图2d示出光学输出单元122的剖视图。光学输出单元122可位于边框框架103上的噪声控制框架单元109之间。可通过将光学输出单元122设置在噪声控制框架单元109之间,改进从光学输出单元122输出的光的笔直度。
另外,覆盖物106和滤光单元107可位于光学输出单元122和噪声控制框架单元109上。
图2e示出光学接收单元124的剖视图。光学接收单元124可位于边框框架103上的噪声控制框架单元109之间。可通过将光学接收单元124设置在噪声控制框架单元109之间,改进光学接收单元124接收的光的接收性能。
另外,覆盖物106和滤光单元107可位于光学接收单元124和噪声控制框架单元109上。
参照图2d和图2e,在光学输出单元122和覆盖物106之间以及在光学接收单元124和覆盖物106之间存在气隙。在一些情况下,光学接收单元124和覆盖物106之间的气隙可大于光学输出单元122和覆盖物106之间的气隙。如此,光学输出单元122可更有效地执行光学输出,而光学接收单元124可更有效地执行光学接收。
参照图3,根据本公开的实现方式的车辆的显示设备100可包括输入单元110、通信单元120、光学传感器单元121、触摸传感器单元126、接口单元130、存储器140、处理器170、显示单元180、音频输入单元183、音频输出单元185和电源单元190。
输入单元110可包括附接于显示设备100的按钮。例如,输入单元110可包括电源按钮。另外,输入单元110可包括菜单按钮、上下调节按钮和左右调节按钮中的至少一个。
通过输入单元110输入的信号可被发送到处理器170。
通信单元120可与相邻的电子设备交换数据。例如,通信单元120可通过无线通信方法与车辆或服务器内的电子设备交换数据。特别地,通信单元120可无线地与车辆驾驶员的移动终端交换数据。可采用诸如Bluetooth、Wi-FI、APiX等各种数据通信方法作为无线数据通信方法。
例如,如果用户坐在车辆中,则显示设备100和用户移动终端可自动地或者在用户执行应用时执行配对。
通信单元120可包括GPS接收装置并且通过GPS接收装置接收GPS信息,即,车辆的位置信息。
光学传感器单元121输出光并且接收对应于输出光的光,以感测位于显示设备100的前表面上的用户手部。可由处理器170处理基于接收到的光的电信号。
为此目的,光学传感器单元121可包括光学输出单元122和光学接收单元124。
光学输出单元122可输出例如红外(IR)光,以感测位于显示设备100的前表面上的用户手部。
如果从光学输出单元122输出的光被位于显示设备100的前表面上的用户手部散射或反射,则光学接收单元124接收被散射或反射光。更详细地,光学接收单元124可包括光电二极管并且通过光电二极管将接收到的光转换成电信号。转换后的电信号被输入到处理器170。
触摸传感器单元126感测悬浮触摸或直接触摸。为此目的,触摸传感器单元126可包括电极阵列和MCU。如果触摸传感器单元126进行操作,则向电极阵列供应电信号,因此,在电极阵列上形成电场。
如果光学传感器单元121接收的光的强度是第一水平或更高水平,则触摸传感器单元126可进行操作。
也就是说,如果用户手部靠近显示设备100以设置在预定距离内,则可向触摸传感器单元126内的电极阵列供应电信号。然后,由于向电极阵列供应电信号,导致在电极阵列上可形成电场,触摸传感器单元126可使用此电场感测电容变化。然后,触摸传感器单元126基于感测到的电容变化,感测悬浮触摸或直接触摸。
除了X轴和Y轴信息之外,可根据用户手部的靠近,通过触摸传感器单元126感测Z轴信息。
接口单元130可与车辆内的其它电子设备交换数据。例如,接口单元130可通过有线通信方法与车辆内的ECU执行数据通信。
更详细地,接口单元130可通过与车辆内的ECU进行数据通信来接收车辆状态信息。
这里,车辆状态信息可包括电池信息、燃料信息、车辆速率信息、轮胎信息、通过方向盘旋转的转向信息、车灯信息、车辆内部温度信息、车辆外部温度信息和车辆内部湿度信息。
另外,接口单元130可从车辆内的ECU接收GPS信息。另外,或另选地,接口单元130可向ECU发送从显示设备100接收的GPS信息。
存储器140可存储各条数据,以执行显示设备100的整体操作(诸如,用于处理器170中的处理或控制的程序)。
作为一个示例,存储器140可存储用于引导车辆的行驶路径的地图。作为另一个示例,存储器140可存储用户信息和用户移动终端信息,以执行与用户的移动终端配对。
音频输出单元185可将来自处理器170的电信号转换成音频信号。为此目的,音频输出单元185可包括扬声器。音频输出单元185可输出与输入单元110(即,输入单元110的按钮)的操作对应的输出声音。
音频输入单元183可接收用户语音。为此目的,音频输入单元183可包括麦克风。音频输入单元183可将接收到的语音转换成电信号并且将转换后的电信号发送到处理器170。
处理器170控制车辆的显示设备100内的各个单元的整体操作。
例如,处理器170可基于用户对输入单元110操作的信号,改变多个按钮中的至少一个的功能。
如果用户手部位于显示设备100的前表面上并随后顺序靠近显示设备100,处理器170可识别手部的所有路径和区域以及位置,直到执行了触摸输入(手部检测),如果显示设备100和手部之间的距离在第三距离范围L3内,则还检测手指(手指检测)。
更详细地,另外参照图4,如果用户手部400位于距离显示设备100的第一距离范围L1内并且特别地位于第一距离范围L1和第二距离范围L2之间,则处理器170接收与光学传感器单元121接收的光对应的电信号。然后,处理器170可基于来自光学传感器单元121的电信号,计算与用户手部的位置对应的位置信息。更详细地,处理器170可计算用户手部相对于显示设备100的X轴和Y轴信息。另外,处理器170可基于来自光学传感器单元121的电信号的强度(或大小或幅度),大致计算显示设备100和用户手部之间的距离(即,Z轴信息)。
如果用户手部连续靠近显示设备100,则处理器170可基于光学接收单元124接收的光,连续地计算用户手部的X轴、Y轴和Z轴信息。这里,Z轴信息可顺序地减小。
如果用户手部400靠近显示设备100达到比第一距离范围L1更接近显示设备100的第二距离范围L2内,则处理器170可操作触摸传感器单元126。也就是说,如果来自光学传感器单元121的电信号的强度是参考水平或更高水平,则处理器170可操作触摸传感器单元126。因此,可向触摸传感器单元126内的电极阵列供应电信号。
另外,如果用户手部400位于与显示设备100相距第二距离范围L2内,则处理器170可基于触摸传感器单元126感测的感测信号来感测悬浮触摸。
处理器170可基于此感测信号来计算悬浮触摸输入的X轴和Y轴信息并且基于电容变化的强度来计算用户手部和显示设备100之间的距离(即,Z轴信息)。
另外,处理器170可根据用户手部与显示设备100的距离,改变触摸传感器单元126内的电极阵列的分组。
更详细地,处理器170可基于以光学传感器单元121接收的光为基础计算出的大致Z轴信息,改变触摸传感器单元126内的电极阵列的分组。电极阵列组的大小可被设置成例如随着用户手部和显示设备100之间的距离增大而增大。
也就是说,处理器170可基于用户手部的距离信息(即,Z轴信息),改变触摸传感器单元126内的电极阵列的触摸感测单元的大小。
例如,如果用户手部与显示设备100的距离在第二距离范围L2内,则触摸感测单元(分组电极)的大小可以是对应于4个电极单元的大小,如果用户手部与显示设备100的距离在比第二距离范围L2小的第三距离范围L3内,则触摸感测单元(分组电极)的大小可以是对应于1个电极单元的大小。
可通过改变施加到电极阵列的电信号,执行触摸感测单元(分组电极)的大小变化。
作为一个示例,如果触摸感测单元(分组电极)的大小是对应于4个电极单元的大小,则可通过只向第一水平电极至第三水平电极之中的第一水平电极和第三水平电极以及第一垂直电极至第三垂直电极之中的第一垂直电极和第三垂直电极施加电信号,设置对应于4个电极单元的触摸感测单元(分组电极)的大小。
作为另一个示例,如果触摸感测单元(分组电极)的大小是对应于1个电极单元的大小,则可通过向各个水平电极和各个垂直电极施加电信号,设置对应于1个电极单元的触摸感测单元(分组电极)的大小。
因此,触摸传感器单元126内的电极阵列消耗的电力的强度可根据用户手部与显示设备100的距离而变化。随着用户手部与显示设备100的距离减小,触摸传感器单元126内的电极阵列消耗的电力的强度增大。
触摸传感器单元126可感测因用户手指在显示设备100的前表面上形成的电场中造成的电容变化。处理器170可基于感测到的此电容变化,计算悬浮触摸的X轴和Y轴信息。另外,处理器170可基于电容变化的强度,计算显示设备100和用户手指之间的距离(即,Z轴信息)。
在使用时,如果在用户手部位于第二距离范围L2内的状况期间发射由于用户手部在设置的多个触摸感测单元中的一些中而导致的电容变化信号,则处理器170可基于发射的电容变化信号之中强度最大的电容变化信号,计算用户手部的位置信息。也就是说,只可识别多个悬浮触摸之中的一个触摸。在一些情况下,可识别全部这多个悬浮触摸。然而,当识别多个悬浮触摸时,只可识别电容变化的强度是预定值或更大的触摸。
如果用户手部位于第一距离范围L1内的外围区101中,则处理器170可基于输出光和光学传感器单元121接收的光,执行关于用户手部位置信息的计算。也就是说,如果计算用户手部的位置信息,则处理器170可通过光学传感器单元121计算位置信息,尽管用户手部不仅位于显示区102中而且包围显示区102的外围区101中。这能够通过将光学传感器单元121设置在外围区101中来实现。
触摸传感器单元126可位于显示单元180的上表面或下表面上。因此,如果用户手部位于第二距离范围L2内与显示区102对应的区域中,则可执行对用户手部的识别。然而,如果用户手部位于围绕显示区102的外围区101中,则不可准确地执行对用户手部的识别。
也就是说,光学传感器单元121能识别的基于X轴和Y轴的区域的范围比触摸传感器单元126能识别的基于X轴和Y轴的区域的范围广。
如果用户手部从第一距离靠近第二距离,则处理器170可输出指示能够进行触摸输入的指示符。例如,指示符可包括通过音频输出单元185输出的预定声音或通过显示单元180输出的预定图像。另外,处理器170可基于计算出的用户手部位置信息,致使在显示单元180上显示对应菜单。
在一些情况下,处理器170可基于计算出的用户手部位置信息,突出显示单元180上显示的菜单中的特定项。
另外,处理器170可基于计算出的用户手部位置信息,选择或突出显示单元180上显示的菜单中的特定项。在一些情况下,如果计算出的用户手部距离在第二距离内,则处理器170可在显示单元180上显示菜单,如果计算出的用户手部距离在第三距离内,则处理器170可基于计算出的用户手部位置信息,选择或突出显示单元180上显示的菜单中的特定项。
显示单元180可分别地显示与设置的按钮功能对应的图像。为了显示这些图像,显示单元180可被实现为各种显示模块(诸如,LCD、OLED等)。另外,显示单元180可被实现为车辆内部的前表面上的设备组(cluster)。
电源单元190可在处理器170的控制下供应操作各个元件必需的电力。
图4a和图4b示出图1的车辆的显示设备进行的用户手部识别过程。
具体地,图4a示出用户手部400位于显示设备100的前表面上并随后顺序靠近显示设备100。
如果用户手部位于显示设备100的前表面上并随后顺序靠近显示设备100,则根据本公开的实现方式的显示设备100可识别手部的所有路径和区域以及位置,直到执行了触摸输入(手部检测),如果用户手部更接近地靠近显示设备100,则检测手指(手指检测)。
为此目的,显示设备100包括光学传感器单元121和触摸传感器单元126。
可划分用户手部到显示设备100的靠近路径,如图4b中示例性示出的。
也就是说,靠近路径可被划分成第一距离范围L1和第二距离范围L2之间的区域1(410)、第二距离范围L2和第三距离范围L3之间的区域2(420)、第三距离范围L3内的区域3(430)。
区域1可以是其中分散从光学传感器单元121输出的光的输出光分散区。区域1最远离显示设备100并且可被称为出现区(emergingarea)。
区域2和区域3可以是其中分散由于触摸传感器单元126操作而导致触摸传感器单元126产生电场的电场分散区。
特别地,区域2可以是其中触摸传感器单元126根据基于从光学传感器单元121输出的光和接收到的光计算出的距离进行操作的区域。因此,区域2可被称为靠近区。
由于区域2和区域3可以是电场分散区,因此区域2和区域3中的悬浮触摸可以是可能的,但区域2和区域3的触摸感测单元的大小可以不同。
也就是说,区域3的触摸感测单元的大小可小于区域2的触摸感测单元的大小,因此,区域3能够更精细地检测用户手部的位置信息。
因此,在区域3中,用户手部可以进行指点或瞄准。因此,区域3可被称为瞄准区。
在区域2中,可分散从光学传感器单元121输出的光。因此,区域2可以是触摸传感器单元126产生的电场和输出光在其中重叠的重叠区。
因此,显示设备100可通过光学传感器单元121检测区域1内的用户手部运动并且通过触摸传感器单元126检测区域2和区域3内的用户手部的存在。
在一些情况下,处理器170可基于来自光学传感器单元121的信息,确定用户手部位于例如区域1至3之中的哪个区域。另选地,或另外地,处理器170可基于来自触摸传感器单元126的信息,确定用户手部位于哪个区域。
图5示出图3的光学输出单元和触摸传感器单元的操作。
图5中的(a)示出参照图4b描述的区域1和区域2中的输出光510的分布图。特别地,在图5中,显示设备100的外围区中的光强度高于其它区域中的光强度,但输出光510在显示设备100的整个前表面上分布。
图5中的(b)示出参照图4b描述的区域2和区域3中的电场520的分布图。如上所述,当向触摸传感器单元126内的电极阵列供应电信号时,电场520在显示设备100的整个前表面上分布。
如上所述,基于红外光,根据本公开的实现方式的显示设备100可在显示设备100的前表面上的空间中没有相对于用户手部识别的死区(deadzone),这是因为组合了光学传感器单元121和检测悬浮触摸输入的触摸传感器单元126。另外,显示设备100可获取用户手部的X轴、Y轴和Z轴信息。另外,显示设备100可在检测用户手部期间具有高检测速度并且其大小增大。另外,显示设备100可选择性操作触摸传感器单元126以降低功耗。
图6a至图6c示出图3的触摸传感器单元的操作。
首先,图6a示出触摸传感器单元126内的电极阵列610的部分。
电极阵列610可包括水平电极Ex1、Ex2、Ex3和Ex4和垂直电极Ey1、Ey2、Ey3、Ey4、Ey5和Ey6
处理器170可基于以光学传感器单元12接收的光为基础计算出的大致Z轴信息,改变触摸传感器单元126内的电极阵列610的分组。
作为一个示例,如果用户手部位于第三距离范围L3内,即,位于上述区域3内,则触摸感测单元(分组电极)的大小可被确定大小,以对应于1个电极单元Ec1,如图6a中示例性示出的。
作为另一个示例,如果用户手部位于第二距离范围L2和第三距离范围L3之间,即,位于上述区域2内,则触摸感测单元(分组电极)的大小可被确定大小,以对应于4个电极单元(即,电极组AEGA),如图6b中示例性示出的。
图6b示出触摸传感器单元126内的电极阵列610的部分。特别地,感测4个电极单元(即,电极组AEGA)中的电容变化。多个电极单元中的电容变化的信号在多路复用器620中被复用,ADC630将多路复用信号转换成数字信号,MCU640处理转换后的数字信号。
MCU640可基于转换后的数字信号,计算悬浮触摸输入的X轴、Y轴和Y轴信息。
如果如图6b中示例性示出的,触摸感测单元(分组电极)的大小是对应于4个电极单元的大小,则MCU640可只向多个水平电极Ex1、Ex2、Ex3和Ex4之中的第一水平电极Ex1和第三水平电极Ex3施加电信号并且只向垂直电极Ey1、Ey2、Ey3、Ey4、Ey5和Ey6之中的第一垂直电极Ey1、第三垂直电极Ey3和第五垂直电极Ey5施加电信号。因此,可合适地设置对应于4个电极大小的触摸感测单元(分组电极)的大小。
MCU640可被包括在上述处理器170中。
可根据用户手部或手指的位置将触摸感测单元(分组电极)的大小设置成各种大小(诸如,1×1、2×2、3×3和2×7)。
接下来,图6c示例性示出触摸传感器单元126内的电极阵列610感测到的电容变化。
图6c示例性示出多个电极组A、B、C、D等以时分方式产生电容变化信号651、652、653和654。多路复用器620可多路复用这些信号651、652、653和654并且输出多路复用后的模拟信号。
图7示出根据本公开的一个实现方式的车辆的显示设备的操作方法的流程图。
参照图7,显示设备100内的光学传感器单元121输出光并且接收对应于输出光的光。
此后,处理器170可确定用户手部是否位于第一距离内(S705)。在确定用户手部位于第一距离内时,接收到的光的强度是预定值或更大,因此,处理器170可执行信号处理。
如此,如果接收到的光是能识别的,则处理器170可致使光学传感器单元121接收光并且检测光学信号(S710)。
显示设备100的处理器170可基于光学传感器单元121检测到的光学信号,计算用户手部的距离(S715)。
处理器170可基于来自光学传感器单元121的电信号,计算与用户手部的位置对应的位置信息。更详细地,处理器170可计算用户手部相对于显示设备100的X轴和Y轴信息。另外,处理器170可基于来自光学传感器单元121的电信号的强度(或大小或幅度),大致计算显示设备100和用户手部之间的距离(即,Z轴信息)。
另外,显示设备100的处理器170可确定用户手部是否连续靠近显示设备100以及基于光学传感器单元121计算出的用户手部的距离是否在第二距离内(S720)。在确定用户手部的距离在第二距离内时,处理器170操作触摸传感器单元126并且根据计算出的用户手部的距离,设置触摸传感器单元126内的触摸感测单元的大小(S725)。
这里,第二距离内的区域可对应于上述区域2。如上所述,区域2可以是其中从光学传感器单元121输出的光和触摸传感器单元126产生的电场重叠的重叠区域。
例如,如果用户手部的距离在第二距离范围L2和第三距离范围L3之间,则通过将电极阵列分组,触摸感测单元(分组电极)的大小可以是对应于4个电极单元的大小。
此后,触摸传感器单元126可基于被设置成4个电极单元的触摸感测单元来感测因用户手部造成的电容变化(S730)。例如,触摸传感器单元126感测因用户手部在显示设备100的前表面上形成的电场中而造成的电容变化。
此后,处理器170可基于感测到的电容变化,计算用户手部的位置信息(S735)。也就是说,处理器170可基于感测到的电容变化,计算悬浮触摸输入的X轴和Y轴信息。另外,处理器170可基于电容变化的强度,计算Z轴信息,即,显示设备100和用户手部之间的距离。这里,X轴和Y轴信息可以是与对应于4个电极单元的触摸感测单元的大小对应的信息。
此后,在操作S720中确定基于光学信号计算出的用户手部的距离在第二距离内时,可执行操作S740。
也就是说,处理器170可确定计算出的用户手部的距离是否在第三距离内(S740)。在确定计算出的用户手部的距离在第三距离内时,处理器170可将触摸传感器单元126内的触摸感测单元设置成对应于1个电极单元。
此后,触摸传感器单元126基于设置的触摸感测单元,感测因用户手部造成的电容变化(S745)。
此后,处理器170可基于感测到的电容变化来计算用户手部的位置信息(S750)。也就是说,处理器170可基于感测到的电容变化,计算悬浮触摸输入的X轴和Y轴信息。另外,处理器170可基于电容变化的强度,大致计算Z轴信息,即,显示设备100和用户手部之间的距离。这里,X轴和Y轴信息可以是与对应于1个电极单元的触摸感测单元的大小对应的信息。因此,如果用户手部位于区域3而非区域2内,则可检测到更准确的位置信息。
图8和图9的(a)至图9的(c)示出图7的操作方法,示例性示出用显示设备跟踪用户手部的连续运动。
首先,参照图8,如果用户手部的位置(x1、y1、z1)位于区域1内,则处理器170基于光学传感器单元121的操作,计算和识别用户手部的距离信息z1。除了Z轴信息z1之外,处理器170可计算X轴和Y轴信息x1和y1。
如果用户手部的位置(x1、y1、z1)位于可在其中识别到光的区域1内,则处理器170可在显示单元180上显示地图810以及第一菜单814和第二菜单818。如此,可在不进行单独输入操作的情况下根据用户手部的位置自动地显示地图810,从而提高用户便利度。
接下来,如果用户手部逐渐靠近显示设备100并且用户手部的位置(x2、y2、z2)位于区域2内,则处理器170基于光学传感器单元121的操作,计算和识别用户手部的距离信息z2。除了Z轴信息z2之外,处理器170可计算X轴信息x2和Y轴信息y2。
如果用户手部逐渐靠近显示设备100并且用户手部的位置(x2、y2、z2)位于区域2内,则处理器170可操作触摸传感器单元126。因此,处理器170可基于触摸传感器单元126感测到的电容,识别用户手部的位置信息x2、y2和z2。
当用户手部在区域2内时,处理器170可通过触摸传感器单元126获取比基于光学传感器单元121获取的位置信息更准确的位置信息。
区域2中的触摸感测单元的大小可对应于4个电极单元的大小,因此,X轴信息x2和Y轴信息y2可以是对应于4个电极单元的X轴和Y轴信息。
另外,处理器170可基于在用户手部位于区域2内的状况下计算出的用户手部的位置信息,显示菜单或只显示与手部的位置信息相关的内容。
图8示出用户手部的位置(x2、y2、z2)位于第一菜单814周围并因此不显示不相关的第二菜单818的情形。如此,用户可只将重点放在所需菜单上。
此后,如果用户手部进一步逐渐靠近显示设备100并且位于区域3内或者接触显示设备100,则处理器170可基于触摸传感器单元126识别悬浮触摸输入或直接触摸输入。也就是说,处理器170可识别用户手部的位置信息x3、y3和z3。另外,处理器170可在第一菜单814中选择特定项。
如上所述,区域3中的触摸感测单元的大小可对应于1个电极单元的大小,因此,X轴信息x3和Y轴信息y3可以是对应于1个电极单元的X轴和Y轴信息。
接下来,图9中的(a)示例性示出如果用户手部位于区域1内,则在显示单元180上显示地图810。
例如,如果用户手部与显示设备的距离是Za,则处理器170基于光学传感器单元121的操作,计算和识别用户手部的距离信息Za。然后,处理器170可基于计算出的距离信息单独在显示单元180上显示地图810。
接下来,图9中的(b)示例性示出如果用户手部的位置(xb、yb、zb)位于区域2内,则除了地图810之外,还在显示单元180上显示菜单814。特别地,图9中的(b)示例性示出与用户手部的X轴和Y轴坐标对应的菜单814的显示。
如果基于光学传感器单元121的操作计算出的用户手部的距离信息在第二距离范围L2内,则处理器170可操作触摸传感器单元126。如此,处理器170可基于触摸传感器单元126感测到的电容,识别用户手部的位置信息。
如果用户手部从第一距离范围L1进一步前进到达第二距离范围L2内,则处理器170可输出指示能够进行触摸输入的指示符。这里,指示符可包括通过音频输出单元185输出的预定声音或通过显示单元180输出的预定图像。
另外,如果用户手部位于第二距离范围L2内,则处理器170可基于用户手部的位置信息在显示单元180上显示菜单。特别地,处理器170可基于X轴和Y轴信息(即,用户手部的位置信息),在与用户手部位置对应的区域中显示菜单。由此,在行驶期间简单地在用户手部的位置处显示菜单,因此,可提高用户便利度。
接下来,图9中的(c)示例性示出如果在用户手部没有接触显示单元180的状况下用户手部的位置(xb、yb、zb)位于区域3内,则在显示单元180上显示的菜单814中的特定项817被突出。特别地,图9中的(c)示例性示出与计算出的用户手部的X轴和Y轴坐标对应的菜单814中的特定项817的显示。如此,用户可简单地选择所需的菜单项。
在图9的(c)中,特定项817可在被突出的同时被直接选择。另外,特定项817可在没有被突出的情况下被选择。
通过如上所述根据用户手部的距离选择或突出显示器上显示的菜单或菜单中的特定项,可简单地选择其中出现振动的车辆中的菜单或菜单中的特定项。因此,可提高用户便利度。
本公开的车辆的显示设备不限于上述实现方式的构造和方法,可选择性组合这些实现方式中的所有或部分,使得可以进行各种修改形式。
本公开的车辆的显示设备的操作方法可被实现为处理器可读的记录介质中的可由设置在车辆的显示设备中设置的处理器读取的代码。处理器可读的记录介质可以是其中存储处理器可读数据的所有种类的记录装置中的一个。例如,处理器可读的记录介质可包括ROM、RAM、CD-ROM、磁带、软盘、光学数据存储介质、或载波(诸如,通过互联网进行数据传输)。另外,由于处理器可读的记录介质可分布于通过网络连接的计算机系统,因此可存储和执行以分布方式由处理器可读的代码。
如从以上描述中清楚的,根据本公开的一种实现方式的车辆的显示设备包括光学传感器单元和触摸传感器单元,如果用户手部在其中能识别接收到的光的第一距离内,则基于光学传感器单元感测到的光来计算用户手部的距离,并且如果用户手部靠近显示器达到比第一距离更接近显示器的第二距离内,则操作触摸传感器单元。由此,如果用户手部位于第二距离内,则车辆的显示设备可通过触摸传感器单元计算用户手部的位置信息,因此连续跟踪用户的靠近。因此,可提高用户便利度。
另外,车辆的显示设备选择性操作触摸传感器单元并因此可降低功耗。
另外,如果用户手部位于第二距离内,则车辆的显示设备可基于触摸传感器单元感测到的电容变化来获取用户手部的位置信息,特别地,X轴、Y轴和Z轴信息。因此,可提高用户便利度。
另外,通过组合基于红外光的光学传感器单元和触摸传感器单元来检测悬浮触摸输入,当识别到用户手部在显示设备前方的空间中时,车辆的显示设备没有死区。另外,车辆的显示设备可在检测用户手部时具有高检测速度并且其大小可增大。
另外,车辆的显示设备选择或突出显示器上显示的菜单或菜单中的特定项,因此,简化了对其中出现振动的车辆中的菜单或菜单中的特定项的选择。因此,可提高用户便利度。
尽管出于例证性目的已经公开了本公开的以上实现方式,但本领域的技术人员应该理解,在不脱离随附权利要求书中公开的本公开的范围和精神的情况下,可以进行各种修改、添加和替代。

Claims (21)

1.一种具有显示设备的车辆,该显示设备包括:
显示单元;
光学传感器单元,其被构造成发射并且接收光;
触摸传感器单元,其设置在所述显示单元的表面上或所述显示单元的表面之下;
处理器,其被构造成(i)确定手部是否位于距离所述显示单元的第一距离范围内,所述光学传感器单元被构造成基于手部正位于所述第一距离范围内识别接收到的光,(ii)确定手部是否位于比所述第一距离范围更接近所述显示单元的距离所述显示单元的第二距离范围内,所述触摸传感器单元被构造成基于手部正位于所述第二距离范围内识别手部,
其中,所述处理器被构造成基于确定手部从位于所述第一距离范围内转变成位于所述第二距离范围内,致使所述触摸传感器单元进行操作。
2.一种车辆的显示设备,该显示设备包括:
显示单元;
光学传感器单元,其被构造成发射并且接收光;
触摸传感器单元,其设置在所述显示单元的表面上或所述显示单元的表面之下;
处理器,其被构造成(i)确定手部是否位于距离所述显示单元的第一距离范围内,所述光学传感器单元被构造成基于手部正位于所述第一距离范围内识别接收到的光,(ii)确定手部是否位于比所述第一距离范围更接近所述显示单元的距离所述显示单元的第二距离范围内,所述触摸传感器单元被构造成基于手部正位于所述第二距离范围内识别手部,
其中,所述处理器被构造成基于确定手部已从位于所述第一距离范围内转变成位于所述第二距离范围内,致使所述触摸传感器单元进行操作。
3.根据权利要求2所述的显示设备,其中,所述处理器被构造成基于从所述光学传感器单元和所述触摸传感器单元接收的信息,确定手部已从位于所述第一距离范围内转变成位于所述第二距离范围内。
4.根据权利要求2所述的显示设备,其中:
所述处理器被构造成基于手部正位于所述第一距离范围内,使用发射的光和接收的光来计算手部的位置信息;
所述处理器被构造成基于手部正位于所述第二距离范围内并且没有接触所述显示单元,使用所述触摸传感器单元感测到的电容变化来计算手部的位置信息。
5.根据权利要求2所述的显示设备,其中:
所述处理器被构造成基于手部正位于所述第一距离范围内,使用发射的光和接收的光来计算手部的位置信息;
所述处理器被构造成基于手部正位于所述第二距离范围内并且没有接触所述显示单元,使用发射的光和接收的光并且还使用所述触摸传感器单元感测到的电容变化来计算手部的位置信息。
6.根据权利要求2所述的显示设备,其中:
所述处理器被构造成基于手部正位于所述第一距离范围内,使用发射的光和接收的光来计算手部的位置信息;
所述处理器被构造成基于手部正位于所述第二距离范围内并且没有接触所述显示单元,使用所述触摸传感器单元感测到的电容变化来计算手部的位置信息,其中,所述位置信息包括手部的x轴、y轴和z轴信息。
7.根据权利要求2所述的显示设备,其中,所述触摸传感器单元包括多个触摸感测单元,其中,所述处理器被构造成计算手部和所述显示单元之间的距离并且根据计算出的手部和所述显示单元之间的距离对应地设置所述多个触摸感测单元的大小。
8.根据权利要求7所述的显示设备,其中,所述处理器被构造成随着计算出的手部和所述显示单元之间的距离减小而减小所述多个触摸感测单元的大小,并且计算与所述多个触摸感测单元的大小对应的位置信息。
9.根据权利要求7所述的显示设备,其中,所述处理器被构造成通过致使施加到所述触摸传感器单元内的电极阵列的电信号变化来改变所述多个触摸感测单元的大小。
10.根据权利要求7所述的显示设备,其中:
所述处理器被构造成基于确定手部位于所述第二距离范围内,将所述多个触摸感测单元的大小设置成第一大小;
所述处理器被构造成基于确定手部位于比所述第二距离范围更接近所述显示单元的距离所述显示单元的第三距离范围内,将所述多个触摸感测单元的大小设置成比所述第一大小小的第二大小。
11.根据权利要求7所述的显示设备,其中,所述多个触摸感测单元被构造成基于手部位于所述第二距离范围内,发射对应于手部的电容变化信号,其中,所述处理器被构造成基于确定手部位于所述第二距离范围内并且所述多个触摸感测单元中的至少一些发射了所述电容变化信号,基于发射的所述电容变化信号之中强度最高的电容变化信号来计算手部的位置信息。
12.根据权利要求2所述的显示设备,其中:
所述光学传感器单元设置在所述显示单元的外围区上;
所述处理器被构造成基于确定手部在与所述显示单元的外围区对应的区域中位于所述第一距离范围内,基于发射的光和接收的光计算手部的位置信息。
13.根据权利要求2所述的显示设备,其中,所述光学传感器单元包括被构造成发射光的一个或多个光学输出单元和被构造成接收光的一个或多个光学接收单元,所述一个或多个光学输出单元和所述一个或多个光学接收单元彼此分开。
14.根据权利要求13所述的显示设备,其中,所述显示单元的外围区包括边框框架和设置在边框框架上的多个噪声控制框架单元,其中,所述光学输出单元和所述光学接收单元中的每个设置在所述多个噪声控制框架单元中的相邻噪声控制框架单元之间。
15.根据权利要求14所述的显示设备,所述显示设备还包括设置在所述噪声控制框架单元上方的覆盖物,其中,所述光学传感器单元被构造成,使得形成在所述覆盖物和所述光学接收单元之间的气隙大于形成在所述覆盖物和所述光学输出单元之间的气隙。
16.根据权利要求2所述的显示设备,其中,所述处理器被构造成计算手部的位置信息并且控制所述显示单元在所述显示单元的与计算出的手部的位置信息对应的区域中显示菜单项。
17.根据权利要求2所述的显示设备,其中,所述处理器被构造成基于确定手部已从位于所述第一距离范围内转变到位于所述第二距离范围内,输出被构造成指示能够借助所述触摸传感器单元进行触摸输入的指示符。
18.根据权利要求17所述的显示设备,其中,所述指示符包括用于致使播放对应声音的预定声音输出或用于致使显示对应图像的预定图像输出。
19.根据权利要求18所述的显示设备,其中,所述处理器被构造成基于确定手部没有接触所述显示单元并且还位于比所述第二距离范围更接近所述显示单元的距离所述显示单元的第三距离范围内,突出所述显示单元上显示的菜单中与计算出的手部的位置信息对应的将被选择的特定项。
20.根据权利要求19所述的显示设备,其中,所述处理器被构造成基于手部接触所述显示单元的与被突出的项对应的区域,确定已选择了被突出的项。
21.一种控制车辆的显示设备的方法,该显示设备包括:
显示单元;
光学传感器单元,其被构造成发射并且接收光;
触摸传感器单元,其设置在所述显示单元的表面上或所述显示单元的表面之下;
所述方法包括:
确定手部是否位于距离所述显示单元的第一距离范围内,所述光学传感器单元被构造成基于手部正位于所述第一距离范围内识别接收到的光,
确定手部是否位于比所述第一距离范围更接近所述显示单元的距离所述显示单元的第二距离范围内,所述触摸传感器单元被构造成基于手部正位于所述第二距离范围内识别手部,
基于确定手部从位于所述第一距离范围内转变成位于所述第二距离范围内,致使所述触摸传感器单元进行操作。
CN201510192556.XA 2014-04-22 2015-04-22 车辆的显示设备 Active CN105045419B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2014-0048217 2014-04-22
KR1020140048217A KR101655810B1 (ko) 2014-04-22 2014-04-22 차량용 디스플레이 장치

Publications (2)

Publication Number Publication Date
CN105045419A true CN105045419A (zh) 2015-11-11
CN105045419B CN105045419B (zh) 2019-06-11

Family

ID=53039652

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510192556.XA Active CN105045419B (zh) 2014-04-22 2015-04-22 车辆的显示设备

Country Status (4)

Country Link
US (1) US9864469B2 (zh)
EP (1) EP2937765B1 (zh)
KR (1) KR101655810B1 (zh)
CN (1) CN105045419B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107918504A (zh) * 2016-10-06 2018-04-17 丰田自动车株式会社 车载操作装置
CN109311423A (zh) * 2016-06-07 2019-02-05 爱信精机株式会社 驾驶辅助装置

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102279790B1 (ko) 2015-03-10 2021-07-19 엘지전자 주식회사 차량용 디스플레이 장치
KR101766978B1 (ko) * 2015-12-01 2017-08-09 엘지전자 주식회사 디스플레이 장치와 이를 포함하는 차량
WO2017104272A1 (ja) * 2015-12-18 2017-06-22 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
TWI609314B (zh) * 2016-03-17 2017-12-21 鴻海精密工業股份有限公司 介面操作控制系統及其方法
US10209821B2 (en) * 2016-04-05 2019-02-19 Google Llc Computing devices having swiping interfaces and methods of operating the same
KR101809925B1 (ko) * 2016-04-25 2017-12-20 엘지전자 주식회사 차량용 디스플레이 장치 및 차량
EP3242190B1 (en) 2016-05-06 2019-11-06 Advanced Silicon SA System, method and computer program for detecting an object approaching and touching a capacitive touch device
US10162462B2 (en) * 2017-05-01 2018-12-25 Synaptics Incorporated Integrating capacitive sensing with an optical sensor
DE102017216527A1 (de) 2017-09-19 2019-03-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Anzeigen von Informationspunkten auf einer digitalen Landkarte
JP6929599B2 (ja) * 2017-10-18 2021-09-01 アルパイン株式会社 検知システム及び判定方法
CN109947345B (zh) * 2019-03-14 2021-06-22 维沃移动通信有限公司 一种指纹识别方法和终端设备
US11250235B2 (en) * 2020-04-17 2022-02-15 Novatek Microelectronics Corp. Under display light field sensor, device with under display light field sensor for sensing fingerprint or touch, and method for reconstructing image
CN111625147B (zh) * 2020-05-28 2023-08-25 京东方科技集团股份有限公司 一种基于耦合电容的手势识别方法、装置及系统
WO2022080538A1 (ko) * 2020-10-16 2022-04-21 엘지전자 주식회사 이동 단말기

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101285952A (zh) * 2008-06-12 2008-10-15 北京汇冠新技术有限公司 包含有触摸检测装置的液晶显示模组
US20090058829A1 (en) * 2007-08-30 2009-03-05 Young Hwan Kim Apparatus and method for providing feedback for three-dimensional touchscreen
US20090309851A1 (en) * 2008-06-17 2009-12-17 Jeffrey Traer Bernstein Capacitive Sensor Panel Having Dynamically Reconfigurable Sensor Size and Shape
US20090315848A1 (en) * 2008-06-24 2009-12-24 Lg Electronics Inc. Mobile terminal capable of sensing proximity touch
CN201440255U (zh) * 2009-07-01 2010-04-21 广达电脑股份有限公司 光学触控模块
CN101876869A (zh) * 2009-04-30 2010-11-03 鸿富锦精密工业(深圳)有限公司 电子装置及控制电子装置进行输入的方法
CN102037648A (zh) * 2008-06-03 2011-04-27 大陆汽车有限责任公司 用于接近识别的探测系统
CN102150114A (zh) * 2009-02-06 2011-08-10 松下电器产业株式会社 图像显示设备
CN102239470A (zh) * 2008-12-04 2011-11-09 三菱电机株式会社 显示输入装置
CN102681750A (zh) * 2011-03-14 2012-09-19 联想(北京)有限公司 用于移动显示对象的方法、显示装置和电子设备

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004071233A (ja) * 2002-08-02 2004-03-04 Fujikura Ltd 入力装置
WO2006003590A2 (en) * 2004-06-29 2006-01-12 Koninklijke Philips Electronics, N.V. A method and device for preventing staining of a display device
JP5090161B2 (ja) * 2004-06-29 2012-12-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ グラフィカルユーザインタフェースの多階層表示
EP1983402A4 (en) * 2006-02-03 2013-06-26 Panasonic Corp INPUT DEVICE AND ITS METHOD
KR100976113B1 (ko) * 2008-03-05 2010-08-16 성균관대학교산학협력단 유기-무기 복합 절연층을 포함하는 유기박막 트랜지스터 및그의 제조방법
JP4318056B1 (ja) * 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
TWI470508B (zh) * 2009-08-12 2015-01-21 Au Optronics Corp 觸控面板以及具有此觸控面板之觸控式顯示裝置
KR101588900B1 (ko) * 2009-10-07 2016-01-26 엘지디스플레이 주식회사 액정표시장치
CN102822773A (zh) * 2010-03-24 2012-12-12 惠普开发有限公司 用于显示设备的手势映射
US9268431B2 (en) * 2010-08-27 2016-02-23 Apple Inc. Touch and hover switching
WO2012119548A1 (zh) * 2011-03-07 2012-09-13 联想(北京)有限公司 控制方法、控制装置、显示装置以及电子设备
JP5708083B2 (ja) * 2011-03-17 2015-04-30 ソニー株式会社 電子機器、情報処理方法、プログラム、及び電子機器システム
CN103635868A (zh) * 2011-07-01 2014-03-12 英派尔科技开发有限公司 自适应用户接口
JP2013145174A (ja) * 2012-01-13 2013-07-25 Panasonic Corp 近接センサ
US9632612B2 (en) * 2012-02-23 2017-04-25 Parade Technologies, Ltd. Circuits, systems, and methods for processing the proximity of large objects, including large objects on touch screens
JPWO2013145464A1 (ja) * 2012-03-29 2015-12-10 京セラ株式会社 入力装置、表示装置、および電子機器
KR20130111910A (ko) * 2012-04-02 2013-10-11 최현환 굴절장치를 이용한 3차원 터치입력장치
US9507979B2 (en) * 2012-04-27 2016-11-29 Cirque Corporation Saving power in a battery powered system having a touch sensor and an RFID tag reader
US20130307810A1 (en) * 2012-05-15 2013-11-21 Chimei Innolux Corporation Capacitive touch panel device
US9459737B2 (en) * 2012-05-23 2016-10-04 Atmel Corporation Proximity detection using multiple inputs
US20140267025A1 (en) * 2013-03-14 2014-09-18 Samsung Electronics Co., Ltd. Method and apparatus for operating sensors of user device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090058829A1 (en) * 2007-08-30 2009-03-05 Young Hwan Kim Apparatus and method for providing feedback for three-dimensional touchscreen
CN102037648A (zh) * 2008-06-03 2011-04-27 大陆汽车有限责任公司 用于接近识别的探测系统
CN101285952A (zh) * 2008-06-12 2008-10-15 北京汇冠新技术有限公司 包含有触摸检测装置的液晶显示模组
US20090309851A1 (en) * 2008-06-17 2009-12-17 Jeffrey Traer Bernstein Capacitive Sensor Panel Having Dynamically Reconfigurable Sensor Size and Shape
US20090315848A1 (en) * 2008-06-24 2009-12-24 Lg Electronics Inc. Mobile terminal capable of sensing proximity touch
CN102239470A (zh) * 2008-12-04 2011-11-09 三菱电机株式会社 显示输入装置
CN102150114A (zh) * 2009-02-06 2011-08-10 松下电器产业株式会社 图像显示设备
CN101876869A (zh) * 2009-04-30 2010-11-03 鸿富锦精密工业(深圳)有限公司 电子装置及控制电子装置进行输入的方法
CN201440255U (zh) * 2009-07-01 2010-04-21 广达电脑股份有限公司 光学触控模块
CN102681750A (zh) * 2011-03-14 2012-09-19 联想(北京)有限公司 用于移动显示对象的方法、显示装置和电子设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109311423A (zh) * 2016-06-07 2019-02-05 爱信精机株式会社 驾驶辅助装置
CN107918504A (zh) * 2016-10-06 2018-04-17 丰田自动车株式会社 车载操作装置
CN107918504B (zh) * 2016-10-06 2020-12-18 丰田自动车株式会社 车载操作装置

Also Published As

Publication number Publication date
US9864469B2 (en) 2018-01-09
EP2937765A3 (en) 2015-12-02
US20150301688A1 (en) 2015-10-22
KR20150121950A (ko) 2015-10-30
CN105045419B (zh) 2019-06-11
KR101655810B1 (ko) 2016-09-22
EP2937765A2 (en) 2015-10-28
EP2937765B1 (en) 2018-03-21

Similar Documents

Publication Publication Date Title
CN105045419A (zh) 车辆的显示设备
US10334388B2 (en) Information processing apparatus, information processing method, and program
KR102329420B1 (ko) 이동단말기 및 그 제어방법
KR101641267B1 (ko) 차량 제어 시스템 및 그 제어 방법
US9891756B2 (en) Vehicle display apparatus including capacitive and light-based input sensors
KR102455199B1 (ko) 인공지능 디바이스
KR20160149068A (ko) 이동단말기 및 그 제어방법
KR20170014586A (ko) 이동 단말기 및 그 제어방법
KR102536865B1 (ko) 전자 장치 및 그 제어 방법
KR20180040527A (ko) 이동 단말기
KR20160120101A (ko) 차량 단말기 및 그 제어 방법
KR20150094134A (ko) 차량용 풋레스트 및 그 제어 방법
CN103262429A (zh) 移动终端的图像处理设备及其方法
KR101916425B1 (ko) 차량용 사용자 인터페이스 장치, 차량과 이동 단말기의 연동 시스템
KR101637881B1 (ko) 차량용 디스플레이 장치
KR20160024538A (ko) 사용자 맞춤형으로 추천 목적지를 제공하는 텔레매틱스 단말기 및 그 제어 방법
KR101859043B1 (ko) 이동단말기, 차량과 이동 단말기의 연동 시스템
KR102412140B1 (ko) 카메라 및 이를 포함하는 가상 현실 시스템
KR102385089B1 (ko) 이동 단말기 및 그 제어방법
KR20170024722A (ko) 이동 단말기 및 그 제어 방법
KR20170009558A (ko) 차량간 블랙박스 영상을 공유하는 내비게이션 단말 장치
KR20170027135A (ko) 이동단말기 및 그 제어방법
KR102261141B1 (ko) 전자 기기 및 전자 기기의 제어 방법
US11706067B2 (en) Augmented reality generating device, augmented reality display device, and augmented reality system
KR101708313B1 (ko) 차량 단말기 및 그 제어 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant