CN102207770A - 用于车辆电子装置的车辆用户接口单元 - Google Patents
用于车辆电子装置的车辆用户接口单元 Download PDFInfo
- Publication number
- CN102207770A CN102207770A CN2011100777543A CN201110077754A CN102207770A CN 102207770 A CN102207770 A CN 102207770A CN 2011100777543 A CN2011100777543 A CN 2011100777543A CN 201110077754 A CN201110077754 A CN 201110077754A CN 102207770 A CN102207770 A CN 102207770A
- Authority
- CN
- China
- Prior art keywords
- user
- display
- user interface
- virtual
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 claims abstract description 6
- 230000002452 interceptive effect Effects 0.000 claims description 81
- 238000009877 rendering Methods 0.000 claims description 55
- 238000000034 method Methods 0.000 claims description 31
- 230000008859 change Effects 0.000 claims description 20
- 238000009434 installation Methods 0.000 claims description 7
- 238000012544 monitoring process Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 abstract description 8
- 210000003811 finger Anatomy 0.000 description 24
- 230000006870 function Effects 0.000 description 19
- 210000005224 forefinger Anatomy 0.000 description 12
- 210000003128 head Anatomy 0.000 description 10
- 230000008569 process Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000008447 perception Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 239000011521 glass Substances 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Arrangement of adaptations of instruments
-
- B60K35/10—
-
- B60K35/211—
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
- G01S5/163—Determination of attitude
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04802—3D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/349—Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明涉及一种用于车辆电子装置的车辆用户接口单元包括,3D显示单元,其包括显示器,适于在操作中显示图像,使得当用户观察显示器时,图像被用户感知成至少部分地位于显示器前面的虚拟3D图像;显示控制单元,用于对通过3D显示单元的图像生成进行控制,使得虚拟3D图像包括3D对象,3D对象具有位于不同空间平面上的至少两个区,每个区包括多个交互元件;以及输入单元,用于对用户控制对象的位置进行检测,并将用户控制对象的预定义改变的检测结果翻译成对虚拟3D图像中包括的交互元件中的一个交互元件进行的选择。
Description
技术领域
本发明涉及用于车辆电子装置的车辆用户接口单元,其包括显示单元、显示控制单元和输入单元,本发明还涉及包括这样的车辆用户接口单元的车辆信息娱乐系统,并涉及对车辆电子装置进行操作的方法。
背景技术
在现代车辆中,需要对涉及车辆本身或涉及在车辆上提供的电子装置的多种功能进行控制,这种控制通常由驾驶员或由乘客执行。需要控制或显示的功能和信息可涉及驾驶员辅助系统、多媒体系统(例如车载无线电或经由例如GSM或UMTS通信的移动通信系统)。而且,来自车辆以外的信息可能需要被制作成对于驾驶员或乘客是可利用的,例如从汽车到全世界的通信(例如汽车与汽车通信,或汽车与基础设施的通信)。所提供的前部单元通常包括具有显示器和控制元件的用户接口,通过该用户接口,用户能够控制这些功能。对于这样的前部单元的面板,在仪表盘上只有有限的空间量可利用,机械控制元件和显示器必须共享仪表盘。结果,只有相对很少的信息可被同时地向用户显示,并且几个控制元件需要操作和控制大量多种的功能,这通常是通过提供具有主菜单和多个子菜单的菜单树状结构实现的,为了到达特定的功能,用户必须浏览全部的菜单树状结构。因此在到达特定的菜单项之前,用户需要花费相当的时间量用来移动全部的菜单结构。在此期间,驾驶员在使用前部单元的用户接口时,注意力从行驶中被分散了,这可能导致危险情况的发生。
通过速度识别对这样的系统进行操作通常不会导致很大的改进,因为仍然必需通过系统的许多查询和通过浏览全部菜单结构。
通过触摸屏幕可获得一定的改进,其中图形控制元件可被提供来替代机械控制单元,因此在近似的面板尺寸上能够提供尺寸更大的显示器。即使这样,可利用的物理空间仍然相当有限,以至于只可显示非常有限的信息或菜单项,而这样的呈现通常是混乱的,尤其对于复杂的菜单结构来说。而且,控制元件通常在图形上相对较小,并且不提供任何触觉反馈,使得包括触摸屏幕的用户接口在车辆内难以操作,尤其是对于驾驶员而言。此外,例如通过指印,触摸屏幕可能变得污浊,污浊的触摸屏幕使显示图像的质量恶化。
因此可期望对这样的菜单结构和其它信息的呈现进行改进,而使得用于控制车辆电子装置、车辆本身的功能或用于调节参数的菜单项的选择变得容易。
发明内容
据此,需要减轻至少一些以上提及的缺陷,尤其是提供改进的车辆用户接口单元,使菜单项或信息的显示能够被布置得更大且更清楚,并且使操作能够更直观。
通过独立权利要求的特征满足了这种需求。在从属权利要求中描述了本发明优选的实施例。
依据本发明的方面,提供了用于车辆电子装置的车辆用户接口单元,其包括三维(3D)显示单元、显示控制单元和输入单元。3D显示单元包括显示器,并适于在操作中显示图像,使得当用户对显示器进行观察时,该图像可被用户感知成至少部分地位于显示器前面的虚拟三维(3D)图像。该显示控制单元适于对通过3D显示单元的图像生成进行控制,使得所述虚拟3D图像包括三维(3D)对象,三维(3D)对象具有在不同空间平面上的至少两个区,每个区包括多个交互元件(interaction element)。该输入单元适于检测用户控制对象的位置,并将对用户控制对象的预定义改变的检测结果翻译成对虚拟3D图像中包括的所述交互元件中的一个交互元件的选择。
通过在不同空间平面上的不同区中显示交互元件,其中这些交互元件可以是(例如显示特定信息或参数的)菜单项或信息元件,且不同的空间平面可彼此相连,即使对于大量的信息来说,也可获得可利用信息的更完整呈现和清晰布置。将交互元件布置在不同虚拟平面上比较不易混淆,并可允许更迅速地访问特定的信息元件或菜单项。通过用户控制对象在虚拟3D图像中选择交互元件的可能性能够使用户接口被直观地操作,并且能够迅速访问多个交互元件。
依据本发明的实施例,将输入单元配置成使得用户控制对象的预定义改变包括将该用户控制对象移动到在虚拟3D图像中的交互元件的预定距离以内,这样的移动的检测结果被翻译成对相应的交互元件的选择。
用户控制对象可以是例如用户的手的一部分,或者手持的或附着在用户手上的对象。该用户因此能够通过使用该用户控制对象简单地(虚拟地)触摸在虚拟3D图像中的交互元件而对该交互元件进行操作,导致迅速且直观的操作。
该用户控制对象可以是例如用户的手指。该输入单元于是可适于检测由该手指执行的手势动作,或作为对交互元件中的一个交互元件进行选择的手指移动。例如,手指的轻弹或指点、或对虚拟3D图像中交互元件的触摸可被检测成做出了选择。
该显示控制单元可被配置成以使得靠近正在进行观察的用户所定位的3D对象的区是激活区这样一种方式控制图像的生成,激活区内的交互元件是可选择的,但是至少另一个区的信息元件是不可选择的。因此可确保对用户接口的鲁棒操作(robust operation),而防止对交互元件的意外选择。
显示控制单元可被配置成以使得3D对象为多面体,优选地正方体或长方体,这样一种方式控制图像的生成,并且每一个所述区与该多面体的一个面相对应。由于该多面体的每个面可包括许多交互元件,这些交互元件,例如菜单项或信息元件,可被清楚地布置,并且全面地呈现可利用信息成为可能。其它的实施例当然也是可考虑的,其中显示控制单元被配置成生成除了多面体之外的3D对象用于布置包括交互元件的区,例如可生成球体,该球体具有与球型罩壳相对应的各个区。
显示控制单元可被配置成以下这样一种方式控制图像的生成,以使多面体被定向使得多面体中的一个面面向正在进行观察的用户,与所述面相对应的区是激活区,该区上的交互元件是可选择的。在其它面上的交互元件于是仍是可见的,但是取决于配置,这些交互元件可以或不可以被选择。
输入单元可适于检测用户控制对象的第二预定义改变,并且适于将这种改变翻译成命令以改变至少两个区的空间布置。
在以上多面体作为3D对象的示例中,显示控制单元可适于通过对多面体进行旋转改变至少两个区的空间布置,使得包括不同交互元件的多面体的另一个面面向正在进行观察的用户。那样,通过对3D对象简单的旋转,可向用户呈现不同的菜单目录或信息目录,使得这样的信息能够被清楚且简明地呈现。
在特定的实施例中,输入单元适于在所述区中的一个区的边界或转角处检测正在进行观察的用户手指的位置,并且将该手指移动过预定距离检测成用户控制对象的第二预定义改变。因此通过例如将手指放置在虚拟图像中正方体的转角上,并在期望的方向上拖拽手指,可将该正方体进行旋转。
显示控制单元可进一步被配置成以这样一种方式控制图像的生成:使所述区中的至少一个区部分地透明,而使所述区中的另一个区能够被观察。多面体的面因此可以部分地透明,以便使其它面以及定位在这些面上的交互元件能够被观察。透明度可在0%到约50%的范围以内,优选地为约10%至约20%。0%的值对应于不透明区。当使用来自这些透明度范围内的值时,面向正在进行观察的用户的区仍然清楚可见,同时已经能够预见在被所述透明区覆盖的另一个区上的交互元件的位置。
用户接口因此可使甚至很复杂的菜单结构能够被全面表示,并使菜单项能够被直接选择,即使只有有限的物理空间是可利用于显示用户接口的。这是在三维空间中采用多个虚拟平面布置交互元件的结果。
为了使用户接口的操作更容易,当用户控制对象进入虚拟3D图像中3D对象的元件的预定距离以内时,和/或当检测到对交互元件中的一个交互元件进行选择时,用户接口单元可适于向用户提供声音反馈。该声音反馈可包括针对不同事件的不同声音。一个声音可以在例如用户控制对象接近3D对象的虚拟平面时被回放,而另一个声音可在用户控制对象被移动进入交互元件附近时被回放。该用户控制对象,例如手指,于是可执行特定的手势动作以对交互元件进行选择,这个动作可再次通过声音被确认。据此,通过用户控制对象使得对用户接口的操作更容易,并且不需要触觉反馈。
输入单元可进一步包括立体照相机,该立体照相机适于监测与产生虚拟3D图像的位置相邻的区域,以检测用户控制对象的位置以及该位置的改变。通过该立体照相机可获得对三维空间中用户控制对象位置的准确确定,并且对对象位置和动作的可靠评估成为可能。该立体照相机可由单个立体照相机或由两个或多个分开的常规照相机实现。
车辆用户接口单元可进一步包括用于检测视点的照相机,用户从该视点对显示器进行观察。该用户接口于是可适于以被检测用户的视点为基础确定位置,在该位置上正在观察显示器的用户可以看到虚拟3D图像。通过照相机,可跟踪例如用户的头部、脸部或眼睛的位置,以便确定用户的视点。用于监测视点的照相机可以与以上提及的立体照相机相同。如果从不同的方向对3D显示单元的显示器进行观察,虚拟3D图像可在不同的空间位置上生成,并且用于监测视点的照相机能够确定这些空间位置。通过针对视点执行这样的校正,可改善通过用户控制对象激活虚拟交互元件的准确度。因此,准确地确定用户控制对象相对于虚拟3D对象被定位在哪个位置上成为可能。
在本发明的实施例中,3D显示单元是自动立体感(autostereoscopic)的3D显示单元。使用自动立体感显示单元,使用户能够通过简单地对屏幕进行观察以感知虚拟3D图像,而不需要任何例如特定类型的护目镜(goggle)或百叶窗式眼镜(shutter glasses)的额外器材。
在其它实施例中,还有可能的是,3D显示单元包括百叶窗式眼镜并采用了交替帧排序技术,以便在用户观察显示器时生成虚拟3D图像。
3D显示单元可被放置在车辆电子装置的面板中,还有可能的是将其放置在其它外壳内,例如可在车座枕头(headrest)上提供的屏幕中,或在车辆内其它位置处实现。
在进一步实施例中,车辆用户接口单元是车辆前部单元的一部分。在车辆内提供的电子装置或车辆本身的多个功能可因此通过车辆用户接口单元控制。
依据本发明的进一步的方面,提供了如上面描述的包括车辆用户接口单元的车辆信息娱乐系统。
本发明的进一步的方面涉及包括电子装置的车厢,该电子装置具有与以上描述的实施例中的一个一致的车辆用户接口单元。在车厢内可安装用于监测用户视点的一个或多个照相机,以便监测驾驶员头部和/或乘客的头部的位置。
依据本发明的进一步的方面,提供了操作车辆电子装置的方法。该方法包括以下步骤:生成图像,使得当观察者观察显示器时,该图像被用户感知成虚拟3D图像,该虚拟3D图像至少部分地位于3D显示单元的显示器前面,该3D显示单元用于生成图像。该方法进一步包括对通过3D显示单元生成图像进行控制的步骤,使得虚拟3D图像包括3D对象,该3D对象具有位于不同空间平面上的至少两个区,每个区包括多个交互元件,并且包括对用户控制对象的位置进行检测、并将检测到用户控制对象的预定义改变翻译成对在虚拟3D图像中包含的所述交互元件中的一个交互元件进行选择的步骤。
通过本发明的方法,可获得类似于以上列出的优点。
依据本发明的方法的实施例,该方法可通过以上描述的车辆用户接口单元的实施例实现,并且该方法可包括相应的方法步骤。
尤其地,该方法可进一步包括对将用户控制对象的移动作为用户控制对象预定义改变的检测,其中,该用户控制对象移动进入在虚拟3D图像中的交互元件的预定距离以内,并且还包括将对这样的移动的检测结果翻译成对相应的交互元件的选择。
该方法可包括对由用户的手指执行的动作的检测,或者将手指移动作为用户控制对象变化的检测。
在该方法中,图像的生成可以以这样一种方式被控制:使得在虚拟3D图像中的3D对象为多面体,并且使得区中的每一个区与该多面体的一个面相对应。
该方法可进一步包括对用户控制对象的第二预定义变化进行检测,并将这样的第二预定义变化翻译成命令以改变至少两个区的空间布置的步骤。该空间布置可通过将多面体进行旋转被改变,使得该多面体的另一个面面对正在进行观察的用户。
该方法可进一步包括当检测到用户控制对象进入虚拟3D图像中3D对象的元件预定距离以内时,和/或当检测到对交互元件中的一个进行选择时,向用户提供声音反馈的步骤。
该方法可进一步包括对视点进行监测的步骤,用户从该视点观察显示器,并且在检测出的用户视点的基础上确定位置,正在对显示器进行观察的用户在该位置处看到虚拟3D图像。
本发明方法的以上实施例获得了类似于关于本发明的车辆用户接口单元的相应的实施例列出的优点
应该理解的是,以上提及的和那些仍将在下面被翻译的特征不仅可被用于已指出的各自的组合中,而且还可被用于其它组合或单独的应用中,而未离开本发明的范围。
附图说明
当与附图相结合阅读时,本发明的前述的和其它的特征以及优点将从以下对说明性实施例的详细的说明中变得更加显而易见。在附图中,相同的参考标号说明相同的元件。
图1示出了依据本发明实施例的车辆用户接口单元的示意性表示;
图2是说明依据本发明实施例的方法的流程图;
图3A至图3C示出了依据本发明的实施例的对虚拟3D图像的生成进行说明的示意图,该虚拟3D图像包括通过3D显示单元显示的3D对象,以及该3D对象的性质。
具体实施方式
在后文中将参考附图详细地描述本发明的实施例。应该注意的是,附图只被看作是示意性表示,并且附图中的元件没有必要彼此依比例绘制。而是,对选择出的各种元件的表示,使得它们的功能和一般性目的对于本领域技术人员变得显而易见。
还应该理解的是在后续的实施例的描述中,在附图中示出的功能框或单元中对实施例的划分不应解释成表示这些单元必须作为物理分开的单元被实施,而是所示出或描述的功能框或单元可作为分开的单元、电路、芯片或电路元件被实施,但是也可以在共同的电路、芯片、电路元件或单元中实现一个或多个功能框或单元。
图1示出了车辆用户接口单元100的示意性表示,该车辆用户接口单元100可以是前部单元、车辆信息娱乐系统或任意其它车辆电子装置的一部分。显示控制单元120被提供来控制车辆用户接口单元100的操作。车辆用户接口单元100进一步包括均与显示控制单元120通信的3D显示单元101和输入单元130。
在图1的实施例中,3D显示单元101包括与图形处理器103通信的显示器102。图形处理器103适于从显示控制单元120接收包括将被显示的3D图像的图像数据,并为显示器102生成相应的输出信号。3D显示单元101是自动立体感的显示单元,意味着能够通过显示器102生成图像,显示器102生成的图像被观察该显示器102的用户140感知成虚拟的3D图像110。这样的虚拟3D图像110可由显示器102通过将需要生成景深感觉(depthperception)的每个视图投影到正在进行观察的用户140的一只眼睛上来生成(由虚线示意性地说明),而用户140无需佩戴双孔眼镜(spectacle)。
通过技术人员已知的不同技术的范围可实现自动立体感的显示器,因此对该技术在此不作更详细的描述。一种技术包括例如通过立体照相机131或照相机132对用户的头部位置连续的监测,和据此对投影光学和观察内容的调节。每个视图的内容可与眼睛的位置进行匹配,眼睛的位置可以使用面部跟踪技术进行识别。为控制由显示器102发出的光的强度作为射线方向的函数,显示器102可包括具有在透镜的焦平面上连续扫描点光源的液晶显示器。该透镜和光源产生在任意的一瞬间完全在一个大体方向上传播的射线,并且该射线的方向可在液晶显示器上与适当的3D图像的显示同步。在这样的技术中,显示器102的帧速率可被加倍,使得正在进行观察的用户140的眼睛将随时间与3D图像相结合。其它用户(例如车内的乘客)的面部可被跟踪,并且据此可增加显示器102的帧速率,以便使该虚拟3D图像也能够被这些用户感知。
可被3D显示单元101使用的其它技术包括多视图自动立体观测,其中显示器102将视图投影到每个观看者可能处于的位置上。可能的实现包括覆盖每个视图的像素的小透镜(lenslet)阵列,其中该小透镜组合使像素包括唯一方向上可见的每个视图。代替小透镜阵列,可使用衍射光栅(diffractiongrating)或狭缝(slit)阵列。通过使用衍射光栅,可能将视场(field of view)扩大。该小透镜阵列和衍射光栅技术可通过使用基础显示器(underlyingdisplay)实现,该基础显示器具有的分辨率是视图分辨率和视图数量的乘积。代替使用这样的高分辨率显示器,若干个视频投影可被排列在透镜后面。该透镜使得每个视图对应于在不同方向上可视的投影。
正如可以看到的,3D显示单元101可实现用于生成被用户140感知的虚拟3D图像110的技术范围。应该清楚的是其它的实现也是可以考虑的,其中3D显示单元101可进一步包括例如由用户140佩戴的百叶窗式眼镜,其中不同的视图被交替地供应给用户140的眼睛,这使得具有加倍的帧速率的常规显示器102可被使用。在进一步的技术中,每个视图随着不同偏振光被显示,使得通过佩戴相应的偏光眼镜,用户140的每只眼睛接收到指定的视图。
显示控制单元120可将在虚拟3D图像110中包括的一般信息3D对象111供应给图形处理器103,该图形处理器103可计算不同视图,不同的视图需要被显示给用户140以生成景深的双目感知(立体视觉)。当这些不同的视图通过显示器102提供给用户140时,用户140对虚拟的3D图像110进行感知。在本示例中,3D显示单元101被配置成使得该虚拟3D图像110在显示器102前面形成,即,在显示器102和正在进行观察的使用者140之间形成,但是在其它实施例中,可以仅部分地被定位在显示器102前面。
应该清楚的是,显示器102还可被用于显示二维(2D)图像,并且3D显示单元101可以是车辆电子装置的显示单元,例如信息娱乐系统。因此,菜单结构、导航地图、多媒体信息或媒体流可被显示在显示器102上。
显示控制单元120可通过微处理器实现。该微处理器可以是车辆电子装置的微处理器,并可同样地执行进一步的功能。显示控制单元的其它实现也是可以考虑的,例如多个微处理器、专用微处理器、数字信号处理器(DSP)、专用集成电路(ASIC)或场可编程门阵列。微处理器可依据在与微处理器接口的存储器(未示出)中保存的程序进行操作。
在其它实现中,可不提供图形处理器103,而其功能可由显示控制单元120实现。因此该3D显示单元101可包括在实现了显示控制单元120的微处理器上运行的软件代码部分。图形处理器103和所述微处理器也可能在单芯片内被提供。
车辆用户接口单元100进一步包括输入单元130。输入单元130包括与评估单元135接口连接的立体照相机131,立体照相机131监测在区域内形成虚拟3D图像110的区域。通常,立体照相机131适于监测在显示器102前面的区域。立体照相机131包括两个光学系统,这两个光学系统用于获得观察区的两个不同视图。虽然在图1的实施例中,所示出的两个光学系统彼此相邻,但是在其它实施例中它们可分开地布置。作为示例,光学系统可被布置在显示器102的每个侧面上。立体照相机131的每个光学系统可包括用于获得示出被监测的区域视图的图像的CCD阵列。所获得的图像数据由评估单元135接收,评估单元135适于从立体照相机131提供的两个不同视图来重建被观察区的3D表示。用户控制对象(例如用户140的手150)的位置可据此被三维确定。可由评估单元135执行的其它操作包括对被监测区或区域内的对象的识别和对被检测对象的跟踪。评估单元135进一步适于检测和翻译从立体照相机131接收的图像中由用户控制对象的预定义变化。在图1的实施例中,用户控制对象是用户140的手150的手指,例如食指。手指位置、手指位置的改变和手指形状的变化可通过评估单元135供给的图像衍生而来。当评估单元135检测到预定义变化时,将其翻译成命令。这样的用户控制对象的预定义变化可包括用户控制对象到特定位置上的移动,例如当手150的食指尖被移动进入接近虚拟3D图像110的元件时,或当用户控制对象的形状改变时,例如当手150的食指做出手势时。
自然地,这些仅仅是一些示例,并且如何可实现用户控制对象,以及如何将其变化翻译成命令存在可能性范围。这样的示例包括钢笔、戒指或位于用户的手上的其它标志物的使用,这些标志物的位置改变,或通过这些标志物做出动作的属性可被检测成命令。对用户手指的检测具有使用户不需要拿着或佩戴附加对象的优点。
通过车辆用户接口单元100操作车辆电子装置,包括3D对象111的虚拟图像110由显示控制单元102和3D显示控制单元101生成,使得该3D对象111包括位于该虚拟3D图像110的两个不同空间平面上的具有多个交互元件115的第一区112,和具有多个交互作用元件115的第二区113。自然地,在不同空间平面的位置上对3D对象的区的定位随角度而改变,在该角度下用户能够观察到该显示,因此这些平面也可被称为虚拟空间平面。在图1的示例中,用户140感知的3D对象111是正方体或长方体,区112和113各自对应于该正方体的面。交互元件115可以是主菜单或子菜单的菜单项,而它们也可以包括具有要被显示给用户140的信息元件。通过显示控制单元120控制3D对象111的位置和形状和在该对象的面上显示的交互元件115。除正方体或长方体之外,显示控制单元120可适于生成其它类型的3D对象的虚拟图像,比如其它类型的多面体,例如八角形棱柱体或类似的多面体。由于3D对象111包括若干个面,每个面可显示不同的菜单或子菜单,或者一定类型的信息和控制元件。通过三维表示的运用,可因此增加能够同时被显示的信息量。
显示控制单元120进一步适于控制虚拟3D图像110的生成,使得对象111的表面部分透明,以便对于用户140看起来位于对象111背面的表面也是可见的。因此,特定的信息块或特定的控制元件,例如菜单项,可迅速地被用户140找到并访问。可为该用户提供例如物理形式的按钮或交互元件形式的控制单元,用于激活或去激活透明度,或者用于选择透明度的值。该透明度的值可位于0%至50%的范围内,优选地为约10%至20%,0%对应于不透明区域或表面(由不透明区覆盖的区域是不可见的),而100%对应于完全透明(或无形)的区域或表面。特定地在10%至20%的透明度范围内,透明的面本身是清晰可见的,同时在被覆盖的面上的交互元件完全示出而因此是可感知的。
在图3A至3C中示意性地说明了这种情况。在图3A中,区112面向正在观察显示器102的用户,并且归因于面112的部分透明度,第二区113作为立方体111的侧面是可见的。位于面113上的交互元件因此可通过立方体111的旋转,在面113面向用户之后被轻而易举地访问,正如在图3C中说明的。
当显示控制单元120控制由3D显示单元101生成虚拟3D图像110时,在产生虚拟图像110的位置上具有可利用的信息,并且因此3D对象111被定位在该空间中。这种信息被提供给评估单元135,用于对用户输入的检测。当评估单元135当前可获得用户140观察的3D对象111的位置和用户的手150的位置时,可确定用户控制对象在何时接近或虚拟地触摸虚拟图像110的元件。输入单元130现在可适于将对3D对象111的特定元件的虚拟触摸和特定动作识别成用户命令。在一个可能的实现中,对3D对象111的面112上的交互元件115中的一个的虚拟触摸可被识别成选择和执行相应交互元件的命令,例如执行与交互元件关联的功能。当用户的手150的食指的指尖进入距虚拟图像110中各自的交互元件预定距离以内时,检测出虚拟的触摸。例如通过第一虚拟触摸执行对交互元件的预选择、以及通过第二虚拟触摸执行相关联的功能、或者在虚拟触摸进行了预定义的最小时间之后执行该功能,或类似的其它实现也是相似地可考虑的。在预选择的情况下,相应的交互元件可在虚拟图像110中被加亮,以便向用户提供光反馈。
除对交互元件选择和激活或执行外,用户可发布命令以对3D对象111进行旋转,以便访问在对象的不同面上的交互元件。这在图3A至图3C中进行了说明。在图3A中,3D对象111的面112面向用户。为执行立方体111的旋转,用户将手150的食指放置在虚拟3D图像的立方体的转角处。这种将食指指尖在该位置上的定位是通过输入单元130的立体照相机131和评估单元135识别。该用户当前通过将食指在将3D对象111被旋转到的方向上移动来执行手势动作,正如在图3B中的箭头指示的。再一次,这种手势动作由输入单元130通过跟踪手150的位置和/或形状进行识别,并且被翻译成将3D对象旋转到相应方向上的命令。这种命令于是被供应给显示控制单元120,显示控制单元120执行3D对象的期望旋转,并向3D显示单元101发布相应的命令,3D显示单元101生成相应的虚拟图像,该对象在该图像中被旋转。虚拟图像的生成意味着3D显示单元通过显示器102生成并显示了可被用户140感知成虚拟图像110的两个视图。图3C说明了该操作的结果,其中3D对象111当前的方向是第二面113面向用户。
虽然在一些实施例中只有定位在面向用户140的区中的交互元件是可选择的,同时在其它区中交互元件不可选择以便防止意外启动,但是在其它实施例中可以对所有区的交互元件进行激活。
车辆用户接口单元100一般可由该车辆的驾驶员或乘客操作,驾驶员和乘客的位置通常是已知的。由于与显示器102成不同的角度,显示器102被不同的车辆乘客或驾驶员观察,对于每个用户,可在不同空间位置处生成虚拟图像110。据此,车辆用户接口单元110可装配有用于检测哪个用户当前正在试图输入命令的装置,以便正确地确定由各自的用户看到的虚拟图像110的位置。在现代车辆中提供了用于确定车辆占用情况的传感器,并且来自这些传感器的信息可被使用。由于在车辆中驾驶员或其它乘客的位置一般可通过相应的座位位置预定义,无需来自额外的信息源的信息,也可对虚拟图像110的位置进行准确的估计。
通过确定用户140的头部的位置可进一步改进对虚拟110位置的确定。这可通过使用例如通过立体照相机131获得的图像,或者通过提供一个或多个额外的照相机132达到。照相机132可被布置在车厢内部的位置上,从该位置可以监测乘客的头部的位置。如果在车辆内已经提供了例如作为安全系统的一部分的用于监测乘客的头部位置的照相机,由这样的照相机提供的信息当然也可以被使用,即,照相机132可以是这样的系统的照相机。评估单元135可执行对用户的头部进行的头部跟踪或面部跟踪,以便确定其位置并因此确定用户观察显示器102的角度。通过使用这种信息,并使用在由显示控制单元120生成的3D图像中的信息,评估单元135可精确地确定空间位置,用户140在该位置上对虚拟3D图像110进行观察。在3D对象111上提供的交互元件的空间位置因此可被精确地确定,从而通过用户140使用例如手指的用户控制对象使交互元件能够强健而准确地被激活。
为了易于操作,当用户控制对象进入距虚拟3D图像110中3D对象元件预定距离以内时,车辆用户接口单元100适于向用户140提供声音反馈。这减少了用户140必须集中在显示器102上以便操作该用户接口的时间量。清楚的是,可考虑用于提供用户反馈的不同实现,对于不同事件回放不同的声音。例如,当用户的手指接近3D对象111时可提供第一音频信号,其具有例如与距离一致的变化的频率;当用户的手指虚拟地触摸交互元件时可提供第二声音,而当用户的手指被定位在3D对象11的面上的转角或边缘处时提供第三声音。对于交互元件的预选择、激活或执行,或者当执行3D对象111的旋转时,可提供进一步的声信号。结果,通过瞥视即可对车辆用户接口单元100进行操作成为可能。该声反馈信号可通过评估单元135被生成并通过放大器和扩音器(未示出)给出。
据此,车辆用户接口单元100提供了虚拟的、三维图形用户接口,在该界面上的多个交互的元件,例如菜单项或信息元件,可被清楚地布置并轻而易举地被访问。由于3D对象的每个面可显示部分的菜单结构,例如菜单或子菜单,子菜单的菜单项可被访问而不需浏览所有的更高等级的菜单。
应该清楚的是车辆用户接口单元100可包括进一步的组件,例如用于用户接口的机械控制元件,进一步的显示器组件和类似的组件。在图1中示出的功能单元可以不同的方式实现。评估单元135可通过微处理器实现,例如与上面描述的实现显示控制单元120相同的微处理器,或者单独的微处理器。显示控制单元120和评估单元135可被实现成例如在这样的微处理器中运行的软件代码部分。因此,它们不需要是物理分开的单元。这样的微处理器可以是车辆电子装置的微处理器,该车辆电子装置使用了用于用户交互的用户接口单元100。车辆电子装置可以是控制车辆功能和其它电子装置的前部单元,例如多媒体或导航系统,或者可以是较为不复杂的系统,例如汽车立体声系统。车辆用户接口单元100还可以与车辆电子装置分开提供,可以在车座枕头内实现,并与使用有线或无线通信的车辆电子装置通信。在车辆的后部乘客舱室中的乘客因此可以使用车辆用户接口单元100。因此还可以在车辆舱室内提供多个(例如至少两个)这样的用户接口单元。
图2示出了依据本发明实施例的方法的流程图。图1的车辆用户接口单元100可被适配以便执行以下关于图2中描述的方法。在第一步201通过例如3D显示单元101生成图像,使得该图像通过用户对显示器的观察被感知成虚拟的3D图像。在步骤202,对该图像的生成进行控制以便生成包括至少两个区(例如面112和面113)的虚拟3D图像,这两个面各包括多个交互元件,每个区被布置在不同的空间平面上。这一步可通过显示控制单元120执行。通过使用不同的空间平面,可使可呈现给用户的信息量成倍增长。在步骤203中,用户的头部和食指的位置通过例如输入单元130被检测。
在下一个步骤205,确定了用户对虚拟3D图像进行观察的空间中的位置,视情况可通过使用额外的照相机来跟踪用户的面部,以便确定用户观察显示器的视角。用户的手的食指指尖的相对位置和在虚拟图像中包括的元件因此可被精确地确定。
如果用户当前将他的食指指尖移动到距布置在3D对象上的交互元件预定距离处,则这将通过例如输入单元130被检测出并翻译成对相应的交互元件的选择。这可能导致执行与该交互元件相关联的功能,例如,诸如音量设定或温度设定的参数调节、对导航应用中的目的地的选择、媒体文件的选择和回放、对经由移动电话网络或车对车通信系统通信的初始化,或类似的功能。
如果用户当前想更靠近地检查或访问位于3D对象的不同面上的交互元件,该用户可以通过他的手指给出命令,以改变包括交互元件的至少两个区的空间布置。在步骤207将用户的手的食指移动到距多个区中的一个区的转角或边缘预定距离以内,在图1和图3的示例中,该3D对象的面与食指进一步移动到预定距离内被翻译成了这样的命令。正如以上关于图3A至图3C描述的,用户能够将他的手指指尖放置在立方体的转角处并将其向一个方向拖拽,这样做的结果是,该立方体被旋转,使得包括期望的交互元件的面朝向用户。特定子菜单的交互元件可因此以简单的手势动作进行访问,即使该子菜单被布置在菜单层级的最低层上,否则将只能通过浏览层级中多个更高的菜单层进行访问。
清楚的是,以上描述所说明的实施例可以不同的方式被调整而不背离本发明的范围。例如显示控制单元120可能不止适于生成作为3D对象的正方体或长方体,而且也可以考虑其它类型的多面体或球体,具有形成区域的球形罩壳,交互元件被放置在这些区域中。
虽然一些区可仅包括信息元件(例如示出车辆电子系统或其它车辆系统的当前状态、导航信息或类似信息的)形式的交互元件,但是其它的区可包括用于执行功能、进入进一步子菜单、调节参数和类似功能的菜单项形式的交互元件。这两种类型的交互元件的组合也是可能的。正如以上提及的,依据本发明的车辆用户接口单元的功能性单元还可以不同的方法实现,例如作为公共的或分开的集成电路、作为在微处理器上运行的软件代码或类似方式。
正如从以上可见的,本发明的车辆用户接口单元使例如来自驾驶员辅助系统、车到车通信、来自车辆娱乐系统和通信系统的信息、经由互联网连接获得的信息和相应的虚拟控制元件的不同信息和其它元件能够被视觉呈现。这些信息在多个视觉平面上的视觉呈现能够被相互连接,使可利用的信息能够被全面地呈现并且可被快速地访问。通过对手指的简单驱使,在期望平面上进行聚焦(zooming),例如通过旋转部分透明的正方体,以及通过由虚拟接触(虚拟触摸屏)实现对该元件的激活,要被显示的信息能够以直观的方式被操控。类似地,依靠本发明的车辆用户接口单元使车辆电子装置的控制单元的操作更容易并且更迅速。要被调节的参数可迅速且轻而易举地被访问。通过使多个信息能够在有限的空间内呈现,例如关于车辆、道路、信息娱乐系统或环境的不同信息类型可被显示并彼此链接。由于在车辆内用于前部单元的可利用的物理空间非常有限,为布置信息提供的更多空间的更大的虚拟表示是有益的。与常规的触摸屏相比,使用虚拟触摸屏防止了在显示器上形成手印和在显示器上沉积灰尘,而改善了卫生标准。
Claims (16)
1.一种用于车辆电子装置的车辆用户接口单元,其包括:
3D显示单元(101),其包括显示器(102),所述3D显示单元适于在操作中显示图像,使得当用户(140)观察所述显示器(102)时,所述图像被用户感知成至少部分地位于所述显示器(102)前面的虚拟3D图像(110);
显示控制单元(120),用于对通过所述3D显示单元(101)的图像生成进行控制,使得所述虚拟3D图像(110)包括3D对象(111),所述3D对象(111)具有位于不同空间平面上的至少两个区(112,113),每个区包括多个交互元件(115);以及
输入单元(130),用于对用户控制对象(150)的位置进行检测,并将所述用户控制对象(150)的预定义改变的检测结果翻译成对所述虚拟3D图像(110)中包括的所述交互元件(115)中的一个交互元件的选择。
2.如权利要求1所述的车辆用户接口单元,其中所述输入单元(130)被配置成使得所述用户控制对象的预定义改变包括用户控制对象到所述虚拟3D图像(110)中交互元件(115)的预定距离以内的移动,对这样的移动的检测结果被翻译成对相应的交互元件(115)的选择。
3.如权利要求1或2所述的车辆用户接口单元,其中所述显示控制单元(120)被配置成以以下这样一种方式对所述图像的生成进行控制,即使得在所述虚拟3D图像(110)中被定位成靠近正在进行观察的用户(140)的所述3D对象(111)的区是激活区,在所述激活区中的所述交互元件(115)是可选择的,其中,至少另一个区的信息元件是不可选择的。
4.如前述权利要求中的任一项所述的车辆用户接口单元,其中所述显示控制单元(120)被配制成以以下这样一种方式对所述图像的生成进行控制,即使得所述3D对象(111)为多面体,优选地为正方体或长方体,并且使得所述区(112,113)中的每一个与所述多面体的一个面相对应。
5.如权利要求4所述的车辆用户接口单元,其中所述显示控制单元(120)被配置成以以下这样一种方式对所述图像的生成进行控制,即使得所述多面体被定向成使得所述面中的一个面朝向正在进行观察的用户(140),与所述面相对应的区为激活区,所述激活区的交互元件是可选的。
6.如前述权利要求中的任一项所述的车辆用户接口,其中所述输入单元(130)用于检测所述用户控制对象的第二预定义改变,并且将所述第二预定义改变翻译成命令,以改变所述至少两个区(112,113)的空间布置。
7.如权利要求4和6所述的车辆用户接口,其中所述显示控制单元(120)用于通过旋转所述多面体以改变所述至少两个区(112,113)的空间布置,使得包括不同交互元件的多面体的另一个面朝向正在进行观察的用户。
8.如权利要求6或7所述的车辆用户接口单元,其中所述输入单元(130)用于在所述区(112,113)中的一个区的边界或转角处对正在进行观察的用户(140)的手指的位置进行检测,以及将所述手指移动过预定距离检测为所述用户控制对象的第二预定改变。
9.如前述权利要求中的任一项所述的车辆用户接口单元,其中所述车辆用户接口单元(100)用于当检测到所述用户控制对象进入所述虚拟3D图像(110)中的所述3D对象(111)的元件的预定距离以内时,和/或当检测到所述交互元件(115)中的一个交互元件被选择时,向用户(140)提供声音反馈。
10.如前述权利要求中的任一项所述的车辆用户接口元件,其中所述输入单元(130)包括立体照相机(131),所述立体照相机(131)用于监测与产生所述虚拟3D图像(110)的位置相邻的区域,以便对所述用户控制对象的位置及其改变进行检测。
11.如前述权利要求中的任一项所述的车辆用户接口单元,进一步包括用于监测视点的照相机(132),所述用户(140)从所述视点观察所述显示器(102),所述用户接口单元(100)用于以检测出的用户视点为基础来确定位置,正在观察显示器(102)的用户在所述位置处看到所述虚拟3D图像(110)。
12.如前述权利要求中的任一项所述的车辆用户接口单元,其中所述3D显示单元(101)为自动立体感3D显示单元。
13.如前述权利要求中的任一项所述的车辆用户接口单元,其中所述3D显示单元(101)被放置在所述车辆电子装置的面板内。
14.一种车辆信息娱乐系统,包括依据权利要求1至13中的任一项所述的车辆用户接口单元(100)。
15.一种车厢,包括电子装置,所述电子装置具有依据权利要求1至13中的任一项所述的车辆用户接口单元(100)。
16.一种对车辆电子装置的车辆用户接口单元(100)进行操作的方法,包括以下步骤:
通过3D显示单元(101)生成图像,使得当用户(140)观察所述3D显示单元(101)的显示器(102)时,所述图像被所述用户(140)感知成至少部分地位于所述显示器(102)前面的虚拟3D图像(110);
对通过所述3D显示单元(101)的图像生成进行控制,使得所述虚拟3D图像(110)包括3D对象(111),所述3D对象(111)具有位于不同空间平面的至少两个区(112,113),每个区包括多个交互元件(115);以及
对用户控制对象(150)的位置进行检测,并将对所述用户控制对象(150)的预定义改变的检测结果翻译成对在所述虚拟3D图像(110)中包括的所述交互元件(115)中的一个交互元件的选择。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP10003477.6 | 2010-03-30 | ||
EP10003477A EP2372512A1 (en) | 2010-03-30 | 2010-03-30 | Vehicle user interface unit for a vehicle electronic device |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102207770A true CN102207770A (zh) | 2011-10-05 |
Family
ID=42320535
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011100777543A Pending CN102207770A (zh) | 2010-03-30 | 2011-03-30 | 用于车辆电子装置的车辆用户接口单元 |
Country Status (6)
Country | Link |
---|---|
US (2) | US9030465B2 (zh) |
EP (1) | EP2372512A1 (zh) |
JP (1) | JP2011210239A (zh) |
KR (1) | KR20110109974A (zh) |
CN (1) | CN102207770A (zh) |
CA (1) | CA2730379C (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103365483A (zh) * | 2012-04-09 | 2013-10-23 | 深圳泰山在线科技有限公司 | 实现虚拟屏的系统及方法 |
CN104040465A (zh) * | 2012-01-10 | 2014-09-10 | 戴姆勒股份公司 | 使用在三维空间中执行的手势以及相关的计算机程序产品控制车辆功能的方法和设备 |
CN104039581A (zh) * | 2012-01-09 | 2014-09-10 | 奥迪股份公司 | 用于在车辆中产生用户界面的3d-图示的方法和装置 |
CN104199556A (zh) * | 2014-09-22 | 2014-12-10 | 联想(北京)有限公司 | 一种信息处理方法及装置 |
CN104603720A (zh) * | 2012-09-12 | 2015-05-06 | 大陆汽车有限责任公司 | 用于借助手势操作机动车组件的方法和装置 |
CN106855656A (zh) * | 2015-12-08 | 2017-06-16 | 通用汽车环球科技运作有限责任公司 | 增强现实系统及被遮蔽物体的图像处理 |
CN107202426A (zh) * | 2017-05-18 | 2017-09-26 | 珠海格力电器股份有限公司 | 控制装置和方法、热水器 |
CN109196450A (zh) * | 2016-05-24 | 2019-01-11 | 哈曼贝克自动系统股份有限公司 | 眼睛跟踪 |
CN109804270A (zh) * | 2016-10-14 | 2019-05-24 | 奥迪股份公司 | 机动车和用于360°环境检测的方法 |
CN110494319A (zh) * | 2017-04-27 | 2019-11-22 | 株式会社电装 | 车辆用显示装置 |
CN110816410A (zh) * | 2018-08-10 | 2020-02-21 | 本田技研工业株式会社 | 车辆系统 |
CN111148649A (zh) * | 2017-08-08 | 2020-05-12 | 马瑞利汽车照明意大利公司 | 适于车辆的虚拟人机接口系统以及相应的虚拟人机接口方法 |
CN111163974A (zh) * | 2017-10-05 | 2020-05-15 | 宁波吉利汽车研究开发有限公司 | 用于车辆的显示系统和方法 |
CN113302661A (zh) * | 2019-01-10 | 2021-08-24 | 三菱电机株式会社 | 信息显示控制装置及方法、以及程序及记录介质 |
Families Citing this family (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9035876B2 (en) | 2008-01-14 | 2015-05-19 | Apple Inc. | Three-dimensional user interface session control |
US8933876B2 (en) | 2010-12-13 | 2015-01-13 | Apple Inc. | Three dimensional user interface session control |
US8872762B2 (en) | 2010-12-08 | 2014-10-28 | Primesense Ltd. | Three dimensional user interface cursor control |
WO2012144666A1 (en) * | 2011-04-19 | 2012-10-26 | Lg Electronics Inc. | Display device and control method therof |
US9459758B2 (en) | 2011-07-05 | 2016-10-04 | Apple Inc. | Gesture-based interface with enhanced features |
US9377865B2 (en) | 2011-07-05 | 2016-06-28 | Apple Inc. | Zoom-based gesture user interface |
US8881051B2 (en) | 2011-07-05 | 2014-11-04 | Primesense Ltd | Zoom-based gesture user interface |
US9030498B2 (en) | 2011-08-15 | 2015-05-12 | Apple Inc. | Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface |
US9218063B2 (en) * | 2011-08-24 | 2015-12-22 | Apple Inc. | Sessionless pointing user interface |
EP2788839A4 (en) * | 2011-12-06 | 2015-12-16 | Thomson Licensing | METHOD AND SYSTEM FOR RESPONDING TO USER GESTURES FOR SELECTION OF OBJECTS DISPLAYED IN THREE DIMENSIONS |
DE102012000201A1 (de) | 2012-01-09 | 2013-07-11 | Daimler Ag | Verfahren und Vorrichtung zum Bedienen von auf einer Anzeigeeinheit eines Fahrzeugs angezeigten Funktionen unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US9229534B2 (en) | 2012-02-28 | 2016-01-05 | Apple Inc. | Asymmetric mapping for tactile and non-tactile user interfaces |
KR101318244B1 (ko) | 2012-02-29 | 2013-10-15 | 한국과학기술연구원 | 3차원 사용자 인터페이스 구현 시스템 및 구현 방법 |
DE102012007761A1 (de) * | 2012-04-20 | 2013-10-24 | Marquardt Gmbh | Bedienvorrichtung |
US9069455B2 (en) | 2012-06-22 | 2015-06-30 | Microsoft Technology Licensing, Llc | 3D user interface for application entities |
US20140168415A1 (en) * | 2012-12-07 | 2014-06-19 | Magna Electronics Inc. | Vehicle vision system with micro lens array |
EP2752730B1 (en) * | 2013-01-08 | 2019-04-03 | Volvo Car Corporation | Vehicle display arrangement and vehicle comprising a vehicle display arrangement |
CN104919409A (zh) * | 2013-01-10 | 2015-09-16 | 福克斯体育产品公司 | 用于与车辆的3d表示有关的观看者交互的系统、方法和界面 |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US9702977B2 (en) | 2013-03-15 | 2017-07-11 | Leap Motion, Inc. | Determining positional information of an object in space |
CN104071010B (zh) * | 2013-03-29 | 2018-02-13 | 株式会社斯巴鲁 | 运输设备用显示装置 |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US20140368425A1 (en) * | 2013-06-12 | 2014-12-18 | Wes A. Nagara | Adjusting a transparent display with an image capturing device |
EP2821884B1 (en) * | 2013-07-01 | 2018-09-05 | Airbus Operations GmbH | Cabin management system having a three-dimensional operating panel |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
US9721383B1 (en) | 2013-08-29 | 2017-08-01 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
CN103529947A (zh) * | 2013-10-31 | 2014-01-22 | 京东方科技集团股份有限公司 | 显示装置及其控制方法、手势识别方法 |
US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
WO2015168464A1 (en) * | 2014-04-30 | 2015-11-05 | Visteon Global Technologies, Inc. | System and method for calibrating alignment of a three-dimensional display within a vehicle |
CN105519098A (zh) * | 2014-05-27 | 2016-04-20 | 联发科技股份有限公司 | 投射处理器和相关方法 |
CN204480228U (zh) | 2014-08-08 | 2015-07-15 | 厉动公司 | 运动感测和成像设备 |
EP3007050A1 (de) * | 2014-10-08 | 2016-04-13 | Volkswagen Aktiengesellschaft | Anwenderschnittstelle und Verfahren zur Anpassung einer Menüleiste auf einer Anwenderschnittstelle |
US9823764B2 (en) * | 2014-12-03 | 2017-11-21 | Microsoft Technology Licensing, Llc | Pointer projection for natural user input |
US10353532B1 (en) | 2014-12-18 | 2019-07-16 | Leap Motion, Inc. | User interface for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments |
GB2533777A (en) * | 2014-12-24 | 2016-07-06 | Univ Of Hertfordshire Higher Education Corp | Coherent touchless interaction with steroscopic 3D images |
US10247941B2 (en) * | 2015-01-19 | 2019-04-02 | Magna Electronics Inc. | Vehicle vision system with light field monitor |
US10429923B1 (en) | 2015-02-13 | 2019-10-01 | Ultrahaptics IP Two Limited | Interaction engine for creating a realistic experience in virtual reality/augmented reality environments |
US9696795B2 (en) | 2015-02-13 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
EP3088991B1 (en) * | 2015-04-30 | 2019-12-25 | TP Vision Holding B.V. | Wearable device and method for enabling user interaction |
JP6754425B2 (ja) | 2015-05-30 | 2020-09-09 | レイア、インコーポレイテッドLeia Inc. | 車両監視システム |
KR101910383B1 (ko) * | 2015-08-05 | 2018-10-22 | 엘지전자 주식회사 | 차량 운전 보조 장치 및 이를 구비한 차량 |
US20170161949A1 (en) * | 2015-12-08 | 2017-06-08 | GM Global Technology Operations LLC | Holographic waveguide hud side view display |
US10078884B2 (en) * | 2015-12-21 | 2018-09-18 | Siemens Aktiengesellschaft | System and method for processing geographical information with a central window and frame |
DE102016108885A1 (de) * | 2016-05-13 | 2017-11-16 | Visteon Global Technologies, Inc. | Verfahren zum berührungslosen Verschieben von visuellen Informationen |
DE102016216577A1 (de) * | 2016-09-01 | 2018-03-01 | Volkswagen Aktiengesellschaft | Verfahren zur Interaktion mit Bildinhalten, die auf einer Anzeigevorrichtung in einem Fahrzeug dargestellt werden |
CN106980362A (zh) * | 2016-10-09 | 2017-07-25 | 阿里巴巴集团控股有限公司 | 基于虚拟现实场景的输入方法及装置 |
JP6757420B2 (ja) * | 2016-12-09 | 2020-09-16 | 株式会社ソニー・インタラクティブエンタテインメント | 音声制御装置、音声制御方法及びプログラム |
JP2019086911A (ja) * | 2017-11-02 | 2019-06-06 | 三菱自動車工業株式会社 | 車載ユーザーインターフェース装置 |
US10267960B1 (en) | 2018-02-05 | 2019-04-23 | GM Global Technology Operations LLC | Cloaking device and apparatus |
JP6730552B2 (ja) * | 2018-05-14 | 2020-07-29 | 株式会社ユピテル | 電子情報システム及びそのプログラム |
WO2020032307A1 (ko) * | 2018-08-10 | 2020-02-13 | 엘지전자 주식회사 | 차량용 디스플레이 시스템 |
US11354787B2 (en) | 2018-11-05 | 2022-06-07 | Ultrahaptics IP Two Limited | Method and apparatus for correcting geometric and optical aberrations in augmented reality |
US10696239B2 (en) | 2018-11-28 | 2020-06-30 | Toyota Motor Engineering & Manufacturing North America, Inc. | Use of a lenticular lens array to apply a display inside of a vehicle |
DE102019105764B3 (de) | 2019-03-07 | 2020-08-06 | Gestigon Gmbh | Verfahren zum Kalibrieren einer Benutzerschnittstelle sowie Benutzerschnittstelle |
DE102019127183A1 (de) * | 2019-10-09 | 2021-04-15 | Audi Ag | Anzeigesystem zum Anzeigen eines Bedienhinweises für ein Bedienelement in einem Kraftfahrzeug |
CN112061137B (zh) * | 2020-08-19 | 2022-01-14 | 一汽奔腾轿车有限公司 | 一种车外的人车互动控制方法 |
CN113895229B (zh) * | 2021-10-11 | 2022-05-13 | 黑龙江天有为电子有限责任公司 | 一种汽车仪表信息的显示方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5678015A (en) * | 1995-09-01 | 1997-10-14 | Silicon Graphics, Inc. | Four-dimensional graphical user interface |
US5995104A (en) * | 1995-07-21 | 1999-11-30 | Yazaki Corporation | Vehicle display unit with three-dimensional menu controlled by an input device which has two joysticks |
JP2000075991A (ja) * | 1998-08-28 | 2000-03-14 | Aqueous Research:Kk | 情報入力装置 |
US6456737B1 (en) * | 1997-04-15 | 2002-09-24 | Interval Research Corporation | Data processing system and method |
US20040254699A1 (en) * | 2003-05-08 | 2004-12-16 | Masaki Inomae | Operation input device |
US20070132721A1 (en) * | 2005-12-09 | 2007-06-14 | Edge 3 Technologies Llc | Three-Dimensional Virtual-Touch Human-Machine Interface System and Method Therefor |
DE102006032117A1 (de) * | 2006-07-12 | 2008-01-24 | Volkswagen Ag | Informationssystem für ein Verkehrsmittel und Verfahren zum Steuern eines solchen Informationssystems |
US20080161997A1 (en) * | 2005-04-14 | 2008-07-03 | Heino Wengelnik | Method for Representing Items of Information in a Means of Transportation and Instrument Cluster for a Motor Vehicle |
US20100050129A1 (en) * | 2008-08-19 | 2010-02-25 | Augusta Technology, Inc. | 3D Graphical User Interface For Simultaneous Management Of Applications |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07114451A (ja) * | 1993-10-19 | 1995-05-02 | Canon Inc | 3次元メニュー選択方法とその装置 |
JPH09134269A (ja) * | 1995-11-10 | 1997-05-20 | Matsushita Electric Ind Co Ltd | 表示制御装置 |
DE69728108T2 (de) * | 1996-04-19 | 2004-09-30 | Koninklijke Philips Electronics N.V. | Datenverarbeitungssystem mit weicher tastatur die zwischen direkten und indirekten zeichen wechselt |
JPH09298759A (ja) * | 1996-05-08 | 1997-11-18 | Sanyo Electric Co Ltd | 立体映像表示装置 |
US6064354A (en) | 1998-07-01 | 2000-05-16 | Deluca; Michael Joseph | Stereoscopic user interface method and apparatus |
JP3390677B2 (ja) * | 1998-10-26 | 2003-03-24 | 三菱電機株式会社 | メニュー表示方法およびメニュー表示装置 |
DE19852653A1 (de) * | 1998-11-16 | 2000-05-18 | Bosch Gmbh Robert | Vorrichtung zum Erfassen der Belegung eines Fahrzeugsitzes |
JP2001092579A (ja) * | 1999-09-24 | 2001-04-06 | Toshiba Corp | 情報表示装置 |
JP2002259989A (ja) * | 2001-03-02 | 2002-09-13 | Gifu Prefecture | ポインティングジェスチャ検出方法及びその装置 |
JP2004318325A (ja) * | 2003-04-14 | 2004-11-11 | Dainippon Printing Co Ltd | 情報入力装置およびそのプログラムならびに電子フォーム |
JP2005138755A (ja) * | 2003-11-07 | 2005-06-02 | Denso Corp | 虚像表示装置およびプログラム |
JP2005196530A (ja) * | 2004-01-08 | 2005-07-21 | Alpine Electronics Inc | 空間入力装置及び空間入力方法 |
JP4318047B2 (ja) * | 2005-06-06 | 2009-08-19 | ソニー株式会社 | 3次元オブジェクト表示装置、3次元オブジェクト切替表示方法及び3次元オブジェクト表示プログラム |
US9075441B2 (en) * | 2006-02-08 | 2015-07-07 | Oblong Industries, Inc. | Gesture based control using three-dimensional information extracted over an extended depth of field |
WO2008132724A1 (en) * | 2007-04-26 | 2008-11-06 | Mantisvision Ltd. | A method and apparatus for three dimensional interaction with autosteroscopic displays |
DE102007039442A1 (de) * | 2007-08-21 | 2009-02-26 | Volkswagen Ag | Verfahren zum Anzeigen von Informationen in einem Fahrzeug und Anzeigeeinrichtung für ein Fahrzeug |
JP4645678B2 (ja) * | 2008-05-08 | 2011-03-09 | ソニー株式会社 | 情報入出力装置及び情報入出力方法、並びにコンピュータ・プログラム |
US20100128112A1 (en) * | 2008-11-26 | 2010-05-27 | Samsung Electronics Co., Ltd | Immersive display system for interacting with three-dimensional content |
-
2010
- 2010-03-30 EP EP10003477A patent/EP2372512A1/en not_active Ceased
-
2011
- 2011-01-27 CA CA2730379A patent/CA2730379C/en active Active
- 2011-02-21 JP JP2011035242A patent/JP2011210239A/ja active Pending
- 2011-03-29 KR KR1020110028079A patent/KR20110109974A/ko not_active Application Discontinuation
- 2011-03-30 CN CN2011100777543A patent/CN102207770A/zh active Pending
- 2011-03-30 US US13/076,243 patent/US9030465B2/en active Active
-
2015
- 2015-04-28 US US14/698,692 patent/US20150234569A1/en not_active Abandoned
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5995104A (en) * | 1995-07-21 | 1999-11-30 | Yazaki Corporation | Vehicle display unit with three-dimensional menu controlled by an input device which has two joysticks |
US5678015A (en) * | 1995-09-01 | 1997-10-14 | Silicon Graphics, Inc. | Four-dimensional graphical user interface |
US6456737B1 (en) * | 1997-04-15 | 2002-09-24 | Interval Research Corporation | Data processing system and method |
JP2000075991A (ja) * | 1998-08-28 | 2000-03-14 | Aqueous Research:Kk | 情報入力装置 |
US20040254699A1 (en) * | 2003-05-08 | 2004-12-16 | Masaki Inomae | Operation input device |
US20080161997A1 (en) * | 2005-04-14 | 2008-07-03 | Heino Wengelnik | Method for Representing Items of Information in a Means of Transportation and Instrument Cluster for a Motor Vehicle |
US20070132721A1 (en) * | 2005-12-09 | 2007-06-14 | Edge 3 Technologies Llc | Three-Dimensional Virtual-Touch Human-Machine Interface System and Method Therefor |
DE102006032117A1 (de) * | 2006-07-12 | 2008-01-24 | Volkswagen Ag | Informationssystem für ein Verkehrsmittel und Verfahren zum Steuern eines solchen Informationssystems |
US20100050129A1 (en) * | 2008-08-19 | 2010-02-25 | Augusta Technology, Inc. | 3D Graphical User Interface For Simultaneous Management Of Applications |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104039581A (zh) * | 2012-01-09 | 2014-09-10 | 奥迪股份公司 | 用于在车辆中产生用户界面的3d-图示的方法和装置 |
US9619926B2 (en) | 2012-01-09 | 2017-04-11 | Audi Ag | Method and device for generating a 3D representation of a user interface in a vehicle |
CN104040465A (zh) * | 2012-01-10 | 2014-09-10 | 戴姆勒股份公司 | 使用在三维空间中执行的手势以及相关的计算机程序产品控制车辆功能的方法和设备 |
CN104040465B (zh) * | 2012-01-10 | 2017-04-12 | 戴姆勒股份公司 | 使用在三维空间中执行的手势以及相关的计算机程序产品控制车辆功能的方法和设备 |
CN103365483A (zh) * | 2012-04-09 | 2013-10-23 | 深圳泰山在线科技有限公司 | 实现虚拟屏的系统及方法 |
CN103365483B (zh) * | 2012-04-09 | 2016-09-21 | 深圳泰山体育科技股份有限公司 | 实现虚拟屏的系统及方法 |
CN104603720B (zh) * | 2012-09-12 | 2018-03-02 | 大陆汽车有限责任公司 | 用于借助手势操作机动车组件的方法和装置 |
CN104603720A (zh) * | 2012-09-12 | 2015-05-06 | 大陆汽车有限责任公司 | 用于借助手势操作机动车组件的方法和装置 |
CN104199556B (zh) * | 2014-09-22 | 2018-01-16 | 联想(北京)有限公司 | 一种信息处理方法及装置 |
CN104199556A (zh) * | 2014-09-22 | 2014-12-10 | 联想(北京)有限公司 | 一种信息处理方法及装置 |
CN106855656A (zh) * | 2015-12-08 | 2017-06-16 | 通用汽车环球科技运作有限责任公司 | 增强现实系统及被遮蔽物体的图像处理 |
CN109196450A (zh) * | 2016-05-24 | 2019-01-11 | 哈曼贝克自动系统股份有限公司 | 眼睛跟踪 |
CN109804270A (zh) * | 2016-10-14 | 2019-05-24 | 奥迪股份公司 | 机动车和用于360°环境检测的方法 |
CN110494319A (zh) * | 2017-04-27 | 2019-11-22 | 株式会社电装 | 车辆用显示装置 |
CN110494319B (zh) * | 2017-04-27 | 2022-04-29 | 株式会社电装 | 车辆用显示装置 |
CN107202426A (zh) * | 2017-05-18 | 2017-09-26 | 珠海格力电器股份有限公司 | 控制装置和方法、热水器 |
CN111148649A (zh) * | 2017-08-08 | 2020-05-12 | 马瑞利汽车照明意大利公司 | 适于车辆的虚拟人机接口系统以及相应的虚拟人机接口方法 |
CN111163974A (zh) * | 2017-10-05 | 2020-05-15 | 宁波吉利汽车研究开发有限公司 | 用于车辆的显示系统和方法 |
CN111163974B (zh) * | 2017-10-05 | 2023-08-15 | 宁波吉利汽车研究开发有限公司 | 用于车辆的显示系统和方法 |
CN110816410A (zh) * | 2018-08-10 | 2020-02-21 | 本田技研工业株式会社 | 车辆系统 |
CN113302661A (zh) * | 2019-01-10 | 2021-08-24 | 三菱电机株式会社 | 信息显示控制装置及方法、以及程序及记录介质 |
Also Published As
Publication number | Publication date |
---|---|
EP2372512A1 (en) | 2011-10-05 |
CA2730379A1 (en) | 2011-09-30 |
KR20110109974A (ko) | 2011-10-06 |
US9030465B2 (en) | 2015-05-12 |
US20110242102A1 (en) | 2011-10-06 |
CA2730379C (en) | 2013-05-14 |
JP2011210239A (ja) | 2011-10-20 |
US20150234569A1 (en) | 2015-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102207770A (zh) | 用于车辆电子装置的车辆用户接口单元 | |
US9756319B2 (en) | Virtual see-through instrument cluster with live video | |
US10321122B2 (en) | Vehicle display system providing depth information | |
JP5781080B2 (ja) | 3次元立体表示装置および3次元立体表示処理装置 | |
EP3179292B1 (en) | Head-mounted display device and control method therefor | |
JP5006587B2 (ja) | 画像提示装置および画像提示方法 | |
CN103369130B (zh) | 显示设备及其控制方法 | |
EP2365701A1 (en) | Display device, terminal device, and display method | |
CN109643219B (zh) | 用于与在车辆中的显示设备上呈现的图像内容进行交互的方法 | |
EP2752730B1 (en) | Vehicle display arrangement and vehicle comprising a vehicle display arrangement | |
KR101719981B1 (ko) | 3차원 컨텐츠를 출력하는 디스플레이 기기의 사용자 인터페이스 출력 방법 및 그 방법을 채용한 디스플레이 기기 | |
JP2015130666A (ja) | 三次元ナビゲーションシステムを備える仮想三次元インストルメントクラスタ | |
US9118911B2 (en) | Variable disparity three-dimensional (3D) display system and method of operating the same | |
KR20130031499A (ko) | 전자 기기 및 전자 기기의 컨텐츠 생성 방법 | |
CN109951697B (zh) | 用于控制车辆中的立体3d图像的方法和装置 | |
WO2018224725A1 (en) | Rendering mediated reality content | |
US11443487B2 (en) | Methods, apparatus, systems, computer programs for enabling consumption of virtual content for mediated reality | |
EP3454174B1 (en) | Methods, apparatus, systems, computer programs for enabling mediated reality | |
JP5465334B2 (ja) | 3次元立体表示装置 | |
KR101980297B1 (ko) | 3차원 vr 영상 처리 장치, 방법 및 프로그램 | |
EP3534241B1 (en) | Method, apparatus, systems, computer programs for enabling mediated reality | |
JP2015108984A (ja) | 表示制御装置及び表示制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20111005 |