CN105164613A - 用于运行电子数据眼镜的方法和电子数据眼镜 - Google Patents
用于运行电子数据眼镜的方法和电子数据眼镜 Download PDFInfo
- Publication number
- CN105164613A CN105164613A CN201480023920.3A CN201480023920A CN105164613A CN 105164613 A CN105164613 A CN 105164613A CN 201480023920 A CN201480023920 A CN 201480023920A CN 105164613 A CN105164613 A CN 105164613A
- Authority
- CN
- China
- Prior art keywords
- object target
- prespecified
- data glasses
- symbol
- partly
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000011521 glass Substances 0.000 title claims abstract description 118
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000000007 visual effect Effects 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims 1
- 230000002349 favourable effect Effects 0.000 description 12
- 230000006399 behavior Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 241000251468 Actinopterygii Species 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 230000005055 memory storage Effects 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Eyeglasses (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本发明涉及一种用于运行电子数据眼镜(10)的方法,该方法具有以下步骤:检测位于数据眼镜(10)外部的物体目标(26)与借助于数据眼镜(10)的显示装置(12)所显示的符号(28)是否至少部分重合;如果所述物体目标与符号(28)至少部分重合并且满足至少一个预先规定的条件,就选择物体目标(26)。本发明另外还涉及一种电子数据眼镜(10)。
Description
技术领域
本发明涉及一种用于运行电子数据眼镜的方法以及一种电子数据眼镜。
背景技术
电子数据眼镜是通常已知的,其具有显示装置,借助于该显示装置可以在数据眼镜的佩戴者的视野中显示信息。另外还能够选择各种物体目标,例如人、建筑物等,借助于这种数据眼镜可以提供关于所选择物体目标的相应信息(如果存在的话)。
发明内容
本发明的目的是,提出一种用于运行电子数据眼镜的方法以及一种数据眼镜,以此能够简化对物体目标的选择。
所述目的通过具有独立权利要求的特征的用于运行电子数据眼镜的方法以及电子数据眼镜实现。在从属权利要求中给出本发明的具有符合目的且独特的改进方案。
在根据本发明的用于运行电子数据眼镜的方法中,检测位于数据眼镜外部的物体目标与借助于数据眼镜的显示装置所显示的符号是否至少部分重合,在此如果该物体目标与符号至少部分重合并且满足至少一个预先规定的条件,则选择该物体目标。通过根据本发明的方法,电子数据眼镜的佩戴者由此可以以特别简单的方式通过起到选择元件作用的符号、例如十字线等来选择在佩戴者视线方向上位于数据眼镜外部的各种物体目标。
在此该符号起到一种静态的选择元件的作用,其中数据眼镜的佩戴者通过其头部运动能够实现显示装置的图像区域的相应移动,以便能够将他所感兴趣的物体目标与借助于数据眼镜的显示装置显示的符号相重合,由此能够实现对物体目标的选择。也就是说,数据眼镜的佩戴者通过显示的符号获得直接和简单明了的反馈,即他可能感兴趣的物体是否正被该符号所瞄准,以便在希望时使数据眼镜的佩戴者能够以简单的方式对他通过相应的头部运动实现与所显示的符号的重合的相应的物体目标进行选择。
本发明有利的实施方式规定,只有检测到数据眼镜的佩戴者的预先规定的行为,才选择物体目标。该预先规定的行为优选为预先规定的语言指令、预先规定的眨眼模式和/或对预先规定的操作元件的操作。即数据眼镜的佩戴者能够以相当简单的方式实现对物体目标的选择,其方式是他例如发出相应的语言指令、完成相应的眨眼模式或简单地对在数据眼镜上的相应的操作元件进行操作。
根据本发明替代的实施方式规定,当检测到所述物体目标已经在一段预先规定的重合时间段内保持与符号至少部分重合,则自动选择该物体目标。即数据眼镜的佩戴者只须相应地在一段预先规定的时间段内—例如1秒、2秒等—保持其头部这样定向,使得所述符号与对数据眼镜的佩戴者重要的物体目标保持至少部分重合。通过之后伴随的对物体目标的自动选择实现了尤其舒适和直观地选择对于数据眼镜的佩戴者重要的物体目标。
在本发明另外的有利的设计方案中规定,为了检测物体目标与符号是否至少部分重合,检查在数据眼镜内侧的预先规定区域、所述符号和所述物体目标是否沿同一直线布置。数据眼镜内侧的预先规定区域可以例如是数据眼镜的佩戴者的一只眼睛或眼睛的一部分。即只须检测,例如数据眼镜的佩戴者一只眼睛、所显示的符号和数据眼镜的佩戴者可能感兴趣的物体是否沿同一直线布置。由此能够以尤其简单的方式确定该符号与该物体目标是否重合。
在本发明另外的有利的设计方案中规定,为了检测物体目标与符号是否至少部分重合,检查数据眼镜的佩戴者的视线方向是否既指向符号、又指向物体目标。为此,数据眼镜例如可以具有相应适合的视线探测装置,借助于该装置可以随时获取数据眼镜佩戴者的视线方向。通过将目前所获取的数据眼镜佩戴者的视线方向与符号的显示位置的比较,能够以尤其简单的方式确定该符号是否已与相关物体目标重合。数据眼镜可以具有例如定位模块或导航模块,在此可以考虑到数据眼镜的取向以及存储在定位模块或导航模块中的或所提供的关于相应的物体目标、例如建筑物等的信息,。
本发明另外的有利的实施方式规定,在选择了物体目标之后,以光学和/或声学的方式表达/呈现关于被选择的物体目标的预先规定的信息。优选地只有在探测到数据眼镜的佩戴者的预先规定的动作的情况下,才表达所述预先规定的信息。所述预先规定的动作在此例如可以是相应的语言指令、佩戴者的相应的眨眼模式和/或对数据眼镜上的相应预先规定的按键的操作。
作为替代,在本发明的另外的有利的设计方案中还可以规定,如果探测到物体目标在选择之后在至少一段预先规定的时间段内—例如1秒、2秒等—与所述符号处于至少部分重合,则自动表达所述预先规定的信息。即如果数据眼镜的佩戴者在至少一段预先规定的时间段内保持其头部这样定向,使得所述符号与所涉及的物体目标至少部分重合,则实现自动发出有关信息。
本发明另外的有利的设计方案规定,所述预先规定的时间段的流逝借助于显示装置以动画的形式显示。由此以简单的方式使数据眼镜的佩戴者明白,物体目标正处于与所述符号的至少部分重合中,数据眼镜的佩戴者在此借助动画能够识别出,他必须相应将数据眼镜保持对准相关物体目标多长的时间,直到预先规定的信息被自动发出。
在本发明另外的有利的设计方案中规定,只在检测到物体目标与符号至少部分重合的期间显示预先规定的信息。由此避免,如果数据眼镜的佩戴者对先前瞄准的物体目标的有关信息不再感兴趣,及时地隐藏有可能不再感兴趣的信息。
根据本发明另外的有利的设计方案规定,只有关于物体目标存在预先规定的信息时,才选择该物体目标。此外还可以规定,只有关于物体目标存在预先规定的信息时,该物体目标才能够被选择。所述预先规定的信息可以例如是存储在数据眼镜的数据存储器中的信息,或者还可以是存储在与数据眼镜不同的数据库中的相应的信息,该信息例如可通过相应的互联网连接访问。也就是说,优选始终检测正被数据眼镜瞄准的物体目标究竟是否存储在能够被数据眼镜访问的一个或多个数据库中。因为如果关于所涉及的物体目标根本不存在任何信息,则对该物体目标的相应选择也就没有意义。在数据眼镜的周围环境中的存在相应信息的相应物体目标可以例如借助于显示装置被相应地突出显示,例如被镶边、用色彩突显或以其它的方式标记。由此以简单的方式告知数据眼镜的佩戴者,他在其周围环境中通过数据眼镜究竟能够获得关于哪个物体目标的信息。
本发明另外的有利的实施方式规定,一旦选择了物体目标,就在显示装置的预先规定的区域中示出光学突显。数据眼镜的佩戴者由此可以直接知道,借助于数据眼镜正聚焦并选择了一个相应的物体目标。数据眼镜的佩戴者根据该信息例如可以判断,他究竟是否想要得到关于正被选择的物体目标的进一步信息,或者所选择的物体目标是否有可能由于错误而并不是数据眼镜的佩戴者实际上想要聚焦和得到与之有关的相应信息的那个物体目标。
本发明另外的有利的实施方式规定,一旦检测出物体目标与符号至少部分重合,则由显示装置以预先规定的系数/倍数放大显示一个预先规定的、包围该物体目标的区域。换言之,利用数据眼镜的显示装置能够实现对周围环境的一部分的局部缩放,由此数据眼镜的佩戴者获得对他而言可能重要的环境区域的至少局部放大的显示,使他能够更好地利用所示地符号对在该区域中存在的物体目标聚焦。所述局部缩放例如可以是一种鱼眼效果,因此能够放大且变形地显示对数据眼镜的佩戴者重要的环境区域的局部区域。
根据本发明的电子数据眼镜具有检测装置,该检测装置设计用于检测位于在数据眼镜外部的物体目标与借助于数据眼镜的显示装置显示的符号是否至少部分重合。该电子数据眼镜还具有控制装置,该控制装置设计用于,在物体目标与所述符号至少部分重合并且满足至少一个预先规定的条件时,选择该物体目标。根据本发明的方法的有利的设计方案在此被看作是电子数据眼镜的有利的设计方案,其中该数据眼镜尤其具有用于实施所述方法步骤的结构。
附图说明
本发明的其他优点、特征和细节从下面对优选实施例的说明中以及根据附图得出。在上述说明中提出的特征和特征组合以及下面在附图说明中提出和/或在附图中单独示出的特征和特征组合不仅可以以各自所给出的组合方式应用,也可以以其他组合方式或单独应用,而不脱离本发明范围。
附图示出:
图1示出具有显示装置的电子数据眼镜的概略透视图,借助于该显示装置可以在数据眼镜的佩戴者的视野中显示各种信息;和
图2中示出数据眼镜的显示装置的概略示意图,其中借助于该显示装置显示出十字线,该十字线的作用是使数据眼镜的佩戴者能够选择位于数据眼镜外部的物体目标。
具体实施方式
在图1中的概略透视图中示出电子的数据眼镜10。该数据眼镜10具有显示装置12,该显示装置布置在数据眼镜10的边框14上。在本发明情况下,电子数据眼镜10具有多个眼镜腿16,利用它们可以将数据眼镜10固定在佩戴者的耳朵以及鼻梁上。
数据眼镜10另外还具有检测装置18和控制装置20以及操作元件22。数据眼镜10的佩戴者的观察方向通过箭头24表示。
下面详细描述用于运行电子数据眼镜10的方法。在图2中的示意图中示出显示装置12。借助于检测装置18检测位于数据眼镜10外部的目标与借助于数据眼镜10的显示装置12所显示的符号28是否至少部分重合。符号28在本发明的情况下是一种十字线,符号28在此也可以以其他不同形状示出。
如果该物体目标26与符号28至少部分重合并且满足至少一个预先规定的条件,那么借助于控制装置20选择物体目标26。
在此,只有检测到了数据眼镜10的佩戴者的预先规定的行为,才选择物体目标26。该预先规定的行为例如可以是数据眼镜10的佩戴者为了选择他所瞄准的物体目标26而发出的预先规定的语言指令。替代或补充于此,该预先规定的行为也可以是据此来选择所相应瞄准的物体目标26的预先规定的眨眼模式和/或对操作元件22的操作。
替代于此,如果检测到物体目标26在一段预先规定的重合时间段内与符号28处于至少部分重合,那么也可以自动选择物体目标26。该预先规定的重合时间段可以例如为1秒、2秒等。借助于数据眼镜10还可以示出,关于物体目标26究竟是否存在任何存储在数据眼镜本身的此处未示出的存储装置中或存在于与数据眼镜10不同的、例如可以通过互联网连接访问的存储装置中的例如数据形式的信息。如果关于物体目标26存在相应信息,则可以例如由在此未示出的、在显示装置12内部的相应显示来表明这一点,从而告知数据眼镜10的佩戴者,关于物体目标26究竟存在任何信息。此外,只有当关于物体目标26存在相应的预先规定的信息时,才选择该物体目标26。
为了检测物体目标26与符号28是否至少部分重合,要检查在数据眼镜10内侧的预先规定的区域30、符号28和物体目标26是否沿同一的直线32布置。该预先规定的区域30可以例如是数据眼镜10的佩戴者的一只眼睛,因而通过检查该预先规定的区域30、符号28和物体目标26是否沿该直线32布置,就可以以简单的方式检验出数据眼镜10的佩戴者是否正聚焦于该物体目标26。
作为替代或补充,为了检测物体目标26与符号28是否至少部分重合,也可以检查该数据眼镜10的相关佩戴者的视线方向是否既指向符号28、又指向物体目标26。
选择物体目标26的作用是,借助于数据眼镜10能够使佩戴者获得有关物体目标26的进一步的信息。当物体目标26被选择之后,借助于显示装置12显现至少一个预先规定的信息34。替代于此或作为补充,该预先规定的信息也可以由数据眼镜10通过相应的扩音器被有声地表达。
在此,只有当检测到了数据眼镜10的佩戴者的预先规定的动作,才表达预先规定的信息34。佩戴者的预先规定的动作在此可以例如是他说出相应的语言指令、执行相应的预先规定的眨眼模式或重新对操作元件22进行操作。
替代于此,如果检测到物体目标26在选择之后在至少一段预先规定的时间段内与符号28处于至少部分重合,也可以自动表达预先规定的信息34。该预先规定的时间段的相应流逝可以由显示装置12例如以动画36的形式显示。也就是说,如果已经选择了物体目标26,则随时间的增长而填充条状的动画36,在此一旦条状的动画36被完全填满,则预先规定的时间段已经过去并自动显示相应的信息34。
在此,只在检测到物体目标26与符号28至少部分重合的期间显示预先规定的信息34。由此避免了,当视线从物体目标26上转移时仍旧显示信息34,而该信息很有可能对于数据眼镜10的佩戴者而言已经不再感兴趣。
此外,一旦选择了物体目标26,就可以在显示装置12的预先规定的区域中示出此处未绘出的光学突显,从而为数据眼镜10的佩戴者清楚示出他或数据眼镜10刚选择了所涉及的物体目标26。
为简化数据眼镜10的佩戴者对物体目标26的选择,数据眼镜10可以具有一种缩放功能,由此使数据眼镜10的佩戴者能够精确地对物体目标26进行选择。一旦检测到物体目标26与符号28至少部分重合,则由显示装置12以预先规定的因子放大地显示一个预先规定的、包围物体目标26的区域。例如,只有当数据眼镜10的佩戴者实施了相应的语言指令或其他行为,例如像对操作元件22进行操作,才可以进行局部放大或拉近。这种局部缩放可以例如以鱼眼效果的形式或者以正常缩放的形式实现,使得数据眼镜10的佩戴者借助于显示装置12得到放大显示的物体目标26和物体目标26的周围区域,就仿佛他通过例如望远镜观察一样。
物体目标26在此可以是各种元素,例如建筑物、车辆或还可以是人。例如,数据眼镜10的佩戴者可以将其用于进行对机动车发动机的维护。物体目标26这时例如可以是发动机的相应组件,佩戴者可以以上述方式选择组件并获得关于该组件的相应信息的显示。
数据眼镜10还可以例如由医生使用,以便为病人做检查,医生在此可以借助于该数据眼镜以上述方式选择各种躯体部分并获得进一步的信息显示。
该数据眼镜10还可以由机动车的驾驶员佩戴并以上述的方式使用该数据眼镜10来选择各种建筑物、其他交通参与者等,以及借助于数据眼镜10得到有关被选择物的信息。
也就是说,数据眼镜10基本上可以在任意应用领域中使用,其中由数据眼镜10的佩戴者选择任何物体目标,以便有需要的话得到关于刚选择的物体目标的进一步信息的显示。
Claims (15)
1.一种用于运行电子数据眼镜(10)的方法,该方法具有以下步骤:
-检测位于数据眼镜(10)外部的物体目标(26)与借助于数据眼镜(10)的显示装置(12)所显示的符号(28)是否至少部分重合;
-如果物体目标(26)与符号(28)至少部分重合并且满足至少一个预先规定的条件,则选择物体目标(26)。
2.根据权利要求1所述的方法,其特征在于,只有当检测到了数据眼镜(10)的佩戴者的预先规定的行为,才选择物体目标(26)。
3.根据权利要求2所述的方法,其特征在于,所述预先规定的行为是预先规定的语言指令、预先规定的眨眼模式和/或对预先规定的操作元件(22)的操作。
4.根据权利要求1所述的方法,其特征在于,如果检测到了物体目标(26)在一段预先规定的重合时间段内与符号(28)处于至少部分重合,则自动地选择所述物体目标(26)。
5.根据前述权利要求之一所述的方法,其特征在于,为了检测物体目标(26)与符号(28)是否至少部分重合,检查在数据眼镜(10)内侧的预先规定的区域(30)、所述符号(28)与所述物体目标(26)是否沿同一直线(32)布置。
6.根据前述权利要求之一所述的方法,其特征在于,为了检测物体目标(26)与符号(28)是否至少部分重合,检查数据眼镜(10)的佩戴者的视线方向是否既指向符号(28)、又指向物体目标(26)。
7.根据前述权利要求之一所述的方法,其特征在于,在选择了物体目标(26)后,以光学和/或声学地方式表达关于所述被选择的物体目标(26)的预先规定的信息(34)。
8.根据权利要求7所述的方法,其特征在于,只有检测到了数据眼镜(10)的佩戴者的预先规定的动作,才表达所述预先规定的信息(34)。
9.根据权利要求7所述的方法,其特征在于,如果检测到了物体目标(26)在被选择后在至少一段预先规定的时间段内与符号(28)处于至少部分重合,则自动表达所述预先规定的信息(34)。
10.根据权利要求9所述的方法,其特征在于,由显示装置(12)以动画(36)的形式显示所述预先规定的时间段的流逝。
11.根据前述权利要求7至10之一所述的方法,其特征在于,只在检测到物体目标(26)与符号(28)至少部分重合的期间显示所述预先规定的信息(34)。
12.根据前述权利要求之一所述的方法,其特征在于,只有当关于物体目标(26)存在预先规定的信息时,才选择所述物体目标(26)。
13.根据前述权利要求之一所述的方法,其特征在于,一旦物体目标(26)被选择,就在显示装置(12)的预先规定区域中示出光学突显。
14.根据前述权利要求之一所述的方法,其特征在于,一旦检测到物体目标(26)与符号(28)至少部分重合,就由显示装置(12)以预先规定的系数放大地显示预先规定的、包围物体目标(26)的区域。
15.一种电子数据眼镜(10),该电子数据眼镜具有:
-检测装置(18),该检测装置设计用于检测位于数据眼镜(10)外部的物体目标(26)与借助于数据眼镜(10)的显示装置(12)所显示的符号(28)是否至少部分重合;
-控制装置(20),该控制装置设计用于当所述物体目标(26)与符号(28)至少部分重合并且满足至少一个预先规定的条件时选择该物体目标(26)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013013698.9A DE102013013698B4 (de) | 2013-08-16 | 2013-08-16 | Verfahren zum Betreiben einer elektronischen Datenbrille |
DE102013013698.9 | 2013-08-16 | ||
PCT/EP2014/002072 WO2015022052A1 (de) | 2013-08-16 | 2014-07-29 | Verfahren zum betreiben einer elektronischen datenbrille und elektronische datenbrille |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105164613A true CN105164613A (zh) | 2015-12-16 |
CN105164613B CN105164613B (zh) | 2018-04-20 |
Family
ID=51298697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480023920.3A Active CN105164613B (zh) | 2013-08-16 | 2014-07-29 | 用于运行电子数据眼镜的方法和电子数据眼镜 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20160189430A1 (zh) |
EP (1) | EP3033657B1 (zh) |
CN (1) | CN105164613B (zh) |
DE (1) | DE102013013698B4 (zh) |
WO (1) | WO2015022052A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102015006610B4 (de) | 2015-05-21 | 2024-10-02 | Audi Ag | Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug und System mit einer Datenbrille |
EP3353630B1 (en) | 2015-09-24 | 2021-05-26 | Tobii AB | Eye-tracking enabled wearable devices |
US10565446B2 (en) | 2015-09-24 | 2020-02-18 | Tobii Ab | Eye-tracking enabled wearable devices |
CN109416572A (zh) | 2016-04-29 | 2019-03-01 | 托比股份公司 | 启用眼睛跟踪的可穿戴设备 |
US11353952B2 (en) | 2018-11-26 | 2022-06-07 | Tobii Ab | Controlling illuminators for optimal glints |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7401920B1 (en) * | 2003-05-20 | 2008-07-22 | Elbit Systems Ltd. | Head mounted eye tracking and display system |
US20100238161A1 (en) * | 2009-03-19 | 2010-09-23 | Kenneth Varga | Computer-aided system for 360º heads up display of safety/mission critical data |
CN102473324A (zh) * | 2009-08-18 | 2012-05-23 | Metaio有限公司 | 用于在真实环境中表示虚拟信息的方法 |
US20120290401A1 (en) * | 2011-05-11 | 2012-11-15 | Google Inc. | Gaze tracking system |
WO2013033842A1 (en) * | 2011-09-07 | 2013-03-14 | Tandemlaunch Technologies Inc. | System and method for using eye gaze information to enhance interactions |
US20130176208A1 (en) * | 2012-01-06 | 2013-07-11 | Kyocera Corporation | Electronic equipment |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6847336B1 (en) * | 1996-10-02 | 2005-01-25 | Jerome H. Lemelson | Selectively controllable heads-up display system |
GB2377147A (en) * | 2001-06-27 | 2002-12-31 | Nokia Corp | A virtual reality user interface |
US6982716B2 (en) * | 2002-07-11 | 2006-01-03 | Kulas Charles J | User interface for interactive video productions |
US6637883B1 (en) * | 2003-01-23 | 2003-10-28 | Vishwas V. Tengshe | Gaze tracking system and method |
US7460150B1 (en) * | 2005-03-14 | 2008-12-02 | Avaya Inc. | Using gaze detection to determine an area of interest within a scene |
US8584044B2 (en) * | 2007-11-16 | 2013-11-12 | Microsoft Corporation | Localized thumbnail preview of related content during spatial browsing |
US20100053151A1 (en) * | 2008-09-02 | 2010-03-04 | Samsung Electronics Co., Ltd | In-line mediation for manipulating three-dimensional content on a display device |
CN102144201A (zh) * | 2008-09-03 | 2011-08-03 | 皇家飞利浦电子股份有限公司 | 在用户与交互式显示系统之间执行基于目光的交互的方法 |
WO2010032079A2 (en) * | 2008-09-17 | 2010-03-25 | Nokia Corp. | User interface for augmented reality |
US20120105486A1 (en) * | 2009-04-09 | 2012-05-03 | Dynavox Systems Llc | Calibration free, motion tolerent eye-gaze direction detector with contextually aware computer interaction and communication methods |
JP2011028524A (ja) * | 2009-07-24 | 2011-02-10 | Toshiba Corp | 情報処理装置、プログラムおよびポインティング方法 |
US9507418B2 (en) * | 2010-01-21 | 2016-11-29 | Tobii Ab | Eye tracker based contextual action |
US20120120103A1 (en) * | 2010-02-28 | 2012-05-17 | Osterhout Group, Inc. | Alignment control in an augmented reality headpiece |
US8223088B1 (en) * | 2011-06-09 | 2012-07-17 | Google Inc. | Multimode input field for a head-mounted display |
US9286711B2 (en) * | 2011-09-30 | 2016-03-15 | Microsoft Technology Licensing, Llc | Representing a location at a previous time period using an augmented reality display |
US8970452B2 (en) * | 2011-11-02 | 2015-03-03 | Google Inc. | Imaging method |
KR101891786B1 (ko) * | 2011-11-29 | 2018-08-27 | 삼성전자주식회사 | 아이 트래킹 기반의 사용자 기능 운용 방법 및 이를 지원하는 단말기 |
US20160011724A1 (en) * | 2012-01-06 | 2016-01-14 | Google Inc. | Hands-Free Selection Using a Ring-Based User-Interface |
WO2013169237A1 (en) * | 2012-05-09 | 2013-11-14 | Intel Corporation | Eye tracking based selective accentuation of portions of a display |
US20130335405A1 (en) * | 2012-06-18 | 2013-12-19 | Michael J. Scavezze | Virtual object generation within a virtual environment |
US8947385B2 (en) * | 2012-07-06 | 2015-02-03 | Google Technology Holdings LLC | Method and device for interactive stereoscopic display |
US9142185B2 (en) * | 2012-08-30 | 2015-09-22 | Atheer, Inc. | Method and apparatus for selectively presenting content |
US9298970B2 (en) * | 2012-11-27 | 2016-03-29 | Nokia Technologies Oy | Method and apparatus for facilitating interaction with an object viewable via a display |
US20140152558A1 (en) * | 2012-11-30 | 2014-06-05 | Tom Salter | Direct hologram manipulation using imu |
WO2014087406A1 (en) * | 2012-12-05 | 2014-06-12 | Inuitive Ltd. | Method and system for remote controlling |
JP6094190B2 (ja) * | 2012-12-10 | 2017-03-15 | ソニー株式会社 | 情報処理装置および記録媒体 |
JP2014157466A (ja) * | 2013-02-15 | 2014-08-28 | Sony Corp | 情報処理装置及び記憶媒体 |
US20140258942A1 (en) * | 2013-03-05 | 2014-09-11 | Intel Corporation | Interaction of multiple perceptual sensing inputs |
US20140282272A1 (en) * | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Interactive Inputs for a Background Task |
CA3187490A1 (en) * | 2013-03-15 | 2014-09-18 | Interaxon Inc. | Wearable computing apparatus and method |
US9317114B2 (en) * | 2013-05-07 | 2016-04-19 | Korea Advanced Institute Of Science And Technology | Display property determination |
WO2014188565A1 (ja) * | 2013-05-23 | 2014-11-27 | パイオニア株式会社 | 表示制御装置 |
KR102098277B1 (ko) * | 2013-06-11 | 2020-04-07 | 삼성전자주식회사 | 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치 |
US20140368442A1 (en) * | 2013-06-13 | 2014-12-18 | Nokia Corporation | Apparatus and associated methods for touch user input |
US9329682B2 (en) * | 2013-06-18 | 2016-05-03 | Microsoft Technology Licensing, Llc | Multi-step virtual object selection |
-
2013
- 2013-08-16 DE DE102013013698.9A patent/DE102013013698B4/de active Active
-
2014
- 2014-07-29 WO PCT/EP2014/002072 patent/WO2015022052A1/de active Application Filing
- 2014-07-29 US US14/910,576 patent/US20160189430A1/en not_active Abandoned
- 2014-07-29 EP EP14748117.0A patent/EP3033657B1/de active Active
- 2014-07-29 CN CN201480023920.3A patent/CN105164613B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7401920B1 (en) * | 2003-05-20 | 2008-07-22 | Elbit Systems Ltd. | Head mounted eye tracking and display system |
US20100238161A1 (en) * | 2009-03-19 | 2010-09-23 | Kenneth Varga | Computer-aided system for 360º heads up display of safety/mission critical data |
CN102473324A (zh) * | 2009-08-18 | 2012-05-23 | Metaio有限公司 | 用于在真实环境中表示虚拟信息的方法 |
US20120290401A1 (en) * | 2011-05-11 | 2012-11-15 | Google Inc. | Gaze tracking system |
WO2013033842A1 (en) * | 2011-09-07 | 2013-03-14 | Tandemlaunch Technologies Inc. | System and method for using eye gaze information to enhance interactions |
US20130176208A1 (en) * | 2012-01-06 | 2013-07-11 | Kyocera Corporation | Electronic equipment |
Also Published As
Publication number | Publication date |
---|---|
EP3033657B1 (de) | 2017-05-03 |
DE102013013698A1 (de) | 2015-02-19 |
US20160189430A1 (en) | 2016-06-30 |
EP3033657A1 (de) | 2016-06-22 |
WO2015022052A1 (de) | 2015-02-19 |
DE102013013698B4 (de) | 2024-10-02 |
CN105164613B (zh) | 2018-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105164613A (zh) | 用于运行电子数据眼镜的方法和电子数据眼镜 | |
KR102118438B1 (ko) | 차량용 헤드업 디스플레이 장치 및 그 방법 | |
EP2933707B1 (en) | Head mounted display presentation adjustment | |
US9771083B2 (en) | Cognitive displays | |
CN103770734A (zh) | 驾驶员辅助系统和方法 | |
CN104765445A (zh) | 显示器上的眼睛聚散检测 | |
US10789744B2 (en) | Method and apparatus for augmented reality display on vehicle windscreen | |
US9423872B2 (en) | Portable device for tracking user gaze to provide augmented reality display | |
US20230249618A1 (en) | Display system and display method | |
CN105339868A (zh) | 基于眼睛跟踪的视觉增强 | |
US10061995B2 (en) | Imaging system to detect a trigger and select an imaging area | |
KR20160016907A (ko) | 정보 표시 장치 | |
US20200192091A1 (en) | Method and apparatus for providing driving information of vehicle, and recording medium | |
JP2016091192A (ja) | 虚像表示装置、制御方法、プログラム、及び記憶媒体 | |
JP2021512392A (ja) | バーチャルコンテンツを表示するためのヘッドマウント式電子ディスプレイ装置の操作方法およびバーチャルコンテンツを表示するためのディスプレイシステム | |
JP2017182340A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN110998409A (zh) | 增强现实眼镜、确定增强现实眼镜的姿态的方法、适于使用该增强现实眼镜或方法的机动车 | |
JP7058800B2 (ja) | 表示制御装置、表示制御方法、及び表示制御プログラム | |
US9644986B2 (en) | Drive support system and drive support method | |
WO2012101778A1 (ja) | 表示装置、制御方法、プログラム、及び記憶媒体 | |
JP2008232912A (ja) | ナビゲーション装置、ナビゲーション方法、およびプログラム | |
JP6987208B2 (ja) | 表示制御装置、制御方法、プログラム及び記憶媒体 | |
CN111902792A (zh) | 用于通过增强现实设备来提供信息的方法和装置、用于提供用于控制增强现实设备的显示的信息的方法和装置、用于控制增强现实设备的显示的方法和装置、具有用于执行方法的指令的计算机可读的存储介质 | |
JP5517170B2 (ja) | 表示装置及び制御方法 | |
WO2016151958A1 (ja) | 情報処理装置、情報処理システム、情報処理方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |