CN110998409A - 增强现实眼镜、确定增强现实眼镜的姿态的方法、适于使用该增强现实眼镜或方法的机动车 - Google Patents

增强现实眼镜、确定增强现实眼镜的姿态的方法、适于使用该增强现实眼镜或方法的机动车 Download PDF

Info

Publication number
CN110998409A
CN110998409A CN201880056379.4A CN201880056379A CN110998409A CN 110998409 A CN110998409 A CN 110998409A CN 201880056379 A CN201880056379 A CN 201880056379A CN 110998409 A CN110998409 A CN 110998409A
Authority
CN
China
Prior art keywords
augmented reality
reality glasses
pose
optical detection
detection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201880056379.4A
Other languages
English (en)
Inventor
A.哈尔
J.蒂姆勒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Publication of CN110998409A publication Critical patent/CN110998409A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

增强现实眼镜、确定增强现实眼镜的姿态的方法以及适合于使用该增强现实眼镜或该方法的机动车。该增强现实眼镜(1)具有光学检测装置(2),用于检测(10)该增强现实眼镜(1)的周围环境的周围环境数据;以及与姿态确定装置(6)的接口(5),该姿态确定装置用于依据这些周围环境数据来确定(11)该增强现实眼镜(1)的姿态。该述光学检测装置(2)被设立为:只检测有限定偏振的光。

Description

增强现实眼镜、确定增强现实眼镜的姿态的方法、适于使用该 增强现实眼镜或方法的机动车
技术领域
本发明涉及一种增强现实眼镜以及一种用于确定增强现实眼镜的姿态的方法。本发明还涉及一种机动车,该机动车适合于使用按照本发明的增强现实眼镜或者按照本发明的方法。
背景技术
随着虚拟和增强现实技术和应用的不断深入发展,这些虚拟和增强现实技术和应用也进入到汽车中。增强现实(Augmented Reality,AR)、德文“erweiterte Realität”是虚拟元素对真实世界的丰富,这些虚拟元素在三维空间内位置准确地被登记并且允许实时交互。因为术语“Augmented Reality”已经在德语区的学术界相对于术语“erweiterteRealität”被普遍接受,所以在下文使用前者。
增强现实眼镜提供了相对应地用透视正确的虚拟扩展来使驾驶员岗位丰富的可能的技术实现方案。增强现实眼镜像正常眼镜那样被佩戴,但是具有一个或多个投影单元或者显示,借助于所述一个或多个投影单元或者显示,对于眼镜的佩戴者来说可以将信息投影到眼睛前面或者直接投影到视网膜上。在此,眼镜构建为使得佩戴者也可以觉察周围环境。优选地,向佩戴者接触模拟地显示信息或指示。在此,在如下位置显示信息或指示,该位置借助周围对象的位置来判断方位,例如借助相邻的对象或者重叠的对象来判断方位。由于显示和行驶场景的光学重叠,需要更少的头部和眼睛移动来读取信息。此外,眼睛的适应花费降低,因为根据显示的虚拟距离较少地直至完全不必进行视力调节。通过标记对象并且使信息在其真实的参考位置渐显,也就是说通过接触模拟的呈现来使信息在其真实的参考位置渐显,可以在驾驶员的视野内直接呈现周围环境相关的信息。因为这些显示可以被呈现为“周围环境的部分”,所以佩戴者极其快的并且直观的解读是可能的。因而,以增强现实的形式对周围环境的所述直接的图形丰富可以使认知转换要求显著降低。
就增强现实而言在驾驶员的真实视野内登记虚拟信息对技术实现方案提出了很高的要求。为了可以在现实中位置准确地并且透视正确地呈现虚拟内容,需要非常详细地知道车辆的周围环境和自运动。尤其是也必须知道增强现实眼镜的姿态,也就是说该增强现实眼镜相对于车辆的位置和取向。
为了确定增强现实眼镜的姿态,可以使用基于惯性的惯性测量系统。这种测量系统的传感器直接固定在眼镜上并且通过检测加速度来测量眼镜的移动。惯性系统的缺点在于:只进行相对测量而由于测量结果的二次集成形成漂移,该漂移在短时间内使跟踪结果不能使用。因而,惯性系统必须强制与非漂移测量系统耦合。
因此,为了确定增强现实眼镜的姿态,通常使用光学测量系统。在这种情况下,通常从外部观察所要跟踪的对象,因此在这种系统的情况下谈及Outside-In Tracking(外向内跟踪)。为此,例如在车辆中提供附加的传感器系统、例如摄像机,该传感器系统检测增强现实眼镜的移动。
例如,Guy Berg的著作“环路中的车辆——开发和评价安全关键的驾驶员辅助系统的工具”[1]描述了驾驶员辅助系统的测试和仿真环境。在此,测试和仿真环境连同集成的交通仿真与真实的测试车辆相关联。在此,借助于头戴式显示器(Head MountedDisplay,HMD)将驾驶员置于扩展或者虚拟现实中,使得该驾驶员从仿真环境中获得直接的视觉反馈以及从真实的车辆交互获得触觉反馈、前庭反馈、体感反馈和声音反馈。在运行时,对车辆在测试路段上的位置和方位进行定位。通过知道在真实世界中的位置和方位,也知道车辆在虚拟世界中的相对应的位置和方位。附加地,借助于建造在车辆中的传感器来确定驾驶员的视向。借助于车辆的位置和方位以及驾驶员的视向,在仿真软件中产生虚拟世界的与现实对应的图像并且通过HMD向驾驶员显示该图像。在此,使用对头部的光学跟踪,该光学跟踪使用光学标记。
外向内(Outside-In)系统的缺点是:除了眼镜之外还需要第二测量系统。
可以使用所谓的Inside-Out Tracking(内向外跟踪),作为外向内跟踪的替选方案,其中测量系统集成到所要跟踪的对象中,也就是说从对象的角度来检测周围环境。在此,进行测量的系统自身移动。
例如,DE 10 2014 217 963 A1描述了一种用于在机动车中使用的数据眼镜。数据眼镜包括:显示装置;红外摄像机,在该红外摄像机的拍摄中基本上使红外光成像;以及电子处理装置。借助于摄像机来拍摄数据眼镜的周围环境。接着,在这些拍摄中,识别预先限定的图案。为此,事先借助于车辆内部空间中的涂层来显示红外图案。最后,根据所识别出的图案,确定数据眼镜的姿态。
所描述的系统的缺点在于:在车辆中必须安装特殊的标记,这可能在内部空间的设计和观感方面不符合期望。
新式增强现实眼镜使用虚拟系统和机器学习,以便确定眼镜在空间中尽可能精确的方位。在这种情况下,通过光学测量技术的方法,根据周围空间内引人注意的角和边来确定眼镜的姿态和移动。然而,在车辆中应用的情况下,该方法可能有缺陷,因为光学测量系统也将车辆外部空间、也就是说道路或者在车道上或在车道边的对象的光信号一并包括在计算内。因为车辆在移动而内部空间却静止,所以测量系统得到错误信息。由此,该姿态确定可能失败。
发明内容
本发明的任务是指明一种替选的用于确定增强现实眼镜的姿态的解决方案。
该任务通过具有权利要求1的特征的增强现实眼镜、通过具有权利要求7的特征的方法、通过具有权利要求10的特征的机动车并且通过具有权利要求12的特征的系统来解决。本发明的优选的设计方案是从属权利要求的主题。
按照本发明的第一方面,增强现实眼镜具有:
- 光学检测装置,用于检测增强现实眼镜的周围环境的周围环境数据,其中该光学检测装置被设立为只检测有限定偏振的光;和
- 与姿态确定装置的接口,该姿态确定装置用于依据这些周围环境数据来确定增强现实眼镜的姿态。
按照本发明的另一方面,用于确定增强现实眼镜的姿态的方法包括如下步骤:
- 利用光学检测装置来检测增强现实眼镜的周围环境的周围环境数据,其中在检测这些周围环境数据时由该光学检测装置只检测确定偏振的光;而且
- 依据这些周围环境数据来确定增强现实眼镜的姿态。
按照本发明的另一方面,机动车具有多个窗玻璃,其中这些窗玻璃被设立为挡住确定偏振的光。为了该目的,这些窗玻璃优选地具有偏振滤光层。
按照本发明,在增强现实眼镜的内向外跟踪(Inside-Out-Tracking)的情况下,在充分利用偏振光的情况下将应被跟踪的对象与不应被跟踪的对象分开。为了该目的,车窗玻璃具有偏振滤光特性,例如由于被涂覆到这些窗玻璃上的偏振滤光层而具有偏振滤光特性。因而,从外部空间中只还有偏振光进入到内部空间中。增强现实眼镜的检测装置被设立为:只探测具有如下偏振的光,该偏振与光的从外部空间进入到内部空间中的偏振互补。为此,光学检测装置优选地具有偏振滤光镜。由此,对于光学检测装置来说不再可能超出车辆的边界来检测外部空间的部分。因此,只还使用车辆的所检测到的内部空间来进行对增强现实眼镜的姿态确定。同时,驾驶员可以在没有显著限制的情况下通过进行偏振的窗玻璃看。
按照本发明的一个方面,光学检测装置被设立为只检测水平偏振光、垂直偏振光或者圆偏振光。适合于这些偏振的偏光镜能以合理的价格获得,使得所需的偏振滤波可以成本低廉地实现。
按照本发明的一个方面,光学检测装置具有至少一个摄像机,用于检测增强现实眼镜的周围环境的图像数据。接着,为了确定增强现实眼镜的姿态,可以探测和分析在图像数据中的边或者引人注意的点。这允许:将车辆的外部空间和内部空间的基于偏振的分开与利用机器学习的用于姿态确定的现代算法相结合。
按照本发明的一个方面,该增强现实眼镜具有光源,用于对周围环境进行照明。即使几乎不存在自然光或者只是少量存在自然光,也仍然可以以这种方式可靠地执行姿态确定。
特别有利地,按照本发明的方法或按照本发明的增强现实眼镜被用在车辆、尤其是机动车中。
附图说明
本发明的其它特征结合附图从随后的描述以及附上的权利要求书中可见。
图1示意性地示出了按照本发明的用于确定增强现实眼镜的姿态的解决方案的构思;
图2示意性地示出了按照本发明的增强现实眼镜;
图3示意性地示出了用于确定增强现实眼镜的姿态的方法;
图4示出了姿态确定装置的第一实施方式;
图5示出了姿态确定装置的第二实施方式;
图6示意性地示出了机动车,在该机动车中实现按照本发明的解决方案;而
图7示出了增强现实眼镜的增强现实呈现的示例。
具体实施方式
为了更好地理解本发明的原理,随后依据附图更详细地阐述了本发明的实施方式。易于理解的是:本发明并不限于这些实施方式而且所描述的特征也可以组合或者修改,而不脱离本发明的保护范围,如该保护范围在附上的权利要求书中限定的那样。
图1示意性地示出了按照本发明的用于确定增强现实眼镜的姿态的解决方案的构思。出发点是增强现实眼镜的内向外跟踪。在此,在充分利用偏振光的情况下将应被跟踪的对象与不应被跟踪的对象分开。为了该目的,车窗玻璃具有偏振滤光特性,例如由于被涂覆到这些窗玻璃上的偏振滤光层而具有偏振滤光特性。偏振滤光镜使只沿确定偏振的光波穿过。因而,从外部空间中只还有偏振光进入到内部空间中。如果然后该光被引导经过另一互补的滤光镜,则该光不能继续穿透。因此,增强现实眼镜的检测装置被设立为:只探测具有如下偏振的光,该偏振与光的从外部空间进入到内部空间中的偏振互补。为此,光学检测装置优选地具有偏振滤光镜。这些滤光镜可以以薄膜的形式被涂覆到车窗玻璃和光学检测装置上。在这两个滤光镜之间,光可以在没有大的限制的情况下被感知到。这能够实现:驾驶员可以注意到外部世界而同时增强现实眼镜的虚拟定位系统只能注意到内部空间,也就是说对于光学检测装置来说不再可能超出车辆的边界来检测外部空间的部分。因此,只还使用车辆的所检测到的内部空间来进行对增强现实眼镜的姿态确定。
图2示意性地示出了按照本发明的增强现实眼镜1。增强现实眼镜1具有光学检测装置2,该光学检测装置例如具有摄像机3,用于检测增强现实眼镜1的周围环境的周围环境数据。在此,光学检测装置2被设立为:只检测有限定偏振的光,例如只检测水平偏振光、垂直偏振光或者圆偏振光。为了该目的,光学检测装置2具有偏振滤光镜4。借助于接口5存在与外部姿态确定装置6的连接,该外部姿态确定装置4用于依据周围环境数据来确定增强现实眼镜1的姿态。为此,姿态确定装置6例如可以探测并且分析图像数据中的边或者引人注意的点。当然,该姿态确定装置6也可以是增强现实眼镜1的组成部分。借助于图形单元8,增强现实眼镜1的显示可以根据所确定的姿态来适配。为此,姿态确定装置6和图形单元8可以彼此交换数据。如在本例中示出的那样,图形单元8可以是增强现实眼镜1的组成部分或者通过接口来与增强现实眼镜1连接。优选地,增强现实眼镜1具有光源7,用于对周围环境进行照明,以便这样即使在照明条件差的情况下也可以执行姿态确定。由图形单元8生成的显示通过投影单元9来渐显。
图3示意性地示出了用于确定增强现实眼镜的姿态的方法。在第一步骤中,检测10增强现实眼镜的周围环境的周围环境数据,其中光学检测装置只检测确定偏振的光。光学检测装置例如可以是摄像机,该摄像机记录周围环境的图像数据。接着,依据周围环境数据来确定11增强现实眼镜的姿态。为此,例如可以探测和分析在图像数据中的边或者引人注意的点。最后,增强现实眼镜的显示根据所确定的姿态适配12,使得例如可见的对象与所呈现的对象在光学上准确地重叠。
图4示出了姿态确定装置6的第一实施方式的简化示意图。姿态确定装置6具有输入端21,通过该输入端可以接收增强现实眼镜的摄像机3的图像数据。设备20还具有图像处理单元22,用于探测在图像数据中的边或者引人注意的点。分析单元23根据这些边或者引人注意的点来确定增强现实眼镜的姿态。通过姿态确定装置6的输出端26,向图形单元8输出关于所确定的姿态的信息。接着,图形单元8可以根据所确定的姿态来使增强现实眼镜的显示适配。在此,增强现实眼镜的显示被适配为使得可见的对象与所呈现的对象在光学上准确地重叠。图形单元8可以是增强现实眼镜的组成部分或者通过接口来与增强现实眼镜连接。
图像处理单元22和分析单元23可以由监控单元24来控制。必要时,通过用户界面27可以改变图像处理单元22、分析单元23或者监控单元24的设置。在设备20中累积的数据可以在需要时被存放在设备20的存储器25中,例如为了稍后的分析或为了由设备20的组件来使用而被存放在设备20的存储器26中。图像处理单元22、分析单元23以及监控单元24可以被实现为专用硬件,例如被实现为集成电路。但是,它们当然也可以部分地或者完全地组合或者被实现为在适当的处理器上、例如在GPU(GPU:Graphics Processing Unit;图形处理单元)上运行的软件。输入端21和输出端26可以实现为分开的接口或者可以实现为组合式双向接口。姿态确定装置6可以是增强现实眼镜的组成部分或者通过接口来与增强现实眼镜连接。
图5示出了姿态确定装置6的第二实施方式的简化示意图。姿态确定装置6具有处理器32和存储器31。例如,该设备30是计算机或者控制设备。姿态确定装置6具有输入端33,用于接收信息、例如增强现实眼镜的摄像机的图像数据。在存储器31中存放有指令,这些指令在由处理器32实施时促使姿态确定装置6探测在图像数据中的边或者引人注意的点并且根据这些边或者引人注意的点来确定增强现实眼镜的姿态。因此,存放在存储器31中的指令表现为能通过处理器32实施的程序,所述程序实现了按照本发明的方法。由处理器32生成的数据通过输出端34来提供。这些数据还可以被存放在存储器31中。输入端33和输出端34可以组合成双向接口。
处理器32可包括一个或多个处理器单元,例如微处理器、数字信号处理器或者它们的组合。
所描述的实施方式的存储器25、31不仅可具有易失性存储区而且可具有非易失性存储区,而且可包括各种各样的存储设备和存储介质,例如硬盘、光学存储介质或者半导体存储器。
图6示意性地示出了机动车40,在该机动车中实现按照本发明的解决方案。在该示例中,姿态确定装置6布置在机动车40中实现并且不是增强现实眼镜1的组成部分。经由接口(未示出),按照本发明的增强现实眼镜1可以与姿态确定装置6无线连接或者有线连接。前窗玻璃41和侧窗玻璃42以及其它窗玻璃都配备有偏振滤光层43,使得与增强现实眼镜1的偏振选择性光学检测装置相结合,仅仅检测车辆内部空间来进行姿态确定。为了简便起见,在该附图中只示出了在前窗玻璃41上的偏振滤光层43。机动车40还具有摄像机44、导航系统45、数据传输单元46以及一系列辅助系统47,这些辅助系统中的一个辅助系统示范性地示出。借助于数据传输单元46可以建立与服务提供商的连接。为了存储数据,存在存储器48。通过网络49来实现机动车40的不同组件之间的数据交换。图形单元8根据不同车辆系统的数据来计算增强现实眼镜1的显示。在图6中,在机动车40中实现该图形单元,但是该图形单元也可以是增强现实眼镜1的组成部分。
图7示出了增强现实眼镜的增强现实呈现的示例。实际的周围环境与一系列要素叠加,部分以接触模拟的呈现来叠加。在图7中的示例中,这是当前的速度和标记50,该标记标出了前面行驶的车辆51,用于使ACC系统状态(ACC:Adaptive Cruise Control;自适应巡航控制)可视化。同时可以显示导航信息、警告或者其它要素。对于该呈现的具体设计来说,向本领域技术人员提供各种各样的设计途径。
附图标记列表
1 增强现实眼镜
2 光学检测装置
3 摄像机
4 偏振滤光镜
5 接口
6 姿态确定装置
7 光源
8 图形单元
9 投影单元
10 检测增强现实眼镜的周围环境数据
11 确定增强现实眼镜的姿态
12 使增强现实眼镜的显示适配
21 输入端
22 图像处理单元
23 分析单元
24 监控单元
25 存储器
26 输出端
27 用户界面
31 存储器
32 处理器
33 输入端
34 输出端
40 机动车
41 前窗玻璃
42 侧窗玻璃
43 偏振滤光层
44 摄像机
45 导航系统
46 数据传输单元
47 辅助系统
48 存储器
49 网络
50 标记
51 前面行驶的车辆。
参考文献
[1] Guy Berg:“环路中的车辆——开发和评价安全关键的驾驶员辅助系统的工具”,慕尼黑国防军大学航空航天技术学院的博士论文(2014年)http://athene-forschung.unibw.de/node
Figure 15118DEST_PATH_IMAGE001
id=97267。

Claims (10)

1.一种系统,所述系统包括:
- 机动车(20),所述机动车具有多个窗玻璃(21、22),其中所述窗玻璃(21、22)被设立为挡住确定偏振的光;以及
- 增强现实眼镜(1);所述增强现实眼镜具有:
- 光学检测装置(2),用于检测(10)所述增强现实眼镜(1)的周围环境的周围环境数据;和
- 与姿态确定装置(6)的接口(5),所述姿态确定装置用于依据所述周围环境数据来确定(11)所述增强现实眼镜(1)的姿态,
其中所述光学检测装置(2)被设立为:只检测有如下偏振的光,所述偏振与光的从外部空间进入到所述机动车(20)的内部空间中的偏振互补。
2.根据权利要求1所述的系统,其中所述光学检测装置(2)具有偏振滤光镜(4)。
3.根据权利要求1或2所述的系统,其中所述光学检测装置(2)被设立为:只检测水平偏振光、垂直偏振光或者圆偏振光。
4.根据上述权利要求之一所述的系统,其中所述光学检测装置(2)具有至少一个摄像机(3),用于检测所述增强现实眼镜(1)的周围环境的图像数据。
5.根据权利要求1所述的系统,其中所述姿态确定装置(6)被设立为:为了确定(11)所述增强现实眼镜(1)的姿态,探测和分析在图像数据中的边或者引人注意的点。
6.根据上述权利要求之一所述的系统,其中所述增强现实眼镜(1)具有光源(7),用于对所述周围环境进行照明。
7.根据上述权利要求之一所述的系统,其中所述窗玻璃(21、22)具有偏振滤光层(23)。
8.一种用于确定增强现实眼镜(1)在机动车(20)的内部空间中的姿态的方法,所述机动车具有多个窗玻璃(21、22),其中所述窗玻璃(21、22)被设立为挡住确定偏振的光,所述方法具有如下步骤:
- 利用光学检测装置(2)来检测(10)所述增强现实眼镜(1)的周围环境的周围环境数据;而且
- 依据所述周围环境数据来确定(11)所述增强现实眼镜(1)的姿态,
其中在检测所述周围环境数据时,由所述光学检测装置(2)只检测如下偏振的光,所述偏振与光的从外部空间进入到所述机动车(20)的内部空间中的偏振互补。
9.根据权利要求8所述的方法,其中所述光学检测装置(2)借助于至少一个摄像机(3)来检测(10)所述增强现实眼镜(1)的周围环境的图像数据。
10.根据权利要求9所述的方法,其中为了确定(11)所述增强现实眼镜(1)的姿态,探测和分析在所述图像数据中的边或者引人注意的点。
CN201880056379.4A 2017-08-30 2018-08-15 增强现实眼镜、确定增强现实眼镜的姿态的方法、适于使用该增强现实眼镜或方法的机动车 Pending CN110998409A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102017215163.3 2017-08-30
DE102017215163.3A DE102017215163B4 (de) 2017-08-30 2017-08-30 System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs
PCT/EP2018/072156 WO2019042778A1 (de) 2017-08-30 2018-08-15 Augmented-reality-brille, verfahren zum bestimmen einer pose einer augmented-reality-brille, zur nutzung der augmented-reality-brille oder des verfahrens geeignetes kraftfahrzeug

Publications (1)

Publication Number Publication Date
CN110998409A true CN110998409A (zh) 2020-04-10

Family

ID=63254712

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880056379.4A Pending CN110998409A (zh) 2017-08-30 2018-08-15 增强现实眼镜、确定增强现实眼镜的姿态的方法、适于使用该增强现实眼镜或方法的机动车

Country Status (4)

Country Link
US (1) US10969579B2 (zh)
CN (1) CN110998409A (zh)
DE (1) DE102017215163B4 (zh)
WO (1) WO2019042778A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112631431A (zh) * 2021-01-04 2021-04-09 杭州光粒科技有限公司 Ar眼镜的位姿确定方法、装置及设备、存储介质

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7384014B2 (ja) * 2019-12-06 2023-11-21 トヨタ自動車株式会社 表示システム
DE102020105196A1 (de) * 2020-02-27 2021-09-02 Audi Aktiengesellschaft Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug sowie System mit einem Kraftfahrzeug und einer Datenbrille
DE102020112300A1 (de) * 2020-05-06 2021-11-11 Audi Aktiengesellschaft 6 Degree of Freedom (6DOF) Tracking von mobilen Head Mounted Displays (HMD)
CN111881719B (zh) * 2020-06-09 2024-04-16 青岛奥美克生物信息科技有限公司 非接触式生物识别引导装置、方法以及生物特征识别系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09219810A (ja) * 1996-02-09 1997-08-19 Toyota Motor Corp 移動体のキャビン内撮影装置
WO2016001079A1 (de) * 2014-07-04 2016-01-07 Bayerische Motoren Werke Aktiengesellschaft Lokalisierung eines hmd im fahrzeug
WO2016037819A1 (de) * 2014-09-09 2016-03-17 Bayerische Motoren Werke Aktiengesellschaft Bestimmung der pose eines hmd
DE102014225222A1 (de) * 2014-12-09 2016-06-09 Bayerische Motoren Werke Aktiengesellschaft Bestimmung der Position eines HMD relativ zum Kopf des Trägers

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE1938480U (de) * 1966-01-15 1966-05-12 Peter Dr Ing Artelt Vorrichtung zum blendschutz vor kraftfahrzeugen.
DE102005058240A1 (de) 2005-12-06 2007-06-14 Siemens Ag Trackingsystem und Verfahren zur Posenbestimmung
DE102006006001B3 (de) 2006-02-08 2007-10-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Anordnung zum Einblenden ortsbezogener Informationen in eine visuelle Darstellung oder Ansicht einer Szene
DE102006013700B3 (de) * 2006-03-24 2007-10-11 Robert Bosch Gmbh Einrichtung an einem Fahrzeug zur Verhinderung der Blendung
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
DE102014217963A1 (de) 2014-09-09 2016-03-10 Bayerische Motoren Werke Aktiengesellschaft Posenbestimmung einer Datenbrille mithilfe von passiven IR-Markern
US10394029B2 (en) * 2016-04-04 2019-08-27 Akonia Holographics, Llc Field of view enhancement
US10625580B1 (en) * 2016-08-26 2020-04-21 Apple Inc. Systems with adjustable windows
US20190018255A1 (en) * 2017-07-11 2019-01-17 Google Llc Compact near-eye optical system including a refractive beam-splitting convex lens
US10678056B2 (en) * 2018-02-26 2020-06-09 Google Llc Augmented reality light field head-mounted displays

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09219810A (ja) * 1996-02-09 1997-08-19 Toyota Motor Corp 移動体のキャビン内撮影装置
WO2016001079A1 (de) * 2014-07-04 2016-01-07 Bayerische Motoren Werke Aktiengesellschaft Lokalisierung eines hmd im fahrzeug
WO2016037819A1 (de) * 2014-09-09 2016-03-17 Bayerische Motoren Werke Aktiengesellschaft Bestimmung der pose eines hmd
DE102014225222A1 (de) * 2014-12-09 2016-06-09 Bayerische Motoren Werke Aktiengesellschaft Bestimmung der Position eines HMD relativ zum Kopf des Trägers

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112631431A (zh) * 2021-01-04 2021-04-09 杭州光粒科技有限公司 Ar眼镜的位姿确定方法、装置及设备、存储介质

Also Published As

Publication number Publication date
WO2019042778A1 (de) 2019-03-07
DE102017215163B4 (de) 2019-04-11
US10969579B2 (en) 2021-04-06
US20200218065A1 (en) 2020-07-09
DE102017215163A1 (de) 2019-02-28

Similar Documents

Publication Publication Date Title
CN110998409A (zh) 增强现实眼镜、确定增强现实眼镜的姿态的方法、适于使用该增强现实眼镜或方法的机动车
US9928653B2 (en) Head mounted display presentation adjustment
EP2261604B1 (en) Computer arrangement for and method of calculating motion vectors using range sensor data
EP3134764B1 (en) Head mounted display and method for controlling the same
US11181737B2 (en) Head-up display device for displaying display items having movement attribute or fixed attribute, display control method, and control program
US9001153B2 (en) System and apparatus for augmented reality display and controls
US9235933B2 (en) Wearable display system that displays previous runners as virtual objects on a current runner's path
WO2016067574A1 (ja) 表示制御装置及び表示制御プログラム
CN108463840B (zh) 信息处理设备、信息处理方法以及记录介质
US10262433B2 (en) Determining the pose of a head mounted display
JP6820561B2 (ja) 画像処理装置、表示装置、ナビゲーションシステム、画像処理方法及びプログラム
CN110031975B (zh) 在车辆中校准增强现实眼镜的方法和系统与增强现实眼镜
KR20180022374A (ko) 운전석과 보조석의 차선표시 hud와 그 방법
CN110895676B (zh) 动态对象跟踪
JP2006260011A (ja) 車両用表示装置
US10209857B2 (en) Display control apparatus and display system
KR20180053396A (ko) 차량용 표시 장치
JPWO2017163514A1 (ja) 眼鏡型ウェアラブル端末、その制御方法および制御プログラム
CN109788243B (zh) 识别和可视化地呈现显示增强图像内容时的系统不可靠性
JP2012155516A (ja) 車両挙動記録システム
WO2018150888A1 (ja) 情報記録装置、情報記録方法及び情報記録用プログラム
JP6288204B1 (ja) 車両用制限速度検出装置
JP2004064409A (ja) 情報記録装置、情報記録方法及び情報記録用プログラム
WO2020230418A1 (ja) 表示装置
JP7236674B2 (ja) 表示装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination