CN110998409A - 增强现实眼镜、确定增强现实眼镜的姿态的方法、适于使用该增强现实眼镜或方法的机动车 - Google Patents
增强现实眼镜、确定增强现实眼镜的姿态的方法、适于使用该增强现实眼镜或方法的机动车 Download PDFInfo
- Publication number
- CN110998409A CN110998409A CN201880056379.4A CN201880056379A CN110998409A CN 110998409 A CN110998409 A CN 110998409A CN 201880056379 A CN201880056379 A CN 201880056379A CN 110998409 A CN110998409 A CN 110998409A
- Authority
- CN
- China
- Prior art keywords
- augmented reality
- reality glasses
- pose
- optical detection
- detection device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000011521 glass Substances 0.000 title claims abstract description 102
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 97
- 238000000034 method Methods 0.000 title claims abstract description 18
- 230000003287 optical effect Effects 0.000 claims abstract description 33
- 238000001514 detection method Methods 0.000 claims abstract description 31
- 230000010287 polarization Effects 0.000 claims abstract description 31
- 230000000295 complement effect Effects 0.000 claims description 5
- 230000015654 memory Effects 0.000 description 12
- 238000005259 measurement Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000004088 simulation Methods 0.000 description 6
- 239000005357 flat glass Substances 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 230000001720 vestibular Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Studio Devices (AREA)
- Navigation (AREA)
- Processing Or Creating Images (AREA)
Abstract
增强现实眼镜、确定增强现实眼镜的姿态的方法以及适合于使用该增强现实眼镜或该方法的机动车。该增强现实眼镜(1)具有光学检测装置(2),用于检测(10)该增强现实眼镜(1)的周围环境的周围环境数据;以及与姿态确定装置(6)的接口(5),该姿态确定装置用于依据这些周围环境数据来确定(11)该增强现实眼镜(1)的姿态。该述光学检测装置(2)被设立为:只检测有限定偏振的光。
Description
技术领域
本发明涉及一种增强现实眼镜以及一种用于确定增强现实眼镜的姿态的方法。本发明还涉及一种机动车,该机动车适合于使用按照本发明的增强现实眼镜或者按照本发明的方法。
背景技术
随着虚拟和增强现实技术和应用的不断深入发展,这些虚拟和增强现实技术和应用也进入到汽车中。增强现实(Augmented Reality,AR)、德文“erweiterte Realität”是虚拟元素对真实世界的丰富,这些虚拟元素在三维空间内位置准确地被登记并且允许实时交互。因为术语“Augmented Reality”已经在德语区的学术界相对于术语“erweiterteRealität”被普遍接受,所以在下文使用前者。
增强现实眼镜提供了相对应地用透视正确的虚拟扩展来使驾驶员岗位丰富的可能的技术实现方案。增强现实眼镜像正常眼镜那样被佩戴,但是具有一个或多个投影单元或者显示,借助于所述一个或多个投影单元或者显示,对于眼镜的佩戴者来说可以将信息投影到眼睛前面或者直接投影到视网膜上。在此,眼镜构建为使得佩戴者也可以觉察周围环境。优选地,向佩戴者接触模拟地显示信息或指示。在此,在如下位置显示信息或指示,该位置借助周围对象的位置来判断方位,例如借助相邻的对象或者重叠的对象来判断方位。由于显示和行驶场景的光学重叠,需要更少的头部和眼睛移动来读取信息。此外,眼睛的适应花费降低,因为根据显示的虚拟距离较少地直至完全不必进行视力调节。通过标记对象并且使信息在其真实的参考位置渐显,也就是说通过接触模拟的呈现来使信息在其真实的参考位置渐显,可以在驾驶员的视野内直接呈现周围环境相关的信息。因为这些显示可以被呈现为“周围环境的部分”,所以佩戴者极其快的并且直观的解读是可能的。因而,以增强现实的形式对周围环境的所述直接的图形丰富可以使认知转换要求显著降低。
就增强现实而言在驾驶员的真实视野内登记虚拟信息对技术实现方案提出了很高的要求。为了可以在现实中位置准确地并且透视正确地呈现虚拟内容,需要非常详细地知道车辆的周围环境和自运动。尤其是也必须知道增强现实眼镜的姿态,也就是说该增强现实眼镜相对于车辆的位置和取向。
为了确定增强现实眼镜的姿态,可以使用基于惯性的惯性测量系统。这种测量系统的传感器直接固定在眼镜上并且通过检测加速度来测量眼镜的移动。惯性系统的缺点在于:只进行相对测量而由于测量结果的二次集成形成漂移,该漂移在短时间内使跟踪结果不能使用。因而,惯性系统必须强制与非漂移测量系统耦合。
因此,为了确定增强现实眼镜的姿态,通常使用光学测量系统。在这种情况下,通常从外部观察所要跟踪的对象,因此在这种系统的情况下谈及Outside-In Tracking(外向内跟踪)。为此,例如在车辆中提供附加的传感器系统、例如摄像机,该传感器系统检测增强现实眼镜的移动。
例如,Guy Berg的著作“环路中的车辆——开发和评价安全关键的驾驶员辅助系统的工具”[1]描述了驾驶员辅助系统的测试和仿真环境。在此,测试和仿真环境连同集成的交通仿真与真实的测试车辆相关联。在此,借助于头戴式显示器(Head MountedDisplay,HMD)将驾驶员置于扩展或者虚拟现实中,使得该驾驶员从仿真环境中获得直接的视觉反馈以及从真实的车辆交互获得触觉反馈、前庭反馈、体感反馈和声音反馈。在运行时,对车辆在测试路段上的位置和方位进行定位。通过知道在真实世界中的位置和方位,也知道车辆在虚拟世界中的相对应的位置和方位。附加地,借助于建造在车辆中的传感器来确定驾驶员的视向。借助于车辆的位置和方位以及驾驶员的视向,在仿真软件中产生虚拟世界的与现实对应的图像并且通过HMD向驾驶员显示该图像。在此,使用对头部的光学跟踪,该光学跟踪使用光学标记。
外向内(Outside-In)系统的缺点是:除了眼镜之外还需要第二测量系统。
可以使用所谓的Inside-Out Tracking(内向外跟踪),作为外向内跟踪的替选方案,其中测量系统集成到所要跟踪的对象中,也就是说从对象的角度来检测周围环境。在此,进行测量的系统自身移动。
例如,DE 10 2014 217 963 A1描述了一种用于在机动车中使用的数据眼镜。数据眼镜包括:显示装置;红外摄像机,在该红外摄像机的拍摄中基本上使红外光成像;以及电子处理装置。借助于摄像机来拍摄数据眼镜的周围环境。接着,在这些拍摄中,识别预先限定的图案。为此,事先借助于车辆内部空间中的涂层来显示红外图案。最后,根据所识别出的图案,确定数据眼镜的姿态。
所描述的系统的缺点在于:在车辆中必须安装特殊的标记,这可能在内部空间的设计和观感方面不符合期望。
新式增强现实眼镜使用虚拟系统和机器学习,以便确定眼镜在空间中尽可能精确的方位。在这种情况下,通过光学测量技术的方法,根据周围空间内引人注意的角和边来确定眼镜的姿态和移动。然而,在车辆中应用的情况下,该方法可能有缺陷,因为光学测量系统也将车辆外部空间、也就是说道路或者在车道上或在车道边的对象的光信号一并包括在计算内。因为车辆在移动而内部空间却静止,所以测量系统得到错误信息。由此,该姿态确定可能失败。
发明内容
本发明的任务是指明一种替选的用于确定增强现实眼镜的姿态的解决方案。
该任务通过具有权利要求1的特征的增强现实眼镜、通过具有权利要求7的特征的方法、通过具有权利要求10的特征的机动车并且通过具有权利要求12的特征的系统来解决。本发明的优选的设计方案是从属权利要求的主题。
按照本发明的第一方面,增强现实眼镜具有:
- 光学检测装置,用于检测增强现实眼镜的周围环境的周围环境数据,其中该光学检测装置被设立为只检测有限定偏振的光;和
- 与姿态确定装置的接口,该姿态确定装置用于依据这些周围环境数据来确定增强现实眼镜的姿态。
按照本发明的另一方面,用于确定增强现实眼镜的姿态的方法包括如下步骤:
- 利用光学检测装置来检测增强现实眼镜的周围环境的周围环境数据,其中在检测这些周围环境数据时由该光学检测装置只检测确定偏振的光;而且
- 依据这些周围环境数据来确定增强现实眼镜的姿态。
按照本发明的另一方面,机动车具有多个窗玻璃,其中这些窗玻璃被设立为挡住确定偏振的光。为了该目的,这些窗玻璃优选地具有偏振滤光层。
按照本发明,在增强现实眼镜的内向外跟踪(Inside-Out-Tracking)的情况下,在充分利用偏振光的情况下将应被跟踪的对象与不应被跟踪的对象分开。为了该目的,车窗玻璃具有偏振滤光特性,例如由于被涂覆到这些窗玻璃上的偏振滤光层而具有偏振滤光特性。因而,从外部空间中只还有偏振光进入到内部空间中。增强现实眼镜的检测装置被设立为:只探测具有如下偏振的光,该偏振与光的从外部空间进入到内部空间中的偏振互补。为此,光学检测装置优选地具有偏振滤光镜。由此,对于光学检测装置来说不再可能超出车辆的边界来检测外部空间的部分。因此,只还使用车辆的所检测到的内部空间来进行对增强现实眼镜的姿态确定。同时,驾驶员可以在没有显著限制的情况下通过进行偏振的窗玻璃看。
按照本发明的一个方面,光学检测装置被设立为只检测水平偏振光、垂直偏振光或者圆偏振光。适合于这些偏振的偏光镜能以合理的价格获得,使得所需的偏振滤波可以成本低廉地实现。
按照本发明的一个方面,光学检测装置具有至少一个摄像机,用于检测增强现实眼镜的周围环境的图像数据。接着,为了确定增强现实眼镜的姿态,可以探测和分析在图像数据中的边或者引人注意的点。这允许:将车辆的外部空间和内部空间的基于偏振的分开与利用机器学习的用于姿态确定的现代算法相结合。
按照本发明的一个方面,该增强现实眼镜具有光源,用于对周围环境进行照明。即使几乎不存在自然光或者只是少量存在自然光,也仍然可以以这种方式可靠地执行姿态确定。
特别有利地,按照本发明的方法或按照本发明的增强现实眼镜被用在车辆、尤其是机动车中。
附图说明
本发明的其它特征结合附图从随后的描述以及附上的权利要求书中可见。
图1示意性地示出了按照本发明的用于确定增强现实眼镜的姿态的解决方案的构思;
图2示意性地示出了按照本发明的增强现实眼镜;
图3示意性地示出了用于确定增强现实眼镜的姿态的方法;
图4示出了姿态确定装置的第一实施方式;
图5示出了姿态确定装置的第二实施方式;
图6示意性地示出了机动车,在该机动车中实现按照本发明的解决方案;而
图7示出了增强现实眼镜的增强现实呈现的示例。
具体实施方式
为了更好地理解本发明的原理,随后依据附图更详细地阐述了本发明的实施方式。易于理解的是:本发明并不限于这些实施方式而且所描述的特征也可以组合或者修改,而不脱离本发明的保护范围,如该保护范围在附上的权利要求书中限定的那样。
图1示意性地示出了按照本发明的用于确定增强现实眼镜的姿态的解决方案的构思。出发点是增强现实眼镜的内向外跟踪。在此,在充分利用偏振光的情况下将应被跟踪的对象与不应被跟踪的对象分开。为了该目的,车窗玻璃具有偏振滤光特性,例如由于被涂覆到这些窗玻璃上的偏振滤光层而具有偏振滤光特性。偏振滤光镜使只沿确定偏振的光波穿过。因而,从外部空间中只还有偏振光进入到内部空间中。如果然后该光被引导经过另一互补的滤光镜,则该光不能继续穿透。因此,增强现实眼镜的检测装置被设立为:只探测具有如下偏振的光,该偏振与光的从外部空间进入到内部空间中的偏振互补。为此,光学检测装置优选地具有偏振滤光镜。这些滤光镜可以以薄膜的形式被涂覆到车窗玻璃和光学检测装置上。在这两个滤光镜之间,光可以在没有大的限制的情况下被感知到。这能够实现:驾驶员可以注意到外部世界而同时增强现实眼镜的虚拟定位系统只能注意到内部空间,也就是说对于光学检测装置来说不再可能超出车辆的边界来检测外部空间的部分。因此,只还使用车辆的所检测到的内部空间来进行对增强现实眼镜的姿态确定。
图2示意性地示出了按照本发明的增强现实眼镜1。增强现实眼镜1具有光学检测装置2,该光学检测装置例如具有摄像机3,用于检测增强现实眼镜1的周围环境的周围环境数据。在此,光学检测装置2被设立为:只检测有限定偏振的光,例如只检测水平偏振光、垂直偏振光或者圆偏振光。为了该目的,光学检测装置2具有偏振滤光镜4。借助于接口5存在与外部姿态确定装置6的连接,该外部姿态确定装置4用于依据周围环境数据来确定增强现实眼镜1的姿态。为此,姿态确定装置6例如可以探测并且分析图像数据中的边或者引人注意的点。当然,该姿态确定装置6也可以是增强现实眼镜1的组成部分。借助于图形单元8,增强现实眼镜1的显示可以根据所确定的姿态来适配。为此,姿态确定装置6和图形单元8可以彼此交换数据。如在本例中示出的那样,图形单元8可以是增强现实眼镜1的组成部分或者通过接口来与增强现实眼镜1连接。优选地,增强现实眼镜1具有光源7,用于对周围环境进行照明,以便这样即使在照明条件差的情况下也可以执行姿态确定。由图形单元8生成的显示通过投影单元9来渐显。
图3示意性地示出了用于确定增强现实眼镜的姿态的方法。在第一步骤中,检测10增强现实眼镜的周围环境的周围环境数据,其中光学检测装置只检测确定偏振的光。光学检测装置例如可以是摄像机,该摄像机记录周围环境的图像数据。接着,依据周围环境数据来确定11增强现实眼镜的姿态。为此,例如可以探测和分析在图像数据中的边或者引人注意的点。最后,增强现实眼镜的显示根据所确定的姿态适配12,使得例如可见的对象与所呈现的对象在光学上准确地重叠。
图4示出了姿态确定装置6的第一实施方式的简化示意图。姿态确定装置6具有输入端21,通过该输入端可以接收增强现实眼镜的摄像机3的图像数据。设备20还具有图像处理单元22,用于探测在图像数据中的边或者引人注意的点。分析单元23根据这些边或者引人注意的点来确定增强现实眼镜的姿态。通过姿态确定装置6的输出端26,向图形单元8输出关于所确定的姿态的信息。接着,图形单元8可以根据所确定的姿态来使增强现实眼镜的显示适配。在此,增强现实眼镜的显示被适配为使得可见的对象与所呈现的对象在光学上准确地重叠。图形单元8可以是增强现实眼镜的组成部分或者通过接口来与增强现实眼镜连接。
图像处理单元22和分析单元23可以由监控单元24来控制。必要时,通过用户界面27可以改变图像处理单元22、分析单元23或者监控单元24的设置。在设备20中累积的数据可以在需要时被存放在设备20的存储器25中,例如为了稍后的分析或为了由设备20的组件来使用而被存放在设备20的存储器26中。图像处理单元22、分析单元23以及监控单元24可以被实现为专用硬件,例如被实现为集成电路。但是,它们当然也可以部分地或者完全地组合或者被实现为在适当的处理器上、例如在GPU(GPU:Graphics Processing Unit;图形处理单元)上运行的软件。输入端21和输出端26可以实现为分开的接口或者可以实现为组合式双向接口。姿态确定装置6可以是增强现实眼镜的组成部分或者通过接口来与增强现实眼镜连接。
图5示出了姿态确定装置6的第二实施方式的简化示意图。姿态确定装置6具有处理器32和存储器31。例如,该设备30是计算机或者控制设备。姿态确定装置6具有输入端33,用于接收信息、例如增强现实眼镜的摄像机的图像数据。在存储器31中存放有指令,这些指令在由处理器32实施时促使姿态确定装置6探测在图像数据中的边或者引人注意的点并且根据这些边或者引人注意的点来确定增强现实眼镜的姿态。因此,存放在存储器31中的指令表现为能通过处理器32实施的程序,所述程序实现了按照本发明的方法。由处理器32生成的数据通过输出端34来提供。这些数据还可以被存放在存储器31中。输入端33和输出端34可以组合成双向接口。
处理器32可包括一个或多个处理器单元,例如微处理器、数字信号处理器或者它们的组合。
所描述的实施方式的存储器25、31不仅可具有易失性存储区而且可具有非易失性存储区,而且可包括各种各样的存储设备和存储介质,例如硬盘、光学存储介质或者半导体存储器。
图6示意性地示出了机动车40,在该机动车中实现按照本发明的解决方案。在该示例中,姿态确定装置6布置在机动车40中实现并且不是增强现实眼镜1的组成部分。经由接口(未示出),按照本发明的增强现实眼镜1可以与姿态确定装置6无线连接或者有线连接。前窗玻璃41和侧窗玻璃42以及其它窗玻璃都配备有偏振滤光层43,使得与增强现实眼镜1的偏振选择性光学检测装置相结合,仅仅检测车辆内部空间来进行姿态确定。为了简便起见,在该附图中只示出了在前窗玻璃41上的偏振滤光层43。机动车40还具有摄像机44、导航系统45、数据传输单元46以及一系列辅助系统47,这些辅助系统中的一个辅助系统示范性地示出。借助于数据传输单元46可以建立与服务提供商的连接。为了存储数据,存在存储器48。通过网络49来实现机动车40的不同组件之间的数据交换。图形单元8根据不同车辆系统的数据来计算增强现实眼镜1的显示。在图6中,在机动车40中实现该图形单元,但是该图形单元也可以是增强现实眼镜1的组成部分。
图7示出了增强现实眼镜的增强现实呈现的示例。实际的周围环境与一系列要素叠加,部分以接触模拟的呈现来叠加。在图7中的示例中,这是当前的速度和标记50,该标记标出了前面行驶的车辆51,用于使ACC系统状态(ACC:Adaptive Cruise Control;自适应巡航控制)可视化。同时可以显示导航信息、警告或者其它要素。对于该呈现的具体设计来说,向本领域技术人员提供各种各样的设计途径。
附图标记列表
1 增强现实眼镜
2 光学检测装置
3 摄像机
4 偏振滤光镜
5 接口
6 姿态确定装置
7 光源
8 图形单元
9 投影单元
10 检测增强现实眼镜的周围环境数据
11 确定增强现实眼镜的姿态
12 使增强现实眼镜的显示适配
21 输入端
22 图像处理单元
23 分析单元
24 监控单元
25 存储器
26 输出端
27 用户界面
31 存储器
32 处理器
33 输入端
34 输出端
40 机动车
41 前窗玻璃
42 侧窗玻璃
43 偏振滤光层
44 摄像机
45 导航系统
46 数据传输单元
47 辅助系统
48 存储器
49 网络
50 标记
51 前面行驶的车辆。
参考文献
Claims (10)
1.一种系统,所述系统包括:
- 机动车(20),所述机动车具有多个窗玻璃(21、22),其中所述窗玻璃(21、22)被设立为挡住确定偏振的光;以及
- 增强现实眼镜(1);所述增强现实眼镜具有:
- 光学检测装置(2),用于检测(10)所述增强现实眼镜(1)的周围环境的周围环境数据;和
- 与姿态确定装置(6)的接口(5),所述姿态确定装置用于依据所述周围环境数据来确定(11)所述增强现实眼镜(1)的姿态,
其中所述光学检测装置(2)被设立为:只检测有如下偏振的光,所述偏振与光的从外部空间进入到所述机动车(20)的内部空间中的偏振互补。
2.根据权利要求1所述的系统,其中所述光学检测装置(2)具有偏振滤光镜(4)。
3.根据权利要求1或2所述的系统,其中所述光学检测装置(2)被设立为:只检测水平偏振光、垂直偏振光或者圆偏振光。
4.根据上述权利要求之一所述的系统,其中所述光学检测装置(2)具有至少一个摄像机(3),用于检测所述增强现实眼镜(1)的周围环境的图像数据。
5.根据权利要求1所述的系统,其中所述姿态确定装置(6)被设立为:为了确定(11)所述增强现实眼镜(1)的姿态,探测和分析在图像数据中的边或者引人注意的点。
6.根据上述权利要求之一所述的系统,其中所述增强现实眼镜(1)具有光源(7),用于对所述周围环境进行照明。
7.根据上述权利要求之一所述的系统,其中所述窗玻璃(21、22)具有偏振滤光层(23)。
8.一种用于确定增强现实眼镜(1)在机动车(20)的内部空间中的姿态的方法,所述机动车具有多个窗玻璃(21、22),其中所述窗玻璃(21、22)被设立为挡住确定偏振的光,所述方法具有如下步骤:
- 利用光学检测装置(2)来检测(10)所述增强现实眼镜(1)的周围环境的周围环境数据;而且
- 依据所述周围环境数据来确定(11)所述增强现实眼镜(1)的姿态,
其中在检测所述周围环境数据时,由所述光学检测装置(2)只检测如下偏振的光,所述偏振与光的从外部空间进入到所述机动车(20)的内部空间中的偏振互补。
9.根据权利要求8所述的方法,其中所述光学检测装置(2)借助于至少一个摄像机(3)来检测(10)所述增强现实眼镜(1)的周围环境的图像数据。
10.根据权利要求9所述的方法,其中为了确定(11)所述增强现实眼镜(1)的姿态,探测和分析在所述图像数据中的边或者引人注意的点。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017215163.3 | 2017-08-30 | ||
DE102017215163.3A DE102017215163B4 (de) | 2017-08-30 | 2017-08-30 | System aus einem Kraftfahrzeug und einer Augmented-Reality-Brille und Verfahren zum Bestimmen einer Pose einer Augmented-Reality-Brille im Innenraum eines Fahrzeugs |
PCT/EP2018/072156 WO2019042778A1 (de) | 2017-08-30 | 2018-08-15 | Augmented-reality-brille, verfahren zum bestimmen einer pose einer augmented-reality-brille, zur nutzung der augmented-reality-brille oder des verfahrens geeignetes kraftfahrzeug |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110998409A true CN110998409A (zh) | 2020-04-10 |
Family
ID=63254712
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880056379.4A Pending CN110998409A (zh) | 2017-08-30 | 2018-08-15 | 增强现实眼镜、确定增强现实眼镜的姿态的方法、适于使用该增强现实眼镜或方法的机动车 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10969579B2 (zh) |
CN (1) | CN110998409A (zh) |
DE (1) | DE102017215163B4 (zh) |
WO (1) | WO2019042778A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112631431A (zh) * | 2021-01-04 | 2021-04-09 | 杭州光粒科技有限公司 | Ar眼镜的位姿确定方法、装置及设备、存储介质 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7384014B2 (ja) * | 2019-12-06 | 2023-11-21 | トヨタ自動車株式会社 | 表示システム |
DE102020105196A1 (de) * | 2020-02-27 | 2021-09-02 | Audi Aktiengesellschaft | Verfahren zum Betreiben einer Datenbrille in einem Kraftfahrzeug sowie System mit einem Kraftfahrzeug und einer Datenbrille |
DE102020112300A1 (de) * | 2020-05-06 | 2021-11-11 | Audi Aktiengesellschaft | 6 Degree of Freedom (6DOF) Tracking von mobilen Head Mounted Displays (HMD) |
CN111881719B (zh) * | 2020-06-09 | 2024-04-16 | 青岛奥美克生物信息科技有限公司 | 非接触式生物识别引导装置、方法以及生物特征识别系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09219810A (ja) * | 1996-02-09 | 1997-08-19 | Toyota Motor Corp | 移動体のキャビン内撮影装置 |
WO2016001079A1 (de) * | 2014-07-04 | 2016-01-07 | Bayerische Motoren Werke Aktiengesellschaft | Lokalisierung eines hmd im fahrzeug |
WO2016037819A1 (de) * | 2014-09-09 | 2016-03-17 | Bayerische Motoren Werke Aktiengesellschaft | Bestimmung der pose eines hmd |
DE102014225222A1 (de) * | 2014-12-09 | 2016-06-09 | Bayerische Motoren Werke Aktiengesellschaft | Bestimmung der Position eines HMD relativ zum Kopf des Trägers |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE1938480U (de) * | 1966-01-15 | 1966-05-12 | Peter Dr Ing Artelt | Vorrichtung zum blendschutz vor kraftfahrzeugen. |
DE102005058240A1 (de) | 2005-12-06 | 2007-06-14 | Siemens Ag | Trackingsystem und Verfahren zur Posenbestimmung |
DE102006006001B3 (de) | 2006-02-08 | 2007-10-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren und Anordnung zum Einblenden ortsbezogener Informationen in eine visuelle Darstellung oder Ansicht einer Szene |
DE102006013700B3 (de) * | 2006-03-24 | 2007-10-11 | Robert Bosch Gmbh | Einrichtung an einem Fahrzeug zur Verhinderung der Blendung |
US9323055B2 (en) * | 2006-05-26 | 2016-04-26 | Exelis, Inc. | System and method to display maintenance and operational instructions of an apparatus using augmented reality |
DE102014217963A1 (de) | 2014-09-09 | 2016-03-10 | Bayerische Motoren Werke Aktiengesellschaft | Posenbestimmung einer Datenbrille mithilfe von passiven IR-Markern |
US10394029B2 (en) * | 2016-04-04 | 2019-08-27 | Akonia Holographics, Llc | Field of view enhancement |
US10625580B1 (en) * | 2016-08-26 | 2020-04-21 | Apple Inc. | Systems with adjustable windows |
US20190018255A1 (en) * | 2017-07-11 | 2019-01-17 | Google Llc | Compact near-eye optical system including a refractive beam-splitting convex lens |
US10678056B2 (en) * | 2018-02-26 | 2020-06-09 | Google Llc | Augmented reality light field head-mounted displays |
-
2017
- 2017-08-30 DE DE102017215163.3A patent/DE102017215163B4/de active Active
-
2018
- 2018-08-15 WO PCT/EP2018/072156 patent/WO2019042778A1/de active Application Filing
- 2018-08-15 CN CN201880056379.4A patent/CN110998409A/zh active Pending
- 2018-08-15 US US16/641,710 patent/US10969579B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09219810A (ja) * | 1996-02-09 | 1997-08-19 | Toyota Motor Corp | 移動体のキャビン内撮影装置 |
WO2016001079A1 (de) * | 2014-07-04 | 2016-01-07 | Bayerische Motoren Werke Aktiengesellschaft | Lokalisierung eines hmd im fahrzeug |
WO2016037819A1 (de) * | 2014-09-09 | 2016-03-17 | Bayerische Motoren Werke Aktiengesellschaft | Bestimmung der pose eines hmd |
DE102014225222A1 (de) * | 2014-12-09 | 2016-06-09 | Bayerische Motoren Werke Aktiengesellschaft | Bestimmung der Position eines HMD relativ zum Kopf des Trägers |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112631431A (zh) * | 2021-01-04 | 2021-04-09 | 杭州光粒科技有限公司 | Ar眼镜的位姿确定方法、装置及设备、存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2019042778A1 (de) | 2019-03-07 |
DE102017215163B4 (de) | 2019-04-11 |
US10969579B2 (en) | 2021-04-06 |
US20200218065A1 (en) | 2020-07-09 |
DE102017215163A1 (de) | 2019-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110998409A (zh) | 增强现实眼镜、确定增强现实眼镜的姿态的方法、适于使用该增强现实眼镜或方法的机动车 | |
US9928653B2 (en) | Head mounted display presentation adjustment | |
EP2261604B1 (en) | Computer arrangement for and method of calculating motion vectors using range sensor data | |
EP3134764B1 (en) | Head mounted display and method for controlling the same | |
US11181737B2 (en) | Head-up display device for displaying display items having movement attribute or fixed attribute, display control method, and control program | |
US9001153B2 (en) | System and apparatus for augmented reality display and controls | |
US9235933B2 (en) | Wearable display system that displays previous runners as virtual objects on a current runner's path | |
WO2016067574A1 (ja) | 表示制御装置及び表示制御プログラム | |
CN108463840B (zh) | 信息处理设备、信息处理方法以及记录介质 | |
US10262433B2 (en) | Determining the pose of a head mounted display | |
JP6820561B2 (ja) | 画像処理装置、表示装置、ナビゲーションシステム、画像処理方法及びプログラム | |
CN110031975B (zh) | 在车辆中校准增强现实眼镜的方法和系统与增强现实眼镜 | |
KR20180022374A (ko) | 운전석과 보조석의 차선표시 hud와 그 방법 | |
CN110895676B (zh) | 动态对象跟踪 | |
JP2006260011A (ja) | 車両用表示装置 | |
US10209857B2 (en) | Display control apparatus and display system | |
KR20180053396A (ko) | 차량용 표시 장치 | |
JPWO2017163514A1 (ja) | 眼鏡型ウェアラブル端末、その制御方法および制御プログラム | |
CN109788243B (zh) | 识别和可视化地呈现显示增强图像内容时的系统不可靠性 | |
JP2012155516A (ja) | 車両挙動記録システム | |
WO2018150888A1 (ja) | 情報記録装置、情報記録方法及び情報記録用プログラム | |
JP6288204B1 (ja) | 車両用制限速度検出装置 | |
JP2004064409A (ja) | 情報記録装置、情報記録方法及び情報記録用プログラム | |
WO2020230418A1 (ja) | 表示装置 | |
JP7236674B2 (ja) | 表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |