CN116841042A - 在视觉不可感知对象上叠加符号的增强现实平视显示器 - Google Patents
在视觉不可感知对象上叠加符号的增强现实平视显示器 Download PDFInfo
- Publication number
- CN116841042A CN116841042A CN202211288780.5A CN202211288780A CN116841042A CN 116841042 A CN116841042 A CN 116841042A CN 202211288780 A CN202211288780 A CN 202211288780A CN 116841042 A CN116841042 A CN 116841042A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- visually imperceptible
- augmented reality
- display system
- notification symbol
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 59
- 230000000007 visual effect Effects 0.000 claims abstract description 57
- 238000001514 detection method Methods 0.000 claims abstract description 55
- 230000004044 response Effects 0.000 claims abstract description 12
- 238000004891 communication Methods 0.000 claims abstract description 9
- 230000008447 perception Effects 0.000 claims description 28
- 238000013459 approach Methods 0.000 claims description 20
- 230000007423 decrease Effects 0.000 claims description 7
- 238000000034 method Methods 0.000 description 21
- 241001465754 Metazoa Species 0.000 description 5
- 210000003128 head Anatomy 0.000 description 4
- 238000004020 luminiscence type Methods 0.000 description 4
- 206010039203 Road traffic accident Diseases 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Arrangement of adaptations of instruments
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- B60K35/23—
-
- B60K35/28—
-
- B60K35/285—
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/04—Display arrangements
- G01S7/06—Cathode-ray tube displays or other two dimensional or three-dimensional displays
- G01S7/10—Providing two-dimensional and co-ordinated display of distance and direction
- G01S7/12—Plan-position indicators, i.e. P.P.I.
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/04—Display arrangements
- G01S7/06—Cathode-ray tube displays or other two dimensional or three-dimensional displays
- G01S7/20—Stereoscopic displays; Three-dimensional displays; Pseudo-three-dimensional displays
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/04—Display arrangements
- G01S7/06—Cathode-ray tube displays or other two dimensional or three-dimensional displays
- G01S7/22—Producing cursor lines and indicia by electronic means
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- B60K2360/166—
-
- B60K2360/167—
-
- B60K2360/168—
-
- B60K2360/177—
-
- B60K2360/178—
-
- B60K2360/21—
-
- B60K35/81—
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93271—Sensor installation details in the front of the vehicles
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0183—Adaptation to parameters characterising the motion of the vehicle
Abstract
一种用于在车辆的挡风玻璃上显示图形的增强现实平视显示器系统,包括与一个或多个非视觉对象检测传感器、一个或多个图像捕获设备和图形投影设备电子通信的控制器。所述控制器执行指令以从所述一个或多个非视觉对象检测传感器接收指示对象的存在的多个检测点。控制器执行指令以将所述多个检测点与车辆周围环境的图像数据进行比较,以识别位于所述环境中的视觉上不可感知的对象。响应于识别出视觉上不可感知的对象,控制器确定表示视觉上不可感知的对象的通知符号。所述通知符号叠加在挡风玻璃上视觉上不可感知的对象通常可见的位置处。
Description
技术领域
本公开涉及用于在车辆的挡风玻璃上生成通知符号的增强现实平视显示器。通知符号叠加在挡风玻璃上视觉上不可感知的对象通常可见的位置。
背景技术
增强现实(AR)涉及利用虚拟元素来增强现实世界,所述虚拟元素显示在三维空间中,并且准许与用户进行实时交互。平视显示器(HUD)将诸如例如车辆速度和导航指令的信息直接示出到在驾驶员前方视场内的车辆挡风玻璃上。因此,平视显示器为驾驶员提供信息,而无需将视线从道路上移开。增强现实的一种可能实施方式是用于车辆的增强现实平视显示器(AR-HUD)。通过在挡风玻璃上叠加图像,AR-HUD增强了驾驶员对车外环境的视图,从而创建了更好的环境感知感。
然而,虽然当前的增强现实平视显示器实现了它们的预期目的,但是在本领域中需要一种改进的方法来向车辆乘员提供信息。
发明内容
根据几个方面,公开了一种用于在车辆的挡风玻璃上显示图形的增强现实平视显示器系统。该增强现实平视显示器系统包括:一个或多个非视觉对象检测传感器,用于检测车辆周围环境中的对象;和一个或多个图像捕获设备,其捕获车辆周围环境的图像数据;以及图形投影设备,用于在车辆的挡风玻璃上生成图像。该系统还包括与所述一个或多个非视觉对象检测传感器、所述一个或多个图像捕获设备和所述图形投影设备电子通信的控制器,其中所述控制器执行指令以从所述一个或多个非视觉对象检测传感器接收指示对象的存在的多个检测点,并且从所述图像捕获设备接收图像数据。控制器将所述多个检测点与车辆周围环境的图像数据进行比较,以识别位于环境中的视觉上不可感知的对象。响应于识别出视觉上不可感知的对象,控制器确定表示视觉上不可感知的对象的通知符号。最后,控制器指示图形投影设备在车辆的挡风玻璃上生成通知符号,其中通知符号叠加在挡风玻璃上视觉上不可感知的对象通常可见的位置。
在另一方面,控制器执行指令以确定车辆朝向视觉上不可感知的对象靠近的速率,并基于车辆朝向视觉上不可感知的对象靠近的速率来调整通知符号的至少一个视觉参数。
在又一方面,视觉参数是通知符号的整体大小,并且其中通知符号的整体大小随着车辆朝向视觉上不可感知的对象行驶而增大,并且通知符号的整体大小随着车辆远离视觉上不可感知的对象行驶而减小。
在一方面,所述视觉参数是通知符号的颜色。
在另一方面,控制器执行指令以接收指示相对于相机视觉的人类视觉的感知数据,基于该感知数据计算驾驶员的视场,并且基于该感知数据识别视觉上不可感知的对象。
在又一方面,感知数据包括以下各项中的一项或多项:环境照明条件、太阳位置、头灯覆盖范围和天气输入。
在一方面,基于驾驶员视觉能力来确定识别视觉上不可感知的对象。
在另一方面,所述一个或多个非视觉对象检测传感器包括以下各项中的一项或多项:雷达、LiDAR和一个或多个红外传感器。
在又一方面,控制器通过确定多个检测点和车辆周围环境的图像数据之间的亮度对比率来识别视觉上不可感知的对象。
在一方面,控制器指示增强现实平视显示器系统的图形投影设备在挡风玻璃的近场图像平面内投影集群内容信息。
在另一方面,在近场图像平面内显示关于通知符号的信息。
在又一方面,控制器指示图形投影设备在挡风玻璃的远场图像平面内投影通知符号。
在一方面,通知符号是以下各项中的一项:警示符号、车辆图标、动物图标和行人图标。
在另一方面,视觉上不可感知的对象是以下各项中的一项:道路标志、道路标记、另外的车辆、行人、骑自行车的人、交通事故以及需要注意的道路状况。
一方面,一种用于在车辆的挡风玻璃上显示图形的方法。该方法包括由控制器从一个或多个非视觉对象检测传感器接收指示对象的存在的多个检测点,以及从一个或多个图像捕获设备接收图像数据。该方法包括将所述多个检测点与车辆周围环境的图像数据进行比较,以识别位于环境中的视觉上不可感知的对象。响应于识别出视觉上不可感知的对象,该方法包括确定表示视觉上不可感知的对象的通知符号。最后,该方法包括由控制器指示图形投影设备在车辆的挡风玻璃上生成通知符号,其中所述通知符号叠加在挡风玻璃上视觉上不可感知的对象通常可见的位置处。
在另一方面,该方法包括确定车辆朝向视觉上不可感知的对象靠近的速率,并且基于车辆朝向视觉上不可感知的对象靠近的速率来调整通知符号的至少一个视觉参数。
在又一方面,该方法包括接收指示相对于相机视觉的人类视觉的感知数据,基于该感知数据计算驾驶员的视场,以及基于该感知数据识别视觉上不可感知的对象。
在一方面,一种增强现实平视显示器系统用于在车辆的挡风玻璃上显示图形。所述增强现实平视显示器系统包括:一个或多个非视觉对象检测传感器,用于检测车辆周围环境中的对象;一个或多个图像捕获设备,其捕获车辆周围环境的图像数据;图形投影设备,用于在车辆的挡风玻璃上生成图像;以及控制器,其与所述一个或多个非视觉对象检测传感器、所述一个或多个图像捕获设备和所述图形投影设备进行电子通信。控制器执行指令以从所述一个或多个非视觉对象检测传感器接收指示对象的存在的多个检测点。控制器将所述多个检测点与车辆周围环境的图像数据进行比较,以识别位于环境中的视觉上不可感知的对象。响应于识别出视觉上不可感知的对象,控制器确定表示视觉上不可感知的对象的通知符号。控制器指示图形投影设备在车辆的挡风玻璃上生成通知符号,其中通知符号叠加在挡风玻璃上视觉上不可感知的对象通常可见的位置处。控制器确定车辆朝向视觉上不可感知的对象靠近的速率,并基于车辆朝向视觉上不可感知的对象靠近的速率来调整通知符号的至少一个视觉参数。
在一方面,视觉参数是通知符号的整体大小,并且通知符号的整体大小随着车辆朝向视觉上不可感知的对象行驶而增大,并且通知符号的整体大小随着车辆远离视觉上不可感知的对象行驶而减小。
在一方面,控制器执行指令以接收指示相对于相机视觉的人类视觉的感知数据,基于该感知数据计算驾驶员的视场,并且基于该感知数据识别视觉上不可感知的对象。
本发明提供了以下技术方案:
1. 一种用于在车辆的挡风玻璃上显示图形的增强现实平视显示器系统,所述增强现实平视显示器系统包括:
一个或多个非视觉对象检测传感器,用于检测车辆周围环境中的对象;
一个或多个图像捕获设备,其捕获车辆周围环境的图像数据;
图形投影设备,用于在车辆的挡风玻璃上生成图像;和
控制器,其与所述一个或多个非视觉对象检测传感器、所述一个或多个图像捕获设备和所述图形投影设备电子通信,其中所述控制器执行指令以:
从所述一个或多个非视觉对象检测传感器接收指示对象的存在的多个检测点,以及从所述一个或多个图像捕获设备接收图像数据;
将所述多个检测点与所述车辆周围环境的图像数据进行比较,以识别位于所述环境中的视觉上不可感知的对象;
响应于识别出视觉上不可感知的对象,确定表示视觉上不可感知的对象的通知符号;和
指示图形投影设备在车辆的挡风玻璃上生成通知符号,其中所述通知符号叠加在挡风玻璃上视觉上不可感知的对象通常可见的位置处。
2. 根据技术方案1所述的增强现实平视显示器系统,其中,所述控制器执行指令以:
确定所述车辆朝向视觉上不可感知的对象靠近的速率;和
基于所述车辆朝向视觉上不可感知的对象靠近的速率,来调整通知符号的至少一个视觉参数。
3. 根据技术方案2所述的增强现实平视显示器系统,其中,所述视觉参数是所述通知符号的整体大小,并且其中所述通知符号的整体大小随着所述车辆朝向所述视觉上不可感知的对象行驶而增大,并且所述通知符号的整体大小随着所述车辆远离所述视觉上不可感知的对象行驶而减小。
4. 根据技术方案1所述的增强现实平视显示器系统,其中,所述视觉参数是通知符号的颜色。
5. 根据技术方案1所述的增强现实平视显示器系统,其中,所述控制器执行指令以:
接收指示相对于相机视觉的人类视觉的感知数据;
基于所述感知数据计算驾驶员的视场;和
基于所述感知数据识别所述视觉上不可感知的对象。
6. 根据技术方案5所述的增强现实平视显示器系统,其中所述感知数据包括以下各项中的一项或多项:环境照明条件、太阳位置、头灯覆盖范围和天气输入。
7. 根据技术方案1所述的增强现实平视显示器系统,其中,识别视觉上不可感知的对象是基于驾驶员视觉能力来确定的。
8. 根据技术方案1所述的增强现实平视显示器系统,其中,所述一个或多个非视觉对象检测传感器包括以下各项中的一项或多项:雷达、LiDAR和一个或多个红外传感器。
9. 根据技术方案1所述的增强现实平视显示器系统,其中,所述控制器通过确定所述多个检测点和所述车辆周围环境的图像数据之间的亮度对比率来识别所述视觉上不可感知的对象。
10. 根据技术方案1所述的增强现实平视显示器系统,其中,所述控制器指示所述增强现实平视显示器系统的所述图形投影设备在挡风玻璃的近场图像平面内投影集群内容信息。
11. 根据技术方案10所述的增强现实平视显示器系统,其中关于所述通知符号的信息显示在所述近场图像平面内。
12. 根据技术方案1所述的增强现实平视显示器系统,其中,所述控制器指示所述图形投影设备在所述挡风玻璃的远场图像平面内投影通知符号。
13. 根据技术方案1所述的增强现实平视显示器系统,其中,所述通知符号是以下各项中的一项:警示符号、车辆图标、动物图标和行人图标。
14. 根据技术方案1所述的增强现实平视显示器系统,其中,所述视觉上不可感知的对象是以下各项中的一项:道路标志、道路标记、另外的车辆、行人、骑自行车的人、交通事故和需要注意的道路状况。
15. 一种用于在车辆的挡风玻璃上显示图形的方法,所述方法包括:
由控制器从一个或多个非视觉对象检测传感器接收指示对象的存在的多个检测点,以及从一个或多个图像捕获设备接收图像数据;
将所述多个检测点与所述车辆周围环境的图像数据进行比较,以识别位于所述环境中的视觉上不可感知的对象;
响应于识别出视觉上不可感知的对象,确定表示视觉上不可感知的对象的通知符号;和
由所述控制器指示图形投影设备在车辆的挡风玻璃上生成通知符号,其中所述通知符号叠加在挡风玻璃上视觉上不可感知的对象通常可见的位置处。
16. 根据技术方案15所述的方法,进一步包括:
确定所述车辆朝向视觉上不可感知的对象靠近的速率;和
基于所述车辆朝向视觉上不可感知的对象靠近的速率来调整所述通知符号的至少一个视觉参数。
17. 根据技术方案15所述的方法,进一步包括:
接收指示相对于相机视觉的人类视觉的感知数据;
基于所述感知数据计算驾驶员的视场;和
基于所述感知数据来识别所述视觉上不可感知的对象。
18. 一种用于在车辆的挡风玻璃上显示图形的增强现实平视显示器系统,所述增强现实平视显示器系统包括:
一个或多个非视觉对象检测传感器,用于检测车辆周围环境中的对象;
一个或多个图像捕获设备,其捕获所述车辆周围环境的图像数据;
图形投影设备,用于在所述车辆的挡风玻璃上生成图像;和
控制器,其与所述一个或多个非视觉对象检测传感器、所述一个或多个图像捕获设备和所述图形投影设备电子通信,其中所述控制器执行指令以:
从所述一个或多个非视觉对象检测传感器接收指示对象的存在的多个检测点;
将所述多个检测点与所述车辆周围环境的图像数据进行比较,以识别位于所述环境中的视觉上不可感知的对象;
响应于识别出视觉上不可感知的对象,确定表示视觉上不可感知的对象的通知符号;
指示图形投影设备在车辆的挡风玻璃上生成通知符号,其中所述通知符号叠加在挡风玻璃上视觉上不可感知的对象通常可见的位置处;
确定所述车辆朝向所述视觉上不可感知的对象靠近的速率;和
基于所述车辆朝向所述视觉上不可感知的对象靠近的速率,来调整所述通知符号的至少一个视觉参数。
19. 根据技术方案18所述的增强现实平视显示器系统,其中,所述视觉参数是所述通知符号的整体大小,并且其中所述通知符号的整体大小随着所述车辆朝向所述视觉上不可感知的对象行驶而增大,并且所述通知符号的整体大小随着所述车辆远离所述视觉上不可感知的对象行驶而减小。
20. 根据技术方案18所述的增强现实平视显示器系统,其中,所述控制器执行指令以:
接收指示相对于相机视觉的人类视觉的感知数据;
基于所述感知数据计算驾驶员的视场;和
基于所述感知数据识别所述视觉上不可感知的对象。
从本文提供的描述中,进一步的适用性领域将变得显而易见。应该理解的是,描述和具体示例仅旨在用于说明的目的,并且并不旨在限制本公开的范围。
附图说明
本文描述的附图仅用于说明目的,并且并不旨在以任何方式限制本公开的范围。
图1是根据示例性实施例的用于在车辆的挡风玻璃上显示图形的所公开的增强现实平视显示器系统的示意图。
图2图示了根据示例性实施例的挡风玻璃的内部视图,其图示了叠加在挡风玻璃上视觉上不可感知的对象所在的位置处的通知符号;
图3A-3C图示了根据示例性实施例的、图2所示的通知符号的整体大小增加;
图4A-4C图示了根据示例性实施例的各种类型的通知符号;和
图5是图示根据示例性实施例的用于通过增强现实平视显示器系统来在车辆的挡风玻璃上显示图形的方法的过程流程图。
具体实施方式
以下描述本质上仅是示例性的,并且并不旨在限制本公开、应用或用途。
参考图1,图示了用于在车辆14的挡风玻璃12上显示图形的示例性增强现实平视显示器系统10。增强现实平视显示器系统10包括与一个或多个图像捕获设备22、一个或多个非视觉对象检测传感器24、图形投影设备26和眼睛定位系统28电子通信的一个或多个控制器20。图像捕获设备22可以是获得周期性或顺序图像的相机。所述一个或多个非视觉对象检测传感器24被配置成检测车辆14周围的环境40中的对象的位置、速度和行驶方向。在如图1所示的示例中,所述一个或多个非视觉对象检测传感器24包括雷达30、LiDAR 32和一个或多个红外传感器34,然而,应当领会,也可以使用采用非视觉技术来检测对象的存在的其他传感器。此外,也可以使用来自其他传感器的信息。图形投影设备26被配置成在车辆14的挡风玻璃12上生成图像,并且包括用于创建用于投影图像的激发光的投影设备。眼睛定位系统28包括一个或多个传感器,用于确定车辆14的驾驶员的头部位置以及驾驶员眼睛的取向或注视位置。应当领会,车辆14可以是任何类型的车辆,诸如但不限于轿车、卡车、运动型多用途车、货车或房车。还应当领会,车辆14不限于汽车,并且可以是任何其他类型的陆地车辆、海上车辆或空中车辆。在一个实施例中,车辆14是自主或半自主车辆。然而,应当领会,也可以使用手动驱动的车辆。
所述一个或多个控制器20还可以与全球定位系统(GPS)41、一个或多个车辆系统42、一个或多个道路数据库44以及一个或多个外部网络46进行电子通信。所述一个或多个车辆系统42包括但不限于驾驶员监控系统(DMS)和自动驾驶系统。车辆14可以无线连接到一个或多个外部网络46。外部网络46的一些示例包括但不限于蜂窝网络、专用短程通信(DSRC)网络和车辆到基础设施(V2X)网络。
图2是挡风玻璃12的示例性内部视图,其中车辆14周围的环境40通过挡风玻璃12可见。应当领会,由图形投影模块26生成的图像被投影为挡风玻璃12上的光,其中所述光被挡风玻璃12反射并且被导向车辆14的驾驶员。因此,当由驾驶员观看时,由图形投影模块26生成的图像看起来在车辆12的前方,并且超出挡风玻璃12。参考图1和图2这两者,增强现实平视显示器系统10识别位于车辆14周围的环境40中的视觉上不可感知的对象。视觉上不可感知的对象是位于车辆14沿其行驶的道路60上的任何类型的事故或对象。视觉上不可感知的对象的一些示例包括但不限于道路标志和标记、另外的车辆、行人、骑自行车的人、交通事故或需要注意的道路状况。需要注意的道路状况的一些示例包括但不限于结冰或湿滑的路面、路面坑洞和阻挡道路60的杂物。应当领会,视觉上不可感知的对象对于车辆14的驾驶员而言是不可见的,因为低可见度状况降低了驾驶员观看到道路60上的对象的能力。低可见度状况的一些示例包括但不限于雪、雨、雾、夜间条件和低光条件。
如下面解释的,响应于识别出视觉上不可感知的对象,增强现实平视显示器系统10确定表示视觉上不可感知的对象的通知符号36。如图2中看到的,通知符号36生成在车辆14的挡风玻璃12上,并且叠加在挡风玻璃12上的视觉上不可感知的对象通常可被驾驶员看到的位置38处。换句话说,如果不存在低可见度状况,那么驾驶员将能够观看到视觉上不可感知的对象。例如,如果雾消散,那么车辆14的驾驶员将能够观看到原本在视觉上不可感知的道路标志。在如图2所示的示例中,通知符号36是警示符号,然而,应当领会,其他类型的符号也可以被使用并且在图4A-图4B中图示。同样如下面所解释的,增强现实平视显示器系统10确定车辆14朝向视觉上不可感知的对象靠近的速率,并基于朝向车辆14靠近的速率来调整通知符号36的至少一个视觉参数。例如,如图3A-3C中看到的,在一个实施例中,通知符号36的视觉参数是整体大小,并且随着车辆14靠近视觉上不可感知的对象,通知符号36的整体大小增加。
参考图1和图2,挡风玻璃12包括第一近场图像平面50和第二远场图像平面52,然而,应当领会,也可以使用多于两个的图像平面。控制器20指示增强现实平视显示器系统10的图形投影设备26将集群内容信息54投影到近场图像平面50内的挡风玻璃12上。集群内容信息54将驾驶状况告知车辆14的驾驶员,所述驾驶状况诸如但不限于车辆速度、速度限制、档位、燃料水平、当前定位和导航指令。在如图2所示的示例中,集群内容信息54包括车辆速度和导航方向。在一个实施例中,增强现实平视显示器系统10将关于通知符号36的信息投影到近场图像平面50内的挡风玻璃12上。关于通知符号36的信息的一些示例包括对视觉上不可感知的对象的描述(即,视觉上不可感知的对象是道路60上的杂物、另外的车辆、路标等)和从车辆14到视觉上不可感知的对象的距离。
控制器20指示图形投影设备26将通知符号36投影到远场图像平面52内的挡风玻璃12上,其中通知符号36叠加在挡风玻璃12上的视觉上不可感知的对象通常可见的位置38处。远场图像平面52包含叠加在透过挡风玻璃12可见的道路60上的图像。在图2所示的实施例中,远场图像平面52仅覆盖挡风玻璃12的整个平面的一部分,然而,应当领会,在另一实施方式中,远场图像平面52可以覆盖挡风玻璃12的未被近场图像平面50占据的整个平面。此外,尽管图2图示了远场图像平面52仅横跨作为道路60的一部分的车道62的一部分,但是在实施例中,远场图像平面52跨越道路60横跨每条车道62。
通知符号36包括任何类型的图形图像,其提供警报以将车辆14的驾驶员的注意力朝向视觉上不可感知的对象的位置38引导。在如图2所示的示例中,通知符号36是警示符号,然而,应当领会,也可以使用其他类型的符号。例如,如图4A所示,通知符号36包括车辆图标,以警告驾驶员注意视觉上不可感知的车辆。在图4B所示的实施例中,通知符号36包括动物图标,以警告驾驶员注意视觉上不可感知的野生动物。在图4C所示的实施例中,通知符号36包括行人图标,以警告驾驶员注意视觉上不可感知的行人。可以用作通知符号36的符号的其他示例包括但不限于交通标志图标、湿滑道路图标、交通灯、停止的车辆、行人、动物、交叉车流和道路边缘。在实施例中,通知符号36也可以是动画的,以吸引驾驶员眼睛的注意力。例如,警报可以是短暂的,以将驾驶员的注意力吸引到视场中的特定区域。
返回参考图1,图像捕获设备22获得车辆14周围的环境40的图像数据。一个或多个非视觉对象检测传感器24获得检测点形式的数据,所述检测点指示车辆14的环境40内对象的存在。控制器20接收指示对象的存在的多个检测点和图像数据。控制器20将所述多个检测点与图像数据进行比较,以识别视觉上不可感知的对象。
在实施例中,控制器20基于驾驶员的视觉能力识别视觉上不可感知的对象。驾驶员的视觉能力是手动输入的,或者替代地可以基于年龄推断。在另一个实施例中,控制器20基于从眼睛定位系统28接收的驾驶员感知数据来识别视觉上不可感知的对象,其中驾驶员感知数据包括驾驶员头部的位置和驾驶员眼睛的取向或凝视位置。应当领会,驾驶员眼睛和头部定位与图像捕获设备22处于不同的位置,并且因此在环境40中可能存在驾驶员可以观看到的没有被图像捕获设备22捕获的区域,并且反之亦然。更进一步地,也可以计算驾驶员眼睛和头部定位之间的不同位置。
在一个实施例中,控制器20通过首先利用环境40的图像数据确定所述多个检测点之间的亮度对比率,然后将亮度对比率与对比度阈值比率进行比较,来识别视觉上不可感知的对象。具体地,从一个或多个图像捕获设备22捕获的图像数据包括指示对象发光和背景发光这二者的数据,其中发光对比率是基于对象和背景发光确定的。响应于确定亮度对比率大于或等于对比度阈值比率,控制器20将被检测的对象识别为视觉上不可感知的对象。
响应于识别出视觉上不可感知的对象,控制器20确定表示视觉上不可感知的对象的通知符号36(图2)。控制器20然后指示图形投影设备26在车辆14的挡风玻璃12上生成通知符号36。如图2中所看到的,通知符号36叠加在视觉上不可感知的对象的位置38处。应当领会,控制器20基于驾驶员眼睛位置、车辆14的地点和关于环境40的数据——诸如但不限于来自倾角仪、车辆速度、道路曲率和转向角的数据——来计算通知符号36的符号类型、大小、形状和颜色。
在实施例中,控制器20基于来自一个或多个图像捕获设备22、一个或多个非视觉对象检测传感器24、一个或多个车辆系统42、一个或多个道路数据库44和一个或多个外部网络46的一个或多个输入来确定车辆14朝向视觉上不可感知的对象靠近的速率。参考图1和图3A-图3B,控制器基于朝向视觉上不可感知的对象靠近的速率来调整通知符号36的至少一个视觉参数。在如图3A-图3C中所示的实施例中,视觉参数是通知符号的整体大小,其中通知符号36的整体大小随着车辆14朝向视觉上不可感知的对象行驶而增大,并且通知符号36的整体大小随着车辆14远离视觉上不可感知的对象行驶而减小。在另一实施例中,视觉参数是通知符号的颜色,其中所述颜色指示车辆14何时过于接近视觉上不可感知的对象。例如,通知符号的颜色可以从黄色开始,并且随着车辆14靠近视觉上不可感知的对象而变成橙色,并且最终变成红色。在又一实施例中,视觉参数是通知符号36的动画。例如,视觉参数可以是大小,其中图形的大小增大或减小以捕获驾驶员的注意力。
返回参考图1,控制器20从一个或多个图像捕获设备22、一个或多个非视觉对象检测传感器24、一个或多个车辆系统42、一个或多个道路数据库44和一个或多个外部网络46接收指示相对于相机视觉的人类视觉的感知数据。在实施例中,所述感知包括但不限于环境照明条件、太阳位置、头灯覆盖范围和天气输入。控制器20基于感知数据计算驾驶员的视场,并且进一步基于感知数据识别视觉上不可感知的对象。
图5是图示用于通过增强现实平视显示器系统10来在车辆14的挡风玻璃12上显示通知符号36的方法200的过程流程图。参考图1、图2和图5,方法200可以从框202开始。在框202中,控制器20从一个或多个非视觉对象检测传感器24接收指示对象的存在的多个检测点,并且从一个或多个图像捕获设备22接收图像数据。方法200然后可以进行到框204。
在框204中,控制器20将所述多个检测点与车辆14周围的环境40的图像数据进行比较,以识别视觉上不可感知的对象。如上面所提到的,在一个实施例中,可以通过确定所述多个检测点和图像数据之间的亮度对比率来识别视觉上不可感知的对象。方法200然后可以进行到框206。
在框206中,响应于识别出视觉上不可感知的对象,控制器20确定表示视觉上不可感知的对象的通知符号36。方法200然后可以进行到框208。
在框208中,控制器20指示图形投影设备26在车辆14的挡风玻璃12上生成通知符号36。如图2中看到的,通知符号36叠加在挡风玻璃12上的视觉上不可感知的对象通常可见的位置38处。方法200然后可以终止。
总体参照各图,所公开的增强现实平视显示器提供了各种技术效果和益处。具体地,所公开的增强现实平视显示器在车辆的挡风玻璃上生成通知符号,以警告驾驶员注意视觉上不可感知的对象。因此,增强现实平视显示器向驾驶员提供了在低可见度状况期间对不明显的道路对象的增强情境认知。此外,随着车辆继续朝向视觉上不可感知的对象行驶,通知符号的大小和颜色可以改变,以帮助驾驶员确定所述视觉上不可感知的对象是静止的、正在朝向车辆行驶还是正在远离车辆行驶。
控制器可以指代电子电路、组合逻辑电路、现场可编程门阵列(FPGA)、执行代码的处理器(共享的、专用的或成组的),或者上述中的一些或全部的组合(诸如在片上系统中),或者是它们的一部分。此外,控制器可以是基于微处理器的,诸如具有至少一个处理器、存储器(RAM和/或ROM)以及相关联的输入和输出总线的计算机。处理器可以在驻留在存储器中的操作系统的控制下操作。操作系统可以管理计算机资源,使得具体实施为一个或多个计算机软件应用的计算机程序代码(诸如驻留在存储器中的应用)可以具有由处理器执行的指令。在替代实施例中,处理器可以直接执行应用,在这种情况下,可以省略操作系统。
本公开的描述本质上仅仅是示例性的,并且不脱离本公开的主旨的变型旨在处于本公开的范围内。这样的变型不应被视为背离了本公开的精神和范围。
Claims (10)
1.一种用于在车辆的挡风玻璃上显示图形的增强现实平视显示器系统,所述增强现实平视显示器系统包括:
一个或多个非视觉对象检测传感器,用于检测车辆周围环境中的对象;
一个或多个图像捕获设备,其捕获车辆周围环境的图像数据;
图形投影设备,用于在车辆的挡风玻璃上生成图像;和
控制器,其与所述一个或多个非视觉对象检测传感器、所述一个或多个图像捕获设备和所述图形投影设备电子通信,其中所述控制器执行指令以:
从所述一个或多个非视觉对象检测传感器接收指示对象的存在的多个检测点,以及从所述一个或多个图像捕获设备接收图像数据;
将所述多个检测点与所述车辆周围环境的图像数据进行比较,以识别位于所述环境中的视觉上不可感知的对象;
响应于识别出视觉上不可感知的对象,确定表示视觉上不可感知的对象的通知符号;和
指示图形投影设备在车辆的挡风玻璃上生成通知符号,其中所述通知符号叠加在挡风玻璃上视觉上不可感知的对象通常可见的位置处。
2.根据权利要求1所述的增强现实平视显示器系统,其中,所述控制器执行指令以:
确定所述车辆朝向视觉上不可感知的对象靠近的速率;和
基于所述车辆朝向视觉上不可感知的对象靠近的速率,来调整通知符号的至少一个视觉参数。
3.根据权利要求2所述的增强现实平视显示器系统,其中,所述视觉参数是所述通知符号的整体大小,并且其中所述通知符号的整体大小随着所述车辆朝向所述视觉上不可感知的对象行驶而增大,并且所述通知符号的整体大小随着所述车辆远离所述视觉上不可感知的对象行驶而减小。
4.根据权利要求1所述的增强现实平视显示器系统,其中,所述视觉参数是通知符号的颜色。
5.根据权利要求1所述的增强现实平视显示器系统,其中,所述控制器执行指令以:
接收指示相对于相机视觉的人类视觉的感知数据;
基于所述感知数据计算驾驶员的视场;和
基于所述感知数据识别所述视觉上不可感知的对象。
6.根据权利要求5所述的增强现实平视显示器系统,其中所述感知数据包括以下各项中的一项或多项:环境照明条件、太阳位置、头灯覆盖范围和天气输入。
7.根据权利要求1所述的增强现实平视显示器系统,其中,识别视觉上不可感知的对象是基于驾驶员视觉能力来确定的。
8.根据权利要求1所述的增强现实平视显示器系统,其中,所述一个或多个非视觉对象检测传感器包括以下各项中的一项或多项:雷达、LiDAR和一个或多个红外传感器。
9.根据权利要求1所述的增强现实平视显示器系统,其中,所述控制器通过确定所述多个检测点和所述车辆周围环境的图像数据之间的亮度对比率来识别所述视觉上不可感知的对象。
10.根据权利要求1所述的增强现实平视显示器系统,其中,所述控制器指示所述增强现实平视显示器系统的所述图形投影设备在挡风玻璃的近场图像平面内投影集群内容信息。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/702093 | 2022-03-23 | ||
US17/702,093 US11766938B1 (en) | 2022-03-23 | 2022-03-23 | Augmented reality head-up display for overlaying a notification symbol over a visually imperceptible object |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116841042A true CN116841042A (zh) | 2023-10-03 |
Family
ID=87930676
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211288780.5A Pending CN116841042A (zh) | 2022-03-23 | 2022-10-20 | 在视觉不可感知对象上叠加符号的增强现实平视显示器 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11766938B1 (zh) |
CN (1) | CN116841042A (zh) |
DE (1) | DE102022127379A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022184350A (ja) * | 2021-06-01 | 2022-12-13 | マツダ株式会社 | ヘッドアップディスプレイ装置 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5995903A (en) * | 1996-11-12 | 1999-11-30 | Smith; Eric L. | Method and system for assisting navigation using rendered terrain imagery |
FR2884637B1 (fr) * | 2005-04-19 | 2007-06-29 | Valeo Vision Sa | Procede de detection de brouillard nocturne et systeme de mise en oeuvre de ce procede |
JP4725391B2 (ja) * | 2006-03-29 | 2011-07-13 | 株式会社デンソー | 車両用視程測定装置、及び運転支援装置 |
JP4784452B2 (ja) * | 2006-09-12 | 2011-10-05 | 株式会社デンソー | 車載霧判定装置 |
FR2919727B1 (fr) * | 2007-08-03 | 2010-07-30 | Valeo Vision | Procede de detection par un vehicule d'un phenomene perturbateur de visibilite |
FR2923016B1 (fr) * | 2007-10-31 | 2009-11-20 | Valeo Vision | Procede de detection d'un phenomene perturbateur de visibilite pour un vehicule. |
US8704653B2 (en) * | 2009-04-02 | 2014-04-22 | GM Global Technology Operations LLC | Enhanced road vision on full windshield head-up display |
JP5141725B2 (ja) * | 2010-07-05 | 2013-02-13 | 株式会社デンソー | 障害物探索システム |
US20140093131A1 (en) * | 2012-10-01 | 2014-04-03 | Xerox Corporation | Visibility improvement in bad weather using enchanced reality |
US20150310313A1 (en) * | 2012-12-18 | 2015-10-29 | Mitsubishi Electric Corporation | Visibility estimation device, visibility estimation method, and safe driving support system |
JP6524417B2 (ja) * | 2014-02-05 | 2019-06-05 | パナソニックIpマネジメント株式会社 | 車両用表示装置および車両用表示装置の表示方法 |
US9428056B2 (en) * | 2014-03-11 | 2016-08-30 | Textron Innovations, Inc. | Adjustable synthetic vision |
EP3805706B1 (en) * | 2014-11-05 | 2022-05-18 | Sierra Nevada Corporation | Systems and methods for generating improved environmental displays for vehicles |
EP3139340B1 (en) * | 2015-09-02 | 2019-08-28 | SMR Patents S.à.r.l. | System and method for visibility enhancement |
US20170192091A1 (en) * | 2016-01-06 | 2017-07-06 | Ford Global Technologies, Llc | System and method for augmented reality reduced visibility navigation |
US20180141563A1 (en) * | 2016-06-30 | 2018-05-24 | Faraday&Future Inc. | Classifying of weather situations using cameras on automobiles |
KR20180051836A (ko) * | 2016-11-09 | 2018-05-17 | 삼성전자주식회사 | 주행 차량을 위한 가상의 주행 차선을 생성하는 방법 및 장치 |
KR102102761B1 (ko) * | 2017-01-17 | 2020-04-21 | 엘지전자 주식회사 | 차량용 사용자 인터페이스 장치 및 차량 |
US20180211121A1 (en) * | 2017-01-25 | 2018-07-26 | Ford Global Technologies, Llc | Detecting Vehicles In Low Light Conditions |
US10168174B2 (en) * | 2017-05-09 | 2019-01-01 | Toyota Jidosha Kabushiki Kaisha | Augmented reality for vehicle lane guidance |
WO2020085540A1 (en) * | 2018-10-25 | 2020-04-30 | Samsung Electronics Co., Ltd. | Augmented reality method and apparatus for driving assistance |
-
2022
- 2022-03-23 US US17/702,093 patent/US11766938B1/en active Active
- 2022-10-19 DE DE102022127379.2A patent/DE102022127379A1/de active Pending
- 2022-10-20 CN CN202211288780.5A patent/CN116841042A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
DE102022127379A1 (de) | 2023-09-28 |
US20230302900A1 (en) | 2023-09-28 |
US11766938B1 (en) | 2023-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10909765B2 (en) | Augmented reality system for vehicle blind spot prevention | |
US20220130296A1 (en) | Display control device and display control program product | |
US20220073095A1 (en) | Method for Operating a Driver Information System in an Ego-Vehicle and Driver Information System | |
US11762616B2 (en) | Method for operating a driver information system in an ego-vehicle and driver information system | |
WO2020125178A1 (zh) | 车辆驾驶提示方法及装置 | |
US20220135062A1 (en) | Method for Operating a Driver Information System in an Ego-Vehicle and Driver Information System | |
US11807260B2 (en) | Method for operating a driver information system in an ego-vehicle and driver information system | |
US20190244515A1 (en) | Augmented reality dsrc data visualization | |
JP2008001182A (ja) | 車両用視覚情報呈示装置及び車両用視覚情報呈示方法 | |
US20220135061A1 (en) | Method for Operating a Driver Information System in an Ego-Vehicle and Driver Information System | |
CN112298207A (zh) | 当存在失去行驶能力的自主车辆时维持道路安全 | |
US20220161657A1 (en) | Method for Operating a Driver Information System in an Ego-Vehicle and Driver Information System | |
CN111837067A (zh) | 用于借助显示单元显示交通工具或者对象前方的轨迹走向的方法、用于执行该方法的装置 | |
US20220144296A1 (en) | Method for Operating a Driver Information System in an Ego-Vehicle and Driver Information System | |
US7286930B2 (en) | Ghost following | |
US11697346B1 (en) | Lane position in augmented reality head-up display system | |
US10946744B2 (en) | Vehicular projection control device and head-up display device | |
CN113165510B (zh) | 显示控制装置、方法和计算机程序 | |
US20220144297A1 (en) | Method for Operating a Driver Information System in an Ego-Vehicle and Driver Information System | |
US11766938B1 (en) | Augmented reality head-up display for overlaying a notification symbol over a visually imperceptible object | |
CN112119398A (zh) | 用于运行机动车的摄像机-监视器系统的方法和设备 | |
CN113448096B (zh) | 车辆用显示装置 | |
CN116935695A (zh) | 用于具有增强现实抬头显示器的机动车辆的碰撞警告系统 | |
JP7283448B2 (ja) | 表示制御装置および表示制御プログラム | |
CN114523905A (zh) | 一种显示车辆周围目标检测及轨迹预测的系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |