CN116811578A - 用于在增强现实显示器上提供盲揭示警告的系统和方法 - Google Patents

用于在增强现实显示器上提供盲揭示警告的系统和方法 Download PDF

Info

Publication number
CN116811578A
CN116811578A CN202211287629.XA CN202211287629A CN116811578A CN 116811578 A CN116811578 A CN 116811578A CN 202211287629 A CN202211287629 A CN 202211287629A CN 116811578 A CN116811578 A CN 116811578A
Authority
CN
China
Prior art keywords
vehicle
remote vehicle
remote
disclosure
blind
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211287629.XA
Other languages
English (en)
Inventor
J·F·斯泽巴
J·P·魏斯
K-H·常
T·A·塞德
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of CN116811578A publication Critical patent/CN116811578A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1407General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/178Warnings
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

一种用于在多焦平面增强现实显示器上提供盲揭示警告的方法包括接收远程车辆数据,该远程车辆数据包括关于多个远程车辆的信息。远程车辆包括位于主车辆正前方的第一远程车辆和位于第一远程车辆前方的第二远程车辆。该方法进一步包括确定第一远程车辆到第二远程车辆的接近速率。该方法进一步包括确定第一远程车辆将执行盲揭示的概率,并将该概率与预定阈值进行比较。该方法进一步包括,响应于确定第一远程车辆将执行盲揭示的概率大于预定阈值,向主车辆的显示器传输命令信号以显示虚拟图像。

Description

用于在增强现实显示器上提供盲揭示警告的系统和方法
引言。
技术领域
本公开涉及一种用于在多焦平面增强现实显示器上提供盲揭示警告的系统和方法。
该引言总体上呈现了本公开的背景。在本介绍中描述的程度上,目前命名的发明人的工作以及在提交时可能以其他方式不符合现有技术的描述的方面,既不明确也不隐含地被认为是针对本公开的现有技术。
背景技术
一些车辆包括向车辆用户提供信息的显示器。然而,这些显示器不一定呈现盲揭示警告。在本公开中,术语“盲揭示”意指如下发生事件:主车辆、第一远程车辆和第二远程车辆在同一车道上,其中第一远程车辆接近第二远程车辆,而第二远程车辆的速度小于第一远程车辆的速度,并且然后第一远程车辆切换车道,从而向主车辆的车辆用户揭示第二远程车辆。提供盲揭示警告可以帮助车辆用户预测盲揭示情形,从而为车辆用户提供足够的时间来做出适当的驾驶决策,以防止主车辆在第一远程车辆切换车道之前与第二远程车辆发生接触。因此,合期望的是开发一种用于基于实时车辆定位在多焦平面增强现实显示器上提供盲揭示警告的系统和方法。
发明内容
本公开描述了一种在多焦平面增强现实显示器上向驾驶员呈现隐藏的停止或减慢车辆警告的系统和方法。使用V2V通信,如果系统检测到主车辆的车辆正在以超过给定速度阈值的速度侵犯另一个对象,则多焦平面增强现实显示器在盲揭示情形发生之前向驾驶员呈现前方交通缓慢或停止的警告。
在本公开的方面,在多焦平面增强现实显示器上提供盲揭示警告的方法包括接收远程车辆数据。远程车辆数据包括关于多个远程车辆的信息。多个远程车辆中的每一个位于距主车辆的预定距离内。多个远程车辆包括位于主车辆正前方的第一远程车辆。多个远程车辆包括位于第一远程车辆正前方的第二远程车辆。该方法进一步包括确定第一远程车辆到第二远程车辆的接近速率。接近速率是相对于第二远程车辆的速度,第一远程车辆接近第二远程车辆的速度。该方法进一步包括基于接近速率确定第一远程车辆将执行盲揭示的概率。盲揭示是如下发生事件:第一远程车辆和第二远程车辆在同一车道上,第一远程车辆接近第二远程车辆,而第二远程车辆的速度小于第一远程车辆的速度,并且然后第一远程车辆切换车道,从而向主车辆的车辆用户揭示第二远程车辆。该方法进一步包括将第一远程车辆将执行盲揭示的概率与预定阈值进行比较,以确定第一远程车辆将执行盲揭示的概率是否大于预定阈值。该方法进一步包括,响应于确定第一远程车辆将执行盲揭示的概率大于预定阈值,向主车辆的多焦平面增强现实显示器传输命令信号,以在多焦平面增强现实显示器上显示虚拟图像。虚拟图像包括可视警报,该可视警报向主车辆的车辆用户警告盲揭示是可能的。本段中描述的方法通过向车辆用户提供盲揭示警告来改进车辆技术。
在本公开的方面,远程车辆数据包括关于多个远程车辆中每一个的速度、位置、加速度、轨迹和行为的信息。
在本公开的方面,该方法进一步包括确定第一远程车辆将执行盲揭示的概率不大于预定阈值。该方法进一步包括,响应于确定第一远程车辆将执行盲揭示的概率不大于预定阈值,命令信号不被传输到主车辆的多焦平面增强现实显示器。
在本公开的方面,该方法进一步包括确定主车辆相对于第一远程车辆的位置。
在本公开的方面,该方法进一步包括基于第一远程车辆将执行盲揭示的概率,确定虚拟图像的大小和类型。
在本公开的方面,向多焦平面增强现实显示器传输命令信号包括命令主车辆的多焦平面增强现实显示器在多焦平面增强现实显示器上显示虚拟图像,该虚拟图像具有基于第一远程车辆将执行盲揭示的概率先前确定的大小和类型。
在本公开的方面,该方法进一步包括确定主车辆的车辆用户的眼睛位置,并基于车辆用户的眼睛位置确定虚拟图像的位置。将命令信号传输到多焦平面增强现实显示器包括命令主车辆的多焦平面增强现实显示器在基于车辆用户眼睛的位置确定的位置处显示虚拟图像。
在本公开的方面,该方法进一步包括在基于车辆用户眼睛位置先前确定的位置处生成虚拟图像,并且该虚拟图像具有基于第一远程车辆将执行盲揭示的概率先前确定的大小和类型。虚拟图像显示在主车辆的挡风玻璃上。
在本公开的方面,该方法进一步包括在基于车辆用户眼睛位置先前确定的位置处生成虚拟图像,并且该虚拟图像具有基于第一远程车辆将执行盲揭示的概率先前确定的大小和类型。虚拟图像显示在主车辆的仪表板显示器上。
在本公开的方面,该方法进一步包括确定驾驶场景是否完成。驾驶场景是发生盲揭示的情形。一旦第一辆远程车辆切换车道,驾驶场景就完成。
在本公开的方面,该方法进一步包括,响应于确定驾驶场景完成,向多焦平面增强现实显示器传输关闭信号,以中断在多焦平面增强现实显示器上示出虚拟图像。
本公开还描述了一种用于在多焦平面增强现实显示器上提供盲揭示警告的系统。在本公开的方面,该系统包括主车辆中的多个传感器、被配置成接收V2V通信的收发器、与多个传感器和收发器通信的控制器。控制器被配置成从收发器或多个传感器中的至少一个接收远程车辆数据。远程车辆数据包括关于多个远程车辆的信息。多个远程车辆中的每一个位于距主车辆的预定距离内。多个远程车辆包括位于主车辆正前方的第一远程车辆。多个远程车辆包括位于第一远程车辆正前方的第二远程车辆。控制器被配置成确定第一远程车辆相对于第二远程车辆的接近速率。控制器被配置成基于接近速率确定第一远程车辆将执行盲揭示的概率。盲揭示是如下发生事件:第一远程车辆和第二远程车辆在同一车道上,第一远程车辆接近第二远程车辆,而第二远程车辆的速度小于第一远程车辆的速度,并且然后第一远程车辆切换车道,从而向主车辆的车辆用户揭示第二远程车辆。控制器被配置成将第一远程车辆将执行盲揭示的概率与预定阈值进行比较,以确定第一远程车辆将执行盲揭示的概率是否大于预定阈值。控制器被配置成响应于确定第一远程车辆将执行盲揭示的概率大于预定阈值,向主车辆的多焦平面增强现实显示器传输命令信号,以在多焦平面增强现实显示器上显示虚拟图像。虚拟图像包括可视警报,该可视警报向主车辆的车辆用户警告盲揭示是可能的。
在本公开的方面,远程车辆数据包括关于多个远程车辆中每一个的速度、位置、加速度、轨迹和行为的信息。
在本公开的方面,控制器进一步被配置成确定第一远程车辆将执行盲揭示的概率不大于预定阈值。响应于确定第一远程车辆将执行盲揭示的概率不大于预定阈值,控制器不向主车辆的多焦平面增强现实显示器传输命令信号。
在本公开的方面,控制器被配置成确定主车辆相对于第一远程车辆的位置。
在本公开的方面,控制器被配置成基于第一远程车辆将执行盲揭示的概率来确定所述虚拟图像的大小和类型。控制器被配置成命令主车辆的多焦平面增强现实显示器在多焦平面增强现实显示器上显示虚拟图像,该虚拟图像具有基于第一远程车辆将执行盲揭示的概率先前确定的大小和类型。
在本公开的方面,控制器被配置成确定主车辆的车辆用户的眼睛位置,并基于车辆用户的眼睛位置确定虚拟图像的位置。控制器被配置成命令主车辆的多焦平面增强现实显示器在基于车辆用户眼睛的位置确定的位置处显示虚拟图像。
在本公开的方面,控制器被配置成在基于车辆用户眼睛位置先前确定的位置处生成虚拟图像,并且该虚拟图像具有基于第一远程车辆将执行盲揭示的概率先前确定的大小和类型。虚拟图像显示在主车辆的挡风玻璃上。
在本公开的方面,控制器被配置成在基于车辆用户眼睛位置先前确定的位置处生成虚拟图像,并且该虚拟图像具有基于第一远程车辆将执行盲揭示的概率先前确定的大小和类型。虚拟图像显示在主车辆的仪表板显示器上。
在本公开的方面,控制器被配置成确定驾驶场景是否完成。驾驶场景是发生盲揭示的情形,并且一旦第一远程车辆切换车道,驾驶场景就完成。
在本公开的方面,控制器被配置成,响应于确定驾驶场景完成,向多焦平面增强现实显示器传输关闭信号,以关闭从而中断在多焦平面增强现实显示器上示出可视警报。
本发明提供了以下技术方案:
1. 一种用于在多焦平面增强现实显示器上提供盲揭示警告的方法,包括:
接收远程车辆数据,其中所述远程车辆数据包括关于多个远程车辆的信息,所述多个远程车辆中的每一个位于距主车辆的预定距离内,所述多个远程车辆包括位于主车辆正前方的第一远程车辆,并且所述多个远程车辆包括位于第一远程车辆前方的第二远程车辆;
确定第一远程车辆到第二远程车辆的接近速率,其中接近速率是相对于第二远程车辆的速度,第一远程车辆接近第二远程车辆的速度;
基于接近速率确定第一远程车辆将执行盲揭示的概率,其中盲揭示是如下发生事件:第一远程车辆和第二远程车辆在同一车道上,第一远程车辆接近第二远程车辆,而第二远程车辆的速度小于第一远程车辆的速度,并且然后第一远程车辆切换车道,从而向主车辆的车辆用户揭示第二远程车辆;
将第一远程车辆将执行盲揭示的概率与预定阈值进行比较,以确定第一远程车辆将执行盲揭示的概率是否大于预定阈值;和
响应于确定第一远程车辆将执行盲揭示的概率大于预定阈值,向主车辆的多焦平面增强现实显示器传输命令信号,以在多焦平面增强现实显示器上显示虚拟图像,其中虚拟图像包括可视警报,所述可视警报向主车辆的车辆用户警告盲揭示是可能的。
根据技术方案1所述的方法,其中,所述远程车辆数据包括关于所述多个远程车辆中的每一个的速度、位置、加速度和轨迹的信息。
根据技术方案2所述的方法,进一步包括:
确定第一远程车辆将执行盲揭示的概率不大于所述预定阈值,并且响应于确定第一远程车辆将执行盲揭示的概率不大于预定阈值,所述命令信号不被传输到主车辆的多焦平面增强现实显示器。
根据技术方案2所述的方法,进一步包括确定主车辆相对于第一远程车辆的位置。
根据技术方案4所述的方法,进一步包括:
基于第一远程车辆将执行盲揭示的概率来确定虚拟图像的大小和类型;
其中向多焦平面增强现实显示器传输命令信号包括命令主车辆的多焦平面增强现实显示器在多焦平面增强现实显示器上显示虚拟图像,所述虚拟图像具有基于第一远程车辆将执行盲揭示的概率先前确定的大小和类型。
根据技术方案5所述的方法,进一步包括:
确定主车辆的车辆用户的眼睛的位置;和
基于车辆用户眼睛的位置确定虚拟图像的位置;
其中向多焦平面增强现实显示器传输命令信号包括命令主车辆的多焦平面增强现实显示器在基于车辆用户眼睛的位置确定的位置处显示虚拟图像。
根据技术方案6所述的方法,进一步包括在基于车辆用户眼睛的位置先前确定的位置处生成虚拟图像,并且所述虚拟图像具有基于第一远程车辆将执行盲揭示的概率先前确定的大小和类型,其中所述虚拟图像显示在主车辆的挡风玻璃上。
根据技术方案6所述的方法,进一步包括在基于车辆用户眼睛的位置先前确定的位置处生成虚拟图像,并且所述虚拟图像具有基于第一远程车辆将执行盲揭示的概率先前确定的大小和类型,其中所述虚拟图像显示在主车辆的仪表板显示器上。
根据技术方案7所述的方法,进一步包括确定驾驶场景是否完成,其中所述驾驶场景是发生盲揭示的情形,并且一旦第一远程车辆切换车道,所述驾驶场景就完成。
根据技术方案9所述的方法,进一步包括,响应于确定驾驶场景完成,向多焦平面增强现实显示器传输关闭信号,以中断在多焦平面增强现实显示器上示出虚拟图像。
一种用于在多焦平面增强现实显示器上提供盲揭示警告的系统,包括:
主车辆中的多个传感器;
收发器,被配置成接收V2V通信;
与所述多个传感器和收发器通信的控制器,其中所述控制器被配置成:
从收发器或多个传感器中的至少一者接收远程车辆数据,其中所述远程车辆数据包括关于多个远程车辆的信息,所述多个远程车辆中的每一个位于距主车辆的预定距离内,所述多个远程车辆包括位于主车辆正前方的第一远程车辆,并且所述多个远程车辆包括位于第一远程车辆前方的第二远程车辆;
确定第一远程车辆相对于第二远程车辆的接近速率;
基于接近速率确定第一远程车辆将执行盲揭示的概率,其中盲揭示是如下发生事件:第一远程车辆和第二远程车辆在同一车道上,第一远程车辆接近第二远程车辆,而第二远程车辆的速度小于第一远程车辆的速度,并且然后第一远程车辆切换车道,从而向主车辆的车辆用户揭示第二远程车辆;
将第一远程车辆将执行盲揭示的概率与预定阈值进行比较,以确定第一远程车辆将执行盲揭示的概率是否大于预定阈值;和
响应于确定第一远程车辆将执行盲揭示的概率大于预定阈值,向主车辆的多焦平面增强现实显示器传输命令信号,以在多焦平面增强现实显示器上显示虚拟图像,其中所述虚拟图像包括可视警报,所述可视警报向主车辆的车辆用户警告盲揭示是可能的。
根据技术方案11所述的系统,其中,远程车辆数据包括关于多个远程车辆中每一个的速度、位置、加速度、轨迹和行为的信息。
根据技术方案12所述的系统,其中,所述控制器进一步被配置成:
确定第一远程车辆将执行盲揭示的概率不大于预定阈值,并且响应于确定第一远程车辆将执行盲揭示的概率不大于预定阈值,所述控制器不向主车辆的多焦平面增强现实显示器传输命令信号。
根据技术方案12所述的系统,其中,所述控制器被配置成确定主车辆相对于第一远程车辆的位置。
根据技术方案14所述的系统,其中,所述控制器被配置成:
基于第一远程车辆将执行盲揭示的概率来确定所述虚拟图像的大小和类型;
其中,所述控制器被配置成命令主车辆的多焦平面增强现实显示器在多焦平面增强现实显示器上显示虚拟图像,所述虚拟图像具有基于第一远程车辆将执行盲揭示的概率先前确定的大小和类型。
根据技术方案15所述的系统,其中,所述控制器被配置成:
确定主车辆的车辆用户的眼睛的位置;和
基于车辆用户的眼睛位置确定虚拟图像的位置;
其中所述控制器被配置成命令主车辆的多焦平面增强现实显示器在基于车辆用户眼睛的位置确定的位置处显示虚拟图像。
根据技术方案16所述的系统,其中,所述控制器被配置成在基于车辆用户眼睛位置先前确定的位置处生成虚拟图像,并且所述虚拟图像具有基于第一远程车辆将执行盲揭示的概率先前确定的大小和类型,其中,虚拟图像显示在主车辆的挡风玻璃上。
根据技术方案16所述的系统,其中,所述控制器被配置成在基于车辆用户眼睛位置先前确定的位置处生成虚拟图像,并且所述虚拟图像具有基于第一远程车辆将执行盲揭示的概率先前确定的大小和类型,其中所述虚拟图像显示在主车辆的仪表板显示器上。
根据技术方案17所述的系统,其中,所述控制器被配置成确定驾驶场景是否完成,其中所述驾驶场景是发生盲揭示的情形,并且一旦第一远程车辆切换车道,所述驾驶场景就完成。
根据技术方案19所述的系统,其中,所述控制器被配置成响应于确定驾驶场景完成,向多焦平面增强现实显示器传输关闭信号,以关闭从而中断在多焦平面增强现实显示器上示出可视警报。
根据下文提供的详细描述,本公开的另外适用领域将变得清楚。应当理解,详细描述和具体示例旨在仅用于说明目的,并且不旨在限制本公开的范围。
当前公开的系统和方法的上述特征和优点以及其他特征和优点从包括权利要求的详细描述以及当结合附图考虑的示例性实施例中容易清楚。
附图说明
根据详细描述和附图,本公开将得到更全面的理解,其中:
图1是描绘车辆实施例的框图,该车辆包括用于在多焦平面增强现实显示器上提供盲揭示警告的系统;
图2是图示盲揭示的示意性图解;
图3是图1的多焦平面增强现实显示器的示意性前视图,其中多焦平面增强现实显示器提供盲揭示警告。
图4是图1的多焦平面增强现实显示器的示意性前视图,突出显示了图1的多焦平面增强现实显示器的第二图像平面;
图5是图1的多焦平面增强现实显示器的第二图像平面的示意性图解;
图6是用于在图1的多焦平面增强现实显示器上提供盲揭示警告的系统的一部分的示意性图解;
图7是用于多焦平面增强现实显示器上的盲揭示警告的方法的流程图;和
图8是用于确定主车辆前方的车辆将执行盲揭示的概率的方法的流程图。
具体实施方式
现在将对附图中图示的几个公开示例进行详细参考。只要有可能,在附图和说明书中使用相同或相似的附图标记来指代相同或相似的部分或步骤。
参考图1,主车辆10通常包括底盘12、车身14、前轮和后轮17,并且可以称为车辆系统。在描绘的实施例中,主车辆10包括两个前轮17a和两个后轮17b。车身14布置在底盘12上,并且基本上包围主车辆10的部件。车身14和底盘12可以共同形成框架。车轮17各自在车身14的相应拐角附近可旋转地耦合到底盘12。主车辆10包括耦合到前轮17a的前轴19和耦合到后轮17b的后轴25。
在各种实施例中,主车辆10可以是自主车辆,并且主车辆10中并入控制系统98。控制系统98可以被称为系统或用于在显示器29上提供盲揭示警告的系统。主车辆10例如是被自动控制以将乘客从一个位置运送到另一个位置的车辆。主车辆10在图示实施例中被描绘为轻型货车,但是应当领会,包括卡车、轿车、双门轿车、运动型多用途车(SUV)、休闲车(RV)等的其他车辆也可以使用。在实施例中,主车辆10可以是所谓的二级、三级、四级或五级自动化系统。四级系统指示“高度自动化”,指代自动化驾驶系统在动态驾驶任务方面的驾驶模式特定性能,即使人类驾驶员没有适当地响应于对干预的请求。五级系统指示“完全自动化”,指代在人类驾驶员可以管理的多个道路和环境条件下,自动化驾驶系统在动态驾驶任务方面的全时性能。在3级车辆中,车辆系统在其被设计成这样做的区域内执行整个动态驾驶任务(DDT)。仅当主车辆10实质上“要求”驾驶员在出现问题或车辆即将离开其能够操作的区时接管时,车辆操作者才被期望负责DDT后退。在2级车辆中,系统提供转向、制动/加速支持、车道居中和自适应巡航控制。然而,即使这些系统被激活,在驾驶的车辆操作者也必须驾驶并持续监督自动化特征。
如所示,主车辆10通常包括推进系统20、变速器系统22、转向系统24、制动系统26、传感器系统28、执行器系统30、至少一个数据存储装置32、至少一个控制器34和通信系统36。在各种实施例中,推进系统20可以包括电机,诸如牵引马达和/或燃料电池推进系统。主车辆10可以进一步包括电连接到推进系统20的电池(或电池组)21。因此,电池21被配置成存储电能并向推进系统20提供电能。在某些实施例中,推进系统20可以包括内燃机。变速器系统22被配置成根据可选择的速度比将动力从推进系统20传输到车轮17。根据各种实施例,变速器系统22可以包括有级自动变速器、无级变速器或其他适当的变速器。制动系统26被配置成向车轮17提供制动扭矩。在各种实施例中,制动系统26可以包括摩擦制动器、线制动、诸如电机的再生制动系统和/或其他适当的制动系统。转向系统24影响车轮17的位置,并且可以包括方向盘33。虽然出于说明的目的被描绘为包括方向盘33,但是在本公开范围内设想的一些实施例中,转向系统24可以不包括方向盘33。
传感器系统28包括一个或多个传感器40(即感测装置),其感测主车辆10的外部环境和/或内部环境的可观察条件。传感器40与控制器34通信,并且可以包括但不限于一个或多个雷达、一个或多个光检测和测距(lidar)传感器、一个或多个近程传感器、一个或多个里程表、一个或多个探地雷达(GPR)传感器、一个或多个转向角传感器、一个或多个全球定位系统(GPS)收发器45、一个或多个轮胎压力传感器、一个或多个摄像机41(例如,光学摄像机和/或红外摄像机)、一个或多个陀螺仪、一个或多个加速度计、一个或多个倾角计、一个或多个速度传感器、一个或多个超声波传感器、一个或多个惯性测量单元(IMU)和/或其他传感器。每个传感器40被配置成生成信号,该信号指示主车辆10的外部环境和/或内部环境的感测到的可观察条件。因为传感器系统28向控制器34提供数据,所以传感器系统28以及其传感器40被认为是信息源(或简称为源)。
传感器系统28包括一个或多个全球导航卫星系统(GNSS)收发器45(例如,全球定位系统(GPS)收发器),其被配置成检测和监视路线数据(即,路线信息)。GNSS收发器45被配置成与GNSS通信以定位主车辆10在地球上的位置。GNSS收发器45与控制器34进行电子通信。
致动器系统30包括一个或多个致动器装置42,该一个或多个致动器装置42控制诸如但不限于推进系统20、变速器系统22、转向系统24和制动系统26的一个或多个车辆特征。在各种实施例中,车辆特征可以进一步包括内部和/或外部车辆特征,诸如但不限于门、后备箱和诸如空气、音乐、照明等的车厢特征。
数据存储装置32存储供在自动控制主车辆10中使用的数据。在各种实施例中,数据存储装置32存储可导航环境的定义地图。在各种实施例中,定义地图可以由远程系统预定义并从远程系统获得。例如,定义地图可以由远程系统组装并传送到主车辆10(无线和/或有线方式)并存储在数据存储装置32中。数据存储装置32可以是控制器34的一部分,与控制器34分离,或者是控制器34的一部分和单独系统的一部分。
主车辆10可以进一步包括一个或多个安全气囊35,该一个或多个安全气囊35与主车辆10的控制器34或另一控制器通信。安全气囊35包括可充气气囊,并被配置成在收起配置和展开配置之间转换,以缓冲施加到主车辆10的外力的影响。传感器40可以包括安全气囊传感器,诸如IMU,其被配置成检测外力并生成指示这样的外力量值的信号。控制器34被配置成基于来自一个或多个传感器40(诸如安全气囊传感器)的信号来命令安全气囊35展开。因此,控制器34被配置成确定安全气囊35何时已经展开。
控制器34包括至少一个处理器44和非暂时性计算机可读存储装置或介质46。处理器44可以是定制的或市场上可买到的处理器、中央处理单元(CPU)、图形处理单元(GPU)、与控制器34相关联的几个处理器中的辅助处理器、基于半导体的微处理器(以微芯片或芯片组的形式)、宏处理器、它们的组合,或者通常是用于执行指令的装置。计算机可读存储装置或介质46可以包括例如只读存储器(ROM)、随机存取存储器(RAM)和保活存储器(KAM)中的易失性和非易失性存储装置。KAM是永久性或非易失性存储器,当处理器44断电时,其可以用于存储各种操作变量。计算机可读存储装置或介质46可以使用多个存储器装置来实施,所述多个存储器装置诸如是PROM(可编程只读存储器)、EPROM(电PROM)、EEPROM(电可擦除PROM)、闪存或者能够存储数据的其他电、磁、光或组合存储器装置,其中一些存储器装置表示控制器34在控制主车辆10中使用的可执行指令。主车辆10的控制器34可以被称为车辆控制器,并且可以被编程以执行如在下面详细描述的方法100(图7)和/或方法200(图8)。
指令可以包括一个或多个单独的程序,每个程序包括用于实施逻辑功能的可执行指令的有序列表。所述指令当由处理器44执行时,接收并处理来自传感器系统28的信号,执行用于自动控制主车辆10的部件的逻辑、计算、方法和/或算法,并向致动器系统30生成控制信号,以基于该逻辑、计算、方法和/或算法自动控制主车辆10的部件。尽管在图1中示出了单个控制器34,但是主车辆10的实施例可以包括多个控制器34,所述多个控制器34通过合适的通信介质或通信介质的组合进行通信,并且协作以处理传感器信号,执行逻辑、计算、方法和/或算法,并且生成控制信号以自动控制主车辆10的特征。
在各种实施例中,控制器34的一个或多个指令体现在控制系统98中。主车辆10包括用户接口23,其可以是仪表板中的触摸屏。用户接口23可以包括但不限于警报,诸如一个或多个扬声器27以提供可听见的声音、车辆座椅或其他对象中的触觉反馈、一个或多个显示器29、一个或多个麦克风31和/或合适于向主车辆10的车辆用户提供通知的其他装置。用户接口23与控制器34电子通信,并被配置成接收用户(例如,车辆操作者或车辆乘客)的输入。例如,用户接口23可以包括触摸屏和/或按钮,其被配置成接收来自车辆用户的输入。因此,控制器34被配置成经由用户接口23接收来自用户的输入。
显示器29被配置成向用户(例如,车辆操作者或乘客)显示信息,并且可以是增强现实(AR)显示器。在本公开中,术语“AR显示器”意指向用户呈现信息、同时仍然允许看到外部世界的显示器。在某些实施例中,显示器29可以被配置为平视显示器(HUD)和/或信息集群显示器。因此,显示器29可以是AR HUD或AR信息集群显示器。在AR HUD中,图像被投影在主车辆10的挡风玻璃39(图6)上。在AR信息集群显示器中,主车辆10的信息集群面板包括呈现由一个或多个摄像机41捕获的主车辆10前方的图像(即,前向图像)和呈现在该前向图像上的虚拟图像的屏幕。如下面讨论的,显示器29可以是多焦平面AR显示器,以促进虚拟图像的操纵(例如,大小、位置和类型)。
通信系统36与控制器34通信,并配置成无线地传达去往和来自其他实体48的信息,该其他实体48诸如但不限于其他车辆(“V2V”通信)、基础设施(“V2I”通信)、在远程呼叫中心的远程系统(例如通用汽车公司的ON-STAR)和/或个人装置。在某些实施例中,通信系统36是被配置成使用IEEE 802.11标准或通过使用蜂窝数据通信经由无线局域网(WLAN)进行通信的无线通信系统。然而,诸如专用短程通信(DSRC)信道的附加或替代通信方法也被认为在本公开的范围内。DSRC信道是指专门为汽车用途设计的单向或双向短程到中程无线通信信道,以及对应的协议和标准集。因此,通信系统36可以包括一个或多个天线和/或通信收发器37,用于接收和/或传输诸如协作感测消息(CSM)的信号。通信收发器37可以被认为是传感器40。通信系统36被配置成在主车辆10和另一车辆之间无线的传达信息。此外,通信系统36被配置成在主车辆10和基础设施或其他车辆之间无线地传达信息。
参考图1、图2和图3,系统98被配置成指令显示器29(诸如AR HUD或AR信息集群显示器),用于使用从主车辆10中的传感器40接收的数据、通过通信系统36(例如V2V通信)从其他实体48接收的数据和/或眼睛跟踪数据,在多焦平面增强现实显示器上提供盲揭示警告。在这样做时,显示器29通过用保形图形增强道路场景来以上下文方式示出盲揭示警告。在本公开中,术语“保形图形”意味着作为外部世界的一部分呈现的合成(syntenic)生成的内容(即,虚拟图像50)。因此,显示器29是保形显示器。在本公开中,术语“保形显示器”意指具有将合成生成的内容(即,一个或多个虚拟图像50)表示为外部世界的一部分的能力的显示器。
图2示意性地图示了盲揭示情形。如上面讨论的,当主车辆10、第一远程车辆64和第二远程车辆76在同一车道(即,第一车道78)上时,发生盲揭示情形。在盲揭示中,当第二远程车辆76的速度小于第一远程车辆64的速度时,第一远程车辆64接近第二远程车辆76。设想,第二远程车辆76可以是静止的或以低速移动。此外,设想到,可能存在多于一个的第二远程车辆76停止或以低速移动。然后,在盲揭示中,第一远程车辆64从第一车道78切换到直接相邻的车道(即,第二车道80),从而向主车辆10的车辆用户揭示第二远程车辆76。在盲揭示情形下,合期望的是提供盲揭示警告以帮助车辆用户预测盲揭示情形,从而给主车辆10的车辆用户提供足够的时间来做出适当的驾驶决策,以防止主车辆10在第一远程车辆64切换车道之前与第二远程车辆76发生接触。第一远程车辆64和第二远程车辆76是位于主车辆10附近的多个远程车辆67的一部分。多个远程车辆67位于距主车辆10的预定距离(例如,1英里)内。第一远程车辆64位于主车辆10的正前方,使得没有其他车辆位于第一远程车辆64和主车辆10之间。至少一个第二远程车辆76位于第一远程车辆64的正前方,使得没有其他车辆位于第一远程车辆64和第二远程车辆76之间。
在图3中,显示器29示出了虚拟图像50,该虚拟图像50表示作为外部世界一部分的盲揭示警告。虽然图3示出了一个虚拟图像50,但是想象到,显示器29可以示出多于一个的虚拟图像50。在图2中描绘的实施例中,虚拟图像50可以包括车辆的图形图像、车辆图形图像旁边的三角形以及三角形内部的感叹号。然而,设想,虚拟图像50可以具有指示盲揭示警告的其他配置。不管其配置如何,虚拟图像50可以位于第一远程车辆64的前方,以提供第二远程车辆76在第一远程车辆64前方的指示。因为显示器29可以是AR显示器,所以除了虚拟图像50或具有虚拟图像50的道路63的图像之外,图3还示出了穿过挡风玻璃39(图6)的道路63的视图。在本公开中,术语“道路”意指车辆10的开放道路。在图3中,虚拟图像50的大小可以与从主车辆10到第二远程车辆76的距离成反比。不管其大小如何,虚拟图像50包括可视警报,该可视警报向主车辆10的车辆用户警告=盲揭示是可能的或很有可能。
参考图4和图5,显示器29可以是如上面提及的多焦平面AR显示器。在这种情况下,显示器29具有第一图像平面58和第二图像平面60。第一图像平面58示出外部世界的视图,并且第二图像平面60被保留用于显示虚拟图像50(图2)。第二图像平面60跨越多条车道,并且虚拟图像50出现在相对于第一图像平面58更远的道路表面62上的位置。例如,如图5中所示,第二图像平面60覆盖左车道52、中央车道54和右车道56。作为非限制性示例,在中央车道54中,第二图像平面60在距主车辆10第一预定距离D1(例如,二十五米)处开始,并在距主车辆10第二预定距离D2(例如,九十米)处结束。不管具体距离如何,第二预定距离D2大于第一预定距离D1,以帮助车辆用户看到虚拟图像50(图3)。在左车道52和右车道56中,第二图像平面60由倾斜边界界定,该倾斜边界开始于距主车辆10的第一预定距离D1,并且结束于距主车辆10的第三预定距离D3(例如,五十米)。第三预定距离D3大于第一预定距离D1并且小于第二预定距离D2,以帮助车辆用户看到虚拟图像50(图3)。如本文使用的,术语“多焦平面AR显示器”意指在多于一个图像平面中呈现图像的AR显示器,其中图像平面位于不同的位置处。合期望的是在当前公开的系统98中使用多焦平面AR显示器来容易地改变虚拟图像50相对于外部世界的视图的大小、类型和/或位置。
参考图6,系统98包括用户跟踪器43(例如,眼睛跟踪器和/或头部跟踪器),其被配置成跟踪车辆用户的眼睛66或头部69的位置和移动。在所描绘的实施例中,用户跟踪器可以被配置为主车辆10的一个或多个摄像机41。如上面讨论的,摄像机41被认为是主车辆10的传感器40。作为传感器40,用户跟踪器43与控制器34通信,该控制器34包括系统管理器68。在系统98的操作期间,系统管理器68接收至少第一输入70和第二输入72。第一输入70指示车辆在空间中的位置(即,车辆在空间中的位置),并且第二输入72指示车辆用户在主车辆10中的位置(例如,主车辆10中用户的眼睛和/或头部的位置)。第一输入70可以包括诸如GNSS数据(例如,GPS数据)、车辆速度道路曲率和车辆转向的数据,并且该数据可以通过主车辆10的通信系统36从主车辆10的传感器40和/或其他实体48收集。第二输入72可以从用户跟踪器(例如,眼睛跟踪器和/或头部跟踪器)接收。系统管理器68被配置成基于第一输入70(即,空间中的车辆位置)、第二输入72(例如,主车辆10中的用户的眼睛和/或头部的位置)和感测的车辆驾驶环境(可以通过传感器40获得)来确定(例如,计算)保形图形(即,虚拟图像50)的类型、大小、形状和颜色。虚拟图像50的保形图形的类型、大小、形状和颜色可以统称为虚拟图像特性。
继续参考图6,系统98进一步包括图像引擎74,该图像引擎74是显示器29的一部分,并且可以是被配置成生成虚拟图像50的集成电路。这些生成的虚拟图像50然后被投影到挡风玻璃39上(如果显示器29是HUD),以在沿着道路表面62的第二图像平面60上示出虚拟图像50。
图7是用于在显示器29(例如,AR显示器)上提供盲揭示警告的方法100的流程图。方法100开始于框102,其中控制器34使用例如传感器40生成的信号确定主车辆10正在被驱动。例如,控制器34可以接收来自传感器40之一(诸如速度传感器)的数据,以确定主车辆10正在移动。然后,方法100进行到框104。
在框104中,控制器34确定接收远程车辆数据。如本文使用的,术语“远程车辆数据”意指关于位于距主车辆10预定距离(例如,一英里)内的一个或多个远程车辆67的移动和/或位置的信息。远程车辆数据可以包括但不限于距离主车辆10预定距离内的每个远程车辆67的位置、速度、加速度、轨迹、转向角和/或行为。在本公开中,术语“行为”意指至少一个远程车辆67的驾驶模式的历史。为了获得远程车辆数据,控制器34可以使用V2V通信经由通信收发器37接收来自一个或多个传感器40的至少一个信号,一个或多个传感器40诸如是摄像机41、GNSS收发器45(例如,全球定位系统(GPS)收发器)、来自互联网的数据、道路数据库和/或来自远程车辆67的数据。因此,控制器34可以使用例如从GNSS收发器45、另一个传感器40或另一个合适的信息源(诸如远程车辆67)接收的远程车辆数据来确定远程车辆67沿着主车辆10的路线的位置和移动。在框104,控制器34还可以确定主车辆10相对于第一远程车辆64的位置。方法100然后进行到框106。
在框106,控制器34确定第一远程车辆64相对于位于第一远程车辆64正前方的第二远程车辆76的接近速率。如上面讨论的,第二远程车辆76以低速(例如,每小时五英里)移动或静止。在本公开中,术语“接近速率”意指相对于位于第一远程车辆64正前方的第二远程车辆76的速度,第一远程车辆64接近位于第一远程车辆64正前方的第二远程车辆76的速度。第一远程车辆64和第二远程车辆76的速度可以例如使用V2V通信从通信收发器37获得。为了确定接近速率,控制器34可以从位于第一远程车辆64正前方的第二远程车辆76的速度中减去第一远程车辆64的速度。控制器34然后行进到框108。
在框108,控制器34至少部分基于接近速率确定第一远程车辆64将执行盲揭示的概率。如上面讨论的,当(1)主车辆10、第一远程车辆64和第二远程车辆76在同一车道上时;(2)当第二远程车辆76的速度小于第一远程车辆64的速度时,第一远程车辆64接近第二远程车辆76;以及(3)然后第一远程车辆64切换车道,从而向主车辆10的车辆用户揭示第二远程车辆76,发生盲揭示。控制器34可以使用方法200(下面参考图8讨论)来确定第一远程车辆64将执行盲揭示的概率。然后,方法100进行到框110。
在框110,控制器34确定第一远程车辆64将执行盲揭示的概率是否大于预定阈值。预定阈值可以通过测试车辆来确定。具体地,在框110,控制器34将第一远程车辆64将执行盲揭示的概率与预定阈值进行比较,以确定第一远程车辆64将执行盲揭示的概率是否大于预定阈值。如果控制器34确定第一远程车辆64将执行盲揭示的概率等于或小于预定阈值,则方法100行进到框112。在框112,系统98不执行动作。也就是说,在这种情况下,控制器34不向显示器29传输命令信号,并且因此,显示器29不显示虚拟图像50。如果控制器34确定第一远程车辆64将执行盲揭示的概率大于预定阈值,则方法100进行到框114。
在框114,控制器34确定主车辆10相对于其他远程车辆67(诸如第一远程车辆64)的定位(或位置)。为了这样做,控制器34可以使用从GNSS收发器45接收的车辆位置数据和/或道路数据,诸如道路数据库。换句话说,在框110,控制器34确定主车辆10相对于远程车辆67所位于的位置。然后,方法100继续到框116。
在框116,控制器34至少部分使用主车辆10相对于远程车辆67的位置,实时确定虚拟图像50的类型和/或大小。如上面讨论的,虚拟图像50的大小可以与从主车辆10到第二远程车辆76的距离成反比。此外,虚拟图像50可以位于第一远程车辆64的前方,以提供第二远程车辆76在第一远程车辆64前方的指示。然后,方法100进行到框118。
在框118,控制器34使用来自用户跟踪器43的至少一个输入,确定主车辆10的用户的眼睛66和/或头部69的位置。如上面讨论的,用户跟踪器43可以是被配置成跟踪车辆用户的头部69和/或眼睛66的移动的摄像机41。控制器34然后使用来自用户跟踪器43的输入来连续实时地确定主车辆10的用户的眼睛66和/或头部69的位置。方法100然后进行到框120。
在框120,控制器34基于主车辆10用户的眼睛66和/或头部69的位置、远程车辆数据和/或主车辆10的位置,实时确定显示器29(例如,多焦平面增强现实显示器)上显示的虚拟图像50(图4)的位置、类型、大小、形状和颜色。作为非限制性示例,显示器29中的虚拟图像50的位置可以随着用户移动头部69和/或眼睛66而改变。此外,虚拟图像50的大小可以随着主车辆10越来越靠近第二远程车辆76而增加。接下来,方法100进行到框122。
在框122,控制器34传输命令信号,以命令显示器29在先前确定的位置处呈现至少一个虚拟图像50。如上面讨论的,虚拟图像50指示第二远程车辆64将执行盲揭示。虚拟图像50包括诸如感叹号的可视警报,该可视警报向主车辆10的车辆用户警告盲揭示是可能的(例如,三角形内部的感叹号)。虚拟图像50的位置可以基于车辆用户的眼睛66和/或头部69的位置实时改变。响应于从控制器34接收到命令信号,显示器29以先前确定的大小在先前确定的位置处示出虚拟图像50。在框122之后,方法100返回到框124。
在框124,控制器34确定驾驶场景是否已完成。在本公开中,术语“驾驶场景”意指第二远程车辆64执行盲揭示的情形。因此,一旦第一远程车辆64切换车道,驾驶场景就已经完成。例如,一旦第一远程车辆64从第一车道78切换到第二车道80,驾驶场景就已经完成。为了确定驾驶场景是否已经完成,控制器34可以使用如上面讨论的远程车辆数据。如果驾驶场景没有完成,则方法100返回到框114。如果驾驶场景已经完成,则方法100继续到框126。
在框126,控制器34向显示器29传输关闭信号,中断在显示器29上示出虚拟图像50。在框126之后,方法100返回到框104。
图8是用于确定主车辆10前方的第一远程车辆64将执行盲揭示的概率的方法200的流程图。方法200在框202开始。在框202,控制器34使用例如通信收发器37与第一远程车辆64通信。然后,方法200进行到框204。
在框204,控制器34确定第一远程车辆64相对于第二远程车辆76的接近速率是否大于预定速率阈值。如果接近速率大于预定速率阈值,则方法200进行到框206。在框206,控制器34将特定的预定值(例如,五)添加到第一远程车辆64将执行盲揭示的初始概率。如果接近速率等于或小于预定速率阈值,则方法200行进到框208并跳过框206。
在框208,控制器34基于经由V2V通信从通信收发器37接收的一个或多个信号,确定第一远程车辆64是否正在滑行。换句话说,主车辆10的控制器34可以使用V2V通信从第一远程车辆64接收信号,以确定第一远程车辆64正在滑行。当滑行时,第一远程车辆64使用动量移动。如果第一远程车辆64没有滑行,则方法200行进到框210。在框210,控制器34将特定的预定值(例如,五)添加到第一远程车辆64将执行盲揭示的概率。如果主车辆10正在滑行,则方法200直接继续到框212。
在框212,控制器34基于经由V2V通信从通信收发器37接收的一个或多个信号,确定第一远程车辆64的制动器是否正在应用。换句话说,主车辆10的控制器34可以使用V2V通信从第一远程车辆64接收信号,以确定第一远程车辆64的制动器是否正在应用。如果第一远程车辆64的制动器没有被应用,则方法200行进到框214。在框214,控制器34将特定的预定值(例如,五)添加到第一远程车辆64将执行盲揭示的概率。如果第一远程车辆64的制动器正在被应用,则方法300直接行进到框216。
在框216,控制器34基于经由V2V通信从通信收发器37接收的一个或多个信号,在考虑第一远程车辆64的当前速度、第一远程车辆64的估计质量和道路63的天气条件的情况下,确定从第一远程车辆64至第二远程车辆76的停止距离是否超过预定距离阈值。考虑到第一远程车辆64的当前速度和估计质量以及道路63的天气条件,从第一远程车辆64到第二远程车辆76的停止距离是第一远程车辆64在与第二远程车辆76接触之前停止所需的最大距离。如果这样的停止距离大于预定距离阈值,则方法200继续到框218。在框218,控制器34将特定的预定值(例如,五)添加到第一远程车辆64将执行盲揭示的概率。如果停止距离等于或小于预定距离阈值,则方法200继续到框220。
在框220,控制器34基于经由V2V通信从通信收发器37接收的一个或多个信号,确定与第一车道78直接相邻的第二车道80是否开放。如果第二车道80是开放的,则方法200进行到框222。在框222,控制器34将特定的预定值(例如,五)添加到第一远程车辆64将执行盲揭示的概率。如果第二通道80没有开放,则方法200行进到框224。
在框224,控制器34基于经由V2V通信从通信收发器37接收的一个或多个信号,确定第二远程车辆64的转向指示是否开启。如果第一远程车辆64的转向指示器开启,则方法200进行到框226。在框226,控制器34将特定的预定值(例如,五)添加到第一远程车辆64将执行盲揭示的概率。如果第一远程车辆64的转向指示器没有开启,则方法200返回到框202。
在框226之后,方法200继续到框228。在框228,控制器34将第一远程车辆64将执行盲揭示的概率与预定阈值进行比较,以确定第一远程车辆64将执行盲揭示的概率是否大于预定阈值。如果第一远程车辆64将执行盲揭示的概率大于预定阈值,则方法200继续到框230。在框230,控制器34执行框114、116、118、120、122、124和126,如上文关于方法100所述。如果第一远程车辆64将执行盲揭示的概率等于或小于预定阈值,则方法200继续到框232。在框232,系统98不执行动作。
虽然上面描述了示例性实施例,但是意图不是在这些实施例描述了权利要求所包含的所有可能的形式。说明书中使用的词语是描述的词语,而不是限制的词语,并且理解,可以在不脱离本公开的精神和范围的情况下做出各种改变。如先前描述的,各种实施例的特征可以被组合以形成可能未被明确描述或图示的本发明的另外的实施例。虽然各种实施例可能已经被描述为在一个或多个期望的特性方面提供了优于其他实施例或现有技术实施方式的优点或者比其他实施例或现有技术实施方式优选,但是本领域的普通技术人员认识到,一个或多个特征或特性可以取决于具体的应用和实施方式被折衷以实现期望的总体系统属性。这些属性可以包括但不限于成本、强度、耐用性、生命周期成本、适销性、外观、包装、大小、适用性、重量、可制造性、组装容易性等。照此,被描述为在一个或多个特性方面与其他实施例或现有技术实施方式相比不太合期望的实施例不在本公开的范围之外,并且对于特定应用可以是合期望的。
附图是简化形式,并且未按精确比例绘制。仅出于方便和清楚的目的,诸如顶、底、左、右、上、上面、上方、下面、下方、后方和前方之类的方向术语可以相对于附图使用。这些和类似的方向术语不应被解释为以任何方式限制本公开的范围。
本文中描述了本公开的实施例。然而,将理解,公开的实施例仅仅是示例,并且其他实施例可以采取各种形式和替代形式。各图不一定是按比例的;一些特征可以被放大或最小化以示出特定部件的细节。因此,本文中公开的具体结构和功能细节不应被解释为限制性的,而仅仅是作为用于教导本领域技术人员以各种方式采用实施例的代表性基础。如本领域普通技术人员将理解的,参考任一图所图示和描述的各种特征可以与一个或多个其他图中图示的特征相组合,以产生未被明确图示或描述的实施例。图示的特征的组合提供了典型应用的代表性实施例。然而,对于特定的应用或实施方式,可期望与本公开的教导一致的特征的各种组合和修改。
本公开的实施例可以在功能和/或逻辑块部件和各种处理步骤方面进行描述。应当领会,这样的块部件可以由被配置成执行指定功能的多个硬件、软件和/或固件部件来实现。例如,本公开的实施例可以采用各种集成电路部件,例如存储器元件、数字信号处理元件、逻辑元件、查找表等,它们可以在一个或多个微处理器或其他控制装置的控制下执行多种功能。此外,本领域技术人员将领会,本公开的实施例可以结合多个系统来实践,并且本文描述的系统仅仅是本公开的示例性实施例。
为了简洁起见,与信号处理、数据融合、信号发送、控制和系统的其他功能方面(以及系统的个体操作部件)相关的技术在本文中可以不被详细描述。此外,本文包含的各个图中所示的连接线旨在表示各个元件之间的示例功能关系和/或物理耦合。应当注意,在本公开的实施例中可以存在替代的或附加的功能关系或物理连接。
本描述本质上仅是说明性的,并且绝不是意图限制本公开、其应用或用途。本公开的广泛教导可以以多种形式实施。因此,虽然本公开包括特定的示例,但是本公开的真实范围不应该被如此限制,因为在研究附图、说明书和所附权利要求后,其他修改将变得明显。

Claims (10)

1.一种用于在多焦平面增强现实显示器上提供盲揭示警告的方法,包括:
接收远程车辆数据,其中所述远程车辆数据包括关于多个远程车辆的信息,所述多个远程车辆中的每一个位于距主车辆的预定距离内,所述多个远程车辆包括位于主车辆正前方的第一远程车辆,并且所述多个远程车辆包括位于第一远程车辆前方的第二远程车辆;
确定第一远程车辆到第二远程车辆的接近速率,其中接近速率是相对于第二远程车辆的速度,第一远程车辆接近第二远程车辆的速度;
基于接近速率确定第一远程车辆将执行盲揭示的概率,其中盲揭示是如下发生事件:第一远程车辆和第二远程车辆在同一车道上,第一远程车辆接近第二远程车辆,而第二远程车辆的速度小于第一远程车辆的速度,并且然后第一远程车辆切换车道,从而向主车辆的车辆用户揭示第二远程车辆;
将第一远程车辆将执行盲揭示的概率与预定阈值进行比较,以确定第一远程车辆将执行盲揭示的概率是否大于预定阈值;和
响应于确定第一远程车辆将执行盲揭示的概率大于预定阈值,向主车辆的多焦平面增强现实显示器传输命令信号,以在多焦平面增强现实显示器上显示虚拟图像,其中虚拟图像包括可视警报,所述可视警报向主车辆的车辆用户警告盲揭示是可能的。
2.根据权利要求1所述的方法,其中,所述远程车辆数据包括关于所述多个远程车辆中的每一个的速度、位置、加速度和轨迹的信息。
3.根据权利要求2所述的方法,进一步包括:
确定第一远程车辆将执行盲揭示的概率不大于所述预定阈值,并且响应于确定第一远程车辆将执行盲揭示的概率不大于预定阈值,所述命令信号不被传输到主车辆的多焦平面增强现实显示器。
4.根据权利要求2所述的方法,进一步包括确定主车辆相对于第一远程车辆的位置。
5.根据权利要求4所述的方法,进一步包括:
基于第一远程车辆将执行盲揭示的概率来确定虚拟图像的大小和类型;
其中向多焦平面增强现实显示器传输命令信号包括命令主车辆的多焦平面增强现实显示器在多焦平面增强现实显示器上显示虚拟图像,所述虚拟图像具有基于第一远程车辆将执行盲揭示的概率先前确定的大小和类型。
6.根据权利要求5所述的方法,进一步包括:
确定主车辆的车辆用户的眼睛的位置;和
基于车辆用户眼睛的位置确定虚拟图像的位置;
其中向多焦平面增强现实显示器传输命令信号包括命令主车辆的多焦平面增强现实显示器在基于车辆用户眼睛的位置确定的位置处显示虚拟图像。
7.根据权利要求6所述的方法,进一步包括在基于车辆用户眼睛的位置先前确定的位置处生成虚拟图像,并且所述虚拟图像具有基于第一远程车辆将执行盲揭示的概率先前确定的大小和类型,其中所述虚拟图像显示在主车辆的挡风玻璃上。
8.根据权利要求6所述的方法,进一步包括在基于车辆用户眼睛的位置先前确定的位置处生成虚拟图像,并且所述虚拟图像具有基于第一远程车辆将执行盲揭示的概率先前确定的大小和类型,其中所述虚拟图像显示在主车辆的仪表板显示器上。
9.根据权利要求7所述的方法,进一步包括确定驾驶场景是否完成,其中所述驾驶场景是发生盲揭示的情形,并且一旦第一远程车辆切换车道,所述驾驶场景就完成。
10.根据权利要求9所述的方法,进一步包括,响应于确定驾驶场景完成,向多焦平面增强现实显示器传输关闭信号,以中断在多焦平面增强现实显示器上示出虚拟图像。
CN202211287629.XA 2022-03-22 2022-10-20 用于在增强现实显示器上提供盲揭示警告的系统和方法 Pending CN116811578A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/700790 2022-03-22
US17/700,790 US11854403B2 (en) 2022-03-22 2022-03-22 System and method for providing a blind reveal warning on an augmented reality display

Publications (1)

Publication Number Publication Date
CN116811578A true CN116811578A (zh) 2023-09-29

Family

ID=87930606

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211287629.XA Pending CN116811578A (zh) 2022-03-22 2022-10-20 用于在增强现实显示器上提供盲揭示警告的系统和方法

Country Status (3)

Country Link
US (1) US11854403B2 (zh)
CN (1) CN116811578A (zh)
DE (1) DE102022126850A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11978265B2 (en) * 2022-03-11 2024-05-07 GM Global Technology Operations LLC System and method for providing lane identification on an augmented reality display

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9443429B2 (en) 2012-01-24 2016-09-13 GM Global Technology Operations LLC Optimum gaze location on full windscreen display
DE102012023108A1 (de) 2012-11-27 2014-06-12 Audi Ag Verfahren zum Betrieb eines Fahrerassistenzsystems eines Kraftfahrzeugs und Kraftfahrzeug
DE102016009762A1 (de) 2016-08-11 2018-02-15 Trw Automotive Gmbh Steuerungssystem und Steuerungsverfahren zum Ermitteln einer Wahrscheinlichkeit für einen Fahrspurwechsel eines vorausfahrenden Kraftfahrzeugs
WO2021125163A1 (ja) * 2019-12-18 2021-06-24 日立Astemo株式会社 車両制御装置、車両制御方法、及び車両制御システム
KR20210120398A (ko) * 2020-03-26 2021-10-07 삼성전자주식회사 차량에 탑재된 CMS 사이드 디스플레이(Camera Monitoring System Side Display)를 이용하여 영상을 디스플레이하는 전자 장치 및 그 동작 방법

Also Published As

Publication number Publication date
DE102022126850A1 (de) 2023-09-28
US11854403B2 (en) 2023-12-26
US20230306850A1 (en) 2023-09-28

Similar Documents

Publication Publication Date Title
US10293748B2 (en) Information presentation system
CN107878460B (zh) 自动驾驶车辆的控制方法和服务器
KR102276096B1 (ko) 디스플레이 유닛 상에 디스플레이하기 위한 부가 정보의 삽입을 계산하기 위한 방법, 상기 방법을 수행하기 위한 장치 그리고 자동차 및 컴퓨터 프로그램
US10198009B2 (en) Vehicle automation and operator engagment level prediction
US10025899B2 (en) Deactivating or disabling various vehicle systems and/or components when vehicle operates in an autonomous mode
CN109849906B (zh) 自主行驶车辆及其控制方法
CN111801260A (zh) 利用底盘反馈的高级驾驶员注意力升级
US20190347492A1 (en) Vehicle control device
WO2014164329A1 (en) Vehicle state prediction in real time risk assessments
CN108437996B (zh) 用于情境感知信息警报、建议和通知的集成接口
US11699250B1 (en) System and method for low visibility driving
WO2020201961A1 (en) Automatic motor-vehicle driving speed control based on driver's driving behaviour
CN116811578A (zh) 用于在增强现实显示器上提供盲揭示警告的系统和方法
US20230373309A1 (en) Display control device
US20230400321A1 (en) Ar display device for vehicle and method for operating same
US11798240B2 (en) System and method for social networking using an augmented reality display
US11935200B2 (en) System and method for displaying infrastructure information on an augmented reality display
US20230316914A1 (en) System and method for providing platooning information using an augmented reality display
US20230343210A1 (en) Method and system for validating autonomous vehicle performance using nearby traffic patterns
CN116735237A (zh) 用于车辆的车轮对准自动检测系统和方法
US11978265B2 (en) System and method for providing lane identification on an augmented reality display
US12039899B1 (en) Adaptive head up display
WO2024038759A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2023068116A1 (ja) 車載通信装置、端末装置、通信方法、情報処理方法及び通信システム
CN117087660A (zh) 用于产生车辆警报的系统和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination