CN114379565A - 用于自主和半自主驾驶应用的乘员注意力和认知负荷监测 - Google Patents

用于自主和半自主驾驶应用的乘员注意力和认知负荷监测 Download PDF

Info

Publication number
CN114379565A
CN114379565A CN202111221654.3A CN202111221654A CN114379565A CN 114379565 A CN114379565 A CN 114379565A CN 202111221654 A CN202111221654 A CN 202111221654A CN 114379565 A CN114379565 A CN 114379565A
Authority
CN
China
Prior art keywords
vehicle
occupant
gaze
determining
cognitive load
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111221654.3A
Other languages
English (en)
Inventor
N·M·阿拉尔
N·阿瓦达汗纳姆
任育卓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nvidia Corp
Original Assignee
Nvidia Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nvidia Corp filed Critical Nvidia Corp
Publication of CN114379565A publication Critical patent/CN114379565A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

公开了用于自主和半自主驾驶应用的乘员注意力和认知负荷监测。在各种示例中,所估计的用户的视野或注视信息可以被投影到车辆外部并且与对应于车辆外部环境的车辆感知信息进行比较。结果,车辆的驾驶员或乘员的内部监控可用于确定驾驶员或乘员是否已经处理或看到了某些对象类型、环境条件或车辆外部的其他信息。为了更全面地了解用户的状态,可以监控用户的注意力和/或认知负荷以确定是否应该采取一个或更多个动作。因此,通知、AEB系统激活和/或其他动作可以基于更完整的用户状态来确定,如基于认知负荷、注意力和/或车辆的外部感知与估计的用户感知之间的比较而确定的。

Description

用于自主和半自主驾驶应用的乘员注意力和认知负荷监测
相关申请的交叉引用
本申请与2019年2月26日提交的美国非临时申请No.16/286,329、2019年3月15日提交的美国非临时申请No.16/355,328、2019年3月18日提交的美国非临时申请No.16/356,439、2019年4月16日提交的美国非临时申请No.16/385,921、2019年7月17日提交的美国非临时申请No.16/514,230、2019年8月8日提交的美国非临时申请No.16/535,440、2019年12月27日提交的美国非临时申请No.16/728,595、2019年12月27日提交的美国非临时申请No.16/728,598、2020年3月9日提交的美国非临时申请No.16/813,306、2020年3月10日提交的美国非临时申请No.16/814,351、2020年4月14日提交的美国非临时申请No.16/848,102、2020年6月24日提交的美国非临时申请No.16/911,007和2020年6月29日提交的美国非临时申请No.16/915,577、2018年10月8日提交的美国非临时申请No.16/363,648、2019年8月19日提交的美国非临时申请No.16/544,442、2020年9月2日提交的美国非临时申请No.17/010,205、2020年4月27日提交的美国非临时申请No.16/859,741、2020年8月27日提交的美国非临时申请No.17/004,252和/或2020年8月28日提交的美国非临时申请No.17/005,914,以及2020年6月19日提交的美国非临时申请No.16/907,125相关,它们中的每一个的全部内容够通过引用并入本文。
背景技术
认知和视觉注意力在驾驶员检测安全关键事件并因此安全控制车辆的能力中起着重要作用。例如,当驾驶员分心时(例如,由于做白日梦、分心、将心智能力用于当前驾驶任务以外的任务、观察路外活动等),驾驶员可能无法做出适当的规划和控制决策,或正确的决定可能会延迟。为了解决这个问题,一些车辆系统(例如高级驾驶员辅助系统(ADAS)),用于为驾驶员生成听觉、视觉和/或触觉警告或警报,以通知驾驶员环境和/或道路状况(例如,弱势道路使用者(VRU)、红绿灯、交通拥堵、潜在碰撞等)。然而,随着警告系统数量的增加(例如,自动紧急制动(AEB)、盲点检测(BSD)、前方碰撞警告(FCW)等),生成的警报或警告的数量可能会让驾驶员不知所措。结果,驾驶员可能会关闭这些系统中的一个或更多个的安全系统功能,从而消除这些系统在减轻不安全事件发生方面的有效性。
在一些常规系统中,可以使用驾驶员监控系统和/或驾驶员困倦检测系统来确定驾驶员的当前状态。然而,这些常规系统彼此分开地测量认知负荷或驾驶员注意力。例如,一旦确定了驾驶员的状态,就可以警告或警报驾驶员确定的他们注意力不集中或认知负荷增加。除了其他ADAS系统已经存在的警告警报之外,这不仅会导致警告或警报,注意力或高认知负荷的确定可能不准确或不精确。例如,关于注意力,可以在车辆内测量用户的注视,例如,用户注视车辆舱内。但是,由于他们注视前挡风玻璃而被确定为专心的驾驶员实际上可能并未专心,因为没有考虑外部环境条件(例如静态或动态对象的位置、道路状况、等待条件等)。关于认知负荷,常规系统采用在模拟数据上训练的深度神经网络(DNN),这些模拟数据将瞳孔大小或其他眼睛特征、眼睛运动、眨眼率或其他眼睛测量值和/或其他信息与当前认知负荷联系起来。然而,这些测量是主观的,对于某些用户来说可能不准确或不精确,例如,不同驾驶员的认知负荷可能会有所不同,和/或某些驾驶员在高认知负荷下的表现可能比其他人更好。因此,使用彼此独立的驾驶员注意力不集中或认知负荷,而忽略车辆外部的环境条件,可能导致基于驾驶员当前状态的不准确、不可靠或零碎信息生成的过多警告和警报。
发明内容
本公开的实施例涉及用于半自主或自主驾驶应用的乘员(occupant)注意力和认知负荷监测。公开了系统和方法,其除了监测注意力和/或认知负荷之外,还将估计的用户视野或注视信息与对应于车辆外部环境的车辆感知信息进行比较。因此,对车辆驾驶员或乘员的内部监控可以扩展到车辆外部,以确定驾驶员或乘员是否已经处理或看到了车辆外部的某些对象类型、环境条件或其他信息,例如、动态参与者、静态对象、弱势道路使用者(VRU)、等待条件信息、标志、坑洼、颠簸、碎片等。其中投影-例如,到世界空间坐标系-用户的视野或注视的表示被确定为与检测到的对象、条件等重叠时,系统可以假定用户已经看到对象、条件等,并且可以避免执行动作(例如,生成通知、激活AEB系统等)。
在一些实施例中,为了更全面地了解用户的状态(例如,对应于用户处理所见或可视化信息的当前能力),可以监测用户的注意力和/或认知负荷以确定是否应采取一个或更多个动作(例如,生成视觉、听觉、触觉或其他通知类型,接管车辆控制,激活一个或更多个AEB系统等)。如此,即使在可以确定对象、道路状况等已经进入用户的视野的情况下,也可以执行与对象、道路状况等相对应的动作,其中所确定的用户的注意力和/或认知负荷表明用户可能没有完全处理信息以在没有动作的情况下做出明智的驾驶决策。因此,与常规系统相比,通知、AEB系统激活和/或其他动作可以基于用户的更客观和完整的状态来确定,如基于认知负荷、注意力和/或车辆的外部感知与投射到车辆外部的用户的估计感知之间的比较所确定的。此外,通过使用更客观的注意力和/或认知负荷测量,真实世界场景的模拟(例如,在虚拟模拟环境中)可能更准确和可靠,因此更适合设计、测试和最终部署在现实世界的系统中。
附图说明
下面参考附图详细描述用于半自主或自主驾驶应用的乘员注意力和认知负荷监测的本系统和方法,其中:
图1描绘了根据本公开的一些实施例的注意力和/或认知负荷监测过程的数据流程图;
图2A描绘了根据本公开的一些实施例的使用眼睛运动信息生成的示例图;
图2B描绘了根据本公开的一些实施例的包括使用眼睛运动信息生成的车辆区域可视化的示例图;
图2C-2D描绘了根据本公开的一些实施例的在用于确定眼睛运动信息的时间步长或帧处的眼睛位置的示例图示;
图2E描绘了根据本公开的一些实施例的对应于在一段时间内收集的眼睛运动信息的示例热图;
图3描绘了根据本公开的一些实施例的用于将车辆感知与估计的乘员感知进行比较的扩展到车辆外部的注视或视野表示的示例可视化;
图4是示出根据本公开的一些实施例的用于基于驾驶员注意力和/或认知负荷确定动作的方法的流程图;
图5A是根据本公开的一些实施例的示例自主车辆的图示;
图5B是根据本公开的一些实施例的图5A的示例自主车辆的相机位置和视野的示例;
图5C是根据本公开的一些实施例的图5A的示例自主车辆的示例系统架构的框图;
图5D是根据本公开的一些实施例的基于云的服务器和图5A的示例自主车辆之间的通信的系统图;
图6是适用于实现本公开的一些实施例的示例计算设备的框图;以及
图7是适用于实现本公开的一些实施例的示例数据中心的框图。
具体实施方式
公开了与用于半自主或自主驾驶应用的乘员注意力和认知负荷监测相关的系统和方法。虽然本公开可以关于示例自主车辆500(本文中也称为“车辆500”或“自我车辆500”,其示例在本文中关于图5A-5D进行描述)进行描述,这不旨在是限制性的。例如,本文描述的系统和方法可以由非自主车辆、半自主车辆(例如,在一个或更多个高级驾驶员辅助系统(ADAS)中)、机器人、仓库车辆、越野车辆、飞行器、船只和/或其他车辆类型使用。此外,虽然本公开可以关于自动驾驶进行描述,但这并不旨在是限制性的。例如,本文描述的系统和方法可用于机器人、空中系统(例如,以确定注意力和/或认知负荷)、划船系统、模拟环境(例如,用于基于虚拟仿真环境中虚拟车辆的人类操作员的注意力和/或认知负荷来模拟动作)和/或其他技术领域。
参考图1,图1描绘了根据本公开的一些实施例的注意力和/或认知负荷监测的过程100的数据流程图。应当理解,本文描述的这种和其他布置仅作为示例提出。除了所示的那些之外或代替所示的那些,可以使用其他布置和元件(例如,机器、接口、功能、顺序、功能分组等),并且可以完全省略一些元件。此外,本文描述的许多元件是功能实体,它们可以被实现为离散或分布式组件或与其他组件结合,并且以任何合适的组合和位置来实现。本文描述为由实体执行的各种功能可以由硬件、固件、软件和/或它们的任何组合来执行。例如,各种功能可以由执行存储在存储器中的指令的处理器来执行。
过程100可以包括从车辆500(其可以类似于车辆500,或可能包括非自主或半自主车辆)的一个或更多个传感器生成和/或接收传感器数据102A和/或102B(在此统称为“传感器数据102”)。传感器数据102可以在过程100内用于追踪车辆500的一个或更多个乘员的身体运动或姿势、追踪车辆500的乘员的眼睛运动、确定乘员的注意力和/或认知负荷,投射乘员在车辆500外部的注视或视野的表示,使用一个或更多个深度神经网络(DNN)112生成输出114,比较视野或注视表示与输出114,确定乘员的状态,基于状态确定要采取的一个或更多个动作,和/或其他任务或操作。传感器数据102可以包括但不限于来自任何类型传感器的传感器数据102,例如但不限于本文关于车辆500和/或其他车辆或对象(在一些示例中,例如机器人设备、VR系统、AR系统等)描述的那些。对于非限制性示例,并参考图5A-5C,传感器数据102可以包括但不限于由以下传感器生成的数据:全球导航卫星系统(GNSS)传感器558(例如,全球定位系统(GPS)传感器、差分GPS(DGPS)传感器等),RADAR传感器560,超声波传感器562,LIDAR传感器564,惯性测量单元(IMU)传感器566(例如加速度计、陀螺仪、磁罗盘、磁力计等),麦克风596,立体相机568,广角相机570(例如鱼眼相机),红外相机572,环绕相机574(例如,360度相机),远程和/或中程相机598,舱内相机,舱内热量,压力或触摸传感器,舱内运动传感器,舱内麦克风,速度传感器544(例如,用于测量车辆500的速度和/或行驶距离)和/或其他传感器类型。
在一些实施例中,传感器数据102A可以对应于使用一个或更多个舱内传感器生成的传感器数据,例如一个或更多个舱内相机、舱内近红外(NIR)传感器、舱内麦克风等,并且传感器数据102B可以对应于使用车辆500的一个或更多个外部传感器生成的传感器数据,例如一个或更多个相机、RADAR传感器560、超声波传感器562、LIDAR传感器564等。如此,传感器数据102A可对应于具有车辆500内部的感测场或视场的传感器(例如,在其视场中具有诸如驾驶员之类的乘员的相机),传感器数据图102B可以对应于具有车辆500外部的感测场或视场的传感器(例如,具有包括车辆500外部环境在内的感测场的相机、LiDAR传感器等)。然而,在一些实施例中,传感器数据102A和传感器数据102B可以包括来自具有车辆500内部和/或外部的感测场的任何传感器的传感器数据。
身体追踪器104和/或眼部追踪器106可以使用传感器数据102A来确定手势、姿势、活动、眼睛运动(例如,扫视速度、平稳追踪、注视位置、方向或矢量、瞳孔大小、眨眼率、道路浏览范围和分布等)和/或关于车辆500的乘员(例如,驾驶员)的其他信息。然后,注意力确定器108可以使用该信息来确定乘员的注意力,认知负荷确定器110可以使用该信息来确定乘员的认知负荷,和/或视野(FOV)投影仪116可以使用该信息来经由比较器120与来自一个或更多个深度神经网络(DNN)112的外部感知输出114进行比较。状态机122可以分析表示注意力、认知负荷和/或比较器120的输出的信息,以确定乘员的状态,以及状态可以由动作确定器124使用以确定一个或更多个要执行的动作或操作(例如,发出视觉、听觉和/或触觉通知、抑制通知、使用ADAS系统、接管车辆500的自主控制等)。
身体追踪器104可以使用传感器数据102A(例如,来自一个或更多个舱内相机、麦克风、压力传感器、温度传感器等的传感器数据)来确定手势、姿势、活动或状态(例如、两只手在方向盘上、一只手在方向盘上、发短信、阅读、懒散、突发疾病、无行为能力、分心等)和/或有关乘员的其他信息。例如,身体追踪器104可以执行一种或更多种机器学习算法、深度神经网络、计算机视觉算法、图像处理算法、数学算法等来确定身体追踪信息。在一些非限制性实施例中,身体追踪器104可以包括与2020年6月29日提交的美国非临时申请No.16/915,577和/或2020年6月19日提交的美国非临时申请No.16/907,125中描述的相似的特征、功能和/或组件,其每一个均通过引用整体并入本文。
眼睛追踪器106可以使用传感器数据102A(例如,来自一个或更多个舱内相机、NIR相机或传感器和/或其他眼睛追踪传感器类型的传感器数据)来确定注视方向和移动、凝视、道路浏览行为(例如,道路浏览模式、分布和范围)、扫视信息(例如,速度、方向等)、眨眼率、平稳追踪信息(例如,速度、方向等),和/或其他信息。眼睛追踪器106可以确定对应于某状态的时间段(例如凝视持续多长时间),和/或可以追踪确定某状态的次数(例如,多少凝视、多少扫视、多少平稳追踪等)。眼睛追踪器106可以单独监测或分析每只眼睛,和/或可以一起监测或分析两只眼睛。例如,可以监视双眼以使用三角测量来测量乘员注视的深度。在一些实施例中,眼睛追踪器106可以执行一种或更多种机器学习算法、深度神经网络、计算机视觉算法、图像处理算法、数学算法等来确定眼睛追踪信息。在一些非限制性实施例中,眼睛追踪器106可以包括与2018年10月8日提交的美国非临时申请No.16/363,648、2019年8月19日提交的美国非临时申请No.16/544,442、2020年9月2日提交的美国非临时申请号17/010,205、2020年4月27日提交的美国非临时申请号16/859,741、2020年8月27日提交的美国非临时申请No.17/004,252和/或2020年8月28日提交的美国非临时申请No.17/005,914中描述的相似的特征、功能和/或组件,其各自通过引用整体并入本文。
注意力确定器108可用于确定乘员的注意力。例如,来自身体追踪器104和/或眼睛追踪器106的输出可由注意力确定器108处理或分析以生成注意力值、分数或水平。注意力确定器108可以执行一种或更多种机器学习算法、深度神经网络、计算机视觉算法、图像处理算法、数学算法等来确定注意力。例如,关于图2A-2E,图2A包括对应于当前(例如,对应于当前时间或时间段,例如一秒、三秒、五秒等)注视方向和注视信息的图表202。例如,注视方向可由点212表示,其中图表202中的(x,y)位置可具有相对于车辆500的对应位置。图表202可用于确定眼睛运动类型,例如最近的眼睛运动类型(例如扫视,如图2A所示),或者平稳的追踪、凝视等。作为进一步的示例,如图2B所示,来自图表202的点212可以反映在图表204中,图表204可以反映乘员的当前和/或最近(例如,在最后一秒、三秒内等)注视区域。例如,可以使用任意数量的注视区域214(例如注视区域214A-214F)来确定道路浏览行为、凝视和/或可由注意力确定器108使用的其他信息。作为非限制性示例,注视区域214可以包括左侧注视区域214A(例如,对应于驾驶员侧车窗、驾驶员侧后视镜等)、左前注视区域214B(例如,对应于前挡风玻璃的左半部分或一部分)、右前注视区域214C(例如,对应于前挡风玻璃的右半部分或一部分)、右侧注视区域214D(例如,对应于乘客侧窗、乘客侧后视镜等),仪表组注视区域214E(例如,对应于仪表组532或方向盘后面、下方和/或上方的仪表板),和/或中控台注视区域214F(例如,对应于控制轴承表面,显示器、触摸屏界面、无线电控制、空调控制、危险灯控制、车载信息娱乐(IVI)、车载娱乐(ICE)和/或其他中控台功能)。
关于图2C-2D,图表206和208包括可用于生成图表202、204和/或210的乘员的可视化,例如,在图表206中更多地关注乘员的眼睛并且在图表208中更广泛地关注乘员。例如,确定乘员正朝着车辆500的右前方(例如,朝着右前方注视区域214C)看,以及乘员的最后移动是扫视可以使用图表206和208的一个或更多个实例确定。乘员的头部和/或眼睛的(x,y)位置可以与注视区域214和/或注视区域图表(例如图表202和/或204)的(x,y)位置具有已知的相关性。因此,可以确定并使用乘员的头部和/或眼睛的方位来确定当前帧的注视方向和/或位置。此外,任何帧数上的结果(例如,以每秒30帧或60帧的速度捕获两秒的帧)可用于追踪运动类型,例如扫视、眨眼率、平稳追踪、凝视、道路浏览行为等。在一些实施例中,如图2E所示,可以追踪在一段时间内乘员的注视信息并用于生成热图210(例如,与较亮或具有较不密集的点模式的区域相比,具有对应于更频繁的注视位置或方向的较暗的区域),该热图对应于乘员随时间(例如,超过三十秒、一分钟、三分钟、五分钟等)的注视位置和方向。例如,关于热图210(其中坐标系类似于图表202和/或204)热图210可以指示与其他注视区域214相比,乘员更频繁地注视右前方注视区域214C和/或右侧注视区域214D。在一些实施例中,热图210可在每一帧处更新以包括当前帧的信息。例如,当生成热图210时,可以应用加权以给予更近的注视信息更多的权重。然后热图210可以表示乘员的道路浏览行为、模式和/或频率,其可以用于确定乘员的注意力。
注意力确定器108然后可以使用一些或全部眼睛追踪信息来确定乘员的注意力。例如,在热图指示乘员频繁且大范围地浏览道路并且当前注视方向朝向驾驶表面或紧邻驾驶表面的情况下,当前注意力值或分数可被确定为高。作为另一示例,其中热图指示乘员更多地仅关注路外位置(例如,朝向人行道、建筑物、风景等)并且当前注视也朝向车辆500的一侧(例如,其中实际驾驶表面仅在乘员视野的外围),至少对于基于眼睛追踪的信息,注意力分数可以为低,例如,乘员可被确定为在做白日梦或处于茫然状态。
在一些示例中,如本文更详细地描述的,注意力确定器108可以使用比较器120的输出来确定注意力。例如,在使用车辆500的外部感知识别出某数量的对象(例如,VRU、交通标志、等待条件等)的情况下,被乘员看到和/或处理的那些对象的数量可以在一段时间内确定。例如,在已经检测到30个对象并且乘员已经看到和/或处理了其中的28个的情况下(例如,如由比较器120使用FOV投影仪116的输出和DNN 112的输出114确定的),乘员的注意力可被确定为高。然而,在乘员仅看到和/或处理30个中的15个的情况下,乘员的注意力可被确定为低(至少关于比较器120的计算)。在一些实施例中,确定乘员是否处理对象可以基于其他注意力因素和/或认知负荷确定。例如,在乘员的注视投影(例如,如根据计算出的注视向量确定的)或视野与检测到的对象(至少部分地)重叠的情况下,可以确定乘员已经看到了该对象。然而,在其他注意力信息表明乘员实际上凝视特定注视或一直低头看他们的电话时,或者在确定乘员具有高认知负荷的情况下,可以确定乘员尚未处理,注册,或关注对象。在这样的示例中,可以确定乘员的注意力比乘员已经处理或注册对象的情况低。
注意力确定器108除了使用眼睛追踪信息之外或替代地使用眼睛追踪信息,还可以使用来自身体追踪器104的身体追踪信息来确定注意力。例如,手势、姿势、活动和/或关于乘员的其他信息可用于确定注意力。因此,在驾驶员将两只手放在方向盘上并且具有直立姿势的情况下,驾驶员对注意力的基于身体的贡献可对应于高注意力值或分数。相反,在驾驶员将一只手放在方向盘上而另一只手将手机放在他们面前的情况下,可以确定至少针对基于身体的贡献的低注意力值或分数。
认知负荷确定器110可用于确定乘员的认知负荷。例如,来自身体追踪器104和/或眼睛追踪器106的输出可由认知负荷确定器110处理或分析以生成认知负荷值、分数或水平。认知负荷确定器110可以执行一种或更多种机器学习算法、深度神经网络、计算机视觉算法、图像处理算法、数学算法等来确定认知负荷。例如,可以使用基于眼睛的度量,例如瞳孔大小(例如,直径)或其他眼睛特征、眼睛运动、眨眼率或其他眼睛测量值和/或其他信息——例如,由计算机视觉算法和/或DNN—计算认知负荷值、分数或水平(例如,低、中、高)。例如,扩张的瞳孔可以指示高认知负荷并且除了其他信息之外,认知负荷确定器110还可以使用瞳孔大小来确定认知负荷分数。
道路浏览行为还可以指示认知负荷,例如,乘员是专心的还是做白日梦的。例如,在对应于道路浏览模式或行为的热图指示乘员已经从左向右浏览整个场景,该信息可以指示较低的认知负荷。但是,如果乘员没有浏览道路,或者已经在环境的非关键部分(例如人行道、景观等)上凝视了一段时间(例如,处于茫然状态、做白日梦等)等,这可表明更高的认知负荷。在一些实施例中,环境(例如,天气、一天中的时间等)和/或驾驶条件(例如,交通、道路条件等)可以被考虑到认知负荷确定(和/或注意力确定)中,使得雪、雨夹雪、冰雹、雨、直射阳光、黑暗、交通繁忙和/或其他条件可影响认知负荷确定。例如,对于相同的一组眼睛和/或身体追踪信息,在天气条件晴朗且交通量少的情况下,认知负荷可被确定为低,而在下雪且交通繁忙的情况下,认知负荷可被确定为高。
在一些实施例中,乘员的认知负荷和/或注意力可以基于对应于乘员的简档。例如,在当前驾驶和/或乘员的一次或更多次先前驾驶中,可以监测并使用乘员的眼睛追踪信息、身体追踪信息和/或其他信息来确定为乘员定制的简档,指示特定乘员何时专心、不专心、具有较高的认知负荷、具有较低的认知负荷等。例如,第一个乘员可能较少浏览道路,但可能会更快或更频繁地处理对象并做出正确决定,而第二个乘员可能会更少地浏览道路,但可能会更慢或更不频繁地处理对象并做出正确决定。因此,通过为第一个乘员和第二个乘员定制简档,第一个乘员可能不会被过度警告,而第二个乘员可能会收到更频繁的警告,以确保当他们都执行相似的道路浏览行为时的安全驾驶。乘员的简档还可以包括增加的粒度,使得可以在某些街道、高速公路、路线、天气条件等上追踪乘员的行为,并且该信息可以用于在未来在相同的街道、高速公路、相同的天气等情况下,确定乘员的注意力和/或认知负荷。除了认知负荷和/或注意力的确定,乘员可能够定制他们的简档以包括某些通知或其他动作类型,乘员想要通知的对象(例如,第一个乘员可能不想要人行横道的通知,而第二个乘员可能想要)等。
在一些实施例中,传感器数据102B可应用于一个或更多个深度神经网络(DNN)112,该深度神经网络(DNN)112被训练为计算各种不同的输出114。在应用或输入到DNN 112之前,传感器数据102可以经历预处理,例如转换、裁剪、升尺度、降尺度、放大、旋转和/或以其他方式修改传感器数据102。例如,在传感器数据102B对应于相机图像数据的情况下,图像数据可以被裁剪、降尺度、升尺度、翻转、旋转和/或以其他方式调整为相应的DNN 112的合适输入格式。在一些实施例中,传感器数据102B可以包括表示图像的图像数据、表示视频的图像数据(例如,视频的快照)和/或表示传感器的感测场的表示的传感器数据(例如,LIDAR传感器的深度图、超声波传感器的值图等)。在一些示例中,传感器数据102B可以在没有任何预处理的情况下被使用(例如,以原始或捕获的格式),而在其他示例中,传感器数据102可以经历预处理(例如,噪声平衡、去马赛克、缩放、裁剪、增强、白平衡、色调曲线调整等,例如使用传感器数据预处理器(未显示))。
尽管本文关于使用DNN 112(和/或关于使用DNN、计算机视觉算法、图像处理算法、机器学习模型等,关于身体追踪器104,眼睛追踪器106、注意力确定器108和/或认知负荷确定器110)描述了示例,但这不旨在是限制性的。例如但不限于,在本文中关于身体追踪器104、眼睛追踪器106、注意力确定器108、和/或认知负荷确定器110描述的DNN 112和/或计算机视觉算法、图像处理算法、机器学习模型等,可以包括任何类型的机器学习模型或算法,例如使用线性回归、逻辑回归、决策树、支持向量机(SVM)、朴素贝叶斯、k-最近邻(Knn),K均值聚类、随机森林、降维算法、梯度提升算法、神经网络(例如,自动编码器、卷积、循环、感知器、长/短期记忆/LSTM、Hopfield、Boltzmann、深度信念、反卷积、生成对抗、液体状态机等)、感兴趣区域检测算法、计算机视觉算法的机器学习模型和/或其他类型的算法或机器学习模型。
作为示例,DNN 112可以处理传感器数据102以生成车道标记、道路边界、标志、杆、树、静态对象、车辆和/或其他动态对象、等待条件、交叉路口、距离、深度、对象的维度等的检测。例如,检测可以对应于位置(例如,在2D图像空间中、在3D空间中等)、几何形状、姿势、语义信息和/或关于检测的其他信息。因此,对于车道线,车道线的位置和/或车道线的类型(例如,虚线、实线、黄色、白色、人行横道、自行车道等)可由处理传感器数据102的DNN 112检测。关于标志,标志的位置或其他等待条件信息和/或其类型(例如,让行、停止、行人过路处、交通灯、让行灯、建筑、速度限制、出口等)可以使用DNN 112检测。对于检测到的车辆、摩托车手和/或其他动态行为者或道路使用者,可以识别和/或追踪动态行为者的位置和/或类型,和/或可以用于确定场景中的等待条件(例如,当车辆相对于十字路口以某种方式行事时,例如要停下来,十字路口或与之对应的等待条件可能会被检测为带有停车标志的十字路口或红绿灯)。
在实施例中,DNN 112的输出114可以经历后处理,例如通过将原始输出转换为有用输出——例如,其中原始输出对应于每个点(例如,在LiDAR、RADAR等中)或像素(例如,对于相机图像)的置信度(点或像素对应于特定对象类型),可以执行后处理以确定对应于对象类型的单个实例的每个点或像素。这种后处理可以包括时间滤波、加权、异常值去除(例如,去除被确定为异常值的像素或点)、升尺度(例如,可以以比输入传感器数据实例更低的分辨率预测输出,并且输出可以被升尺度回输入分辨率)、降尺度、曲线拟合和/或其他后处理技术。在实施例中,在后处理之后,输出114可以在2D坐标空间(例如,图像空间、LiDAR范围图像空间等)中和/或可以在3D坐标系中。在输出114处于2D坐标空间和/或3D坐标空间而不是3D世界空间的实施例中,输出114可以被转换为与FOV投影116输出的投影FOV相同的坐标系(例如,转换为3D世界空间坐标系,原点位于车辆上的某个位置)。
在一些非限制性示例中,DNN 112和/或输出114可以类似于在2019年2月26日提交的美国非临时申请No.16/286,329、2019年3月15日提交的非临时申请No.16/355,328、2019年3月18日提交的美国非临时申请No.16/356,439、2019年4月16日提交的美国非临时申请No.16/385,921、2019年8月8日提交的美国非临时申请No.535,440、2019年12月27日提交的美国非临时申请No.16/728,595、2019年12月27日提交的美国非临时申请No.16/728,598、2020年3月9日提交的美国非临时申请No.16/813,306、2020年4月14日提交的美国非临时申请No.16/848,102、2020年3月10日提交的美国非临时申请No.16/814,351、2020年6月24日提交的美国非临时申请No.16/911,007和/或2019年7月17日提交的美国非临时申请No.16/514,230中描述的那些,其中每一个都通过引用整体并入本文。
FOV投影仪116可以使用来自眼睛追踪器106的眼睛追踪信息来确定一个或更多个乘员的注视方向和投影注视或视野。例如,关于图3,其中乘员正在看向右前方注视区域214C(图2B),特别是看过挡风玻璃302的右下部分,可以生成乘员的视野或注视的二维(2D)或三维(3D)(如图所示)投影306并将其扩展到车辆500外部的环境中。此外,如本文所述,一个或更多个DNN 112可以处理传感器数据102B以生成输出114,该输出114可用于(例如直接地和/或在后处理之后)确定环境中人304(例如,VRU)和标志310的位置(例如,边界形状、边界轮廓、边界框、点、像素等)。尽管示出了标志310和人304,但这并不旨在是限制性的,并且环境中感兴趣的对象或信息可以包括任何道路、对象、环境或其他信息,这取决于实施例。例如,静态对象、动态参与者、交叉路口(或与之对应的信息)、等待条件、车道线、道路边界、人行道、障碍物、标志、电线杆、树木、景观、从地图(例如,从高清地图)确定的信息、环境条件和/或其他信息可以经受使用比较器120进行的重叠比较。
对于非限制性示例,可以使用第一DNN 112来检测标志310,并且可以使用第二DNN112来检测人304。在其他示例中,可以使用相同的DNN112来检测标志310和人304两者。然后可以由比较器120将投影306(和/或对应于先前时间步长或帧的一个或更多个附加投影)与检测到的对象(例如,标志310和人304)进行比较,以确定乘员是否看到了检测到的对象。如果发生重叠(至少部分重叠),则可以确定乘员已经看到了对象。在一些实施例中,重叠确定可以包括重叠的阈值量,例如50%重叠(例如,边界形状的50%被投影306的某个部分重叠)、70%重叠、90%重叠等。在其他实施例中,任何重叠量都可以满足重叠确定,或者完全重叠可以满足重叠确定。
为了确定重叠,投影306和输出114可以在相同的坐标系中计算或转换到相同的坐标系。例如,投影306和输出114可以相对于共享(例如,世界空间)坐标系来确定,例如,其具有在车辆500上的位置处的原点,例如在轴(例如,车辆的后轴的中心)、前保险杠、挡风玻璃上等。因此,其中在2D图像空间、相对于不同原点的3D空间和/或以其他方式在2D或3D坐标中(其不是由比较器120使用的共享坐标空间)计算输出114的情况下,则输出114可以转换为共享坐标空间。
尽管被示为窄的投影306(例如,包括乘员视野的聚焦区域),但这并不旨在是限制性的。例如,在一些实施例中,除了乘员视场的一些或全部估计周边之外,投影306还可包括乘员视场内的注视焦点。在一些实施例中,重叠确定可以基于与对象重叠的投影306的部分(例如,相比于视场的外围部分,可以高度地等待视场的焦点或中心,直到确定乘员看到了对象)而进行加权。例如,在投影306的仅对应于乘员视野的外围的部分重叠的情况下,确定乘员没有看到对象,或者也可能必须满足一些其他标准来确定乘员已经看到对象(例如,可能必须满足外围的时间阈值,可能必须满足新近阈值,例如,对象在最后一秒内位于外围等等)。
在一些实施例中,在已经确定乘员已经看到对象的情况下,比较器120可以使用一个或更多个附加标准来做出最终确定。例如,持续时间(例如,连续的、一段时间内的累积等)和/或新近度(recency)可以被考虑在内。在这样的示例中,为了包括乘员已经看到对象的确认确定,乘员可能必须在持续时间阈值内看到对象(例如,使用重叠阈值确定为看到对象),例如,一定数量的帧,例如5或10帧,一段时间,例如半秒、一秒,两秒等。在一些实施例中,持续时间可以是一段时间或(滑动)时间窗口上的累积持续时间。对于非限制性示例,其中累积持续时间为一秒且时间段为五秒,其中重叠发生四分之一秒,然后三秒后另一重叠发生四分之三秒,在该时间段内可以满足累积持续时间并且可以确定乘员已经看到该对象。在一些示例中,可以附加地或替代地使用新近度确定,使得可能必须确定乘员已经在时间窗口内看到了对象。例如,乘员可能必须在当前帧或时间步长的三秒、五秒、十秒等内看到对象,以便最终确定乘员已经看到了对象。
比较器120可以在每个时间步长输出乘员看到对象的置信度(例如,基于重叠量、重叠持续时间、重叠的新近度等),重叠值(例如,百分比)、重叠持续时间、重叠新近度和/或乘员看到对象的另一个值、分数或概率。可以针对每个对象类型和/或其每个实例做出该确定。例如,在动作确定124包括通知确定器,并且系统被配置为针对未看见的(和/或未处理的)车道标记发出通知以及针对未看见的(和/或未处理的)行人发出通知的情况下,比较器120可以输出对应于每个车道标记的预测和对应于每个行人的预测(例如,在每个时间步长或帧处)。因此,状态机122和/或动作确定器124可以生成与车道标记、行人或其组合相对应的输出和/或做出确定。作为另一示例,在动作确定器124对应于一个或更多个ADAS系统的情况下,对应于车道标记的状态信息可以对应于与对应于行人的状态信息不同的动作。因此,来自比较器120的对应于不同对象类型和/或其实例的单独输出对于系统确定乘员相对于特定对象类型或实例的状态是有用的,并且对于动作确定器124确定要执行(或避免执行)的正确动作是有用的。
状态机122可以接收来自比较器120、注意力确定器108和/或认知负荷确定器110的输出作为输入,并且可以确定乘员(例如,驾驶员)的状态。在一些示例中,状态机122可以确定单个状态(例如,有意识、分心、专注等),在确定要执行或避免执行哪个(些)动作(例如,抑制通知)时,动作确定器124可以使用该状态。在其他示例中,状态机122可以确定关于每个对象类型和/或其实例的状态,动作确定器124可以使用该状态来确定一个或更多个不同类型的动作。在一些实施例中,状态机122可以基于各种级别或处理(例如分层状态确定过程)来确定一个或更多个状态。例如,在未满足重叠阈值(例如,重叠量、重叠持续时间、重叠新近度等)的情况下(例如,指示乘员可能没有看到和/或处理过该对象),可以确定无意识或注意力不集中的状态。在这样的示例中,可以不执行下一级处理——例如,以处理来自注意力确定器108和/或认知负荷确定器110的输出。因此,在比较器120尚未确定乘员已经看到对象(例如VRU)的情况下,可以执行由于没有看到对象而要执行的动作(例如,以生成和/或输出通知或警告,以激活ADAS系统,例如自动紧急制动(AEB)系统等)。
在一些实施例中,即使尚未满足重叠阈值,状态机122仍然可以处理来自注意力确定器108和/或认知负荷确定器110的输出以确定组合状态,例如,专心(例如,道路浏览行为表明专心)但无意识(例如,未满足重叠阈值且乘员可能没有看到对象)。在这样的示例中,可以执行不同的层或类型的动作。在具有AEB系统的上述示例中,其中乘员被确定为专心(和/或具有低认知负荷)但无意识,AEB系统可能不会被执行,但可以生成通知或警告,并且输出给乘员,例如,听觉、触觉、视觉和/或其他方式。在尚未满足重叠阈值并且注意力低和/或认知负荷高的示例中,可以采取更多的预防措施。例如,可以输出通知,可以执行ADAS系统,和/或(在车辆500是具有自主能力的车辆的情况下)可以接管自主控制(例如,以执行安全操作,例如靠边停车)。
在满足重叠阈值的情况下(例如,指示驾驶员已经看到了对象),状态机122可以使用来自注意力确定器108和/或认知负荷确定器110的输出来确定最终状态。例如,在乘员有意识的情况下(例如,如由来自比较器120的重叠信息所指示的),注意力分数、值、水平等和/或认知负荷分数、值、水平等可由状态机122分析以确定最终状态。因此,即使在确定乘员已经看到对象(例如,行人、车辆、等待条件、十字路口、杆、标志等)的情况下,状态机122也可以用于确定乘员已经处理对象感知的能力(例如,基于认知负荷)或可能性(例如,基于注意力)。例如,在驾驶员看到车辆(例如,基于驾驶员的估计视野和车辆位置的比较确定已经看到)在自我车辆500前方一定距离处,但是确定具有高认知负荷和/或低注意力(例如,基于热图、凝视等)的情况下,状态可包括有意识(例如,意识到车辆)但不专心(例如,可能尚未处理车辆的存在)。在这样的示例中,动作确定器124可以执行动作,就好像乘员未意识到对象一样,和/或可以发出较低级别的动作,例如发出通知或警告并且不执行ADAS系统(例如AEB)。
在一些实施例中,在确定状态时,状态机122的状态确定可以考虑环境条件(例如,天气、一天中的时间等)和/或驾驶条件(例如,交通、道路条件等)。例如,在一些实施例中,注意力、认知负荷和/或重叠确定可以考虑环境和/或驾驶条件,并且状态机122可以基于该信息确定状态。在其他实施例中,除了或代替注意力确定器108、认知负荷确定器110和/或比较器120考虑环境和/或驾驶条件,状态机122还可以在确定状态时考虑环境和/或驾驶条件。例如,某些值、分数和/或注意力水平可以在天气晴朗且外面光线明亮(例如,白天)时指示有意识和/或专心的驾驶员,但在当正在下雪和/或外面很暗(例如,夜间)表示无意识和/或不专心的驾驶员。
动作确定器124可以包括警告和通知系统、ADAS系统、自主驾驶软件栈的控制系统或控制层、自主驾驶栈的规划系统或层、防撞系统或层或自主驾驶栈、自主驾驶栈的致动系统或层等或是其一部分。动作确定器124可以根据状态所对应的主体(或对象)执行不同的动作。作为非限制性示例,对于驾驶表面上的动态对象(例如,车辆、行人、骑自行车者等),动作确定器124可以确定通知类型、要执行或参与的ADAS系统、要执行或参与的自主系统等。对于道路外的对象,例如电线杆、行人和/或类似物,动作确定器124可以确定通知类型但可能不使用任何ADAS或自主功能,除非车辆500当前也离开道路或朝向路外。对于等待条件(例如,路灯、停车标志等),动作确定器124可以确定要执行或参与的通知类型和/或ADAS系统(例如,在红灯的停车灯处停止车辆500)并且确定乘员没有看到红灯。
现在参考图4,本文描述的方法400的每个框包括可以使用硬件、固件和/或软件的任何组合来执行的计算过程。例如,各种功能可以由执行存储在存储器中的指令的处理器来执行。方法400还可以体现为存储在计算机存储介质上的计算机可用指令。方法400可以由独立应用、服务或托管服务(独立或与另一托管服务组合)或另一产品的插件提供,仅举几例。此外,通过示例的方式,关于图1的过程100描述了方法400。然而,该方法400可以附加地或替代地由任何一个进程和/或任何一个系统、或进程和/或系统的任何组合来执行,包括但不限于本文描述的那些。
图4是示出根据本公开的一些实施例的用于基于驾驶员注意力和/或认知负荷确定动作的方法400的流程图。在框B402,方法400包括确定车辆乘员的注视信息。例如,眼睛追踪器106可以确定注视信息(例如,注视矢量)和/或其他可用于确定车辆500的乘员(例如驾驶员)的当前注视或视野的信息。
在框B404,方法400包括将注视信息的表示投影到车辆外部。例如,可以基于注视信息生成投影(例如,图3的投影306),其中该投影可以对应于乘员视野的至少一部分。
在框B406,方法400包括使用一个或更多个DNN计算对应于车辆外部的一个或更多个对象的对象位置信息。例如,一个或更多个DNN 112可用于计算对应于车辆500外部环境中的一个或更多个对象、主体和/或其他信息的位置和/或语义信息。对于非限制性示例,可以使用DNN 112计算关于动态参与者、静态对象、等待条件、车道线、道路边界、电线杆和/或标志的位置和/或语义信息。
在框B408,方法400包括确定该表示与一个或更多个对象之间的阈值重叠是否得到满足。例如,比较器120可以将注视的表示(例如,投影306)与环境中的对象(例如,在相同坐标系内)进行比较,以确定是否发生阈值重叠量。阈值重叠量还可以包括确定重叠是否发生在从当前时间开始的时间窗口内、时间窗口内的累积时间量和/或足够长的连续持续时间。
在框B408不满足阈值重叠的情况下,方法400可以进行到框B410。框B410包括执行第一动作。例如,在没有阈值重叠量(和/或其他阈值未满足,例如新近度、持续时间等)的情况下,这可能表明乘员没有看到对象,可以执行第一动作。例如,可以生成和输出警告或通知,可以激活一个或更多个ADAS系统,等等。
在框B408满足阈值重叠的情况下,方法400可以进行到框B412。框B412包括确定乘员的认知负荷或乘员的注意力中的至少一项。例如,由于满足重叠阈值(例如,其指示乘员看到了对象),认知负荷确定器110可以确定乘员的认知负荷和/或注意力确定器108可以确定乘员的注意力。在框B414,该信息可用于确定乘员是否能够处理对象的感知。
在框B414,方法400包括确定认知负荷是否高于第一阈值和/或注意力是否低于第二阈值。例如,在认知负荷高于第一阈值的情况下(例如,其指示乘员当前不能处理对象的感知),方法400可以进行到框B416。类似地,在注意力低于第二阈值的情况下(其指示乘员当前没有能力处理对象的感知),方法400可以进行到框B416。在一些实施例中,注意力和认知负荷的某种组合可用于确定进行到框B416。框B416包括执行第二动作。例如,在实施例中,第二动作可以与第一动作相同。因此,在框B408确定乘员没有看到对象和/或确定乘员看到对象但没有完全处理对象的情况下(例如,由于高认知负荷和/或低注意力),执行的动作可以相同。然而,在一些实施例中,第二动作可以不同于第一动作。例如,在确定乘员已经看到对象,但是在框B414确定乘员可能没有完全处理对象的情况下,可以发出通知或警告,但是一个或更多个ADAS系统可能不会被执行(至少在最初)。作为另一示例,第一动作可以包括听觉和视觉警告,而第二动作可以仅包括视觉警告,例如,由于已经确定乘员已经看到对象,因此不太严重的警告。
作为另一示例,在认知负荷低于第一阈值的情况下(例如,其指示乘员当前更有能力处理对象的感知),方法400可以进行到框B418。类似地,在注意力高于第二阈值的情况下(例如,其指示乘员当前更有能力处理对象的感知),方法400可以进行到框B418。框B418包括执行第三动作。例如,在认知负荷低和/或注意力高,并且在框B408处已经确定乘员已经看到对象的情况下,可以执行第三动作。在一些实施例中,第三动作可以包括不执行动作或抑制动作,例如抑制通知。因此,在确定乘员已经看到对象并且具有低认知负荷和/或高注意力的情况下,可以抑制通知、ADAS系统和/或其他动作以减少警告、通知和/或车辆的自主或半自主激活的数量。因此,过程100和/或方法400可以执行分层决策树以基于乘员的状态确定要采取的动作。
示例自主车辆
图5A为根据本公开一些实施例的示例自主车辆500的图示。自主车辆500(可替代地,在本文称为“车辆500”)可以包括但不限于乘用车,例如汽车、卡车、公共汽车、急救车、穿梭车、电动或机动自行车、摩托车、消防车、警车、救护车、船、工程车辆、水下船只、无人机和/或其他类型的车辆(例如,无人驾驶和/或可容纳一名或多名乘客)。自主车辆通常按照美国运输部的一个部门——国家公路交通安全管理局(NHTSA)以及汽车工程师协会(SAE)“Taxonomy and Definitions for Terms Related to Driving Automation Systems forOn-Road Motor Vehicles”(2018年6月15日发布的标准No.J3016-201806,2016年9月30日发布的标准No.J3016-201609,以及该标准的先前和未来的版本)定义的自动化级别进行描述。车辆500可能够实现符合自主驾驶级别的3级-5级中的一个或更多个的功能。例如,取决于实施例,车辆500可能够实现条件自动化(3级)、高自动化(4级)和/或全自动化(5级)。
车辆500可以包括诸如底盘、车身、车轮(例如2个、4个、6个、8个、18个等)、轮胎、车轴之类的部件以及车辆的其他部件。车辆500可以包括推进系统550,例如内燃机、混合动力发电厂、全电动发动机和/或另一种推进系统类型。推进系统550可以连接到可以包括变速器的车辆500的传动系以便实现车辆500的推进。可以响应于接收到来自油门/加速器552的信号而控制推进系统550。
可以包括方向盘的转向(steering)系统554可以用来在推进系统550操作时(例如在车辆运动时)使车辆500转向(例如沿着希望的路径或路线)。转向系统554可以接收来自转向致动器556的信号。对于全自动(5级)功能而言,方向盘可以是可选的。
制动传感器系统546可以用来响应于接收到来自制动致动器548和/或制动传感器的信号而操作车辆制动器。
可以包括一个或更多个片上系统(SoC)504(图5C)和/或一个或更多个GPU的一个或更多个控制器536可以向车辆500的一个或更多个部件和/或系统提供(例如表示命令的)信号。例如,一个或更多个控制器可以发送经由一个或更多个制动致动器548操作车辆制动器、经由一个或更多个转向致动器556操作转向系统554、经由一个或更多个油门/加速器552操作推进系统550的信号。一个或更多个控制器536可以包括一个或更多个板载(例如集成)计算设备(例如超级计算机),所述计算设备处理传感器信号并且输出操作命令(例如表示命令的信号),以实现自主驾驶和/或辅助人类驾驶员驾驶车辆500。一个或更多个控制器536可以包括用于自主驾驶功能的第一控制器536、用于功能性安全功能的第二控制器536、用于人工智能功能(例如计算机视觉)的第三控制器536、用于信息娱乐功能的第四控制器536、用于紧急情况下的冗余的第五控制器536和/或其他控制器。在一些示例中,单个控制器536可以处理上述功能中的两个或更多,两个或更多控制器536可以处理单个功能,和/或其任意组合。
一个或更多个控制器536可以响应于接收自一个或更多个传感器的传感器数据(例如传感器输入),提供用于控制车辆500的一个或更多个部件和/或系统的信号。传感器数据可以接收自例如且不限于全球导航卫星系统传感器558(例如全球定位系统传感器)、RADAR传感器560、超声传感器562、LIDAR传感器564、惯性测量单元(IMU)传感器566(例如加速度计、陀螺仪、磁罗盘、磁力计等)、麦克风596、立体相机568、广角相机570(例如鱼眼相机)、红外相机572、环绕相机574(例如360度相机)、远程和/或中程相机598、速度传感器544(例如用于测量车辆500的速率)、振动传感器542、转向传感器540、制动传感器(例如作为制动传感器系统546的部分)和/或其他传感器类型。
控制器536中的一个或更多个可以接收来自车辆500的仪表组532的输入(例如由输入数据表示),并且经由人机接口(HMI)显示器534、听觉信号器、扬声器和/或经由车辆500的其他部件提供输出(例如输出数据、显示数据等表示的)。这些输出可以包括诸如车辆速度、速率、时间、地图数据(例如图5C的HD地图522)、位置数据(例如,车辆500例如在地图上的位置)、方向、其他车辆的位置(例如占用网格)之类的信息,如控制器536所感知的关于对象和对象状态的信息等等。例如,HMI显示器534可以显示关于一个或更多个对象(例如街道指示牌、警示牌、交通灯变化等)的存在性的信息和/或关于车辆已经做出、正在做出或者将会做出的驾驶机动的信息(例如现在变道、两英里后离开34B,等等)。
车辆500进一步包括网络接口524,其可以使用一个或更多个无线天线526和/或调制解调器通过一个或更多个网络通信。例如,网络接口524可能够通过LTE、WCDMA、UMTS、GSM、CDMA2000等通信。一个或更多个无线天线526也可以使用诸如蓝牙、蓝牙LE、Z波、ZigBee等等之类的一个或更多个局域网和/或诸如LoRaWAN、SigFox等等之类的一个或更多个低功率广域网(LPWAN)实现环境中的对象(例如车辆、移动设备等等)之间的通信。
图5B为根据本公开一些实施例的用于图5A的示例自主车辆500的相机位置和视场的示例。相机和各自的视场是一个示例实施例,并不意图是限制性的。例如,可以包括附加的和/或可替换的相机,和/或这些相机可以位于车辆500上的不同位置。
用于相机的相机类型可以包括但不限于可以适于与车辆500的部件和/或系统一起使用的数字相机。所述相机可以在汽车安全完整性级别(ASIL)B下和/或在另一个ASIL下操作。相机类型可以具有任何图像捕获率,例如60帧每秒(fps)、120fps、240fps等等,这取决于实施例。相机可能够使用滚动快门、全局快门、另一种类型的快门或者其组合。在一些示例中,滤色器阵列可以包括红白白白(RCCC)滤色器阵列、红白白蓝(RCCB)滤色器阵列、红蓝绿白(RBGC)滤色器阵列、Foveon X3滤色器阵列、拜耳传感器(RGGB)滤色器阵列、单色传感器滤色器阵列和/或另一种类型的滤色器阵列。在一些实施例中,诸如具有RCCC、RCCB和/或RBGC滤色器阵列的相机之类的清晰像素相机可以用在提高光敏感度的努力中。
在一些示例中,所述相机中的一个或更多个可以用来执行高级驾驶员辅助系统(ADAS)功能(例如作为冗余或故障安全设计的部分)。例如,可以安装多功能单目相机以提供包括车道偏离警告、交通指示牌辅助和智能前照灯控制在内的功能。所述相机中的一个或更多个(例如全部相机)可以同时记录和提供图像数据(例如视频)。
所述相机中的一个或更多个可以安装在诸如定制设计的(3-D打印的)组件之类的安装组件中,以便切断可能干扰相机的图像数据捕获能力的杂散光和来自汽车内的反射(例如挡风玻璃镜中反射的来自仪表板的反射)。关于翼镜安装组件,翼镜组件可以是定制3-D打印的,使得相机安装板匹配翼镜的形状。在一些示例中,一个或更多个相机可以集成到翼镜中。对于侧视相机而言,一个或更多个相机也可以集成到驾驶室每个拐角的四根柱子内。
具有包括车辆500前面的环境部分的视场的相机(例如前置相机)可以用于环视,以帮助识别前向路径和障碍,以及在一个或更多个控制器536和/或控制SoC的帮助下辅助提供对于生成占用网格和/或确定优选车辆路径至关重要的信息。前置相机可以用来执行许多与LIDAR相同的ADAS功能,包括紧急制动、行人检测和碰撞避免。前置相机也可以用于ADAS功能和系统,包括车道偏离警告(“LDW”)、自主巡航控制(“ACC”),和/或诸如交通指示牌识别之类的其他功能。
各种各样的相机可以用于前置配置中,包括例如包括CMOS(互补金属氧化物半导体)彩色成像仪在内的单目相机平台。另一个示例可以是广角相机570,其可以用来感知从周边进入视野的对象(例如行人、十字路口交通或者自行车)。尽管图5B中图示出仅仅一个广角相机,但是在车辆500上可以存在任意数量的广角相机570。此外,远程相机598(例如长视立体相机对)可以用于基于深度的对象检测,尤其是用于尚未针对其训练神经网络的对象。远程相机598也可以用于对象检测和分类以及基本的对象跟踪。
一个或更多个立体相机568也可以包括在前置配置中。立体相机568可以包括集成控制单元,该单元包括可扩展处理单元,其可以提供在单个芯片上具有集成的CAN或以太网接口的多核微处理器和可编程逻辑(FPGA)。这样的单元可以用来生成车辆环境的3-D地图,包括针对图像中的所有点的距离估计。可替代的立体相机568可以包括紧凑型立体视觉传感器,其可以包括两个相机镜头(左右各一个)以及可以测量从车辆到目标对象的距离并且使用生成的信息(例如元数据)激活自主紧急制动和车道偏离警告功能的图像处理芯片。除了本文所描述的那些之外或者可替代地,可以使用其他类型的立体相机568。
具有包括车辆500的侧面的环境部分的视场的相机(例如侧视相机)可以用于环视,提供用来创建和更新占用网格以及生成侧撞击碰撞警告的信息。例如,环绕相机574(例如如图5B中所示的四个环绕相机574)可以置于车辆500上。环绕相机574可以包括广角相机570、鱼眼相机、360度相机和/或类似物。四个示例,四个鱼眼相机可以置于车辆的前面、后面和侧面。在一种可替代的布置中,车辆可以使用三个环绕相机574(例如左边、右边和后面),并且可以利用一个或更多个其他相机(例如前向相机)作为第四环视相机。
具有包括车辆500后面的环境部分的视场的相机(例如后视相机)可以用于辅助停车、环视、后面碰撞警告以及创建和更新占用网格。可以使用各种各样的相机,包括但不限于也适合作为如本文所描述的前置相机(例如远程和/或中程相机598、立体相机568、红外相机572等等)的相机。
图5C为根据本公开一些实施例的用于图5A的示例自主车辆500的示例系统架构的框图。应当理解,这种布置和本文描述的其他布置仅仅作为示例而被阐述。除了所示的那些之外或者代替它们的是,可以使用其他的布置和元素(例如机器、接口、功能、顺序、功能分组等等),并且一些元素可以完全省略。进一步,许多本文描述的元素是功能实体,其可以实现为分立的或分布式部件或者结合其他部件实现,以及以任何适当的组合和位置实现。本文描述为由实体执行的各个功能可以通过硬件、固件和/或软件实现。例如,各个功能可以通过处理器执行存储在内存中的指令而实现。
图5C中车辆500的部件、特征和系统中的每一个被图示为经由总线502连接。总线502可以包括控制器区域网络(CAN)数据接口(可替代地,本文称为“CAN总线”)。CAN可以是车辆500内部的网络,用来辅助控制车辆500的各种特征和功能,例如制动器、加速、制动、转向、挡风玻璃雨刷等等的驱动。CAN总线可以被配置为具有数十或者甚至数百个节点,每个节点具有其自己的唯一标识符(例如CAN ID)。可以读取CAN总线以找到方向盘角度、地速、每分钟发动机转速(RPM)、按钮位置和/或其他车辆状态指示符。CAN总线可以是ASIL B兼容的。
尽管这里将总线502描述为CAN总线,但是这并不意图是限制性的。例如,除了CAN总线之外或者可替代地,可以使用FlexRay和/或以太网。此外,尽管用单条线来表示总线502,但是这并不意图是限制性的。例如,可以存在任意数量的总线502,其可以包括一条或更多条CAN总线、一条或更多条FlexRay总线、一条或更多条以太网总线和/或一条或更多条使用不同协议的其他类型的总线。在一些示例中,两条或更多总线502可以用来执行不同的功能,和/或可以用于冗余。例如,第一总线502可以用于碰撞避免功能,并且第二总线502可以用于驱动控制。在任何示例中,每条总线502可以与车辆500的任何部件通信,并且两条或更多总线502可以与相同的部件通信。在一些示例中,车辆内的每个SoC 504、每个控制器536和/或每个计算机可以有权访问相同的输入数据(例如来自车辆500的传感器的输入),并且可以连接到诸如CAN总线之类的公共总线。
车辆500可以包括一个或更多个控制器536,例如本文关于图5A所描述的那些控制器。控制器536可以用于各种各样的功能。控制器536可以耦合到车辆500的任何其他不同的部件和系统,并且可以用于车辆500的控制、车辆500的人工智能、用于车辆500的信息娱乐和/或类似物。
车辆500可以包括一个或更多个片上系统(SoC)504。SoC 504可以包括CPU 506、GPU 508、处理器510、高速缓存512、加速器514、数据存储516和/或未图示出的其他部件和特征。在各种各样的平台和系统中,SoC 504可以用来控制车辆500。例如,一个或更多个SoC504可以在系统(例如车辆500的系统)中与HD地图522结合,所述HD地图可以经由网络接口524从一个或更多个服务器(例如图5D的一个或更多个服务器578)获得地图刷新和/或更新。
CPU 506可以包括CPU簇或CPU复合体(替代地,本文称为“CCPLEX”)。CPU 506可以包括多个核和/或L2高速缓存。例如,在一些实施例中,CPU 506在一致性多处理器配置中可以包括八个核。在一些实施例中,CPU 506可包括四个双核簇,其中每个簇具有专用的L2高速缓存(例如2MB L2高速缓存)。CPU 506(例如CCPLEX)可以被配置为支持同时簇操作,使得CPU 506的簇的任意组合能够在任何给定时间是活动的。
CPU 506可以实现包括以下特征中的一个或更多个的功率管理能力:各硬件块在空闲时可以自动进行时钟门控以节省动态功率;由于WFI/WFE指令的执行,每个核时钟可以在该核不主动地执行指令时进行门控;每个核可以独立地进行功率门控;当所有核都进行时钟门控或者功率门控时,可以独立地对每个核簇进行时钟门控;和/或当所有核都进行功率门控时,可以独立地对每个核簇进行功率门控。CPU 506可以进一步实现用于管理功率状态的增强算法,其中指定允许的功率状态和期望的唤醒时间,并且硬件/微代码为所述核、簇和CCPLEX确定要进入的最佳的功率状态。处理核可以在软件中支持简化的功率状态进入序列,该工作被卸载到微代码。
GPU 508可以包括集成的GPU(可替代地,本文称为“iGPU”)。GPU 508可以是可编程的,并且对于并行工作负载而言是高效的。在一些示例中,GPU 508可以使用增强张量指令集。GPU 508可以包括一个或更多个流式微处理器,其中每个流式微处理器可以包括L1高速缓存(例如具有至少96KB存储能力的L1高速缓存),并且这些流式微处理器中的两个或更多可以共享L2高速缓存(例如具有512KB存储能力的L2高速缓存)。在一些实施例中,GPU 508可以包括至少八个流式微处理器。GPU 508可以使用计算应用编程接口(API)。此外,GPU508可以使用一个或更多个并行计算平台和/或编程模型(例如NVIDIA的CUDA)。
在汽车和嵌入式使用的情况下,可以对GPU 508进行功率优化以实现最佳性能。例如,可以在鳍式场效应晶体管(FinFET)上制造GPU 508。然而,这并不意图是限制性的,并且GPU 508可以使用其他半导体制造工艺来制造。每个流式微处理器可以合并划分成多个块的若干混合精度处理核。例如且非限制性地,可以将64个PF32核和32个PF64核划分成四个处理块。在这样的示例中,每个处理块可以分配16个FP32核、8个FP64核、16个INT32核、用于深层学习矩阵算术的两个混合精度NVIDIA张量核、L0指令高速缓存、线程束(warp)调度器、分派单元和/或64KB寄存器文件。此外,流式微处理器可以包括独立的并行整数和浮点数据路径,以利用计算和寻址计算的混合提供工作负载的高效执行。流式微处理器可以包括独立线程调度能力,以允许实现并行线程之间的更细粒度的同步和协作。流式微处理器可以包括组合的L1数据高速缓存和共享内存单元,以便在简化编程的同时提高性能。
GPU 508可以包括在一些示例中提供大约900GB/s的峰值内存带宽的高带宽内存(HBM)和/或16GB HBM2内存子系统。在一些示例中,除了HBM内存之外或者可替代地,可以使用同步图形随机存取存储器(SGRAM),例如第五代图形双倍数据速率同步随机存取存储器(GDDR5)。
GPU 508可以包括统一内存技术,其包括访问计数器以允许内存页面更精确地迁移到最频繁地访问它们的处理器,从而提高处理器之间共享的内存范围的效率。在一些示例中,地址转换服务(ATS)支持可以用来允许GPU 508直接访问CPU 506页表。在这样的示例中,当GPU 508内存管理单元(MMU)经历遗漏时,可以将地址转换请求传输至CPU 506。作为响应,CPU 506可以在其页表中寻找用于地址的虚拟-物理映射,并且将转换传输回GPU508。这样,统一内存技术可以允许单个统一虚拟地址空间用于CPU 506和GPU 508二者的内存,从而简化了GPU 508编程和将应用程序移(port)到GPU 508。
此外,GPU 508可以包括访问计数器,其可以跟踪GPU 508访问其他处理器的内存的频率。访问计数器可以帮助确保内存页面移至最频繁地访问这些页面的处理器的物理内存。
SoC 504可以包括任意数量的高速缓存512,包括本文描述的那些高速缓存。例如,高速缓存512可以包括CPU 506和GPU 508二者可用的L3高速缓存(例如,其连接到CPU 506和GPU 508二者)。高速缓存512可以包括回写高速缓存,其可以例如通过使用高速缓存一致性协议(例如MEI、MESI、MSI等)跟踪行的状态。取决于实施例,L3高速缓存可以包括4MB或者更多,但是也可以使用更小的高速缓存大小。
SoC 504可包括一个或更多个算术逻辑单元(ALU),其可用于执行关于车辆500的各种任务或操作中的任一个的处理,例如处理DNN。此外,SoC 504可以包括浮点单元(FPU)或其他数学协处理器或数字协处理器类型,用于在系统内执行数学运算。例如,SoC 104可以包括一个或更多个集成为CPU 506和/或GPU 508内的执行单元的FPU。
SoC 504可以包括一个或更多个加速器514(例如硬件加速器、软件加速器或者其组合)。例如,SoC 504可以包括硬件加速簇,其可以包括优化的硬件加速器和/或大型片上内存。该大型片上内存(例如4MB SRAM)可以使得硬件加速簇能够加速神经网络和其他计算。硬件加速簇可以用来补充GPU 508,并且卸载GPU 508的一些任务(例如释放GPU 508的更多周期以用于执行其他任务)。作为一个示例,加速器514可以用于足够稳定以易于控制加速的有针对性的工作负载(例如感知、卷积神经网络(CNN)等等)。当在本文中使用时,术语“CNN”可以包括所有类型的CNN,包括基于区域的或者区域卷积神经网络(RCNN)和快速RCNN(例如用于对象检测)。
加速器514(例如硬件加速簇)可以包括深度学习加速器(DLA)。DLA可以包括可以被配置成为深度学习应用和推理提供额外的每秒10万亿次操作的一个或更多个张量处理单元(TPU)。TPU可以是被配置为执行图像处理功能(例如用于CNN、RCNN等)且针对执行图像处理功能而优化的加速器。DLA可以进一步针对特定的一组神经网络类型和浮点运算以及推理进行优化。DLA的设计可以比通用GPU提供每毫米更高的性能,并且远远超过CPU的性能。TPU可以执行若干功能,包括单实例卷积函数,支持例如用于特征和权重二者的INT8、INT16和FP16数据类型,以及后处理器功能。
DLA可以在处理的或者未处理的数据上针对各种各样的功能中的任何功能快速且高效地执行神经网络,尤其是CNN,例如且不限于:用于使用来自相机传感器的数据进行对象识别和检测的CNN;用于使用来自相机传感器的数据进行距离估计的CNN;用于使用来自麦克风的数据进行应急车辆检测和识别与检测的CNN;用于使用来自相机传感器的数据进行面部识别和车主识别的CNN;和/或用于安全和/或安全相关事件的CNN。
DLA可以执行GPU 508的任何功能,并且通过使用推理加速器,例如,设计者可以使DLA或GPU 508针对任何功能。例如,设计者可以将CNN的处理和浮点运算聚焦在DLA上,并且将其他功能留给GPU 508和/或其他加速器514。
加速器514(例如硬件加速簇)可以包括可编程视觉加速器(PVA),其在本文中可以可替代地称为计算机视觉加速器。PVA可以被设计和配置为加速用于高级驾驶员辅助系统(ADAS)、自主驾驶和/或增强现实(AR)和/或虚拟现实(VR)应用的计算机视觉算法。PVA可以提供性能与灵活性之间的平衡。例如,每个PVA可以包括例如且不限于任意数量的精简指令集计算机(RISC)核、直接内存访问(DMA)和/或任意数量的向量处理器。
RISC核可以与图像传感器(例如本文描述的任何相机的图像传感器)、图像信号处理器和/或类似物交互。这些RISC核中的每一个可以包括任意数量的内存。取决于实施例,RISC核可以使用若干协议中的任何协议。在一些示例中,RISC核可以执行实时操作系统(RTOS)。RISC核可以使用一个或更多个集成电路设备、专用集成电路(ASIC)和/或存储设备实现。例如,RISC核可以包括指令高速缓存和/或紧密耦合的RAM。
DMA可以使得PVA的部件能够独立于CPU 506访问系统内存。DMA可以支持用来向PVA提供优化的任意数量的特征,包括但不限于支持多维寻址和/或循环寻址。在一些示例中,DMA可以支持高达六个或更多维度的寻址,其可以包括块宽度、块高度、块深度、水平块步进、竖直块步进和/或深度步进。
向量处理器可以是可编程处理器,其可以被设计为高效且灵活地执行用于计算机视觉算法的编程并且提供信号处理能力。在一些示例中,PVA可以包括PVA核和两个向量处理子系统分区。PVA核可以包括处理器子系统、一个或更多个DMA引擎(例如两个DMA引擎)和/或其他外围设备。向量处理子系统可以作为PVA的主处理引擎而操作,并且可以包括向量处理单元(VPU)、指令高速缓存和/或向量内存(例如VMEM)。VPU核可以包括数字信号处理器,诸如例如单指令多数据(SIMD)、超长指令字(VLIW)数字信号处理器。SIMD和VLIW的组合可以增强吞吐量和速率。
向量处理器中的每一个可以包括指令高速缓存并且可以耦合到专用内存。结果,在一些示例中,向量处理器中的每一个可以被配置为独立于其他向量处理器执行。在其他示例中,包括在特定PVA中的向量处理器可以被配置为采用数据并行化。例如,在一些实施例中,包括在单个PVA中的多个向量处理器可以执行相同的计算机视觉算法,但是在图像的不同区域上执行。在其他示例中,包括在特定PVA中的向量处理器可以在相同的图像上同时执行不同的计算机视觉算法,或者甚至在序列图像或者图像的部分上执行不同的算法。除其他的以外,任意数量的PVA可以包括在硬件加速簇中,并且任意数量的向量处理器可以包括在这些PVA中的每一个中。此外,PVA可以包括附加的纠错码(ECC)内存,以增强总体系统安全性。
加速器514(例如硬件加速簇)可以包括片上计算机视觉网络和SRAM,以提供用于加速器514的高带宽、低延迟SRAM。在一些示例中,片上内存可以包括由例如且不限于八个现场可配置的内存块组成的至少4MB SRAM,其可以由PVA和DLA二者访问。每对内存块可以包括高级外围总线(APB)接口、配置电路系统、控制器和复用器。可以使用任何类型的内存。PVA和DLA可以经由向PVA和DLA提供高速内存访问的主干(backbone)访问内存。主干可以包括(例如使用APB)将PVA和DLA互连到内存的片上计算机视觉网络。
片上计算机视觉网络可以包括在传输任何控制信号/地址/数据之前确定PVA和DLA二者都提供就绪且有效的信号的接口。这样的接口可以提供用于传输控制信号/地址/数据的单独相位和单独信道,以及用于连续数据传输的突发式通信。这种类型的接口可以符合ISO 26262或者IEC 61508标准,但是也可以使用其他标准和协议。
在一些示例中,SoC 504可以包括例如在2018年8月10日提交的美国专利申请No.16/101,232中描述的实时光线追踪硬件加速器。该实时光线追踪硬件加速器可以用来快速且高效地确定(例如世界模型内的)对象的位置和范围,以便生成实时可视化仿真,以用于RADAR信号解释、用于声音传播合成和/或分析、用于SONAR系统仿真、用于一般波传播仿真、用于为了定位和/或其他功能的目的与LIDAR数据相比较和/或用于其他用途。在一些实施例中,一个或更多个树遍历单元(TTU)可用于执行一个或更多个光线追踪相关操作。
加速器514(例如硬件加速器簇)具有广泛的自主驾驶用途。PVA可以是可编程视觉加速器,其可以用于ADAS和自主车辆中的关键处理阶段。PVA的能力是需要可预测处理、低功率和低延迟的算法域的良好匹配。换言之,PVA在半密集或者密集规则计算上,甚至在需要具有低延迟和低功率的可预测运行时间的小数据集上都表现良好。因此,在用于自主车辆的平台的背景下,PVA被设计为运行经典计算机视觉算法,因为它们在对象检测和整数数学运算方面很有效。
例如,根据该技术的一个实施例,PVA用来执行计算机立体视觉。在一些示例中,可以使用基于半全局匹配的算法,但是这并不意图是限制性的。许多用于3-5级自主驾驶的应用都需要即时运动估计/立体匹配(例如来自运动的结构、行人识别、车道检测等等)。PVA可以在来自两个单目相机的输入上执行计算机立体视觉功能。
在一些示例中,PVA可以用来执行密集的光流。根据过程原始RADAR数据(例如使用4D快速傅立叶变换)以提供经处理的RADAR。在其他示例中,PVA用于飞行时间深度处理,其例如通过处理原始飞行时间数据以提供经处理的飞行时间数据。
DLA可以用来运行任何类型的网络以增强控制和驾驶安全性,包括例如输出用于每个对象检测的置信度度量的神经网络。这样的置信度值可以解释为概率,或者解释为提供每个检测与其他检测相比的相对“权重”。该置信度值使得系统能够做出关于哪些检测应当被认为是真阳性检测而不是假阳性检测的进一步决策。例如,系统可以为置信度设置阈值,并且仅仅将超过阈值的检测看作真阳性检测。在自动紧急制动(AEB)系统中,假阳性检测会使得车辆自动地执行紧急制动,这显然是不希望的。因此,只有最确信的检测才应当被认为是AEB的触发因素。DLA可以运行用于回归置信度值的神经网络。该神经网络可以将至少一些参数子集作为其输入,例如边界框维度,(例如从另一个子系统)获得的地平面估计,与车辆500取向、距离相关的惯性测量单元(IMU)传感器566输出,从神经网络和/或其他传感器(例如LiDAR传感器564或RADAR传感器560)获得的对象的3D位置估计等。
SoC 504可以包括一个或更多个数据存储516(例如内存)。数据存储516可以是SoC504的片上内存,其可以存储要在GPU和/或DLA上执行的神经网络。在一些示例中,为了冗余和安全,数据存储516可以容量足够大以存储神经网络的多个实例。数据存储512可以包括L2或L3高速缓存512。对数据存储516的引用可以包括对与如本文所描述的PVA、DLA和/或其他加速器514关联的内存的引用。
SoC 504可以包括一个或更多个处理器510(例如嵌入式处理器)。处理器510可以包括启动和功率管理处理器,其可以是用于处理启动功率和管理功能以及有关安全实施的专用处理器和子系统。启动和功率管理处理器可以是SoC 504启动序列的一部分,并且可以提供运行时间功率管理服务。启动功率和管理处理器可以提供时钟和电压编程、辅助系统低功率状态转换、SoC 504热和温度传感器管理和/或SoC 504功率状态管理。每个温度传感器可以实现为环形振荡器,其输出频率与温度成比例,并且SoC 504可以使用环形振荡器检测CPU 506、GPU 508和/或加速器514的温度。如果确定温度超过阈值,那么启动和功率管理处理器可以进入温度故障例程并且将SoC 504置于较低功率状态和/或将车辆500置于司机安全停车模式(例如使车辆500安全停车)。
处理器510可以进一步包括可以用作音频处理引擎的一组嵌入式处理器。音频处理引擎可以是一种音频子系统,其允许实现对于通过多个接口的多声道音频的完全硬件支持以及一系列广泛而灵活的音频I/O接口。在一些示例中,音频处理引擎是具有带有专用RAM的数字信号处理器的专用处理器核。
处理器510可以进一步包括始终在处理器上的引擎,其可以提供必要的硬件特征以支持低功率传感器管理和唤醒用例。该始终在处理器上的引擎可以包括处理器核、紧密耦合的RAM、支持外围设备(例如定时器和中断控制器)、各种I/O控制器外围设备和路由逻辑。
处理器510可以进一步包括安全簇引擎,其包括处理汽车应用的安全管理的专用处理器子系统。安全簇引擎可以包括两个或更多处理器核、紧密耦合的RAM、支持外围设备(例如定时器、中断控制器等等)和/或路由逻辑。在安全模式下,所述两个或更多核可以操作于锁步模式下,并且用作具有检测它们的操作之间的任何差异的比较逻辑的单核。
处理器510可以进一步包括实时相机引擎,其可以包括用于处理实时相机管理的专用处理器子系统。
处理器510可以进一步包括高动态范围信号处理器,其可以包括图像信号处理器,该图像信号处理器是一种硬件引擎,该硬件引擎是相机处理管线的部分。
处理器510可以包括可以是(例如微处理器上实现的)处理块的视频图像复合器,其实现视频回放应用程序产生用于播放器窗口的最终图像所需的视频后处理功能。视频图像复合器可以对广角相机570、环绕相机574和/或对驾驶室内监控相机传感器执行镜头畸变校正。驾驶室内监控相机传感器优选地由运行在高级SoC的另一个实例上的神经网络监控,被配置为识别驾驶室内事件并且相对应地做出响应。驾驶室内系统可以执行唇读,以激活移动电话服务并拨打电话、口述电子邮件、改变车辆目的地、激活或改变车辆的信息娱乐系统和设置或者提供语音激活的网上冲浪。某些功能仅在车辆操作于自主模式下时对于驾驶员可用,并且在其他情况下被禁用。
视频图像复合器可以包括用于空间和时间降噪的增强时间降噪。例如,在视频中出现运动的情况下,降噪适当地对空间信息加权,降低邻近帧提供的信息的权重。在图像或者图像的部分不包括运动的情况下,视频图像复合器执行的时间降噪可以使用来自先前的图像的信息以降低当前图像中的噪声。
视频图像复合器也可以被配置为对输入立体镜头帧执行立体校正。当操作系统桌面正在使用并且GPU 508无需连续地渲染(render)新的表面时,视频图像复合器可以进一步用于用户接口组成。甚至在GPU 508上电并且激活,进行3D渲染时,视频图像复合器可以用来减轻GPU 508的负担以提高性能和响应能力。
SoC 504可以进一步包括用于从相机接收视频和输入的移动行业处理器接口(MIPI)相机串行接口、高速接口和/或可以用于相机和有关像素输入功能的视频输入块。SoC 504可以进一步包括可以由软件控制并且可以用于接收未提交到特定角色的I/O信号的输入/输出控制器。
SoC 504可以进一步包括大范围的外围设备接口,以使能与外围设备、音频编解码器、功率管理和/或其他设备通信。SoC 504可以用来处理来自(通过千兆多媒体串行链路和以太网连接的)相机、传感器(例如可以通过以太网连接的LiDAR传感器564、RADAR传感器560等等)的数据,来自总线502的数据(例如车辆500的速率、方向盘位置等等),来自(通过以太网或CAN总线连接的)GNSS传感器558的数据。SoC 504可以进一步包括专用高性能大容量存储控制器,其可以包括它们自己的DMA引擎,并且其可以用来从日常数据管理任务中释放CPU 506。
SoC 504可以是具有灵活架构的端到端平台,该架构跨越自动化3-5级,从而提供利用和高效使用计算机视觉和ADAS技术以实现多样性和冗余、连同深度学习工具一起提供用于灵活可靠驾驶软件堆栈的平台的综合功能安全架构。SoC 504可以比常规的系统更快、更可靠,甚至更加能量高效和空间高效。例如,当与CPU 506、GPU 508和数据存储516结合时,加速器514可以提供用于3-5级自主车辆的快速高效平台。
因此该技术提供了不能通过常规系统实现的能力和功能。例如,计算机视觉算法可以在CPU上执行,这些CPU可以使用诸如C编程语言之类的高级编程语言配置为跨各种各样的视觉数据执行各种各样的处理算法。然而,CPU常常不能满足许多计算机视觉应用的性能要求,诸如与例如执行时间和功耗有关的那些要求。特别地,许多CPU不能实时地执行复杂的对象检测算法,这是车载ADAS应用的要求和实用3-5级自主车辆的要求。
与常规系统形成对比的是,通过提供CPU复合体、GPU复合体和硬件加速簇,本文描述的技术允许同时和/或顺序地执行多个神经网络,并且将结果组合在一起以实现3-5级自主驾驶功能。例如,在DLA或dGPU(例如GPU 520)上执行的CNN可以包括文本和单词识别,允许超级计算机读取和理解交通指示牌,包括尚未针对其特别地训练神经网络的指示牌。DLA可以进一步包括能够识别、解释和提供对指示牌的语义理解,并且将该语义理解传递给运行在CPU复合体上的路径规划模块的神经网络。
作为另一个示例,如3、4或5级驾驶所需的,多个神经网络可以同时运行。例如,由“注意:闪烁的灯指示结冰条件”组成的警告指示牌连同电灯可以由若干神经网络独立地或者共同地进行解释。指示牌本身可以由部署的第一神经网络(例如经过训练的神经网络)识别为交通指示牌,文本“闪烁的灯指示结冰条件”可以由部署的第二神经网络解释,该部署的第二神经网络告知车辆的路径规划软件(优选地在CPU复合体上执行)当检测到闪烁的灯时,存在结冰条件。闪烁的灯可以通过在多个帧上操作部署的第三神经网络而识别,该神经网络告知车辆的路径规划软件闪烁的灯的存在(或不存在)。所有三个神经网络可以例如在DLA内和/或在GPU 508上同时运行。
在一些示例中,用于面部识别和车主识别的CNN可以使用来自相机传感器的数据识别车辆500的授权的驾驶员和/或车主的存在。始终在传感器上的处理引擎可以用来在车主接近驾驶员车门时解锁车辆并且打开灯,并且在安全模式下,在车主离开车辆时禁用车辆。按照这种方式,SoC 504提供了防范盗窃和/或劫车的安全性。
在另一个示例中,用于应急车辆检测和识别的CNN可以使用来自麦克风596的数据来检测并且识别应急车辆警报(siren)。与使用通用分类器检测警报并且手动地提取特征的常规系统形成对比的是,SoC 504使用CNN以对环境和城市声音分类以及对视觉数据分类。在优选的实施例中,运行在DLA上的CNN被训练为识别应急车辆的相对关闭速率(例如通过使用多普勒效应)。CNN也可以被训练为识别如GNSS传感器558所识别的特定于车辆在其中操作的局部区域的应急车辆。因此,例如,当在欧洲操作时,CNN将寻求检测欧洲警报,并且当在美国时,CNN将寻求识别仅仅北美的警报。一旦检测到应急车辆,在超声传感器562的辅助下,控制程序可以用来执行应急车辆安全例程,使车辆放慢速度,开到路边,停下车辆,和/或使车辆空转,直到应急车辆通过。
车辆可以包括可以经由高速互连(例如PCIe)耦合到SoC 504的CPU 518(例如分立的CPU或dCPU)。CPU 518可以包括例如X86处理器。CPU 518可以用来执行各种各样的功能中的任何功能,包括例如仲裁ADAS传感器与SoC 504之间潜在地不一致的结果,和/或监控控制器536和/或信息娱乐SoC 530的状态和健康状况。
车辆500可以包括可以经由高速互连(例如NVIDIA的NVLINK)耦合到SoC 504的GPU520(例如分立的GPU或dGPU)。GPU 520可以例如通过执行冗余的和/或不同的神经网络而提供附加的人工智能功能,并且可以用来基于来自车辆500的传感器的输入(例如传感器数据)来训练和/或更新神经网络。
车辆500可以进一步包括网络接口524,该网络接口可以包括一个或更多个无线天线526(例如用于不同通信协议的一个或更多个无线天线,例如蜂窝天线、蓝牙天线等等)。网络接口524可以用来使能通过因特网与云(例如与服务器578和/或其他网络设备)、与其他车辆和/或与计算设备(例如乘客的客户端设备)的无线连接。为了与其他车辆通信,可以在这两辆车之间建立直接链接,和/或可以建立间接链接(例如跨网络以及通过因特网)。直接链接可以使用车对车通信链路提供。车对车通信链路可以向车辆500提供关于接近车辆500的车辆(例如车辆500前面、侧面和/或后面的车辆)的信息。该功能可以是车辆500的协作自适应巡航控制功能的部分。
网络接口524可以包括提供调制和解调功能并且使得控制器536能够通过无线网络通信的SoC。网络接口524可以包括用于从基带到射频的上转换以及从射频到基带的下转换的射频前端。频率转换可以通过公知的过程执行,和/或可以使用超外差(super-heterodyne)过程执行。在一些示例中,射频前端功能可以由单独的芯片提供。网络接口可以包括用于通过LTE、WCDMA、UMTS、GSM、CDMA2000、蓝牙、蓝牙LE、Wi-Fi、Z波、ZigBee、LoRaWAN和/或其他无线协议通信的无线功能。
车辆500可以进一步包括可包括片外(例如SoC 504外)存储装置的数据存储528。数据存储528可以包括一个或更多个存储元件,包括RAM、SRAM、DRAM、VRAM、闪存、硬盘和/或可以存储至少一个比特的数据的其他部件和/或设备。
车辆500可以进一步包括GNSS传感器558。GNSS传感器558(例如GPS、辅助GPS传感器、差分GPS(DGPS)传感器等)用于辅助映射、感知、占用网格生成和/或路径规划功能。可以使用任意数量的GNSS传感器558,包括例如且不限于使用带有以太网到串行(RS-232)网桥的USB连接器的GPS。
车辆500可以进一步包括RADAR传感器560。RADAR传感器560可以甚至在黑暗和/或恶劣天气条件下也由车辆500用于远程车辆检测。RADAR功能安全级别可以是ASIL B。RADAR传感器560可以使用CAN和/或总线502(例如以传输RADAR传感器560生成的数据)以用于控制以及访问对象跟踪数据,在一些示例中接入以太网以访问原始数据。可以使用各种各样的RADAR传感器类型。例如且非限制性地,RADAR传感器560可以适合前面、后面和侧面RADAR使用。在一些示例中,使用脉冲多普勒RADAR传感器。
RADAR传感器560可以包括不同的配置,例如具有窄视场的远程、具有宽视场的短程、短程侧覆盖等等。在一些示例中,远程RADAR可以用于自适应巡航控制功能。远程RADAR系统可以提供通过两个或更多独立浏览实现的广阔视场(例如250m范围内)。RADAR传感器560可以帮助区分静态对象和运动对象,并且可以由ADAS系统用于紧急制动辅助和前方碰撞警告。远程RADAR传感器可以包括具有多根(例如六根或更多)固定RADAR天线以及高速CAN和FlexRay接口的单站多模RADAR。在具有六根天线的示例中,中央四根天线可以创建聚焦的波束图案,其被设计为在更高速率下以来自邻近车道的最小交通干扰记录车辆500的周围环境。其他两根天线可以扩展视场,使得快速地检测进入或离开车辆500的车道的车辆成为可能。
作为一个示例,中程RADAR系统可以包括高达560m(前面)或80m(后面)的范围以及高达42度(前面)或550度(后面)的视场。短程RADAR系统可以包括但不限于被设计为安装在后保险杠两端的RADAR传感器。当安装在后保险杠两端时,这样的RADAR传感器系统可以创建持续地监控后方和车辆旁边的盲点的两个波束。
短程RADAR系统可以在ADAS系统中用于盲点检测和/或变道辅助。
车辆500可以进一步包括超声传感器562。可以置于车辆500的前面、后面和/或侧面的超声传感器562可以用于停车辅助和/或创建和更新占用网格。可以使用各种各样的超声传感器562,并且不同的超声传感器562可以用于不同的检测范围(例如2.5m、4m)。超声传感器562可以操作于功能安全级别的ASIL B。
车辆500可以包括LiDAR传感器564。LiDAR传感器564可以用于对象和行人检测、紧急制动、碰撞避免和/或其他功能。LiDAR传感器564可以为功能安全级别的ASIL B。在一些示例中,车辆500可以包括可以使用以太网(例如以将数据提供给千兆以太网交换机)的多个LiDAR传感器564(例如两个、四个、六个等等)。
在一些示例中,LiDAR传感器564可能够对360度视场提供对象列表及其距离。商业上可用的LiDAR传感器564可以具有例如近似500m的广告范围,精度为2cm-3cm,支持500Mbps以太网连接。在一些示例中,可以使用一个或更多个非突出的LiDAR传感器564。在这样的示例中,LiDAR传感器564可以实现为可以嵌入到车辆500的前面、后面、侧面和/或拐角的小设备。在这样的示例中,LiDAR传感器564可以甚至对于低反射率对象提供高达120度水平的和35度竖直的视场,具有200m的范围。前面安装的LiDAR传感器564可以被配置用于45度与135度之间的水平视场。
在一些示例中,也可以使用诸如3D闪光LiDAR之类的LiDAR技术。3D闪光LiDAR使用激光的闪光作为发射源,以照亮高达约200m的车辆周围环境。闪光LiDAR单元包括接受器,该接受器将激光脉冲传输时间和反射光记录在每个像素上,其进而与从车辆到对象的范围相对应。闪光LiDAR可以允许利用每个激光闪光生成周围环境的高度精确且无失真的图像。在一些示例中,可以部署四个闪光LiDAR传感器,车辆500的每一侧一个。可用的3D闪光LiDAR系统包括没有风扇以外的运动部件(moving part)的固态3D凝视阵列LiDAR相机(例如非浏览LiDAR设备)。闪光LiDAR设备可以使用每帧5纳秒I类(眼睛安全)激光脉冲,并且可以以3D范围点云和共同寄存的强度数据的形式捕获反射的激光。通过使用闪光LiDAR,并且因为闪光LiDAR是没有运动部件的固态设备,LiDAR传感器564可以不太容易受到运动模糊、振动和/或震动的影响。
该车辆可以进一步包括IMU传感器566。在一些示例中,IMU传感器566可以位于车辆500的后轴的中心。IMU传感器566可以包括例如且不限于加速度计、磁力计、陀螺仪、磁罗盘和/或其他传感器类型。在一些示例中,例如在六轴应用中,IMU传感器566可以包括加速度计和陀螺仪,而在九轴应用中,IMU传感器566可以包括加速度计、陀螺仪和磁力计。
在一些实施例中,IMU传感器566可以实现为微型高性能GPS辅助惯性导航系统(GPS/INS),其结合微机电系统(MEMS)惯性传感器、高灵敏度GPS接收器和高级卡尔曼滤波算法以提供位置、速度和姿态的估计。这样,在一些示例中,IMU传感器566可以使得车辆500能够在无需来自磁传感器的输入的情况下通过直接观察从GPS到IMU传感器566的速度变化并且将其相关来估计方向(heading)。在一些示例中,IMU传感器566和GNSS传感器558可以结合到单个集成单元中。
该车辆可以包括置于车辆500中和/或车辆500周围的麦克风596。除别的以外,麦克风596可以用于应急车辆检测和识别。
该车辆可以进一步包括任意数量的相机类型,包括立体相机568、广角相机570、红外相机572、环绕相机574、远程和/或中程相机598和/或其他相机类型。这些相机可以用来捕获车辆500整个外围周围的图像数据。使用的相机类型取决于实施例和车辆500的要求,并且相机类型的任意组合可以用来提供车辆500周围的必要覆盖。此外,相机的数量可以根据实施例而不同。例如,该车辆可以包括六个相机、七个相机、十个相机、十二个相机和/或另一数量的相机。作为一个示例且非限制性地,这些相机可以支持千兆多媒体串行链路(GMSL)和/或千兆以太网。所述相机中的每一个在本文关于图5A和图5B更详细地进行了描述。
车辆500可以进一步包括振动传感器542。振动传感器542可以测量车辆的诸如车轴之类的部件的振动。例如,振动的变化可以指示道路表面的变化。在另一个示例中,当使用两个或更多振动传感器542时,振动之间的差异可以用来确定道路表面的摩擦或滑移(例如当动力驱动轴与自由旋转轴之间存在振动差异时)。
车辆500可以包括ADAS系统538。在一些示例中,ADAS系统538可以包括SoC。ADAS系统538可以包括自主/自适应/自动巡航控制(ACC)、协作自适应巡航控制(CACC)、前方撞车警告(FCW)、自动紧急制动(AEB)、车道偏离警告(LDW)、车道保持辅助(LKA)、盲点警告(BSW)、后方穿越交通警告(RCTW)、碰撞警告系统(CWS)、车道居中(LC)和/或其他特征和功能。
ACC系统可以使用RADAR传感器560、LiDAR传感器564和/或相机。ACC系统可以包括纵向ACC和/或横向ACC。纵向ACC监控并控制到紧接在车辆500前方的车辆的距离,并且自动地调节车速以维持离前方车辆的安全距离。横向ACC执行距离保持,并且在必要时建议车辆500改变车道。横向ACC与诸如LCA和CWS之类的其他ADAS应用程序有关。
CACC使用来自其他车辆的信息,该信息可以经由网络接口524和/或无线天线526经由无线链路或者通过网络连接(例如通过因特网)间接地从其他车辆接收。直接链接可以由车对车(V2V)通信链路提供,而间接链接可以是基础设施到车辆(I2V)的通信链路。通常,V2V通信概念提供关于紧接在前的车辆(例如紧接在车辆500前方且与其处于相同车道的车辆)的信息,而I2V通信概念提供关于前方更远处的交通的信息。CACC系统可以包括I2V和V2V信息源中的任一个或者二者。给定车辆500前方车辆的信息,CACC可以更加可靠,并且它有可能提高交通流的畅通性且降低道路拥堵。
FCW系统被设计为提醒驾驶员注意危险,使得驾驶员可以采取纠正措施。FCW系统使用耦合到专用处理器、DSP、FPGA和/或ASIC的前置相机和/或RADAR传感器560,该专用处理器、DSP、FPGA和/或ASIC电耦合至诸如显示器、扬声器和/或振动部件之类的驾驶员反馈。FCW系统可以提供例如声音、视觉警告、振动和/或快速制动脉冲形式的警告。
AEB系统检测即将发生的与另一车辆或其他对象的前方碰撞,并且可以在驾驶员在指定的时间或距离参数内没有采取纠正措施的情况下自动地应用制动器。AEB系统可以使用耦合到专用处理器、DSP、FPGA和/或ASIC的前置相机和/或RADAR传感器560。当AEB系统检测到危险时,它典型地首先提醒(alert)驾驶员采取纠正措施以避免碰撞,并且如果驾驶员没有采取纠正措施,那么AEB系统可以自动地应用制动器以努力防止或者至少减轻预测的碰撞的影响。AEB系统可以包括诸如动态制动支持和/或碰撞迫近制动之类的技术。
LDW系统提供了诸如方向盘或座位振动之类的视觉、听觉和/或触觉警告,以在车辆500穿过车道标记时提醒驾驶员。当驾驶员指示有意偏离车道时,通过激活转弯信号,不激活LDW系统。LDW系统可以使用耦合到专用处理器、DSP、FPGA和/或ASIC的前侧朝向相机,该专用处理器、DSP、FPGA和/或ASIC电耦合至诸如显示器、扬声器和/或振动部件之类的驾驶员反馈。
LKA系统是LDW系统的变型。如果车辆500开始离开车道,那么LKA系统提供纠正车辆500的转向输入或制动。
BSW系统检测并向驾驶员警告汽车盲点中的车辆。BSW系统可以提供视觉、听觉和/或触觉警报以指示合并或改变车道是不安全的。系统可以在驾驶员使用转弯信号时提供附加的警告。BSW系统可以使用耦合到专用处理器、DSP、FPGA和/或ASIC的后侧朝向相机和/或RADAR传感器560,该专用处理器、DSP、FPGA和/或ASIC电耦合至诸如显示器、扬声器和/或振动部件之类的驾驶员反馈。
RCTW系统可以在车辆500倒车时在后置相机范围之外检测到对象时提供视觉、听觉和/或触觉通知。一些RCTW系统包括AEB以确保应用车辆制动器以避免撞车。RCTW系统可以使用耦合到专用处理器、DSP、FPGA和/或ASIC的一个或更多个后置RADAR传感器560,该专用处理器、DSP、FPGA和/或ASIC电耦合至诸如显示器、扬声器和/或振动部件之类的驾驶员反馈。
常规的ADAS系统可能易于出现假阳性结果,这可能会让驾驶员烦恼并分散注意力,但是典型地不是灾难性的,因为ADAS系统提醒驾驶员并且允许驾驶员决定安全条件是否真正存在并且相对应地采取行动。然而,在自主车辆500中,在冲突结果的情况下,车辆500本身必须决定是否注意(heed)来自主计算机或者辅助计算机(例如第一控制器536或第二控制器536)的结果。例如,在一些实施例中,ADAS系统538可以是用于向备用计算机合理性模块提供感知信息的备用和/或辅助计算机。备用计算机合理性监视器可以在硬件部件上运行冗余多样的软件,以检测感知和动态驾驶任务中的故障。来自ADAS系统538的输出可以提供给监督MCU。如果来自主计算机和辅助计算机的输出冲突,那么监督MCU必须确定如何协调该冲突以确保安全操作。
在一些示例中,主计算机可以被配置为向监督MCU提供置信度评分,指示主计算机对所选结果的置信度。如果置信度评分超过阈值,那么监督MCU可以遵循主计算机的方向,而不管辅助计算机是否提供冲突或不一致的结果。在置信度评分不满足阈值的情况下并且在主计算机和辅助计算机指示不同的结果(例如冲突)的情况下,监督MCU可以在这些计算机之间进行仲裁以确定适当的结果。
监督MCU可以被配置为运行神经网络,所述神经网络被训练并且被配置为基于来自主计算机和辅助计算机的输出,确定辅助计算机提供假警报的条件。因此,监督MCU中的神经网络可以了解何时可以信任辅助计算机的输出以及何时不能。例如,当辅助计算机为基于RADAR的FCW系统时,监督MCU中的神经网络可以了解FCW系统何时正在识别事实上不是危险的金属对象,例如触发警报的排水栅格或井盖。类似地,当辅助计算机是基于相机的LDW系统时,监督MCU中的神经网络可以学习在骑车者或行人在场并且车道偏离实际上是最安全的策略时无视该LDW。在包括运行在监督MCU上的神经网络的实施例中,监督MCU可以包括适合于利用关联的内存运行神经网络的DLA或GPU中的至少一个。在优选的实施例中,监督MCU可以包括SoC 504的部件和/或作为SoC 504的部件而被包括。
在其他示例中,ADAS系统538可以包括使用传统计算机视觉规则执行ADAS功能的辅助计算机。这样,辅助计算机可以使用经典的计算机视觉规则(如果-那么),并且在监督MCU中存在神经网络可以提高可靠性、安全性和性能。例如,多样化的实现方式和有意的非完全相同(non-identity)使得整个系统更加容错,对于软件(或者软件-硬件接口)功能造成的故障而言尤其如此。例如,如果在主计算机上运行的软件中存在软件漏洞或错误并且运行在辅助计算机上的非完全相同的软件代码提供相同的总体结果,那么监督MCU可以更加确信总体结果是正确的,并且主计算机上的软件或硬件中的漏洞不造成实质性的错误。
在一些示例中,ADAS系统538的输出可以馈送至主计算机的感知块和/或主计算机的动态驾驶任务块。例如,如果ADAS系统538由于对象紧接在前的原因而指示前方碰撞警告,那么感知块可以在识别对象时使用该信息。在其他示例中,辅助计算机可以具有它自己的神经网络,其被训练并且因此如本文所描述的降低假阳性的风险。
车辆500可以进一步包括信息娱乐SoC 530(例如车载信息娱乐系统(IVI))。尽管被图示和描述为SoC,但是信息娱乐系统可以不是SoC,并且可以包括两个或更多分立的部件。信息娱乐SoC 530可以包括可以用来向车辆500提供音频(例如音乐、个人数字助理、导航指令、新闻、广播等等)、视频(例如TV、电影、流媒体等等)、电话(例如免提呼叫)、网络连接(例如LTE、Wi-Fi等等)和/或信息服务(例如导航系统,后停车援助,无线电数据系统,诸如燃油水平、覆盖的总距离、制动燃油水平、油位、车门开/关、空气过滤器信息之类的车辆有关信息,等等)的硬件和软件的组合。例如,信息娱乐SoC 530可以包括收音机、盘播放器、导航系统、视频播放器、USB和蓝牙连接、车载电脑、车载娱乐、Wi-Fi、方向盘音频控件、免提语音控件、平视显示器(HUD)、HMI显示器534、远程信息处理设备、控制面板(例如用于控制各种部件、特征和/或系统,和/或与其交互)和/或其他部件。信息娱乐SoC 530可以进一步用来向车辆的用户提供信息(例如视觉的和/或听觉的),例如来自ADAS系统538的信息,诸如规划的车辆机动、轨迹、周围环境信息(例如交叉路口信息、车辆信息、道路信息等等)之类的自主驾驶信息,和/或其他信息。
信息娱乐SoC 530可以包括GPU功能。信息娱乐SoC 530可以通过总线502(例如CAN总线、以太网等)与车辆500的其他设备、系统和/或部件通信。在一些示例中,信息娱乐SoC530可以耦合至监督MCU,使得在主控制器536(例如车辆500的主和/或备用计算机)出现故障的情况下,信息娱乐系统的GPU可以执行一些自驾驶功能。在这样的示例中,信息娱乐SoC530可以如本文所描述的将车辆500置于司机安全停车模式。
车辆500可以进一步包括仪表组532(例如数字仪表板、电子仪表组、数字仪表面板等等)。仪表组532可以包括控制器和/或超级计算机(例如分立的控制器或超级计算机)。仪表组532可以包括一套仪器,例如车速表、燃油水平、油压、转速表、里程表、转弯指示器、换档位置指示器、安全带警告灯、停车制动警告灯、发动机故障灯、安全气囊(SRS)系统信息、照明控件、安全系统控件、导航信息等等。在一些示例中,信息可以被显示和/或在信息娱乐SoC 530和仪表组532之间共享。换言之,仪表组532可以作为信息娱乐SoC 530的部分而被包括,或者反之亦然。
图5D为根据本公开一些实施例的基于云的服务器与图5A的示例自主车辆500之间的通信的系统示意图。系统576可以包括服务器578、网络590以及包括车辆500在内的车辆。服务器578可以包括多个GPU 584(A)-584(H)(这里统称为GPU 584)、PCIe交换机582(A)-582(H)(这里统称为PCIe交换机582)和/或CPU 580(A)-580(B)(这里统称为CPU 580)。GPU584、CPU 580和PCIe交换机可以与诸如例如且不限于NVIDIA开发的NVLink接口588之类的高速互连和/或PCIe连接586互连。在一些示例中,GPU 584经由NVLink和/或NVSwitch SoC连接,并且GPU 584和PCIe交换机582经由PCIe互连连接。尽管图示出八个GPU 584、两个CPU580和两个PCIe交换机,但是这并不意图是限制性的。取决于实施例,服务器578中的每一个可以包括任意数量的GPU 584、CPU 580和/或PCIe交换机。例如,服务器578中的每一个可以包括八个、十六个、三十二个和/或更多GPU 584。
服务器578可以通过网络590并且从车辆接收图像数据,该图像数据表示示出诸如最近开始的道路工程之类的意外或改变的道路状况的图像。服务器578可以通过网络590并且向车辆传输神经网络592、更新的神经网络592和/或地图信息594,包括关于交通和道路状况的信息。对地图信息594的更新可以包括对于HD地图522的更新,例如关于建筑工地、坑洼、弯道、洪水或其他障碍物的信息。在一些示例中,神经网络592、更新的神经网络592和/或地图信息594可以已从新的训练和/或从环境中的任意数量的车辆接收的数据中表示和/或基于数据中心处执行的训练(例如使用服务器578和/或其他服务器)的经验产生。
服务器578可以用来基于训练数据训练机器学习模型(例如神经网络)。训练数据可以由车辆生成,和/或可以在仿真中生成(例如使用游戏引擎)。在一些示例中,训练数据被标记(例如在神经网络受益于有监督学习的情况下)和/或经历其他预处理,而在其他示例中,训练数据不被标记和/或预处理(例如在神经网络无需有监督学习的情况下)。训练可以根据任何一类或更多类机器学习技术来执行,包括但不限于以下类:监督训练、半监督训练、无监督训练、自学习、强化学习、联合学习、迁移学习、特征学习(包括主成分和聚类分析)、多线性子空间学习、流形学习、表示学习(包括备用字典学习)、基于规则的机器学习、异常检测及其任何变体或组合。一旦机器学习模型被训练,机器学习模型可以由车辆使用(例如通过网络590传输至车辆),和/或机器学习模型可以由服务器578用来远程地监控车辆。
在一些示例中,服务器578可以接收来自车辆的数据,并且将该数据应用到最新的实时神经网络以用于实时智能推理。服务器578可以包括由GPU 584供电的深度学习超级计算机和/或专用AI计算机,例如NVIDIA开发的DGX和DGX站机器。然而,在一些示例中,服务器578可以包括仅使用CPU供电的数据中心的深度学习基础设施。
服务器578的深度学习基础设施可能够快速实时推理,并且可以使用该能力来评估并验证车辆500中的处理器、软件和/或关联硬件的健康状况。例如,深度学习基础设施可以接收来自车辆500的定期更新,例如图像序列和/或车辆500已经定位的位于该图像序列中的对象(例如经由计算机视觉和/或其他机器学习对象分类技术)。深度学习基础设施可以运行它自己的神经网络以识别对象并且将它们与车辆500识别的对象相比较,如果结果不匹配并且该基础设施得出车辆500中的AI发生故障的结论,那么服务器578可以向车辆500传输信号,指示车辆500的故障保护计算机进行控制,通知乘客,并且完成安全停车操作。
为了推理,服务器578可以包括GPU 584和一个或更多个可编程推理加速器(例如NVIDIA的TensorRT 3)。GPU供电的服务器和推理加速的组合可以使得实时响应成为可能。在其他示例中,例如在性能不那么重要的情况下,CPU、FPGA和其他处理器供电的服务器可以用于推理。
示例计算设备
图6为适合用于实现本公开一些实施例的示例计算设备600的框图。计算设备600可以包括直接或间接耦合下列设备的互连系统602:内存604,一个或更多个中央处理单元(CPU)606,一个或更多个图形处理单元(GPU)608,通信接口610,输入/输出(I/O)端口612,输入/输出组件614,电源616,一个或更多个呈现组件618(例如显示器)和一个或更多个逻辑单元620。在至少一个实施例中,计算设备600可以包括一个或更多个虚拟机(VM),和/或其任何组件可以包括虚拟组件(例如,虚拟硬件组件)。对于非限制性示例,一个或更多个GPU 608可以包括一个或更多个vGPU,一个或更多个CPU 606可以包括一个或更多个vCPU,和/或一个或更多个逻辑单元620可以包括一个或更多个虚拟逻辑单元。因此,计算设备600可以包括分立组件(例如,专用于计算设备600的完整GPU)、虚拟组件(例如,专用于计算设备600的GPU的一部分),或其组合。
尽管图6的各个框被示为经由具有线路的互连系统602连接,但是这并不意图是限制性的,并且仅仅为了清楚起见。例如,在一些实施例中,诸如显示设备之类的呈现组件618可以被认为是I/O组件614(例如如果显示器为触摸屏)。作为另一个示例,CPU 606和/或GPU608可以包括内存(例如,内存604可以表示除了GPU 608、CPU 606和/或其他组件的内存以外的存储设备)。换言之,图6的计算设备仅仅是说明性的。在诸如“工作站”、“服务器”、“膝上型电脑”、“台式机”、“平板电脑”、“客户端设备”、“移动设备”、“手持式设备”、“游戏控制台”、“电子控制单元(ECU)”、“虚拟现实系统”和/或其他设备或系统类型之类的类别之间不进行区分,因为所有这些都被考虑在图6的计算设备的范围内。
互连系统602可以表示一条或更多条链路或总线,例如地址总线、数据总线、控制总线或者其组合。互连系统602可以包括一种或更多种链路或总线类型,例如行业标准架构(ISA)总线、扩展行业标准架构(EISA)总线、视频电子标准协会(VESA)总线、外围组件互连(PCI)总线、外围组件互连快速(PCIe)总线,和/或另一种类型的总线或链路。在一些实施例中,组件之间存在直接连接。作为示例,CPU 606可以直接连接到存储器604。此外,CPU 606可以直接连接到GPU 608。在组件之间存在直接或点对点连接的情况下,互连系统602可以包括PCIe链路来执行该连接。在这些示例中,计算设备600中不需要包括PCI总线。
内存604可以包括各种各样的计算机可读介质中的任何介质。计算机可读介质可以是可以由计算设备600访问的任何可用介质。计算机可读介质可以包括易失性和非易失性介质以及可移除和不可移除介质。举例而言且非限制性地,计算机可读介质可以包括计算机存储介质和通信介质。
计算机存储介质可以包括易失性和非易失性介质和/或可移除和不可移除介质,其以用于存储诸如计算机可读指令、数据结构、程序模块和/或其他数据类型之类的信息的任何方法或技术实现。例如,内存604可以存储计算机可读指令(例如其表示程序和/或程序元素,例如操作系统)。计算机存储介质可以包括但不限于RAM、ROM、EEPROM、闪存或者其他存储技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储装置、磁带盒、磁带、磁盘存储装置或其他磁存储设备,或者可以用来存储期望的信息且可以由计算设备600访问的任何其他介质。当在本文使用时,计算机存储介质并不包括信号本身。
计算机存储介质可以在诸如载波之类的调制数据信号或其他传输机制中包含计算机可读指令、数据结构、程序模块和/或其他数据类型,并且包括任何信息输送介质。术语“调制数据信号”可以指这样的信号,该信号使它的特性中的一个或更多个以这样的将信息编码到该信号中的方式设置或改变。举例而言且非限制性地,计算机存储介质可以包括诸如有线网络或直接有线连接之类的有线介质,以及诸如声音、RF、红外和其他无线介质之类的无线介质。任何以上所述的组合也应当包含在计算机可读介质的范围内。
CPU 606可以被配置为执行计算机可读指令中的至少一些,以便控制计算设备600的一个或更多个组件执行本文描述的方法和/或过程中的一个或更多个。CPU 606中的每一个可以包括能够同时处理大量软件线程的一个或更多个核(例如一个、两个、四个、八个、二十八个、七十二个等等)。CPU 606可以包括任何类型的处理器,并且可以包括不同类型的处理器,这取决于实现的计算设备600的类型(例如具有用于移动设备的较少核的处理器以及具有用于服务器的更多核的处理器)。例如,取决于计算设备600的类型,处理器可以是使用精简指令集计算(RISC)实现的高级RISC机制(ARM)处理器或者使用复杂指令集计算(CISC)实现的x86处理器。除了一个或更多个微处理器或者诸如数学协处理器之类的补充协处理器之外,计算设备600还可以包括一个或更多个CPU 606。
除了或替代CPU 606,GPU 608还可以被配置为执行至少一些计算机可读指令,以控制计算设备600的一个或更多个组件执行一个或更多个本文所述的方法和/或过程。一个或更多个GPU 608可以是集成GPU(例如,具有一个或更多个CPU 606)和/或一个或更多个GPU 608可以是离散GPU。在实施例中,一个或更多个GPU 608可以是一个或更多个CPU 606的协处理器。计算设备600可以使用GPU 608来渲染图形(例如,3D图形)或执行通用计算。例如,GPU 608可用于GPU上的通用计算(GPGPU)。GPU 608可以包括能够同时处理数百或数千个软件线程的数百或数千个核。GPU 608可以响应于渲染命令(例如经由主机接口接收的来自CPU 606的渲染命令)而生成用于输出图像的像素数据。GPU 608可以包括诸如显示内存之类的用于存储像素数据或任何其他合适的数据(例如GPGPU数据)的图形内存。显示内存可以作为内存604的部分而被包括。GPU 608可以包括(例如经由链路)并行操作的两个或更多GPU。链路可以直接连接GPU(例如,使用NVLINK),也可以通过交换机(例如,使用NVSwitch)连接GPU。当组合在一起时,每个GPU 608可以生成用于输出的不同部分或者用于不同输出的像素数据或GPGPU数据(例如,第一GPU用于第一图像,第二GPU用于第二图像)。每个GPU可以包括它自己的内存,或者可以与其他GPU共享内存。
除了或替代CPU 606和/或GPU 608,逻辑单元620可以被配置为执行至少一些计算机可读指令,以控制计算设备600的一个或更多个组件来执行本文描述的一种或更多种方法和/或过程。在实施例中,CPU 606、GPU 608和/或逻辑单元620可以离散地或联合地执行方法、过程和/或其部分的任何组合。一个或更多个逻辑单元620可以是一个或更多个CPU606和/或一个或更多个GPU 608的一部分和/或集成在其中,和/或一个或更多个逻辑单元620可以是CPU 606和/或GPU 608的离散组件或以其他方式在其外部。在实施例中,一个或更多个逻辑单元620可以是一个或更多个CPU 606和/或一个或更多个GPU 608的处理器。
逻辑单元620的示例包括一个或更多个处理核心和/或其组件,例如张量核心(TC)、张量处理单元(TPU)、像素视觉核心(PVC)、视觉处理单元(VPU)、图形处理集群(GPC)、纹理处理集群(TPC)、流式多处理器(SM)、树遍历单元(TTU)、人工智能加速器(AIA)、深度学习加速器(DLA)、算术逻辑单元(ALU))、专用集成电路(ASIC)、浮点单元(FPU)、输入/输出(I/O)元件、外围组件互连(PCI)或外围组件互连快速(PCIe)元件等。
通信接口610可以包括一个或更多个接收器、发送器和/或收发器,其使得计算设备600能够经由电子通信网络与其他计算设备通信,包括有线和/或无线通信。通信接口610可以包括使能通过若干不同网络中的任何网络进行通信的组件和功能,所述网络例如无线网络(例如Wi-Fi、Z波、蓝牙、蓝牙LE、ZigBee等等)、有线网络(例如通过以太网或InfiniBand通信)、低功率广域网(例如LoRaWAN、SigFox等等)和/或因特网。
I/O端口612可以使得计算设备600能够逻辑地耦合到包括I/O组件614、呈现组件618和/或其他组件在内的其他设备,其中一些可以内置到(例如集成到)计算设备600中。说明性I/O组件614包括麦克风、鼠标、键盘、操纵杆、游戏垫、游戏控制器、碟形卫星天线、浏览仪、打印机、无线设备等等。I/O组件614可以提供处理用户生成的空中手势、语音或其他生理输入的自然用户接口(NUI)。在一些实例中,输入可以传输至适当的网络元件以便进一步处理。NUI可以实现语音识别、手写笔识别、面部识别、生物特征识别、屏幕上和邻近屏幕的手势识别、空中手势、头部和眼睛跟踪以及与计算设备600的显示器关联的触摸识别(如下文更详细地描述的)的任意组合。计算设备600可以包括诸如立体相机系统之类的深度相机、红外相机系统、RGB相机系统、触摸屏技术以及这些的组合,以用于手势检测和识别。此外,计算设备600可以包括使能运动检测的加速度计或陀螺仪(例如作为惯性测量单元(IMU)的部分)。在一些示例中,加速度计或陀螺仪的输出可以由计算设备600用来渲染沉浸式增强现实或者虚拟现实。
电源616可以包括硬接线电源、电池电源或者其组合。电源616可以向计算设备600供电以使得计算设备600的组件能够操作。
呈现组件618可以包括显示器(例如监视器、触摸屏、电视屏幕、平视显示器(HUD)、其他显示器类型或者其组合)、扬声器和/或其他呈现组件。呈现组件618可以接收来自其他组件(例如GPU 608、CPU 606等等)的数据,并且输出该数据(例如作为图像、视频、声音等等)。
示例数据中心
图7示出了示例数据中心700,其可用于本公开的至少一个实施例中。数据中心700可以包括数据中心基础设施层710、框架层720、软件层730和应用层740。
如图7所示,数据中心基础设施层710可以包括资源协调器712、分组的计算资源714和节点计算资源(“节点C.R.”)716(1)-716(N),其中“N”代表任何完整的正整数。在至少一个实施例中,节点C.R.716(1)-716(N)可以包括但不限于任何数量的中央处理单元(“CPU”)或其他处理器(包括加速器、现场可编程门阵列(FPGA)、图形处理器或图形处理单元(GPU)等),内存设备(例如动态只读内存),存储设备(例如固态硬盘或磁盘驱动器),网络输入/输出(“NW I/O”)设备,网络交换机,虚拟机(“VM”),电源模块和冷却模块等。在一些实施例中,节点C.R.716(1)-716(N)中的一个或更多个节点C.R.可以对应于具有一个或更多个上述计算资源的服务器。此外,在一些实施例中,节点C.R.716(1)-716(N)可以包括一个或更多个虚拟组件,例如vGPU、vCPU等,和/或节点C.R.716(1)-716(N)中的一个或更多个可以对应于虚拟机(VM)。
在至少一个实施例中,分组的计算资源714可以包括容纳在一个或更多个机架内的节点C.R.716的单独分组(未示出),或者容纳在各个地理位置的数据中心内的许多机架(也未示出)。分组的计算资源714内的节点C.R.716的单独分组可以包括可以被配置或分配为支持一个或更多个工作负载的分组的计算、网络、内存或存储资源。在至少一个实施例中,可以将包括CPU、GPU和/或其他处理器的几个节点C.R.716分组在一个或更多个机架内,以提供计算资源来支持一个或更多个工作负载。一个或更多个机架还可以包括以任意组合的任何数量的电源模块、冷却模块和/或网络交换机。
资源协调器722可以配置或以其他方式控制一个或更多个节点C.R.716(1)-716(N)和/或分组的计算资源714。在至少一个实施例中,资源协调器722可以包括用于数据中心700的软件设计基础结构(“SDI”)管理实体。资源协调器可以包括硬件、软件或其某种组合。
在至少一个实施例中,如图7所示,框架层720可以包括作业调度器732、配置管理器734、资源管理器736和分布式文件系统738。框架层720可以包括支持软件层730的软件732和/或应用程序层740的一个或更多个应用程序742的框架。软件732或应用程序742可以分别包括基于Web的服务软件或应用程序,例如由Amazon Web Services,Google Cloud和Microsoft Azure提供的服务软件或应用程序。框架层720可以是但不限于一种免费且开源的软件网络应用框架,例如可以利用分布式文件系统738来进行大规模数据处理(例如“大数据”)的Apache SparkTM(以下称为“Spark”)。在至少一个实施例中,作业调度器732可以包括Spark驱动器,用于促进对数据中心700的各个层所支持的工作负载进行调度。在至少一个实施例中,配置管理器734可以能够配置不同的层,例如软件层730和包括Spark和用于支持大规模数据处理的分布式文件系统738的框架层720。资源管理器736能够管理映射到或分配用于支持分布式文件系统738和作业调度器732的集群或分组计算资源。在至少一个实施例中,集群或分组计算资源可以包括数据中心基础设施层710处的分组的计算资源714。资源管理器736可以与资源协调器712协调以管理这些映射的或分配的计算资源。
在至少一个实施例中,包括在软件层730中的软件732可以包括由节点C.R.716(1)-716(N)的至少部分,分组的计算资源714和/或框架层720的分布式文件系统738使用的软件。一种或更多种类型的软件可以包括但不限于Internet网页搜索软件、电子邮件病毒浏览软件、数据库软件和流视频内容软件。
在至少一个实施例中,应用层740中包括的一个或更多个应用程序742可以包括由节点C.R.716(1)-716(N)的至少部分、分组的计算资源714和/或框架层720的分布式文件系统738使用的一种或更多种类型的应用程序。一种或更多种类型的应用程序可以包括但不限于任何数量的基因组学应用程序,认知计算和机器学习应用程序,包括训练或推理软件,机器学习框架软件(例如PyTorch、TensorFlow、Caffe等)和/或其他与一个或更多个实施例结合使用的机器学习应用程序。
在至少一个实施例中,配置管理器734、资源管理器736和资源协调器712中的任何一个可以基于以任何技术上可行的方式获取的任何数量和类型的数据来实现任何数量和类型的自我修改动作。自我修改动作可以减轻数据中心700的数据中心操作员做出可能不好的配置决定并且可以避免数据中心的未充分利用和/或行差的部分。
数据中心700可以包括工具、服务、软件或其他资源,用于根据本文所述的一个或更多个实施例来训练一个或更多个机器学习模型或者使用一个或更多个机器学习模型来预测或推理信息。例如,可以通过使用上文关于数据中心700描述的软件和计算资源,根据神经网络架构计算权重参数来训练机器学习模型。在至少一个实施例中,通过使用通过一种或更多种训练技术计算出的权重参数,可以使用上面与关于数据中心700所描述的资源,使用对应于一个或更多个神经网络的经训练的机器学习模型来推理或预测信息,例如但不限于本文所述的那些。
在至少一个实施例中,数据中心700可以使用CPU、专用集成电路(ASIC)、GPU、FPGA和/或其他硬件(或与之对应的虚拟计算资源)来使用上述资源来执行训练和/或推理。此外,上述的一个或更多个软件和/或硬件资源可以配置成一种服务,以允许用户训练或执行信息推理,例如图像识别、语音识别或其他人工智能服务。
示例网络环境
适用于实现本公开的实施例的网络环境可以包括一个或更多个客户端设备、服务器、网络附加存储(NAS)、其他后端设备和/或其他设备类型。客户端设备、服务器和/或其他设备类型(例如,每个设备)可以在图6的计算设备600的一个或更多个实例上实现—例如,每个设备可以包括计算设备600的类似组件、特征和/或功能。此外,在实现后端设备(例如,服务器、NAS等)的情况下,后端设备可以是作为数据中心700的一部分而被包括的,其示例在此关于图7更详细地描述。
网络环境的组件可以通过网络彼此通信,网络可以是有线、无线或两者。网络可以包括多个网络,或者多个网络中的网络。举例来说,网络可以包括一个或更多个广域网(WAN)、一个或更多个局域网(LAN)、一个或更多个公共网络(例如因特网和/或公共交换电话网(PSTN))、和/或一个或更多个专用网络。在网络包括无线电信网络的情况下,诸如基站、通信塔或甚至接入点(以及其他组件)之类的组件可以提供无线连接。
兼容的网络环境可以包括一个或更多个对等网络环境(在这种情况下服务器可能不包括在网络环境中),以及一个或更多个客户端-服务器网络环境(在这种情况下一个或更多个服务器可以包含在网络环境中)。在对等网络环境中,本文描述的关于服务器的功能可以在任意数量的客户端设备上实现。
在至少一个实施例中,网络环境可以包括一个或更多个基于云的网络环境、分布式计算环境、它们的组合等。基于云的网络环境可以包括框架层、作业调度器、资源管理器,以及在一个或更多个服务器上实现的分布式文件系统,这些服务器可以包括一个或更多个核心网络服务器和/或边缘服务器。框架层可以包括用于支持软件层的软件和/或应用层的一个或更多个应用程序的框架。软件或应用程序可分别包括基于网络的服务软件或应用程序。在实施例中,一个或更多个客户端设备可以使用基于网络的服务软件或应用程序(例如,通过经由一个或更多个应用程序编程接口(API)访问服务软件和/或应用程序)。框架层可以是但不限于一种类型的免费且开源软件网络应用程序框架,例如可以使用分布式文件系统进行大规模数据处理(例如,“大数据”)。
基于云的网络环境可以提供执行本文描述的计算和/或数据存储功能(或其一个或更多个部分)的任何组合的云计算和/或云存储。这些各种功能中的任何一个都可以分布在来自(例如,可以分布在州、地区、国家、全球等地的一个或更多个数据中心的)中央或核心服务器的多个位置。如果到用户(例如,客户端设备)的连接相对靠近边缘服务器,则核心服务器可以将功能的至少一部分指定给边缘服务器。基于云的网络环境可以是私有的(例如,仅限于单个组织),可以是公共的(例如,对许多组织可用),和/或其组合(例如,混合云环境)。
客户端设备可以包括本文关于图6描述的示例计算设备600的至少一些组件、特征和功能。作为示例而非限制,客户端设备可以体现为个人计算机(PC)、膝上型计算机、移动设备、智能手机、平板计算机、智能手表、可穿戴计算机、个人数码助理(PDA)、MP3播放器、虚拟现实头戴式显示器、全球定位系统(GPS)或设备、视频播放器、摄像机、监视设备或系统、车辆、船只、飞行器、虚拟机器、无人机、机器人、手持通信设备、医院设备、游戏设备或系统、娱乐系统、车载计算机系统、嵌入式系统控制器、遥控器、电器、消费电子设备、工作站、边缘设备、这些描述设备的任意组合或任何其他合适的设备。
本公开可以在由计算机或者诸如个人数字助理或其他手持式设备之类的其他机器执行的、包括诸如程序模块之类的计算机可执行指令的机器可使用指令或者计算机代码的一般背景下进行描述。通常,包括例程、程序、对象、组件、数据结构等等的程序模块指的是执行特定任务或者实现特定抽象数据类型的代码。本公开可以在各种各样的系统配置中实践,这些配置包括手持式设备、消费电子器件、通用计算机、更专业的计算设备等等。本公开也可以在其中任务由通过通信网络链接的远程处理设备执行的分布式计算环境中实践。
如在本文中使用的,“和/或”关于两个或更多元素的叙述应当解释为仅指一个元素或者元素组合。例如,“元素A、元素B和/或元素C”可以包括仅仅元素A,仅仅元素B,仅仅元素C,元素A和元素B,元素A和元素C,元素B和元素C,或者元素A、B和C。此外,“元素A或元素B中的至少一个”可以包括元素A中的至少一个,元素B中的至少一个,或者元素A中的至少一个和元素B中的至少一个。进一步,“元素A和元素B中的至少一个”可以包括元素A中的至少一个,元素B中的至少一个,或者元素A中的至少一个和元素B中的至少一个。
这里详细地描述了本公开的主题以满足法定要求。然而,描述本身并非意在限制本公开的范围。相反地,本发明人已经设想到,要求保护的主题也可以以其他的方式具体化,以包括与本文中结合其他当前或未来技术描述的步骤不同的步骤或者相似的步骤的组合。而且,尽管术语“步骤”和/或“块”在本文中可以用来隐含采用的方法的不同元素,但是这些术语不应当被解释为暗示本文公开的各个步骤之中或之间的任何特定顺序,除非明确描述了各步骤的顺序。

Claims (20)

1.一种方法,包括:
至少部分地基于使用车辆的一个或更多个第一传感器生成的第一传感器数据来确定乘员的注视方向;
在世界空间坐标系中生成所述注视方向的表示;
在所述世界坐标系中并且至少部分地基于使用所述车辆的一个或更多个第二传感器生成的第二传感器数据,确定至少一个对象的对象位置;
将所述注视方向的表示与所述对象位置进行比较;以及
至少部分地基于所述比较来执行一个或更多个操作。
2.如权利要求1所述的方法,其中所述执行一个或更多个操作包括执行以下操作之一:
当所述表示与所述对象位置重叠超过阈值量时,抑制通知;或者
当所述表示与所述对象位置重叠不超过所述阈值量时,生成所述通知。
3.如权利要求1所述的方法,其中所述一个或更多个第一传感器包括具有所述车辆内部的所述乘员的视野的至少一个第一传感器,并且所述一个或更多个第二传感器包括具有所述车辆外部的视野的至少一个第二传感器。
4.如权利要求1所述的方法,还包括:
监测所述车辆的乘员的眼睛运动,以确定注视模式、扫视速度、凝视或平稳追踪中的一个或更多个;
至少部分地基于所述注视模式、所述扫视速度、所述凝视行为或所述平稳追踪行为中的一个或更多个,确定所述乘员的注意力分数,
其中所述执行一个或更多个操作进一步至少部分地基于所述注意力分数。
5.如权利要求1所述的方法,还包括:
生成与所述车辆的乘员在一段时间内的道路浏览行为相对应的热图,
其中所述执行一个或更多个操作进一步至少部分地基于所述热图。
6.如权利要求1所述的方法,还包括:
至少部分地基于所述车辆的乘员的眼睛运动、眼睛测量或眼睛特征中的至少一个,确定所述乘员的认知负荷分数,
其中所述执行一个或更多个操作进一步至少部分地基于所述认知负荷分数。
7.如权利要求6所述的方法,其中所述确定所述认知负荷分数至少部分地基于对应于所述乘员的认知负荷曲线,在包括所述乘员的一次或更多次驾驶期间生成所述认知负荷曲线。
8.如权利要求1所述的方法,其中所述确定所述对象位置包括:将所述第二传感器数据应用于一个或更多个深度神经网络(DNN),所述深度神经网络被配置为计算指示所述对象位置的数据。
9.如权利要求1所述的方法,还包括:
确定所述乘员正在执行的姿势、手势或活动中的一个或更多个,
其中所述执行一个或更多个操作进一步至少部分地基于所述姿势、所述手势或所述活动中的一个或更多个。
10.一种方法,包括:
在坐标系中并且至少部分地基于使用车辆的一个或更多个第一传感器生成的第一传感器数据,生成用户的视野的至少一部分的表示;
在所述坐标系中并且至少部分地基于使用所述车辆的一个或更多个第二传感器生成的第二传感器数据,确定至少一个对象的对象位置;以及
确定至少部分基于以下项中的至少一项来生成通知:
所述表示与所述对象位置重叠小于第一阈值量;
认知负荷值大于第二阈值量;或者
注意力值小于第三阈值量。
11.如权利要求10所述的方法,其中所述生成所述表示包括:
确定所述用户的注视方向;以及
至少部分地基于所述用户的所述注视方向来确定所述视野的所述至少一部分。
12.如权利要求10所述的方法,其中所述坐标系是三维(3D)世界空间坐标系。
13.如权利要求10所述的方法,还包括:
监测所述车辆的用户的眼睛运动,以确定注视模式、扫视速度、凝视行为或平稳追踪行为中的一个或更多个;以及
至少部分地基于所述注视模式、所述扫视速度、所述凝视或所述平稳追踪中的一个或更多个,确定所述用户的所述注意力值。
14.如权利要求10所述的方法,还包括:
生成与所述车辆的用户在一段时间内的道路浏览行为相对应的热图;以及
至少部分地基于所述热图确定所述用户的所述注意力值。
15.如权利要求10所述的方法,还包括:
监测所述车辆的用户的眼睛运动、眼睛特征或眼睛测量中的一个或更多个;
至少部分地基于所述用户的所述眼睛运动、所述眼睛特征或所述眼睛测量中的一个或更多个,确定所述用户的所述认知负荷值。
16.如权利要求15所述的方法,其中所述确定所述认知负荷值包括:将所述眼睛运动、所述眼睛特征或所述眼睛测量中的至少一个与所述用户的曲线进行比较,在所述车辆由所述用户的一次或更多次驾驶期间生成所述曲线。
17.一种系统,包括:
一个或更多个传感器;
一个或更多个处理器;以及
一个或更多个存储器设备,在其上存储指令,所述指令在由所述一个或更多个处理器执行时,使所述一个或更多个处理器执行操作,所述操作包括:
至少部分地基于使用所述一个或更多个传感器的第一子集生成的第一传感器数据来确定乘员的注视方向;
在坐标系中生成所述注视方向的表示;
在所述坐标系中并且至少部分地基于使用所述一个或更多个传感器的第二子集生成的第二传感器数据,确定至少一个对象的对象位置;
将所述注视方向的所述表示与所述对象位置进行比较;以及
至少部分地基于所述比较来确定生成通知或抑制所述通知。
18.如权利要求17所述的系统,其中所述一个或更多个传感器的所述第一子集包括具有车辆内部的乘员的视野的至少一个第一传感器,并且所述一个或更多个传感器的所述第二子集包括具有所述车辆外部的视野的至少一个第二传感器。
19.如权利要求17所述的系统,其中所述操作还包括:
监测所述车辆的乘员的眼睛运动,以确定注视模式、扫视速度、凝视行为或平稳追踪行为中的一个或更多个;
至少部分地基于所述注视模式、所述扫视速度、所述凝视行为或所述平稳追踪行为中的一个或更多个,确定所述乘员的注意力分数或认知负荷分数中的一个或更多个,
其中所述确定生成所述通知或抑制所述通知进一步至少部分地基于所述认知负荷分数或所述注意力分数中的一个或更多个。
20.如权利要求17所述的系统,其中所述系统包括在以下项中的至少一项中:
自主或半自主机器的控制系统;
自主或半自主机器的感知系统;
用于执行模拟操作的系统;
用于执行深度学习操作的系统;
使用边缘设备实现的系统;
包含一个或更多个虚拟机(VM)的系统;
使用机器人实现的系统;
至少部分地在数据中心中实现的系统;或者
至少部分地使用云计算资源实现的系统。
CN202111221654.3A 2020-10-21 2021-10-20 用于自主和半自主驾驶应用的乘员注意力和认知负荷监测 Pending CN114379565A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/076,690 2020-10-21
US17/076,690 US11978266B2 (en) 2020-10-21 2020-10-21 Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications

Publications (1)

Publication Number Publication Date
CN114379565A true CN114379565A (zh) 2022-04-22

Family

ID=80929550

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111221654.3A Pending CN114379565A (zh) 2020-10-21 2021-10-20 用于自主和半自主驾驶应用的乘员注意力和认知负荷监测

Country Status (4)

Country Link
US (1) US11978266B2 (zh)
JP (1) JP2022068087A (zh)
CN (1) CN114379565A (zh)
DE (1) DE102021126254A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116541715A (zh) * 2023-07-05 2023-08-04 苏州浪潮智能科技有限公司 目标检测方法、模型的训练方法、目标检测系统及装置

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11584378B2 (en) * 2020-10-27 2023-02-21 Arm Limited Vehicle-assist system
JP2022072453A (ja) * 2020-10-29 2022-05-17 パナソニックIpマネジメント株式会社 視線入力装置
US11755277B2 (en) * 2020-11-05 2023-09-12 Harman International Industries, Incorporated Daydream-aware information recovery system
US11725959B2 (en) * 2020-11-13 2023-08-15 Nvidia Corporation Automatic graphical content recognition for vehicle applications
JP2022090746A (ja) * 2020-12-08 2022-06-20 株式会社J-QuAD DYNAMICS 運転支援装置、運転支援方法、および運転支援プログラム
US11760318B2 (en) * 2021-03-11 2023-09-19 GM Global Technology Operations LLC Predictive driver alertness assessment
US11776282B2 (en) * 2021-03-26 2023-10-03 Here Global B.V. Method, apparatus, and system for removing outliers from road lane marking data
US11775909B2 (en) * 2021-03-31 2023-10-03 Caterpillar Inc. Monitoring operator condition using sensor data
US20210312193A1 (en) * 2021-06-15 2021-10-07 Nauto, Inc. Devices and methods for predicting intersection violations and/or collisions
US11847840B2 (en) * 2021-08-24 2023-12-19 Toyota Research Institute, Inc. Visual notification of distracted driving
US20230274386A1 (en) * 2022-02-28 2023-08-31 Ford Global Technologies, Llc Systems and methods for digital display stabilization
US11733531B1 (en) * 2022-03-16 2023-08-22 GM Global Technology Operations LLC Active heads up display system
FR3135242A1 (fr) * 2022-05-06 2023-11-10 Psa Automobiles Sa Procédé et dispositif de contrôle d’un dispositif d’affichage embarqué dans un véhicule
FR3136730A1 (fr) * 2022-06-21 2023-12-22 Orange Procédé d’alerte d’un conducteur d’un véhicule automobile après détermination de zones non surveillées par le conducteur
US20240036640A1 (en) * 2022-07-29 2024-02-01 Qualcomm Incorporated User attention determination for extended reality
CN117681656A (zh) * 2022-08-25 2024-03-12 纬创资通股份有限公司 用于配置抬头显示器的电子装置和方法
EP4375953A1 (en) * 2022-11-22 2024-05-29 Toyota Jidosha Kabushiki Kaisha Perceptual load determination method, computer program, computer readable medium, perceptual load determination system and advanced driving assistance system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102712317A (zh) * 2010-01-14 2012-10-03 丰田自动车工程及制造北美公司 使驾驶员与环境感测结合的车辆安全性系统
CN105835874A (zh) * 2015-01-29 2016-08-10 丰田自动车工程及制造北美公司 视野受阻环境中的自主车辆操作
CN107415938A (zh) * 2016-05-13 2017-12-01 通用汽车环球科技运作有限责任公司 基于乘员位置和注意力控制自主车辆功能和输出
CN108068821A (zh) * 2016-11-08 2018-05-25 现代自动车株式会社 用于确定驾驶员的专注度的装置、具有其的系统及其方法
CN110626356A (zh) * 2018-06-01 2019-12-31 哲纳提公司 用于辅助驾驶员进行预防性驾驶的方法和系统
US20200090322A1 (en) * 2018-09-13 2020-03-19 Nvidia Corporation Deep neural network processing for sensor blindness detection in autonomous machine applications
US20200324795A1 (en) * 2019-04-12 2020-10-15 Nvidia Corporation Neural network training using ground truth data augmented with map information for autonomous machine applications

Family Cites Families (186)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US535440A (en) 1895-03-12 James armstrong
US2631498A (en) 1951-07-09 1953-03-17 Libbey Owens Ford Glass Co Prismatic antiglare rearview mirror device
US5909190A (en) 1997-10-30 1999-06-01 Raytheon Company Clutter rejection using adaptive estimation of clutter probability density function
US6963661B1 (en) 1999-09-09 2005-11-08 Kabushiki Kaisha Toshiba Obstacle detection system and method therefor
US7852462B2 (en) 2000-05-08 2010-12-14 Automotive Technologies International, Inc. Vehicular component control methods based on blind spot monitoring
JP2003308522A (ja) 2002-04-15 2003-10-31 Oki Electric Ind Co Ltd アイリス認識装置
EP1504276B1 (en) 2002-05-03 2012-08-08 Donnelly Corporation Object detection system for vehicle
US7068815B2 (en) 2003-06-13 2006-06-27 Sarnoff Corporation Method and apparatus for ground detection and removal in vision systems
RU2358319C2 (ru) 2003-08-29 2009-06-10 Самсунг Электроникс Ко., Лтд. Способ и устройство для фотореалистического трехмерного моделирования лица на основе изображения
US7409295B2 (en) 2004-08-09 2008-08-05 M/A-Com, Inc. Imminent-collision detection system and process
WO2006087854A1 (ja) 2004-11-25 2006-08-24 Sharp Kabushiki Kaisha 情報分類装置、情報分類方法、情報分類プログラム、情報分類システム
US8164628B2 (en) 2006-01-04 2012-04-24 Mobileye Technologies Ltd. Estimating distance to an object using a sequence of images recorded by a monocular camera
KR20080051302A (ko) 2006-12-05 2008-06-11 삼성전자주식회사 사용자 단말장치 및 영상표시장치 그리고 그들의 광원 조정방법
ATE519193T1 (de) 2006-12-06 2011-08-15 Mobileye Technologies Ltd Detektion und erkennung von verkehrszeichen
US9826200B2 (en) 2007-04-30 2017-11-21 Mobileye Vision Technologies Ltd. Rear obstruction detection
JP4457136B2 (ja) 2007-09-27 2010-04-28 日立オートモティブシステムズ株式会社 走行制御システム
US20090097704A1 (en) 2007-10-10 2009-04-16 Micron Technology, Inc. On-chip camera system for multiple object tracking and identification
JP4462333B2 (ja) 2007-11-13 2010-05-12 株式会社デンソー 走行支援装置
WO2009076182A1 (en) 2007-12-13 2009-06-18 Clemson University Vision based real time traffic monitoring
US8204542B2 (en) 2008-03-21 2012-06-19 Mediatek Inc. Methods for processing apparatus originated communication request and communication apparatuses utilizing the same
AU2009238631B2 (en) 2008-04-14 2014-10-30 Google Llc Panning using virtual surfaces
EP2182451A1 (en) 2008-10-29 2010-05-05 Nederlandse Organisatie voor toegepast- natuurwetenschappelijk onderzoek TNO Electronic document classification apparatus
US8570333B2 (en) 2008-12-11 2013-10-29 Nvidia Corporation Method and system for enabling managed code-based application program to access graphics processing unit
US9126525B2 (en) 2009-02-27 2015-09-08 Magna Electronics Inc. Alert system for vehicle
US8385676B2 (en) 2009-07-30 2013-02-26 Hewlett-Packard Development Company, L.P. Context-cluster-level control of filtering iterations in an iterative discrete universal denoiser
DE102009028743B4 (de) 2009-08-20 2011-06-09 Robert Bosch Gmbh Verfahren und Steuergerät zur Entzerrung eines Kamerabildes
KR101717787B1 (ko) 2010-04-29 2017-03-17 엘지전자 주식회사 디스플레이장치 및 그의 음성신호 출력 방법
KR101225626B1 (ko) 2010-07-19 2013-01-24 포항공과대학교 산학협력단 차선 인식 시스템 및 방법
US8503801B2 (en) 2010-09-21 2013-08-06 Adobe Systems Incorporated System and method for classifying the blur state of digital image pixels
US9087297B1 (en) 2010-12-17 2015-07-21 Google Inc. Accurate video concept recognition via classifier combination
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
JP5655644B2 (ja) 2011-03-09 2015-01-21 富士通株式会社 視線検出装置及び視線検出方法
US10120438B2 (en) 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
JP5285748B2 (ja) 2011-07-08 2013-09-11 富士フイルム株式会社 オブジェクト検出装置、方法およびプログラム
US9098751B2 (en) 2011-07-27 2015-08-04 Gentex Corporation System and method for periodic lane marker identification and tracking
US10027952B2 (en) 2011-08-04 2018-07-17 Trx Systems, Inc. Mapping and tracking system with features in three-dimensional space
KR101861742B1 (ko) 2011-08-30 2018-05-30 삼성전자주식회사 이종의 가속기들 사이에서 스위칭할 수 있는 데이터 처리 시스템과 그 방법
US8970701B2 (en) 2011-10-21 2015-03-03 Mesa Engineering, Inc. System and method for predicting vehicle location
US9471988B2 (en) 2011-11-02 2016-10-18 Google Inc. Depth-map generation for an input image using an example approximate depth-map associated with an example similar image
US8837819B1 (en) 2012-04-05 2014-09-16 Google Inc. Systems and methods for facilitating identification of and interaction with objects in a video or image frame
US9823742B2 (en) 2012-05-18 2017-11-21 Microsoft Technology Licensing, Llc Interaction and management of devices using gaze detection
GB2506338A (en) 2012-07-30 2014-04-02 Sony Comp Entertainment Europe A method of localisation and mapping
US9225942B2 (en) 2012-10-11 2015-12-29 GM Global Technology Operations LLC Imaging surface modeling for camera modeling and virtual view synthesis
US8929683B2 (en) 2012-10-25 2015-01-06 Nvidia Corporation Techniques for registering and warping image stacks
US8923652B2 (en) 2012-10-25 2014-12-30 Nvidia Corporation Methods and apparatus for registering and warping image stacks
JP6013884B2 (ja) 2012-11-08 2016-10-25 日立オートモティブシステムズ株式会社 物体検出装置及び物体検出方法
US8952819B2 (en) 2013-01-31 2015-02-10 Lytx, Inc. Direct observation event triggering of drowsiness
CN104424466B (zh) 2013-08-21 2018-05-15 佳能株式会社 对象检测方法、对象检测设备及图像拾取设备
US9098323B2 (en) 2013-09-05 2015-08-04 Nvidia Corporation Simultaneous utilization of a first graphics processing unit (GPU) and a second GPU of a computing platform through a virtual machine (VM) in a shared mode and a dedicated mode respectively
US9373057B1 (en) 2013-11-01 2016-06-21 Google Inc. Training a neural network to detect objects in images
US9742869B2 (en) 2013-12-09 2017-08-22 Nvidia Corporation Approach to adaptive allocation of shared resources in computer systems
JP2015194884A (ja) 2014-03-31 2015-11-05 パナソニックIpマネジメント株式会社 運転者監視システム
EP2950175B1 (de) 2014-05-27 2021-03-31 dSPACE digital signal processing and control engineering GmbH Verfahren und Vorrichtung zum Testen eines Steuergerätes
US9740710B2 (en) 2014-09-02 2017-08-22 Elekta Inc. Systems and methods for segmenting medical images based on anatomical landmark-based features
FR3027135B1 (fr) 2014-10-09 2016-11-25 Morpho Systeme et un procede d'acquisition d'images de veines d'un doigt
US10262213B2 (en) 2014-12-16 2019-04-16 Here Global B.V. Learning lanes from vehicle probes
US9721471B2 (en) 2014-12-16 2017-08-01 Here Global B.V. Learning lanes from radar data
US9864430B2 (en) 2015-01-09 2018-01-09 Microsoft Technology Licensing, Llc Gaze tracking via eye gaze model
CA3067160A1 (en) 2015-02-10 2016-08-18 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
US9811756B2 (en) 2015-02-23 2017-11-07 Mitsubishi Electric Research Laboratories, Inc. Method for labeling images of street scenes
US11630800B2 (en) 2015-05-01 2023-04-18 Nvidia Corporation Programmable vision accelerator
EP4220537A3 (en) 2015-05-10 2023-08-16 Mobileye Vision Technologies Ltd. Road profile along a predicted path
US10366534B2 (en) 2015-06-10 2019-07-30 Microsoft Technology Licensing, Llc Selective surface mesh regeneration for 3-dimensional renderings
WO2016201609A1 (zh) 2015-06-15 2016-12-22 北京大学深圳研究生院 金属氧化物薄膜晶体管、显示面板及两者的制备方法
CN106332049B (zh) 2015-06-16 2019-07-19 深圳市中兴微电子技术有限公司 一种终端及终端卡的自适配方法
US9710714B2 (en) 2015-08-03 2017-07-18 Nokia Technologies Oy Fusion of RGB images and LiDAR data for lane classification
US9779304B2 (en) 2015-08-11 2017-10-03 Google Inc. Feature-based video annotation
US10282591B2 (en) 2015-08-24 2019-05-07 Qualcomm Incorporated Systems and methods for depth map sampling
KR101895485B1 (ko) 2015-08-26 2018-09-05 엘지전자 주식회사 운전 보조 장치 및 그 제어 방법
US9767565B2 (en) 2015-08-26 2017-09-19 Digitalglobe, Inc. Synthesizing training data for broad area geospatial object detection
US10002471B2 (en) 2015-09-30 2018-06-19 Ants Technology (Hk) Limited Systems and methods for autonomous vehicle navigation
GB2543749A (en) 2015-10-21 2017-05-03 Nokia Technologies Oy 3D scene rendering
US9741125B2 (en) 2015-10-28 2017-08-22 Intel Corporation Method and system of background-foreground segmentation for image processing
US9990766B2 (en) 2015-10-29 2018-06-05 Intelligent Fusion Technology, Inc Method and system for predicting collision probability of space objects via graphics processing unit
DE102015221920A1 (de) 2015-11-09 2017-05-11 Bayerische Motoren Werke Aktiengesellschaft Verfahren, Computerprogrammprodukt, Vorrichtung, und Fahrzeug umfassend die Vorrichtung zum Steuern einer Trajektorienplanung eines Egofahrzeugs
EP3171297A1 (en) 2015-11-18 2017-05-24 CentraleSupélec Joint boundary detection image segmentation and object recognition using deep learning
DE102015226762B4 (de) 2015-12-28 2024-04-25 Robert Bosch Gmbh Verfahren zur Korrektur mindestens eines Kollisionsparameters und korrespondierendes integriertes Sicherheitssystem für ein Fahrzeug
US10134278B1 (en) 2016-01-22 2018-11-20 State Farm Mutual Automobile Insurance Company Autonomous vehicle application
US9996771B2 (en) 2016-02-15 2018-06-12 Nvidia Corporation System and method for procedurally synthesizing datasets of objects of interest for training machine-learning models
US9802599B2 (en) 2016-03-08 2017-10-31 Ford Global Technologies, Llc Vehicle lane placement
JP6575818B2 (ja) 2016-03-25 2019-09-18 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、運転支援システム、プログラム
US10108260B2 (en) 2016-04-01 2018-10-23 Lg Electronics Inc. Vehicle control apparatus and method thereof
WO2017177128A1 (en) 2016-04-08 2017-10-12 The Trustees Of Columbia University In The City Of New York Systems and methods for deep reinforcement learning using a brain-artificial intelligence interface
US9896096B2 (en) 2016-04-11 2018-02-20 David E. Newman Systems and methods for hazard mitigation
US9738125B1 (en) 2016-05-17 2017-08-22 Horizon Global Americas Inc. Communication device, system, and method for active control of external vehicle components
US10032067B2 (en) 2016-05-28 2018-07-24 Samsung Electronics Co., Ltd. System and method for a unified architecture multi-task deep learning machine for object recognition
US10176389B2 (en) 2016-06-09 2019-01-08 International Business Machines Corporation Methods and systems for moving traffic obstacle detection
CN106114507B (zh) 2016-06-21 2018-04-03 百度在线网络技术(北京)有限公司 用于智能车辆的局部轨迹规划方法和装置
GB2554633B (en) 2016-06-24 2020-01-22 Imperial College Sci Tech & Medicine Detecting objects in video data
WO2017220705A1 (en) 2016-06-24 2017-12-28 Jaguar Land Rover Limited Control system for a vehicle
KR102493878B1 (ko) 2016-06-27 2023-01-31 모빌아이 비젼 테크놀로지스 엘티디. 검출된 주차 차량의 특징에 기반을 둔 호스트 차량의 제어
US10078335B2 (en) 2016-06-28 2018-09-18 Toyota Motor Engineering & Manufacturing North America, Inc. Ray tracing for hidden obstacle detection
CN115686005A (zh) 2016-06-28 2023-02-03 柯尼亚塔有限公司 训练自动驾驶系统的虚拟模型的系统及计算机执行方法
US10829116B2 (en) 2016-07-01 2020-11-10 nuTonomy Inc. Affecting functions of a vehicle based on function-related information about its environment
US20180005057A1 (en) 2016-07-01 2018-01-04 Hyundai Motor Company Apparatus and method for capturing face image of decreased reflection on spectacles in vehicle
JP7001596B2 (ja) 2016-07-26 2022-02-03 株式会社カネカ 3hh単位含有共重合phaを生産する形質転換体、及び当該phaの製造方法
US10262239B2 (en) 2016-07-26 2019-04-16 Viisights Solutions Ltd. Video content contextual classification
GB2553782B (en) 2016-09-12 2021-10-20 Niantic Inc Predicting depth from image data using a statistical model
US10127670B2 (en) 2016-09-27 2018-11-13 Xactware Solutions, Inc. Computer vision systems and methods for detecting and modeling features of structures in images
US10289469B2 (en) 2016-10-28 2019-05-14 Nvidia Corporation Reliability enhancement utilizing speculative execution systems and methods
US20180136332A1 (en) 2016-11-15 2018-05-17 Wheego Electric Cars, Inc. Method and system to annotate objects and determine distances to objects in an image
US10467488B2 (en) 2016-11-21 2019-11-05 TeleLingo Method to analyze attention margin and to prevent inattentive and unsafe driving
US20180158244A1 (en) 2016-12-02 2018-06-07 Ayotle Virtual sensor configuration
EP3549102B1 (en) 2016-12-02 2021-05-26 Google LLC Determining structure and motion in images using neural networks
KR20180068511A (ko) 2016-12-14 2018-06-22 삼성전자주식회사 영상에 포함된 도로와 관련된 정보를 결정하는 뉴럴 네트워크를 학습시키는 학습 데이터를 생성하는 장치 및 방법
US11132543B2 (en) 2016-12-28 2021-09-28 Nvidia Corporation Unconstrained appearance-based gaze estimation
CN111542860A (zh) 2016-12-30 2020-08-14 迪普迈普有限公司 用于自主车辆的高清地图的标志和车道创建
US10380886B2 (en) 2017-05-17 2019-08-13 Cavh Llc Connected automated vehicle highway systems and methods
US10691847B2 (en) 2017-01-13 2020-06-23 Sap Se Real-time damage determination of an asset
US11288595B2 (en) 2017-02-14 2022-03-29 Groq, Inc. Minimizing memory and processor consumption in creating machine learning models
DE112017007252T5 (de) 2017-03-14 2019-12-19 Omron Corporation Fahrerüberwachungsvorrichtung, fahrerüberwachungsverfahren, lernvorrichtung und lernverfahren
US10209718B2 (en) 2017-03-14 2019-02-19 Starsky Robotics, Inc. Vehicle sensor system and method of use
US11449788B2 (en) 2017-03-17 2022-09-20 California Institute Of Technology Systems and methods for online annotation of source data using skill estimation
US11899669B2 (en) 2017-03-20 2024-02-13 Carnegie Mellon University Searching of data structures in pre-processing data for a machine learning classifier
DE102017205093A1 (de) 2017-03-27 2018-09-27 Conti Temic Microelectronic Gmbh Verfahren und System zur Vorhersage von Sensorsignalen eines Fahrzeugs
US10477200B2 (en) 2017-04-13 2019-11-12 Facebook, Inc. Panoramic camera systems
US10460180B2 (en) 2017-04-20 2019-10-29 GM Global Technology Operations LLC Systems and methods for visual classification with region proposals
US10328578B2 (en) 2017-04-21 2019-06-25 X Development Llc Methods and systems for detecting, recognizing, and localizing pallets
US10108867B1 (en) 2017-04-25 2018-10-23 Uber Technologies, Inc. Image-based pedestrian detection
US20180349746A1 (en) 2017-05-31 2018-12-06 Uber Technologies, Inc. Top-View Lidar-Based Object Detection
US10310087B2 (en) 2017-05-31 2019-06-04 Uber Technologies, Inc. Range-view LIDAR-based object detection
DE102017113763B4 (de) 2017-06-21 2022-03-17 SMR Patents S.à.r.l. Verfahren zum Betreiben einer Anzeigevorrichtung für ein Kraftfahrzeug sowie Kraftfahrzeug
US10007269B1 (en) 2017-06-23 2018-06-26 Uber Technologies, Inc. Collision-avoidance system for autonomous-capable vehicle
US11214273B2 (en) 2017-06-23 2022-01-04 Nvidia Corporation Method of using a single controller (ECU) for a fault-tolerant/fail-operational self-driving system
US20180373980A1 (en) 2017-06-27 2018-12-27 drive.ai Inc. Method for training and refining an artificial intelligence
KR102499398B1 (ko) 2017-08-09 2023-02-13 삼성전자 주식회사 차선 검출 방법 및 장치
WO2019028725A1 (en) 2017-08-10 2019-02-14 Intel Corporation CONVOLUTIVE NEURAL NETWORK STRUCTURE USING INVERTED CONNECTIONS AND OBJECTIVITY ANTERIORITIES TO DETECT AN OBJECT
US10339669B2 (en) 2017-08-22 2019-07-02 Here Global B.V. Method, apparatus, and system for a vertex-based evaluation of polygon similarity
TWI647666B (zh) 2017-08-28 2019-01-11 緯創資通股份有限公司 瞌睡偵測裝置及其瞌睡偵測方法
US11487988B2 (en) 2017-08-31 2022-11-01 Ford Global Technologies, Llc Augmenting real sensor recordings with simulated sensor data
US10282995B2 (en) 2017-09-05 2019-05-07 Starship Technologies Oü Mobile robot having collision avoidance system for crossing a road from a pedestrian pathway
US10546387B2 (en) 2017-09-08 2020-01-28 Qualcomm Incorporated Pose determination with semantic segmentation
US10896318B2 (en) 2017-09-09 2021-01-19 Apple Inc. Occlusion detection for facial recognition processes
KR102026697B1 (ko) 2017-09-21 2019-09-30 엘지전자 주식회사 주행 시스템 및 차량
US10612932B2 (en) 2017-09-29 2020-04-07 Wipro Limited Method and system for correcting a pre-generated navigation path for an autonomous vehicle
US10579897B2 (en) 2017-10-02 2020-03-03 Xnor.ai Inc. Image based object detection
US10997491B2 (en) 2017-10-04 2021-05-04 Huawei Technologies Co., Ltd. Method of prediction of a state of an object in the environment using an action model of a neural network
US20190120640A1 (en) 2017-10-19 2019-04-25 rideOS Autonomous vehicle routing
US20190129831A1 (en) 2017-10-27 2019-05-02 Uber Technologies, Inc. Autonomous Vehicle Simulation Testing Systems and Methods
US10935978B2 (en) 2017-10-30 2021-03-02 Nio Usa, Inc. Vehicle self-localization using particle filters and visual odometry
US10580158B1 (en) 2017-11-03 2020-03-03 Zoox, Inc. Dense depth estimation of image data
JP7346401B2 (ja) 2017-11-10 2023-09-19 エヌビディア コーポレーション 安全で信頼できる自動運転車両のためのシステム及び方法
US11017550B2 (en) 2017-11-15 2021-05-25 Uatc, Llc End-to-end tracking of objects
US11061402B2 (en) 2017-11-15 2021-07-13 Uatc, Llc Sparse convolutional neural networks
US11062461B2 (en) 2017-11-16 2021-07-13 Zoox, Inc. Pose determination from contact points
US10762396B2 (en) 2017-12-05 2020-09-01 Utac, Llc Multiple stage image based object detection and recognition
US10373332B2 (en) 2017-12-08 2019-08-06 Nvidia Corporation Systems and methods for dynamic facial analysis using a recurrent neural network
WO2019109336A1 (en) 2017-12-08 2019-06-13 Baidu.Com Times Technology (Beijing) Co., Ltd. Stereo camera depth determination using hardware accelerator
US20190179979A1 (en) 2017-12-13 2019-06-13 Uber Technologies, Inc. Simulated Sensor Testing
US10629069B2 (en) 2017-12-14 2020-04-21 Here Global B.V. Method and apparatus for providing a localized link-centric metric for directional traffic propagation
US10636219B2 (en) 2017-12-22 2020-04-28 Magic Leap, Inc. Viewpoint dependent brick selection for fast volumetric reconstruction
CN110248861B (zh) 2018-01-07 2023-05-30 辉达公司 在车辆操纵过程中使用机器学习模型来引导车辆
US11150663B2 (en) 2018-01-26 2021-10-19 Nvidia Corporation Detection of hazardous driving using machine learning
CN110352153A (zh) 2018-02-02 2019-10-18 辉达公司 自主车辆中用于障碍物躲避的安全程序分析
DE112019000279T5 (de) 2018-02-09 2020-08-27 Nvidia Corporation Steuern autonomer fahrzeuge anhand sicherer ankunftszeiten
US11995551B2 (en) 2018-02-14 2024-05-28 Nvidia Corporation Pruning convolutional neural networks
WO2019161300A1 (en) 2018-02-18 2019-08-22 Nvidia Corporation Detecting objects and determining confidence scores
US10816978B1 (en) 2018-02-22 2020-10-27 Msc.Software Corporation Automated vehicle artificial intelligence training based on simulations
JP6761828B2 (ja) 2018-03-05 2020-09-30 日本電信電話株式会社 柱状物体状態検出装置、柱状物体状態検出方法、柱状物体状態検出処理プログラム
US10157331B1 (en) 2018-03-08 2018-12-18 Capital One Services, Llc Systems and methods for image preprocessing to improve accuracy of object recognition
DE112018007287T5 (de) 2018-03-15 2020-12-10 Harman International Industries, Incorporated Fahrzeugsystem und -verfahren zum erfassen von objekten und einer objektentfernung
US10776985B2 (en) 2018-03-17 2020-09-15 Nvidia Corporation Reflection denoising in ray-tracing applications
JP6833751B2 (ja) 2018-03-20 2021-02-24 株式会社東芝 撮像制御装置、撮像装置、及び撮像制御方法
US11099558B2 (en) 2018-03-27 2021-08-24 Nvidia Corporation Remote operation of vehicles using immersive virtual reality environments
US10586456B2 (en) 2018-04-27 2020-03-10 TuSimple System and method for determining car to lane distance
JP2021530069A (ja) 2018-06-26 2021-11-04 カッツ,イテイ 状況的ドライバ監視システム
DE102018212916A1 (de) 2018-08-02 2020-02-06 Bayerische Motoren Werke Aktiengesellschaft Bestimmung eines Verlaufs einer Fahrspur
US10885698B2 (en) 2018-08-10 2021-01-05 Nvidia Corporation Method for programmable timeouts of tree traversal mechanisms in hardware
US10942030B2 (en) 2018-08-17 2021-03-09 Lyft, Inc. Road segment similarity determination
US10761535B2 (en) 2018-08-21 2020-09-01 GM Global Technology Operations LLC Intelligent vehicle navigation systems, methods, and control logic for multi-lane separation and trajectory extraction of roadway segments
JP7130046B2 (ja) 2018-08-31 2022-09-02 三菱電機株式会社 車載用撮影装置および車載用画像認識装置
US10803314B2 (en) 2018-10-10 2020-10-13 Midea Group Co., Ltd. Method and system for providing remote robotic control
US10816994B2 (en) 2018-10-10 2020-10-27 Midea Group Co., Ltd. Method and system for providing remote robotic control
US20190061771A1 (en) 2018-10-29 2019-02-28 GM Global Technology Operations LLC Systems and methods for predicting sensor information
US11494937B2 (en) 2018-11-16 2022-11-08 Uatc, Llc Multi-task multi-sensor fusion for three-dimensional object detection
US11030476B2 (en) 2018-11-29 2021-06-08 Element Ai Inc. System and method for detecting and tracking objects
US11635767B2 (en) 2019-02-13 2023-04-25 Semyon Nisenzon System and method of using multi-resolution camera clusters input data for controlling autonomous vehicles
US11579629B2 (en) 2019-03-15 2023-02-14 Nvidia Corporation Temporal information prediction in autonomous machine applications
US10977524B2 (en) 2019-04-11 2021-04-13 Open Text Sa Ulc Classification with segmentation neural network for image-based content capture
US10832439B1 (en) 2019-04-19 2020-11-10 Zoox, Inc. Locating entities in a mapped environment
CN110211586A (zh) 2019-06-19 2019-09-06 广州小鹏汽车科技有限公司 语音交互方法、装置、车辆以及机器可读介质
US10625748B1 (en) 2019-06-28 2020-04-21 Lyft, Inc. Approaches for encoding environmental information
EP3998772A4 (en) 2019-07-11 2023-06-07 Samsung Electronics Co., Ltd. VIDEO DECODING METHOD AND APPARATUS, AND VIDEO CODING METHOD AND APPARATUS
US11127164B2 (en) 2019-10-04 2021-09-21 Mitsubishi Electric Research Laboratories, Inc. Image processing system and method for landmark location estimation with uncertainty
US11410315B2 (en) 2019-11-16 2022-08-09 Uatc, Llc High quality instance segmentation
US11966673B2 (en) 2020-03-13 2024-04-23 Nvidia Corporation Sensor simulation and learning sensor models with generative machine learning methods

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102712317A (zh) * 2010-01-14 2012-10-03 丰田自动车工程及制造北美公司 使驾驶员与环境感测结合的车辆安全性系统
CN105835874A (zh) * 2015-01-29 2016-08-10 丰田自动车工程及制造北美公司 视野受阻环境中的自主车辆操作
CN107415938A (zh) * 2016-05-13 2017-12-01 通用汽车环球科技运作有限责任公司 基于乘员位置和注意力控制自主车辆功能和输出
CN108068821A (zh) * 2016-11-08 2018-05-25 现代自动车株式会社 用于确定驾驶员的专注度的装置、具有其的系统及其方法
CN110626356A (zh) * 2018-06-01 2019-12-31 哲纳提公司 用于辅助驾驶员进行预防性驾驶的方法和系统
US20200090322A1 (en) * 2018-09-13 2020-03-19 Nvidia Corporation Deep neural network processing for sensor blindness detection in autonomous machine applications
US20200324795A1 (en) * 2019-04-12 2020-10-15 Nvidia Corporation Neural network training using ground truth data augmented with map information for autonomous machine applications

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116541715A (zh) * 2023-07-05 2023-08-04 苏州浪潮智能科技有限公司 目标检测方法、模型的训练方法、目标检测系统及装置
CN116541715B (zh) * 2023-07-05 2023-09-29 苏州浪潮智能科技有限公司 目标检测方法、模型的训练方法、目标检测系统及装置

Also Published As

Publication number Publication date
US11978266B2 (en) 2024-05-07
DE102021126254A1 (de) 2022-04-21
US20220121867A1 (en) 2022-04-21
JP2022068087A (ja) 2022-05-09

Similar Documents

Publication Publication Date Title
US11978266B2 (en) Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications
US11841458B2 (en) Domain restriction of neural networks through synthetic data pre-training
US11682272B2 (en) Systems and methods for pedestrian crossing risk assessment and directional warning
US20240116538A1 (en) Lane change planning and control in autonomous machine applications
CN112989907A (zh) 使用空间模型的基于神经网络的注视方向确定
CN113632095A (zh) 使用适合停车位检测的倾斜多边形进行对象检测
CN114631117A (zh) 使用机器学习的用于自主机器应用的传感器融合
CN111133448A (zh) 使用安全到达时间控制自动驾驶车辆
US11841987B2 (en) Gaze determination using glare as input
CN112989914A (zh) 具有自适应加权输入的注视确定机器学习系统
CN114155272A (zh) 自主机器应用中的自适应目标跟踪算法
CN115315709A (zh) 自主系统中用于行为预测的基于模型的增强学习及应用
CN114550736A (zh) 用于自主驾驶应用的应急响应车辆检测
CN114332907A (zh) 包括使用神经网络进行鲁棒预测的背景修改的数据增强
CN115718302A (zh) 使用LiDAR数据进行的用于自主机器应用的对象跟踪
US11886634B2 (en) Personalized calibration functions for user gaze detection in autonomous driving applications
US20230110713A1 (en) Training configuration-agnostic machine learning models using synthetic data for autonomous machine applications
US20230341235A1 (en) Automatic graphical content recognition for vehicle applications
CN116767245A (zh) 使用自主系统和应用的神经网络的地图信息对象数据管理
CN115701623A (zh) 自主机器应用中范围图像映射的置信传播
CN117581117A (zh) 自主机器系统和应用中使用LiDAR数据的动态对象检测
JP2023051713A (ja) 自律マシン・アプリケーションにおける深層学習を使用する視認距離推定
CN115344117A (zh) 适配的眼睛追踪机器学习模型引擎
CN117058730A (zh) 用于机器学习模型的数据集生成和增强
CN115218888A (zh) 用于更新高清地图的系统和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination