CN109476309B - 高级驾驶辅助系统中的动态传感器范围 - Google Patents
高级驾驶辅助系统中的动态传感器范围 Download PDFInfo
- Publication number
- CN109476309B CN109476309B CN201680069809.7A CN201680069809A CN109476309B CN 109476309 B CN109476309 B CN 109476309B CN 201680069809 A CN201680069809 A CN 201680069809A CN 109476309 B CN109476309 B CN 109476309B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- interest
- camera
- image
- camera array
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims abstract description 54
- 238000012545 processing Methods 0.000 claims description 50
- 230000008569 process Effects 0.000 claims description 18
- 230000004927 fusion Effects 0.000 claims description 17
- 230000001965 increasing effect Effects 0.000 claims description 13
- 238000010801 machine learning Methods 0.000 claims description 9
- 230000002708 enhancing effect Effects 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 7
- 238000004891 communication Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/04—Monitoring the functioning of the control system
- B60W50/045—Monitoring control system parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/20—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
- B60R2300/205—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/04—Monitoring the functioning of the control system
- B60W50/045—Monitoring control system parameters
- B60W2050/046—Monitoring control system parameters involving external transmission of data to or from the vehicle, e.g. via telemetry, satellite, Global Positioning System [GPS]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/54—Audio sensitive means, e.g. ultrasound
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/30—Auxiliary equipments
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- General Health & Medical Sciences (AREA)
- Vascular Medicine (AREA)
- Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Traffic Control Systems (AREA)
Abstract
本文描述了用于实现高级驾驶辅助系统中的动态传感器范围的各种系统和方法。用于管理自主交通工具的系统包括交通工具中的交通工具控制系统,该交通工具控制系统用于检测交通工具的速度并基于交通工具的速度调整前向相机阵列。
Description
优先权要求
本申请是2015年12月21日提交的美国专利申请S/N 14/976,665的继续申请,该申请通过引用整体结合于此。
技术领域
本文描述的实施例一般涉及交通工具控制,并且具体地涉及使用高级驾驶辅助系统中的动态传感器范围。
背景技术
在汽车情境中,高级驾驶辅助系统(ADAS)系统是被开发来使交通工具系统自动化、适应或增强系统以增加安全性并提供更好驾驶的那些系统。在此类系统中,安全特征被设计成通过提供向驾驶员警告潜在问题的技术来避免碰撞和事故,或通过实施保障措施和接管对交通工具的控制来避免碰撞。
附图简述
在附图中(这些附图不一定是按比例绘制的),相同的数字可以描述在不同视图中的类似的组件。具有不同的字母后缀的相同的数字可以表示类似组件的不同实例。在附图中的诸个图中通过示例而非限制地示出一些实施例:
图1是示出根据实施例的例示出用于控制交通工具的系统的示意图;
图2是根据实施例的图像处理配置的示意图;
图3是例示出根据实施例的用于基于交通工具速度来管理相机阵列的过程的数据和控制流程图;
图4是根据实施例的例示出增强交通工具传感器的方法的流程图;以及
图5是根据示例实施例的解说本文中所讨论的技术(例如,方法)中的任意一种或多种可对其执行的示例机器的框图。
具体实施方式
在以下描述中,为了进行解释,阐述了众多具体细节以便提供对一些示例实施例的全面理解。然而,对本领域技术人员将显而易见的是,没有这些具体细节也可实践本公开。
本文所描述的系统和方法实现先进驾驶辅助系统(ADAS)中的动态传感器范围。ADAS包括交通工具中的各种前向、侧向和后向传感器。传感器包括雷达、激光雷达、相机、超声波、红外线和其他传感器系统。前向传感器可用于自适应巡航控制、停车辅助、车道偏离、碰撞避免、行人检测等。这些类型的系统中的许多都实现困难图像分析或需要强大计算能力的其他类型的分析。常规系统能够处理交通工具前方大约200米以外距离的数据。随着交通工具增加前进速度,处理此类数据的时间量将减少,直到在某一时刻系统无法在交通工具需要对其作出反应之前处理数据。实际上,交通工具正在超越传感器系统的处理范围。所需要的是用于提高ADAS和相关系统的处理效率的机制来为驾驶员和交通工具提供足够的反应时间。
图1是示出根据实施例的例示出用于控制交通工具的系统100的示意图。图1包括经由网络108通信地耦合的交通工具控制系统102、交通工具104和云设备106。
交通工具104可以是能够至少部分地以自主模式操作的任何类型的交通工具,诸如商用交通工具、消费者交通工具、娱乐交通工具、汽车、卡车、摩托车或船。交通工具104可以在某些时间以驾驶员常规地使用踏板、方向盘和其他控制操作交通工具104的手动模式进行操作。在其他时间,交通工具104可以以完全自主模式操作,其中交通工具104在没有用户干预的情况下操作。另外,交通工具104可以以半自主模式操作,其中交通工具104控制驾驶的许多方面,但是驾驶员可以使用常规输入(例如,方向盘)和非常规输入(例如,语音控制)来介入或影响操作。
交通工具104包括传感器阵列,该传感器阵列可包括各种前向、侧向和后向摄像机、雷达、LIDAR、超声波或类似传感器。本文档中使用前向来指代主要行进方向、座椅被布置为面对的方向、当传动装置被设置为驾驶时的行进方向等。然后常规地,向后或后向被用于描述指向与向前或朝向的那些方向大致相反的方向的传感器。应理解,一些前向相机可具有相对宽视场,甚至达180度。类似地,以用于检测相邻交通车道中的交通的角度(可能偏离中心60度)指向的后向相机也可具有相对宽的视场,该相对宽的视场可与前向相机的视场交迭。侧向传感器是从交通工具侧面向外指向的那些传感器。传感器阵列中的相机可包括红外相机或可见光相机,能够以具有窄视场或大视场的长距或短距进行聚焦。
交通工具104包括车载诊断系统以记录交通工具操作和交通工具性能、维护或状态的其他方面。交通工具104还可包括各种其他传感器,诸如驾驶员标识传感器(例如,座椅传感器、眼睛跟踪和标识传感器、指纹扫描仪、语音识别模块等)、乘员传感器或各种环境传感器以检测风速、室外温度、气压计压力、雨水/湿度等。
云服务106可作为软件被提供为服务、中央计算平台、虚拟化计算平台等。云服务106可从交通工具104、交通工具控制系统102或交通工具104的乘员收集数据,以向交通工具104、交通工具104的乘员或其他人或交通工具提供服务。一方面,云服务106从一个或多个交通工具或一个或多个交通工具的乘员收集数据,并创建地形、道路、路线、桥梁或其他行进结构的模型。模型然后可被其他交通工具或交通工具的乘员用来调整交通工具上的传感器阵列。作为示例,云服务106可接收关于道路中的特定车道改变的数据,其中道路变窄并且车道改变难以在存在交通时导航。模型可由在道路上行进的交通工具使用,以增加传感器阵列的灵敏度、分辨率、处理能力或其他方面,以更好地分析道路并成功导航车道改变。稍后在道路上行进的交通工具也可上传关于其道路横越的数据,这可被用于细化模型。
此外,云服务106可被交通工具104的驾驶员用作照片或视频储存库。在一些示例中,交通工具104中的相机阵列可被用于捕捉图像或视频,并且此类图像/视频可被存储在云服务106处的位置中以供稍后检索。作为示例,驾驶员在驾驶时可看到风景优美的池塘。使用手势、语音命令、注视检测或其他输入,相机阵列可被控制成捕捉场景的图像或视频并将其上传到云服务106。以此方式,与若使用常规手持式相机的情况相比,驾驶员能够以较少的分心捕捉周围的图像/视频。
网络108可包括局域网(LAN)、广域网(WAN)、无线网络(例如,802.11或蜂窝网络)、公共交换电话网(PSTN)网络、自组织网络、个域网(例如,蓝牙)、基于交通工具的网络(例如,控制器区域网络(CAN)总线)或网络协议和网络类型的其他组合或排列。网络108可包括单个局域网(LAN)或广域网(WAN)、或者LAN或WAN的组合(诸如因特网)。耦合至网络108的各种设备(例如,移动设备106或交通工具104)可经由一个或多个有线或无线连接被耦合至网络108。
在操作中,交通工具104响应于交通工具104的状态或位置适应性地实现一个或多个传感器,或者改变一个或多个传感器的操作。在一个示例中,交通工具控制系统102被配置成检测交通工具104的速度,并且当速度比阈值速度快时,交通工具控制系统102修改交通工具104上的相机阵列中的一个或多个相机。修改可用于实现相机阵列中的附加相机、修改对由相机阵列的一个或多个相机捕捉的图像的图像处理、修改相机阵列的一个或多个相机的焦距、缩放或其他操作方面或者其他此类调整以为传感器处理提供时间。
在另一示例中,交通工具控制系统102被配置成基于速度来改变交通工具104的相机阵列中的一个或多个相机的分辨率、焦距或缩放。与远光灯前灯(high-beam headlight)如何工作相类似,对相机的调整可被用于向前看得更远、缩窄视场以聚焦远处的对象、或者更改图像的分辨率以识别更远的对象。一方面,交通工具控制系统102控制一个或多个相机来随着交通工具的速度的增加而拉远相机来进一步远离交通工具104。另一方面,交通工具控制系统102可控制一个或多个相机以增加图像分辨率,以便于较远离的对象具有足够的像素密度(例如,每英寸点数(DPI))来分类和识别具有特异性的对象。低分辨率图像(例如,具有低DPI的那些图像)可具有大块状像素,这些大块状像素不能提供足够的不同形状来识别例如字母、符号形状或象形文字。虽然增加图像的分辨率的代价是增加了分析图像的处理时间。然而,通过减少要处理的图像的量(诸如通过人工实现受限视场),交通工具控制系统102能够处理较远的对象的图像并忽略或过滤较近的对象。
在另一示例中,交通工具控制系统102实现用于不同目的的多个相机。一个前向相机(或若干相机)被用于捕捉低分辨率图像。可在低分辨率图像上使用简单分类器来标识潜在感兴趣对象。这些潜在感兴趣对象的位置随后被中继至图像处理器。图像处理器可从另外一个或多个前向相机获得高分辨率图像。高分辨率图像可具有感兴趣对象(例如,对如由简单分类器标识的特定对象进行聚焦和缩放)或者可具有与低分辨率图像基本相同的场景(例如,类似的视场)并被修剪以隔离感兴趣对象。图像处理器可获得潜在感兴趣对象的高分辨率图像,并在复杂分类器中使用高分辨率图像来确定关于对象的附加信息。双层级分层方法改进传感器效率,以适应较快移动的交通工具。
在实施例中,交通工具控制系统102包括相机阵列接口110、图像处理器112、传感器融合模块114和通信模块118。交通工具控制系统102作为用于管理交通工具104中和周围的传感器的系统来操作。相机阵列接口110可操作用于直接或间接地控制一个或多个相机。相机(一个或多个)可被激活或去激活;被指导以聚焦于对象或区域;被控制以推近或拉远场景;被控制以捕捉图像或视频供用户以后参考;等等。
图像处理器112可操作用于实现一个或多个对象识别算法或分类器。可使用各种方法,包括但不限于边缘匹配、分治搜索、灰度匹配、梯度匹配、直方图分析和机器学习(例如,遗传算法)。图像处理器112可实现相对简单的分类器以标识低分辨率图像中的潜在感兴趣对象。图像处理器112可实现相对简单的分类器以更具体地标识低分辨率图像中的潜在感兴趣对象。通过一起工作,简单和复杂的分类器提供级联工作流,这改善了图像处理器112的处理能力。由图像处理器112执行的处理中的一些或全部可被卸载至远程系统(例如,云服务)。虽然将图像处理卸载到大型云服务可减少处理时间,但通信开销可使整个过程花费更长时间。如此,取决于交通工具104的通信能力,可不使用卸载。例如,如果交通工具104在蜂窝信号弱的山区行进,则由于通信开销太大,因此可在交通工具104处执行图像处理。
传感器融合模块114可被用于融合多个输入并管理多个传感器。输入可来自交通工具104中的传感器或来自外部源(诸如云服务106)。在示例中,传感器融合模块114获得道路的一部分的模型,并使用该模型来修改交通工具104上的一个或多个传感器的操作特性,以便提供较安全的操作。
通信模块116可操作用于至少与云服务106通信。通信模块116可为交通工具控制系统102的其他组件(诸如图像处理器112或传感器融合模块114)提供通信。通信模块116可使用一个或多个通信模态,包括但不限于无线网络(例如,802.11或蜂窝网络)、自组织网络、个域网(例如,蓝牙)、基于交通工具的网络(例如,CAN总线)、或网络协议和网络类型的其他组合或排列。
交通工具控制系统102可被设置在交通工具104中或网络服务器(例如,云服务106)中。交通工具控制系统102可作为交通工具的售后组件来安装,或者可作为制造商选项来提供。交通工具控制系统102的部分可在若干地方(诸如在分布式计算模型中)实现。例如,用于对象识别的成像处理可由云服务106或另一计算平台来提供。作为另一示例,可至少部分地在用户设备(诸如智能电话)中提供通信模块116。在此类示例中,交通工具104可通过短距遥测(例如,蓝牙)与用户设备通信,而智能电话可通过长距遥测(例如,蜂窝)与云服务106通信。
因此,在各实施例中,图1中例示了用于管理交通工具的系统,该系统包括交通工具104中的交通工具控制系统102,该交通工具控制系统102用于检测交通工具104的速度并基于交通工具104的速度调整前向相机阵列。
在实施例中,为了调整相机阵列,交通工具控制系统102用于确定交通工具的速度是否违反阈值速度,控制相机阵列中的低分辨率相机来捕捉低分辨率图像,以及控制相机阵列中的高分辨率相机来捕捉低分辨率图像中标识的对象。阈值速度可以是可由交通工具104的驾驶员或所有者配置的。替代地,阈值速度可由相机阵列或交通工具104的制造商或提供商配置。在实施例中,阈值速度是接触值,诸如每小时60英里,并且基于处理图像和识别对象花费了多少时间。在另一实施例中,阈值速度是可变值,并且可基于图像处理的实际性能(例如,移动的10分钟窗口)。可变阈值速度具有针对交通工具104外部的变化的条件(诸如当存在可增加对象分类所需的处理时间的雪、雨、雾或其他环境条件时)进行调整的优点。
在实施例中,控制高分辨率相机包括:交通工具控制系统102用于使用简单对象分类器来标识低分辨率图像中的感兴趣对象,确定感兴趣对象在低分辨率图像中的位置,确定由高分辨率相机捕捉的高分辨率图像中与感兴趣对象在低分辨率图像中的位置相对应的一部分,以及使用复杂对象分类器来处理高分辨率图像的该部分。此类图像处理可由交通工具控制系统102的子系统(诸如图像处理器112)来执行。
在另一实施例中,控制高分辨率相机包括:交通工具控制系统102用于使用简单对象分类器来标识低分辨率图像中的感兴趣对象,确定感兴趣对象在低分辨率图像中的位置,控制高分辨率相机来框住(frame)感兴趣对象并捕捉高分辨率图像,以及使用复杂对象分类器来处理高分辨率图像。在此类实施例中,除了感兴趣对象在低分辨率相机的视场中的相对位置之外,高分辨率相机的瞄准、聚焦和缩放控制可基于使用高分辨率相机与低分辨率相机的相对角偏移计算的轨迹。因此,在进一步的实施例中,控制高分辨率相机来框住感兴趣对象包括:交通工具控制系统102用于控制缩放或聚焦中的至少一个来框住感兴趣对象。
在实施例中,调整相机阵列包括:交通工具控制系统102用于调整焦距或分辨率中的一个以在交通工具的速度增加时标识进一步远离交通工具的对象。例如,通过使用高分辨率图像,进一步远离的对象的细节是可辨别的。
在实施例中,调整相机阵列包括:交通工具控制系统102用于随着交通工具的速度的增加而将相机阵列中的相机聚焦于交通工具前方更远的对象上。相机阵列中的相机因此也可具有较小的视场。在此情形中,相机可在较小的帧中获得较高分辨率的图像,以便不影响检测帧中的感兴趣对象所需的整体图像处理时间。
在实施例中,图1的系统包括:传感器融合模块114,该传感器融合模块114用于访问交通工具行进的路线中的道路模型,该道路具有指示道路的危险部分的特征,使用相机阵列来识别该特征,以及在特征被识别时调整交通工具中的传感器。道路的危险部分可能是狭窄车道、靠近道路的危险对象、盲路口(blind intersections)等。当道路的危险部分在前方时,传感器可被配置成较敏感地来向交通工具104的乘员提供附加安全性。在实施例中,为了调整传感器,传感器融合模块114用于增加相机阵列中的相机的分辨率。在另一实施例中,调整传感器包括,传感器融合模块114用于增加传感器的采样率。在另一实施例中,传感器可以是以下之一:相机、雷达传感器、LIDAR传感器、超声波传感器或红外传感器。
在实施例中,为了访问路线中的模型,传感器融合模块114用于确定交通工具的位置或路线,将交通工具的位置或路线传送至云服务(例如,云服务106),并从云服务接收路线中的道路模型。交通工具104的位置或路线可从交通工具104中的车载导航单元获得,其可具有预先计划路线、当前位置、目的地或关于交通工具位置和周围环境的其他信息。位置可从诸如全球定位系统(GPS)或全球导航卫星系统(GLONASS)之类的地理位置系统获得。
在实施例中,模型基于先前交通工具在道路上作出的多次横越。例如,配备有类似交通工具控制系统的其他交通工具可上传来自由其车载相机阵列获得的图像的特征、对象或其他信息。使用集体数据,云服务106可生成道路或道路的一部分的模型。在实施例中,使用机器学习技术来修正模型。基于例如用户反馈,反向传播机器学习技术可被用于细化图像分类器。
在实施例中,图1的系统包括图像捕捉模块,该图像捕捉模块用于确定交通工具驾驶员的注视方向,并基于注视方向处理来自相机阵列的相机的图像。在进一步的实施例中,为了基于注视方向来处理来自相机阵列的相机的图像,图像捕捉模块用于捕捉图像并将图像传送至云服务。图像捕捉模块可与通信模块116接口以传送图像。
在实施例中,为了基于注视方向来处理来自相机阵列的相机的图像,图像捕捉模块用于基于图像来调整相机阵列以标识图像中的感兴趣对象,并基于对感兴趣对象的标识来建议驾驶员。例如,如果驾驶员正看着可能是行人的对象,则图像捕捉模块可调整相机阵列来捕捉对象的各种表示(例如,红外图像和可见光图像)以便确定对象的可能分类。如果对分类有足够的信心,则图像捕捉模块可建议驾驶员其可能是人。可使用各种方法来提供建议,这些方法诸如交通工具104的挡风玻璃上的平视显示器、可听通知、仪表板上的象形表示等。
图2是根据实施例的图像处理配置的示意图。图2包括短距相机200、长距相机202、交通工具控制器204和图像处理器206。基于由交通工具控制器204检测到的交通工具的速度和驾驶员的注视方向和聚焦,短距相机200可瞄准场景的方向并拍摄高清照片。照片随后可被上传至云以供用户稍后访问它们,例如将其复制到个人文件夹或丢弃它们。如图2所描绘的相机200、202和交通工具控制器204的布置还可用于上文讨论的分层级图像处理。
图3是例示出根据实施例的基于交通工具的速度来管理相机阵列的过程的数据和控制流程图。在300处,接收交通工具输入(例如,交通工具速度)。交通工具输入可以是从被连接至CAN总线的速度计传感器接收的。在另一个示例中,交通工具输入可以是从诸如GPS接收器之类的定位系统接收的。如果交通工具的速度小于阈值(例如,每小时65英里),则检测附近的潜在对象(操作302),并从检测到的潜在对象解析对象(操作304)。如果车速超过阈值,则检测远处的潜在对象(操作306),然后在操作304中解析该对象。
图4是根据实施例的例示出增强交通工具传感器的方法400的流程图。在框402处,在交通工具中的交通工具控制系统处,检测交通工具的速度。
在框404处,交通工具控制系统基于交通工具的速度调整前向相机阵列。
在实施例中,调整相机阵列包括确定交通工具的速度是否违反阈值速度,控制相机阵列中的低分辨率相机来捕捉低分辨率图像,以及控制相机阵列中的高分辨率相机来捕捉低分辨率图像中标识的对象。在进一步的实施例中,控制高分辨率相机包括使用简单对象分类器来标识低分辨率图像中的感兴趣对象,确定感兴趣对象在低分辨率图像中的位置,确定由高分辨率相机捕捉的高分辨率图像中与感兴趣对象在低分辨率图像中的位置相对应的一部分,以及使用复杂对象分类器来处理高分辨率图像的该部分。在另一实施例中,控制高分辨率相机包括使用简单对象分类器来标识低分辨率图像中的感兴趣对象,确定感兴趣对象在低分辨率图像中的位置,控制高分辨率相机来框住感兴趣对象并捕捉高分辨率图像,以及使用复杂对象分类器来处理高分辨率图像。在进一步的实施例中,控制高分辨率相机来框住感兴趣对象包括控制缩放或聚焦中的至少一个来框住感兴趣对象。
在实施例中,调整相机阵列包括调整焦距或分辨率中的一个以在交通工具的速度增加时标识离进一步远离交通工具的对象。
在实施例中,调整相机阵列包括随着交通工具的速度的增加而将相机阵列中的相机聚焦于交通工具前方更远的对象上。
在实施例中,方法400包括:访问交通工具行进的路线中的道路模型,该道路具有指示道路的危险部分的特征;使用相机阵列来识别该特征;以及在特征被识别时调整交通工具中的传感器。在进一步的实施例中,调整传感器包括增加相机阵列中的相机的分辨率。在另一实施例中,其中调整传感器包括增加传感器的采样率。在实施例中,传感器包括以下之一:相机、雷达传感器、LIDAR传感器、超声波传感器或红外传感器。
在实施例中,访问路线中的模型包括确定交通工具的位置或路线,将交通工具的位置或路线传送至云服务,以及从云服务接收路线中的道路模型。
在实施例中,模型基于先前交通工具在道路上作出的多次横越。
在实施例中,使用机器学习技术来修正模型。
在实施例中,方法400包括确定交通工具驾驶员的注视方向并基于注视方向处理来自相机阵列的相机的图像。在进一步的实施例中,基于注视方向处理来自相机阵列的相机的图像包括捕捉图像并将图像传送至云服务。
在另一实施例中,基于注视方向处理来自相机阵列的相机的图像包括基于图像来调整相机阵列以标识图像中的感兴趣对象,并基于对感兴趣对象的标识来建议驾驶员。
各实施例可在硬件、固件和软件中的一者或组合中实现。实施例也可实现成存储于机器可读存储设备上的指令,该指令可由至少一个处理器读取并执行,以执行本文所描述的操作。机器可读存储设备可包括用于以机器(如,计算机)可读形式存储信息的任何非瞬态机制。例如,机器可读存储设备可包括只读存储器(ROM)、随机存取存储器(RAM)、磁盘存储介质、光存储介质、闪存设备以及其他存储设备和介质。
处理器子系统可被用于执行机器可读介质上的指令。处理器子系统可以包括一个或多个处理器,每个处理器具有一个或多个核心。另外,处理器子系统可被设置在一个或多个物理设备上。处理器子系统可以包括一个或多个专用处理器,诸如图形处理单元(GPU)、数字信号处理器(DSP)、现场可编程门阵列(FPGA)或固定功能处理器。
如本文中所述示例可包括逻辑或多个组件、模块或机制,或可在逻辑或多个组件、模块或机制上操作。各模块可以是通信耦合到一个或多个处理器以实现本文描述的操作的硬件、软件或固件。各模块可以是硬件模块,并且如此,各模块可被认为是能够执行指定操作的有形实体且可以按特定方式来配置或布置。在示例中,能以指定方式将电路(例如,内部地或者相对于诸如其他电路之类的外部实体)布置为模块。在示例中,一个或多个计算机系统(例如,独立的客户机或服务器计算机系统)或一个或多个硬件处理器的全部或部分可由固件或软件(例如,指令、应用部分、或者应用)配置为操作用于执行所指定操作的模块。在一个示例中,软件可以驻留在机器可读介质上。在示例中,软件在由模块的底层硬件执行时,使此硬件执行指定的操作。因此,术语硬件模块被理解为涵盖有形实体,该有形实体是物理地框住、具体地配置(例如,硬连线)、或者临时地(例如,瞬态地)配置(例如,编程)从而以所指定的方式操作或者执行本文中所描述的任何操作的部分或全部的实体。考虑到其中临时配置模块的示例,这些模块中的每一个不需要在任何一个时刻进行例示。例如,在模块包括使用软件而配置的通用硬件处理器的情况下,通用硬件处理器可以在不同时间被配置为相应的不同模块。软件可以相应地配置硬件处理器,例如以便在一个时间实例处构成特定的模块,并且在不同的时间实例处构成不同的模块。各模块也可以是软件或固件模块,它们操作来执行本文描述的方法。
图5是以计算机系统500的示例形式示出的机器的框图,根据示例实施例,该机器中有指令集或指令序列,这些指令集或序列能被执行以使该机器执行本文中讨论的方法中的任意一个方法。在替代实施例中,该机器作为独立设备进行操作,或可以被连接(如,联网)到其他机器。在被联网的部署中,该机器可在服务器-客户机网络环境中作为服务器或客户机来进行操作,或者可在对等(或分布式)网络环境中担当对等机。该机器可以是交通工具机载系统、机顶盒、可穿戴设备、个人计算机(PC)、平板PC、混合式平板、个人数字助理(PDA)、移动电话、或能够执行指定要由该机器采取的动作的指令(顺序地或以其他方式)的任何机器。此外,虽然仅示出单个机器,但是,术语“机器”也应当包括单独或共同执行一组(或多组)指令以执行本文所讨论的方法中的任何一种或更多种方法的机器的任意集合。类似地,术语“基于处理器的系统”应当被认为包括由处理器(例如,计算机)控制或操作以单独地或联合地执行指令来执行本文讨论的方法中的任何一者或多者的任何一组一个或多个机器。
示例计算机系统500包括处理器502(例如,中央处理单元(CPU)及图形处理单元(GPU)中的至少一个或两个、处理器核、计算节点等)、主存储器504及静态存储器506,其均通过链路508(例如,总线)彼此通信。计算机系统500可进一步包括视频显示单元510、字母数字输入设备512(例如,键盘)和用户界面(UI)导航设备514(例如,鼠标)。在一个实施例中,该视频显示单元510、输入设备512及UI导航设备514被结合进触屏显示器中。计算机系统500可以附加包括存储设备516(例如,驱动单元)、信号生成设备518(例如,扬声器)、网络接口设备520及一个或多个传感器(未示出),该传感器可以是诸如:全球定位系统(GPS)传感器、罗盘、加速度计或其他传感器。
存储设备516包括机器可读介质522,该机器可读介质522上储存有一组或更多组数据结构和指令524(如,软件),该一组或更多组数据结构和指令524具体化本文所描述的任何一种或多种方法或功能,或为该任何一种或多种方法或功能所用。在计算机系统500执行指令524期间,该指令524也可完全地或至少部分地驻留在主存储器504、静态存储器506和/或处理器502之内,所述主存储器504、静态存储器506和处理器502也构成机器可读介质。
虽然机器可读介质522在示例实施例中示出为单个介质,但术语“机器可读介质”可包括存储一条或多条指令524的单个或多个介质(如,集中式或分布式数据库和/或相关联的缓存及服务器)。术语“机器可读介质”也应当包括任何有形介质,该有形介质能够存储、编码或携带由机器执行的指令,并且能够使机器执行本公开所述的任何一种或多种方法,或者能够储存、编码或携带被所述指令利用或与所述指令相关联的数据结构。术语“机器可读介质”应当相应地被认为包括,但不限于:固态存储器以及光和磁介质。机器可读介质的具体示例包括非易失性存储器,作为示例包括但不限于半导体存储器设备(例如,电可编程只读存储器(EPROM)、电可擦可编程只读存储器(EEPROM))和闪存设备;诸如内部硬盘及可移动盘之类的磁盘;磁光盘;以及CD-ROM和DVD-ROM盘。
可使用传输介质,通过网络接口设备520,利用若干熟知的传输协议(如,HTTP)中的任意一种协议,进一步在通信网络526上发送或接收指令524。通信网络的示例包括:局域网(LAN)、广域网(WAN)、因特网、移动电话网络、普通老式电话(POTS)网络及无线数据网络(例如,Wi-Fi、3G及4G LTE/LTE-A或WiMAX网络)。术语“传输介质”应当包括能够存储、编码或携带由机器执行的指令的任何无形的介质,并且包括数字或模拟通信信号或者用于促进此类软件的通信的其他无形的介质。
附加注释和示例:
示例1是一种用于管理自主交通工具的系统,所述系统包括:交通工具中的交通工具控制系统,该交通工具控制系统用于:检测交通工具的速度;基于交通工具的速度来调整前向相机阵列。
在示例2中,示例1的主题任选地包括,其中为了调整相机阵列,交通工具控制系统用于:确定交通工具的速度是否违反阈值速度;控制相机阵列中的低分辨率相机来捕捉低分辨率图像;以及控相机阵列中的高分辨率相机来捕捉低分辨率图像中标识的对象。
在示例3中,示例2的主题任选地包括,其中为了控制高分辨率相机,交通工具控制系统用于:使用简单对象分类器来标识低分辨率图像中的感兴趣对象;确定感兴趣对象在低分辨率图像中的位置;确定由高分辨率相机捕捉的高分辨率图像中与感兴趣对象在低分辨率图像中的位置相对应的部分;以及使用复杂对象分类器来处理高分辨率图像的该部分。
在示例4中,示例2-3中的任何一个或多个的主题任选地包括,其中为了控制高分辨率相机,交通工具控制系统用于:使用简单对象分类器来标识低分辨率图像中的感兴趣对象;确定感兴趣对象在低分辨率图像中的位置;控制高分辨率相机来框住感兴趣对象并捕捉高分辨率图像;以及使用复杂对象分类器来处理高分辨率图像。
在示例5中,示例4的主题任选地包括,其中为了控制高分辨率相机来框住感兴趣对象,交通工具控制系统用于:控制缩放或聚焦中的至少一者来框住感兴趣对象。
在示例6中,示例1-5中的任何一个或多个的主题任选地包括,其中为了调整相机阵列,交通工具控制系统用于:调整焦距或分辨率中的一者以在交通工具的速度增加时标识离进一步远离交通工具的对象。
在示例7中,示例1-6中的任何一个或多个的主题任选地包括,其中为了调整相机阵列,交通工具控制系统用于:随着交通工具的速度的增加将相机阵列中的相机聚焦于交通工具前方更远的对象上。
在示例8中,示例1-7中的任何一个或多个的主题任选地包括,进一步包括传感器融合模块,该传感器融合模块用于:访问交通工具行进的路线中的道路的模型,该道路具有指示该道路的危险部分的特征;使用相机阵列来识别特征;以及在特征被识别时调整交通工具中的传感器。
在示例9中,示例8的主题任选地包括,其中为了调整传感器,传感器融合模块用于:增加相机阵列中的相机的分辨率。
在示例10中,示例8-9中的任何一个或多个的主题任选地包括,其中为了调整传感器,传感器融合模块用于:增加传感器的采样率。
在示例11中,示例10的主题任选地包括,其中传感器包括以下之一:相机、雷达传感器、LIDAR传感器、超声波传感器或红外传感器。
在示例12中,示例8-11中的任何一个或多个的主题任选地包括,其中为了访问路线中的模型,传感器融合模块用于:确定交通工具的位置或路线;将交通工具的位置或路线传送至云服务;以及从云服务接收路线中的道路的模型。
在示例13中,示例8-12中的任何一个或多个的主题任选地包括,其中模型基于先前交通工具在道路上作出的多次横越。
在示例14中,示例8-13中的任何一个或多个的主题任选地包括,其中使用机器学习技术来修正模型。
在示例15中,示例1-14中的任何一个或多个的主题任选地包括,进一步包括图像捕捉模块,该图像捕捉模块用于:确定交通工具的驾驶员的注视方向;以及基于注视方向处理来自相机阵列的相机的图像。
在示例16中,示例15的主题任选地包括,其中为了基于注视方向处理来自相机阵列的相机的图像,图像捕捉模块用于:捕捉图像;以及将图像传送至云服务。
在示例17中,示例15-16中的任何一个或多个的主题任选地包括,其中为了基于注视方向处理来自相机阵列的相机的图像,图像捕捉模块用于:基于图像来调整相机阵列以标识图像中的感兴趣对象;以及基于感兴趣对象的标识来建议驾驶员。
示例18是一种用于增强交通工具传感器的方法,该方法包括:在交通工具中的交通工具控制系统处检测交通工具的速度;以及基于交通工具的速度来由交通工具控制系统调整前向相机阵列。
在示例19中,示例18的主题可任选地包括:其中调整相机阵列包括:确定交通工具的速度是否违反阈值速度;控制相机阵列中的低分辨率相机来捕捉低分辨率图像;以及控相机阵列中的高分辨率相机来捕捉低分辨率图像中标识的对象。
在示例20中,示例19的主题可任选地包括:其中控制高分辨率相机包括:使用简单对象分类器来标识低分辨率图像中的感兴趣对象;确定感兴趣对象在低分辨率图像中的位置;确定由高分辨率相机捕捉的高分辨率图像中与感兴趣对象在低分辨率图像中的位置相对应的部分;以及使用复杂对象分类器来处理高分辨率图像的该部分。
在示例21中,示例19-20中的任何一个或多个的主题任选地包括,其中控制高分辨率相机包括:使用简单对象分类器来标识低分辨率图像中的感兴趣对象;确定感兴趣对象在低分辨率图像中的位置;控制高分辨率相机来框住感兴趣对象并捕捉高分辨率图像;以及使用复杂对象分类器来处理高分辨率图像。
在示例22中,示例21的主题可任选地包括:其中控制高分辨率相机来框住感兴趣对象包括:控制缩放或聚焦中的至少一者来框住感兴趣对象。
在示例23中,示例18-22中的任何一个或多个的主题任选地包括,其中调整相机阵列包括:调整焦距或分辨率中的一者以在交通工具的速度增加时标识进一步远离交通工具的对象。
在示例24中,示例18-23中的任何一个或多个的主题任选地包括,其中调整相机阵列包括:随着交通工具的速度的增加将相机阵列中的相机聚焦于交通工具前方更远的对象上。
在示例25中,示例18-24中的任何一个或多个的主题任选地包括,进一步包括:访问交通工具行进的路线中的道路的模型,该道路具有指示该道路的危险部分的特征;使用相机阵列来识别特征;以及在特征被识别时调整交通工具中的传感器。
在示例26中,示例25的主题可任选地包括:其中调整传感器包括:增加相机阵列中的相机的分辨率。
在示例27中,示例25-26中的任何一个或多个的主题任选地包括,其中调整传感器包括:增加传感器的采样率。
在示例28中,示例27的主题任选地包括,其中传感器包括以下之一:相机、雷达传感器、LIDAR传感器、超声波传感器或红外传感器。
在示例29中,示例25-28中的任何一个或多个的主题任选地包括,其中访问路线中的模型包括:确定交通工具的位置或路线;将交通工具的位置或路线传送至云服务;以及从云服务接收路线中的道路的模型。
在示例30中,示例25-29中的任何一个或多个的主题任选地包括,其中模型基于先前交通工具在道路上作出的多次横越。
在示例31中,示例25-30中的任何一个或多个的主题任选地包括,其中使用机器学习技术来修正模型。
在示例32中,示例18-31中的任何一个或多个的主题任选地包括,进一步包括:确定交通工具的驾驶员的注视方向;以及基于注视方向处理来自相机阵列的相机的图像。
在示例33中,示例32的主题任选地包括,其中基于注视方向处理来自相机阵列的相机的图像包括:捕捉图像;以及将图像传送至云服务。
在示例34中,示例32-33中的任何一个或多个的主题任选地包括,其中基于注视方向处理来自相机阵列的相机的图像包括:基于图像来调整相机阵列以标识图像中的感兴趣对象;以及基于感兴趣对象的标识来建议驾驶员。
示例35是包括指令的至少一种机器可读介质,所述指令在被机器执行时使所述机器执行示例18-34的方法中的任一者的操作。
示例36是一种包括用于执行示例18-34的方法中的任一项的装置的设备。
示例37是一种用于增强交通工具传感器的设备,所述设备包括:用于在交通工具中的交通工具控制系统处检测交通工具的速度的装置;以及用于由交通工具控制系统基于交通工具的速度来调整前向相机阵列的装置。
在示例38中,示例37的主题可任选地包括:其中调整相机阵列包括:确定交通工具的速度是否违反阈值速度;控制相机阵列中的低分辨率相机来捕捉低分辨率图像;以及控相机阵列中的高分辨率相机来捕捉低分辨率图像中标识的对象。
在示例39中,示例38的主题可任选地包括:其中用于控制高分辨率相机的装置包括:用于使用简单对象分类器来标识低分辨率图像中的感兴趣对象的装置;用于确定感兴趣对象在低分辨率图像中的位置的装置;用于确定由高分辨率相机捕捉的高分辨率图像中与感兴趣对象在低分辨率图像中的位置相对应的部分的装置;以及用于使用复杂对象分类器来处理高分辨率图像的该部分的装置。
在示例40中,示例38-39中的任何一个或多个的主题任选地包括,其中用于控制高分辨率相机的装置包括:用于使用简单对象分类器来标识低分辨率图像中的感兴趣对象的装置;用于确定感兴趣对象在低分辨率图像中的位置的装置;用于控制高分辨率相机来框住感兴趣对象并捕捉高分辨率图像的装置;以及用于使用复杂对象分类器来处理高分辨率图像的装置。
在示例41中,示例40的主题可任选地包括:其中用于控制高分辨率相机来框住感兴趣对象的装置包括:用于控制缩放或聚焦中的至少一者来框住感兴趣对象的装置。
在示例42中,示例37-41中的任何一个或多个的主题任选地包括,其中用于调整相机阵列的装置包括:用于调整焦距或分辨率中的一者以在交通工具的速度增加时标识进一步远离交通工具的对象的装置。
在示例43中,示例37-42中的任何一个或多个的主题任选地包括,其中用于调整相机阵列的装置包括:用于随着交通工具的速度的增加将相机阵列中的相机聚焦于交通工具前方更远的对象上的装置。
在示例44中,示例37-43中的任何一个或多个的主题任选地包括,进一步包括:用于访问交通工具行进的路线中的道路的模型的装置,该道路具有指示该道路的危险部分的特征;用于使用相机阵列来识别特征的装置;以及用于在特征被识别时调整交通工具中的传感器的装置。
在示例45中,示例44的主题任选地包括,其中用于调整传感器的装置包括:用于增加相机阵列中的相机的分辨率的装置。
在示例46中,示例44-45中的任何一个或多个的主题任选地包括,其中用于调整传感器的装置包括:用于增加传感器的采样率的装置。
在示例47中,示例46的主题任选地包括,其中传感器包括以下之一:相机、雷达传感器、LIDAR传感器、超声波传感器或红外传感器。
在示例48中,示例44-47中的任何一个或多个的主题任选地包括,其中用于访问路线中的模型的装置包括:用于确定交通工具的位置或路线的装置;用于将交通工具的位置或路线传送至云服务的装置;以及用于从云服务接收路线中的道路的模型的装置。
在示例49中,示例44-48中的任何一个或多个的主题任选地包括,其中模型基于先前交通工具在道路上作出的多次横越。
在示例50中,示例44-49中的任何一个或多个的主题任选地包括,其中使用机器学习技术来修正模型。
在示例51中,示例37-50中的任何一个或多个的主题任选地包括,进一步包括:用于确定交通工具的驾驶员的注视方向的装置;以及用于基于注视方向处理来自相机阵列的相机的图像的装置。
在示例52中,示例51的主题任选地包括,其中用于基于注视方向处理来自相机阵列的相机的图像的装置包括:用于捕捉图像的装置;以及用于将图像传送至云服务的装置。
在示例53中,示例51-52中的任何一个或多个的主题任选地包括,其中用于基于注视方向处理来自相机阵列的相机的图像的装置包括:用于基于图像来调整相机阵列以标识图像中的感兴趣对象的装置;以及用于基于感兴趣对象的标识来建议驾驶员的装置。
示例54是一种用于增强交通工具传感器的系统,该系统包括:处理器子系统;以及包括指令的存储器,所述指令在被处理器子系统执行时,使处理器子系统:检测交通工具的速度;基于交通工具的速度来调整前向相机阵列。
在示例55中,示例54的主题任选地包括,其中用于调整相机阵列的指令包括用于以下的指令:确定交通工具的速度是否违反阈值速度;控制相机阵列中的低分辨率相机来捕捉低分辨率图像;以及控相机阵列中的高分辨率相机来捕捉低分辨率图像中标识的对象。
在示例56中,示例55的主题任选地包括,其中用于控制高分辨率相机的指令包括用于以下的指令:使用简单对象分类器来标识低分辨率图像中的感兴趣对象;确定感兴趣对象在低分辨率图像中的位置;确定由高分辨率相机捕捉的高分辨率图像中与感兴趣对象在低分辨率图像中的位置相对应的部分;以及使用复杂对象分类器来处理高分辨率图像的该部分。
在示例57中,示例55-56中的任何一个或多个的主题任选地包括,其中用于控制高分辨率相机的指令包括用于以下的指令:使用简单对象分类器来标识低分辨率图像中的感兴趣对象;确定感兴趣对象在低分辨率图像中的位置;控制高分辨率相机来框住感兴趣对象并捕捉高分辨率图像;以及使用复杂对象分类器来处理高分辨率图像。
在示例58中,示例57的主题可任选地包括:其中用于控制高分辨率相机来框住感兴趣对象的指令包括用于以下的指令:控制缩放或聚焦中的至少一者来框住感兴趣对象。
在示例59中,示例54-58中的任何一个或多个的主题任选地包括,其中用于调整相机阵列的指令包括用于以下的指令:调整焦距或分辨率中的一者以在交通工具的速度增加时标识进一步远离交通工具的对象。
在示例60中,示例54-59中的任何一个或多个的主题任选地包括,其中用于调整相机阵列的指令包括用于以下的指令:随着交通工具的速度的增加将相机阵列中的相机聚焦于交通工具前方更远的对象上。
在示例61中,示例54-60中的任何一个或多个的主题任选地包括,进一步包括用于以下的指令:访问交通工具行进的路线中的道路的模型,该道路具有指示该道路的危险部分的特征;使用相机阵列来识别特征;以及在特征被识别时调整交通工具中的传感器。
在示例62中,示例61的主题任选地包括,其中调整传感器包括用于以下的指令:增加相机阵列中的相机的分辨率。
在示例63中,示例61-62中的任何一个或多个的主题任选地包括,其中用于调整传感器的指令包括用于以下的指令:增加传感器的采样率。
在示例64中,示例63的主题任选地包括,其中传感器包括以下之一:相机、雷达传感器、LIDAR传感器、超声波传感器或红外传感器。
在示例65中,示例61-64中的任何一个或多个的主题任选地包括,其中用于访问路线中的模型的指令包括用于以下的指令:确定交通工具的位置或路线;将交通工具的位置或路线传送至云服务;以及从云服务接收路线中的道路的模型。
在示例66中,示例61-65中的任何一个或多个的主题任选地包括,其中模型基于先前交通工具在道路上作出的多次横越。
在示例67中,示例61-66中的任何一个或多个的主题任选地包括,其中使用机器学习技术来修正模型。
在示例68中,示例54-67中的任何一个或多个的主题任选地包括,进一步包括用于以下的指令:确定交通工具的驾驶员的注视方向;以及基于注视方向处理来自相机阵列的相机的图像。
在示例69中,示例68的主题任选地包括,其中用于基于注视方向处理来自相机阵列的相机的图像的指令包括用于以下的指令:捕捉图像;以及将图像传送至云服务。
在示例70中,示例68-69中的任何一个或多个的主题任选地包括,其中用于基于注视方向处理来自相机阵列的相机的图像的指令包括用于以下的指令:基于图像来调整相机阵列以标识图像中的感兴趣对象;以及基于感兴趣对象的标识来建议驾驶员。
以上具体实施方式包括对附图的引用,附图形成具体实施方式的部分。附图通过图示来示出可实践的特定实施例。这些实施例在本文中也称为“示例”。此类示例可包括除所示出或所描述的那些元件以外的元件。然而,还构想了包括所示出或所描述的元件的示例。此外,还构想了使用所示出或所描述的那些元件的任何组合或排列的示例,或参照本文中所示出或所描述的特定示例(或其一个或多个方面),或参照本文中所示出或所描述的其他示例(或其一个或多个方面)。
在此文档中引用的出版物、专利和专利文档通过引用被整体结合在本文中,就好像通过引用单独地被结合那样。在本文档与通引用结合在的那些文档之间不一致的用法的情况下,所结合的(诸)引用文档中的用法是对此文档的用法的补充;对于不可调和的不一致性,此文档中的用法占主导。
在此文档中,如在专利文档中常见的那样,使用术语“一”(“a”或“an”)以包括一个或多于一个,这独立于“至少一个”或“一个或多个”的任何其他实例或用法。在此文档中,使用术语“或”来指非排他性的“或”,使得“A或B”包括“A但非B”、“B但非A”以及“A和B”,除非另外指示。”在所附权利要求书中,术语“包括(including)”和“其中(in which)”被用作相应的术语“包括(comprising)”和“其中(wherein)”的普通英语等价词。此外,在所附权利要求书中,术语“包括”和“包含”是开放式的,也就是说,在权利要求中除此类术语之后列举的那些元件之外的元件的系统、设备、制品或过程仍被视为落在那项权利要求的范围内。此外,在所附权利要求书中,术语“第一”、“第二”和“第三”等仅被用作标记,并且不旨在表明对它们的对象的数字顺序。
以上描述旨在是说明性的,而非限制性的。例如,可结合其他实施例来使用以上所描述的示例(或者其一个或多个方面)。诸如,本领域普通技术人员中的一个可通过回顾以上描述来使用其他实施例。摘要允许读者快速地确定本技术公开的性质。提交该摘要应当理解,该摘要将不用于限制或解释权利要求的范围或含义。此外,在以上具体实施方式中,各种特征可以共同成组以使本公开流畅。然而,权利要求可以不陈述本文中公开的每一特征,因为实施例可以表征所述特征的子集。此外,实施例可以包括比特定示例中公开的特征更少的特征。因此,所附权利要求书由此被结合到具体实施方式中,一项权利要求作为单独的实施例而独立存在。本文中公开的实施例的范围应当参照所附权利要求书以及此类权利要求所赋予权利的等价方案的完整范围来确定。
Claims (23)
1.一种用于管理自主交通工具的系统,所述系统包括:
交通工具中的交通工具控制系统,所述交通工具控制系统用于:
检测所述交通工具的速度;以及
基于所述交通工具的所述速度来调整前向相机阵列,其中为了调整所述前向相机阵列,所述交通工具控制系统用于:
确定所述交通工具的所述速度是否违反阈值速度;
控制所述相机阵列中的低分辨率相机来捕捉低分辨率图像;以及
控制所述相机阵列中的高分辨率相机来捕捉所述低分辨率图像中标识的对象。
2.如权利要求1所述的系统,其特征在于,为了控制所述高分辨率相机,所述交通工具控制系统用于:
使用简单对象分类器来标识所述低分辨率图像中的感兴趣对象;
确定所述感兴趣对象在所述低分辨率图像中的位置;
确定由所述高分辨率相机捕捉的高分辨率图像中与所述感兴趣对象在所述低分辨率图像中的所述位置相对应的部分;以及
使用复杂对象分类器来处理所述高分辨率图像的所述部分。
3.如权利要求1所述的系统,其特征在于,为了控制所述高分辨率相机,所述交通工具控制系统用于:
使用简单对象分类器来标识所述低分辨率图像中的感兴趣对象;
确定所述感兴趣对象在所述低分辨率图像中的位置;
控制所述高分辨率相机来框住所述感兴趣对象并捕捉高分辨率图像;以及
使用复杂对象分类器来处理所述高分辨率图像。
4.如权利要求3所述的系统,其特征在于,为了控制所述高分辨率相机来框住所述感兴趣对象,所述交通工具控制系统用于:
控制缩放或聚焦中的至少一者来框住所述感兴趣对象。
5.如权利要求1所述的系统,其特征在于,为了调整所述相机阵列,所述交通工具控制系统用于:
调整焦距或分辨率中的一者以在所述交通工具的所述速度增加时标识进一步远离所述交通工具的对象。
6.如权利要求1所述的系统,其特征在于,为了调整所述相机阵列,所述交通工具控制系统用于:
随着所述交通工具的所述速度的增加将所述相机阵列中的相机聚焦于所述交通工具前方更远的对象上。
7.如权利要求1所述的系统,其特征在于,进一步包括:
图像捕捉模块,所述图像捕捉模块用于:
确定所述交通工具的驾驶员的注视方向;以及
基于所述注视方向处理来自所述相机阵列的相机的图像。
8.如权利要求7所述的系统,其特征在于,为了基于所述注视方向处理来自所述相机阵列的所述相机的所述图像,所述图像捕捉模块用于:
捕捉所述图像;以及
将所述图像传送至云服务。
9.如权利要求7所述的系统,其特征在于,为了基于所述注视方向处理来自所述相机阵列的所述相机的所述图像,所述图像捕捉模块用于:
基于所述图像来调整所述相机阵列以标识所述图像中的感兴趣对象;以及
基于对所述感兴趣对象的标识来建议所述驾驶员。
10.一种用于管理自主交通工具的系统,所述系统包括:
交通工具中的交通工具控制系统,所述交通工具控制系统用于:
检测所述交通工具的速度;以及
基于所述交通工具的所述速度来调整前向相机阵列;
传感器融合模块,所述传感器融合模块用于:
访问所述交通工具行进的路线中的道路的模型,所述道路具有指示所述道路的危险部分的特征;
使用所述相机阵列来识别所述特征;以及
在所述特征被识别时调整所述交通工具中的传感器。
11.如权利要求10所述的系统,其特征在于,为了调整所述传感器,所述传感器融合模块用于:
增加所述相机阵列中的相机的分辨率。
12.如权利要求10所述的系统,其特征在于,为了调整所述传感器,所述传感器融合模块用于:
增加所述传感器的采样率。
13.如权利要求12所述的系统,其特征在于,所述传感器包括以下各项中的一者:相机、雷达传感器、LIDAR传感器、超声波传感器或红外传感器。
14.如权利要求10所述的系统,其特征在于,为了访问所述路线中的所述模型,所述传感器融合模块用于:
确定所述交通工具的位置或路线;
将所述交通工具的所述位置或所述路线传送至云服务;以及
从所述云服务接收所述路线中的所述道路的所述模型。
15.如权利要求10所述的系统,其特征在于,所述模型基于先前交通工具在所述道路上作出的多次横越。
16.如权利要求10所述的系统,其特征在于,使用机器学习技术来修正所述模型。
17.一种用于增强交通工具传感器的方法,所述方法包括:
在所述交通工具中的交通工具控制系统处检测所述交通工具的速度;以及
由所述交通工具控制系统基于所述交通工具的所述速度来调整前向相机阵列,其中,调整所述前向相机阵列包括:
确定所述交通工具的所述速度是否违反阈值速度;
控制所述相机阵列中的低分辨率相机来捕捉低分辨率图像;以及
控制所述相机阵列中的高分辨率相机来捕捉所述低分辨率图像中标识的对象。
18.如权利要求17所述的方法,其特征在于,控制所述高分辨率相机包括:
使用简单对象分类器来标识所述低分辨率图像中的感兴趣对象;
确定所述感兴趣对象在所述低分辨率图像中的位置;
确定由所述高分辨率相机捕捉的高分辨率图像中与所述感兴趣对象在所述低分辨率图像中的所述位置相对应的部分;以及
使用复杂对象分类器来处理所述高分辨率图像的所述部分。
19.如权利要求17所述的方法,其特征在于,控制所述高分辨率相机包括:
使用简单对象分类器来标识所述低分辨率图像中的感兴趣对象;
确定所述感兴趣对象在所述低分辨率图像中的位置;
控制所述高分辨率相机来框住所述感兴趣对象并捕捉高分辨率图像;以及
使用复杂对象分类器来处理所述高分辨率图像。
20.如权利要求19所述的方法,其特征在于,控制所述高分辨率相机来框住所述感兴趣对象包括:
控制缩放或聚焦中的至少一者来框住所述感兴趣对象。
21.如权利要求17所述的方法,其特征在于,调整所述相机阵列包括:
调整焦距或分辨率中的一者以在所述交通工具的所述速度增加时标识进一步远离所述交通工具的对象。
22.包括指令的至少一种机器可读介质,所述指令在被机器执行时使所述机器执行如权利要求17-21中任一项所述的方法的操作。
23.一种用于增强交通工具传感器的设备,所述设备包括:
用于在交通工具中的交通工具控制系统处检测所述交通工具的速度的装置;以及
用于由所述交通工具控制系统基于所述交通工具的所述速度来调整前向相机阵列的装置,其中,用于调整所述前向相机阵列的装置包括:
用于确定所述交通工具的所述速度是否违反阈值速度的装置;
用于控制所述相机阵列中的低分辨率相机来捕捉低分辨率图像的装置;以及
用于控制所述相机阵列中的高分辨率相机来捕捉所述低分辨率图像中标识的对象的装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/976,665 | 2015-12-21 | ||
US14/976,665 US9889859B2 (en) | 2015-12-21 | 2015-12-21 | Dynamic sensor range in advanced driver assistance systems |
PCT/US2016/063018 WO2017112205A1 (en) | 2015-12-21 | 2016-11-21 | Dynamic sensor range in advanced driver assistance systems |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109476309A CN109476309A (zh) | 2019-03-15 |
CN109476309B true CN109476309B (zh) | 2022-04-12 |
Family
ID=59065824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680069809.7A Active CN109476309B (zh) | 2015-12-21 | 2016-11-21 | 高级驾驶辅助系统中的动态传感器范围 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9889859B2 (zh) |
CN (1) | CN109476309B (zh) |
DE (1) | DE112016005866T5 (zh) |
WO (1) | WO2017112205A1 (zh) |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6288060B2 (ja) | 2015-12-10 | 2018-03-07 | カシオ計算機株式会社 | 自律移動装置、自律移動方法及びプログラム |
JP6311695B2 (ja) | 2015-12-16 | 2018-04-18 | カシオ計算機株式会社 | 自律移動装置、自律移動方法及びプログラム |
JP6323439B2 (ja) | 2015-12-17 | 2018-05-16 | カシオ計算機株式会社 | 自律移動装置、自律移動方法及びプログラム |
US9889859B2 (en) * | 2015-12-21 | 2018-02-13 | Intel Corporation | Dynamic sensor range in advanced driver assistance systems |
US10787176B2 (en) * | 2016-02-19 | 2020-09-29 | A Truly Electric Car Company | Plug-compatible interface between cars and their human and/or computer drivers |
JP6187623B1 (ja) * | 2016-03-14 | 2017-08-30 | カシオ計算機株式会社 | 自律移動装置、自律移動方法及びプログラム |
WO2017159176A1 (ja) * | 2016-03-17 | 2017-09-21 | 株式会社日立製作所 | 自動運転支援システム、および、自動運転支援方法 |
US11468285B1 (en) * | 2016-05-30 | 2022-10-11 | Apple Inc. | Analysis of objects of interest in sensor data using deep neural networks |
US10139827B2 (en) * | 2016-06-28 | 2018-11-27 | Ford Global Technologies, Llc | Detecting physical threats approaching a vehicle |
CN109906165A (zh) * | 2016-08-10 | 2019-06-18 | 兹沃公司 | 使用推断的注意力模型经由收集和存储的元数据提供信息的方法和设备 |
CN107786867A (zh) * | 2016-08-26 | 2018-03-09 | 原相科技股份有限公司 | 基于深度学习架构的图像辨识方法及系统 |
US10726573B2 (en) | 2016-08-26 | 2020-07-28 | Pixart Imaging Inc. | Object detection method and system based on machine learning |
US11010615B2 (en) * | 2016-11-14 | 2021-05-18 | Lyft, Inc. | Rendering a situational-awareness view in an autonomous-vehicle environment |
US10481609B2 (en) * | 2016-12-09 | 2019-11-19 | Ford Global Technologies, Llc | Parking-lot-navigation system and method |
US10740627B2 (en) * | 2017-05-10 | 2020-08-11 | Fotonation Limited | Multi-camera vision system and method of monitoring |
US11615566B2 (en) * | 2017-05-10 | 2023-03-28 | Fotonation Limited | Multi-camera vehicle vision system and method |
WO2019022910A2 (en) * | 2017-07-28 | 2019-01-31 | Qualcomm Incorporated | SYSTEM AND METHOD FOR DYNAMICALLY CONTROLLING PARAMETERS FOR PROCESSING SENSOR OUTPUT DATA |
US10670735B2 (en) * | 2017-09-11 | 2020-06-02 | Apple Inc. | Determining vehicle orientation for enhanced navigation experience |
US10445597B2 (en) * | 2017-10-17 | 2019-10-15 | Toyota Research Institute, Inc. | Systems and methods for identification of objects using audio and sensor data |
US10929534B2 (en) | 2017-10-18 | 2021-02-23 | AO Kaspersky Lab | System and method detecting malicious files using machine learning |
DE102017221940A1 (de) * | 2017-12-05 | 2019-06-06 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Fahrerassistenzsystem zum Steuern eines Kraftfahrzeugs und Kraftfahrzeug |
US10768304B2 (en) | 2017-12-13 | 2020-09-08 | Luminar Technologies, Inc. | Processing point clouds of vehicle sensors having variable scan line distributions using interpolation functions |
US10642269B2 (en) * | 2018-01-03 | 2020-05-05 | Denso International America, Inc. | Vehicle localization system |
US10249182B1 (en) * | 2018-01-04 | 2019-04-02 | Directed, Llc | Remote vehicle system configuration, control, and telematics |
US10388157B1 (en) | 2018-03-13 | 2019-08-20 | Allstate Insurance Company | Processing system having a machine learning engine for providing a customized driving assistance output |
US20210253116A1 (en) * | 2018-06-10 | 2021-08-19 | Osr Enterprises Ag | System and method for enhancing sensor operation in a vehicle |
US10551840B2 (en) * | 2018-07-02 | 2020-02-04 | Baidu Usa Llc | Planning driven perception system for autonomous driving vehicles |
DE102018211908A1 (de) * | 2018-07-17 | 2020-01-23 | Audi Ag | Verfahren für das Erfassen eines digitalen Bildes einer Umgebung eines Kraftfahrzeugs sowie Kraftfahrzeug mit einer Bilderfassungseinrichtung |
US10782689B2 (en) * | 2018-08-10 | 2020-09-22 | Pony Ai Inc. | Systems and methods for selectively capturing sensor data of an autonomous vehicle using a sensor guide rail |
DE102018008024A1 (de) * | 2018-10-10 | 2019-04-11 | Daimler Ag | Verfahren zur Bewertung einer Verkehrssituation |
CN109472884B (zh) * | 2018-10-29 | 2022-02-18 | 百度在线网络技术(北京)有限公司 | 无人车数据存储方法、装置、设备及存储介质 |
KR20200075943A (ko) * | 2018-12-13 | 2020-06-29 | 주식회사 에릭씨앤씨 | 이동수단의 자율주행시스템 |
US11485374B2 (en) * | 2019-05-21 | 2022-11-01 | Pony Ai Inc. | System and method for evacuation of a vehicle in condition |
KR102695526B1 (ko) | 2019-06-19 | 2024-08-14 | 삼성전자주식회사 | 레이더의 해상도 향상 방법 및 장치 |
DE102019212399A1 (de) * | 2019-08-20 | 2021-02-25 | Zf Friedrichshafen Ag | Verfahren zur Anpassung einer Geschwindigkeit eines autonomen Fahrzeugs |
CN110493521B (zh) * | 2019-08-22 | 2021-06-15 | 爱驰汽车有限公司 | 自动驾驶摄像头控制方法、装置、电子设备、存储介质 |
US11070721B2 (en) * | 2019-09-27 | 2021-07-20 | Gm Cruise Holdings Llc | Intent-based dynamic change of compute resources of vehicle perception system |
US11037000B2 (en) | 2019-09-27 | 2021-06-15 | Gm Cruise Holdings Llc | Intent-based dynamic change of resolution and region of interest of vehicle perception system |
US11521371B2 (en) * | 2019-12-26 | 2022-12-06 | Woven Planet North America, Inc. | Systems and methods for semantic map-based adaptive auto-exposure |
US11708024B2 (en) | 2020-01-06 | 2023-07-25 | Gentex Corporation | Dynamic imaging system |
US10854073B1 (en) * | 2020-04-10 | 2020-12-01 | Ramon Ramos | IWitness |
WO2022159214A2 (en) * | 2020-12-17 | 2022-07-28 | Trustees Of Tufts College | Fusion-based sensing intelligence and reporting |
US11899468B2 (en) | 2020-12-22 | 2024-02-13 | Waymo Llc | Sensor for flashing light detection |
JP7250833B2 (ja) * | 2021-03-09 | 2023-04-03 | 本田技研工業株式会社 | 物体認識装置、物体認識方法、およびプログラム |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7783403B2 (en) * | 1994-05-23 | 2010-08-24 | Automotive Technologies International, Inc. | System and method for preventing vehicular accidents |
JP3564547B2 (ja) * | 1995-04-17 | 2004-09-15 | 本田技研工業株式会社 | 自動走行誘導装置 |
US8120652B2 (en) * | 1997-04-02 | 2012-02-21 | Gentex Corporation | System for controlling vehicle equipment |
DE19950033B4 (de) * | 1999-10-16 | 2005-03-03 | Bayerische Motoren Werke Ag | Kameravorrichtung für Fahrzeuge |
JP3539362B2 (ja) * | 2000-07-07 | 2004-07-07 | 日産自動車株式会社 | 車線追従走行制御装置 |
US6496117B2 (en) * | 2001-03-30 | 2002-12-17 | Koninklijke Philips Electronics N.V. | System for monitoring a driver's attention to driving |
US6967569B2 (en) * | 2003-10-27 | 2005-11-22 | Ford Global Technologies Llc | Active night vision with adaptive imaging |
JP3931879B2 (ja) * | 2003-11-28 | 2007-06-20 | 株式会社デンソー | センサフュージョンシステム及びそれを用いた車両制御装置 |
JP4420011B2 (ja) * | 2006-11-16 | 2010-02-24 | 株式会社日立製作所 | 物体検知装置 |
JP4814375B2 (ja) * | 2007-04-13 | 2011-11-16 | パナソニック株式会社 | 検出装置、検出方法および検出用集積回路 |
US8855848B2 (en) * | 2007-06-05 | 2014-10-07 | GM Global Technology Operations LLC | Radar, lidar and camera enhanced methods for vehicle dynamics estimation |
JP5172314B2 (ja) * | 2007-12-14 | 2013-03-27 | 日立オートモティブシステムズ株式会社 | ステレオカメラ装置 |
US20170206427A1 (en) * | 2015-01-21 | 2017-07-20 | Sportstech LLC | Efficient, High-Resolution System and Method to Detect Traffic Lights |
JP5468426B2 (ja) * | 2010-03-12 | 2014-04-09 | 日立オートモティブシステムズ株式会社 | ステレオカメラ装置 |
US8576286B1 (en) * | 2010-04-13 | 2013-11-05 | General Dynamics Armament And Technical Products, Inc. | Display system |
CN102685516A (zh) * | 2011-03-07 | 2012-09-19 | 李慧盈 | 立体视觉主动安全辅助驾驶方法 |
DE102011101246A1 (de) * | 2011-05-11 | 2012-11-15 | Conti Temic Microelectronic Gmbh | Redudante objektdetektion für fahrerassistenzsysteme |
DE102011102744A1 (de) | 2011-05-28 | 2012-11-29 | Connaught Electronics Ltd. | Verfahren zum Betreiben eines Kamerasystems eines Kraftfahrzeugs, Kraftfahrzeug sowie System mit einem Kraftfahrzeug und einer separaten Recheneinrichtung |
JP5690688B2 (ja) * | 2011-09-15 | 2015-03-25 | クラリオン株式会社 | 外界認識方法,装置,および車両システム |
US9194949B2 (en) * | 2011-10-20 | 2015-11-24 | Robert Bosch Gmbh | Methods and systems for precise vehicle localization using radar maps |
KR101703177B1 (ko) * | 2011-12-14 | 2017-02-07 | 한국전자통신연구원 | 차량 위치 인식 장치 및 방법 |
KR102027771B1 (ko) * | 2013-01-31 | 2019-10-04 | 한국전자통신연구원 | 차량 속도 적응형 장애물 검출 장치 및 방법 |
KR101551667B1 (ko) * | 2013-11-27 | 2015-09-09 | 현대모비스(주) | 라이다 센서 시스템 |
DE102015202846B4 (de) * | 2014-02-19 | 2020-06-25 | Magna Electronics, Inc. | Fahrzeugsichtsystem mit Anzeige |
KR101551215B1 (ko) * | 2014-05-28 | 2015-09-18 | 엘지전자 주식회사 | 차량 운전 보조 장치 및 이를 구비한 차량 |
DE202014006922U1 (de) * | 2014-08-27 | 2015-11-30 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | Vorrichtung zur Steuerung eines Kraftfahrzeugs, Kraftfahrzeug |
US20160165211A1 (en) * | 2014-12-08 | 2016-06-09 | Board Of Trustees Of The University Of Alabama | Automotive imaging system |
KR102534792B1 (ko) * | 2015-02-10 | 2023-05-19 | 모빌아이 비젼 테크놀로지스 엘티디. | 자율 주행을 위한 약도 |
US10023118B2 (en) * | 2015-03-23 | 2018-07-17 | Magna Electronics Inc. | Vehicle vision system with thermal sensor |
US9764736B2 (en) * | 2015-08-14 | 2017-09-19 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous vehicle operation relative to unexpected dynamic objects |
US9889859B2 (en) * | 2015-12-21 | 2018-02-13 | Intel Corporation | Dynamic sensor range in advanced driver assistance systems |
-
2015
- 2015-12-21 US US14/976,665 patent/US9889859B2/en active Active
-
2016
- 2016-11-21 CN CN201680069809.7A patent/CN109476309B/zh active Active
- 2016-11-21 WO PCT/US2016/063018 patent/WO2017112205A1/en active Application Filing
- 2016-11-21 DE DE112016005866.7T patent/DE112016005866T5/de active Pending
Also Published As
Publication number | Publication date |
---|---|
CN109476309A (zh) | 2019-03-15 |
US20170174227A1 (en) | 2017-06-22 |
DE112016005866T5 (de) | 2018-09-13 |
US9889859B2 (en) | 2018-02-13 |
WO2017112205A1 (en) | 2017-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109476309B (zh) | 高级驾驶辅助系统中的动态传感器范围 | |
AU2021200258B2 (en) | Multiple operating modes to expand dynamic range | |
US11318928B2 (en) | Vehicular automated parking system | |
US10489222B2 (en) | Distributed computing resource management | |
CN107209856B (zh) | 环境场景状况检测 | |
EP2920040B1 (en) | Augmenting adas features of a vehicle with image processing support in on-board vehicle platform | |
US10462354B2 (en) | Vehicle control system utilizing multi-camera module | |
AU2018395869B2 (en) | High-speed image readout and processing | |
US10703374B2 (en) | Vehicle driving assisting apparatus and vehicle comprising same | |
KR20210110558A (ko) | 전동 조향 토크 보상 | |
US10883846B2 (en) | Vehicle communication system with area classifier | |
JP7059185B2 (ja) | 画像処理装置、画像処理方法、および撮像装置 | |
US20240317256A1 (en) | Vehicular driving assistance system with enhanced road curve management | |
KR20200119790A (ko) | 인식 장치와 인식 방법 그리고 프로그램 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |