CN106255899A - 用于将对象用信号通知给配备有此装置的车辆的导航模块的装置 - Google Patents
用于将对象用信号通知给配备有此装置的车辆的导航模块的装置 Download PDFInfo
- Publication number
- CN106255899A CN106255899A CN201580023677.XA CN201580023677A CN106255899A CN 106255899 A CN106255899 A CN 106255899A CN 201580023677 A CN201580023677 A CN 201580023677A CN 106255899 A CN106255899 A CN 106255899A
- Authority
- CN
- China
- Prior art keywords
- sensor
- merging
- sync bit
- data
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 description 15
- 230000008447 perception Effects 0.000 description 11
- 230000004888 barrier function Effects 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000012502 risk assessment Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000001953 sensory effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000005036 potential barrier Methods 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/04—Traffic conditions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3697—Output of additional, non-guidance related information, e.g. low fuel level
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/862—Combination of radar systems with sonar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/804—Relative longitudinal speed
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Electromagnetism (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
用于将至少一个对象实时用信号通知给车辆导航模块(60)的装置,该装置包括第一传感器(1),该第一传感器被设置成产生包括该对象相对于该车辆的第一捕获位置和第一捕获速度的第一传感器数据。该装置还包括:至少一个第二传感器(2,3,4),被设置成产生包括该对象相对于该车辆的第二捕获位置和第二捕获速度的第二传感器数据;同步模块(20),被设置为产生包括来自该第一捕获位置和第一捕获速度的第一同步位置以及来自该第二捕获位置和第二捕获速度的至少一个第二同步位置的同步数据;合并模块(30),被设置为产生包括来自该第一同步位置和第二同步位置的合并位置的合并数据,其方式为以便通过向该导航模块(60)传送全部或部分合并数据来将所述至少一个对象用信号通知给该导航模块。
Description
技术领域
本发明涉及一种用于将对象用信号通知给配备有此装置的车辆(尤其是无人驾驶机动车辆)的导航模块的装置。
背景技术
将对象(尤其是构成真实或潜在障碍物的对象)用信号通知的目的是为无人驾驶移动系统提供对其环境的自然的或约束的感知。通过处理由视频、激光雷达和/或雷达或者甚至超声波类型传感器获取的数据来获得这种感知,尤其是通过从到场景中的各种对象的距离及其速度构建该环境的局部和动态数字地图。这种地图用作用于规划和实施适当的自动运动的基本知识。对于这种无人驾驶车辆,感知过程构成了在决策和行动之前要执行的第一任务。其通过随时间提取并整合从传感器的数据获得的关键属性来提供环境和其自身状态的特定表示,以便计算机可理解。
感知任务执行两个功能:能够首先检测其附近环境中的各种移动的或静止的对象,其次评估其状态,如其相对于车辆的位置、其速度、其方向、其尺寸等。因此,感知用作轨迹生成模块的输入,并且可以用于预测可能的碰撞并执行障碍物规避。这种感知被认为是无人驾驶车辆的最重要的信息来源。
几年来,市场上已经存在越来越多地用于辅助制动系统(ABS)中的所谓的“智能”传感器。这些智能传感器不仅检测对象,而且可以对其进行表征。尽管如此,它们并不完美,由此有必要通过组合使用补充传感器来提高感知系统的性能。使用多个传感器还能够引入冗余的原理,以便获得更稳固的感知系统,这些感知系统对于无人驾驶导航是不可或缺的。在这些合并多传感器数据的方法中,目的是组合来自不同传感器的信息以提高感知情况的可靠性、准确性和完整性。这种系统的输出是具有其属性和完整性测量的对象列表。在感知任务中,完整性可以被定义为在考虑噪声(随机误差)、不确定性和异常测量的同时提供可信的信息的能力。
大多数感知方法旨在是通用的,并且因此遇到关于目标应用的最佳性质的问题,并且不能提供高级信息以辅助无人驾驶导航的规划。通过这种新的技术方案,我们提出通过提取和考虑从观察到的场景获得的语境和语义信息来提高多传感器感知的完整性并辅助无人驾驶导航做决策。
例如,文件EP 0928428 B1描述了对无人驾驶移动系统上的距离测量传感器的测量质量进行评估的方法。在此,根据达到与处于评估的传感器相同的单元格占用状态的多个其他测量传感器,相对于单元格评估测量质量,测得的质量全部较高,因为确认占用状态的传感器的数量增加。
然而,所描述的方法在将其用于将一个或多个对象用信号通知给车辆导航模块的装置方面具有许多缺点。在这些缺点中,可以注意到,对于跨越分隔单元格的网格的对象,尤其是在两个传感器测量之间从一侧移动到另一侧的移动对象,具有与测量不确定性相关的单元格的必然性。于是,在此出现的问题之一是能够省去将环境划分成单元格的网格。出现的另一个问题是具有充足的数据以尽可能有效地将每个对象用信号通知给导航模块。
更一般地说,除了简单的质量评估之外,现有技术中仍然存在的另一个问题是提高检测性能和检测的利用。
发明内容
为了补救现有技术的问题,本发明在于一种用于将至少一个对象实时用信号通知给车辆导航模块的装置,该装置包括第一传感器,该第一传感器被适配用于产生包括该对象相对于该车辆的第一捕获位置和第一捕获速度的第一传感器数据,其特征在于,该装置包括:
-至少一个第二传感器,该至少一个第二传感器被适配用于产生包括该对象相对于该车辆的第二捕获位置和第二捕获速度的第二传感器数据;
-同步模块,该同步模块被适配用于产生包括来自该第一捕获位置和第一捕获速度的第一同步位置以及来自该第二捕获位置和第二捕获速度的至少一个第二同步位置的同步数据;
-合并模块,该合并模块被设置为产生包括来自该第一同步位置和该第二同步位置的合并位置的合并数据,其方式为以便通过向该导航模块传送全部或部分合并数据来将所述至少一个对象用信号通知该导航模块。
该装置有利地包括风险评估模块,该风险评估模块被适配用于利用与从合并数据用信号通知并生成的每个对象相关联的风险指标来完成该合并数据。
具体地,该风险评估模块包括用于计算来自融合数据的分数的一组区块以及用于对由该组分数计算块中的一些或全部分数计算块所计算的分数进行组合的区块,以便通过对分数进行组合来生成每个对象的风险指标。
所述组更具体地包括距离分数计算块、角度分数计算块、速度分数计算块和/或对象类型分数计算块。
还更具体地,所述组包括用于从制图数据另外计算分数的至少一个区块。
再更具体来说,所述组合块被适配用于通过对所计算的一些或全部分数的加权求和来对分数进行组合。
该合并模块可以有用地被适配用于对至少一个补充位置进行合并,该补充位置与来自第一同步位置和第二同步位置的所述合并位置同步。
由合并模块访问的同步数据有利地还包括与每个同步位置相关联的位置方差,以便产生由相关联的方差加权的同步位置之和,用于合并这些同步位置。
同步数据有利地还包括与每个同步位置相关联的位置方差,使得该合并模块被适配用于产生包括来自第一同步位置和第二同步位置的合并位置的合并数据,以便当所述同步位置之间的马氏距离低于预定阈值并且不产生包括来自第一同步位置和第二同步位置的合并位置的合并数据时通过向该导航模块传送所述合并数据来将相同对象用信号通知给该导航模块,以便当所述马氏距离高于所述预定阈值时将两个不同对象用信号通知给该导航模块。
本发明还在于一种机动车辆,其特征在于,该机动车辆包括根据本发明的装置。
附图说明
本发明的其他特征和优点将在阅读以下详细描述的过程中变得清楚,为了对其理解将参见附图,在附图中:
-图1是表示配备有根据本发明的信号通知装置的车辆的简图;
-图2和图3是车辆环境的示意图,用于解释其配备的装置的有用性;
-图4是根据本发明的装置的框图示意图;
-图5是图4的装置的同步模块的框图示意图;
-图6是图4的装置的合并模块的框图示意图;
-图7至图10是风险系数分数计算块的流程图;
-图11是用于生成风险指标的分数组合块的流程图
-图12示出了根据本发明的方法的步骤。
具体实施方式
在说明的其余部分中,具有相同结构或相似功能的元件将用同一参考数字来指代。
图1示出了车辆12,该车辆以常规方式配备有前轮21、后轮22以及用于经由转向柱8使前轮21转向的方向盘9。电力、内燃或混合动力推进驱动系统11的加速和减速由车载电子系统10控制,车载电子系统10还被编程为在转向柱8上监测在手动模式下由方向盘9控制的枢转角度或者在无人驾驶模式下由导航模块60控制的枢转角度α。导航模块60以本身已知的方式包括轨迹控制器,例如但不一定是在文件WO 2014/009631中描述的轨迹控制器。车载电子系统10还被直接或间接地连接到车辆12上的动作装置,尤其是在其他方面已知的用于在检测到受到车辆冲击的高风险的情况下对车轮21、22进行制动的机械装置。车载电子系统10连接到传感器1、2、3、4上,没有将传感器的数量限制为四个,优选地安装在车辆上而用于通过下面所解释的数字处理模块来处理关于车辆环境的接收到的信息。
图2示出了由可能构成固定或移动障碍物的对象13、14、15占据的车辆12的可能环境,导航模块60必须考虑这些对象以便在这种环境中控制车辆12的运动而没有撞击这些对象之一的风险。传感器1例如但不一定是雷达感知传感器,其感知区域以点划线表示到车辆的前方。传感器2例如但不一定是摄像机,其感知区域以虚线表示到车辆的前方。由于许多原因,采用不同技术的传感器的使用是有益的。例如,摄像机能够更精确地区分每个对象的类型、对象13和14中的每一个的行人类型、对象15的迎面而来的车辆类型、由在地面上的不连续线标记的道路中心类型,如果照明和可见性条件使之可能。尽管类型区分对于雷达感知传感器是处于较低水平,雷达感知传感器能够进行对于照明和可见性条件较不敏感的检测。可以使用其他类型的传感器,例如通过立体摄像机、激光雷达、超声波或红外线类型的纯粹说明性的和非穷尽性的示例。所使用的传感器中的至少两个是智能传感器。
当传感器被适配用于对其捕获的信号进行某种处理时,该传感器被称为是智能的,以便检测对象13、14、15,并且对于检测到的每个对象,产生包括了在相对于该传感器的参照系中捕获的对象的位置和速度的传感器数据。传感器还可以有利地具有用于从在参照系中相对于传感器1、2获得的位置和速度坐标进入到位置坐标x、y以及转换成相对于车辆12的参照系的速度坐标Vx、Vy的参数,例如考虑到传感器安装在车辆上的位置。由每个智能传感器i产生的数据优选地被构造为检测到的对象O1、Ok、ON的列表Lci,包括作为表头的由该传感器检测到的对象的数目N、时间戳代码tsp以及等待时间指示符tl。
为了在列表Lci的表头处产生时间戳代码tsp,传感器可以访问通用时钟,例如在应用模块60中通常可用的GNSS(全球导航卫星系统)时钟。然后,传感器1、2在代码tsp中记录产生列表Lci(传感器1是Lc1,传感器2是Lc2)的时间。传感器1、2在等待时间指示符tl中同时记录在实时捕获信号的时间与产生列表Lci的时间之间的时间,换句话说,由对信号进行处理来生成列表Lci而产生的延迟。等待时间指示符tl还可以考虑感知的信号本身的速度。例如,已知的是,声速远低于光速。
如在说明书的其余部分中所解释的,还可以使本发明减少在列表Lci的表头不产生时间戳代码tsp的传感器的实践。
列表Lci中的每个对象O1、Ok、ON与包括对象标识符Id、由其位置坐标x、y标识的该对象的位置、由其速度坐标Vx、Vy标识的该对象的移动速度、通过统计方差σ2x、σ2y估计的位置不确定性、对象类型(对象13或14是行人,对象15是车辆)以及该对象的维度的属性的子列表相关联,因为此数据是通过生成列表Lci的传感器i来捕获的,i从1变化到Q,其中Q表示传感器的数量。
因此,对于既在传感器1的感知区域中又在传感器2的感知区域中的位于车辆前方的对象13、14、15中的每一个,对应两个属性子列表,一个子列表与传感器1的列表Lc1中的对象相关联,并且另一个子列表与传感器2的列表Lc2中的相同对象相关联。
图3示出了由对象13、14、15占据的车辆12的另一种可能的环境。图3中表示的环境涉及十字路口,其中对象可以从右侧(像准备穿过道路的行人类型对象13)出发的与可以从左侧(像也准备穿过道路的行人类型对象14)出发的一样多。
传感器3,例如但不一定是雷达感知传感器或摄像机,覆盖了以间歇点划线表示的到车辆前方和右侧的感知区域。传感器4,例如但不一定是与传感器3类型相同的传感器,覆盖了以间断点划线表示的到车辆前方和左侧的感知区域。
因此,对于既在传感器1的感知区域中又在传感器3的感知区域中的位于车辆前方和右侧的对象13,对应两个属性子列表,一个子列表与传感器1的列表Lc1中的对象13相关联,并且另一个子列表与传感器3的列表Lc3中的对象13相关联。类似地,对于既在传感器1的感知区域中又在传感器4的感知区域中的位于车辆前方和左侧的对象14,存在两个属性子列表,一个子列表与传感器1的列表Lc1中的对象14相关联,并且另一个子列表与如传感器4的列表Lc4中所编制目录的对象14相关联。在传感器1的感知区域中、在传感器2的感知区域中以及在传感器4的感知区域中位于左侧的在车辆前方的对象15存在多于两个的属性子列表,每个子列表与传感器1的列表Lc1、传感器2的列表Lc2以及传感器4的列表Lc4中的每一个中的对象15相关联。有益的是能够提供足够的传感器以产生覆盖车辆12的全部周边的感知区域,区域的扇区至少是两两叠加。因此将清楚的是,传感器的数量Q可以超过四,并且一旦其等于二就是有益的。
如果本发明采用使用车辆外部的固定传感器,传感器1、2、3、4示意性地直接通过有线连接或通过已知类型的总线之一(CAN类型、LIN类型、以太网汽车类型或其他总线类型)的局部总线或者甚至可以经由外部通信模块连接到图4所示的装置上。因此,在仅通过由传感器1、2、3、4之一生成的列表Lc1、Lc2、Lc3、Lc4中的每一个在此说明的实施例中,将结构化传感器数据传送到同步模块20。
图5用于更详细地解释同步模块20的结构和操作。
如上所见,Q个传感器中的每一个被适配用于生成在此构造为i从1到Q变化的列表Lci的数据。列表Lci包含k从1到N变化的N个对象Ok。将注意到,一个列表Lci的对象的数量N与另一个列表是不同的。因此,在图3的示例中,N对于包含对象13、14、15的列表Lc1具有值3,对于包含单个对象15的列表Lc2具有值1,对于包含单个对象13的列表Lc3具有值1,并且对于包含对象14和15的列表Lc4具有值2。
如图5所见,对于来自列表Lci的每个对象Ok,存在包括由传感器i捕获的对象Ok的位置和速度的属性子列表,该位置由其坐标x、y来量化,并且该速度由其在相对于车辆12的参照系中的坐标Vx、Vy来量化。由一个传感器生成的数据相对于由另一个传感器生成的数据是异步的,是因为一个传感器捕获时间不一定与另一个传感器是同步的,是因为处理信号所花费的时间,尤其是区分对象以及对每个对象的属性的量化从一个传感器到另一个传感器是变化的,并且在较小程度上是因为一种传感器技术与另一种传感器不同,信号本身的速度可以在信号源自对象的时间与传感器感知信号的时间之间产生延迟。每种传感器的供应商通常处于一个位置上来确定等待时间指示符tl,等待时间指示符对处理时间进行组合,对如果必要的话,与信号的速度相关联的延迟以及可以容易根据供应商具有的传感器的已知技术来评估的可能的其他延迟进行组合。取决于所采用的技术,等待时间指示符tl的值由供应商在传感器的存储器中设置或者由传感器本身用专用处理器技术领域中本身已知的方式根据其处理负载进行实时计算。
由于对象13、14、15和/或车辆12的可能的运动,对象的位置可以在传感器产生数据时的时间戳tsp指示的时间与由传感器在该位置处实际捕获对象的较早时间tsp-tl之间进行变化。
同步模块20包括子模块24,子模块被适配用于计算将同步时间tsyn和较早时间tsp-tl分开的延迟Δt,在较早时间,由传感器i检测到对象每一个实际上处于由相关联的属性子列表中指示的传感器捕获的位置。
为了与所有相关的传感器共享相同的同步时间tsyn,子模块24访问提供通用参考时间的例如GNSS(全球导航卫星系统)类型的参考时钟23。
因为其对于每个传感器i都是特定的,所以列表Lci的表头处的等待时间指示符tl的值来自传感器本身。
如果安装在车辆上的传感器通过有线连接或通过具有分配给由传感器发射的帧的高优先级的LIN或CAN类型的实时网络直接连接到模块20,换句话说,如果传感器的数据生成时间能够被认为类似于模块20的接收时间,特别是子模块24的接收时间,能够在具有参考时钟23的益处的子模块24的输入处将时间戳代码tsp直接引入到列表Lci中。这样能够使用更简单的传感器,这些传感器则不需要发送时间戳代码tsp,因此不需要访问提供通用参考时间的时钟。
如果安装在车辆上的传感器不是通过有线连接直接连接到模块20,例如通过双绞线或CAN类型的以太网802.3类型的实时网络,其中低优先级级别被分配给由传感器发送的帧,或者例如在车辆外部的传感器的情况下经由远程通信网络,换句话说,如果传感器产生数据的时间能够被认为明显早于模块20的接收时间,特别是子模块24的接收时间,优选地在传感器的输出处或在传感器附近的系统的输出处直接将时间戳代码tsp引入到列表Lci中,其中一个或另一个被适配用于通过访问提供通用参考时间的时钟来发送时间戳代码tsp。
为了补救与传感器类型的多样性相关的、与信号和数据的传输时间相关的或与模块20本身的处理负载相关的同步差异,子模块24优选地被适配用于验证同步时间tsyn与由传感器i产生数据以供子模块24处理的较早时间tsp之间的延迟tsyn-tsp。
如果延迟tsyn-tsp大于或等于跟踪目标过时阈值tTF,则不考虑与具有值tsp的产生日期和时间相关的数据,并且子模块24不从接收到的数据生成用于数据同步的列表Lsi。
如果延迟tsyn-tsp小于跟踪目标过时阈值tTF,则子模块24使用延迟Δt来产生通过同步对象的列表Lsi在图5所展示的示例中构造的同步数据。每个列表Lsi继续与传感器i相关联,其中i例如分别对于传感器1、2、3、4具有值1、2、3、4。虽然tsp和tl的值可以对于每个列表Lci是不同的,但是所有列表Lsi包含指示所有列表Lsi共同的同步时间的相同的tsyn值。每个列表Lsi可以包含与包含在对应列表Lci中的数目N相等的数目N的同步对象。
所关注的列表Lsi中的每个对象Ok与包括由传感器i检测到的对象Ok的位置和速度的属性子列表相关联。在此,通过其在时间tsyn处估计的坐标xs、ys来量化位置,该时间对所有对象是公共的,并且对于相同对象对于已经检测到该对象的所有传感器是公共的。
子模块24将计算的延迟Δt传送到子模块25(该子模块访问与检测到的对象的列表Lci中的对象Ok相对应的属性子列表中的捕获的位置和速度),以便使用以下公式计算对象Ok:
xs:=x+Vx·Δt
ys:=y+Vy·Δt
在子模块25的输出处的属性子列表中,可以通过其坐标Vx、Vy将对象Ok的速度继续量化到在延迟Δt期间每个对象的速度可以被认为是恒定的程度。由模块20产生的数据则对于所有传感器都是同步的。
包含由模块20产生的同步数据的每个列表Lsi(仅通过图4的列表Ls1、Ls2、Ls3、Ls4中所展示)被传送到合并模块30(下面参照图6更详细地解释)以获得车辆12的环境的瞬时快照。
合并模块30的目的是通过利用通过使用多个传感器添加的信息的冗余来增强所提供的信息的可信度。
模块30的子模块31对发送到模块30的每个列表Lsi进行连续扫描以产生在图6所展示的实施例中借助于合并列表Lf来构造的合并数据,该合并列表包含各种传感器的各列表Lsi中的所有对象,其中i等于1、2或更大。
因此,列表Lf中的对象Ofj(其中j从1变化到M)的数目M通常要比与每个传感器相关联的同步对象的每个列表Lsi中的对象Osk(其中k从1变化到N)的每个数目N大。
合并数据被初始化为由模块30扫描的第一同步数据,例如由第一传感器1产生的第一同步数据。在图6所展示的示例中,列表Lf通过指向属性子列表来初始地再现列表Ls1,每个属性子列表都再现列表Ls1所指向的属性子列表。有益的是,在列表Lf所指向的每个属性子列表中添加附加属性Sde,用于对与相关属性子列表相关联的对象Ok的检测分数进行量化。检测分数被初始化为一。
从接收到的每个同步列表Lsi,子模块31例如以下将同步列表Lsi与合并列表Lf组合,直到其到达对应于最后一个传感器的最终同步列表。
模块30的子模块32被编程为执行包括下面参照图12解释的步骤的处理步骤。子模块31将数据从同步列表Lsi传送到最初在备用步骤318中等待由子模块31传送的数据的子模块32。
在步骤319中,子模块32首先进入与列表Lsi中k=1的对象Osk相关联的第一子列表。
在步骤320中,子模块32访问链接到具有其定位的当前索引k的对象Osk的代码方差矩阵Σsk。
考虑到从传感器获得的横坐标值和纵坐标值xs、ys作为用于在同步时间tsyn处量化对象Osk相对于车辆12的位置的例示随机变量Xs、Ys,应当记住,可以借助于每个随机变量的方差vark(Xs)、vark(Ys)以及随机变量之间的协方差covk(Xs,Ys)、covk(Ys,Xs)来测量可能实例的扩展,代码方式矩阵Σsk是基于其由以下公式F1定义:
考虑独立的随机变量Xs、Ys,应该记住协方差矩阵Σsk也可以写为以下形式F2:
其中σxs和σys分别表示以实例xs、ys为中心的随机变量Xs的标准偏差和随机变量Ys的标准偏差。
根据所涉及的传感器的技术特性,可以容易地确定标准偏差或者容易地和直接地确定它们的平方,这是供应商必须知道的。如果它们的值是常数,则它们可以存储在该装置的存储器中。如果它们的值根据可见度、环境温度或传感器可检测的其他大气因素而变化,则可以在列表Lci中传输,然后传送到列表Lsi中。还可以用本身已知的方式建立标准偏差的平方σ2 xs(分别地σ2 ys)与传感器的测量不确定度δxs(分别地δys)之间的关系,例如被定中心在零平均不确定度的正态律
分别地
在步骤321中,子模块32通过将其自身定位在与列表Lf中的j=1的对象Ofj相关联的第一子列表上而开始的。
在步骤322中,子模块32访问链接到其所定位的当前索引j的对象Ofj的协方差矩阵Σfj。
如以上针对横坐标值和纵坐标值xf、yf对协方差矩阵Σfj进行定义,用于在同步时间tsyn处相对于车辆12对代表性对象位置Ofj进行量化。协方差矩阵Σfj然后可以用以下的形式F3写入:
其中σxf和σyf分别表示以实例xf、yf为中心的随机变量Xf的标准偏差和变量Yf的标准偏差。
在步骤323中,子模块32验证是否满足一个或多个合并标准。一个显著的标准是其中对象Osk和Ofj之间的马氏距离dμ(Osk,Ofj)小于散列阈值tη。在此描述的实施例中,通过以下公式F4,根据对象Osk和Ofj的横坐标值和纵坐标值xs、xf、ys、yf计算马氏距离:
如果满足一个合并标准或多个合并标准,尤其是如果马氏距离小于散列阈值,则子模块32执行步骤324,该步骤包括通过将对象Osk与对象Ofj合并Ψ来修改对象Ofj,以便获得用以下方式计算的新属性值:尤其是通过将贝叶斯规则应用于位置坐标:
修改的合并对象Ofj的其他属性可以通过将贝叶斯规则应用到其上来重新考核,也可以用适当的标准偏差或以某种其他方式。
例如,如果希望将贝叶斯规则应用于速度坐标,则子模块32需要能够访问同步速度坐标的标准偏差。合并对象Ofj的速度坐标Vxf、Vyf也可以通过生成同步对象Osk的速度坐标Vxs、Vys以及合并对象Ofj的速度坐标Vxf、Vyf的简单算术平均数来重新考核。这同样应用于例如该对象的空间维度Dim。
一些属性使其本身更难以计算平均值,如类型属性。对于其中在适于合并的检测到的对象之间类型将不同的情况,可以设想各种解决方案,如保留来自在该区域中最可靠的、累积类型的、在来自多个传感器的对象的情况下通过投票进行的、或者考虑类型的相等性作为要满足的合并标准的传感器的类型。
如果在步骤323中不满足合并标准或合并标准之一,尤其是如果马氏距离大于或等于散列阈值,则子模块32执行步骤325(该步骤包括增加索引j以转到与列表Lf中的对象Ofj相关联的下一个子列表,直到到达在步骤326中检查到的具有索引j=M的最终子列表)。如果j不大于或等于M,则步骤326循环到步骤322,以验证是否满足用于将具有当前索引k的同步对象Osk与来自列表Lf的合并对象之一进行合并的一个或多个合并标准。
大于M的索引j的值表示不可能通过将对象Osk与其合并来修改对象Ofj之一。对步骤326测试的肯定响应激活步骤327(该步骤包括从列表Lf中增加1个对象数目M,以便向其添加索引为j=M的合并对象Ofj,其再现当前同步的对象Osk)。
在当前同步对象Osk与列表Lf中的预先存在的合并对象Ofj中的一个合并的步骤324之后,或者可替代地在当前同步对象Osk被添加到列表Lf以便生成新的合并对象OfM的步骤327之后,步骤328包括:如果索引k不超过在列表Lsi中接收到的同步对象的数量N,则通过循环到步骤320,增加索引k以将子模块32放置在与索引k在列表Lsi中的下一个对象Osk相关联的子列表上。
在包括测试这种过冲的存在的步骤329中,子模块32在对测试是肯定响应的情况下循环到加权步骤318,以便将控制返回到模块31以处理下一个列表Lsi,直到由传感器产生的最后一个列表。
为了不从具有列表Lsi的两个不同对象Osk的列表Lf中合并相同对象Ofj,可以在步骤319中提供初始化为空集合的集合ε,旨在从已经从列表Lsi中的先前对象Osk修改或创建的列表Lf中列出对象Ofj的每个索引j。然后,当子模块32通过步骤328以便在步骤325中接收集合ε外的下一索引j时,在步骤324或在步骤327中检查的索引j被馈送该集合ε。
因此,子模块31的输出向风险评估子模块33提供具有合并数据形式的属性的合并对象的完整列表Lf。
子模块33访问制图数据结构40,用于结合数据结构50中可访问的语境数据来构造与每个对象Ofj相关的列表指示符。子模块33使用其他已知的方法来使用GNSS接收器、在数据结构40中可访问的数字导航地图以及用于通过视觉提取几何基元的算法来精确地转动车辆12,例如在科学论文Tao,Z.和Bonnifait(博尼费),P.和Fremont(弗里蒙特),V.以及Ibanez-Guzman,J.,“车道标记辅助车辆定位(Lane marking aided vehiclelocalization)”,IEEE(电气与电子工程师协会)智能交通系统会议(IEEE ITSC2013),2013年10月6日-9日,荷兰海牙。
从数据结构40提取的导航地图的数字处理使得子模块33能够准确地输出其几何环境中的车辆的位置,以便在其中定位各种驻留对象,所述各种驻留对象是与车辆12交互以及与其他移动对象交互的来源。子模块33将用这种方式构建的道路场景的配置与语境组合,以便定义与每个对象相关联的风险级别,目的是向该导航系统提供高级指令。在车辆在城市环境中移动的特定情况下,制图数据的使用使其能够通过对与车辆正在其中移动的场景的拓扑、结构和标志相关的障碍物相关的风险的概念进行评估来丰富环境的语义描述。道路标记、十字路口、标志以及其他道路细节用于改进与场景中每个检测到的对象相关的风险指标。例如,来自直线前方但保持在其车道中的车辆可能比在交叉点处从左方到达的车辆的危险性小。
列表评估子模块33通过对由图7至图10所展示的模式化区块133、233、333、433各自所生成的不同分数进行组合来生成与每个对象Ofj相关联的风险指标。
图7和图8示出基于障碍物的笛卡尔位置和角位置以及基本上语境制图数据的分数的生成。例如,对象越靠近并且越侵入车辆12的车道,则越危险。在进入十字路口时,距离和角度数据对于量化所检测到的对象有多么危险(例如其来自左边还是来自右边)很重要。
参考图7,区块133计算对象Ofj与车辆12分离的距离D。例如,以通常的方式从参照系中对象相对于车辆12的坐标xf、yf来计算距离D。然后,区块133将计算出的距离D与从数据结构40获得的最大距离Dmax进行比较。
如果距离D大于最大距离Dmax,则距离分数Sd被设定为零。如果距离D为零,则距离分数Sd被设定为其最大值,例如一。对于距离D的其他值,区块133计算在零与一之间的分数,例如通过从一减去由距离D表示的最大距离的比例。
最大距离Dmax是这样一个距离,超过该距离时不需要考虑与链接到检测到的对象的距离分数Sd相关的任何风险系数。最大距离的值可以被认为等于传感器的范围,等于车辆12的可能制动距离,或者与预定义的风险评估策略相关的其他值。
参考图8,区块233计算对象Ofj的瞄准轴线与车辆12的纵向轴线分开的角度θ。例如,从应用于参照系中对象相对于车辆12的坐标xf、yf的经典三角法则以通常的方式计算角度θ。然后,区块233将计算出的角度θ与从数据结构40获得的最大角度θmax进行比较。
如果角度θ为零,则角度分数Sθ被设置为零。如果角度θ大于最大角度θmax,则角度分数Sθ被设置为其最大值,例如一。对于角度θ的其他值,区块233计算在0与一之间的分数,例如等于由角度θ表示的最大角度θmax的比例。
最大角度θmax是这样一个角度,超过该角度时,与所检测到的对象的目标角度分数Sθ相关的风险系数在很大程度上更高。最大角度的值可以被认为等于传感器的角度范围,等于车辆12的转向能力或等于与预定义的风险评估策略相关的其他值。
参考图9,区块333计算对象Ofj相对于车辆12移动时的速度V。例如,以通常的方式从参照系中对象相对于车辆12的速度坐标Vxf、Vyf来计算速度V。然后,区块333将计算的速度V与从数据结构40或别处获得的最大速度Vmax进行比较。
如果速度V大于最大速度Vmax,则速度分数Sv被设定为一。如果速度V为零,则速度分数Sv被设定为其最小值,例如零。对于速度V的其他值,区块333计算零与一之间的分数,例如作为由速度V表示的最大速度的比例。
最大速度Vmax是这样一个速度,超过该速度时与用于所检测到的对象的移动的速度分数Sv相关的风险系数在很大程度上更高。最大速度的值可以被认为是根据其朝向车辆的取向、车辆12的可能制动距离或与预定义的风险评估策略相关的其他值的变量。
图10中所示的区块433的功能是基于障碍物的类型产生分数,以便根据遇到的障碍物的类型来分配脆弱性分数:例如,行人比汽车更脆弱,因此必须在风险的评估中给予更多的重视。
区块433从与对象Ofj相关联的子列表中提取障碍物类型(typef)。然后,区块433扫描每个分配给一种类型的障碍物的脆弱性分数的关联表50,直到其找到对应于当前对象的类型的障碍物的类型。
类型分数St被设置为与在表50中等于被处理对象的类型(typeF)的类型(typo)相关联的值So(typo)。
区块533使得合并模块30能够产生如下面参考图11所解释的对象Ofj的列表Lfe。
区块533将取决于预期用途并且例如可以是根据导航要求加权的平均值的组合规则应用于由区块133、233、333、433产生的分数。可以使用如模糊逻辑或relief函数等其他决策辅助形式对要使用的组合规则进行定义。组合处理的结果产生风险指标lr,区块533将其添加到此时列表Lfe指向的对象Ofj的子列表中。
Claims (10)
1.一种用于将至少一个对象(13,14,15)实时用信号通知给车辆(12)的导航模块(60)的装置,该装置包括第一传感器(1),该第一传感器被设置为产生包括该对象相对于该车辆的第一捕获位置和第一捕获速度的第一传感器数据,其特征在于,该装置包括:
-至少一个第二传感器(2,3),该至少一个第二传感器被适配用于产生包括该对象相对于该车辆(12)的第二捕获位置和第二捕获速度的第二传感器数据;
-同步模块(20),该同步模块被适配用于产生包括来自该第一捕获位置和第一捕获速度的第一同步位置以及来自该第二捕获位置和第二捕获速度的至少一个第二同步位置的同步数据;
-合并模块(30),该合并模块被适配用于产生包括来自该第一同步位置和第二同步位置的合并位置的合并数据,其方式为以便通过向该导航模块(60)传送全部或部分合并数据来将所述至少一个对象(13,14,15)用信号通知给该导航模块。
2.如权利要求1所述的装置,其特征在于,该装置被适配用于利用与从所述合并数据用信号通知并生成的每个对象(13,14,15)相关联的风险指标来完成所述合并数据。
3.如权利要求2所述的装置,其特征在于,该装置包括用于计算来自融合数据的分数的一组区块(133,233,333,433)以及用于对由该组分数计算块中的一些或全部计算块所计算的分数进行组合的区块(533),以便通过对分数进行组合来生成每个对象的风险指标。
4.如权利要求3所述的装置,其特征在于,所述组包括距离分数计算块(133)、角度分数计算块(233)、速度分数计算块(333)和/或对象类型分数计算块(433)。
5.如权利要求3和4中任一项所述的装置,其特征在于,所述组包括用于另外计算来自制图数据的分数的至少一个块(133)。
6.如权利要求3至5中任一项所述的装置,其特征在于,所述组合块(533)被适配用于通过对所计算的分数中的一些或全部分数的加权求和来对分数进行组合。
7.如以上权利要求中任一项所述的装置,其特征在于,所述合并模块(30)被适配用于对至少一个补充位置进行合并,该补充位置与来自该第一同步位置和该第二同步位置的所述合并位置同步。
8.如以上权利要求中任一项所述的装置,其特征在于,由所述合并模块(30)访问的同步数据还包括与每个同步位置相关联的位置方差,以便产生由相关联的方差加权的同步位置之和,用于合并这些同步位置。
9.如以上权利要求中任一项所述的装置,其特征在于:
-由该同步模块(20)产生的同步数据还包括与每个同步位置相关联的位置方差;
-该合并模块(30)被适配用于产生包括来自该第一同步位置和该第二同步位置的合并位置的合并数据,以便当所述同步位置之间的马氏距离低于预定阈值并且不产生包括来自第一同步位置和第二同步位置的合并位置的合并数据时通过向该导航模块(60)传送所述合并数据来将相同对象用信号通知给该导航模块,以便当所述马氏距离高于所述预定阈值时将两个不同对象用信号通知给该导航模块(60)。
10.一种机动车辆(12),其特征在于,该机动车辆包括如权利要求1至9中任一项所述的装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1453910 | 2014-04-30 | ||
FR1453910A FR3020616B1 (fr) | 2014-04-30 | 2014-04-30 | Dispositif de signalisation d'objets a un module de navigation de vehicule equipe de ce dispositif |
PCT/FR2015/050939 WO2015166156A1 (fr) | 2014-04-30 | 2015-04-09 | Dispositif de signalisation d'objets a un module de navigation de vehicule equipe de ce dispositif |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106255899A true CN106255899A (zh) | 2016-12-21 |
CN106255899B CN106255899B (zh) | 2022-03-04 |
Family
ID=51688143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580023677.XA Active CN106255899B (zh) | 2014-04-30 | 2015-04-09 | 用于将对象用信号通知给配备有此装置的车辆的导航模块的装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10035508B2 (zh) |
EP (1) | EP3137355B1 (zh) |
JP (1) | JP6714513B2 (zh) |
CN (1) | CN106255899B (zh) |
FR (1) | FR3020616B1 (zh) |
WO (1) | WO2015166156A1 (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109080628A (zh) * | 2017-06-14 | 2018-12-25 | 丰田自动车株式会社 | 目标确定设备和驾驶辅助系统 |
CN109747639A (zh) * | 2017-11-08 | 2019-05-14 | 现代自动车株式会社 | 车辆及其控制方法 |
CN110785719A (zh) * | 2017-06-06 | 2020-02-11 | 智加科技公司 | 在自动驾驶车辆中用于经由交叉时态验证的即时物体标记的方法和系统 |
CN110971327A (zh) * | 2018-09-30 | 2020-04-07 | 长城汽车股份有限公司 | 用于环境目标的时间同步方法及装置 |
CN111279280A (zh) * | 2018-08-24 | 2020-06-12 | 百度时代网络技术(北京)有限公司 | 用于在传感器之间传送数据的数据传送逻辑与自动驾驶车辆的规划和控制 |
CN111344647A (zh) * | 2017-09-15 | 2020-06-26 | 艾耶股份有限公司 | 具有低延时运动规划更新的智能激光雷达系统 |
US11790551B2 (en) | 2017-06-06 | 2023-10-17 | Plusai, Inc. | Method and system for object centric stereo in autonomous driving vehicles |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10527730B2 (en) * | 2015-10-22 | 2020-01-07 | Toyota Motor Engineering & Manufacturing North America, Inc. | Object detection system |
DE102016000209A1 (de) * | 2016-01-11 | 2017-07-13 | Trw Automotive Gmbh | Steuerungs-System und Verfahren zum Ermitteln einer Straßenbelagsunregelmäßigkeit |
US9933513B2 (en) | 2016-02-18 | 2018-04-03 | Aeye, Inc. | Method and apparatus for an adaptive ladar receiver |
US10782393B2 (en) | 2016-02-18 | 2020-09-22 | Aeye, Inc. | Ladar receiver range measurement using distinct optical path for reference light |
JP6256531B2 (ja) * | 2016-06-10 | 2018-01-10 | 三菱電機株式会社 | 物体認識処理装置、物体認識処理方法および自動運転システム |
CN108290577B (zh) * | 2016-08-29 | 2021-04-27 | 马自达汽车株式会社 | 车辆控制装置 |
US10095238B2 (en) * | 2016-12-14 | 2018-10-09 | Ford Global Technologies, Llc | Autonomous vehicle object detection |
US10656652B2 (en) | 2017-08-10 | 2020-05-19 | Patroness, LLC | System and methods for sensor integration in support of situational awareness for a motorized mobile system |
US10168418B1 (en) | 2017-08-25 | 2019-01-01 | Honda Motor Co., Ltd. | System and method for avoiding sensor interference using vehicular communication |
US10757485B2 (en) * | 2017-08-25 | 2020-08-25 | Honda Motor Co., Ltd. | System and method for synchronized vehicle sensor data acquisition processing using vehicular communication |
US10334331B2 (en) | 2017-08-25 | 2019-06-25 | Honda Motor Co., Ltd. | System and method for synchronized vehicle sensor data acquisition processing using vehicular communication |
US10831202B1 (en) * | 2017-09-01 | 2020-11-10 | Zoox, Inc. | Onboard use of scenario description language |
FR3076045A1 (fr) * | 2017-12-22 | 2019-06-28 | Orange | Procede de surveillance d'un environnement d'un premier element positionne au niveau d'une voie de circulation, et systeme associe |
US11958485B2 (en) * | 2018-03-01 | 2024-04-16 | Jaguar Land Rover Limited | Vehicle control method and apparatus |
US11104334B2 (en) | 2018-05-31 | 2021-08-31 | Tusimple, Inc. | System and method for proximate vehicle intention prediction for autonomous vehicles |
WO2019232355A1 (en) * | 2018-05-31 | 2019-12-05 | TuSimple | System and method for proximate vehicle intention prediction for autonomous vehicles |
US11163317B2 (en) | 2018-07-31 | 2021-11-02 | Honda Motor Co., Ltd. | System and method for shared autonomy through cooperative sensing |
US11181929B2 (en) | 2018-07-31 | 2021-11-23 | Honda Motor Co., Ltd. | System and method for shared autonomy through cooperative sensing |
CN110376583B (zh) * | 2018-09-30 | 2021-11-19 | 毫末智行科技有限公司 | 用于车辆传感器的数据融合方法及装置 |
CN110378178B (zh) * | 2018-09-30 | 2022-01-28 | 毫末智行科技有限公司 | 目标跟踪方法及装置 |
JP7166988B2 (ja) * | 2019-06-26 | 2022-11-08 | 本田技研工業株式会社 | 車両制御装置、車両制御方法、およびプログラム |
US12048658B1 (en) | 2020-03-06 | 2024-07-30 | Luci Mobility, Inc. | Systems and methods for pressure injury mitigation |
JP7367660B2 (ja) * | 2020-11-24 | 2023-10-24 | トヨタ自動車株式会社 | 運転支援システム |
US20220308187A1 (en) | 2021-03-26 | 2022-09-29 | Aeye, Inc. | Hyper Temporal Lidar Using Multiple Matched Filters to Determine Target Retro-Reflectivity |
US11635495B1 (en) | 2021-03-26 | 2023-04-25 | Aeye, Inc. | Hyper temporal lidar with controllable tilt amplitude for a variable amplitude scan mirror |
US11474214B1 (en) | 2021-03-26 | 2022-10-18 | Aeye, Inc. | Hyper temporal lidar with controllable pulse bursts to resolve angle to target |
US20220308222A1 (en) | 2021-03-26 | 2022-09-29 | Aeye, Inc. | Hyper Temporal Lidar with Multi-Channel Readout of Returns |
US20230044929A1 (en) | 2021-03-26 | 2023-02-09 | Aeye, Inc. | Multi-Lens Lidar Receiver with Multiple Readout Channels |
US11630188B1 (en) | 2021-03-26 | 2023-04-18 | Aeye, Inc. | Hyper temporal lidar with dynamic laser control using safety models |
US11460556B1 (en) | 2021-03-26 | 2022-10-04 | Aeye, Inc. | Hyper temporal lidar with shot scheduling for variable amplitude scan mirror |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004031877A1 (de) * | 2002-09-27 | 2004-04-15 | Volkswagen Aktiengesellschaft | Verfahren und vorrichtung zur ermittlung des fahrzeugumfeldes |
CN101013158A (zh) * | 2006-02-03 | 2007-08-08 | 通用汽车环球科技运作公司 | 用于车载对象跟踪系统的校准和定向的方法和设备 |
CN101228546A (zh) * | 2005-06-01 | 2008-07-23 | 茵诺苏伦斯公司 | 机动车行驶数据收集和分析 |
US20100030474A1 (en) * | 2008-07-30 | 2010-02-04 | Fuji Jukogyo Kabushiki Kaisha | Driving support apparatus for vehicle |
CN103558856A (zh) * | 2013-11-21 | 2014-02-05 | 东南大学 | 动态环境下服务动机器人导航方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19641261C1 (de) | 1996-10-07 | 1998-02-12 | Siemens Ag | Verfahren zur Bewertung der Meßqualität eines Entfernungsmeßsensors an einem autonomen mobilen System |
US5979586A (en) * | 1997-02-05 | 1999-11-09 | Automotive Systems Laboratory, Inc. | Vehicle collision warning system |
JP2005001642A (ja) * | 2003-04-14 | 2005-01-06 | Fujitsu Ten Ltd | 盗難防止装置、監視装置、及び盗難防止システム |
JP3960317B2 (ja) * | 2004-03-03 | 2007-08-15 | 日産自動車株式会社 | 車両用運転操作補助装置および車両用運転操作補助装置を備えた車両 |
US8135605B2 (en) * | 2006-04-11 | 2012-03-13 | Bank Of America Corporation | Application risk and control assessment tool |
DE102009006113B4 (de) * | 2008-03-03 | 2019-03-28 | Volkswagen Ag | Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten |
US8935055B2 (en) * | 2009-01-23 | 2015-01-13 | Robert Bosch Gmbh | Method and apparatus for vehicle with adaptive lighting system |
JP5526717B2 (ja) * | 2009-02-27 | 2014-06-18 | 日産自動車株式会社 | 車両用運転操作補助装置、車両用運転操作補助方法および自動車 |
JP5210233B2 (ja) * | 2009-04-14 | 2013-06-12 | 日立オートモティブシステムズ株式会社 | 車両用外界認識装置及びそれを用いた車両システム |
JP2011002355A (ja) * | 2009-06-19 | 2011-01-06 | Clarion Co Ltd | ナビゲーション装置および車両制御装置 |
EP2562053B1 (en) * | 2011-08-25 | 2016-04-27 | Volvo Car Corporation | Method, computer program product and system for determining whether it is necessary to utilize a vehicle's safety equipment and vehicle comprising these |
US9747802B2 (en) * | 2011-09-19 | 2017-08-29 | Innovative Wireless Technologies, Inc. | Collision avoidance system and method for an underground mine environment |
FR2993376B1 (fr) | 2012-07-12 | 2014-07-25 | Renault Sa | Procede de controle de trajectoire d'un vehicule autonome a roues directrices |
DE102012216112A1 (de) * | 2012-09-12 | 2014-03-13 | Robert Bosch Gmbh | Verfahren und Informationssystem zur Ermittlung eines vom Fahrer beabsichtigen oder nicht beabsichtigten Fahrspurwechsels bei einer Fahrt eines Fahrzeugs |
JP5846109B2 (ja) * | 2012-11-20 | 2016-01-20 | 株式会社デンソー | 衝突判定装置及び衝突回避システム |
-
2014
- 2014-04-30 FR FR1453910A patent/FR3020616B1/fr active Active
-
2015
- 2015-04-09 JP JP2016564576A patent/JP6714513B2/ja active Active
- 2015-04-09 US US15/307,273 patent/US10035508B2/en active Active
- 2015-04-09 EP EP15725719.7A patent/EP3137355B1/fr active Active
- 2015-04-09 CN CN201580023677.XA patent/CN106255899B/zh active Active
- 2015-04-09 WO PCT/FR2015/050939 patent/WO2015166156A1/fr active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004031877A1 (de) * | 2002-09-27 | 2004-04-15 | Volkswagen Aktiengesellschaft | Verfahren und vorrichtung zur ermittlung des fahrzeugumfeldes |
CN101228546A (zh) * | 2005-06-01 | 2008-07-23 | 茵诺苏伦斯公司 | 机动车行驶数据收集和分析 |
CN101013158A (zh) * | 2006-02-03 | 2007-08-08 | 通用汽车环球科技运作公司 | 用于车载对象跟踪系统的校准和定向的方法和设备 |
US20100030474A1 (en) * | 2008-07-30 | 2010-02-04 | Fuji Jukogyo Kabushiki Kaisha | Driving support apparatus for vehicle |
CN103558856A (zh) * | 2013-11-21 | 2014-02-05 | 东南大学 | 动态环境下服务动机器人导航方法 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110785719A (zh) * | 2017-06-06 | 2020-02-11 | 智加科技公司 | 在自动驾驶车辆中用于经由交叉时态验证的即时物体标记的方法和系统 |
US11790551B2 (en) | 2017-06-06 | 2023-10-17 | Plusai, Inc. | Method and system for object centric stereo in autonomous driving vehicles |
US12039445B2 (en) | 2017-06-06 | 2024-07-16 | Plusai, Inc. | Method and system for on-the-fly object labeling via cross modality validation in autonomous driving vehicles |
US12093821B2 (en) | 2017-06-06 | 2024-09-17 | Plusai, Inc. | Method and system for closed loop perception in autonomous driving vehicles |
CN109080628A (zh) * | 2017-06-14 | 2018-12-25 | 丰田自动车株式会社 | 目标确定设备和驾驶辅助系统 |
CN109080628B (zh) * | 2017-06-14 | 2021-07-06 | 丰田自动车株式会社 | 目标确定设备和驾驶辅助系统 |
CN111344647A (zh) * | 2017-09-15 | 2020-06-26 | 艾耶股份有限公司 | 具有低延时运动规划更新的智能激光雷达系统 |
CN109747639A (zh) * | 2017-11-08 | 2019-05-14 | 现代自动车株式会社 | 车辆及其控制方法 |
CN111279280A (zh) * | 2018-08-24 | 2020-06-12 | 百度时代网络技术(北京)有限公司 | 用于在传感器之间传送数据的数据传送逻辑与自动驾驶车辆的规划和控制 |
CN111279280B (zh) * | 2018-08-24 | 2023-08-04 | 百度时代网络技术(北京)有限公司 | 用于在传感器之间传送数据的数据传送逻辑与自动驾驶车辆的规划和控制 |
CN110971327A (zh) * | 2018-09-30 | 2020-04-07 | 长城汽车股份有限公司 | 用于环境目标的时间同步方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
FR3020616B1 (fr) | 2017-10-27 |
JP2017521745A (ja) | 2017-08-03 |
WO2015166156A1 (fr) | 2015-11-05 |
US10035508B2 (en) | 2018-07-31 |
EP3137355B1 (fr) | 2021-09-01 |
CN106255899B (zh) | 2022-03-04 |
FR3020616A1 (fr) | 2015-11-06 |
US20170043771A1 (en) | 2017-02-16 |
JP6714513B2 (ja) | 2020-06-24 |
EP3137355A1 (fr) | 2017-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106255899A (zh) | 用于将对象用信号通知给配备有此装置的车辆的导航模块的装置 | |
Yu et al. | Deep learning-based traffic safety solution for a mixture of autonomous and manual vehicles in a 5G-enabled intelligent transportation system | |
Yao et al. | On-road vehicle trajectory collection and scene-based lane change analysis: Part II | |
CN102800207B (zh) | 交通信号检测系统和方法 | |
CN102208013B (zh) | 风景匹配参考数据生成系统和位置测量系统 | |
WO2021057134A1 (zh) | 场景识别的方法与计算设备 | |
CN112389440B (zh) | 一种基于车路作用机理的越野环境中车辆行驶风险预测方法 | |
CN110268413A (zh) | 低电平传感器融合 | |
CN116685874A (zh) | 摄像机-激光雷达融合对象检测系统和方法 | |
CN114077541A (zh) | 验证用于自动驾驶车辆的自动控制软件的方法和系统 | |
CN110781949B (zh) | 基于异步式串行多传感器的航迹数据融合方法及存储介质 | |
Peng et al. | Intelligent method for identifying driving risk based on V2V multisource big data | |
KR20160071162A (ko) | 라이다를 이용한 멀티 오브젝트 추적 장치 및 그 방법 | |
CN106918341A (zh) | 用于构建地图的方法和设备 | |
GB2600188A (en) | Metric back-propagation for subsystem performance evaluation | |
GB2559263A (en) | Autonomous vehicle object detection | |
CN114396958B (zh) | 基于多车道多传感器的车道定位方法、系统及车辆 | |
CN117011816A (zh) | 跟踪对象的踪迹段清理 | |
Chu et al. | SOTIF-oriented perception evaluation method for forward obstacle detection of autonomous vehicles | |
CN116229703A (zh) | 用于检测交通信号的方法、系统和存储介质 | |
Liu et al. | A detachable and expansible multisensor data fusion model for perception in level 3 autonomous driving system | |
Cafiso et al. | Using GPS data to detect critical events in motorcycle rider behaviour | |
Xu et al. | An efficient multi‐sensor fusion and tracking protocol in a vehicle‐road collaborative system | |
Huang et al. | [Retracted] Multimode Intelligent Control Based on Multidata Fusion Filtering in High‐Speed Train Traffic Signal and Control | |
Singh et al. | Impact of automotive system safety design on machine learning based perception systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |