CN109752717A - 用于关联车辆中的传感器数据的装置和方法 - Google Patents
用于关联车辆中的传感器数据的装置和方法 Download PDFInfo
- Publication number
- CN109752717A CN109752717A CN201810685694.5A CN201810685694A CN109752717A CN 109752717 A CN109752717 A CN 109752717A CN 201810685694 A CN201810685694 A CN 201810685694A CN 109752717 A CN109752717 A CN 109752717A
- Authority
- CN
- China
- Prior art keywords
- target
- vehicle
- sensor
- sensing data
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 239000012141 concentrate Substances 0.000 abstract description 11
- 230000004927 fusion Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 21
- 238000001514 detection method Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000007781 pre-processing Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 241000406668 Loxodonta cyclotis Species 0.000 description 1
- HUTDUHSNJYTCAR-UHFFFAOYSA-N ancymidol Chemical compound C1=CC(OC)=CC=C1C(O)(C=1C=NC=NC=1)C1CC1 HUTDUHSNJYTCAR-UHFFFAOYSA-N 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/04—Traffic conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
- B60W40/072—Curvature of the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4042—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4044—Direction of movement, e.g. backwards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/802—Longitudinal distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/30—Sensors
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Traffic Control Systems (AREA)
Abstract
本公开提供用于关联车辆中的传感器数据的装置和方法。该装置包括配置为感测外部对象的多个传感器以及配置为与多个传感器电连接的处理器。处理器配置为使用多个传感器来获得位于车辆周围的目标的传感器数据集,基于目标信息、车辆或目标所行驶的道路的曲率以及配置为感测目标的传感器的类型中的至少一个来选择传感器数据集中包括的传感器数据的至少一部分,以及通过关联传感器数据的至少一部分来生成目标的跟踪数据。
Description
相关申请的交叉引用
本申请要求于2017年11月07日提交的第10-2017-0147439号韩国专利申请的优先权和权益,其全部内容通过引用并入本文。
技术领域
本公开涉及一种用于关联由多个传感器获得的数据的装置和方法。
背景技术
本节中的陈述仅提供与本公开相关的背景信息,并且可能不构成现有技术。
随着汽车工业的发展,已经开发了能够追踪周围车辆并获得与周围车辆相关的多种信息的系统,以向驾驶员提供便利。例如,车辆可以使用诸如前部雷达、角雷达、前视照相机、侧视照相机、后视照相机、视觉以及光检测和测距装置(LIDAR)的各种传感器来获得关于位于各个方向上的周围车辆的信息。车辆可以通过关联由各传感器中的每一个获得的传感器数据来生成传感器融合数据。结果,可以提高由各传感器中的每一个获得的数据的精确度。车辆可以将先前帧的传感器融合数据与当前帧的传感器融合数据相关联。
由于行驶环境(即,车辆的移动、目标的移动、多个传感器中的每一个的感测范围等),可能难以将先前帧的数据与当前帧的数据相关联。在这种情况下,针对相同目标的先前帧的传感器融合数据的属性信息(例如,指示目标的类型(车辆、行人等)的信息)和标识符(ID)(例如,分配给目标的唯一识别值)可以与针对相同目标的当前帧的传感器融合数据的属性信息和ID不同。当车辆数据关联失败时,使用由车辆支持的传感器的各种系统的操作也可能失败。
发明内容
本公开的一方面提供一种用于关联传感器数据的装置和方法,以在全面考虑车辆、周围车辆、行驶环境等的情况下以鲁棒方式关联由传感器获得的数据。
在本公开的一个方面中,一种用于关联车辆中的传感器数据的装置可以包括:多个传感器,其配置为感测外部对象;和处理器,其配置为与多个传感器电连接。处理器可以配置为使用多个传感器来获得位于车辆周围的目标的传感器数据集,至少基于目标信息、车辆或目标所行驶的道路的曲率或配置为感测目标的传感器的类型来选择传感器数据集中包括的传感器数据的至少一部分,并且通过关联传感器数据的至少一部分来生成目标的跟踪数据。
在本公开的一些实施方式中,多个传感器可以包括雷达和照相机。
在本公开的一些实施方式中,多个传感器可以包括前部雷达、前视照相机和侧视照相机。
在本公开的一些实施方式中,传感器数据集可以包括由多个传感器中的每一个传感器获得的传感器数据。
在本公开的一些实施方式中,处理器可以配置为:基于目标信息、车辆所行驶的道路的曲率以及配置为感测目标的传感器的类型中的至少一个设定用于确定传感器数据集的有效性的区域;并且选择传感器数据集中包括的传感器数据中与该区域对应的传感器数据。
在本公开的一些实施方式中,目标信息可以包括车辆与目标之间的距离、车辆的速度与目标的速度之间的差值、目标的运动方向以及目标的类型中的至少一个。
在本公开的一些实施方式中,处理器可以配置为:基于车辆与目标之间的距离设定用于确定传感器数据集的有效性的区域;并且选择传感器数据集中包括的传感器数据中与该区域对应的传感器数据。
在本公开的一些实施方式中,处理器可以配置为:当车辆与目标之间的距离变得比预定距离大时增大该区域;并且当车辆与目标之间的距离变得比预定距离小时减小该区域。
在本公开的一些实施方式中,处理器可以配置为:基于车辆的速度和目标的速度之间的差值设定用于确定传感器数据集的有效性的区域;并且选择传感器数据集中包括的传感器数据中与该区域对应的传感器数据。
在本公开的一些实施方式中,处理器可以配置为:当车辆的速度与目标的速度之间的差值变得大于预定值时增大该区域;并且当车辆的速度与目标的速度之间的差值变得小于预定值时减小该区域。
在本公开的一些实施方式中,处理器可以配置为:基于道路的曲率设定用于确定传感器数据集的有效性的区域;并且选择传感器数据集中包括的传感器数据中与该区域对应的传感器数据。
在本公开的一些实施方式中,处理器可以配置为:当道路的曲率变得大于预定范围时增大该区域;并且当道路的曲率变得小于预定范围时减小该区域。
在本公开的一些实施方式中,处理器可以配置为:基于目标的运动方向设定用于确定传感器数据集的有效性的区域;并且选择传感器数据集中包括的传感器数据中与该区域对应的传感器数据。
在本公开的一些实施方式中,处理器可以配置为增大该区域在目标的运动方向上的长度。
在本公开的一些实施方式中,处理器可以配置为:基于传感器的类型设定用于确定传感器数据集的有效性的区域;并且选择传感器数据集中包括的传感器数据中与该区域对应的传感器数据。
在本公开的一些实施方式中,处理器可以配置为:基于目标的类型设定用于确定传感器数据集的有效性的区域;并且选择传感器数据集中包括的传感器数据中与该区域对应的传感器数据。
根据本公开的另一方面,一种用于关联车辆中的传感器数据的方法可以包括:使用车辆的多个传感器来获得位于车辆周围的目标的传感器数据集;基于目标信息、车辆或目标所行驶的道路的曲率以及配置为感测目标的传感器的类型中的至少一个来选择传感器数据集中包括的传感器数据的至少一部分;以及通过关联传感器数据的至少一部分来生成目标的跟踪数据。
在本公开的一些实施方式中,传感器数据集可以包括由多个传感器中的每一个传感器获得的传感器数据。
在本公开的一些实施方式中,选择传感器数据的至少一部分可以包括:基于目标信息、车辆所行驶的道路的曲率以及配置为感测目标的传感器的类型中的至少一部分来设定用于确定传感器数据集的有效性的区域;并且选择传感器数据集中包括的传感器数据中与该区域对应的传感器数据。
在本公开的一些实施方式中,目标信息可以包括:车辆与目标之间的距离、车辆的速度与目标的速度之间的差值、目标的运动方向以及目标的类型中的至少一个。
根据本文提供的描述,其他应用领域将变得显而易见。应该理解的是,描述和具体示例仅出于说明的目的,而不旨在限制本公开的范围。
附图说明
为了能够很好地理解本公开,现在将参照附图描述以示例的方式给出的本公开的各种实施方式,其中:
图1是示出用于关联传感器数据的装置的配置的框图;
图2是示出用于关联传感器数据的装置中包括的程序模块的配置的框图;
图3是示出在用于关联传感器数据的装置中使用的算法的流程图;
图4是示出用于关联传感器数据的装置的示例性操作的示图;
图5是示出用于关联传感器数据的装置的示例性操作的示图;
图6是示出用于关联传感器数据的装置的示例性操作的示图;
图7是示出用于关联传感器数据的装置的示例性操作的示图;
图8是示出用于关联传感器数据的装置的示例性操作的示图;
图9是示出用于关联传感器数据的装置的示例性操作的示图;
图10是示出用于关联传感器数据的装置的示例性操作的示图;
图11是示出用于关联传感器数据的方法的流程图;以及
图12是示出计算系统的配置的框图。
这里描述的附图仅出于说明的目的,并不旨在以任何方式限制本公开的范围。
具体实施方式
以下描述本质上仅仅是示例性的,并不旨在限制本公开、应用或用途。应该理解的是,在整个附图中,相应的附图标记表示相同或相应的部件和特征。
在下文中,将参照附图详细描述本公开的实施方式。在为每个附图的元件添加附图标记时,虽然相同的元件显示在不同的附图上,但应该注意的是,相同的元件具有相同的附图标记。此外,在描述本公开的实施方式时,如果确定相关公知配置或功能的详细描述模糊了本公开的实施方式的要旨,则将其省略。
在描述本公开的实施方式的元件时,可以在本文中使用诸如第一、第二、第一的、第二的、A、B、(a)和(b)等词语。这些词语仅用于区分一个元件与另一个元件,无论相应元件的固有特征、顺序或次序如何,不限制相应元件。除非另外定义,否则这里使用的包括技术或科学术语的所有术语具有与本公开所属领域的技术人员通常理解的含义相同的含义。在通常使用的词典中定义的那些术语应被解释为具有与相关领域中的上下文含义相同的含义,并且不应被解释为具有理想或过于正式的含义,除非在本申请中明确定义。
图1是示出本公开的一些实施方式中的用于关联传感器数据的装置的配置的框图。
参照图1,用于关联车辆中的传感器数据的装置100(为了便于描述,在下文中称为“装置100”)可以包括多个传感器111至113以及处理器120。图1的装置100可以装载到车辆中。
多个传感器111至113中的每一个均可以配置为感测外部对象。多个传感器111至113中的每一个均可以配置为获得关于外部对象的信息。例如,多个传感器111至113中的每一个均可以获得关于外部对象的位置、外部对象的速度、外部对象的移动方向和/或外部对象的类型(例如,车辆、行人、自行车、摩托车等)的信息。多个传感器111至113可以包括例如雷达和照相机。例如,第一传感器111可以是前部雷达,第二传感器112可以是前视照相机,并且第三传感器113可以是侧视照相机。在图1中,描述了包括三个传感器111至113的装置100的示例性实施方式。然而,实施方式不限于此。例如,装置100可以包括两个或更多个传感器或者可以包括不同类型的传感器,诸如激光扫描仪和/或角雷达(corner radar)。
处理器120可以与多个传感器111至113电连接。处理器120可以控制多个传感器111至113,并且可以执行各种数据处理以及各种算术运算。
在本公开的一些实施方式中,处理器120可以使用多个传感器111至113获得位于车辆周围的目标的传感器数据集。处理器120可以通过多个传感器111至113中的每一个来检测目标。传感器数据集可以包括通过多个传感器111至113中的每一个获得的传感器数据。例如,处理器120可以使用第一传感器111获得第一数据,可以使用第二传感器112获得第二数据,并且可以使用第三传感器113获得第三数据。处理器120可以获得包括第一数据、第二数据和第三数据的传感器数据的集合。
在本公开的一些实施方式中,处理器120可以基于关于目标的信息、车辆或目标所行驶的道路的曲率以及感测目标的传感器的类型中的至少一部分来选择传感器数据集的至少一部分。关于目标的信息可以包括例如关于车辆与目标之间的距离、车辆的速度与目标的速度之间的差值、目标的运动方向以及目标的类型中的至少一部分的信息。处理器120可以基于关于目标的信息、车辆所行驶的道路的曲率以及感测目标的传感器的类型中的至少一部分,来设定用于确定传感器数据集的有效性的区域。该区域可以是用于选通(gating)传感器数据集的区域。处理器120可以在传感器数据集中包括的传感器数据中选择与设定区域对应的传感器数据。处理器120可以使用所选择的传感器数据来执行传感器融合。将参照图5至图10给出设定用于确定有效性的区域的详细操作的描述。
在本公开的一些实施方式中,处理器120可以通过关联所选传感器数据的至少一部分来生成目标的跟踪数据。跟踪数据可以是通过传感器融合获得的目标数据。处理器120可以存储先前帧的跟踪数据。处理器120可以通过使用先前帧的跟踪数据预测目标的运动来获得预测数据。处理器120可以将所选传感器数据与从先前帧的跟踪数据预测的数据相关联。处理器120可以使用例如先前帧的跟踪数据中包括的坐标和所选传感器数据的坐标来关联数据。处理器120可以通过关联来生成目标的当前帧的跟踪数据。
图2是示出本公开的一些实施方式中的用于关联传感器数据的装置中包括的程序模块的配置的框图。
参照图2,本公开的一些实施方式中的装置可以包括程序模块。程序模块可以用于传感器融合,可以从多个传感器获得目标数据,并且可以生成目标的传感器融合跟踪数据。程序模块可以包括预处理模块210、关联模块220、跟踪模块230和跟踪管理模块240。
预处理模块210可以从多个传感器接收信号。预处理模块210可以执行接收到的信号的时间/空间同步。预处理模块210可以将检测到的目标分类为移动对象或停止对象。预处理模块210可以执行多个传感器中每一个传感器的有效验证(例如,故障检测与隔离(FDI)-跟踪连续性、跟踪移动历史、测量结果比较等)。
关联模块220可以确定先前帧的传感器融合跟踪数据与当前帧的传感器数据之间的关联。作为确定的结果,关联模块220可以改变关联图。关联模块220可以使用没有关联的当前帧的传感器数据来生成新关联图(例如,跟踪候选)。关联模块220可以验证先前帧的传感器融合跟踪数据与当前帧的传感器数据之间的关联。
跟踪模块230可以更新传感器融合跟踪数据的位置信息、速度信息以及估计误差信息。跟踪模块230可以更新估计误差协方差信息。
跟踪管理模块240可以执行传感器融合跟踪数据的生命周期的管理(例如,初始化、确认或终止)。跟踪管理模块240可以将传感器融合跟踪数据分类为移动对象的数据或停止对象的数据。跟踪管理模块240可以执行传感器融合跟踪数据的有效性的验证(FDI跟踪连续性、跟踪移动历史、空间相似性、时间相似性等)。
图3是示出根据本公开的实施方式的用于关联传感器数据的装置中使用的算法的流程图。
参照图3,本公开的一些实施方式中的装置可以使用最近邻(NN)数据关联技术。NN数据关联技术可以很容易地实施,并且在系统的运动和测量模型精确时可以提供精确的结果。这里,在执行NN数据关联技术时,可能发生不适当的数据关联并且由于不适当的数据关联可能导致使用不适当的测量值来生成传感器融合跟踪数据。这可能会导致技术性能的下降。本公开的一些实施方式中的装置可以提供用于增强与数据关联相关的操作的性能的功能(例如,新息(innovations)的计算和测量结果验证、测量结果关联以及组合的测量结果)。
图4是示出本公开的一些实施方式中的用于关联传感器数据的装置的示例性操作的示图。
参照图4,本公开的一些实施方式中的装置可以确定先前时间处的传感器融合跟踪数据与新测得的传感器数据之间的关联。例如,该装置可以基于由照相机、角雷达和雷达在第一帧处测得的传感器数据(z2)411至413来生成第一帧(先前帧)的传感器融合跟踪数据。该装置可以基于第一帧的传感器融合跟踪数据来预测目标的运动,并且可以预测将在第二帧(当前帧)处获得的传感器融合跟踪数据420。该装置可以获得由照相机、角雷达和雷达在第二帧处测得的传感器数据(z1)431至433。该装置可以在由多个传感器测得的数据中选择具有位于域(gate)450中的坐标的传感器数据411至413和431至433。用于选择域450中的数据的示例性公式可以是下面的公式1。
[公式1]
上面的第一个公式可以是马氏距离公式。z可以表示测得的传感器数据,可以表示预测的传感器融合跟踪数据,d可以表示测得的传感器数据的坐标和预测的传感器融合跟踪数据的坐标之间的距离,S可以表示协方差矩阵,并且γ可以表示域阈值。该装置可以选择符合第一公式的传感器数据作为有效传感器数据。第二个公式和第三个公式可以从第一个公式导出。通过公式1可以形成椭圆形的域,并且域阈值可以根据将参照图5至图10描述的情况而改变。
该装置可以将预测的传感器融合跟踪数据420的坐标与由照相机在第一帧处测得的传感器数据411的坐标之间的距离和预测的传感器融合跟踪数据420的坐标与由照相机在第二帧处测得的传感器数据431的坐标之间的距离进行比较。该装置可以选择具有与预测的传感器融合跟踪数据420的坐标相对较近的坐标的传感器数据431。该装置可以以类似的方式选择传感器数据432和传感器数据433。该装置可以使用所选传感器数据431至433来生成第二帧的传感器融合跟踪数据。
图5是示出本公开的一些实施方式中的用于关联传感器数据的装置的示例性操作的示图。
图5所示的车辆510可以包括图1的装置100。在图5的描述中,描述为由车辆510执行的操作可以被理解为由装置100的处理器120控制。
在本公开的一些实施方式中,车辆可以基于车辆与目标之间的距离来设定用于确定传感器数据集的有效性的区域,并且可以在传感器数据集中包括的传感器数据中选择与设定区域对应的传感器数据。例如,当车辆与目标之间的距离变长时,车辆可以增大该区域的面积。当车辆与目标之间的距离变短时,车辆可以减小该区域的面积。
参照图5,车辆510可以使用其传感器来检测车辆510周围的车辆。例如,车辆510可以检测到位于车辆510前方的目标车辆520。当目标车辆520加速使得目标车辆520和车辆510之间的距离变长时,可能会增加目标车辆520的测量值的不确定性。因此,当车辆510和目标车辆520之间的距离变长时,车辆510可以增大域的大小。
图6是示出本公开的一些实施方式中的用于关联传感器数据的装置的示例性操作的示图。
图6中所示的车辆610可以包括图1的装置100。在图6的描述中,描述为由车辆610执行的操作可以被理解为由装置100的处理器120控制。
在本公开的一些实施方式中,车辆可以基于车辆的速度与目标的速度之间的差值来设定用于确定传感器数据集的有效性的区域,并且可以在传感器数据集中包括的传感器数据中选择与设定区域对应的传感器数据。例如,当车辆的速度与目标的速度之间的差值变大时,车辆可以增大该区域的面积。当车辆的速度与目标的速度之间的差值变小时,车辆可以减小该区域的面积。
参照图6,车辆610可以使用其传感器检测车辆610周围的车辆。例如,车辆610可以检测到位于车辆610左前方的第一目标车辆620以及位于车辆610右前方的第二目标车辆630。车辆610和第一目标车辆620可以低速行驶,并且第二目标车辆630可以高速行驶。在这种情况下,车辆610相对于第二目标车辆630的相对速度可能快于车辆610相对于第一目标车辆620的相对速度。当相对速度更快时,测量值的不确定性可能会更高。因此,车辆610可以将针对第二目标车辆630的域的大小设定为大于针对第一目标车辆620的域的大小。
图7是示出本公开的一些实施方式中的用于关联传感器数据的装置的示例性操作的示图。
图7所示的车辆710可以包括图1的装置100。在图7的描述中,描述为由车辆710执行的操作可以被理解为由装置100的处理器120控制。
在本公开的一些实施方式中,车辆可以基于道路的曲率来设定用于确定传感器数据集的有效性的区域,并且可以在传感器数据集中包括的传感器数据中选择与设定区域对应的传感器数据。例如,当道路的曲率变大时,车辆可以增大该区域的面积。当道路的曲率变小时,车辆可以减小该区域的面积。
参照图7,车辆710可以使用其传感器检测车辆710周围的车辆。例如,车辆710可以检测到位于车辆710前方的第一目标车辆720以及位于第一目标车辆720前方的第二目标车辆730。车辆710可以获得地图信息并且可以利用地图信息获得第一目标车辆720所在位置的道路曲率信息以及第二目标车辆730所在位置的道路曲率信息。第二目标车辆730所在位置的曲率可以大于第一目标车辆720所在位置的曲率。当目标所在位置的曲率变大时,测量值的不确定性可能会更高。因此,车辆710可以将针对第二目标车辆730的域的大小设定为大于针对第一目标车辆720的域的大小。
图8是示出本公开的一些实施方式中的用于关联传感器数据的装置的示例性操作的示图。
图8中示出的车辆810可以包括图1的装置100。在图8的描述中,描述为由车辆810执行的操作可以被理解为由装置100的处理器120控制。
在本公开的一些实施方式中,车辆可以基于目标的运动方向来设定用于确定传感器数据集的有效性的区域,并且可以在传感器数据集中包括的传感器数据中选择与设定区域对应的传感器数据。例如,车辆可以增大该区域的长度。
参照图8,车辆810可以使用其传感器检测车辆810周围的车辆。车辆810可以检测到在车辆810的右方向行驶的第一目标车辆820以及向车辆810的前方行驶的第二目标车辆830。车辆810可以获得关于第一目标车辆820和第二目标车辆830中的每一个的运动方向的信息。当目标移动时,运动方向的测量值的不确定性可能会变高。例如,当目标在x轴方向上移动时,x轴坐标的测量值的不确定性可能会变高。因此,车辆810可以将针对第一目标车辆820的域设定为在水平方向上较长,并且可以将针对第二目标车辆830的域设定为在竖直方向上较长。
图9是示出本公开的一些实施方式中的用于关联传感器数据的装置的示例性操作的示图。
图9所示的车辆910可以包括图1的装置100。在图9的描述中,描述为由车辆910执行的操作可以被理解为由装置100的处理器120控制。
在本公开的一些实施方式中,车辆可以基于传感器的类型来设定用于确定传感器数据集的有效性的区域,并且可以在传感器数据集中包括的传感器数据中选择与设定区域对应的传感器数据。
参照图9,车辆910可以使用其传感器检测车辆910周围的车辆。例如,车辆910可以检测到第一目标车辆920、第二目标车辆930以及第三目标车辆940。车辆910可以仅使用前部雷达检测第一目标车辆920。前部雷达的纵向位置的精确度可能较高,但前部雷达的横向位置的精确度可能较低。因此,考虑到作为感测第一目标车辆920的传感器的前部雷达的特性,车辆910可以相对于第一目标车辆920设定在左右方向上较长的域。车辆910可以使用前部雷达和前视照相机来检测第二目标车辆930。当使用两个传感器检测目标时,可以提高测量的精确度。因此,车辆910可以将针对第二目标车辆930的域的大小设定为较小。车辆910可以使用侧部雷达检测第三目标车辆940。侧部雷达的精确度在纵向方向和横向方向上可以类似。因此,考虑到侧部雷达的特性,车辆910可以针对第三目标车辆940设定圆形域。
图10是示出本公开的一些实施方式中的用于关联传感器数据的装置的示例性操作的示图。
图10所示的车辆1010可以包括图1的装置100。在图10的描述中,描述为由车辆1010执行的操作可以被理解为由装置100的处理器120控制。
在本公开的一些实施方式中,车辆可以基于目标的类型来设定用于确定传感器数据集的有效性的区域,并且可以在传感器数据集中包括的传感器数据中选择与设定区域对应的传感器数据。
参照图10,车辆1010可以使用其传感器检测车辆1010周围的各种对象。例如,车辆1010可以检测到第一目标车辆1020、第二目标车辆1030和行人1040。当为第一目标车辆1020和行人1040设定相同的域时,可以将关于第一目标车辆1020的数据和关于行人1040的数据关联,并且可以将关于第一目标车辆1020的数据和关于行人1040的数据融合。车辆1010可以使用其传感器获得关于车辆1010周围对象的类型(例如,第一目标车辆1020、第二目标车辆1030、行人1040、自行车(未示出)、摩托车(未示出)等)的信息。车辆1010可以将域的形式设定为适合于车辆1010周围对象的类型。车辆1010可以针对第一目标车辆1020和第二目标车辆1030中的每一个设定椭圆形域,并且可以针对行人1040设定比针对第一目标车辆1020和第二目标车辆1030中每一个的域小的圆形域。
图11是示出本公开的一些实施方式中的用于关联传感器数据的方法的流程图。
在下文中,可以假设图1的装置100执行图11的处理。进一步地,在图11的描述中,描述为由装置执行的操作可以被理解为由装置100的处理器120控制。
参照图11,在操作1110中,该装置可以使用多个传感器来获得位于车辆周围的目标的传感器数据集。例如,装置可以使用第一传感器获得目标的第一传感器数据,可以使用第二传感器获得目标的第二传感器数据,并且可以使用第三传感器获得目标的第三传感器数据。
在操作1120中,装置可以基于关于目标的信息、道路的曲率以及感测目标的传感器的类型中的至少一部分来选择传感器数据集中包括的传感器数据的至少一部分。例如,装置可以基于装置和目标之间的距离、目标的相对速度的大小、目标所在的道路的曲率、目标的运动方向、感测目标的传感器的类型和/或目标的类型来设定域,并且可以选择域中包括的传感器数据。
在操作1130中,装置可以通过关联所选传感器数据的至少一部分来生成目标的跟踪数据。例如,装置可以计算从先前帧的跟踪数据预测的跟踪数据与当前帧的传感器数据之间的距离,并且可以使用距离较近的传感器数据来生成当前帧的跟踪数据。
图12是示出本公开的一些实施方式中的计算系统的配置的框图。
参照图12,本公开的一些实施方式中的上述用户输入处理方法可以通过计算系统来实施。计算系统1000可以包括经由总线1200彼此连接的至少一个处理器1100、存储器1300、用户界面输入装置1400、用户界面输出装置1500、存储装置1600和网络接口1700。
处理器1100可以是用于执行存储在存储器1300和/或存储装置1600中的指令的处理的中央处理单元(CPU)或半导体器件。存储器1300和存储装置1600中的每一个均可以包括各种类型的易失性或非易失性存储介质。例如,存储器1300可以包括只读存储器(ROM)和随机存取存储器(RAM)。
因此,结合本说明书中公开的本公开的一些实施方式描述的方法或算法的操作可以直接通过由处理器1100执行的硬件模块、软件模块或其组合来实施。软件模块可以驻留在诸如RAM、闪存、ROM、可擦除可编程ROM(EPROM)、电EPROM(EEPROM)、寄存器、硬盘、可移动盘或光盘ROM(CD-ROM)的存储介质(即,存储器1300和/或存储装置1600)上。示例性存储介质可以耦合到处理器1100。处理器1100可以从存储介质读出信息并且可以将信息写入存储介质中。替代地,存储介质可以与处理器1100集成。处理器和存储介质可以驻留在专用集成电路(ASIC)中。ASIC可以驻留在用户终端中。替代地,处理器和存储介质可以作为用户终端的单独组件驻留。
在本公开的一些实施方式中的用于关联传感器数据的装置和方法可以通过基于关于目标的信息、道路曲率、传感器类型等动态地调整与数据关联相关的值来以鲁棒方式保持通过多个传感器获得的数据的关联。
此外,可以提供通过本公开间接或直接确定的各种效果。
尽管已经参照示例性实施方式描述了本公开,但是对于本领域技术人员来说显而易见的是,在不脱离本公开的精神和范围的情况下可以进行各种改变和修改。
因此,本公开的示例性实施方式不是限制性的,而是示例性的,并且本公开的精神和范围不限于此。本公开的精神和范围以及本公开应当由所附权利要求来解释,应该理解为与本公开等同的所有技术思想都包含在本公开的精神和范围内。
本公开的描述本质上仅仅是示例性的,因此不脱离本公开的主旨的变化将在本公开的范围内。这种变化不视为脱离本公开的精神和范围。
Claims (20)
1.一种用于关联车辆中的传感器数据的装置,所述装置包括:
多个传感器,配置为感测外部对象;和
处理器,电连接至所述多个传感器,所述处理器配置为:
使用所述多个传感器来获得位于所述车辆周围的目标的传感器数据集,其中,所述传感器数据集包括传感器数据;
基于第一信息选择所述传感器数据的至少一部分,其中,所述第一信息包括目标信息、所述车辆或所述目标所行驶的道路的曲率以及配置为感测所述目标的传感器的类型中的至少一个;并且
通过关联所述传感器数据的所述至少一部分来生成所述目标的跟踪数据。
2.如权利要求1所述的装置,其中,所述多个传感器包括雷达和照相机。
3.如权利要求1所述的装置,其中,所述多个传感器包括前部雷达、前视照相机和侧视照相机。
4.如权利要求1所述的装置,其中,所述传感器数据集包括由所述多个传感器中的每一个传感器获得的传感器数据。
5.如权利要求1所述的装置,其中,所述处理器配置为:
基于所述第一信息,设定用于确定所述传感器数据集的有效性的区域;并且
选择所述传感器数据中与所述区域对应的传感器数据。
6.如权利要求1所述的装置,其中,所述目标信息包括:所述车辆与所述目标之间的距离、所述车辆的速度与所述目标的速度之间的差值、所述目标的运动方向以及所述目标的类型中的至少一个。
7.如权利要求1所述的装置,其中,所述处理器还配置为:
基于所述车辆与所述目标之间的距离,设定用于确定所述传感器数据集的有效性的区域;并且
选择所述传感器数据中与所述区域对应的传感器数据。
8.如权利要求7所述的装置,其中,所述处理器配置为:
当所述车辆与所述目标之间的距离变得比预定距离大时,增大所述区域;并且
当所述车辆与所述目标之间的距离变得比所述预定距离小时,减小所述区域。
9.如权利要求1所述的装置,其中,所述处理器配置为:
基于所述车辆的速度和所述目标的速度之间的差值,设定用于确定所述传感器数据集的有效性的区域;并且
选择所述传感器数据中与所述区域对应的传感器数据。
10.如权利要求9所述的装置,其中,所述处理器配置为:
当所述车辆的速度与所述目标的速度之间的差值变得大于预定值时,增大所述区域;并且
当所述车辆的速度与所述目标的速度之间的差值变得小于所述预定值时,减小所述区域。
11.如权利要求1所述的装置,其中,所述处理器配置为:
基于所述道路的曲率,设定用于确定所述传感器数据集的有效性的区域;并且
选择所述传感器数据中与所述区域对应的传感器数据。
12.如权利要求11所述的装置,其中,所述处理器配置为:
当所述道路的曲率变得大于预定范围时,增大所述区域;并且
当所述道路的曲率变得小于所述预定范围时,减小所述区域。
13.如权利要求1所述的装置,其中,所述处理器配置为:
基于所述目标的运动方向,设定用于确定所述传感器数据集的有效性的区域;并且
选择所述传感器数据中与所述区域对应的传感器数据。
14.如权利要求13所述的装置,其中,所述处理器配置为:
增大所述区域在所述目标的运动方向上的长度。
15.如权利要求1所述的装置,其中,所述处理器配置为:
基于所述传感器的类型,设定用于确定所述传感器数据集的有效性的区域;并且
选择所述传感器数据中与所述区域对应的传感器数据。
16.如权利要求1所述的装置,其中,所述处理器配置为:
基于所述目标的类型,设定用于确定所述传感器数据集的有效性的区域;并且
选择所述传感器数据中与所述区域对应的传感器数据。
17.一种用于关联车辆中的传感器数据的方法,所述方法包括以下步骤:
使用所述车辆的多个传感器来获得位于所述车辆周围的目标的传感器数据集,其中,所述传感器数据集包括传感器数据;
基于第一信息选择传感器数据的至少一部分,其中,所述第一信息包括目标信息、所述车辆或所述目标所行驶的道路的曲率以及配置为感测所述目标的传感器的类型中的至少一个;以及
通过关联所述传感器数据的至少一部分来生成所述目标的跟踪数据。
18.如权利要求17所述的方法,其中,所述传感器数据集包括由所述多个传感器中的每一个传感器获得的传感器数据。
19.如权利要求17所述的方法,其中,基于所述第一信息选择所述传感器数据的所述至少一部分包括:
基于所述第一信息,设定用于确定所述传感器数据集的有效性的区域;并且
选择所述传感器数据中与所述区域对应的传感器数据。
20.如权利要求17所述的方法,其中,所述目标信息包括所述车辆与所述目标之间的距离、所述车辆的速度与所述目标的速度之间的差值、所述目标的运动方向以及所述目标的类型中的至少一个。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2017-0147439 | 2017-11-07 | ||
KR1020170147439A KR102371616B1 (ko) | 2017-11-07 | 2017-11-07 | 차량의 센서 데이터 연계 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109752717A true CN109752717A (zh) | 2019-05-14 |
CN109752717B CN109752717B (zh) | 2023-10-17 |
Family
ID=66328665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810685694.5A Active CN109752717B (zh) | 2017-11-07 | 2018-06-28 | 用于关联车辆中的传感器数据的装置和方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11328516B2 (zh) |
KR (1) | KR102371616B1 (zh) |
CN (1) | CN109752717B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020186509A1 (en) * | 2019-03-21 | 2020-09-24 | Hangzhou Fabu Technology Co. Ltd | A scalable data fusion architecture and related products |
US11214261B2 (en) * | 2019-06-11 | 2022-01-04 | GM Global Technology Operations LLC | Learn association for multi-object tracking with multi sensory data and missing modalities |
JP7332403B2 (ja) * | 2019-09-11 | 2023-08-23 | 株式会社東芝 | 位置推定装置、移動体制御システム、位置推定方法およびプログラム |
US11954179B2 (en) * | 2020-09-11 | 2024-04-09 | Inceptio Hongkong Limited | Resolving out of sequence data in sensor tracking |
KR20220131646A (ko) * | 2021-03-22 | 2022-09-29 | 현대자동차주식회사 | 객체 추적 방법과 장치 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체 |
KR20220142593A (ko) | 2021-04-14 | 2022-10-24 | 현대자동차주식회사 | 센서 정보 융합 방법 및 장치와 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체 |
US20220371533A1 (en) * | 2021-05-18 | 2022-11-24 | Motional Ad Llc | Distributed vehicle body sensors for event detection |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07242133A (ja) * | 1994-03-04 | 1995-09-19 | Toyota Motor Corp | 走査型レーダ装置 |
US20060111819A1 (en) * | 2003-08-18 | 2006-05-25 | Llorenc Servera Serapio | System and method for monitoring the external environment of a motor vehicle |
CN101701826A (zh) * | 2009-11-20 | 2010-05-05 | 西安电子科技大学 | 基于分层粒子滤波的被动多传感器目标跟踪方法 |
US20100292886A1 (en) * | 2009-05-18 | 2010-11-18 | Gm Global Technology Operations, Inc. | Turn by turn graphical navigation on full windshield head-up display |
DE102010012811A1 (de) * | 2010-03-23 | 2011-09-29 | Jenoptik Robot Gmbh | Verfahren zur Messung von Geschwindigkeiten und Zuordnung der gemessenen Geschwindigkeiten zu angemessenen Fahrzeugen durch Erfassen und Zusammenführen von Objekt-Trackingdaten und Bild-Trackingdaten |
KR20150067682A (ko) * | 2013-12-10 | 2015-06-18 | 현대모비스 주식회사 | 검출 영역을 최적화하는 장애물 추적 장치 및 방법 |
CN105197011A (zh) * | 2014-06-13 | 2015-12-30 | 现代摩比斯株式会社 | 车辆用驾驶员危险指数管理系统及其方法 |
JP2016071830A (ja) * | 2014-09-26 | 2016-05-09 | 日本電気株式会社 | 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体 |
CN105953796A (zh) * | 2016-05-23 | 2016-09-21 | 北京暴风魔镜科技有限公司 | 智能手机单目和imu融合的稳定运动跟踪方法和装置 |
CN106585623A (zh) * | 2016-12-21 | 2017-04-26 | 驭势科技(北京)有限公司 | 一种用于探测车辆周围目标的探测系统以及其应用 |
CN106990403A (zh) * | 2017-04-28 | 2017-07-28 | 西安电子科技大学 | 基于多波段两级信息融合的低空目标跟踪方法 |
CN107009968A (zh) * | 2017-03-28 | 2017-08-04 | 驭势科技(北京)有限公司 | 车载激光雷达控制方法、装置及车载设备 |
CN107300916A (zh) * | 2016-04-14 | 2017-10-27 | 沃尔沃汽车公司 | 用于监控和调节自主车辆的融合系统的性能的方法和设备 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7630806B2 (en) * | 1994-05-23 | 2009-12-08 | Automotive Technologies International, Inc. | System and method for detecting and protecting pedestrians |
WO2001085491A1 (en) * | 2000-05-08 | 2001-11-15 | Automotive Technologies International, Inc. | Vehicular blind spot identification and monitoring system |
US6687637B2 (en) | 2001-06-18 | 2004-02-03 | Globvision Inc. | Data sensor validation system and method |
GB2416943A (en) | 2004-08-06 | 2006-02-08 | Qinetiq Ltd | Target detection |
US20100253595A1 (en) * | 2009-04-02 | 2010-10-07 | Gm Global Technology Operations, Inc. | Virtual controls and displays by laser projection |
WO2012169052A1 (ja) * | 2011-06-09 | 2012-12-13 | トヨタ自動車株式会社 | 他車両検出装置及び他車両検出方法 |
EP2639781A1 (en) | 2012-03-14 | 2013-09-18 | Honda Motor Co., Ltd. | Vehicle with improved traffic-object position detection |
US9031729B2 (en) * | 2012-11-29 | 2015-05-12 | Volkswagen Ag | Method and system for controlling a vehicle |
US9751534B2 (en) * | 2013-03-15 | 2017-09-05 | Honda Motor Co., Ltd. | System and method for responding to driver state |
CN108778879B (zh) * | 2016-03-15 | 2021-07-27 | 本田技研工业株式会社 | 车辆控制系统、车辆控制方法及存储介质 |
JP6654544B2 (ja) * | 2016-10-21 | 2020-02-26 | 株式会社Soken | センサ制御装置 |
US11254329B2 (en) * | 2017-04-24 | 2022-02-22 | Mobileye Vision Technologies Ltd. | Systems and methods for compression of lane data |
JP6877571B2 (ja) * | 2017-11-10 | 2021-05-26 | 本田技研工業株式会社 | 表示システム、表示方法、およびプログラム |
US10509410B2 (en) * | 2017-12-06 | 2019-12-17 | Zoox, Inc. | External control of an autonomous vehicle |
-
2017
- 2017-11-07 KR KR1020170147439A patent/KR102371616B1/ko active IP Right Grant
-
2018
- 2018-06-11 US US16/005,127 patent/US11328516B2/en active Active
- 2018-06-28 CN CN201810685694.5A patent/CN109752717B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07242133A (ja) * | 1994-03-04 | 1995-09-19 | Toyota Motor Corp | 走査型レーダ装置 |
US20060111819A1 (en) * | 2003-08-18 | 2006-05-25 | Llorenc Servera Serapio | System and method for monitoring the external environment of a motor vehicle |
US20100292886A1 (en) * | 2009-05-18 | 2010-11-18 | Gm Global Technology Operations, Inc. | Turn by turn graphical navigation on full windshield head-up display |
CN101701826A (zh) * | 2009-11-20 | 2010-05-05 | 西安电子科技大学 | 基于分层粒子滤波的被动多传感器目标跟踪方法 |
DE102010012811A1 (de) * | 2010-03-23 | 2011-09-29 | Jenoptik Robot Gmbh | Verfahren zur Messung von Geschwindigkeiten und Zuordnung der gemessenen Geschwindigkeiten zu angemessenen Fahrzeugen durch Erfassen und Zusammenführen von Objekt-Trackingdaten und Bild-Trackingdaten |
KR20150067682A (ko) * | 2013-12-10 | 2015-06-18 | 현대모비스 주식회사 | 검출 영역을 최적화하는 장애물 추적 장치 및 방법 |
CN105197011A (zh) * | 2014-06-13 | 2015-12-30 | 现代摩比斯株式会社 | 车辆用驾驶员危险指数管理系统及其方法 |
JP2016071830A (ja) * | 2014-09-26 | 2016-05-09 | 日本電気株式会社 | 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体 |
CN107300916A (zh) * | 2016-04-14 | 2017-10-27 | 沃尔沃汽车公司 | 用于监控和调节自主车辆的融合系统的性能的方法和设备 |
CN105953796A (zh) * | 2016-05-23 | 2016-09-21 | 北京暴风魔镜科技有限公司 | 智能手机单目和imu融合的稳定运动跟踪方法和装置 |
CN106585623A (zh) * | 2016-12-21 | 2017-04-26 | 驭势科技(北京)有限公司 | 一种用于探测车辆周围目标的探测系统以及其应用 |
CN107009968A (zh) * | 2017-03-28 | 2017-08-04 | 驭势科技(北京)有限公司 | 车载激光雷达控制方法、装置及车载设备 |
CN106990403A (zh) * | 2017-04-28 | 2017-07-28 | 西安电子科技大学 | 基于多波段两级信息融合的低空目标跟踪方法 |
Non-Patent Citations (2)
Title |
---|
MICHAEL SCHUSTER等: "Tracking of vehicles on nearside lanes using multiple radar sensors", 2014 INTERNATIONAL RADAR CONFERENCE, pages 1 - 4 * |
王文学等: "卡尔曼滤波在机器人足球比赛系统中的应用", 机器人, vol. 28, no. 4, pages 410 - 414 * |
Also Published As
Publication number | Publication date |
---|---|
CN109752717B (zh) | 2023-10-17 |
KR20190051601A (ko) | 2019-05-15 |
US11328516B2 (en) | 2022-05-10 |
US20190138825A1 (en) | 2019-05-09 |
KR102371616B1 (ko) | 2022-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109752717A (zh) | 用于关联车辆中的传感器数据的装置和方法 | |
KR102452550B1 (ko) | 라이다 데이터 기반 객체 검출 장치, 그를 포함한 시스템 및 그 방법 | |
KR102168753B1 (ko) | 카메라와 레이더 센서 융합 기반 3차원 객체 검출을 위한 전자 장치 및 그의 동작 방법 | |
JP6405778B2 (ja) | 対象追跡方法及び対象追跡装置 | |
KR101973343B1 (ko) | 물체 검출 방법 및 물체 검출 장치 | |
CN106184091A (zh) | 用于检测车辆碰撞对象的设备和方法 | |
KR102498435B1 (ko) | 자율주행 자동차의 센서 시스템 교정 장치 및 그 방법 | |
CN114705121B (zh) | 车辆位姿测量方法、装置及电子设备、存储介质 | |
CN112801225B (zh) | 极限工况下自动驾驶多传感器融合感知方法及系统 | |
KR102456151B1 (ko) | 레이더 및 카메라 기반의 센서 퓨전 시스템 및 주변 차량의 위치 산출 방법 | |
US20150134234A1 (en) | Apparatus for determining motion characteristics of target and device for controlling driving route of vehicle including the same | |
CN113936045B (zh) | 路侧激光雷达点云配准方法及装置 | |
KR102298652B1 (ko) | 시차 결정 방법 및 장치 | |
CN109785362A (zh) | 基于目标对象检测的目标对象跟踪方法、装置及存储介质 | |
Cai et al. | 3D vehicle detection based on LiDAR and camera fusion | |
JP7142468B2 (ja) | 移動体追跡装置 | |
US20230025981A1 (en) | Method and apparatus with grid map generation | |
KR20200133919A (ko) | 자율주행차량의 경로 보상 장치 및 그 방법 | |
CN113203424B (zh) | 多传感器的数据融合方法、装置及相关设备 | |
US11807232B2 (en) | Method and apparatus for tracking an object and a recording medium storing a program to execute the method | |
EP3438933A1 (en) | Environment recognition device | |
JP7308141B2 (ja) | 自己位置推定方法及び自己位置推定装置 | |
KR102212268B1 (ko) | 위치 측정 시스템과 이를 구비하는 이동 수단 및 이를 수행하기 위한 컴퓨팅 장치 | |
JP7474689B2 (ja) | 物体検出方法及び物体検出装置 | |
CN118149796B (zh) | 退化环境下的地图构建方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |