CN115116022A - 跟踪对象的方法和设备以及计算机可读记录介质 - Google Patents
跟踪对象的方法和设备以及计算机可读记录介质 Download PDFInfo
- Publication number
- CN115116022A CN115116022A CN202210285685.3A CN202210285685A CN115116022A CN 115116022 A CN115116022 A CN 115116022A CN 202210285685 A CN202210285685 A CN 202210285685A CN 115116022 A CN115116022 A CN 115116022A
- Authority
- CN
- China
- Prior art keywords
- type
- likelihood
- determined
- model
- free
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000006870 function Effects 0.000 claims description 52
- 230000004044 response Effects 0.000 claims description 14
- 238000005259 measurement Methods 0.000 claims description 8
- 238000012546 transfer Methods 0.000 claims description 3
- 230000006399 behavior Effects 0.000 description 87
- 238000010586 diagram Methods 0.000 description 16
- 230000000052 comparative effect Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 230000004927 fusion Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003542 behavioural effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W40/09—Driving style or behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4049—Relationship among other objects, e.g. converging dynamic objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Radar Systems Or Details Thereof (AREA)
- Manufacturing Optical Record Carriers (AREA)
- Optical Recording Or Reproduction (AREA)
Abstract
本公开涉及跟踪对象的方法和设备以及计算机可读记录介质。该跟踪对象的方法包括:使用在先前时间点确定的对象的位置、速度和类型以及在当前时间点确定的对象的位置、速度和类型来获得对象的自由行为模型的似然度和对象的恒定速度模型的似然度;以及使用自由行为模型的似然度、恒定速度模型的似然度和对象的所测量的类型来校正在当前时间点的对象的类型。
Description
技术领域
本公开涉及跟踪对象的方法和设备以及存储用于执行该方法的程序的记录介质。
背景技术
图像检测器可使用深度学习方法在图像中搜索具有人的形状的特征的区域,并且可将对象的类型识别为行人。然而,由于其特征,图像检测器对对象的位置和速度的估计在实践中不准确。此外,图像传感器可能难以准确地确定对象的类型,例如,待跟踪对象是行人(包括人)还是两轮车辆。因此,正在进行用于解决当前问题的目标的各种研究。
包括在本公开的该背景技术部分中的信息仅用于增强对本公开的一般背景的理解,并且可不被视为承认或以任何形式建议该信息构成本领域技术人员已知的现有技术。
现有技术文献
非专利文献
(非专利文献0001)第一文献:R.Benenson,M.Omran,J.Hosang,andB.Schiele.Ten years of pedestrian detection,what have we learned?In ECCV,CVRSUAD workshop,2014.
(非专利文献0002)第二文献:Tian,Yonglong,et al.″Deep learning strongparts for pedestrian detection.″Proceedings of the IEEE internationalconference on computer vision.2015.
(非专利文献0003)第三文献:Jo,Kichun,Keounyup Chu,and Myoungho Sunwoo.″Interacting multiple model filter-based sensor fusion of GPS with in-vehiclesensors for real-time vehicle positioning.″IEEE Transactions on IntelligentTransportation Systems 13.1(2011):329-343.
(非专利文献0004)第四文献:Chavez-Garcia,Ricardo Omar,and OlivierAycard.″Multiple sensor fusion and classification for moving object detectionand tracking.″IEEE Transactions on Intelligent Transportation Systems 17.2(2015):525-534.
发明内容
本公开的各个方面旨在提供跟踪对象的方法和设备以及存储用于执行该方法的程序的记录介质,该方法和设备消除了由于现有技术的限制和缺点而导致的一个或多个问题。
实施方式提供一种跟踪对象的方法和设备以及存储用于执行该方法的程序的记录介质,该方法和设备精确地确定对象的类型并因此表现出优异的对象跟踪性能。
然而,将通过示例性实施方式实现的目的不限于上述目的,并且本领域技术人员将从以下描述中清楚地理解本文未提及的其他目的。
根据本公开的示例性实施方式的跟踪对象的方法可包括:(a)使用在先前时间点(t-1)确定的对象的位置、速度和类型以及在当前时间点(t)确定的对象的位置、速度和类型来获得对象的自由行为模型的似然度和对象的恒定速度模型的似然度,以及(b)使用自由行为模型的似然度、恒定速度模型的似然度和对象的所确定得类型来校正在当前时间点的对象的类型。
例如,步骤(a)可包括:将在先前时间点(t-1)获得的对象的位置确定为对象的自由行为模型的预测的第一位置;使用在先前时间点(t-1)获得的对象的位置和速度来获得对象的恒定速度模型的预测的第二位置;使用第一位置和所确定的位置来获得自由行为模型的似然度;以及使用第二位置和所确定的位置来获得恒定速度模型的似然度。
例如,可以如下获得自由行为模型的似然度。
此处,“L1”表示自由行为模型的似然度,“MH1”表示马哈拉诺比斯距离(Mahalanobis distance),“PP1”表示第一位置,“MP”表示所确定的位置,并且“C1”表示第一位置的协方差。
例如,可以如下获得恒定速度模型的似然度。
此处,“L2”表示恒定速度模型的似然度,“MH2”表示马哈拉诺比斯距离,“PP2”表示第二位置,“MP”表示所确定的位置,并且“C2”表示第二位置的协方差。
例如,步骤(a)还可包括:在当前时间点使用多个检测器感测对象的位置、速度和类型;以及将根据每个检测器的预定精度使用由多个检测器检测的位置、速度和类型分别生成的虚拟位置、虚拟速度和虚拟类型分别确定为所确定的位置、所确定的速度和所确定的类型。
例如,步骤(b)可以包括:当所确定的类型是第一类型并且当自由行为模型的似然度大于第一阈值时,将在当前时间点校正的对象的类型确定为第一类型;当所确定的类型是第一类型并且当自由行为模型的似然度等于或小于第一阈值时,确定恒定速度模型的似然度是否大于第二阈值;当恒定速度模型的似然度大于第二阈值时,将在当前时间点校正的对象的类型确定为第二类型,第二类型不同于第一类型;当恒定速度模型的似然度等于或小于第二阈值时,将在当前时间点校正的对象的类型确定为第一类型;当所确定的类型是未知类型并且当自由行为模型的似然度大于第一阈值时,将在当前时间点校正的对象的类型确定为第一类型;以及当所确定的类型是未知类型并且当自由行为模型的似然度等于或小于第一阈值时,将在当前时间点校正的对象的类型确定为未知类型。
例如,步骤(b)还可包括:当所确定的类型既不是第一类型也不是未知类型时,不确定在当前时间点校正的对象的类型。
例如,第一类型和第二类型中的一个可以是行人类型,并且第一类型和第二类型中的剩余一个可以是两轮车辆类型。
根据本公开的另一示例性实施方式的跟踪对象的设备可包括:滤波器,被配置为使用在先前时间点(t-1)确定的对象的位置、速度和类型以及在当前时间点(t)确定的对象的位置、速度和类型来生成对象的自由行为模型的似然度和对象的恒定速度模型的似然度;以及类型校正器,被配置为使用自由行为模型的似然度、恒定速度模型的似然度和对象的所确定的类型来校正在当前时间点的对象的类型。
例如,滤波器可以包括:自由行为模型装置,被配置为将在先前时间点(t-1)获得的对象的位置转移为该对象的自由行为模型的预测的第一位置;恒定速度模型装置,被配置为使用在先前时间点(t-1)获得的对象的位置和速度来生成该对象的恒定速度模型的预测的第二位置;以及似然度发生器,被配置为使用第一位置和所确定的位置生成自由行为模型的似然度并且使用第二位置和所确定的位置生成恒定速度模型的似然度。
例如,自由行为模型装置可如下生成自由行为模型的似然度。
此处,“L1”表示自由行为模型的似然度,“MH1”表示马哈拉诺比斯距离,“PP1”表示第一位置,“MP”表示所确定的位置,并且“C1”表示第一位置的协方差。
例如,恒定速度模型装置可如下生成恒定速度模型的似然度。
此处,“L2”表示恒定速度模型的似然度,“MH2”表示马哈拉诺比斯距离,“PP2”表示第二位置,“MP”表示所确定的位置,并且“C2”表示第二位置的协方差。
例如,该设备还可包括:感测单元,包括被配置为检测在当前时间点的对象的位置、速度和类型的多个检测器。
例如,滤波器还可包括:测量值发生器,被配置为将根据每个检测器的预定精确度使用由多个检测器检测的位置、速度和类型分别生成的虚拟位置、虚拟速度和虚拟类型分别输出为所确定的位置、所确定的速度和所确定的类型。
例如,类型校正器可包括:类型检查器,被配置为检查所确定的类型是第一类型还是未知类型,并将检查的结果输出为控制信号;第一比较器,被配置为响应于控制信号将自由行为模型的似然度与第一阈值进行比较;第二比较器,被配置为响应于第一比较器的比较结果将恒定速度模型的似然度与第二阈值进行比较;第一类型输出单元,被配置为响应于第一比较器或第二比较器的比较结果确定在当前时间点的对象的类型为第一类型或第二类型,第二类型不同于第一类型;第二类型输出单元,被配置为响应于控制信号和第一比较器的比较结果确定在当前时间点的对象的类型为第一类型或未知类型。
根据本公开的各种示例性实施方式,记录有用于执行跟踪对象的方法的程序的记录介质可存储实现以下功能的程序:(a)使用在先前时间点(t-1)确定的对象的位置、速度和类型以及在当前时间点(t)确定的对象的位置、速度和类型来获得对象的自由行为模型的似然度和对象的恒定速度模型的似然度;以及(b)使用自由行为模型的似然度、恒定速度模型的似然度和对象的所确定的类型来校正在当前时间点的对象的类型。记录介质可由计算机系统读取。
例如,功能(a)可包括:将在先前时间点(t-1)获得的对象的位置确定为对象的自由行为模型的预测的第一位置的功能;使用在先前时间点(t-1)获得的对象的位置和速度来获得对象的恒定速度模型的预测的第二位置的功能;使用第一位置和所确定的位置来获得自由行为模型的似然度的功能;以及使用第二位置和所确定的位置来获得恒定速度模型的似然度的功能。
例如,功能(b)可包括以下功能:当所确定的类型是第一类型并且当自由行为模型的似然度大于第一阈值时,将在当前时间校正的对象的类型确定为第一类型的功能;当所确定的类型是第一类型并且当自由行为模型的似然度等于或小于第一阈值时,确定恒定速度模型的似然度是否大于第二阈值的功能;当恒定速度模型的似然度大于第二阈值时,将在当前时间点校正的对象的类型确定为第二类型的功能,第二类型不同于第一类型;当恒定速度模型的似然度等于或小于第二阈值时,将在当前时间点校正的对象的类型确定为第一类型的功能;当所确定的类型是未知类型并且当自由行为模型的似然度大于第一阈值时,将在当前时间点校正的对象的类型确定为第一类型的功能;以及当所确定的类型是未知类型并且当自由行为模型的似然度等于或小于第一阈值时,将在当前时间点校正的对象的类型确定为未知类型的功能。
本公开的方法和设备具有其他特征和优点,这些特征和优点从结合于本文中的所附附图以及以下具体实施方式中将是显而易见的,或在结合于本文中的所附附图以及以下具体实施方式中更详细地预先确定,所附附图以及以下具体实施方式组合地用于解释本公开的某些原理。
附图说明
图1是用于说明根据本公开的示例性实施方式的对象跟踪方法的流程图;
图2A和图2B分别是用于说明自由行为模型和恒定速度模型的示图;
图3是用于说明图1所示的步骤120的示例性实施方式的流程图;
图4是用于说明图1所示的步骤130的示例性实施方式的流程图;
图5是根据本公开的示例性实施方式的对象跟踪设备的框图;
图6是图5所示的感测单元的示例性实施方式的框图;
图7是图5所示的滤波器的示例性实施方式的框图;
图8A和图8B是用于说明图5所示的滤波器的示图;
图9是图5所示的类型校正器的示例性实施方式的框图;以及
图10A和图10B是用于说明根据比较示例的对象的类型的确定的示图。
可以理解,所附附图不必按比例绘制,其呈现了说明本公开的基本原理的各种特征的稍微简化的表示。如本文所包括的本公开的具体设计特征(包括例如具体尺寸、定向、位置和形状)将部分地由具体预期的应用和使用环境来确定。
在附图中,贯穿附图的多个图,参考标号指代本公开的相同或等效部件。
具体实施方式
现在将详细参考本公开的各种实施方式,其示例在所附附图中示出并在以下描述。尽管将结合本公开的示例性实施方式描述本公开,但是应当理解,本说明书并不旨在将本公开限于本公开的那些示例性实施方式。另一方面,本公开旨在不仅覆盖本公开的示例性实施方式,而且覆盖可包括在由所附权利要求限定的本公开的精神和范围内的各种替换、修改、等同物以及其他实施方式。
现在将参考所附附图在下文中更全面地描述本公开,在所附附图中示出了各种实施方式。然而,示例可以以许多不同的形式体现,并且被配置为不被解释为限于本文所阐述的预定实施方式。相反,提供这些实施方式是为了使本公开更彻底和完整,并且将本公开的范围更充分地传达给本领域技术人员。
将理解,当一个元件被称为“在”另一元件“上”或“下”时,该元件可直接在元件上/下,或者可以存在一个或多个中间元件。
当一个元件被称为“在…上”或“在…下”时,可以基于该元件包括“在该元件下”以及“在该元件上”。
此外,关系术语,包括“第一”、“第二”、“在…上/在…上部/在…上方”和“在…下/在…下部/在…下方”,用于区分一个对象或元件与另一对象或元件,而不必要求或涉及对象或元件之间的任何物理或逻辑关系或序列。
在下文中,将参考所附附图描述根据示例性实施方式的跟踪对象的方法和设备以及存储用于执行该方法的程序的记录介质。
图1是用于说明根据本公开的示例性实施方式的对象跟踪方法100的流程图。
根据本公开的示例性实施方式的对象跟踪方法100,可在当前时间点t检测对象的位置、速度和类型(步骤110)。
在步骤110之后,使用在先前时间点t-1确定的对象的位置(在下文中称为“先前位置”)、速度(在下文中称为“先前速度”)和类型(在下文中称为“先前类型”)以及在当前时间点t测量的对象的位置(在下文中称为“所测量的位置”)、速度(在下文中称为“所测量的速度”)和类型(在下文中称为“所测量的类型”)获得待跟踪对象的自由行为模型的似然度和对象的恒定速度模型的似然度(步骤120)。
在步骤110中,可以使用一个检测器来检测对象的位置、速度和类型,或者可以使用多个检测器来检测对象的位置、速度和类型。
如果在当前时间点使用多个检测器来检测对象的位置、速度和类型,则可根据每个检测器的预定精度使用由多个检测器检测的位置、速度和类型分别生成虚拟位置、虚拟速度和虚拟类型,并且在步骤120中,所生成的虚拟位置、虚拟速度和虚拟类型可被分别确定为所测量的位置、所测量的速度和所测量的类型。
即,可使用由多个检测器检测的位置生成虚拟位置,并且可将所生成的虚拟位置确定为所测量的位置。此外,可使用由多个检测器检测的速度生成虚拟速度,并且可将所生成的虚拟速度确定为所测量的速度。此外,可使用由多个检测器检测的类型来生成虚拟类型,并且可将所生成的虚拟类型确定为所测量的类型。
例如,假设虚拟位置包括垂直轴位置和水平轴位置,由被确定为相对于多个检测器中的垂直轴位置具有最高精度的检测器所检测的位置可被确定为垂直轴位置,由被确定为相对于多个检测器中的水平轴位置具有最高精度的检测器所检测的位置可被确定为水平轴位置,并且包括垂直轴位置和水平轴位置的虚拟位置可被确定为在当前时间点确定的对象的所测量的位置。可以以类似于确定所测量的位置的方式来确定所测量的速度和所测量的类型。
根据示例性实施方式的对象的所测量的类型可被分类为“小型车辆”、“大型车辆”、“行人”、“两轮车辆”、或者“未知类型”,但是示例性实施方式并不局限于任何特定类型的对象。
在下文中,将描述在步骤120中获得的自由行为模型的似然度和恒定速度模型的似然度。
图2A和图2B分别是用于说明自由行为模型和恒定速度模型的示图。图2A是用于说明当对象是行人时的自由行为模型的示图,而图2B是用于说明当对象是车辆时的恒定速度模型的示图。
自由行为模型是指在位于当前时间点(或先前时间点)的某一位置处的对象可以沿任何方向移动并移动到下一时间点(或当前时间点)的任何位置的情况下进行建模。即,该自由行为模型主要当无法针对对象的移动定义特定的行为模型时使用。当对象是行人时,行人以低速移动,并且不能使用用于检测器融合的检测器精确地估计速度。出于当前原因,自由行为模型适合于对作为对象的行人的移动建模。
在自由行为模型中,可使用下面的等式1定量地表示对象的移动。
[等式1]
Pt+1=Pt+nt
此处,“Pt”表示指示在当前时间点t对象的位置(或速度或类型)的因子,“Pt+1”表示指示在下一时间点t+1预测对象位于的位置的因子,并且“nt”表示不确定性。
恒定速度模型是指在当前时间点(或先前时间点)位于特定位置的对象能够在保持当前速度同时在下一时间点(或当前时间点)移动的方向和位置被预测为比自由行为模型更大程度的情况下进行建模。即,当对象在保持当前速度的同时移动时,主要使用恒定速度模型。当对象的速度高时,例如,当对象是包括两轮车辆的车辆时,恒定速度模型比自由行为模型更适合于跟踪对象。
在恒定速度模型中,可使用下面的等式2来定量地表示对象的移动。
[等式2]
Pt+1=Pt+vtΔt+nt
此处,“vt”表示对象的速度的信息,并且“Δt”表示当前时间点与下一时间点之间的时间差。
在自由行为模型的情况下,由于无法预测对象的行为,因此通常将不确定性nt设置为大。因此,等式2和图2B所示的恒定速度模型的不确定性nt可被设置为低于等式1和图2A所示的自由行为模型的不确定性nt。
在对象是行人的情况下,由恒定速度模型预测的行人的预测位置10和由检测器测量的行人的实际移动位置20彼此不同,并且因此忽略由检测器检测的行人的位置。因而,可见,在稳定地执行对象跟踪操作时,选择适合于对象的特性的行为模型是必要的。
图3是用于说明图1所示的步骤120的示例性实施方式120A的流程图。
将在先前时间点t-1获得的对象的先前位置确定为对象的自由行为模型的预测位置(在下文中称为“第一位置”)(步骤122)。假设对象被配置为与其先前速度无关地移动,自由行为模型将先前位置确定为第一位置。
在步骤122之后,使用先前位置和先前速度来获得对象的恒定速度模型的预测位置(在下文中称为“第二位置”)(步骤124)。假定对象在保持先前速度的同时移动,恒定速度模型生成对象的第二位置,当保持先前速度时预测该第二位置。
虽然在图3中示出了在执行步骤122之后执行步骤124,但是示例性实施方式不限于此。即,根据本公开的另一示例性实施方式,可以在执行步骤124之后执行步骤122,或者可以同时执行步骤122和步骤124。
使用第一位置和所测量的位置获得自由行为模型的似然度(步骤126)。
例如,在步骤126中,可使用下面的等式3获得自由行为模型的似然度L1。
[等式3]
此处,“MH1”表示马哈拉诺比斯距离,并且可使用下面的等式4表示。
[等式4]
此处,“PP1”表示第一位置,“MP”表示所测量的位置,并且“C1”表示第一位置的协方差。
在步骤126之后,使用第二位置和所测量的位置获得恒定速度模型的似然度(步骤128)。
例如,在步骤128中,恒定速度模型的似然度L2可使用下面的等式5获得。
[等式5]
此处,“MH2”表示马哈拉诺比斯距离,并且可以使用下面的等式6来表示。
[等式6]
此处,“PP2”表示第二位置,并且“C2”表示第二位置的协方差。
虽然在图3中示出了在执行步骤126之后执行步骤128,但是示例性实施方式不限于此。即,根据本公开的另一示例性实施方式,可以在执行步骤128之后执行步骤126,或者可以同时执行步骤126和步骤128。
虽然在图1和图3中示出仅生成自由行为模型的似然度和恒定速度模型的似然度,但是示例性实施方式不限于此,并且可生成任何其他行为模型的似然度。
再次参考图1,在步骤120之后,使用自由行为模型的似然度、恒定速度模型的似然度以及对象的所测量的类型来确定在当前时间点校正的对象的类型(步骤130)。
图4是用于说明图1所示的步骤130的示例性实施方式130A的流程图。
首先,确定对象的所测量的类型是否是第一类型(步骤132)。
如果所测量的类型是第一类型,则确定自由行为模型的似然度是否大于第一阈值TH1(步骤134)。当自由行为模型的似然度大于第一阈值TH1时,确定在当前时间点校正的对象的类型为第一类型(步骤142)。
然而,当所测量的类型是第一类型并且自由行为模型的似然度等于或小于第一阈值TH1时,确定恒定速度模型的似然度是否大于第二阈值TH2(步骤136)。当恒定速度模型的似然度大于第二阈值TH2时,确定在当前时间点校正的对象的类型是与第一类型不同的第二类型(步骤144)。另一方面,当恒定速度模型的似然度等于或小于第二阈值TH2时,确定在当前时间点校正的对象的类型是第一类型(步骤142)。
另一方面,当所测量的类型不是第一类型时,确定所测量的类型是否是未知类型(步骤138)。当所测量的类型是未知类型时,确定自由行为模型的似然度是否大于第一阈值TH1(步骤140)。当自由行为模型的似然度大于第一阈值TH1时,确定在当前时间点校正的对象的类型为第一类型(步骤142)。另一方面,当所测量的类型是未知类型但自由行为模型的似然度等于或小于第一阈值TH1时,确定在当前时间点校正的对象的类型为未知类型(步骤146)。
如果所测量的类型既不是第一类型也不是未知类型,则不确定在当前时间点校正的对象的类型(步骤148)。
例如,在步骤142中确定的第一类型和在步骤144中确定的第二类型中的一个类型可以是行人类型,并且第一类型和第二类型中的另一类型可以是两轮车辆类型。
在下文中,将参考所附附图描述根据示例性实施方式的对象跟踪设备200。
图5是根据本公开的示例性实施方式的对象跟踪设备200的框图。对象跟踪设备200可包括第一存储器210、感测单元220、滤波器230、类型校正器240和第二存储器250。
尽管为了便于描述,图1所示的对象跟踪方法100将被称为由图5所示的对象跟踪设备200执行,但是示例性实施方式不限于此。即,根据本公开的另一示例性实施方式,图1所示的对象跟踪方法100可由与图5所示的对象跟踪设备200不同地配置的对象跟踪设备执行。虽然图5所示的对象跟踪设备200将被称为执行图1所示的对象跟踪方法100,但是示例性实施方式不限于此。即,根据本公开的另一示例性实施方式,图5所示的对象跟踪设备200可执行与图1所示的对象跟踪方法100不同的对象跟踪方法。
感测单元220检测在当前时间点的对象的位置、速度和类型。即,感测单元220被配置为执行图1所示的步骤110。
图6是图5所示的感测单元220的示例性实施方式220A的框图。感测单元220A可以包括第一检测器至第N检测器222、224、...、和226。此处,“N”为1或更大的正整数。
感测单元220可包括一个检测器(N=1),或者可包括多个检测器(N=2或更大)。第n检测器(1≤n≤N)可以检测对象的位置、速度和类型,并且可以通过输出端子OUT2n将感测的结果输出到滤波器230。
例如,第一检测器222至第N检测器222、224、...、和226中的每一个可以是相机、光检测和测距(LiDAR)检测器、或无线电检测和测距(RaDAR)检测器,但是示例性实施方式不限于第一检测器至第N检测器222、224、...、和226中的每一个的任何特定类型。
滤波器230使用从第一存储器210接收的对象的先前位置、先前速度和先前类型以及在当前时间点t测量的对象的位置、速度和类型来生成对象的自由行为模型的似然度和对象的恒定速度模型的似然度,并将所生成的自由行为模型的似然度和所生成的恒定速度模型的似然度输出到类型校正器240。即,滤波器230执行图1所示的步骤120。
图7是图5所示的滤波器230的示例性实施方式230A的框图。
图7所示的滤波器230A可包括自由行为模型装置231、恒定速度模型装置233以及似然度发生器237。
自由行为模型装置231通过输入端子IN2从第一存储器210接收在先前时间点t-1获得的对象的先前位置,并且将先前位置作为对象的自由行为模型的预测的第一位置转移至似然度发生器237。即,自由行为模型装置231被配置为执行图3所示的步骤122。
恒定速度模型装置233通过输入端子IN2从第一存储器210接收在先前时间点t-1获得的对象的先前位置和先前速度,使用先前位置和先前速度生成对象的恒定速度模型的预测的第二位置,并且将所生成的第二位置输出至似然度发生器237。即,恒定速度模型装置233被配置为执行图3所示的步骤124。
似然度发生器237使用第一位置和所测量的位置生成自由行为模型的似然度,使用第二位置和所测量的位置生成恒定速度模型的似然度,并且通过输出端子OUT3将所生成的自由行为模型的似然度和所生成的恒定速度模型的似然度输出至类型校正器240。例如,似然度发生器237可生成自由行为模型的似然度,如以上等式3所示,并且可生成恒定速度模型的似然度,如以上等式5所示。即,似然度发生器237被配置为执行图3所示的步骤126和128。
如果感测单元220包括一个检测器,则感测单元220将检测到的位置、检测到的速度和检测到的类型输出到滤波器230,并且将检测到的类型输出到类型校正器240。
如果感测单元220包括多个检测器,则滤波器230A可进一步包括测量值发生器239。
测量值发生器239可考虑检测器222、224、…、和226中的每个的预定精度根据由感测单元220中包括的多个检测器222、224、…、和226检测的位置、速度和类型分别生成虚拟位置、虚拟速度和虚拟类型。测量值发生器239可将所生成的虚拟类型作为所测量的类型输出至似然度发生器237,并且同时可通过输出端子OUT4将该虚拟类型输出至类型校正器240。测量值发生器239可将虚拟位置作为所测量的位置输出至似然度发生器237,并且可将虚拟速度作为所测量的速度输出至似然度发生器237。
滤波器230可以进一步包括联合概率分布计算器235。联合概率分布计算器235可以使用由似然度发生器237生成的自由行为模型的似然度和恒定速度模型的似然度来确定最终联合分布,可以基于其来补偿卡尔曼滤波器的测量,并且可以将补偿的结果作为在当前时间点确定的对象的速度和位置输出至第二存储器250。
图8A和图8B是用于说明图5所示的滤波器230的示图。
例如,滤波器230可以是根据多行为模型的交互多模型(IMM)滤波器,并且可以使用IMM滤波器跟踪行为模型中的改变。图8B示出了根据多行为模型的IMM滤波器的示例。由检测器融合跟踪的对象的行为可改变。例如,如图8A所示,为了响应于恒定速度模型改变为等旋模型(isorotation model)的情况,可以使用IMM滤波器跟踪对象的行为模型的改变。然而,示例性实施方式不限于任何预先测量类型的滤波器230。
再次参考图5,类型校正器240使用从滤波器230输出的自由行为模型的似然度、恒定速度模型的似然度以及对象的所测量的类型来确定在当前时间点校正的对象的类型,并且将所确定的校正的类型输出至第二存储器250。
图9是图5所示的类型校正器240的示例性实施方式240A的框图。
图9所示的类型校正器240A可包括类型检查器241、第一比较器243和第二比较器245以及第一类型输出单元247和第二类型输出单元249。
类型检查器241检查通过输入端子IN4从感测单元220或滤波器230的测量值发生器239接收的所测量的类型是第一类型还是未知类型,并且将检查的结果作为控制信号输出到第一比较器243和第二类型输出单元249。即,类型检查器241被配置为执行图4所示的步骤132和138。
第一比较器243响应于从类型检查器241输出的控制信号将自由行为模型的似然度与第一阈值TH1进行比较,并将比较结果输出到第二比较器245以及第一类型输出单元247和第二类型输出单元249。即,第一比较器243被配置为执行图4所示的步骤134和140。
第二比较器245响应于第一比较器243的比较结果将恒定速度模型的似然度与第二阈值TH2进行比较,并且将比较结果输出到第一类型输出单元247。即,第二比较器245被配置为执行图4所示的步骤136。
第一类型输出单元247响应于第一比较器243或第二比较器245的比较结果将在当前时间点校正的对象的类型确定为第一类型或第二类型,并且通过输出端子OUT6将确定的结果输出到第二存储器250。第一类型输出单元247被配置为执行图4所示的步骤142和144。
即,当根据第一比较器243的比较结果确定自由行为模型的似然度大于第一阈值TH1时,第一类型输出单元247将在当前时间点校正的对象的类型确定为第一类型,并且通过输出端子OUT6将确定的结果输出到第二存储器250。此外,当根据第一比较器243的比较结果确定自由行为模型的似然度等于或小于第一阈值TH1时,并且当根据第二比较器245的比较结果确定恒定速度模型的似然度大于第二阈值TH2时,第一类型输出单元247将在当前时间点校正的对象的类型确定为第二类型,并且通过输出端子OUT6将确定的结果输出到第二存储器250。此外,当根据第一比较器243的比较结果确定自由行为模型的似然度等于或小于第一阈值TH1时,并且当根据第二比较器245的比较结果确定恒定速度模型的似然度等于或小于第二阈值TH2时,第一类型输出单元247将在当前时间点校正的对象的类型确定为第一类型,并且通过输出端子OUT6将确定的结果输出到第二存储器250。
第二类型输出单元249响应于控制信号和第一比较器243的比较结果将在当前时间点校正的对象的类型确定为第一类型或未知类型,并且通过输出端子OUT7将确定的结果输出至第二存储器250。第二类型输出单元249被配置为执行图4所示的步骤142和146。
即,当响应于控制信号确定所测量的类型是未知类型时,并且当根据第一比较器243的比较结果确定自由行为模型的似然度大于第一阈值TH1时,第二类型输出单元249将在当前时间点校正的对象的类型确定为第一类型,并且通过输出端子OUT7将确定的结果输出到第二存储器250。此外,当响应于控制信号确定所测量的类型是未知类型时,并且当根据第一比较器243的比较结果确定自由行为模型的似然度等于或小于第一阈值TH1时,第二类型输出单元249将在当前时间点校正的对象的类型确定为未知类型,并且通过输出端子OUT7将确定的结果输出到第二存储器250。
再次参考图1,第二存储器250被配置为存储从联合概率分布计算器235输出的在当前时间点的对象的速度和位置,以及由类型校正器240确定的类型,并且通过输出端子OUT1输出存储的结果。存储在第二存储器250中的在当前时间点t的对象的速度、位置和类型可以在当前时间点之后的下一时间点t+1被提供给滤波器230。即,存储在第二存储器250中的当前时间点t的速度、位置和类型可作为速度、位置和类型被提供给滤波器230,根据该速度、位置和类型,在下一时间点确定对象的速度、位置和类型。
第一存储器210执行与第二存储器250相同的功能。即,存储在第一存储器210中的先前速度、先前位置和先前类型可对应于在先前时间点从滤波器230输出的速度和位置以及在先前时间点从类型校正器240输出的校正类型。
即,第一存储器210可存储并输出等式1和2中描述的Pt,第二存储器250可存储和输出等式1和2中描述的Pt+1。
同时,记录了用于执行跟踪对象的方法的程序的记录介质可以存储用于执行如下功能的程序:使用在先前时间点t-1确定的对象的位置、速度和类型以及在当前时间点t测量的对象的位置、速度和类型来获得对象的自由行为模型的似然度和对象的恒定速度模型的似然度的功能,以及使用自由行为模型的似然度、恒定速度模型的似然度和对象的所测量的类型来校正在当前时间点的对象的类型的功能。记录介质可由计算机系统读取。
此外,获得自由行为模型的似然度和恒定速度模型的似然度的功能可以包括以下功能:将在先前时间点t-1确定的对象的位置确定为对象的自由行为模型的预测的第一位置的功能;使用在先前时间点t-1确定的对象的位置和速度来获得对象的恒定速度模型的预测的第二位置的功能;使用第一位置和所测量的位置来获得自由行为模型的似然度的功能;以及使用第二位置和所测量的位置来获得恒定速度模型的似然度的功能。
此外,校正在当前时间点的对象的类型的功能也可以包括以下功能:当所测量的类型为第一类型并且当自由行为模型的似然度大于第一阈值时,将在当前时间点校正的对象的类型确定为第一类型的功能;当所测量的类型为第一类型并且当自由行为模型的似然度等于或小于第一阈值时,确定恒定速度模型的似然度是否大于第二阈值的功能;当恒定速度模型的似然度大于第二阈值时,将在当前时间点校正的对象的类型确定为与第一类型不同的第二类型的功能;当恒定速度模型的似然度等于或小于第二阈值时,将在当前时间点校正的对象的类型确定为第一类型的功能;当所测量的类型为未知类型并且当自由行为模型的似然度大于第一阈值时,将在当前时间点校正的对象的类型确定为第一类型的功能;以及当所测量的类型为未知类型并且当自由行为模型的似然度等于或小于第一阈值时,将在当前时间点校正的对象的类型确定为未知类型的功能。
计算机可读记录介质包括其中存储有被配置为由计算机系统读取的数据的所有种类的记录设备。计算机可读记录介质的示例包括只读存储器(ROM)、随机存取存储器(RAM)、致密盘ROM(CD-ROM)、磁带、软盘和光数据存储器。计算机可读记录介质被配置为分布在联网的计算机系统上,从而以分布式方式存储和执行计算机可读代码。本公开所属领域的程序员可容易地设计用于实现跟踪对象的方法的功能程序、代码和代码段。
在下文中,将参考所附附图描述根据比较示例的对象跟踪方法和根据示例性实施方式的对象跟踪方法。
图10A和图10B是用于说明根据比较示例的对象的类型的确定的示图。
根据第一比较示例,使用光检测和测距(LiDAR)检测器或RadAR检测器确定待跟踪对象的类型。然而,当以当前方式确定对象的类型时,当对象是行人时,可能难以精确地确定对象的类型,并且不可能精确地获得对象的位置和速度。
根据第二比较示例,可以使用包括相机的图像检测器来确定待跟踪对象的类型。使用图像来检测行人的示例被包括在上述非专利文献列表中所包括的第一文献和第二文献中的每个文献中。然而,在第二比较示例的情况下,如图10A所示,当对象是包括自行车或摩托车的两轮车辆时,如图10B所示,对象的类型可能被误识别为行人310,而不是两轮车辆300,因为乘坐两轮车辆的人的大部分身体暴露于外部。在第二比较示例的情况下,可能不精确地获得对象的位置和速度。与行人不同,两轮车辆由于惯性而难以自由地改变速度和方向,因此与车辆的情况一样,一股将恒定速度模型应用于两轮车辆。另一方面,因为行人被配置为自由地改变其速度和方向,所以通常将自由行为模型应用于行人。在没有确定对象的类型的情况下,通常使用恒定速度模型。
在根据第三比较示例的检测器融合逻辑中,交互多模型(IMM)滤波器利用对象的行为模型。例如,使用IMM的多对象检测/检测器融合的示例被包括在上述非专利文献列表中所包括的第三文献和第四文献中的每个文献中。然而,这主要用于响应于行为模型改变的情况。
相反,根据本公开的示例性实施方式,使用针对自由行为模型和恒定速度模型并行预测的位置以及所测量的位置来获得自由行为模型的似然度和恒定速度模型的似然度并且将其与阈值进行比较,使得可以校正和确定对象的类型而不仅依赖于IMM滤波器。因此,可以防止图像检测器错误地确定对象的类型的情况的发生,从而准确地确定对象的类型。即,当图像检测器将行人误识别为两轮车辆时,当IMM滤波器的行为模型与自由行为模型更加匹配时,对象的类型再次被识别为行人,并且当IMM滤波器的行为模型与恒定速度模型匹配时,对象的类型被准确地识别为两轮车辆。根据本公开的示例性实施方式,在两轮车辆被误识别为行人或者行人被检测为对象但是对象的类型未被确定的情况下,可通过行为模型识别来校正当前的误差。因此,根据本公开的示例性实施方式,可以改善针对不遵循恒定速度模型的行人的跟踪性能和类型识别性能。因此,根据本公开的示例性实施方式,可以精确地确定对象的类型,提高对象跟踪的精度。
根据上述实施方式的对象跟踪方法和设备可应用于从车辆的图像检测器接收对象的位置和类别类型的高级驾驶员辅助系统(ADAS)或检测器融合。
从以上描述中显而易见的是,根据本公开的各种示例性实施方式,根据跟踪对象的方法和设备以及存储用于执行该方法的程序的记录介质,可以精确地确定对象的类型,从而提高对象跟踪的精度。
然而,通过示例性实施方式可实现的效果不限于上述效果,并且本领域技术人员将从上述描述中清晰地理解在本文中未提及的其他效果。
在不脱离本公开的范围的情况下,上述各种实施方式可以彼此组合,除非它们相互不兼容。
此外,对于在任何各种实施方式中未详细描述的任何元件或者过程,除非另有规定,否则可以参考在本公开的另一示例性实施方式中具有相同参考标号的元件或者过程的描述。
此外,说明书中包括的包括“单元”、“模块”等的术语是指用于处理至少一个功能或操作的单元,该至少一个功能或操作可以通过硬件、软件或其组合来实现。
为了便于说明并准确限定所附权利要求,参考附图中显示的此类特征的位置,使用术语“在…上部”、“在…下部”、“在…内”、“在…外”、“在…上”、“在…下”、“向上”、“向下”、“在…前面”、“在…后面”、“在…背面”、“在…里面”、“在…外面”、“向内”、“向外”、“在…内部”、“在…外部”、“内部”、“外部”、“向前”和“向后”来描述示例性实施方式的特征。应进一步理解,术语“连接”或其衍生物是指直接连接和间接连接两者。
出于说明和描述的目的,已经呈现了本公开的具体示例性实施方式的前述描述。本公开的具体示例性实施方式的前述描述不旨在是详尽的或将本公开限于所公开的精确形式,并且显然根据上述教导,许多修改和变化是可能的。选择并描述示例性实施方式以解释本公开的某些原理及其实际应用,从而使本领域其他技术人员能够做出并且利用本公开的各种示例性实施方式及其各种替换和修改。本公开的范围旨在由所附权利要求及其等同物限定。
Claims (20)
1.一种跟踪对象的方法,所述方法包括以下步骤:
(a)使用在先前时间点确定的所述对象的位置、速度和类型以及在当前时间点确定的所述对象的位置、速度和类型来获得所述对象的自由行为模型的似然度和所述对象的恒定速度模型的似然度;以及
(b)根据所述自由行为模型的似然度和所述恒定速度模型的似然度确定所述对象的所确定的类型。
2.根据权利要求1所述的方法,其中,步骤(a)包括以下步骤:
将在所述先前时间点获得的所述对象的位置确定为所述对象的所述自由行为模型的预测的第一位置;
使用在所述先前时间点获得的所述对象的位置和速度来获得所述对象的所述恒定速度模型的预测的第二位置;
使用所述第一位置和所确定的位置来获得所述自由行为模型的似然度;以及
使用所述第二位置和所确定的位置来获得所述恒定速度模型的似然度。
5.根据权利要求2所述的方法,其中,所述步骤(a)包括以下步骤:
在所述当前时间点使用多个检测器感测所述对象的位置、速度和类型;以及
将根据所述多个检测器中的每个检测器的预定精度使用由所述多个检测器检测的位置、速度和类型分别生成的虚拟位置、虚拟速度和虚拟类型分别确定为所确定的位置、所确定的速度和所确定的类型。
6.根据权利要求1所述的方法,其中,步骤(b)包括以下步骤:
当所确定的类型是第一类型并且当所述自由行为模型的似然度大于第一阈值时,将在所述当前时间点校正的所述对象的类型确定为所述第一类型;
当所确定的类型是所述第一类型并且当所述自由行为模型的似然度等于或小于所述第一阈值时,确定所述恒定速度模型的似然度是否大于第二阈值;
当所述恒定速度模型的似然度大于所述第二阈值时,将在所述当前时间点校正的所述对象的类型确定为第二类型,所述第二类型不同于所述第一类型;
当所述恒定速度模型的似然度等于或小于所述第二阈值时,将在所述当前时间点校正的所述对象的类型确定为所述第一类型;
当所确定的类型是未知类型并且当所述自由行为模型的似然度大于所述第一阈值时,将在所述当前时间点校正的所述对象的类型确定为所述第一类型;以及
当所确定的类型是所述未知类型并且当所述自由行为模型的似然度等于或小于所述第一阈值时,将在所述当前时间点校正的所述对象的类型确定为所述未知类型。
7.根据权利要求6所述的方法,其中,所述步骤(b)包括以下步骤:
当所确定的类型既不是所述第一类型也不是所述未知类型时,不确定在所述当前时间点校正的所述对象的类型。
8.根据权利要求7所述的方法,其中,所述第一类型和所述第二类型中的一个是行人类型,并且所述第一类型和所述第二类型中的剩余一个是两轮车辆类型。
9.一种跟踪对象的设备,所述设备包括:
滤波器,被配置为使用在先前时间点确定的所述对象的位置、速度和类型以及在当前时间点确定的所述对象的位置、速度和类型来生成所述对象的自由行为模型的似然度和所述对象的恒定速度模型的似然度;以及
类型校正器,被配置为使用所述自由行为模型的似然度、所述恒定速度模型的似然度以及所述对象的所确定的类型来校正在所述当前时间点的所述对象的类型。
10.根据权利要求9所述的设备,其中,所述滤波器包括:
自由行为模型装置,被配置为将在所述先前时间点获得的所述对象的位置转移为所述对象的所述自由行为模型的预测的第一位置;
恒定速度模型装置,被配置为使用在所述先前时间点获得的所述对象的位置和速度来生成所述对象的所述恒定速度模型的预测的第二位置;以及
似然度发生器,被配置为使用所述第一位置和所确定的位置生成所述自由行为模型的似然度并且使用所述第二位置和所确定的位置生成所述恒定速度模型的似然度。
13.根据权利要求10所述的设备,还包括:
感测单元,包括被配置为检测在所述当前时间点的所述对象的位置、速度和类型的多个检测器。
14.根据权利要求13所述的设备,其中,所述滤波器还包括:
测量值发生器,被配置为将根据所述多个检测器中的每个检测器的预定精确度使用由所述多个检测器检测的位置、速度和类型分别生成的虚拟位置、虚拟速度和虚拟类型分别输出为所确定的位置、所确定的速度和所确定的类型。
15.根据权利要求10所述的设备,其中,所述类型校正器包括:
类型检查器,被配置为检查所确定的类型是第一类型还是未知类型,并将检查的结果输出为控制信号;
第一比较器,被配置为响应于所述控制信号将所述自由行为模型的似然度与第一阈值进行比较;
第二比较器,被配置为响应于所述第一比较器的比较结果将所述恒定速度模型的似然度与第二阈值进行比较;
第一类型输出单元,被配置为响应于所述第一比较器或所述第二比较器的比较结果确定在所述当前时间点的所述对象的类型为所述第一类型或第二类型,所述第二类型不同于所述第一类型;以及
第二类型输出单元,被配置为响应于所述第一比较器的比较结果和所述控制信号确定在所述当前时间点的所述对象的类型为所述第一类型或所述未知类型。
16.一种记录有用于执行跟踪对象的方法的程序的计算机可读记录介质,所述计算机可读记录介质存储用于实现以下功能的程序:
(a)使用在先前时间点确定的所述对象的位置、速度和类型以及在当前时间点确定的所述对象的位置、速度和类型来获得所述对象的自由行为模型的似然度和所述对象的恒定速度模型的似然度;以及
(b)使用所述自由行为模型的似然度、所述恒定速度模型的似然以及所述对象的所确定的类型来校正在所述当前时间点的所述对象的类型。
17.根据权利要求16所述的计算机可读记录介质,其中,功能(a)包括以下功能:
将在所述先前时间点获得的所述对象的位置确定为所述对象的所述自由行为模型的预测的第一位置的功能;
使用在所述先前时间点获得的所述对象的位置和速度来获得所述对象的所述恒定速度模型的预测的第二位置的功能;
使用所述第一位置和所确定的位置来获得所述自由行为模型的似然度的功能;以及
使用所述第二位置和所确定的位置来获得所述恒定速度模型的似然度的功能。
18.根据权利要求16所述的计算机可读记录介质,其中,功能(a)包括以下功能:
在所述当前时间点使用多个检测器感测所述对象的位置、速度和类型的功能;以及
将根据所述多个检测器中的每个检测器的预定精度使用由所述多个检测器检测的位置、速度和类型分别生成的虚拟位置、虚拟速度和虚拟类型分别确定为所确定的位置、所确定的速度和所确定的类型的功能。
19.根据权利要求16所述的计算机可读记录介质,其中,功能(b)包括以下功能:
当所确定的类型是第一类型并且当所述自由行为模型的似然度大于第一阈值时,将在所述当前时间点校正的所述对象的类型确定为所述第一类型的功能;
当所确定的类型是所述第一类型并且当所述自由行为模型的似然度等于或小于所述第一阈值时,确定所述恒定速度模型的似然度是否大于第二阈值的功能;
当所述恒定速度模型的似然度大于所述第二阈值时,将在所述当前时间点校正的所述对象的类型确定为第二类型的功能,所述第二类型不同于所述第一类型;
当所述恒定速度模型的似然度等于或小于所述第二阈值时,将在所述当前时间点校正的所述对象的类型确定为所述第一类型的功能;
当所确定的类型是未知类型并且当所述自由行为模型的似然度大于所述第一阈值时,将在所述当前时间点校正的所述对象的类型确定为所述第一类型的功能;以及
当所确定的类型是所述未知类型并且当所述自由行为模型的似然度等于或小于所述第一阈值时,将在所述当前时间点校正的所述对象的类型确定为所述未知类型的功能。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2021-0036537 | 2021-03-22 | ||
KR1020210036537A KR20220131646A (ko) | 2021-03-22 | 2021-03-22 | 객체 추적 방법과 장치 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115116022A true CN115116022A (zh) | 2022-09-27 |
Family
ID=83115098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210285685.3A Pending CN115116022A (zh) | 2021-03-22 | 2022-03-22 | 跟踪对象的方法和设备以及计算机可读记录介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US12043270B2 (zh) |
KR (1) | KR20220131646A (zh) |
CN (1) | CN115116022A (zh) |
DE (1) | DE102022105419A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220131646A (ko) * | 2021-03-22 | 2022-09-29 | 현대자동차주식회사 | 객체 추적 방법과 장치 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7336803B2 (en) * | 2002-10-17 | 2008-02-26 | Siemens Corporate Research, Inc. | Method for scene modeling and change detection |
JP4582174B2 (ja) * | 2008-03-28 | 2010-11-17 | ソニー株式会社 | 追跡処理装置、追跡処理方法、プログラム |
GB2538751A (en) * | 2015-05-27 | 2016-11-30 | Imp College Of Science Tech And Medicine | Modelling a three-dimensional space |
KR102371616B1 (ko) * | 2017-11-07 | 2022-03-07 | 현대자동차주식회사 | 차량의 센서 데이터 연계 장치 및 방법 |
KR102592830B1 (ko) * | 2018-12-05 | 2023-10-23 | 현대자동차주식회사 | 차량용 센서퓨전 타겟 예측 장치 및 그의 센서 퓨전 타겟 예측 방법과 그를 포함하는 차량 |
US11878682B2 (en) * | 2020-06-08 | 2024-01-23 | Nvidia Corporation | Path planning and control to account for position uncertainty for autonomous machine applications |
KR20220131646A (ko) * | 2021-03-22 | 2022-09-29 | 현대자동차주식회사 | 객체 추적 방법과 장치 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체 |
US20230054759A1 (en) * | 2021-08-23 | 2023-02-23 | Nvidia Corporation | Object tracking using lidar data for autonomous machine applications |
-
2021
- 2021-03-22 KR KR1020210036537A patent/KR20220131646A/ko active Search and Examination
-
2022
- 2022-02-17 US US17/674,611 patent/US12043270B2/en active Active
- 2022-03-08 DE DE102022105419.5A patent/DE102022105419A1/de active Pending
- 2022-03-22 CN CN202210285685.3A patent/CN115116022A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220297701A1 (en) | 2022-09-22 |
US12043270B2 (en) | 2024-07-23 |
DE102022105419A1 (de) | 2022-09-22 |
KR20220131646A (ko) | 2022-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kraus et al. | Uncertainty estimation in one-stage object detection | |
US8704887B2 (en) | Multi-object appearance-enhanced fusion of camera and range sensor data | |
WO2018086460A1 (zh) | 一种车牌校正方法及装置 | |
EP2657644B1 (en) | Positioning apparatus and positioning method | |
JP5178276B2 (ja) | 画像認識装置 | |
US8818702B2 (en) | System and method for tracking objects | |
US20220027664A1 (en) | Method for common detecting, trackng and classifying of objects | |
KR102569900B1 (ko) | 전방위 센서퓨전 장치 및 그의 센서퓨전 방법과 그를 포함하는 차량 | |
US11748593B2 (en) | Sensor fusion target prediction device and method for vehicles and vehicle including the device | |
US11436815B2 (en) | Method for limiting object detection area in a mobile system equipped with a rotation sensor or a position sensor with an image sensor, and apparatus for performing the same | |
CN112904359A (zh) | 基于远程激光探测与测量的速度估计 | |
CN111126327B (zh) | 车道线检测方法、系统、车载系统及车辆 | |
CN115116022A (zh) | 跟踪对象的方法和设备以及计算机可读记录介质 | |
CN116433715A (zh) | 基于多传感器前融合结果的时序追踪方法、装置及介质 | |
CN116734891A (zh) | 交会成像敏感器测量数据的有效性判断方法和装置 | |
CN111460854A (zh) | 一种远距离目标检测方法、装置及系统 | |
CN116433712A (zh) | 基于多传感器时序感知结果前融合的融合追踪方法及装置 | |
Garcia et al. | Mobile based pedestrian detection with accurate tracking | |
EP4012603B1 (en) | Method for classifying a tracked object | |
US11768920B2 (en) | Apparatus and method for performing heterogeneous sensor fusion | |
US20230143958A1 (en) | System for neural architecture search for monocular depth estimation and method of using | |
US20230258797A1 (en) | Sensor Information Fusion Method and Apparatus | |
US20230410490A1 (en) | Deep Association for Sensor Fusion | |
WO2022215348A1 (ja) | 物標検出装置 | |
CN116433713A (zh) | 基于多传感器后融合结果的时序追踪方法、装置及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |