CN110942474B - 机器人目标跟踪方法、设备及存储介质 - Google Patents
机器人目标跟踪方法、设备及存储介质 Download PDFInfo
- Publication number
- CN110942474B CN110942474B CN201911185417.9A CN201911185417A CN110942474B CN 110942474 B CN110942474 B CN 110942474B CN 201911185417 A CN201911185417 A CN 201911185417A CN 110942474 B CN110942474 B CN 110942474B
- Authority
- CN
- China
- Prior art keywords
- target
- tracking
- probability density
- density function
- motion model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computational Mathematics (AREA)
- Mathematical Physics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Operations Research (AREA)
- Algebra (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种机器人目标跟踪方法、设备及存储介质,所述机器人目标跟踪方法包括:利用配置的多个传感器对目标进行跟踪,针对进行跟踪的每一个传感器,分别计算单个传感器各自跟踪结果对应的单个概率密度函数;将得到的每个传感器各自对应的所述单个概率密度函数进行联乘,得到联合多个传感器的联合概率密度函数;建立目标对应的运动模型,并基于所述联合概率密度函数,计算满足概率密度函数的最大后验概率的目标位置,获取目标的运动轨迹和当前的目标位置;使得目标的跟踪结果更高效,由于采用多个传感器进行目标跟踪,因此也提高了目标跟踪结果的效率和鲁棒性。
Description
技术领域
本发明涉及多传感器信息融合技术领域,特别涉及一种机器人目标跟踪方法、设备及存储介质。
背景技术
目前,利用机器人在未知环境中对目标进行跟踪时,通常情况下,对进行目标跟踪的机器人仅配置了单个传感器,在这种情况下,该机器人身上的传感器很容易被其他物体遮挡,且单个传感器的信号也因容易受到干扰而不能正常使用;另外,也可能会出现单个传感器损坏的情况,上述这些情况均有可能直接导致机器人跟踪目标的丢失;因此,现有技术中仅采用配置有单个传感器的机器人进行目标跟踪的方案,存在容易丢失跟踪目标的风险,从而使得机器人的目标跟踪不具备鲁棒性。
发明内容
本发明提供一种机器人目标跟踪方法、设备及存储介质,旨在采用多个传感器对目标进行跟踪,提高目标跟踪结果的鲁棒性。
为实现上述目的,本发明提供了一种机器人目标跟踪方法,所述机器人目标跟踪方法包括:
利用配置的多个传感器对目标进行跟踪,针对进行跟踪的每一个传感器,分别计算单个传感器各自跟踪结果对应的单个概率密度函数;
将得到的每个传感器各自对应的所述单个概率密度函数进行联乘,得到联合多个传感器的联合概率密度函数;
建立目标对应的运动模型,并基于所述联合概率密度函数,计算满足概率密度函数的最大后验概率的目标位置,获取目标的运动轨迹和当前的目标位置。
进一步地,所述传感器包括:超带宽UWB传感器、激光雷达以及图像采集器。
进一步地,所述利用配置的多个传感器对目标进行跟踪,分别计算单个传感器各自跟踪结果对应的单个概率密度函数包括:
利用在机器人身上配置的多个UWB传感器对目标进行跟踪,按照三角测量法,测量并获取目标的位置信息,计算得到所述UWB传感器对应的单个概率密度函数;
利用激光雷达对目标进行跟踪,采集并获取与所述目标的轮廓信息相近的激光点的位置信息,计算得到所述激光雷达对应的单个概率密度函数;
利用图像采集器对目标进行跟踪,按照预设的目标识别算法,识别并获取目标在图像中的位置信息,计算得到所述图像采集器对应的单个概率密度函数。
进一步地,所述利用图像采集器对目标进行跟踪,按照预设的目标识别算法,识别并获取目标在图像中的位置信息,包括:
利用所述图像采集器,获取所述目标对应的高度信息;
根据获取的所述目标对应的高度信息,按照深度学习算法,判断机器人与所述目标之间的距离,根据判断结果,获取所述目标的位置信息。
进一步地,所述建立目标对应的运动模型,包括:
识别是否能够读取到所述目标的惯性测量单元IMU信息;
若能够读取到所述目标的IMU信息,则利用读取的所述IMU信息作为运动模型,利用本时刻对应的上一时刻的运动模型的联合概率密度函数乘以当前传感器跟踪的目标位置对应的联合概率密度函数,作为目标在所述本时刻运动模型的输出;
若不能读取到所述目标的IMU信息,则以所述目标的加速度符合高斯分布为运动模型,估计所述目标的加速度以及运动速度,根据估计的所述目标的加速度以及运动速度,建立运动模型。
进一步地,所述建立目标对应的运动模型,并基于所述联合概率密度函数,计算满足概率密度函数的最大后验概率的目标位置,获取目标的运动轨迹和当前的目标位置,包括:
按照预设规则,建立目标对应的运动模型;
根据建立的所述运动模型,计算所述联合概率密度函数的值;
根据计算得到的所述联合概率密度函数的值,获取目标的运动轨迹,且在所述联合概率密度函数取最大值时对应的最大值位置,即为跟踪目标对应的当前目标位置。
进一步地,所述机器人目标跟踪方法还包括:
根据机器人运行时所参照的障碍物地图作为对跟踪目标进行预先校验的依据;
若当前基于多个传感器检测得到的目标位置与所述障碍物地图上标识的障碍物位置相重叠,则识别出当前的检测结果不是跟踪目标对应的所述目标位置。
为实现上述目的,本发明还提供了一种机器人目标跟踪装置,所述机器人目标跟踪装置包括:
跟踪参数获取模块,用于利用配置的多个传感器对目标进行跟踪,针对进行跟踪的每一个传感器,分别计算单个传感器各自跟踪结果对应的单个概率密度函数;
跟踪参数计算模块,用于将得到的每个传感器各自对应的所述单个概率密度函数进行联乘,得到联合多个传感器的联合概率密度函数;
跟踪目标获取模块,用于建立目标对应的运动模型,并基于所述联合概率密度函数,计算满足概率密度函数的最大后验概率的目标位置,获取目标的运动轨迹和当前的目标位置。
为实现上述目的,本发明还提供了一种电子设备,所述电子设备包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的机器人目标跟踪程序,所述机器人目标跟踪程序被所述处理器运行时,执行如权利要求1至7中任一项所述的机器人目标跟踪方法。
为实现上述目的,本发明还提供了一种计算机存储介质,所述存储介质上存储有机器人目标跟踪程序,所述机器人目标跟踪程序可以被一个或者多个处理器执行,以实现所述的机器人目标跟踪方法的步骤。
本发明一种机器人目标跟踪方法、设备及存储介质可以达到如下有益效果:
利用配置的多个传感器对目标进行跟踪,针对进行跟踪的每一个传感器,分别计算单个传感器各自跟踪结果对应的单个概率密度函数;将得到的每个传感器各自对应的所述单个概率密度函数进行联乘,得到联合多个传感器的联合概率密度函数;建立目标对应的运动模型,并基于所述联合概率密度函数,计算满足概率密度函数的最大后验概率的目标位置,获取目标的运动轨迹和当前的目标位置;使得目标的跟踪结果更高效,由于采用多个传感器进行目标跟踪,因此也提高了目标跟踪结果的效率和鲁棒性。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所指出的内容来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1是本发明机器人目标跟踪方法的一种实施方式的流程示意图;
图2是本发明机器人目标跟踪装置的一种实施方式的功能模块示意图;
图3是本发明电子设备的一种实施方式的内部结构示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
本发明提供了一种机器人目标跟踪方法、设备及存储介质,采用了多个传感器对目标进行跟踪,并对各个传感器的跟踪结果进行融合,获得了高效的、鲁棒性高的目标跟踪结果,从而提高了目标跟踪结果的效率和鲁棒性。
如图1所示,图1是本发明机器人目标跟踪方法的一种实施方式的流程示意图;本发明一种机器人目标跟踪方法可以实施为如下描述的步骤S10-S30:
步骤S10、利用配置的多个传感器对目标进行跟踪,针对进行跟踪的每一个传感器,分别计算单个传感器各自跟踪结果对应的单个概率密度函数;
本发明实施例中,针对目标进行跟踪的机器人身上配置了多个传感器,并利用配置的多个传感器进行目标跟踪。其中,机器人配置的多个传感器包括:同一类型传感器的数量有多个,和/或:包括不同类型的传感器,且每一种类型的传感器的数量分别配置有一个或者多个。传感器的类型和数量可以根据跟踪的目标对应的属性进行配置,也可以根据该机器人的具体应用场景进行配置,本发明实施例对机器人身上配置的传感器的类型、数量以及传感器的具体配置规则不进行限定。比如,配置的传感器包括但不限于:UWB(UltraWide Band,超宽带)传感器、激光雷达、相机以及一些抽象类型的传感器,比如深度传感器、超声波传感器等。
针对配置的多个传感器,在对传感器采集的数据进行运算时,采用如下方式进行:针对目标进行跟踪的每一个传感器,分别独立计算单个传感器各自跟踪结果对应的单个概率密度函数,即PDF,Probability Density Function。
步骤S20、将得到的每个传感器各自对应的所述单个概率密度函数进行联乘,得到联合多个传感器的联合概率密度函数;
步骤S30、建立目标对应的运动模型,并基于所述联合概率密度函数,计算满足概率密度函数的最大后验概率的目标位置,获取目标的运动轨迹和当前的目标位置。
根据得到的每个传感器各自分别对应的单个概率密度函数,对所有的单个概率密度函数进行联乘,获取此时联合多个传感器的联合概率密度函数;建立跟踪目标对应的运动模型,进而通过最大后验概率估计,计算联合概率密度函数,从而获取目标的运动轨迹;通过从联合概率密度函数中获取出该联合概率密度函数的最大值,即可找到当前的目标位置,因为联合概率密度函数的最大值对应的位置,即为当前的目标位置。因此,基于上述联合概率密度函数,通过计算满足概率密度函数的最大后验概率的目标位置,即可获取该目标的运动轨迹和当前的目标位置。
本发明实施例中描述的“最大后验概率估计”中的“后验”相对应于“前验”来描述的,在一个实施例中,所述机器人目标跟踪方法还包括:
根据机器人运行时所参照的障碍物地图作为对跟踪目标进行预先校验的依据;
若当前基于多个传感器检测得到的目标位置与所述障碍物地图上标识的障碍物位置相重叠,则识别出当前的检测结果不是跟踪目标对应的所述目标位置。
也就是说,可以根据机器人运行所参照的障碍物地图作为先验,若当前监测得到的目标位置处于该障碍物地图标识的障碍物位置处,则即可认为当前检测得到必定不是跟踪的目标。
在本发明的一个实施例中,以机器人身上配置的传感器包括:UWB传感器、激光雷达以及图像采集器比如相机为例,来进一步描述本发明的技术方案。
基于配置的UWB传感器、激光雷达以及图像采集器比如相机,对目标进行跟踪,分别计算上述单个传感器各自跟踪结果对应的单个概率密度函数时,可以按照如下方式实施:
利用在机器人身上配置的多个UWB传感器对目标进行跟踪,比如,在目标物体上设置一个UWB传感器,在执行跟踪事件的机器人身上配置多个UWB传感器,则可以按照数学上的三角测量法,测量并获取目标的位置信息,计算得到所述UWB传感器对应的单个概率密度函数。
针对利用激光雷达对目标进行跟踪时,可以通过采集并获取与所述目标的轮廓信息相近的激光点的位置信息,来计算得到所述激光雷达对应的单个概率密度函数。
利用图像采集器比如相机对目标进行跟踪时,可以按照预设的目标识别算法,识别并获取目标在图像中的位置信息,计算得到所述图像采集器对应的单个概率密度函数。比如,在一个实施方式中,利用相机对目标进行跟踪时,通过相机采集目标的图像信息,解析采集的目标图像信息,获取目标对应的高度信息,按照深度学习算法,根据目标的大致高度,判断机器人与目标之间的距离,从而根据判断结果,来获取对应的目标位置。
本发明实施例中,由于概率密度函数在数学中是一个描述随机变量的输出值的一个函数,描述的是在某个确定的取值点附近的可能性的函数,因此,当使用的传感器为UWB传感器时,处在检测目标位置的概率密度越高,远离目标位置的概率密度越低;当使用的传感器为激光雷达时,检测成功的激光点附近的概率密度大,越远离概率密度越小;当使用的传感器为图像采集器比如相机时,处在检测目标位置的概率密度越高,远离目标位置的概率密度越低。
在本发明的一个实施例中,在建立目标对应的运动模型时,可以按照如下技术手段实施:
识别是否能够读取到所述目标的惯性测量单元IMU信息;
若能够读取到所述目标的IMU信息,则利用读取的所述IMU信息作为运动模型,利用本时刻对应的上一时刻的运动模型的联合概率密度函数乘以当前传感器跟踪的目标位置对应的联合概率密度函数,作为目标在所述本时刻运动模型的输出;
若不能读取到所述目标的IMU信息,则以所述目标的加速度符合高斯分布为运动模型,估计所述目标的加速度以及运动速度,根据估计的所述目标的加速度以及运动速度,建立运动模型。
本发明实施例中,可以认为目标的加速度符合方差很小的高斯分布为运动模型,估计目标的加速度以及运动速度,进而根据对目标加速度和运动速度的估计结果,来建立运动模型。
若能够读取到目标的IMU(Inertial Measurement Unit,惯性测量单元)信息,则直接采用IMU信息来代替上述运动模型,将利用IMU信息代替上述利用目标加速度和运动速度的估计结果建立的运动模型,表示为PDF(Probability Density Function,概率密度函数)运动模型。利用上一时刻的运动模型的联合概率密度函数乘以当前传感器跟踪的目标位置的联合概率密度函数,作为目标在本时刻运动模型的输出,其联合概率密度函数取最大值时所对应的目标位置,即为跟踪的当前的目标位置。如此一来,便获得了目标的运动轨迹和当前的目标位置。
本发明实施例中,由于IMU即惯性测量单元是测量物体三轴姿态角(或角速率)以及加速度的装置,因此,一般情况下,一个IMU包含了三个单轴的加速度计和三个单轴的陀螺,加速度计检测物体在载体坐标系统独立三轴的加速度信号,而陀螺检测载体相对于导航坐标系的角速度信号,测量物体在三维空间中的角速度和加速度,并以此解算出物体的姿态。因此,当能够获取到目标的IMU信息时,即获取了该目标对应的加速度以及运动速度,便无需再利用高斯分布作为运动模型来估计该目标的加速度和运动速度,直接将获取的目标的IMU信息作为运动模型即可。
利用上述方式建立运动模型后,即可根据建立的所述运动模型,计算所述联合概率密度函数的值;根据计算得到的所述联合概率密度函数的值,获取目标的运动轨迹,且在所述联合概率密度函数取最大值时对应的最大值位置,即为跟踪目标对应的当前目标位置。
本发明机器人目标跟踪方法,利用配置的多个传感器对目标进行跟踪,针对进行跟踪的每一个传感器,分别计算单个传感器各自跟踪结果对应的单个概率密度函数;将得到的每个传感器各自对应的所述单个概率密度函数进行联乘,得到联合多个传感器的联合概率密度函数;建立目标对应的运动模型,并基于所述联合概率密度函数,计算满足概率密度函数的最大后验概率的目标位置,获取目标的运动轨迹和当前的目标位置;使得目标的跟踪结果更高效,由于采用多个传感器进行目标跟踪,因此也提高了目标跟踪结果的效率和鲁棒性。
对应于图1实施例描述的一种机器人目标跟踪方法,本发明实施例还提供了一种机器人目标跟踪装置;如图2所示,图2是本发明机器人目标跟踪装置的一种实施方式的功能模块示意图;在图2所示的实施例中,本发明机器人目标跟踪装置包括:
跟踪参数获取模块100,用于利用配置的多个传感器对目标进行跟踪,针对进行跟踪的每一个传感器,分别计算单个传感器各自跟踪结果对应的单个概率密度函数;
跟踪参数计算模块200,用于将得到的每个传感器各自对应的所述单个概率密度函数进行联乘,得到联合多个传感器的联合概率密度函数;
跟踪目标获取模块300,用于建立目标对应的运动模型,并基于所述联合概率密度函数,计算满足概率密度函数的最大后验概率的目标位置,获取目标的运动轨迹和当前的目标位置。
基于图1所述实施例中对机器人目标跟踪方法的描述,在一个实施例中,所述机器人目标跟踪装置所采用的传感器包括:
超带宽UWB传感器、激光雷达以及图像采集器。
在一个实施例中,所述跟踪参数获取模块100用于:
利用在机器人身上配置的多个UWB传感器对目标进行跟踪,按照三角测量法,测量并获取目标的位置信息,计算得到所述UWB传感器对应的单个概率密度函数;
利用激光雷达对目标进行跟踪,采集并获取与所述目标的轮廓信息相近的激光点的位置信息,计算得到所述激光雷达对应的单个概率密度函数;
利用图像采集器对目标进行跟踪,按照预设的目标识别算法,识别并获取目标在图像中的位置信息,计算得到所述图像采集器对应的单个概率密度函数。
在一个实施例中,所述跟踪参数获取模块100用于:
利用所述图像采集器,获取所述目标对应的高度信息;
根据获取的所述目标对应的高度信息,按照深度学习算法,判断机器人与所述目标之间的距离,根据判断结果,获取所述目标的位置信息。
在一个实施例中,所述跟踪目标获取模块300用于:
识别是否能够读取到所述目标的惯性测量单元IMU信息;
若能够读取到所述目标的IMU信息,则利用读取的所述IMU信息作为运动模型,利用本时刻对应的上一时刻的运动模型的联合概率密度函数乘以当前传感器跟踪的目标位置对应的联合概率密度函数,作为目标在所述本时刻运动模型的输出;
若不能读取到所述目标的IMU信息,则以所述目标的加速度符合高斯分布为运动模型,估计所述目标的加速度以及运动速度,根据估计的所述目标的加速度以及运动速度,建立运动模型。
在一个实施例中,所述跟踪目标获取模块300用于:
按照预设规则,建立目标对应的运动模型;
根据建立的所述运动模型,计算所述联合概率密度函数的值;
根据计算得到的所述联合概率密度函数的值,获取目标的运动轨迹,且在所述联合概率密度函数取最大值时对应的最大值位置,即为跟踪目标对应的当前目标位置。
在一个实施例中,所述跟踪目标获取模块300用于:
根据机器人运行时所参照的障碍物地图作为对跟踪目标进行预先校验的依据;
若当前基于多个传感器检测得到的目标位置与所述障碍物地图上标识的障碍物位置相重叠,则识别出当前的检测结果不是跟踪目标对应的所述目标位置。
本发明机器人目标跟踪装置,利用配置的多个传感器对目标进行跟踪,针对进行跟踪的每一个传感器,分别计算单个传感器各自跟踪结果对应的单个概率密度函数;将得到的每个传感器各自对应的所述单个概率密度函数进行联乘,得到联合多个传感器的联合概率密度函数;建立目标对应的运动模型,并基于所述联合概率密度函数,计算满足概率密度函数的最大后验概率的目标位置,获取目标的运动轨迹和当前的目标位置;使得目标的跟踪结果更高效,由于采用多个传感器进行目标跟踪,因此也提高了目标跟踪结果的效率和鲁棒性。
本发明还提供了一种电子设备,所述电子设备可以按照图1所述的机器人目标跟踪方法采用多传感器进行目标跟踪。如图3所示,图3是本发明电子设备的一种实施方式的内部结构示意图。
在本实施例中,电子设备1可以是PC(Personal Computer,个人电脑),也可以是智能手机、平板电脑、便携计算机等终端设备。在一个实施例中,图3所述的电子设备可以是图1实施例中描述的对目标进行跟踪的机器人。该电子设备1至少包括存储器11、处理器12,通信总线13,以及网络接口14。
其中,存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的硬盘。存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如机器人目标跟踪程序01的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行机器人目标跟踪程序01等。
通信总线13用于实现这些组件之间的连接通信。
网络接口14可选的可以包括标准的有线接口、无线接口(如WI-FI接口),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以包括显示器(Display)、输入单元比如键盘(Keyboard),可选的用户接口还可以包括标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
图3仅示出了具有组件11-14以及机器人目标跟踪程序01的电子设备1,本领域技术人员可以理解的是,图2示出的结构并不构成对电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
基于图1、图2实施例的描述,在图3所示的电子设备1实施例中,存储器11中存储有机器人目标跟踪程序01;所述存储器11上存储的机器人目标跟踪程序01可在所述处理器12上运行,所述机器人目标跟踪程序01被所述处理器12运行时实现如下步骤:
利用配置的多个传感器对目标进行跟踪,针对进行跟踪的每一个传感器,分别计算单个传感器各自跟踪结果对应的单个概率密度函数;
将得到的每个传感器各自对应的所述单个概率密度函数进行联乘,得到联合多个传感器的联合概率密度函数;
建立目标对应的运动模型,并基于所述联合概率密度函数,计算满足概率密度函数的最大后验概率的目标位置,获取目标的运动轨迹和当前的目标位置。
在一个实施例中,所述传感器包括:超带宽UWB传感器、激光雷达以及图像采集器。
在一个实施例中,所述机器人目标跟踪程序01还可以被所述处理器1执行,以利用配置的多个传感器对目标进行跟踪,分别计算单个传感器各自跟踪结果对应的单个概率密度函数包括:
利用在机器人身上配置的多个UWB传感器对目标进行跟踪,按照三角测量法,测量并获取目标的位置信息,计算得到所述UWB传感器对应的单个概率密度函数;
利用激光雷达对目标进行跟踪,采集并获取与所述目标的轮廓信息相近的激光点的位置信息,计算得到所述激光雷达对应的单个概率密度函数;
利用图像采集器对目标进行跟踪,按照预设的目标识别算法,识别并获取目标在图像中的位置信息,计算得到所述图像采集器对应的单个概率密度函数。
在一个实施例中,所述机器人目标跟踪程序01还可以被所述处理器1执行,以利用图像采集器对目标进行跟踪,按照预设的目标识别算法,识别并获取目标在图像中的位置信息,包括:
利用所述图像采集器,获取所述目标对应的高度信息;
根据获取的所述目标对应的高度信息,按照深度学习算法,判断机器人与所述目标之间的距离,根据判断结果,获取所述目标的位置信息。
在一个实施例中,所述机器人目标跟踪程序01还可以被所述处理器1执行,以建立目标对应的运动模型,包括:
识别是否能够读取到所述目标的惯性测量单元IMU信息;
若能够读取到所述目标的IMU信息,则利用读取的所述IMU信息作为运动模型,利用本时刻对应的上一时刻的运动模型的联合概率密度函数乘以当前传感器跟踪的目标位置对应的联合概率密度函数,作为目标在所述本时刻运动模型的输出;
若不能读取到所述目标的IMU信息,则以所述目标的加速度符合高斯分布为运动模型,估计所述目标的加速度以及运动速度,根据估计的所述目标的加速度以及运动速度,建立运动模型。
在一个实施例中,所述机器人目标跟踪程序01还可以被所述处理器1执行,以建立目标对应的运动模型,并基于所述联合概率密度函数,计算满足概率密度函数的最大后验概率的目标位置,获取目标的运动轨迹和当前的目标位置,包括:
按照预设规则,建立目标对应的运动模型;
根据建立的所述运动模型,计算所述联合概率密度函数的值;
根据计算得到的所述联合概率密度函数的值,获取目标的运动轨迹,且在所述联合概率密度函数取最大值时对应的最大值位置,即为跟踪目标对应的当前目标位置。
在一个实施例中,所述机器人目标跟踪程序01还可以被所述处理器1执行,以实现如下步骤:
根据机器人运行时所参照的障碍物地图作为对跟踪目标进行预先校验的依据;
若当前基于多个传感器检测得到的目标位置与所述障碍物地图上标识的障碍物位置相重叠,则识别出当前的检测结果不是跟踪目标对应的所述目标位置。
本发明电子设备,利用配置的多个传感器对目标进行跟踪,针对进行跟踪的每一个传感器,分别计算单个传感器各自跟踪结果对应的单个概率密度函数;将得到的每个传感器各自对应的所述单个概率密度函数进行联乘,得到联合多个传感器的联合概率密度函数;建立目标对应的运动模型,并基于所述联合概率密度函数,计算满足概率密度函数的最大后验概率的目标位置,获取目标的运动轨迹和当前的目标位置;使得目标的跟踪结果更高效,由于采用多个传感器进行目标跟踪,因此也提高了目标跟踪结果的效率和鲁棒性。
此外,本发明实施例还提供了一种计算机存储介质,所述计算机存储介质上存储有机器人目标跟踪程序,所述机器人目标跟踪程序可以被一个或者多个处理器执行,以实现下操作:
利用配置的多个传感器对目标进行跟踪,针对进行跟踪的每一个传感器,分别计算单个传感器各自跟踪结果对应的单个概率密度函数;
将得到的每个传感器各自对应的所述单个概率密度函数进行联乘,得到联合多个传感器的联合概率密度函数;
建立目标对应的运动模型,并基于所述联合概率密度函数,计算满足概率密度函数的最大后验概率的目标位置,获取目标的运动轨迹和当前的目标位置。
本发明计算机可读存储介质具体实施方式与上述机器人目标跟踪方法、装置和电子设备对应的各实施例的实施原理基本相同,在此不作累述。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (8)
1.一种机器人目标跟踪方法,其特征在于,所述机器人目标跟踪方法包括:
利用配置的多个传感器对目标进行跟踪,针对进行跟踪的每一个传感器,分别计算单个传感器各自跟踪结果对应的单个概率密度函数;
将得到的每个传感器各自对应的所述单个概率密度函数进行联乘,得到联合多个传感器的联合概率密度函数;
建立目标对应的运动模型,并基于所述联合概率密度函数,计算满足概率密度函数的最大后验概率的目标位置,获取目标的运动轨迹和当前的目标位置;
所述建立目标对应的运动模型,包括:
识别是否能够读取到所述目标的惯性测量单元IMU信息;
若能够读取到所述目标的IMU信息,则利用读取的所述IMU信息作为运动模型,利用本时刻对应的上一时刻的运动模型的联合概率密度函数乘以当前传感器跟踪的目标位置对应的联合概率密度函数,作为目标在所述本时刻运动模型的输出;
若不能读取到所述目标的IMU信息,则以所述目标的加速度符合高斯分布为运动模型,估计所述目标的加速度以及运动速度,根据估计的所述目标的加速度以及运动速度,建立运动模型;
所述建立目标对应的运动模型,并基于所述联合概率密度函数,计算满足概率密度函数的最大后验概率的目标位置,获取目标的运动轨迹和当前的目标位置,包括:
按照预设规则,建立目标对应的运动模型;
根据建立的所述运动模型,计算所述联合概率密度函数的值;
根据计算得到的所述联合概率密度函数的值,获取目标的运动轨迹,且在所述联合概率密度函数取最大值时对应的最大值位置,即为跟踪目标对应的当前目标位置。
2.如权利要求1所述的机器人目标跟踪方法,其特征在于,所述传感器包括:超带宽UWB传感器、激光雷达以及图像采集器。
3.如权利要求2所述的机器人目标跟踪方法,其特征在于,所述利用配置的多个传感器对目标进行跟踪,分别计算单个传感器各自跟踪结果对应的单个概率密度函数包括:
利用在机器人身上配置的多个UWB传感器对目标进行跟踪,按照三角测量法,测量并获取目标的位置信息,计算得到所述UWB传感器对应的单个概率密度函数;
利用激光雷达对目标进行跟踪,采集并获取与所述目标的轮廓信息相近的激光点的位置信息,计算得到所述激光雷达对应的单个概率密度函数;
利用图像采集器对目标进行跟踪,按照预设的目标识别算法,识别并获取目标在图像中的位置信息,计算得到所述图像采集器对应的单个概率密度函数。
4.如权利要求3所述的机器人目标跟踪方法,其特征在于,所述利用图像采集器对目标进行跟踪,按照预设的目标识别算法,识别并获取目标在图像中的位置信息,包括:
利用所述图像采集器,获取所述目标对应的高度信息;
根据获取的所述目标对应的高度信息,按照深度学习算法,判断机器人与所述目标之间的距离,根据判断结果,获取所述目标的位置信息。
5.如权利要求1至4任一项所述的机器人目标跟踪方法,其特征在于,所述机器人目标跟踪方法还包括:
根据机器人运行时所参照的障碍物地图作为对跟踪目标进行预先校验的依据;
若当前基于多个传感器检测得到的目标位置与所述障碍物地图上标识的障碍物位置相重叠,则识别出当前的检测结果不是跟踪目标对应的所述目标位置。
6.一种机器人目标跟踪装置,其特征在于,所述机器人目标跟踪装置包括:
跟踪参数获取模块,用于利用配置的多个传感器对目标进行跟踪,针对进行跟踪的每一个传感器,分别计算单个传感器各自跟踪结果对应的单个概率密度函数;
跟踪参数计算模块,用于将得到的每个传感器各自对应的所述单个概率密度函数进行联乘,得到联合多个传感器的联合概率密度函数;
跟踪目标获取模块,用于建立目标对应的运动模型,并基于所述联合概率密度函数,计算满足概率密度函数的最大后验概率的目标位置,获取目标的运动轨迹和当前的目标位置;
所述建立目标对应的运动模型,包括:
识别是否能够读取到所述目标的惯性测量单元IMU信息;
若能够读取到所述目标的IMU信息,则利用读取的所述IMU信息作为运动模型,利用本时刻对应的上一时刻的运动模型的联合概率密度函数乘以当前传感器跟踪的目标位置对应的联合概率密度函数,作为目标在所述本时刻运动模型的输出;
若不能读取到所述目标的IMU信息,则以所述目标的加速度符合高斯分布为运动模型,估计所述目标的加速度以及运动速度,根据估计的所述目标的加速度以及运动速度,建立运动模型;
所述建立目标对应的运动模型,并基于所述联合概率密度函数,计算满足概率密度函数的最大后验概率的目标位置,获取目标的运动轨迹和当前的目标位置,包括:
按照预设规则,建立目标对应的运动模型;
根据建立的所述运动模型,计算所述联合概率密度函数的值;
根据计算得到的所述联合概率密度函数的值,获取目标的运动轨迹,且在所述联合概率密度函数取最大值时对应的最大值位置,即为跟踪目标对应的当前目标位置。
7.一种电子设备,其特征在于,所述电子设备包括存储器和处理器,所述存储器上存储有可在所述处理器上运行的机器人目标跟踪程序,所述机器人目标跟踪程序被所述处理器运行时,执行如权利要求1至5中任一项所述的机器人目标跟踪方法。
8.一种计算机存储介质,其特征在于,所述存储介质上存储有机器人目标跟踪程序,所述机器人目标跟踪程序可以被一个或者多个处理器执行,以实现如权利要求1至5中任一项所述的机器人目标跟踪方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911185417.9A CN110942474B (zh) | 2019-11-27 | 2019-11-27 | 机器人目标跟踪方法、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911185417.9A CN110942474B (zh) | 2019-11-27 | 2019-11-27 | 机器人目标跟踪方法、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110942474A CN110942474A (zh) | 2020-03-31 |
CN110942474B true CN110942474B (zh) | 2023-06-13 |
Family
ID=69908357
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911185417.9A Active CN110942474B (zh) | 2019-11-27 | 2019-11-27 | 机器人目标跟踪方法、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110942474B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111552260B (zh) * | 2020-07-10 | 2020-10-27 | 炬星科技(深圳)有限公司 | 工人位置估算方法、设备及存储介质 |
CN111879315B (zh) * | 2020-08-14 | 2023-01-13 | 支付宝(杭州)信息技术有限公司 | 多目标追踪系统和方法 |
CN113253735B (zh) * | 2021-06-15 | 2021-10-08 | 同方威视技术股份有限公司 | 跟随目标的方法、装置、机器人及计算机可读存储介质 |
CN114217303B (zh) * | 2021-11-12 | 2024-07-02 | 鹏城实验室 | 目标定位跟踪方法及装置、水下机器人和存储介质 |
CN117784801B (zh) * | 2024-02-27 | 2024-05-28 | 锐驰激光(深圳)有限公司 | 跟踪避障方法、装置、设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106772354A (zh) * | 2016-12-29 | 2017-05-31 | 深圳大学 | 基于并行模糊高斯和粒子滤波的目标跟踪方法及装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9303999B2 (en) * | 2013-12-30 | 2016-04-05 | Google Technology Holdings LLC | Methods and systems for determining estimation of motion of a device |
US10088549B2 (en) * | 2015-06-25 | 2018-10-02 | Appropolis Inc. | System and a method for tracking mobile objects using cameras and tag devices |
US10339387B2 (en) * | 2016-03-03 | 2019-07-02 | Brigham Young University | Automated multiple target detection and tracking system |
US11295458B2 (en) * | 2016-12-01 | 2022-04-05 | Skydio, Inc. | Object tracking by an unmanned aerial vehicle using visual sensors |
CN107765220B (zh) * | 2017-09-20 | 2020-10-23 | 武汉木神机器人有限责任公司 | 基于uwb和激光雷达混合定位的行人跟随系统及方法 |
CN109029448B (zh) * | 2018-06-28 | 2021-11-12 | 东南大学 | 单目视觉惯性定位的imu辅助跟踪模型 |
CN109557533B (zh) * | 2018-11-28 | 2019-09-27 | 中国人民解放军国防科技大学 | 一种基于模型的联合跟踪与识别方法 |
CN110187336B (zh) * | 2019-06-28 | 2021-01-12 | 电子科技大学 | 一种基于分布式phd的多站雷达站址定位和联合跟踪方法 |
CN110446159B (zh) * | 2019-08-12 | 2020-11-27 | 上海工程技术大学 | 一种室内无人机精确定位与自主导航的系统及方法 |
-
2019
- 2019-11-27 CN CN201911185417.9A patent/CN110942474B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106772354A (zh) * | 2016-12-29 | 2017-05-31 | 深圳大学 | 基于并行模糊高斯和粒子滤波的目标跟踪方法及装置 |
Non-Patent Citations (1)
Title |
---|
自适应采样间隔的无线传感器网络多目标跟踪算法;王建平;赵高丽;胡孟杰;陈伟;;重庆大学学报(09);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110942474A (zh) | 2020-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110942474B (zh) | 机器人目标跟踪方法、设备及存储介质 | |
CN109084732B (zh) | 定位与导航方法、装置及处理设备 | |
US20210201509A1 (en) | Monitoring method and device for mobile target, monitoring system and mobile robot | |
CN106682572B (zh) | 目标跟踪方法、系统和第一电子设备 | |
CN108051002B (zh) | 基于惯性测量辅助视觉的运输车空间定位方法及系统 | |
CN114185427B (zh) | 用于并发测距和建图的系统和方法 | |
CN104811683B (zh) | 用于估计位置的方法和设备 | |
EP2917754B1 (en) | Image processing method, particularly used in a vision-based localization of a device | |
Hu et al. | A sliding-window visual-IMU odometer based on tri-focal tensor geometry | |
CN112734852A (zh) | 一种机器人建图方法、装置及计算设备 | |
CN110879400A (zh) | 激光雷达与imu融合定位的方法、设备及存储介质 | |
US20210183100A1 (en) | Data processing method and apparatus | |
US10755422B2 (en) | Tracking system and method thereof | |
CN105518702A (zh) | 一种对目标物体的检测方法、检测装置以及机器人 | |
CN113907663B (zh) | 障碍物地图构建方法、清洁机器人及存储介质 | |
JPWO2017051480A1 (ja) | 画像処理装置及び画像処理方法 | |
CN110361008A (zh) | 地下车库自动泊车的定位方法及装置 | |
Tamjidi et al. | 6-DOF pose estimation of a portable navigation aid for the visually impaired | |
CN104848861A (zh) | 一种基于图像消失点识别技术的移动设备姿态测量方法 | |
CN111382637A (zh) | 行人检测跟踪方法、装置、终端设备及介质 | |
WO2023142353A1 (zh) | 一种位姿预测方法及装置 | |
CN114764912A (zh) | 驾驶行为识别方法、设备和存储介质 | |
CN113158779B (zh) | 一种行走方法、装置和计算机存储介质 | |
CN111553342B (zh) | 一种视觉定位方法、装置、计算机设备和存储介质 | |
CN116958452A (zh) | 三维重建方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 518000 Room 401, block D, building 7, Shenzhen International Innovation Valley, Dashi 1st Road, Xili community, Xili street, Nanshan District, Shenzhen, Guangdong Applicant after: JUXING TECHNOLOGY (SHENZHEN) Co.,Ltd. Address before: 518000 building 101, building R3b, Gaoxin industrial village, No.018, Gaoxin South 7th Road, community, high tech Zone, Yuehai street, Nanshan District, Shenzhen City, Guangdong Province Applicant before: JUXING TECHNOLOGY (SHENZHEN) Co.,Ltd. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |