CN110876275A - 一种瞄准控制方法、移动机器人及计算机可读存储介质 - Google Patents
一种瞄准控制方法、移动机器人及计算机可读存储介质 Download PDFInfo
- Publication number
- CN110876275A CN110876275A CN201980002956.6A CN201980002956A CN110876275A CN 110876275 A CN110876275 A CN 110876275A CN 201980002956 A CN201980002956 A CN 201980002956A CN 110876275 A CN110876275 A CN 110876275A
- Authority
- CN
- China
- Prior art keywords
- target object
- mobile robot
- determining
- observation
- motion control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 84
- 238000001914 filtration Methods 0.000 claims description 39
- 230000004927 fusion Effects 0.000 claims description 29
- 230000008569 process Effects 0.000 claims description 29
- 238000004590 computer program Methods 0.000 claims description 6
- 230000008685 targeting Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000003709 image segmentation Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000011217 control strategy Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 206010044565 Tremor Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000036039 immunity Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
一种瞄准控制方法,包括:获取当前时刻目标对象相对于移动机器人的观测方位;根据观测方位,确定目标对象的角速度;根据角速度确定运动控制参数,运动控制参数用于控制瞄准器向目标对象的方向进行运动。该方法可以提高瞄准控制的准确性。还公开了一种移动机器人及计算机可读存储介质。
Description
技术领域
本发明涉及电子技术领域,尤其涉及一种瞄准控制方法、移动机器人及计算机可读存储介质。
背景技术
在移动机器人领域中,自动瞄准技术是指:在目标对象和/或移动机器人运动过程中,控制目标对象与移动机器人的相对方位处于期望值的一种伺服控制技术。目前,常用的瞄准控制方法是基于误差设计的,可通过图像传感器获取当前时刻目标对象相对于移动机器人的方位,进一步的,基于该方位确定期望方位与移动机器人的实际方位之间的差值,并基于所述差值和预设控制律生成对移动机器人的控制策略。经实践证明,上述方法存在稳态误差大、抗噪声能力差、控制滞后等缺陷,导致对移动机器人的瞄准控制不准确。
发明内容
本发明实施例提供了一种瞄准控制方法、移动机器人及计算机可读存储介质,能够提高瞄准控制的准确性。
第一方面,本发明实施例提供了一种瞄准控制方法,所述方法应用于移动机器人,所述移动机器人包括瞄准器,所述方法包括:
获取当前时刻目标对象相对于所述移动机器人的观测方位;
根据所述观测方位,确定所述目标对象的角速度;
根据所述角速度确定运动控制参数,所述运动控制参数用于控制所述瞄准器向所述目标对象的方向进行运动。
第二方面,本发明实施例提供了一种移动机器人,包括:瞄准器、存储器和处理器:
所述存储器,用于存储程序代码;
所述处理器,用于调用所述程序代码,当所述程序代码被执行时,用于执行以下操作:
获取当前时刻目标对象相对于所述移动机器人的观测方位;
根据所述观测方位,确定所述目标对象的角速度;
根据所述角速度确定运动控制参数,所述运动控制参数用于控制所述瞄准器向所述目标对象的方向进行运动。
第三方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序指令,所述计算机程序指令被执行时用于实现上述的第一方面所述的瞄准控制方法。
本发明实施例中,在获取到当前时刻目标对象相对于移动机器人的观测方位时,根据观测方位确定目标对象的角速度;再根据所述目标对象的角速度确定用于控制瞄准器向所述目标对象的方向进行运动的运动控制参数。在上述瞄准控制过程中,将目标对象的角速度作为瞄准控制的前馈信号,与现有技术中仅基于误差进行瞄准控制相比,可以准确地控制瞄准器沿着目标对象的方向进行运动,提高了瞄准控制的准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种自动瞄准的示意图;
图2a为现有技术提供的一种瞄准控制系统的示意图;
图2b为本发明实施例提供的一种瞄准控制系统的示意图;
图3为本发明实施例提供的一种瞄准控制方法的流程图;
图4为本发明实施例提供的另一种瞄准控制方法的流程示意图;
图5为本发明实施例提供的一种瞄准控制模块的示意图;
图6为本发明实施例提供的一种移动机器人的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,图1为本发明实施例提供的一种自动瞄准的示意图,在图1中,101表示目标对象,102表示移动机器人,所述目标对象可以包括移动机器人设备或者其他地面固定设备;103表示移动机器人上配置的瞄准器,箭头表示移动机器人的移动方向。自动瞄准就是指控制移动机器人与目标对象之间的相对方位处于期望值,以使得移动机器人可以瞄准并命中目标对象。
在瞄准控制系统中,通常采用的瞄准控制方法是将运动控制误差作为瞄准控制的反馈信号,基于此反馈信号来生成控制策略以控制瞄准器运动。如图2a,图2a为现有技术提供的一种瞄准控制系统的示意图。在图2a所示的瞄准控制系统中可包括目标对象、移动机器人(例如轮式移动机器人)、检测器、跟踪器、控制器和执行器。所述检测器、所述跟踪器、所述控制器和所述执行器组成了瞄准控制系统中的自动瞄准模块。
在图2a所述的瞄准控制系统中,所述移动机器人的图像传感器可以采集包括目标对象的当前时刻图像,并将所述当前时刻图像传递到自动瞄准模块;响应于接收到的当前时刻图像,自动瞄准模块执行如下操作:检测器和跟踪器对所述当前时刻图像进行处理,确定出当前时刻目标对象相对于移动机器人的观测方位,然后将观测方位输入到控制器;控制器可以根据所述观测方位确定轮式移动机器人的理想方位,根据所述理想方位和轮式移动机器人的当前方位,确定运动控制误差,进一步的,根据所述运动控制误差和控制器的控制律生成控制反馈结果,并将所述控制反馈结果传递给执行器,所述执行器基于控制反馈结果对轮式移动机器人进行瞄准控制。
在执行器按照控制反馈结果进行瞄准时,移动机器人和目标对象之间的相对方位可能发生改变,图像传感器进一步采集变化后的图像,传递到自动瞄准模块以重复执行上述过程,由此形成闭环反馈。
可选的,图2a所述控制器可以为比例-积分-微分(Proportional-Integral-Differential,PID)控制器,所述将运动控制误差代入控制器的控制律进行运算以得到控制结果,可以通过公式(1)表示,在公式(1)中假设图2a中所用的控制器为PID控制器:
在公式(1)中,e表示误差,Kp表示比例系数,Ki表示积分系数,Kd表示微分系数,Kp,Ki以及Kd用以调整当前误差、累计误差和误差变化对控制器的输出的影响程度。
由此,PID控制器构成了一个超前-滞后校正器,通过调整比例系数、积分系数和微分系数,可以使得瞄准控制系统的运动控制误差保持在一定范围内,然而基于PID控制器的控制方法有几个缺陷。其一是可能存在无法消除的稳态误差;其二是抗噪声能力差,PID控制器的微分环节具有+20db/dec的全局幅频特性,意味着系统的高频噪声将被微分环节放大,导致系统输出震颤;其三,PID控制器是基于误差的反馈控制器,即一定需要误差出现后才能得到控制器的输出,使其输出永远滞后于误差变化。经实践证明,基于图2a所述的瞄准控制系统进行瞄准控制时,移动机器人对目标对象的命中率通常情况下小于10%。
为了解决上述问题,本发明实施例提出了一种基于角速度前馈的瞄准控制系统,如图2b所示。与图2a中所述瞄准控制系统相同的:在图2b所述的瞄准控制系统中,也可包括检测器、跟踪器、控制器和检测器;与图2a中不同的是:图2b所述的瞄准控制系统中,引入了一条角速度前馈通路,所述角速度前馈通路和控制器分别对检测器和跟踪器确定出的观测方位进行处理,得到角速度前馈结果和控制器的控制反馈结果,最后将角速度前馈结果和控制反馈结果进行融合并输出给执行器,实现更加准确的瞄准控制。
经分析,图2b所述的瞄准控制系统通过引入角速度前馈,并与控制器结合可提高瞄准控制的准确性。经实践证明,通过引入角速度前馈,移动机器人对目标对象的命中率可达50%以上。
在一种实施方式中,角速度前馈输出也可以单独作为执行器的输入。
本发明实施例提供了一种瞄准控制方法如图3所示。所述瞄准控制方法可以应用于图2b所示的瞄准控制系统中,所述瞄准控制方法可应用于移动机器人,所述移动机器人包括瞄准器。图3所述的瞄准控制方法可以由移动机器人执行,具体地,可以由移动机器人的处理器执行,图3所述的瞄准控制方法可包括如下步骤:
步骤S301、获取当前时刻目标对象相对于移动机器人的观测方位。
其中,所述目标对象是指待瞄准对象。所述观测方位包括当前时刻目标对象相对于移动机器人的方向和距离。在一个实施例中,所述目标对象相对于移动机器人的观测方位可以指:目标对象上任意一点到移动机器人上任意一点之间的相对方向和距离。示例性地,假设所述移动机器人的瞄准器上包括摄像头,所述目标对象相对于所述移动机器人的观测方位可以指:摄像头的coms传感器中心点与所述目标对象所在成像平面中心点的相对方向和距离。
再一个实施例中,所述目标对象相对于所述移动机器人的观测方位还可以指:移动机器人的质心与所述目标对象的质心之间的相对方向和距离。应当理解的,上述只是本发明实施例列举的两种观测方位的定义方式,在其他实施例中,本领域技术人员可根据实际需求设定所述观测方位的定义方式。
应当理解的,若想要获取到目标对象相对于移动机器人的观测方位,首先需要确定出目标对象。在一个实施例中,移动机器人的瞄准器上可包括摄像头,可以采用摄像头采集当前时刻包含目标对象的目标图像,再采用图像分割或者深度学习等技术对目标图像进行处理以确定出目标对象。示例性地,采用图像分割确定目标图像中包括的目标对象是指:按照预设的分割规则将目标图像分割成至少一个物体区域;对分割后的每个物体区域进行特征提取以获得每个物体区域的特征信息;再将每个物体区域的特征信息与预先存储的或者预先确定的目标对象的特征信息进行对比以判断该物体区域是否为目标对象,如果是,则将该物体区域确定为包含目标对象的目标物体区域。基于上述过程便可确定出目标图像中包括的目标对象。
在一个实施例中,基于图2b所示的瞄准控制系统,本发明实施例可调用检测器和跟踪器执行上述采用图像分割技术确定目标图像中包括的目标对象的步骤,具体地:检测器可采用图像分割技术将目标对象从目标图像中分割出来,所述目标对象可以以矩形框形式表示;然后将所述矩形框传递给跟踪器;跟踪器根据接收到的矩形框内的图像颜色、梯度等信息,再附加所述矩形框的历史位置、尺寸等信息,融合出噪声较小的矩形框,所述融合出来的矩形框则可用于表示目标对象。
在一个实施例中,在确定出目标对象之后,便可以根据目标对象在目标图像中的一些信息以及目标图像的信息确定所述目标对象相对于所述移动机器人的观测方位。关于具体如何根据上述信息确定目标对象相对于所述移动机器人的观测方位将在后面进行瞄准。
步骤S302、根据所述观测方位,确定目标对象的角速度。
在一个实施例中,检测器中会包含一定噪声,因此,根据检测器和跟踪器确定出来的目标对象可能不够准确,这样,基于所述目标对象确定出目标对象相对于所述移动机器人的观测方位可能也存在由噪声引起的误差。如果直接根据所述观测方位确定角速度会导致最后根据角度速生成的运动控制参数存在误差,从而影响瞄准控制的准确性。因此,在步骤S302中根据观测方位确定目标对象的角度速时,可以首先对观测方位进行滤波处理,以消除观测方位中包括的误差。
在一个实施例中,由于目标对象的运动具有位置和速度的连续性,也即目标对象下一时刻的位置和速度不会与上一时刻的位置和速度偏差较大;为了进一步提高步骤S302中确定的角速度的准确性,在根据观测方位确定角速度时,还可以根据上一时刻目标对象相对于移动机器人的位置和速度推算出当前时刻目标对象相对于移动机器人的预测方位;再将预测方位和观测方位进行融合滤波处理得到目标对象的角速度。对于具体的将预测方位和观测方位进行融合滤波处理的实施方式将在后面具体介绍。
步骤S303、根据所述角速度确定运动控制参数。
所述运动控制参数用于控制所述移动机器人的瞄准器向所述目标对象的方向进行运动,所述运动控制参数可以包括角速度。在一个实施例中,前述调用检测器确定目标对象的过程以及步骤S302中根据观测方位确定角速度的过程耗时较长,导致角速度前馈通路的整体时延较大,若直接将步骤S302中确定的角速度作为运动控制参数输出给执行器以控制移动机器人运动会引起振荡。为了避免此问题,本发明实施例在通过步骤S302得到目标对象的角度速之后,采用相关技术手段对步骤S302的角速度进行处理以达到加快响应的目的。所述相关技术手段可包括跟踪-微分处理,所述跟踪-微分处理是采用一个跟踪-微分器作为超前矫正叠加在角速度上,叠加后的角速度作为运动控制参数。
本发明实施例中在获取到当前时刻目标对象相对于移动机器人的观测方位时,根据观测方位确定目标对象的角速度;再根据所述目标对象的角速度确定出用于控制瞄准器向所述目标对象的方向进行运动的运动控制参数。在上述瞄准控制过程中,将目标对象的角速度作为瞄准控制的前馈信号,基于所述前馈信号确定出的运动控制参数可以准确地控制瞄准器沿着目标对象的方向进行运动,提高了瞄准控制的准确性。
请参考图4,为本发明实施例提供的另一种瞄准控制方法,所述瞄准控制方法可应用于图2所示的瞄准控制系统中,所述瞄准控制方法应用于移动机器人,所述移动机器人包括瞄准器,图4所述的瞄准控制方法可包括如下步骤:
步骤S401、获取当前时刻目标对象相对于所述移动机器人的观测方位。
在一个实施例中,所述步骤S401的实施方式可以为:根据所述摄像头采集到的目标图像,确定所述目标对象;根据所述目标图像和所述目标对象,确定当前时刻所述目标对象相对于所述移动机器人的观测方位。其中,所述当前时刻所述目标对象相对于所述移动机器人的观测方位可以是以直角坐标的形式表示的,也可以是以极坐标的形式表示的。示例性地,如果所述观测方位是以极坐标形式表示的,则所述根据所述目标图像和所述目标对象,确定当前目标对象相对于所述移动机器人的观测方位可包括如下步骤:(1)根据所述目标对象在所述目标图像中对应的高度和所述目标对象的实际高度,确定所述观测方位的极径;(2)根据所述像素的角度当量、所述目标对象的中心点的横坐标以及所述目标图像的横向分辨率,确定所述观测方位的极角。
在(1)中所述目标对象的实际高度可以是指目标对象的物理高度。由前述可知,本发明实施例中可以采用图像分割技术将摄像头采集到的目标图像分割出至少一个物体区域,然后提取各个物体区域的特征信息,进而根据各个物体区域的特征信息确定出目标对象。基于此,上述(1)中所述目标对象在所述目标图像中对应的高度可以指目标对象在目标图像中的高度;或者,假设目标对象是以矩形框形式表示的,所述目标对象在所述目标图像中对应的高度也可以指矩形框在所述目标图像中的高度。可选的,所述目标对象在所述目标图像中对应的高度可以指像素高度,示例性地,目标对象在目标图像中对应的高度可以为5像素。
作为一种可行的实施例方式,上述(1)中所述根据目标对象在所述目标图像中对应的高度和所述目标对象的实际高度确定所述观测方位的极径的具体方式可包括:将所述目标对象在所述目标图像中对应的高度和所述目标对象的实际高度代入极径确定公式进行运算,运算所得结果即为观测方位的极径。例如,极径确定公式可如下公式(2)所示:
其中,r表示观测方位的极径,H表示目标对象的实际高度,h表示目标对象在所述目标图像中对应的高度;k表示一个常数,其含义为:当极径为1时目标对象在所述目标图像中对应的高度。上述公式主要依据三角形近似相似原理,在已知k,h和H的情况下,可计算出当前时刻目标对象相对于移动机器人的极径。
上述(2)步骤中所述像素的角度当量用于表示像素与角度之间的换算关系,也即一个像素可以表示为多大角度;所述目标对象的中心点可以指目标对象的质心,或者指用于表示目标对象的矩形框的中心点;所述目标对象的中心点的横坐标可以是像素值也可以是物理坐标系中的数值,为了方便计算,本发明实施例中此处所述横坐标用像素值来表示;所述目标图像的横向分辨率是指所述目标图像在横坐标方向上包括多少个像素。具体地,所述步骤(2)确定所述观测方位的极角的实施方式可以为:将所述像素的角度当量、所述目标对象的中心点的横坐标以及所述目标图像的横向分辨率代入到极角确定公式中进行运算,将运算所得的结果确定为观测方位的极角。
例如,极角的计算公式可如下公式(3)所示:
其中,θ表示观测方位的极角,Nang表示像素的角度当量,u表示目标对象的中间点的横坐标,Hres表示目标图像的横向分辨率。
在其他实施例中,如果瞄准器还包括飞行时间(Time of Flight,TOF)传感器,所述步骤S401的实现方式还可以是:根据所述摄像头采集到的目标图像,确定所述目标对象;根据所述目标图像和所述目标对象,确定当前目标对象相对于所述移动机器人的第一观测方位;根据所述TOF传感器获得的深度图像和所述目标对象,确定当前时刻目标对象相对于所述移动机器人的第二观测方位;根据所述第一观测方位和所述第二观测方位,得到当前目标对象相对于所述移动机器人的观测方位。
所述TOF传感器的工作原理是;TOF传感器发出经调制的近红外光,遇物体后反射,TOF传感器通过计算发射近红外光和接收到反射的时间差或者相位差,来换算被拍摄对象的距离以产生深度图像。基于所述TOF传感器的工作原理,本发明实施例中所述根据TOF传感器获得的深度图像和所述目标对象,确定当前时刻目标对象相对于所述移动机器人的第二观测方位的实施方式可以为:将基于所述目标图像确定出来的目标对象或者用于表示目标对象的矩形框映射到深度图像中,由此在深度图像中便可确定出目标对象相对于移动机器人的第二观测方位。应当理解的,通过TOF传感器确定的目标对象相对于移动机器人的第二观测方位可以用直角坐标形式表示,也可以用极坐标形式表示,为了方便将第一观测方位和第二观测方位融合,第一观测方位和第二观测方位采用相同的表示形式。
通过上述方法确定出目标对象相对于移动机器人的第一观测方位和第二观测方位之后,可以根据第一观测方位和所述第二观测得到当前时刻目标对象相对于移动机器人的观测方位。在一个实施例中,所述根据第一观测方位和所述第二观测方位得到当前时刻目标对象相对于所述移动机器人的观测方位的实施方式可包括:对所述第一观测方位和所述第二观测方位进行加权平均运算,得到的运算结果作为当前时刻目标对象相对于所述移动机器人的观测方位。在其他实施例中,所述根据第一观测方位和所述第二观测方位得到当前时刻目标对象相对于所述移动机器人的观测方位的实施方式还可以包括:基于预设融合模型对所述第一观测方位和所述第二观测方位进行融合处理得到融合值;将所述融合值确定为当前时刻目标对象相对于所述移动机器人的观测方位。
步骤S402、根据所述观测方位,确定所述目标对象的角速度。
由前述可知,所述步骤S402的实施方式可以为:根据上一时刻所述目标对象相对于移动机器人的位置和速度,确定当前时刻所述目标对象相对于移动机器人的预测方位;对所述预测方位和所述观测方位进行融合滤波处理;根据所述融合滤波器处理的结果,确定所述目标对象的角速度。
应当理解的,由于目标对象的运动具有位置和速度连续性,上述根据上一时刻所述目标对象相对于移动机器人的位置和速度,确定当前时刻所述目标对象相对于移动机器人的预测方位的方式可以为:将上一时刻所述目标对象相对于移动机器人的位置沿着速度方向推演采样间隔时间得到当前时刻目标对象相对于移动机器人的预测方位。本发明实施例可以选择卡尔曼滤波对所述预测方位和所述观测方位进行融合滤波处理,下面描述中以卡尔曼滤波器为例介绍如何对预测方位和观测方位进行融合处理。
在采用卡尔曼滤波器对所述预测方位和所述观测方位进行融合处理时,为了将平面运动解耦,需要将所述预测方位和所述观测方位以直角坐标形式表示。如果前述确定的所述预测方位和所述观测方位是以极坐标形式表示的,此处需要先将极坐标形式转换为直角坐标形式,示例性地,假设目标对象的观测方位是以极坐标形式表示的如(r,θ),可以通过如下公式(4)将观测方位的极坐标转换为直角坐标形式:
其中,公式(4)中r表示观测方位在极坐标中的极径,θ表示观测方位在极坐标中的极角,Px表示观测方位在直角坐标中的横坐标,Py表示观测方位在直角坐标中的纵坐标。
变换为直角坐标后,对横坐标方向(表示为x)和纵坐标方向(表示为y)分别进行卡尔曼滤波。应当理解的,将观测方位变换为直角坐标,横坐标的值表示横坐标方向x上目标对象相对于移动机器人的相对位置(表示为x1),对横坐标方向x上的相对位置进行差分处理便可得到横坐标方向上目标对象相对于移动机器人的相对速度(表示为x2);同理的,观测方位的纵坐标的值表示纵坐标方向y上目标对象相对于移动机器人的相对位置(表示为y1),对纵坐标方向上的相对位置进行差分处理得到纵坐标方向y上目标对象相对于移动机器人的相对速度(表示为y2)。基于上述可知,x方向上包括的状态变量为x=(x1,x2)T,y方向上包括的状态变量为y=(y1,y2)T,所述对横坐标方向和纵坐标方向分别进行卡尔曼滤波实质上是指:对横坐标方向上包括的各个状态变量进行滤波和对纵坐标方向上包括的各个状态变量进行滤波。
卡尔曼滤波器定义的状态空间模型可以表示为如下公式(5)和公式(6)所示:
x1(k+1)=x1(k)+dTx2(k)+W(k) (5)
x2(k+1)=x2(k)+V(k) (6)
其中,k表示k时刻,k+1表示k+1时刻,x1(k+1)表示状态变量x1在k+1时刻的状态,x2(k+1)表示状态变量x2在k+1时刻的状态,x1(k)和x2(k)分别表示状态变量x1和状态变量x2在k时刻的状态,W和V分别表示预测噪声和观测噪声,所述预测噪声可以看做预测方位和真实方位之间的偏差,以及所述观测噪声可以看做观测方位和真实方位之间的偏差。
下面以对横坐标方向进行卡尔曼滤波为例,具体介绍对预测方位和观测方位进行融合滤波的步骤。在下面的描述中x表示预测方位在横坐标方向的状态变量,z表示状态变量x的观测值。对于状态变量x,进行卡尔曼滤波,k时刻到k+1时刻的迭代过程可以表示为如下公式(7)-(11):
xk+1|k=Axk|k (7)
Pk+1|k=APk|kAT+Q (8)
Kk+1|k=Pk+1|k(Pk+1|k+R)-1 (9)
xk+1|k+1=xk+1|k+Kk+1|k(zk+1-xk+1|k) (10)
Pk+1|k+1=(1-Kk+1|k)Pk+1|k (11)
在上述公式中,A表示状态转移矩阵,公式(7)表示通过k时刻的x预测k+1时刻的x;Pk+1|k为xk+1|k对应的协方差,Pk|k表示xk|k对应的协方差,AT表示A的转置,Q为预测噪声的协方差矩阵,公式(8)表示通过k时刻的x预测k+1时刻的x的预测协方差;Kk+1|k表示卡尔曼增益,R表示观测噪声,公式(9)通过k+1时刻的协方差和k时刻的协方差以及观测噪声确定k+1时刻的卡尔曼增益;zk+1表示状态变量x在k+1时刻的观测值,xk+1|k+1表示将k+1时刻状态变量x的预测值与观测值进行融合得到的状态变量x在k+1时刻的最优估计值;Pk+1|k+1表为xk+1|k+1对应的协方差,以为下次递推做准备。
可见,通过上述过程可以得到横坐标方向上的状态变量x的最优值xk+1|k+1,采用上述相同的过程对纵坐标方向上的状态变量y的最优值yk+1|k+1,上述xk+1|k+1和yk+1|k+1即为滤波处理的融合滤波结果。进而根据融合滤波结果便可确定目标对象的角速度。
在一个实施例中,所述根据融合滤波处理的结果,确定目标对象的角速度,可包括:根据所述融合滤波处理的结果,确定所述目标对象相对于所述移动机器人的角度偏差;将所述角度偏差进行差分处理,得到所述目标对象的角速度。在一个实施例中,可以将得到的两个横坐标方向的分量和纵坐标方向的分量,变换为极坐标,根据极坐标得到角度偏差,再对角度偏差进行差分处理,便可得到目标对象的角速度。
步骤S403、根据所述角速度确定运动控制参数。
由前述可知,为了达到加快响应的目的,本发明实施例可采用跟踪-微分器作为超前矫正叠加在通过步骤S402确定出的角速度上,可以将经过跟踪-微分处理后的角速度作为运动控制参数。
具体地,所述步骤S403可包括:对所述角速度进行跟踪-微分处理,得到微分输出和跟随输出;根据所述微分输出和所述跟随输出,确定所述运动控制参数。所述根据所述微分输出和所述跟随输出确定所述运动控制参数可包括:确定所述跟踪-微分处理的微分增益和跟随增益;将所述微分输出与所述微分增益相乘的结果,和所述跟随输出与所述跟随增益相乘的结果相加,得到所述运动控制参数。
可选的,采用线性跟踪-微分器对角度速进行跟踪-微分处理,跟踪-微分处理器具有如公式(12)的传递函数:
该环节为一个二阶惯性环节,r为已知参数,s为传递函数的变量。通过选取适当状态变量,假设为x=(x1,x2)T将传递函数转化至状态空间,可以得到带有一阶滤波和一阶微分的跟踪-微分器,如公式(13)和(14)所示:
x1(k+1)=x1(k)+dTx2(k) (13)
x2(k+1)=x2(k)+dTfst(u,x,k) (14)
其中,u为待跟踪/微分的信号,即为卡尔曼滤波输出的目标对象的角速度,x1表示原信号的跟随信号,x2表示原信号的微分信号,fst(u,x,k)为跟随函数,是根据公式(12)确定的,fst(u,x,k)可以表示为如下公式(15):
将根据上述得到的微分信号x2乘以微分增益k2,跟随信号x1乘以跟随增益k1,然后将两个相乘的结果相加,即得到经跟踪-微分处理后的目标对象的角速度,将所述角速度作为通过步骤S403确定的运动控制参数。
步骤S404、根据所述观测方位和所述移动机器人的当前方位确定运动控制误差。
由前述可知,本发明实施例中引入角速度前馈与控制器结合进行瞄准控制,所述控制器进行瞄准控制时是根据运动控制误差和控制器对应的控制律确定控制器的控制反馈结果的。所述运动控制误差是指移动机器人的当前方位和期望方位之间的差值。运动控制误差的获取方式为:根据当前时刻目标对象相对于移动机器人的观测方位确定移动机器人的期望方位;获取移动机器人的当前方位,将所述当前方位与所述期望方位之间的差值确定为运动控制误差。
步骤S405、根据所述运动控制误差和所述运动控制参数,控制所述瞄准器向所述目标对象的方向进行运动。
所述根据运动控制误差和所述运动控制参数,控制所述瞄准器向所述目标对象的方位进行运动的实施方式可以为:根据控制器的预设控制律对运动控制误差进行处理,得到控制反馈结果;根据控制反馈结果和运动控制参数控制瞄准器向所述目标对象的方位进行运动。所述控制器可以为PID控制器,所述PID控制器的预设控制律可如公式(1)所示。
在一个实施例中,所述移动机器人的瞄准器可以配置在云台上,所述控制所述瞄准器向所述目标对象的方向进行运动,可包括:通过所述云台控制所述瞄准器向所述目标对象的方向进行运动。
在其他实施例中,上述控制所述瞄准器向所述目标对象的方向进行运动,可包括:通过控制所述移动机器人的移动,带动所述瞄准器向所述目标对象的方向移动。也就是说,在瞄准的过程中,可以是云台转动来带动瞄准器向目标对象的方向运动,而移动机器人不动;或者,可以是云台不动,通过控制移动机器人运动来带动瞄准器向所述目标对象的方向运动;再或者,可以移动机器人和云台同时运动来控制瞄准器向目标对象的方向移动。示例性地,当目标对象和移动机器人的距离超过距离阈值时,控制移动机器人向目标对象的方向移动,同时控制瞄准器瞄准目标对象。
基于步骤S401-S405的描述,本发明实施例提供一种瞄准控制模块如图5所示,在图5中可包括两部分,第一部分为确定角速度前馈通路输出的运动控制参数,第二部分为确定控制器输出的控制反馈结果。假设目标对象相对于移动机器人的观测方位以极坐标形式表示,针对第一部分:将极坐标转换为直角坐标;然后对直角坐标的横坐标方向和纵坐标方向分别进行卡尔曼滤波得到目标对象的角度速;再通过跟踪-微分器对角速度进行跟踪-微分处理,得到跟踪输出和微分输出;分别将跟踪输出和微分输出与跟踪增益和微分增益相乘,得到相乘的结果后相加,得到角速度前馈通路输出的运动控制参数;针对第二部分:根据移动机器人的当前方位和期望方位确定运动控制误差;然后将运动控制误差输入到控制器对应的预设控制律中,便可得到控制器的控制反馈结果。
本发明实施例中在获取到当前时刻目标对象相对于移动机器人的观测方位时,根据观测方位确定目标对象的角速度,再根据所述目标对象的角速度确定出运动控制参数,再根据观测方位和移动机器人的当前方位确定出运动控制误差,最后运动控制误差和运动控制参数同时作为控制信号来控制瞄准器向目标对象的方向运动。在上述瞄准控制过程中,将目标对象的角速度作为瞄准控制的前馈信号,运动控制误差作为反馈信号,将前馈信号和反馈信号同时用于瞄准控制提高了瞄准控制的准确性。
基于上述图3和图4描述的方法实施例,本发明实施例提供了一种移动机器人的结构示意图如图6所示。如图6所述的移动机器人可包括:存储器601处理器602和瞄准器603,其中存储器601、处理器602和瞄准器603通过总线604连接,存储器601中存储有序代码,处理器602调用存储器601中的程序代码。
所述存储器601可以包括易失性存储器(volatile memory),如随机存取存储器(random-access memory,RAM);存储器601也可以包括非易失性存储器(non-volatilememory),如快闪存储器(flash memory),固态硬盘(solid-state drive,SSD)等;存储器6011还可以包括上述种类的存储器的组合。
所述处理器602可以是中央处理器(Central Processing Unit,CPU)。所述处理器602还可以进一步包括硬件芯片。上述硬件芯片可以是专用集成电路(application-specific integrated circuit,ASIC),可编程逻辑器件(programmable logic device,PLD)等。该PLD可以是现场可编程逻辑门阵列(field-programmable gate array,FPGA),通用阵列逻辑(generic array logic,GAL)等。所述处理器602也可以为上述结构的组合。
本发明实施例中,所述存储器601用于存储计算机程序,所述计算机程序包括程序指令,处理器602用于执行存储器601存储的程序指令,用来实现上述图2和图4所示的实施例中的相应方法的步骤。
在一个实施例中,所述处理器602被配置调用所述程序指令时执行:获取当前时刻目标对象相对于所述移动机器人的观测方位;根据所述观测方位,确定所述目标对象的角速度;根据所述角速度确定运动控制参数,所述运动控制参数用于控制所述瞄准器向所述目标对象的方向进行运动。
在一个实施例中,所述瞄准器包括摄像头,所述处理器602在获取当前时刻目标对象相对于所述移动机器人的观测方位时,执行如下操作:根据所述摄像头采集到的目标图像,确定所述目标对象;根据所述目标图像和所述目标对象,确定当前时刻目标对象相对于所述移动机器人的观测方位。
在一个实施例中,所述观测方位以极坐标形式表示,所述根据所述目标图像和所述目标对象。所述处理器602在获取当前时刻目标对象相对于所述移动机器人的观测方位时,执行如下操作:根据所述目标对象在所述目标图像中对应的高度和所述目标对象的实际高度,确定所述观测方位的极径;根据像素的角度当量、所述目标对象的中心点的横坐标以及所述目标图像的横向分辨率,确定所述观测方位的极角。
在一个实施例中,所述瞄准器包括摄像头和飞行时间TOF传感器,所述处理器602在获取当前时刻目标对象相对于所述移动机器人的观测方位时,执行如下操作:根据所述摄像头采集到的目标图像,确定所述目标对象;根据所述目标图像和所述目标对象,确定当前时刻目标对象相对于所述移动机器人的第一观测方位;根据所述TOF传感器获得的深度图像和所述目标对象,确定当前时刻目标对象相对于所述移动机器人的第二观测方位;根据所述第一观测方位和所述第二观测方位,得到当前时刻目标对象相对于所述移动机器人的观测方位。
在一个实施例中,所述处理器602在根据所述观测方位,确定所述目标对象的角速度时,执行如下操作:根据上一时刻所述目标对象相对于所述移动机器人的位置和速度,确定当前时刻所述目标对象相对于所述移动机器人的预测方位;对所述预测方位和所述观测方位进行融合滤波处理;根据所述融合滤波处理的结果,确定所述目标对象的角速度。
在一个实施例中,融合滤波处理包括卡尔曼滤波处理。
在一个实施例中,所述处理器602在根据所述融合滤波处理的结果,确定所述目标对象的角速度时,执行如下操作:根据所述融合滤波处理的结果,确定所述目标对象相对于所述移动机器人的角度偏差;将所述角度偏差进行差分处理,得到所述目标对象的角速度。
在一个实施例中,所述处理器602在根据所述角速度确定运动控制参数时,执行如下操作:对所述角速度进行跟踪-微分处理,得到微分输出和跟随输出;根据所述微分输出和所述跟随输出,确定所述运动控制参数。
在一个实施例中,所述处理器602在根据所述微分输出和所述跟随输出,确定所述运动控制参数时,执行如下操作:确定所述跟踪-微分处理的微分增益和跟随增益;将所述微分输出与所述微分增益相乘的结果,和所述跟随输出与所述跟随增益相乘的结果相加,得到所述运动控制参数。
在一个实施例中,所述处理器602被配置调用所述程序指令时还执行:根据所述观测方位和所述移动机器人的当前方位确定运动控制误差;根据所述运动控制误差和所述运动控制参数,控制所述瞄准器向所述目标对象的方向进行运动。
在一个实施例中,所述瞄准器包括云台,所述处理器602在控制所述瞄准器向所述目标对象的方向进行运动时,执行如下操作:通过所述云台控制所述瞄准器向所述目标对象的方向进行运动。
在一个实施例中,所述处理器602在控制所述瞄准器向所述目标对象的方向进行运动时,执行如下操作:通过控制所述移动机器人的移动,带动所述瞄准器向所述目标对象的方向运动。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所揭露的仅为本发明部分实施例而已,当然不能以此来限定本发明之权利范围,因此依本发明权利要求所作的等同变化,仍属本发明所涵盖的范围。
Claims (25)
1.一种瞄准控制方法,其特征在于,所述方法应用于移动机器人,所述移动机器人包括瞄准器,所述方法包括:
获取当前时刻目标对象相对于所述移动机器人的观测方位;
根据所述观测方位,确定所述目标对象的角速度;
根据所述角速度确定运动控制参数,所述运动控制参数用于控制所述瞄准器向所述目标对象的方向进行运动。
2.如权利要求1所述的方法,其特征在于,所述瞄准器包括摄像头,所述获取当前时刻目标对象相对于所述移动机器人的观测方位,包括:
根据所述摄像头采集到的目标图像,确定所述目标对象;
根据所述目标图像和所述目标对象,确定当前时刻目标对象相对于所述移动机器人的观测方位。
3.如权利要求2所述的方法,其特征在于,所述观测方位以极坐标形式表示,所述根据所述目标图像和所述目标对象,获取当前时刻目标对象相对于所述移动机器人的观测方位,包括:
根据所述目标对象在所述目标图像中对应的高度和所述目标对象的实际高度,确定所述观测方位的极径;
根据像素的角度当量、所述目标对象的中心点的横坐标以及所述目标图像的横向分辨率,确定所述观测方位的极角。
4.如权利要求1所述的方法,其特征在于,所述瞄准器包括摄像头和TOF传感器,所述获取当前时刻目标对象相对于所述移动机器人的观测方位,包括:
根据所述摄像头采集到的目标图像,确定所述目标对象;
根据所述目标图像和所述目标对象,确定当前时刻目标对象相对于所述移动机器人的第一观测方位;
根据所述TOF传感器获得的深度图像和所述目标对象,确定当前时刻目标对象相对于所述移动机器人的第二观测方位;
根据所述第一观测方位和所述第二观测方位,得到当前时刻目标对象相对于所述移动机器人的观测方位。
5.如权利要求1所述的方法,其特征在于,所述根据所述观测方位,确定所述目标对象的角速度,包括:
根据上一时刻所述目标对象相对于所述移动机器人的位置和速度,确定当前时刻所述目标对象相对于所述移动机器人的预测方位;
对所述预测方位和所述观测方位进行融合滤波处理;
根据所述融合滤波处理的结果,确定所述目标对象的角速度。
6.如权利要求5所述的方法,其特征在于,所述融合滤波处理包括卡尔曼滤波处理。
7.如权利要求5述的方法,其特征在于,所述根据所述融合滤波处理的结果,确定所述目标对象的角速度,包括:
根据所述融合滤波处理的结果,确定所述目标对象相对于所述移动机器人的角度偏差;
将所述角度偏差进行差分处理,得到所述目标对象的角速度。
8.如权利要求1所述的方法,其特征在于,所述根据所述角速度确定运动控制参数,包括:
对所述角速度进行跟踪-微分处理,得到微分输出和跟随输出;
根据所述微分输出和所述跟随输出,确定所述运动控制参数。
9.如权利要求8所述的方法,其特征在于,所述根据所述微分输出和所述跟随输出,确定所述运动控制参数,包括:
确定所述跟踪-微分处理的微分增益和跟随增益;
将所述微分输出与所述微分增益相乘的结果,和所述跟随输出与所述跟随增益相乘的结果相加,得到所述运动控制参数。
10.如权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述观测方位和所述移动机器人的当前方位确定运动控制误差;
根据所述运动控制误差和所述运动控制参数,控制所述瞄准器向所述目标对象的方向进行运动。
11.如权利要求1所述的方法,其特征在于,所述瞄准器包括云台,所述控制所述瞄准器向所述目标对象的方向进行运动,包括:
通过所述云台控制所述瞄准器向所述目标对象的方向进行运动。
12.如权利要求1或11所述的方法,其特征在于,所述控制所述瞄准器向所述目标对象的方向进行运动,包括:
通过控制所述移动机器人的移动,带动所述瞄准器向所述目标对象的方向运动。
13.一种移动机器人,其特征在于,所述移动机器人包括瞄准器,所述移动机器人包括存储器和处理器:
所述存储器,用于存储程序代码;
所述处理器,调用所述程序代码,当所述程序代码被执行时,用于执行如下操作:
获取当前时刻目标对象相对于所述移动机器人的观测方位;
根据所述观测方位,确定所述目标对象的角速度;
根据所述角速度确定运动控制参数,所述运动控制参数用于控制所述瞄准器向所述目标对象的方向进行运动。
14.如权利要求13所述的移动机器人,其特征在于,所述瞄准器包括摄像头,所述处理器在获取当前时刻目标对象相对于所述移动机器人的观测方位时,执行如下操作:
根据所述摄像头采集到的目标图像,确定所述目标对象;
根据所述目标图像和所述目标对象,确定当前时刻目标对象相对于所述移动机器人的观测方位。
15.如权利要求14所述的移动机器人,其特征在于,所述观测方位以极坐标形式表示,所述处理器在根据所述目标图像和所述目标对象,获取当前时刻目标对象相对于所述移动机器人的观测方位时,执行如下操作:
根据所述目标对象在所述目标图像中对应的高度和所述目标对象的实际高度,确定所述观测方位的极径;
根据像素的角度当量、所述目标对象的中心点的横坐标以及所述目标图像的横向分辨率,确定所述观测方位的极角。
16.如权利要求13所述的移动机器人,其特征在于,所述瞄准器包括摄像头和TOF传感器,所述处理器在获取当前时刻目标对象相对于所述移动机器人的观测方位时,执行如下操作:
根据所述摄像头采集到的目标图像,确定所述目标对象;
根据所述目标图像和所述目标对象,确定当前时刻目标对象相对于所述移动机器人的第一观测方位;
根据所述TOF传感器获得的深度图像和所述目标对象,确定当前时刻目标对象相对于所述移动机器人的第二观测方位;
根据所述第一观测方位和所述第二观测方位,得到当前时刻目标对象相对于所述移动机器人的观测方位。
17.如权利要求13所述的移动机器人,其特征在于,所述处理器在根据所述观测方位,确定所述目标对象的角速度时,执行如下操作:
根据上一时刻所述目标对象相对于所述移动机器人的位置和速度,确定当前时刻所述目标对象相对于所述移动机器人的预测方位;
对所述预测方位和所述观测方位进行融合滤波处理;
根据所述融合滤波处理的结果,确定所述目标对象的角速度。
18.如权利要求17所述的移动机器人,其特征在于,所述融合滤波处理包括卡尔曼滤波处理。
19.如权利要求17所述的移动机器人,其特征在于,所述处理器在根据所述融合滤波处理的结果,确定所述目标对象的角速度时,执行如下操作:
根据所述融合滤波处理的结果,确定所述目标对象相对于所述移动机器人的角度偏差;
将所述角度偏差进行差分处理,得到所述目标对象的角速度。
20.如权利要求13所述的移动机器人,其特征在于,所述处理器在根据所述角速度确定运动控制参数时,执行如下操作:
对所述角速度进行跟踪-微分处理,得到微分输出和跟随输出;
根据所述微分输出和所述跟随输出,确定所述运动控制参数。
21.如权利要求20所述的移动机器人,其特征在于,所述处理器在根据所述微分输出和所述跟随输出,确定所述运动控制参数时,执行如下操作:
确定所述跟踪-微分处理的微分增益和跟随增益;
将所述微分输出与所述微分增益相乘的结果,和所述跟随输出与所述跟随增益相乘的结果相加,得到所述运动控制参数。
22.如权利要求13所述的移动机器人,其特征在于,所述处理器,调用所述程序代码,当所述程序代码被执行时,还用于执行如下操作:
获取所述观测方位和所述移动机器人的当前方位之间的运动控制误差;
根据所述运动控制误差和所述运动控制参数,控制所述瞄准器向所述目标对象的方向进行运动。
23.如权利要求13所述的移动机器人,其特征在于,所述瞄准器包括云台,所述处理器在控制所述瞄准器向所述目标对象的方向进行运动时,执行如下操作:
通过所述云台控制所述瞄准器向所述目标对象的方向进行运动。
24.如权利要求13或23所述的移动机器人,其特征在于,所述处理器在控制所述瞄准器向所述目标对象的方向进行运动时,执行如下操作:
通过控制所述移动机器人的移动,带动所述瞄准器向所述目标对象的方向运动。
25.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括的程序指令,所述程序指令当被处理器执行时使所述处理器执行如权利要求1-12任一项所述的瞄准控制方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2019/085245 WO2020220284A1 (zh) | 2019-04-30 | 2019-04-30 | 一种瞄准控制方法、移动机器人及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110876275A true CN110876275A (zh) | 2020-03-10 |
Family
ID=69717609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980002956.6A Pending CN110876275A (zh) | 2019-04-30 | 2019-04-30 | 一种瞄准控制方法、移动机器人及计算机可读存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110876275A (zh) |
WO (1) | WO2020220284A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113110025A (zh) * | 2021-04-08 | 2021-07-13 | 深兰科技(上海)有限公司 | 机器人的行进控制方法、系统、电子设备及存储介质 |
CN113608233A (zh) * | 2021-06-30 | 2021-11-05 | 湖南宏动光电有限公司 | 一种基于坐标变换的虚拟瞄具实现方法及系统 |
CN114035186A (zh) * | 2021-10-18 | 2022-02-11 | 北京航天华腾科技有限公司 | 一种目标方位跟踪指示系统及方法 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114820721B (zh) * | 2022-05-17 | 2024-03-26 | 苏州轻棹科技有限公司 | 一种卡尔曼滤波观测噪声的可视化调制方法和装置 |
CN116468797B (zh) * | 2023-03-09 | 2023-11-24 | 北京航天众信科技有限公司 | 一种挂轨式机器人瞄准方法、装置及计算机设备 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103425146A (zh) * | 2013-08-01 | 2013-12-04 | 北京航空航天大学 | 一种基于角加速度的惯性稳定平台干扰观测器设计方法 |
CN104267743A (zh) * | 2014-07-22 | 2015-01-07 | 浙江工业大学 | 一种采用自抗扰控制技术的船载摄像稳定平台控制方法 |
CN104764451A (zh) * | 2015-04-23 | 2015-07-08 | 北京理工大学 | 一种基于惯性和地磁传感器的目标姿态跟踪方法 |
CN106647257A (zh) * | 2016-10-14 | 2017-05-10 | 中国科学院光电技术研究所 | 一种基于正交最小二乘的前馈控制方法 |
CN106780542A (zh) * | 2016-12-29 | 2017-05-31 | 北京理工大学 | 一种基于嵌入卡尔曼滤波器的Camshift的机器鱼跟踪方法 |
CN106873628A (zh) * | 2017-04-12 | 2017-06-20 | 北京理工大学 | 一种多无人机跟踪多机动目标的协同路径规划方法 |
CN107209854A (zh) * | 2015-09-15 | 2017-09-26 | 深圳市大疆创新科技有限公司 | 用于支持顺畅的目标跟随的系统和方法 |
CN107993257A (zh) * | 2017-12-28 | 2018-05-04 | 中国科学院西安光学精密机械研究所 | 一种智能imm卡尔曼滤波前馈补偿目标追踪方法及系统 |
CN108107738A (zh) * | 2018-02-08 | 2018-06-01 | 上海机电工程研究所 | 变采样率非线性驱动惯性稳定跟踪控制系统及方法 |
CN109003292A (zh) * | 2018-06-25 | 2018-12-14 | 华南理工大学 | 一种基于开关卡尔曼滤波器的运动目标跟踪方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101208448B1 (ko) * | 2010-12-22 | 2012-12-05 | 국방과학연구소 | 3차원 영상 보조 항법 장치 및 이를 이용한 관성 항법 시스템 |
WO2016074169A1 (zh) * | 2014-11-12 | 2016-05-19 | 深圳市大疆创新科技有限公司 | 一种对目标物体的检测方法、检测装置以及机器人 |
US10111620B2 (en) * | 2015-02-27 | 2018-10-30 | Microsoft Technology Licensing, Llc | Enhanced motion tracking using transportable inertial sensors to determine that a frame of reference is established |
CN107014378A (zh) * | 2017-05-22 | 2017-08-04 | 中国科学技术大学 | 一种视线跟踪瞄准操控系统及方法 |
WO2018214155A1 (zh) * | 2017-05-26 | 2018-11-29 | 深圳市大疆创新科技有限公司 | 用于设备姿态调整的方法、设备、系统和计算机可读存储介质 |
CN207456288U (zh) * | 2017-11-30 | 2018-06-05 | 深圳市大疆创新科技有限公司 | 一种激光瞄准调节装置 |
CN108051001B (zh) * | 2017-11-30 | 2020-09-04 | 北京工商大学 | 一种机器人移动控制方法、系统及惯性传感控制装置 |
-
2019
- 2019-04-30 CN CN201980002956.6A patent/CN110876275A/zh active Pending
- 2019-04-30 WO PCT/CN2019/085245 patent/WO2020220284A1/zh active Application Filing
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103425146A (zh) * | 2013-08-01 | 2013-12-04 | 北京航空航天大学 | 一种基于角加速度的惯性稳定平台干扰观测器设计方法 |
CN104267743A (zh) * | 2014-07-22 | 2015-01-07 | 浙江工业大学 | 一种采用自抗扰控制技术的船载摄像稳定平台控制方法 |
CN104764451A (zh) * | 2015-04-23 | 2015-07-08 | 北京理工大学 | 一种基于惯性和地磁传感器的目标姿态跟踪方法 |
CN107209854A (zh) * | 2015-09-15 | 2017-09-26 | 深圳市大疆创新科技有限公司 | 用于支持顺畅的目标跟随的系统和方法 |
CN106647257A (zh) * | 2016-10-14 | 2017-05-10 | 中国科学院光电技术研究所 | 一种基于正交最小二乘的前馈控制方法 |
CN106780542A (zh) * | 2016-12-29 | 2017-05-31 | 北京理工大学 | 一种基于嵌入卡尔曼滤波器的Camshift的机器鱼跟踪方法 |
CN106873628A (zh) * | 2017-04-12 | 2017-06-20 | 北京理工大学 | 一种多无人机跟踪多机动目标的协同路径规划方法 |
CN107993257A (zh) * | 2017-12-28 | 2018-05-04 | 中国科学院西安光学精密机械研究所 | 一种智能imm卡尔曼滤波前馈补偿目标追踪方法及系统 |
CN108107738A (zh) * | 2018-02-08 | 2018-06-01 | 上海机电工程研究所 | 变采样率非线性驱动惯性稳定跟踪控制系统及方法 |
CN109003292A (zh) * | 2018-06-25 | 2018-12-14 | 华南理工大学 | 一种基于开关卡尔曼滤波器的运动目标跟踪方法 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113110025A (zh) * | 2021-04-08 | 2021-07-13 | 深兰科技(上海)有限公司 | 机器人的行进控制方法、系统、电子设备及存储介质 |
CN113608233A (zh) * | 2021-06-30 | 2021-11-05 | 湖南宏动光电有限公司 | 一种基于坐标变换的虚拟瞄具实现方法及系统 |
CN113608233B (zh) * | 2021-06-30 | 2024-05-31 | 湖南宏动光电有限公司 | 一种基于坐标变换的虚拟瞄具实现方法及系统 |
CN114035186A (zh) * | 2021-10-18 | 2022-02-11 | 北京航天华腾科技有限公司 | 一种目标方位跟踪指示系统及方法 |
CN114035186B (zh) * | 2021-10-18 | 2022-06-28 | 北京航天华腾科技有限公司 | 一种目标方位跟踪指示系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020220284A1 (zh) | 2020-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110876275A (zh) | 一种瞄准控制方法、移动机器人及计算机可读存储介质 | |
US10928838B2 (en) | Method and device of determining position of target, tracking device and tracking system | |
CN107977987B (zh) | 一种无人机载多目标探测跟踪、指示系统及方法 | |
CN110222581B (zh) | 一种基于双目相机的四旋翼无人机视觉目标跟踪方法 | |
CN106647257B (zh) | 一种基于正交最小二乘的前馈控制方法 | |
CN109872372B (zh) | 一种小型四足机器人全局视觉定位方法和系统 | |
US11073389B2 (en) | Hover control | |
US20160346932A1 (en) | Automatic Calibration Method For Robot Systems Using a Vision Sensor | |
US8471915B2 (en) | Self-correcting adaptive long-stare electro-optical system | |
US9924104B2 (en) | Background-differential extraction device and background-differential extraction method | |
CN110109343B (zh) | 一种光电跟踪系统视觉测量时滞补偿方法 | |
CN108919841A (zh) | 一种光电跟踪系统的复合轴控制方法及系统 | |
US10397485B2 (en) | Monitoring camera direction control | |
CN110913129B (zh) | 基于bp神经网络的聚焦方法、装置、终端及存储装置 | |
CN109782810B (zh) | 基于图像引导的视频卫星运动目标跟踪成像方法及其装置 | |
CN108733066B (zh) | 一种基于吊舱姿态反馈的目标跟踪控制方法 | |
CN108156371B (zh) | 一种红外自动对焦快速搜索方法 | |
CN104950726B (zh) | 遥控行驶装置用的延时校正方法及其装置 | |
Suluh et al. | Spatial navigation principles: Applications to mobile robotics | |
CN110889353A (zh) | 基于主焦点大视场光电望远镜的空间目标识别方法 | |
CN116860011A (zh) | 一种实现光电搜索跟踪系统高精度记忆跟踪的方法 | |
CN112346485B (zh) | 一种光电跟踪控制方法、系统、电子设备及存储介质 | |
CN110007298A (zh) | 一种目标超前预测跟踪方法 | |
WO2020172878A1 (zh) | 可移动平台的射击瞄准控制方法、设备及可读存储介质 | |
RU2325671C1 (ru) | Следящая локационно-оптическая система сопровождения подвижных объектов |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200310 |
|
WD01 | Invention patent application deemed withdrawn after publication |