CN117648001B - 基于云台机的追踪校正方法及系统 - Google Patents
基于云台机的追踪校正方法及系统 Download PDFInfo
- Publication number
- CN117648001B CN117648001B CN202410119023.8A CN202410119023A CN117648001B CN 117648001 B CN117648001 B CN 117648001B CN 202410119023 A CN202410119023 A CN 202410119023A CN 117648001 B CN117648001 B CN 117648001B
- Authority
- CN
- China
- Prior art keywords
- motion state
- motion
- camera
- track
- moment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012937 correction Methods 0.000 title claims abstract description 51
- 238000000034 method Methods 0.000 title claims abstract description 49
- 239000002245 particle Substances 0.000 claims description 153
- 238000012549 training Methods 0.000 claims description 11
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 6
- 125000004122 cyclic group Chemical group 0.000 claims description 5
- 238000012512 characterization method Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000005457 optimization Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D3/00—Control of position or direction
- G05D3/12—Control of position or direction using feedback
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了基于云台机的追踪校正方法及系统,涉及轨迹追踪技术领域,包括:获取相机运动状态信息和相机预设运动轨迹,相机预设运动轨迹具有预设轨迹第M时刻点,输入运动轨迹预测模型,获取M个连续时刻预测点,构建运动预测轨迹,运动预测轨迹具有预测轨迹第M时刻点,连接生成特征封闭区域,当偏离面积参数大于偏离面积阈值,或/和偏离极大距离大于偏离距离阈值,进行寻优获取运动状态寻优结果,对相机进行追踪校正。本发明解决了传统的轨迹追踪方法往往只依赖预设的运动轨迹,无法自适应地进行位置校正,并且使用固定的相机运动状态,难以适应不同场景的需求,使得存在追踪的准确性和稳定性较低的技术问题。
Description
技术领域
本发明涉及轨迹追踪技术领域,具体涉及基于云台机的追踪校正方法及系统。
背景技术
轨迹追踪是指通过利用传感器、相机或其他设备获取目标的运动轨迹信息,并进行准确地跟踪和分析,它源自对人工智能和机器视觉技术的不断推进,以及对物体和行为识别的需求增加,随着计算能力的提升和算法的改进,轨迹追踪在许多领域得到广泛应用,如视频监控、自动驾驶、虚拟现实等,它可用于预测行为、识别异常、优化资源分配等目的,为人们提供更安全、智能和高效的服务和体验。随着移动机器人、自动驾驶和无人机等技术的快速发展,轨迹追踪变得越来越重要。
而现今常用的轨迹追踪方法还存在着一定的弊端,传统的轨迹追踪方法往往只依赖预设的运动轨迹,无法自适应地进行位置校正,并且使用固定的相机运动状态,难以适应不同场景的需求,使得追踪的准确性和稳定性较低。因此,对于轨迹追踪还存在着一定的可提升空间。
发明内容
本申请通过提供了基于云台机的追踪校正方法及系统,旨在解决传统的轨迹追踪方法往往只依赖预设的运动轨迹,无法自适应地进行位置校正,并且使用固定的相机运动状态,难以适应不同场景的需求,使得存在追踪的准确性和稳定性较低的技术问题。
鉴于上述问题,本申请提供了基于云台机的追踪校正方法及系统。
本申请公开的第一个方面,提供了基于云台机的追踪校正方法,应用于云台机,所述方法包括:获取相机运动状态信息和相机预设运动轨迹,其中,所述相机预设运动轨迹具有预设轨迹第M时刻点;将所述相机运动状态信息输入运动轨迹预测模型,获取M个连续时刻预测点;依次连接所述M个连续时刻预测点,构建运动预测轨迹,其中,所述运动预测轨迹具有预测轨迹第M时刻点;将所述预测轨迹第M时刻点和所述预设轨迹第M时刻点连接,生成特征封闭区域,其中,所述特征封闭区域具有偏离面积参数和偏离极大距离;当所述偏离面积参数大于偏离面积阈值,或/和偏离极大距离大于偏离距离阈值,基于所述运动轨迹预测模型对所述相机运动状态信息进行寻优,获取运动状态寻优结果;根据所述运动状态寻优结果对相机进行追踪校正。
本申请公开的另一个方面,提供了基于云台机的追踪校正系统,所述系统用于上述方法,应用于云台机,所述系统包括:运动轨迹获取模块,所述运动轨迹获取模块用于获取相机运动状态信息和相机预设运动轨迹,其中,所述相机预设运动轨迹具有预设轨迹第M时刻点;预测点获取模块,所述预测点获取模块用于将所述相机运动状态信息输入运动轨迹预测模型,获取M个连续时刻预测点;预测轨迹构建模块,所述预测轨迹构建模块用于依次连接所述M个连续时刻预测点,构建运动预测轨迹,其中,所述运动预测轨迹具有预测轨迹第M时刻点;封闭区域生成模块,所述封闭区域生成模块用于将所述预测轨迹第M时刻点和所述预设轨迹第M时刻点连接,生成特征封闭区域,其中,所述特征封闭区域具有偏离面积参数和偏离极大距离;寻优模块,所述寻优模块用于当所述偏离面积参数大于偏离面积阈值,或/和偏离极大距离大于偏离距离阈值,基于所述运动轨迹预测模型对所述相机运动状态信息进行寻优,获取运动状态寻优结果;追踪校正模块,所述追踪校正模块用于根据所述运动状态寻优结果对相机进行追踪校正。
本申请中提供的一个或多个技术方案,至少具有如下技术效果或优点:
获取相机运动状态信息和相机预设运动轨迹,相机预设运动轨迹具有预设轨迹第M时刻点,输入运动轨迹预测模型,获取M个连续时刻预测点,构建运动预测轨迹,运动预测轨迹具有预测轨迹第M时刻点,连接生成特征封闭区域,当偏离面积参数大于偏离面积阈值,或/和偏离极大距离大于偏离距离阈值,进行寻优获取运动状态寻优结果,对相机进行追踪校正。解决了传统的轨迹追踪方法往往只依赖预设的运动轨迹,无法自适应地进行位置校正,并且使用固定的相机运动状态,难以适应不同场景的需求,使得存在追踪的准确性和稳定性较低的技术问题,实现了通过使用运动轨迹预测模型和运动状态寻优,实现根据实际情况对相机运动状态进行优化,实现自适应的位置校正,并且通过优化相机参数,使得相机的轨迹更贴合预设轨迹,进而达到提升追踪的准确性和稳定性的技术效果。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
图1为本申请实施例提供了基于云台机的追踪校正方法流程示意图;
图2为本申请实施例提供了基于云台机的追踪校正方法中获取M个连续时刻预测点可能的流程示意图;
图3为本申请实施例提供了基于云台机的追踪校正方法中获取运动状态寻优结果可能的流程示意图;
图4为本申请实施例提供了基于云台机的追踪校正系统可能的结构示意图。
附图标记说明:运动轨迹获取模块10,预测点获取模块20,预测轨迹构建模块30,封闭区域生成模块40,寻优模块50,追踪校正模块60。
具体实施方式
本申请实施例通过提供基于云台机的追踪校正方法,解决了传统的轨迹追踪方法往往只依赖预设的运动轨迹,无法自适应地进行位置校正,并且使用固定的相机运动状态,难以适应不同场景的需求,使得存在追踪的准确性和稳定性较低的技术问题,实现了通过使用运动轨迹预测模型和运动状态寻优,实现根据实际情况对相机运动状态进行优化,实现自适应的位置校正,并且通过优化相机参数,使得相机的轨迹更贴合预设轨迹,进而达到提升追踪的准确性和稳定性的技术效果。
在介绍了本申请基本原理后,下面将结合说明书附图来具体介绍本申请的各种非限制性的实施方式。
实施例一
如图1所示,本申请实施例提供了基于云台机的追踪校正方法,所述方法包括:
步骤S100:获取相机运动状态信息和相机预设运动轨迹,其中,所述相机预设运动轨迹具有预设轨迹第M时刻点;
具体而言,本申请实施例提供的基于云台机的追踪校正方法应用于云台机。通过传感器获取相机当前的运动状态信息,包括运动速度、水平转角和垂直转角等参数,这些参数用于描述相机当前的位置和姿态;根据预设的轨迹要求和相机的运动能力,生成相机预设运动轨迹,这个轨迹为一条连续的曲线,由一系列点组成,每个点都代表相机在不同时间的位置,所谓的预设轨迹第 M 时刻点,表示这个预设轨迹上的第 M 个时刻对应的位置,假设M=5,那么预设轨迹的第5个时刻点可能对应相机运动的一个关键阶段,例如相机到达目标物体前的准备阶段。通过获取相机的运动状态信息和相机预设运动轨迹,为后续的校正过程提供基础数据。
步骤S200:将所述相机运动状态信息输入运动轨迹预测模型,获取M个连续时刻预测点;
进一步而言,如图2所示,本申请步骤S200包括:
步骤S210:所述相机运动状态信息包括第一时刻运动状态、第二时刻运动状态直到第M-1时刻运动状态,以及第一时刻位置特征;
步骤S220:所述运动轨迹预测模型包括全连接的第二时刻位置预测层、第三时刻位置预测层直到第M时刻预测层;
步骤S230:所述第二时刻位置预测层接收所述第一时刻位置特征和所述第一时刻运动状态,输出第二时刻位置特征;
步骤S240:所述第三时刻位置预测层接收所述第二时刻位置特征和所述第二时刻运动状态,输出第三时刻位置特征;
步骤S250:直到所述第M时刻预测层接收第M-1时刻位置特征和所述第M-1时刻运动状态,输出第M时刻位置特征;
步骤S260:将所述第一时刻位置特征、所述第二时刻位置特征直到所述第M时刻位置特征,添加进所述M个连续时刻预测点。
具体而言,第一时刻运动状态指相机在初始时刻的运动状态,例如初始速度、初始转角等,第二时刻运动状态直到第M-1时刻运动状态指相机从第二时刻到第M-1时刻的每个时刻的运动状态,包括每个状态的速度、转角等参数,这些参数用于描述相机在序列帧中的位姿变化。第一时刻位置特征值指相机在初始时刻的位置特征值,为描述相机位置的向量或者坐标,可以是相机所处的世界坐标系下的位置,也可以是其他参考坐标系下的位置。
第二时刻位置预测层接收第一时刻位置特征和第一时刻运动状态作为输入,通过全连接神经网络进行计算,并输出第二时刻的位置特征,类似地,每个时刻都有一个位置预测层,这些层按时间顺序连接在一起,接收前一时刻的位置特征和运动状态作为输入,通过全连接神经网络进行计算,并输出当前时刻的位置特征。换言之,从第二时刻位置预测层到第M时刻预测层,每个层都会接受前一时刻的位置特征和运动状态作为输入,并输出当前时刻的位置特征,这样,通过逐层计算,可以得到从第一时刻到第M时刻的连续预测点。
这种全连接的结构使得运动轨迹预测模型能够综合考虑相机的运动状态和位置特征,并根据过去的状态预测未来时刻的位置,通过这样的模型,可以对相机的轨迹进行预测,并在后续的步骤中使用这些预测点进行校正和优化。
将第一时刻的位置特征和运动状态作为输入提供给第二时刻位置预测层,第二时刻位置预测层通过神经网络进行计算,生成第二时刻的位置特征作为输出,这个位置特征描述了相机在第二时刻的位置,即预测的位置信息。类似地,此后的其他时刻的位置预测层也基于上一时刻的位置特征和运动状态来输出对应时刻的位置特征,这样就可以逐步生成从第二时刻到第M时刻的连续位置特征。总结起来,该方法通过逐一输入前一时刻的位置特征和运动状态,将其作为第N时刻位置预测层的输入进行计算,以得到第N+1时刻的位置特征,这样,就生成连续的位置特征序列,用于后续的轨迹预测、校正和优化。
将所述第一时刻位置特征添加到连续时刻预测点的初始位置,作为预测点序列的起始点,依次将第二时刻到第M时刻位置特征添加到连续时刻预测点序列中对应的位置上,从而得到包含完整时间连续性的M个连续时刻预测点,这个预测点序列用来描述相机在接下来若干时刻内可能的位置和姿态,并为后续的追踪校正提供基础数据。
进一步而言,本申请步骤S200包括:
步骤S200-1:基于相机型号信息和预设间隔时长,采集运动状态样本数据、起始位置样本数据和运动轨迹标识数据;
步骤S200-2:根据所述运动状态样本数据、所述起始位置样本数据和所述运动轨迹标识数据对循环神经网络进行训练,获取位置预测器;
步骤S200-3:将所述位置预测器和所述第二时刻位置预测层、所述第三时刻位置预测层直到所述第M时刻预测层进行模型结构、模型参数共享,获取所述运动轨迹预测模型。
具体而言,根据相机型号和预设间隔时长,设置相应的运动状态采样频率,例如设置频率为每秒一次。在每个采样点上,记录相机的位置变化、运动速度及转角等参数,获取运动状态样本数据;采集相机在不同起始位置下的样本数据,通过改变相机的初始位置,记录相机的运动状态和轨迹,从而构建起始位置样本数据集;在实际运动中,在得到准确的运动轨迹时,同时进行运动轨迹标注,根据相机实际运动记录标注每个时间点相机的位置特征,例如在目标追踪任务中,可以标注相机朝向目标的位置,获取运动轨迹标识数据。这些样本数据用于训练和测试运动轨迹预测模型。
将采集到的运动状态样本数据、起始位置样本数据和运动轨迹标识数据进行整理,确保数据格式统一,基于所提供的样本数据构建循环神经网络模型,具体地,将整理好的样本数据划分为训练集和测试集,用于模型训练和验证,例如采用80%的数据作为训练集,剩余20%作为测试集。
使用训练集对所述循环神经网络模型进行训练,通过反向传播算法优化模型参数使其最小化预测误差,在每个训练周期中,逐批次地输入运动状态样本数据、起始位置样本数据,并与对应的运动轨迹标识数据配对,来更新模型权重;使用测试集评估训练得到的模型的性能,根据预测结果与真实位置的差异,计算评价指标,如均方误差,从而衡量模型的准确性,当满足要求时,例如预先设定的要求为准确率达到95%,当模型的准确性满足95%时,判定模型满足要求,获得位置预测器模型,这个位置预测器用于给定相机的位置特征和运动状态时,预测未来时刻的位置信息。
建立模型结构,将位置预测器作为基础模型,将第二时刻位置预测层、第三时刻位置预测层一直到第M时刻预测层添加到基础模型之后,通过设置相同的模型参数,在模型结构中共享位置预测器和各个位置预测层之间的参数,以此使得模型共享了训练得到的位置预测能力,同时逐步预测连续时刻的位置。通过上述步骤,获取一个完整的运动轨迹预测模型,该模型可以基于相机的当前运动状态信息和位置特征,连续预测未来时刻的位置,用于后续的追踪校正和轨迹优化。
步骤S300:依次连接所述M个连续时刻预测点,构建运动预测轨迹,其中,所述运动预测轨迹具有预测轨迹第M时刻点;
具体而言,将所述M个预测点按照时间顺序进行连接,例如,通过简单的线性插值方法,即根据相邻时刻的预测点之间的距离和时间间隔,通过直线插值来获得中间时刻的轨迹点,以此得到一条由多个轨迹点组成的运动预测轨迹,与所述相机预设运动轨迹的预设轨迹第M时刻点对应的,所述运动预测轨迹具有预测轨迹第M时刻点,用于描述相机在未来若干时刻内的预测运动位置。
步骤S400:将所述预测轨迹第M时刻点和所述预设轨迹第M时刻点连接,生成特征封闭区域,其中,所述特征封闭区域具有偏离面积参数和偏离极大距离;
具体而言,将预测轨迹的第M时刻点和预设轨迹的第M时刻点进行对应连接,如采用直线插值方法,形成一条从预测点到预设点的路径,根据该路径得到一个封闭的区域,即特征封闭区域,该区域用来描述预测轨迹与预设轨迹之间的偏离程度。在特征封闭区域中,可以计算出偏离面积参数和偏离极大距离,其中,偏离面积参数指的是特征封闭区域与预设轨迹之间的面积差异,而偏离极大距离指的是特征封闭区域到预设轨迹上最远点的距离。通过这两个参数评估预测轨迹与预设轨迹之间的偏离程度,以及追踪的准确性,如果偏离面积参数或偏离极大距离超过了设定的阈值,可能意味着需要对相机运动状态进行优化和调整。
步骤S500:当所述偏离面积参数大于偏离面积阈值,或/和偏离极大距离大于偏离距离阈值,基于所述运动轨迹预测模型对所述相机运动状态信息进行寻优,获取运动状态寻优结果;
具体而言,根据领域专家的知识和经验,或者利用历史数据、实验数据或仿真数据等,进行数据分析和统计分析,获得所述偏离面积阈值、所述偏离距离阈值,用来判断当前相机运动状态是否偏离理想状态。将计算得到的偏离面积参数和偏离极大距离,与预先设定的阈值进行比较,如果偏离面积参数大于偏离面积阈值,或者偏离极大距离大于偏离距离阈值,或者二者同时满足,即表示当前的预测轨迹与预设轨迹存在较大的差异,需要对相机的运动状态进行调整。使用所述运动轨迹预测模型,在当前的相机运动状态信息基础上进行寻优,以找到更优的相机运动状态,即运动状态寻优结果,通过调整相机的运动速度、水平转角和垂直转角等参数,可以使预测轨迹与预设轨迹更接近,从而提高追踪的准确性和稳定性。
进一步而言,如图3所示,本申请步骤S500包括:
步骤S510:所述相机运动状态信息包括运动速度参数、水平转角参数和垂直转角参数;
步骤S520:根据运动速度约束区间、水平转角约束区间和垂直转角约束区间,对所述运动速度参数和/或所述水平转角参数和/或所述垂直转角参数进行随机赋值,获取Q个运动状态初始粒子;
步骤S530:根据所述运动轨迹预测模型,遍历所述Q个运动状态初始粒子进行轨迹预测,获取Q个轨迹预测结果;
步骤S540:获取所述Q个轨迹预测结果的Q个偏离面积参数和Q个偏离极大距离;
步骤S550:基于所述Q个偏离面积参数和所述Q个偏离极大距离,对所述相机运动状态信息进行寻优,获取所述运动状态寻优结果。
具体而言,运动速度参数表示相机在空间中移动的速度,可以是线性速度或角度速度,用于描述相机在水平方向和垂直方向上的运动快慢,单位是米/秒或角度/秒;水平转角参数表示相机绕其自身的垂直轴旋转的角度,用来描述相机的视野范围从左到右的变化情况,以角度为单位,可指定相机在水平方向上的朝向和视野旋转幅度;垂直转角参数表示相机绕其自身的水平轴旋转的角度,用来描述相机的视野范围从上到下的变化情况,同样以角度为单位,可指定相机在垂直方向上的朝向和视野旋转幅度。这些相机运动状态信息是相机位置和姿态发生变化时的关键参数,通过监测和控制这些参数,可以实现相机的运动控制和校正,以达到预定的轨迹跟踪要求。
基于相机性能和任务需求,确定允许的运动速度范围,例如最小速度和最大速度,获取运动速度约束区间;确定允许的水平转角范围,例如最小水平转角和最大水平转角,获取水平转角约束区间,这决定了相机在水平方向上的视野范围;确定允许的垂直转角范围,例如最小垂直转角和垂直最大转角,获取垂直转角约束区间,这决定了相机在垂直方向上的视野范围。
根据上述约束区间,使用高斯分布等随机数生成方法,对每个运动状态的参数进行随机赋值,重复上述步骤Q次,Q为重复随机赋值的次数,例如Q取50则为重复随机赋值50次,获得Q个不同的运动状态初始粒子,这些初始粒子代表了在约束区间内随机选取的运动状态。
对于每一个运动状态初始粒子,将其作为输入提供给运动轨迹预测模型,通过运动轨迹预测模型,使用当前的运动状态初始粒子来预测未来时刻的相机位置和姿态等信息,根据模型的设计,可以连续地预测第二时刻到第M时刻的位置特征,将每个运动状态初始粒子对应的轨迹预测结果记录下来,形成Q个轨迹预测结果,这些结果描述了在不同的初始运动状态下相机可能的轨迹走势。
将所述Q个轨迹预测结果分别与对应的与真实轨迹进行比较,并计算每个轨迹预测结果对应的偏离面积参数,以及其之间的最大距离,得到相应的偏离极大距离值。
将偏离面积参数和偏离极大距离转换为一个综合的目标函数,选择适当的寻优算法,例如梯度下降法、遗传算法、粒子群优化等,将目标函数作为优化算法的优化目标,利用所述Q个偏离面积参数和所述Q个偏离极大距离作为输入数据,进行寻优算法的迭代过程来搜索最优的相机运动状态,根据寻优算法的收敛情况,获取最优的相机运动状态结果,即运动状态寻优结果,这个结果描述了使得轨迹预测结果与真实轨迹最接近的运动状态,用于实现更准确的轨迹预测、追踪校正和目标跟踪等应用。
在一种可实施的方式中,步骤S550,具体可以包括:
步骤S551:构建粒子适应度函数:
,
其中,fit(xi)表征第i个运动状态粒子适应度,A(xi)表征第i个运动状态粒子的偏离面积参数,D(xi)表征第i个运动状态粒子的偏离极大距离,A0表征偏离面积阈值,D0表征偏离距离阈值;
步骤S552:根据所述粒子适应度函数,基于所述Q个偏离面积参数和所述Q个偏离极大距离,获取第i粒子适应度;
步骤S553:当所述第i粒子适应度等于1时,将第i粒子设为所述运动状态寻优结果;
步骤S554:当所述第i粒子适应度不等于1时,遍历第i+1粒子。
具体而言,使用偏离面积参数和偏离极大距离作为评估指标,将偏离面积参数与阈值偏离面积阈值进行比较,偏离极大距离与偏离距离阈值进行比较,并将其转化为如上述公式所示的适应度值,将偏离面积适应度值和偏离极大距离适应度值综合考虑,得到一个综合的粒子适应度函数,这样设置的适应度函数可以使得偏离面积参数和/且偏离极大距离越小的粒子具有更高的适应度,适应度值越高的粒子,则认为其在轨迹预测方面表现更好,从而提供了较优的运动状态结果,注意适应度值的范围为0到1之间。
i即代表了第i个粒子,例如i取10则代表第10个粒子,i用来唯一标识一个特定的粒子个体,以此区分不同的粒子,并在计算适应度时针对每个粒子进行相应处理。对于第i个粒子,获取第i个粒子的偏离面积参数和偏离极大距离,根据粒子适应度函数,将偏离面积参数和偏离极大距离代入计算公式,通过计算获得第i个粒子的适应度值,这个适应度值用于评估该运动状态粒子在轨迹预测中的优劣,适应度值越高表示粒子的运动状态越符合期望。
若所述第i粒子适应度等于1,则说明该粒子的运动状态与真实轨迹非常接近,将第i个粒子设为运动状态寻优结果,即当前问题中表现最好的运动状态。
若所述第i粒子适应度不等于1,意味着该粒子的运动状态在轨迹预测中与真实轨迹存在一定的偏离,需要继续查找适应度值更高的粒子,以获取更优的运动状态,具体地,遍历第i+1粒子到最后一个粒子,即依次检查第i+1个、第i+2个粒子,直到最后一个粒子,对每个粒子,计算其适应度值。通过遍历第i+1粒子,可以尝试不同的运动状态,寻找更接近真实轨迹的优化结果,这样可以逐步提升运动状态的质量,并找到相机最佳的运动状态配置。
进一步而言,本申请步骤S500还包括:
步骤S500-1:当所述Q个运动状态初始粒子遍历完成,所述运动状态寻优结果未获得时,获取Q个运动状态初始粒子适应度;
步骤S500-2:基于所述运动速度参数、所述水平转角参数和所述垂直转角参数,构建三维空间坐标系;
步骤S500-3:将所述Q个运动状态初始粒子在所述三维空间坐标系进行分布,获取粒子分布结果;
步骤S500-4:从所述粒子分布结果中筛选所述Q个运动状态初始粒子适应度的最大适应度粒子,设为扩充目标位置;
步骤S500-5:设定随机扰动邻域区间,对所述目标扩充位置进行随机扰动Y次,获取Y个扩充目标位置;
步骤S500-6:获取第p初始粒子和任意一个所述Y个扩充目标位置的第一欧式距离,与最大适应度求乘积,获取第p初始粒子位置更新向量,p为非最大适应度粒子的任意一个粒子;
步骤S500-7:根据所述第p初始粒子位置更新向量进行粒子扩充,添加进粒子扩充结果;
步骤S500-8:基于所述粒子扩充结果对所述相机运动状态信息进行寻优,获取所述运动状态寻优结果。
具体而言,当遍历完Q个运动状态初始粒子后,但未获得运动状态的寻优结果时,记录每个运动状态初始粒子的适应度值,形成一个Q维度的适应度数组,这些适应度值指示每个运动状态粒子在轨迹预测中的性能。
选择一个合适的参考点,例如相机的起始位置或场景中的某个固定点作为原点(0, 0, 0),确定三个坐标轴(x、y、z),其中,x轴代表水平方向,y轴代表垂直方向,z轴代表相机的运动方向(前进或后退)。使用水平转角参数和垂直转角参数,旋转坐标系以匹配相机的转角,例如,将水平转角旋转坐标系绕y轴旋转,垂直转角绕x轴旋转,这样可以反映相机的朝向和视野范围。利用运动速度参数和时间信息,计算相机在三维空间中的移动距离和方向,从而确定相机在坐标系中的位置。
对于每个运动状态初始粒子i,根据粒子所代表的运动状态参数,在三维空间坐标系中设定对应位置,具体地,基于相机的初始位置和姿态,并结合运动速度参数、水平转角参数和垂直转角参数来计算粒子的位置,并在三维空间坐标系中进行分布。记录每个粒子的位置,将其作为粒子分布结果,这样,就得到了所有Q个运动状态初始粒子在三维空间坐标系中的分布情况。
对应所述Q个运动状态初始粒子,根据粒子的适应度值进行比较,找出适应度最大的粒子,记录该适应度最大的粒子的位置作为扩充目标位置,这个位置表示相机进一步移动的目标点。
根据已知的参数范围或约束条件,选择邻域范围,例如,如果某个参数的取值范围在[0, 10]之间,则邻域范围可以根据该参数范围进行设定,确保所生成的随机扰动仍保持在有效的参数范围内,该邻域范围标识要对目标扩充位置进行调整的最大范围,即随机扰动邻域区间。
对目标扩充位置进行随机扰动Y次,Y为随机扰动的次数,例如Y取100,则代表随机扰动100次,对于每次扰动,将目标扩充位置在随机扰动邻域区间内进行随机调整,例如,可以通过添加一个随机值或通过采用正态分布等随机数生成方法来实现,将每次扰动后得到的位置记录下来,形成Y个扩充目标位置。
获取第p个初始粒子的坐标和任意一个扩充目标位置的坐标,p表示非最大适应度粒子的任意一个粒子,计算第p个初始粒子的坐标与扩充目标位置之间的欧式距离,即计算两点之间的几何距离,将所得的欧式距离与最大适应度值进行乘法运算,得到乘积结果,使用该乘积结果作为位置更新向量,更新向量为一个矢量,它指示了第p个初始粒子应该朝着目标位置移动的方向和距离,这个向量的方向指向靠近目标位置的方向,而距离取决于乘积结果的数值。通过计算第一欧式距离与最大适应度的乘积,可以根据适应度的高低对位置更新向量进行调整,使较好的粒子更接近目标位置,同时控制移动的距离。
使用位置更新向量来调整第p个初始粒子的位置,例如,在三维空间坐标系中,将位置向量与更新向量相加获得新的位置,将调整后的新位置作为扩充粒子的位置,并将其加入到粒子扩充结果中,扩充结果中每个新生成的粒子都包含与原始粒子相关的信息和特性。重复以上步骤,对非最大适应度粒子中的每个粒子进行扩充操作,直到所有需要进行扩充的粒子都已经处理完毕。
对于每个扩充粒子,采用前述适应度函数计算其在相机运动状态中的适应度值,通过比较粒子的适应度值,从粒子扩充结果中选出适应度最高的粒子作为运动状态的最优解,将其所代表的运动状态作为运动状态的寻优结果。这样可以通过引入更多的粒子和位置变化,扩展解空间,提供更多可能的候选解,从而在进一步的优化和搜索过程中发现更优的解决方案。
步骤S600:根据所述运动状态寻优结果对相机进行追踪校正。
具体而言,从得到的运动状态寻优过程中,获得优化后的相机运动状态信息,包括运动速度、水平转角和垂直转角等参数,将这些参数应用于实际的相机控制系统中,即根据优化后的运动速度和角度等参数,及时调整相机的运动,以使相机的运动轨迹更接近预设轨迹,以满足追踪的需求,实现追踪校正。通过相机的追踪校正,使相机的轨迹与预设轨迹更吻合,从而提升追踪精度和稳定性,使相机能够更好地跟踪目标对象或运动轨迹。
进一步而言,本申请还包括:
步骤S710:当所述相机按照所述运动状态寻优结果运动第一时长后,获取相机实时运动状态,其中,所述第一时长小于M个连续时刻的时长间隔;
步骤S720:根据所述相机实时运动状态对所述相机进行运动追踪矫正。
具体而言,让相机按照所述运动状态寻优结果进行第一时长的运动,确保第一时长的持续时间小于M个连续时刻的时长间隔,在实际运动期间,记录相机的位置和姿态信息,以获得相机的实时运动状态,这个实时运动状态描述了相机在运动过程中精确的位置和姿态信息。
利用相机实时运动状态与预期的理想运动状态进行比较,确定偏差,根据偏差,计算运动调整量,以此对相机进行运动矫正,这可以通过相机控制系统来实现,例如调整相机的云台角度、改变相机的运动速度或改变相机的视野范围等。当矫正后,从第一时刻开始运动,监测第二时刻之前的运动状态,再次矫正,如此循环,不断更新相机实时运动状态,并相应地进行运动追踪矫正,以保持相机在运动过程中的准确性和稳定性。
综上所述,本申请实施例所提供的基于云台机的追踪校正方法及系统具有如下技术效果:
获取相机运动状态信息和相机预设运动轨迹,相机预设运动轨迹具有预设轨迹第M时刻点,输入运动轨迹预测模型,获取M个连续时刻预测点,构建运动预测轨迹,运动预测轨迹具有预测轨迹第M时刻点,连接生成特征封闭区域,当偏离面积参数大于偏离面积阈值,或/和偏离极大距离大于偏离距离阈值,进行寻优获取运动状态寻优结果,对相机进行追踪校正。
解决了传统的轨迹追踪方法往往只依赖预设的运动轨迹,无法自适应地进行位置校正,并且使用固定的相机运动状态,难以适应不同场景的需求,使得存在追踪的准确性和稳定性较低的技术问题,实现了通过使用运动轨迹预测模型和运动状态寻优,实现根据实际情况对相机运动状态进行优化,实现自适应的位置校正,并且通过优化相机参数,使得相机的轨迹更贴合预设轨迹,进而达到提升追踪的准确性和稳定性的技术效果。
实施例二
基于与前述实施例中基于云台机的追踪校正方法相同的发明构思,如图4所示,本申请提供了基于云台机的追踪校正系统,所述系统包括:
运动轨迹获取模块10,所述运动轨迹获取模块10用于获取相机运动状态信息和相机预设运动轨迹,其中,所述相机预设运动轨迹具有预设轨迹第M时刻点;
预测点获取模块20,所述预测点获取模块20用于将所述相机运动状态信息输入运动轨迹预测模型,获取M个连续时刻预测点;
预测轨迹构建模块30,所述预测轨迹构建模块30用于依次连接所述M个连续时刻预测点,构建运动预测轨迹,其中,所述运动预测轨迹具有预测轨迹第M时刻点;
封闭区域生成模块40,所述封闭区域生成模块40用于将所述预测轨迹第M时刻点和所述预设轨迹第M时刻点连接,生成特征封闭区域,其中,所述特征封闭区域具有偏离面积参数和偏离极大距离;
寻优模块50,所述寻优模块50用于当所述偏离面积参数大于偏离面积阈值,或/和偏离极大距离大于偏离距离阈值,基于所述运动轨迹预测模型对所述相机运动状态信息进行寻优,获取运动状态寻优结果;
追踪校正模块60,所述追踪校正模块60用于根据所述运动状态寻优结果对相机进行追踪校正。
进一步而言,所述系统还包括:
状态信息说明模块,用于所述相机运动状态信息包括第一时刻运动状态、第二时刻运动状态直到第M-1时刻运动状态,以及第一时刻位置特征;
预测模型说明模块,用于所述运动轨迹预测模型包括全连接的第二时刻位置预测层、第三时刻位置预测层直到第M时刻预测层;
第二时刻位置输出模块,用于所述第二时刻位置预测层接收所述第一时刻位置特征和所述第一时刻运动状态,输出第二时刻位置特征;
第三时刻位置输出模块,用于所述第三时刻位置预测层接收所述第二时刻位置特征和所述第二时刻运动状态,输出第三时刻位置特征;
第M时刻位置输出模块,用于直到所述第M时刻预测层接收第M-1时刻位置特征和所述第M-1时刻运动状态,输出第M时刻位置特征;
添加模块,用于将所述第一时刻位置特征、所述第二时刻位置特征直到所述第M时刻位置特征,添加进所述M个连续时刻预测点。
进一步而言,所述系统还包括:
标识数据采集模块,用于基于相机型号信息和预设间隔时长,采集运动状态样本数据、起始位置样本数据和运动轨迹标识数据;
位置预测器获取模块,用于根据所述运动状态样本数据、所述起始位置样本数据和所述运动轨迹标识数据对循环神经网络进行训练,获取位置预测器;
模型参数共享模块,用于将所述位置预测器和所述第二时刻位置预测层、所述第三时刻位置预测层直到所述第M时刻预测层进行模型结构、模型参数共享,获取所述运动轨迹预测模型。
进一步而言,所述系统还包括:
运动状态信息说明模块,用于所述相机运动状态信息包括运动速度参数、水平转角参数和垂直转角参数;
随机赋值模块,用于根据运动速度约束区间、水平转角约束区间和垂直转角约束区间,对所述运动速度参数和/或所述水平转角参数和/或所述垂直转角参数进行随机赋值,获取Q个运动状态初始粒子;
轨迹预测模块,用于根据所述运动轨迹预测模型,遍历所述Q个运动状态初始粒子进行轨迹预测,获取Q个轨迹预测结果;
偏离极大距离获取模块,用于获取所述Q个轨迹预测结果的Q个偏离面积参数和Q个偏离极大距离;
状态信息寻优模块,用于基于所述Q个偏离面积参数和所述Q个偏离极大距离,对所述相机运动状态信息进行寻优,获取所述运动状态寻优结果。
进一步而言,所述系统还包括:
适应度函数构建模块,用于构建粒子适应度函数:
,
其中,fit(xi)表征第i个运动状态粒子适应度,A(xi)表征第i个运动状态粒子的偏离面积参数,D(xi)表征第i个运动状态粒子的偏离极大距离,A0表征偏离面积阈值,D0表征偏离距离阈值;
适应度获取模块,用于根据所述粒子适应度函数,基于所述Q个偏离面积参数和所述Q个偏离极大距离,获取第i粒子适应度;
寻优结果获取模块,用于当所述第i粒子适应度等于1时,将第i粒子设为所述运动状态寻优结果;
遍历模块,用于当所述第i粒子适应度不等于1时,遍历第i+1粒子。
进一步而言,所述系统还包括:
初始适应度获取模块,用于当所述Q个运动状态初始粒子遍历完成,所述运动状态寻优结果未获得时,获取Q个运动状态初始粒子适应度;
坐标系构建模块,用于基于所述运动速度参数、所述水平转角参数和所述垂直转角参数,构建三维空间坐标系;
分布模块,用于将所述Q个运动状态初始粒子在所述三维空间坐标系进行分布,获取粒子分布结果;
最大适应度获取模块,用于从所述粒子分布结果中筛选所述Q个运动状态初始粒子适应度的最大适应度粒子,设为扩充目标位置;
随机扰动模块,用于设定随机扰动邻域区间,对所述目标扩充位置进行随机扰动Y次,获取Y个扩充目标位置;
更新向量获取模块,用于获取第p初始粒子和任意一个所述Y个扩充目标位置的第一欧式距离,与最大适应度求乘积,获取第p初始粒子位置更新向量,p为非最大适应度粒子的任意一个粒子;
粒子扩充模块,用于根据所述第p初始粒子位置更新向量进行粒子扩充,添加进粒子扩充结果;
寻优结果获取模块,用于基于所述粒子扩充结果对所述相机运动状态信息进行寻优,获取所述运动状态寻优结果。
进一步而言,所述系统还包括:
运动状态获取模块,用于当所述相机按照所述运动状态寻优结果运动第一时长后,获取相机实时运动状态,其中,所述第一时长小于M个连续时刻的时长间隔;
运动追踪矫正模块,用于根据所述相机实时运动状态对所述相机进行运动追踪矫正。
本说明书通过前述对基于云台机的追踪校正方法的详细描述,本领域技术人员可以清楚得知道本实施例中基于云台机的追踪校正方法及系统,对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述得比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其他实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (6)
1.基于云台机的追踪校正方法,其特征在于,所述方法包括:
获取相机运动状态信息和相机预设运动轨迹,其中,所述相机预设运动轨迹具有预设轨迹第M时刻点;
将所述相机运动状态信息输入运动轨迹预测模型,获取M个连续时刻预测点;
依次连接所述M个连续时刻预测点,构建运动预测轨迹,其中,所述运动预测轨迹具有预测轨迹第M时刻点;
将所述预测轨迹第M时刻点和所述预设轨迹第M时刻点连接,生成特征封闭区域,其中,所述特征封闭区域具有偏离面积参数和偏离极大距离;
当所述偏离面积参数大于偏离面积阈值,或/和偏离极大距离大于偏离距离阈值,基于所述运动轨迹预测模型对所述相机运动状态信息进行寻优,获取运动状态寻优结果;
根据所述运动状态寻优结果对相机进行追踪校正;
其中,基于所述运动轨迹预测模型对所述相机运动状态信息进行寻优,获取运动状态寻优结果,包括:
所述相机运动状态信息包括运动速度参数、水平转角参数和垂直转角参数;
根据运动速度约束区间、水平转角约束区间和垂直转角约束区间,对所述运动速度参数和/或所述水平转角参数和/或所述垂直转角参数进行随机赋值,获取Q个运动状态初始粒子;
根据所述运动轨迹预测模型,遍历所述Q个运动状态初始粒子进行轨迹预测,获取Q个轨迹预测结果;
获取所述Q个轨迹预测结果的Q个偏离面积参数和Q个偏离极大距离;
基于所述Q个偏离面积参数和所述Q个偏离极大距离,对所述相机运动状态信息进行寻优,获取所述运动状态寻优结果;
其中,基于所述Q个偏离面积参数和所述Q个偏离极大距离,对所述相机运动状态信息进行寻优,获取所述运动状态寻优结果,包括:
构建粒子适应度函数:
,
其中,表征第i个运动状态粒子适应度,/>表征第i个运动状态粒子的偏离面积参数,/>表征第i个运动状态粒子的偏离极大距离,/>表征偏离面积阈值,/>表征偏离距离阈值;
根据所述粒子适应度函数,基于所述Q个偏离面积参数和所述Q个偏离极大距离,获取第i粒子适应度;
当所述第i粒子适应度等于1时,将第i粒子设为所述运动状态寻优结果;
当所述第i粒子适应度不等于1时,遍历第i+1粒子。
2.如权利要求1所述的基于云台机的追踪校正方法,其特征在于,将所述相机运动状态信息输入运动轨迹预测模型,获取M个连续时刻预测点,包括:
所述相机运动状态信息包括第一时刻运动状态、第二时刻运动状态直到第M-1时刻运动状态,以及第一时刻位置特征;
所述运动轨迹预测模型包括全连接的第二时刻位置预测层、第三时刻位置预测层直到第M时刻预测层;
所述第二时刻位置预测层接收所述第一时刻位置特征和所述第一时刻运动状态,输出第二时刻位置特征;
所述第三时刻位置预测层接收所述第二时刻位置特征和所述第二时刻运动状态,输出第三时刻位置特征;
直到所述第M时刻预测层接收第M-1时刻位置特征和所述第M-1时刻运动状态,输出第M时刻位置特征;
将所述第一时刻位置特征、所述第二时刻位置特征直到所述第M时刻位置特征,添加进所述M个连续时刻预测点。
3.如权利要求2所述的基于云台机的追踪校正方法,其特征在于,包括:
基于相机型号信息和预设间隔时长,采集运动状态样本数据、起始位置样本数据和运动轨迹标识数据;
根据所述运动状态样本数据、所述起始位置样本数据和所述运动轨迹标识数据对循环神经网络进行训练,获取位置预测器;
将所述位置预测器和所述第二时刻位置预测层、所述第三时刻位置预测层直到所述第M时刻预测层进行模型结构、模型参数共享,获取所述运动轨迹预测模型。
4.如权利要求1所述的基于云台机的追踪校正方法,其特征在于,还包括:
当所述Q个运动状态初始粒子遍历完成,所述运动状态寻优结果未获得时,获取Q个运动状态初始粒子适应度;
基于所述运动速度参数、所述水平转角参数和所述垂直转角参数,构建三维空间坐标系;
将所述Q个运动状态初始粒子在所述三维空间坐标系进行分布,获取粒子分布结果;
从所述粒子分布结果中筛选所述Q个运动状态初始粒子适应度的最大适应度粒子,设为扩充目标位置;
设定随机扰动邻域区间,对所述目标扩充位置进行随机扰动Y次,获取Y个扩充目标位置;
获取第p初始粒子和任意一个所述Y个扩充目标位置的第一欧式距离,与最大适应度求乘积,获取第p初始粒子位置更新向量,p为非最大适应度粒子的任意一个粒子;
根据所述第p初始粒子位置更新向量进行粒子扩充,添加进粒子扩充结果;
基于所述粒子扩充结果对所述相机运动状态信息进行寻优,获取所述运动状态寻优结果。
5.如权利要求1所述的基于云台机的追踪校正方法,其特征在于,还包括:
当所述相机按照所述运动状态寻优结果运动第一时长后,获取相机实时运动状态,其中,所述第一时长小于M个连续时刻的时长间隔;
根据所述相机实时运动状态对所述相机进行运动追踪矫正。
6.基于云台机的追踪校正系统,其特征在于,用于实施权利要求1-5任一项所述的基于云台机的追踪校正方法,包括:
运动轨迹获取模块,所述运动轨迹获取模块用于获取相机运动状态信息和相机预设运动轨迹,其中,所述相机预设运动轨迹具有预设轨迹第M时刻点;
预测点获取模块,所述预测点获取模块用于将所述相机运动状态信息输入运动轨迹预测模型,获取M个连续时刻预测点;
预测轨迹构建模块,所述预测轨迹构建模块用于依次连接所述M个连续时刻预测点,构建运动预测轨迹,其中,所述运动预测轨迹具有预测轨迹第M时刻点;
封闭区域生成模块,所述封闭区域生成模块用于将所述预测轨迹第M时刻点和所述预设轨迹第M时刻点连接,生成特征封闭区域,其中,所述特征封闭区域具有偏离面积参数和偏离极大距离;
寻优模块,所述寻优模块用于当所述偏离面积参数大于偏离面积阈值,或/和偏离极大距离大于偏离距离阈值,基于所述运动轨迹预测模型对所述相机运动状态信息进行寻优,获取运动状态寻优结果;
追踪校正模块,所述追踪校正模块用于根据所述运动状态寻优结果对相机进行追踪校正。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410119023.8A CN117648001B (zh) | 2024-01-29 | 2024-01-29 | 基于云台机的追踪校正方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410119023.8A CN117648001B (zh) | 2024-01-29 | 2024-01-29 | 基于云台机的追踪校正方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117648001A CN117648001A (zh) | 2024-03-05 |
CN117648001B true CN117648001B (zh) | 2024-04-09 |
Family
ID=90046300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410119023.8A Active CN117648001B (zh) | 2024-01-29 | 2024-01-29 | 基于云台机的追踪校正方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117648001B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009200949A (ja) * | 2008-02-22 | 2009-09-03 | Toshiba Corp | 移動体画像追尾装置及び方法 |
JP2012047490A (ja) * | 2010-08-24 | 2012-03-08 | Mitsubishi Electric Corp | 追尾装置 |
CN109753084A (zh) * | 2019-01-19 | 2019-05-14 | 魏贞民 | 一种无人驾驶设备和方法 |
CN111103608A (zh) * | 2020-01-02 | 2020-05-05 | 东南大学 | 一种用在林业勘测工作中的定位装置及方法 |
EP3889729A1 (en) * | 2018-11-28 | 2021-10-06 | SZ DJI Technology Co., Ltd. | Control method for gimbal, gimbal, mobile platform, and computer readable storage medium |
WO2022057800A1 (zh) * | 2020-09-16 | 2022-03-24 | 华为技术有限公司 | 云台摄像机、云台摄像机的追踪控制方法、装置及设备 |
CN114972420A (zh) * | 2022-04-12 | 2022-08-30 | 中国计量大学 | 一种基于机器视觉技术的云台跟踪性能测量方法 |
CN115994930A (zh) * | 2023-01-12 | 2023-04-21 | 华东计算技术研究所(中国电子科技集团公司第三十二研究所) | 基于人工智能的摄像机下运动目标的检测定位方法及系统 |
CN116068574A (zh) * | 2023-02-27 | 2023-05-05 | 芜湖雄狮汽车科技有限公司 | 多目标跟踪轨迹创建与删除方法、装置、设备及存储介质 |
CN116168421A (zh) * | 2023-04-13 | 2023-05-26 | 微网优联科技(成都)有限公司 | 一种基于ipc网络摄像机的目标追踪方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160341541A1 (en) * | 2013-12-11 | 2016-11-24 | Faro Technologies, Inc. | Spherically mounted retroreflector and method to minimize measurement error |
-
2024
- 2024-01-29 CN CN202410119023.8A patent/CN117648001B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009200949A (ja) * | 2008-02-22 | 2009-09-03 | Toshiba Corp | 移動体画像追尾装置及び方法 |
JP2012047490A (ja) * | 2010-08-24 | 2012-03-08 | Mitsubishi Electric Corp | 追尾装置 |
EP3889729A1 (en) * | 2018-11-28 | 2021-10-06 | SZ DJI Technology Co., Ltd. | Control method for gimbal, gimbal, mobile platform, and computer readable storage medium |
CN109753084A (zh) * | 2019-01-19 | 2019-05-14 | 魏贞民 | 一种无人驾驶设备和方法 |
CN111103608A (zh) * | 2020-01-02 | 2020-05-05 | 东南大学 | 一种用在林业勘测工作中的定位装置及方法 |
WO2022057800A1 (zh) * | 2020-09-16 | 2022-03-24 | 华为技术有限公司 | 云台摄像机、云台摄像机的追踪控制方法、装置及设备 |
CN114972420A (zh) * | 2022-04-12 | 2022-08-30 | 中国计量大学 | 一种基于机器视觉技术的云台跟踪性能测量方法 |
CN115994930A (zh) * | 2023-01-12 | 2023-04-21 | 华东计算技术研究所(中国电子科技集团公司第三十二研究所) | 基于人工智能的摄像机下运动目标的检测定位方法及系统 |
CN116068574A (zh) * | 2023-02-27 | 2023-05-05 | 芜湖雄狮汽车科技有限公司 | 多目标跟踪轨迹创建与删除方法、装置、设备及存储介质 |
CN116168421A (zh) * | 2023-04-13 | 2023-05-26 | 微网优联科技(成都)有限公司 | 一种基于ipc网络摄像机的目标追踪方法及系统 |
Non-Patent Citations (2)
Title |
---|
Adaptive 3D Target Tracking and Surveillance Scheme based-on Pan/Tilt-embedded Stereo Camera System;Jung-Hwan Ko 等;《Applications of Digital Image Processing XXVII》;20041102;191-201 * |
基于云台摄像机的特定目标实时检测与跟踪算法研究;姚贝;《中国优秀硕士学位论文全文数据库信息科技辑》;20210115(第1期);I138-1320 * |
Also Published As
Publication number | Publication date |
---|---|
CN117648001A (zh) | 2024-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109800689B (zh) | 一种基于时空特征融合学习的目标跟踪方法 | |
CN110544296B (zh) | 一种敌方威胁不确定环境下无人机三维全局航迹智能规划方法 | |
CN104408760B (zh) | 一种基于双目视觉的高精度虚拟装配系统算法 | |
CN110334701B (zh) | 数字孪生环境下基于深度学习和多目视觉的数据采集方法 | |
CN111474953B (zh) | 多动态视角协同的空中目标识别方法及系统 | |
CN110909762B (zh) | 基于多传感器融合的机器人姿态识别方法及装置 | |
CN113159466B (zh) | 一种短时光伏发电功率预测系统及方法 | |
CN114237235B (zh) | 一种基于深度强化学习的移动机器人避障方法 | |
CN112699536B (zh) | 一种自适应目标船舶轨迹预测与锁定方法 | |
CN114217303A (zh) | 目标定位跟踪方法及装置、水下机器人和存储介质 | |
CN111103891B (zh) | 一种基于骨骼点检测的无人机快速姿势控制系统与方法 | |
CN116859985A (zh) | 一种四旋翼自动追踪功能实现方法 | |
CN117556376B (zh) | 一种基于多源数据融合的船舶动态轨迹预测及跟踪方法 | |
CN117648001B (zh) | 基于云台机的追踪校正方法及系统 | |
CN116907510B (zh) | 一种基于物联网技术的智能化运动识别方法 | |
CN107104747B (zh) | 无线时变信道中的多径分量的分簇方法 | |
Chen et al. | Learning trajectories for visual-inertial system calibration via model-based heuristic deep reinforcement learning | |
CN114972429A (zh) | 云边协同自适应推理路径规划的目标追踪方法和系统 | |
Zhang et al. | Multi-dimensional local weighted regression ship motion identification modeling based on particle swarm optimization | |
CN114565020A (zh) | 一种基于深度置信网络和扩展卡尔曼滤波的飞行器传感器信号融合方法 | |
Chen et al. | Path Optimization of Field Sensor Network for Sweep Coverage | |
Xu et al. | Xgb Assisted Self-Learning Kalman Filter for Uwb Localization | |
CN117329928B (zh) | 一种基于多元情报融合的无人机综合探测方法和系统 | |
CN116861175B (zh) | 一种基于神经网络的运行轨迹校正方法 | |
CN118208764A (zh) | 一种基于ai智慧的电壁炉调控系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |