CN114184086B - 一种用于反狙击手机器人的光电跟踪图像对准方法 - Google Patents

一种用于反狙击手机器人的光电跟踪图像对准方法 Download PDF

Info

Publication number
CN114184086B
CN114184086B CN202111519783.0A CN202111519783A CN114184086B CN 114184086 B CN114184086 B CN 114184086B CN 202111519783 A CN202111519783 A CN 202111519783A CN 114184086 B CN114184086 B CN 114184086B
Authority
CN
China
Prior art keywords
target
turntable
step length
image
scatter diagram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111519783.0A
Other languages
English (en)
Other versions
CN114184086A (zh
Inventor
黄强
唐剑
杨俊永
周勇
达君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mianyang Jiuqiang Intelligent Equipment Co ltd
Original Assignee
Mianyang Jiuqiang Intelligent Equipment Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mianyang Jiuqiang Intelligent Equipment Co ltd filed Critical Mianyang Jiuqiang Intelligent Equipment Co ltd
Priority to CN202111519783.0A priority Critical patent/CN114184086B/zh
Publication of CN114184086A publication Critical patent/CN114184086A/zh
Application granted granted Critical
Publication of CN114184086B publication Critical patent/CN114184086B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G1/00Sighting devices
    • F41G1/46Sighting devices for particular applications
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G1/00Sighting devices
    • F41G1/06Rearsights
    • F41G1/16Adjusting mechanisms therefor; Mountings therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E10/00Energy generation through renewable energy sources
    • Y02E10/50Photovoltaic [PV] energy

Abstract

本发明公开了一种用于反狙击手机器人的光电跟踪图像对准方法,包括S1采集多次测试目标所在象限的坐标点数据,并采样当前转台移动步长;S2绘制散点图,采用散点图进行线性回归分析,推导得到回归系数;S3点击屏幕图像上目标显示位置,得到实际目标所在图像象限和位置;S4给出目标移动到图像中心需要转台移动步长;S5根据实际目标位置数据和回归系数计算需要补偿的转台移动步长;S6计算得到最终的移动步长,并移动转台将目标移动到图像中心。本发明通过散点图采样方式来进行线性回归分析,基于获得的回归系数提高设备自动对准精度,可在发现目标后快速对目标进行对中瞄准,快速进行后面的打击或压制操作。

Description

一种用于反狙击手机器人的光电跟踪图像对准方法
技术领域
本发明属于图像对准的技术领域,具体涉及一种用于反狙击手机器人的光电跟踪图像对准方法。
背景技术
激光探测技术利用敌狙击步枪上的光学瞄准镜易反射光线的原理探测敌方狙击手的位置。使用该技术的系统由红外半导体激光照明器、护眼激光测距仪、摄像机和全球定位系统组成。它利用的是“猫眼”效应,即当激光主动照射监控区域,被照射区域如果存在可见光及近红外光学系统,则光学系统焦平面上的光学元件会定向反射回激光,一般定向反射回的激光能量密度为其它非光学区域的10000倍,因此被摄像机接收下来,将其位置叠加在场景的电视画面上。该技术是通过散点图计算出落在图像的四个象限上各个点的偏移量,并通过偏移量补偿到转台的移动距离计算中,使需要关注的目标点位置通过转台自动移动到图像视野正中。而目前没有发现在该领域使用散点图作为获取偏移量参与位置对中的算法。
发明内容
本发明的目的在于针对现有技术中的上述不足,提供一种用于反狙击手机器人的光电跟踪图像对准方法,以解决或改善上述的问题。
为达到上述目的,本发明采取的技术方案是:
一种用于反狙击手机器人的光电跟踪图像对准方法,其包括以下步骤:
S1、采集多次测试目标所在象限的坐标点数据,并进行当前转台移动步长的采样;
S2、绘制散点图,采用散点图进行线性回归分析,推导得到回归系数;
S3、点击屏幕图像上目标显示位置,得到实际目标所在图像象限和位置;
S4、给出目标移动到图像中心需要转台移动的X方向和Y方向的转台移动步长;
S5、根据实际目标位置数据和回归系数计算需要补偿的转台移动步长;
S6、根据给出的X方向和Y方向的转台移动步长以及补偿的转台移动步长,计算得到最终的移动步长,并移动转台将目标移动到图像中心。
进一步地,步骤S1在采集多次测试目标所在象限的坐标点数据,并进行当前转台移动步长的采样,包括:
S1.1、采集多次测试目标数据,并采用慢时间降采样排列;
S1.2、对采用慢时间降采样排列的目标数据进行预处理,包括数字解调、匹配和滤波处理。
进一步地,步骤S2中绘制散点图,采用散点图进行线性回归分析,推导得到回归系数,包括:
采集多次测试目标所在的象限的坐标点与转台位置移动系数所形成的散点图推导出目标位置与转台移动系数落在图像的四个象限上运动系数关系系数;
即通过绘制散点图,将4个象限分开进行4个线性回归分析,采用散点图进行线性回归分析,进行二维转台移动步长的预测或者映射。
进一步地,步骤S5根据实际目标位置数据和回归系数计算需要补偿的转台移动步长,包括:
Yx=K1×Mx 2-K2×Mx+K3
Yy=K1×My 2-K2×My+K3
其中,Yx为选中目标在某个象限的水平方向的二维转台步长补偿值;Yy为选中目标在某个象限的垂直方向的二维转台步长补偿值;Mx为选中目标在某个象限的水平方向的实际位置值;My为选中目标在某个象限的垂直方向的实际位置值;K1,K2,K3为回归系数。
进一步地,回归系数的求解,包括以下步骤:
S5.1、根据实际目标位置数据和回归系数构建二维转台步长补偿模型:
Y=K1×M2-K2×M+K3
选取若干组(Yn,Mn),其中,n为数量,Yn为作为结果输出,Mn为输入,并得到若干组回归系数K1i、K2i、K3i,其中,K1i、K2i和K3i分别为求解得到的第i组系数,i=1、2、…N,N≥7000000;
S5.2、在N组系数K1i、K2i、K3i中随机选取W1组系数K1j、K2j、K3j,j=1、2、…W1,1000≤W1≤N,将W组系数分别带入模型中,得到:
Yj=K1j×Mj 2-K2j×Mj+K3j
其中,Yj和Mj分别为K1j、K2j、K3j对应下的模型的输出和输入;
S5.3、计算目标误差函数Z:
其中,Z1为随机组W1对应下的目标误差函数。
进一步地,重复多次步骤S5.2和步骤S5.3,得到关于目标误差函数的数据集(Z1,Z2,…,Zd),d为重复次数;
对d组目标误差函数进行排序,筛选得到数据集中目标函数最小的Zmin;并定义最小目标误差函数值Zmin对应的系数K1j、K2j、K3j为最优解。
本发明提供的用于反狙击手机器人的光电跟踪图像对准方法,具有以下有益效果:
本发明通过散点图采样方式来进行线性回归分析,基于获得的回归系数提高设备自动对准精度,可在发现目标后快速对目标进行对中瞄准,快速进行后面的打击或压制操作,很大程度上提高了设备的工作效率,为被保护对象争取了更多的时间。
本发明通过构建二维转台步长补偿模型,采用随机选取和最小目标误差函数值的求解,进行回归系数的求解,由于本发明涉及的数据量巨大,若采用常规的最小二乘法或者矩阵法作为核心求解回归系数,在需要花费巨大的时间资源和硬件资源进行求解,得不偿失,与常规方法相比,本发明计算量小,且采用多组随机进行结合,随机性强,真实性强,且计算效率具有本质的提升。
附图说明
图1为用于反狙击手机器人的光电跟踪图像对准方法的流程框图。
图2为用于反狙击手机器人的光电跟踪图像对准方法四个象限中目标点距离中心点的位置关系图。。
图3为用于反狙击手机器人的光电跟踪图像对准方法的回归系数计算所用的散点图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
根据本申请的一个实施例,参考图1-图3,本方案的用于反狙击手机器人的光电跟踪图像对准方法,包括以下步骤:
S1、采集多次测试目标所在象限的坐标点数据,并进行当前转台移动步长的采样,具体包括:
步骤S1.1、采集多次测试目标数据,并采用慢时间降采样排列,如此可以降低采集的数量,由于数据的量太大,往往是百万级别、千万级别、甚至更高。
步骤S1.2、对采用慢时间降采样排列的目标数据进行预处理,包括数字解调、匹配和滤波处理。
S2、绘制散点图,采用散点图进行线性回归分析,推导得到回归系数;
具体地,采集多次测试目标所在的象限的坐标点与转台位置移动系数所形成的散点图推导出目标位置与转台移动系数落在图像的四个象限上运动系数关系系数;
即通过绘制散点图,将4个象限分开进行4个线性回归分析,采用散点图进行线性回归分析,进行二维转台移动步长的预测或者映射。
S3、点击屏幕图像上目标显示位置,得到实际目标所在图像象限和位置;
S4、给出目标移动到图像中心需要转台移动的X方向和Y方向的转台移动步长;
S5、根据实际目标位置数据和回归系数计算需要补偿的转台移动步长;
S6、根据给出的X方向和Y方向的转台移动步长以及补偿的转台移动步长,计算得到最终的移动步长,并移动转台将目标移动到图像中心。
以下将对上述步骤进行详细描述。
由于需要将图像上的目标移动到中心位置,涉及二维转台的水平移动和俯仰移动,任何的机械动作都会有误差,且误差由于机械加工的原因是有变化规律的,包括水平移动误差和俯仰移动误差,其误差公式如下:
Ex=X-Mx
Ey=Y-My
其中,Ex为水平移动误差;Ey为俯仰移动误差;X为图像水平中心点;Y为图像垂直中心点;Mx为二维转台在水平方向进行对中移动后,目标在图像上显示的水平方向的实际位置值;My为二维转台在垂直方向进行对中移动后,目标在图像上显示的垂直方向的实际位置值。
图像的中心点是由水平和垂直线交叉的点,形成4个象限,每个象限里由于不同位置的点都包含水平和垂直两个方向上的误差且到中心点的误差不一样,该误差有正有负且非线性的,如图2所示,故通过上述误差计算公式并不能准确进行位置移动的补偿。
故本发明采用如下步骤:
前期标定,测试目标在图像视野的不同位置的3个点数据和当前转台移动步长的采样。
绘制散点图并推导出回归系数;
通过线性回归分析得出回归系数,将4个象限分开来进行4个线性回归分析,该算法采用散点图进行线性回归分析,进行二维转台移动步长的预测或者映射。
线性回归可以用来对观测数据集的和X的值拟合出一个预测模型。当完成这样一个模型以后,对于一个新增的X值,在没有给定与它相配对的y的情况下,可以用这个拟合过的模型预测出一个y值。这里的y值就是我们要的某个目标点所在位置要到图像中心点所需要进行额外补偿的二维转台移动步长。
参考图3,回归系数的计算是通过前期采集多次测试目标所在的象限的坐标点(水平方向的第几个像素和垂直方向的第几个像素)与转台位置移动系数所形成的散点图推导出目标位置与转台移动系数落在图像的四个象限上运动系数关系系数,然后通过运动公式和当前目标所在象限位置反算出转台的移动补偿步长,从而使需要关注的目标点位置通过转台的移动,使其到图像视野正中。
Yx=K1×Mx 2-K2×Mx+K3
Yy=K1×My 2-K2×My+K3
其中,Yx为选中目标在某个象限的水平方向的二维转台步长补偿值;Yy为选中目标在某个象限的垂直方向的二维转台步长补偿值;Mx为选中目标在某个象限的水平方向的实际位置值;My为选中目标在某个象限的垂直方向的实际位置值;K1,K2,K3为回归系数。
回归系数的求解,包括以下步骤:
步骤S5.1、根据实际目标位置数据和回归系数构建二维转台步长补偿模型,该模型与二维转台步长补偿的计算式相对应,通过模型的构建,采用输出和输入进行参数的求解,可以进一步简化计算过程,减少计算量,且更具准确性,具体模型为:
Y=K1×M2-K2×M+K3
选取若干组(Yn,Mn),其中,n为数量,Yn为作为结果输出,Mn为输入,并得到若干组回归系数K1i、K2i、K3i,其中,K1i、K2i和K3i分别为求解得到的第i组系数,i=1、2、…N,N≥7000000;
步骤S5.2、在N组系数K1i、K2i、K3i中随机选取W1组系数K1j、K2j、K3j,j=1、2、…W1,1000≤W1≤N,将W组系数分别带入模型中,得到:
Yj=K1j×Mj 2-K2j×Mj+K3j
其中,Yj和Mj分别为K1j、K2j、K3j对应下的模型的输出和输入;
步骤S5.3、计算目标误差函数Z:
其中,Z1为随机组W1对应下的目标误差函数。
重复多次步骤S5.2和步骤S5.3,得到关于目标误差函数的数据集(Z1,Z2,…,Zd),d为重复次数;
对d组目标误差函数进行排序,筛选得到数据集中目标函数最小值Zmin,即代表模型的实际值与预测值之间的差值最小,或者说该组回归系数对应的模型的输出值与真实值之间的误差最小,并定义最小目标误差函数值Zmin对应的系数K1j、K2j、K3j为最优解。
点击屏幕图像上目标显示位置,得到实际目标所在图像象限和位置。
给出目标移动到图像中心需要转台移动的X方向和Y方向的转台移动步长。
根据实际目标位置数据和回归系数计算需要补偿的转台移动步长。
根据给出的X方向和Y方向的转台移动步长以及补偿的转台移动步长,计算得到最终的移动步长,并移动转台将目标移动到图像中心。
本发明通过散点图采样方式来进行线性回归分析,基于获得的回归系数提高设备自动对准精度,可在发现目标后快速对目标进行对中瞄准,快速进行后面的打击或压制操作,很大程度上提高了设备的工作效率,为被保护对象争取了更多的时间。
本发明通过将回归系数的求解,转换为模型参数的求解,并采用若干次随机选取待定系数,以及若干次随机待定系数对应下的目标误差函数值的求解,求解得到最小的误差值,并通过求解得到的最小目标误差值反向确定最优的待定系数,进而求解得到三个回归系数值。
由于本发明涉及的数据量巨大,若采用常规的最小二乘法或者矩阵法作为核心求解回归系数,均涉及到矩阵的求解,其数据处理量巨大,需要花费大量的时间资源和硬件资源进行求解,得不偿失,与常规方法相比,本发明计算量小,且采用多组随机进行结合,随机性强,真实性强,更具有代表性,且计算效率具有本质的提升。
虽然结合附图对发明的具体实施方式进行了详细地描述,但不应理解为对本专利的保护范围的限定。在权利要求书所描述的范围内,本领域技术人员不经创造性劳动即可做出的各种修改和变形仍属本专利的保护范围。

Claims (4)

1.一种用于反狙击手机器人的光电跟踪图像对准方法,其特征在于,包括以下步骤:
S1、采集多次测试目标所在象限的坐标点数据,并进行当前转台移动步长的采样;
S2、绘制散点图,采用散点图进行线性回归分析,推导得到回归系数;
S3、点击屏幕图像上目标显示位置,得到实际目标所在图像象限和位置;
S4、给出目标移动到图像中心需要转台移动的X方向和Y方向的转台移动步长;
S5、根据实际目标位置数据和回归系数计算需要补偿的转台移动步长,
其包括:
Yx=K1×Mx 2-K2×Mx+K3
Yy=K1×My 2-K2×My+K3
其中,Yx为选中目标在某个象限的水平方向的二维转台步长补偿值;Yy为选中目标在某个象限的垂直方向的二维转台步长补偿值;Mx为选中目标在某个象限的水平方向的实际位置值;My为选中目标在某个象限的垂直方向的实际位置值;K1,K2,K3为回归系数;
回归系数的求解,包括以下步骤:
S5.1、根据实际目标位置数据和回归系数构建二维转台步长补偿模型:
Y=K1×M2-K2×M+K3
选取若干组(Yn,Mn),其中,n为数量,Yn为作为结果输出,Mn为输入,并得到若干组回归系数K1i、K2i、K3i,其中,K1i、K2i和K3i分别为求解得到的第i组系数,i=1、2、…N,N≥7000000;Y为图像垂直中心点;
S5.2、在N组系数K1i、K2i、K3i中随机选取W1组系数K1j、K2j、K3j,j=1、2、…W1,1000≤W1≤N,将W组系数分别带入模型中,得到:
Yj=K1j×Mj 2-K2j×Mj+K3j
其中,Yj和Mj分别为K1j、K2j、K3j对应下的模型的输出和输入;
S5.3、计算目标误差函数Z:
其中,Z1为随机组W1对应下的目标误差函数,y为某个目标点所在位置要到图像中心点所需要进行额外补偿的二维转台移动步长;
S6、根据给出的X方向和Y方向的转台移动步长以及补偿的转台移动步长,计算得到最终的移动步长,并移动转台将目标移动到图像中心。
2.根据权利要求1所述的用于反狙击手机器人的光电跟踪图像对准方法,其特征在于,所述步骤S1在采集多次测试目标所在象限的坐标点数据,并进行当前转台移动步长的采样,包括:
S1.1、采集多次测试目标数据,并采用慢时间降采样排列;
S1.2、对采用慢时间降采样排列的目标数据进行预处理,包括数字解调、匹配和滤波处理。
3.根据权利要求1所述的用于反狙击手机器人的光电跟踪图像对准方法,其特征在于,所述步骤S2中绘制散点图,采用散点图进行线性回归分析,推导得到回归系数,包括:
采集多次测试目标所在的象限的坐标点与转台位置移动系数所形成的散点图推导出目标位置与转台位置移动系数落在图像的四个象限上运动系数关系系数;
即通过绘制散点图,将4个象限分开进行4个线性回归分析,采用散点图进行线性回归分析,进行二维转台移动步长的预测或者映射。
4.根据权利要求1所述的用于反狙击手机器人的光电跟踪图像对准方法,其特征在于,重复多次步骤S5.2和步骤S5.3,得到关于目标误差函数的数据集(Z1,Z2,…,Zd),d为重复次数;
对d组目标误差函数进行排序,筛选得到数据集中目标函数最小的Zmin;并定义最小目标误差函数值Zmin对应的系数K1j、K2j、K3j为最优解。
CN202111519783.0A 2021-12-13 2021-12-13 一种用于反狙击手机器人的光电跟踪图像对准方法 Active CN114184086B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111519783.0A CN114184086B (zh) 2021-12-13 2021-12-13 一种用于反狙击手机器人的光电跟踪图像对准方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111519783.0A CN114184086B (zh) 2021-12-13 2021-12-13 一种用于反狙击手机器人的光电跟踪图像对准方法

Publications (2)

Publication Number Publication Date
CN114184086A CN114184086A (zh) 2022-03-15
CN114184086B true CN114184086B (zh) 2023-10-03

Family

ID=80604729

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111519783.0A Active CN114184086B (zh) 2021-12-13 2021-12-13 一种用于反狙击手机器人的光电跟踪图像对准方法

Country Status (1)

Country Link
CN (1) CN114184086B (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5574498A (en) * 1993-09-25 1996-11-12 Sony Corporation Target tracking system
JP2013247401A (ja) * 2012-05-23 2013-12-09 Nec Corp 追尾装置および追尾方法
CN103679687A (zh) * 2012-09-18 2014-03-26 杭州海康威视数字技术股份有限公司 一种智能跟踪高速球机的目标跟踪的方法
CN104460704A (zh) * 2014-12-15 2015-03-25 南京理工大学 一种基于扰动上界估计的电动转台俯仰位置跟踪控制方法
CN105547046A (zh) * 2015-12-30 2016-05-04 南京理工大学 一种基于视频的狙击机器人快速精确瞄准方法
CN106441117A (zh) * 2016-09-22 2017-02-22 西安交通大学 基于多站etalon激光跟踪系统的转台误差检测方法
CN107894189A (zh) * 2017-10-31 2018-04-10 北京艾克利特光电科技有限公司 一种目标点自动追踪的光电瞄准系统及其自动追踪方法
CN108007347A (zh) * 2017-12-10 2018-05-08 北京工业大学 一种用于LaserTracer几何误差补偿方法
CN109445453A (zh) * 2018-09-12 2019-03-08 湖南农业大学 一种基于OpenCV的无人机实时压缩跟踪方法
CN110375772A (zh) * 2019-07-29 2019-10-25 中国航空工业集团公司北京长城计量测试技术研究所 自适应卡尔曼滤波的环形激光器随机误差建模与补偿方法
CN110470263A (zh) * 2019-08-02 2019-11-19 天津大学 一种基于梯度提升树的回转体测量系统误差补偿方法
CN111506996A (zh) * 2020-04-15 2020-08-07 郑州轻工业大学 一种基于辨识误差受限的转台伺服系统自适应辨识方法
CN111552292A (zh) * 2020-05-09 2020-08-18 沈阳建筑大学 基于视觉的移动机器人路径生成与动态目标跟踪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10782095B2 (en) * 2017-11-24 2020-09-22 Huntercraft Limited Automatic target point tracing method for electro-optical sighting system

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5574498A (en) * 1993-09-25 1996-11-12 Sony Corporation Target tracking system
JP2013247401A (ja) * 2012-05-23 2013-12-09 Nec Corp 追尾装置および追尾方法
CN103679687A (zh) * 2012-09-18 2014-03-26 杭州海康威视数字技术股份有限公司 一种智能跟踪高速球机的目标跟踪的方法
CN104460704A (zh) * 2014-12-15 2015-03-25 南京理工大学 一种基于扰动上界估计的电动转台俯仰位置跟踪控制方法
CN105547046A (zh) * 2015-12-30 2016-05-04 南京理工大学 一种基于视频的狙击机器人快速精确瞄准方法
CN106441117A (zh) * 2016-09-22 2017-02-22 西安交通大学 基于多站etalon激光跟踪系统的转台误差检测方法
CN107894189A (zh) * 2017-10-31 2018-04-10 北京艾克利特光电科技有限公司 一种目标点自动追踪的光电瞄准系统及其自动追踪方法
CN108007347A (zh) * 2017-12-10 2018-05-08 北京工业大学 一种用于LaserTracer几何误差补偿方法
CN109445453A (zh) * 2018-09-12 2019-03-08 湖南农业大学 一种基于OpenCV的无人机实时压缩跟踪方法
CN110375772A (zh) * 2019-07-29 2019-10-25 中国航空工业集团公司北京长城计量测试技术研究所 自适应卡尔曼滤波的环形激光器随机误差建模与补偿方法
CN110470263A (zh) * 2019-08-02 2019-11-19 天津大学 一种基于梯度提升树的回转体测量系统误差补偿方法
CN111506996A (zh) * 2020-04-15 2020-08-07 郑州轻工业大学 一种基于辨识误差受限的转台伺服系统自适应辨识方法
CN111552292A (zh) * 2020-05-09 2020-08-18 沈阳建筑大学 基于视觉的移动机器人路径生成与动态目标跟踪方法

Also Published As

Publication number Publication date
CN114184086A (zh) 2022-03-15

Similar Documents

Publication Publication Date Title
CN109947097B (zh) 一种基于视觉和激光融合的机器人定位方法及导航应用
US8934721B2 (en) Microscopic vision measurement method based on adaptive positioning of camera coordinate frame
CN105069743B (zh) 探测器拼接实时图像配准的方法
CN104567727B (zh) 利用立体靶标对线结构光轮廓传感器的全局统一校准方法
CN101383899A (zh) 一种空基平台悬停视频稳像方法
CN113112504A (zh) 一种植物点云数据分割方法及系统
CN112949478A (zh) 基于云台相机的目标检测方法
CN102693543B (zh) 室外环境下变焦云台摄像机全自动标定方法
CN112598729A (zh) 融合激光与相机的目标物体识别与定位方法
CN109035170A (zh) 基于单网格图分段映射的自适应广角图像校正方法及装置
CN112132900A (zh) 一种视觉重定位方法及系统
CN115995058A (zh) 基于人工智能的输电通道安全在线监测方法
CN109544584B (zh) 一种实现巡检稳像精度测量的方法及系统
CN114184086B (zh) 一种用于反狙击手机器人的光电跟踪图像对准方法
CN109636856A (zh) 基于hog特征融合算子的物体六维度位姿信息联合测量方法
CN105654474A (zh) 基于视觉引导的机械臂定位方法及装置
CN105651699A (zh) 一种基于面阵相机的动态跟焦方法
CN110567437B (zh) 港口起重机械摄影测量方法
CN104729404B (zh) 高速3d工业数字显微镜
CN114299153A (zh) 一种超大电力设备的相机阵列同步标定方法及系统
CN113932712A (zh) 一种基于深度相机和关键点的瓜果类蔬菜尺寸测量方法
CN114119768A (zh) 一种基于多目视觉技术的刺参活性监测方法
CN110349169A (zh) 一种直线测量方法
JPH0252204A (ja) 3次元座標計測装置
CN109934333A (zh) 基于全连接神经网络的目标定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant