CN111998823B - 基于双目异光源测距装置的目标测距方法 - Google Patents
基于双目异光源测距装置的目标测距方法 Download PDFInfo
- Publication number
- CN111998823B CN111998823B CN202010871215.6A CN202010871215A CN111998823B CN 111998823 B CN111998823 B CN 111998823B CN 202010871215 A CN202010871215 A CN 202010871215A CN 111998823 B CN111998823 B CN 111998823B
- Authority
- CN
- China
- Prior art keywords
- visible light
- ranging
- camera
- binocular
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Abstract
本发明公开了基于双目异光源测距装置的目标测距方法,涉及异光源测距技术领域,解决了现有测距精度低的问题,包括步骤一、获得可见光相机拍摄的可见光图像和近红外相机拍摄的近红外图像,根据可见光图像获得可见光测距结果Lv,根据近红外图像获得近红外测距结果Lr,根据可见光图像和近红外图像获得双目测距结果Ls;步骤二、判断可见光是否充足并采用误差函数E对Lr进行误差补偿得到最终测距结果L,若可见光充足,则E为根据多个Lr对BP神经网络进行训练获得;若可见光不充足,则E为根据多个Lr、Lv和Ls的组合对BP神经网络进行训练获得。本发明无论是光照是否充足的情况下测距精度高,测距精度相比于单目测距和双目测距均有较大的提升。
Description
技术领域
本发明涉及双目异光源测距技术领域,具体涉及基于双目异光源测距装置的目标测距方法。
背景技术
在现代空间航天器的对接中,距离测量是最基本的要求。外空间光照条件复杂,强光、弱光甚至无光等情况给传统的光学测距定位方式带来了严峻的挑战。近红外成像由于原理不同,在复杂的光照条件下依旧能够保持十分稳定的成像能力,因此可以将之与传统可见光测距方式相结合,利用二者优势进行距离测量上的相互补偿。由于对夜视能力的需求,近些年,近红外与可见光结合的异光源成像发展较为迅速,已经在车牌识别、人脸识别、无人机测距、车距检测等领域有着较为广泛的应用。尽管已经有大量学者对异光源成像以及单双目融合测距等进行了探索,但结合测距精度仍然较低。
发明内容
为了解决现有测距方法测距精度较低的问题,本发明提供基于双目异光源测距装置的目标测距方法。
本发明为解决技术问题所采用的技术方案如下:
基于双目异光源测距装置的目标测距方法,包括如下步骤:
步骤一、获得可见光相机拍摄的可见光图像和近红外相机拍摄的近红外图像,根据可见光图像获得可见光测距结果Lv,根据近红外图像获得近红外测距结果Lr,根据可见光图像和近红外图像获得双目测距结果Ls;
步骤二、判断可见光是否充足并采用误差函数E对Lr进行误差补偿得到最终测距结果L,若可见光充足,则E为根据多个Lr、Lv和Ls的组合对BP神经网络进行训练获得;若可见光不充足,则E为根据多个Lr对BP神经网络进行训练获得。
基于双目异光源测距装置的目标测距方法,所述双目异光源测距装置包括近红外相机、可见光相机和电箱,近红外相机、可见光相机设置在电箱上,所述近红外相机的像面和可见光相机的像面共面,近红外相机和可见光相机光轴平行。
本发明的有益效果是:
本发明的基于双目异光源测距装置的目标测距方法师根据空间航天器对接过程中光照条件较为复杂的情况,设计了异光源单双目融合测距方法,利用BP神经网络对测距进行了良好的误差补偿,本发明的目标测距方法无论是光照是否充足的情况下测距精度高,测距精度相比于单目测距和双目测距均有较大的提升。
附图说明
图1为本发明的基于双目异光源测距装置的目标测距方法的流程图。
图2为本发明的基于双目异光源测距装置的目标测距方法的神经网络结构示意图。
图3为本发明的基于双目异光源测距装置的目标测距方法的测距装置图。
图4为本发明的基于双目异光源测距装置的目标测距方法的可见光充足情况下测距结果精度对比图。
图5为本发明的基于双目异光源测距装置的目标测距方法的可见光不充足情况下测距结果精度对比图。
图6为本发明的基于双目异光源测距装置的目标测距方法的可见光充足与可见光不充足条件下的测距精度图。
具体实施方式
下面结合附图和实施例对本发明做进一步详细说明。
本发明基于双目异光源测距装置的目标测距方法,具体为基于可见光摄像机和红外摄像机的目标测距方法,具体测距过程如图1所示,包括如下步骤。
步骤一、获得可见光相机拍摄的可见光图像和近红外相机拍摄的近红外图像,根据近红外图像获得近红外测距结果Lr,根据可见光图像获得可见光测距结果Lv,根据可见光图像和近红外图像获得双目测距结果Ls。
可见光相机进行拍摄得到可见光图像,近红外相机进行拍摄得到近红外图像;对可见光图像进行预处理,对近红外图像进行预处理;根据预处理后的可见光图像对目标物体进行特征尺寸提取得到特征尺寸一,根据可见光图像特征尺寸一和已知的实际特征尺寸(对应图1左侧的“相似比例确定”)求出物体距离(通过特征尺寸一和已知的实际特征尺寸之间的比例关系求出物体距离),即获得可见光测距结果,又称可见光相机的单目测距结果;根据预处理后的近红外图像对目标物体进行特征尺寸提取得到特征尺寸二,根据近红外图像特征尺寸二和已知的实际特征尺寸求出物体距离(通过特征尺寸二和已知的实际特征尺寸之间的比例关系求出物体距离,对应图1右侧的“相似比例确定”),即获得近红外测距结果,又称近红外相机的单目测距结果;将预处理后的可见光图像和预处理后的近红外图像进行立体校正,对立体校正后的可见光图像和立体校正后的近红外图像进行二值化处理,利用圆度拟合将目标物体从背景中提取出来,通过提取目标物体圆心坐标和几何半径的方式进行特征点匹配并获取视差信息,利用三角测量原理得出物体距离,即获得双目测距结果Ls。
获取单目测距结果(可见光测距结果和近红外测距结果)的过程中,图像坐标系与摄像机坐标系之间的几何尺寸存在如下关系:
其中,可见光相机和近红外相机均属于摄像机坐标系,k为比例系数,f为相机的焦距,d为基于可见光相机基于近红外相机的测量距离,r为图像坐标系中测得的目标物体半径,R为摄像机坐标系中的实际目标物体半径,假设在图像坐标系中,每个像素在X轴和Y轴方向上的尺寸为dx、dy(单位毫米),图像坐标系原点O在像素坐标系中的坐标为(u0,v0),则像素坐标系O-uv与图像坐标系O-XY的点的变换关系为
由于实际使用的相机像素尺寸在X轴和Y轴方向相同,因此我们用dx进行表示,则可以得出图片上目标物体的像素半径rp与图像坐标系中的半径r关系为
由此可推导得出测量公式如下
在获取双目测距结果时,首先完成双目立体校正,而后我们采用基于视差信息的三角测量原理,测距原理图如下所示,可见光相机和近红外相机两相机同时观察空间中同一个特征点P,分别在各自图像平面中获得点P的像,设图像坐标分别为Pl=(xl,yl)和Pr=(xr,yr)。在两摄像机平行共面的情况下,对应空间点在可见光相机和近红外相机中图像坐标的y值相等,即yl=yr,我们统一设为y,由三角形的几何关系便可得到空间点P的三维坐标
其中,b为可见光相机和近红外相机投影中心连线距离即基线距,xl-xr即视差信息。因此,通过对可见光相机和近红外相机中目标物体对应特征点坐标的提取与计算,我们便可以得到目标物体的三维坐标,进而得到目标物体的距离信息。
步骤二、判断可见光是否充足并采用误差函数E对Lr进行误差补偿得到最终测距结果L,若可见光充足,则E为根据多个Lr、Lv和Ls的组合对BP神经网络进行训练获得;若可见光不充足,则E为根据多个Lr对BP神经网络进行训练获得。
换言之,步骤二、建立误差函数并判断可见光是否充足,采用误差函数对近红外测距结果进行误差补偿得到最终测距结果L,若可见光充足,则误差函数根据可见光测距结果、近红外测距结果和双目测距结果获得,即误差函数为关于可见光测距结果、近红外测距结果和双目测距结果的函数,可见光测距结果、近红外测距结果和双目测距结果均是误差函数的自变量;若可见光不充足,则误差函数根据近红外测距结果获得,即误差函数为关于近红外测距结果的函数,误差函数的获得不根据可见光测距结果和双目测距结果,可见光测距结果和双目测距结果对误差函数没有影响。
误差函数E表示为
f1()表示关于Lr的函数,f2()表示关于Lv、Lr和LS的函数。
基于误差函数对Lr进行补偿的最终测距结果L为:
可见光是否充足是根据可见光测距结果和近红外测距结果判断的,根据可见光测距结果和近红外测距结果计算可见光的光照稳定度因子,判断可见光是否充足即为判断可见光的光照稳定度因子是否大于等于0。获取可见光测距结果Lv、近红外测距结果Lr,定义光照稳定度因子γ:
其中,a为Lv和Lr的平均值,即c为光照稳定度条件的判定阈值,经实验验证c取200为最优。当光照稳定度因子γ大于等于0时,判断结果为可见光不充足,以近红外相机的单目测距结果为数据源进行自补偿(对应图1的近红外单目神经网络自补偿);当光照稳定度因子γ小于0时,判断结果为可见光充足,以三种测距结果为数据源进行异光源互补偿(对应图1的异光源双目神经网络补偿),实现相互之间的配合与修正。
误差函数E表示为
f1()表示关于Lr的函数,f2()表示关于Lv、Lr和LS的函数。
基于误差函数对Lr进行补偿的最终测距结果L为:
进行上述步骤一之前还包括标定的步骤:
利用张正友标定法对近红外相机进行内参数标定,得到近红外相机的内部参数;利用张正友标定法对可见光相机进行内参数标定,得到可见光相机的内部参数。具体可根据近红外相机拍摄标定物照片角点特征对利用张正友标定法标定,根据可见光相机拍摄标定物照片角点特征对利用张正友标定法标定。
误差函数E为基于BP神经网络进行训练获得,下面详述误差函数E的模型建立方法:
本发明中采用的BP神经网络如图2所示,BP神经网络包括输入层、隐含层和输出层,输出拟合结果,wij为输入层与隐含层之间的权值矩阵,wjk为隐含层与输出层之间的权值矩阵,为三输入一输出网络(可见光充足条件下为三输入一输出网络,可见光不充足条件下可视为单输入单输出网络)。
根据经验公式可确定隐含层神经元个数
其中,Ni为输入层神经元个数,No是输出层神经元个数,Ns是训练集的样本数,α为2-10之间的随机数值。本发明中输入层神经元个数为3,输出层神经元个数为1,选定Ns=21,α=2,则Nh=2.625,则隐含层神经元个数为3。
获得若干组(大于m)不同距离上的测量结果Lr、Lv和Ls,将测量结果进行分组,形成输入矩阵x,输入矩阵x的每一列代表一次测量结果,每一列的第一行为Lr,第二行为Lv,第三行为Ls,例如xp表示第p个输入矩阵x的第p列对应的矩阵xp=[Lr,Lv,Ls]T。x作为神经网络的输入向量,使实际测距的误差函数对应组成矩阵t作为目标向量进行训练,最终得到Lr,Lv和Ls与误差函数E之间的关系,为实测中的误差修正提供函数模型。
假设输入层到隐含层的偏置为aj,隐含层到输出层的偏置为bk,学习速率为η,激励函数为g(),整个神经网络的算法步骤如下:
S0.1、进行初始化设置。给定初始权值矩阵w,即给定初始wij和wjk;给定输入层到隐含层的偏置aj,给定隐含层到输出层的偏置bk,设定目标误差差值ε和学习速率η;规定最大迭代次数m。
S0.2、计算隐含层和输出层的输出。
下面进行第p次计算隐含层输出和输出层输出,即第p次迭代,p≤m。p的值也就是进行S0.2的次数,第一次进行S0.2时令p=1。
隐含层输出Hj为
输出层输出Ok为
进行S0.3
S0.3、计算误差Ep。
取误差公式为
其中Yk为期望输出。
记Yk-Ok=ek,则Ep可以表示为
以上公式中,i=1,2,3;j=1,2,3;k=1。
S0.4、根据步骤S0.3的ek更新权值矩阵w、更新输入层到隐含层的偏置aj、更新隐含层到输出层的偏置bk。
权值矩阵的更新公式为
偏置的更新公式为
进行S0.5。
S0.5、判定算法迭代是否结束
若p=1,p’=p+1,令p’为p,并采用更新后的w作为S0.2的w、更新后的aj作为S0.2的aj、更新后的bk作为S0.2的bk重新执行S0.2至步骤S0.4,重新计算隐含层输出、输出层输出和误差;
若p≠1且p≠m,判断S0.3得到的Ep和上一次执行S0.3得到的Ep的差值是否小于ε,若小于ε,此时的Ep为E的最终结果,结束计算;若不小于ε,p’=p+1,令p’为p,并采用更新后的w作为S0.2的w、更新后的aj作为S0.2的aj、更新后的bk作为S0.2的bk重新执行S0.2至S0.5;
若p=m,此时的Ep为E的最终结果,E=Ep结束计算。
对于可见光不充足的E,进行BP神经网络训练采用的xp均为xp=[Lr,0,0]T。,对于可见光充足的E,进行BP神经网络训练采用的xp均为xp=[Lr,Lv,Ls]T。
上述误差函数E训练中,将被测目标在保持主轴与可见光相机、近红外相机光轴平行姿态的前提下放在提前做好的标记点处,根据神经网络在样本数目较少时训练组与测试组的划分原则,采用8:1的比例,比例的8为训练点,比例的1为测试点。记录实际距离,针对每一个标记点进行测距,记录下各个距离上准确的位置数据及相应的三种方式实测结果,将BP神经网络拟合模块中的理想输出值和实际输入值带入训练,训练结束后,对测试点进行测量,通常为所有测试点神经网络拟合结果在误差允许范围内,训练完毕。
上述的基于双目异光源测距装置的目标测距方法进行测距所采用的测距装置包括:近红外相机、可见光相机和电箱,近红外相机、可见光相机设置在电箱上,近红外相机的像面和可见光相机的像面平行且共面,近红外相机和可见光相机光轴平行。电箱作为相机安装箱,其内设置有VGA转换器,其上设有VGA转换接口和usb接口。近红外相机由6片透镜组成,其中5片为球面玻璃镜片,最外层为融石英保护玻璃,均采用包边法安装,光路长约34.9mm,透镜材料均为常用玻璃牌号。可见光相机由5片透镜组成,其中4片为球面玻璃镜片,最外层为融石英保护玻璃,均采用包边法安装,光路长约43mm,透镜材料均为常用玻璃牌号。具体测距模拟图如图3,其中目标物体接口模拟为圆环。
利用可见光与近红外双波段成像作为图像信息源,在对图像中的特征信息进行提取后,同时进行双目测距与单目测距,并将测距结果作为输入送入神经网络中,比照实际距离进行训练,完成不同光照下异光源单双目测距结果的相互补偿与自补偿。最终,将训练好的模型导入系统中进行实际测量,实现复杂光照条件下的较高精度测距功能。如图4所示,为可以看出异源单双目结合测距方法的精度明显高于单目或双目测距的单一方式,相对误差基本维持在1%以内。如图5所示,可以看出本发明的测距精度明显高于单目近红外测距精度,相对误差基本维持在2%以内。图6给出了可见光充足与可见光不充足条件下的测距精度图,可见光不充足的测距精度为虚线,可以看出在面对不同的光照条件时均能够保持较高的精度,具有良好的工作稳定性。因此面对复杂的光照条件,本发明的目标测距方法的相对误差基本均维持在1~2%左右,保持了较高的测量精度。本发明根据空间航天器对接过程中光照条件较为复杂的情况,设计了异光源单双目融合测距方法,利用BP神经网络对测距进行了良好的误差补偿。面对不同的光照条件,测距精度相比于单目测距和双目测距均有较大的提升。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (5)
1.基于双目异光源测距装置的目标测距方法,其特征在于,包括如下步骤:
步骤一、获得可见光相机拍摄的可见光图像和近红外相机拍摄的近红外图像,根据可见光图像获得可见光测距结果Lv,根据近红外图像获得近红外测距结果Lr,根据可见光图像和近红外图像获得双目测距结果Ls;
步骤二、判断可见光是否充足并采用误差函数E对Lr进行误差补偿得到最终测距结果L,若可见光充足,则E为根据多个Lr、Lv和Ls的组合对BP神经网络进行训练获得;若可见光不充足,则E为根据多个Lr对BP神经网络进行训练获得;
所述误差函数E的获得包括如下步骤:
S0.1、给定输入层与隐含层之间的权值矩阵wij,给定隐含层与输出层之间的权值矩阵wjk,给定输入层到隐含层的偏置aj,给定隐含层到输出层的偏置bk,设定目标误差差值ε、学习速率η和最大迭代次数m;
S0.3、计算误差Ep
其中Yk为期望输出,k=1;
S0.4、根据步骤S0.3的ek更新wij、wjk、aj和bk;
S0.5、判定p值;
若p=1,令p’=p+1,再令p’为p,并采用S0.4中更新后的w作为S0.2的w、更新后的aj作为S0.2的aj、更新后的bk作为S0.2的bk重新执行S0.2;
若p≠1且p≠m,判断S0.3得到的Ep和上一次执行S0.3得到的Ep的差值是否小于ε,若小于ε,E=Ep,结束计算;若不小于ε,令p’=p+1,再令p’为p,并采用更新后的w作为S0.2的w、更新后的aj作为S0.2的aj、更新后的bk作为S0.2的bk重新执行S0.2;
若p=m,E=Ep,结束计算;
所述S0.4的更新公式为:
可将误差函数E表示为
f1()表示关于Lr的函数,f2()表示关于Lv、Lr和LS的函数,γ为光照稳定度因子;
基于误差函数对Lr进行补偿的最终测距结果L为:
2.如权利要求1所述的基于双目异光源测距装置的目标测距方法,其特征在于,根据可见光测距结果和近红外测距结果判断所述可见光是否充足。
3.如权利要求1所述的基于双目异光源测距装置的目标测距方法,其特征在于,所述可见光是否充足的判断具体为:根据可见光测距结果和近红外测距结果计算可见光的光照稳定度因子γ,γ大于等于0时,可见光不充足;γ小于0时,可见光充足。
5.如权利要求1至4中任意一项所述的基于双目异光源测距装置的目标测距方法,其特征在于,所述双目异光源测距装置包括近红外相机、可见光相机和电箱,近红外相机、可见光相机设置在电箱上,所述近红外相机的像面和可见光相机的像面共面,近红外相机和可见光相机光轴平行。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010871215.6A CN111998823B (zh) | 2020-08-26 | 2020-08-26 | 基于双目异光源测距装置的目标测距方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010871215.6A CN111998823B (zh) | 2020-08-26 | 2020-08-26 | 基于双目异光源测距装置的目标测距方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111998823A CN111998823A (zh) | 2020-11-27 |
CN111998823B true CN111998823B (zh) | 2021-09-07 |
Family
ID=73470954
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010871215.6A Active CN111998823B (zh) | 2020-08-26 | 2020-08-26 | 基于双目异光源测距装置的目标测距方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111998823B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115713736A (zh) * | 2023-01-10 | 2023-02-24 | 四川大学 | 一种基于仿射变换的全天候车牌单目测距方法及装置 |
CN117671603B (zh) * | 2024-02-01 | 2024-04-16 | 江苏濠汉信息技术有限公司 | 用于三维立体测距装置的输电线路多维环境监测方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102176243A (zh) * | 2010-12-30 | 2011-09-07 | 浙江理工大学 | 一种基于可见光和红外摄像机的目标测距方法 |
CN105004354B (zh) * | 2015-06-19 | 2017-12-05 | 北京航空航天大学 | 大斜视角下无人机可见光和红外图像目标定位方法 |
JP2018189443A (ja) * | 2017-04-28 | 2018-11-29 | キヤノン株式会社 | 距離測定装置、距離測定方法及び撮像装置 |
CN108600725B (zh) * | 2018-05-10 | 2024-03-19 | 浙江芯劢微电子股份有限公司 | 一种基于rgb-ir图像数据的白平衡校正装置及方法 |
CN110929575A (zh) * | 2019-10-22 | 2020-03-27 | 苏州雷泰智能科技有限公司 | 放射治疗病人身份验证方法、装置及放射治疗设备 |
-
2020
- 2020-08-26 CN CN202010871215.6A patent/CN111998823B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111998823A (zh) | 2020-11-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110296691B (zh) | 融合imu标定的双目立体视觉测量方法与系统 | |
CN109509230B (zh) | 一种应用于多镜头组合式全景相机的slam方法 | |
CN111210468B (zh) | 一种图像深度信息获取方法及装置 | |
CN108510551B (zh) | 一种远距离大视场条件下相机参数的标定方法及系统 | |
CN102472609B (zh) | 位置和姿势校准方法及设备 | |
CN109323650B (zh) | 测量系统中视觉图像传感器与光点测距传感器测量坐标系的统一方法 | |
CN111709985B (zh) | 一种基于双目视觉的水下目标测距方法 | |
CN110189400B (zh) | 一种三维重建方法、三维重建系统、移动终端及存储装置 | |
CN111998823B (zh) | 基于双目异光源测距装置的目标测距方法 | |
CN108198219B (zh) | 用于摄影测量的相机标定参数的误差补偿方法 | |
CN112985293B (zh) | 一种单像机双球面镜镜像双目视觉测量系统和测量方法 | |
CN111192235A (zh) | 一种基于单目视觉模型和透视变换的图像测量方法 | |
CN107330927B (zh) | 机载可见光图像定位方法 | |
CN109163657A (zh) | 一种基于双目视觉三维重建的圆形目标位姿检测方法 | |
CN110889873A (zh) | 一种目标定位方法、装置、电子设备及存储介质 | |
CN109727278A (zh) | 一种机载LiDAR点云数据与航空影像的自动配准方法 | |
CN109974618B (zh) | 多传感器视觉测量系统的全局标定方法 | |
US10628968B1 (en) | Systems and methods of calibrating a depth-IR image offset | |
CN114705122A (zh) | 一种大视场立体视觉标定方法 | |
CN109341588B (zh) | 一种双目结构光三系统法视角加权的三维轮廓测量方法 | |
CN115359127A (zh) | 一种适用于多层介质环境下的偏振相机阵列标定方法 | |
Ren et al. | High precision calibration algorithm for binocular stereo vision camera using deep reinforcement learning | |
Sun et al. | A fast underwater calibration method based on vanishing point optimization of two orthogonal parallel lines | |
CN105389819B (zh) | 一种鲁棒的半标定下视图像极线校正方法及系统 | |
CN112712566B (zh) | 基于结构参数在线校正的双目立体视觉传感器测量方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220927 Address after: Room 201, Building 5, Northwest District, Nano City, No. 99, Jinjihu Avenue, Suzhou Industrial Park, Suzhou Area, Wuzhong District Free Trade Pilot Zone, Suzhou City, Jiangsu Province, 215000 Patentee after: Suzhou jitianxingzhou Space Technology Co.,Ltd. Address before: 130012 No. 2699 Qianjin Street, Jilin, Changchun Patentee before: Jilin University |
|
TR01 | Transfer of patent right |