CN103218820B - 一种基于多维特征的相机标定误差补偿方法 - Google Patents
一种基于多维特征的相机标定误差补偿方法 Download PDFInfo
- Publication number
- CN103218820B CN103218820B CN201310140445.5A CN201310140445A CN103218820B CN 103218820 B CN103218820 B CN 103218820B CN 201310140445 A CN201310140445 A CN 201310140445A CN 103218820 B CN103218820 B CN 103218820B
- Authority
- CN
- China
- Prior art keywords
- key point
- file
- feature
- image
- gabor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Processing (AREA)
Abstract
一种基于多维特征的相机标定误差补偿方法,包括以下步骤:(1)准备数据:先采集p幅标准靶标的图像,得到p幅有误差的图像,然后从每幅图像中选取q个关键点,得到p×q个关键点;(2)提取关键点的特征:提取每个关键点的特征;(3)计算p×q个关键点的实际误差(Δx,Δy)p×q;(4)模拟训练:采用SVMLight工具进行支持向量回归模型训练;(5)估算误差:当拍摄到一幅新的图片时,得到q个关键点的实际位置(x,y)q,然后按步骤(2)提取该q个关键点的特征,存放于需要回归的特征文件中,并计算每个关键点的补偿值(Δx,Δy)。本发明利用现场图像的关联特征,采用支持向量回归实时估计每副采集图像的补偿量,采用本发明的方法使得补偿后的光靶中心更接近于理想光靶中心。
Description
技术领域
本发明属于图像处理领域,具体涉及一种基于多维特征的相机标定误差补偿方法。
背景技术
相机标定是机器视觉中的重要问题之一。对于针孔模型相机,标定过程主要是求解相机内参数(Intrinsicparameters)与外参数(Extrinsicparameters)。通过这内、外参数求解目标像素坐标(图像坐标系)到场景坐标(世界坐标系)变换。标定过程可以采用直接线性法、Tsai法、张正友法等。但无论采用哪种标定方法,由于镜头径向畸变、倾斜几何变形、现场环境变化,使得实际计算出的目标坐标与理想坐标之间存在误差。修正相机标定误差的质量,不仅直接影响坐标变化的精确性,而且间接影响后续高层图像理解的准确性。
对于相机标定误差的补偿方法国内外已有较多的研究。Bukhari等人利用铅垂线方法与齐次方程模型从单幅图像中估计径向误差。Wang等人针对径向畸变问题,提出畸变点处于同心圆上,通过计算畸变点的圆心来补偿畸变,取得的较好的效果。Lucchese等人提出了同时校正径向畸变和倾斜变形的方法,但仅用二项式对至少需要用5次多项式的径向畸变进行补偿。张佳成等人混合了多种补偿估计模型,用经典模型对畸变图像进行初次校正,用多面函数拟合法进行二次精校正,用三次B样条函数进行灰度重建,相比单一的镜头畸变校正模型,精度提高,鲁棒性增强,校正后径向均方根误差为0.3个像素。刘堂等人建立了径向畸变和倾斜失真的联合模型,用最小二乘法和最优化算法求得标准网格的失真参数,最后对目标进行补偿。
上述补偿方法都取得了一定的效果,但有两个方面仍旧可以继续提高。第一,用高次多项式对补偿值进行建模,随着次数增加,计算量呈指数级快速增长,难以平衡计算时间与补偿质量之间的矛盾;第二,相机畸变的不仅致使局部区域像素点位置的偏离,还影响了整幅图的成像。所以图像特征的选取必须兼顾局部特征与全局特征。
目前常用的相机标定误差补偿模型为相机标定通过求解内、外参数,实现目标像素坐标(图像坐标系)到场景坐标(世界坐标系)转换。相机标定误差模型如下所示:
令
式中,(X,Y,Z)是一个点的世界坐标,(u,v)是点在图像上的像素坐标,A是相机的内参数,(cx,cy)是主点位置,fx与fy是相机焦距,它们以像素为单位。旋转-平移矩阵R|T称为外参数,它描述了相机相对于场景的位姿。是相机误差的补偿函数,R为当前环境的特征向量(r1,r2,…,rn),可以是平均光照度、平均灰度、灰度方差等各种表征当前环境情况的特征。所谓补偿就是找到依赖于R的一个最优的补偿函数
发明内容
本发明所要解决的技术问题是提供一种基于多维特征的相机标定误差的补偿方法。
为解决以上技术问题,本发明采用如下技术方案:
一种基于多维特征的相机标定误差的补偿方法,其包括以下步骤:
(1)准备数据:先采集p幅标准靶标的图像,得到p幅有误差的图像,然后从每幅图像中选取q个关键点,得到p×q个所述关键点;
(2)提取关键点的特征:提取每个所述关键点的特征,所述特征包括颜色特征、局部Gabor特征及全局关联特征;
(3)计算p×q个所述关键点的实际误差计算p幅图中每个关键点坐标与该关键点的理想位置坐标的实际误差
(4)模拟训练:采用SVMLight工具进行支持向量回归模型训练,将所述步骤(2)中得到的p×q个所述关键点的特征与所述步骤(3)中得到的作为输入,最后得到模型文件;
(5)估算误差:当拍摄到一幅新的图片时,得到q个关键点的实际位置(x,y)q,然后按步骤(2)提取该q个所述关键点的特征,存放于需要回归的特征文件中,并计算每个所述关键点的补偿值(Δx,Δy)。
进一步,所述步骤(2)中每个所述关键点的颜色特征为其周围N×N个像素点的颜色分量的均值与方差,所述颜色分量为4种常用颜色空间的分量,所述4种常用颜色空间为RGB、CMYK、HSV、HIS,其中,N小于等于50。
再进一步,所述步骤(2)中局部Gabor特征的提取方法包括以下步骤:
a.将彩色图像归一化为灰度级为256的灰度图;
b.将当前关键点周围的像素区域划分成L个N×N的子窗口,其中,L小于等于50;
c.将每个窗口进行Gabor变换,原图像为F(x,y),经过Gabor变换后得到新的图像Q(x,y),其中,
Q(x,y)=[(GaborR(x,y)*F(x,y))2+(GaborI(x,y)*F(x,y))2]1/2(1)
式(1)中,
式(2)、(3)中σ=π;
计算变换后,每个窗口灰度的均值由μ表示,每个窗口的标准差由δ表示,每个窗口的偏差系数由k(k=δ/μ)表示,最后,得到L个窗口的局部Gabor特征:μ1,μ2,…,μi,…,μL、δ1,δ2,…,δi,…,δL与k1,k2,…,ki,…,kL,共有3L维,其中,i为窗口序列号。
更进一步,所述步骤(2)中全局关联特征的提取包括以下步骤:
a.将局部Gabor特征可以看成三个一维序列:μ1,μ2,…,μi,…,μL、δ1,δ2,…,δi,…,δL与k1,k2,…,ki,…,kL,其中i表示窗口序号;
b.利用自相关函数计算关联特征,自相关函数如式(4),其中,m为相关阶数,n为当前相关阶数序号,L为Gabor子窗口的个数,且m<L,
此时由序列μ1,μ2,…,μi,…,μL可以计算得到m个特征Rμ1、Rμ2、…、Rμm,同样的可以计算得到Rδ1、Rδ2、…、Rδm与Rk1、Rk2、…、Rkm,共3m个全局关联特征。
进一步,所述步骤(3)中的计算p×q个关键点的实际误差的方法包括以下步骤:
a、将从标准靶标图中得到q个关键点的激光测量的中心位置作为理想位置坐标(x,y)s,其中,s=1,2,…,q;
b、用点识别技术得到p幅图中的q个关键点的实际位置(x,y)t×s,其中,t=1,2,…,p,s=1,2,…,q;
c、计算:
进一步,所述步骤(4)中的模拟训练采用SVMLight工具,其步骤如下:
a.输入训练命令,所述训练命令为:svm_learn–zr–t2–g0.12example_filemodel_file,其中,example_file为训练数据的输入文件;model_file为输出的模型结果文件;参数–z为r,表示回归模式;参数–t为2,表示采用高斯径向基核函数(RBF);参数–g为0.12,表示高斯径向基核的参数gamma为0.12。
b.生成模型文件,需要为x、y分别生成两个不同的模型文件。
进一步,所述步骤(5)中的估算误差的步骤如下:
a.输入回归命令,所述回归命令为svm_classifyexample_filemodel_fileoutput_file,其中,example_file为需要回归的特征文件,model_file为所述步骤(4)中的生成的模型文件,output_file为输出文件;
b.生成输出文件,所述输出文件中每一行与需要回归的特征文件中的行一一对应,表示需要回归的特征文件中每个行的回归值。
由于采用以上技术方案,本发明与现有技术相比具有如下优点:
本发明所提取的图像特征兼顾了局部特征与全局特征,并利用现场图像的关联特征,采用支持向量回归实时估计每幅采集图像的补偿量,采用本发明的方法使得补偿后的光靶中心更接近于理想光靶中心。
与传统的采用高次多项式对补偿值进行建模的方法,本发明的多特征提取方法,采用增加训练图像的数量来提高预测精度,而补偿误差的计算时间与训练时间无关。
附图说明
图1为标准靶标图像;
图2为9个子窗口图;
图3为补偿前后中心点在不同距离范围内的分布情况;
图4为仿真桥梁原始图像;
图5为补偿后的坐标与未进行补偿的坐标的对比。
具体实施方式
下面结合附图来进一步阐述本发明。
一种基于多维特征的相机标定误差补偿方法,具体包括以下步骤:
(1)准备数据:先采集p幅标准靶标的图像,标准靶标如图1所示,得到p幅有误差的图像,然后从每幅图像中选取q个关键点,得到p×q个关键点,其中p、q均为正整数;
(2)提取关键点的特征:
提取每个所述关键点的特征,每个关键点有三类特征,分别为颜色特征、局部Gabor特征及全局关联特征,这样的关键点有p×q个。三类特征的提取方法如下:
(21)颜色特征的提取方法,采用常用颜色特征提取方法,每个关键点的颜色特征为其周围N×N个像素点的颜色分量的均值与方差,颜色分量为4种常用颜色空间的分量,4种常用颜色空间为RGB、CMYK、HSV、HIS。其中,RGB颜色空间有三个颜色分量,有3×2维特征;CMYK颜色空间有三个颜色分量,有3×2维特征;HSV颜色空间有三个颜色分量,有3×2维特征,HSI颜色空间有四个颜色分量,有4×2维特征,所以共有26维颜色特征,本例中,N=8。
(22)局部Gabor特征的提取方法,具体步骤如下:
a.将彩色图像归一化为灰度级为256的灰度图;
b.将当前关键点M周围的像素区域划分成L个8×8的子窗口,本例中,L=9,如图2所示;
c.将每个窗口进行Gabor变换,原图像为F(x,y),经过Gabor变换后得到新的图像Q(x,y),其中,
Q(x,y)=[(GaborR(x,y)*F(x,y))2+(GaborI(x,y)*F(x,y))2]1/2(1)
式(1)中,
式(2)、(3)中σ=π,
计算变换后,每个窗口灰度的均值由μ表示,每个窗口的标准差由δ表示,每个窗口的偏差系数由k(k=δ/μ)表示。最后,得到9个窗口的局部Gabor特征:μ1,μ2,…,μi,…,μ9、δ1,δ2,…,δi,…,δL与k1,k2,…,ki,…,k9,共有27维,其中,i为窗口序列号。
(23)全局关联特征的提取方法,步骤如下:
a.将局部Gabor特征可以看成三个一维序列:μ1,μ2,…,μi,…,μ9、δ1,δ2,…,δi,…,δL与k1,k2,…,ki,…,k9,其中i表示窗口序号;
b.利用自相关函数计算关联特征,自相关函数如式(4),其中,m为相关阶数,n为当前相关阶数序号,L为Gabor子窗口的个数,且m<L。
本例中,m=3,此时由序列μ1,μ2,…,μi,…,μ9可以计算得到三个特征Rμ1、Rμ2、Rμ3,同样的可以计算得到Rδ1、Rδ2、Rδ3与Rk1、Rk2、Rk3,共9个全局关联特征。
(3)计算p×q个关键点的实际误差计算p幅图中每个关键点坐标与这些关键点的理想位置坐标的实际误差其方法步骤如下:
a、将从图1中得到q个关键点的激光测量的中心位置作为理想位置坐标(x,y)s,其中,s=1,2,…,q;
b、用点识别技术得到p幅图中的q个关键点的实际位置(x,y)t×s,其中,t=1,2,…,p,s=1,2,…,q;
c、计算:
(4)模拟训练:
采用SVMLight工具进行支持向量回归(SVM)模型训练,将步骤(2)中得到的p×q个关键点的特征与步骤(3)中得到的作为输入,最后得到模型文件model_file,步骤如下:
a.输入训练命令
训练命令为:svm_learn–zr–t2–g0.12example_filemodel_file
其中,example_file为训练数据的输入文件;model_file为输出的模型结果文件;参数–z为r,表示回归模式;参数–t为2,表示采用高斯径向基核函数(RBF);参数–g为0.12,表示高斯径向基核的参数gamma为0.12。
b.形成example_file文件的格式如下(以下仅为格式形式):
每一行表示一条训练数据,包括补偿的距离与62维特征,共62行,每一行的格式如下:
Δx1:0.652:0.78…62:0.32
同样的,Δy1:0.652:0.78…62:0.32
c.生成模型文件:model_file
本例中,需要为x,y分别生成两个不同的模型文件。
(5)估算误差:当拍摄到一副新的图片时,得到q个关键点的实际位置当拍摄到一副新的图片时,得到q个关键点的实际位置(x,y)q,然后按步骤(2)提取该q个关键点的特征,存放于需要回归的特征文件中,并计算每个关键点的补偿值(Δx,Δy),其步骤如下:
a.输入回归命令
回归命令为:svm_classifyexample_filemodel_fileoutput_file
此时,example_file为需要回归的特征文件;model_file为步骤(4)中的生成的模型文件;output_file为输出文件。
b.形成example_file文件的格式如下:
每一行表示一条回归特征,包括62维特征,其格式如下(以下仅为格式形式):
1:0.652:0.78…62:0.32
c.生成output_file文件
output_file文件中,其格式为每一行与example_file的行一一对应,表示example_file中每个行的回归值。
(6)仿真实验
在此实验中,对仿真桥梁上的10个监测点进行了50次的误差补偿实验,如图4为仿真桥梁原始图像,图4中的1~10个黑点即为10个监测点,分别统计50次实验中,先计算了补偿前后光靶中心位置到理想光靶中位置的距离,再统计补偿前后中心点在不同距离范围内的分布情况,分布情况如图3所示。在这里我们把激光测量的中心位置作为理想光靶中心位置。图2中横坐标轴标签1与1_SVR分别表示补偿前、后的中心点分布,黑色表示距离理想中心点10像素点的个数;灰色表示距离理想中心点11至20像素点的个数;深灰色表示距离理想中心点21至30像素点的个数;白色表示距离理想中心点30以上像素点的个数。
从图3中可以看出,1号、4号、5号、7号、9号监测点补偿后比补偿前后有更多的点距理想点更近;2号、3号、6号监测点两者性能相当;8号、10号补偿后略差于补偿前。总体来看本发明的动态补偿方法对光靶中心起到了补偿作用。
图5给出了补偿后的坐标与未进行补偿的坐标的对比,从图中可以看出大部分补偿后的靶点中心位置比未经补偿的靶点中心位置更接近激光测量桥梁上靶标的位置。
上述实施例只为说明本发明的技术构思及特点,其目的在于让熟悉此项技术的人士能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围,凡根据本发明精神实质所作的等效变化或修饰,都应涵盖在本发明的保护范围之内。
Claims (7)
1.一种基于多维特征的相机标定误差补偿方法,其特征在于:其包括以下步骤:
(1)准备数据:先采集p幅标准靶标的图像,得到p幅有误差的图像,然后从每幅图像中选取q个关键点,得到p×q个所述关键点;
(2)提取关键点的特征:提取每个所述关键点的特征,所述特征包括颜色特征、局部Gabor特征及全局关联特征;
(3)计算p×q个所述关键点的实际误差(Δx,Δy)p×q:计算p幅图中每个关键点坐标与该关键点的理想位置坐标的实际误差(Δx,Δy)p×q;
(4)模拟训练:采用SVMLight工具进行支持向量回归模型训练,将所述步骤(2)中得到的p×q个所述关键点的特征与所述步骤(3)中得到的(Δx,Δy)p×q作为输入,最后得到模型文件;
(5)估算误差:当拍摄到一幅新的图片时,得到q个关键点的实际位置(x,y)q,然后按步骤(2)提取该q个所述关键点的特征,存放于需要回归的特征文件中,并计算每个所述关键点的补偿值(Δx,Δy)。
2.根据权利要求1所述的基于多维特征的相机标定误差补偿方法,其特征在于:所述步骤(2)中每个所述关键点的颜色特征为其周围N×N个像素点的颜色分量的均值与方差,所述颜色分量为4种常用颜色空间的分量,所述4种常用颜色空间为RGB、CMYK、HSV、HIS,其中,N小于等于50。
3.根据权利要求2所述的基于多维特征的相机标定误差补偿方法,其特征在于:所述步骤(2)中局部Gabor特征的提取方法包括以下步骤:
a.将彩色图像归一化为灰度级为256的灰度图;
b.将当前关键点周围的像素区域划分成L个N×N的子窗口,其中,L小于等于50;
c.将每个窗口进行Gabor变换,原图像为F(x,y),经过Gabor变换后得到新的图像Q(x,y),其中,
Q(x,y)=[(GaborR(x,y)*F(x,y))2+(GaborI(x,y)*F(x,y))2]1/2(1)
式(1)中,
式(2)、(3)中σ=π;
计算变换后,每个窗口灰度的均值由μ表示,每个窗口的标准差由δ表示,每个窗口的偏差系数由k(k=δ/μ)表示,最后,得到L个窗口的局部Gabor特征:μ1,μ2,…,μi,…,μL、δ1,δ2,…,δi,…,δL与k1,k2,…,ki,…,kL,共有3L维,其中,i为窗口序列号。
4.根据权利要求3所述的基于多维特征的相机标定误差补偿方法,其特征在于:所述步骤(2)中全局关联特征的提取包括以下步骤:
a.将局部Gabor特征可以看成三个一维序列:μ1,μ2,…,μi,…,μL、δ1,δ2,…,δi,…,δL与k1,k2,…,ki,…,kL,其中i表示窗口序号;
b.利用自相关函数计算关联特征,自相关函数如式(4),其中,m为相关阶数,n为当前相关阶数序号,L为Gabor子窗口的个数,且m<L,
此时由序列μ1,μ2,…,μi,…,μL可以计算得到m个特征Rμ1、Rμ2、…、Rμm,同样的可以计算得到Rδ1、Rδ2、…、Rδm与Rk1、Rk2、…、Rkm,共3m个全局关联特征。
5.根据权利要求1所述的基于多维特征的相机标定误差补偿方法,其特征在于:所述步骤(3)中的计算p×q个关键点的实际误差(Δx,Δy)p×q的方法包括以下步骤:
a、将从标准靶标图中得到q个关键点的激光测量的中心位置作为理想位置坐标(x,y)s,其中,s=1,2,…,q;
b、用点识别技术得到p幅图中的q个关键点的实际位置(x,y)t×s,其中,t=1,2,…,p,s=1,2,…,q;
c、计算:(Δx,Δy)p×q=|(x,y)s-(x,y)t×s|。
6.根据权利要求1所述的基于多维特征的相机标定误差补偿方法,其特征在于:所述步骤(4)中的模拟训练采用SVMLight工具,其步骤如下:
a.输入训练命令,所述训练命令为:svm_learn–zr–t2–g0.12example_filemodel_file,其中,example_file为训练数据的输入文件;model_file为输出的模型结果文件;参数–z为r,表示回归模式;参数–t为2,表示采用高斯径向基核函数(RBF);参数–g为0.12,表示高斯径向基核的参数gamma为0.12;
b.生成模型文件,需要为x、y分别生成两个不同的模型文件。
7.根据权利要求1所述的基于多维特征的相机标定误差补偿方法,其特征在于:所述步骤(5)中的估算误差的步骤如下:
a.输入回归命令,所述回归命令为svm_classifyexample_filemodel_fileoutput_file,其中,example_file为需要回归的特征文件,model_file为所述步骤(4)中的生成的模型文件,output_file为输出文件;
b.生成输出文件,所述输出文件中每一行与需要回归的特征文件中的行一一对应,表示需要回归的特征文件中每个行的回归值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310140445.5A CN103218820B (zh) | 2013-04-22 | 2013-04-22 | 一种基于多维特征的相机标定误差补偿方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310140445.5A CN103218820B (zh) | 2013-04-22 | 2013-04-22 | 一种基于多维特征的相机标定误差补偿方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103218820A CN103218820A (zh) | 2013-07-24 |
CN103218820B true CN103218820B (zh) | 2016-02-10 |
Family
ID=48816563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310140445.5A Expired - Fee Related CN103218820B (zh) | 2013-04-22 | 2013-04-22 | 一种基于多维特征的相机标定误差补偿方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103218820B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107703513B (zh) * | 2017-08-15 | 2021-05-14 | 株洲嘉成科技发展有限公司 | 一种基于图像处理的非接触式接触网相对位置检测方法 |
CN107797517B (zh) * | 2017-09-30 | 2020-09-11 | 湖南文理学院 | 采用机器视觉实现钢带冲孔加工检测的方法及系统 |
DE112019006323T5 (de) * | 2018-12-21 | 2021-09-09 | Omron Corporation | Verfahren zum korrigieren von durch lineare skalen erfassten werten |
CN110136209B (zh) * | 2019-05-21 | 2021-04-20 | Oppo广东移动通信有限公司 | 一种摄像头标定方法、装置及计算机可读存储介质 |
CN111886982B (zh) * | 2020-08-21 | 2022-03-22 | 农业农村部南京农业机械化研究所 | 一种旱地栽植作业质量实时检测系统的检测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101425181A (zh) * | 2008-12-15 | 2009-05-06 | 浙江大学 | 一种全景视觉辅助泊车系统的标定方法 |
CN102507598A (zh) * | 2011-11-02 | 2012-06-20 | 苏州科技学院 | 一种高速无序胶囊缺陷检测系统 |
CN102750704A (zh) * | 2012-06-29 | 2012-10-24 | 吉林大学 | 一种摄像机分步自标定方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030076980A1 (en) * | 2001-10-04 | 2003-04-24 | Siemens Corporate Research, Inc.. | Coded visual markers for tracking and camera calibration in mobile computing systems |
KR20110116325A (ko) * | 2010-04-19 | 2011-10-26 | 삼성전자주식회사 | 영상 처리 장치 및 그 방법 |
-
2013
- 2013-04-22 CN CN201310140445.5A patent/CN103218820B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101425181A (zh) * | 2008-12-15 | 2009-05-06 | 浙江大学 | 一种全景视觉辅助泊车系统的标定方法 |
CN102507598A (zh) * | 2011-11-02 | 2012-06-20 | 苏州科技学院 | 一种高速无序胶囊缺陷检测系统 |
CN102750704A (zh) * | 2012-06-29 | 2012-10-24 | 吉林大学 | 一种摄像机分步自标定方法 |
Non-Patent Citations (2)
Title |
---|
一种基于校正误差的立体相机标定算法;孙曦;《小型微型计算机系统》;20120430;第33卷(第4期);869-872 * |
一种基于正交基神经网络算法的传感器误差补偿方法;曾喆昭等;《传感技术学报》;20070331;536-539 * |
Also Published As
Publication number | Publication date |
---|---|
CN103218820A (zh) | 2013-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103218820B (zh) | 一种基于多维特征的相机标定误差补偿方法 | |
WO2023015743A1 (zh) | 病灶检测模型的训练方法及识别图像中的病灶的方法 | |
CN101916436B (zh) | 一种多尺度空间投影遥感影像融合方法 | |
CN106780592A (zh) | 基于相机运动和图像明暗的Kinect深度重建算法 | |
CN101137003B (zh) | 一种基于灰色关联分析的亚像素边缘提取方法 | |
US11893891B2 (en) | Method for calculating time to collision for object and vehicle, calculation device and vehicle | |
CN106295542A (zh) | 一种夜视红外图像中的基于显著性的道路目标提取方法 | |
CN109948547A (zh) | 城市绿地景观评价方法、装置、存储介质及终端设备 | |
CN113052109A (zh) | 一种3d目标检测系统及其3d目标检测方法 | |
CN110031829A (zh) | 一种基于单目视觉的目标精准测距方法 | |
CN103325120A (zh) | 一种快速自适应支持权值双目视觉立体匹配方法 | |
CN102122355B (zh) | 基于核稀疏表示的sar目标识别方法 | |
CN113327296B (zh) | 基于深度加权的激光雷达与相机在线联合标定方法 | |
CN109087325A (zh) | 一种基于单目视觉的直接法点云三维重建及尺度确定方法 | |
EP4198901A1 (en) | Camera extrinsic parameter calibration method and apparatus | |
CN105139401A (zh) | 一种深度图中深度的可信度的评估方法 | |
CN107527366A (zh) | 一种面向深度相机的相机跟踪方法 | |
CN106503683A (zh) | 一种基于动态注意中心的视频显著目标检测方法 | |
CN113989287A (zh) | 城市道路遥感图像分割方法、装置、电子设备和存储介质 | |
Li et al. | A pseudo-siamese deep convolutional neural network for spatiotemporal satellite image fusion | |
Liu et al. | Visual transformer with stable prior and patch-level attention for single image dehazing | |
CN113808004B (zh) | 图像变换装置、图像变换方法以及图像变换用计算机程序 | |
CN104778657B (zh) | 图像二维码融合方法及装置 | |
CN107341773A (zh) | 一种多光谱图像的渐晕校正方法 | |
CN104680194A (zh) | 基于随机蕨丛和随机投影的在线目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160210 Termination date: 20210422 |