CN106157246B - 一种全自动的快速柱面全景图像拼接方法 - Google Patents

一种全自动的快速柱面全景图像拼接方法 Download PDF

Info

Publication number
CN106157246B
CN106157246B CN201610516653.4A CN201610516653A CN106157246B CN 106157246 B CN106157246 B CN 106157246B CN 201610516653 A CN201610516653 A CN 201610516653A CN 106157246 B CN106157246 B CN 106157246B
Authority
CN
China
Prior art keywords
focal length
point
image
formula
characteristic point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610516653.4A
Other languages
English (en)
Other versions
CN106157246A (zh
Inventor
谷雨
任刚
彭冬亮
刘俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Taoyi Data Technology Co ltd
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201610516653.4A priority Critical patent/CN106157246B/zh
Publication of CN106157246A publication Critical patent/CN106157246A/zh
Application granted granted Critical
Publication of CN106157246B publication Critical patent/CN106157246B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种全自动的快速柱面全景图像拼接方法。针对现有的算法中无法自动完成焦距估计的问题,本发明首先使用Harris特征点检测算法和HOG描述子得到平面图像的特征点,并使用一种基于预测的快速特征点匹配算法高效的计算出匹配特征点,使用RANSAC算法提纯匹配特征点,然后使用一种基于纯旋转运动的快速焦距估计算法估计出焦距,把平面图像投影至圆柱平面,并进行图像拼接,合成全景图像。该方法能够快速的合成高质量的全景图像,具有较高的实用价值。

Description

一种全自动的快速柱面全景图像拼接方法
技术领域
本发明属于图像拼接技术领域,涉及一种基于圆柱面的全景图像拼接方法。
背景技术
全景图像拼接就是同一地点、时间拍摄的多张具有一定重合度的图像经过配准、融合,合成一幅包含全部图像序列信息的大视场成像技术。该技术可以获取较大场,同时不会降低图像分辨率。现在全景图像拼接技术被广泛应用于医学图像分析、虚拟现实技术、超分辨率重构、安防监控等领域。
全景图像拼接主要需要解决图像配准与图像融合两个关键问题,图像配准可分为基于区域的配准算法和基于特征点的图像配准算法。基于特征点的图像配准算法具有计算量小、鲁棒性强、精度高的优点,得到了广泛的研究和应用。基于特征点的图像配准需要解决特征点检测与特征点匹配两个问题。特征点检测算法主要是提取图像的明显特征,根据不同的使用场景可选择多种不同的算法。特征点匹配算法是图像配准的关键部分,匹配精度直接影响着图像拼接效果,而且匹配算法效率也很大程度上影响着图像拼接算法效率。
全景图像依据映射的平面形式不同可以分为球面、正方体面、和圆柱面三种形式。由于柱面全景图像能够实现360°水平视角,垂直方向也有一定的视角,不需要非常准确的摄像机标定,而且可以方便的使用传统的图像处理方法,因此得到了广泛应用。圆柱全景图像拼接需要已知摄像机焦距,目前的计算方法是:使用摄像机拍摄一周,根据拍摄图像张数粗略估计出圆柱面周长,进而估计出摄像机焦距。但该方法无法自动完成焦距估计,而且当摄像机旋转角度小于360度时,无法进行焦距估计。
发明内容
本发明的目的是为了解决圆柱面全景图像拼接无法自动完成焦距估计问题,提出一种针对视觉转台的基于纯旋转运动的自动焦距估计算法,本方法能够快速的完成摄像机焦距自动估计,能够满足圆柱全景图像拼接需求。
为解决上述技术问题,本发明采用的技术方案包括以下步骤:
步骤(1).提取图像中明显的特征,本发明使用Harris算法检测两帧待拼接图像的特征点,并使用方向梯度直方图(Histogram of Oriented Gradient,HOG)建立特征点的HOG描述符;
所述的明显的特征并非是指代某一个具体的图像特征,而是图像中具有独特性的点,例如角点、交叉点等。
步骤(2).使用一种基于预测的快速特征点匹配算法快速完成特征点粗匹配,然后使用随机采样一致算法(Random Sample Consensus,RANSAC)对匹配特征点提纯。
步骤(3).判断图像焦距是否已知,如果焦距未知,则使用基于纯旋转运动的自动焦距估计算法估计摄像机焦距,如果焦距已知,则直接跳转至步骤(4);
步骤(4).根据步骤(3)获得的焦距对平面图像映射至圆柱面图像,并进行图像融合,获得全景图像。
本发明首先采用基于预测的快速特征点匹配算法获得粗匹配特征点,并使用RANSAC提纯特征点,然后使用基于纯旋转运动的全自动焦距估计算法自动完成焦距估计,最后经过图像映射和融合完成全景图像拼接。本发明与现有技术相比,其显著优点为:(1)无需人为操作,自动完成焦距估计,而且计算速度较快,因此自动完成平面图像映射至圆柱面图像。(2)基于预测的快速特征点匹配算法较大的缩短了特征点匹配耗时,实时性较高。
附图说明
图1为基于圆柱面全景图像拼接算法流程图;
图2为基于预测的快速匹配算法原理图;
图3为Geyer等提出的小孔摄像机模型;
图4为4幅平面图像直接拼接的结果;
图5为使用本发明进行拼接的结果。
具体实施方式
以下结合附图对本发明作进一步说明。
由图1所示,本发明具体实施步骤如下:
步骤(1).使用Harris算法检测两帧待拼接图像检测的特征点,并使用HOG描述子建立HOG描述符;
步骤(2).使用一种基于预测的快速特征点匹配算法快速完成特征点粗匹配,然后使用RANSAC算法对匹配特征点提纯。
特征点粗匹配具体如下:
对于使用视觉转台等设备进行图像拍摄时,如果转台以恒定速度旋转,待拼接的序列图像的重合度基本保持不变,相邻两幅图像的匹配特征点对的相对位置变化较小,因此特征点匹配可以使用前一次匹配的数据进行特征点位置预测,在特征点预测位置附近进行匹配特征点搜索,减少了特征点匹配的搜索次数,从而较大的提高特征点匹配速度。
如图2所示,首先对图像进行网格划分,每个网格宽度、高度可以根据预测误差进行修正,使得匹配特征点落入以预测点P′为中心的9个网格内的概率η>95%。设有n帧待拼接图像,对k-1帧图像(k表示n帧图像中任意一帧,且1≤k≤n)上一点P,使用式(1)预测P点的匹配点P′位置:
P′(x,y,1)=Hk-1P(x,y,1) 式(1)
其中Hk-1为k-1帧图像的投影变换矩阵。然后在P′所在的网格以及周围8个网格内搜索点P的匹配特征点,完成特征点粗匹配。
这里的特征点是指Harris特征点。
步骤(3).判断焦距是否已知,如果焦距未知,使用基于纯旋转运动的自动焦距估计算法估计摄像机焦距。具体如下:
3.1基于纯旋转运动的自动焦距估计
在获取全景图像的初始图像时,焦距一般保持不变,即图像间基本无缩放变化,因此本发明利用该特点,设计了一种基于纯旋转运动的焦距估计算法。
本发明采用Geyer等提出的小孔成像模型以及简化后的摄像机内参矩阵进行自动焦距估计。
Geyer的小孔成像模型由虚拟球面S(O,m)、虚平面成像平面π组成。虚拟球面S(O,m)以摄像机所在位置O点为圆心以m=1为半径,O-xyz为摄像机坐标系,z轴与摄像机光轴一致,x轴、y轴与成像平面π的横轴U纵轴V一致,虚拟平面与成像平面π相平行,与z轴垂直,且与虚拟球面S(O,m)相切。成像平面π与点O的距离为摄像机焦距f(为方便图像的映射,以像素为单位)。对于空间中一静止点P,其在虚球面S(O,m)上的投影点为s,经过点P与点O的直线交虚平面于点交成像平面π于点p。如图3所示。
对于摄像机内参矩阵,假设扭曲参数ε=0,摄像机像素横纵比为1,即则简化后的内参矩阵如式(2)所示。
设点p的齐次坐标为[u,v,1]T,T表示矩阵的转置,其中u,v分别表示点p在U,V坐标轴上的坐标,则的坐标为:
式中fu,fv分别为摄像机在U,V方向的焦距(单位为像素),(u0,v0)为摄像机主点。
根据式(3),点s的坐标可表示为:
当摄像机作纯旋转运动时,球面投影点间的距离保持不变,即
||si-sj||2=||s′i-s′j||2 式(5)
式中,si、sj与s′i、s′j分别表示空间任意两点在虚球面S(O,m)上的投影点以及与之对应的在摄像机旋转后的投影点。
将式(3)~(4)代入式(5)中,整理并化简后可得摄像机内参的约束方程:
aiλiajλj+biλibjλjiλj=a′iλ′ia′jλ′j+b′iλ′ib′jλ′j+λ′iλ′j 式(6)
式中,ai、bi、λi与aj、bj、λj表示空间任意两点Pi、Pj在虚球面投影的坐标参数,a′i、b′i、λ′j与a′j、b′j、λ′j表示Pi、Pj在摄像机旋转后的投影坐标参数。
若设摄像机主点为图像中心,即W、H’分别为图像宽度和高度(单位为像素)。则式(6)是焦距f的方程,式(4)、式(5)代入式(6)中,整理并化简可得:
A6f6+A4f4+A2f2+A0=0 式(7)
其中
式中,ui、vi与uj、vj表示空间任意一点Pi与点Pj在图像中的横坐标、纵坐标,u′i、v′i与u′j、v′j表示点Pi与点Pj在摄像机旋转后的图像中的横坐标、纵坐标。
根据式(7)~(9),任取两对匹配特征点即可估计出一个焦距值f。由于该自动焦距估计算法中假设摄像机主点为图像中心、摄像机扭曲值为0、匹配特征点存在误差等原因,最终估计的焦距存在一定的误差,且估计结果方差较大。本发明采用1500次采样,并舍弃不合理的焦距值,选取平均值作为估计值得方法估计的焦距值f0
上述不合理的焦距是指:焦距估计的结果有较小的可能出现负值或者过大的数值(如100000像素以上等),这些估计值会严重影响最终估计准确度,因此需要舍弃。
3.2基于单应矩阵的焦距修正
上面介绍焦距估计方法,虽然使用采样多次并取平均值的方法使得估计结果较为稳定可靠,但是,由于假设摄像机主点为图像中心、摄像机扭曲值为0,求取平均值的方法无法消除这两个假设所带来的估计误差,因此需要一个焦距修正算法,消除上述误差。
图像拼接常使用8参数的透视变换矩阵进行图像投影:
式(10)中h1、h2、h4、h5与图像旋转、尺度变化相关,h3、h6与图像平移相关,h7、h8与图像在x轴方向、y轴方向形变相关。
假设焦距保持不变,即图像间不存在缩放问题,如果焦距估计准确,通过式(11)把平面投影到圆柱平面后,各个图像将位于同一个圆柱平面,那么图像之间就只存在旋转和平移变换,图像间的透视变换将会退化为仿射变换,即透视变换的矩阵H的h7、h8为0。
式中:(x,y)为平面图像中任意一点,(x″,y″)为点(x,y)映射至圆柱面图像后的位置。
在实际图像拼接中,摄像机沿着x轴方向运动,y轴方向运动相对可以忽略。实际上|h8|一般在10-6~10-7以内,与焦距f无关。h7的值随着焦距f的变化而变化。因此只需要修正焦距f,使得|h7|达到最小即可。
自动焦距修正步骤:
3.2.1首先使用3.1节给出的焦距估计算法得到焦距估计值f0,使用f0通过式(11)把精确匹配特征点集Ω变换为圆柱图像匹配特征点集Ω′,然后通过Ω′计算投影变换矩阵H0,并得到并记录的正负符号设定焦距初始修正值g0,f=f0,设(表示第i次计算得到透视变换矩阵参数h7的值,SIi表示第i焦距修正的正负符号,1≤i≤M,M为焦距修正需要迭代的次数,取 表示向下取整,g0是一个经验值,一般取g0=-50);
3.2.2把焦距值fi-1代入式(11)中(fi-1表示第i-1次焦距修正后的焦距),对精确匹配特征点集Ω进行坐标变换(平面坐标变换为圆柱坐标),得到新的匹配特征点集Ω′;
3.2.3使用Ω′计算新的投影变换矩阵Hi,并得到新的矩阵参数值,的符号为SIi
3.2.4如果fi=fi-1+gi;如果则f=fi-1直至循环次数i>M,则终止循环,否则返回3.2.2,进行下一次焦距修正。
步骤(4).使用式(11)把平面图像映射至圆柱面图像后,使用加权平均算法对拼接图像进行融合,得到最终的全景图像。
为验证本发明的有效性,测试使用I5-3470CPU、4G内存的台式机,系统为Win1064位企业版,使用Visual Studio 2010实现图像拼接算法。使用手机放在三脚架上近似匀速旋转,模拟视觉转台运动,拍摄不同焦距的测试视频作为测试视频,手机水平旋转角度在120°~170°,视频每幅图像的大小为1280×720像素。特征点检测算法采用Harris角点检测算法,特征点描述子使用HOG描述符。
表1自动计算焦距与手动标定焦距值比较
表1给出了部分测试结果,从表中可以看出自动估计的焦距值经过焦距修正后与手动标定的误差较小,能够满足圆柱图像拼接的需要。
表2特征点检测、匹配耗时比较
线性匹配 BBF 本发明方法
匹配特征点数量 325 309 301
耗时(秒) 3.36 1.05 0.05
表2中设定SIFT与Harris算法参数,使得检测2000个特征点,从表中可以看出:本发明特征点匹配算法匹配速度较蛮力法提高了60~70倍,较BBF算法提高了20倍。但是本发明算法要求摄像机旋转速度基本保持不变。
图4是4张平面图像直接进行拼接的结果,从图中可以看出:由于图像并不在同一投影平面上,投影存在一定的夹角,直接对图像进行拼接,得到的拼接图像发生严重的扭曲,无法继续进行拼接。图5是上面测试测试中第8组的测试结果,图像畸变较小,拼接质量更好。表4给出了图4、图5左右两侧高度对比。
表3图4~5图像左右两侧高度对比(像素)
序号 左侧高度 右侧高度 偏差
图4 714 2036 1322
图5 694 531 163
从图4、图5和表3中对比可知:使用本发明的圆柱图像拼接算法的拼接结果基本无扭曲,图像配准较为准确,无错误配准,能够满足实际需求。
本发明在柱面全景图像拼接时,加入了基于纯旋转运动的摄像机自动焦距估计算法,克服了传统柱面全景图像拼接无法自动进行焦距估计的缺陷。新设计的特征点加速匹配较大的提高了特征点匹配速度,虽然要求摄像机恒速转动,仍具有一定的实际应用意义。本发明实现了水平方向旋转任意角度的柱面全景图像快速合成,合成结果较为理想。

Claims (1)

1.一种全自动的快速柱面全景图像拼接方法,其特征在于该方法包括以下步骤:
步骤(1)、使用Harris算法检测两帧待拼接图像的特征点,并使用方向梯度直方图建立特征点的HOG描述符;
步骤(2)、使用一种基于预测的快速特征点匹配算法快速完成特征点粗匹配,然后使用随机采样一致算法对上述粗匹配特征点进行提纯;
步骤(3)、判断图像焦距是否已知,若焦距未知,则使用提纯后的匹配特征点利用基于纯旋转运动的自动焦距估计算法估计摄像机焦距,若焦距已知,则直接跳转至步骤(4);
步骤(4)、根据步骤(3)获得的焦距将平面图像映射至圆柱面图像,并进行图像融合,获得全景图像;
步骤(2)所述的特征点粗匹配过程具体如下:
首先对图像进行网格划分,每个网格宽度、高度可根据预测误差进行修正,使得匹配特征点落入以预测点P′为中心的9个网格内的概率η>95%;设有n帧待拼接图像,对k-1帧图像上一点P,1≤k≤n,使用式(1)预测P点的匹配点P′位置;然后在P′所在的网格以及周围8个网格内搜索点P的匹配特征点,完成特征点粗匹配;
P′(x,y,1)=Hk-1P(x,y,1) 式(1)
其中Hk-1为k-1帧图像的投影变换矩阵;
步骤(3)所述的使用提纯后的匹配特征点利用基于纯旋转运动的自动焦距估计算法估计摄像机焦距过程具体如下:
3.1基于纯旋转运动的自动焦距估计,具体是采用特定的小孔成像模型以及简化后的摄像机内参矩阵进行自动焦距估计:
所述的小孔成像模型由虚拟球面S(O,m)、虚平面成像平面π组成;虚拟球面S(O,m)以摄像机所在位置O点为圆心以m=1为半径,O-xyz为摄像机坐标系,z轴与摄像机光轴一致,x轴、y轴与成像平面π的横轴U纵轴V一致,虚拟平面与成像平面π相平行,与z轴垂直,且与虚拟球面S(O,m)相切;成像平面π与点O的距离为摄像机焦距f;对于空间中一静止点P,其在虚球面S(O,m)上的投影点为s,经过点P与点O的直线交虚平面于点交成像平面π于点p;
假设扭曲参数ε=0,摄像机横纵比为1,即则简化后的摄像机内参矩阵见式(2):
设点p的齐次坐标为[u,v,1]T,T表示矩阵的转置,其中u,v分别表示点p在U,V坐标轴上的坐标,则的坐标为:
式中fu,fv分别为摄像机在U,V方向的焦距,(u0,v0)为摄像机主点;
根据(4)式,点s的坐标表示为:
当摄像机作纯旋转运动时,球面投影点间的距离保持不变,即
||si-sj||2=||s′i-s′j||2 式(5)
式中,si、sj与s′i、s′j分别表示空间任意两点在虚球面S(O,m)上的投影点以及与之对应的在摄像机旋转后的投影点;
将式(3)~(4)代入式(5)中,整理并化简后得摄像机内参的约束方程:
aiλiajλj+biλibjλjiλj=a′iλ′ia′jλ′j+b′iλ′ib′jλ′j+λ′iλ′j 式(6)
式中,ai、bi、λi与aj、bj、λj表示空间任意两点Pi、Pj在虚球面投影的坐标参数,a′i、b′i、λ′i与a′j、b′j、λ′j表示Pi、Pj在摄像机旋转后的投影坐标参数;
若设摄像机主点为图像中心,即W、H’分别为图像宽度和高度;则式(6)是焦距f的方程,式(4)、式(5)代入式(6)中,整理并化简得:
A6f6+A4f4+A2f2+A0=0 式(7)
其中
式中,ui、vi与uj、vj表示空间任意一点Pi与点Pj在图像中的横坐标、纵坐标,u′i、v′i与u′j、v′j表示点Pi与点Pj在摄像机旋转后的图像中的横坐标、纵坐标;
根据式(7)~(9),任取两对匹配特征点即可估计出一个焦距值f;采用多次采样方法,并舍弃不合理的焦距值,选取平均值得到估计的焦距值f0
3.2基于单应矩阵的焦距修正
图像拼接使用8参数的透视变换矩阵进行图像投影:
式(10)中h1、h2、h4、h5与图像旋转、尺度变化相关,h3、h6与图像平移相关,h7、h8与图像在x轴方向、y轴方向形变相关;
假设焦距保持不变,即图像间不存在缩放问题,如果焦距估计准确,通过式(11)把平面投影到圆柱平面后,各个图像将位于同一个圆柱平面,那么图像之间就只存在旋转和平移变换,图像间的透视变换将会退化为仿射变换,即透视变换的矩阵H的h7、h8为0;
式中:(x,y)为平面图像中任意一点,(x″,y″)为点(x,y)映射至圆柱面图像后的位置;
在实际图像拼接中,摄像机沿着x轴方向运动,y轴方向运动相对可以忽略;修正焦距f,使得|h7|达到最小;
所述的自动焦距修正具体是:
3.2.1首先使用3.1节给出的焦距估计算法得到焦距估计值f0,使用f0通过式(11)把精确匹配特征点集Ω变换为圆柱图像匹配特征点集Ω′,然后通过Ω′计算投影变换矩阵H0,并得到并记录的正负符号设定焦距初始修正值g0,f=f0,设其中表示第i次计算得到透视变换矩阵参数h7的值,SIi表示第i焦距修正的正负符号,1≤i≤M,M为焦距修正需要迭代的次数,取 表示向下取整,g0是一个经验值;
3.2.2把焦距值fi-1代入式(11)中,fi-1表示第i-1次焦距修正后的焦距,对匹配特征点集Ω进行坐标变换,即平面坐标变换为圆柱坐标,得到新的匹配特征点集Ω′;
3.2.3使用Ω′计算新的投影变换矩阵Hi,并得到新的矩阵参数值,的符号为SIi
3.2.4如果fi=fi+gi;如果则f=fi-1直至循环次数i>M,则终止循环,否则返回3.2.2,进行下一次焦距修正。
CN201610516653.4A 2016-06-28 2016-06-28 一种全自动的快速柱面全景图像拼接方法 Active CN106157246B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610516653.4A CN106157246B (zh) 2016-06-28 2016-06-28 一种全自动的快速柱面全景图像拼接方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610516653.4A CN106157246B (zh) 2016-06-28 2016-06-28 一种全自动的快速柱面全景图像拼接方法

Publications (2)

Publication Number Publication Date
CN106157246A CN106157246A (zh) 2016-11-23
CN106157246B true CN106157246B (zh) 2019-04-23

Family

ID=58061016

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610516653.4A Active CN106157246B (zh) 2016-06-28 2016-06-28 一种全自动的快速柱面全景图像拼接方法

Country Status (1)

Country Link
CN (1) CN106157246B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106709942B (zh) * 2016-12-13 2020-05-19 广州智能装备研究院有限公司 一种基于特征方位角的全景图像误匹配消除方法
CN108205799B (zh) * 2016-12-16 2021-03-26 杭州海康威视数字技术股份有限公司 一种图像拼接方法及装置
US10776972B2 (en) * 2018-04-25 2020-09-15 Cognex Corporation Systems and methods for stitching sequential images of an object
CN108961173B (zh) * 2018-05-17 2021-11-26 成都明镜视觉科技有限公司 一种基于h5端增强现实的优化方法
CN109166151B (zh) * 2018-07-27 2022-06-24 深圳六滴科技有限公司 全景相机的远程标定方法、装置、计算机设备和存储介质
CN109712071B (zh) * 2018-12-14 2022-11-29 电子科技大学 基于航迹约束的无人机图像拼接与定位方法
CN110059641B (zh) * 2019-04-23 2023-02-03 重庆工商大学 基于多预置点的深度鸟类识别算法
CN110536479A (zh) * 2019-08-28 2019-12-03 维沃移动通信有限公司 对象传输方法和电子设备
CN112308775A (zh) * 2020-09-23 2021-02-02 中国石油大学(华东) 水下图像拼接方法及装置
CN114070981B (zh) * 2021-11-09 2023-09-19 南通大学 一种异型管道全景成像方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103745449A (zh) * 2013-12-24 2014-04-23 南京理工大学 一种搜跟系统中航拍视频的快速自动拼接技术

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5837463B2 (ja) * 2012-07-06 2015-12-24 株式会社東芝 画像処理装置および画像処理システム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103745449A (zh) * 2013-12-24 2014-04-23 南京理工大学 一种搜跟系统中航拍视频的快速自动拼接技术

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于纯旋转运动的摄像机统一自标定方法;李宝全等;《光学学报》;20131130;第33卷(第11期);第1115003-1至1115003-8页 *

Also Published As

Publication number Publication date
CN106157246A (zh) 2016-11-23

Similar Documents

Publication Publication Date Title
CN106157246B (zh) 一种全自动的快速柱面全景图像拼接方法
CN109903227B (zh) 基于相机几何位置关系的全景影像拼接方法
CN108288294A (zh) 一种3d相机群的外参标定方法
CN109919911B (zh) 基于多视角光度立体的移动三维重建方法
CN106447601B (zh) 一种基于投影-相似变换的无人机遥感影像拼接方法
CN107358633A (zh) 一种基于三点标定物的多相机内外参标定方法
US20090153669A1 (en) Method and system for calibrating camera with rectification homography of imaged parallelogram
CN108458665A (zh) 利用近景摄影进行隧道快速形变测量的方法
CN105931222A (zh) 用低精度二维平面靶标实现高精度相机标定的方法
CN112949478A (zh) 基于云台相机的目标检测方法
CN111080709A (zh) 基于轨迹特征配准的多光谱立体相机自标定算法
WO2019232793A1 (zh) 双摄像头标定方法、电子设备、计算机可读存储介质
CN111445537B (zh) 一种摄像机的标定方法及系统
CN113160339A (zh) 一种基于沙姆定律的投影仪标定方法
CN107635135B (zh) 双摄模组组装前相对倾斜角度的测试方法及测试系统
CN102164269A (zh) 全景监控方法及装置
CN105719239A (zh) 一种用于图像拼接的方法及装置
CN111461963A (zh) 一种鱼眼图像拼接方法及装置
CN112767546B (zh) 移动机器人基于双目图像的视觉地图生成方法
CN113793266A (zh) 一种多目机器视觉图像拼接方法、系统及存储介质
CN100416466C (zh) 单目视觉半实物仿真系统及方法
CN112767249B (zh) 一种面向小型管件表面缺陷检测的图像展开拼接方法及系统
CN111968182B (zh) 一种双目相机非线性模型参数的标定方法
CN106683057A (zh) 任意连续曲面幕多投影显示墙的自动几何校正方法
CN109712200B (zh) 一种基于最小二乘原理及边长推算的双目定位方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210507

Address after: Room 405, 6-8 Jiaogong Road, Xihu District, Hangzhou City, Zhejiang Province, 310013

Patentee after: Hangzhou Taoyi Data Technology Co.,Ltd.

Address before: 310018 No. 2 street, Xiasha Higher Education Zone, Hangzhou, Zhejiang

Patentee before: HANGZHOU DIANZI University