CN114445266B - 鱼眼图像特征点伪邻域提取方法 - Google Patents
鱼眼图像特征点伪邻域提取方法 Download PDFInfo
- Publication number
- CN114445266B CN114445266B CN202210018145.9A CN202210018145A CN114445266B CN 114445266 B CN114445266 B CN 114445266B CN 202210018145 A CN202210018145 A CN 202210018145A CN 114445266 B CN114445266 B CN 114445266B
- Authority
- CN
- China
- Prior art keywords
- hemispherical
- point
- fisheye
- image
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 12
- 238000000034 method Methods 0.000 claims abstract description 23
- 241000251468 Actinopterygii Species 0.000 claims abstract description 20
- 238000006243 chemical reaction Methods 0.000 claims abstract description 10
- 238000003384 imaging method Methods 0.000 claims description 22
- 230000003287 optical effect Effects 0.000 claims description 6
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 3
- 238000011160 research Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 8
- 238000012937 correction Methods 0.000 description 11
- 238000010276 construction Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 3
- 238000003702 image correction Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
- G06T3/047—Fisheye or wide-angle transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种鱼眼图像特征点伪邻域提取方法,包括步骤1:对鱼眼相机进行检校,获取相机参数以及鱼眼影像框幅;步骤2:根据鱼眼透镜的半球投影模型建立半球坐标系与像素坐标系的转换关系;步骤3:根据坐标系转换关系建立鱼眼半球经纬网,提取特征点伪邻域数据。本发明的方法不需要对鱼眼图像进行畸变校正,最大程度上保留了图像信息的完整度以及简化图像处理过程。
Description
技术领域
本发明涉及图像处理领域,特别涉及图像特征点提取与匹配方法。
背景技术
目前,应用最普遍的仍是传统的光学成像系统,其利用的普通镜头一般有40度到60度的视场。而鱼眼镜头的视场角能达到180度甚至实现220度,在获取大范围目标以及制作全景影像方面具有很大的优势,但是其直接成像得到的鱼眼图像存在非常严重的畸变,很难直接利用鱼眼图像获取目标的真实空间信息。
针对鱼眼畸变问题,大量鱼眼畸变校正算法被提出,总体主要通过两个方向实现畸变校正。一是基于投影变换的方法,建立鱼眼图像与正常图像之间的函数关系,推导出畸变校正影像。
例如,2015年,刘亿静在论文《基于经纬映射的径向畸变快速校正算法的研究》中改进了经度校正算法,提出了一种基于经纬映射的径向畸变快速图像校正算法。该方法针对鱼眼畸变,特别针对鱼眼径向畸变建立鱼眼图像与校正图像关系,校正畸变图像。但其与多数校正算法相同,采用插值算法填充校正图像的缺失区域信息,引入误差,破坏鱼眼图像数据的完整性。
孙福明于2018年申请的一种基于正交投影的鱼眼镜头畸变校正方法,该方法利用正交投影在半球面上进行网格划分,再利用棋盘网格角点与目标图像做仿射变换,求解图像畸变参数,最终利用鱼眼图像到畸变校正图像的映射关系实现鱼眼图像校正。该发明的本质是将鱼眼图像反投影至半球面,并结合插值算法将半球面展开为二维平面。虽然达到了校正目的,但仍旧破坏了原始图像数据的完整性,引入了误差。
另一方向是通过标定的方法,通过外部设备对鱼眼相机进行标定,再利用标定获取的鱼眼畸变参数,达到畸变校正的目的。
例如,2006年Kannal在论文《A Generic Camera Model and Calibration Methodfor Conventional,Wide-Angle,and Fish-Eye Lenses》中提出了一种新的鱼眼镜头标定方法,该标定方法基于一个通用的相机模型,该模型适用于不同类型的全向相机以及传统相机,最终利用含有控制点的平面物体做标定板估计相机模型参数。该方法获得的鱼眼相机模型比传统成像模型具有更高的精度,但可操作性要求较高。
目前已有的鱼眼图像去畸变方法,畸变校正过程往往引入插值算法填充畸变区域,破坏了鱼眼数据的完整性,同时实时性较差。因此,本发明利用鱼眼镜头同一视场入射目标具备较强的空间关联性这一特点,建立了特征点的鱼眼半球经纬网模型,提出了鱼眼图像特征点伪邻域提取方法,实现了在不插值、保持数据完整性的情况下提取像平面某点在三维空间中的真实关联信息。
发明内容
本发明目的是提供一种鱼眼图像特征点伪邻域提取方法,通过鱼眼半球经纬网提取特征点在鱼眼半球面模型上的邻域坐标,并投影至鱼眼图像获取邻域数据作为所求点的邻域信息,因其并非原始图像的邻域信息故称为伪邻域。该发明省略了传统畸变校正方法的插值过程,直接获取鱼眼图像特征点的真实邻域信息,实现在不破坏鱼眼图像完整性的基础上提高鱼眼图像特征点的分析处理能力。
本发明公开了一种鱼眼图像特征点伪邻域提取方法。主要包括以下步骤:
步骤一,对鱼眼相机进行检校,获取相机参数以及鱼眼影像框幅。
主要获取相机焦距f、鱼眼镜头拍摄图像的光学中心坐标(u0,v0)。
步骤二,根据鱼眼透镜的半球投影模型建立半球坐标系与像素坐标系的转换关系。
式中u、v分别是鱼眼图像上某点的行列值;(u0,v0)是步骤一所求得鱼眼图像光学中心坐标;θ是反投影点p′所在入射光线与Z轴的夹角;是像素坐标系中投影点p与水平方向的投影夹角,mu,mv是单位距离在水平和垂直方向的像素数。此外,其中r(θ)表达的是镜头成像过程存在的几何成像模型,传统的成像模型有等距投影模型、其成像模型如下所示;
r=fθ (2)等立体角投影模型、其成像模型如下所示;
r=2fsin(θ/2) (3)正交投影模型、其成像模型如下所示;
r=fsin(θ) (4)体式投影模型、其成像模型如下所示。
r=ftan(θ/2) (5)
步骤三,根据坐标系转换关系建立鱼眼半球经纬网,提取特征点伪邻域数据。
再利用步骤二中的公式(2)即可获得鱼眼图像上该点在鱼眼半球投影模型上反投影点p′的θ值,即:
在获取鱼眼图像某点对应的反投影点后,利用视场角定义及几何原理可求得同一视场角目标在鱼眼半球面的投影方程。基于半球投影面的对称性,分别沿互相垂直的两个方向进行研究,其中半球经线l方程满足公式:
同时,假设该曲线所在视场角为θl:
然后,以Δθ为视场角增量,获取临近经线方程:
式中i=0,1,2,……,Al为定值参数,由曲线所在视场角θl以及设置的视场角增量Δθ决定。通过公式(11)可以获得以l为中心的(2i+1)条鱼眼半球经线。
同理,依据鱼眼半球投影模型的对称性,另一方向的鱼眼半球纬线d以及该曲线附近的临近半球纬线满足公式:
通过公式(10)获取的鱼眼半球经线以及公式(12)得到的鱼眼半球纬线,最终在鱼眼透镜的半球投影模型表面形成(2i+1)×(2j+1)的网状结构,该网状结构的分布规律贴合鱼眼畸变分布规律,即畸变由图像中心向四周发散,不同的是此网状结构分布于半球面模型而非平面模型中。
在上述获取的鱼眼半球经纬网中,经纬线相互交叉形成网格模型,构成(2i+1)×(2j+1)个以反投影点pv为中心的半球表面格网点,每个格网点由一条半球经线与一条半球纬线交叉所得,满足公式:
通过公式(13)获得半球经纬格网点在鱼眼半球面的极坐标值,将其代入公式(1)中可以得到格网点在鱼眼图像中的投影坐标,提取其影像数据并存储作为图像点p的邻域信息,因其不同于鱼眼图像该点的邻域信息,故称之为伪邻域数据。
本发明的有益之处是提出了鱼眼图像特征点的伪邻域提取方法,通过在鱼眼透镜的半球投影面上建立与鱼眼图像特征点对应的半球经纬网模型,提取特征点在两个垂直方向上同一视场角入射的目标信息,即获取与特征点联系紧密的三维空间点作为该特征点的伪邻域,在保留鱼眼镜头拍摄数据的完整性的同时,简化鱼眼图像特征点处理过程,削弱鱼眼畸变带来的影响,并且不经过插值算法处理,实时性较好。
附图说明
图1是本发明的鱼眼图像特征点伪邻域提取方法步骤;
图2是本发明的鱼眼相机成像模型;
图3是本发明的鱼眼半球投影模型以及单条鱼眼半球经线;
图4是本发明的鱼眼半球经线间关系概况;
图5是本发明的鱼眼半球投影模型以及单条鱼眼半球纬线;
图6是本发明的鱼眼半球纬线间关系概况;
图7是本发明的鱼眼半球经纬网简要模型以及伪邻域格网点;
图8是本发明的SURF特征点匹配结果;
图9是本发明的基于SURF特征点匹配结果引入伪邻域数据进行二次匹配的匹配结果;
图10是本发明的二次匹配剔除的错误匹配点。
具体实施方案
为使本发明的目的、技术方案及优点更加清楚明白,以下举出优选实施例,结合附图对本发明具体实施作进一步详细说明。
实施例:
本发明使用搭载Canon EF 8-15mm f/4L USM鱼眼镜头的Canon70D相机获取鱼眼图像,并在Visual studio软件平台进行相关处理。
结合图1,说明本发明的鱼眼图像特征点伪邻域提取方法步骤:
第一,对鱼眼相机进行检校,获取相机参数以及鱼眼影像框幅。
主要获取相机焦距f、鱼眼镜头拍摄图像的光学中心坐标(u0,v0)。计算所得相机焦距f=1334.781(像素),图像光学中心坐标(u0,v0)=(1225.418,1815.683)。此过程主要在Matlab软件中利用边缘检测提取鱼眼图像边缘轮廓,拟合圆心坐标,但这一过程不是本发明的核心内容,故不详细介绍。
针对获取的鱼眼图像,利用传统的SURF算法提取图像特征点并匹配,匹配结果如图8所示。提取出所有匹配到的特征点坐标,用于后续处理。
第二,根据鱼眼透镜的半球投影模型建立半球坐标系与像素坐标系的转换关系。
结合图2,模拟鱼眼相机成像过程,在图2中,O′为球面坐标系的原点,半球面为单位半球面。模型通过单位半球面模拟鱼眼镜头获取的超大视场信息,即半球面外围为镜头所对的三维空间。假设空间中一点P,经过入射光线PO′进入鱼眼镜头,经过鱼眼镜头内部透镜组后最终在像平面上显示为p点,期间入射光线PO′在投影半球面的成像点为P′。其中xoy平面是鱼眼图像所在的像素坐标系,XYZ坐标系是半球面所在的空间坐标系,且本发明中的半球面所有点均用以O′点为原点,X轴为主方向的极坐标表示。
第三,根据坐标系转换关系建立鱼眼半球经纬网,提取特征点伪邻域数据。
鱼眼半球经纬网的建立是本发明的核心,具体设计步骤如下:
①构建鱼眼半球经线
结合图3,首先,沿X轴方向,在鱼眼投影半球面模型上,空间中任意某点P的投影点为P′,则P′与M、N可构成一平面,称其为S,此平面S与半球面相交一曲线,则此曲线上的所有目标点具有相同的入射视场角θl,包含该点附近的丰富空间信息,由于其在半球面上类似于地球经度线,因此称其为半球经线l.
在鱼眼投影半球面模型中,空间某点P在半球面上的投影点P′的极坐标表示为其中/>是像素坐标系中投影点与水平方向投影的夹角也即p′点在XO′Y平面的投影点与X轴的夹角,利用公式(5)求得;θ0是PO′与Z轴的夹角,利用公式(7)获取。则由几何关系可得,在极坐标系下鱼眼半球面经线满足公式(8)(9)。
鱼眼投影半球面模型上,任意一条鱼眼半球经线由曲线视场角θl和曲线上任意一点的值共同决定,/>值决定曲线位于X轴的方位,θl大小定义曲线位置。结合图4,由视场角定义可知,鱼眼半球面经线X所在视场角为L1O′Y角,其中L1O′与X轴垂直,此时/>值为定值π/2,代入公式(10)求得L1(θl,π/2,1)。
然后如图6所示,假设一固定视场角增量Δθ,改变待求点所在经线的视场角大小,即可得到待求点鱼眼经线的临近经线方程(11)。
②构建鱼眼半球纬线
依据鱼眼投影半球面模型的对称性,结合图5、图6,本发明沿Y轴方向建立了另一条半球曲线,其构建方法与半球经线构建方法类似,不同之处在于曲线方程利用P′与E、F可构成平面与半球面的求得,由于其类似于地球维度线,故称为鱼眼半球纬线d。则仿照步骤①中的处理过程,鱼眼半球纬线满足公式(12)。
③构建鱼眼半球经纬网并提取伪邻域数据
结合图7,通过公式(11)获取的鱼眼半球经线以及公式(12)得到的鱼眼半球纬线,最终在鱼眼透镜的半球投影模型表面形成(2i+1)×(2j+1)的网状结构,图7所示为3×3结构。该网状结构的分布规律符合鱼眼畸变分布规律,即畸变由图像中心向四周发散,不同的是此网状结构分布于半球面模型而非平面模型中。
而由公式(11)、(12)可知,该网状结构中的经纬线间距由视场角变量Δθ决定。在Δθ一定的情况下,经纬线间距随着距离半球面顶点的远近而逐渐变化,越靠近半球面顶点间距越大,相反越靠近边缘则越小。这一规律与鱼眼畸变分布规律相似,因此能有效缓解畸变问题。
在上述获取的鱼眼半球经纬网中,经纬线相互交叉形成网格模型,构成(2i+1)×(2j+1)个以反投影点p′为中心的半球表面格网点,每个格网点由一条半球经线与一条半球纬线交叉所得,满足公式(12)。
通过公式(13)获得半球经纬网格点在鱼眼半球面的极坐标值,将其代入公式(1)中可以得到格网点在鱼眼图像中的投影坐标,提取其影像数据并存储作为图像点p的邻域信息即为本发明所提出的伪邻域数据。
结合步骤一中SURF特征点匹配算法匹配到的特征点坐标,将每个特征点坐标代入鱼眼半球经纬网模型中,获取特征点的伪邻域数据,本实施例应用的是5×5的伪邻域结构。最终,利用该伪邻域数据对匹配点进行二次匹配,剔除其中因鱼眼畸变导致的错误匹配点。
进行二次匹配所用特征点描述符是利用小波特征思想建立,以本发明获得的特征点伪邻域数据为初始数据,针对伪邻域内的像素点统计其水平方向和垂直方向的Harr小波特征,分别记作dx和dy。然后,每个子区域的小波特征以及小波特征的绝对值相加得到∑dx、∑dy、∑|dx|、∑|dy|,由此,形成一个四维向量:
V=(∑dx,∑dy,∑|dx|,∑|dy|) (14)
用这一四维向量构成描述符,对SURF匹配算法匹配点进行验证,其中SURF匹配结果如图8所示,引入本发明伪邻域数据后的匹配效果如图9,其中检测到的错误匹配点如图10。由图可以看出,引入本发明的伪邻域描述符后,有效消除了错误匹配点,并且本发明可以针对不同情况改变经纬网的稀疏程度,即改变伪邻域大小,以实现不同情况下的处理操作。
以上实施方式仅用于说明本发明,而并非对本发明的限制,有关技术领域的普通技术人员,在不脱离本发明的精神和范围的情况下,还可以做出各种变化和变形。因此,所有等同的技术方案也属于本发明的范畴,本发明的专利保护范围应由权利要求限定。
本发明未详尽描述的技术内容均为公知技术。
Claims (1)
1.一种鱼眼图像特征点伪邻域提取方法,主要包括以下步骤:
步骤一,对鱼眼相机进行检校,获取相机参数以及鱼眼影像框幅;
主要获取相机焦距f、鱼眼镜头拍摄图像的光学中心坐标(u0,v0);
步骤二,根据鱼眼透镜的半球投影模型建立半球坐标系与像素坐标系的转换关系;
式中u、v分别是鱼眼图像上某点的行列值;(u0,v0)是步骤一所求得鱼眼图像光学中心坐标;θ是反投影点p′所在入射光线与Z轴的夹角;是像素坐标系中图像点p与水平方向的投影夹角,mu,mv分别是单位距离在水平和垂直方向的像素数;此外,其中r(θ)表达的是镜头成像过程存在的几何成像模型,传统的成像模型有等距投影模型、其成像模型如下所示;
r=fθ (2)
等立体角投影模型、其成像模型如下所示;
r=2f sin(θ/2) (3)
正交投影模型、其成像模型如下所示;
r=f sin(θ) (4)
体式投影模型、其成像模型如下所示;
r=f tan(θ/2) (5)
式中r表示相机中成像的像高,f代表的是相机焦距,θ表示进入相机的光线的入射角大小;
步骤三,根据坐标系转换关系建立鱼眼半球经纬网,提取特征点伪邻域数据;
再利用步骤二中的公式(2)即可获得鱼眼图像上该点在鱼眼半球投影模型上反投影点p′的θ值,即:
在获取鱼眼图像某点对应的反投影点后,利用视场角定义及几何原理可求得同一视场角目标在鱼眼半球面的投影方程;基于半球投影面的对称性,分别沿互相垂直的两个方向进行研究,其中半球经线l方程满足公式:
同时,假设半球经线l所在视场角为θl:
然后,以Δθ为视场角增量,获取临近经线方程:
式中i=0,1,2,……,Al为定值参数,由曲线所在视场角θl以及设置的视场角增量Δθ决定;通过公式(11)可以获得以l为中心的(2i+1)条鱼眼半球经线;
同理,依据鱼眼半球投影模型的对称性,另一方向的鱼眼半球纬线d以及d附近的临近半球纬线满足公式:
通过公式(10)获取的鱼眼半球经线以及公式(12)得到的鱼眼半球纬线,最终在鱼眼透镜的半球投影模型表面形成(2i+1)×(2j+1)的网状结构,该网状结构的分布规律贴合鱼眼畸变分布规律,即畸变由图像中心向四周发散,不同的是此网状结构分布于半球面模型而非平面模型中;
在上述获取的鱼眼半球经纬网中,经纬线相互交叉形成网格模型,构成(2i+1)×(2j+1)个以反投影点p′为中心的半球表面格网点,每个格网点由一条半球经线与一条半球纬线交叉所得,满足公式:
通过公式(13)获得半球经纬格网点在鱼眼半球面的极坐标值,将其代入公式(1)中可以得到格网点在鱼眼图像中的投影坐标,提取其影像数据并存储作为图像点p的邻域信息,因其不同于鱼眼图像该点的邻域信息,故称之为伪邻域数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210018145.9A CN114445266B (zh) | 2022-01-08 | 2022-01-08 | 鱼眼图像特征点伪邻域提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210018145.9A CN114445266B (zh) | 2022-01-08 | 2022-01-08 | 鱼眼图像特征点伪邻域提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114445266A CN114445266A (zh) | 2022-05-06 |
CN114445266B true CN114445266B (zh) | 2023-06-23 |
Family
ID=81368353
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210018145.9A Active CN114445266B (zh) | 2022-01-08 | 2022-01-08 | 鱼眼图像特征点伪邻域提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114445266B (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830810A (zh) * | 2018-06-07 | 2018-11-16 | 辽宁工业大学 | 一种基于正交投影的鱼眼镜头图像畸变矫正方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE202014005793U1 (de) * | 2014-07-17 | 2015-10-23 | Hendrik Middelhoff | 360 Grad Dome Projektor für die 360°Realbild-Wiedergabe von 360°Domekamera Aufnahmen |
CN104835117B (zh) * | 2015-05-11 | 2020-12-29 | 合肥工业大学 | 基于重叠方式的球面全景图生成方法 |
EP3561773B1 (en) * | 2018-04-26 | 2022-03-02 | Continental Automotive GmbH | Online evaluation for camera intrinsic parameters |
CN109872269B (zh) * | 2019-01-08 | 2020-07-21 | 中国科学院高能物理研究所 | 一种基于鱼眼图像校正的康普顿相机图像融合方法 |
-
2022
- 2022-01-08 CN CN202210018145.9A patent/CN114445266B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830810A (zh) * | 2018-06-07 | 2018-11-16 | 辽宁工业大学 | 一种基于正交投影的鱼眼镜头图像畸变矫正方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114445266A (zh) | 2022-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110197466B (zh) | 一种广角鱼眼图像矫正方法 | |
CN108257183B (zh) | 一种相机镜头光轴校准方法和装置 | |
US10176595B2 (en) | Image processing apparatus having automatic compensation function for image obtained from camera, and method thereof | |
CN109767474B (zh) | 一种多目相机标定方法、装置及存储介质 | |
TWI555378B (zh) | 一種全景魚眼相機影像校正、合成與景深重建方法與其系統 | |
CN106485753B (zh) | 用于无人驾驶汽车的摄像机标定的方法和装置 | |
TWI397317B (zh) | 廣角影像使用圓柱形座標模型並以透視投影法輸出影像的方法 | |
CN104778656B (zh) | 基于球面透视投影的鱼眼图像校正方法 | |
JP5739584B2 (ja) | 車両周辺視角化のための3次元映像合成装置およびその方法 | |
US20170127045A1 (en) | Image calibrating, stitching and depth rebuilding method of a panoramic fish-eye camera and a system thereof | |
CN107705252B (zh) | 适用于双目鱼眼图像拼接展开校正的方法及系统 | |
CN109272570A (zh) | 一种基于立体视觉数学模型的空间点三维坐标求解方法 | |
CN105488766B (zh) | 鱼眼镜头图像校正方法及装置 | |
CN106570938A (zh) | 基于opengl 的全景监控方法及系统 | |
CN106815805A (zh) | 基于Bayer图像的快速畸变校正方法 | |
CN109325981B (zh) | 基于聚焦像点的微透镜阵列型光场相机几何参数标定方法 | |
CN105825470A (zh) | 基于点云影像的鱼眼影像纠正方法 | |
CN103295231A (zh) | 一种鱼眼图像拼接中鱼眼镜头垂直映射图像几何校正方法 | |
CN104680505A (zh) | 一种鱼眼镜头校正的全景视图算法 | |
CN108230242A (zh) | 一种从全景激光点云到视频流的转换方法 | |
CN108269234A (zh) | 一种全景相机镜头姿态估计方法及全景相机 | |
CN113989392A (zh) | 拼接摄像机的彩色棋盘格标定方法、装置及摄像机 | |
CN116468609A (zh) | 基于SuperGlue的两段式变焦相机多图像拼接方法和系统 | |
CN112258581B (zh) | 一种多鱼眼镜头全景相机的现场标定方法 | |
CN110211220A (zh) | 全景鱼眼摄像机的图像校准缝合和深度重建方法及其系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |