CN105976377A - 车载鱼眼摄像头自标定的方法 - Google Patents
车载鱼眼摄像头自标定的方法 Download PDFInfo
- Publication number
- CN105976377A CN105976377A CN201610301347.9A CN201610301347A CN105976377A CN 105976377 A CN105976377 A CN 105976377A CN 201610301347 A CN201610301347 A CN 201610301347A CN 105976377 A CN105976377 A CN 105976377A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- fish
- eye camera
- characteristic point
- calibration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明提出了一种车载鱼眼摄像头自标定的方法,用于解决现有基于图像序列的自标定方法中存在的标定精度较低、应用范围小的技术问题,包括如下步骤:(1)利用车载鱼眼摄像头拍摄车沿直线行驶的路面视频;(2)提取特征点,并选取不在同一直线上的特征点;(3)跟踪所选取的特征点;(4)建立拟合模型,确定摄像头参数初始值,利用特征点满足的共线约束方程,建立特征点关系行列式;(5)优化关于摄像头参数的非线性方程组(6)判断标定结果是否合理,若合理,车载鱼眼摄像头自标定结束,否则,执行步骤(2)。本发明具有标定结果精度高、应用范围广的特点,可用于确定车载鱼眼摄像头几何模型参数。
Description
技术领域
本发明属于图像处理及计算机视觉技术领域,涉及一种摄像头标定方法,具体涉及一种车载鱼眼摄像头自标定的方法,可用于确定车载鱼眼摄像头几何模型参数。
背景技术
在图像测量过程以及计算机视觉的应用中,为确定空间物体表面某点的三维几何位置与其在图像中对应点之间的相互关系,必须建立摄像头成像的几何模型,这些几何模型参数就是摄像头参数。在大多数条件下这些参数必须通过实验与计算才能得到,这个求解参数的过程就称之为摄像头标定。
摄像头标定的方法分为两类:基于标定物的标定方法和基于图像序列的自标定方法,其中基于标定物的标定方法是利用标定物存在的特征点和其在图像上对应点之间的关系,求解摄像头参数,完成标定过程,标定物常见的有平面棋盘格和球体,但这些方法需要定制标定物,在标定物的放置和使用上有严格的要求,使用起来较为复杂。
基于图像序列的自标定方法和基于标定物的标定方法不同,它不需要定制标定物,只是利用场景的几何约束关系或者摄像头自身运动产生的约束关系,建立不同图像中的对应点满足的约束方程,求解得到摄像头参数,完成摄像头的标定。但是,自标定方法的精度一般比基于标定物的方法要差,而决定标定精度的因素主要是摄像头模型和优化方法的选择。例如:在文献Hughes C,Mcfeely R,Denny P,et al.Equidistant fish-eyeperspective with application in distortion centre estimation[J].Image&VisionComputing,2010,28(3):538–551.和C.Hughes,P.Denny,M.Glavin et al.Equidistantfish-eye calibration and rectification by vanishing point extraction[J].IEEETrans.Pattern Analysis and Machine Intelligence,2010,32(12):2289-2296中Hughes等人基于等距投影模型利用灭点的性质来估计摄像头参数,该方法只适用于等距投影模型,应用范围小,而在文献Zhu H J,Yang P,Li S G.Estimating fisheye cameraparameters from homography[J].Sci China Inf Sci,2012,55:2119–2127中ZhuHaijiang等人提出了一种利用两幅鱼眼图像之间的单应关系线性求解鱼眼摄像头参数中畸变系数的方法,这种方法在鱼眼摄像头的主点坐标、焦距等参数已知的情况下,根据鱼眼图像的对应点求出单应矩阵,然后从单应矩阵导出对摄像头参数的线性约束,从而求解出模型参数,该方法不能保证所得摄像头参数是准确的,并且没有进行整体优化,所以得到的结果精度不高。
发明内容:
本发明的目的在于克服上述现有技术存在的不足,提出了一种车载鱼眼摄像头自标定的方法,在车保持直线行驶的过程中,利用车载鱼眼摄像头拍摄行车路面,得到行车路面视频,利用路面视频中存在的几何关系,完成摄像头自标定的过程。用于解决现有基于图像序列的自标定方法中存在的标定精度较低、应用范围小的技术问题。
本发明的技术思路是,在平整路段,使汽车保持直线,行驶一个车身距离,通过车载鱼眼摄像头拍摄路面,提取路面的特征点,并跟踪这些特征点在不同画面中的位置信息,本应形成一条直线轨迹的特征点,在鱼眼图像中呈现为曲线,利用特征点共线这一几何关系和鱼眼摄像头模型,得到摄像头参数的初始值,并将不同特征点的坐标信息和摄像头参数初始值带入行列式J中,形成多个包含摄像头参数的方程。其中,J为同一特征点在三幅不同图像中的坐标所满足的行列式关系。后利用优化算法,求解出车载鱼眼摄像头的参数终值,完成车载鱼眼摄像头的自标定。
根据上述技术思路,实现本发明目的采取的技术方案,包括如下步骤:
步骤1,利用车载鱼眼摄像头对车沿直线行驶的路面进行拍摄,得到和车身距离等长的路面鱼眼视频。
步骤2,提取得到的鱼眼视频第一帧中路面的特征点,并对特征点的位置和数量进行控制,使所选取的特征点不在同一条直线上。
步骤3,跟踪选取的第一帧中路面的特征点,获取同一特征点在不同帧中的坐标信息。
步骤4,建立鱼眼摄像头拟合模型:
其中,rd为得到的畸变图像的特征点到主点坐标的距离,ru为得到的畸变校正后图像对应的特征点到主点坐标的距离,k1、k2、k3、k4和k5为车载鱼眼摄像头畸变系数D的五个不同位置系数,即D=(k1,k2,k3,k4,k5)。
步骤5,利用步骤3获取的同一特征点在不同帧中的坐标信息,求取车载鱼眼摄像头焦距的初始值,按如下步骤实现:
步骤5a,将步骤3获取的同一特征点在不同帧中的坐标信息,带入行列式其中,J是位于同一条直线上的三个特征点坐标信息满足的关系行列式;u1、u2和u3分别为不同帧中以图像左上角坐标为坐标原点时的横坐标;v1、v2和v3分别为对应各帧中以图像左上角坐标为坐标原点时的纵坐标;u0和v0分别为得到的鱼眼视频中,每一帧图像的主点坐标;s(θd1)、s(θd2)和s(θd3)分别为步骤4得到的鱼眼摄像头拟合模型在三幅不同鱼眼图像中的值, 和fx和fy分别为焦距在x轴和y轴方向的分量。
步骤5b,对带入的行列式J中的s(θd1)、s(θd2)和s(θd3)的后四位系数均置0,得到鱼眼摄像头单参数除法模型: 和
步骤5c,对得到的鱼眼摄像头单参数除法模型与模型进行拟合,其中rd=fθd为鱼眼摄像头等距投影模型,表示畸变图像的特征点到主点坐标的距离,ru=f tanθd表示畸变校正后图像对应的特征点到主点坐标的距离,拟合后得到畸变系数D的初始值D'=(k1',0,0,0,0)。
步骤5d,将得到的畸变系数的初始值D'带入s(θd1)、s(θd2)和s(θd3)中,得到和
步骤5e,将得到的和带入行列式J中,得到
步骤5f,利用得到的行列式J',假设fx=fy=f,求取车载鱼眼摄像头焦距f的初始值f'。
步骤6,对得到的鱼眼视频中的任一帧图像的边缘进行拟合,得到圆形曲线,并将该圆形曲线的圆心坐标作为主点坐标初始值(u,v)。
步骤7,利用行列式J对得到的畸变系数初始值D'、焦距初始值f'和主点坐标初始值(u,v)进行优化,得到畸变系数的终值、焦距的终值和主点坐标的终值。
步骤8,利用得到的畸变系数的终值、焦距的终值和主点坐标的终值,对得到的鱼眼视频中的各帧图像进行畸变校正。
步骤9,根据畸变校正后的各帧图像的畸变是否消除,判断得到的畸变系数终值、焦距终值和主点坐标终值是否合理,若是,车载鱼眼摄像头自标定结束,否则,执行步骤2。
本发明与现有技术相比,具有如下的优点:
第一,本发明由于确定车载鱼眼摄像头参数时,采用鱼眼摄像头拟合模型,同时对鱼眼摄像头参数初始值进行整体优化,与现有自标定方法中采用单一模型并进行局部优化的方法相比,提高了标定精度。
第二,本发明由于确定车载鱼眼摄像头模型时,利用现有鱼眼摄像头模型进行拟合,得到更具一般性的鱼眼摄像头模型,与现有的自标定方法中采用的鱼眼摄像头模型相比,适用范围更加广泛,可用于多种类型鱼眼摄像头的标定。
附图说明:
图1为本发明的实现流程框图;
图2为本发明实施例的过程截图。
具体实施方式
下面结合附图和实施例,对本发明作进一步详细说明。
参照图1,本发明包括如下步骤:
步骤1,利用车载鱼眼摄像头对车沿直线行驶的路面进行拍摄,得到和车身距离等长的路面鱼眼视频:
选好一段平整路段,让装有鱼眼摄像头的汽车在该路段沿直线行驶一个车身距离,用鱼眼摄像头拍摄行车路面。当车行驶达到一个车身距离时,停止拍摄。得到一段和车身距离等长的路面鱼眼视频。图2(a)是鱼眼视频截图。
步骤2,提取得到的鱼眼视频第一帧中路面的特征点,并对特征点的位置和数量进行控制,使所选取的特征点不在同一条直线上:
在得到的鱼眼图像中,利用SIFT算法提取鱼眼视频第一帧中路面的特征点,并对特征点的位置和数量进行控制,使所选取的特征点不在同一条直线上。
步骤3,跟踪选取的第一帧中路面的特征点,获取同一特征点在不同帧中的坐标信息:
利用LK光流法,跟踪所选取的第一帧中路面的特征点,获取同一特征点在不同帧中的坐标信息,并得到不同特征点随着车行走的轨迹。图2(b)为不同特征点的轨迹。
步骤4,建立鱼眼摄像头拟合模型:
假设鱼眼图像中的一个图像点为(ud,vd)T,其到图像畸变中心的距离为rd,经过畸变校正后对应的图像点为(uu,vu)T,其到图像畸变中心的距离为ru,并假设畸变中心的坐标为(u0,v0)T。则根据鱼眼摄像头成像模型,畸变点与无畸变点之间存在如下关系:
以图像畸变中心为图像坐标系的原点,变换以上两个公式,则对应的透视图像中的无畸变点的齐次坐标可以表示为:
从上式可以看出,的值是影响鱼眼图像中的畸变点与校正后的透视投影图像上的无畸变点的主要因素。
将等距投影模型rd=fθ、等立体角模型正交投影模型rd=fsinθ和体视投影模型统一以等距投影模型rd=fθ的形式表示,其中f为摄像头焦距,θ为入射光线与鱼眼摄像头光轴之间的夹角。
令等距投影模型rd=fθ=fθd,其中θd是与θ具有对应关系的角度表示,则有
同理,根据等立体角投影模型可得:
根据正交投影模型rd=f sinθ=fθd,可得:
根据体视投影模型可得:
从式(1)~(4),可以看出为偶函数,该偶函数展开式可以表示为:
通过多项式对上述四种模型的进行拟合,当θd达到10次方时,即可满足精度要求,即:
其中k1、k2、k3、k4和k5为车载鱼眼摄像头畸变系数D的五个不同位置系数,即D=(k1,k2,k3,k4,k5);
步骤5,利用获取的同一特征点在不同帧中的坐标信息,求取车载鱼眼摄像头焦距的初始值,按如下步骤实现:
步骤5a,将获取的同一特征点在不同帧中的坐标信息,带入行列式其中,J是位于同一条直线上的三个特征点坐标信息满足的关系行列式;u1、u2和u3分别为不同帧中以图像左上角坐标为坐标原点时的横坐标;v1、v2和v3分别为对应各帧中以图像左上角坐标为坐标原点时的纵坐标;u0和v0分别为得到的鱼眼视频中,每一帧图像的主点坐标;s(θd1)、s(θd2)和s(θd3)分别为步骤4得到的鱼眼摄像头模型在三幅不同鱼眼图像中的值, 和fx和fy分别为焦距在x轴和y轴方向的分量;
步骤5b,对带入的行列式J中的s(θd1)、s(θd2)和s(θd3)的后四位系数均置0,得到鱼眼摄像头单参数除法模型: 和
步骤5c,对得到的鱼眼摄像头单参数除法模型与模型进行拟合,拟合后得到畸变系数D的初始值D'=(k1',0,0,0,0);
步骤5d,将得到的畸变系数的初始值D'带入s(θd1)、s(θd2)和s(θd3)中,得到和
步骤5e,将得到的和带入行列式J中,得到
步骤5f,利用得到的行列式J',假设fx=fy=f,求取车载鱼眼摄像头焦距f的初始值f';
根据鱼眼摄像头等距投影模型rd=fθd,可以得到将行列式J'展开,并令得到
步骤6,对得到的鱼眼视频中的任一帧图像的边缘进行拟合,得到圆形曲线,并将该圆形曲线的圆心坐标作为主点坐标初始值(u,v):
选取得到的鱼眼视频中的任一帧图像,由于图像的边缘轮廓呈现为圆形曲线,我们对其轮廓边缘进行拟合,得到圆形曲线方程,并将该圆形曲线的圆心坐标作为主点坐标初始值(u,v);
步骤7,利用行列式J对得到的畸变系数初始值D'、焦距初始值f'和主点坐标初始值(u,v)进行优化,得到畸变系数的终值、焦距的终值和主点坐标的终值:
将得到的行列式J展开,得到:
令目标函数F为:
根据不同的特征点,可得到多条曲线。将步骤3中得到的坐标信息带入目标函数F,得到一组关于车载鱼眼摄像头参数的非线性方程。采用列文伯格-马夸尔特优化算法,对所得到的多个目标函数F进行优化,当迭代误差小于一个设定的阈值时,结束迭代,此时得到的结果,作为鱼眼摄像头畸变系数的终值、焦距的终值和主点坐标的终值。
步骤8,利用得到的畸变系数的终值、焦距的终值和主点坐标的终值,对得到的鱼眼视频中的各帧图像进行畸变校正:
将得到的畸变系数的终值、焦距的终值和主点坐标的终值,作为标定结果,对得到的鱼眼视频中的各帧图像进行畸变校正。图2(c)为鱼眼图像校正结果。
步骤9,根据畸变校正后的各帧图像的畸变是否消除,判断得到的畸变系数终值、焦距终值和主点坐标终值是否合理,若是,车载鱼眼摄像头自标定结束,否则,执行步骤2。
参照图2,图2(a)为鱼眼视频截图,从中可看出,路边本应呈现为直线的黄色实线,在鱼眼视频中呈现为曲线;图2(b)为不同特征点的轨迹,从中可看出,本应形成一条直线轨迹的特征点,在鱼眼图像中也呈现为曲线;图2(c)为鱼眼图像校正结果,从中可看出,在鱼眼视频中为曲线的黄色实线,经过校正后变为直线,鱼眼视频中的图像畸变得到校正。
Claims (5)
1.一种车载鱼眼摄像头自标定的方法,包括如下步骤:
(1)利用车载鱼眼摄像头对车沿直线行驶的路面进行拍摄,得到和车身距离等长的路面鱼眼视频;
(2)提取得到的鱼眼视频第一帧中路面的特征点,并对特征点的位置和数量进行控制,使所选取的特征点不在同一条直线上;
(3)跟踪选取的第一帧中路面的特征点,获取同一特征点在不同帧中的坐标信息;
(4)建立鱼眼摄像头拟合模型:其中,rd为得到的畸变图像的特征点到主点坐标的距离,ru为得到的畸变校正后图像对应的特征点到主点坐标的距离,k1、k2、k3、k4和k5为车载鱼眼摄像头畸变系数D的五个不同位置系数,即D=(k1,k2,k3,k4,k5);
(5)利用步骤(3)获取的同一特征点在不同帧中的坐标信息,求取车载鱼眼摄像头焦距的初始值,按如下步骤实现:
5a)将步骤(3)获取的同一特征点在不同帧中的坐标信息,带入行列式其中,J是位于同一条直线上的三个特征点坐标信息满足的关系行列式;u1、u2和u3分别为不同帧中以图像左上角坐标为坐标原点时的横坐标;v1、v2和v3分别为对应各帧中以图像左上角坐标为坐标原点时的纵坐标;u0和v0分别为得到的鱼眼视频中,每一帧图像的主点坐标;s(θd1)、s(θd2)和s(θd3)分别为步骤(4)得到的鱼眼摄像头拟合模型在三幅不同鱼眼图像中的值, 和fx和fy分别为焦距在x轴和y轴方向的分量;
5b)对带入的行列式J中的s(θd1)、s(θd2)和s(θd3)的后四位系数均置0,得到鱼眼摄像头单参数除法模型: 和
5c)对得到的鱼眼摄像头单参数除法模型与模型进行拟合,其中rd=fθd为鱼眼摄像头等距投影模型,表示畸变图像的特征点到主点坐标的距离,ru=ftanθd表示畸变校正后图像对应的特征点到主点坐标的距离,拟合后得到畸变系数D的初始值D'=(k1',0,0,0,0);
5d)将得到的畸变系数的初始值D'带入s(θd1)、s(θd2)和s(θd3)中,得到和
5e)将得到的和带入行列式J中,得到
5f)利用得到的行列式J',假设fx=fy=f,求取车载鱼眼摄像头焦距f的初始值f';
(6)对得到的鱼眼视频中的任一帧图像的边缘进行拟合,得到圆形曲线,并将该圆形曲线的圆心坐标作为主点坐标初始值(u,v);
(7)利用行列式J对得到的畸变系数初始值D'、焦距初始值f'和主点坐标初始值(u,v)进行优化,得到畸变系数的终值、焦距的终值和主点坐标的终值;
(8)利用得到的畸变系数的终值、焦距的终值和主点坐标的终值,对得到的鱼眼视频中的各帧图像进行畸变校正;
(9)根据畸变校正后的各帧图像的畸变是否消除,判断得到的畸变系数终值、焦距终值和主点坐标终值是否合理,若是,车载鱼眼摄像头自标定结束,否则,执行步骤(2)。
2.根据权利要求1所述的车载鱼眼摄像头自标定的方法,其特征在于:步骤(2)中所述的提取得到的鱼眼视频第一帧中路面的特征点,采用SIFT算法。
3.根据权利要求1所述的车载鱼眼摄像头自标定的方法,其特征在于:步骤(3)中所述的跟踪提取的第一帧中路面的特征点,采用LK光流法。
4.根据权利要求1所述的车载鱼眼摄像头自标定的方法,其特征在于:步骤(4)中所述的建立鱼眼摄像头拟合模型是由等距投影模型,等立体角投影模型、正交投影模型和体视投影模型变换拟合得到。
5.根据权利要求1所述的车载鱼眼摄像头自标定的方法,其特征在于:步骤(7)所述的利用行列式J对得到的畸变系数初始值D'、焦距初始值f'和主点坐标初始值(u,v)进行优化,采用列文伯格-马夸尔特算法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610301347.9A CN105976377B (zh) | 2016-05-09 | 2016-05-09 | 车载鱼眼摄像头自标定的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610301347.9A CN105976377B (zh) | 2016-05-09 | 2016-05-09 | 车载鱼眼摄像头自标定的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105976377A true CN105976377A (zh) | 2016-09-28 |
CN105976377B CN105976377B (zh) | 2018-11-20 |
Family
ID=56992186
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610301347.9A Active CN105976377B (zh) | 2016-05-09 | 2016-05-09 | 车载鱼眼摄像头自标定的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105976377B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106600644A (zh) * | 2016-11-16 | 2017-04-26 | 深圳六滴科技有限公司 | 全景摄像机的参数矫正方法及装置 |
CN106815869A (zh) * | 2016-10-28 | 2017-06-09 | 北京鑫洋泉电子科技有限公司 | 鱼眼相机的光心确定方法及装置 |
CN107103627A (zh) * | 2017-04-27 | 2017-08-29 | 深圳市天双科技有限公司 | 一种基于车道线的汽车全景摄像头外部参数标定方法 |
CN107105155A (zh) * | 2017-03-09 | 2017-08-29 | 珠海研果科技有限公司 | 一种基于鱼眼摄像头录制的全景视频的自动标定方法 |
WO2019233330A1 (zh) * | 2018-06-05 | 2019-12-12 | 上海商汤智能科技有限公司 | 车载摄像头自标定方法及装置和车辆驾驶方法及装置 |
CN110580723A (zh) * | 2019-07-05 | 2019-12-17 | 成都智明达电子股份有限公司 | 一种利用深度学习和计算机视觉进行精准定位的方法 |
CN111559314A (zh) * | 2020-04-27 | 2020-08-21 | 长沙立中汽车设计开发股份有限公司 | 深度与图像信息融合的3d增强全景环视系统及实现方法 |
CN113066133A (zh) * | 2021-04-23 | 2021-07-02 | 同致电子科技(厦门)有限公司 | 一种基于路面标识几何特征的车载摄像头在线自标定方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104240236A (zh) * | 2014-08-26 | 2014-12-24 | 中山大学 | 一种鱼眼镜头标定后鱼眼图像校正的方法 |
WO2015110847A1 (en) * | 2014-01-27 | 2015-07-30 | Xylon d.o.o. | Data-processing system and method for calibration of a vehicle surround view system |
-
2016
- 2016-05-09 CN CN201610301347.9A patent/CN105976377B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015110847A1 (en) * | 2014-01-27 | 2015-07-30 | Xylon d.o.o. | Data-processing system and method for calibration of a vehicle surround view system |
CN104240236A (zh) * | 2014-08-26 | 2014-12-24 | 中山大学 | 一种鱼眼镜头标定后鱼眼图像校正的方法 |
Non-Patent Citations (4)
Title |
---|
JUHO KANNALA: "A generic camera model and calibration method for conventional, wide-angle, and fish-eye lenses", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS & MACHINE INTELLIGENCE》 * |
JUMPEI ISHII等: "3D RECONSTRUCTION OF URBAN ENVIRONMENTS USING IN-VEHICLE FISHEYE CAMERA", 《ICIP2013》 * |
朱均超等: "基于分离参数标定的鱼眼镜头成像模型研究", 《传感技术学报》 * |
涂 波等: "一种扩展小孔成像模型的鱼眼相机矫正与标定方法", 《自动化学报》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106815869A (zh) * | 2016-10-28 | 2017-06-09 | 北京鑫洋泉电子科技有限公司 | 鱼眼相机的光心确定方法及装置 |
CN106815869B (zh) * | 2016-10-28 | 2020-06-19 | 北京鑫洋泉电子科技有限公司 | 鱼眼相机的光心确定方法及装置 |
CN106600644B (zh) * | 2016-11-16 | 2020-06-09 | 深圳六滴科技有限公司 | 全景摄像机的参数矫正方法及装置 |
CN106600644A (zh) * | 2016-11-16 | 2017-04-26 | 深圳六滴科技有限公司 | 全景摄像机的参数矫正方法及装置 |
CN107105155A (zh) * | 2017-03-09 | 2017-08-29 | 珠海研果科技有限公司 | 一种基于鱼眼摄像头录制的全景视频的自动标定方法 |
CN107105155B (zh) * | 2017-03-09 | 2020-12-08 | 珠海研果科技有限公司 | 一种基于鱼眼摄像头录制的全景视频的自动标定方法 |
CN107103627A (zh) * | 2017-04-27 | 2017-08-29 | 深圳市天双科技有限公司 | 一种基于车道线的汽车全景摄像头外部参数标定方法 |
CN107103627B (zh) * | 2017-04-27 | 2020-12-11 | 深圳市天双科技有限公司 | 一种基于车道线的汽车全景摄像头外部参数标定方法 |
WO2019233330A1 (zh) * | 2018-06-05 | 2019-12-12 | 上海商汤智能科技有限公司 | 车载摄像头自标定方法及装置和车辆驾驶方法及装置 |
CN110580723A (zh) * | 2019-07-05 | 2019-12-17 | 成都智明达电子股份有限公司 | 一种利用深度学习和计算机视觉进行精准定位的方法 |
CN110580723B (zh) * | 2019-07-05 | 2022-08-19 | 成都智明达电子股份有限公司 | 一种利用深度学习和计算机视觉进行精准定位的方法 |
CN111559314A (zh) * | 2020-04-27 | 2020-08-21 | 长沙立中汽车设计开发股份有限公司 | 深度与图像信息融合的3d增强全景环视系统及实现方法 |
CN111559314B (zh) * | 2020-04-27 | 2021-08-24 | 长沙立中汽车设计开发股份有限公司 | 深度与图像信息融合的3d增强全景环视系统及实现方法 |
CN113066133A (zh) * | 2021-04-23 | 2021-07-02 | 同致电子科技(厦门)有限公司 | 一种基于路面标识几何特征的车载摄像头在线自标定方法 |
CN113066133B (zh) * | 2021-04-23 | 2024-02-09 | 同致电子科技(厦门)有限公司 | 一种基于路面标识几何特征的车载摄像头在线自标定方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105976377B (zh) | 2018-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105976377A (zh) | 车载鱼眼摄像头自标定的方法 | |
JP6612297B2 (ja) | 道路の垂直輪郭検出 | |
CN110569704B (zh) | 一种基于立体视觉的多策略自适应车道线检测方法 | |
WO2021004312A1 (zh) | 一种基于双目立体视觉系统的车辆智能测轨迹方法 | |
US11636686B2 (en) | Structure annotation | |
CN110567469B (zh) | 视觉定位方法、装置、电子设备及系统 | |
CN103761737A (zh) | 基于稠密光流的机器人运动估计方法 | |
EP2570993B1 (en) | Egomotion estimation system and method | |
CN107590438A (zh) | 一种智能辅助驾驶方法及系统 | |
US20150086080A1 (en) | Road vertical contour detection | |
CN106780590A (zh) | 一种深度图的获取方法及系统 | |
CN106558080A (zh) | 一种单目相机外参在线标定系统及方法 | |
Fraundorfer et al. | A constricted bundle adjustment parameterization for relative scale estimation in visual odometry | |
CN102609941A (zh) | 基于ToF深度相机的三维注册方法 | |
CN104794683B (zh) | 基于围绕渐变拼缝区域平面扫描的视频拼接方法 | |
CN109917359B (zh) | 基于车载单目视觉的鲁棒车辆距离估计方法 | |
CN105740804A (zh) | 一种基于图像处理的车辆自动跟踪驾驶方法 | |
EP3905198A1 (en) | System and method for computing the 3d position of a semantic landmark in images from the real world | |
CN105741296A (zh) | 一种360度全视角鸟瞰全景行车辅助标定方法 | |
CN105303518A (zh) | 一种基于区域特征的视频帧间拼接方法 | |
CN109543520B (zh) | 一种面向语义分割结果的车道线参数化方法 | |
CN103455992B (zh) | 拼接航空多元并扫图像的方法 | |
Geiger | Monocular road mosaicing for urban environments | |
Noda et al. | Road image update using in-vehicle camera images and aerial image | |
CN105608670A (zh) | 一种航空视频图像的无鬼影横向条带式快速拼接方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |