CN109345587A - 一种基于全景与单目视觉的混合视觉定位方法 - Google Patents
一种基于全景与单目视觉的混合视觉定位方法 Download PDFInfo
- Publication number
- CN109345587A CN109345587A CN201811017301.XA CN201811017301A CN109345587A CN 109345587 A CN109345587 A CN 109345587A CN 201811017301 A CN201811017301 A CN 201811017301A CN 109345587 A CN109345587 A CN 109345587A
- Authority
- CN
- China
- Prior art keywords
- panorama
- vision
- matrix
- camera
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Measurement Of Optical Distance (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
本发明属于机器视觉领域,公开了一种基于全景与单目视觉的混合视觉定位方法,包含如下步骤:组成混合垂直立体视觉,使用平面棋盘格标定,得到全景相机与普通视觉相机的内部参数;在混合垂直立体视觉中,统一化为球面统一投影模型,根据全景与普通视觉的共同方位对全景有效坐标系转换得到新的全景方位坐标系;根据立体标定结果,得到旋转矩阵与平移矩阵;利用旋转矩阵与平移矩阵对混合垂直立体视觉立体校正,得到垂直视差,再根据混合垂直立体视觉系统的三角测量公式确定目标点的三维位置坐标信息。本发明保证全景视觉的大视场,弥补了全景相机分辨率低且不均匀的劣势,解决了混合视觉中立体标定的问题并将混合视觉定位通用化。
Description
技术领域
本发明属于机器视觉领域,尤其涉及一种基于全景与单目视觉的混合视觉定位方法。
背景技术
机器视觉是人工智能正在快速发展的一个分支。简单说来,机器视觉就是用机器代替人眼来做测量和判断。机器视觉系统是通过机器视觉产品即图像摄取装置,分CMOS和CCD两种将被摄取目标转换成图像信号,传送给专用的图像处理系统,得到被摄目标的形态信息,根据像素分布和亮度、颜色等信息,转变成数字化信号;图像系统对这些信号进行各种运算来抽取目标的特征,进而根据判别的结果来控制现场的设备动作。机器视觉是一项综合技术,包括图像处理、机械工程技术、控制、电光源照明、光学成像、传感器、模拟与数字视频技术、计算机软硬件技术图像增强和分析算法、图像卡、I/O卡等。一个典型的机器视觉应用系统包括图像捕捉、光源系统、图像数字化模块、数字图像处理模块、智能判断决策模块和机械控制执行模块。机器视觉系统最基本的特点就是提高生产的灵活性和自动化程度。在一些不适于人工作业的危险工作环境或者人工视觉难以满足要求的场合,常用机器视觉来替代人工视觉。同时,在大批量重复性工业生产过程中,用机器视觉检测方法可以大大提高生产的效率和自动化程度。如今,中国正成为世界机器视觉发展最活跃的地区之一,应用范围涵盖了工业、农业、医药、军事、航天、气象、天文、公安、交通、安全、科研等国民经济的各个行业。其重要原因是中国已经成为全球制造业的加工中心,高要求的零部件加工及其相应的先进生产线,使许多具有国际先进水平的机器视觉系统和应用经验也进入了中国。
机器视觉主要通过模拟人的视觉功能从客观图像中提取周围信息,加以处理或计算,最终用于实际检测、测量和控制。双目立体视觉是机器视觉的一种重要形式,它是基于视差原理并利用成像设备从不同位置获取被测物体的两幅图像,通过计算图像对应点间的位置偏差,来获取物体三维信息的方法。经过几十年来的发展,立体视觉在机器人视觉、军事应用和航空测绘等众多领域得到广泛的应用。
申请号CN201410373212.4的专利公开了一种基于马步测度的Harris?SIFT双目视觉定位方法,用于无人水下航行器(UUV)回收过程中的实时双目视觉定位。基于双目立体视觉的模型原理,利用SIFT算法从左右摄像机分别获取的图像中检测目标,并获取匹配目标的特征点,对两幅图像中目标物体的坐标标定,通过计算可得到目标物体的深度距离,还原其三维信息。针对UUV运动的海洋环境的特点,本发明提出了一种基于采用马步距离做测度的Harris?SIFT算子双目视觉算法,提高了图像匹配的运算效率和应用水平的实时性,并且可以保证一定的精度。但该算法定位精度较低,不能用于精密测量领域。
发明内容
本发明的目的在于公开视场大,细节处理效果好的一种基于全景与单目视觉的混合视觉定位方法。
本发明的目的是这样实现的:
一种基于全景与单目视觉的混合视觉定位方法,包含如下步骤:
步骤(1):将全景相机与普通视觉相机垂直放置组成混合垂直立体视觉,使用平面棋盘格对全景与普通视觉分别标定,得到全景相机与普通视觉相机的内部参数:
全景相机的内参矩阵为Ko,普通视觉相机的内参矩阵为Kp,全景相机的畸变系数为(ko1,k02,p01,po2),普通视觉相机的畸变系数为(kp1,kp2,kp3,pp1,pp2);
上式中,η是与双曲面镜参数有关的参数,γ1与γ2为有效焦距,(u0,vo)为全景相机的主点;
步骤(2):在混合垂直立体视觉中,将全景与普通视觉统一化为球面统一投影模型,根据全景与普通视觉的共同方位对全景有效坐标系转换得到新的全景方位坐标系Og-XgYgZg。
建立球面统一投影模型:Om-XmYmZm为全景有效坐标系,全景有效坐标系原点为球面统一投影模型的单位球球心,Op-XpYpZp为普通视觉相机的相机坐标系;
取矩阵和矩阵Rf:
上式中,θ为共同方位在全景图像中与Xm坐标轴的夹角,矩阵Rf是引入的用来统一全景与普通视觉共同方位的坐标系的矩阵;
旋转和Rf得到新的全景方位坐标系Og-XgYgZg:
上式中,(xg,yg,zg)是在新的全景方位坐标系中的球面点的坐标;
步骤(3):根据立体标定结果,得到新的全景方位坐标系Og-XgYgZg与普通视觉相机的相机坐标系Op-XpYpZp之间的旋转矩阵R与平移矩阵T。
步骤(4):利用旋转矩阵R与平移矩阵T对混合垂直立体视觉立体校正,通过一般化的立体匹配得到垂直视差,再根据混合垂直立体视觉系统的三角测量公式确定目标点的三维位置坐标信息。
步骤(4.1):利用旋转矩阵R与平移矩阵T对混合垂直立体视觉立体校正:
将旋转矩阵R分解得到ru、rd:
ru*rd=1;
上式中,ru是上坐标系达到重投影透视图像平面共面所需的旋转矩阵,rd是下坐标系达到重投影透视图像平面共面所需的旋转矩阵;
定义上坐标系原点与下坐标系原点的连线和重投影透视图像平面的交点为极点,令全景相机与普通视觉相机的图像平面和上坐标系原点与下坐标系原点的连线平行,使得极点处于无穷远处列对齐:计算使得极点处于y轴无穷远处的Rrect矩阵:
重投影透视图像平面和相机坐标系原点连线平行:
上式中,T=[Tx Ty Tz]T;
e1和e2正交,e2与主光轴方向向量(0,0,1)叉积:
e3与e1和e2正交:
e3=e1×e2;
将Rrect左乘到矩阵ru和矩阵rd:
Ru=Rrect*ru;
Rd=Rrect*rd;
上式中,Rd是立体校正过程中Og-XgYgZg坐标系的旋转矩阵,Ru是立体校正过程中Op-XpYpZp坐标系的旋转矩阵;
步骤(4.2):立体校正后,空间点在重投影透视图像平面的投影列对齐,混合垂直立体视觉系统的三角测量公式为:
上式中,B为混合垂直立体视觉的基线,B的大小为全景有效视点与普通相机光心之间的距离;
步骤(4.3):定义垂直视差为vy=y2-y1。垂直视差的大小d和给定的二维齐次坐标之间存在如下关系:
上式中,Q为重投影矩阵;
然后计算得到目标点的三维位置坐标信息(X/W,Y/W,Z/W)。
本发明的有益效果为:
本发明在保证全景视觉大视场的同时,应用常规视角相机的高分辨率优势对目标区域进行精细观测,弥补了全景相机分辨率低且不均匀的劣势,解决了混合视觉中立体标定的问题并将混合视觉定位通用化。
附图说明
图1是全景图像及球面统一投影模型;
图2是普通视觉图像与普通视觉球面统一模型;
图3是混合视觉立体校正后的共同方位透视展开;
图4是混合视觉中的普通场景图与二维视差图;
图5是球面统一投影模型图。
具体实施方式
下面结合附图来进一步描述本发明:
一种基于全景与单目视觉的混合视觉定位方法,包含如下步骤:
步骤(1):将全景相机与普通视觉相机垂直放置组成混合垂直立体视觉,使用平面棋盘格对全景与普通视觉分别标定,得到全景相机与普通视觉相机的内部参数:
全景相机的内参矩阵为Ko,普通视觉相机的内参矩阵为Kp,全景相机的畸变系数为(ko1,k02,p01,po2),普通视觉相机的畸变系数为(kp1,kp2,kp3,pp1,pp2);
上式中,η是与双曲面镜参数有关的参数,γ1与γ2为有效焦距,(u0,vo)为全景相机的主点;
步骤(2):如图1和图2,在混合垂直立体视觉中,将全景与普通视觉统一化为球面统一投影模型,根据全景与普通视觉的共同方位对全景有效坐标系转换得到新的全景方位坐标系Og-XgYgZg。
如图5,建立球面统一投影模型:Om-XmYmZm为全景有效坐标系,全景有效坐标系原点为球面统一投影模型的单位球球心,Op-XpYpZp为普通视觉相机的相机坐标系;
取矩阵和矩阵Rf:
上式中,θ为共同方位在全景图像中与Xm坐标轴的夹角,矩阵Rf是引入的用来统一全景与普通视觉共同方位的坐标系的矩阵;
旋转和Rf得到新的全景方位坐标系Og-XgYgZg:
上式中,(xg,yg,zg)是在新的全景方位坐标系中的球面点的坐标;
此时仅仅是对混合视觉进行粗略校正,精确校正仍需通过立体标定得到两坐标系之间的旋转平移位置关系后立体校正。
步骤(3):根据立体标定结果,得到新的全景方位坐标系Og-XgYgZg与普通视觉相机的相机坐标系Op-XpYpZp之间的旋转矩阵R与平移矩阵T。
步骤(4):利用旋转矩阵R与平移矩阵T对混合垂直立体视觉立体校正,通过一般化的立体匹配得到垂直视差,再根据混合垂直立体视觉系统的三角测量公式确定目标点的三维位置坐标信息。
步骤(4.1):利用旋转矩阵R与平移矩阵T对混合垂直立体视觉立体校正:
将旋转矩阵R分解得到ru、rd:
ru*rd=1;
上式中,ru是上坐标系达到重投影透视图像平面共面所需的旋转矩阵,rd是下坐标系达到重投影透视图像平面共面所需的旋转矩阵;
定义上坐标系原点与下坐标系原点的连线和重投影透视图像平面的交点为极点,令全景相机与普通视觉相机的图像平面和上坐标系原点与下坐标系原点的连线平行,使得极点处于无穷远处列对齐:计算使得极点处于y轴无穷远处的Rrect矩阵:
重投影透视图像平面和相机坐标系原点连线平行:
上式中,T=[Tx Ty Tz]T;
e1和e2正交,e2与主光轴方向向量(0,0,1)叉积:
e3与e1和e2正交:
e3=e1×e2;
将Rrect左乘到矩阵ru和矩阵rd:
Ru=Rrect*ru;
Rd=Rrect*rd;
上式中,Rd是立体校正过程中Og-XgYgZg坐标系的旋转矩阵,Ru是立体校正过程中
Op-XpYpZp坐标系的旋转矩阵;
步骤(4.2):如图3,通过对混合视觉中的共同方位透视展开得到具有垂直视差的列对齐的两幅图像,根据两图像的垂直视差和三角定位公式确定目标点的空间三维位置。经立体校正后,空间点在全景和普通视觉透视展开图像平面的投影具有相同的横坐标即列对齐,混合立体视觉系统的三角测量公式为:
上式中,B为混合垂直立体视觉的基线,B的大小为全景有效视点与普通相机光心之间的距离;
步骤(4.3):如图4,定义垂直视差为vy=y2-y1。垂直视差的大小d和给定的二维齐次坐标之间存在如下关系:
上式中,Q为重投影矩阵;
然后计算得到目标点的三维位置坐标信息(X/W,Y/W,Z/W)。
在全景图像中可观测到周围大视场中的场景信息;然而由于全景的分辨率低且不均匀,因此需要通过一个高分辨率相机对感兴趣区域进行精细观测。通过混合视觉立体标定,立体校正后通过全景的方位坐标系与普通视觉坐标系共同方位透视展开,可得到两幅共面且列对齐的图像,具有垂直视差。
与现有技术相比,本发明在保证全景视觉大视场的同时,应用常规视角相机的高分辨率优势对目标区域进行精细观测,弥补了全景相机分辨率低且不均匀的劣势,解决了混合视觉中立体标定的问题并将混合视觉定位通用化。
以上所述并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种基于全景与单目视觉的混合视觉定位方法,其特征在于:包含如下步骤:
步骤(1):将全景相机与普通视觉相机垂直放置组成混合垂直立体视觉,使用平面棋盘格对全景与普通视觉分别标定,得到全景相机与普通视觉相机的内部参数;
步骤(2):在混合垂直立体视觉中,将全景与普通视觉统一化为球面统一投影模型,根据全景与普通视觉的共同方位对全景有效坐标系转换得到新的全景方位坐标系Og-XgYgZg;
步骤(3):根据立体标定结果,得到新的全景方位坐标系Og-XgYgZg与普通视觉相机的相机坐标系Op-XpYpZp之间的旋转矩阵R与平移矩阵T;
步骤(4):利用旋转矩阵R与平移矩阵T对混合垂直立体视觉立体校正,通过一般化的立体匹配得到垂直视差,再根据混合垂直立体视觉系统的三角测量公式确定目标点的三维位置坐标信息。
2.根据权利要求1所述的一种基于全景与单目视觉的混合视觉定位方法,其特征在于:所述的步骤(1)中的全景相机与普通视觉相机的内部参数包括全景相机的内参矩阵Ko,普通视觉相机的内参矩阵Kp,全景相机的畸变系数(ko1,k02,p01,po2),普通视觉相机的畸变系数(kp1,kp2,kp3,pp1,pp2);
其中:
上式中,η是与双曲面镜参数有关的参数,γ1与γ2为有效焦距,(u0,vo)为全景相机的主点;
3.根据权利要求1所述的一种基于全景与单目视觉的混合视觉定位方法,其特征在于:所述的步骤(2)具体为:
建立球面统一投影模型:Om-XmYmZm为全景有效坐标系,全景有效坐标系原点为球面统一投影模型的单位球球心,Op-XpYpZp为普通视觉相机的相机坐标系;
取矩阵和矩阵Rf:
上式中,θ为共同方位在全景图像中与Xm坐标轴的夹角,矩阵Rf是引入的用来统一全景与普通视觉共同方位的坐标系的矩阵;
旋转和Rf得到新的全景方位坐标系Og-XgYgZg:
上式中,(xg,yg,zg)是在新的全景方位坐标系中的球面点的坐标。
4.根据权利要求1所述的一种基于全景与单目视觉的混合视觉定位方法,其特征在于:所述的步骤(4)具体为:
步骤(4.1):利用旋转矩阵R与平移矩阵T对混合垂直立体视觉立体校正:
将旋转矩阵R分解得到ru、rd:
ru*rd=1;
上式中,ru是上坐标系达到重投影透视图像平面共面所需的旋转矩阵,rd是下坐标系达到重投影透视图像平面共面所需的旋转矩阵;
定义上坐标系原点与下坐标系原点的连线和重投影透视图像平面的交点为极点,令全景相机与普通视觉相机的图像平面和上坐标系原点与下坐标系原点的连线平行,使得极点处于无穷远处列对齐:计算使得极点处于y轴无穷远处的Rrect矩阵:
重投影透视图像平面和相机坐标系原点连线平行:
上式中,T=[Tx Ty Tz]T;
e1和e2正交,e2与主光轴方向向量(0,0,1)叉积:
e3与e1和e2正交:
e3=e1×e2;
将Rrect左乘到矩阵ru和矩阵rd:
Ru=Rrect*ru;
Rd=Rrect*rd;
上式中,Rd是立体校正过程中Og-XgYgZg坐标系的旋转矩阵,Ru是立体校正过程中Op-XpYpZp坐标系的旋转矩阵;
步骤(4.2):立体校正后,空间点在重投影透视图像平面的投影列对齐,混合垂直立体视觉系统的三角测量公式为:
上式中,B为混合垂直立体视觉的基线,B的大小为全景有效视点与普通相机光心之间的距离;
步骤(4.3):定义垂直视差为vy=y2-y1;垂直视差的大小d和给定的二维齐次坐标之间存在如下关系:
上式中,Q为重投影矩阵;
然后计算得到目标点的三维位置坐标信息(X/W,Y/W,Z/W)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811017301.XA CN109345587B (zh) | 2018-09-01 | 2018-09-01 | 一种基于全景与单目视觉的混合视觉定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811017301.XA CN109345587B (zh) | 2018-09-01 | 2018-09-01 | 一种基于全景与单目视觉的混合视觉定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109345587A true CN109345587A (zh) | 2019-02-15 |
CN109345587B CN109345587B (zh) | 2022-02-22 |
Family
ID=65292099
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811017301.XA Active CN109345587B (zh) | 2018-09-01 | 2018-09-01 | 一种基于全景与单目视觉的混合视觉定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109345587B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111161173A (zh) * | 2019-12-18 | 2020-05-15 | 北京城市网邻信息技术有限公司 | 图像的校正信息获取、模型构建方法和装置、介质 |
CN111504258A (zh) * | 2020-03-10 | 2020-08-07 | 杭州晶一智能科技有限公司 | 单个云台摄像机的立体视觉算法 |
CN111815711A (zh) * | 2020-06-01 | 2020-10-23 | 佛山隆深机器人有限公司 | 一种基于机器人的单相机多视野标定方法 |
CN111882608A (zh) * | 2020-07-14 | 2020-11-03 | 中国人民解放军军事科学院国防科技创新研究院 | 一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法 |
CN112102401A (zh) * | 2020-09-21 | 2020-12-18 | 中国科学院上海微系统与信息技术研究所 | 一种目标定位方法、装置、系统、设备及存储介质 |
CN115113631A (zh) * | 2022-08-29 | 2022-09-27 | 科安特(山东)智能装备有限公司 | 一种可提高作业精度的agv小车视觉自检方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN201725141U (zh) * | 2010-05-06 | 2011-01-26 | 浙江大学 | 一种多镜头实时全景成像系统 |
CN103077524A (zh) * | 2013-01-25 | 2013-05-01 | 福州大学 | 混合视觉系统标定方法 |
CN104166995A (zh) * | 2014-07-31 | 2014-11-26 | 哈尔滨工程大学 | 一种基于马步测度的Harris-SIFT双目视觉定位方法 |
US20150062292A1 (en) * | 2013-09-04 | 2015-03-05 | Gyeongil Kweon | Method and apparatus for obtaining panoramic and rectilinear images using rotationally symmetric wide-angle lens |
CN105210113A (zh) * | 2013-04-30 | 2015-12-30 | 高通股份有限公司 | 具有一般和全景相机移动的单眼视觉slam |
US9299127B2 (en) * | 2012-09-21 | 2016-03-29 | ImmerVision | Splitting of elliptical images |
CN106127115A (zh) * | 2016-06-16 | 2016-11-16 | 哈尔滨工程大学 | 一种基于全景和常规视觉的混合视觉目标定位方法 |
CN106183995A (zh) * | 2016-07-26 | 2016-12-07 | 武汉大学 | 一种基于立体视觉的可视倒车方法 |
CN107945220A (zh) * | 2017-11-30 | 2018-04-20 | 华中科技大学 | 一种基于双目视觉的重建方法 |
-
2018
- 2018-09-01 CN CN201811017301.XA patent/CN109345587B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN201725141U (zh) * | 2010-05-06 | 2011-01-26 | 浙江大学 | 一种多镜头实时全景成像系统 |
US9299127B2 (en) * | 2012-09-21 | 2016-03-29 | ImmerVision | Splitting of elliptical images |
CN103077524A (zh) * | 2013-01-25 | 2013-05-01 | 福州大学 | 混合视觉系统标定方法 |
CN105210113A (zh) * | 2013-04-30 | 2015-12-30 | 高通股份有限公司 | 具有一般和全景相机移动的单眼视觉slam |
US20150062292A1 (en) * | 2013-09-04 | 2015-03-05 | Gyeongil Kweon | Method and apparatus for obtaining panoramic and rectilinear images using rotationally symmetric wide-angle lens |
CN104166995A (zh) * | 2014-07-31 | 2014-11-26 | 哈尔滨工程大学 | 一种基于马步测度的Harris-SIFT双目视觉定位方法 |
CN106127115A (zh) * | 2016-06-16 | 2016-11-16 | 哈尔滨工程大学 | 一种基于全景和常规视觉的混合视觉目标定位方法 |
CN106183995A (zh) * | 2016-07-26 | 2016-12-07 | 武汉大学 | 一种基于立体视觉的可视倒车方法 |
CN107945220A (zh) * | 2017-11-30 | 2018-04-20 | 华中科技大学 | 一种基于双目视觉的重建方法 |
Non-Patent Citations (3)
Title |
---|
CHENGTAO CAI等: "A Target Tracking Method Based on KCF for Omnidirectional Vision", 《PROCEEDINGS OF THE 37TH CHINESE CONTROL CONFERENCE》 * |
何炳蔚等: "混合视觉系统中共同视场的确定与3维重建方法", 《机器人》 * |
林昌等: "新型混合视觉系统中共同视区域的3D重建方法", 《机械设计与研究》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111161173A (zh) * | 2019-12-18 | 2020-05-15 | 北京城市网邻信息技术有限公司 | 图像的校正信息获取、模型构建方法和装置、介质 |
CN111504258A (zh) * | 2020-03-10 | 2020-08-07 | 杭州晶一智能科技有限公司 | 单个云台摄像机的立体视觉算法 |
CN111504258B (zh) * | 2020-03-10 | 2021-08-31 | 临沂中科人工智能创新研究院有限公司 | 单个云台摄像机的立体视觉计算方法 |
CN111815711A (zh) * | 2020-06-01 | 2020-10-23 | 佛山隆深机器人有限公司 | 一种基于机器人的单相机多视野标定方法 |
CN111815711B (zh) * | 2020-06-01 | 2023-08-18 | 佛山隆深机器人有限公司 | 一种基于机器人的单相机多视野标定方法 |
CN111882608A (zh) * | 2020-07-14 | 2020-11-03 | 中国人民解放军军事科学院国防科技创新研究院 | 一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法 |
CN112102401A (zh) * | 2020-09-21 | 2020-12-18 | 中国科学院上海微系统与信息技术研究所 | 一种目标定位方法、装置、系统、设备及存储介质 |
CN112102401B (zh) * | 2020-09-21 | 2024-05-28 | 中国科学院上海微系统与信息技术研究所 | 一种目标定位方法、装置、系统、设备及存储介质 |
CN115113631A (zh) * | 2022-08-29 | 2022-09-27 | 科安特(山东)智能装备有限公司 | 一种可提高作业精度的agv小车视觉自检方法 |
CN115113631B (zh) * | 2022-08-29 | 2022-12-06 | 科安特(山东)智能装备有限公司 | 一种可提高作业精度的agv小车视觉自检方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109345587B (zh) | 2022-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109345587A (zh) | 一种基于全景与单目视觉的混合视觉定位方法 | |
JP4825980B2 (ja) | 魚眼カメラの校正方法。 | |
JP4825971B2 (ja) | 距離算出装置、距離算出方法、構造解析装置及び構造解析方法。 | |
CN112470188A (zh) | 用于多相机放置的系统和方法 | |
CN110288656A (zh) | 一种基于单目摄像头的目标定位方法 | |
CN109285189B (zh) | 一种无需双目同步的直线轨迹快速计算方法 | |
CN107578450B (zh) | 一种用于全景相机装配误差标定的方法及系统 | |
CN110246186A (zh) | 一种自动化三维彩色成像与测量方法 | |
CN110555878A (zh) | 物体空间位置形态的确定方法、装置、存储介质及机器人 | |
CN106170086B (zh) | 绘制三维图像的方法及其装置、系统 | |
CN105374067A (zh) | 一种基于pal相机的三维重建方法及其重建系统 | |
JP2010276433A (ja) | 撮像装置、画像処理装置及び距離計測装置 | |
CN114782636A (zh) | 三维重建方法、装置及系统 | |
WO2018000892A1 (zh) | 一种全景立体影像的成像方法、装置及系统 | |
CN113763480B (zh) | 一种多镜头全景摄像机组合标定方法 | |
CN115601437A (zh) | 一种基于目标识别的动态会聚型双目立体视觉系统 | |
CN110766752A (zh) | 一种带反光标志点的虚拟现实交互眼镜及空间定位方法 | |
JP6854472B2 (ja) | 撮像装置、及び撮像方法 | |
CN106791335B (zh) | 一种紧凑的大视野光场采集系统及其分析优化方法 | |
Kashyap et al. | Real-time, quasi immersive, high definition automotive 3d surround view system | |
CN109900301B (zh) | 一种动态环境下双目立体定位角度补偿方法 | |
Li et al. | Binocular stereo vision calibration experiment based on essential matrix | |
Jiang et al. | Research on Target Ranging of Mobile Robot Based on Binocular Vision | |
KR20200030205A (ko) | 방향코사인을 이용한 에피폴라 영상 제작 시스템 및 그 제작 방법 | |
Fu et al. | Advancing Accurate Depth Estimation and Perception with Angled Stereo Camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |