CN210986289U - 四目鱼眼相机及双目鱼眼相机 - Google Patents
四目鱼眼相机及双目鱼眼相机 Download PDFInfo
- Publication number
- CN210986289U CN210986289U CN201922050550.5U CN201922050550U CN210986289U CN 210986289 U CN210986289 U CN 210986289U CN 201922050550 U CN201922050550 U CN 201922050550U CN 210986289 U CN210986289 U CN 210986289U
- Authority
- CN
- China
- Prior art keywords
- fisheye
- depth map
- camera
- eye
- panoramic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
本实用新型提供了一种四目鱼眼相机和双目鱼眼相机。四目鱼眼相机包括图像获取模块,用于获取鱼眼镜头拍摄的鱼眼图像;立体匹配模块,用于对所述鱼眼图像进行立体匹配,并计算重叠区域的深度图;全景合成模块,用于根据所述深度图获得全景深度图。本实用新型旨在利用全景相机上的多个鱼眼镜头获取的图像进行立体匹配,形成全景深度图像,并测量目标物体的深度,还可以为全景相机运动或者为全景相机的载体比如无人机等实时提供目标物体的深度图即方位,从而达到避障的效果。
Description
技术领域
本实用新型属于全景图像领域,尤其涉及一种四目鱼眼相机及双目鱼眼相机。
背景技术
现有技术中实时避障大部分采用的避障技术都是依赖于大量传感器如超声波、激光雷达等。上述避障方法存在一些缺陷,比如检测距离短造成无法及时避开障碍物,或设备体积质量庞大不能简单的进行装配。
全景相机一般都是采用鱼眼镜头来进行360°拍照实现全景的效果。鱼眼镜头拍摄的鱼眼图像的最大视角可以达到180度或者270度,如何根据鱼眼镜头所拍摄的图片测定出目标在现实环境中的方位也成为全景相机的一个重要应用点。
实用新型内容
本实用新型提出一种四目鱼眼相机及双目鱼眼相机,旨在利用全景相机上的多个鱼眼镜头获取的图像进行立体匹配,形成全景深度图像,并测量目标物体的深度。
本实用新型利用多个鱼眼镜头提出了一种全景深度测量方法、四目鱼眼镜头和双目鱼眼镜头,该方法可以计算场景的3D坐标,还可以为全景相机运动或者为全景相机的载体比如无人机等实时提供目标物体的深度图计算物体的方位,从而达到避障的效果。
本实用新型第一方面提供了一种四目鱼眼相机,在平行的表面上分别设置两个鱼眼镜头,包括:图像获取模块,用于获取鱼眼镜头拍摄的鱼眼图像;立体匹配模块,用于对所述鱼眼图像进行立体匹配,并计算重叠区域的深度图;全景合成模块,用于根据所述深度图获得全景深度图。
进一步地,上述四目鱼眼相机中,所述对所述鱼眼图像进行立体匹配,并计算重叠区域的深度图,还包括:对所述四目鱼眼相机不同表面上的所述鱼眼镜头拍摄的所述鱼眼图像进行立体匹配,并计算第一重叠区域的第一深度图;分别对所述四目鱼眼相机同一表面上的两个所述鱼眼镜头拍摄的所述鱼眼图像进行立体匹配,并分别计算第二重叠区域的第二深度图和第三重叠区域的第三深度图;所述根据所述深度图获得全景深度图,还包括:将所述第一深度图、第二深度图、第三深度图合并,获得全景深度图。
进一步地,上述四目鱼眼相机中,所述对所述四目鱼眼相机不同表面上的所述鱼眼镜头拍摄的所述鱼眼图像进行立体匹配,并计算第一重叠区域的第一深度图,还包括:分别对所述四目鱼眼相机不同表面上位于同一端的两个所述鱼眼镜头拍摄的所述鱼眼图像进行立体匹配,计算第一重叠区域的第一深度图。
进一步地,上述四目鱼眼相机中,所述获取所述鱼眼镜头拍摄的鱼眼图像,包括获取当前每个所述鱼眼镜头拍摄的图片或者视频帧。
进一步地,上述四目鱼眼相机中,所述立体匹配包括从不同的所述鱼眼图像中找到匹配的对应点。
进一步地,上述四目鱼眼相机中,所述四目鱼眼相机为无人机的机身或者外接装置。
进一步地,上述四目鱼眼相机中,所述重叠区域包括360度全景区域。
进一步地,上述四目鱼眼相机中,还包括:障碍检测模块,用于从所述深度图中确定障碍物。
本实用新型第二方面提供了一种双目鱼眼相机,鱼眼镜头背向设置,包括:图像模块,用于获取所述双目鱼眼相机在不同位置时,所述鱼眼镜头拍摄的鱼眼图像;计算模块,用于对所述鱼眼图像进行立体匹配,并计算重叠区域的深度图;深度模块,用于根据所述深度图获得全景深度图。
进一步地,上述双目鱼眼相机中,所述获取所述双目鱼眼相机在不同位置时,所述鱼眼镜头拍摄的鱼眼图像,还包括:获取所述双目鱼眼相机在第一位置时所述鱼眼镜头拍摄的鱼眼图像,以及获取所述双目鱼眼相机在第二位置时所述鱼眼镜头拍摄的鱼眼图像;根据所述所述双目鱼眼相机从第一位置到第二位置的位移,计算所述深度图。所述重叠区域包括360度全景区域。
进一步地,上述双目鱼眼相机中,所述双目鱼眼相机为无人机的机身或者外接装置。
进一步地,上述双目鱼眼相机中,还包括:避障模块,用于从所述深度图中确定障碍物。
本实用新型通过对全景相机对上下和/或左右鱼眼镜头拍摄的图像进行立体匹配,根据匹配特征点实现计算物体的深度的方法,本实用新型可以计算场景3D坐标,还可以为全景相机运动或者为全景相机的载体比如无人机等实时提供目标物体的方位,从而达到避障的效果。
附图说明
图1是本实用新型一实施例提供的一种全景深度测量方法的流程图;
图2是本实用新型一实施例提供的一种四目鱼眼相机的示意图;
图3是本实用新型另一实施例提供的一种四目鱼眼相机的示意图;
图4是本实用新型一实施例提供的一种双目鱼眼相机的示意图;
图5是本实用新型一实施例提供的一种双目鱼眼相机运动状态的示意图;
图6是本实用新型另一实施例提供的双目鱼眼相机的示意图。
具体实施方式
为了使本实用新型的目的、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本实用新型进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本实用新型,并不用于限定本实用新型。
为了说明本实用新型所述的技术方案,下面通过具体实施例来进行说明。
参照图1,本实用新型实施例公开了一种全景深度测量方法,适用于四目鱼眼相机,其特征在于,包括步骤:
S101,获取鱼眼镜头拍摄的鱼眼图像;
S102,对所述鱼眼图像进行立体匹配,并计算重叠区域的深度图;
S103,根据所述深度图获得全景深度图。
其中,所述获取所述鱼眼镜头拍摄的鱼眼图像,包括获取当前每个所述鱼眼镜头拍摄的图片或者视频帧。本实施例中,获取的是鱼眼镜头拍摄的照片。
参照图2,本实施例中,上述四目鱼眼相机在平行的表面上分别设置两个所述鱼眼镜头,共四个鱼眼镜头,即f1、f2、f3、f4,S102 中对所述鱼眼图像进行立体匹配,并计算重叠区域的深度图的步骤,还包括:对所述四目鱼眼相机不同表面上的所述鱼眼镜头拍摄的所述鱼眼图像进行立体匹配,并计算第一重叠区域的第一深度图。分别对所述四目鱼眼相机同一表面上的两个所述鱼眼镜头f1和f3,以及f2 和f4拍摄的所述鱼眼图像分别进行立体匹配,并分别计算第二重叠区域的第二深度图S5和第三重叠区域的第三深度图S6。S103中根据所述深度图获得全景深度图,还包括:将所述第一深度图S3和S3’、第二深度图S5、第三深度图S6合并,获得全景深度图。
四个鱼眼镜头的拍摄视角均远超180°,如240°等;其他实施例中,鱼眼相机鱼眼镜头的数量可以为大于或等于4个。
本实施例中,对所述四目鱼眼相机不同表面上的所述鱼眼镜头拍摄的所述鱼眼图像进行立体匹配,并计算第一重叠区域的第一深度图的步骤中,具体包括:分别对所述四目鱼眼相机不同表面上位于同一端的两个所述鱼眼镜头拍摄的所述鱼眼图像进行立体匹配,并计算第一重叠区域的第一深度图。具体来说,就是通过对f1和f2进行立体匹配,计算环形的视角重叠区域S3的深度图,通过对f3和f4进行立体匹配,计算环形的视角重叠区域S3’的深度图,S3和S3’共同构成第一重叠区域的第一深度图。应当理解,上述重叠区域都是三维立体空间区域。
在其他实施例中,S102可以包括获取四目鱼眼相机一侧的任一个鱼眼相机的图像与另一侧任一个鱼眼相机的图像进行双目立体匹配,得到视角图像重叠区域,如图4该区域为环形的S0区域,然后与相机另外两面的重叠区域形成一个等于或者超过360度的区域。
应当理解,上述立体匹配包括从不同的所述鱼眼图像中找到匹配的对应点,可以是稠密光流、稀疏光流等匹配方法。
应当理解,为了获得360度全景深度图,所述重叠区域也相应的包括了360度全景区域。由于深度图中可以在一个区域中区分出物体的远近距离,因此可以从所述深度图中确定障碍物。
作为本实施例中四目鱼眼相机的应用场景,该四目鱼眼相机可以为无人机的机身或者也可以为无人机的外接装置。无人机既可以是无人飞行器,也可以是无人驾驶机器人。本实施例中四目鱼眼相机在无人机上的应用,可以为无人机提供感知周边环境的深度图,并可进行障碍物的检测,从而辅助无人机进行避障,或者实现路径规划。
本实用新型通过对全景相机对上下和/或左右鱼眼镜头拍摄的图像进行立体匹配,根据匹配特征点实现计算物体的深度的方法,本实用新型可以计算场景3D坐标,还可以为全景相机运动或者为全景相机的载体比如无人机等实时提供目标物体的方位,从而达到避障的效果。
参照图3,本实用新型另一实施例公开了一种四目鱼眼相机100,四目鱼眼相机100在平行的表面上分别设置两个所述鱼眼镜头,共四个鱼眼镜头,即f1、f2、f3、f4,立体匹配模块12中对所述鱼眼图像进行立体匹配,并计算重叠区域的深度图的步骤,还包括:对所述四目鱼眼相机不同表面上的所述鱼眼镜头拍摄的所述鱼眼图像进行立体匹配,并计算第一重叠区域的第一深度图。分别对所述四目鱼眼相机同一表面上的两个所述鱼眼镜头f1和f3,以及f2和f4拍摄的所述鱼眼图像分别进行立体匹配,并分别计算第二重叠区域的第二深度图 S5和第三重叠区域的第三深度图S6。全景合成模块13中根据所述深度图获得全景深度图,还包括:将所述第一深度图S3和S3’、第二深度图S5、第三深度图S6合并,获得全景深度图。
本实施例中,对所述四目鱼眼相机100不同表面上的所述鱼眼镜头拍摄的所述鱼眼图像进行立体匹配,并计算第一重叠区域的第一深度图的步骤中,具体包括:分别对所述四目鱼眼相机不同表面上位于同一端的两个所述鱼眼镜头拍摄的所述鱼眼图像进行立体匹配,并计算第一重叠区域的第一深度图。具体来说,就是通过对f1和f2进行立体匹配,计算重叠区域S3的深度图,通过对f3和f4进行立体匹配,计算重叠区域S3’的深度图,S3和S3’共同构成第一重叠区域的第一深度图。应当理解,上述重叠区域都是三维立体空间区域。
应当理解,上述立体匹配包括从不同的所述鱼眼图像中找到匹配的对应点。
应当理解,为了获得360度全景深度图,所述重叠区域也相应的包括了360度全景区域。由于深度图中可以在一个区域中区分出物体的远近距离,因此可以从所述深度图中确定障碍物。
作为本实施例中四目鱼眼相机的应用场景,该四目鱼眼相机可以为无人机的机身或者也可以为无人机的外接装置。无人机既可以是无人飞行器,也可以是无人驾驶机器人。本实施例中四目鱼眼相机在无人机上的应用,可以为无人机提供感知周边环境的深度图,并可进行障碍物的检测,从而辅助无人机进行避障,或者实现路径规划。
本实用新型通过对全景相机对上下和/或左右鱼眼镜头拍摄的图像进行立体匹配,根据匹配特征点实现计算物体的深度的方法,本实用新型可以计算场景3D坐标,还可以为全景相机运动或者为全景相机的载体比如无人机等实时提供目标物体的方位,从而达到避障的效果。
参照图4和图5,本实用新型实施例还公开了一种全景深度测量方法,适用于双目鱼眼相机,包括步骤:获取所述双目鱼眼相机在不同位置时,所述鱼眼镜头拍摄的鱼眼图像;对所述鱼眼图像进行立体匹配,并计算重叠区域的深度图;根据所述深度图获得全景深度图。
本实施例中,上述获取所述双目鱼眼相机在不同位置时,所述鱼眼镜头拍摄的鱼眼图像,还包括:获取所述双目鱼眼相机在第一位置 t1时所述鱼眼镜头拍摄的鱼眼图像,以及获取所述双目鱼眼相机在第二位置t2时所述鱼眼镜头拍摄的鱼眼图像;根据所述所述双目鱼眼相机从第一位置t1到第二位置t2的位移,计算所述深度图。重叠区域包括360度全景区域。
本实施例图4中,双目鱼眼相机的鱼眼镜头f1和f2是背向设置的,与上述原理相同,可以实现计算得出重叠区域S3和S4的深度图,但尚且有未有重叠因而无法获得深度图的区域S1和S2。如图5所示,当双目鱼眼相机产生了一定的位移,而这一位移又是可以测定的,再利用在前后两个位置t1和t2时拍摄的图像,原来未产生重叠的区域将被重叠区域覆盖,因此可以对这些区域进行立体匹配,从而得到这些区域的深度图,这样也就可以合成得到360度的深度图。利用前后两个位置分别的拍摄图像,就相当于用双目鱼眼相机达到了四目鱼眼相机的效果。
应当理解,上述立体匹配包括从不同的所述鱼眼图像中找到匹配的对应点。
应当理解,为了获得360度全景深度图,所述重叠区域也相应的包括了360度全景区域。由于深度图中可以在一个区域中区分出物体的远近距离,因此可以从所述深度图中确定障碍物。
作为本实施例中双目鱼眼相机的应用场景,该双目鱼眼相机可以为无人机的机身或者也可以为无人机的外接装置。无人机既可以是无人飞行器,也可以是无人驾驶机器人。本实施例中双目鱼眼相机在无人机上的应用,可以为无人机提供感知周边环境的深度图,并可进行障碍物的检测,从而辅助无人机进行避障,或者实现路径规划。
本实用新型通过对全景相机对上下和/或左右鱼眼镜头拍摄的图像进行立体匹配,根据匹配特征点实现计算物体的深度的方法,本实用新型可以计算场景3D坐标,还可以为全景相机运动或者为全景相机的载体比如无人机等实时提供目标物体的方位,从而达到避障的效果。
参照图6,本实用新型实施例还公开了一种双目鱼眼相机200,包括:图像模块21,用于获取所述双目鱼眼相机在不同位置时,所述鱼眼镜头拍摄的鱼眼图像;计算模块22,用于对所述鱼眼图像进行立体匹配,并计算重叠区域的深度图;深度模块23,用于根据所述深度图获得全景深度图。
本实施例中,上述获取所述双目鱼眼相机200在不同位置时,所述鱼眼镜头拍摄的鱼眼图像,还包括:获取所述双目鱼眼相机在第一位置t1时所述鱼眼镜头拍摄的鱼眼图像,以及获取所述双目鱼眼相机在第二位置t2时所述鱼眼镜头拍摄的鱼眼图像;根据所述所述双目鱼眼相机从第一位置t1到第二位置t2的位移,计算所述深度图。重叠区域包括360度全景区域。
参照图4,双目鱼眼相机200的鱼眼镜头f1和f2是背向设置的,与上述原理相同,可以实现计算得出重叠区域S3和S4的深度图,但尚且有未有重叠因而无法获得深度图的区域S1和S2。如图5所示,当双目鱼眼相机产生了一定的位移,而这一位移又是可以测定的,再利用在前后两个位置t1和t2时拍摄的图像,原来未产生重叠的区域将被重叠区域覆盖,因此可以对这些区域进行立体匹配,从而得到这些区域的深度图,这样也就可以合成得到360度的深度图。利用前后两个位置分别的拍摄图像,就相当于用双目鱼眼相机达到了四目鱼眼相机的效果。
应当理解,上述立体匹配包括从不同的所述鱼眼图像中找到匹配的对应点。
应当理解,为了获得360度全景深度图,所述重叠区域也相应的包括了360度全景区域。由于深度图中可以在一个区域中区分出物体的远近距离,因此可以从所述深度图中确定障碍物。
作为本实施例中双目鱼眼相机的应用场景,该双目鱼眼相机可以为无人机的机身或者也可以为无人机的外接装置。无人机既可以是无人飞行器,也可以是无人驾驶机器人。本实施例中双目鱼眼相机在无人机上的应用,可以为无人机提供感知周边环境的深度图,并可进行障碍物的检测,从而辅助无人机进行避障,或者实现路径规划。
本实用新型通过对全景相机对上下和/或左右鱼眼镜头拍摄的图像进行立体匹配,根据匹配特征点实现计算物体的深度的方法,本实用新型可以计算场景3D坐标,还可以为全景相机运动或者为全景相机的载体比如无人机等实时提供目标物体的方位,从而达到避障的效果。
在本实用新型所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本实用新型各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本实用新型各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。上述描述的装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
最后应说明的是,以上各实施例仅用以说明本实用新型的技术方案,而非对其限制;尽管参照前述各实施例对本实用新型进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本实用新型各实施例技术方案的范围。
Claims (12)
1.一种四目鱼眼相机,所述四目鱼眼相机在平行的表面上分别设置两个鱼眼镜头,其特征在于,包括:
图像获取模块,用于获取鱼眼镜头拍摄的鱼眼图像;
立体匹配模块,用于对所述鱼眼图像进行立体匹配,并计算重叠区域的深度图;
全景合成模块,用于根据所述深度图获得全景深度图。
2.如权利要求1所述的四目鱼眼相机,其特征在于,
所述对所述鱼眼图像进行立体匹配,并计算重叠区域的深度图,还包括:
对所述四目鱼眼相机不同表面上的所述鱼眼镜头拍摄的所述鱼眼图像进行立体匹配,并计算第一重叠区域的第一深度图;
分别对所述四目鱼眼相机同一表面上的两个所述鱼眼镜头拍摄的所述鱼眼图像进行立体匹配,并分别计算第二重叠区域的第二深度图和第三重叠区域的第三深度图;
所述根据所述深度图获得全景深度图,还包括:
将所述第一深度图、第二深度图、第三深度图合并,获得全景深度图。
3.如权利要求2所述的四目鱼眼相机,其特征在于,
所述对所述四目鱼眼相机不同表面上的所述鱼眼镜头拍摄的所述鱼眼图像进行立体匹配,并计算第一重叠区域的第一深度图,还包括:
分别对所述四目鱼眼相机不同表面上位于同一端的两个所述鱼眼镜头拍摄的所述鱼眼图像进行立体匹配,计算第一重叠区域的第一深度图。
4.如权利要求2所述的四目鱼眼相机,其特征在于,所述获取所述鱼眼镜头拍摄的鱼眼图像,包括获取当前每个所述鱼眼镜头拍摄的图片或者视频帧。
5.如权利要求2所述的四目鱼眼相机,其特征在于,所述立体匹配包括从不同的所述鱼眼图像中找到匹配的对应点。
6.如权利要求2所述的四目鱼眼相机,其特征在于,所述四目鱼眼相机为无人机的机身或者外接装置。
7.如权利要求2所述的四目鱼眼相机,其特征在于,所述重叠区域包括360度全景区域。
8.如权利要求2所述的四目鱼眼相机,其特征在于,还包括:
障碍检测模块,用于从所述深度图中确定障碍物。
9.一种双目鱼眼相机,两个鱼眼镜头背向设置,其特征在于,包括:
图像模块,用于获取所述双目鱼眼相机在不同位置时,所述鱼眼镜头拍摄的鱼眼图像;
计算模块,用于对所述鱼眼图像进行立体匹配,并计算重叠区域的深度图;
深度模块,用于根据所述深度图获得全景深度图。
10.如权利要求9所述的双目鱼眼相机,其特征在于,
所述获取所述双目鱼眼相机在不同位置时,所述鱼眼镜头拍摄的鱼眼图像,还包括:
获取所述双目鱼眼相机在第一位置时所述鱼眼镜头拍摄的鱼眼图像,以及获取所述双目鱼眼相机在第二位置时所述鱼眼镜头拍摄的鱼眼图像;
根据所述双目鱼眼相机从第一位置到第二位置的位移,计算所述深度图;
所述重叠区域包括360度全景区域。
11.如权利要求10所述的双目鱼眼相机,其特征在于,所述双目鱼眼相机为无人机的机身或者外接装置。
12.如权利要求10所述的双目鱼眼相机,其特征在于,还包括:
避障模块,用于从所述深度图中确定障碍物。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201922050550.5U CN210986289U (zh) | 2019-11-25 | 2019-11-25 | 四目鱼眼相机及双目鱼眼相机 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201922050550.5U CN210986289U (zh) | 2019-11-25 | 2019-11-25 | 四目鱼眼相机及双目鱼眼相机 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN210986289U true CN210986289U (zh) | 2020-07-10 |
Family
ID=71438852
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201922050550.5U Active CN210986289U (zh) | 2019-11-25 | 2019-11-25 | 四目鱼眼相机及双目鱼眼相机 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN210986289U (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021104308A1 (zh) * | 2019-11-25 | 2021-06-03 | 影石创新科技股份有限公司 | 全景深度测量方法、四目鱼眼相机及双目鱼眼相机 |
WO2023130465A1 (zh) * | 2022-01-10 | 2023-07-13 | 深圳市大疆创新科技有限公司 | 飞行器、图像处理方法和装置、可移动平台 |
-
2019
- 2019-11-25 CN CN201922050550.5U patent/CN210986289U/zh active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021104308A1 (zh) * | 2019-11-25 | 2021-06-03 | 影石创新科技股份有限公司 | 全景深度测量方法、四目鱼眼相机及双目鱼眼相机 |
WO2023130465A1 (zh) * | 2022-01-10 | 2023-07-13 | 深圳市大疆创新科技有限公司 | 飞行器、图像处理方法和装置、可移动平台 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112837207B (zh) | 全景深度测量方法、四目鱼眼相机及双目鱼眼相机 | |
WO2019127445A1 (zh) | 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品 | |
TWI555379B (zh) | 一種全景魚眼相機影像校正、合成與景深重建方法與其系統 | |
KR101666959B1 (ko) | 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법 | |
US8350894B2 (en) | System and method for stereoscopic imaging | |
US20190012804A1 (en) | Methods and apparatuses for panoramic image processing | |
CN112686877B (zh) | 基于双目相机的三维房屋损伤模型构建测量方法及系统 | |
JP2017509986A (ja) | 超音波深度検出を使用するオプティカルフロー画像化システム及び方法 | |
CN110889873A (zh) | 一种目标定位方法、装置、电子设备及存储介质 | |
EP4073756A1 (en) | A method for measuring the topography of an environment | |
CN107767424A (zh) | 多相机系统的标定方法、多相机系统及终端设备 | |
CN114526710A (zh) | 海面测量系统、海面测量方法以及存储介质 | |
CN210986289U (zh) | 四目鱼眼相机及双目鱼眼相机 | |
CN111383264B (zh) | 一种定位方法、装置、终端及计算机存储介质 | |
CN109495733B (zh) | 三维影像重建方法、装置及其非暂态电脑可读取储存媒体 | |
CN115035235A (zh) | 三维重建方法及装置 | |
JP2010276433A (ja) | 撮像装置、画像処理装置及び距離計測装置 | |
CN108444452B (zh) | 目标经纬度和拍摄装置的三维空间姿态的检测方法及装置 | |
CN114979956A (zh) | 一种无人机航拍地面目标定位方法及系统 | |
Lin et al. | Real-time low-cost omni-directional stereo vision via bi-polar spherical cameras | |
CN116929290A (zh) | 一种双目视角差立体深度测量方法、系统及存储介质 | |
CN109801339B (zh) | 图像处理方法、装置和存储介质 | |
CN113674356B (zh) | 相机筛选方法及相关装置 | |
CN113034615A (zh) | 一种用于多源数据融合的设备标定方法及相关装置 | |
Gee et al. | Estimating extrinsic parameters between a stereo rig and a multi-layer lidar using plane matching and circle feature extraction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GR01 | Patent grant | ||
GR01 | Patent grant |