CN108564626B - 用于确定安装于采集实体的相机之间的相对姿态角的方法和装置 - Google Patents

用于确定安装于采集实体的相机之间的相对姿态角的方法和装置 Download PDF

Info

Publication number
CN108564626B
CN108564626B CN201810225217.0A CN201810225217A CN108564626B CN 108564626 B CN108564626 B CN 108564626B CN 201810225217 A CN201810225217 A CN 201810225217A CN 108564626 B CN108564626 B CN 108564626B
Authority
CN
China
Prior art keywords
camera
angle
images
image
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810225217.0A
Other languages
English (en)
Other versions
CN108564626A (zh
Inventor
周珣
谢远帆
王亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202110926887.7A priority Critical patent/CN113487676B/zh
Priority to CN201810225217.0A priority patent/CN108564626B/zh
Publication of CN108564626A publication Critical patent/CN108564626A/zh
Application granted granted Critical
Publication of CN108564626B publication Critical patent/CN108564626B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods

Abstract

根据本公开内容的示例性实现方式,提供了一种用于确定安装于采集实体的相机之间的相对姿态角的方法和装置。具体地,提供了一种用于确定相机之间的相对姿态角的方法。该方法包括:分别获得来自第一相机的第一组图像以及来自第二相机的第二组图像;基于第一组图像中的两个图像,获取与第一相机相关联的第一对极点;基于第二组图像中的两个图像,获取与第二相机相关联的第二对极点;以及基于第一对极点和第二对极点,确定第一相机和第二相机之间的相对姿态角。根据本公开内容的示例性实现方式,还提供了用于确定相机之间的相对姿态角的装置、设备和计算机存储介质。

Description

用于确定安装于采集实体的相机之间的相对姿态角的方法和 装置
技术领域
本公开内容的实现方式概括地讲涉及相机的定位,并且更具体地,涉及用于确定相机之间的相对姿态角的方法、装置、设备和计算机存储介质。
背景技术
随着成像技术的发展,相机在各种领域中被广泛应用于图像采集。继而,这些采集的图像可以被应用在移动机器人、汽车电子、自动驾驶等诸多领域中,并且被用于后续其他处理处理的基础。为了更全面地采集图像数据,可以在采集实体(例如,采集车等)上安装多个相机。来自多个相机的图像可以用于视觉处理和感知,在后续的图像处理中,首先需要确定多个相机之间的相对姿态(包括位置(x,y,z)以及姿态角(俯仰角,偏航角,翻滚角)),以便对来自各个相机的图像进行进一步的处理。
通常而言,获取两个相机之间的相对姿态的传统技术方案在很大程度上依赖于在自然环境中设置标定物,或者仅能确定满足特定位置要求的两个相机之间的相对姿态。因而,期望能够提供一种以更为方便并且有效的方式来确定相机之间的相对姿态角的技术方案。
发明内容
根据本公开内容的示例实现方式,提供了一种用于确定相机之间的相对姿态角的方案。
在本公开内容的第一方面中,提供了一种用于确定安装于采集实体的相机之间的相对姿态角的方法。该方法包括:分别获得来自第一相机的第一组图像以及来自第二相机的第二组图像;基于第一组图像中的两个图像,获取与第一相机相关联的第一对极点;基于第二组图像中的两个图像,获取与第二相机相关联的第二对极点;以及基于第一对极点和第二对极点,确定第一相机和第二相机之间的相对姿态角。
在本公开内容的第二方面中,提供了一种用于确定安装于采集实体的相机之间的相对姿态角的装置。该装置包括:获得模块,获得模块被配置用于分别获得来自第一相机的第一组图像以及来自第二相机的第二组图像;第一获取模块,第一获取模块被配置用于基于第一组图像中的两个图像,获取与第一相机相关联的第一对极点;第二获取模块,第二获取模块被配置用于基于第二组图像中的两个图像,获取与第二相机相关联的第二对极点;以及确定模块,确定模块被配置用于基于第一对极点和第二对极点,确定第一相机和第二相机之间的相对姿态角。
在本公开内容的第三方面中,提供了一种设备。该设备包括一个或多个处理器;以及存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现根据本公开内容的第一方面的方法。
在本公开内容的第四方面中,提供了一种其上存储有计算机程序的计算机可读介质,该程序在被处理器执行时实现根据本公开内容的第一方面的方法。
在本公开内容的第五方面中,提供了一种采集实体。该采集实体包括根据本公开内容的第三方面的设备。
应当理解,发明内容部分中所描述的内容并非旨在限定本公开内容的实现方式的关键或重要特征,亦非用于限制本公开内容的范围。本公开内容的其它特征将通过以下的描述变得容易理解。
附图说明
结合附图并参考以下详细说明,本公开内容的各实现方式的上述和其他特征、优点及方面将变得更加明显。在附图中,相同或相似的附图标记表示相同或相似的元素,其中:
图1示意性示出了其中可以采用根据本公开内容的示例性实现方式的技术方案的来确定相对姿态角的两个相机的图示;
图2示意性示出了根据本公开内容的示例性实现方式的姿态角的定义的图示;
图3示意性示出了根据本公开内容的示例性实现方式的用于确定两个相机之间的相对姿态角的技术方案的框图;
图4示意性示出了根据本公开内容的示例性实现方式的用于确定两个相机之间的相对姿态角的方法的流程图;
图5示意性示出了根据本公开内容的示例性实现方式的第一图像和第二图像中的描绘相同对象的一组特征点的配对的框图;
图6示意性示出了根据本公开内容的示例性实现方式的与相机相关联的术语的框图;
图7示意性示出了根据本公开内容的示例性实现方式的用于获取与第一相机相关联的第一对极点的框图;
图8示意性示出了根据本公开内容的示例性实现方式的基于第一角度和第二角度确定相对姿态角的框图;
图9示意性示出了根据本公开内容的示例性实现方式的用于确定两个相机之间的相对姿态角的装置的框图;
图10示意性示出了根据本公开内容的示例性实现方式的如图9所示的第一获取模块的框图;
图11示意性示出了根据本公开内容的示例性实现方式的如图9所示的确定模块的框图;以及
图12示出了能够实施本公开内容的多个实现方式的计算设备的框图。
具体实施方式
下面将参照附图更详细地描述本公开内容的实现方式。虽然附图中显示了本公开内容的某些实现方式,然而应当理解的是,本公开内容可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实现方式,相反提供这些实现方式是为了更加透彻和完整地理解本公开内容。应当理解的是,本公开内容的附图及实现方式仅用于示例性作用,并非用于限制本公开内容的保护范围。
在本公开内容的实现方式的描述中,术语“包括”及其类似用语应当理解为开放性包含,即“包括但不限于”。术语“基于”应当理解为“至少部分地基于”。术语“一个实现方式”或“该实现方式”应当理解为“至少一个实现方式”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
在下文中,首先介绍在本公开内容中使用的术语的含义。需要注意的是,此处“相机”应理解为广义的相机,即,不仅仅包括针对可见光进行拍摄的相机,也包括针对任何其他波段的电磁波进行成像的设备,同时还包括利用其他类型的波的反射、散射、衍射等特性进行成像的设备,例如利用超声波成像、伽马射线成像等。本文中的“采集实体”可以是驾驶系统,例如自动驾驶系统或非自动驾驶系统。驾驶系统可以是一般的个人车辆,也可以为专用的采集车辆,或者任何其他适当车辆。
在下文中,以车辆为例来讨论本公开的实现方式,然而应当理解,本公开的方案也可以被类似地应用于其他类型的采集实体,例如飞行器、水面或水下航行器等交通工具,甚至是生物、机器人(例如具有扫地等功能的机器人)等任何适当实体。需要注意的是,此处“采集”仅仅表明所述实体带有相机,而不应理解为对所述实体的限定。
为方便描述,首先参见图1介绍本公开内容的各个实现方式的应用环境的示例。具体地,图1示意性示出了其中可以采用根据本公开内容的示例性实现方式的技术方案的来确定相对姿态角的两个相机的图示100。在图1中,第一相机110和第二相机120可以被安装在采集实体130(例如采集车等)上。此时,两个相机110和120的位置之间可以存在差异,并且该差异可以采用以下6个自由度来描述:位置(x,y,z)以及姿态角(俯仰角,偏航角,翻滚角)。通常而言,可以基于现有技术中的各种测量工具来确定第一相机110和第二相机120的位置坐标。然而,由于现有的测量工具难以测量两个相机的安装角度,因而通常需要基于分析分别由两个相机所采集图像来确定两个相机之间的相对姿态角。
将会理解,在此的“安装”可以是被临时地安装在采集实体130处,或者还可以是被永久地安装在采集实体130处。例如,可以将第一相机110和第二相机120安装在例如云台或者其他可拆卸支架,进而实现临时安装至采集实体130。又例如,还可以将第一相机110和第二相机120永久地固定在采集实体130处。
目前已经提出了用于确定两个相机之间的相对姿态角的多种技术方案。在一个技术方案中,可以基于利用自然场景中的特定标定物来确定两个相机之间的相对姿态角。然而,此技术方案需要在特定环境下执行,应用范围有限。在另一技术方案中,可以分析具有重合区域的分别由两个相机采集的图像,来确定相对姿态角。然而,此技术方案要求两个相机的视野范围必须存在重合区域,并不适合于视野范围不重合的相机。
基于现有技术中的上述不足,期望提供一种可以以更为方便快捷的方式来确定两个相机之间的相对姿态角的技术方案。进一步,期望该技术方案可以与现有的技术方案相结合,并且在尽量不改变现有技术方案的硬件架构的情况下实现。
根据本公开内容的示例性实现方式,提供了一种用于确定两个相机之间的相对姿态角的技术方案。该技术方案可以在无需设置标定物、并且无需两个相机的视野范围存在重合区域的情况下执行。应当注意,尽管在图1中示意性示出的第一相机110和第二相机120的视野范围存在重合区域的情况,在其他实现方式中,第一相机110和第二相机120的视野范围可以不存在重合区域。例如,第一相机110和第二相机120的朝向可以完全相反。
为方便描述,首先介绍根据本公开内容的示例性实现方式的姿态角的定义。具体地,图2示意性示出了根据本公开内容的示例性实现方式的姿态角的定义的图示200。在下文中将仅以第一相机110为示例描述与其相关联的姿态角的定义。本领域技术人员可以基于针对第一相机110的描述来确定与第二相机120相关联的姿态角的定义。
如图2所示,在世界坐标系XYZ中可以以三个角度来定义第一相机110的姿态:俯仰角(pitch)210、偏航角(yaw)220和翻滚角(roll)230。具体地,俯仰角210是第一相机110与X轴的正方向的夹角,偏航角220是第一相机110与Y轴的正方向的夹角,而翻滚角230是第一相机110与Z轴的正方向的夹角。此时,假设第一相机110的姿态角为(pitch1,yaw1,roll1),第二相机120的姿态角为(pitch2,yaw2,roll2),则两个相机110和120之间的相对姿态角可以表示为(pitch1-pitch2,yaw1-yaw2,roll1-roll2)。
在下文中,将参见图3详细描述根据本公开内容的示例性实现方式。图3图示意性示出了根据本公开内容的示例性实现方式的用于确定两个相机之间的相对姿态角的技术方案300的框图。根据本公开内容的示例性实现方式,提供了一种用于确定第一相机110和第二相机120之间的相对姿态角的方法。
如图3所示,可以分别获得来自第一相机110的第一组图像310以及来自第二相机120的第二组图像320。接着,可以基于第一组图像310中的两个图像来获取与第一相机110相关联的第一对极点312。进一步,可以基于第二组图像320中的两个图像来获取与第二相机120相关联的第二对极点322。最后,基于第一对极点312和第二对极点322,确定第一相机110和第二相机120之间的相对姿态角330。
利用上述示例性实现方式,来自两个相机的两组图像在内容上可以是无关的,并不要求两组图像之间存在重合区域。以此方式,即使两个相机的朝向相反并且视野范围完全不重合,也可以确定两个相机之间的相对姿态角。进一步,利用上述示例性实现方式,可以以独立方式来分别处理来自每个相机的一组图像。例如,可以并行地处理来自每个相机的一组图像,进而提高数据处理效率。
在下文中,将参见图4详细描述根据本公开内容的示例性实现方式的方法的具体步骤。图4示意性示出了根据本公开内容的示例性实现方式的用于确定两个相机之间的相对姿态角的方法400的流程图。在方框410处,可以分别获得来自第一相机110的第一组图像310以及来自第二相机120的第二组图像310。根据本公开内容的示例性实现方式,在第一组图像310中的任意图像可以与第二组图像320中的任意图像之间不存在重合区域,并且可以以完全独立的方式来处理第一组图像310和第二组图像320。例如,可以采用相同或者不同的设备来处理第一组图像310和第二组图像320,还可以以并行或者串行方式来处理第一组图像310和第二组图像320。
在方框420处,可以基于第一组图像310中的两个图像来获取与第一相机110相关联的第一对极点312。在方框430处,可以基于第二组图像320中的两个图像来获取与第二相机120相关联的第二对极点322。在方框440处,基于第一对极点312和第二对极点322,确定第一相机110和第二相机之间120的相对姿态角330。此时可以基于对极点、相机位置以及相机主点的位置关系来确定相对姿态角330。
为简单起见,在下文中将仅以第一组图像310为示例来详细描述如何基于第一组图像310来获得第一对极点312的具体处理步骤。将会理解,针对第一组图像310和第二组图像320进行处理以分别获得第一对极点312和第二对极点322的处理过程是类似的,并且本领域技术人员可以针对第二组图像320进行处理以获得第二对极点322。
根据本公开内容的示例性实现方式,可以从第一组图像310中分别选择由第一相机110在第一时刻和第二时刻采集的第一图像和第二图像。利用上述示例性实现方式,第一图像和第二图像是第一相机110在运动期间(例如,采集实体移动期间)在不同时刻拍摄的图像。在较短的时间间隔内,第一相机110的位置并不会发生较大的位移,因而在第一图像和第二图像将存在较多的重合区域。以此方式,可以方便地在第一图像和第二图像中找到较多的特征点来用于后续计算。将会理解,分别针对两个相机描述的具体实现方式中所涉及的相应的第一时刻是指相同的时刻。严格来讲,针对两个相机所描述的相应的第一时刻之间的时间差应当小于特定阈值,例如0.01秒。
图5示意性示出了根据本公开内容的示例性实现方式的第一图像510和第二图像520中的描绘相同对象的一组特征点的配对的框图500。在下文中,将参见图5描述如何基于图像匹配技术来在第一图像510和第二图像520中检测描绘相同对象的一组特征点的配对。根据本公开内容的示例性实现方式,特征点是在不同图像中描绘相同对象的相对应的点。如图5所示,在第一图像510和第二图像520是由第一相机110所拍摄的两个图像,并且两个图像中均包括真实场景中的相同的对象(如,真实场景中的同一棵树)。如图5所示,第一图像510中的特征点512与第二图像520中的特征点522是一对相对应的特征点,并且第一图像510中的特征点514与第二图像520中的特征点524是一对相对应的特征点。此时,上述特征点即表示描绘相同对象的一组特征点的配对。
根据本公开内容的示例性实现方式,可以基于图像匹配技术来在第一图像510和第二图像520中检测描绘相同对象的一组特征点的配对。将会理解,尽管在图5中仅以示例性方式示出了两个特征点的配对,可以在第一图像510和第二图像520中检测更多的特征点的配对。根据本公开内容的示例性实现方式,基于一组特征点的配对来确定第一相机110的第一对极点312时,可以检测较多数量(例如,5个以上)的特征点的配对,以便保证在后续计算时可以获得较高的精度。根据本公开内容的示例性实现方式,可以基于现有技术中已知或者将在未来开发的多种图像处理技术来获得特征点的配对。
继而,可以利用对极几何技术,基于检测到的一组特征点的配对来确定第一对极点312。应当理解,对极几何描述在两个相机位置处获取的两个图像的之间存在的一种特殊几何关系。基于对极几何技术,可以求解两个相机之间的相对姿态的基本模型。在本发明的上下文中,由于第一图像510和第二图像520是由第一相机110在不同时刻采集的,因而基于对极几何技术可以获得第一相机110在不同时刻的相对姿态。
根据本公开内容的示例性实现方式,基于第一图像510和第二图像520,利用对极几何可以确定第一相机110拍摄该第一图像510和第二图像520的位置处的相对姿态,进而获得与第一相机110相关联的第一对极点312。
在基于对极几何原理确定第一对极点312的过程期间,将会涉及有关第一相机110的多个术语。在下文中,将参见图6描述根据本公开内容的示例性实现方式的与相机相关联的术语的框图600。如图6示出了相机的位置、焦距和成像平面之间的位置关系。在图6中,附图标记620表示相机位置,即,相机在获取图像时所在的位置。相机位置620与主点630之间的距离是相机的焦距610,成像平面640表示相机在相机位置620处获取图像的成像平面。主点630表示成像平面640的中心。
在下文中,将参见图7来描述如何基于第一组图像310来获取第一相机110的第一对极点312。图7示意性示出了根据本公开内容的示例性实现方式的获取与第一相机110相关联的第一对极点312的框图700。具体地,图7示出了第一相机110和第二相机120分别在第一时刻730和第二时刻740的位置的图示。在第一时刻730,第一相机110位于第一位置710;在第二时刻740,第一相机110位于第二位置720。如图7所示,第一位置710与第一主点716之间的距离是第一相机110的第一焦距714。图7右侧示出了第二相机120在第一时刻730和第二时刻740处的相关信息。本领域技术人员可以基于针对第一相机110的描述来确定有关第二相机120的具体信息,在此不再赘述。
根据本公开内容的示例性实现方式,可以利用对极几何技术来基于一组特征点的配对确定第一相机110在第一时刻730和第二时刻740之间的第一运动姿态。在此,第一运动姿态可以指示第一相机110在两个时刻之间的相对运动姿态,即,在相机在两个时刻处的姿态是否发生变化。
将会理解,应用根据本公开内容的示例性实现方式的方法的前提在于,第一相机110在第一时刻730和第二时刻740的朝向应当是相同的。换言之,在第一相机110仅沿直线运动时,在本公开的上下文中描述的基于第一对极点312和第二对极点322来确定相对姿态角330的几何关系才能成立。因而,需要首先确定第一相机110是否沿直线运动。如果第一相机110沿直线运动,则第一相机110在两个时刻的朝向是相同的;如果第一相机110并非沿直线运动,则第一相机110在两个时刻的朝向是不同的。
利用上述示例性实现方式,可以方便并且准确地确定第一相机110在移动期间的朝向是否发生变化(例如,沿直线运动还是沿非直线运动),进而确定是否需要重新选择第一图像510和/或第二图像520。如果确定第一相机110在第一时刻730和第二时刻740之间沿直线运动,则可以基于一组特征点的配对确定第一对极点312。
根据本公开内容的示例性实现方式,如果运动指示第一相机110在第一时刻730和第二时刻740之间沿非直线运动,则需要从第一图像组310中重新选择图像。具体地,可以仅重新选择第一图像510和第二图像520中的一个图像,备选地,还可以重新选择两个图像,直到基于第一图像510和第二图像520确定的运动指示第一相机110在第一时刻730和第二时刻740之间沿直线运动。以此方式,可以确保后续计算步骤的精度。
根据本公开内容的示例性实现方式,为了确定第一相机110和第二相机120之间的相对姿态角330,可以基于第一相机110在第一组图像310中的第一主点716的位置,第一对极点312的位置以及第一相机的第一焦距714,确定与第一相机110相关联的第一角度718。应当注意,对极点一般是成对出现的,即在第一图像510和第二图像520中都有一个对极点。在此仅示意性示出了一个对极点的位置,并且可以基于所示对极点的位置进行后续计算。本领域技术人员还可以基于类似方法来确定与第一相机110相关联的另一对极点的位置,在此不再赘述。
类似地,对于第二相机120而言,可以基于第二相机120在第二组图像320中的第二主点726的位置,第二对极点322的位置以及第二相机120的第二焦距,确定与第二相机120相关联的第二角度728。最后,可以基于第一角度718和第二角度728,确定相对姿态角330。
在此实现方式中,在确认第一相机110沿直线运动的情况下,利用对极几何原理,基于来自第一相机110的第一图像510和第二图像520可以获得第一对极点312的位置。如图7所示,分别以点O1、C1和B1来表示第一位置710、第一主点716和第一对极点312,则由点O1C1B1所形成三角形是直角三角形。在该直角三角形中,可以基于上述各点之间的位置坐标来确定与第一角度718(即,角度α1)相关联的正切值,其中第一角度718的正切函数可以计算如下:tanα1=|B1C1|/f1。此时,由于点C1和点B1的位置、以及第一焦距f1都是已知的,因而可以获得tanα1的数值,进而确定角度α1
如图7所示,对于第二相机120而言,分别以点O2、C2和B2来表示第二位置720、第二主点726和第二对极点322,则由点O2C2B2所形成三角形是直角三角形。在该直角三角形中,可以基于上述各店之间的位置坐标来确定与第二角度728(即,角度α2)相关联的正切值,其中第二角度728的正切函数可以计算如下:tanα2=|B2C2|/f2。类似地,由于点C2和点B2的位置、以及第二焦距f2都是已知的,因而可以获得tanα2的数值,进而确定角度α2
利用上述示例性实现方式,可以将在三维空间中测量相对姿态角的复杂过程转换为分别确定两个相机的主点和对极点的位置的过程。继而,利用确定位置以及已知的两个相机的焦距,即可计算两个相机之间的相对姿态角330。以此方式,一方面可以简化确定相对姿态角的过程,另一方面,两个相机可以是完全独立的并且可以具有不同的焦距或其他内部参数。相比于要求两个相机具有相同的焦距甚至具有完全相同的相机内部参数的现有技术而言,本公开内容的示例性实现方式可以大大降低对于相机的要求,进而适合于更为广阔的应用场景。
在下文中,将参见图8描述根据本公开内容的示例性实现方式的基于第一角度718和第二角度728确定相对姿态角330的框图800。首先参见图8描述应用根据本公开内容的示例性实现方式的方法的前提。如图8所示,在第一相机110沿直线运动的情况下,由于两个相机的相对位置是不变的,因而第一相机110和第二相机120在第一时刻730至第二时刻740期间的方向不会发生变化。可以将第二角度728向左平移至与第一角度718的顶点重合(即,将第二位置720平移至第一位置710),此时,辅助点D 826对应于第二主点C2 726。如图8所示,基于几何原理可知,此时可以基于第一角度718和第二角度828的差异来计算相对姿态角330(以θ表示)。具体地,相对姿态角θ=α12
根据本公开内容的示例性实现方式,由于三维空间中的相对姿态角包括俯仰角、偏航角和翻滚角三方面,因而在确定相对姿态角时可以将采用上文描述方法确定的第一角度718和第二角度728沿着不同方向进行投影,以便获得相对姿态角。
根据本公开内容的示例性实现方式,可以将第一角度718和第二角度728沿着采集实体130的顶视图方向投影以获得第一投影角和第二投影角。接着,可以基于第一投影角和第二投影角之间的差异,确定相对姿态角中的偏航角。上文描述的图7和图8即将相机相关参数沿着采集实体130的顶视图的方向进行投影的示例。此时,如图8所确定的相对姿态角330即为第一相机110和第二相机120之间的偏航角。返回图2,偏航角220是第一相机110与Y轴的正方向的夹角,因而按照上文描述的方法确定的相对姿态角330即为第一相机110和第二相机120之间的偏航角。
根据本公开内容的示例性实现方式,还可以将第一角度和第二角度沿着采集实体130的侧视图方向投影以获得第一投影角和第二投影角。接着,可以基于第一投影角和第二投影角之间的差异,确定相对位置中的俯仰角。本领域技术人员可以参见上文参见图7和图8描述的示例,来以类似方式确定第一相机110和第二相机120之间的俯仰角。返回图2,俯仰角210是第一相机110与X轴的正方向的夹角,因而按照上文描述的方法确定的相对姿态角即为第一相机110和第二相机120之间的俯仰角。
利用上述示例性实现方式,通过将第一角度和第二角度沿着两个方向进行投影,可以将三维空间中的相对姿态角的转化为二维投影空间内的求解,进而可以以更为方便快捷的方式来确定相对姿态角中的偏航角和俯仰角。在上文中已经详细描述了如何确定偏航角和俯仰角的具体过程,本领域技术人员可以基于类似的原理来确定翻滚角。
根据本公开内容的示例性实现方式,可以基于第一相机110的运动速度以及第一相机110的采样频率中的至少任一项来选择第一图像510和第二图像520。利用上述示例性实现方式,可以基于多种因素来从第一组图像310中选择第一图像510和第二图像520。
例如,例如当相机的运动速度较快时,为了避免在所选择的第一图像510和第二图像520之间不存在重合区域,可以选择在较小时间间隔采集到的图像来分别作为第一图像510和第二图像520。又例如,当相机的运动速度较慢时,可以选择在较大时间间隔采集到的图像来分别作为第一图像510和第二图像520。此时,尽管第一图像510和第二图像520的采集时间之间差异较大,仍然能够确保两个图像之间存在重合区域。
又例如,还可以基于相机的采样频率来选择第一图像510和第二图像520。如果相机的采样频率较高(例如,每秒24次采样),则可以在图像序列中选择两个不连续的图像。如果相机的采样频率较低(例如,每秒1次采样),则可以选择两个连续图像。又例如,还可以综合考虑第一相机的运动速度和采样频率。以此方式,可以确保基于所选择的图像成功确定对极点的概率。
根据本公开内容的示例性实现方式,在已知第一相机110的第一姿态角的基础上,还可以确定第二相机120的姿态角。例如,可以采用现有技术已知的或者将在未来开发的技术方案来获取第一相机110的第一姿态角。继而,可以基于获取的第一姿态角以及相对姿态角330,确定第二相机120的第二姿态角。当采集系统中包括多个相机时,可以采用上文描述的方式,分别确定多个相机中的第一个相机与其他相机之间的相对姿态角。在已知第一相机的姿态角的情况下,可以获得各个相机的姿态角。备选地,还可以采用上文描述的方式来分别确定两个连续相机(例如,相机1与相机2之间的相对姿态角、相机2和相机3之间的相对姿态角,以此类推)之间的相对姿态角,进而获得各个相机的姿态角。
将会理解,在上文中已经详细描述了如何基于第一组图像310来获得第一对极点312的具体处理步骤。基于上文描述的具体实现方式,本领域技术人员可以以类似方式来针对第二组图像320进行处理以获得第二对极点322。概括而言,可以从第二组图像320中分别选择两个图像,从选择的两个图像中检测描绘相同对象的一组特征点配对,进而基于检测的一组特征点的配对来确定第二对极点322。在此过程中,从第二组图像320中选择两个图像、检测一组特征点配对以及确定第二对极点322的过程都与上文描述的针对第一组图像310中的相对应的步骤类似,因而不再赘述。
图9示意性示出了根据本公开内容的示例性实现方式的用于确定安装于采集实体的两个相机之间的相对姿态角的装置900的框图。具体地,该装置900可以包括获得模块910,获得模块910被配置用于分别获得来自第一相机的第一组图像以及来自第二相机的第二组图像;第一获取模块920,第一获取模块920被配置用于基于第一组图像中的两个图像,获取与第一相机相关联的第一对极点;第二获取模块930,第二获取模块930被配置用于基于第二组图像中的两个图像,获取与第二相机相关联的第二对极点;以及确定模块940,确定模块被配置用于基于第一对极点和第二对极点,确定第一相机和第二相机之间的相对姿态角。
图10示意性示出了根据本公开内容的示例性实现方式的如图9所示的第一获取模块920的框图1000。根据本公开内容的示例性实现方式,第一获取模块920包括:图像获取模块1010、检测模块1020以及对极点确定模块1030。具体地,图像获取模块1010被配置用于从第一组图像中分别选择由第一相机在第一时刻和第二时刻采集的第一图像和第二图像。检测模块1020被配置用于在第一图像和第二图像中检测描绘相同对象的一组特征点的配对。对极点确定模块1030被配置用于基于一组特征点的配对确定第一对极点。
根据本公开内容的示例性实现方式,对极点确定模块1030包括:姿态确定模块1032、运动确定模块1034以及对极点标识模块1036。具体地,姿态确定模块1032被配置用于基于一组特征点的配对确定第一相机在第一时刻和第二时刻之间的第一运动姿态。运动确定模块1034被配置用于基于第一运动姿态确定第一相机的运动。对极点标识模块1036被配置用于响应于运动指示第一相机在第一时刻和第二时刻之间沿直线运动,基于一组特征点的配对确定第一对极点。
根据本公开内容的示例性实现方式,第一获取模块920进一步包括选择模块1040。具体地,该选择模块1040被配置用于响应于运动指示第一相机在第一时刻和第二时刻之间沿非直线运动,从第一组图像中分别选择其他图像以作为第一图像和第二图像,直到基于第一图像和第二图像确定的运动指示第一相机在第一时刻和第二时刻之间沿直线运动。
根据本公开内容的示例性实现方式,第一获取模块920进一步包括选择模块1040。具体地,该选择模块1040被配置用于响应于运动指示第一相机在第一时刻和第二时刻之间沿非直线运动,从第一组图像中选择另一图像以作为第二图像,直到基于第一图像和第二图像确定的运动指示第一相机在第一时刻和第二时刻之间沿直线运动。
图11示意性示出了根据本公开内容的示例性实现方式的如图9所示的确定模块940的框图1100。根据本公开内容的示例性实现方式,确定模块940包括:第一角度确定模块1110、第二角度确定模块1120以及姿态角确定模块1130。具体地,第一角度确定模1110块被配置用于基于第一相机在第一组图像中的第一主点的位置,第一对极点的位置以及第一相机的焦距,确定与第一相机相关联的第一角度。第二角度确定模块1120被配置用于基于第二相机在第二组图像中的第二主点的位置,第二对极点的位置以及第二相机的焦距,确定与第二相机相关联的第二角度。姿态角确定模块1130被配置用于基于第一角度和第二角度,确定相对姿态角。
根据本公开内容的示例性实现方式,姿态角确定模块1130包括投影角确定模块1132和偏航角确定模块1134。具体地,投影角确定模块1132被配置用于将第一角度和第二角度沿着采集实体的顶视图方向投影以获得第一投影角和第二投影角。偏航角确定模块1134被配置用于基于第一投影角和第二投影角之间的差异,确定相对姿态角中的偏航角。
根据本公开内容的示例性实现方式,姿态角确定模块1130包括:投影角确定模块1132和俯仰角确定模块1136。投影角确定模块1132被配置用于将第一角度和第二角度沿着采集实体的侧视图方向投影以获得第一投影角和第二投影角。俯仰角确定模块1136被配置用于基于第一投影角和第二投影角之间的差异,确定相对位置中的俯仰角。
根据本公开内容的示例性实现方式,图像获取模块1010包括图像选择模块。具体地,图像选择模块被配置用于基于第一相机的运动速度以及第一相机的采样频率中的至少任一项来选择第一图像和第二图像。
根据本公开内容的示例性实现方式,装置900进一步包括:角度获取模块以及角度确定模块。具体地,角度获取模块被配置用于获取第一相机的第一姿态角。角度确定模块被配置用于基于第一姿态角以及相对姿态角,确定第二相机的第二姿态角。
根据本公开内容的示例性实现方式,提供了一种设备,设备包括:一个或多个处理器;以及存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现根本公开所描述的方法。
图12示出了能够实施本公开内容的多个实现方式的计算设备1200的框图。设备1200可以用于实现图1的计算设备122。如图所示,设备1200包括中央处理单元(CPU)1201,其可以根据存储在只读存储器(ROM)1202中的计算机程序指令或者从存储单元1208加载到随机访问存储器(RAM)1203中的计算机程序指令,来执行各种适当的动作和处理。在RAM1203中,还可存储设备1200操作所需的各种程序和数据。CPU 1201、ROM 1202以及RAM 1203通过总线1204彼此相连。输入/输出(I/O)接口1205也连接至总线1204。
设备1200中的多个部件连接至I/O接口1205,包括:输入单元1206,例如键盘、鼠标等;输出单元1207,例如各种类型的显示器、扬声器等;存储单元1208,例如磁盘、光盘等;以及通信单元1209,例如网卡、调制解调器、无线通信收发机等。通信单元1209允许设备1200通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理单元1201执行上文所描述的各个方法和处理,例如过程400。例如,在一些实现方式中,过程400可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1208。在一些实现方式中,计算机程序的部分或者全部可以经由ROM 1202和/或通信单元1209而被载入和/或安装到设备1200上。当计算机程序加载到RAM 1203并由CPU 1201执行时,可以执行上文描述的过程400的一个或多个步骤。备选地,在其他实现方式中,CPU1201可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行过程400。
根据本公开内容的示例性实现方式,提供了一种其上存储有计算机程序的计算机可读存储介质。程序被处理器执行时实现本公开所描述的方法。
根据本公开内容的示例性实现方式,提供了一种采集实体。该采集实体可以包括根据本公开内容描述的设备。
根据本公开内容的示例性实现方式,该采集实体为车辆。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)等等。
用于实施本公开内容的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开内容的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
此外,虽然采用特定次序描绘了各操作,但是这应当理解为要求这样操作以所示出的特定次序或以顺序次序执行,或者要求所有图示的操作应被执行以取得期望的结果。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开内容的范围的限制。在单独的实现方式的上下文中描述的某些特征还可以组合地实现在单个实现中。相反地,在单个实现的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实现中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (20)

1.一种用于确定安装于采集实体的相机之间的相对姿态角的方法,包括:
分别获得来自第一相机的第一组图像以及来自第二相机的第二组图像;
基于所述第一组图像中的两个图像,获取与所述第一相机相关联的第一对极点,包括:
从所述第一组图像中分别选择由所述第一相机在第一时刻和第二时刻采集的第一图像和第二图像;
在所述第一图像和所述第二图像中检测描绘相同对象的一组特征点的配对;以及
基于所述一组特征点的配对确定所述第一对极点;
基于所述第二组图像中的两个图像,获取与所述第二相机相关联的第二对极点;以及
基于所述第一对极点和所述第二对极点,确定所述第一相机和所述第二相机之间的相对姿态角,包括:
基于所述第一相机在所述第一组图像中的第一主点的位置,所述第一对极点的位置以及所述第一相机的焦距,确定与所述第一相机相关联的第一角度;
基于所述第二相机在所述第二组图像中的第二主点的位置,所述第二对极点的位置以及所述第二相机的焦距,确定与所述第二相机相关联的第二角度;以及
基于所述第一角度和所述第二角度,确定所述相对姿态角。
2.根据权利要求1所述的方法,其中基于所述一组特征点的配对确定所述第一对极点包括:
基于所述一组特征点的配对确定所述第一相机在所述第一时刻和所述第二时刻之间的第一运动姿态;
基于所述第一运动姿态确定所述第一相机的运动;
响应于所述运动指示所述第一相机在所述第一时刻和所述第二时刻之间沿直线运动,基于所述一组特征点的配对确定所述第一对极点。
3.根据权利要求2所述的方法,其中获取与所述第一相机相关联的第一对极点进一步包括:响应于所述运动指示所述第一相机在所述第一时刻和所述第二时刻之间沿非直线运动,
从所述第一组图像中分别选择其他图像以作为所述第一图像和所述第二图像,直到基于所述第一图像和所述第二图像确定的所述运动指示所述第一相机在所述第一时刻和所述第二时刻之间沿直线运动。
4.根据权利要求2所述的方法,其中获取与所述第一相机相关联的第一对极点进一步包括:响应于所述运动指示所述第一相机在所述第一时刻和所述第二时刻之间沿非直线运动,
从所述第一组图像中选择另一图像以作为第二图像,直到基于所述第一图像和所述第二图像确定的所述运动指示所述第一相机在所述第一时刻和所述第二时刻之间沿直线运动。
5.根据权利要求1所述的方法,其中基于所述第一角度和所述第二角度,确定所述相对姿态角包括:
将所述第一角度和所述第二角度沿着所述采集实体的顶视图方向投影以获得第一投影角和第二投影角;以及
基于所述第一投影角和所述第二投影角之间的差异,确定所述相对姿态角中的偏航角。
6.根据权利要求1所述的方法,其中基于所述第一角度和所述第二角度,确定所述相对姿态角包括:
将所述第一角度和所述第二角度沿着所述采集实体的侧视图方向投影以获得第一投影角和第二投影角;以及
基于所述第一投影角和所述第二投影角之间的差异,确定所述相对姿态角中的俯仰角。
7.根据权利要求1所述的方法,其中分别从所述第一组图像中选择第一图像和第二图像包括:
基于所述第一相机的运动速度以及所述第一相机的采样频率中的至少任一项来选择所述第一图像和所述第二图像。
8.根据权利要求1所述的方法,进一步包括:
获取所述第一相机的第一姿态角;以及
基于所述第一姿态角以及所述相对姿态角,确定所述第二相机的第二姿态角。
9.一种用于确定安装于采集实体的相机之间的相对姿态角的装置,包括:
获得模块,所述获得模块被配置用于分别获得来自第一相机的第一组图像以及来自第二相机的第二组图像;
第一获取模块,所述第一获取模块被配置用于基于所述第一组图像中的两个图像,获取与所述第一相机相关联的第一对极点,其中所述第一获取模块包括:
图像获取模块,所述图像获取模块被配置用于从所述第一组图像中分别选择由所述第一相机在第一时刻和第二时刻采集的第一图像和第二图像;
检测模块,所述检测模块被配置用于在所述第一图像和所述第二图像中检测描绘相同对象的一组特征点的配对;以及
对极点确定模块,所述对极点确定模块被配置用于基于所述一组特征点的配对确定所述第一对极点;
第二获取模块,所述第二获取模块被配置用于基于所述第二组图像中的两个图像,获取与所述第二相机相关联的第二对极点;以及
确定模块,所述确定模块被配置用于基于所述第一对极点和所述第二对极点,确定所述第一相机和所述第二相机之间的相对姿态角,包括:
第一角度确定模块,所述第一角度确定模块被配置用于基于所述第一相机在所述第一组图像中的第一主点的位置,所述第一对极点的位置以及所述第一相机的焦距,确定与所述第一相机相关联的第一角度;
第二角度确定模块,所述第二角度确定模块被配置用于基于所述第二相机在所述第二组图像中的第二主点的位置,所述第二对极点的位置以及所述第二相机的焦距,确定与所述第二相机相关联的第二角度;以及
姿态角确定模块,所述姿态角确定模块被配置用于基于所述第一角度和所述第二角度,确定所述相对姿态角。
10.根据权利要求9所述的装置,其中所述对极点确定模块包括:
姿态确定模块,所述姿态确定模块被配置用于基于所述一组特征点的配对确定所述第一相机在所述第一时刻和所述第二时刻之间的第一运动姿态;
运动确定模块,所述运动确定模块被配置用于基于所述第一运动姿态确定所述第一相机的运动;
对极点标识模块,所述对极点标识模块被配置用于响应于所述运动指示所述第一相机在所述第一时刻和所述第二时刻之间沿直线运动,基于所述一组特征点的配对确定所述第一对极点。
11.根据权利要求10所述的装置,其中所述第一获取模块进一步包括:
选择模块,所述选择模块被配置用于响应于所述运动指示所述第一相机在所述第一时刻和所述第二时刻之间沿非直线运动,从所述第一组图像中分别选择其他图像以作为所述第一图像和所述第二图像,直到基于所述第一图像和所述第二图像确定的所述运动指示所述第一相机在所述第一时刻和所述第二时刻之间沿直线运动。
12.根据权利要求10所述的装置,其中所述第一获取模块进一步包括:
选择模块,所述选择模块被配置用于响应于所述运动指示所述第一相机在所述第一时刻和所述第二时刻之间沿非直线运动,从所述第一组图像中选择另一图像以作为第二图像,直到基于所述第一图像和所述第二图像确定的所述运动指示所述第一相机在所述第一时刻和所述第二时刻之间沿直线运动。
13.根据权利要求9所述的装置,其中所述姿态角确定模块包括:
投影角确定模块,所述投影角确定模块被配置用于将所述第一角度和所述第二角度沿着所述采集实体的顶视图方向投影以获得第一投影角和第二投影角;以及
偏航角确定模块,所述偏航角确定模块被配置用于基于所述第一投影角和所述第二投影角之间的差异,确定所述相对姿态角中的偏航角。
14.根据权利要求12所述的装置,其中所述姿态角确定模块包括:
投影角确定模块,所述投影角确定模块被配置用于将所述第一角度和所述第二角度沿着所述采集实体的侧视图方向投影以获得第一投影角和第二投影角;以及
俯仰角确定模块,所述俯仰角确定模块被配置用于基于所述第一投影角和所述第二投影角之间的差异,确定所述相对姿态角中的俯仰角。
15.根据权利要求10所述的装置,其中所述图像获取模块包括:
图像选择模块,所述图像选择模块被配置用于基于所述第一相机的运动速度以及所述第一相机的采样频率中的至少任一项来选择所述第一图像和所述第二图像。
16.根据权利要求9所述的装置,进一步包括:
角度获取模块,所述角度获取模块被配置用于获取所述第一相机的第一姿态角;以及
角度确定模块,所述角度确定模块被配置用于基于所述第一姿态角以及所述相对姿态角,确定所述第二相机的第二姿态角。
17.一种用于确定安装于采集实体的相机之间的相对姿态角的设备,所述设备包括:
一个或多个处理器;以及
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现根据权利要求1-8中任一项所述的方法。
18.一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现根据权利要求1-8中任一项所述的方法。
19.一种采集实体,包括根据权利要求17所述的设备。
20.根据权利要求19所述的采集实体,其中所述采集实体为车辆。
CN201810225217.0A 2018-03-19 2018-03-19 用于确定安装于采集实体的相机之间的相对姿态角的方法和装置 Active CN108564626B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110926887.7A CN113487676B (zh) 2018-03-19 2018-03-19 确定安装于采集实体的相机之间相对姿态角的方法和装置
CN201810225217.0A CN108564626B (zh) 2018-03-19 2018-03-19 用于确定安装于采集实体的相机之间的相对姿态角的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810225217.0A CN108564626B (zh) 2018-03-19 2018-03-19 用于确定安装于采集实体的相机之间的相对姿态角的方法和装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202110926887.7A Division CN113487676B (zh) 2018-03-19 2018-03-19 确定安装于采集实体的相机之间相对姿态角的方法和装置

Publications (2)

Publication Number Publication Date
CN108564626A CN108564626A (zh) 2018-09-21
CN108564626B true CN108564626B (zh) 2021-08-31

Family

ID=63532749

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202110926887.7A Active CN113487676B (zh) 2018-03-19 2018-03-19 确定安装于采集实体的相机之间相对姿态角的方法和装置
CN201810225217.0A Active CN108564626B (zh) 2018-03-19 2018-03-19 用于确定安装于采集实体的相机之间的相对姿态角的方法和装置

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202110926887.7A Active CN113487676B (zh) 2018-03-19 2018-03-19 确定安装于采集实体的相机之间相对姿态角的方法和装置

Country Status (1)

Country Link
CN (2) CN113487676B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113487676B (zh) * 2018-03-19 2023-06-20 百度在线网络技术(北京)有限公司 确定安装于采集实体的相机之间相对姿态角的方法和装置
US11022972B2 (en) * 2019-07-31 2021-06-01 Bell Textron Inc. Navigation system with camera assist

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016009811A1 (en) * 2014-07-14 2016-01-21 Mitsubishi Electric Corporation Method for calibrating one or more cameras
WO2016123448A2 (en) * 2015-01-30 2016-08-04 Catanzariti Scott Paul Systems and method for mapping the ocular surface usually obstructed by the eyelids
CN107133987A (zh) * 2017-05-16 2017-09-05 西北工业大学 无重叠视场的相机阵列优化标定方法
CN107646126A (zh) * 2015-07-16 2018-01-30 谷歌有限责任公司 用于移动设备的相机姿态估计

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101710932B (zh) * 2009-12-21 2011-06-22 华为终端有限公司 图像拼接方法及装置
CN103673995B (zh) * 2013-11-29 2016-09-21 航天恒星科技有限公司 一种线阵推扫式相机在轨光学畸变参数标定方法
CN104729481B (zh) * 2015-03-12 2017-05-24 北京空间飞行器总体设计部 一种基于pnp透视模型的合作目标位姿精度测量方法
CN105389819B (zh) * 2015-11-13 2019-02-01 武汉工程大学 一种鲁棒的半标定下视图像极线校正方法及系统
EP3182373B1 (en) * 2015-12-17 2019-06-19 STMicroelectronics S.A. Improvements in determination of an ego-motion of a video apparatus in a slam type algorithm
CN107392951A (zh) * 2017-06-06 2017-11-24 上海卫星工程研究所 遥感图像高精度快速配准方法
CN113487676B (zh) * 2018-03-19 2023-06-20 百度在线网络技术(北京)有限公司 确定安装于采集实体的相机之间相对姿态角的方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016009811A1 (en) * 2014-07-14 2016-01-21 Mitsubishi Electric Corporation Method for calibrating one or more cameras
WO2016123448A2 (en) * 2015-01-30 2016-08-04 Catanzariti Scott Paul Systems and method for mapping the ocular surface usually obstructed by the eyelids
CN107646126A (zh) * 2015-07-16 2018-01-30 谷歌有限责任公司 用于移动设备的相机姿态估计
CN107133987A (zh) * 2017-05-16 2017-09-05 西北工业大学 无重叠视场的相机阵列优化标定方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Calibration of non-overlapping cameras in vehicles;Frank Pagel;《2010 IEEE Intelligent Vehicles Symposium》;20160816;第1178-1183页 *
基于自定义视觉路标的车辆自定位方法研究;冯琦;《中国优秀硕士学位论文全文数据库_信息科技辑I辑》;20150515(第5期);第1-76页 *

Also Published As

Publication number Publication date
CN113487676B (zh) 2023-06-20
CN113487676A (zh) 2021-10-08
CN108564626A (zh) 2018-09-21

Similar Documents

Publication Publication Date Title
US11668571B2 (en) Simultaneous localization and mapping (SLAM) using dual event cameras
CN110322500B (zh) 即时定位与地图构建的优化方法及装置、介质和电子设备
US10068344B2 (en) Method and system for 3D capture based on structure from motion with simplified pose detection
US10086955B2 (en) Pattern-based camera pose estimation system
CN105043350A (zh) 一种双目视觉测量方法
US10451403B2 (en) Structure-based camera pose estimation system
EP3460715B1 (en) Template creation apparatus, object recognition processing apparatus, template creation method, and program
US20180075614A1 (en) Method of Depth Estimation Using a Camera and Inertial Sensor
US9858669B2 (en) Optimized camera pose estimation system
CN110751123B (zh) 一种单目视觉惯性里程计系统及方法
WO2018142533A1 (ja) 位置姿勢推定装置および位置姿勢推定方法
CN108564626B (zh) 用于确定安装于采集实体的相机之间的相对姿态角的方法和装置
US20130100281A1 (en) Method, System and Computer Program Product for Detecting an Obstacle with a Camera
KR101741501B1 (ko) 카메라와 객체 간 거리 추정 장치 및 그 방법
KR102310958B1 (ko) 광시야각의 스테레오 카메라 장치 및 이를 이용한 깊이 영상 처리 방법
JP4546155B2 (ja) 画像処理方法、画像処理装置および画像処理プログラム
Xie et al. Real-time reconstruction of unstructured scenes based on binocular vision depth
CN116182807B (zh) 一种姿态信息确定方法、装置、电子设备、系统和介质
CN112880675B (zh) 用于视觉定位的位姿平滑方法、装置、终端和移动机器人
US20240005552A1 (en) Target tracking method and apparatus, device, and medium
WO2022033139A1 (zh) 一种自运动估计方法及相关装置
CN208063317U (zh) 一种基于单镜头棱镜的立体视觉还原系统
Oh et al. A Camera Center Estimation Based on Perspective One Point Method
Ding et al. Omni-OTPE: Omnidirectional Optimal Real-Time Ground Target Position Estimation System for Moving Lightweight Unmanned Aerial Vehicle
CN115564947A (zh) 一种指针式仪表读数的识别方法、识别装置和计算机可读介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant