CN114693749A - 一种用于关联不同的物理坐标系的方法及系统 - Google Patents
一种用于关联不同的物理坐标系的方法及系统 Download PDFInfo
- Publication number
- CN114693749A CN114693749A CN202011588246.7A CN202011588246A CN114693749A CN 114693749 A CN114693749 A CN 114693749A CN 202011588246 A CN202011588246 A CN 202011588246A CN 114693749 A CN114693749 A CN 114693749A
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- scene
- model
- dimensional
- physical coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Abstract
提供了一种用于关联不同的物理坐标系的方法、系统、电子设备及可读介质,其中方法包括:建立至少包括第一场景和第二场景的三维场景模型,三维场景模型具有模型坐标系;确定第一场景所在的第一物理坐标系与模型坐标系的转换关系以及第二场景所在的第二物理坐标系与模型坐标系的转换关系;并基于第一物理坐标系与模型坐标系的转换关系,以及第二物理坐标系与模型坐标系的转换关系,将第一物理坐标系与所述第二物理坐标系相关联,以快速、准确地完成两个物理坐标系之间的自动配准或者关联。
Description
技术领域
本发明涉及计算机视觉领域,尤其涉及用于关联不同的物理坐标系的方法、系统、电子设备及存储介质。
背景技术
本部分的陈述仅仅是为了提供与本申请的技术方案有关的背景信息,以帮助理解,其对于本申请的技术方案而言并不一定构成现有技术。
不同物理空间或现实场景存在不同的物理坐标系(例如,场景坐标系或者以场景中某一物体为原点建立的坐标系)。目前,对于不同物理空间中坐标系的关联或配准基本上都是使用人工标注和测绘的方法来实现的,导致效率低下且精度不高。
因此,亟需一种能够实现自动关联不同的物理坐标系的方法及系统。
发明内容
本发明的一个方面涉及一种用于关联不同的物理坐标系的方法,包括:建立至少包括第一场景和第二场景的三维场景模型,所述三维场景模型具有模型坐标系;确定所述第一场景所在的第一物理坐标系与所述模型坐标系的转换关系;确定所述第二场景所在的第二物理坐标系与所述模型坐标系的转换关系;以及基于所述第一物理坐标系与所述模型坐标系的转换关系,以及所述第二物理坐标系与所述模型坐标系的转换关系,将所述第一物理坐标系与所述第二物理坐标系相关联。
在一个实施例中,所述第一场景中设置有第一视觉标志;和/或所述第二场景中设置有第二视觉标志。
在一个实施例中,所述第一场景与所述第二场景重叠、相邻或者不相邻。
在一个实施例中,所述建立至少包括第一场景和第二场景的三维场景模型包括:通过设备获取包含所述第一视觉标志或所述第二视觉标志的多个二维图像,并使用所述多个二维图像建立所述第一场景的三维场景模型或所述第二场景的三维场景模型。
在一个实施例中,所述确定所述第一场景所在的第一物理坐标系与所述模型坐标系的转换关系包括:从所述多个二维图像中选择至少三个二维图像,并获取所选择的二维图像各自对应的设备在所述第一物理坐标系中的位置信息;对于每个所选择的二维图像,确定其对应的设备在所述模型坐标系中的位置信息;基于所确定的各个二维图像对应的设备在所述第一物理坐标系中和所述模型坐标系中的位置信息,确定所述第一物理坐标系与所述模型坐标系的转换关系。
在一个实施例中,所述对于每个所选择的二维图像,确定其对应的设备在所述模型坐标系中的位置信息包括:从所述二维图像上选择至少四个特征点,并确定各个特征点在所述模型坐标系下的模型坐标和所述特征点在所述二维图像中的像素坐标;基于所选择的各个特征点的所述模型坐标和所述像素坐标计算所述二维图像对应的设备在所述模型坐标系中的位置信息。
在一个实施例中,所选择的各个二维图像对应的设备位置不共线和/或不共面。
在一个实施例中,所述获取所选择的二维图像各自对应的设备在所述第一物理坐标系中的位置信息包括:基于所述第一视觉标志确定所述设备在所述第一物理坐标系中的位置信息。
在一个实施例中,所述基于所述第一视觉标志确定所述设备在所述第一物理坐标系中的位置信息包括:通过所述设备采集包含所述第一视觉标志的二维图像并获取所述第一视觉标志的标识信息;分析所述二维图像来确定所述设备相对于所述第一视觉标志的位置信息;至少部分地基于所述第一视觉标志的标识信息以及所述设备相对于所述第一视觉标志的位置信息确定所述设备在所述第一物理坐标系中的位置信息。
在一个实施例中,所述将所述第一物理坐标系与所述第二物理坐标系相关联包括:确定所述第一物理坐标系与所述第二物理坐标系之间的转换关系。
在一个实施例中,所述使用所述多个二维图像建立所述第一场景的三维场景模型或所述第二场景的三维场景模型包括:通过所述二维图像中的所述第一视觉标志或所述第二视觉标志的成像,确定所述设备在拍摄所述二维图像时的位姿信息。
本发明另一方面提供了一种用于关联不同的物理坐标系的系统,包括:三维场景模型建立模块,用于建立至少包括第一场景和第二场景的三维场景模型,所述三维场景模型具有模型坐标系;转换关系确定模块,用于确定所述第一场景所在的第一物理坐标系与所述模型坐标系的转换关系,以及确定所述第二场景所在的第二物理坐标系与所述模型坐标系的转换关系;以及物理坐标系关联模块,用于基于所述第一物理坐标系与所述模型坐标系的转换关系,以及所述第二物理坐标系与所述模型坐标系的转换关系,将所述第一物理坐标系与所述第二物理坐标系相关联。
在一个实施例中,所述第一场景中设置有第一视觉标志;和/或所述第二场景中设置有第二视觉标志。本发明另一方面提供了一种计算机可读存储介质,其中存储有计算机程序,在所述计算机程序被处理器执行时,能够用于实现上述任一项所述的方法。
本发明另一方面提供了一种电子设备,其中包括处理器和存储器,所述存储器中存储有计算机程序,在所述计算机程序被处理器执行时,能够用于实现上述任一项所述的方法。
本发明通过使用与两个物理坐标系都关联的一个三维场景模型坐标系,能够快速、准确地将两个物理坐标系进行自动配准或者关联,因此具有良好的适用性和灵活性。
附图说明
以下参照附图对本发明的实施例作进一步说明,其中:
图1示出了本发明一个实施例的用于关联不同的物理坐标系的方法;
图2A示出了一种示例性的光标签;
图2B示出了一种示例性的光标签网络;
图3示出了本发明一个实施例的在第一场景和第二场景之间的第三场景内不设置光标签的示意图;
图4示出了本发明一个实施例的确定第一物理坐标系与三维场景的模型坐标系的转换关系的方法;
图5示出了在示例三维场景中所标记的各二维图像对应的相机的位姿的示意图;
图6示出了本发明一个实施例的用于关联不同的物理坐标系的系统的功能模块框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图通过具体实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限制本发明。
随着科技的发展,三维场景模型在计算机视觉领域获得了广泛的应用。在使用计算机视觉进行定位或导航的一些应用中,常常是基于运动目标(例如,安装有摄像头的机器人)所拍摄的二维图像与预先建立的三维场景模型之间的比较匹配来实现运动目标在三维场景中的实时定位与导航。三维场景模型本身有自己的坐标系(下文也称之为模型坐标系),与该三维场景模型对应的物理空间或现实场景也存在一个坐标系(下文也称之为物理坐标系),通过将物理坐标系转换到模型坐标系中(例如位移、缩放和旋转),从而实现对运动目标的定位或导航。
计算机视觉领域中三维场景模型通常是基于关于场景的多幅二维图像来构建的,其中一种使用二维图像重建三维场景模型的方式是采用能够对其自身位置和姿态(以下统称为位姿信息)进行精确标定的专用相机来拍摄场景的大量二维图像,并记录在拍摄每张图像时该专用相机的位姿信息,之后,可以基于这些位姿信息来对图像进行空间排序,并进行三维场景重建。
本申请的申请人在另一中国专利申请NO.202010758289.9中也公开了一种基于二维图像的场景重建方法,在待进行重建的场景中预先布置至少一个视觉标志(例如,光通信装置、二维码、图形标志等),通过拍摄包括视觉标志的场景图像并通过分析该场景图像确定相机相对于该视觉标志的位姿信息,进而基于该视觉标志在物理坐标系的位姿信息确定拍摄该场景图像时成像设备的实际位姿信息,从而基于各个场景图像相关联的成像设备位姿信息对多个场景图像进行空间排序并基于排序后的场景图像建立三维场景模型。
图1示出了根据本发明一个实施例的用于关联不同的物理坐标系的方法。如图1所示,该方法包括以下步骤:
S110,建立包括第一场景和第二场景的三维场景模型。
第一场景和第二场景可以是物理世界中的任何场景或者区域,例如,商场、大楼、地下停车场、商业街区、办公室等等。可以利用任何3D重建方法建立包括第一场景和第二场景的三维场景模型。例如,可以使用多个二维图像构建三维场景模型。
在一个实施例中,为了建立三维场景模型,可以在第一场景或第二场景中预先设置视觉标志,通过包含图像采集装置的设备拍摄包括视觉标志的多幅二维图像,并通过分析每幅二维图像确定拍摄该二维图像时的设备(以下简称“对应的设备”)相对于视觉标志的位姿信息,进而基于视觉标志在物理坐标系中的位姿信息确定设备在物理坐标系中的位姿信息,从而基于各个二维图像对应的设备位姿信息对多个二维图像进行空间排序并基于排序后的二维图像建立场景的三维场景模型。其中,物理坐标系可以是以视觉标志为原点的坐标系,也可以是场景的场景坐标系。
视觉标志包括任何能够被人眼或者电子设备识别的标志,其可以具有各种各样的形式。在一些实施例中,视觉标志可以用于传递信息,该信息能够被智能设备(例如手机、智能眼镜等)获得。例如,视觉标志可以是能够发出编码的光信息的光通信装置,或者视觉标志可以是带编码信息的图形,例如二维码(例如QR码、小程序码)、条形码等。视觉标志在物理坐标系中的位姿信息可以通过其标识信息获得。视觉标志的标识信息例如可以是与该视觉标志对应的任何标识,例如,视觉标志的编号。
在一个实施例中,可以将光通信装置作为视觉标志。光通信装置也称为光标签,这两个术语在本文中可以互换使用。光标签能够通过不同的发光方式来传递信息,其具有识别距离远、可见光条件要求宽松的优势,并且光标签所传递的信息可以随时间变化,从而可以提供大的信息容量和灵活的配置能力。
光标签中通常可以包括控制器和至少一个光源,该控制器可以通过不同的驱动模式来驱动光源,以向外传递不同的信息。图2A示出了一种示例性的光标签200,其包括三个光源,分别是第一光源201、第二光源202、第三光源203。光标签200还包括控制器(在图2A中未示出),其用于根据要传递的信息为每个光源选择相应的驱动模式。例如,在不同的驱动模式下,控制器可以使用不同的驱动信号来控制光源的发光方式,从而使得当使用图像采集器件(例如摄像头)拍摄光标签200时,所述光源的成像可以呈现出不同的外观(例如,不同的颜色、图案、亮度、等等)。通过分析光标签200中的光源的成像,可以解析出各个光源此刻的驱动模式,从而解析出光标签200此刻传递的信息。可以理解,图2A仅仅用作示例,光标签可以具有与图2A所示的示例不同的形状,并且可以具有与图2A所示的示例不同数量和/或不同形状的光源。
为了基于光标签向用户提供相应的服务,每个光标签可以被配置为传输一个标识信息(ID)。通常,可由光标签中的控制器驱动光源以向外传递该标识信息,图像采集器件可以对光标签进行图像采集来获得包含光标签的一幅或多幅图像,并通过分析图像中的光标签(或光标签中的各个光源)的成像以识别出光标签传递的标识信息,之后,可以获取与标识信息相关联的其他信息,例如,与该标识信息对应的光标签的位姿信息。
可以将与每个光标签相关的信息存储于服务器中。在现实中,还可以将大量的光标签构建成一个光标签网络。图2B示出了一种示例性的光标签网络,该光标签网络包括多个光标签和至少一个服务器。可以在服务器上保存每个光标签的标识信息(ID)或其他信息,例如与该光标签相关的服务信息、与该光标签相关的描述信息或属性信息,如光标签的位置信息、型号信息、物理尺寸信息、物理形状信息、姿态或朝向信息等。光标签也可以具有统一的或默认的物理尺寸信息和物理形状信息等。设备可以使用识别出的光标签的标识信息来从服务器查询获得与该光标签有关的其他信息。光标签的位置信息可以是指该光标签在物理世界中的实际位置,其可以通过地理坐标信息来指示。服务器可以是在计算装置上运行的软件程序、一台计算装置或者由多台计算装置构成的集群。光标签可以是离线的,也即,光标签不需要与服务器进行通信。当然,可以理解,能够与服务器进行通信的在线光标签也是可行的。
在一个实施例中,可以先建立第一场景的三维场景模型,然后将该三维场景模型延伸到第二场景处,或者相反。在另一个实施例中,也可以同时建立第一场景的三维场景模型和第二场景的三维场景模型。
在一个实施例中,第一场景可以与第二场景相互重叠、相邻,也可以不相邻。当第一场景和第二场景不相邻时,第一场景和第二场景之间可以设置有光标签,也可以不设置光标签。在一个实施例中,当第一场景和第二场景之间不设置光标签时,可以采用现有的3D重建技术建立第一场景与第二场景之间的三维场景模型。在一个实施例中,当第一场景和第二场景之间不设置光标签时,具有图像采集器件的设备可以通过第一场景或第二场景中的光标签确定其初始位姿信息,并通过设备内置的传感器来跟踪设备的位姿变化,从而确定设备在第一场景与第二场景之间时的位姿信息,并通过设备所拍摄的图像与相应的设备位姿信息来建立第一场景与第二场景之间的三维场景模型。
图3示出了本发明一个实施例的在第一场景和第二场景之间不设置光标签的示意图。如图3所示,在第一场景A中设置有至少一个第一光标签a,在第二场景B中设置有至少一个第二光标签b,在第一场景A与第二场景B之间未设置光标签。在这种情况下,可以通过基于光标签a建立第一场景A的三维场景模型,然后利用上述无光标签场景重建的方法建立第一场景A与第二场景B之间的三维模型,最后通过基于光标签b建立第二场景B的三维场景模型;也可以同时建立第一场景A、第二场景B以及第一场景A与第二场景B之间场景的三维模型,并将上述不同场景的三维场景模型整合,完成一片区域内三维模型的建立。
S120,确定第一场景所在的第一物理坐标系与三维场景的模型坐标系的转换关系。
图4示出了本发明一个实施例的确定第一物理坐标系与三维场景的模型坐标系的转换关系的方法。如图4所示,该方法包括:
S410,从用于建立三维场景模型的多个二维图像中选择至少三个二维图像,并获取所选择的二维图像各自对应的设备在第一物理坐标系中的位置信息。
如上文所述,在使用多个二维图像构建三维场景模型的过程,可以获得与每个二维图像对应的拍摄设备的位姿信息。在一个实施例中,可以通过在第一场景中预先设置第一光标签,使用设备拍摄包括第一光标签的第一场景的多幅二维图像,并通过分析该每幅二维图像确定对应的设备相对于该第一光标签的位姿信息,以及基于第一光标签在第一物理坐标系中的位姿信息,可以确定该对应的设备在第一物理坐标系中的位姿信息。
在一个实施例中,对于所选择的至少三个二维图像,其各自对应的相机位置不共线。在又一个实施例中,所选择的各个二维图像各自对应的相机位置既不共线,也不共面。
S420,对于每个所选择的二维图像,确定其对应的设备在三维场景模型坐标系中的位置信息。
在一个实施例中,例如可以从二维图像上选择至少四个特征点,并确定这些特征点在三维场景的模型坐标系下的模型坐标和这些特征点在该二维图像中的成像位置(即像素坐标)。其中这些特征点的模型坐标可以通过所建立的三维场景模型来获得,这些特征点的像素坐标例如为这些特征点在以图像左上角的点为坐标原点建立的二维坐标系中的位置。然后,基于所选择的这些特征点的模型坐标和像素坐标计算与该二维图像对应的相机的位姿信息。例如可以利用PnP(Perspective-n-Point)算法在多个点的空间位置以及它们在图像上的成像位置已知的条件下,求解出拍摄图像时相机所在的位姿。可选地,还可以同时利用BA(Bundle Adjustment)优化算法来获取更准确的相机位姿。实际上对于基于多个二维图像创建的三维场景模型,利用上述算法可以标记出每个二维图像对应的相机在三维场景模型的模型坐标系下的位置和姿态。例如,如图5所示的三维场景模型,其中金字塔形标记用于表示各个二维图像对应的相机在场景的模型坐标系中的位置和姿态。
S430,基于所选择的各个二维图像对应的设备在第一物理坐标系中和模型坐标系中的位置信息,确定第一物理坐标系与模型坐标系的转换关系。
也就是利用所确定的各个二维图像对应的相机在两个坐标系中的对应位置关系来确定这两个坐标系之间的转换关系。
在三维空间中,两个坐标系之间的转换关系包括两个坐标系之间的位移(translation)、缩放(scaling)、旋转(rotation),各自用三个参数表示,一共有9个参数。也就是说,三维空间中两个坐标系的转换关系可以用三个位移参数、三个缩放参数和三个旋转参数来表示。而通常情况下,三维场景模型为了保持和真实场景的一致性,其在三轴上的缩放比例是一样的,所以一共有7个参数(三个位移参数、一个缩放参数和三个旋转参数),需要两个坐标系下至少三个点的对应位置关系(不能共线)才能求解出两个坐标系的转换系数(也即,需要使用至少三个二维图像,且对应的相机位置不共线)。在缩放比例不一样的情况下,则需要至少四个点的对应位置关系,且不能共面(也即,需要使用至少四个二维图像,且对应的相机位置不共面)。而具体如何利用已知的至少3个点在上述两个坐标系中的坐标对应关系,求解两个坐标系之间仿射变换矩阵公式中的旋转、平移和缩放参数属于现有技术,在此不再赘述。
通过上述实施例,对于利用多个二维图像构建的三维场景模型,可以简单快速地自动确定该三维场景模型的模型坐标系与物理坐标系之间的转换关系,实现了模型坐标系与物理坐标系之间的自动配准。
在本发明的其他实施例中,可以使用人工标注和测绘的方法来确定模型坐标系和物理坐标系之间的转换关系,或者可以使用本领域已知的任何方法来确定模型坐标系和物理坐标系之间的转换关系。
S130,确定第二场景所在的第二物理坐标系与三维场景模型坐标系的转换关系。
该步骤与上述步骤S120类似,在此不再赘述。
S140,基于第一物理坐标系与模型坐标系的转换关系,以及第二物理坐标系与模型坐标系的转换关系,将第一物理坐标系与第二物理坐标系相关联。
由于与第一场景相关的第一物理坐标系和与第二场景相关的第二物理坐标系与同一三维场景模型坐标系具有转换关系,因此可以确定第一物理坐标系与第二物理坐标系之间的转换关系,从而可以实现第一物理坐标系与第二物理坐标系的关联。
图6为根据本发明一个实施例的用于关联不同的物理坐标系的系统的600的功能模块框图。尽管该框图以功能上分开的方式来描述组件,但这样的描述仅为了说明的目的。图中所示的组件可以任意地进行组合或被分为独立的软件、固件和/或硬件组件。而且,无论这样的组件是如何被组合或划分的,它们都可以在同一计算装置上执行或分布多个计算装置上执行,其中多个计算装置可以是由一个或多个网络连接。
如图6所示,该系统600包括三维场景模型建立模块601、转换关系确定模块602和物理坐标系关联模块603。其中三维场景模型建立模块601如上文结合步骤S110所介绍的那样,建立至少包括第一场景和第二场景的三维场景模型,该三维场景模型具有模型坐标系。转换关系确定模块602如上文结合步骤S120-S130所介绍的,确定第一场景所在的第一物理坐标系与模型坐标系的转换关系,并确定第二场景所在的第二物理坐标系与模型坐标系的转换关系。物理坐标系关联模块603如上文结合步骤S140所介绍的那样,基于第一物理坐标系与模型坐标系的转换关系,以及第二物理坐标系与模型坐标系的转换关系,将第一物理坐标系与第二物理坐标系相关联。在一个实施例中,为了建立三维场景模型,可以在第一场景或第二场景中预先设置视觉标志。在一个实施例中,可以将光通信装置作为视觉标志。
在本发明的一个实施例中,可以以计算机程序的形式来实现本发明。计算机程序可以存储于各种计算机可读存储介质(例如,硬盘、光盘、闪存等)中,当该计算机程序被处理器执行时,能够用于实现本发明的方法。
在本发明的另一个实施例中,可以以电子设备的形式来实现本发明。该电子设备包括处理器和存储器,在存储器中存储有计算机程序,当该计算机程序被处理器执行时,能够用于实现本发明的方法。
本文中针对“各个实施例”、“一些实施例”、“一个实施例”、或“实施例”等的参考指代的是结合所述实施例所描述的特定特征、结构、或性质包括在至少一个实施例中。因此,短语“在各个实施例中”、“在一些实施例中”、“在一个实施例中”、或“在实施例中”等在整个本文中各处的出现并非必须指代相同的实施例。此外,特定特征、结构、或性质可以在一个或多个实施例中以任何合适方式组合。因此,结合一个实施例中所示出或描述的特定特征、结构或性质可以整体地或部分地与一个或多个其他实施例的特征、结构、或性质无限制地组合,只要该组合不是不符合逻辑的或不能工作。本文中出现的类似于“根据A”、“基于A”、“通过A”或“使用A”的表述意指非排他性的,也即,“根据A”可以涵盖“仅仅根据A”,也可以涵盖“根据A和B”,除非特别声明其含义为“仅仅根据A”。在本申请中为了清楚说明,以一定的顺序描述了一些示意性的操作步骤,但本领域技术人员可以理解,这些操作步骤中的每一个并非是必不可少的,其中的一些步骤可以被省略或者被其他步骤替代。这些操作步骤也并非必须以所示的方式依次执行,相反,这些操作步骤中的一些可以根据实际需要以不同的顺序执行,或者并行执行,只要新的执行方式不是不符合逻辑的或不能工作。
由此描述了本发明的至少一个实施例的几个方面,可以理解,对本领域技术人员来说容易地进行各种改变、修改和改进。这种改变、修改和改进意于在本发明的精神和范围内。虽然本发明已经通过一些实施例进行了描述,然而本发明并非局限于这里所描述的实施例,在不脱离本发明范围的情况下还包括所作出的各种改变以及变化。
Claims (15)
1.一种用于关联不同的物理坐标系的方法,包括:
建立至少包括第一场景和第二场景的三维场景模型,所述三维场景模型具有模型坐标系;
确定所述第一场景所在的第一物理坐标系与所述模型坐标系的转换关系;
确定所述第二场景所在的第二物理坐标系与所述模型坐标系的转换关系;以及
基于所述第一物理坐标系与所述模型坐标系的转换关系,以及所述第二物理坐标系与所述模型坐标系的转换关系,将所述第一物理坐标系与所述第二物理坐标系相关联。
2.根据权利要求1所述的方法,其中,
所述第一场景中设置有第一视觉标志;和/或
所述第二场景中设置有第二视觉标志。
3.根据权利要求1所述的方法,其中,所述第一场景与所述第二场景重叠、相邻或者不相邻。
4.根据权利要求2所述的方法,其中,所述建立至少包括第一场景和第二场景的三维场景模型包括:
通过设备获取包含所述第一视觉标志或所述第二视觉标志的多个二维图像,并使用所述多个二维图像建立所述第一场景的三维场景模型或所述第二场景的三维场景模型。
5.根据权利要求4所述的方法,其中,所述确定所述第一场景所在的第一物理坐标系与所述模型坐标系的转换关系包括:
从所述多个二维图像中选择至少三个二维图像,并获取所选择的二维图像各自对应的设备在所述第一物理坐标系中的位置信息;
对于每个所选择的二维图像,确定其对应的设备在所述模型坐标系中的位置信息;
基于所确定的各个二维图像对应的设备在所述第一物理坐标系中和所述模型坐标系中的位置信息,确定所述第一物理坐标系与所述模型坐标系的转换关系。
6.根据权利要求5所述的方法,其中,所述对于每个所选择的二维图像,确定其对应的设备在所述模型坐标系中的位置信息包括:
从所述二维图像上选择至少四个特征点,并确定各个特征点在所述模型坐标系下的模型坐标和所述特征点在所述二维图像中的像素坐标;
基于所选择的各个特征点的所述模型坐标和所述像素坐标计算所述二维图像对应的设备在所述模型坐标系中的位置信息。
7.根据权利要求5所述的方法,其中,所选择的各个二维图像对应的设备位置不共线和/或不共面。
8.根据权利要求5所述的方法,其中,所述获取所选择的二维图像各自对应的设备在所述第一物理坐标系中的位置信息包括:基于所述第一视觉标志确定所述设备在所述第一物理坐标系中的位置信息。
9.根据权利要求8所述的方法,其中,所述基于所述第一视觉标志确定所述设备在所述第一物理坐标系中的位置信息包括:
通过所述设备采集包含所述第一视觉标志的二维图像并获取所述第一视觉标志的标识信息;
分析所述二维图像来确定所述设备相对于所述第一视觉标志的位置信息;
至少部分地基于所述第一视觉标志的标识信息以及所述设备相对于所述第一视觉标志的位置信息确定所述设备在所述第一物理坐标系中的位置信息。
10.根据权利要求4-9中任一项所述的方法,其中,所述将所述第一物理坐标系与所述第二物理坐标系相关联包括:
确定所述第一物理坐标系与所述第二物理坐标系之间的转换关系。
11.根据权利要求4所述的方法,其中,所述使用所述多个二维图像建立所述第一场景的三维场景模型或所述第二场景的三维场景模型包括:
通过所述二维图像中的所述第一视觉标志或所述第二视觉标志的成像,确定所述设备在拍摄所述二维图像时的位姿信息。
12.一种用于关联不同的物理坐标系的系统,包括:
三维场景模型建立模块,用于建立至少包括第一场景和第二场景的三维场景模型,所述三维场景模型具有模型坐标系;
转换关系确定模块,用于确定所述第一场景所在的第一物理坐标系与所述模型坐标系的转换关系,以及确定所述第二场景所在的第二物理坐标系与所述模型坐标系的转换关系;以及
物理坐标系关联模块,用于基于所述第一物理坐标系与所述模型坐标系的转换关系,以及所述第二物理坐标系与所述模型坐标系的转换关系,将所述第一物理坐标系与所述第二物理坐标系相关联。
13.根据权利要求12所述的系统,其中,
所述第一场景中设置有第一视觉标志;和/或
所述第二场景中设置有第二视觉标志。
14.一种计算机可读存储介质,其中存储有计算机程序,在所述计算机程序被处理器执行时,能够用于实现权利要求1-11中任一项所述的方法。
15.一种电子设备,其中包括处理器和存储器,所述存储器中存储有计算机程序,在所述计算机程序被处理器执行时,能够用于实现权利要求1-11中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011588246.7A CN114693749A (zh) | 2020-12-29 | 2020-12-29 | 一种用于关联不同的物理坐标系的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011588246.7A CN114693749A (zh) | 2020-12-29 | 2020-12-29 | 一种用于关联不同的物理坐标系的方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114693749A true CN114693749A (zh) | 2022-07-01 |
Family
ID=82129156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011588246.7A Pending CN114693749A (zh) | 2020-12-29 | 2020-12-29 | 一种用于关联不同的物理坐标系的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114693749A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117140539A (zh) * | 2023-11-01 | 2023-12-01 | 成都交大光芒科技股份有限公司 | 基于空间坐标变换矩阵的机器人三维协同巡检方法 |
-
2020
- 2020-12-29 CN CN202011588246.7A patent/CN114693749A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117140539A (zh) * | 2023-11-01 | 2023-12-01 | 成都交大光芒科技股份有限公司 | 基于空间坐标变换矩阵的机器人三维协同巡检方法 |
CN117140539B (zh) * | 2023-11-01 | 2024-01-23 | 成都交大光芒科技股份有限公司 | 基于空间坐标变换矩阵的机器人三维协同巡检方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111062873B (zh) | 一种基于多对双目相机的视差图像拼接与可视化方法 | |
CN110568447B (zh) | 视觉定位的方法、装置及计算机可读介质 | |
CN106372702B (zh) | 一种定位标识及其定位方法 | |
JP7128708B2 (ja) | 機械学習用の訓練データの効率的な収集のための拡張現実を使用したシステム及び方法 | |
CN110084243B (zh) | 一种基于二维码和单目相机的档案识别与定位方法 | |
CN109472828B (zh) | 一种定位方法、装置、电子设备及计算机可读存储介质 | |
CN110176032A (zh) | 一种三维重建方法及装置 | |
CN109035401A (zh) | 基于倾斜相机摄影的城市三维场景自动建模系统 | |
CN111275015A (zh) | 一种基于无人机的电力巡线电塔检测识别方法及系统 | |
CN110717994A (zh) | 远程视频交互的实现方法及相关设备 | |
CN113711275A (zh) | 在机器学习中为图像中的对象标注创建训练数据可变性 | |
CN108430032A (zh) | 一种实现vr/ar设备位置共享的方法及设备 | |
CN114693782A (zh) | 用于确定三维场景模型坐标系和物理坐标系的转换关系的方法及装置 | |
CN114693749A (zh) | 一种用于关联不同的物理坐标系的方法及系统 | |
CN114266823A (zh) | 一种结合SuperPoint网络特征提取的单目SLAM方法 | |
Pollok et al. | A visual SLAM-based approach for calibration of distributed camera networks | |
CN116843867A (zh) | 增强现实虚实融合方法、电子设备和存储介质 | |
CN110580721A (zh) | 基于全域标识图和视像识别的连续区域定位系统及方法 | |
CN116091595A (zh) | 一种面向360全景图像的标注方法及系统 | |
CN111753565B (zh) | 用于呈现与光通信装置有关的信息的方法和电子设备 | |
CN112581630A (zh) | 一种用户交互方法和系统 | |
CN111639735A (zh) | 一种用于定位的装置以及基于其的定位方法 | |
JP2002135807A (ja) | 3次元入力のためのキャリブレーション方法および装置 | |
CN110706357A (zh) | 导航系统 | |
CN116612184B (zh) | 一种基于监控场景的无人机相机位姿精确估算方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |