CN110853095B - 相机定位方法、装置、电子设备及存储介质 - Google Patents

相机定位方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN110853095B
CN110853095B CN201910964357.4A CN201910964357A CN110853095B CN 110853095 B CN110853095 B CN 110853095B CN 201910964357 A CN201910964357 A CN 201910964357A CN 110853095 B CN110853095 B CN 110853095B
Authority
CN
China
Prior art keywords
video frame
current video
dimensional
camera
pose information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910964357.4A
Other languages
English (en)
Other versions
CN110853095A (zh
Inventor
周杰
郭小燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dajia Internet Information Technology Co Ltd
Original Assignee
Beijing Dajia Internet Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dajia Internet Information Technology Co Ltd filed Critical Beijing Dajia Internet Information Technology Co Ltd
Priority to CN201910964357.4A priority Critical patent/CN110853095B/zh
Publication of CN110853095A publication Critical patent/CN110853095A/zh
Application granted granted Critical
Publication of CN110853095B publication Critical patent/CN110853095B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本公开关于相机定位方法、装置、电子设备及存储介质。所述方法包括:从预设的三维对象数据库中获取与当前视频帧相似度最高的目标图片,获取当前视频帧与目标图片匹配的第一特征点;从三维对象数据库中获取每个第一特征点的三维坐标;基于当前视频帧,以及当前视频帧对应的二维坐标原点,获取每个第一特征点的二维坐标;根据每个第一特征点的三维坐标和二维坐标,如果获取到当前视频帧对应相机的第一位姿信息,以第一位姿信息作为当前视频帧的相机定位结果;其中,三维对象数据库中包括环绕三维标记对象拍摄的图片数据,基于图片数据构建的三维模型,以及图片数据中每个像素点的三维坐标。从而以三维物体为标记点,提高相机定位的便利性、适用性。

Description

相机定位方法、装置、电子设备及存储介质
技术领域
本公开涉及增强现实技术领域,尤其涉及一种相机定位方法、装置、电子设备及存储介质。
背景技术
AR(Augmented Reality,增强现实)是一种实时地计算摄影机影像的位置及角度并加上相应图像、视频、3D模型的技术。增强现实技术可以将虚拟的物体合并到现实场景中,并能支持用户与其进行交互,它已经成为虚拟现实研究中的一个重要领域,也是人机界面技术发展的一个重要方向。
在增强现实技术中,需要实时对相机进行定位,相关技术中通常使用图片作为标记点对相机进行实时定位。但是由于标记点仅限于图片,对标记点有较大的限制,而且如果标记对象在空间环境中为一个三维物体,但由于标记点仅包括从某一角度针对三维物体拍摄得到的二维平面,容易影响相机定位结果的准确性。
发明内容
本公开提供一种相机定位方法、装置及系统,以至少解决相关技术中相机定位结果准确性欠佳的问题。本公开的技术方案如下:
根据本公开实施例的第一方面,提供一种相机定位方法,包括:
从预设的三维对象数据库中获取与当前视频帧相似度最高的目标图片,并获取所述当前视频帧与所述目标图片匹配的第一特征点;
从所述三维对象数据库中获取每个所述第一特征点的三维坐标;
基于所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第一特征点的二维坐标;
根据每个所述第一特征点的三维坐标和二维坐标,如果获取到所述当前视频帧对应相机的第一位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果;
其中,所述三维对象数据库中包括环绕三维标记对象拍摄的图片数据,基于所述图片数据构建得到的所述三维标记对象的三维模型,以及所述图片数据中每个像素点的三维坐标。
可选地,所述从预设的三维对象数据库中获取与当前视频帧相似度最高的目标图片,并获取所述当前视频帧与所述目标图片匹配的第一特征点的步骤,包括:
识别所述当前视频帧中包含的所述三维标记对象的目标区域;
从所述三维对象数据库中获取与所述目标区域相似度最高的目标图片,并获取所述目标区域与所述目标图片匹配的第一特征点。
可选地,在所述从所述三维对象数据库中获取每个所述第一特征点的三维坐标的步骤之前,还包括:
获取环绕至少一个三维标记对象拍摄的图片数据,并基于所述图片数据构建所述三维标记对象的三维模型;
基于预设的世界坐标原点,以及所述三维标记对象的三维模型,获取所述图片数据中的每个像素点的三维坐标;
根据所述图片数据、所述三维模型以及所述图片数据中的每个像素点的三维坐标,构建所述三维对象数据库。
可选地,在所述根据每个所述第一特征点的三维坐标和二维坐标,如果获取到所述当前视频帧对应相机的第一位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果的步骤之后,还包括:
如果没有获取到所述当前视频帧对应相机的第一位姿信息,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息;
如果获取到所述当前视频帧对应相机的第二位姿信息,以所述第二位姿信息,作为所述当前视频帧的相机定位结果。
可选地,所述根据每个所述第一特征点的三维坐标和二维坐标,如果获取到所述当前视频帧对应相机的第一位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果的步骤,包括:
如果获取到所述当前视频帧对应相机的第一位姿信息,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息;
如果获取到所述当前视频帧对应相机的第二位姿信息,根据所述第一位姿信息和所述第二位姿信息,获取所述当前视频帧的相机定位结果;
如果没有获取到所述当前视频帧对应相机的第二位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果。
可选地,所述如果没有获取到所述当前视频帧对应相机的第一位姿信息,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息的步骤,包括:
获取所述当前视频帧与其前一视频帧匹配的特征点,作为第二特征点;
获取在所述三维对象数据库中能够匹配得到三维坐标的第二特征点,作为第三特征点;
根据所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第三特征点的二维坐标;
根据每个所述第三特征点的二维坐标和三维坐标,获取所述当前视频帧对应相机的第二位姿信息。
可选地,所述根据所述第一位姿信息和所述第二位姿信息,获取所述当前视频帧的相机定位结果的步骤,包括:
获取所述第一位姿信息对应的重投影误差,并根据所述第一位姿信息对应的重投影误差获取所述第一位姿信息的权重;
获取所述第二位姿信息对应的重投影误差,并根据所述重投影误差获取所述所述第二位姿信息的权重;
根据所述权重对所述第一位姿信息和所述第二位姿信息进行加权求和,得到所述当前视频帧对应相机的位姿信息。
可选地,在所述根据每个所述第一特征点的三维坐标和二维坐标,如果获取到所述当前视频帧对应相机的第一位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果的步骤之后,所述相机定位方法还包括:
根据所述相机定位结果,调整所述相机对应的显示器中显示的虚拟内容。
根据本公开实施例的第二方面,提供一种相机定位装置,包括:
第一特征点获取模块,被配置为执行从预设的三维对象数据库中获取与当前视频帧相似度最高的目标图片,并获取所述当前视频帧与所述目标图片匹配的第一特征点;
三维坐标获取模块,被配置为执行从所述三维对象数据库中获取每个所述第一特征点的三维坐标;
二维坐标获取模块,被配置为执行基于所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第一特征点的二维坐标;
第一相机定位模块,被配置为执行根据每个所述第一特征点的三维坐标和二维坐标,如果获取到所述当前视频帧对应相机的第一位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果;
其中,所述三维对象数据库中包括环绕三维标记对象拍摄的图片数据,基于所述图片数据构建得到的所述三维标记对象的三维模型,以及所述图片数据中每个像素点的三维坐标。
可选地,所述第一特征点获取模块,包括:
目标区域识别子模块,被配置为执行识别所述当前视频帧中包含的所述三维标记对象的目标区域;
第一特征点获取子模块,被配置为执行从所述三维对象数据库中获取与所述目标区域相似度最高的目标图片,并获取所述目标区域与所述目标图片匹配的第一特征点。
可选地,所述相机定位装置,还包括:
三维模型构建模块,被配置为执行获取环绕至少一个三维标记对象拍摄的图片数据,并基于所述图片数据构建所述三维标记对象的三维模型;
三维坐标确认模块,被配置为执行基于预设的世界坐标原点,以及所述三维标记对象的三维模型,获取所述图片数据中的每个像素点的三维坐标;
三维对象数据库构建模块,被配置为执行根据所述图片数据、所述三维模型以及所述图片数据中的每个像素点的三维坐标,构建所述三维对象数据库。
可选地,所述相机定位装置,还包括:
第二位姿信息获取模块,被配置为执行如果没有获取到所述当前视频帧对应相机的第一位姿信息,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息;
第二相机定位模块,被配置为执行如果获取到所述当前视频帧对应相机的第二位姿信息,以所述第二位姿信息,作为所述当前视频帧的相机定位结果。
可选地,所述第一相机定位模块,包括:
第二位姿信息获取子模块,被配置为执行如果获取到所述当前视频帧对应相机的第一位姿信息,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息;
第一相机定位结果获取子模块,被配置为执行如果获取到所述当前视频帧对应相机的第二位姿信息,根据所述第一位姿信息和所述第二位姿信息,获取所述当前视频帧的相机定位结果;
第二相机定位结果获取子模块,被配置为执行如果没有获取到所述当前视频帧对应相机的第二位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果。
可选地,所述第二位姿信息获取模块,包括:
第二特征点获取子模块,被配置为执行获取所述当前视频帧与其前一视频帧匹配的特征点,作为第二特征点;
第三特征点获取子模块,被配置为执行获取在所述三维对象数据库中能够匹配得到三维坐标的第二特征点,作为第三特征点;
二维坐标获取子模块,被配置为执行根据所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第三特征点的二维坐标;
位姿信息获取子模块,被配置为执行根据每个所述第三特征点的二维坐标和三维坐标,获取所述当前视频帧对应相机的第二位姿信息。
可选地,所述第二位姿信息获取子模块,包括:
第二特征点获取单元,被配置为执行获取所述当前视频帧与其前一视频帧匹配的特征点,作为第二特征点;
第三特征点获取单元,被配置为执行获取在所述三维对象数据库中能够匹配得到三维坐标的第二特征点,作为第三特征点;
二维坐标获取单元,被配置为执行根据所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第三特征点的二维坐标;
第二位姿信息获取单元,被配置为执行根据每个所述第三特征点的二维坐标和三维坐标,获取所述当前视频帧对应相机的第二位姿信息。
可选地,所述第一相机定位结果获取子模块,包括:
第一权重获取单元,被配置为执行获取所述第一位姿信息对应的重投影误差,并根据所述第一位姿信息对应的重投影误差获取所述第一位姿信息的权重;
第二权重获取单元,被配置为执行获取所述第二位姿信息对应的重投影误差,并根据所述重投影误差获取所述所述第二位姿信息的权重;
位姿信息融合单元,被配置为执行根据所述权重对所述第一位姿信息和所述第二位姿信息进行加权求和,得到所述当前视频帧对应相机的位姿信息。
可选地,所述相机定位装置,还包括:
虚拟内容调整模块,被配置为执行根据所述相机定位结果,调整所述相机对应的显示器中显示的虚拟内容。
根据本公开实施例的第三方面,提供一种电子设备,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如前述的任意一种相机定位方法。
根据本公开实施例的第四方面,提供一种存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得所述电子设备能够执行如前述的任意一种相机定位方法。
根据本公开实施例的第五方面,提供一种计算机程序产品,所述计算机程序产品由电子设备的处理器执行时,使得所述电子设备能够执行如前述的任意一种相机定位方法。
本公开的实施例提供的技术方案至少带来以下有益效果:在本公开实施例中,通过从预设的三维对象数据库中获取与当前视频帧相似度最高的目标图片,并获取所述当前视频帧与所述目标图片匹配的第一特征点;从所述三维对象数据库中获取每个所述第一特征点的三维坐标;基于所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第一特征点的二维坐标;根据每个所述第一特征点的三维坐标和二维坐标,如果获取到所述当前视频帧对应相机的第一位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果;其中,所述三维对象数据库中包括环绕三维标记对象拍摄的图片数据,基于所述图片数据构建得到的所述三维标记对象的三维模型,以及所述图片数据中每个像素点的三维坐标。从而可以将各种尺寸的三维物体作为标记点对相机进行定位,在提高相机定位便利性的同时扩大了相机定位的适用范围。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是根据一示例性实施例示出的一种相机定位方法的流程图。
图2是根据一示例性实施例示出的另一种相机定位方法的流程图。
图3是根据一示例性实施例示出的一种相机定位装置的框图。
图4是根据一示例性实施例示出的另一种相机定位装置的框图。
图5是根据一示例性实施例示出的一种电子设备的框图。
图6是根据一示例性实施例示出的另一种电子设备的框图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
图1是根据一示例性实施例示出的一种相机定位方法的流程图,如图1所示,相机定位方法可以用于手机、计算机等移动终端中,包括以下步骤。
在步骤S11中,从预设的三维对象数据库中获取与当前视频帧相似度最高的目标图片,并获取所述当前视频帧与所述目标图片匹配的第一特征点;其中,所述三维对象数据库中包括环绕三维标记对象拍摄的图片数据,基于所述图片数据构建得到的所述三维标记对象的三维模型,以及所述图片数据中每个像素点的三维坐标。
本公开的目的是设计一个基于三维对象进行相机定位,进而可以基于当前相机的位姿信息进行增强现实。而且,在本公开实施例中,作为标记点的三维对象的尺寸可以不受限制,可以包括小型三维标记点,例如桌面摆件、花瓶等,也包括大型三维标记点,例如建筑,等等。由此,本公开可以摆脱相关技术方案中基于图片的标记点的限制。
在本公开实施例中,为了方便进行相机定位,可以预先构建三维对象数据库,而且在三维对象数据库中可以包括环绕三维标记对象拍摄的图片数据,基于所述图片数据构建得到的所述三维标记对象的三维模型,以及所述图片数据中每个像素点的三维坐标。其中的三维标记对象可以根据需求进行预先设置,而且三维标记对象可以为单独的三维对象,也可以为多个三维对象的组合,对此本公开实施例不加以限定。
而且,在本公开实施例中,为了方便检测当前视频帧中与三维标记对象匹配的特征点,还可以环绕三维标记对象拍摄多张图片,例如100-200张图片,从而得到环绕三维标记对象拍摄的图片数据。另外,为了获取特征点的三维坐标,还可以基于环绕三维标记对象拍摄的图片数据构建得到所述三维标记对象的三维模型。其中,也可以通过任何可用方法获取图片数据中每个像素点的三维坐标,对此本公开实施例不加以限定。例如,可以根据需求预先设置一世界坐标原点,进而可用根据三维模型确定各个像素点所对应的拍摄实体相对于世界坐标原点的三维坐标,作为相应像素点的三维坐标。而且在本公开实施例中,可以通过任何可用方式构建三维模型,对象本公开实施例不加以限定。
进而则可以从预设的三维对象数据库中获取与当前视频帧相似度最高的目标图片,并获取所述当前视频帧与所述目标图片匹配的第一特征点。其中,可以通过任何可用方法获取当前视频帧与三维对象数据库中的每个图片的相似度,对此本公开实施例不加以限定。或者,在本公开实施例中,也可以分别获取三维对象数据库中各个图片与当前视频帧匹配的特征点,进而选取与当前视频帧匹配的特征点数量最多的图片作为目标图片,进而也可以相应获取当前视频帧与所述目标图片匹配的第一特征点。其中,特征点主要指的就是能够在其他含有相同场景或目标的相似图像中以一种相同的或至少非常相似的不变形式表示图像或目标,用比较直白的方法表述,就是对于同一个物体或场景,从不同的角度采集多幅图片,如果相同的地方能够被识别出来是相同的,这些具有尺度不变性的点或块可以称为特征点。
另外,在本公开实施例中,为了提高三维对象数据库中的图片数据的完备性,同时保证能够构建得到完整的三维标记对象的三维模型,在环绕三维标记对象拍摄图片时,还可以设置以预设方向环绕三维标记对象拍摄图片,且连续拍摄的两张图片存在部分重合,当然也可以根据需求进行其他方式的设置,对此本公开实施例不加以限定。
在步骤S12中,从所述三维对象数据库中获取每个所述第一特征点的三维坐标。
在步骤S13中,基于所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第一特征点的二维坐标。
在获取得到当前视频帧与目标图片匹配的第一特征点之后,为了确定相机的位姿信息,则可以确定每个第一特征点的坐标信息,具体的可以包括每个第一特征点在当前视频帧中的二维坐标,以及每个第一特征点所对应的三维坐标。那么在本公开实施例中,则可以从所述三维对象数据库中获取每个所述第一特征点的三维坐标。具体地,由于在三维对象数据库中记录有环绕三维标记对象拍摄的图片数据中每个像素点的三维坐标,因此可以在三维对象数据库检索与每个第一特征点匹配的像素点,进而获取相应像素点的三维坐标,作为与相应像素点匹配的第一特征点的三维坐标。
其中,特征点是成对出现的,也即在当前视频帧中的每个第一特征点,在目标图片中必然存在一个第一特征点与之对应。第一特征点的二维坐标可以理解为第一特征点在当前视频帧中的二维坐标。其中,在确定二维坐标时的坐标原点可以根据需求进行预先设置,对此本公开实施例不加以限定。例如,可以设置每个视频帧的坐标原点为其左上角第一个像素点所在位置,等等。
第一特征点所对应拍摄实体的三维坐标可以理解为第一特征点所对应拍摄实体的三维坐标,其中在确定第一特征点所对应拍摄实体的三维坐标时,世界坐标原点也可以根据需求进行预先设置,对此本公开实施例不加以限定。
例如,可以设置二维坐标原点为当前视频帧中右上角像素点,以三维对象数据库中第一张图片在拍摄时的相机中心作为世界坐标原点,等等。
在步骤S14中,根据每个所述第一特征点的三维坐标和二维坐标,如果获取到所述当前视频帧对应相机的第一位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果。
在获取得到每个第一特征点的三维坐标和二维坐标之后,则可以根据每个所述第一特征点的三维坐标和二维坐标,获取所述当前视频帧对应相机的第一位姿信息。但是在实际操作过程中,由于第一特征点数量较少等原因,根据每个所述第一特征点的三维坐标和二维坐标,可能无法获取到得到当前视频帧对应相机的第一位姿信息,此时则可以设置其第一位姿信息为空,并且还可以通过其他可用方式任何可用方式获取当前视频帧的相机定位结果。
而在根据每个所述第一特征点的三维坐标和二维坐标,获取到所述当前视频帧对应相机的第一位姿信息的情况下,则可以所述第一位姿信息作为所述当前视频帧的相机定位结果。具体的可以根据每个第一特征点的三维坐标和二维坐标,通过任何可用方法获取当前视频帧对应相机的位姿信息,对此本公开实施例不加以限定。
例如,可以根据每个第一特征点的三维坐标和二维坐标,通过PnP算法计算出相机当前的位姿信息。具体地,假设当前视频帧与目标图片有N个匹配的第一特征点,Pi img是第一特征点i在当前视频帧中的二维坐标,Pi w是第一特征点i所对应拍摄实体的三维坐标。进而则可以联立N个如下的公式Pi img=K(RPi w+T),i的取值依次为1到N,从而可以通过联立的方程组梯度下降求解得到T,进而根据T可以转化为相机的位姿信息。其中,K是相机内参,R是相机朝向信息,均是可以预先获取的已知参数。
其中,相机的位姿信息可以包括但不限于相机中心点相对于世界坐标原点的三维坐标、相机相对于世界坐标原点所对应的三维坐标系中各个坐标轴的旋转角度,等等。具体的可以根据需求进行预先设置,对此本公开实施例不加以限定。
在本公开实施例中,通过从预设的三维对象数据库中获取与当前视频帧相似度最高的目标图片,并获取所述当前视频帧与所述目标图片匹配的第一特征点;从所述三维对象数据库中获取每个所述第一特征点的三维坐标;基于所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第一特征点的二维坐标;根据每个所述第一特征点的三维坐标和二维坐标,如果获取到所述当前视频帧对应相机的第一位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果;其中,所述三维对象数据库中包括环绕三维标记对象拍摄的图片数据,基于所述图片数据构建得到的所述三维标记对象的三维模型,以及所述图片数据中每个像素点的三维坐标。从而可以将各种尺寸的三维物体作为标记点对相机进行定位,在提高相机定位便利性的同时扩大了相机定位的适用范围。
参照图2,在本公开实施例中,所述步骤S11进一步可以包括:
步骤S111,识别所述当前视频帧中包含的所述三维标记对象的目标区域。
步骤S112,从所述三维对象数据库中获取与所述目标区域相似度最高的目标图片,并获取所述目标区域与所述目标图片匹配的第一特征点。
在实际应用中,当前视频帧中可能存在部分与三维标记对象对应,而且如果当前视频帧中与三维标记对象对应的区域在当前视频帧的占比较小,使得匹配得到的第一特征点不在当前视频帧中与三维标记对象对应区域内部,从而容易影响第一特征点的准确性。因此,在本公开实施例中,为了提高确认得到的目标图片以及第一特征点的准确性,还可以先识别当前视频帧中包含的对应于三维标记对象的目标区域,进而则可以从三维对象数据库中获取与识别得到的目标区域匹配度最高的目标图片,并获取目标区域与目标图片匹配的第一特征点,即为当前视频帧与目标图片匹配的第一特征点。
其中,在本公开实施例中,可以通过任何可用方法识别当前视频帧中包含的所述三维标记对象的目标区域,对此本公开实施例不加以限定。
另外,在本公开实施例中,如果三维标记对象距离相机较远,使得三维标记对象在当前视频帧中比较小,也即识别得到的当前视频帧中包含的三维标记对象的目标区域在当前视频帧中的占比较小,低于预设占比阈值,还可以按照预设比例对目标区域进行放大,并以放大后的目标区域执行后续的操作。其中的预设占比阈值、预设比例都可以根据需求进行预先设置,对此本公开实施例不加以限定。
参照图2,在本公开实施例中,在所述步骤S12之前,进一步还可以包括:
步骤S15,获取环绕至少一个三维标记对象拍摄的图片数据,并基于所述图片数据构建所述三维标记对象的三维模型。
步骤S16,基于预设的世界坐标原点,以及所述三维标记对象的三维模型,获取所述图片数据中的每个像素点的三维坐标。
步骤S17,根据所述图片数据、所述三维模型以及所述图片数据中的每个像素点的三维坐标,构建所述三维对象数据库。
在以三维物体作为标记对象时,为了方便获取每个特征点的三维坐标,则可以预先获取环绕至少一个三维标记对象拍摄的图片数据。其中,三维标记对象可以根据需求进行预先设置,而且在本公开实施例中,可以设置多个三维标记对象,而且可以将多个三维标记对象作为一个整体进行环绕拍摄,也可以针对单个三维标记对象进行环绕拍摄,具体的都可以根据需求进行预先设置,对此本公开实施例不加以限定。而且,如前述为了方便检测当前视频帧中与三维标记对象匹配的特征点,还可以环绕三维标记对象拍摄多张图片,例如100-200张图片,从而得到环绕三维标记对象拍摄的图片数据。另外,为了获取特征点的三维坐标,还可以基于环绕三维标记对象拍摄的图片数据构建得到所述三维标记对象的三维模型。
在本公开实施例中,在获取图片数据每个像素点的三维坐标时,可以基于预设的世界坐标原点,以及所述三维标记对象的三维模型,获取所述图片数据中的每个像素点的三维坐标。
其中,世界坐标原点可以根据需求进行预先设置,对此本公开实施例不加以限定。例如,可以设置世界坐标原点为三维对象数据库中拍摄时间最早的图片在拍摄时的相机中心,等等。
而且,在基于图片数据构建三维标记对象的三维模型时,则可以获取图片数据中每张图片中每个像素点相对于相应的世界坐标原点的三维空间坐标,即为每个像素点的三维坐标,进而则可以根据所述图片数据、所述三维模型以及所述图片数据中的每个像素点的三维坐标,构建所述三维对象数据库。
那么在后续获取当前视频帧与目标图片匹配的第一特征点的是三维坐标时,可以获取当前视频帧中与目标图片匹配的每个第一特征点对应在目标图片中的像素点的三维空间坐标,即为每个所述第一特征点的三维坐标。而在获取每个第一特征点的二维坐标时,则可以基于当前视频帧对应的二维坐标原点,获取当前视频帧中的每个所述第一特征点的二维坐标。其中,当前视频帧对应的二维坐标原点可以根据需求进行预先设置,对此本公开实施例不加以限定。例如,可以设置二维坐标原点为当前视频帧中的左上角像素点,等等。
在确定当前视频帧对应的二维坐标原点之后,则可以当前视频帧所在平面为二维坐标平面,进一步确定当前视频帧中的每个第一特征点相对于二维坐标原点的像素点坐标,即为相应第一特征点的二维坐标。
参照图2,在本公开实施例中,所述步骤S14进一步可以包括:
步骤S141,如果获取到所述当前视频帧对应相机的第一位姿信息,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息。
步骤S142,如果获取到所述当前视频帧对应相机的第二位姿信息,根据所述第一位姿信息和所述第二位姿信息,获取所述当前视频帧的相机定位结果。
步骤S143,如果没有获取到所述当前视频帧对应相机的第二位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果。
在实际应用中,在利用相机拍摄视频时,由于相机在短时间内的位移幅度不会过大,因此拍摄的视频帧中的内容也会比较接近。也即视频流中每一视频帧与其前一视频帧的相似度较高,那么相应能够匹配得到的特征点也会较多。因此,在本公开实施例中,也可以当前视频帧的前一视频帧作为标记点图片,获取所述当前视频帧对应相机的第二位姿信息。
具体的,可以先检测当前视频帧与其前一视频帧匹配的特征点,进而获取每个特征点的二维坐标和三维坐标,从而根据每个特征点的二维坐标和三维坐标,获取当前视频帧对应相机的第二位姿信息。具体的,可以根据预设的二维坐标原点,获取当前视频帧与其前一视频帧匹配的特征点的二维坐标,根据预设的世界坐标原点,获取当前视频帧与其前一视频帧匹配的特征点的三维坐标。而且可以通过任何可用方式获取上述的二维坐标和三维坐标,对此本公开实施例不加以限定。
另外,在本公开实施例中,为了提高以前一视频帧作为标记点图片得到的第二位姿信息的准确性,还可以针对当前视频帧与其前一视频帧匹配的特征点设置一预设数值,如果当前视频帧与其前一视频帧匹配的特征点的数量超过预设数值,才可以前一视频帧作为当前视频帧的标记点图片,进而可以根据预设的二维坐标原点、世界坐标原点、所述当前视频帧以及所述第二标记图片,获取每个所述第三特征点的第三坐标信息;而如果当前视频帧与其前一视频帧匹配的特征点的数量不超过预设数值,则可以另外选定作为标记点图片的历史视频帧,或者是直接不获取第二位姿信息,而直接以第一位姿信息作为当前视频帧的相机定位结果。
因此,在本公开实施例中,为了进一步提高获取得到的相机位姿信息的准确性,还可以进一步以视频流中在当前视频帧之前的一个视频帧,也即当前视频帧的前一视频帧为标识图片,进一步获取相机的第二位姿信息。此时,可以将根据各个第一特征点的第一坐标信息,获取得到的当前视频帧对应相机得位姿信息定义为第一位姿信息。进而根据第一位姿信息和第二位姿信息,得到相应相机当前最终的位姿信息。那么首先,则可以从当前视频帧所在视频流中获取在当前视频帧的前一视频帧。
进而则可以根据获取的前一视频帧,以前一视频帧为标记点图片,获取当前视频帧对应相机的第二位姿信息。具体的,可以获取前一视频帧与当前视频帧匹配的特征点的二维坐标以及三维坐标,进而根据各个特征点的二维坐标以及三维坐标,通过PnP算法,得到当前视频帧对应相机的第二位姿信息。其中,二维坐标以及三维坐标的获取方式可以参照上述内容,在此不加以赘述。
另外,在本公开实施例中,还可以从当前视频帧所在视频流中获取在当前视频帧之前的历史视频帧,进而可以从历史视频帧中获取与当前视频帧匹配度最高的视频帧作为标记点图片,从而获取当前视频帧与标记点图片中匹配的各个特征点的三维坐标,然后可以根据当前视频帧中相应的各个特征点的二维坐标,以及各个特征点的三维坐标,获取得到当前视频帧对应相机的第二位姿信息。当然,在本公开实施例中,也可以通过其他任何可用方式从历史视频帧中选出标记点图片,对此本公开实施例不加以限定。
然后则可以每个第一特征点的三维坐标和二维坐标获取的第一位姿信息和基于前一视频帧获取的第二位姿信息,获取当前视频帧对应相机的位姿信息。具体的,相机的位姿信息与第一位姿信息和第二位姿信息之间的对应关系可以根据需求进行预先设置,对此本公开实施例不加以限定。
例如,可以设置计算第一位姿信息和第二位姿信息的平均值,作为相机的位姿信息;或者根据第一位姿信息和第二位姿信息的结果置信度,确定第一位姿信息和第二位姿信息的权重,然后对第一位姿信息和第二位姿信息进行加权求和,得到相机的位姿信息;等等,其中,第一位姿信息和第二位姿信息的权重可以根据需求进行预先设置,对此本公开实施例不加以限定。
另外,在本公开实施例中,如果基于三维对象数据库无法获取得到当前视频帧对应相机的第一位姿信息,或者根据每个第一特征点的三维坐标和二维坐标无法获取得到当前视频帧对应相机的第一位姿信息,也可以直接以当前视频帧的前一视频帧获取得到的第二位姿信息作为相机的位姿信息,对此本公开实施例不加以限定。
需要说明的是,由于是根据同一视频流中在当前视频帧之前的历史视频帧获取当前视频帧对应的相机的第二位姿信息,而如果当前视频帧是其所在视频流中的第一帧,那么则无法获取第二位姿信息,此时则可以直接以第一位姿信息作为当前视频帧对应相机当前最终的位姿信息,而如果当前视频帧不是其所在视频流中的第一帧,那么则可以按照上述步骤S141-S143获取当前视频帧对应相机当前的位姿信息。
参照图2,在本公开实施例中,在所述步骤S14之后,进一步还可以包括:
步骤S18,如果没有获取到所述当前视频帧对应相机的第一位姿信息,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息;
步骤S19,如果获取到所述当前视频帧对应相机的第二位姿信息,以所述第二位姿信息,作为所述当前视频帧的相机定位结果。
另外,在本公开实施例中,如果没有获取到所述当前视频帧对应相机的第一位姿信息,为了能够对当前视频帧对应的相机进行定位,则可以进一步启动根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息的步骤,此时如果获取到所述当前视频帧对应相机的第二位姿信息,那么则可以直接以第二位姿信息,作为当前视频帧的相机定位结果。而如果根据所述当前视频帧的前一视频帧,也未能获取得到当前视频帧对应相机的第二位姿信息,那么则可以返回此时无法获取得到当前视频帧的相机定位结果,也即相机定位结果为空。
参照图2,在本公开实施例中,在所述步骤S14之后,进一步还可以包括:
步骤S110,根据所述相机定位结果,调整所述相机对应的显示器中显示的虚拟内容。
在获取得到相机的位姿信息之后,为了提高AR的效果,则可以进一步调整相机对应的显示器中显示的虚拟内容。而且,此时可以当前视频帧为虚拟内容的背景,并在当前视频帧之上显示调整后的虚拟内容,或者也可以直接显示调整后的虚拟内容,对此本公开实施例不加以限定。
例如,假设获取得到相机的位姿信息为相对于世界坐标原点的三维坐标为(x1,y1,z1),而虚拟内容相对于世界坐标原点的三维坐标为(x2,y2,z2),那么此时则可以根据相机的位姿信息,以及虚拟内容的三维坐标,获取相机的位姿信息与虚拟内容之间的相对位置关系,进而调整相机对应的显示器中显示的虚拟内容。
可选地,在本公开实施例中,所述步骤S18进一步可以包括:
步骤A1,获取所述当前视频帧与其前一视频帧匹配的特征点,作为第二特征点。
步骤A2,获取在所述三维对象数据库中能够匹配得到三维坐标的第二特征点,作为第三特征点。
步骤A3,根据所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第三特征点的二维坐标。
步骤A4,根据每个所述第三特征点的二维坐标和三维坐标,获取所述当前视频帧对应相机的第二位姿信息。
在本公开实施例中,在基于前一视频帧进行相机定位时,也即相当于以前一视频帧作为当前视频帧的标记点,那么则可以获取当前视频帧与所述前一视频帧匹配的各个第二特征点,进而则需要获取每个第二特征点的三维坐标以及二维坐标。其中,二维坐标可以为第二特征点在当前视频帧中的二维坐标,从而可以根据当前视频帧,以及当前视频帧对应的二维坐标原点,获取每个第二特征点的二维坐标,但是对于视频流中的每一视频帧所对应拍摄实体的三维坐标,如果另外单独进行计算,难度较大且耗时较长,因此在本公开实施例中,为了提高效率可以直接从三维对象数据库匹配每个第二特征点的三维坐标。但是由于三维对象数据库是基于自定义的三维标记对象构建的,可能在三维对象数据库中不能完全匹配到每个第二特征点的三维坐标,那么无法获取三维坐标的第二特征点则无法用以计算相机的位姿信息。因此,在本公开实施例中,则可以在获取所述当前视频帧与其前一视频帧匹配的特征点,作为第二特征点之后,进一步获取在所述三维对象数据库中能够匹配得到三维坐标的第二特征点,作为第三特征点,以对第二特征点进行过滤,从中得到已知三维坐标的第三特征点。
具体的,可以根据预设的二维坐标原点和所述当前视频帧,获取每个第二特征点在当前视频帧中的像素点坐标作为二维坐标。其中,二维坐标原点和世界坐标原点可以根据需求进行预先设置,对此本公开实施例不加以限定。例如,可以设置二维坐标原点为当前视频帧中的左上角像素点,且二维坐标平面与当前视频帧所在平面重合;可以设置世界坐标原点为三维对象数据库中第一帧图片在拍摄时的相机中心,且世界坐标原点所对应的三维坐标系的xy轴可以与二维坐标系相同,三维坐标系的z轴与当前视频帧垂直。当然,在本公开实施例中,也可以设置三维坐标系的xy轴不与二维坐标系相同,对此本公开实施例也不加以限定。
进而则可以根据所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第三特征点的二维坐标,然后根据每个所述第三特征点的二维坐标和三维坐标,获取所述当前视频帧对应相机的第二位姿信息。该步骤与前述的根据每个所述第一特征点的三维坐标和二维坐标,获取所述当前视频帧对应相机的第一位姿信息的具体过程类似,在此不加以赘述。
但是在实际应用中,如果过滤后得到的第三特征点的数量较少,容易导致无法准确计算得到第二位姿信息,因此在本公开实施例中,还可以针对第三特征点的数量设置一预设数值,在第三特征点的数量超出预设数值的情况下才基于当前的每个第三特征点的二维坐标和三维坐标,获取第二位姿信息,否则可以从历史视频帧中重新选定当前视频帧的标记点图片,进而根据重新选定的标记点图片执行上述步骤,得到第二位姿信息;或者也可以直接判定当前无法获取第二位姿信息,而直接以第一位姿信息作为最终的位姿信息。
另外,如果基于当前从历史视频帧中选定的标记点图片获得的第三特征点数量较少,那么可以推知,相应标记点图片与三维对象数据库匹配的像素点也相应较少。而且,在实际应用中,在以历史视频帧中的每个视频帧为当前视频帧获取相机的位姿信息时,对匹配特征点的数量也会有一定的数量要求,因此在本公开实施例中,在从历史视频帧中获取当前视频帧的标记点图片时,可以从历史视频帧中获取与当前视频帧的时间距离最短,且对应已计算得到对应历史时刻的相机位姿信息的一个视频帧作为当前视频帧的标记点图片,也即可以从已计算得到对应历史时刻的相机位姿信息的历史视频帧中,按照与当前视频帧的时间距离从小到大的顺序,每次从中选定一个标记点图片,进而获取并判断基于当前的标记点图片获取的第三特征点是否超出预设数值,如果是则可以基于当前的标记点图片以及当前视频帧,获取相机当前的第二位姿信息,如果否则需要重新选定标记点图片,并且循环上述步骤,直至获取得到的第三特征点超出预设数值,或者是直至全部历史视频帧循环完毕则可以认定无法获取第二位姿信息,并以第一位姿信息作为相机当前最终的位姿信息。而如果通过本公开实施例中的方案,第一位姿信息和第二位姿信息都无法获取得到,那么则可以标记当前视频帧对应相机的位姿信息为空等。
可选地,在本公开实施例中,所述步骤S143进一步可以包括:
步骤B1,获取所述第一位姿信息对应的重投影误差,并根据所述第一位姿信息对应的重投影误差获取所述第一位姿信息的权重。
步骤B2,获取所述第二位姿信息对应的重投影误差,并根据所述重投影误差获取所述所述第二位姿信息的权重。
步骤B3,根据所述权重对所述第一位姿信息和所述第二位姿信息进行加权求和,得到所述当前视频帧对应相机的位姿信息。
在本公开实施例中,为了对第一位姿信息和所述第二位姿信息进行加权求和,得到相机最终的的位姿信息,那么首先需要分别确定第一位姿信息和第二位姿信息的权重。而且,为了提高权重的准确性,可以分别获取第一位姿信息对应的重投影误差和第二位姿信息对应的重投影误差,进而根据第一位姿信息对应的重投影误差获取第一位姿信息的权重,根据第二位姿信息对应的重投影误差获取第二位姿信息的权重,最后根据第一位姿信息的权重和第二位姿信息的权重对第一位姿信息和第二位姿信息进行加权求和,得到当前视频帧对应相机的位姿信息。
其中,在本公开实施例中,可以通过任何可用方式获取重投影误差,对此本公开实施例不加以限定。例如,对于第一位姿信息,可以根据第一位姿信息,以及用以获取第一位姿信息的每个第一特征点的三维坐标,计算得到每个第一特征点的理论二维坐标,进而获取每个第一特征点的理论二维坐标与其实际的二维坐标的误差的平均值即为相应第一位姿信息对应的重投影误差,而且第二位姿信息对应的重投影误差的获取过程可以与上述过程类似。其中,可以通过任何可用方式根据第一位姿信息,以及用以获取第一位姿信息的每个第一特征点的三维坐标,计算得到每个第一特征点的理论二维坐标,对此本公开实施例不加以限定。
其中,权重与重投影误差之间的对应关系可以根据需求进行预先设置,对此本公开实施例不加以限定。一般而言,重投影误差越高,相应位姿信息的结果可信度越低,因此可以设置权重越低,也即可以设置重投影误差与权重成反比。例如,可以直接取重投影误差的倒数为权重,等等。另外,在本公开实施例中,可以通过任何可用方式获取重投影误差,对此本公开实施例也不加以限定。
在本公开实施例中,通过识别所述当前视频帧中包含的所述三维标记对象的目标区域;从所述三维对象数据库中获取与所述目标区域相似度最高的目标图片,并获取所述目标区域与所述目标图片匹配的第一特征点。从而提高了匹配得到的特征点的准确性,进而提高相机定位结果的准确性。
而且,在本公开实施例中,还可以获取环绕至少一个三维标记对象拍摄的图片数据,并基于所述图片数据构建所述三维标记对象的三维模型;基于预设的世界坐标原点,以及所述三维标记对象的三维模型,获取所述图片数据中的每个像素点的三维坐标;根据所述图片数据、所述三维模型以及所述图片数据中的每个像素点的三维坐标,构建所述三维对象数据库。从而针对三维标记对象构建三维对象数据库,提高获取各个特征点的三维坐标的便利性,进而提高相机定位的便利性。
另外,在本公开实施例中,还可以如果没有获取到所述当前视频帧对应相机的第一位姿信息,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息;如果获取到所述当前视频帧对应相机的第二位姿信息,以所述第二位姿信息,作为所述当前视频帧的相机定位结果。或者根据每个所述第一特征点的三维坐标和二维坐标,如果获取到所述当前视频帧对应相机的第一位姿信息,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息;如果获取到所述当前视频帧对应相机的第二位姿信息,根据所述第一位姿信息和所述第二位姿信息,获取所述当前视频帧的相机定位结果;如果没有获取到所述当前视频帧对应相机的第二位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果。并且,获取所述当前视频帧与其前一视频帧匹配的特征点,作为第二特征点;获取在所述三维对象数据库中能够匹配得到三维坐标的第二特征点,作为第三特征点;根据所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第三特征点的二维坐标;根据每个所述第三特征点的二维坐标和三维坐标,获取所述当前视频帧对应相机的第二位姿信息。以及,获取所述第一位姿信息对应的重投影误差,并根据所述第一位姿信息对应的重投影误差获取所述第一位姿信息的权重;获取所述第二位姿信息对应的重投影误差,并根据所述重投影误差获取所述所述第二位姿信息的权重;根据所述权重对所述第一位姿信息和所述第二位姿信息进行加权求和,得到所述当前视频帧对应相机的位姿信息。从而可以同时以前一视频帧和三维标记对象作为标记点对相机进行定位,并对两种定位结果进行融合,从而提高相机定位结果的准确性。而且在对两种定位结果进行融合时,可以根据每个定位结果的重投影误差确定各自的权重进而进行加权求和,进一步可以提高融合结果的准确性。
进一步地,在本公开实施例中,还可以根据所述相机定位结果,调整所述相机对应的显示器中显示的虚拟内容。从而提高AR的视觉效果。
图3是根据一示例性实施例示出的一种相机定位装置框图。参照图3,该装置包括第一特征点获取模块21,三维坐标获取模块22、二维坐标获取模块23和第一相机定位模块24。
第一特征点获取模块21,被配置为执行从预设的三维对象数据库中获取与当前视频帧相似度最高的目标图片,并获取所述当前视频帧与所述目标图片匹配的第一特征点;其中,所述三维对象数据库中包括环绕三维标记对象拍摄的图片数据,基于所述图片数据构建得到的所述三维标记对象的三维模型,以及所述图片数据中每个像素点的三维坐标。
三维坐标获取模块22,被配置为执行从所述三维对象数据库中获取每个所述第一特征点的三维坐标。
二维坐标获取模块23,被配置为执行基于所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第一特征点的二维坐标。
第一相机定位模块24,被配置为执行根据每个所述第一特征点的三维坐标和二维坐标,如果获取到所述当前视频帧对应相机的第一位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果。
在本公开实施例中,通过从预设的三维对象数据库中获取与当前视频帧相似度最高的目标图片,并获取所述当前视频帧与所述目标图片匹配的第一特征点;从所述三维对象数据库中获取每个所述第一特征点的三维坐标;基于所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第一特征点的二维坐标;根据每个所述第一特征点的三维坐标和二维坐标,如果获取到所述当前视频帧对应相机的第一位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果;其中,所述三维对象数据库中包括环绕三维标记对象拍摄的图片数据,基于所述图片数据构建得到的所述三维标记对象的三维模型,以及所述图片数据中每个像素点的三维坐标。从而可以将各种尺寸的三维物体作为标记点对相机进行定位,在提高相机定位便利性的同时扩大了相机定位的适用范围。
参照图4,在本公开实施例中,所述第一特征点获取模块21,进一步可以包括:
目标区域识别子模块211,被配置为执行识别所述当前视频帧中包含的所述三维标记对象的目标区域;
第一特征点获取子模块212,被配置为执行从所述三维对象数据库中获取与所述目标区域相似度最高的目标图片,并获取所述目标区域与所述目标图片匹配的第一特征点。
参照图4,在本公开实施例中,所述相机定位装置进一步还可以包括:
三维模型构建模块25,被配置为执行获取环绕至少一个三维标记对象拍摄的图片数据,并基于所述图片数据构建所述三维标记对象的三维模型。
三维坐标确认模块26,被配置为执行基于预设的世界坐标原点,以及所述三维标记对象的三维模型,获取所述图片数据中的每个像素点的三维坐标。
三维对象数据库构建模块27,被配置为执行根据所述图片数据、所述三维模型以及所述图片数据中的每个像素点的三维坐标,构建所述三维对象数据库。
参照图4,在本公开实施例中,所述相机定位装置进一步还可以包括:
第二位姿信息获取模块28,被配置为执行如果没有获取到所述当前视频帧对应相机的第一位姿信息,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息;
第二相机定位模块29,被配置为执行如果获取到所述当前视频帧对应相机的第二位姿信息,以所述第二位姿信息,作为所述当前视频帧的相机定位结果。
参照图4,在本公开实施例中,所述第一相机定位模块24,进一步可以包括:
第二位姿信息获取子模块241,被配置为执行如果获取到所述当前视频帧对应相机的第一位姿信息,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息;
第一相机定位结果获取子模块242,被配置为执行如果获取到所述当前视频帧对应相机的第二位姿信息,根据所述第一位姿信息和所述第二位姿信息,获取所述当前视频帧的相机定位结果;
第二相机定位结果获取子模块243,被配置为执行如果没有获取到所述当前视频帧对应相机的第二位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果。
可选地,在本公开实施例中,所述第二位姿信息获取模块28,进一步可以包括:
第二特征点获取子模块,被配置为执行获取所述当前视频帧与其前一视频帧匹配的特征点,作为第二特征点;
第三特征点获取子模块,被配置为执行获取在所述三维对象数据库中能够匹配得到三维坐标的第二特征点,作为第三特征点;
二维坐标获取子模块,被配置为执行根据所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第三特征点的二维坐标;
位姿信息获取子模块,被配置为执行根据每个所述第三特征点的二维坐标和三维坐标,获取所述当前视频帧对应相机的第二位姿信息。
可选地,在本公开实施例中,所述第二位姿信息获取子模块241,进一步可以包括:
第二特征点获取单元,被配置为执行获取所述当前视频帧与其前一视频帧匹配的特征点,作为第二特征点;
第三特征点获取单元,被配置为执行获取在所述三维对象数据库中能够匹配得到三维坐标的第二特征点,作为第三特征点;
二维坐标获取单元,被配置为执行根据所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第三特征点的二维坐标;
第二位姿信息获取单元,被配置为执行根据每个所述第三特征点的二维坐标和三维坐标,获取所述当前视频帧对应相机的第二位姿信息。
参照图4,在本公开实施例中,所述相机定位装置还可以包括:
虚拟内容调整模块2110,被配置为执行根据所述相机定位结果,调整所述相机对应的显示器中显示的虚拟内容。
可选地,在本公开实施例中,所述第一相机定位结果获取子模块242,进一步可以包括:
第一权重获取单元,被配置为执行获取所述第一位姿信息对应的重投影误差,并根据所述第一位姿信息对应的重投影误差获取所述第一位姿信息的权重;
第二权重获取单元,被配置为执行获取所述第二位姿信息对应的重投影误差,并根据所述重投影误差获取所述所述第二位姿信息的权重;
位姿信息融合单元,被配置为执行根据所述权重对所述第一位姿信息和所述第二位姿信息进行加权求和,得到所述当前视频帧对应相机的位姿信息。
在本公开实施例中,通过识别所述当前视频帧中包含的所述三维标记对象的目标区域;从所述三维对象数据库中获取与所述目标区域相似度最高的目标图片,并获取所述目标区域与所述目标图片匹配的第一特征点。从而提高了匹配得到的特征点的准确性,进而提高相机定位结果的准确性。
而且,在本公开实施例中,还可以获取环绕至少一个三维标记对象拍摄的图片数据,并基于所述图片数据构建所述三维标记对象的三维模型;基于预设的世界坐标原点,以及所述三维标记对象的三维模型,获取所述图片数据中的每个像素点的三维坐标;根据所述图片数据、所述三维模型以及所述图片数据中的每个像素点的三维坐标,构建所述三维对象数据库。从而针对三维标记对象构建三维对象数据库,提高获取各个特征点的三维坐标的便利性,进而提高相机定位的便利性。
另外,在本公开实施例中,还可以如果没有获取到所述当前视频帧对应相机的第一位姿信息,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息;如果获取到所述当前视频帧对应相机的第二位姿信息,以所述第二位姿信息,作为所述当前视频帧的相机定位结果。或者,根据每个所述第一特征点的三维坐标和二维坐标,如果获取到所述当前视频帧对应相机的第一位姿信息,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息;如果获取到所述当前视频帧对应相机的第二位姿信息,根据所述第一位姿信息和所述第二位姿信息,获取所述当前视频帧的相机定位结果;如果没有获取到所述当前视频帧对应相机的第二位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果。获取所述当前视频帧与其前一视频帧匹配的特征点,作为第二特征点;获取在所述三维对象数据库中能够匹配得到三维坐标的第二特征点,作为第三特征点;根据所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第三特征点的二维坐标;根据每个所述第三特征点的二维坐标和三维坐标,获取所述当前视频帧对应相机的第二位姿信息。以及,获取所述第一位姿信息对应的重投影误差,并根据所述第一位姿信息对应的重投影误差获取所述第一位姿信息的权重;获取所述第二位姿信息对应的重投影误差,并根据所述重投影误差获取所述所述第二位姿信息的权重;根据所述权重对所述第一位姿信息和所述第二位姿信息进行加权求和,得到所述当前视频帧对应相机的位姿信息。从而可以同时以前一视频帧和三维标记对象作为标记点对相机进行定位,并对两种定位结果进行融合,从而提高相机定位结果的准确性。而且在对两种定位结果进行融合时,可以根据每个定位结果的重投影误差确定各自的权重进而进行加权求和,进一步可以提高融合结果的准确性。
进一步地,在本公开实施例中,还可以根据所述相机定位结果,调整所述相机对应的显示器中显示的虚拟内容。从而提高AR的视觉效果。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开实施例还提供一种电子设备,包括:处理器;用于存储所述处理器可执行指令的存储器;其中,所述处理器被配置为执行所述指令,以实现如前述的任意一种相机定位方法。
本公开实施例还提供一种存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得所述电子设备能够执行如前述的任意一种相机定位方法。
本公开实施例还提供一种计算机程序产品,所述计算机程序产品由电子设备的处理器执行时,使得所述电子设备能够执行如前述的任意一种相机定位方法。
图5是根据一示例性实施例示出的一种用于相机定位的电子设备300的框图。例如,电子设备300可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理、摄像机、相机等。
参照图5,电子设备300可以包括以下一个或多个组件:处理组件302,存储器304,电力组件306,多媒体组件308,音频组件310,输入/输出(I/O)的接口312,传感器组件314,以及通信组件316。
处理组件302通常控制电子设备300的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件302可以包括一个或多个处理器320来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件302可以包括一个或多个模块,便于处理组件302和其他组件之间的交互。例如,处理组件302可以包括多媒体模块,以方便多媒体组件308和处理组件302之间的交互。
存储器304被配置为存储各种类型的数据以支持在设备300的操作。这些数据的示例包括用于在电子设备300上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器304可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件306为电子设备300的各种组件提供电力。电源组件306可以包括电源管理系统,一个或多个电源,及其他与为电子设备300生成、管理和分配电力相关联的组件。
多媒体组件308包括在所述电子设备300和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件308包括一个前置摄像头和/或后置摄像头。当设备300处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件310被配置为输出和/或输入音频信号。例如,音频组件310包括一个麦克风(MIC),当电子设备300处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器304或经由通信组件316发送。在一些实施例中,音频组件310还包括一个扬声器,用于输出音频信号。
I/O接口312为处理组件302和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件314包括一个或多个传感器,用于为电子设备300提供各个方面的状态评估。例如,传感器组件314可以检测到设备300的打开/关闭状态,组件的相对定位,例如所述组件为电子设备300的显示器和小键盘,传感器组件314还可以检测电子设备300或电子设备300一个组件的位置改变,用户与电子设备300接触的存在或不存在,电子设备300方位或加速/减速和电子设备300的温度变化。传感器组件314可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件314还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件314还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件316被配置为便于电子设备300和其他设备之间有线或无线方式的通信。电子设备300可以接入基于通信标准的无线网络,如WiFi,运营商网络(如2G、3G、4G或5G),或它们的组合。在一个示例性实施例中,通信组件316经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件316还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备300可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的存储介质,例如包括指令的存储器304,上述指令可由电子设备300的处理器320执行以完成上述方法。可选地,存储介质可以是非临时性计算机可读存储介质,例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
图6是根据一示例性实施例示出的一种用于相机定位的电子设备400的框图。例如,电子设备400可以被提供为一服务器。参照图6,电子设备400包括处理组件422,其进一步包括一个或多个处理器,以及由存储器432所代表的存储器资源,用于存储可由处理组件422的执行的指令,例如应用程序。存储器432中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件422被配置为执行指令,以执行上述的任意一种相机定位方法。
电子设备400还可以包括一个电源组件426被配置为执行电子设备400的电源管理,一个有线或无线网络接口450被配置为将电子设备400连接到网络,和一个输入输出(I/O)接口458。电子设备400可以操作基于存储在存储器432的操作系统,例如WindowsServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
本申请公开了A1.一种相机定位方法,包括:
从预设的三维对象数据库中获取与当前视频帧相似度最高的目标图片,并获取所述当前视频帧与所述目标图片匹配的第一特征点;
从所述三维对象数据库中获取每个所述第一特征点的三维坐标;
基于所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第一特征点的二维坐标;
根据每个所述第一特征点的三维坐标和二维坐标,如果获取到所述当前视频帧对应相机的第一位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果;
其中,所述三维对象数据库中包括环绕三维标记对象拍摄的图片数据,基于所述图片数据构建得到的所述三维标记对象的三维模型,以及所述图片数据中每个像素点的三维坐标。
A2.如A1所述的方法,所述从预设的三维对象数据库中获取与当前视频帧相似度最高的目标图片,并获取所述当前视频帧与所述目标图片匹配的第一特征点的步骤,包括:
识别所述当前视频帧中包含的所述三维标记对象的目标区域;
从所述三维对象数据库中获取与所述目标区域相似度最高的目标图片,并获取所述目标区域与所述目标图片匹配的第一特征点。
A3.如A1所述的方法,在所述从所述三维对象数据库中获取每个所述第一特征点的三维坐标的步骤之前,还包括:
获取环绕至少一个三维标记对象拍摄的图片数据,并基于所述图片数据构建所述三维标记对象的三维模型;
基于预设的世界坐标原点,以及所述三维标记对象的三维模型,获取所述图片数据中的每个像素点的三维坐标;
根据所述图片数据、所述三维模型以及所述图片数据中的每个像素点的三维坐标,构建所述三维对象数据库。
A4.如A1所述的方法,在所述基于所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第一特征点的二维坐标的步骤之后,还包括:
如果没有获取到所述当前视频帧对应相机的第一位姿信息,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息;
如果获取到所述当前视频帧对应相机的第二位姿信息,以所述第二位姿信息,作为所述当前视频帧的相机定位结果。
A5、如A1所述的方法,所述根据每个所述第一特征点的三维坐标和二维坐标,如果获取到所述当前视频帧对应相机的第一位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果的步骤,包括:
如果获取到所述当前视频帧对应相机的第一位姿信息,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息;
如果获取到所述当前视频帧对应相机的第二位姿信息,根据所述第一位姿信息和所述第二位姿信息,获取所述当前视频帧的相机定位结果;
如果没有获取到所述当前视频帧对应相机的第二位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果。
A6.如A4或A5所述的方法,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息的步骤,包括:
获取所述当前视频帧与其前一视频帧匹配的特征点,作为第二特征点;
获取在所述三维对象数据库中能够匹配得到三维坐标的第二特征点,作为第三特征点;
根据所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第三特征点的二维坐标;
根据每个所述第三特征点的二维坐标和三维坐标,获取所述当前视频帧对应相机的第二位姿信息。
A7.如A5所述的方法,所述根据所述第一位姿信息和所述第二位姿信息,获取所述当前视频帧的相机定位结果的步骤,包括:
获取所述第一位姿信息对应的重投影误差,并根据所述第一位姿信息对应的重投影误差获取所述第一位姿信息的权重;
获取所述第二位姿信息对应的重投影误差,并根据所述重投影误差获取所述所述第二位姿信息的权重;
根据所述权重对所述第一位姿信息和所述第二位姿信息进行加权求和,得到所述当前视频帧的相机定位结果。
A8.如A1-A5中任一项所述的方法,在所述根据每个所述第一特征点的三维坐标和二维坐标,如果获取到所述当前视频帧对应相机的第一位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果的步骤之后,还包括:
根据所述相机定位结果,调整所述相机对应的显示器中显示的虚拟内容。
本申请还公开了B9.一种相机定位装置,包括:
第一特征点获取模块,被配置为执行从预设的三维对象数据库中获取与当前视频帧相似度最高的目标图片,并获取所述当前视频帧与所述目标图片匹配的第一特征点;
三维坐标获取模块,被配置为执行从所述三维对象数据库中获取每个所述第一特征点的三维坐标;
二维坐标获取模块,被配置为执行基于所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第一特征点的二维坐标;
第一相机定位模块,被配置为执行根据每个所述第一特征点的三维坐标和二维坐标,如果获取到所述当前视频帧对应相机的第一位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果;
其中,所述三维对象数据库中包括环绕三维标记对象拍摄的图片数据,基于所述图片数据构建得到的所述三维标记对象的三维模型,以及所述图片数据中每个像素点的三维坐标。
B10.如B9所述的装置,所述第一特征点获取模块,包括:
目标区域识别子模块,被配置为执行识别所述当前视频帧中包含的所述三维标记对象的目标区域;
第一特征点获取子模块,被配置为执行从所述三维对象数据库中获取与所述目标区域相似度最高的目标图片,并获取所述目标区域与所述目标图片匹配的第一特征点。
B11.如B9所述的装置,所述相机定位装置,还包括:
三维模型构建模块,被配置为执行获取环绕至少一个三维标记对象拍摄的图片数据,并基于所述图片数据构建所述三维标记对象的三维模型;
三维坐标确认模块,被配置为执行基于预设的世界坐标原点,以及所述三维标记对象的三维模型,获取所述图片数据中的每个像素点的三维坐标;
三维对象数据库构建模块,被配置为执行根据所述图片数据、所述三维模型以及所述图片数据中的每个像素点的三维坐标,构建所述三维对象数据库。
B12.如B9所述的装置,所述相机定位装置,还包括:
第二位姿信息获取模块,被配置为执行如果没有获取到所述当前视频帧对应相机的第一位姿信息,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息;
第二相机定位模块,被配置为执行如果获取到所述当前视频帧对应相机的第二位姿信息,以所述第二位姿信息,作为所述当前视频帧的相机定位结果。
B13.如B9所述的装置,所述第一相机定位模块,包括:
第二位姿信息获取子模块,被配置为执行如果获取到所述当前视频帧对应相机的第一位姿信息,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息;
第一相机定位结果获取子模块,被配置为执行如果获取到所述当前视频帧对应相机的第二位姿信息,根据所述第一位姿信息和所述第二位姿信息,获取所述当前视频帧的相机定位结果;
第二相机定位结果获取子模块,被配置为执行如果没有获取到所述当前视频帧对应相机的第二位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果。
B14.如B12所述的装置,所述第二位姿信息获取模块,包括:
第二特征点获取子模块,被配置为执行获取所述当前视频帧与其前一视频帧匹配的特征点,作为第二特征点;
第三特征点获取子模块,被配置为执行获取在所述三维对象数据库中能够匹配得到三维坐标的第二特征点,作为第三特征点;
二维坐标获取子模块,被配置为执行根据所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第三特征点的二维坐标;
位姿信息获取子模块,被配置为执行根据每个所述第三特征点的二维坐标和三维坐标,获取所述当前视频帧对应相机的第二位姿信息。
B15.如B13所述的装置,所述第二位姿信息获取子模块,包括:
第二特征点获取单元,被配置为执行获取所述当前视频帧与其前一视频帧匹配的特征点,作为第二特征点;
第三特征点获取单元,被配置为执行获取在所述三维对象数据库中能够匹配得到三维坐标的第二特征点,作为第三特征点;
二维坐标获取单元,被配置为执行根据所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第三特征点的二维坐标;
第二位姿信息获取单元,被配置为执行根据每个所述第三特征点的二维坐标和三维坐标,获取所述当前视频帧对应相机的第二位姿信息。
B16.如B13所述的装置,所述第一相机定位结果获取子模块,包括:
第一权重获取单元,被配置为执行获取所述第一位姿信息对应的重投影误差,并根据所述第一位姿信息对应的重投影误差获取所述第一位姿信息的权重;
第二权重获取单元,被配置为执行获取所述第二位姿信息对应的重投影误差,并根据所述重投影误差获取所述所述第二位姿信息的权重;
位姿信息融合单元,被配置为执行根据所述权重对所述第一位姿信息和所述第二位姿信息进行加权求和,得到所述当前视频帧对应相机的位姿信息。
B17.如B9-B13中任一项所述的装置,还包括:
虚拟内容调整模块,被配置为执行根据所述相机定位结果,调整所述相机对应的显示器中显示的虚拟内容。
本申请还公开了C18.一种电子设备,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如A1至A8中任一项所述的相机定位方法。
本申请还公开了D19.一种存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得所述电子设备能够执行如A1至A8中任一项所述的相机定位方法。

Claims (19)

1.一种相机定位方法,其特征在于,包括:
从预设的三维对象数据库中获取与当前视频帧相似度最高的目标图片,并获取所述当前视频帧与所述目标图片匹配的第一特征点;
从所述三维对象数据库中获取每个所述第一特征点的三维坐标;
基于所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第一特征点的二维坐标;
根据每个所述第一特征点的三维坐标和二维坐标,如果获取到所述当前视频帧对应相机的第一位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果;
其中,所述三维对象数据库中包括环绕三维标记对象拍摄的图片数据,基于所述图片数据构建得到的所述三维标记对象的三维模型,以及所述图片数据中每个像素点的三维坐标。
2.根据权利要求1所述的方法,其特征在于,所述从预设的三维对象数据库中获取与当前视频帧相似度最高的目标图片,并获取所述当前视频帧与所述目标图片匹配的第一特征点的步骤,包括:
识别所述当前视频帧中包含的所述三维标记对象的目标区域;
从所述三维对象数据库中获取与所述目标区域相似度最高的目标图片,并获取所述目标区域与所述目标图片匹配的第一特征点。
3.根据权利要求1所述的方法,其特征在于,在所述从所述三维对象数据库中获取每个所述第一特征点的三维坐标的步骤之前,还包括:
获取环绕至少一个三维标记对象拍摄的图片数据,并基于所述图片数据构建所述三维标记对象的三维模型;
基于预设的世界坐标原点,以及所述三维标记对象的三维模型,获取所述图片数据中的每个像素点的三维坐标;
根据所述图片数据、所述三维模型以及所述图片数据中的每个像素点的三维坐标,构建所述三维对象数据库。
4.根据权利要求1所述的方法,其特征在于,在所述基于所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第一特征点的二维坐标的步骤之后,还包括:
如果没有获取到所述当前视频帧对应相机的第一位姿信息,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息;
如果获取到所述当前视频帧对应相机的第二位姿信息,以所述第二位姿信息,作为所述当前视频帧的相机定位结果。
5.根据权利要求1所述的方法,其特征在于,所述根据每个所述第一特征点的三维坐标和二维坐标,如果获取到所述当前视频帧对应相机的第一位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果的步骤,包括:
如果获取到所述当前视频帧对应相机的第一位姿信息,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息;
如果获取到所述当前视频帧对应相机的第二位姿信息,根据所述第一位姿信息和所述第二位姿信息,获取所述当前视频帧的相机定位结果;
如果没有获取到所述当前视频帧对应相机的第二位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果。
6.根据权利要求4或5所述的方法,其特征在于,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息的步骤,包括:
获取所述当前视频帧与其前一视频帧匹配的特征点,作为第二特征点;
获取在所述三维对象数据库中能够匹配得到三维坐标的第二特征点,作为第三特征点;
根据所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第三特征点的二维坐标;
根据每个所述第三特征点的二维坐标和三维坐标,获取所述当前视频帧对应相机的第二位姿信息。
7.根据权利要求5所述的方法,其特征在于,所述根据所述第一位姿信息和所述第二位姿信息,获取所述当前视频帧的相机定位结果的步骤,包括:
获取所述第一位姿信息对应的重投影误差,并根据所述第一位姿信息对应的重投影误差获取所述第一位姿信息的权重;
获取所述第二位姿信息对应的重投影误差,并根据所述重投影误差获取所述所述第二位姿信息的权重;
根据所述权重对所述第一位姿信息和所述第二位姿信息进行加权求和,得到所述当前视频帧的相机定位结果。
8.根据权利要求1-5中任一项所述的方法,其特征在于,在所述根据每个所述第一特征点的三维坐标和二维坐标,如果获取到所述当前视频帧对应相机的第一位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果的步骤之后,还包括:
根据所述相机定位结果,调整所述相机对应的显示器中显示的虚拟内容。
9.一种相机定位装置,其特征在于,包括:
第一特征点获取模块,被配置为执行从预设的三维对象数据库中获取与当前视频帧相似度最高的目标图片,并获取所述当前视频帧与所述目标图片匹配的第一特征点;
三维坐标获取模块,被配置为执行从所述三维对象数据库中获取每个所述第一特征点的三维坐标;
二维坐标获取模块,被配置为执行基于所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第一特征点的二维坐标;
第一相机定位模块,被配置为执行根据每个所述第一特征点的三维坐标和二维坐标,如果获取到所述当前视频帧对应相机的第一位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果;
其中,所述三维对象数据库中包括环绕三维标记对象拍摄的图片数据,基于所述图片数据构建得到的所述三维标记对象的三维模型,以及所述图片数据中每个像素点的三维坐标。
10.根据权利要求9所述的装置,其特征在于,所述第一特征点获取模块,包括:
目标区域识别子模块,被配置为执行识别所述当前视频帧中包含的所述三维标记对象的目标区域;
第一特征点获取子模块,被配置为执行从所述三维对象数据库中获取与所述目标区域相似度最高的目标图片,并获取所述目标区域与所述目标图片匹配的第一特征点。
11.根据权利要求9所述的装置,其特征在于,所述相机定位装置,还包括:
三维模型构建模块,被配置为执行获取环绕至少一个三维标记对象拍摄的图片数据,并基于所述图片数据构建所述三维标记对象的三维模型;
三维坐标确认模块,被配置为执行基于预设的世界坐标原点,以及所述三维标记对象的三维模型,获取所述图片数据中的每个像素点的三维坐标;
三维对象数据库构建模块,被配置为执行根据所述图片数据、所述三维模型以及所述图片数据中的每个像素点的三维坐标,构建所述三维对象数据库。
12.根据权利要求9所述的装置,其特征在于,所述相机定位装置,还包括:
第二位姿信息获取模块,被配置为执行如果没有获取到所述当前视频帧对应相机的第一位姿信息,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息;
第二相机定位模块,被配置为执行如果获取到所述当前视频帧对应相机的第二位姿信息,以所述第二位姿信息,作为所述当前视频帧的相机定位结果。
13.根据权利要求9所述的装置,其特征在于,所述第一相机定位模块,包括:
第二位姿信息获取子模块,被配置为执行如果获取到所述当前视频帧对应相机的第一位姿信息,根据所述当前视频帧的前一视频帧,获取所述当前视频帧对应相机的第二位姿信息;
第一相机定位结果获取子模块,被配置为执行如果获取到所述当前视频帧对应相机的第二位姿信息,根据所述第一位姿信息和所述第二位姿信息,获取所述当前视频帧的相机定位结果;
第二相机定位结果获取子模块,被配置为执行如果没有获取到所述当前视频帧对应相机的第二位姿信息,以所述第一位姿信息作为所述当前视频帧的相机定位结果。
14.根据权利要求12所述的装置,其特征在于,所述第二位姿信息获取模块,包括:
第二特征点获取子模块,被配置为执行获取所述当前视频帧与其前一视频帧匹配的特征点,作为第二特征点;
第三特征点获取子模块,被配置为执行获取在所述三维对象数据库中能够匹配得到三维坐标的第二特征点,作为第三特征点;
二维坐标获取子模块,被配置为执行根据所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第三特征点的二维坐标;
位姿信息获取子模块,被配置为执行根据每个所述第三特征点的二维坐标和三维坐标,获取所述当前视频帧对应相机的第二位姿信息。
15.根据权利要求13所述的装置,其特征在于,所述第二位姿信息获取子模块,包括:
第二特征点获取单元,被配置为执行获取所述当前视频帧与其前一视频帧匹配的特征点,作为第二特征点;
第三特征点获取单元,被配置为执行获取在所述三维对象数据库中能够匹配得到三维坐标的第二特征点,作为第三特征点;
二维坐标获取单元,被配置为执行根据所述当前视频帧,以及所述当前视频帧对应的二维坐标原点,获取每个所述第三特征点的二维坐标;
第二位姿信息获取单元,被配置为执行根据每个所述第三特征点的二维坐标和三维坐标,获取所述当前视频帧对应相机的第二位姿信息。
16.根据权利要求13所述的装置,其特征在于,所述第一相机定位结果获取子模块,包括:
第一权重获取单元,被配置为执行获取所述第一位姿信息对应的重投影误差,并根据所述第一位姿信息对应的重投影误差获取所述第一位姿信息的权重;
第二权重获取单元,被配置为执行获取所述第二位姿信息对应的重投影误差,并根据所述重投影误差获取所述所述第二位姿信息的权重;
位姿信息融合单元,被配置为执行根据所述权重对所述第一位姿信息和所述第二位姿信息进行加权求和,得到所述当前视频帧对应相机的位姿信息。
17.根据权利要求9-13中任一项所述的装置,其特征在于,还包括:
虚拟内容调整模块,被配置为执行根据所述相机定位结果,调整所述相机对应的显示器中显示的虚拟内容。
18.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如权利要求1至8中任一项所述的相机定位方法。
19.一种存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得所述电子设备能够执行如权利要求1至8中任一项所述的相机定位方法。
CN201910964357.4A 2019-10-11 2019-10-11 相机定位方法、装置、电子设备及存储介质 Active CN110853095B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910964357.4A CN110853095B (zh) 2019-10-11 2019-10-11 相机定位方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910964357.4A CN110853095B (zh) 2019-10-11 2019-10-11 相机定位方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN110853095A CN110853095A (zh) 2020-02-28
CN110853095B true CN110853095B (zh) 2021-06-18

Family

ID=69596211

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910964357.4A Active CN110853095B (zh) 2019-10-11 2019-10-11 相机定位方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN110853095B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113643356B (zh) * 2020-04-27 2024-05-28 北京达佳互联信息技术有限公司 相机位姿确定、虚拟物体显示方法、装置及电子设备
CN112001947A (zh) * 2020-07-30 2020-11-27 海尔优家智能科技(北京)有限公司 拍摄位置的确定方法及装置、存储介质、电子装置
CN112621753B (zh) * 2020-12-09 2022-12-06 浙江大华技术股份有限公司 机器人定位方法、电子设备及存储介质
CN112669381B (zh) * 2020-12-28 2021-09-21 北京达佳互联信息技术有限公司 一种位姿确定方法、装置、电子设备及存储介质
CN113706620B (zh) * 2021-10-22 2022-03-22 杭州迦智科技有限公司 一种基于参照对象的定位方法、定位装置、可移动平台
WO2023198088A1 (zh) * 2022-04-12 2023-10-19 深圳市普渡科技有限公司 机器人的位姿确定方法、装置、机器人以及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105469405A (zh) * 2015-11-26 2016-04-06 清华大学 基于视觉测程的同时定位与地图构建方法
CN107564062A (zh) * 2017-08-16 2018-01-09 清华大学 位姿异常检测方法及装置
CN108022265A (zh) * 2016-11-01 2018-05-11 狒特科技(北京)有限公司 红外相机位姿确定方法、设备及系统
CN109829947A (zh) * 2019-02-25 2019-05-31 北京旷视科技有限公司 位姿确定方法、托盘装载方法、装置、介质及电子设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200073222A (ko) * 2017-09-18 2020-06-23 엘리먼트, 인크. 모바일 인증에서 스푸핑을 검출하기 위한 방법, 시스템 및 매체
US10769411B2 (en) * 2017-11-15 2020-09-08 Qualcomm Technologies, Inc. Pose estimation and model retrieval for objects in images
CN109697753B (zh) * 2018-12-10 2023-10-03 智灵飞(北京)科技有限公司 一种基于rgb-d slam的无人机三维重建方法、无人机

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105469405A (zh) * 2015-11-26 2016-04-06 清华大学 基于视觉测程的同时定位与地图构建方法
CN108022265A (zh) * 2016-11-01 2018-05-11 狒特科技(北京)有限公司 红外相机位姿确定方法、设备及系统
CN107564062A (zh) * 2017-08-16 2018-01-09 清华大学 位姿异常检测方法及装置
CN109829947A (zh) * 2019-02-25 2019-05-31 北京旷视科技有限公司 位姿确定方法、托盘装载方法、装置、介质及电子设备

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Combining Kinect and PnP for camera pose estimation;Shu Zhang等;《2015 8th International Conference on Human System Interaction (HSI)》;20150730;357-361 *
单目相机姿态解算(OpenCV);chenmohousuiyue;《https://blog.csdn.net/chenmohousuiyue/article/details/78157509》;20171004;1-9 *
基于机器视觉的增强现实盲区装配方法;王增磊等;《西北工业大学学报》;20190615;第37卷(第03期);496-502 *

Also Published As

Publication number Publication date
CN110853095A (zh) 2020-02-28

Similar Documents

Publication Publication Date Title
CN110853095B (zh) 相机定位方法、装置、电子设备及存储介质
US11636653B2 (en) Method and apparatus for synthesizing virtual and real objects
EP3163498B1 (en) Alarming method and device
US12020385B2 (en) Augmented reality processing method, storage medium, and electronic device
EP3179408A2 (en) Picture processing method and apparatus, computer program and recording medium
CN109889724B (zh) 图像虚化方法、装置、电子设备及可读存储介质
CN109584362B (zh) 三维模型构建方法及装置、电子设备和存储介质
CN111105454B (zh) 一种获取定位信息的方法、装置及介质
CN113643356B (zh) 相机位姿确定、虚拟物体显示方法、装置及电子设备
CN107958223B (zh) 人脸识别方法及装置、移动设备、计算机可读存储介质
CN110148178A (zh) 相机定位方法、装置、终端及存储介质
CN106503682B (zh) 视频数据中的关键点定位方法及装置
CN112348933A (zh) 动画生成方法、装置、电子设备及存储介质
US11409241B2 (en) Method and apparatus for adjusting holographic content and computer readable storage medium
CN114581525A (zh) 姿态确定方法及装置、电子设备和存储介质
CN113345000A (zh) 深度检测方法及装置、电子设备和存储介质
CN112767541A (zh) 三维重建方法及装置、电子设备和存储介质
CN113642551A (zh) 指甲关键点检测方法、装置、电子设备及存储介质
CN113220928A (zh) 一种图像搜索方法、装置、电子设备及存储介质
CN111223114B (zh) 一种图像区域的分割方法、装置及电子设备
CN113724300A (zh) 图像配准方法、装置、电子设备及存储介质
CN109948689B (zh) 一种视频生成方法、装置、电子设备及存储介质
CN110428492B (zh) 三维唇部重建方法、装置、电子设备及存储介质
CN110060355B (zh) 界面显示方法、装置、设备及存储介质
CN109376588B (zh) 一种人脸测光点选取方法、装置和拍摄设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant