CN100578141C - 放置信息估计方法以及信息处理装置 - Google Patents
放置信息估计方法以及信息处理装置 Download PDFInfo
- Publication number
- CN100578141C CN100578141C CN200510068071A CN200510068071A CN100578141C CN 100578141 C CN100578141 C CN 100578141C CN 200510068071 A CN200510068071 A CN 200510068071A CN 200510068071 A CN200510068071 A CN 200510068071A CN 100578141 C CN100578141 C CN 100578141C
- Authority
- CN
- China
- Prior art keywords
- mark
- partiald
- placement information
- orientation
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
提供了一种用于估计其放置信息具有不同信息量的数个类型的标记的放置信息的方法,从多个图像上检测出数个类型的标记,根据多个图像被拍摄时摄像装置的位置和方位的近似值计算出所检测的标记被投影在图像表面上的位置,得到标记放置信息的校正值以减少所检测的标记在图像表面的位置和所计算出的标记的投影位置之间的误差量,校正标记的放置信息,并且通过重复这些处理来计算数个类型的标记的放置信息。
Description
技术领域
本发明涉及一种用于估计位于三维空间内的标记的放置信息的方法。
背景技术
近年来,对于MR(混合现实)技术的研究积极地进行着。MR技术用于将现实空间和计算机所生成的虚拟空间进行无缝地合成。在MR技术中,将虚拟空间叠加到现实空间的AR(增加现实;也称为增强现实)技术尤其受到关注。
一种在其上用AR技术显示图像的图像显示设备是通过一个视频透视方法,其将计算机根据稍后描述的摄像装置的位置和方位生成的关于虚拟空间(虚拟物体,字符信息,或其它,利用计算机图像绘成的)的图像叠加到用例如摄像机的摄像装置拍摄的现实空间的图像上而获得的合成图像,或是用光学透视方法,其将一个根据观察者的视角位置和方位而提供的虚拟空间的图像显示在设置于观察者头部的光学透视型显示器上,来实现的。
可以期待在各种领域里应用AR技术,例如:外科辅助工具,可以将病人身体内的状态叠加到体表;建筑模拟,将虚拟建筑叠加到空地的图像上;装配辅助工具,将安装机械或其它设施等的安装程序以及布线进行叠加。
AR技术中有待解决的最重要的问题就是如何精确地将现实空间和虚拟空间对齐,而且直到目前,已经试验过了很多的方法。AR技术中的对齐问题所对应的就是在视频透视方法中获得摄像装置在场景中(也就是,在参考坐标系中)的位置和方位的问题。同样地,在光学透视方法中,对齐问题对应的就是获得观察者或是显示设备在场景中的位置和方位的问题。
解决前一个问题的一个常用方法就是在摄像装置所拍摄的图像内的标记的投影位置以及标记在参考坐标系中的位置之间的对应的基础上,在场景上排放人工标记或是制造自然特征点标记,以得到摄像装置在参考坐标系中的位置和方位。同样,解决后一个问题的一个常用方法就是将摄像装置设置在待测的目标上(例如,观察者的头上或显示器上),采用和前述方法相同的办法得到摄像装置的位置和方位,并且因此获得待测目标的位置和方位。
下面参考图1所作的描述是关于位置-方位测量设备的传统例子,其用于通过将从摄像装置拍摄的图像上所检测出来的一个标记的二维坐标和该标记在参考坐标系中的三维位置进行联系从而测量后面所描述的摄像装置的位置和方位。如图1所示,在本常规的例子中,位置-方位测量设备100包括标记检测单元110以及位置-方位计算单元120,并且与摄像装置130相连。
同样,在参考坐标系中的位置为已知的K个标记QK(K=1,2等等到K)被排放在现实空间里作为用以获得摄像装置130的位置和方位的标记。图1的例子表示排放了四个标记Q1,Q2,Q3和Q4的情形。其中,三个标记Q1,Q3和Q4是在摄像装置130的视野范围之内并且标记Q2是在摄像装置130的视野范围之外。
标记QK可以是任何形状的,例如一个具有和其它标记不同的色彩的圆形标记,或其类似,只要拍摄图像内的标记的投影位置可以被检测出来,并且该标记可以被识别出来。举例说,可以使用三维空间内的自然特征点,且这种点可以利用模板匹配在拍摄图像内检测出来。从摄像装置130输出的图像被输入到位置-方位测量设施100。标记检测单元110输入摄像装置130拍摄的图像,并且检测出在图像上拍摄的标记QK的图像坐标。举例说,在标记QK中的每个标记都是由色彩各异的一圆形标记组成的情况下,标记检测单元110从输入的图像上检测到对应于每个标记色彩的区域,并且将其重心取作标记的检测坐标。
进一步,标记检测单元110将每个被检测的标记Qkn的图像坐标uMkn及其标识符kn输出到位置-方位计算单元120。这里,n(=1,2等等到N)是代表被检测标记的序列号的符号,并且N代表被检测标记的总数。例如,在图1的情况下,N=3,所以输出识别符k1=1,k2=3,k3=4以及相对应的图像坐标uMk1,uMk2,以及uMk3。
位置方位计算单元120根据作为预先已知信息的每个所检测到的标记Qkn的图像坐标uMkn以及标记Qkn在参考坐标系中的位置之间的关系,计算出摄像装置130的位置和方位。根据标记的三维坐标以及图像坐标计算摄像装置的位置和方位的方法在照相测量法领域内已经被作为旧技术而提出过了(例如,参见R.M.Haralick,C.Lee,K.Ottenberg,和M.Nolle所著″Review and analysis of solutions of thethree point perspective pose estimation problem″,Int′l.J.ComputerVision,vol.13,no.3,pp.331-356,1994以及M.A.Fischler和R.C.Bolles所著″Random sample consensus:a paradigm for model fittingwith applications to image analysis and automated cartography″,Comm.ACM,vol.24,no.6,pp.381-395,1981)。位置-方位计算单元120使用了例如R.M.Haralick,C.Lee,K.Ottenberg,和M.Nolle所著″Reviewand analysis of solutions of the three point perspective pose estimationproblem″,Int′l.J.Computer Vision,vol.13,no.3,pp.331-356,1994中所描述的方法计算摄像装置130的位置和方位。
注意到的是已经有描述是关于使用了作为三维空间内的多个点的标记(以后,称为“点标记”)的情形,但是使用了具有已知尺寸的正方形标记(以后,称为“正方形标记”)来计算摄像装置的位置和方位的计算方法已经存在,例如,J.Rekimoto所著“Configurationmethod of augmented reality using 2-D matrix code”,Interactive Systemand Software IV,Kindai Kagakusha,1996以及Kato,M.Billinghurst,Asano和Tachibana所著“Augmented reality based on marker tracingand calibration thereof”,Japan Virtual Reality Academic Journal,Vol.4,no.4,pp.607-616,1999所公开的中提出的。一种使用了正方形标记和点标记的结合来计算摄像装置的位置和方位的计算方法已经被提出了,例如H.Kato,M.Billinghurst,I.Pouprev,K.Imamoto和K.Tachibana所著“Virtual object manipulation on a table-top ARenvironment”,Proc.ISAR2000,pp111-119,2000中所公开的。对于这种计算方法,点标记具有一个优势在于点标记甚至可以被设置在一个狭窄的地方,正方形标记的优势在于容易识别,并且可以仅通过一个标记就得到摄像装置的位置和方位,这是因为一个标记就包含了足够的信息,这样就可以充分地利用这两种标记。
根据前面所述的方法,在由摄像装置所拍摄的图像的基础上,过去就可以获得摄像装置的位置和方位。
另一方面,已经有一种安排,其中具有6等级自由度的位置和方位传感器,例如磁性传感器,超声波传感器,或其类似,被附着在用作待测目标的摄像装置上,并且伴随使用上述的图像处理的标记检测方法来对摄像装置的位置和方位进行测量,如日本公开专利No.11-084307,日本公开专利No.2000-041173以及A.State,G.Hirota,D.T.Chen,W.F.Garrett和M.A.Livington所著“Superior augmentedreality registration by intergrating landmark tracking and magnetictracting”,Proc.SIGGRAPH’96,pp.429-438,1996所公开的。传感器的输出的精确度随着测量范围而发生变化,但是可以鲁棒地得到,所以同时使用传感器和图像处理的方法较仅使用图像处理的方法而言可以改进其鲁棒性。
对于使用了标记的对齐方法,为了获得作为待测目标的摄像装置在参考坐标系中的位置和方位,就需要知道在点标记的情况下其在参考坐标系中的位置以及在正方形标记的情况下其在参考坐标系中的位置和方位。在正方形标记的情况下,正方形标记本身就被经常用作坐标系的参考而无需单独提供参考坐标系,但是在使用了多个正方形标记的情况下,就需要知道相互的位置和方位关系,因此,在需要使用参考坐标系这一点上没有差异。
标记的位置和方位可以由手工使用测量卷尺,标尺,或量角器而测得,或通过勘探仪器,但是利用图像的测量技术已经被用来改进精确度以及节约时间。点标记的位置可以通过叫做光束调整法的方法进行测量。光束调整法是一种方法,其中大量的点标记被摄像装置拍摄,通过重复计算而获得拍摄每个图像的摄像装置的位置和方位以及点标记的位置,因而图像上所实际观察到的标记的投影位置,与由摄像装置的位置和方位以及标记的位置而计算出来的投影位置之间的误差,就可以被减到最小。
同样,用于测量排放在三维空间内的多个正方形标记的位置和方位的方法已经被公开在G.Baratoff,A.Neubeck和H.Regenbrecht所著″Interactive multi-marker calibration for augmented realityapplications″,Proc.ISMAR2002,pp.107-116,2002。对于G.Baratoff,A.Neubeck和H.Regenbrecht所著″Interactive multi-marker calibrationfor augmented reality applications″,Proc.ISMAR2002,pp.107-116,2002,通过使用一个方法,其中排放在三维空间中的正方形标记的大量图像被拍摄,得到拍摄每个图像的摄像装置的位置和方位以及每个正方形标记的位置和方位,并且进行重复计算故而投影误差可以被减到最小。
对于前述的用于测量标记的位置和方位的传统方法,点标记的位置,以及“平面”标记例如正方形标记的位置和方位不能同时得到。更具体地,具有不同信息量的放置信息的多重类型标记,例如具有放置信息,也就是三维空间内的点的位置的标记(例如,点标记),具有放置信息,也就是三维空间内的位置和方位的标记(例如,平面标记)以及等等,其放置信息不能同时获得。结果是,标记的放置信息例如点标记的位置,以及平面标记的位置和方位,以及等等就需要对于每个类型的标记而独立获得。相应地,即使不同类型的标记(例如,点标记和平面标记)在同一个图像上被拍摄,也无法获得每个类型的标记的放置信息以及摄像装置的位置和方位以便将投影误差减到最小,因此不能够精确地获得标记的放置信息。
发明内容
本发明根据前述的问题作出,并且提供了一种方法通过使用摄像装置拍摄包括标记的场景并同时获得其放置信息具有不同信息量的多个类型的标记的放置信息,从而精确地获得各种类型的标记的放置信息。
同样,本发明提供了一种方法用于通过使用摄像装置拍摄包括标记的场景并交替地重复获得其放置信息具有不同信息量的多个类型的标记的放置信息,从而精确地获得各种类型标记的放置信息。
为达到这个目的,根据本发明的第一个方面,一种标记放置信息估计方法,用于估计其放置信息具有不同信息量的数个类型的标记的放置信息,所述方法包括:
标记检测步骤,用于从其上拍摄有包括标记的场景的数个图像上检测图像坐标系中的数个类型的标记的位置;
标记投影位置计算步骤,用于根据所述数个图像被摄像单元拍摄时摄像单元在参考坐标系中的位置和方位的近似值以及各种类型的标记在参考坐标系中的放置信息的近似值,计算数个类型的标记中的每一个被投影在图像表面上的位置;以及
标记放置信息计算步骤,用于根据在所述标记检测步骤中获得的图像坐标系中的所检测到的数个类型的标记的位置和在所述标记投影位置计算步骤中获得的图像表面上的数个类型的标记的投影位置,计算参考坐标系中数个类型的标记的放置信息。
根据本发明的第二个方面,一种放置信息估计设备,用于估计其放置信息具有不同信息量的数个类型的标记的放置信息,所述的设备包括:
标记检测装置,用于从其上拍摄有包括标记的场景的数个图像上检测数个类型的标记在图像坐标系中的位置;
标记投影位置计算装置,用于根据所述数个图像被摄像单元拍摄时摄像单元在参考坐标系中的位置和方位的近似值以及各种类型的标记在参考坐标系中的放置信息的近似值,计算数个类型的标记中的每一个被投影在图像表面上的位置;
以及标记放置信息计算装置,用于根据由所述标记检测装置获得的图像坐标系中的所检测到的数个类型的标记的位置和由所述标记投影位置计算装置获得的图像表面上数个类型的标记的投影位置,计算参考坐标系中数个类型的标记的放置信息。
根据本发明的第一个方面,通过使用摄像装置对包括标记在内的场景进行拍摄并同时获得其放置信息具有不同信息量的多个类型的标记的放置信息,从而可以精确地获得各种类型的标记的放置信息。
同样,根据本发明的第二个方面,通过赋予在图像的检测结果中具有较高可靠性的标记以较重的权重可以精确地获得各种类型的标记的放置信息。
同样,根据本发明的第三个方面,通过使用一摄像装置对包括标记在内的场景进行拍摄以及一个接一个地重复获得其放置信息具有不同信息量的多个类型的标记来精确地获得各种类型标记的放置信息。
本发明的其它特征和优势将在以下结合附图的对最优实施例的描述中变得明显,附图中贯穿图形的同样的参考符号所指的是相同或相似的部分。
附图说明
图1表示的是一个传统的位置-方位测量设备的示意图。
图2表示的是根据第一实施例的标记位置-方位估计设备的功能性构造方框图。
图3表示的是根据第一实施例的标记位置-方位估计设备的硬件构造方框图。
图4A表示的是第一实施例所使用的点标记的示意图。
图4B表示的是第一实施例所使用的平面标记的示意图。
图5表示的是照相摄像机坐标系和图像坐标系的示意图。
图6表示的是共线条件方程的示意图。
图7表示的是根据第一实施例获得点标记的位置以及正方形标记的位置和方位的程序的流程图。
图8A和8B表示的是由三维空间内的一个点的位置来代表的一个标记的示意图。
图9A和9B表示的是由三维空间内的一个位置和方位来代表的一个标记的示意图。
图10表示的是根据第二实施例获得点标记的位置以及正方形标记的位置和方位的程序的流程图。
图11表示的是根据第三实施例的标记位置-方位估计设备的功能性构造的方框图。
图12表示的是照相摄像机位置-方位数据文件格式的一个例子的示意图。
图13表示的是根据第四实施例的标记位置-方位估计系统的处理程序的流程图。
图14表示的是标记文件格式的一个例子的示意图。
具体实施方式
以下参考附图对本发明的最优实施例进行描述。
第一实施例
图2表示的是根据本实施例的标记位置-方位估计设备2的功能性构造的方框图。摄像单元210是照相摄像机,拍摄排放有标记的场景。图像捕捉单元220将摄像单元210所拍摄的图像输入到计算机中。标记检测-识别单元230从图像捕捉单元220输入到计算机中的图像上检测出标记,并且识别每个检测到的标记。标记位置-方位计算单元240在标记检测-识别单元230的标记检测结果的基础上计算每个标记的位置和方位。
图3表示的是根据本实施例的标记位置-方位估计设备2的硬件构造的方框图。图3所示的硬件构造具有和普通个人计算机相同的构造,但是更进一步和图像捕捉设施310以及照相摄像机311相连。该图像捕捉设备310用于将照相摄像机311所拍摄的图像输入到计算机,并且对应着图像捕捉单元220。图像捕捉设备310的一个例子是视频捕捉板,但是并不限于此只要可以输入照相摄像机所拍摄的图像即可。CPU301用作标记检测-识别单元230,以及通过执行存储在未显示的光学介质、外部存储设备或类似介质上的程序而用作标记位置-方位计算单元240。
图3所示的标记位置-方位估计设备2的硬件构造还可以包括其它的传统计算机组件,例如与头戴式显示器(HMD)304进行通信的一个图形加速器302、存储设备,例如磁盘305、只读存储器(ROM)306、随机存取存储器(RAM)307以及一个或多个输入设备,例如键盘309以及鼠标308。
接着,对具有前述的构造的根据本实施例的标记位置-方位估计设备2的操作的概况进行描述。
首先,对本实施例所使用的标记进行描述。图4A和4B表示的是本实施例所要使用的标记的示意图。图4A显示了点标记,其放置信息由三维空间内的一个点的位置来代表。我们可以假设点标记具有一个单色的圆形以便在图像内被检测出来,并且每个点标记的重心代表着其在三维空间内的位置。图4B表示了一个平面标记,其放置信息由三维空间内的一个平面的位置和方位来代表。本实施例使用了正方形标记作为平面标记,但是平面标记并不限于正方形标记,且可以使用任何形状的标记只要标记具有一个平面形状的外形。我们可以假设一个正方形的中心,也就是,两个对角线的交点,代表着三维空间的一个正方形标记的位置。如图4B所示,我们可以假设正方形的法线方向被取作Z轴,正方形标记的坐标系就被指定了因此x轴和y轴可以平行于两边,并且正方形标记坐标系在参考坐标系中的方位被作为正方形标记的方位。本实施例中的正方形标记用一个黑框围起来因此可以从一个图像上轻易地被检测出来,所以位于黑框内的一个正方形就被取作正方形标记。
(1、标记的拍摄)
用户使用摄像单元210拍摄其上排放有标记的场景的许多图像。所拍摄的图像被图像捕捉单元220输入到计算机。
(2、标记的检测和识别)
标记检测-识别单元230从输入到计算机的拍摄图像上检测标记,并且对其进行识别。这里,术语“标记的检测”意味着获得二维图像上的标记的图像坐标。在点标记的情况下,就获得图像上的重心的图像坐标,并且,在正方形标记的情况下,就获得每一个顶点的图像坐标。标记的图像坐标可以自动获得,或可以手工指定,例如,通过用户使用鼠标点击图像。在自动获得点标记位置的情况下,例如,具有和标记相同色彩的像素基于该像素是否属于对应于该色彩的一个YUV色彩空间图像的特定区域而被提取出来,通过给具有同样色彩而相连的像素进行标注从而获得标记区域,并且计算出图像内的标记区域的重心。同样,在自动获得正方形标记的各个顶点位置的情况下,例如,输入图像被转换成二进制图像,正方形标记的黑框区域被检测,并且获得记载该黑框区域的一个四边形。
术语“标记的识别”意味着将图像内的有待检测的标记作为唯一的标记进行识别。标记的识别可以被自动执行,或是由用户手工执行。在自动识别一个点标记的情况下,例如,使用了具有不同色彩的多个标记,而且识别是在标记检测的同时在标记区域的标注色彩的基础上进行的。同样,在自动识别正方形标记的情况下,例如,通过赋予每个标记唯一的形状来进行识别。
(3、标记位置和方位的计算)
标记在参考坐标系中的位置和方位是在该标记的检测和识别结果的基础上计算出来的。首先,进行关于透视投影变换的描述。图5显示的是照相摄像机坐标系和图像坐标系的示意图。我们可以假设观察轴和图像表面的交点被取作图像坐标系的原点Oi,图像的水平线方向被取作xi轴,并且图像的垂直线方向被取作yi轴。同样,我们可以假设照相摄像机坐标系的原点Oc和图像表面的焦距为f,照相摄像机坐标系的zc轴取的是观察轴的反向,在平行于图像的水平线方向的方向上取xc轴,并且在平行于图像的垂直方向的方向上取yc轴。
根据透视投影变换,照相摄像机坐标系上的点xc=[xcyczc]t所投影的点的图像坐标u=[uxuy]t如表达式2所示。
对于本实施例,我们可以假设不存在透镜畸变,或是已经被校正了,并且该照相摄像机是一个针孔照相摄像机。如图6所示,表达式2代表的是空间内的一个点,该点在图像上的投影点以及照相摄像机位置(观察位置)是位于同一条直线上的,并且被称为共线条件。
在参考坐标系中,我们可以假设照相摄像机位置为t=[txtytz]t,并且照相摄像机方位(现实中,参考坐标系相对于照相摄像机坐标系的方位)是ω=[ωxωyωz]。注意到ω是一个三自由度方位的表达式,该方位由旋转轴向矢量和旋转角表示。如果旋转角是ra,那么由ω代表的ra就如表达式(3)所示
同样,如果旋转轴向矢量是r=[rxryrz]t,r和ω之间的关系就由表达式4所显示的来表示。
[ωxωyωz]=[rarxraryrarz] ···(4)
ω(旋转角ra和旋转轴向矢量r)以及3×3旋转变换矩阵R之间的关系由表达式5所显示的来代表。
参考坐标系中的点xw=[xwywzw]t的照相摄像机坐标xc由t和R来代表,如表达式(6)所示。
根据表达式(2)和(6),也就是,透视投影变换,所示参考坐标系中的点xw=[xwywzw]t投影在图像上的点u=[uxuy]t,如表达式(7)所示。
理想地,从表达式(7)计算出来的基于t,ω,xw的投影位置(计算位置)和所观察到的位置(观察位置)相同。相应地,如果假设在图像水平方向上的投影位置和观察位置之间的误差是F,垂直方向上的误差为G,并且观察位置是uo=[uoxuoy]t,则F和G都变成零,如表达式(8)所示。
F和G是关于在参考坐标系中的照相摄像机位置t,照相摄像机方位ω,以及观察目标点的位置xw的函数。当所观察的主体是点标记时,如表达式(9)所示,F和G就变为关于在参考坐标系中的照相摄像机位置t,照相摄像机方位ω,以及点标记的位置xw的函数。
F(tx,ty,tz,ωx,ωy,ωz,xw,yw,zw)=0
G(tx,ty,tz,ωx,ωy,ωz,xw,yw,zw)=0 ···(9)
另一方面,正方形标记由在参考坐标系中的位置tm=[tmxtmytmz]t以及关于参考坐标系的方位ωm=[ωmxωmyωmz](我们可以假设对应着ωm的3×3旋转变换矩阵为Rm)来描述。我们可以假设正方形标记的顶点在正方形标记坐标系中的位置为xm=[xmymO]t。而正方形标记的顶点在参考坐标系中的位置xw就变成了tm和ωm(Rm)的函数,如表达式(10)所示。
相应地,如表达式(11)所示,F和G变成了关于照相摄像机位置t,照相摄像机方位ω,正方形标记的位置tm,以及正方形标记的方位ωm的函数。
F(tx,ty,tz,ωx,ωy,ωz,tmx,tmy,tmz,ωmx,ωmy,ωmz)=0
G(tx,ty,tz,ωx,ωy,ωz,tmx,tmy,tmz,ωmx,ωmy,ωmz)=0 ···(11)
表达式(9)和(11)是关于照相摄像机位置和方位,以及标记的位置和方位的非线性表达式。相应地,线性化是在关于照相摄像机的位置和方位,以及标记的位置和方位的近似值的相邻处运用Tayler展开式展开到第一级而进行的,并且通过重复计算而获得照相摄像机的位置和方位,以及标记的位置和方位。
表达式(12)和(13)是将对应的表达式(9)和(10)进行线性化而分别得到的。这里,Δtx,Δty,和Δtz代表的是照相摄像机位置的近似值的校正量;Δωx,,Δωy,,和Δωz代表的是照相摄像机的方位的近似值的校正值,Δxw,Δyw,和Δzw代表的是点标记的位置的近似值的校正值;Δtmx,Δtmy,和Δtmz代表的是正方形标记的位置的近似值的校正值;并且Δωmx,Δωmy,和Δωmz代表的是正方形标记的方位的近似值的校正值。
这里,表达式(12)和(13)中的F0和G0是常量,并且代表了观察位置uo和当用关于照相摄像机的位置和方位以及点标记的位置或是正方形标记的位置和方位的近似值来代替F和G时所获得的标记的投影位置(计算位置)之间的偏差。
表达式(12)是关于在某图像上所观察到的点标记的观察方程。表达式(13)是关于在某图像上所观察到的正方形标记的一个顶点的观察方程。在现实中,多个点标记或多个正方形标记是在多个图像上被观察到的,所以获得多个表达式(12)和(13)。相应地,通过解作为联立方程的,关于对应着照相摄像机的位置和方位,点标记的位置,以及正方形标记的位置和方位的近似值的校正值的多重表达式(12)和(13),来获得照相摄像机的位置和方位,点标记的位置,以及正方形标记的位置和方位。
图7表示的是根据本实施例获得点标记的位置以及正方形标记的位置和方位的程序的流程图。现在,我们可以假设对于包括标记的场景的拍摄以及从所拍摄的图像上提取并识别标记已经完成。在步骤S100,关于拍摄每个图像的照相摄像机的位置和方位、点标记的位置以及正方形标记的位置和方位的近似值被设定。在接下来的步骤,获得用于校正步骤S100所设定的近似值的校正值。在步骤S110,形成用于同时获得每个近似值的校正值的联立方程,以便根据关于照相摄像机的位置和方位、点标记的位置以及正方形标记的位置和方位的近似值,将投影误差减到最小。在步骤S120,从在步骤S110被公式化的联立方程获得每个近似值的校正值。在步骤S130,通过使用在步骤S120获得的对应校正值来校正每个近似值从而获得新的近似值。在步骤S140,判断关于照相摄像机的位置和方位、点标记的位置以及正方形标记的位置和方位的近似值在步骤S130是否收敛于最优值。如果是,处理就结束。如果否,处理就回到步骤S110并且重复从步骤S110到步骤S140的处理。关于每一步的更为详尽的描述将在以下进行。
在步骤S100,关于拍摄每个图像的照相摄像机的位置和方位、点标记的位置以及正方形标记的近似值被输入。这里,我们可以假设所拍摄的图像的数目为N,拍摄每个图像的照相摄像机的位置是ti=[tixtiytiz]t(i=1,等等到N),且其方位为ωi=[ωixωiyωiz](i=1,等等到N)。同样,我们可以假设位置有待获得的点标记的数目为Kp,并且每个点标记的位置为xwi=[xwiywizwi]t(i=1,等等到N)。进一步,我们可以假设位置和方位有待获得的正方形标记的数目为Ks,并且每个正方形标记的位置是tmi=[tmixtmiytmiz]t(i=1,等等到Ks),且其方位是ωmi=[ωmixωmiyωmiz](i=1,等等到N)。
每个照相摄像机的位置和方位的近似值可以从设置在照相摄像机上的6自由度位置方位传感器例如磁性传感器的输出值而得到,或是从在参考坐标系中的位置为已知的点以及这些点在图像上的投影位置之间的对应关系而得到。在使用了其在参考坐标系中的位置为已知的点的情况下,位置为已知的点和其有待于由本实施例获得的位置为未知的点在场景上是参杂在一起的。可替代地,每个照相摄像机的位置和方位的近似值可以在后面所描述的标记的位置和方位的近似值的基础上获得。
可替代地,每个照相摄像机的位置和方位的近似值可以机械地获得,例如,利用运动控制照相摄像机,或使用位置和方位已事先经过校准的照相摄像机进行拍摄以使用校准结果。
每一个标记的位置和方位的近似值可以是由手工使用测量卷尺、标尺、量角器或是由勘探仪器测量而得到的粗略值,或者可以是使用根据本实施例的方法或其类似方法估计一次而得到的值。
接下来,在步骤S110,对数量相当于图像上有待观察的标记的数目的表达式(12)和(13)的观察方程进行公式化。表达式(12)和(13)是关于一个照相摄像机的位置和方位的校正值、一个点标记的位置的校正值以及一个正方形标记的位置和方位的校正值的观察方程。这里,如表达式(14)所示,关于N个照相摄像机的位置和方位的校正值、Kp个点标记的位置的校正值、Ks个正方形标记的位置和方位的校正值的观察方程被公式化。在这种情况下,未知的数目为(6×N+3×Kp+6×Ks)。
如果假设从图像i(i=1,等等到N)上有待检测的点标记的数目为dpi,并且正方形标记的数目为dsi,从N个图像上检测的点标记的数目Dp以及从N个图像上检测的正方形标记的数目Ds就由表达式(15)所示来代表。
当从N个图像检测的点标记的数目为Dp而从N个图像检测的正方形标记的数目为Ds,(Dp+4×Ds)套观察方程,也就是,2×(Dp+4×Ds)个观察方程被公式化。如果通过将位于表达式(14)左边的常数F0和G0移项到右边来对联立方程进行公式化,联立方程就被写成如表达式(16)所示的矩阵格式。
J·Δ=E ···(16)
J被称为“Jacobian矩阵”,其中关于照相摄像机的位置和方位、点标记的位置以及正方形标记的位置和方位的F和G的偏微分系数被排列着。Jacobian矩阵J的行数是观察方程的数目,也就是,2×(Dp+4×Ds),其列数是未知数的数目,也就是(6×N+3×Kp+6×Ks)。Δ代表的是一个校正矢量。校正矢量的大小就是未知数的数目,也就是,(6×N+3×Kp+6×Ks)。E代表的是一个误差矢量,并且含有-F0和-G0其为由近似值而来的投影位置的计算位置和观察位置之间的偏差。E的大小为观察方程的数目,也就是,2×(Dp+4×Ds)。
注意到的是通过同时拍摄其位置为已知的点标记或是其在参考坐标系中的位置和方位同时为已知的正方形标记,就可以清楚地确定参考坐标系的原点、刻度以及方位。在表达式(14),关于这些标记的位置和方位的偏微分系数变为零。为了清楚地确定参考坐标系的原点、刻度以及方位,在点标记的情况下就需要使用三个其位置为已知的点标记,而在正方形标记的情况下就需要使用一个位置和方位为已知的正方形标记。
接下来,在步骤S120,利用表达式(16)可以获得关于照相摄像机的位置和方位、点标记的位置以及正方形标记的位置和方位的近似值的校正值。当Jacobian矩阵J是一个正方形矩阵时,校正值矢量Δ就可以通过在表达式(16)的两端同时乘以矩阵J的逆矩阵而得到。当矩阵J不是一个正方形矩阵时,校正矢量Δ就通过利用最小均方法得到,如表达式(17)所示。
Δ=(Jt·J)-1·Jt·E ···(17)
接下来,对用以获得Jacobian矩阵的每个元素的方法进行描述。首先,进行定义F=[FG]t。从表达式(7)和(8),F和G可以被写成如表达式(18)所示的,所以F和G是xc,yc和zc的函数。
这里,如果xc,yc,zc是变量S1、S2等等直到Sm的函数,则F和G同样也是变量S1,S2等等直到Sm的函数。每个元素都具有一个对S1、S2等等直到Sm,的F和G的偏微分系数的Jacobian矩阵JFs,就可以被分解为如表达式(20)所示的。
通过用照相摄像机位置t,照相摄像机方位ω,以及点标记位置xw来代替s,就得到关于F和G的照相摄像机位置、照相摄像机方位以及点标记位置的偏微分系数。
每个元素都具有一个关于照相摄像机位置tx,ty,tz的F和G的偏微分系数的Jacobian矩阵JFt可以被写成如表达式(21)所示的。
注意到方位ω以及3×3旋转变换矩阵R之间的关系如表达式(5)所示。
每个元素都具有关于照相摄像机方位ωx、ωy以及ωz的F和G的偏微分系数的Jacobian矩阵JFω就可以被写成如表达式(22)所示的。
同样,JRr是如表达式(24)所示的Jacobian矩阵。
在正方形标记的情况下,xw是位置tm和方位ωm的函数,所以F和G同样也是tm和方位ωm的函数。每一个元素都具有关于位置tm的F和G的偏微分系数的Jacobian矩阵可以被分解为表达式(28)所示。
每一个元素都具有关于方位ωm的F和G的偏微分系数的Jacobian矩阵可以被分解为如表达式(29)所示。
接下来,在步骤S130,用在步骤S120所得到的校正值来对照相摄像机位置和方位、点标记位置以及正方形标记位置和方位的近似值进行校正。N个照相摄像机的位置和方位如表达式(30)所示的被校正。
tix=tix+Δtix
tiy=tiy+Δtiy
tiz=tiz+Δtiz
(i=1,2,…,N)··(30)
ωix=ωix+Δωix
ωiy=ωiy+Δωiy
ωiz=ωiz+Δωiz
同样,Kp个点标记的位置如表达式(31)所示的被校正。
xwi=xwi+Δxwi
ywi=ywi+Δywi (i=1,2,…,Kp)··(31)
zwi=zwi+Δzwi
同样,Ks个正方形标记的位置和方位如表达式(32)所示的被校正。
tmix=tmix+Δtmix
tmiy=tmiy+Δtmiy
tmiz=tmiz+Δtmiz
(i=1,2,…,Ks)··(32)
ωmix=ωmix+Δωmix
ωmiy=ωmiy+Δωmiy
ωmiz=ωmiz+Δωmiz
接下来,在步骤S140,判断收敛。收敛的判断是通过判断一个条件而进行的,例如,校正值的绝对值是否小于特定的阀值,投影位置的计算位置和观察位置之间的偏差是否小于一个特定的阀值,投影位置的计算位置和观察位置之间的偏差是否变成一个最小值,等等。当判断的结果是收敛已经满足时,对于标记的位置和方位的估计就完成了,否则,流程就返回到步骤S110,在此处根据关于照相摄像机的位置和方位、点标记的位置以及正方形标记的位置和方位的经校正的近似值将联立方程进行再次公式化。
如上所述,关于本实施例,排放有标记的场景的大量的图像被拍摄,从所拍摄的图像上检测并识别出标记,在图像上的标记观察位置的基础上同时获得对应于关于进行拍摄的照相摄像机的位置和方位,点标记的位置,以及平面标记的位置和方位的近似值的校正值,并且利用所获得的校正值对近似值进行校正。这个用以获得对应于近似值的校正值并且用所获得的校正值来校正近似值的操作循环被重复着,从而得到点标记的位置,以及正方形标记的位置和方位。注意到关于本实施例,使用了由圆形形状构成的并作为其放置信息由三维空间内的一个点的位置来表示的标记的点标记,但是本发明并不限于此。例如,可以使用球形的标记,其表面被单一的色彩所覆盖,如图8A所示的。在这种球形的情况下,检测方法与检测圆形的完全相同,并且被检测区域的重心位置应当被取作标记位置。可替代地,可以使用如图8B所示的二维图案标记。在这个情况下,标记的位置可以通过使用一个方法而被检测,其中使用了边缘检测操作或类似操作来检测二进制的分界边缘,所得到的边缘点被进行线性近似处理,且接着获得其交叉点。进一步,可以使用空间内的自然特征点。在这种情况下,准备一个事先拍摄好的接近自然特征点的图像作为范例模板,且取得该模板和现实图像之间的相互关系,并且指示着高度相关的位置可以作为标记的位置而被检测。对于上述的方法,共同的特征是放置信息用三维空间内的一个点的位置来表示,所以根据本实施例的上述的方法可以被应用在放置信息仅是一个单独的点的位置的标记上。
同样,根据本实施例,使用了正方形标记作为放置信息由三维空间内的位置和方位来表示的标记,但是本发明并不限于此。例如,可以使用图9A所示的一个立方体标记。在立方体标记的情况下,其六个侧面是正方形,所以与正方形同样的图形被排放在每一个侧面上,并且相应地,对标记的检测可以采用和检测正方形标记相同的方法。在将具有立方体形状的块作为标记的情况下,这个标记的放置信息同样用标记的位置和方位来表示。可替代地,可以使用如图9B所示的多边形而不是正方形。至于前述标记的共有特性,任何标记的放置信息都由该标记在三维空间内的位置和方位来表示,对其可以使用本实施例所描述的前述的方法。
第二实施例
关于第一实施例,关于点标记的投影误差(投影位置的计算位置和观察位置之间的误差量)以及正方形标记的投影误差通过同时获得关于点标记的位置以及正方形标记的位置和方位的校正值,而同时运用最小均方法,于是精确地获得点标记的位置以及正方形标记的位置和方位。对于第二实施例,点标记的位置以及正方形标记的位置和方位是通过交替地重复获得点标记的位置以及正方形标记的位置和方位而精确地获得的。
图10表示的是根据第二实施例用以获得点标记位置以及正方形标记位置和方位的程序的流程图。我们可以假设对于包括标记的场景的拍摄以及从图像上提取并识别标记已经完成。在步骤S210,输入关于拍摄每个图像的照相摄像机的位置和方位、点标记的位置以及正方形标记的位置和方位的近似值。在步骤S220,利用关于照相摄像机的位置和方位以及正方形标记的位置和方位的近似值,获得照相摄像机的位置和方位,以及正方形标记的位置和方位。在步骤S230,利用步骤S210中设定的点标记的位置的近似值,以及步骤S220中获得的照相摄像机的位置和方位的近似值来获得照相摄像机的位置和方位,以及点标记的位置。在步骤S240,判断在步骤S220和步骤S230所得到的照相摄像机的位置和方位、点标记的位置以及正方形标记的位置和方位是否在步骤S240收敛。关于每一步的更为详尽的说明将在以下提供。
在步骤S210,关于拍摄每个图像的照相摄像机的位置和方位、点标记的位置以及正方形标记的近似值被输入。这里,采用和第一实施例相同的方式,我们可以假设所拍摄的图像的数目为N,拍摄每个图像的照相摄像机的位置是ti=[tixtiytiz]t(i=1,等等到N),其方位为ωi=[ωixωiyωiz](i=1,等等到N)。同样,我们可以假设位置有待获得的点标记的数目为Kp,并且每个点标记的位置为xwi=[xwiywizwi]t(i=1,等等到Kp)。进一步,我们可以假设位置和方位有待获得的正方形标记的数目为Ks,并且每个正方形标记的位置是tmi=[tmixtmiytmiz]t(i=1,等等到Ks),且其方位是ωmi=[ωmixωmiyωmiz](i=1,等等到Ks)。
我们可以假设采用了和第一实施例所描述的相同的方法获得了关于照相摄像机位置和方位以及标记的位置和方位的近似值。
在步骤S220,首先获得正方形标记的位置和方位。这里,如表达式(33)所示,对于在图像上所检测到的正方形标记的各个顶点,关于N个照相摄像机的位置和方位的校正值,以及Ks个正方形标记的位置和方位的校正值的观察方程被公式化。在这种情况下,未知数的数目为(6×N+6×Ks)。
F0和G0都是常数项,并且代表了从正方形标记的各个顶点的近似位置所计算出的投影位置和现实观察位置之间的偏差。当从N个图像所检测出来的正方形的数目是Ds时,表达式(33)的数目为4×Ds套,也就是,8×Ds个方程被公式化。通过解这8×Ds个联立方程就得到对应于关于N个照相摄像机的位置和方位,以及Ks个正方形标记的位置和方位的近似值的校正值。利用所获得的校正值来校正近似值,并且重复执行校正值的计算以及对近似值的校正直到照相摄像机的位置和方位,以及正方形标记的位置和方位收敛。
接下来,在步骤S230,采用在步骤S220获得的照相摄像机的位置和方位作为近似值来获得点标记的位置。这里,如表达式(34)所示,对于在图像上检测到的点标记,关于N个照相摄像机的位置和方位以及Kp个点标记的位置的校正值的观察方程被公式化。在这种情况下,未知数的数目为(6×N+3×Kp)。
F0和G0是常数项,并且代表了从点标记的近似位置计算出的投影位置和现实观察位置之间的偏差。当从N个图像所检测到的点标记的总数为Dp时,表达式(34)的数目为Dp套,也就是2×Dp个方程被公式化。通过解这2×Dp个联立方程就可以获得对应于关于N个照相摄像机的位置和方位,以及Kp个点标记的位置的近似值的校正值。利用所获得的校正值对近似值进行校正,并且重复地进行校正值的计算以及近似值的校正直到照相摄像机的位置和方位以及点标记的位置收敛。
接下来,在步骤S240,利用在步骤S220中获得的正方形标记的位置和方位,以及步骤S230中获得的照相摄像机的位置和方位以及点标记的位置进行一个收敛测试。通过收敛测试,例如,当投影位置和现实观察位置之间的偏差的平均值小于一个阀值时,就判断已经达到收敛。在这一步,当作出的判断是收敛已经达到,处理就结束,相反地,流程回到步骤S220。
如上所述,通过交替地重复获得正方形标记的位置和方位以及点标记的位置就可以精确地获得点标记的位置和正方形标记的位置和方位。注意到的是对于本实施例的描述,对正方形标记的位置和方位的估计是在对点标记的位置的估计之前,但是对点标记的位置的估计可以在对正方形标记的位置和方位的估计之前。
同样,和第一实施例一样,放置信息由三维空间内的一个点的位置来代表的点标记并不限于一个圆形的标记,因此可以使用具有如图8所示的形状的标记。放置信息由三维空间内的位置和方位来表示的标记并不限于正方形标记,因此可以使用具有如图9所示的形状的标记。
第三实施例
对于第一和第二实施例,对标记的位置和方位的估计在使用摄像装置对包括标记的场景的图像进行拍摄之后进行的。对于第三实施例,估计的进行是在事先存储在存储设备中的图像的基础上进行的,从而进行脱机处理。
图11表示的是根据第三实施例的标记位置-方位估计设备3的功能结构的方框图。该标记位置-方位估计设备3包括图像存储单元350、图像捕捉单元320、标记检测-识别单元330以及标记位置-方位计算单元340。以下将对标记位置-方位估计设备3的标记位置-方位估计程序进行描述。
(1、图像的捕捉)
包括标记的场景的N个图像已经预先拍摄好了,并且存储在图像存储单元350中。图像捕捉单元320从图像存储单元350读出N个图像,并将这些图像传送到标记检测-识别单元330。
(2、标记的检测和识别)
标记检测-识别单元330对由图像捕捉单元320读出的拍摄图像进行检测和识别。对于点标记的检测是通过获得二维图像上的每个点标记区域的重心来进行的,对于正方形标记的检测是通过获得二维图像上的每个正方形标记的各个顶点来进行的。对标记的检测可以手工或是自动进行。紧接着标记的检测,被检测到的标记被识别。
(3、对一个标记的位置和方位的估计)
重复进行处理,其中通过第一实施例和第二实施例所描述的方法给出了关于照相摄像机的位置和方位,以及标记的位置和方位的近似值,获得了对应于近似值的校正值,并且用获得的校正值对近似值进行了校正,这样就获得了照相摄像机的位置和方位,以及标记的位置和方位。
至于照相摄像机位置和方位的近似值,可以做一个安排,其中一个6自由度的位置-方位传感器在拍摄时被设置在一个照相摄像机上,传感器的输出值作为照相摄像机位置-方位数据而在拍摄的同时被存储在一个文件中,并且在进行标记位置和方位估计时使用从文件读出的值。图12表示的是照相摄像机位置-方位数据文件格式的一个例子。我们可以假设其顶上附有#的第一行是一个注释行。照相摄像机位置-方位数据被包括在第二行以及随后的行中。首先,对一个拍摄的图像的识别码(ID No.)进行描述。这个识别码和拍摄图像的文件名称相关,例如,当拍摄图像以JPEG格式被存储时,具有识别码0(ID No.0)的拍摄图像的文件名称被命名以000000.jpg,并且具有识别码1的拍摄图像的文件名称被命名为000001.jpg。跟随着识别码,位置数据和方位数据在括号内分别被描述。注意的是这里使用的是6自由度的位置-方位传感器的输出值,但是并不限于此,可以使用任何值只要该值被包括在近似值以及照相摄像机的位置和方位中。
同样,对于本实施例,图像的捕捉全部是由从图像存储单元的读出而进行的,但是不仅是预先拍摄好的图像还可以使用用拍摄设备新拍摄的图像。
如上所述,对于第三实施例,标记的位置和方位的估计是在预先存储在存储设施里的图像的基础上进行的,这样就可以进行标记的位置和方位的脱机估计。
第四实施例
对于第四实施例,标记数据文件的输出是通过使用了包括第一到第三实施例所描述的标记位置-方位设备的标记位置-方位估计系统而进行的。
图13表示的是根据第四实施例的标记位置-方位估计系统的处理流程的流程图。在步骤S410,一个描述了放置信息有待估计的标记的列单的标记文件被读出。在步骤S420,判断已经拍摄并已存储的图像是否被使用。如果是,在步骤S430,一个已经拍摄并存储的图像就被读出。在步骤S440,判断是否用摄像装置拍摄新的图像。如果是,在步骤S450,使用摄像装置对包括标记的场景进行拍摄。在步骤S460,在从存储设施读出的图像或使用摄像装置拍摄的图像的基础上进行标记的检测和识别。在步骤S470,在标记的检测结果的基础上进行标记的位置和方位的估计。在步骤S480,判断标记的位置和方位的估计是否已经完成。如果判断的结果是标记的位置和方位的估计已经完成,那么在步骤S490,标记的位置和方位的估计结果被写出到一个文件并且处理结束。另一方面,如果步骤S480判断出标记的位置和方位的估计没有完成,处理就返回到步骤S450。以下提供关于每一步的更为详尽的描述。
首先,在步骤S410,对一个标记文件进行读出。该标记文件包括关于每个位置和方位有待估计的标记的唯一名称的描述,标记类型描述(这里,点标记或是正方形标记),在每个标记是正方形标记的情况下边的长度的描述,在每个标记是点标记的情况下标记色彩的描述,以及对应于每个标记的位置和方位的近似值的描述。图14表示的是标记文件格式的例子。对于图14的标记文件,标记的类型提供在标记的名称之前。图14中的“正方形”代表一个正方形标记,并且“点”代表的是一个点标记。对每个标记的描述都包括在括号里。在正方形标记的情况下,对标记的位置的近似值在“位置”字段进行描述,对标记的方位的近似值在“方位”字段进行描述,并且对正方形的边的长度在“尺寸”字段进行描述。在点标记的情况下,对标记的位置的近似值在“位置”字段进行描述,并且对标记的色彩是在“色彩”字段进行描述。至于标记的色彩,例如,U和V分量在代表了YUV空间的一个色彩的情况下被描述。而色彩空间并不限于YUV且可以使用任何色彩空间。
接下来,在步骤S420,判断用户是否利用了已拍摄和存储的数据。在已拍摄数据为无效的情况下,或是在用户没有利用已拍摄数据的情况下,流程进行到步骤S440。在用户已经利用了已拍摄数据的情况下,流程进行到步骤S430,在此对图像文件进行读出。在读出图像文件时,如果文件为可用的,则同时读取如第三实施例所述的拍摄同时所对应的照相摄像机位置-方位数据文件。
在步骤S440,判断是否执行新的拍摄。当执行新的拍摄时,流程进行到步骤S450,并且进行对包括标记的场景的拍摄。当关于照相摄像机的位置和方位的近似值可以从设置在照相摄像机上的6自由度的位置-方位传感器或类似处得到的情况下,就可在此同时获得近似值。
接下来,在步骤S460,从所拍摄的图像和所读出的图像中检测出标记,并将每一个检测到的标记与步骤S410所读出的标记文件里描述的对应标记进行匹配(识别)。在步骤S460,判断每个图像是否用于标记位置和方位的估计以及标记的检测和识别。
当对标记的检测和识别完成后,对标记的位置和方位的估计在步骤S470进行。所确定的估计方法和第一及第二实施例所描述的方法相同。当对标记的位置和方位的估计完成后,流程进行到步骤S480,在这里判断用户是否希望结束位置和方位的估计。当用户不满意于估计结果时,流程就回到步骤S450,在此重新进行图像拍摄,并接着再次进行估计。当用户满足于估计结果时,流程进行到步骤S490,在此用于标记位置和方位估计的数据作为标记文件并以文件格式被写出,如图14所示。MR运用的用户利用在步骤S490写出的标记文件将虚拟空间和现实空间进行对接。
如上所述,对于第四实施例,用于MR运用里的对接的标记数据文件的输出是通过使用包括如第一到第三实施例所描述的标记位置-方位设备的标记位置-方位估计系统来进行的。
第五实施例
对于第五实施例,关于各种类型的其放置信息量各不相同的标记,各种类型的标记的放置信息是通过改变每一种类型的标记的权重来获得的。通过赋予具有图像检测结果的较高可靠性的标记以较重的权重,就可以改进关于各种类型标记的放置信息的精确度。
对于本实施例,所进行的描述是关于使用了两种标记的情况,也就是,点标记和正方形标记。至于具有如图4A所示的圆形形状的点标记在图像上的观察位置,采用了图像上的圆形区域的重心。然而,图像上的重心并不总是与三维空间内的圆形区域的重心相吻合。相应地,图像上的检测位置的可靠性就降低了。另一方面,在正方形标记的情况下,每一个顶点的位置都被作为图像上的观察位置而使用,因此图像上的检测位置的可靠性就高。对于第一实施例,表达式(16)被用来获得点标记的位置,以及正方形标记的位置和方位。这里,表达式(16)作为表达式(35)而再次被列出来。
J·Δ=E ··(35)
相较于点标记而言,正方形标记的检测结果的特性可以通过改变表达式(35)从而在获得标记的位置和方位的时候赋予点标记的检测结果以较轻的权重而赋予正方形标记以较重的权重而有所增加。现在,我们可以定义一个加权矩阵W如表达式(36)所示。
加权矩阵是一个对角线矩阵。如表达式(37)所示,表达式(35)的两端同时乘以这个加权矩阵W。
WJΔ=WE ...(37)
对于表达式(35)的两端的每一行,加权矩阵W的每一个元素被设定为赋予点标记的行以较轻的权重并且赋予正方形标记的行以较重的权重。当一个矩阵(W·J)是一个正方形矩阵时,使用如表达式(38)所示的最小均方法来获得一个校正矢量Δ,如果不是,就如表达式(39)所示。
Δ=(WJ)-1WE ...(38)
Δ=((WJ)t(WJ))-1(WJ)tWE ...(39)
如上所述,关于放置信息的数量各不相同的各种类型的标记,通过赋予具有图像检测结果的较高可靠性的标记以较重的权重来获得各种类型的标记的放置信息,这样就提高了关于各种类型的标记的放置信息的精确性。
同样,一种用于在每个标记影响参数的校正值的作用偏差的基础上通过动态改变这个加权矩阵W来稳定计算的方法是已知的技术,并且可以使用与这种方法的一个组合。
改进
对于第一实施例,一种用以在观察方程上应用Taylor展开式并且进行重复计算到第一级的方法被描述成用以校正标记放置信息的方法。这是一种在假定在重复的一个处理中观察方程被进行局部线性操作并且结果没有误差的情况下估计未知参数的校正量的方法,而且是一种相当于称为Newton方法的方法。Newton方法是采用数值计算求解非线性方程的典型的方法,但是本发明所使用的重复的计算方法并不限于此。例如,校正量可以基于处理中有待估计的未知参数的校正量的变动而发生动态的变化,例如Levenberg-Marquardt方法。可替代地,可以使用根据包括更高阶项的Taylor展开式的结果而进行重复计算的方法。本发明的本质在于用于通过采用各种类型的标记来获得更为适宜的解,即使是具有不同放置信息的多重类型的标记混合在一起,这样通过用于重复的作为数值解的特定方法,本发明的本质就绝对不会失去。
虽然本发明的说明是参照了作为范例的实施例,但应当理解的是本发明并不仅限于所公开的实施例。相反地,本发明意在覆盖包括在所附权利要求的精神和范围内的各种的修改和相当的布置。随后的权利要求的范围需富于最广泛的解释,以使得其可以包含所有如此的修改和相当的结构及功能。
Claims (8)
1.一种标记放置信息估计方法,用于估计其放置信息具有不同信息量的数个类型的标记的放置信息,所述方法包括:
标记检测步骤,用于从其上拍摄有包括标记的场景的数个图像上检测图像坐标系中的数个类型的标记的位置;
标记投影位置计算步骤,用于根据所述数个图像被摄像单元拍摄时摄像单元在参考坐标系中的位置和方位的近似值以及各种类型的标记在参考坐标系中的放置信息的近似值,计算数个类型的标记中的每一个被投影在图像表面上的位置;以及
标记放置信息计算步骤,用于根据在所述标记检测步骤中获得的图像坐标系中的所检测到的数个类型的标记的位置和在所述标记投影位置计算步骤中获得的图像表面上的数个类型的标记的投影位置,计算参考坐标系中数个类型的标记的放置信息。
2.根据权利要求1的标记放置信息估计方法,其中所述标记放置信息计算步骤通过赋予各个类型的标记以不同的权重而得到对应于各个类型的标记的放置信息的校正值。
3.根据权利要求1的标记放置信息估计方法,其中所述的数个类型的标记包括:第一标记类型,其放置信息用三维空间内的一个点的位置来描述;第二标记类型,其放置信息用三维空间内的位置和方位来描述。
4.根据权利要求3的标记放置信息估计方法,其中所述的第二标记类型是色彩或亮度有别于周围的平面正方形区域,并且是可以通过从图像上得到其边框区域而对其进行检测的正方形标记。
5.根据权利要求1的标记放置信息估计方法,还包括将所估计标记的标记放置信息输出到一个文件中的步骤。
6.根据权利要求1的标记放置信息估计方法,所述的标记放置信息计算步骤包括:
校正值计算步骤,用于得到关于各个类型标记的放置信息的校正值,以便减少在所述的标记检测步骤中所检测到的图像表面的各种类型的标记的位置以及在所述标记投影位置计算步骤中所获得的图像表面的标记投影位置之间的误差量;
放置信息校正步骤,用于根据在所述校正值计算步骤中所获得的校正值,校正各种类型的标记的放置信息;以及
重复计算步骤,用于通过使用经所述放置信息校正步骤校正后的标记放置信息来代替所述标记投影位置计算步骤中的近似值而重复进行所述标记投影位置计算步骤、所述校正值计算步骤以及所述放置信息校正步骤,来计算各种类型的标记的放置信息。
7.根据权利要求1的标记放置信息估计方法,所述的标记放置信息计算步骤包括:
标记类型选择步骤,用于选择一类型的标记;
放置信息校正步骤,用于得到所选类型的标记的放置信息,以便减少在所述标记检测步骤中检测到的具有在所述标记类型选择步骤中所选择出来的类型的标记在图像表面的位置以及在所述标记投影位置计算步骤中获得的标记在图像表面的投影位置之间的误差量,并且校正放置信息;
第一重复计算步骤,用于通过使用经所述放置信息校正步骤校正后的标记放置信息来代替所述标记投影位置计算步骤的近似值而重复所述标记投影位置计算步骤以及所述放置信息校正步骤,计算经所述放置信息校正步骤校正后的标记放置信息;以及
第二重复计算步骤,用于再次将一个或多个其类型没有在所述标记类型选择步骤中被选择的标记选择出来,并且重复进行所述标记投影位置计算步骤、所述的放置信息校正步骤以及所述第一重复计算步骤。
8.一种放置信息估计设备,用于估计其放置信息具有不同信息量的数个类型的标记的放置信息,所述的设备包括:
标记检测装置,用于从其上拍摄有包括标记的场景的数个图像上检测数个类型的标记在图像坐标系中的位置;
标记投影位置计算装置,用于根据所述数个图像被摄像单元拍摄时摄像单元在参考坐标系中的位置和方位的近似值以及各种类型的标记在参考坐标系中的放置信息的近似值,计算数个类型的标记中的每一个被投影在图像表面上的位置;以及
标记放置信息计算装置,用于根据由所述标记检测装置获得的图像坐标系中的所检测到的数个类型的标记的位置和由所述标记投影位置计算装置获得的图像表面上数个类型的标记的投影位置,计算参考坐标系中数个类型的标记的放置信息。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004144782A JP4532982B2 (ja) | 2004-05-14 | 2004-05-14 | 配置情報推定方法および情報処理装置 |
JP144782/2004 | 2004-05-14 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1865843A CN1865843A (zh) | 2006-11-22 |
CN100578141C true CN100578141C (zh) | 2010-01-06 |
Family
ID=34941236
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200510068071A Expired - Fee Related CN100578141C (zh) | 2004-05-14 | 2005-05-16 | 放置信息估计方法以及信息处理装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US7529387B2 (zh) |
EP (1) | EP1596330B1 (zh) |
JP (1) | JP4532982B2 (zh) |
CN (1) | CN100578141C (zh) |
Families Citing this family (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1563799B2 (de) * | 2004-02-11 | 2012-11-28 | BrainLAB AG | Verstellbare Markeranordnung |
JP4522140B2 (ja) * | 2004-05-14 | 2010-08-11 | キヤノン株式会社 | 指標配置情報推定方法および情報処理装置 |
DE102005018336A1 (de) * | 2005-02-28 | 2006-08-31 | Osram Opto Semiconductors Gmbh | Lichtleiter |
JP4847192B2 (ja) * | 2006-04-14 | 2011-12-28 | キヤノン株式会社 | 画像処理システム、画像処理装置、撮像装置、及びそれらの制御方法 |
JP4976756B2 (ja) * | 2006-06-23 | 2012-07-18 | キヤノン株式会社 | 情報処理方法および装置 |
JP4926598B2 (ja) * | 2006-08-08 | 2012-05-09 | キヤノン株式会社 | 情報処理方法、情報処理装置 |
JP5132138B2 (ja) * | 2006-11-28 | 2013-01-30 | キヤノン株式会社 | 位置姿勢計測方法、位置姿勢計測装置 |
JP2008187564A (ja) * | 2007-01-31 | 2008-08-14 | Sanyo Electric Co Ltd | カメラ校正装置及び方法並びに車両 |
JP2009094867A (ja) * | 2007-10-10 | 2009-04-30 | Fuji Xerox Co Ltd | 情報処理装置、遠隔指示システム及び制御プログラム |
DE102008015527A1 (de) * | 2008-03-25 | 2009-10-01 | Volkswagen Ag | Verfahren und Einrichtung zum Erzeugen eines Augmented-Reality-Bildes |
CA2727397C (en) * | 2008-06-13 | 2016-02-16 | Thomson Licensing | System and method for marking a stereoscopic film |
KR101465668B1 (ko) * | 2008-06-24 | 2014-11-26 | 삼성전자주식회사 | 단말 및 그의 블로깅 방법 |
JP2010025759A (ja) * | 2008-07-18 | 2010-02-04 | Fuji Xerox Co Ltd | 位置計測システム |
US8422777B2 (en) * | 2008-10-14 | 2013-04-16 | Joshua Victor Aller | Target and method of detecting, identifying, and determining 3-D pose of the target |
JP4816789B2 (ja) * | 2009-11-16 | 2011-11-16 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラムおよび情報処理システム |
KR101335391B1 (ko) * | 2010-04-12 | 2013-12-03 | 한국전자통신연구원 | 영상 합성 장치 및 그 방법 |
CN101872470B (zh) * | 2010-05-30 | 2011-12-28 | 李滨 | 一种ct或mri图像的矫正和靶点定位方法 |
KR101330811B1 (ko) * | 2010-08-25 | 2013-11-18 | 주식회사 팬택 | 인스턴트 마커를 이용한 증강 현실 장치 및 방법 |
KR101665388B1 (ko) * | 2011-01-20 | 2016-10-12 | 한화테크윈 주식회사 | 카메라 제어 방법 |
JP6161543B2 (ja) * | 2011-03-17 | 2017-07-12 | ニュー・ヨーク・ユニヴァーシティー | 物理的オブジェクトの認証と検証のためのシステム、方法及びコンピュータアクセス可能媒体 |
US10242456B2 (en) * | 2011-06-23 | 2019-03-26 | Limitless Computing, Inc. | Digitally encoded marker-based augmented reality (AR) |
US9965564B2 (en) * | 2011-07-26 | 2018-05-08 | Schneider Electric It Corporation | Apparatus and method of displaying hardware status using augmented reality |
JP5726024B2 (ja) * | 2011-09-05 | 2015-05-27 | キヤノン株式会社 | 情報処理方法および装置 |
CN102445998A (zh) * | 2011-09-16 | 2012-05-09 | 海信集团有限公司 | 遥控光点投影位置的获取方法及交互式投影系统 |
GB2496591B (en) * | 2011-11-11 | 2017-12-27 | Sony Corp | Camera Movement Correction |
US8668343B2 (en) | 2011-11-30 | 2014-03-11 | Izi Medical Products | Reflective marker with alignment feature |
US8661573B2 (en) | 2012-02-29 | 2014-03-04 | Izi Medical Products | Protective cover for medical device having adhesive mechanism |
JP5966510B2 (ja) * | 2012-03-29 | 2016-08-10 | ソニー株式会社 | 情報処理システム |
JP6053347B2 (ja) * | 2012-06-25 | 2016-12-27 | キヤノン株式会社 | 撮像装置およびその制御方法ならびにプログラム |
JP5465299B2 (ja) * | 2012-09-21 | 2014-04-09 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
US9411432B2 (en) * | 2013-04-18 | 2016-08-09 | Fuji Xerox Co., Ltd. | Systems and methods for enabling gesture control based on detection of occlusion patterns |
US10891003B2 (en) | 2013-05-09 | 2021-01-12 | Omni Consumer Products, Llc | System, method, and apparatus for an interactive container |
US9465488B2 (en) * | 2013-05-09 | 2016-10-11 | Stephen Howard | System and method for motion detection and interpretation |
JP6256475B2 (ja) | 2013-09-20 | 2018-01-10 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
JP6237326B2 (ja) | 2014-02-25 | 2017-11-29 | 富士通株式会社 | 姿勢推定装置、姿勢推定方法及び姿勢推定用コンピュータプログラム |
JP6394190B2 (ja) * | 2014-03-18 | 2018-09-26 | 富士ゼロックス株式会社 | 遮蔽パターン検出に基づくジェスチャ制御を可能とするシステムと方法 |
DE102014106718B4 (de) | 2014-05-13 | 2022-04-07 | Immersight Gmbh | System, welches eine Blickfelddarstellung in einer gegenständlichen Lage in einem veränderbaren Raumwinkelbereich darbietet |
DE202014011540U1 (de) | 2014-05-13 | 2022-02-28 | Immersight Gmbh | System insbesondere zur Darbietung einer Blickfelddarstellung und Videobrille |
JP6435750B2 (ja) | 2014-09-26 | 2018-12-12 | 富士通株式会社 | 3次元座標算出装置、3次元座標算出方法および3次元座標算出プログラム |
JP6405891B2 (ja) | 2014-10-29 | 2018-10-17 | 富士通株式会社 | 位置・姿勢推定装置、位置・姿勢推定方法、及び、プログラム |
MX2017008609A (es) | 2014-12-30 | 2018-05-04 | Omni Consumer Products Llc | Sistema y método para la proyección interactiva. |
DE102015102940A1 (de) * | 2015-03-02 | 2016-09-22 | Martin Bünner | Bildverarbeitungssystem zum automatisierten Erkennen von Strukturen in einem dreidimensionalen Raum und Markierungselement zur Kennzeichnung von Strukturen in einem dreidimensionalen Raum |
US9671500B1 (en) * | 2015-12-22 | 2017-06-06 | GM Global Technology Operations LLC | Systems and methods for locating a vehicle |
JP2017129567A (ja) | 2016-01-20 | 2017-07-27 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
WO2017125983A1 (en) | 2016-01-20 | 2017-07-27 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and program for estimating position and orientation of a camera |
US11071596B2 (en) * | 2016-08-16 | 2021-07-27 | Insight Medical Systems, Inc. | Systems and methods for sensory augmentation in medical procedures |
US10922836B2 (en) * | 2016-11-15 | 2021-02-16 | Carl Zeiss Industrielle Messtechnik Gmbh | Method and system for determining a 3D position of an object in space |
EP3410353A1 (en) | 2017-06-01 | 2018-12-05 | eyecandylab Corp. | Method for estimating a timestamp in a video stream and method of augmenting a video stream with information |
JP6762913B2 (ja) | 2017-07-11 | 2020-09-30 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP6721550B2 (ja) * | 2017-08-04 | 2020-07-15 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置および位置情報取得方法 |
US11222081B2 (en) | 2017-11-27 | 2022-01-11 | Evoqua Water Technologies Llc | Off-line electronic documentation solutions |
EP3534333A1 (en) * | 2018-02-28 | 2019-09-04 | Aptiv Technologies Limited | Method for calibrating the position and orientation of a camera relative to a calibration pattern |
US11003939B2 (en) | 2018-07-06 | 2021-05-11 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
JP7406875B2 (ja) | 2018-09-28 | 2023-12-28 | キヤノン株式会社 | 情報処理装置およびプログラム |
US11786307B2 (en) * | 2018-10-19 | 2023-10-17 | Canon U.S.A., Inc. | Visualization and manipulation of results from a device-to-image registration algorithm |
US11082679B1 (en) | 2021-01-12 | 2021-08-03 | Iamchillpill Llc. | Synchronizing secondary audiovisual content based on frame transitions in streaming content |
CN113012501B (zh) * | 2021-03-18 | 2023-05-16 | 深圳市天天学农网络科技有限公司 | 一种远程教学方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3208953B2 (ja) * | 1993-09-29 | 2001-09-17 | 株式会社デンソー | 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置 |
US5642442A (en) * | 1995-04-10 | 1997-06-24 | United Parcel Services Of America, Inc. | Method for locating the position and orientation of a fiduciary mark |
US6064749A (en) * | 1996-08-02 | 2000-05-16 | Hirota; Gentaro | Hybrid tracking for augmented reality using both camera motion detection and landmark tracking |
JP3450704B2 (ja) * | 1997-09-01 | 2003-09-29 | キヤノン株式会社 | 位置姿勢検出装置及び情報処理方法 |
JPH1184307A (ja) | 1997-09-01 | 1999-03-26 | M R Syst Kenkyusho:Kk | 頭部装着型の光学装置 |
JP3976900B2 (ja) | 1998-07-23 | 2007-09-19 | キヤノン株式会社 | 視点位置姿勢の決定方法及びカメラ装置 |
US7084887B1 (en) * | 1999-06-11 | 2006-08-01 | Canon Kabushiki Kaisha | Marker layout method, mixed reality apparatus, and mixed reality space image generation method |
US7126558B1 (en) * | 2001-10-19 | 2006-10-24 | Accenture Global Services Gmbh | Industrial augmented reality |
JP2003281504A (ja) * | 2002-03-22 | 2003-10-03 | Canon Inc | 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム |
WO2004012141A2 (en) * | 2002-07-26 | 2004-02-05 | Zaxel Systems, Inc. | Virtual reality immersion system |
JP2004126869A (ja) * | 2002-10-01 | 2004-04-22 | Canon Inc | 位置姿勢設定器具及び変換パラメータ設定方法並びに複合現実感システム |
EP1556805B1 (en) * | 2002-10-22 | 2011-08-24 | Artoolworks | Tracking a surface in a 3-dimensional scene using natural visual features of the surface |
US7120875B2 (en) * | 2002-10-29 | 2006-10-10 | X-Labs Holdings, Llc | Method and apparatus for augmented reality hybrid tracking system with fiducial-based heading correction |
JP2004287699A (ja) * | 2003-03-20 | 2004-10-14 | Tama Tlo Kk | 画像合成装置及びその合成方法 |
US7515756B2 (en) * | 2003-06-23 | 2009-04-07 | Shoestring Research, Llc. | Region segmentation and characterization systems and methods for augmented reality |
-
2004
- 2004-05-14 JP JP2004144782A patent/JP4532982B2/ja not_active Expired - Fee Related
-
2005
- 2005-05-11 EP EP05252879A patent/EP1596330B1/en not_active Ceased
- 2005-05-11 US US11/126,436 patent/US7529387B2/en not_active Expired - Fee Related
- 2005-05-16 CN CN200510068071A patent/CN100578141C/zh not_active Expired - Fee Related
Non-Patent Citations (1)
Title |
---|
Virtual Object Manipulation on a Table-Top AR Environment.. H. Kato, M.Billinghurst, I. Poupyrev, K. Imamoto, K.Tachibana.IEEE Symposium on Augmented Reality,2000.. 2000 * |
Also Published As
Publication number | Publication date |
---|---|
JP4532982B2 (ja) | 2010-08-25 |
CN1865843A (zh) | 2006-11-22 |
US7529387B2 (en) | 2009-05-05 |
EP1596330B1 (en) | 2012-03-28 |
US20060004280A1 (en) | 2006-01-05 |
EP1596330A2 (en) | 2005-11-16 |
JP2005326274A (ja) | 2005-11-24 |
EP1596330A3 (en) | 2008-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100578141C (zh) | 放置信息估计方法以及信息处理装置 | |
EP1596329B1 (en) | Marker placement information estimating method and information processing device | |
US7664341B2 (en) | Index layout measurement method, position and orientation estimation method, index layout measurement apparatus, and position and orientation estimation apparatus | |
CN101116101B (zh) | 位置/姿势测量方法和设备 | |
Reid et al. | Goal-directed video metrology | |
Neumann et al. | A self-tracking augmented reality system | |
CN100408969C (zh) | 用于确定位置和方位的方法和设备 | |
JP4245963B2 (ja) | 較正物体を用いて複数のカメラを較正するための方法およびシステム | |
CN101299270B (zh) | 三维扫描系统中的多个摄像机同步快速标定方法 | |
US7676079B2 (en) | Index identification method and apparatus | |
JP3450704B2 (ja) | 位置姿勢検出装置及び情報処理方法 | |
CN100410622C (zh) | 用于获得目标物体的位置和方位的信息处理方法和设备 | |
CN110858403B (zh) | 一种单目视觉重建中尺度因子的确定方法和移动机器人 | |
US20080292131A1 (en) | Image capture environment calibration method and information processing apparatus | |
CN107533763A (zh) | 图像处理装置、图像处理方法及程序 | |
JP2006267879A (ja) | 画像処理方法、画像処理装置、マーカ | |
Perez-Yus et al. | Extrinsic calibration of multiple RGB-D cameras from line observations | |
CN108362205A (zh) | 基于条纹投影的空间测距方法 | |
US20050069172A1 (en) | Index identifying method and system | |
JP3793158B2 (ja) | 情報処理方法及び情報処理装置 | |
TWI439671B (zh) | 圖資建立系統、建立方法及記錄媒體 | |
CN114511637A (zh) | 一种基于构造强特征的弱特征物体图像三维重建系统及方法 | |
CN113008135B (zh) | 用于确定空间中目标点位置的方法、设备、电子装置及介质 | |
JP4810403B2 (ja) | 情報処理装置、情報処理方法 | |
JP2008140047A (ja) | 情報処理方法、情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20100106 Termination date: 20180516 |
|
CF01 | Termination of patent right due to non-payment of annual fee |