CN1517902A - 位置姿势测量方法、位置姿势测量装置 - Google Patents
位置姿势测量方法、位置姿势测量装置 Download PDFInfo
- Publication number
- CN1517902A CN1517902A CNA2004100005302A CN200410000530A CN1517902A CN 1517902 A CN1517902 A CN 1517902A CN A2004100005302 A CNA2004100005302 A CN A2004100005302A CN 200410000530 A CN200410000530 A CN 200410000530A CN 1517902 A CN1517902 A CN 1517902A
- Authority
- CN
- China
- Prior art keywords
- orientation
- image
- marker
- msub
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 48
- 238000000691 measurement method Methods 0.000 claims abstract description 26
- 239000003550 marker Substances 0.000 claims description 133
- 238000004364 calculation method Methods 0.000 claims description 129
- 238000003384 imaging method Methods 0.000 claims description 123
- 238000005259 measurement Methods 0.000 claims description 91
- 238000001514 detection method Methods 0.000 claims description 88
- 239000013598 vector Substances 0.000 claims description 76
- 238000012937 correction Methods 0.000 claims description 26
- 239000011159 matrix material Substances 0.000 description 57
- 238000012545 processing Methods 0.000 description 42
- 230000000007 visual effect Effects 0.000 description 29
- 230000006870 function Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 18
- 230000036544 posture Effects 0.000 description 18
- 230000009466 transformation Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 12
- 230000014509 gene expression Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 239000002131 composite material Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 238000002945 steepest descent method Methods 0.000 description 2
- 102100039511 Chymotrypsin-C Human genes 0.000 description 1
- 101000889306 Homo sapiens Chymotrypsin-C Proteins 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0325—Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
提供一种位置姿势测量方法。求出第1标识的图像坐标和第1标识的推测图像坐标的第1误差坐标,该第1标识的图像坐标配置于现实空间中,在第1摄像单元所拍摄的第1图像上;该第1标识的推测图像坐标,根据具有按照以前计算出的位置姿势参数的位置姿势的第1摄像机构和第1标识的位置姿势关系,被推测为位于第1图像上。另一方面,求出第2标识的图像坐标和第2标识的推测图像坐标的第2误差坐标,该第2标识的图像坐标配置于第1摄像机构中,在包含第1摄像机构的第2图像上;该第2标识的推测图像坐标,根据具有按照上述位置姿势参数的位置姿势的第1摄像机构和第2标识的位置姿势关系,被推测为位于第2图像上。用第1、第2误差坐标来修正上述位置姿势参数。
Description
技术领域
本发明涉及测量摄像装置或安装了摄像装置的对象物体的位置和姿势的技术。
背景技术
近年来,广泛进行着以现实空间和假想空间的无缝结合为目的的、关于复合现实感的研究。进行复合现实感的呈示的图像显示装置通过视频透视(video see-through)方式来实现,该视频透视方式为:在由摄像机等摄像装置所拍摄的现实空间的图像上,重叠描绘依照摄像装置的位置和姿势所生成的假想空间(例如通过计算机图形所描绘的假想物体或字符信息等)的图像,并将其显示。
另外除此之外还可通过光学透视方式来实现,该光学透视方式为:在安装于观察者头部的光学透视型显示器上,显示依照观察者的视点的位置和姿势所生成的假想空间的图像。
作为这样的图像显示装置的应用,期待在患者的身体表面重叠显示体内的情况的手术辅助、与漂浮在现实空间中的假想敌作战的复合现实感游戏等与迄今为止的虚拟现实所不同的新领域。
对于这些应用所共同要求的是如何精确地进行现实空间与假想空间之间的位置对合(alignment),以往已进行了许多尝试。复合现实感中的位置对合问题在视频透视方式下归结为求得场景(scene)中(即世界坐标系中)的摄像装置的位置和姿势的问题。同样地,在光学透视方式下,归结为求得场景中的观察者的视点或显示器的位置和姿势的问题。
作为解决前一问题的方法,一般是在场景中配置或设定多个标识(indicator),通过检测出在摄像装置所拍摄的图像内的标识的投影图像的坐标,来求得场景中的该摄像装置的位置和姿势。另外,作为解决后一问题的方法,一般是在测量对象物(即观察者的头部或显示器)上安装摄像装置,通过与前者相同的方法来求得该摄像装置的位置和姿势,基于此来求得测量对象物的位置和姿势。
使用图1,对通过从摄像装置所拍摄的图像中检测出标识来测量摄像装置的位置和姿势的位置姿势测量装置的以往例进行说明。图1是表示以往的位置姿势测量装置的结构的图。如该图所示那样,该以往例中的位置姿势测量装置100由主观视点标识检测单元110和位置姿势计算单元120构成,并连接到摄像装置130。
另外,在现实空间中的多个位置上,配置有世界坐标系(将现实空间的1点定义为原点,进而将相互正交的3个轴分别定义为X轴、Y轴、Z轴的坐标系)中位置为已知的多个主观视点标识Qk(k=1,,,K1),作为用于由摄像装置130所拍摄的标识(下面称为主观视点标识)。最好是对主观视点标识Qk进行设置,以便在使摄像装置130位于将要测量位置和姿势的测量对象范围内的各个地点时,在由摄像装置130所取得的图像上,至少3个标识始终被观测到。图1的例子表示配置有4个主观视点标识Q1、Q2、Q3、Q4,其中3个Q1、Q3、Q4被包含在摄像装置130的视场内的情况。
主观视点标识Qk例如既可以由各自具有不同颜色的圆形标记构成,也可以由各自具有不同纹理特征的自然特征等的特征点来构成。只要是可检测摄影图像上的投影图像的图像坐标的,且可用某种方法识别是哪个标识这样的标识,则任何形式都可以。
摄像装置130输出的图像(下面将此称为主观视点图像)被输入给位置姿势测量装置100。
主观视点标识检测单元110从摄像装置130输入主观视点图像,检测被拍摄在所输入的图像中的主观视点标识Qk的图像坐标。例如,在各主观视点标识Qk由具有不同颜色的标记构成时,从主观视点图像上检测出与各标记颜色对应的区域,并将其重心位置设为标识的检测坐标。另外,各主观视点标识Qk由具有不同纹理特征的特征点构成时,通过在主观视点图像上实施利用作为已知信息被预先保持的各标识的模板图像的模板匹配,来检测出标识的位置。
进而,主观视点标识检测单元110将检测出的各主观视点标识Qkn的图像坐标uQkn及其标识符kn输出给位置姿势计算单元120。此处,n(n=1,,,N)是对于检测出的各标识的索引,N表示检测出的标识的总数。例如在图1的情况下N=3,输出标识符k1=1、k2=3、k3=4和与它们对应的图像坐标uQk1、uQk2、uQk3。
位置姿势计算单元120基于检测出的各主观视点标识Qkn的图像坐标uQkn,和作为已知信息被预先保持的标识的世界坐标XW Qkn的对应关系,计算出摄像装置130的位置和姿势。
从主观视点标识的世界坐标和图像坐标的组计算出摄像装置的位置和姿势的方法,在照相测量等领域中很早以来就得以提案(例如,参照R.M.Haralick,C.Lee,K.Ottenberg,and M.Nolle:Review andanalysis of solutions of the three point perspective pose estimationproblem,International Journal of Computer Vision,vol.13,no.3,pp.311-356,1994.和D.G.Lowe:Fitting parameterized three-dimensionalmodels to images,IEEE Transactions on PAMI,vol.13,no.5pp.441-450,1991.)。
用图2的流程来说明本以往例中的位置姿势计算单元120进行的处理。在本以往例中,摄像装置130的位置和姿势通过利用递归运算的数值计算方法来计算出。
位置姿势计算单元120分别通过3值向量[x y z]T和[ξψζ]T来内部地表达待计算的摄像装置130的位置和姿势。通过3值来表达姿势的方法有各种各样,在此采用通过向量大小来定义旋转角、通过向量的方向来定义旋转轴方向这样的通过3值向量来表达的方法。此时,待求得的未知参数被记作6值状态向量s=[x y z ξψζ]T。
在步骤S2000中,位置姿势计算单元120在状态向量s中设定适当的初始值(位置和姿势的推测值)。例如,既可以将在前一帧(时刻tk-1)处理中所导出的s作为初始值,也可以设定通过基于来自过去的s的导出值的变化的预测而得到的值。
在步骤S2010中,位置姿势计算单元120输入在主观视点标识检测单元110中检测出的各主观视点标识Qkn的图像坐标的实测值uQkn及其标识符kn。
在步骤S2020中,位置姿势计算单元120对各主观视点标识Qkn计算出其图像坐标的推测值uQkn*。uQkn*的计算,基于作为已知信息被预先保持的各标识Qkn的世界坐标XW Qkn和当前的状态向量s的函数:
[式1]
来进行。
具体来讲,就是函数FC()由从XW Qkn和s求得该标识的摄像机坐标(将摄像机上的1点定义为原点,进而将相互正交的3个轴分别定义为X轴、Y轴、Z轴的坐标系)XC Qkn的下式
[式2]
和从摄像机坐标XC Qkn求得图像坐标uQkn*的下式[式3]
构成。此处fC x和fC y分别是x轴方向和y轴方向上的摄像装置130的焦点距离,作为已知值被预先保持。另外,MWC(s)是由s确定的建模变换矩阵(即,将摄像机坐标系中的坐标变换成世界坐标系中的坐标的矩阵),由下式来定义。
[式4]
其中,
在步骤S2030中,位置姿势计算单元120对各主观视点标识Qkn,通过下式计算出图像坐标的推测值uQkn*和实测值uQkn的误差ΔuQkn。[式5]
在步骤S2040中,位置姿势计算单元120对各主观视点标识Qkn,计算出作为各元素具有用状态向量s的各元素对式1的函数FC()进行了偏微分的解的2行×6列的雅可比矩阵Jus Qkn(=u/s)。具体来讲,就是计算出作为各元素具有用摄像机坐标XC Qkn的各元素对式3的右边进行了偏微分的解的2行×3列的雅可比矩阵Jux Qkn(=u/x),和作为各元素具有用向量s的各元素对式2的右边进行了偏微分的解的3行×6列的雅可比矩阵Jxs Qkn(=x/s),并通过下式计算出Jus Qkn。
[式6]
在步骤S2050中,位置姿势计算单元120基于在步骤S2030和步骤S2040中计算出的误差ΔuQkn和雅可比矩阵Jus Qkn,计算出状态向量s的修正值Δs。具体来讲,就是生成垂直排列了误差ΔuQkn的2N维误差向量,
[式7]
和垂直排列了雅可比矩阵Jus Qkn的2N行×6列的矩阵
[式8]
并用Φ的伪逆矩阵Φ’,计算出
[式9]
ΔS=Φ’U
在图1的例子中N=3,所以U是6维向量,Φ是6行×6列的矩阵。
在步骤S2060中,位置姿势计算单元120使用在步骤S2050中计算出的修正值Δs,按照式10修正状态向量s,并将得到的值设为s的新推测值。
[式10]
S+ΔS→S
在步骤S2070中,位置姿势计算单元120使用误差向量U是否比预先确定的阈值小,或者修正值Δs是否比预先确定的阈值小这样的一些判断标准来判断计算是否收敛。如果不收敛,则用修正后的状态向量s再次进行步骤S2020以后的处理。
在步骤S2080中,位置姿势计算单元120将得到的状态向量s作为摄像装置130的位置和姿势信息进行输出。位置和姿势信息,例如用从s计算出的观察变换矩阵的形式来进行输出。
以往就是通过以上方法来取得摄像装置130的位置和姿势的。
另外,还可以在测量对象物体上设定多个标识,由设置在外部的客观视点摄像机来拍摄对象物体,并检测出所拍摄的客观视点图像内的标识的投影图像的图像坐标,由此求出对象物体的位置和姿势(例如,参照D.G.Lowe:Fitting parameterized three-dimensional models toimages,IEEE Transactions on PAMI,vol.13,no.5 pp.441-450,1991.和日本专利申请公开特开平09-323280号公报)。
但是,在从由作为测量对象的摄像装置得到的主观视点图像检测场景中的标识的前一方法中,与姿势的变化相比对于位置的变化的在图像上的标识的移动量要小,所以存在不能充分获得位置测量的精度的问题。另外,在欲实现宽广范围的环视时,就存在必须在对应的宽广范围区域内设定多个标识的问题。
另一方面,在从由客观视点摄像机得到的客观视点图像中检测测量对象物体上的标记(marker)的后一方法中,与位置的变化相比对于姿势的变化的在图像上的标识的移动量要小,所以存在不能充分获得姿势测量的精度的问题。
发明内容
本发明就是鉴于以上问题而完成的,以对于位置和姿势的任何一个,都能够以高的精度来实现对象物体的位置和姿势的测量为目的。
为了达到此目的,本发明的第1技术方案提供一种计算对象物体的位置和姿势的位置姿势测量方法,包括:主观视点取得步骤,取得第1图像,该第1图像是通过安装在上述对象物体上的主观视点摄像单元拍摄场景而得到的;客观视点图像取得步骤,取得第2图像,该第2图像是通过客观视点摄像单元拍摄上述对象物体而得到的;第1检测步骤,从上述第1图像中检测出与配置在上述场景中的第1标识的图像坐标相关的特征量;第2检测步骤,从上述第2图像中检测出与配置在上述对象物体上或上述主观视点摄像单元上的第2标识的图像坐标相关的特征量;以及位置姿势计算步骤,用在上述第1检测步骤中检测出的与上述第1标识的图像坐标相关的特征量,和在上述第2检测步骤中检测出的与上述第2标识的图像坐标相关的特征量,计算出上述对象物体的位置和姿势。
进而,本发明的第2技术方案提供一种位置姿势测量方法,计算安装在拍摄现实空间的第1摄像单元中,与该第1摄像单元的位置姿势关系已知的对象物体的第1位置姿势参数,包括:第1图像坐标检测步骤,从由上述第1摄像单元所拍摄的第1图像中检测出配置在上述现实空间中的第1标识的图像坐标;第1推测图像坐标检测步骤,在上述第1摄像单元的位置和姿势遵照以前计算出的第2位置姿势参数这样的假定的基础上,根据上述第1摄像单元和上述第1标识的位置姿势关系,来求得上述第1标识的推测图像坐标;第1误差坐标计算步骤,求得上述第1图像上的、在上述第1图像坐标检测步骤中检测出的图像坐标和在上述第1推测图像坐标检测步骤中计算出的推测图像坐标的第1误差坐标;第2图像坐标检测步骤,从由第2摄像单元所拍摄的、包含上述对象物体的第2图像中,检测出配置在上述第1摄像单元或上述对象物体中的第2标识的图像坐标;第2推测图像坐标检测步骤,在上述第1摄像单元的位置和姿势遵照上述以前计算出的第2位置姿势参数这样的假定的基础上,根据上述第1摄像单元和上述第2标识的位置姿势关系,来求得上述第2标识的推测图像坐标;第2误差坐标计算步骤,求得上述第2图像上的、在上述第2图像坐标检测步骤中检测出的图像坐标和在上述第2推测图像坐标检测步骤中计算出的推测图像坐标的第2误差坐标;修正值计算步骤,用上述第1误差坐标和上述第2误差坐标,求得用于修正上述以前计算出的第2位置姿势参数的修正值;修正步骤,用上述修正值修正上述以前计算出的第2位置姿势参数;以及参数计算步骤,用在上述修正步骤中所修正的上述第2位置姿势参数,求得与上述第1摄像单元有已知的位置姿势关系的上述对象物体的上述第1位置姿势参数。
进而,本发明的第3技术方案提供一种位置姿势测量方法,将拍摄场景的摄像装置作为测量对象物体,计算出该对象物体的位置和姿势,包括:检测步骤,从由上述摄像装置所取得的图像中,检测出与配置在上述场景中的第1标识的图像坐标相关的特征量;测量步骤,测量配置在上述摄像装置中的第2标识的位置;以及位置姿势计算步骤,用在上述检测步骤中检测出的与上述第1标识的图像坐标相关的特征量,和在上述测量步骤中测量出的上述第2标识的位置,计算出上述摄像装置的位置和姿势。
进而,本发明的第4技术方案提供一种计算对象物体的位置和姿势的位置姿势测量装置,包括:主观视点摄像单元,安装在上述对象物体上来拍摄场景;客观视点摄像单元,拍摄上述对象物体;第1检测单元,从由上述主观视点摄像单元所取得的第1图像中,检测出与配置在上述场景中的第1标识的图像坐标相关的特征量;第2检测单元,从由上述客观视点摄像单元所取得的第2图像中,检测出与配置在上述对象物体上或上述主观视点摄像单元上的第2标识的图像坐标相关的特征量;以及位置姿势计算单元,用上述第1检测单元检测出的与上述第1标识的图像坐标相关的特征量,和上述第2检测单元检测出的与上述第2标识的图像坐标相关的特征量,计算出上述对象物体的位置和姿势。
本发明的其他特征以及优点,通过以附图为参照的下面的说明将会弄明白。此外,在附图中对相同或相似的结构附加相同的参照标号。
附图说明
附图包含在说明书中,构成其一部分,表示本发明的实施形式,并与说明书的记述一起用于说明本发明的原理。
图1是表示以往的位置姿势测量装置的结构的图。
图2是以往例中的位置姿势计算单元120进行的处理的流程图。
图3是表示本发明的第1实施形式的位置姿势测量装置的概略结构的图。
图4是通过CPU1001执行位置姿势计算单元320的软件程序而进行的、计算表示摄像装置130的位置和姿势的参数的处理的流程图。
图5是表示本发明的第2实施形式的位置姿势测量装置的概略结构的图。
图6是表示本发明的第3实施形式的位置姿势测量装置的概略结构的图。
图7是表示本发明的第4实施形式的位置姿势测量装置的概略结构的图。
图8是表示本发明的第6实施形式的位置姿势测量装置的概略结构的图。
图9是通过CPU1001执行位置姿势计算单元820的软件程序而进行的、计算表示摄像装置130的位置和姿势的参数的处理的流程图。
图10是表示计算机的基本结构的图。
图11是通过CPU1001执行位置姿势计算单元320’的软件程序而进行的、计算表示摄像装置130的位置和姿势的参数的处理的流程图。
图12是表示本发明的第7实施形式的位置姿势测量装置的概略结构的图。
图13是表示本发明的第8实施形式的位置姿势测量装置的概略结构的图。
具体实施形式
下面参照附图对本发明的优选实施形式进行详细说明。
[第1实施形式]
本实施形式的位置姿势测量装置进行摄像装置的位置和姿势的测量。下面,说明本实施形式的位置姿势测量装置和位置姿势测量方法。
图3是表示本实施形式的位置姿势测量装置的概略结构的图。对于与图1相同的部分,附加相同的编号、记号,并省略其说明。如图3所示那样,本实施形式的位置姿势测量装置300由主观视点标识(viewpoint indicator)检测单元110、客观视点标识检测单元310、位置姿势计算单元320和客观视点摄像机330构成,并连接到作为测量对象的摄像装置130。
在摄像装置130位于测量对象范围内时,客观视点摄像机330被固定配置于可以拍摄摄像装置130的位置。这里,设世界坐标系中的客观视点摄像机330的位置和姿势,作为已知的值被预先保持在客观视点标识检测单元310中。
在现实空间中的多个位置上,与上述以往例一样,设定了在世界坐标系中的位置为已知的主观视点标识Qk,作为用于由摄像装置130进行拍摄的标识。另外,在摄像装置130的多个位置上,设定了在主观视点摄像机坐标系(将摄像装置130上的1点定义为原点,进而将相互正交的3个轴分别定义为X轴、Y轴、Z轴的坐标系)上的位置为已知的客观视点标识Pk(k=1,,,K2),作为用于由客观视点摄像机330进行拍摄的标识(下面称为客观视点标识)。
最好是,这样来设置这些标识,以便在使摄像装置130位于将要测量位置和姿势的测量对象范围内的各个地点时,在由摄像装置130所取得的图像上被观测到的主观视点标识,和在由客观视点摄像机330所取得的图像上被观测到的客观视点标识的总数,始终至少为3个。图3的例子表示设定了3个主观视点标识Q1、Q2、Q3和2个客观视点标识P1、P2,其中2个主观视点标识Q1、Q3包含在摄像装置130的视场内,2个客观视点标识P1、P2包含在客观视点摄像机330的视场内的情况。
另外,客观视点标识Pk和主观视点标识Qk一样,只要是可检测出摄影图像上的投影图像的图像坐标,并且可识别出是哪个标识这样的标识,则任何形式都可以。另外,主观视点标识和客观视点标识都既可以特意地进行设定,也可以不是特意地进行设定,例如也可以,如上述那样使用自然形状。
主观视点标识检测单元110与上述以往例一样,输入摄像装置130所拍摄的主观视点图像,检测被拍摄在图像中的主观视点标识Qk的图像坐标,并将检测出的主观视点标识Qkn的图像坐标uQkn及其标识符kn输出给位置姿势计算单元320。例如,在图3的情况下,是N=2,输出标识符k1=1、k2=3和与它们对应的图像坐标uQk1、uQk2。
客观视点标识检测单元310输入客观视点摄像机330所拍摄的图像(下面称为客观视点图像),通过与主观视点标识检测单元110同样的处理,检测被拍摄在图像中的客观视点标识Pk的图像坐标,并将检测出的客观视点标识Pkm的图像坐标uPkm及其标识符km输出给位置姿势计算单元320。此处,m(m=1,,,M)是附加给检测出的各标识的索引,M表示检测出的标识的总数。例如,在图3的情况下,为M=2,输出标识符k1=1、k2=2和与它们对应的图像坐标uPk1、uPk2。
位置姿势计算单元320基于检测出的各主观视点标识Qkn的图像坐标uQkn与作为已知信息而预先保持的标识的世界坐标XW Qkn的对应应关系,以及检测出的各个客观视点标识Pkn的图像坐标uPkm与作为已知信息而预先保持的主观视点摄像机坐标系上的标识的位置XC Pkm的对应关系,计算出表示摄像装置130的位置和姿势的参数。据此,就能够进行摄像装置130的位置和姿势的测量。
另外,图3所示的客观视点标识检测单元310、位置姿势计算单元320、主观视点标识检测单元110既可以分别作为独立的装置来处理,也可以分别作为软件安装在1个或多个计算机中,并由各个计算机的CPU进行执行,由此来实现其功能。在本实施形式中,设各单元(客观视点标识检测单元310、位置姿势计算单元320、主观视点标识检测单元110)作为在1台计算机内成为执行对象的软件来处理。
图10是表示将客观视点标识检测单元310、位置姿势计算单元320、主观视点标识检测单元110分别作为软件来执行的计算机的基本结构的图。
1001是CPU,使用存储在RAM1002和ROM1003中的程序和数据,进行计算机整体的控制,并且控制客观视点标识检测单元310、位置姿势计算单元320、主观视点标识检测单元110各自软件的执行,以实现各单元的功能。
1002是RAM,具有暂时存储从外部存储装置1007和存储介质驱动1008装入的程序和数据的区域,并且具有CPU1001进行各种处理所必需的工作区。
1003是ROM,一般保存着计算机的引导程序和设定数据等。1004、1005分别是键盘、鼠标,操作者可以用它们对CPU1001输入各种指示。
1006是显示单元,由CRT或液晶画面等构成,例如。能够显示为了摄像装置130的位置姿势测量而应显示的消息等。
1007是外部存储装置,是作为硬盘等大容量信息存储装置而起作用的装置,将分别作为OS(操作系统)、客观视点标识检测单元310、位置姿势计算单元320、主观视点标识检测单元110而起作用的软件的程序等保存于此。另外,在本实施形式的说明中,说明为已知的信息也保存于此。
1008是存储介质驱动,按照来自CPU1001的指示读出存储在CD-ROM或DVD-ROM等存储介质中的程序和数据,并输出给RAM1002和外部存储装置1007。
1009是I/F,用于连接摄像装置130、客观视点摄像机330,它们各自所拍摄的图像经由I/F1009被取入到RAM1002。1010是联结上述各单元的总线。
图4是通过CPU1001执行位置姿势计算单元320的软件程序而进行的、计算表示摄像装置130的位置和姿势的参数的处理的流程图。另外,假定在进行以下处理之前,客观视点标识检测单元310、位置姿势计算单元320、主观视点标识检测单元110各自的软件程序已经被装入到RAM1002中。
在位置姿势计算单元320中,与上述以往例中的位置姿势计算单元120一样,将待计算的摄像装置130的位置和姿势分别作为3值向量[x y z]T和[ξψ ζ]T来处理。此时,待求得的参数被表示为6值状态向量s=[x y z ξ ψ ζ]T。
在步骤S4000中,位置姿势计算单元320对状态向量s设定适当的初始值(位置和姿势的推测值)。例如,既可以将在前一帧(时刻tk-1)处理中所导出的s作为初始值,也可以设定通过基于来自过去的s的导出值的变化的预测所得到的值。
在步骤S4010中,位置姿势计算单元320输入在主观视点标识检测单元110中检测出的各主观视点标识Qkn的图像坐标uQkn及其标识符kn。
在步骤S4020中,位置姿势计算单元320输入在客观视点标识检测单元310中检测出的各客观视点标识Pkm的图像坐标uPkm及其标识符km。
在步骤S4030中,位置姿势计算单元320判断所输入的标识的总数(即N+M)是否为3个以上。如果标识总数不足3个,则不进行由步骤S4040到步骤S4120所实现的s的更新处理而进入步骤S4130。
在步骤S4040中,位置姿势计算单元320对各个主观视点标识Qkn,基于式1~式4计算出其图像坐标的推测值uQkn*。即,假定为摄像装置130的位置和姿势遵照以前所求得的状态向量s,并根据摄像装置130和主观视点标识的位置姿势关系来求得各个主观视点标识的图像坐标的推测值。
在步骤S4050中,位置姿势计算单元320对各个主观视点标识Qkn,基于式5计算出图像坐标的推测值uQkn*和实测值uQkn的误差ΔuQkn。
在步骤S4060中,位置姿势计算单元320对各个主观视点标识Qkn,基于式6计算出作为各元素具有用状态向量s的各元素对式1的函数FC()进行了偏微分的解的2行×6列的雅可比矩阵Jus Qkn(=u/s)。
在步骤S4070中,位置姿势计算单元320,对各个客观视点标识Pkm,计算出其图像坐标的推测值uPkm*。即,假定为摄像装置130的位置和姿势遵照以前所求得的状态向量s,并根据摄像装置130和客观视点标识的位置姿势关系来求得各个客观视点标识的图像坐标的推测值。
uPkm*的计算,基于作为已知信息而预先保持的标识Pkm各个摄像机坐标(摄像机坐标系中的坐标值)XC Pkm和当前的状态向量s的函数来进行。
[式11]
具体来讲,函数FB()由从XC Pkm和s求得客观视点摄像机坐标系(将客观视点摄像机330上的1点定义为原点,进而将相互正交的3个轴分别定义为X轴、Y轴、Z轴的坐标系)上的该标识的坐标XB Pkm的下式,
[式12]
和从摄像机坐标XB Pkm求得图像坐标uPkm*的下式
[式13]
构成。此处fB x和fB y分别是x轴方向和y轴方向上的客观视点摄像机330的焦点距离,并作为已知的值被预先保持。另外,MWB是将客观视点摄像机坐标系中的坐标变换成世界坐标的变换矩阵,并基于作为已知的值被预先保持的世界坐标系中的客观视点摄像机330的位置和姿势,而预先计算出。
在步骤S4080中,位置姿势计算单元320对各个主观视点标识Pkm,通过下式计算出图像坐标的推测值uPkm*和实测值uPkm的误差ΔuPkm。
[式14]
作为各元素具有用状态向量s的各元素对式1的函数FC()进行了偏微分的解
在步骤S4090中,位置姿势计算单元320对各个主观视点标识Pkm,计算出作为各元素具有用状态向量s的各元素对式11的函数FB()进行了偏微分的解的2行×6列的雅可比矩阵Jus Pkm(=u/s)。具体来讲,就是计算出作为各元素具有用摄像机坐标XB Pkm的各元素对式13的右边进行了偏微分的解的2行×3列的雅可比矩阵Jux Pkm(=u/x),和作为各元素具有用向量s的各元素对式12的右边进行了偏微分的解的3行×6列的雅可比矩阵Jxs Pkm(=x/s),并通过下式计算出Jus Pkm。
[式15]
在步骤S4100中,位置姿势计算单元320基于在以上步骤中计算出的误差ΔuQkn、雅可比矩阵Jus Qkn、误差ΔuPkm和雅可比矩阵Jus Pkm,来确定误差向量U和矩阵Φ,通过式9计算出状态向量s的修正值Δs。此时,将误差向量U设定为垂直排列了误差ΔuQkn和ΔuPkm的2(N+M)维向量,
[式16]
另外,将矩阵Φ设定为垂直排列了雅可比矩阵Jus Qkn和Jus Pkm的2(N+M)行×6列的矩阵。在图3的例子中,由于M=2、N=2,所以U是8维向量,Φ是8行×6列的矩阵。
[式17]
在步骤S4110中,位置姿势计算单元320用在步骤S4100中计算出的修正值Δs,通过式10对状态向量s,即表示摄像装置130的位置和姿势的参数进行修正,并将所得到的值设为s的新推测值。
在步骤S4120中,位置姿势计算单元320使用,误差向量U是否比预先确定的阈值小,或者修正值Δs是否比预先确定的阈值小这样的一些判断标准,来判断计算是否收敛。如果不收敛,则用修正后的状态向量s,再次进行步骤S4040以后的处理。
若在步骤S4120中判断为计算已收敛,则在步骤S4130中,位置姿势计算单元320将所得到的状态向量s作为表示摄像装置130的位置和姿势的参数进行输出。此外,输出的形式既可以是将s中的姿势成分变换成欧拉角的形式,也可以是从s计算出的观察变换矩阵,还可以利用其他各种位置姿势记述方法。
通过以上处理,就能够得到不仅使主观视点图像上的标识间的误差极小化,还使客观视点图像上的标识间的误差极小化这样的摄像装置130的位置和姿势。据此,与仅使用主观视点图像、客观视点图像的某一个图像的情况相比,就能够以更高的精度来测量摄像装置130的位置和姿势,并计算出其参数。
通过以上处理,摄像装置的位置和姿势的测量,在位置和姿势的任何一个上都能以高的精度来实现。
另外,在本实施形式中,由于利用了主观视点图像和客观视点图像两者,所以与仅使用主观视点图像的以往方法相比,就能够减少配置在场景中的主观视点标识的总数。
[第2实施形式]
本实施形式的位置姿势测量装置,测量搭载于立体视频透视(stereo video see-through)HMD(Head Mount Display)上的2台摄像机的位置和姿势。下面,对本实施形式的位置姿势测量装置和位置姿势测量方法进行说明。
图5是表示本实施形式的位置姿势测量装置的概略结构的图。对于与图1、图3相同的部分,附加相同的编号、记号。如图5所示,本实施形式的位置姿势测量装置500由主观视点标识检测单元110L和110R、客观视点标识检测单元310、位置姿势计算单元520、以及客观视点摄像机330构成。
另外,主观视点标识检测单元110L和110R是分别将与图1所示主观视点标识检测单元110相同的单元设为左用、右用后的单元。关于主观视点标识检测单元110L和110R的细节将在后面进行描述。
主观视点标识Qk与第1实施形式同样地进行配置,另外由于客观视点摄像机330和客观视点标识检测单元310的功能也与第1实施形式相同,所以省略关于它们的详细说明。
为了拍摄与观察者的左右视点相对应的现实空间的图像,在HMD540中内置有2台摄像机550L、550R。此处设左摄像机坐标系(将摄像机550L上的1点定义为原点,进而将相互正交的3个轴分别定义为X轴、Y轴、Z轴的坐标系)中的摄像机550R的位置和姿势为已知。另外,在HMD540上的多个位置上,设定有左摄像机坐标系中的位置为已知的客观视点标识Pk(k=1,,,K2)。
由摄像机550L、550R所拍摄的左右主观视点图像,被分别输入到主观视点标识检测单元110L、110R中。
主观视点标识检测单元110L和110R,通过与第1实施形式中的主观视点标识检测单元110相同的处理,对分别输入的左右主观视点图像进行主观视点标识的检测处理,并将检测出的标识的图像坐标及其标识符输出给位置姿势计算单元520。以下,将由主观视点标识检测单元110L和110R检测出的标识的图像坐标分别表示为uL QkLn和uR QkRn。另外,将检测出的标识的总数分别表达为NL和NR。
在图5的例子中,表示配置有3个主观视点标识Q1、Q2、Q3,其中2个主观视点标识Q1、Q2包含在摄像机550L的视场内,2个主观视点标识Q1、Q3包含在摄像机550R的视场内的状况。此时,NL=2,主观视点标识检测单元110L输出标识符kL1=1、kL2=2和与它们对应的图像坐标uQkL1、uQkL2。同样地,NR=2,主观视点标识检测单元110R输出标识符kR1=1、kR2=3和与它们对应的图像坐标uQkR1、uQkR2。
位置姿势计算单元520基于检测出的主观视点标识Qkn的图像坐标uLQkLn和uRQkRn以及客观视点标识Pkm的图像坐标uPkm,计算出2台摄像机550L、550R的位置和姿势。
另外,图5所示的客观视点标识检测单元310、位置姿势计算单元520、主观视点标识检测单元110R、110L既可以分别作为独立的装置来处理,也可以分别作为软件安装在1个或多个计算机中,并由各个计算机的CPU进行执行,由此来实现其功能。在本实施形式中,各单元(客观视点标识检测单元310、位置姿势计算单元520、主观视点标识检测单元110R、110L)作为在1台计算机内成为执行对象的软件来处理。另外该计算机的基本结构采用图10所示的结构。
另外,在与本实施形式相关的说明中,设已知的信息全部保存在外部存储装置1007中。
位置姿势计算单元520的处理过程与第1实施形式中的位置姿势计算单元320相同,将摄像机550L的位置和姿势作为未知参数,计算出6值状态向量s=[x y z ξ ψ ζ]T。但是,因为使用左右双方的主观视点标识的检测结果,所以在以下点上与第1实施形式处理不同。
即,将误差向量U设定为垂直排列了误差ΔuL QkLn、ΔuR QkRn和ΔuPkm的2(NL+NR+M)维的向量。另外,将矩阵Φ设定为垂直排列了雅可比矩阵JuLs QkLn、JuRs QkRn和Jus Pkm的2(NL+NR+M)行×6列的矩阵。在图5的例子中,M=2、NL=2、NR=2,所以U是12维向量,Φ是12行×6列的矩阵。
在此,关于主观视点标识的误差和雅可比矩阵的计算,基于摄像机550L、550R的各自的固有参数(焦点距离),通过与第1实施形式中的关于主观视点标识的误差和雅可比矩阵的计算(步骤S4040~S4060)相同的处理来进行。但是,关于摄像机550R,作为从s求得右摄像机坐标系(将摄像机550R上的1点定义为原点,进而将相互正交的3个轴分别定义为X轴、Y轴、Z轴的坐标系)中的标识的坐标XCR QkRn的公式,取代式2而使用下式。
[式18]
此处,MCLCR是从右摄像机坐标系向左摄像机坐标系的变换矩阵,基于作为已知的值被预先保持的左摄像机坐标系中的摄像机550R的位置和姿势,而预先计算出。
根据以上公式,如果已求得s,则摄像机550R的位置和姿势,通过使用s和作为已知值的MCLCR就能够容易地计算出。
本实施形式中的位置姿势测量装置500的输出,既可以是表示摄像机550L和550R各自的位置和姿势的观察变换矩阵,也可以是表示摄像机550L和550R各自的位置和姿势的2个6维向量。另外,在使用位置姿势测量装置500的输出的装置(本实施形式中为未图示的图像生成装置)保持有摄像机550L和摄像机550R的位置关系(例如上述矩阵MCLCR)时,也可以仅输出表示一个摄像机的位置和姿势的数据。
通过以上处理,搭载于立体视频透视HMD上的2台摄像机的位置和姿势的测量,在位置和姿势的任何一个上都能以高的精度来实现。
[第3实施形式]
尽管第1实施形式使用了1台客观视点摄像机,但客观视点摄像机的台数并不限于1台。通过使用多台客观视点摄像机来构成位置姿势测量装置,就有望扩大测量范围和提高测量的稳定性。
图6是表示本实施形式的位置姿势测量装置的概略结构的图。对与图1、图3相同的部分附加相同的编号、记号。如图6所示那样,本实施形式的位置姿势测量装置600由客观视点摄像机330a~330d、客观视点标识检测单元310a~310d、主观视点标识检测单元110、以及位置姿势计算单元620构成。
另外,主观视点标识Q和客观视点标识P与第1实施形式同样地进行配置,摄像装置130所拍摄的主观视点映像被输入给主观视点标识检测单元110。主观视点标识检测单元110的功能与第1实施形式相同,故省略其说明。
在摄像装置130处于测量对象范围内时,客观视点摄像机330a~330d被固定配置于可以拍摄摄像装置130的位置。客观视点摄像机330a~330d的配置,可以为了提高对于遮挡的稳定性,进行设定以便为了使客观视点标识P同时由多个客观视点摄像机来进行观察,而使其分别拍摄重叠的区域,也可以以扩大测量对象范围为目的,进行设定以便拍摄互不相同的区域。此外,设世界坐标系中的客观视点摄像机330a~330d各自的位置和姿势,作为已知值被预先保持。
客观视点标识检测单元310a~310d分别通过与第1实施形式中的客观视点标识检测单元3 10相同的处理,输入客观视点摄像机330a~330d所拍摄的各个客观视点图像,进行客观视点标识的检测处理,将检测出的标识的图像坐标及其标识符输出给位置姿势计算单元620。下面,将由客观视点标识检测单元310a~310d检测出的标识的图像坐标分别表达为ua Pkan、ub Pkbn、uc Pkcn、ud Pkdn。另外,将检测出的标识的总数分别表达为Ma、Mb、Mc、Md。
位置姿势计算单元620基于检测出的各主观视点标识的图像坐标和该标识的世界坐标的对应关系、以及由客观视点标识检测单元310a~310d分别检测出的各客观视点标识的图像坐标和主观视点摄像机坐标系上的标识的对应关系,计算出摄像装置130的位置和姿势。
另外,图6所示客观视点标识检测单元310a~310d、主观视点标识检测单元110、以及位置姿势计算单元620既可以分别作为独立的装置来处理,也可以分别作为软件安装在1个或多个计算机中,并由各个计算机的CPU进行执行,由此来实现其功能。在本实施形式中,各单元(客观视点标识检测单元310a~310d、主观视点标识检测单元110、以及位置姿势计算单元620)作为在1台计算机内成为执行对象的软件来处理。另外该计算机的基本结构采用图10所示的结构。
另外,在有关本实施形式的说明中,设已知信息全部保存在外部存储装置1007中。
位置姿势计算单元620的处理过程与第1实施形式中的位置姿势计算单元320相同,将摄象装置130的位置和姿势作为未知参数,计算出6值状态向量s=[x y z ξ ψ ζ]T。但是,因为使用多台客观视点摄像机,所以在以下点上与第1实施形式处理不同。
即,将误差向量U设定为垂直排列了误差ΔuQkn、Δua Pkam、Δub Pkbm、Δuc Pkcm和Δud Pkdm的2(N+Ma+Mb+Mc+Md)维的向量。另外,将矩阵Φ设定为垂直排列了雅可比矩阵Jus Qkn、Juas Pkam、Jubs Pkbm、Jucs Pkcm和Juds Pkdm的2(N+Ma+Mb+Mc+Md)行×6列的矩阵。在此,与客观视点标识有关的误差和雅可比矩阵的计算,基于客观视点摄像机330a~330d的各固有参数(世界坐标系中的位置和焦点距离),通过与第1实施形式中的与客观视点标识有关的误差和雅可比矩阵的计算(步骤S4070~S4090)相同的处理来进行。
如以上那样,通过使用多个客观视点摄像机,即使在摄像装置在较广范围内移动的情况,或对于任何一个客观视点摄像机,摄像装置被遮挡住这样的状况下,也可以得到对计算位置和姿势所足够的数据,从而实现扩大可移动范围或者提高对遮挡等的稳定性。
另外,尽管本实施形式中的位置姿势测量装置使用了4台客观视点摄像机,但不言而喻客观视点摄像机的台数并不限于此,也可以是任意的台数。
[第4实施形式]
第1至第3实施形式是以测量在空间中移动的摄像装置自身的位置和姿势为目的的。本实施形式的位置姿势测量装置是以测量任意对象物体的位置和姿势为目的的位置姿势测量装置,是在第1实施形式的位置姿势测量装置上追加了拍摄主观视点图像的摄像机的结构。下面,说明本实施形式的位置姿势测量装置和位置姿势测量方法。
图7是表示本实施形式的位置姿势测量装置的结构的图。对于与图1、图3相同的部分附加相同的编号、记号,并省略其说明。如图7所示那样,本实施形式的位置姿势测量装置700由主观视点标识检测单元110、客观视点标识检测单元310、位置姿势计算单元720、客观视点摄像机330和主观视点摄像机730构成。
主观视点摄像机730固定安装于测量对象物体710。此处,设主观视点摄像机坐标系(将主观视点730上的1点定义为原点,进而将相互正交的3个轴分别定义为X轴、Y轴、Z轴的坐标系)中的测量对象物体710的位置和姿势是已知的。
在现实空间中的多个位置上,配置有在世界坐标系中的位置为已知的主观视点标识Qk(k=1,,,K1),作为用于由摄像装置130拍摄的标识(下面称为主观视点标识)。另外,在主观视点摄像机730上的多个位置处,配置有在主观视点摄像机坐标系上的位置为已知的客观视点标识Pk(k=1,,,K2)。
最好是,这样设置这些标识,以便在使测量对象物体710位于将要测量位置和姿势的测量对象范围内的各个地点时,在由主观视点摄像机730所取得的图像上被观测到的主观视点标识,和在由客观视点摄像机330所取得的图像上被观测到的客观视点标识的总数,始终至少为3个。
客观视点摄像机330、主观视点标识检测单元110、以及客观视点标识检测单元310的功能与第1实施形式相同,故省略其详细说明。但是,在将由主观视点摄像机730所取得的图像作为主观视点图像输入到主观视点标识检测单元110中这一点上,与第1实施形式不同。
位置姿势计算单元720将世界坐标系中的主观视点摄像机730的位置和姿势作为未知的向量s,通过与图4所示的第1实施形式中的位置姿势计算单元320相同的处理,计算出s。
位置姿势计算单元720进而基于由上述过程算出的世界坐标系中的主观视点摄像机730的位置和姿势、以及作为已知值的主观视点摄像机坐标系中的测量对象物体710的位置和姿势,通过坐标变换矩阵的积计算出世界坐标系中的测量对象物体710的位置和姿势,并将其输出。
通过以上处理,任意的测量对象物体的位置和姿势的测量,在位置和姿势的任何一个上都能以高的精度来实现。
另外,图7所示主观视点标识检测单元110、客观视点标识检测单元310、以及位置姿势计算单元720既可以分别作为独立的装置来处理,也可以分别作为软件安装在1个或多个计算机中,由各个计算机的CPU进行执行,由此来实现其功能。在本实施形式中,各单元(主观视点标识检测单元110、客观视点标识检测单元310、以及位置姿势计算单元720)作为在1台计算机内成为执行对象的软件来处理。另外该计算机的基本结构采用图10所示的结构。
另外,在有关本实施形式的说明中,设已知的信息全部保存在外部存储装置1007中。
另外,本实施形式中的位置姿势计算单元720将主观视点摄像机730的位置和姿势作为状态向量s,但也可以将测量对象物体710的位置和姿势作为状态向量s直接来求得。此时,将由s来求得主观视点标识的主观视点摄像机坐标XC Qkn的式2和求得客观视点标识的客观视点摄像机坐标系中的坐标XB Pkm的式12分别替换成
[式19]
[式20]
即可。此处,MCO是从测量物体坐标系(将测量对象物体710上的1点定义为原点,进而将相互正交的3个轴分别定义为X轴、Y轴、Z轴的坐标系)向主观视点摄像机坐标系的变换矩阵,基于作为已知的值被预先保持的主观视点摄像机坐标系中的测量对象物体710的位置和姿势,而预先计算出。另一方面,MWO(s)是由s确定的建模变换矩阵(即,将物体坐标系中的坐标变换成世界坐标系中的坐标的矩阵),与式4一样由s来进行定义。
[第5实施形式]
在第1至第4实施形式中,位置姿势计算单元320、520、620、720的任一个都是,将表示位置和姿势的6值状态向量s作为未知数,来求得使主观视点标识和客观视点标识的检测坐标,与这些点的计算值之间的误差的总和最小的s。但是,通过并用从主观视点图像和客观视点图像两者得到的几何约束条件来取得测量对象物体的位置和姿势的方法并不限于此。本实施形式的位置姿势测量装置的特征在于,作为其构成要素,具有使用了与使整体的误差最小的方法不同的方法的位置姿势计算单元。
本实施形式的位置姿势测量装置的结构基本上与第1实施形式相同,为将位置姿势计算单元320替换成与第1实施形式中的不同的位置姿势计算单元320’的结构。下面,说明本实施形式的位置姿势测量装置和位置姿势测量方法。
在本实施形式中,各单元(客观视点标识检测单元310、位置姿势计算单元320’、主观视点标识检测单元110)作为在1台计算机内成为执行对象的软件来处理。另外该计算机的基本结构采用图10所示的结构。另外,在有关本实施形式的说明中,设已知的信息全部保存在外部存储装置1007中。
图11是通过CPU1001执行位置姿势计算单元320’的软件的程序而进行的、计算表示摄像装置130的位置和姿势的参数的处理的流程图。另外,假定在进行以下处理之前,客观视点标识检测单元310、位置姿势计算单元320’、主观视点标识检测单元110各自的软件的程序已经被装入到RAM1002中。
在步骤S11000中,位置姿势计算单元320’输入在客观视点标识检测单元310中检测出的客观视点标识P的图像坐标uPa、uPb。在本实施形式中,以后的处理所使用的客观视点标识仅是1点。
另外,输入了多个客观视点标识的图像坐标时(即,在摄像装置130上设定了2点以上的客观视点标识,且这些中的多个被客观视点标识检测单元310检测出来时),位置姿势计算单元320’选择适当的1点作为客观视点标识P的图像坐标uP。
在步骤S11010中,位置姿势计算单元320’基于图像坐标uP,计算出表示约束世界坐标系中的客观视点标识P的位置的一条直线的参数。即,基于图像坐标uP,通过
[式21]
计算出世界坐标系中的直线的倾斜度(方向向量)hx、hy、hz,将计算出的该hx、hy、hz作为直线的参数。此处,fB x和fB y分别是x轴方向和y轴方向的客观视点摄像机330的焦点距离,并作为已知值被预先保持在外部存储装置1007中。此时,世界坐标系中的直线上的点,能够作为媒介变量τ的函数,如
[式22]
那样来表示。此处,xWB、yWB、zWB是世界坐标系中的客观视点摄像机330的位置,作为已知值被预先保持在外部存储装置1007中。
从而,用式22表示的直线是通过世界坐标系中的客观视点摄像机330的位置和世界坐标系中的客观视点标识P的位置的直线,世界坐标系中的客观视点标识P的位置是通过上述媒介变量τ取适当值而得到的。
下面,利用组合了确定世界坐标系中的客观视点标识P的位置的媒介变量τ,和表示摄像装置130的姿势的3值(ξ ψ ζ)的4值状态向量s=[τ ξ ψ ζ]T来描述待求得的未知参数。
在步骤S11020中,位置姿势计算单元320’在状态向量s上设定适当的初始值。作为s的初始值,例如,既可以使用在前一帧(时刻tk-1)处理中所导出的s,也可以设定通过基于来自过去的s的导出值的变化的预测而得到的值。
在步骤S11030中,位置姿势计算单元320’输入在主观视点标识检测单元110中检测出的各主观视点标识Qkn的图像坐标uQkn及其标识符kn。
在步骤S11040中,位置姿势计算单元320’判断所输入的主观视点标识数是否为2个以上。如果标识总数N不足2个,则不进行由步骤S11050到步骤S11100所实现的s的更新处理而进入步骤S11110。
在步骤S11050中,位置姿势计算单元320’对各主观视点标识Qkn,基于式1~式4计算出其图像坐标的推测值uQkn*。但是,在本实施形式中,作为s的构成要素,不包含式4中的x、y、z(表示世界坐标系中的摄像装置130的位置),所以通过下式基于s计算出这些值。
[式23]
此处,XC P是主观视点摄像机坐标系中的标识P的坐标值,作为已知信息被预先保持在外部存储装置1007中。另外,RWC(s)是表示世界坐标系中的摄像装置130的姿势的旋转矩阵,根据s如下式那样进行定义。
[式24]
即,在步骤S11050中,假定为摄像装置130的位置和姿势遵照以前所求得的状态向量s,并根据摄像装置130和主观视点标识的位置姿势关系,求得各主观视点标识的图像坐标的推测值。
接着,在步骤S11060中,位置姿势计算单元320’对各主观视点标识Qkn,基于式5计算出图像坐标的推测值uQkn*和实测值uQkn的误差ΔuQkn。
在步骤S11070中,位置姿势计算单元320’对各主观视点标识Qkn,计算出作为各元素具有用s的各元素对式1的函数FC()进行了偏微分的解的2行×3列的雅可比矩阵Jus Qkn(=u/s)。具体来讲,就是计算出作为各元素具有用向量s的各元素对式2的右边进行了偏微分的解的3行×4列的雅可比矩阵Jxs Qkn(=x/s),和作为各元素具有用摄像机坐标XC Qkn的各元素对式3的右边进行了偏微分的解的2行×3列的雅可比矩阵Jux Qkn(=u/x),并通过式6算出Jus Qkn。
在步骤S11080中,位置姿势计算单元320’通过式7确定2N维的误差向量U,通过式8确定矩阵Φ(2N行×4列),通过式9算出状态向量s的修正值Δs。
在步骤S11090中,位置姿势计算单元320’通过式10用在步骤S11080中计算出的修正值Δs来修正状态向量s,并将所得到的值设为s的新推测值。
在步骤S11100中,位置姿势计算单元320’使用误差向量U是否比预先确定的阈值小,或者修正值Δs是否比预先确定的阈值小这样的一些判断标准,来判断计算是否收敛。如果不收敛,则用修正后的状态向量s再次进行步骤S11050以后的处理。
在步骤S11110中,位置姿势计算单元320’输出摄像装置130的位置和姿势的信息。位置和姿势信息,例如以从s计算出的建模变换矩阵的形式输出。另外,既可以基于式23从所得到的s计算出世界坐标系中的摄像装置130的位置,与包含在s中的表示姿势的3值一起作为表示位置和姿势的6值的数据进行输出,也可以将姿势变换成欧拉角后进行输出,还可以输出由其他任何位置姿势记述方法所记述的位置和姿势的信息。
通过以上处理,将应存在从客观视点摄像机330得到的客观视点标识的直线作为约束条件,在该约束条件基础上,就能够得到使主观视点图像上的主观视点标识的误差最小那样的摄像装置130的位置和姿势。
另外,本实施形式的位置和姿势的测量结果与第1实施形式的位置和姿势的测量结果相比较,就优先信赖从客观视点摄像机330得到的信息。从而,在从客观视点摄像机330得到的信息的可靠性比从摄像装置130得到的信息相对要高的状况下,例如,在可利用高分辨率的客观视点摄像机时,或仅可将检测精度非常高的标记作为客观视点标识进行利用时等,本实施形式的位置姿势测量装置与第1实施形式相比就更有效地发挥作用。
[第6实施形式]
本实施形式的位置姿势测量装置具有如下结构:在第5实施形式的位置姿势测量装置上再追加1台客观视点摄像机,且取代位置姿势计算单元320’,而使用通过与位置姿势计算单元320’不同的动作来输出摄像装置130的位置和姿势的信息的位置姿势计算单元820。
下面,说明本实施形式的位置姿势测量装置和位置姿势测量方法。
图8是表示本实施形式的位置姿势测量装置的结构的图。另外,对于与图1、图3相同的部分,附加相同编号、记号,并省略其说明。如图8所示那样,本实施形式中的位置姿势测量装置800由客观视点摄像机330a、330b、主观视点标识检测单元110、客观视点标识检测单元310a、310b、以及位置姿势计算单元820构成,并连接到作为测量对象的摄像装置130。
在摄像装置130上配置有主观视点摄像机坐标系上的位置为已知的客观视点标识P。最好是对该标识的进行配置,以便在使摄像装置130位于将要测量的位置和姿势的测量对象范围内的各地点时,在由客观视点摄像机330a、330b各自所得到的图像上始终被观测到。
客观视点摄像机330a、330b在摄像装置130位于测量对象范围内时,被固定配置在始终可拍摄客观视点标识P的位置。此处,设世界坐标系中的客观视点摄像机330a和330b的位置和姿势作为已知值被预先保持。
在现实空间中的多个位置处,与第1实施形式同样配置有主观视点标识Qk。最好是对这些标识进行配置,以便在使摄像装置130位于将要测量的位置和姿势的测量对象范围内的各地点时,在由摄像装置130所取得的图像上被观测到的总数N至少为2个。图8的例子表示配置有3个主观视点标识Q1、Q2、Q3,其中2个主观视点标识Q1、Q2被包含在摄像装置130的视场内的状况。
客观视点标识检测单元310a输入客观视点摄像机330a所拍摄的客观视点图像,通过与上述以往例相同的处理,检测出客观视点标识P的图像坐标,并将其图像坐标uPa输出给位置姿势计算单元820。同样地,客观视点标识检测单元310b输入客观视点摄像机330b所拍摄的客观视点图像,通过与上述以往例相同的处理,检测出客观视点标识P的图像坐标,将其图像坐标uPb输出给位置姿势计算单元820。
位置姿势计算单元820将主观视点标识Qkn的图像坐标uQkn、客观视点标识P的图像坐标uPa和uPb作为输入,计算出摄像装置130的位置和姿势,并将其输出。
另外,图8所示的主观视点标识检测单元110、客观视点标识检测单元310a、310b、以及位置姿势计算单元820既可以分别作为独立的装置来处理,也可以分别作为软件安装在1个或多个计算机中,由各自的计算机的CPU进行执行,由此来实现其功能。在本实施形式中,各单元(主观视点标识检测单元110、客观视点标识检测单元310a、310b、以及位置姿势计算单元820)作为在1台计算机内成为执行对象的软件来处理。另外,该计算机的基本结构采用图10所示的结构。
另外,在关于本实施形式的说明中,设已知的信息全部保存在外部存储装置1007中的信息。
图9是通过CPU1001执行位置姿势计算单元820的软件的程序而进行的、计算表示摄像装置130的位置和姿势的参数的处理的流程图。假定在进行以下处理之前,主观视点标识检测单元110、客观视点标识检测单元310a、310b、以及位置姿势计算单元820的各软件的程序已经被装入到RAM1002中。
在步骤S9000中,位置姿势计算单元820输入在客观视点标识检测单元310a和310b中检测出的客观视点标识P的图像坐标uPa、uPb。
在步骤S9010中,位置姿势计算单元820基于三角测量的原理,使用图像坐标uPa和uPb,计算出世界坐标系中的客观视点标识P的位置XW P。
下面,通过表示待计算的摄像装置130的姿势的3值状态向量s=[ξ ψ ζ]T,来描述待求得的未知参数。
在步骤S9020中,位置姿势计算单元820在状态向量s上设定适当的初始值(姿势的推测值)。作为s的初始值,例如既可以使用在前一帧(时刻tk-1)的处理中所导出的s,也可以设定通过基于来自过去的s的导出值的变化的预测而得到的值。
在步骤S9030中,位置姿势计算单元820输入在主观视掉标识110中检测出的各主观视点标识Qkn的图像坐标uQkn及其标识符kn。
在步骤S9040中,位置姿势计算单元820判断所输入的主观视点标识数是否为2个以上。在标识总数N不足2个时,不进行由步骤S9050至步骤S9100实现的s的更新处理,进入步骤S9110。
在步骤S9050中,位置姿势计算单元820对各主观视点标识Qkn,基于式1~式4计算出其图像坐标的推测值uQkn*。但是,在本实施形式中,由于作为s的构成要素,不包含式4中的x、y、z(表示世界坐标系中的摄像装置130的位置),所以通过下式,基于s计算出这些值。
[式25]
这里,XW P表示在步骤S9010中计算出的世界坐标系中的客观视点标识P的位置,XC P表示作为已知值的主观视点摄像机坐标系中的客观视点标识P的位置。另外,RWC(s)是表示世界坐标系中的摄像装置130的姿势的旋转矩阵,由式24进行定义。
在步骤S9060中,位置姿势计算单元820对各主观视点标识Qkn,基于式5计算出图像坐标的推测值uQkn*和实测值uQkn的误差ΔuQkn。
在步骤S9070中,位置姿势计算单元820对各主观视点标识Qkn,计算出作为各元素具有用状态向量s的各元素对式1的函数FC()进行了偏微分的解的2行×3列的雅可比矩阵Jus Qkn(=u/s)。具体来讲,就是计算出作为各元素具有用摄像机坐标XC Qkn的各元素对式3的右边进行了偏微分的解的2行×3列的雅可比矩阵Jux Qkn(=u/x),和作为各元素具有用向量s的各元素对式2的右边进行了偏微分的解的3行×3列的雅可比矩阵Jxs Qkn(=x/s),并通过式6计算出Jus Qkn。
在步骤S9080中,位置姿势计算单元820通过式7确定2N维的误差向量U,通过式8确定矩阵Φ(2N行×3列),通过式9计算出状态向量s的修正值Δs。
在步骤S9090中,位置姿势计算单元820用在步骤S9080中计算出的修正值Δs,通过式10修正状态向量s,并将所得到的值设为s的新推测值。
在步骤S9100中,位置姿势计算单元820使用误差向量U是否比预先确定的阈值小,或者修正值Δs是否比预先确定的阈值小这样的一些判断标准,来判断计算是否收敛。如果不收敛,则用修正后的状态向量s再次进行步骤S9050以后的处理。
在步骤S9110中,位置姿势计算单元820输出摄像装置130的位置和姿势的信息。位置和姿势的信息例如以从s计算出的建模变换矩阵的形式进行输出。另外,既可以从所得到的s基于式25计算出世界坐标系中的摄像装置130的位置,与表示姿势的s本身一起作为6值数据进行输出,也可以将姿势变换成欧拉角后进行输出,还可以输出由其他任何位置姿势记述方法所记述的位置和姿势的信息。
通过以上处理,将用客观视点摄像机330所求得的客观视点标识的位置作为约束条件,在该约束条件的基础上,就能够得到使主观视点图像上的主观视点标识的误差最小那样的摄像装置130的位置和姿势。从而,与第5实施形式同样,在从客观视点摄像机330得到的信息的可靠性比从摄像装置130得到的信息相对要高的状况下,例如在可利用高分辨率的客观视点摄像机时,或仅可将检测精度非常高的标记作为客观视点标识进行利用时等,本实施形式的位置姿势测量装置与第1实施形式相比就更有效地发挥作用。
[第7实施形式]
尽管在第6实施形式中,是通过2台客观视点摄像机,来计算出客观视点标识P的世界坐标XW P,但只要是能测量某测量点的3维位置的装置,则任何装置都可取代第6实施形式中的客观视点摄像机来使用。下面,说明本实施形式的位置姿势测量装置和位置姿势测量方法。
图12是表示本实施形式的位置姿势测量装置的结构的图。对于与图8相同的部分,附加相同的编号、记号,并省略其说明。如图12所示,本实施形式中的位置姿势测量装置1200由主观视点标识检测单元110、位置传感器1230、测量点1240、位置输入单元1210、以及位置姿势计算单元820’构成,并连接到作为测量对象的摄像装置130上。
位置传感器1230是测量预定的测量点的3维位置的传感器,例如,由作为光学式3维位置传感器的Northern Digital lnc.的OPTOTRAK构成。
测量点1240是作为由位置传感器1230所测量的对象的点,在使用OPTOTRAK的情况下,由依照来自位置传感器1230的控制信号而忽亮忽灭的红外LED构成。测量点1240取代第6实施形式中的客观视点标识P,安装在摄像装置130上。最好是对测量点1240进行配置,以便在使摄像装置130位于将要测量位置和姿势的测量对象范围内的各地点时,始终被包含在位置传感器1230的测量范围内。另外,主观视点摄像机坐标系中的测量点1240的位置作为已知的数据被存储在外部存储装置1007中,并根据需要被读出到RAM1002进行使用。
位置输入单元1210输入位置传感器1230输出的测量点1240的3维坐标,并将其输出给位置姿势计算单元820’。此外,在位置传感器1230输出的测量点1240的3维坐标是位置传感器1230自身定义的传感器坐标系中的坐标时,位置输入单元1210在将其变换成世界坐标系中的坐标后,输出给位置姿势计算单元820’。如果世界坐标系中的位置传感器1230的位置和姿势作为已知信息被给出,则从传感器坐标系向世界坐标系的坐标变换能够通过公知方法来进行。世界坐标系中的位置传感器1230的位置和姿势作为已知的信息被存储在外部存储装置1007中,根据需要被读出到RAM1002进行使用。
位置姿势计算单元820’使用从位置输入单元1210所输入的测量点1240的3维坐标和从主观视点标识检测单元110输入的主观视点标识Qkn的图像坐标uQkn,计算出摄像装置130的位置和姿势,并将其输出。
另外,位置姿势计算单元820’的动作与第6实施形式中的位置姿势计算单元820大致相同。但是,取代位置姿势计算单元820的步骤(步骤S9000、S9010),即输入客观视点标识P的图像坐标uPa、uPb,计算出世界坐标系中的客观视点标识P的位置XW P,而是位置姿势计算单元820’具有从位置输入单元1210输入世界坐标系中的测量点1240的位置XW P的步骤。另外,在将世界坐标系中的测量点1240的位置用作式25中的XW P这一点上,与第6实施形式不同。
通过以上处理,将用位置传感器1230所求得的测量点1240的位置作为约束条件,在该约束条件基础上,就能够得到使主观视点图像上的主观视点标识的误差最小那样的摄像装置130的位置和姿势。据此,就能够实现兼顾了通过使用位置传感器所得到的位置精度的稳定性,和通过使用主观视点图像所得到的图像上的位置对准精度的稳定性的,摄像装置130的位置和姿势的测量。
另外,作为位置传感器1230所用的传感器,只要能够测量测试点的3维位置,则任何传感器都可以使用。例如,也可以将测量超声波信标(beacon)的3维位置的超声波传感器(例如Inter Sense公司的IS-600)用作位置传感器1230。在此情况下,超声波信标就作为测量点1240被安装在摄像装置130中。
另外,显然本实施形式可以适用于将摄像装置130装在安装了测量点的测量对象物体上,测量该测量对象物体或者摄像装置130的位置姿势的情况。此外,在求摄像装置130的位置姿势时,摄像装置130和测量对象物体的位置姿势关系必须预先测定,并保存在存储器中。
[第8实施形式]
在第7实施形式中,作为位置传感器是使用光学传感器或超声波传感器,但在以室外使用为目的的情况下,就可将GPS(GlobalPositioning System)用作位置传感器。下面,说明本实施形式的位置姿势测量装置和位置姿势测量方法。
图13是表示本实施形式的位置姿势测量装置的结构的图。对于与图12相同的部分,附加相同编号、符号,并省略其说明。如图13所示那样,本实施形式中的位置姿势测量装置1300由主观视点标识检测单元110、GPS接收机1330、位置输入单元1310、以及位置姿势计算单元1320构成,并连接到作为测量对象的摄像装置130。
GPS接收机1330被安装在摄像装置130上,通过接收来自GPS卫星1340a~1340d的信号,来测量在地球上的自己的位置(纬度、经度、高度),向位置输入单元1310输出。但是,在不能捕捉足够数量的GPS卫星的情况下,有时只能得到纬度和经度的测量值,所以在此情况下只输出纬度和精度。此外,设主观视点摄像机坐标系中的GPS接收机1330的位置为已知。
位置输入单元1310输入GPS接收机1330输出的纬度、经度和高度,在通过公知的矩阵变换处理将其变换成世界坐标系中的3维坐标(xP、yP、zP)或2维坐标(xP、yP)后,向位置姿势计算单元1320输出。
位置姿势计算单元1320使用从位置输入单元1310输入的GPS接收机1330的3维坐标或2维坐标,和从主观视点标识检测单元110输入的主观视点标识Qkn的图像坐标uQkn,计算出摄像装置130的位置和姿势,并将其输出。
在得到GPS接收机1330的3维坐标时,位置姿势计算单元1320通过与第6实施形式中的位置姿势计算单元820’相同的处理过程,导出摄像装置130的位置和姿势并将其输出。另外,在仅测量到GPS接收机1330的2维坐标时,通过与第5实施形式中的位置姿势计算单元820相同的处理过程,即,组合了表示约束测量点(本实施形式中为GPS接收机1330)在世界坐标系中的位置的直线的媒介变量τ,和表示摄像装置130的姿势的3值(ξψζ)的4值状态向量s=[τξψζ]T作为未知参数来对其进行求解的处理过程,导出摄像装置130的位置和姿势并将其输出。另外,在本实施形式的情况下,如下式那样构成直线的约束式(与第5实施形式中的式22对应的式子)即可。
[式26]
通过以上处理,将由GPS接收机1330得到的位置作为约束条件,在该约束条件的基础上,就能够得到使主观视点图像上的主观视点标识的误差最小那样的摄像装置130的位置和姿势。
另外,不言而喻在始终能期待GPS接收机1330可输出3维坐标的状态的情况下,可以采用没有仅获得2维坐标的情况的处理分支的结构。另外,如果能够假定摄像装置130的高度始终恒定(例如摄像装置130是HMD的内置摄像机,其高度能够假定为装戴者的视点的高度的情况等),则也可以不使用从GPS接收机1330得到的高度的信息,而使用固定值作为高度方向的位置。
<变形例1>
尽管在上述各实施形式中,对基于误差向量U和矩阵Φ的状态向量的修正值Δs的计算,使用由式9表达的最陡下降法,但修正值Δs的计算未必非要通过最快下降法来进行。例如也可以使用作为公知的数值计算方法的LM法(Levenberg-Marquardt法)来计算,不言而喻即使应用其他任何数值计算方法也无损本发明的实质。
<变形例2>
在上述各实施形式中,作为与标识的图像坐标相关的特征量,使用了点特征,即代表标识的投影图像的1点的图像坐标。另外,作为标识Q和P,使用了可抽取这样的点特征的标识(以下将其称为点标识)。但是上述实施形式并不限于标识的种类和与标识的图像坐标相关的特征量的种类。
例如,还能够将在公知的位置姿势测量装置(例如,参照高桥、石井、牧野、中静:用于VR接口的利用单眼的长方形标记位置·姿势的高精度实时推测法、3维图像会议’96讲演论文集、PP.167-172,1996.)中所使用那样的、具有特定几何形状的标记,作为主观视点标识和/或客观视点标识来使用。在将四角形标记用作标识时,将四角形的各顶点的世界坐标作为已知值来保持,从图像中检测出各顶点的图像坐标作为与标识的图像坐标相关的特征量,由此就能够取得与上述实施形式中的标识相同的效果。
另外,也可以将在其他公知的位置姿势测量装置(例如,参照非专利文献2)中所使用那样的线特征作为与标识的图像坐标相关的特征量来使用,将可抽取线特征的标识(以下将其称为线标识)作为主观视点标识和/或客观视点标识来使用。例如,将直线距原点的距离作为用于误差评价的标准,由从来自图像的检测值d和来自状态向量s的推测值d*计算出的误差Δd,构成误差向量U,由作为各元素具有用状态向量s的各元素对d*的计算式进行了偏微分的解的1行×6列的雅可比矩阵Jds(=d/s)构成矩阵Φ,由此,就能够通过与上述实施形式相同的方案来进行位置和姿势的测量。当然,还可以并用线标识和点标识。
<变形例3>
尽管在第3至第8实施形式中,摄像装置130或主观视点摄像机730用了1台,但也可与第2实施形式一样,使用多台摄像装置或主观视点摄像机。
<变形例4>
尽管在第4实施形式中,客观视点标识P被配置在主观视点摄像机730上,但客观视点标识P的配置位置并不限于此,不言而喻即使配置在测量对象物体710上也可取得同样的效果。
<变形例5>
尽管第5至第8实施形式是将主观视点摄像机坐标系中的客观视点标识、测量点、GPS接收机的各自的位置设为已知,并考虑到与作为测量对象的摄像装置130的位置的差异的结构,但也可采取将它们近似为相同的进行了简化的结构。
此外,通过并用从主观视点图像和客观视点图像两者得到的几何约束条件来测量测量对象物体的位置和姿势本身才是本质特征,适用范围并不限于标识的种类、约束条件的使用方法、解的计算方法。
由于在不脱离本发明的精神和范围内,能够实现本发明大量明显且广泛的不同实施形式,应该理解为本发明并不限于特定的实施形式,而是由附加的权利要求所规定。
Claims (17)
1.一种计算对象物体的位置和姿势的位置姿势测量方法,其特征在于,包括:
取得第1图像的主观视点取得步骤,该第1图像是通过安装在上述对象物体上的主观视点摄像单元拍摄场景而得到的;
取得第2图像的客观视点图像取得步骤,该第2图像是通过客观视点摄像单元拍摄上述对象物体而得到的;
第1检测步骤,从上述第1图像中检测出与配置在上述场景中的第1标识的图像坐标相关的特征量;
第2检测步骤,从上述第2图像中检测出与配置在上述对象物体上或上述主观视点摄像单元上的第2标识的图像坐标相关的特征量;以及
位置姿势计算步骤,用在上述第1检测步骤中检测出的与上述第1标识的图像坐标相关的特征量,和在上述第2检测步骤中检测出的与上述第2标识的图像坐标相关的特征量,计算出上述对象物体的位置和姿势。
2.根据权利要求1所述的位置姿势测量方法,其特征在于:
上述对象物体是摄像装置,具有上述主观视点摄像单元。
3.根据权利要求1所述的位置姿势测量方法,其特征在于:
上述客观视点摄像单元被固定在上述场景中。
4.根据权利要求1所述的位置姿势测量方法,其特征在于:
上述客观视点摄像单元由多个摄像机组成。
5.根据权利要求1所述的位置姿势测量方法,其特征在于:
上述位置姿势计算步骤还包括,
推测步骤,基于上述对象物体的位置和姿势的推测值,分别推测出与上述第1图像内的上述第1标识的图像坐标相关的特征量,和与上述第2图像内的上述第2标识的图像坐标相关的特征量;以及
修正步骤,为了使在上述第1和第2检测步骤中检测出的与上述第1和第2标识的图像坐标相关的特征量,和在上述推测步骤中推测出的与该标识各自的图像坐标相关的特征量之间的误差减小,而修正上述对象物体的位置和姿势的推测值。
6.根据权利要求1所述的位置姿势测量方法,其特征在于:
与上述第1标识的图像坐标相关的特征量是由上述第1标识所确定的1个点或多个点的图像坐标,与上述第2标识的图像坐标相关的特征量是由上述第2标识所确定的1个点或多个点的图像坐标。
7.根据权利要求6所述的位置姿势测量方法,其特征在于:
作为上述第1标识和上述第2标识,分别设定至少1个点的可检测出图像坐标的标识,在上述第1检测步骤和上述第2检测步骤中检测出的图像坐标的总数为3个点以上。
8.根据权利要求6所述的位置姿势测量方法,其特征在于:
上述位置姿势计算步骤包括,
位置计算步骤,用在上述第2检测步骤中检测出的上述第2标识的图像坐标,计算出与上述对象物体的位置相关的信息;以及
姿势计算步骤,用在上述第1检测步骤中检测出的上述第1标识的图像坐标,计算出与上述对象物体的姿势相关的信息。
9.根据权利要求6所述的位置姿势测量方法,其特征在于:
作为上述第2标识,设定1个点的标识,作为上述第1标识,设定至少2个点的可检测出图像坐标的标识。
10.一种位置姿势测量方法,计算安装在拍摄现实空间的第1摄像单元中,与该第1摄像单元的位置姿势关系已知的对象物体的第1位置姿势参数,其特征在于,包括:
第1图像坐标检测步骤,从由上述第1摄像单元所拍摄的第1图像中检测出配置在上述现实空间中的第1标识的图像坐标;
第1推测图像坐标检测步骤,在上述第1摄像单元的位置和姿势遵照以前计算出的第2位置姿势参数这样的假定的基础上,根据上述第1摄像单元和上述第1标识的位置姿势关系,来求得上述第1标识的推测图像坐标;
第1误差坐标计算步骤,求得上述第1图像上的、在上述第1图像坐标检测步骤中检测出的图像坐标和在上述第1推测图像坐标检测步骤中计算出的推测图像坐标的第1误差坐标;
第2图像坐标检测步骤,从由第2摄像单元所拍摄的、包含上述对象物体的第2图像中,检测出配置在上述第1摄像单元或上述对象物体中的第2标识的图像坐标;
第2推测图像坐标检测步骤,在上述第1摄像单元的位置和姿势遵照上述以前计算出的第2位置姿势参数这样的假定的基础上,根据上述第1摄像单元和上述第2标识的位置姿势关系,来求得上述第2标识的推测图像坐标;
第2误差坐标计算步骤,求得上述第2图像上的、在上述第2图像坐标检测步骤中检测出的图像坐标和在上述第2推测图像坐标检测步骤中计算出的推测图像坐标的第2误差坐标;
修正值计算步骤,用上述第1误差坐标和上述第2误差坐标,求得用于修正上述以前计算出的第2位置姿势参数的修正值;
修正步骤,用上述修正值修正上述以前计算出的第2位置姿势参数;以及
参数计算步骤,用在上述修正步骤中所修正的上述第2位置姿势参数,求得与上述第1摄像单元有已知的位置姿势关系的上述对象物体的上述第1位置姿势参数。
11.根据权利要求10所述的位置姿势测量方法,其特征在于:
上述对象物体是摄像装置,具有上述主观视点摄像单元。
12.根据权利要求1所述的位置姿势测量方法,其特征在于:
在上述第2检测步骤中检测出的与上述第2标识的图像坐标相关的特征量是上述第2标识的图像坐标;
上述位置姿势计算步骤,基于在上述第2检测步骤中检测出的上述第2标识的图像坐标和上述客观视点摄像单元的位置姿势,求得约束上述第2标识的3维空间中的位置的直线,在上述第2标识存在于上述直线上这样的约束的基础上,基于在上述第1检测步骤中检测出的与上述第1标识的图像坐标相关的特征量,计算出上述对象物体的位置和姿势。
13.根据权利要求12所述的位置姿势测量方法,其特征在于:
上述位置姿势计算步骤,将表示上述直线上的上述第2标识的位置的媒介变量和表示上述对象物体的姿势的参数作为未知数,并基于在上述第1检测步骤中检测出的与上述第1标识的图像坐标相关的特征量,来求出这些未知数,由此计算出上述对象物体的位置和姿势。
14.一种位置姿势测量方法,将拍摄场景的摄像装置作为测量对象物体,计算出该对象物体的位置和姿势,其特征在于,包括:
检测步骤,从由上述摄像装置所取得的图像中,检测出与配置在上述场景中的第1标识的图像坐标相关的特征量;
测量步骤,测量配置在上述摄像装置中的第2标识的位置;以及
位置姿势计算步骤,用在上述检测步骤中检测出的与上述第1标识的图像坐标相关的特征量,和在上述测量步骤中测量出的上述第2标识的位置,计算出上述摄像装置的位置和姿势。
15.一种计算对象物体的位置和姿势的位置姿势测量装置,其特征在于,包括:
主观视点摄像单元,安装在上述对象物体上来拍摄场景;
客观视点摄像单元,拍摄上述对象物体;
第1检测单元,从由上述主观视点摄像单元所取得的第1图像中,检测出与配置在上述场景中的第1标识的图像坐标相关的特征量;
第2检测单元,从由上述客观视点摄像单元所取得的第2图像中,检测出与配置在上述对象物体上或上述主观视点摄像单元上的第2标识的图像坐标相关的特征量;以及
位置姿势计算单元,用上述第1检测单元检测出的与上述第1标识的图像坐标相关的特征量,和上述第2检测单元检测出的与上述第2标识的图像坐标相关的特征量,计算出上述对象物体的位置和姿势。
16.一种程序,其特征在于:
使计算机执行权利要求1所述的位置姿势测量方法。
17.一种计算机可读取的存储介质,其特征在于:存储权利要求16所述的程序。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003004945 | 2003-01-10 | ||
JP004945/2003 | 2003-01-10 | ||
JP2003323101A JP4136859B2 (ja) | 2003-01-10 | 2003-09-16 | 位置姿勢計測方法 |
JP323101/2003 | 2003-09-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1517902A true CN1517902A (zh) | 2004-08-04 |
CN100489833C CN100489833C (zh) | 2009-05-20 |
Family
ID=32510695
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2004100005302A Expired - Fee Related CN100489833C (zh) | 2003-01-10 | 2004-01-12 | 位置姿势测量方法、位置姿势测量装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US7092109B2 (zh) |
EP (1) | EP1437645B1 (zh) |
JP (1) | JP4136859B2 (zh) |
CN (1) | CN100489833C (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102221878A (zh) * | 2010-04-19 | 2011-10-19 | 索尼公司 | 图像处理系统、图像处理装置、图像处理方法及程序 |
CN102472609A (zh) * | 2009-07-28 | 2012-05-23 | 佳能株式会社 | 位置和姿势校准方法及设备 |
CN102620656A (zh) * | 2012-04-16 | 2012-08-01 | 南京航空航天大学 | 一种航天器交会对接相对位姿测量方法 |
CN101681519B (zh) * | 2007-06-01 | 2012-11-07 | 丰田自动车株式会社 | 测量装置及测量方法 |
CN103425356A (zh) * | 2010-06-25 | 2013-12-04 | 原相科技股份有限公司 | 影像感测模块 |
CN104634246A (zh) * | 2015-02-03 | 2015-05-20 | 李安澜 | 目标空间坐标的浮动式立体视觉测量系统及测量方法 |
CN105612401A (zh) * | 2013-09-30 | 2016-05-25 | 独立行政法人产业技术综合研究所 | 标记图像处理系统 |
CN114615441A (zh) * | 2020-12-04 | 2022-06-10 | 株式会社日立制作所 | 校准装置以及校准方法 |
Families Citing this family (116)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4892792B2 (ja) * | 2001-07-04 | 2012-03-07 | コニカミノルタホールディングス株式会社 | 測定装置及び測定方法 |
EP1398601A3 (en) * | 2002-09-13 | 2014-05-07 | Canon Kabushiki Kaisha | Head up display for navigation purposes in a vehicle |
JP4532856B2 (ja) * | 2003-07-08 | 2010-08-25 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
US7353897B2 (en) * | 2003-07-23 | 2008-04-08 | Fernandez Dennis S | Telematic method and apparatus with integrated power source |
JP4593968B2 (ja) * | 2004-05-14 | 2010-12-08 | キヤノン株式会社 | 位置姿勢計測方法および装置 |
US7613361B2 (en) * | 2004-05-14 | 2009-11-03 | Canon Kabushiki Kaisha | Information processing method and device |
US7467061B2 (en) * | 2004-05-14 | 2008-12-16 | Canon Kabushiki Kaisha | Information processing method and apparatus for finding position and orientation of targeted object |
JP4522140B2 (ja) * | 2004-05-14 | 2010-08-11 | キヤノン株式会社 | 指標配置情報推定方法および情報処理装置 |
WO2005119356A2 (en) | 2004-05-28 | 2005-12-15 | Erik Jan Banning | Interactive direct-pointing system and calibration method |
US7024782B1 (en) * | 2004-10-28 | 2006-04-11 | Texas Instruments Incorporated | Electronic device compass operable irrespective of localized magnetic field |
US7268893B2 (en) * | 2004-11-12 | 2007-09-11 | The Boeing Company | Optical projection system |
JP4599184B2 (ja) * | 2005-02-02 | 2010-12-15 | キヤノン株式会社 | 指標配置計測方法、指標配置計測装置 |
JP4859205B2 (ja) | 2005-02-04 | 2012-01-25 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP4767578B2 (ja) * | 2005-02-14 | 2011-09-07 | 株式会社岩根研究所 | 高精度cv演算装置と、この高精度cv演算装置を備えたcv方式三次元地図生成装置及びcv方式航法装置 |
US7421113B2 (en) * | 2005-03-30 | 2008-09-02 | The Trustees Of The University Of Pennsylvania | System and method for localizing imaging devices |
JP4785416B2 (ja) * | 2005-05-11 | 2011-10-05 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
EP1739622B1 (en) | 2005-06-28 | 2013-08-14 | Canon Kabushiki Kaisha | Image feature identification with two cameras |
US9285897B2 (en) * | 2005-07-13 | 2016-03-15 | Ultimate Pointer, L.L.C. | Easily deployable interactive direct-pointing system and calibration method therefor |
JP4914039B2 (ja) * | 2005-07-27 | 2012-04-11 | キヤノン株式会社 | 情報処理方法および装置 |
ES2388930T3 (es) * | 2005-08-01 | 2012-10-19 | Resonant Medical Inc. | Sistema y método para detectar desviaciones en los sistemas de localización calibrados |
US20070070233A1 (en) * | 2005-09-28 | 2007-03-29 | Patterson Raul D | System and method for correlating captured images with their site locations on maps |
US7847787B1 (en) | 2005-11-12 | 2010-12-07 | Navisense | Method and system for directing a control action |
JP4459155B2 (ja) * | 2005-11-14 | 2010-04-28 | 株式会社東芝 | 光学式位置計測装置 |
US7620316B2 (en) * | 2005-11-28 | 2009-11-17 | Navisense | Method and device for touchless control of a camera |
US7725288B2 (en) * | 2005-11-28 | 2010-05-25 | Navisense | Method and system for object control |
US8494805B2 (en) | 2005-11-28 | 2013-07-23 | Orthosensor | Method and system for assessing orthopedic alignment using tracking sensors |
US7834850B2 (en) * | 2005-11-29 | 2010-11-16 | Navisense | Method and system for object control |
US8570274B1 (en) * | 2005-11-29 | 2013-10-29 | Navisense | Navigation device providing sensory feedback |
US7414705B2 (en) * | 2005-11-29 | 2008-08-19 | Navisense | Method and system for range measurement |
US7834847B2 (en) * | 2005-12-01 | 2010-11-16 | Navisense | Method and system for activating a touchless control |
US7788607B2 (en) * | 2005-12-01 | 2010-08-31 | Navisense | Method and system for mapping virtual coordinates |
US8814810B2 (en) * | 2005-12-01 | 2014-08-26 | Orthosensor Inc. | Orthopedic method and system for mapping an anatomical pivot point |
US8312479B2 (en) * | 2006-03-08 | 2012-11-13 | Navisense | Application programming interface (API) for sensory events |
US8139029B2 (en) * | 2006-03-08 | 2012-03-20 | Navisense | Method and device for three-dimensional sensing |
US8334841B2 (en) * | 2006-03-13 | 2012-12-18 | Navisense | Virtual user interface method and system thereof |
US8614669B2 (en) * | 2006-03-13 | 2013-12-24 | Navisense | Touchless tablet method and system thereof |
US8578282B2 (en) * | 2006-03-15 | 2013-11-05 | Navisense | Visual toolkit for a virtual user interface |
JP5063023B2 (ja) * | 2006-03-31 | 2012-10-31 | キヤノン株式会社 | 位置姿勢補正装置、位置姿勢補正方法 |
JP4812099B2 (ja) * | 2006-06-06 | 2011-11-09 | 独立行政法人産業技術総合研究所 | カメラ位置検出方法 |
US8169404B1 (en) | 2006-08-15 | 2012-05-01 | Navisense | Method and device for planary sensory detection |
US8421642B1 (en) | 2006-08-24 | 2013-04-16 | Navisense | System and method for sensorized user interface |
US7978091B2 (en) * | 2006-08-24 | 2011-07-12 | Navisense | Method and device for a touchless interface |
US8316324B2 (en) * | 2006-09-05 | 2012-11-20 | Navisense | Method and apparatus for touchless control of a device |
US7961173B2 (en) * | 2006-09-05 | 2011-06-14 | Navisense | Method and apparatus for touchless calibration |
US9451928B2 (en) | 2006-09-13 | 2016-09-27 | Elekta Ltd. | Incorporating internal anatomy in clinical radiotherapy setups |
JP5036260B2 (ja) * | 2006-09-14 | 2012-09-26 | キヤノン株式会社 | 位置姿勢算出方法及び装置 |
US8354997B2 (en) * | 2006-10-31 | 2013-01-15 | Navisense | Touchless user interface for a mobile device |
WO2008052348A1 (en) * | 2006-11-02 | 2008-05-08 | Northern Digital Inc. | Integrated mapping system |
JP5403861B2 (ja) * | 2006-11-06 | 2014-01-29 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
US8904312B2 (en) * | 2006-11-09 | 2014-12-02 | Navisense | Method and device for touchless signing and recognition |
US8793621B2 (en) * | 2006-11-09 | 2014-07-29 | Navisense | Method and device to control touchless recognition |
JP4886560B2 (ja) * | 2007-03-15 | 2012-02-29 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
US8060841B2 (en) * | 2007-03-19 | 2011-11-15 | Navisense | Method and device for touchless media searching |
US20080252595A1 (en) * | 2007-04-11 | 2008-10-16 | Marc Boillot | Method and Device for Virtual Navigation and Voice Processing |
US20080284726A1 (en) * | 2007-05-17 | 2008-11-20 | Marc Boillot | System and Method for Sensory Based Media Control |
US20080306708A1 (en) * | 2007-06-05 | 2008-12-11 | Raydon Corporation | System and method for orientation and location calibration for image sensors |
EP2175931B1 (en) | 2007-07-20 | 2016-09-07 | Elekta Ltd. | Systems for compensating for changes in anatomy of radiotherapy patients |
US10531858B2 (en) | 2007-07-20 | 2020-01-14 | Elekta, LTD | Methods and systems for guiding the acquisition of ultrasound images |
US8135198B2 (en) | 2007-08-08 | 2012-03-13 | Resonant Medical, Inc. | Systems and methods for constructing images |
JP4943270B2 (ja) * | 2007-08-09 | 2012-05-30 | 富士フイルム株式会社 | 三次元座標系の設定方法および装置 |
US9189083B2 (en) | 2008-03-18 | 2015-11-17 | Orthosensor Inc. | Method and system for media presentation during operative workflow |
JP5111210B2 (ja) * | 2008-04-09 | 2013-01-09 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
US8189738B2 (en) | 2008-06-02 | 2012-05-29 | Elekta Ltd. | Methods and systems for guiding clinical radiotherapy setups |
JP2010134649A (ja) | 2008-12-03 | 2010-06-17 | Canon Inc | 情報処理装置、その処理方法及びプログラム |
KR101017606B1 (ko) * | 2008-12-22 | 2011-02-28 | 한국항공우주연구원 | 단일영상을 이용한 자세각센서 삼차원 오정렬 보정방법 |
JP5290864B2 (ja) * | 2009-05-18 | 2013-09-18 | キヤノン株式会社 | 位置姿勢推定装置及び方法 |
US10542962B2 (en) | 2009-07-10 | 2020-01-28 | Elekta, LTD | Adaptive radiotherapy treatment using ultrasound |
JP2011043986A (ja) * | 2009-08-21 | 2011-03-03 | Seiko Epson Corp | 光学式情報入力装置、光学式入力機能付き電子機器、および光学式情報入力方法 |
US9011448B2 (en) * | 2009-12-31 | 2015-04-21 | Orthosensor Inc. | Orthopedic navigation system with sensorized devices |
US9248316B2 (en) | 2010-01-12 | 2016-02-02 | Elekta Ltd. | Feature tracking using ultrasound |
US20110172526A1 (en) * | 2010-01-12 | 2011-07-14 | Martin Lachaine | Feature Tracking Using Ultrasound |
JP5297403B2 (ja) * | 2010-02-26 | 2013-09-25 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測方法、プログラムおよび記憶媒体 |
JP5746477B2 (ja) | 2010-02-26 | 2015-07-08 | キヤノン株式会社 | モデル生成装置、3次元計測装置、それらの制御方法及びプログラム |
JP5570316B2 (ja) * | 2010-06-17 | 2014-08-13 | キヤノン株式会社 | 撮像装置、その制御方法及びプログラム |
JP5612916B2 (ja) | 2010-06-18 | 2014-10-22 | キヤノン株式会社 | 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム |
JP5624394B2 (ja) | 2010-07-16 | 2014-11-12 | キヤノン株式会社 | 位置姿勢計測装置、その計測処理方法及びプログラム |
JP5496008B2 (ja) | 2010-08-06 | 2014-05-21 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム |
JP5671281B2 (ja) | 2010-08-20 | 2015-02-18 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム |
JP5661382B2 (ja) | 2010-08-31 | 2015-01-28 | キヤノン株式会社 | 画像表示装置 |
WO2012095160A1 (en) | 2011-01-10 | 2012-07-19 | Trimble Ab | Method and system for determining position and orientation of a measuring instrument |
US8970708B2 (en) * | 2011-05-23 | 2015-03-03 | The Johns Hopkins University | Automatic device alignment mechanism |
JP5620343B2 (ja) * | 2011-06-20 | 2014-11-05 | 日本電信電話株式会社 | 物体座標系変換装置、物体座標系変換方法、及び物体座標系変換プログラム |
WO2013047882A1 (en) | 2011-09-28 | 2013-04-04 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and program |
KR101874895B1 (ko) * | 2012-01-12 | 2018-07-06 | 삼성전자 주식회사 | 증강 현실 제공 방법 및 이를 지원하는 단말기 |
JP6004809B2 (ja) | 2012-03-13 | 2016-10-12 | キヤノン株式会社 | 位置姿勢推定装置、情報処理装置、情報処理方法 |
CN102840825B (zh) * | 2012-08-21 | 2015-01-07 | 华北电力大学 | 一种质点定位系统及方法 |
CN104780847B (zh) * | 2012-11-14 | 2017-06-23 | 株式会社岛津制作所 | 光生物体测量装置以及用于该光生物体测量装置的位置测量装置 |
KR101956073B1 (ko) * | 2012-12-20 | 2019-03-08 | 삼성전자주식회사 | 시각적 인디케이터를 이용하여 사용자 인터페이스를 제공하는 3차원 입체 영상 표시 장치 및 그 장치를 이용한 방법 |
DE102013206569B4 (de) | 2013-04-12 | 2020-08-06 | Siemens Healthcare Gmbh | Gestensteuerung mit automatisierter Kalibrierung |
JP2014219738A (ja) * | 2013-05-01 | 2014-11-20 | 船井電機株式会社 | プロジェクタ |
CN103307968B (zh) * | 2013-06-03 | 2016-11-02 | 西北工业大学 | 机器人承载平台姿态的检测方法 |
JP6397269B2 (ja) | 2013-09-06 | 2018-09-26 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
US20150098079A1 (en) * | 2013-10-09 | 2015-04-09 | Hilti Aktiengesellschaft | System and method for camera based position and orientation measurement |
JP6253368B2 (ja) * | 2013-11-25 | 2017-12-27 | キヤノン株式会社 | 三次元形状計測装置およびその制御方法 |
US9747680B2 (en) | 2013-11-27 | 2017-08-29 | Industrial Technology Research Institute | Inspection apparatus, method, and computer program product for machine vision inspection |
JP6393106B2 (ja) | 2014-07-24 | 2018-09-19 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
US9808213B2 (en) | 2014-08-11 | 2017-11-07 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, medical image diagnostic system, and storage medium |
EP3064898B1 (de) * | 2015-03-04 | 2019-12-18 | Leica Geosystems AG | Vermessungsgerät mit Feinanzielungs- bzw. Zielverfolgungsfunktionalität |
JP6971544B2 (ja) | 2015-08-06 | 2021-11-24 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP6590609B2 (ja) * | 2015-09-15 | 2019-10-16 | キヤノン株式会社 | 画像解析装置及び画像解析方法 |
US10682911B2 (en) * | 2016-02-18 | 2020-06-16 | Sony Corporation | Active window for vehicle infomatics and virtual reality |
JP6640643B2 (ja) * | 2016-04-08 | 2020-02-05 | 株式会社東芝 | 水中点検装置及び水中点検方法 |
JP6711715B2 (ja) | 2016-07-19 | 2020-06-17 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
JP6840481B2 (ja) | 2016-07-19 | 2021-03-10 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
JP6557640B2 (ja) * | 2016-07-22 | 2019-08-07 | 日本電信電話株式会社 | カメラキャリブレーション装置、カメラキャリブレーション方法及びカメラキャリブレーションプログラム |
JP2018107695A (ja) * | 2016-12-27 | 2018-07-05 | フォーブ インコーポレーテッド | 推定システム、推定方法及び推定プログラム |
JP2018110615A (ja) | 2017-01-06 | 2018-07-19 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
CN108332741B (zh) * | 2017-01-18 | 2021-09-14 | 宏达国际电子股份有限公司 | 定位装置及方法 |
JP6934734B2 (ja) | 2017-03-17 | 2021-09-15 | キヤノン株式会社 | 画像処理装置、画像処理装置の制御方法およびプログラム |
JP7058585B2 (ja) | 2017-12-25 | 2022-04-22 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
WO2019130827A1 (ja) | 2017-12-25 | 2019-07-04 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
US10690525B2 (en) | 2018-01-03 | 2020-06-23 | General Electric Company | Systems and methods associated with unmanned aerial vehicle targeting accuracy |
JP7124424B2 (ja) * | 2018-05-02 | 2022-08-24 | オムロン株式会社 | 3次元形状計測システム及び計測時間設定方法 |
WO2019230920A1 (ja) * | 2018-06-01 | 2019-12-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置 |
CN116150520B (zh) * | 2022-12-30 | 2023-11-14 | 联通智网科技股份有限公司 | 一种数据处理方法、装置、设备和存储介质 |
CN117630993B (zh) * | 2024-01-15 | 2024-04-12 | 华中科技大学 | 一种基于sair多快拍的rfi源地理定位方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6195122B1 (en) * | 1995-01-31 | 2001-02-27 | Robert Vincent | Spatial referenced photography |
EP0726543B1 (en) * | 1995-02-07 | 2003-09-10 | Canon Kabushiki Kaisha | Image processing method and apparatus therefor |
US5969725A (en) * | 1995-03-17 | 1999-10-19 | Canon Kabushiki Kaisha | Unification of three-dimensional image data having plural surface shapes |
JPH09323280A (ja) | 1996-06-04 | 1997-12-16 | Nippon Telegr & Teleph Corp <Ntt> | マニピュレータの制御方法及びシステム |
US5889550A (en) * | 1996-06-10 | 1999-03-30 | Adaptive Optics Associates, Inc. | Camera tracking system |
US6064749A (en) * | 1996-08-02 | 2000-05-16 | Hirota; Gentaro | Hybrid tracking for augmented reality using both camera motion detection and landmark tracking |
GB2329292A (en) * | 1997-09-12 | 1999-03-17 | Orad Hi Tec Systems Ltd | Camera position sensing system |
JP3631151B2 (ja) * | 2000-11-30 | 2005-03-23 | キヤノン株式会社 | 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体 |
JP3467017B2 (ja) * | 2000-11-30 | 2003-11-17 | キヤノン株式会社 | 位置姿勢の決定方法及び装置並びに記憶媒体 |
JP2003107340A (ja) * | 2001-09-27 | 2003-04-09 | Canon Inc | 測光測距用固体撮像装置及びそれを用いた撮像装置 |
JP3805231B2 (ja) * | 2001-10-26 | 2006-08-02 | キヤノン株式会社 | 画像表示装置及びその方法並びに記憶媒体 |
JP4072330B2 (ja) * | 2001-10-31 | 2008-04-09 | キヤノン株式会社 | 表示装置および情報処理方法 |
JP3796449B2 (ja) * | 2002-01-31 | 2006-07-12 | キヤノン株式会社 | 位置姿勢決定方法および装置並びにコンピュータプログラム |
EP1349114A3 (en) * | 2002-03-19 | 2011-06-15 | Canon Kabushiki Kaisha | Sensor calibration apparatus, sensor calibration method, program, storage medium, information processing method, and information processing apparatus |
-
2003
- 2003-09-16 JP JP2003323101A patent/JP4136859B2/ja not_active Expired - Fee Related
- 2003-12-30 EP EP03258246.2A patent/EP1437645B1/en not_active Expired - Lifetime
-
2004
- 2004-01-08 US US10/752,487 patent/US7092109B2/en active Active
- 2004-01-12 CN CNB2004100005302A patent/CN100489833C/zh not_active Expired - Fee Related
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101681519B (zh) * | 2007-06-01 | 2012-11-07 | 丰田自动车株式会社 | 测量装置及测量方法 |
CN102472609A (zh) * | 2009-07-28 | 2012-05-23 | 佳能株式会社 | 位置和姿势校准方法及设备 |
CN102472609B (zh) * | 2009-07-28 | 2014-11-05 | 佳能株式会社 | 位置和姿势校准方法及设备 |
US9733339B2 (en) | 2009-07-28 | 2017-08-15 | Canon Kabushiki Kaisha | Position and orientation calibration method and apparatus |
CN102221878A (zh) * | 2010-04-19 | 2011-10-19 | 索尼公司 | 图像处理系统、图像处理装置、图像处理方法及程序 |
CN103425356A (zh) * | 2010-06-25 | 2013-12-04 | 原相科技股份有限公司 | 影像感测模块 |
CN103425356B (zh) * | 2010-06-25 | 2016-07-13 | 原相科技股份有限公司 | 影像感测模块 |
CN102620656A (zh) * | 2012-04-16 | 2012-08-01 | 南京航空航天大学 | 一种航天器交会对接相对位姿测量方法 |
CN105612401A (zh) * | 2013-09-30 | 2016-05-25 | 独立行政法人产业技术综合研究所 | 标记图像处理系统 |
CN104634246A (zh) * | 2015-02-03 | 2015-05-20 | 李安澜 | 目标空间坐标的浮动式立体视觉测量系统及测量方法 |
CN104634246B (zh) * | 2015-02-03 | 2017-04-12 | 李安澜 | 目标空间坐标的浮动式立体视觉测量系统及测量方法 |
CN114615441A (zh) * | 2020-12-04 | 2022-06-10 | 株式会社日立制作所 | 校准装置以及校准方法 |
Also Published As
Publication number | Publication date |
---|---|
EP1437645B1 (en) | 2018-07-04 |
US20040176925A1 (en) | 2004-09-09 |
JP4136859B2 (ja) | 2008-08-20 |
EP1437645A3 (en) | 2006-07-12 |
EP1437645A2 (en) | 2004-07-14 |
JP2004233334A (ja) | 2004-08-19 |
CN100489833C (zh) | 2009-05-20 |
US7092109B2 (en) | 2006-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1517902A (zh) | 位置姿势测量方法、位置姿势测量装置 | |
CN1296680C (zh) | 测量装置和方法 | |
CN1445513A (zh) | 传感器校准装置及方法、程序、存储介质、信息处理方法及装置 | |
CN100338632C (zh) | 标记放置信息估计方法和信息处理设备 | |
CN1847789A (zh) | 测量位置及姿态的方法和装置 | |
CN1659418A (zh) | 摄像机校正装置 | |
CN1696606A (zh) | 用于获得目标物体的位置和方位的信息处理方法和设备 | |
CN1284063C (zh) | 信息处理方法和信息处理装置 | |
CN1788188A (zh) | 拍摄图像显示方法 | |
CN1267831C (zh) | 体动检测装置、节拍计、手表型信息处理装置、及其控制方法 | |
CN1666086A (zh) | 方位角测量装置和方位角测量方法 | |
CN1172734C (zh) | 图像获取装置及方法 | |
CN1404016A (zh) | 融合多视角、多线索二维信息的人脸三维模型的建立方法 | |
CN1909590A (zh) | 摄像装置、图像校正方法以及程序 | |
CN101067762A (zh) | 信息处理设备及其控制方法和图像处理设备 | |
CN1270277C (zh) | 图像失真校正方法和设备 | |
CN1292706C (zh) | 脉搏计及其控制方法、以及手表型信息装置 | |
CN1923326A (zh) | 信息处理系统和程序 | |
CN1179291C (zh) | 视频游戏系统和在显示空间中表示距离或高度的方法 | |
CN1846232A (zh) | 使用加权信息的对象姿态估计和匹配系统 | |
CN101031803A (zh) | 加速度计测装置 | |
CN1940965A (zh) | 信息处理设备及其控制方法 | |
CN1856113A (zh) | 显示设备、方法、程序以及记录介质和复合图像显示设备 | |
CN1823523A (zh) | 投影设备、倾斜角获取方法以及投影图像校正方法 | |
CN1931410A (zh) | 信息处理程序 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20090520 Termination date: 20210112 |