CN105612401B - 标记图像处理系统 - Google Patents
标记图像处理系统 Download PDFInfo
- Publication number
- CN105612401B CN105612401B CN201480054187.1A CN201480054187A CN105612401B CN 105612401 B CN105612401 B CN 105612401B CN 201480054187 A CN201480054187 A CN 201480054187A CN 105612401 B CN105612401 B CN 105612401B
- Authority
- CN
- China
- Prior art keywords
- mark
- video camera
- posture
- stereo identification
- plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 19
- 230000002000 scavenging effect Effects 0.000 claims abstract description 21
- 238000001514 detection method Methods 0.000 claims abstract description 8
- 239000013598 vector Substances 0.000 claims description 23
- 230000008859 change Effects 0.000 claims description 10
- 238000013500 data storage Methods 0.000 claims 1
- 239000003550 marker Substances 0.000 abstract description 13
- 230000009466 transformation Effects 0.000 abstract description 7
- 238000013519 translation Methods 0.000 abstract description 4
- 230000000007 visual effect Effects 0.000 description 12
- 238000005259 measurement Methods 0.000 description 9
- 239000013256 coordination polymer Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000000034 method Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 239000007767 bonding agent Substances 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000002224 dissection Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01D—MEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
- G01D5/00—Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable
- G01D5/26—Mechanical means for transferring the output of a sensing member; Means for converting the output of a sensing member to another variable where the form or nature of the sensing member does not constrain the means for converting; Transducers not specially adapted for a specific variable characterised by optical transfer means, i.e. using infrared, visible, or ultraviolet light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Abstract
通过比较图像上的平面标识(2)的配置和预先设定的平面标识(2)的配置,从而由第一推定单元推定相对于标记的摄像机的位置和姿势。在标记上配置一处立体标识(3),基于相对于平面标识(2)的立体标识(3)的配置、高度以及所推定的相对于标记的摄像机的位置,通过第二推定单元推定摄像机的图像上的立体标识(3)的上表面以及下表面的中央位置。基于从摄像机观察的三维矢量,比较所推定的立体标识(3)的上表面的中央位置和从图像检测出的其位置,其误差为规定值以上时,基于由第一推定单元推定的姿势,在使相对于平板型标记的摄像机视线角度的符号反转之后,进行旋转变换。如此,通过配置于平面标识(2)的一处立体标识(3),仅按照一定的规则对摄像机的姿势数据进行变换,就能够简单地进行修正。
Description
技术领域
本发明涉及用于对标记进行图像处理并提取各种信息的标记图像处理系统。
背景技术
这样的标记在AR(Augmented Reality:增强现实)、局部部位的计测领域,进一步地在机器人技术领域,被用于摄像机对物体的位置或姿势进行识别,一般广泛采用的是能粘贴于作为对象的物体的、具备平面图案的平板型的标记。
例如,在今后的服务机器人的实用化时,在构筑辅助由服务机器人进行的可靠的自主工作的系统方面,标记是必不可少的要素。
标记中具有代表性的标记包含正方形的黑色框、印刷于其内部的二维图案以及代码(code)。然后,通过用摄像机识别标记,能识别相对于标记的摄像机的相对位置和姿势,并识别带有标记的物体的位置或姿势。此外,还能通过摄像机读取存储于标记的信息。
图1示出了通常使用的ARToolKit标记、ARTag标记、CyberCode标记以及ARToolKitPlus标记的例子。此外,除了这样的标记以外,也可以利用QRCode这样的能存储更多信息的标记。
例如,在AR领域中,对于现实世界的图像,使CG(Computer Graphics:计算机图形)的模型与现实世界的图像中的物体所带的AR标记的位置对齐并重叠地进行显示。
此外,在机器人技术领域中,例如通过使机器人对物体所带的标记进行计测,从而使机器人识别带有标记的物体的位置或姿势,并对物体进行操作。
作为一例,图2是表示机器人技术领域中的使用了标记的机器人任务(task)的例子的图。为了辅助坐轮椅的人的生活,而使装接在装接于轮椅的机器人手臂顶端的机器人手的摄像机对带有标记的冰箱的把手进行识别,使机器人手自动地进行冰箱门的打开/关闭。在图2示出的任务中,摄像机识别了标记之后,机器人自主地以标记的位置和相对于该位置的姿势为基准生成规定的机器人手臂的轨道,由此,能打开冰箱门。
通过摄像机进行的标记的计测例如如下所示地进行。
首先,例如在具备正方形的外框的平板型标记的情况下,摄像机通过对所读取的图像数据进行图像处理来提取外框,检测出四个角。然后,通过使用了预先已知的该标记的四个角的位置(正方形的各顶点)与由摄像机读取的图像内的四个角的位置关系的几何学计算,能对相对于标记的摄像机的位置以及姿势进行解析,并识别带有标记的物体的位置或姿势。
但是,在标记和摄像机正对的附近,标记的计测误差变大。此外,即使通过在摄像机中使用滤波器(平均滤波器、卡尔曼滤波器、粒子滤波器等)和计测记录能使标记的计测值的分散变小,也难以可靠地判定标记的计测值是否为真值。
为了防止利用了这样的平板型的标记的、关于摄像机的位置或姿势的计测精度的恶化,在专利文献1中记载了:在构成标记的图样上方设置根据观测的方向使其浓淡图案变化的镜头,通过使浓淡图案变化,正确地计测相对于标记的摄像机的位置或姿势,正确地识别带有标记的物体的位置或姿势。
现有技术文献
专利文献
专利文献1:日本特开2012-145559号公报
发明内容
发明所要解决的问题
但是,在以往的平板型标记中,根据相对于标记的摄像机的姿势而产生计测误差,例如根据标记的大小、摄像机与标记的距离以及摄像机的视场角(焦距),恐怕会产生带有标记的物体的位置或姿势的识别不确定的问题。
图3左侧表示摄像机与标记接近的情况或者摄像机的视场角大(广角镜头)的情况,图3中央表示摄像机与标记远离的情况或者摄像机的视场角小(望远镜头)的情况。
摄像机与标记远离时、或者摄像机的视场角小(望远镜头)时,如图3右侧所示,当标记的外框投影于以镜头的中心轴为法线的摄像面时,即使在通过镜头中心点和标记的中心点的直线(Visual line:视线)与标记的平面所成的角度是反向倾斜的情况下,摄像面的标记外框的偏差也变小,两者的判别不确定,例如在机器人技术的领域中,构成对相对于标记的摄像机的姿势做出错误推定,机器人手进行错误的动作的原因。
图4表示通过镜头中心点和标记的中心点的视线与标记中心点的法线所成的角度为45°时的实际所拍摄的图像,摄像机1(Camera1)是使用视场角为7.1°的镜头拍摄时的图像,摄像机2(Camera2)是使用视场角为40.0°的镜头拍摄时的图像。与摄像机2的图像相比,能确认在摄像机1的图像中未与在标记实施正投影(orthographic projection)变换的情况产生大的差别。
图5是通过图像处理连续地对手持的平板型标记的姿势进行解析,将通过所获得的标记的中心点的法线(Z轴)的矢量(vector)用箭头表示。
可知:根据手的移动,在02、06、08,法线矢量的朝向反转,在该阶段,在相对于AR标记的摄像机的姿势推定产生摆动。
为了防止这样的错误推定,可以想到:在平板型标记中包含高度彼此不同的立体标识,形成六处标识,除了外框以外,还确定各标识,基于相对于平板型标记的各立体标识的位置和高度的数据,对绕X轴、Y轴(标记平面上的二维坐标)、Z轴以及各轴的旋转角度进行解析。
但是,在这样的方法中,为了确定相对于标记的摄像机的位置或姿势,需要通过图像处理来正确地确定六处标识。但是,由于不能确定位于立体标识的阴影的标识,因此当摄像机偏离能对全部六处正确地进行拍摄的限定范围时,不可能确定正确的位置和姿势。而且,存在的问题是:需要极其高精度地选定各立体标识的位置、高度,标记的成本大幅上升。
因此,在本发明中,附加于平板型标记的立体标识只设一处,而且该立体标识仅用于对所推定的姿势是否合理进行判定。然后,其目的在于,在做出了错误推定的情况下,仅按照一定的规则对已经运算出的相对于标记的摄像机的姿势数据进行变换,就能简单地进行修正。
用于解决问题的方案
为了解决上述的问题,本发明提供一种使用具有平面标识的标记,识别相对于该标记的摄像机的位置以及姿势的图像处理系统,其中,在所述标记上,将具有预先设定的高度的一个立体标识配置于相对于所述平面标识预先设定的位置,该图像处理系统具备:第一推定单元,通过比较由所述摄像机的图像提取的所述平面标识的配置和预先设定的所述平面标识的配置,推定相对于所述标记的摄像机的位置和姿势;第二推定单元,基于所述立体标识的配置、高度以及由所述第一推定单元推定的相对于所述标记的摄像机的位置,推定所述摄像机的图像上的所述立体标识的上表面以及下表面的中央位置;检测单元,基于所述摄像机的图像,检测所述立体标识的上表面的中央位置;判定单元,将由所述第二推定单元推定的所述立体标识的上表面的中央位置和由所述检测单元检测出的所述立体标识的上表面的中央位置,基于以由所述第二推定单元推定的所述立体标识的下表面的中央位置为原点的朝向各自位置的矢量进行比较,其误差为规定值以上时,判定为由所述第一推定单元推定的相对于所述标记的摄像机的姿势是错误的,该图像处理系统具备:运算单元,在所述判定单元判定为错误时,分别使基于由所述第一推定单元推定的姿势的所述摄像机的绕X轴的视线角度以及绕Y轴的视线角度的符号反转之后,进行旋转变换,由此,对相对于所述标记的摄像机的姿势进行再运算,以使所述第一推定单元推定的相对于所述标记的摄像机的姿势正确。
其中,X轴和Y轴分别表示在以所述标记平面上的一点为原点的三维坐标中,在该标记平面上彼此正交的坐标轴。
发明效果
根据本发明,仅将具有预先设定的高度的一个立体标识配置于具有平面标识的标记的预先设定的位置,就能判定所推定的姿势是否恰当,在做出了错误推定的情况下,仅按照一定的规则对已经运算出的相对于标记的摄像机的姿势数据进行变换,就能简单地进行修正。因此,能以低成本、而且不被其他立体标识妨碍地做出正确且可靠的姿势推定。
附图说明
图1是表示普通的标记的例子的图。
图2是表示使用了标记的机器人任务的例子的图。
图3是对摄像机与标记接近的情况或者摄像机的视场角大的情况(左侧)和摄像机与标记远离的情况或者摄像机的视场角小的情况(中央)进行对比,并表示产生错误推定的情况(右侧)的图。
图4是对视场角小时的图像(摄像机1)和视场角大时的图像(摄像机2)进行对比的图。
图5是通过图像处理对手持标记的姿势连续地进行解析,并表示通过所得的标记的中心点的法线(Z轴)方向的图。
图6是表示实施例中使用的标记的一例的图。
图7是表示形成于立体标识底面的中央部和上表面的中央部的白色标记的推定位置、检测位置的关系的图。
图8是在固定摄像机、改变手持标记的角度的情况下,对正确地进行推定的情况和错误地进行推定的情况进行对比的图。
图9是表示以标记的中心点c为原点的三维坐标的图。
图10是表示在使标记的角度连续地慢慢变化的情况下,基于所推定的姿势算出的视线角度θvxc的变化的图。
图11是表示固定摄像机、以二种方式改变手持标记的角度,基于各自推定的姿势,求出绕X轴的视线角度θvxc、绕Y轴的视线角度θvyc的结果的图。
图12是对应用了旋转变换的姿势推定值的修正进行说明的图。
图13是表示本实施例的效果的实验结果。
具体实施方式
以下,使用附图对本发明的实施例进行说明。
实施例
首先,对本实施例中采用的标记进行说明。
如图6所示,平板型标记构成为:在外框为20mm的正方形中,除了位于中央的直径12mm的白色圆1、离外框的各顶点在对角线上位于相同位置的直径3mm的白色圆2,其他部分为黑色的正方形。本实施例中,在距离该平板型标记的外框底边的中心5mm的地方,粘贴了由外径4.9mm、高度3.2mm的圆筒体构成的立体标识3。需要说明的是,在该立体标识3的上表面,形成有在中央部留有直径2.2mm的白色圆的部分,外周被涂黑的标记。
通过以往的同样的方法,首先,从图像数据提取设于标记的四角的白色圆2作为平面标识,对其进行解析处理,由此与预先已知的、标记的白色圆2的位置(在该例子中,由位于四角的白色圆的中心形成的单边为13.5mm的正方形的各顶点)进行对比。然后,基于几何学解析,通过图像处理系统的第一推定单元,推定摄像机的位置(3自由度)以及姿势(3自由度)。也可以不设置位于标记的四角的白色圆2,而是通过对正方形的外框进行图像处理来求出4个顶点作为平面标识,与单边为20.0mm的正方形进行对比,由此推定相对于标记的摄像机的位置。
但是,如上所述,这包括对姿势做出了错误推定的情况。因此,如图7所示,通过图像处理系统的第二推定单元,推定以由第一推定单元推定的平面标识为基准的、形成于立体标识3上表面的中央部的白色标记的位置Pt,推定(Pt,estimated),以及立体标识底面中央部的位置Pb,推定(Pb,estimated)的图像平面上的坐标。
另一方面,通过图像处理系统的检测单元,根据图像数据确定立体标识3上表面中央部的白色标记中央部的位置,检测出其位置Pt,检测(Pt,detected)。
在正确地推定了姿势的情况下,Pt,推定(Pt,estimated)与Pt,检测(Pt,detected)之间的误差小,但在对姿势做出了错误推定的情况下,Pt,推定(Pt,estimated)与Pt,检测(Pt,detected)之间的误差大。
因此,当将矢量Vd定义为以Pb,推定(Pb,estimated)为起点、以Pt,检测(Pt,detected)为终点的矢量,将矢量Ve定义为以Pb,推定(Pb,estimated)为起点、以Pt,推定(Pt,estimated)为终点的矢量,将θ定义为矢量Vd与矢量Ve所成的角时,通过用|Vd||Vd|除以两矢量的内积Vd·Ve,能求出作为cosθ的值的d。
图8是固定摄像机、改变手持标记的角度,分别求出d的值的图。在左侧,示出了正确地进行判定,d=0.9999,即θ几乎为0,矢量Vd和矢量Ve几乎为相同朝向的情况。另一方面,在中央,示出了d=-0.9992,即θ几乎为180°,即矢量Vd和矢量Ve几乎为相反朝向的情况。
如上所述,如图9所示,使用摄像机所读取的图像内的标记的位置关系来进行几何学解析时,在以标记的中心点C为原点的三维坐标(X坐标、Y坐标、Z坐标)中,以使通过镜头中心点(Viewpoint)的法线(Visual line:视线)与标记的中心点C一致的状态为前提,将由该法线(以下,称为视线。)和X轴规定的平面Svx与X-Z平面所成的角定义为绕X轴的视线角度θvxc。
同样地,将由视线和Y轴规定的平面Svy与Y-Z平面所成的角定义为绕Y轴的视线角度θvyc。
视线的三维矢量由平面Svx与平面Svy的交线确定,这是表示相对于标记的摄像机的姿势的参数。需要说明的是,三维坐标的原点并不限于标记的中心点c,可以定为标记平面上的任一点。
图10示出了在使标记的角度连续地慢慢变化的情况下,基于所推定的姿势算出的视线角度θvxc的变化(实线的折线)和此时的d(×10)的值的变化(○记号)。根据该图可知,急剧反转之后复位的点表示产生了错误判定。在这些地方,d的值大部分为-0.6以下。因此,d(×10)的值小于-6时,即d<-0.6时,能判定为由第一推定单元对姿势做出了错误推定。
图11示出了固定摄像机、以二种方式改变手持标记的角度,基于在各自的状态下所推定的姿势,求出了绕X轴的视线角度θvxc、绕Y轴的视线角度θvyc的结果。
各角度均根据手的微小摆动而产生了姿势的错误判定,θvxc、θvyc急剧地变化。此时,基本上可知,在恰当的姿势推定值和错误的姿势推定值之间,绕X轴的视线角度θvxc、绕Y轴的视线角度θvyc的符号为逆转的关系。
因此,如图12所示,判定为姿势的错误推定时,在使θvxc或者θvyc反转的位置设定正确的视点Pm,能应用使根据错误推定值计算出的错误的视点Pi返回到Pm这样的旋转变换,对姿势推定值进行修正。
在此,将错误地判定的相对于标记的视点设为Pi,将修正后的视点设为Pm。
将连结标记的中心点C和Pi的矢量设为CPi、将连结标记的中心点C和Pm的矢量设为CPm、将两矢量所成的角设为ρ时,通过矢量CPi和矢量CPm的外积,能求出与两矢量垂直方向的旋转轴矢量a(ax ay az)T。
即,
[算式1]
然后,旋转变换矩阵Rρ能如下所示地求出。
[算式2]
其中,c=cosρ,s=sinρ,C=(1-cosρ)。
由于变换矩阵M和旋转变换矩阵Rρ在几何学上为M=Rρ -1的关系,因此通过图像处理系统的运算单元,在将修正前的相对于标记的姿势设为Rini,将修正后的相对于标记的姿势设为Rmod时,使用Rmod=Rini·M能求出表示修正后的姿势的Rmod。
使用图13,来验证由本实施例产生的效果。图13左侧示出了绕X轴(θvxc)的计测结果、右侧示出了绕Y轴(θvyc)的计测结果,从上依次示出了以往的解析结果、使用了使浓淡图案变化的镜头的情况下的解析结果(VMP)、使浓淡图案变化的镜头与本实施例组合的情况下的解析结果、仅利用了本实施例的解析结果。
结果可知,在使用了使浓淡图案变化的镜头(VMP)的情况下,在视线角度小时能降低错误判定,但在视线角度大时不能降低错误判定,以及,通过组合本实施例,即使在视线角度大时也能降低错误判定。
接着,对本实施例中使用的附加了立体标识的标记进行说明。在本实施例中,使用已有的外框为20mm的正方形的标记,在距离外框底边的中心5mm的地方,通过粘接剂等粘贴并形成了由外径4.9mm、高度3.2mm的圆筒体构成的立体标识,但是,例如能采用将立体标识一体形成于平板型标记的衬纸等各种各样的方式。
其中,在进行上述的变换时,图像处理装置需要将这样的立体标识的相对于平面标识的配置和高度作为已知的数据来利用,因此需要将这些参数预先存储于图像处理装置内的数据文件中。当然,会将QRCode等嵌入于平板型标记自身,能在图像处理装置侧读入关于立体标识的各数据。
需要说明的是,也可以预先设定粘贴于各平板型标记的立体标识的配置、高度等规格,并作为初始值存储于图像处理侧。
产业上的可利用性
如以上说明,根据本发明,仅将具有预先设定的高度的一个立体标识配置于具有平面标识的标记的预先设定的位置,就能判定所推定的姿势是否恰当,在做出了错误推定的情况下,仅按照一定的规则对已经运算出的相对于标记的摄像机的姿势数据进行变换,就能简单地进行修正。
因此,可以期待其作为能以低成本、而且不妨碍其他立体标识地做出正确且可靠的姿势推定的图像处理系统被广泛采用。
附图标记说明:
1 标记中央的白色圆
2 离外框的各顶点在对角线上配置于相同位置的白色圆
3 立体标识
Claims (3)
1.一种图像处理系统,使用具有平面标识的标记,识别相对于该标记的摄像机的位置以及姿势,所述图像处理系统的特征在于,
在所述标记上,将具有预先设定的高度的一个立体标识配置于相对于所述平面标识预先设定的位置,
所述图像处理系统具备:
第一推定单元,通过比较由所述摄像机的图像提取的所述平面标识的配置和预先设定的所述平面标识的配置,推定相对于所述标记的摄像机的位置和姿势;
第二推定单元,基于所述立体标识的配置、高度以及由所述第一推定单元推定的相对于所述标记的摄像机的位置,推定所述摄像机的图像上的所述立体标识的上表面以及下表面的中央位置;
检测单元,基于所述摄像机的图像,检测所述立体标识的上表面的中央位置;
判定单元,将由所述第二推定单元推定的所述立体标识的上表面的中央位置和由所述检测单元检测出的所述立体标识的上表面的中央位置,基于以由所述第二推定单元推定的所述立体标识的下表面的中央位置为原点的朝向各自位置的矢量进行比较,其误差为规定值以上时,判定为由所述第一推定单元推定的相对于所述标记的摄像机的姿势是错误的,
所述图像处理系统具备:
运算单元,在所述判定单元判定为错误时,分别使基于由所述第一推定单元推定的姿势的所述摄像机的绕X轴的视线角度以及绕Y轴的视线角度的符号反转之后,进行旋转变换,由此,对相对于所述标记的摄像机的姿势进行再运算,以使所述第一推定单元推定的相对于所述标记的摄像机的姿势正确,
其中,X轴和Y轴分别表示在以所述标记平面上的一点为原点的三维坐标中,在该标记平面上彼此正交的坐标轴。
2.一种权利要求1所述的图像处理系统中使用的标记,
在具有平面标识的标记的预先设定的位置配置具有预先设定的高度的立体标识而成。
3.根据权利要求2所述的标记,其特征在于,
所述标记的所述立体标识的配置以及高度作为数据存储于所述标记。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013204947 | 2013-09-30 | ||
JP2013-204947 | 2013-09-30 | ||
PCT/JP2014/073682 WO2015045834A1 (ja) | 2013-09-30 | 2014-09-08 | マーカ画像処理システム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105612401A CN105612401A (zh) | 2016-05-25 |
CN105612401B true CN105612401B (zh) | 2018-02-23 |
Family
ID=52742981
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480054187.1A Active CN105612401B (zh) | 2013-09-30 | 2014-09-08 | 标记图像处理系统 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10262429B2 (zh) |
EP (1) | EP3056854B1 (zh) |
JP (1) | JP6261016B2 (zh) |
CN (1) | CN105612401B (zh) |
WO (1) | WO2015045834A1 (zh) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016105496A1 (de) * | 2015-03-26 | 2016-09-29 | Faro Technologies Inc. | System zur Prüfung von Objekten mittels erweiterter Realität |
JP6185011B2 (ja) * | 2015-06-16 | 2017-08-23 | ファナック株式会社 | 射出成形システム |
US10311596B2 (en) * | 2015-10-16 | 2019-06-04 | Seiko Epson Corporation | Image processing device, robot, robot system, and marker |
TR201603524A2 (zh) * | 2016-03-18 | 2016-08-22 | Anadolu Ueniversitesi | |
US10650591B1 (en) | 2016-05-24 | 2020-05-12 | Out of Sight Vision Systems LLC | Collision avoidance system for head mounted display utilized in room scale virtual reality system |
US10981060B1 (en) | 2016-05-24 | 2021-04-20 | Out of Sight Vision Systems LLC | Collision avoidance system for room scale virtual reality system |
JP6755030B2 (ja) * | 2016-09-13 | 2020-09-16 | 国立研究開発法人産業技術総合研究所 | マーカとマーカを用いた姿勢推定方法 |
JP6457469B2 (ja) * | 2016-12-08 | 2019-01-23 | ファナック株式会社 | 移動ロボットの干渉領域設定装置 |
JPWO2018135063A1 (ja) * | 2017-01-17 | 2019-07-18 | 国立研究開発法人産業技術総合研究所 | マーカとマーカを用いた姿勢推定方法及び位置姿勢推定方法 |
JP6714110B2 (ja) * | 2017-02-03 | 2020-06-24 | 三井住友建設株式会社 | 位置測定装置及び位置測定方法 |
EP3567338A1 (en) * | 2017-02-10 | 2019-11-13 | Enplas Corporation | Marker |
CN107702714B (zh) * | 2017-07-31 | 2020-01-07 | 广州维绅科技有限公司 | 定位方法、装置及系统 |
US11413755B2 (en) * | 2017-12-31 | 2022-08-16 | Sarcos Corp. | Covert identification tags viewable by robots and robotic devices |
JP2019148865A (ja) * | 2018-02-26 | 2019-09-05 | パナソニックIpマネジメント株式会社 | 識別装置、識別方法、識別プログラムおよび識別プログラムを記録した一時的でない有形の記録媒体 |
CN108876900A (zh) * | 2018-05-11 | 2018-11-23 | 重庆爱奇艺智能科技有限公司 | 一种与现实场景融合的虚拟目标投射方法和系统 |
EP3839419B1 (en) | 2018-08-15 | 2024-05-15 | National Institute Of Advanced Industrial Science And Technology | Marker with two-dimensional pattern code and attitude inversion detection patterns |
JP7460532B2 (ja) | 2018-10-10 | 2024-04-02 | 株式会社Preferred Networks | システム、方法及び装置 |
WO2020208686A1 (ja) | 2019-04-08 | 2020-10-15 | 日本電気株式会社 | カメラ校正装置、カメラ校正方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 |
JP2022536617A (ja) * | 2019-06-05 | 2022-08-18 | 北京外号信息技術有限公司 | 相対位置決めを実現するための装置及び対応する相対位置決め方法 |
CN112051546B (zh) * | 2019-06-05 | 2024-03-08 | 北京外号信息技术有限公司 | 一种用于实现相对定位的装置以及相应的相对定位方法 |
JP7404011B2 (ja) * | 2019-09-24 | 2023-12-25 | 東芝テック株式会社 | 情報処理装置 |
KR102288194B1 (ko) * | 2021-03-05 | 2021-08-10 | 주식회사 맥스트 | 카메라 포즈 필터링 방법 및 이를 수행하기 위한 컴퓨팅 장치 |
JP7414772B2 (ja) * | 2021-06-04 | 2024-01-16 | プライムプラネットエナジー&ソリューションズ株式会社 | 対象物の変位量測定方法および変位量測定装置 |
DE102022200461A1 (de) | 2022-01-17 | 2023-07-20 | Volkswagen Aktiengesellschaft | Verfahren und Robotersystem zum Bearbeiten eines Werkstücks sowie Koordinatensystemmarker für ein Robotersystem |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2749329B2 (ja) * | 1988-08-04 | 1998-05-13 | 株式会社アマダ | 被補正物の位置補正装置 |
JPH04288541A (ja) * | 1991-03-14 | 1992-10-13 | Dainippon Printing Co Ltd | 画像歪補正装置 |
JP3729947B2 (ja) * | 1996-09-30 | 2005-12-21 | 住友電気工業株式会社 | 車両の位置算出装置 |
DE10131610C1 (de) * | 2001-06-29 | 2003-02-20 | Siemens Dematic Ag | Verfahren zur Kalibrierung des optischen Systems einer Lasermaschine zur Bearbeitung von elektrischen Schaltungssubstraten |
JP2003281504A (ja) | 2002-03-22 | 2003-10-03 | Canon Inc | 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム |
JP4136859B2 (ja) * | 2003-01-10 | 2008-08-20 | キヤノン株式会社 | 位置姿勢計測方法 |
WO2006065563A2 (en) * | 2004-12-14 | 2006-06-22 | Sky-Trax Incorporated | Method and apparatus for determining position and rotational orientation of an object |
JP4555876B2 (ja) | 2008-05-30 | 2010-10-06 | 株式会社日本自動車部品総合研究所 | 車載カメラのキャリブレーション方法 |
JP5842248B2 (ja) * | 2010-12-24 | 2016-01-13 | 国立研究開発法人産業技術総合研究所 | マーカ |
JP6083747B2 (ja) * | 2012-10-24 | 2017-02-22 | 国立研究開発法人産業技術総合研究所 | 位置姿勢検出システム |
US9489738B2 (en) | 2013-04-26 | 2016-11-08 | Navigate Surgical Technologies, Inc. | System and method for tracking non-visible structure of a body with multi-element fiducial |
-
2014
- 2014-09-08 JP JP2015539078A patent/JP6261016B2/ja active Active
- 2014-09-08 CN CN201480054187.1A patent/CN105612401B/zh active Active
- 2014-09-08 EP EP14850001.0A patent/EP3056854B1/en active Active
- 2014-09-08 US US15/025,102 patent/US10262429B2/en active Active
- 2014-09-08 WO PCT/JP2014/073682 patent/WO2015045834A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JPWO2015045834A1 (ja) | 2017-03-09 |
EP3056854A1 (en) | 2016-08-17 |
EP3056854A4 (en) | 2017-08-02 |
JP6261016B2 (ja) | 2018-01-17 |
US10262429B2 (en) | 2019-04-16 |
WO2015045834A1 (ja) | 2015-04-02 |
US20160239952A1 (en) | 2016-08-18 |
CN105612401A (zh) | 2016-05-25 |
EP3056854B1 (en) | 2020-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105612401B (zh) | 标记图像处理系统 | |
Dhall et al. | LiDAR-camera calibration using 3D-3D point correspondences | |
US9448758B2 (en) | Projecting airplane location specific maintenance history using optical reference points | |
US20170132806A1 (en) | System and method for augmented reality and virtual reality applications | |
US20180122086A1 (en) | Image processing apparatus, image processing method, and program | |
CN103189827B (zh) | 对象显示装置以及对象显示方法 | |
Bazin et al. | Motion estimation by decoupling rotation and translation in catadioptric vision | |
US20160117824A1 (en) | Posture estimation method and robot | |
CN109255813A (zh) | 一种面向人机协作的手持物体位姿实时检测方法 | |
TWI496108B (zh) | AR image processing apparatus and method | |
CN106872993A (zh) | 便携式距离测量装置和用于捕捉相对位置的方法 | |
CN105096376B (zh) | 一种信息处理方法及电子设备 | |
CN111279354A (zh) | 图像处理方法、设备及计算机可读存储介质 | |
WO2021177239A1 (ja) | 取り出しシステム及び方法 | |
Zhang et al. | Loop closure through vanishing points in a line-based monocular SLAM | |
JP2009285778A (ja) | ロボットハンドの姿勢検知システム | |
CN110807431A (zh) | 对象定位方法、装置、电子设备及存储介质 | |
JP2009216503A (ja) | 三次元位置姿勢計測方法および装置 | |
CN104166995A (zh) | 一种基于马步测度的Harris-SIFT双目视觉定位方法 | |
Goronzy et al. | QRPos: Indoor positioning system for self-balancing robots based on QR codes | |
Petrič et al. | Real-time 3D marker tracking with a WIIMOTE stereo vision system: Application to robotic throwing | |
Bianchi et al. | Camera-marker alignment framework and comparison with hand-eye calibration for augmented reality applications | |
CN113008135B (zh) | 用于确定空间中目标点位置的方法、设备、电子装置及介质 | |
KR102056728B1 (ko) | 평면 물체의 자세 인식 방법 및 이를 위한 장치 | |
CN106872990A (zh) | 一种三维空间目标精准定位和追踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |