CN106886990B - 三维坐标缝合方法及应用其的三维坐标信息缝合装置 - Google Patents
三维坐标缝合方法及应用其的三维坐标信息缝合装置 Download PDFInfo
- Publication number
- CN106886990B CN106886990B CN201510970915.XA CN201510970915A CN106886990B CN 106886990 B CN106886990 B CN 106886990B CN 201510970915 A CN201510970915 A CN 201510970915A CN 106886990 B CN106886990 B CN 106886990B
- Authority
- CN
- China
- Prior art keywords
- dimensional coordinate
- coordinate information
- visual angle
- dimensional
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 230000000007 visual effect Effects 0.000 claims abstract description 112
- 238000012937 correction Methods 0.000 claims abstract description 28
- 238000012545 processing Methods 0.000 claims description 72
- 230000009466 transformation Effects 0.000 claims description 26
- 238000009958 sewing Methods 0.000 claims description 19
- 238000013459 approach Methods 0.000 claims description 9
- 238000010276 construction Methods 0.000 claims description 3
- 230000005484 gravity Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 abstract 1
- 238000001514 detection method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000004020 luminiscence type Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/22—Measuring arrangements characterised by the use of optical techniques for measuring depth
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/30—Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
- G01B11/303—Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces using photoelectric detection means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Image Processing (AREA)
Abstract
三维坐标缝合方法及应用其的三维坐标信息缝合装置,该方法包括置放校正块在三维坐标信息缝合装置的受测平台上;藉由深度感测元件分别对校正块取得第一视角的第一三维坐标信息和第二视角的第二三维坐标信息;依据第一三维坐标信息的第一重心坐标和第二三维坐标信息的第二重心坐标决定第一迭合三维坐标信息;依据迭代最近点算法缝合第一迭合三维坐标信息,以形成第一三维坐标缝合结果;以及依据第一三维坐标信息和第一三维坐标缝合结果决定第一视角相对第二视角的第一坐标转换关系。
Description
技术领域
本发明涉及三维坐标缝合方法,特别涉及结合重心坐标信息与边缘权重特征的三维坐标缝合方法。
背景技术
传统三维深度感测元件并不容易扫描立体工件的形貌。而在进行立体工件形貌的缝合之前,传统三维深度感测元件需先执行连续多次扫描。连续多次扫描衍伸出耗时的问题。另外,由于难以求得视角差异大的两深度信息之间的转换关系,常无法藉由转换关系缝合不同视角的两深度信息。有鉴于此,本发明提出一种三维坐标缝合方法及应用其的三维坐标信息缝合装置。
发明内容
本发明的一实施例提供一种用于一三维坐标信息缝合装置的三维坐标缝合方法。该三维坐标缝合方法包括置放一校正块在该三维坐标信息缝合装置的一受测平台上;藉由该至少一深度感测元件分别对该校正块取得一第一视角的一第一三维坐标信息和一第二视角的一第二三维坐标信息;分别决定该第一三维坐标信息的一第一重心坐标以及该第二三维坐标信息的一第二重心坐标;藉由将该第一重心坐标转换至该第二重心坐标,使得该第一三维坐标信息迭合至该第二三维坐标信息形成一第一迭合三维坐标信息;依据一迭代最近点(Iterative Closest Point)算法将该第一迭合三维坐标信息中的该第一三维坐标信息缝合至该第二三维坐标信息,以形成一第一三维坐标缝合结果;以及依据该第一三维坐标信息和该第一三维坐标缝合结果决定该第一视角相对该第二视角的一第一坐标转换关系。
本发明的一实施例提供一种三维坐标信息缝合装置。该三维坐标信息缝合装置包括一受测平台、至少一深度感测元件、以及一处理装置。该受测平台用以置放一校正块在该受测平台上。该至少一深度感测元件用以分别以一第一视角和一第二视角对该校正块取得该第一视角的一第一三维坐标信息和该第二视角的一第二三维坐标信息。该处理装置连接至该至少一深度感测元件,用以决定该第一视角相对该第二视角的一第一坐标转换关系,其中该处理装置分别决定该第一三维坐标信息的一第一重心坐标以及该第二三维坐标信息的一第二重心坐标;其中该处理装置藉由将该第一重心坐标转换至该第二重心坐标,使得该第一三维坐标信息迭合至该第二三维坐标信息形成一第一迭合三维坐标信息;其中该处理装置依据一迭代最近点(Iterative Closest Point)算法将该第一迭合三维坐标信息中的该第一三维坐标信息缝合至该第二三维坐标信息,以形成一第一三维坐标缝合结果;以及其中该处理装置依据该第一三维坐标信息和该第一三维坐标缝合结果决定该第一坐标转换关系。
附图说明
图1是依据本发明的一第一实施例举例说明本发明的一三维坐标信息缝合装置10的区块图。
图2A至图2C是依据本发明的一第二实施例举例说明三维坐标信息缝合装置10的一示范性实施例。
图3A至图3F是依据本发明的一第三实施例举例说明三维坐标信息缝合装置10如何决定第一坐标转换关系R12。
图4是依据本发明的一第五实施例举例说明三维坐标信息缝合装置10的一示范性实施例。
图5A至图5B是依据本发明的一第六实施例举例说明本发明的三维坐标缝合方法的流程图。
【符号说明】
10~三维坐标信息缝合装置
110~受测平台
111~校正块
120~深度感测元件
130~处理装置
21~校正块规
22~取像装置
221~发光单元
222~图像取得单元
23~数据处理中心
231~图像处理单元
232~显示单元
233~存储单元
234~通信单元
24~移动装置
40~检测系统
41~流动线轨道
42~待测物
431、432、433~深度感测元件
441、442、443~机器手臂
R12~第一坐标转换关系
R21~第二坐标转换关系
R31~第三坐标转换关系
R32~第四坐标转换关系
RI1~初步空间转换关系
具体实施方式
本公开所附图示的实施例或例子将如以下说明。本公开的范围并非以此为限。本领域技术人员应能知悉在不脱离本公开的精神和架构的前提下,当可作些许更动、替换和置换。在本公开的实施例中,元件符号可能被重复地使用,本公开的数种实施例可能共用相同的元件符号,但为一实施例所使用的特征元件不必然为另一实施例所使用。
图1是依据本发明的一第一实施例举例说明本发明的一三维坐标信息缝合装置10的区块图。在本发明第一实施例中,三维坐标信息缝合装置10包括一受测平台110、至少一深度感测元件120、以及一处理装置130。受测平台110用以置放一校正块111在受测平台110上。至少一深度感测元件120用以分别对校正块111取得一第一视角(或一第一视野)的一第一三维坐标信息(第一点云)和一第二视角(或一第二视野)的一第二三维坐标信息(第二点云)。处理装置130连接至至少一深度感测元件120,其中处理装置130用以决定该第一视角相对该第二视角的一第一坐标转换关系R12。在本发明第一实施例中,校正块111可为一非对称性且具有高低落差的校正块,藉此让至少一深度感测元件120所取得的图像特征具有不变性(invariance)、唯一性(uniqueness)、稳定性(stability)及独立性(independence)来获得相对应坐标系统关系。在另一实施例中,校正块111可为一非对称三维校正块。
在本发明第一实施例中,处理装置130分别决定该第一三维坐标信息的一第一重心坐标以及该第二三维坐标信息的一第二重心坐标。由于图像的特征有不变性、唯一性、稳定行及独立性等特性,特征匹配法就是利用特征点的这几项特性来计算其相关性。假若由左右边图像取得出来的特征模糊不明(ambiguous)或有失真(distorted)的现象,则可用特征间的空间关系来进来比对。特征间的空间关系,如空间距离(spatial distance)或是空间分布(spatial distribution),均可被应用来建立图像的特征对应关系。因此,处理装置130藉由上述特征匹配法以及一动态建构法(Affine structure from motion)决定该第一重心坐标相对该第二重心坐标的一初步空间转换关系,并依据该初步空间转换关系将该第一重心坐标转换至该第二重心坐标。接着,处理装置130藉由将该第一重心坐标转换至该第二重心坐标,使得该第一三维坐标信息迭合至该第二三维坐标信息形成一第一迭合三维坐标信息。
在本发明第一实施例中,处理装置130依据一迭代最近点(Iterative ClosestPoint,ICP)算法将该第一迭合三维坐标信息中的该第一三维坐标信息缝合至该第二三维坐标信息,以形成一第一三维坐标缝合结果。最后,处理装置130依据该第一三维坐标信息和该第一三维坐标缝合结果决定第一坐标转换关系R12。
在本发明第一实施例中,在执行ICP算法之前,处理装置130先增加该第一迭合三维坐标信息之中该第一三维坐标信息的多个边缘坐标信息的权重,以及增加该第一迭合三维坐标信息之中该第二三维坐标信息的多个边缘坐标信息的权重。换句话说,处理装置130给予该第一和第二三维坐标信息之中边缘及转角处的坐标信息较高的权重。藉此提升执行ICP算法的精确度。
图像的特征有不变性(invariance)、唯一性(uniqueness)、稳定性(stability)及独立性(independence)等特性,特征匹配法就是利用特征点的这几项特性来计算其相关性。假若由左右边图像取得出来的特征模糊不明(ambiguous)或有失真(distorted)的现象,则可用特征间的空间关系来进来比对。特征间的空间关系,如空间距离(spatialdistance)或是空间分布(spatial distribution),均可被应用来建立图像的特征对应关系。
在本发明第一实施例中,在处理装置130得到第一坐标转换关系R12之后,置放一待测物112(未图示)在受测平台110上。接着,至少深度感测元件120分别对待测物112取得该第一视角的一第三三维坐标信息以及该第二视角的一第四三维坐标信息。处理装置130依据第一坐标转换关系R12将该第三三维坐标信息转换为该第二视角所表示的一第一校正三维坐标信息。最后,处理装置130将该第一校正三维坐标信息迭合至该第四三维坐标信息,以取得待测物112所对应之一待测物三维坐标缝合结果。
图2A至图2C是依据本发明的一第二实施例举例说明三维坐标信息缝合装置10的一示范性实施例。在本发明第二实施例中,三维坐标信息缝合装置10的受测平台110、深度感测元件120和处理装置130分别对应至校正块规21、取像装置22和数据处理中心23。数据处理中心23包括一图像处理单元231、一显示单元232、一存储单元233、以及一通信单元234。在本发明第二实施例中,三维坐标信息缝合装置10还包括一移动装置24,其中移动装置24是一机器手臂。移动装置24分别连接至数据处理中心23和取像装置22。在本发明第二实施例中,取像装置22被安装在该机器手臂(移动装置24)的末端,并藉由该机器手臂的移动对放置在校正块规21上的校正块111或待测物112取得不同视角(或视野)的图像信息。
在本发明第二实施例中,取像装置22包括至少一发光单元221和至少一图像取得单元222。发光单元221用以发出结构光线至放置在校正块规21上的校正块111或待测物112。图像取得单元222用以对校正块111或待测物112取得图像信息,并将该图像信息传送至数据处理中心23的存储单元233。数据处理中心23的图像处理单元231分析该图像信息得到对应的三维坐标信息。在本发明第二实施例中,发光单元221可以激光仪、投影灯、发光二极管、卤素灯、萤光灯、或是聚光灯等发光物件实现,而图像取得单元222可以电荷耦合元件、互补性氧化金属半导体、旋转变焦式摄像机、或是数字监控器实现,但本发明并不限定于此。
图3A至图3F是依据本发明的一第三实施例举例说明三维坐标信息缝合装置10如何决定第一坐标转换关系R12。在本发明第三实施例中,图3A是深度感测元件120A和深度感测元件120B对校正块111扫描的一示意图。在本发明第三实施例中,校正块111是一L形三维校正块。但本发明并不仅限定于此,校正块111也可为任意非对称形状的三维校正块。
在图3A中,校正块111被放置在受测平台110的45度斜坡之上,深度感测元件120A以一第一视角/第一视野(受测平台110的正上方)对校正块111取得第一视角的第一三维坐标信息,而深度感测元件120B则以一第二视角/第二视野(受测平台110的正左方)对校正块111取得第二视角的第二三维坐标信息。但本发明并不限定于此,受测平台110的平面也可为任意角度的平面。在本发明第三实施例中,深度感测元件120A和深度感测元件120B可表示为置放在不同视角的两深度感测元件120,深度感测元件120A和深度感测元件120B也可表示为该机器手臂(移动装置24)分别移动取像装置22至第一视角和第二视角的示意图。
图3B是深度感测元件120A在第一视角(受测平台110的正上方)所取得的第一三维坐标信息。由图3B可知,从第一视角(受测平台110的正上方)往下看,视角遮蔽的影响造成第一视角的第一三维坐标信息中间有个明显断开的区域。这导致深度感测元件120A无法取得到校正块111的部分三维坐标信息。
图3C是深度感测元件120B在第二视角(受测平台110的正左方)所取得的第二三维坐标信息。由图3C可知,第二视角(受测平台110的正左方)往右方看过去可取得到图3B所取得不到的三维坐标信息(上述L形三维校正块中间受遮蔽区域的三维坐标信息)。但同样地,第二视角的第二三维坐标信息未能包含到L形三维校正块右后方的三维坐标信息。
图3D是第一视角的第一三维坐标信息和第二视角的第二三维坐标信息在空间位置上的示意图。由图3D可知,深度感测元件120A和深度感测元件120B各自取得的三维坐标信息相去甚远。
图3E是L形三维校正块的第一迭合三维坐标信息的示意图。在本发明第三实施例中,处理装置130(数据处理中心23)分别决定图3B所示第一三维坐标信息的一第一重心坐标和图3C所示第二三维坐标信息的一第二重心坐标。接着,处理装置130(数据处理中心23)决定该第一重心坐标相对该第二重心坐标的一初步空间转换关系RI1,并依据初步空间转换关系RI1将该第一重心坐标转换至该第二重心坐标。接着,处理装置130(数据处理中心23)藉由将该第一重心坐标转换至该第二重心坐标,使得该第一三维坐标信息迭合至该第二三维坐标信息形成图3E所示的第一迭合三维坐标信息。在图3E中,第一三维坐标信息的第一重心坐标和第二三维坐标信息的第二重心坐标迭合在一起,亦即第一三维坐标信息和第二三维坐标信息彼此的物理重心坐标迭合在一起。
图3F是L形三维校正块的第一三维坐标缝合结果的示意图。相较图3C,图3F显示出在第二视角下L形三维校正块更完整的三维坐标信息。在本发明第三实施例中,处理装置130(数据处理中心23)依据ICP算法将图3E所示第一迭合三维坐标信息中的第一三维坐标信息缝合至第二三维坐标信息,以形成图3F所示第一三维坐标缝合结果。
在本发明第三实施例中,为了能更精确地将第一三维坐标信息缝合至第二三维坐标信息,在进行缝合之前,处理装置130(数据处理中心23)先增加图3E所示第一迭合三维坐标信息之中第一和第二三维坐标信息的边缘坐标信息和转角坐标信息的权重。换句话说,处理装置130(数据处理中心23)给予图3E所示第一迭合三维坐标信息之中边缘及转角处的坐标信息较高的权重,以求L形三维校正块的边缘能更精确地对齐。因此,相较图3E,图3F所示第一三维坐标缝合结果更精准地缝合第一和第二三维坐标信息。最后,在本发明第三实施例中,处理装置130(数据处理中心23)依据原始的第一三维坐标信息和图3F所示第一三维坐标缝合结果得到由第一视角转换到第二视角的第一坐标转换关系R12。
在本发明第三实施例中,上述第一视角与上述第二视角具有重叠的共视区域。但值得注意的是,本发明第三实施例所示重心缝合方法亦能应用至第一和第二视角彼此不具有重叠共视区域的情形(亦即深度感测元件120A和深度感测元件120B不会取得到L形三维校正块相同部位的三维坐标信息,或是第一三维坐标信息和第二三维坐标信息分别对应至L形三维校正块的不同部位)。此外,在本发明第三实施例中,第一视角和第二视角并不限定需为90度(受测平台110的正上方)和0度(受测平台110的正左方),第一视角和第二视角仅限定需为不同视角。
此外,在本发明第三实施例中,处理装置130(数据处理中心23)也可藉由反向执行图3E至图3F所述坐标信息迭合方式,取得第一视角下的一第二三维坐标缝合结果。同时,处理装置130(数据处理中心23)也可依据原始的第二三维坐标信息和上述第二三维坐标缝合结果对应取得由第二视角转换到第一视角的一第二坐标转换关系R21。
本发明的一第四实施例举例说明三维坐标信息缝合装置10如何取得待测物112的一待测物三维坐标缝合结果。在本发明第四实施例中,为了方便说明,三维坐标信息缝合装置10沿用第三实施例所示三维坐标信息缝合装置10。此时,处理装置130(数据处理中心23)已先藉由校正块111取得由第一视角转换到第二视角的第一坐标转换关系R12和由第二视角转换到第一视角的一第二坐标转换关系R21,且待测物112已被置放在受测平台110上。接着,深度感测元件120A对待测物112取得第一视角的一第三三维坐标信息,而深度感测元件120B对待测物112取得第二视角的一第四三维坐标信息。
在本发明第四实施例中,若处理装置130(数据处理中心23)欲得到在第二视角下待测物112的待测物三维坐标缝合结果,处理装置130(数据处理中心23)依据第一坐标转换关系R12将第一视角的第三三维坐标信息转换为第二视角所表示的一第一校正三维坐标信息。最后,处理装置130(数据处理中心23)再将该第一校正三维坐标信息直接迭合至第二视角的第四三维坐标信息,即可取得待测物112在第二视角下的待测物三维坐标缝合结果。
在本发明第四实施例中,若处理装置130(数据处理中心23)欲得到在第一视角下待测物112的待测物三维坐标缝合结果,处理装置130(数据处理中心23)依据第二坐标转换关系R21将第二视角的第四三维坐标信息转换为第一视角所表示的一第二校正三维坐标信息。最后,处理装置130(数据处理中心23)再将该第二校正三维坐标信息直接迭合至第一视角的第三三维坐标信息,即可取得待测物112在第一视角下的待测物三维坐标缝合结果。
图4是依据本发明的一第五实施例举例说明三维坐标信息缝合装置10的一示范性实施例。在本发明第五实施例中,三维坐标信息缝合装置10被应用至一检测系统40之中。检测系统40用于取得在检测系统40的一流动线轨道41上移动的每一待测物42的三维坐标缝合结果。如图5所示,第一视角的深度感测元件443和第二视角的深度感测元件432分别装设在机器手臂441的末端和机器手臂442的末端,其中机器手臂441和机器手臂442架设在流动线轨道41旁侧。在本发明第五实施例中,深度感测元件431和深度感测元件432已先藉由校正块111取得由第一视角转换到第二视角的第一坐标转换关系R12和由第二视角转换到第一视角的一第二坐标转换关系R21。深度感测元件431用以对经过其视角范围的待测物42取得一第一视角的一第三三维坐标信息,而深度感测元件432则对经过其视角范围的待测物42取得一第二视角的一第四三维坐标信息。同样地,藉由前述第四实施例的三维坐标信息缝合方法,检测系统40即可得到待测物42在第一视角和第二视角之下的两种待测物三维坐标缝合结果。
此外,藉由同样的方式,也可在检测系统40新增一机器手臂443,并在机器手臂443的末端装设第三视角的深度感测元件433,其中机器手臂443架设在流动线轨道41的旁侧。接着,检测系统40对应得到由第一视角转换到第三视角的一第三坐标转换关系R31,并使用第三坐标转换关系R31将第一视角的第三三维坐标信息转换为第三视角的校正三维坐标信息。同时,检测系统40亦对应得由第二视角转换到第三视角的一第四坐标转换关系R32,并使用第四坐标转换关系R32将第二视角的第四三维坐标信息转换为第三视角的校正三维坐标信息。同样地,藉由前述第四实施例的三维坐标信息缝合方法,检测系统40即可得到待测物42在该第三视角之下的待测物三维坐标缝合结果。
图5A至图5B是依据本发明的一第六实施例举例说明本发明的三维坐标缝合方法的流程图。在步骤S501中,置放校正块111在三维坐标信息缝合装置10的受测平台110上。在步骤S502中,藉由至少一深度感测元件120对校正块111取得一第一视角的一第一三维坐标信息和一第二视角的一第二三维坐标信息。在步骤S503中,分别决定该第一三维坐标信息的一第一重心坐标以及该第二三维坐标信息的一第二重心坐标。在步骤S504中,藉由将该第一重心坐标转换至该第二重心坐标,使得该第一三维坐标信息迭合至该第二三维坐标信息形成一第一迭合三维坐标信息。在步骤S505中,依据一迭代最近点算法将该第一迭合三维坐标信息中的该第一三维坐标信息缝合至该第二三维坐标信息,以形成一第一三维坐标缝合结果。在步骤S506中,依据该第一三维坐标信息和该第一三维坐标缝合结果决定该第一视角相对该第二视角的一第一坐标转换关系R12。
接着,在步骤S507中,置放一待测物112在受测平台110上。在步骤S508中,藉由至少一深度感测元件120分别对待测物112取得该第一视角的一第三三维坐标信息以及该第二视角的一第四三维坐标信息。在步骤S509中,依据第一坐标转换关系R12将该第三三维坐标信息转换为该第二视角所表示的一第一校正三维坐标信息。最后,在步骤S510中,将该第一校正三维坐标信息直接迭合至该第四三维坐标信息,以取得待测物112所对应的待测物三维坐标缝合结果。
本发明虽以优选实施例公开如上,使得本领域技术人员能够更清楚地理解本发明的内容。然而,本领域技术人员应理解到他们可轻易地以本发明做为基础,设计或修改流程以及使用用于一三维坐标信息缝合装置的三维坐标缝合方法进行相同的目的和/或达到这里介绍的实施例的相同优点。因此本发明的保护范围当视所附权利要求书界定范围为准。
另外,一特定特征或观点已被相对公开在数个实施例的其中一个,该特定特征或观点可视需求与一或多个其他特征和/或其他实施例的观点结合。此外,在此所述范围像是“包含”、“具有”、“带有”和/或其他变形的本意是“包括”。而且,“示范性”仅仅是为了举例而非最佳例子。亦应当理解的是以特定方向和/或相对彼此方向来说明在此所述特征和/或元件为了简易理解的目的,而实际的方向和/或方位可能大致不同于在此举例说明所述的方向和/或方位。
Claims (14)
1.一种用于三维坐标信息缝合装置的三维坐标缝合方法,该三维坐标缝合方法包括:
置放校正块在该三维坐标信息缝合装置的受测平台上;
藉由至少一深度感测元件对该校正块取得第一视角的第一三维坐标信息和第二视角的第二三维坐标信息;
分别决定该第一三维坐标信息的第一重心坐标以及该第二三维坐标信息的第二重心坐标;
藉由将该第一重心坐标转换至该第二重心坐标,使得该第一三维坐标信息迭合至该第二三维坐标信息形成第一迭合三维坐标信息;
依据迭代最近点算法将该第一迭合三维坐标信息中的该第一三维坐标信息缝合至该第二三维坐标信息,以形成第一三维坐标缝合结果;以及
依据该第一三维坐标信息和该第一三维坐标缝合结果决定该第一视角相对该第二视角的第一坐标转换关系。
2.如权利要求1所述的三维坐标缝合方法,其中执行该迭代最近点算法之前还包括:
增加该第一迭合三维坐标信息之中该第一三维坐标信息的多个边缘坐标信息的权重;以及
增加该第一迭合三维坐标信息之中该第二三维坐标信息的多个边缘坐标信息的权重。
3.如权利要求1所述的三维坐标缝合方法,还包括:
藉由该至少一深度感测元件分别对置放在该受测平台上的待测物取得该第一视角的第三三维坐标信息和该第二视角的第四三维坐标信息;以及
还依据该第一坐标转换关系将该第三三维坐标信息缝合至该第四三维坐标信息,以形成该待测物的待测物三维坐标缝合结果。
4.如权利要求1所述的三维坐标缝合方法,其中形成该第一迭合三维坐标信息还包括:
藉由动态建构法决定该第一重心坐标相对该第二重心坐标的初步空间转换关系;以及
依据该初步空间转换关系将该第一重心坐标转换至该第二重心坐标。
5.如权利要求3所述的三维坐标缝合方法,其中执行该迭代最近点算法之前还包括:
增加该第一迭合三维坐标信息之中该第一三维坐标信息的多个边缘坐标信息的权重;以及
增加该第一迭合三维坐标信息之中该第二三维坐标信息的多个边缘坐标信息的权重。
6.如权利要求3所述的三维坐标缝合方法,其中形成该待测物三维坐标缝合结果还包括:
依据该第一坐标转换关系将该第三三维坐标信息转换为该第二视角所表示的第一校正三维坐标信息;以及
将该第一校正三维坐标信息迭合至该第四三维坐标信息,以形成该待测物三维坐标缝合结果。
7.如权利要求1所述的三维坐标缝合方法,其中该校正块是非对称三维校正块。
8.一种三维坐标信息缝合装置,包括:
受测平台,用以置放校正块在该受测平台上;
至少一深度感测元件,用以分别以第一视角和第二视角对该校正块取得该第一视角的第一三维坐标信息和该第二视角的第二三维坐标信息;以及
处理装置,连接至该至少一深度感测元件,用以决定该第一视角相对该第二视角的第一坐标转换关系,其中该处理装置分别决定该第一三维坐标信息的第一重心坐标以及该第二三维坐标信息的第二重心坐标;
其中该处理装置藉由将该第一重心坐标转换至该第二重心坐标,使得该第一三维坐标信息迭合至该第二三维坐标信息形成第一迭合三维坐标信息;
其中该处理装置依据迭代最近点算法将该第一迭合三维坐标信息中的该第一三维坐标信息缝合至该第二三维坐标信息,以形成第一三维坐标缝合结果;以及
其中该处理装置依据该第一三维坐标信息和该第一三维坐标缝合结果决定该第一坐标转换关系。
9.如权利要求8所述的三维坐标信息缝合装置,其中该处理装置执行该迭代最近点算法之前还包括:
增加该第一迭合三维坐标信息之中该第一三维坐标信息的多个边缘坐标信息的权重;以及
增加该第一迭合三维坐标信息之中该第二三维坐标信息的多个边缘坐标信息的权重。
10.如权利要求8所述的三维坐标信息缝合装置,其中该至少一深度感测元件还分别对置放在该受测平台上的待测物取得该第一视角的第三三维坐标信息以及该第二视角的第四三维坐标信息;以及
其中该处理装置还依据该第一坐标转换关系将该第三三维坐标信息缝合至该第四三维坐标信息,以形成该待测物的待测物三维坐标缝合结果。
11.如权利要求8所述的三维坐标信息缝合装置,其中该处理装置形成该第一迭合三维坐标信息还包括:
藉由动态建构法决定该第一重心坐标相对该第二重心坐标的初步空间转换关系;以及
依据该初步空间转换关系将该第一重心坐标转换至该第二重心坐标。
12.如权利要求10所述的三维坐标信息缝合装置,其中该处理装置执行该迭代最近点算法之前还包括:
增加该第一迭合三维坐标信息之中该第一三维坐标信息的多个边缘坐标信息的权重;以及
增加该第一迭合三维坐标信息之中该第二三维坐标信息的多个边缘坐标信息的权重。
13.如权利要求10所述的三维坐标信息缝合装置,其中该处理装置形成该待测物三维坐标缝合结果还包括:
该处理装置依据该第一坐标转换关系将该第三三维坐标信息转换为该第二视角所表示的第一校正三维坐标信息;以及
该处理装置将该第一校正三维坐标信息迭合至该第四三维坐标信息,以形成该待测物三维坐标缝合结果。
14.如权利要求8所述的三维坐标信息缝合装置,其中该校正块是非对称三维校正块。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW104141875 | 2015-12-14 | ||
TW104141875A TWI578269B (zh) | 2015-12-14 | 2015-12-14 | 三維座標縫合方法及應用其之三維座標資訊縫合裝置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106886990A CN106886990A (zh) | 2017-06-23 |
CN106886990B true CN106886990B (zh) | 2019-05-21 |
Family
ID=58419202
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510970915.XA Active CN106886990B (zh) | 2015-12-14 | 2015-12-22 | 三维坐标缝合方法及应用其的三维坐标信息缝合装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9613465B1 (zh) |
CN (1) | CN106886990B (zh) |
TW (1) | TWI578269B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10085162B2 (en) * | 2016-07-22 | 2018-09-25 | Ets-Lindgren, Inc. | System and method for over-the-air testing of milli-meter wave and other beamforming technologies |
US10333632B2 (en) * | 2017-04-03 | 2019-06-25 | Ets-Lindgren, Inc. | Method and system for testing beam forming capabilities of wireless devices |
CN107610179B (zh) * | 2017-09-04 | 2021-01-05 | 苏州佳世达电通有限公司 | 一种影像撷取装置的校正方法 |
GB2566443A (en) * | 2017-09-05 | 2019-03-20 | Nokia Technologies Oy | Cross-source point cloud registration |
TWI651687B (zh) | 2017-11-24 | 2019-02-21 | 財團法人工業技術研究院 | 三維模型建構方法及其系統 |
US10404384B1 (en) * | 2018-08-03 | 2019-09-03 | Rohde & Schwarz Gmbh & Co. Kg | System and method for testing a device under test within an anechoic chamber based on a minimum test criteria |
TWI714005B (zh) * | 2019-03-04 | 2020-12-21 | 財團法人成大研究發展基金會 | 適用於疊代最近點法的可察覺移動的關鍵點選擇系統 |
TWI675000B (zh) * | 2019-03-22 | 2019-10-21 | 所羅門股份有限公司 | 物件運送方法及系統 |
JP7180783B2 (ja) * | 2019-07-26 | 2022-11-30 | オムロン株式会社 | コンピュータビジョンシステムのキャリブレーション方法及びこれに用いる基準立体物 |
CN112414326B (zh) * | 2020-11-10 | 2022-05-20 | 浙江华睿科技股份有限公司 | 物体表面平整度的检测方法、装置、电子装置和存储介质 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101205662B (zh) * | 2007-11-26 | 2011-04-20 | 天津工业大学 | 三维复合材料预制件机器人缝合系统 |
TWI342524B (en) * | 2007-11-28 | 2011-05-21 | Ind Tech Res Inst | Method for constructing the image of structures |
TWI358606B (en) | 2007-12-28 | 2012-02-21 | Ind Tech Res Inst | Method for three-dimension (3d) measurement and an |
JP2010121999A (ja) * | 2008-11-18 | 2010-06-03 | Omron Corp | 3次元モデルの作成方法および物体認識装置 |
CN101710932B (zh) * | 2009-12-21 | 2011-06-22 | 华为终端有限公司 | 图像拼接方法及装置 |
CN101916457B (zh) * | 2010-08-27 | 2011-11-23 | 浙江大学 | 三维点云数据获取用的基准体及点云合成方法 |
TW201211937A (en) * | 2010-09-15 | 2012-03-16 | Univ Chang Gung | Human face matching system and method thereof |
US8872851B2 (en) | 2010-09-24 | 2014-10-28 | Intel Corporation | Augmenting image data based on related 3D point cloud data |
GB2490872B (en) | 2011-05-09 | 2015-07-29 | Toshiba Res Europ Ltd | Methods and systems for capturing 3d surface geometry |
JP5875272B2 (ja) * | 2011-07-22 | 2016-03-02 | キヤノン株式会社 | 3次元計測方法 |
CN102332180B (zh) * | 2011-10-15 | 2014-04-09 | 杭州力孚信息科技有限公司 | 一种基于立体裁剪的三维服装造型与纸样设计方法 |
TWI475244B (zh) | 2012-01-12 | 2015-03-01 | Univ Ching Yun | Slope displacement detection method |
JP5928114B2 (ja) * | 2012-04-12 | 2016-06-01 | セイコーエプソン株式会社 | ロボットシステム、ロボットシステムのキャリブレーション方法、ロボット |
TWI550555B (zh) * | 2012-05-14 | 2016-09-21 | 國立中山大學 | 三維幾何測量方法 |
KR102116589B1 (ko) * | 2012-05-30 | 2020-05-29 | 에꼴 뽈리떼끄닉 뻬데랄 드 로잔느 (으뻬에프엘) | 신경운동 손상에서의 운동의 자발적 제어를 회복시키기 위한 기기 및 방법 |
KR101888969B1 (ko) * | 2012-09-26 | 2018-09-20 | 엘지이노텍 주식회사 | 영상특성을 이용한 스테레오 매칭장치 |
CN103049896B (zh) * | 2012-12-27 | 2015-09-16 | 浙江大学 | 三维模型的几何数据和纹理数据自动配准算法 |
US9547222B2 (en) | 2013-02-08 | 2017-01-17 | University Of South Australia | Method and apparatus for calibration of multiple projector systems |
US9047706B1 (en) | 2013-03-13 | 2015-06-02 | Google Inc. | Aligning digital 3D models using synthetic images |
JP6079333B2 (ja) * | 2013-03-15 | 2017-02-15 | 株式会社リコー | 校正装置、方法及びプログラム |
WO2014168500A1 (en) | 2013-04-08 | 2014-10-16 | Lsi Corporation | Front-end architecture for image processing |
TWI552897B (zh) * | 2013-05-17 | 2016-10-11 | 財團法人工業技術研究院 | 影像動態融合方法與裝置 |
TWI534755B (zh) | 2013-11-20 | 2016-05-21 | 財團法人資訊工業策進會 | 三維立體模型之建立方法和裝置 |
JP6253368B2 (ja) * | 2013-11-25 | 2017-12-27 | キヤノン株式会社 | 三次元形状計測装置およびその制御方法 |
CN104268927A (zh) * | 2014-09-12 | 2015-01-07 | 上海明穆电子科技有限公司 | 3d服装虚拟自动生成方法及系统 |
CN104315995B (zh) | 2014-11-15 | 2017-02-01 | 中国科学院光电研究院 | 基于虚拟多立方体标准目标的tof深度相机三维坐标标定装置和方法 |
CN104700451B (zh) * | 2015-03-14 | 2017-05-17 | 西安电子科技大学 | 基于迭代就近点算法的点云配准方法 |
-
2015
- 2015-12-14 TW TW104141875A patent/TWI578269B/zh active
- 2015-12-21 US US14/977,513 patent/US9613465B1/en active Active
- 2015-12-22 CN CN201510970915.XA patent/CN106886990B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN106886990A (zh) | 2017-06-23 |
TW201721588A (zh) | 2017-06-16 |
TWI578269B (zh) | 2017-04-11 |
US9613465B1 (en) | 2017-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106886990B (zh) | 三维坐标缝合方法及应用其的三维坐标信息缝合装置 | |
CN107154014B (zh) | 一种实时彩色及深度全景图像拼接方法 | |
CN102243323B (zh) | 基于视频探测的岩质边坡稳定性分析方法 | |
KR101212419B1 (ko) | 캘리브레이션 장치 | |
CN103150715B (zh) | 图像拼接处理方法及装置 | |
CN107543496B (zh) | 一种双目立体视觉三维坐标测量方法 | |
US20090010489A1 (en) | Method for comparison of 3D computer model and as-built situation of an industrial plant | |
CN102834845A (zh) | 用于多摄像装置校准的方法与装置 | |
CN107687841A (zh) | 一种测距方法及装置 | |
CN110044374A (zh) | 一种基于图像特征的单目视觉测量里程的方法及里程计 | |
JP2007072537A (ja) | 360°画像撮影装置 | |
CN108122191A (zh) | 鱼眼图像拼接成全景图像和全景视频的方法及装置 | |
CN104463899A (zh) | 一种目标对象检测、监控方法及其装置 | |
CN106534670B (zh) | 一种基于固联鱼眼镜头摄像机组的全景视频生成方法 | |
CN107633532B (zh) | 一种基于白光扫描仪的点云融合方法及系统 | |
CN104881869A (zh) | 一种移动平台上的实时全景跟踪与拼接方法 | |
CN111009030A (zh) | 一种多视高分辨率纹理图像与双目三维点云映射方法 | |
CN110275179A (zh) | 一种基于激光雷达以及视觉融合的构建地图方法 | |
CN108447042B (zh) | 城市景观影像数据的融合方法及系统 | |
CN108492282A (zh) | 基于线结构光与多任务级联卷积神经网络的三维涂胶检测 | |
CN108830797A (zh) | 一种基于仿射投影矩阵模型的直线匹配方法 | |
JP7241812B2 (ja) | 情報可視化システム、情報可視化方法、及びプログラム | |
CN105758337B (zh) | 一种获取透镜平面与图像传感器平面之间夹角的方法 | |
CN106296797A (zh) | 一种三维扫描仪特征点建模数据处理方法 | |
CN106878628A (zh) | 一种通过摄像头进行视频拼接的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |