JP2010133752A - Shape measuring device and program - Google Patents

Shape measuring device and program Download PDF

Info

Publication number
JP2010133752A
JP2010133752A JP2008308049A JP2008308049A JP2010133752A JP 2010133752 A JP2010133752 A JP 2010133752A JP 2008308049 A JP2008308049 A JP 2008308049A JP 2008308049 A JP2008308049 A JP 2008308049A JP 2010133752 A JP2010133752 A JP 2010133752A
Authority
JP
Japan
Prior art keywords
point
unit
imaging
measurement object
shape measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008308049A
Other languages
Japanese (ja)
Other versions
JP5156601B2 (en
Inventor
Kazuo Kitamura
和男 北村
Nobuo Takachi
伸夫 高地
Hiroto Watanabe
広登 渡邉
Mitsuharu Yamada
光晴 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2008308049A priority Critical patent/JP5156601B2/en
Publication of JP2010133752A publication Critical patent/JP2010133752A/en
Application granted granted Critical
Publication of JP5156601B2 publication Critical patent/JP5156601B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To automatically obtain measurement values including an initial value necessary for three-dimensional shape measurement by automatically determining an erroneous corresponding point in an overlapping image. <P>SOLUTION: The shape measuring device 1 includes: image pickup parts 2 to 9 picking up images of a measurement object 18 in an overlapping image pickup area; a feature point correspondence part 21 for performing the correspondence of the positions of the feature points of the measurement object 18 in the overlapping image picked up by the image pickup parts 2 to 9; a triangulated net forming part 23 forming a triangulated net by connecting the feature points subjected to correspondence by the feature point correspondence part with each other by line segments; an erroneous corresponding point determination part 24 determining the erroneous corresponding on the basis of at least one of the length of a side, area, and angle of the triangulated net formed by the triangulated net forming part 23; and a three-dimensional shape measurement part 25 obtaining the three-dimensional shape of the measurement object 18 on the basis of the positions or the like of the feature points excluding the point determined as the erroneous corresponding point by the erroneous corresponding point determination part 24. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、複数の撮影位置から測定対象物を撮影した重複画像に基づいて、測定対象物の三次元形状を測定する形状測定技術に係り、特に三次元形状の測定に必要な初期値を始めとする測定値を自動で取得する技術に関する。   The present invention relates to a shape measurement technique for measuring a three-dimensional shape of a measurement object based on overlapping images obtained by photographing the measurement object from a plurality of photographing positions, and in particular, an initial value necessary for measurement of the three-dimensional shape. The present invention relates to a technology for automatically acquiring measured values.

従来から写真測量の理論が研究されている。近年では、写真測量の理論を用いて、複数の撮影位置から撮影した重複画像に基づき、測定対象物の三次元形状を測定する技術が開示されている。測定対象物の三次元位置を測定するためには、左右画像で6点以上の点を対応付ける必要があるが、この処理は手動で行うか、測定対象物にマークを貼り付けて自動で行う必要があった。   Conventionally, the theory of photogrammetry has been studied. In recent years, a technique for measuring the three-dimensional shape of an object to be measured based on overlapping images taken from a plurality of shooting positions using the theory of photogrammetry has been disclosed. In order to measure the three-dimensional position of the measurement object, it is necessary to associate six or more points in the left and right images, but this processing must be performed manually or automatically by attaching a mark to the measurement object. was there.

また、測定対象物の三次元形状を測定するために、測定対象物の画素についてステレオマッチングを行う。ステレオマッチングには、テンプレート画像を変形させながら探索する最小二乗マッチング(Least−Square Matching:LSM)や正規化相関法などが用いられる。この処理には、左右画像で対応付けた多くの点や線が必要であるが、これらの点や線などの初期値を手動で設定するのは煩雑でスキルを伴う。   Further, in order to measure the three-dimensional shape of the measurement object, stereo matching is performed on the pixels of the measurement object. For stereo matching, least-square matching (LSM) for searching while deforming a template image, a normalized correlation method, or the like is used. This process requires many points and lines associated with the left and right images, but manually setting initial values of these points and lines is cumbersome and involves skills.

このような課題を解決する技術が、例えば、特許文献1や2に開示されている。特許文献1に記載の発明では、基準となる特徴パターンが設けられた測定対象物を異なる方向から撮影した一対の第1撮影画像と、基準となる特徴パターンが設けられていない測定対象物を第1撮影画像の撮影方向と同じ方向から撮影した一対の第2撮影画像とに基づいて、各方向で得られた第1撮影画像と第2撮影画像との差をとり特徴パターンを抽出する。   For example, Patent Documents 1 and 2 disclose techniques for solving such problems. In the invention described in Patent Document 1, a pair of first photographed images obtained by photographing a measurement object provided with a reference feature pattern from different directions and a measurement object provided with no reference feature pattern are first. Based on a pair of second captured images captured from the same direction as the captured direction of one captured image, a feature pattern is extracted by taking the difference between the first captured image and the second captured image obtained in each direction.

この態様によれば、特徴パターンのみの画像が作成できることから、特徴パターンの位置検出を自動で精度よく行うことができる。また、特徴パターンの点の数を増やすことにより、左右画像で対応する面の検出を自動で行うことできる。   According to this aspect, since an image of only the feature pattern can be created, the position of the feature pattern can be automatically and accurately detected. Further, by increasing the number of feature pattern points, it is possible to automatically detect corresponding surfaces in the left and right images.

また、特許文献2に記載の発明では、測定対象の撮影位置と設計データによって決定されている測定対象の基準位置との位置補正を行い、測定対象の三次元形状と設計データを比較することによって、誤って対応付けられた誤対応点を削除する。この態様によれば、三次元形状の測定処理を自動化することができる。
特開平10−318732号公報 特開2007−212430号公報
Further, in the invention described in Patent Document 2, position correction is performed between the photographing position of the measurement target and the reference position of the measurement target determined by the design data, and the three-dimensional shape of the measurement target is compared with the design data. , The miscorresponding points associated with each other are deleted. According to this aspect, the three-dimensional shape measurement process can be automated.
JP 10-318732 A JP 2007-212430 A

このような背景を鑑み、本発明は、重複画像における誤対応点を自動判定することで、三次元形状の測定に必要な初期値を始めとする測定値を自動で取得する技術を提供することを目的とする。   In view of such a background, the present invention provides a technique for automatically acquiring measurement values including initial values necessary for measurement of a three-dimensional shape by automatically determining erroneous correspondence points in overlapping images. With the goal.

請求項1に記載の発明は、複数の撮影位置から重複した撮影領域で、測定対象物を撮影する撮影部と、前記撮影部によって撮影された重複画像における前記測定対象物の特徴点の位置を対応付ける特徴点対応付部と、前記特徴点対応付部で対応付けた特徴点同士を線分で結び三角形網を形成する三角形網形成部と、前記三角形網形成部で形成した三角形網の辺長、面積、角度の少なくとも一つに基づき、誤対応点を判定する誤対応点判定部と、前記誤対応点判定部で誤対応点と判定された点を除いた特徴点の位置および前記複数の撮影位置に基づき、前記測定対象物の特徴点の三次元座標または前記測定対象物の三次元形状を求める三次元形状測定部と、を備えることを特徴とする形状測定装置である。   According to the first aspect of the present invention, the imaging unit that images the measurement object in the overlapping imaging region from a plurality of imaging positions, and the position of the feature point of the measurement object in the overlapping image captured by the imaging unit A feature point association unit to be associated, a triangle network forming unit that connects the feature points associated by the feature point association unit with line segments to form a triangle network, and a side length of the triangle network formed by the triangle network formation unit A miscorresponding point determination unit that determines a miscorresponding point based on at least one of an area and an angle, a position of a feature point excluding a point determined as a miscorresponding point by the miscorresponding point determination unit, and the plurality of points A shape measuring apparatus comprising: a three-dimensional shape measuring unit for obtaining a three-dimensional coordinate of a feature point of the measurement object or a three-dimensional shape of the measurement object based on an imaging position.

請求項1に記載の発明によれば、重複画像における誤対応点を自動判定することで、三次元形状の測定に必要な初期値を始めとする測定値を自動で取得することができる。   According to the first aspect of the present invention, it is possible to automatically acquire a measurement value including an initial value necessary for measuring a three-dimensional shape by automatically determining an erroneous correspondence point in an overlapping image.

請求項2に記載の発明は、請求項1に記載の発明において、基準点を設けた校正用被写体と、前記校正用被写体を撮影した重複画像内の対応する基準点の位置に基づき、前記撮影部の撮影位置および姿勢を求める撮影位置姿勢測定部とをさらに備えることを特徴とする。   According to a second aspect of the present invention, in the first aspect of the present invention, based on the calibration subject provided with a reference point and the position of the corresponding reference point in a duplicate image obtained by photographing the calibration subject, the imaging And a photographing position / orientation measuring unit that obtains the photographing position and orientation of the unit.

請求項2に記載の発明によれば、測定対象物の撮影前に校正用被写体を撮影し、撮影部の位置を事前に求める第1方式のやり方を用いて、撮影部の撮影位置および姿勢を求めることができる。   According to the second aspect of the present invention, the photographing position and orientation of the photographing unit are determined using the first method in which the calibration subject is photographed before photographing the measurement object and the position of the photographing unit is obtained in advance. Can be sought.

請求項3に記載の発明は、請求項1に記載の発明において、前記撮影部の撮影位置を測定する水平角測部および鉛直角測部の少なくとも一つをさらに備えることを特徴とする。   The invention described in claim 3 is the invention described in claim 1, further comprising at least one of a horizontal angle measuring unit and a vertical angle measuring unit for measuring a shooting position of the shooting unit.

請求項3に記載の発明によれば、校正用被写体を撮影した画像に基づいて撮影部の撮影位置および姿勢を求める必要がない。   According to the third aspect of the present invention, it is not necessary to obtain the photographing position and orientation of the photographing unit based on the image obtained by photographing the calibration subject.

請求項4に記載の発明は、請求項1に記載の発明において、所定の位置関係で基準点を設けた校正用被写体と、前記校正用被写体を撮影した重複画像内の対応する基準点の位置に基づき、前記撮影部の撮影位置および姿勢を求める撮影位置姿勢測定部とをさらに備えることを特徴とする。   According to a fourth aspect of the present invention, in the first aspect of the present invention, the calibration subject provided with a reference point in a predetermined positional relationship and the position of the corresponding reference point in the overlapping image obtained by photographing the calibration subject. And a photographing position / orientation measuring unit for obtaining a photographing position and a posture of the photographing unit.

請求項4に記載の発明によれば、測定対象物と一緒に校正用被写体を撮影し、撮影部の位置と測定対象物の三次元位置を並列的に求める第2方式のやり方を用いて、撮影部の撮影位置および姿勢を求めることができる。   According to the invention described in claim 4, by using the second method of photographing the calibration subject together with the measurement object and obtaining the position of the photographing unit and the three-dimensional position of the measurement object in parallel, The photographing position and posture of the photographing unit can be obtained.

請求項5に記載の発明は、請求項1に記載の発明において、前記誤対応点判定部は、前記三角形網形成部が三角形網を形成する際に、前記三角形網の辺長、面積、角度の少なくとも一つに基づき、誤対応点を判定することを特徴とする。   The invention according to claim 5 is the invention according to claim 1, wherein the miscorresponding point determination unit is configured such that when the triangle network forming unit forms a triangle network, a side length, an area, and an angle of the triangle mesh are formed. It is characterized in that a miscorresponding point is determined based on at least one of the above.

請求項5に記載の発明によれば、三角形網を形成する際に誤対応点を判定するため、三次元形状の測定に必要な初期値を始めとする測定値を取得するまでの処理効率が向上する。   According to the fifth aspect of the present invention, since the miscorresponding point is determined when forming the triangular network, the processing efficiency until the measurement value including the initial value necessary for measuring the three-dimensional shape is obtained. improves.

請求項6に記載の発明は、請求項1に記載の発明において、前記誤対応点判定部は、三角形網の辺長に基づいて辺を削除した後、孤立した点の連結数が所定値以下ならば、前記孤立した点を誤対応点と判定することを特徴とする。   The invention according to claim 6 is the invention according to claim 1, wherein the miscorresponding point determination unit deletes an edge based on the edge length of the triangle network, and then the number of isolated points connected is equal to or less than a predetermined value. Then, the isolated point is determined as an erroneous correspondence point.

請求項6に記載の発明によれば、誤対応点を除いた特徴点群を、三次元形状の測定に必要な初期値を始めとする測定値とすることができる。   According to the sixth aspect of the present invention, the feature point group excluding the miscorresponding points can be a measured value including an initial value necessary for measuring the three-dimensional shape.

請求項7に記載の発明は、請求項1に記載の発明において、前記誤対応点判定部は、三角形網における三角形の面積が所定値以上であり、前記三角形の頂点が前記測定対象物の輪郭部分である場合に、前記頂点を誤対応点と判定することを特徴とする。   The invention according to claim 7 is the invention according to claim 1, wherein the miscorresponding point determination unit is configured such that an area of a triangle in a triangle network is a predetermined value or more, and a vertex of the triangle is a contour of the measurement object. If it is a part, the vertex is determined to be a miscorresponding point.

請求項7に記載の発明によれば、測定対象物の輪郭部分の誤対応点を検出することができる。   According to invention of Claim 7, the miscorresponding point of the outline part of a measurement object can be detected.

請求項8に記載の発明は、請求項1に記載の発明において、前記誤対応点判定部は、三角形網における三角形の角度が所定値以下であり、前記角度を構成する三角形の頂点が前記測定対象物の輪郭部分である場合に、前記頂点を誤対応点と判定することを特徴とする。   The invention according to claim 8 is the invention according to claim 1, wherein the miscorresponding point determination unit is configured such that a triangle angle in the triangle network is equal to or less than a predetermined value, and a vertex of the triangle constituting the angle is the measurement. In the case of an outline portion of an object, the vertex is determined as an erroneous correspondence point.

請求項8に記載の発明によれば、測定対象物の輪郭部分の誤対応点を検出することができる。   According to the eighth aspect of the invention, it is possible to detect an erroneous correspondence point of the contour portion of the measurement object.

請求項9に記載の発明は、請求項1に記載の発明において、前記三次元形状測定部は、前記測定対象物の輪郭の内側を処理領域として三次元形状を測定することを特徴とする。   A ninth aspect of the invention is characterized in that, in the first aspect of the invention, the three-dimensional shape measurement unit measures a three-dimensional shape using the inside of the outline of the measurement object as a processing region.

請求項9に記載の発明によれば、測定対象物の輪郭部分に不要な三次元形状が形成されない。   According to the ninth aspect of the present invention, an unnecessary three-dimensional shape is not formed in the contour portion of the measurement object.

請求項10に記載の発明は、請求項9に記載の発明において、前記三次元形状測定部は、誤対応点を除いた特徴点群の凸包線を作成し、凸包線から内側に削ることで、前記処理領域を決定することを特徴とする。   The invention according to claim 10 is the invention according to claim 9, wherein the three-dimensional shape measuring unit creates a convex hull of the feature point group excluding the miscorresponding points, and cuts the convex hull from the convex inward to the inside. Thus, the processing area is determined.

請求項10に記載の発明によれば、測定対象物の凹形状の輪郭部分に不要な三次元形状が形成されない。   According to the invention described in claim 10, an unnecessary three-dimensional shape is not formed in the concave contour portion of the measurement object.

請求項11に記載の発明は、請求項5に記載の発明において、前記誤対応点判定部が誤対応点であると判定した場合には、前記誤対応点に相当する特徴点の指定が解除されることを特徴とする。   In the invention described in claim 11, in the invention described in claim 5, when the miscorresponding point determination unit determines that it is a miscorresponding point, the designation of the feature point corresponding to the miscorresponding point is canceled. It is characterized by being.

請求項11に記載の発明によれば、誤対応点を除いた特徴点を、三次元形状の測定に必要な初期値を始めとする測定値とすることができる。   According to the invention described in claim 11, the feature points excluding the miscorresponding points can be measured values including initial values necessary for measuring the three-dimensional shape.

請求項12に記載の発明は、請求項1に記載の発明において、前記三次元形状測定部が、前記誤対応点判定部で初期値を求める際に行った誤対応点の除去の処理を、その後に測定値を求める際に行うように構成されていることを特徴とする。   The invention according to claim 12 is the invention according to claim 1, in which the three-dimensional shape measuring unit performs processing for removing the erroneous corresponding point performed when the erroneous corresponding point determining unit obtains an initial value. It is comprised so that it may carry out when calculating | requiring a measured value after that.

請求項12に記載の発明によれば、三次元形状測定部で測定値を求める際の測定の信頼性が向上する。   According to invention of Claim 12, the reliability of the measurement at the time of calculating | requiring a measured value in a three-dimensional shape measurement part improves.

請求項13に記載の発明は、複数の撮影位置から撮影した重複画像における測定対象物の特徴点の位置を対応付ける特徴点対応付ステップと、前記特徴点対応付ステップで対応付けた特徴点同士を線分で結び三角形網を形成する三角形網形成ステップと、前記三角形網形成ステップで形成した三角形網の辺長、面積、角度の少なくとも一つに基づき、誤対応点を判定する誤対応点判定ステップと、前記誤対応点判定ステップで誤対応点と判定された点を除いた特徴点の位置および前記複数の撮影位置に基づき、前記測定対象物の特徴点の三次元座標または前記測定対象物の三次元形状を求める三次元形状測定ステップと、を実行させるためのプログラムである。   According to the thirteenth aspect of the present invention, the step of associating the feature points with the positions of the feature points of the measurement object in the overlapped images taken from a plurality of photographing positions and the feature points associated with each other at the feature point association step. Triangular network forming step for forming a triangular network by connecting line segments, and an erroneous corresponding point determining step for determining an erroneous corresponding point based on at least one of the side length, area, and angle of the triangular network formed in the triangular network forming step And the three-dimensional coordinates of the feature point of the measurement object or the measurement object based on the position of the feature point excluding the point determined as the incorrect correspondence point in the erroneous correspondence point determination step and the plurality of imaging positions. And a three-dimensional shape measuring step for obtaining a three-dimensional shape.

請求項13に記載の発明によれば、重複画像における誤対応点を自動判定することで、三次元形状の測定に必要な初期値を始めとする測定値を自動で取得することができる。   According to the thirteenth aspect of the present invention, it is possible to automatically acquire a measurement value including an initial value necessary for measuring a three-dimensional shape by automatically determining an erroneous correspondence point in an overlapping image.

本発明によれば、重複画像における誤対応点を自動判定することで、三次元形状の測定に必要な初期値を始めとする測定値を自動で与えることができる。   According to the present invention, it is possible to automatically give a measurement value including an initial value necessary for measuring a three-dimensional shape by automatically determining an erroneous correspondence point in an overlapping image.

本発明は、撮影部の位置を、測定対象物の撮影前に校正用被写体を撮影し、事前に求める第1方式と、撮影部の位置を、測定対象物と一緒に校正用被写体を撮影し、並列的に求める第2方式とに適用が可能である。その両者のそれぞれに適用した例について以下に説明する。
1.第1の実施形態
以下、本発明を、第1方式に適用した形状測定装置およびプログラムの一例について、図面を参照して説明する。この第1方式は、最初に校正用被写体により撮影部の位置と姿勢を算出するので、2台以上の撮影部を固定した構成とする。この方法の利点は、動きのあるようなもの(たとえば生体)を計測するときでも、一瞬にして測定対象物をとらえて計測ができることである。また、一度撮影部の位置姿勢を校正用被写体で求めておけば、測定対象物をその空間内に置くことで、三次元計測がいつでも可能である。
According to the present invention, the first method for obtaining the position of the photographing unit in advance of photographing the object to be measured and photographing the calibration object in advance and the position of the photographing unit together with the object to be photographed for photographing the calibration object. The second method can be applied in parallel. Examples applied to both of them will be described below.
1. First Embodiment Hereinafter, an example of a shape measuring apparatus and a program in which the present invention is applied to a first method will be described with reference to the drawings. In this first method, since the position and orientation of the photographing unit are first calculated from the calibration subject, two or more photographing units are fixed. The advantage of this method is that even when a moving object (for example, a living body) is measured, the measurement object can be captured and measured in an instant. In addition, once the position and orientation of the photographing unit is obtained from the calibration subject, three-dimensional measurement can be performed at any time by placing the measurement object in the space.

(形状測定装置の構成)
図1は、第1方式を採用した形状測定装置の上面図である。形状測定装置1は、撮影部2〜9、特徴投影部10〜13、中継部14、計算処理部15、表示部17、操作部16を備える。形状測定装置1は、撮影部2〜9の中央に配置された測定対象物18の形状を測定する。
(Configuration of shape measuring device)
FIG. 1 is a top view of a shape measuring apparatus employing the first method. The shape measuring apparatus 1 includes photographing units 2 to 9, feature projecting units 10 to 13, a relay unit 14, a calculation processing unit 15, a display unit 17, and an operation unit 16. The shape measuring apparatus 1 measures the shape of the measuring object 18 disposed in the center of the imaging units 2 to 9.

撮影部2〜9には、例えば、ビデオカメラ、工業計測用のCCDカメラ(Charge Coupled Device Camera)、CMOSカメラ(Complementary Metal Oxide Semiconductor Camera)等を用いる。撮影部2〜9は、測定対象物18の周囲に配置される。撮影部2〜9は、複数の撮影位置から重複した撮影領域で測定対象物18を撮影する。   For the imaging units 2 to 9, for example, a video camera, a CCD camera for industrial measurement (Charge Coupled Device Camera), a CMOS camera (Complementary Metal Oxide Semiconductor Camera), or the like is used. The imaging units 2 to 9 are arranged around the measurement object 18. The imaging units 2 to 9 image the measurement object 18 in overlapping imaging areas from a plurality of imaging positions.

撮影部2〜9は、所定の基線長だけ離して横方向または縦方向に並べられる。なお、撮影部を追加して、横方向および縦方向の両方に並べてもよい。形状測定装置1は、少なくとも一対の重複画像に基づき、測定対象物18の三次元形状を測定する。したがって、撮影部2〜9は、撮影被写体の大きさや形状により、一つもしくは複数に適宜することができる。   The imaging units 2 to 9 are arranged in the horizontal direction or the vertical direction with a predetermined baseline length apart. Note that an imaging unit may be added and arranged in both the horizontal direction and the vertical direction. The shape measuring apparatus 1 measures the three-dimensional shape of the measuring object 18 based on at least a pair of overlapping images. Accordingly, the number of the photographing units 2 to 9 can be appropriately set to one or a plurality depending on the size and shape of the photographing subject.

特徴投影部10〜13には、例えば、プロジェクター、レーザー装置などが用いられる。特徴投影部10〜13は、測定対象物18に対してランダムドットパターン、点状のスポット光、線状のスリット光などのパターンを投影する。これにより、測定対象物18の特徴が乏しい部分に特徴が入る。特徴投影部10〜13は、撮影部2と3の間、撮影部4と5の間、撮影部6と7の間、および撮影部8と9の間に配置される。なお、測定対象物18に特徴がある場合、あるいは模様を塗布で来る場合には、特徴投影部10〜13を省略することもできる。   For example, a projector or a laser device is used for the feature projection units 10 to 13. The feature projection units 10 to 13 project a pattern such as a random dot pattern, dot spot light, or linear slit light onto the measurement target 18. Thereby, a feature enters a portion where the feature of the measurement object 18 is poor. The feature projection units 10 to 13 are arranged between the imaging units 2 and 3, between the imaging units 4 and 5, between the imaging units 6 and 7, and between the imaging units 8 and 9. In addition, when the measurement object 18 has a characteristic, or when a pattern is applied by application, the characteristic projection units 10 to 13 can be omitted.

撮影部2〜9は、イーサネット(登録商標)、または、カメラリンクもしくはIEEE1394(Institute of Electrical and Electronic Engineers 1394)などのインターフェースを介して中継部14に接続する。中継部14には、スイッチングハブ、または、画像キャプチャボード等を用いる。撮影部2〜9が撮影した画像は、中継部14を介して、計算処理部15に入力される。   The imaging units 2 to 9 are connected to the relay unit 14 via an interface such as Ethernet (registered trademark), camera link, or IEEE 1394 (Institut of Electrical and Electronic Engineers 1394). As the relay unit 14, a switching hub or an image capture board is used. Images captured by the imaging units 2 to 9 are input to the calculation processing unit 15 via the relay unit 14.

計算処理部15には、パーソナルコンピューター(Personal Computer:PC)、または、FPGA(Field Programmable Gate Array)もしくはASIC(Application Specific Integrated Circuit)などのPLD(Programmable Logic Device)で構成したハードウェアを用いる。計算処理部15は、操作部16によって操作され、計算処理部15の処理内容および計算結果は、表示部17に表示される。操作部16には、キーボードやマウスが用いられ、表示部17には、液晶モニタが用いられる。また、操作部16および表示部17は、タッチパネル式液晶モニタで一体として構成してもよい。   The calculation processor 15 is a personal computer (PC), or a PLD (Programmable Logic hardware using PLD such as Field Programmable Gate Array (FPGA) or Application Specific Integrated Circuit (ASIC). The calculation processing unit 15 is operated by the operation unit 16, and the processing contents and calculation results of the calculation processing unit 15 are displayed on the display unit 17. A keyboard and a mouse are used for the operation unit 16, and a liquid crystal monitor is used for the display unit 17. In addition, the operation unit 16 and the display unit 17 may be configured integrally with a touch panel type liquid crystal monitor.

図2は、形状測定装置のブロック図である。計算処理部15は、撮影位置姿勢測定部20、特徴点対応付部21、三次元座標演算部22、三角形網形成部23、誤対応点判定部24、三次元形状測定部25を備える。これらは、PCで実行可能なプログラムのモジュールとして実装してもよいし、FPGAなどのPLDとして実装してもよい。   FIG. 2 is a block diagram of the shape measuring apparatus. The calculation processing unit 15 includes an imaging position / orientation measurement unit 20, a feature point association unit 21, a three-dimensional coordinate calculation unit 22, a triangle network formation unit 23, an incorrect corresponding point determination unit 24, and a three-dimensional shape measurement unit 25. These may be implemented as a module of a program that can be executed by a PC, or may be implemented as a PLD such as an FPGA.

撮影位置姿勢測定部20は、図1の校正用被写体19を撮影した画像に基づき、撮影部2〜9の外部標定要素(撮影位置および姿勢)を測定する。なお、撮影位置姿勢測定部20は、撮影部2〜9の内部標定要素(主点、焦点距離、レンズ歪み)が既知でない場合は、これも同時に求める。校正用被写体19は、複数の基準点を配置した立方体形状のキャリブレーションボックスである。   The imaging position / orientation measurement unit 20 measures external orientation elements (imaging positions and orientations) of the imaging units 2 to 9 based on an image obtained by imaging the calibration subject 19 shown in FIG. Note that if the internal orientation elements (principal point, focal length, and lens distortion) of the imaging units 2 to 9 are not known, the imaging position / orientation measurement unit 20 also obtains them simultaneously. The calibration subject 19 is a cubic calibration box in which a plurality of reference points are arranged.

基準点には、カラーコードターゲットを用いる(特開2007−64627号公報参照)。カラーコードターゲットは、3つのレトロターゲット(再帰反射性ターゲット)を有する。まず、撮影位置姿勢測定部20は、校正用被写体19を撮影した画像を二値化することで、レトロターゲットを検出し、その重心位置(基準点の画像座標)を求める。また、撮影位置姿勢測定部20は、カラーコードターゲットの配色(カラーコード)に基づき、各基準点にラベルをつける。これにより、重複画像内で対応する基準点の位置が分かる。   A color code target is used as the reference point (see Japanese Patent Application Laid-Open No. 2007-64627). The color code target has three retro targets (retroreflective targets). First, the photographing position / orientation measurement unit 20 binarizes an image obtained by photographing the calibration subject 19, thereby detecting a retro target and obtaining its center-of-gravity position (reference point image coordinates). The photographing position / orientation measurement unit 20 labels each reference point based on the color code target color scheme (color code). Thereby, the position of the corresponding reference point in the overlapping image is known.

そして、撮影位置姿勢測定部20は、相互標定法、または、単写真標定法もしくはDLT法、あるいはバンドル調整法を使うことによって、撮影部2〜9の外部標定要素を算出する。これらは単独で使っても、組み合わせて使ってもよい。なお、第1方式については、本実施形態で、第2方式については、第3の実施形態で詳述する。   Then, the photographing position / orientation measurement unit 20 calculates the external orientation elements of the photographing units 2 to 9 by using the relative orientation method, the single photograph orientation method, the DLT method, or the bundle adjustment method. These may be used alone or in combination. The first method will be described in detail in this embodiment, and the second method will be described in detail in the third embodiment.

この第1方式は、最初に校正用被写体19により撮影部2〜9の位置と姿勢を算出するので、2台以上の撮影部2〜9を固定した構成とする。この方法の利点は、動きのあるようなもの(たとえば生体)を計測するときでも、一瞬にして測定対象物18をとらえて計測ができることである。また、一度撮影部2〜9の位置姿勢を校正用被写体19で求めておけば、測定対象物18をその空間内に置くことで、三次元計測がいつでも可能である。   In this first method, since the position and orientation of the photographing units 2 to 9 are first calculated by the calibration subject 19, two or more photographing units 2 to 9 are fixed. The advantage of this method is that even when a moving object (for example, a living body) is measured, the measurement object 18 can be captured and measured in an instant. In addition, once the position and orientation of the photographing units 2 to 9 are obtained from the calibration subject 19, three-dimensional measurement can be performed at any time by placing the measurement object 18 in the space.

特徴点対応付部21は、少なくとも一対のステレオ画像から測定対象物18の特徴点を抽出し、ステレオ画像中の特徴点の位置を対応付ける。なお、撮影部2〜9を横方向に並べた場合には、特徴点対応付部21は、横方向に特徴点の位置を探索し、撮影部2〜9を縦方向に並べた場合には、縦方向に特徴点の位置を探索し、撮影部2〜9を横方向および縦方向に並べた場合には、横方向および縦方向に特徴点の位置を探索する。   The feature point association unit 21 extracts feature points of the measurement object 18 from at least a pair of stereo images, and associates the positions of the feature points in the stereo image. When the photographing units 2 to 9 are arranged in the horizontal direction, the feature point association unit 21 searches for the position of the feature point in the horizontal direction, and when the photographing units 2 to 9 are arranged in the vertical direction. When the position of the feature point is searched in the vertical direction and the photographing units 2 to 9 are arranged in the horizontal direction and the vertical direction, the position of the feature point is searched in the horizontal direction and the vertical direction.

特徴点対応付部21は、背景除去部26、特徴点抽出部27、対応点探索部28を備える。背景除去部26は、測定対象物18が写された処理画像から背景画像を差分することで、測定対象物18のみが写された背景除去画像を生成する。   The feature point association unit 21 includes a background removal unit 26, a feature point extraction unit 27, and a corresponding point search unit 28. The background removal unit 26 generates a background removal image in which only the measurement object 18 is copied by subtracting the background image from the processed image in which the measurement object 18 is copied.

特徴点抽出部27は、背景除去画像から特徴点を抽出する。この際、対応点の探索範囲を制限するため、左右のステレオ画像から特徴点を抽出する。特徴点の抽出方法としては、ソーベル、ラプラシアン、プリューウィット、ロバーツなどの微分フィルタが用いられる。   The feature point extraction unit 27 extracts feature points from the background removed image. At this time, feature points are extracted from the left and right stereo images in order to limit the search range of corresponding points. As a feature point extraction method, a differential filter such as Sobel, Laplacian, Prewitt, or Roberts is used.

対応点探索部28は、一方の画像で抽出された特徴点に対応する対応点を他方の画像内で探索する。対応点の探索方法としては、残差逐次検定法(Sequential Similarity Detection Algorithm Method:SSDA)、正規化相関法、方向符号照合法(Orientation Code Matching:OCM)などのテンプレートマッチングが用いられる。   The corresponding point search unit 28 searches for a corresponding point corresponding to the feature point extracted in one image in the other image. As a corresponding point search method, template matching such as a residual sequential detection method (Sequential Similarity Detection Method: SSDA), a normalized correlation method, a direction code matching method (Orientation Code Matching: OCM), or the like is used.

三次元座標演算部22は、撮影位置姿勢測定部20で測定された外部標定要素、および、特徴点対応付部21で対応付けた特徴点の画像座標に基づき、測定対象物18の特徴点の三次元座標を演算する。   The three-dimensional coordinate calculation unit 22 is based on the external orientation elements measured by the shooting position / orientation measurement unit 20 and the image coordinates of the feature points associated by the feature point association unit 21. Calculate 3D coordinates.

三角形網形成部23は、特徴点対応付部21で対応付けた特徴点同士を線分で結んだ不整三角形網(TIN:Triangulated Irregular Network)を形成する。三角形網の形成には、ドロネー(Delaunay)法が用いられる。また、三角形網は、特徴点対応付部21で対応付けた特徴点の画像座標、または三次元座標演算部22で求めた三次元座標に基づいて形成される。   The triangle network forming unit 23 forms an irregular triangular network (TIN) in which the feature points associated by the feature point association unit 21 are connected by line segments. The Delaunay method is used to form the triangular network. The triangular network is formed based on the image coordinates of the feature points associated by the feature point association unit 21 or the 3D coordinates obtained by the 3D coordinate calculation unit 22.

誤対応点判定部24は、辺長判定部29、面積判定部30、および角度判定部31の少なくとも一つを備える。誤対応点判定部24は、三角形網形成部23で形成する際に、または、形成した後に、三角形網の辺長、面積、角度の少なくとも一つに基づき、誤対応点を判定する。特徴点が誤対応点であると判定された場合には、その特徴点の指定が解除される。   The miscorresponding point determination unit 24 includes at least one of a side length determination unit 29, an area determination unit 30, and an angle determination unit 31. The miscorresponding point determination unit 24 determines the miscorresponding point based on at least one of the side length, the area, and the angle of the triangular mesh when the triangular mesh forming unit 23 forms or after the forming. When it is determined that the feature point is a miscorresponding point, the designation of the feature point is canceled.

辺長判定部29は、三角形網形成部23が形成する、または、形成した三角形網の辺長が所定値以下である場合に、その辺を削除し、孤立した点の連結数が所定値以下ならば、その孤立点を誤対応点と判定する。   The side length determination unit 29 deletes the side when the triangular network forming unit 23 forms or the side length of the formed triangular network is equal to or smaller than a predetermined value, and the number of isolated points connected is equal to or smaller than the predetermined value. If so, the isolated point is determined to be a miscorresponding point.

面積判定部30は、三角形網形成部23が形成する、または、形成した三角形の面積が所定値以上であり、その三角形の頂点が測定対象物の輪郭部分である場合に、その頂点を誤対応点として判定する。   The area determination unit 30 incorrectly corresponds to a vertex formed by the triangle network forming unit 23 or when the area of the formed triangle is equal to or larger than a predetermined value and the vertex of the triangle is the contour portion of the measurement object. Judge as a point.

角度判定部31は、三角形網形成部23が形成する、または、形成した三角形の角度が所定値以下の場合に、その角度を構成する三角形の頂点が測定対象物の輪郭部分であるならば、その頂点を誤対応点として判定する。   The angle determination unit 31 is formed by the triangle network forming unit 23, or when the angle of the formed triangle is equal to or less than a predetermined value, if the vertex of the triangle constituting the angle is the contour part of the measurement object, The vertex is determined as an erroneous correspondence point.

三次元形状測定部25は、誤対応点判定部24で誤対応点と判定された点を除いた特徴点群を初期値として、所定領域内の画素についてステレオマッチングを行い、測定対象物18の三次元形状を求める。ステレオマッチングには、テンプレート画像を変形させながら探索するLSM、または正規化相関法などが用いられる。三次元形状は、点群またはTINとして、表示部17に表示される。   The three-dimensional shape measurement unit 25 performs stereo matching on the pixels in the predetermined region using the feature point group excluding the points determined as the erroneous correspondence points by the erroneous correspondence point determination unit 24, and Find the 3D shape. For stereo matching, LSM that searches while deforming a template image, a normalized correlation method, or the like is used. The three-dimensional shape is displayed on the display unit 17 as a point cloud or TIN.

さらに、誤対応点判定部24で初期値を求める際に行った誤対応点の除去の処理を、三次元形状測定部25が、その後に測定値を求める際にも、同様に行うことができる。   Furthermore, the process of removing the miscorresponding point performed when the miscorresponding point determination unit 24 obtains the initial value can be similarly performed when the three-dimensional shape measuring unit 25 subsequently obtains the measurement value. .

(形状測定装置の処理)
以下、形状測定装置の詳細な処理について図3を参照して説明する。図3は、形状測定装置のプログラムのフローチャートである。このフローチャートを実行するプログラムは、CDROMなどの記録媒体に格納して提供が可能である。
(Processing of shape measuring device)
Hereinafter, detailed processing of the shape measuring apparatus will be described with reference to FIG. FIG. 3 is a flowchart of the program of the shape measuring apparatus. The program for executing this flowchart can be provided by being stored in a recording medium such as a CDROM.

まず、処理画像と背景画像を入力する(ステップS10)。次に、背景除去部26によって、被計測対象物18の背景が除去される(ステップS11)。図4は、処理画像を示す図面代用写真(A)と、背景画像を示す図面代用写真(B)と、背景除去画像を示す図面代用写真(C)である。背景除去画像は、処理画像から背景画像を差分することで生成される。背景除去は、左右画像に対して行われる。なお、背景画像が得られない場合には、この処理を行わなくてもよい。   First, a processed image and a background image are input (step S10). Next, the background removal unit 26 removes the background of the measurement target 18 (step S11). FIG. 4 is a drawing substitute photo (A) showing a processed image, a drawing substitute photo (B) showing a background image, and a drawing substitute photo (C) showing a background removed image. The background removed image is generated by subtracting the background image from the processed image. Background removal is performed on the left and right images. Note that this process may not be performed if a background image cannot be obtained.

次に、特徴点抽出部27によって、左右画像から特徴点が抽出される(ステップS12)。左右の両画像から特徴点を抽出することによって、対応点の探索範囲を小さくすることができる。   Next, feature points are extracted from the left and right images by the feature point extraction unit 27 (step S12). By extracting feature points from the left and right images, the search range for corresponding points can be reduced.

特徴点抽出部27は、必要に応じて縮小処理、明度補正、コントラスト補正などの前処理を行う(ステップS12−1)。次に、ソーベルフィルタによって、前処理された左右画像からエッジ強度が算出される(ステップS12−2)。図5は、x方向およびy方向のソーベルフィルタである。ソーベルフィルタのマトリクスに対応する9つの画素の輝度値を、左上から右下へ向かってI〜Iとし、x方向の強度をdx、y方向の強度をdyとすると、注目画素(中央の画素)のエッジ強度Magは、以下の数1で算出される。 The feature point extraction unit 27 performs preprocessing such as reduction processing, brightness correction, and contrast correction as necessary (step S12-1). Next, the edge strength is calculated from the preprocessed left and right images by the Sobel filter (step S12-2). FIG. 5 shows Sobel filters in the x and y directions. When the luminance values of nine pixels corresponding to the matrix of the Sobel filter are I 1 to I 9 from the upper left to the lower right, the intensity in the x direction is dx, and the intensity in the y direction is dy, the target pixel (center The edge intensity Mag of the pixel is calculated by the following equation (1).

Figure 2010133752
Figure 2010133752

図6は、1/4圧縮した入力画像を示す図面代用写真(A)と、ソーベルフィルタによるエッジ強度画像を示す図面代用写真(B)である。特徴点抽出部27は、図6(B)のエッジ強度画像に対して細線化などの後処理を行う(ステップS12−3)。細線化することで、エッジは1画素幅になる。この結果、最終的に抽出される特徴点の位置が間引かれるため、画像中で偏りのなく特徴点が抽出される。   FIG. 6 is a drawing-substituting photograph (A) showing an input image subjected to 1/4 compression, and a drawing-substituting photograph (B) showing an edge strength image obtained by a Sobel filter. The feature point extraction unit 27 performs post-processing such as thinning the edge intensity image in FIG. 6B (step S12-3). By thinning, the edge becomes one pixel width. As a result, since the positions of the feature points finally extracted are thinned out, the feature points are extracted without deviation in the image.

次に、特徴点抽出部27は、二値化処理を行う(ステップS12−4)。二値化の閾値を自動で決定するため、エッジ強度のヒストグラムが作成される。図7は、エッジ強度のヒストグラムである。特徴点抽出部27は、作成したヒストグラムにおいて、エッジ強度の強い方から数えた累積度数が全エッジ画素数の50%の位置に相当するエッジ強度を二値化の閾値とする。   Next, the feature point extraction unit 27 performs binarization processing (step S12-4). In order to automatically determine the binarization threshold, a histogram of edge strength is created. FIG. 7 is a histogram of edge strength. The feature point extraction unit 27 uses, as a binarization threshold, an edge intensity corresponding to a position where the cumulative frequency counted from the edge having the stronger edge intensity is 50% of the total number of edge pixels in the created histogram.

図7の場合、エッジの画素数は56986画素であり、強度の強い方から数えた累積度数が全エッジ画素数の50%となる28493画素目のエッジ強度は、52である。したがって、二値化の閾値は52となる。図8は、閾値52で二値化した結果を示す図面代用写真であり、図9は、左右画像で抽出された特徴点を示す図面代用写真である。   In the case of FIG. 7, the number of pixels of the edge is 56986 pixels, and the edge strength at the 28493th pixel where the cumulative frequency counted from the stronger side is 50% of the total number of edge pixels is 52. Therefore, the binarization threshold is 52. FIG. 8 is a drawing substitute photograph showing the result of binarization with the threshold 52, and FIG. 9 is a drawing substitute photograph showing the feature points extracted in the left and right images.

次に、対応点探索部28によって、左右画像中の特徴点が対応付けられる(ステップS13)。対応点探索部28は、左画像中の各特徴点を中心としたテンプレート画像を作成し、右画像中の所定の領域でテンプレート画像に最も相関の強い対応点を探索する。   Next, the corresponding point search unit 28 associates feature points in the left and right images (step S13). The corresponding point search unit 28 creates a template image centered on each feature point in the left image, and searches for a corresponding point having the strongest correlation with the template image in a predetermined region in the right image.

図10は、テンプレート作成法を説明する説明図(A)と、探索ラインの決定方法を説明する説明図(B)と、探索幅の決定方法を説明する説明図(C)である。図10(A)に示すように、テンプレート画像は、注目特徴点を中心とした21画素×21画素で構成される。ステレオ画像は縦視差が除去されているため、図10(B)に示すように、x軸に平行に探索ラインが設けられる。また、図10(C)に示すように、対応点探索部28は、右画像の探索ライン上で最も左側の特徴点と、最も右側の特徴点を検出し、最も左側の特徴点と最も右側の特徴点までを探索幅として対応点を探索する。   FIG. 10 is an explanatory diagram (A) for explaining the template creation method, an explanatory diagram (B) for explaining the search line determination method, and an explanatory diagram (C) for explaining the search width determination method. As shown in FIG. 10A, the template image is composed of 21 pixels × 21 pixels centered on the feature point of interest. Since the vertical parallax is removed from the stereo image, a search line is provided in parallel to the x-axis as shown in FIG. Also, as shown in FIG. 10C, the corresponding point search unit 28 detects the leftmost feature point and the rightmost feature point on the search line of the right image, and the leftmost feature point and the rightmost feature point. Corresponding points are searched using the search range up to the feature point of.

この結果、テンプレート画像と最も相関の強い点が対応点となる。なお、撮影部2〜9を縦方向に並べた場合、探索ラインはy軸に平行となる。また、撮影部2〜9を縦方向および横方向に並べた場合、探索ラインはx軸およびy軸となる。   As a result, the point having the strongest correlation with the template image becomes the corresponding point. When the photographing units 2 to 9 are arranged in the vertical direction, the search line is parallel to the y axis. When the photographing units 2 to 9 are arranged in the vertical direction and the horizontal direction, the search lines are the x axis and the y axis.

次に、誤対応点判定部24によって、誤って対応付けた特徴点(誤対応点)が判定される(ステップS14)。誤対応点の判定処理には、TINの辺長による判定(ステップS14−1)と、TINの面積による判定(ステップS14−2)と、TINの角度による判定(ステップS14−3)とがある。これらの判定処理は、段階的に行われるが、少なくとも一つの処理を行う態様でもよい。   Next, the miscorresponding point determination unit 24 determines a feature point (miscorresponding point) that is incorrectly associated (step S14). The miscorresponding point determination processing includes determination based on the TIN side length (step S14-1), determination based on the TIN area (step S14-2), and determination based on the TIN angle (step S14-3). . These determination processes are performed in stages, but may be an aspect in which at least one process is performed.

以下、TINの辺長による判定方法について説明する(ステップS14−1)。まず、三角形網形成部23が、特徴点対応付部21によって対応付けられた特徴点の位置に基づき、二次元上または三次元上でTINを形成する。図11は、TINの形成手順を説明する説明図である。TINの形成には、ドロネー(Delaunay)法が用いられる。   Hereinafter, a determination method based on the TIN side length will be described (step S14-1). First, the triangle network forming unit 23 forms a TIN two-dimensionally or three-dimensionally based on the position of the feature point associated by the feature point association unit 21. FIG. 11 is an explanatory diagram for explaining a TIN formation procedure. A Delaunay method is used to form TIN.

図11(A)に示すように、6つの特徴点P1〜P6があるとする。P1を注目点(母点)とすると、まず、P1から最も近い特徴点(P2)を探索する。この際、P1とP2を結ぶ線分の垂直二等分線B1が引かれる。このP1とP2の境界線は、ボロノイ境界と呼ばれる。   As shown in FIG. 11A, it is assumed that there are six feature points P1 to P6. If P1 is an attention point (mother point), first, a feature point (P2) closest to P1 is searched. At this time, a perpendicular bisector B1 connecting the line connecting P1 and P2 is drawn. This boundary line between P1 and P2 is called a Voronoi boundary.

次に、P2の次に近い特徴点(P3)を探索する。この際、P1とP3を結ぶ線分の垂直二等分線(図示省略)は、既に作成したボロノイ境界B1よりも母点P1から遠い位置にあるため、ボロノイ境界は作成されない。   Next, a feature point (P3) closest to P2 is searched. At this time, since the perpendicular bisector (not shown) connecting P1 and P3 is located farther from the base point P1 than the Voronoi boundary B1 that has already been created, no Voronoi boundary is created.

次に、P3の次に近い特徴点(P4)が探索される。この際、P1とP4を結ぶ線分の垂直二等分線B2が引かれる。ボロノイ境界B2は、ボロノイ境界B1よりも母点P1から近い位置にあるため、作成される。以上のように、P1に近い特徴点を探索し、ボロノイ境界B1〜B3が作成される。ボロノイ境界B1〜B3で母点P1を囲んだ領域は、ボロノイ領域と呼ばれる。   Next, the feature point (P4) closest to P3 is searched. At this time, a vertical bisector B2 connecting the line connecting P1 and P4 is drawn. The Voronoi boundary B2 is created because it is closer to the mother point P1 than the Voronoi boundary B1. As described above, feature points close to P1 are searched, and Voronoi boundaries B1 to B3 are created. A region surrounding the generating point P1 by Voronoi boundaries B1 to B3 is called a Voronoi region.

この処理を特徴点P1〜P6の全点に対して行うと、図11(B)に示すボロノイ領域が生成される。そして、隣接するボロノイ領域の母点どうしを結ぶと、TINが形成される。TINの辺はドロネー辺と呼ばれ、ドロネー辺によって形成される多角形はドロネー多角形と呼ばれる。ドロネー多角形は、通常三角形となる。   When this process is performed on all the feature points P1 to P6, a Voronoi region shown in FIG. 11B is generated. Then, TINs are formed by connecting the generating points of adjacent Voronoi regions. A side of TIN is called a Delaunay side, and a polygon formed by the Delaunay side is called a Delaunay polygon. Delaunay polygons are usually triangular.

辺長判定部29は、三角形網形成部23がTINを形成する際、または、TINを形成した後に、TINの辺長に基づき誤対応点を判定する。図12は、メッシュ間隔10mmで作成したTINを示す図面代用写真であり、図13は、辺の長いTINを除去した結果を示す図面代用写真である。図12に示すように、メッシュ間隔を10mmとした場合、その4倍の40mm以上の辺を持つTINを除去する。メッシュ間隔の4倍という辺長の閾値は、実験的に決めた値であり、予め変更可能である。   The side length determination unit 29 determines an erroneous correspondence point based on the side length of the TIN when the triangular net forming unit 23 forms the TIN or after the TIN is formed. FIG. 12 is a drawing-substituting photograph showing a TIN created with a mesh interval of 10 mm, and FIG. 13 is a drawing-substituting photograph showing a result of removing a TIN having a long side. As shown in FIG. 12, when the mesh interval is set to 10 mm, TIN having a side of 40 mm or more, which is four times as large, is removed. The threshold value of the side length of 4 times the mesh interval is an experimentally determined value and can be changed in advance.

図13に示すように、辺の長いTINが除去された結果、主要な部分と分離したTINの塊が発生する。分離したTINの塊は、辺の長さが短くても、特徴が少ない背景や頭髪の部分であること多いため、測定対象物18の面であるという信頼性が低い。したがって、辺長判定部29は、TINの塊ごとにラベリングを行い、その連結数に基づいて、TINの塊を除去する。   As shown in FIG. 13, as a result of removing the TIN having a long side, a TIN lump separated from the main part is generated. Since the separated TIN lump is often a background or a hair portion with few features even if the side length is short, the reliability of the surface of the measurement object 18 is low. Therefore, the side length determination unit 29 performs labeling for each TIN chunk, and removes the TIN chunk based on the number of connections.

図14は、TINのラベリング結果を示す図面代用写真である。辺長判定部29は、ラベリングの連結数が10以下のTINの塊を誤対応点と判定する。TINの塊を構成する特徴点は、その指定が解除される。なお、ラベリングの連結数の閾値は、予め変更可能である。   FIG. 14 is a drawing-substituting photograph showing the TIN labeling result. The side length determination unit 29 determines that a TIN block having a labeling connection number of 10 or less is a miscorresponding point. The designation of the feature points constituting the TIN chunk is canceled. Note that the threshold of the number of labeling connections can be changed in advance.

次に、TINの面積による判定方法について説明する(ステップS14−2)。図15は、TINの面積による誤対応点の判定手順を説明する説明図である。図15(A)に示すように、面積判定部30は、まず各三角形の面積Sが所定値以上の三角形P1P2P4を探索する。次に、その三角形の頂点が、測定対象物18の輪郭部分であるか否かを判断する。   Next, a determination method based on the area of TIN will be described (step S14-2). FIG. 15 is an explanatory diagram illustrating a procedure for determining an erroneous corresponding point based on the area of the TIN. As shown in FIG. 15A, the area determination unit 30 first searches for a triangle P1P2P4 in which the area S of each triangle is greater than or equal to a predetermined value. Next, it is determined whether or not the vertex of the triangle is the contour portion of the measuring object 18.

図15(B)に示すように、三角形P1P2P4の外部であって、P1を中心とする所定角度および辺P1P4方向または辺P1P2方向の円弧領域T1に、P1に連結する特徴点があるか否かを判断する。円弧領域T1に連結する特徴点がない場合、P1は測定対象物18の輪郭部分であると判断される。なお、円弧領域T1の角度および方向は、予め変更可能である。   As shown in FIG. 15B, whether or not there is a feature point connected to P1 outside the triangle P1P2P4 and in a predetermined angle centered on P1 and the arc region T1 in the direction of the side P1P4 or the side P1P2 Judging. When there is no feature point connected to the circular arc region T1, it is determined that P1 is a contour portion of the measuring object 18. Note that the angle and direction of the arc region T1 can be changed in advance.

この処理を三角形の各頂点P1P2P4について行う。図15(B)の場合、P1の円弧領域T1と、P2の円弧領域T2に特徴点がないため、P1とP2は、測定対象物18の輪郭部分であると判断され、誤対応点と判定される。図15(C)に示すように、誤対応点と判定されたP1とP2は、特徴点の指定が解除される。   This process is performed for each vertex P1P2P4 of the triangle. In the case of FIG. 15B, since there is no feature point in the arc region T1 of P1 and the arc region T2 of P2, P1 and P2 are determined to be the contour portions of the measurement object 18, and are determined to be miscorresponding points. Is done. As shown in FIG. 15C, the designation of feature points for P1 and P2 determined to be miscorresponding points is cancelled.

図16は、面積の大きいTINを除去した結果を示す図面代用写真である。図16は、面積による誤対応点の判定のみを行った結果であり、辺長による誤対応点の判定を行っていない。なお、面積判定部30は、三角形網形成部23がTINを形成する際、または、TINを形成した後に、誤対応点の判定を行う。   FIG. 16 is a drawing-substituting photograph showing the result of removing a large area TIN. FIG. 16 shows the result of only the determination of the miscorresponding point based on the area, and does not determine the miscorresponding point based on the side length. Note that the area determination unit 30 determines a miscorresponding point when the triangular net forming unit 23 forms a TIN or after the TIN is formed.

次に、TINの角度による判定方法について説明する(ステップS14−3)。図17は、TINの角度による誤対応点の判定手順を説明する説明図である。図17(A)に示すように、角度判定部31は、まず各三角形の角度θが所定値以下の三角形P3P4P6を探索する。次に、その角度θを構成する三角形の頂点P3が測定対象物の輪郭部分であるならば、その頂点を誤対応点と判定する。   Next, a determination method based on the TIN angle will be described (step S14-3). FIG. 17 is an explanatory diagram illustrating a procedure for determining an erroneous corresponding point based on a TIN angle. As shown in FIG. 17A, the angle determination unit 31 first searches for a triangle P3P4P6 in which the angle θ of each triangle is a predetermined value or less. Next, if the apex P3 of the triangle that forms the angle θ is the contour portion of the measurement object, the apex is determined as an erroneous correspondence point.

図17(B)に示すように、三角形P3P4P6の外部であって、P3を中心とする所定角度および辺P3P4方向または辺P3P6方向の円弧領域T3に、P3に連結する特徴点があるか否かを判断する。円弧領域T3に連結する特徴点がない場合、P3は測定対象物18の輪郭部分であると判断され、誤対応点と判定される。なお、円弧領域T3の角度および方向は、予め変更可能である。   As shown in FIG. 17B, whether or not there is a feature point connected to P3 outside the triangle P3P4P6 and in a predetermined angle centered on P3 and the arc region T3 in the direction of the side P3P4 or the side P3P6 Judging. When there is no feature point connected to the circular arc region T3, P3 is determined to be an outline portion of the measurement object 18, and is determined to be a miscorresponding point. Note that the angle and direction of the arc region T3 can be changed in advance.

図17(C)に示すように、誤対応点と判定されたP3は、特徴点の指定が解除される。この処理を角度θが所定値以下の三角形の頂点について行う。図18は、角度の小さいTINを除去した結果を示す図面代用写真である。図18は、角度による誤対応点の判定のみを行った結果であり、辺長や面積による誤対応点の判定を行っていない。なお、角度判定部30は、三角形網形成部23がTINを形成する際、または、TINを形成した後に、誤対応点の判定を行う。   As shown in FIG. 17C, the designation of the feature point is canceled for P3 determined to be a miscorresponding point. This process is performed for the vertices of a triangle whose angle θ is a predetermined value or less. FIG. 18 is a drawing-substituting photograph showing the result of removing TIN having a small angle. FIG. 18 shows the result of only the determination of the miscorresponding point based on the angle, and the miscorresponding point is not determined based on the side length or area. Note that the angle determination unit 30 determines an erroneous correspondence point when the triangular net forming unit 23 forms a TIN or after the TIN is formed.

図19は、TINの辺長、面積、および角度によるTINの除去結果を示す図面代用写真である。TINの辺長、面積、および角度による誤対応点の判定を全て行うことで、精度のよい特徴点のみで構成されたTINが形成される。   FIG. 19 is a drawing-substituting photograph showing the result of removing TIN by the side length, area, and angle of TIN. By making all the determinations of miscorresponding points based on the side length, area, and angle of the TIN, a TIN composed only of highly accurate feature points is formed.

初期値に関する誤対応点の判定が終了すると、三次元形状測定部25によって、測定対象物の三次元形状が測定される(ステップS15)。三次元形状測定部25は、誤対応点と判定された点を除いた特徴点群をLSMの初期値としてステレオマッチングを行い、三次元形状(密面)を測定する。図20は、密面計測の結果を示す図面代用写真である。図20では、LSMの処理領域は、誤対応点を除去した後の特徴点群を凸包線で囲んだ凸領域としている。このため、頭から肩にかけて不要なTINが生成されているが、特徴投影部10〜13によって投影されたランダムドットパターンの部分は、指定されたメッシュ間隔のTINが生成されている。   When the determination of the miscorresponding point regarding the initial value is completed, the three-dimensional shape of the measurement object is measured by the three-dimensional shape measurement unit 25 (step S15). The three-dimensional shape measurement unit 25 performs stereo matching using a feature point group excluding points determined to be miscorresponding points as an initial value of LSM, and measures a three-dimensional shape (dense surface). FIG. 20 is a drawing-substituting photograph showing the result of dense surface measurement. In FIG. 20, the processing area of LSM is a convex area in which the feature point group after removing the miscorresponding points is surrounded by a convex hull. For this reason, an unnecessary TIN is generated from the head to the shoulder, but a TIN having a specified mesh interval is generated in the portion of the random dot pattern projected by the feature projection units 10 to 13.

図21は、複数モデルにおける三次元形状の計測結果を示す図面代用写真である。図21に示す複数のモデルを合成した場合、正面のモデルに形成された頭から肩をつなぐ不要なTINが、側面のモデルに形成された本来の面を隠してしまう。したがって、この頭から肩にかけて形成された不要なTINを生成しないように、LSMの処理領域を制限する。   FIG. 21 is a drawing-substituting photograph showing measurement results of a three-dimensional shape in a plurality of models. When a plurality of models shown in FIG. 21 are synthesized, an unnecessary TIN that connects the head to the shoulder formed in the front model hides the original surface formed in the side model. Therefore, the processing area of the LSM is limited so as not to generate unnecessary TIN formed from the head to the shoulder.

図22は、LSMの処理領域の制限を示す図である。図22に示すように、特徴点群の囲み線を作成する。囲み線は、凸包線を作成し、その構成する点の点間距離と角度をみながら内側に処理領域を削っていく処理を繰り返すことで作成される。   FIG. 22 is a diagram illustrating restrictions on the processing area of LSM. As shown in FIG. 22, the enclosing line of the feature point group is created. The encircling line is created by creating a convex hull line and repeating the process of cutting the processing area inward while looking at the distance and angle between the constituent points.

誤対応点判定部で初期値を求める際に行った誤対応点の除去の処理を、三次元形状測定部25が、その後に測定値を求める際にも、同様に行うことができる。   The process of removing the miscorresponding point performed when the initial value is obtained by the miscorresponding point determination unit can be similarly performed when the three-dimensional shape measuring unit 25 subsequently obtains the measured value.

図23は、LSMの処理領域を調整した計測結果を示す図面代用写真であり、図24は、図23の複数モデルの合成結果を示す図面代用写真である。図23および図24に示すように、頭から肩にかけて不要なTINが除去されているのが分かる。   FIG. 23 is a drawing-substituting photograph showing the measurement result of adjusting the LSM processing area, and FIG. 24 is a drawing-substituting photograph showing the synthesis result of the plurality of models in FIG. As shown in FIGS. 23 and 24, it can be seen that unnecessary TIN is removed from the head to the shoulder.

以下、測定対象物の撮影前に校正用被写体を撮影し、撮影部の位置を事前に求める第1方式において、撮影位置姿勢測定部20が、相互標定法を採用した場合の具体的処理の例について、以下に説明する。   Hereinafter, an example of specific processing when the photographing position / orientation measuring unit 20 adopts the relative orientation method in the first method of photographing the calibration subject before photographing the measurement object and obtaining the position of the photographing unit in advance. Is described below.

相互標定法によれば、重複画像に写された6点以上の対応する基準点に基づき、外部標定要素を求めることができる。また、基準点の三次元上の位置が既知であれば、絶対標定によって撮影部2〜9の絶対座標が求められる。   According to the relative orientation method, an external orientation element can be obtained based on six or more corresponding reference points copied in the overlapping image. If the three-dimensional position of the reference point is known, the absolute coordinates of the photographing units 2 to 9 are obtained by absolute orientation.

図25は、相互標定を説明する説明図である。相互標定は、左右2枚の画像における6点以上の対応点(パスポイント)によって外部標定要素を求める。相互標定では、投影中心OとOと基準点Pを結ぶ2本の光線が同一平面内になければならいという共面条件を用いる。以下の数2に、共面条件式を示す。 FIG. 25 is an explanatory diagram for explaining relative orientation. In the relative orientation, an external orientation element is obtained from six or more corresponding points (pass points) in the two left and right images. In the relative orientation, a coplanar condition that two rays connecting the projection centers O 1 and O 2 and the reference point P must be in the same plane is used. The following formula 2 shows the coplanar conditional expression.

Figure 2010133752
Figure 2010133752

図25に示すように、モデル座標系の原点を左側の投影中心Oにとり、右側の投影中心Oを結ぶ線をX軸にとるようにする。縮尺は、基線長を単位長さとする。このとき、求めるパラメータは、左側のカメラのZ軸の回転角κ、Y軸の回転角φ、右側のカメラのZ軸の回転角κ、Y軸の回転角φ、X軸の回転角ωの5つの回転角となる。この場合、左側のカメラのX軸の回転角ωは0なので、考慮する必要はない。このような条件にすると、数2の共面条件式は数3のようになり、この式を解けば各パラメータが求められる。

Figure 2010133752
As shown in FIG. 25, the origin of the model coordinate system is taken as the left projection center O 1 , and the line connecting the right projection center O 2 is taken as the X axis. For the scale, the base length is the unit length. At this time, the parameters to be obtained are the rotation angle κ 1 of the left camera, the rotation angle φ 1 of the Y axis, the rotation angle κ 2 of the right camera, the rotation angle φ 2 of the Y axis, and the rotation angle φ 2 of the X axis. There are five rotation angles ω 2 . In this case, since the rotation angle ω 1 of the X axis of the left camera is 0, there is no need to consider it. Under such a condition, the coplanar conditional expression of Expression 2 becomes as shown in Expression 3, and each parameter can be obtained by solving this expression.
Figure 2010133752

ここで、モデル座標系XYZとカメラ座標系xyzの間には、次に示すような座標変換の関係式が成り立つ。   Here, the following relational expression for coordinate transformation is established between the model coordinate system XYZ and the camera coordinate system xyz.

Figure 2010133752
Figure 2010133752

これらの式を用いて、次の手順により、未知パラメータ(外部標定要素)を求める。
(1)未知パラメータ(κ,φ,κ,φ,ω)の初期近似値は通常0とする。
(2)数3の共面条件式を近似値のまわりにテーラー展開し、線形化したときの微分係数の値を数4により求め、観測方程式をたてる。
(3)最小二乗法をあてはめ、近似値に対する補正量を求める。
(4)近似値を補正する。
(5)補正された近似値を用いて、(1)〜(4)までの操作を収束するまで繰り返す。
Using these equations, an unknown parameter (external orientation element) is obtained by the following procedure.
(1) The initial approximate values of unknown parameters (κ 1 , φ 1 , κ 2 , φ 2 , ω 2 ) are normally 0.
(2) The coplanar conditional expression of Equation 3 is Taylor-expanded around the approximate value, and the value of the differential coefficient when linearized is obtained by Equation 4, and an observation equation is established.
(3) A least square method is applied to obtain a correction amount for the approximate value.
(4) The approximate value is corrected.
(5) Using the corrected approximate value, the operations (1) to (4) are repeated until convergence.

相互標定が収束した場合、さらに接続標定が行われる。接続標定とは、複数のモデル間の傾き、縮尺を統一して同一座標系とする処理である。この処理を行った場合、以下の数5で表される接続較差を算出する。算出した結果、ΔZおよびΔDが、所定値(例えば、0.0005(1/2000))以下であれば、接続標定が正常に行われたと判定する。 When the relative orientation converges, connection orientation is further performed. Connection orientation is a process of unifying the inclination and scale between a plurality of models to make the same coordinate system. When this processing is performed, a connection range represented by the following formula 5 is calculated. As a result of the calculation, if ΔZ j and ΔD j are equal to or less than a predetermined value (for example, 0.0005 (1/2000)), it is determined that the connection orientation has been normally performed.

Figure 2010133752
Figure 2010133752

(第1の実施形態の優位性)
第1の実施形態によれば、左右の重複画像における誤対応点を自動判定することで、ステレオマッチングに用いられるLSMまたは正規化相関法の初期値を始めとする測定値を自動で取得することができる。
(Advantages of the first embodiment)
According to the first embodiment, by automatically determining the miscorresponding points in the left and right overlapping images, the measurement value including the initial value of LSM or normalized correlation method used for stereo matching is automatically acquired. Can do.

また、ステレオマッチングの処理領域を制限することで、測定対象物18の本来の形状のみを形成でき、複数のモデルを合成することができる。   Further, by limiting the processing region for stereo matching, only the original shape of the measurement object 18 can be formed, and a plurality of models can be synthesized.

さらに、撮影部2〜9の撮影位置および姿勢を校正用被写体19により測定することができる。撮影位置および姿勢を求めた後には、三次元計測は、測定対象物18をその空間内に置くことでいつでもできる。また動きをもった動的な測定対象物18でも、撮影部2〜9により同時撮影すれば計測が可能である。   Further, the photographing position and orientation of the photographing units 2 to 9 can be measured by the calibration subject 19. After obtaining the photographing position and orientation, three-dimensional measurement can be performed at any time by placing the measuring object 18 in the space. Further, even a dynamic measurement object 18 having movement can be measured by simultaneously photographing with the photographing units 2 to 9.

2.第2の実施形態
以下、第1の実施形態の変形例について説明する。第2の実施形態は、測定対象物の輪郭を抽出する輪郭抽出部をさらに備えるものである。
2. Second Embodiment Hereinafter, a modification of the first embodiment will be described. The second embodiment further includes a contour extraction unit that extracts the contour of the measurement object.

図28は、第2の実施形態に係る形状測定装置のブロック図である。形状測定装置の計算処理部15は、背景除去部26と特徴点抽出部27との間に輪郭抽出部37を備える。まず、輪郭抽出部37は、ソーベル、ラプラシアン、プリューウィット、ロバーツなどの微分フィルタを用いて、測定対象物18のエッジ強度画像を作成する。   FIG. 28 is a block diagram of a shape measuring apparatus according to the second embodiment. The calculation processing unit 15 of the shape measuring apparatus includes a contour extraction unit 37 between the background removal unit 26 and the feature point extraction unit 27. First, the contour extraction unit 37 creates an edge intensity image of the measuring object 18 using a differential filter such as Sobel, Laplacian, Plewwit, and Roberts.

次に、輪郭抽出部37は、エッジ強度画像を細線化した画像に対してラベリング処理を行い、連結する画素数からエッジの長さを求める。そして、エッジ強度とエッジの長さを掛け合わせた値を2値化処理することで、輪郭エッジが抽出される。図29(A)は、輪郭エッジを示す図面代用写真である。輪郭エッジ38は、測定対象物18の内部の特徴と比べてエッジ強度が強く、直線成分が多い。   Next, the contour extraction unit 37 performs a labeling process on the image obtained by thinning the edge strength image, and obtains the length of the edge from the number of connected pixels. A contour edge is extracted by binarizing a value obtained by multiplying the edge strength and the edge length. FIG. 29A is a drawing-substituting photograph showing a contour edge. The contour edge 38 has a strong edge strength and a large amount of linear components compared to the internal features of the measurement object 18.

特徴点抽出部27は、輪郭抽出部37によって抽出された輪郭エッジ38より内側の領域内で特徴点を抽出する。図29(B)は、特徴点の抽出領域を示す図面代用写真(B)である。抽出領域39は、輪郭エッジの横幅の所定割合(例えば、80%)の領域である。この80%という値は、予め変更可能である。   The feature point extraction unit 27 extracts feature points in a region inside the contour edge 38 extracted by the contour extraction unit 37. FIG. 29B is a drawing-substituting photograph (B) showing a feature point extraction region. The extraction region 39 is a region having a predetermined ratio (for example, 80%) of the lateral width of the contour edge. This value of 80% can be changed in advance.

(第2の実施形態の優位性)
図30は、ステレオ画像の撮影範囲の違いを示す図面代用写真である。図30に示すように、ステレオ画像では、右画像に写らない左画像の撮影範囲40と、左画像に写らない右画像の撮影範囲41が存在する。この撮影領域40,41で抽出される特徴点は、特徴点の対応付けができないため、全て誤対応点となる。しかしながら、第2の実施形態によれば、特徴点の抽出領域が制限されるため、誤対応点が抽出されない。
(Advantage of the second embodiment)
FIG. 30 is a drawing-substituting photograph showing a difference in photographing range of stereo images. As shown in FIG. 30, in the stereo image, there is a left image shooting range 40 that does not appear in the right image and a right image shooting range 41 that does not appear in the left image. Since the feature points extracted in the photographing regions 40 and 41 cannot be associated with the feature points, they are all false correspondence points. However, according to the second embodiment, since the feature point extraction region is limited, no erroneous corresponding point is extracted.

3.第3の実施形態
第3の実施形態は、撮影部の位置を、測定対象物と一緒に基準尺(校正用被写体)を撮影し、並列的に求める第2方式に基づくものであり、第1の実施形態における撮影位置姿勢測定部20の処理方法の一変形例である。
3. Third Embodiment The third embodiment is based on a second method in which the position of the photographing unit is photographed in parallel with the object to be measured, and a reference scale (calibration subject) is obtained in parallel. It is a modification of the processing method of the imaging position and orientation measurement unit 20 in the embodiment.

第2方式は、計測対象である被写体と校正用被写体を同時に写し込み、撮影部の位置姿勢を求めて三次元計測する方法である。この場合は、撮影部を固定する必要がなく、撮影部は1台から複数台でもよく、撮影枚数が2枚以上あれば、計測可能である。この方法の利点は、撮影部の位置は自由でかつ1台からでも計測できるため、構成が簡単にできるという点である。また、測定対象物を撮影するのと同時に撮影部の位置姿勢を求めるので、事前に撮影部の位置姿勢を求めておく必要はない。一緒に写し込む校正用被写体は、基準尺のような長さの決まったものや、あるいは、座標が決まったものなどを使用する。   The second method is a method in which a subject to be measured and a calibration subject are imprinted at the same time, and the position and orientation of the photographing unit are obtained to perform three-dimensional measurement. In this case, there is no need to fix the photographing unit, and there may be one to a plurality of photographing units, and measurement is possible if the number of photographing is two or more. The advantage of this method is that the position of the photographing unit is free and can be measured even from one unit, so that the configuration can be simplified. In addition, since the position and orientation of the photographing unit are obtained at the same time as the measurement object is photographed, it is not necessary to obtain the position and orientation of the photographing unit in advance. The calibration subject to be imaged together uses a fixed length such as a reference scale, or a fixed coordinate.

撮影部は基本的に固定する必要がなく、どこに置くのも自由である。図31は、第3の実施形態に係る形状測定装置の上面図であり、図32は、第3の実施形態に係る形状測定装置の変形例の上面図である。図31は、撮影部1台で場所を移動しながら撮影する態様における、基準尺19、撮影部2と測定対象物18、計測処理部15、操作部16、および表示部17との関係を示している。図32は、2台でステレオカメラ構成にしたり、複数台でマルチカメラ構成とした態様における変形例を示している。   The shooting part does not need to be fixed basically and can be placed anywhere. FIG. 31 is a top view of the shape measuring apparatus according to the third embodiment, and FIG. 32 is a top view of a modification of the shape measuring apparatus according to the third embodiment. FIG. 31 shows the relationship between the reference rule 19, the imaging unit 2 and the measurement object 18, the measurement processing unit 15, the operation unit 16, and the display unit 17 in a mode in which shooting is performed with one imaging unit moving. ing. FIG. 32 shows a modification in a mode in which two cameras have a stereo camera configuration or a plurality of cameras have a multi-camera configuration.

この場合、計測処理部15と、操作部16と、表示部17の三者は、PCを利用すれば、撮影部とPCだけで構成できる。また対象物に模様がない場合は、プロジェクターでパターンを投影するか、もしくは対象に模様を塗布する。撮影部の撮影位置、姿勢を求める方法は、相互標定法、または、単写真標定法もしくはDLT法、バンドル調整法を使い、これらは単独でも組み合わせて使ってもよい。   In this case, the measurement processing unit 15, the operation unit 16, and the display unit 17 can be configured by only the photographing unit and the PC by using the PC. If there is no pattern on the object, the pattern is projected by a projector or a pattern is applied to the object. As a method for obtaining the photographing position and orientation of the photographing unit, a relative orientation method, a single photo orientation method, a DLT method, or a bundle adjustment method is used, and these may be used alone or in combination.

撮影部の撮影位置および姿勢(外部標定要素)を、単写真標定またはDLT法により求めれば、1枚の写真に写された基準点の相対的な位置関係に基づき、外部標定要素を求めることができる。   If the photographing position and orientation (external orientation element) of the photographing unit are obtained by single photograph orientation or the DLT method, the external orientation element can be obtained based on the relative positional relationship of the reference points captured in one photograph. it can.

図33は、基準尺と測定対象物を撮影した左画像を示す図面代用写真(A)と、右画像を示す図面代用写真(B)である。図33に示すように、測定対象物18は、カラーコードターゲット36a〜36dを相対的な位置関係で配置した基準尺35(校正用被写体)とともに撮影される。   FIG. 33 is a drawing substitute photo (A) showing a left image obtained by photographing a reference scale and a measurement object, and a drawing substitute photo (B) showing a right image. As shown in FIG. 33, the measurement object 18 is photographed with a reference scale 35 (calibration subject) in which the color code targets 36a to 36d are arranged in a relative positional relationship.

図2に示す撮影位置姿勢測定部20は、図33に示す重複画像を取得する。撮影位置姿勢測定部20は、重複画像を2値化することで、カラーコードターゲット36a〜36dの重心位置(基準点の画像座標)を求める。また、撮影位置姿勢測定部20は、カラーコードターゲット36a〜36dの配色からカラーコードを読み取り、各カラーコードターゲット36a〜36dにラベルを付ける。   The imaging position / orientation measurement unit 20 illustrated in FIG. 2 acquires the overlapping image illustrated in FIG. The photographing position / orientation measurement unit 20 binarizes the overlapping images to obtain the barycentric positions (image coordinates of the reference points) of the color code targets 36a to 36d. The photographing position / orientation measurement unit 20 reads a color code from the color scheme of the color code targets 36a to 36d, and labels each color code target 36a to 36d.

このラベルによって、重複画像における基準点の対応が分かる。撮影位置姿勢測定部20は、基準点の画像座標、および基準点の三次元上の相対的な位置関係に基づき、相互標定法、単写真標定またはDLT法、あるいはバンドル調整法によって、撮影部2〜9の撮影位置と姿勢を求める。これらを組み合わせることでも高精度な位置姿勢が求められる。   With this label, the correspondence of the reference points in the overlapping image can be known. The photographing position / orientation measuring unit 20 uses the mutual orientation method, single photo orientation or DLT method, or bundle adjustment method based on the image coordinates of the reference point and the relative positional relationship of the reference points in three dimensions. Obtain the shooting position and posture of ~ 9. A combination of these also requires a highly accurate position and orientation.

本実施形態において採用した撮影位置姿勢測定部20の処理方式である第2方式は、第1の実施形態で採用した第1方式の変形例であり、それ以外の構成や処理については、第1〜第5の実施形態で示した構成や処理を採用できる。   The second method, which is the processing method of the photographing position / orientation measurement unit 20 employed in the present embodiment, is a modification of the first method employed in the first embodiment, and for other configurations and processes, the first method is used. The configuration and processing shown in the fifth embodiment can be adopted.

(第3の実施形態の優位性)
第3の実施形態によれば、第2方式を採用しており、測定対象物18と校正用被写体19を同時に撮影することにより、撮影部の位置姿勢を求め、三次元測定することが可能なので、撮影部は1台から何台でも構成でき、また撮影部を固定する必要がないので簡単な構成にできる。
(Advantage of the third embodiment)
According to the third embodiment, the second method is adopted, and the position and orientation of the photographing unit can be obtained and three-dimensional measurement can be performed by photographing the measurement object 18 and the calibration subject 19 at the same time. The imaging unit can be configured from one unit to any number of units, and since it is not necessary to fix the imaging unit, the configuration can be simplified.

4.第4の実施形態
第1方式を採用した第1の実施形態において、撮影位置姿勢測定部20が、相互標定法を用いて撮影部の撮影位置や姿勢を求める例を説明したが、第4の実施形態では、相互標定法の変わりに、採用しうる具体的処理の例として、単写真標定、およびDLT法について説明する。
4). Fourth Embodiment In the first embodiment that employs the first method, an example has been described in which the photographing position / orientation measurement unit 20 obtains the photographing position and orientation of the photographing unit using the relative orientation method. In the embodiment, single photograph orientation and DLT method will be described as examples of specific processing that can be adopted instead of the relative orientation method.

4−1.単写真標定
図27は、単写真標定を説明する説明図である。単写真標定は、1枚の写真の中に写された基準点に成り立つ共線条件を用いて、写真を撮影したカメラの位置O(X,Y,Z)およびカメラの姿勢(ω,φ,κ)を求める。共線条件とは、投影中心、写真像および地上の対象点(Op,Op,Op)が、一直線上にあるという条件である。また、カメラの位置O(X,Y,Z)とカメラの姿勢(ω,φ,κ)は外部標定要素である。
4-1. Single photograph orientation FIG. 27 is an explanatory diagram for explaining single photograph orientation. Single photo orientation uses the collinear condition that holds the reference point in a single photo, and uses the camera position O (X 0 , Y 0 , Z 0 ) and camera posture (ω , Φ, κ). The collinear condition is a condition that the projection center, the photographic image, and the ground target points (Op 1 P 1 , Op 2 P 2 , Op 3 P 3 ) are on a straight line. The camera position O (X 0 , Y 0 , Z 0 ) and the camera posture (ω, φ, κ) are external orientation elements.

まず、カメラ座標系をx,y,z、写真座標系x,y、地上座標系をX,Y,Zとする。カメラを各座標軸の正方向に対して左回りにそれぞれω,φ,κだけ順次回転させた向きで撮影が行われたものとする。そして、4点の画像座標(少なくとも3点)と対応する基準点の三次元座標を数6に示す2次の射影変換式に代入し、観測方程式を立ててパラメ−タb1〜b8を求める。   First, the camera coordinate system is x, y, z, the photographic coordinate system x, y, and the ground coordinate system is X, Y, Z. It is assumed that photographing is performed in a direction in which the camera is sequentially rotated counterclockwise by ω, φ, and κ counterclockwise with respect to the positive direction of each coordinate axis. Then, the four-dimensional image coordinates (at least three points) and the corresponding three-dimensional coordinates of the reference point are substituted into the quadratic projective transformation equation shown in Equation 6, and the observation equation is established to obtain the parameters b1 to b8.

Figure 2010133752
Figure 2010133752

数6のパラメータb1〜b8を用いて、以下の数7から外部標定要素を求める。

Figure 2010133752
Using the parameters b1 to b8 in Equation 6, an external orientation element is obtained from Equation 7 below.
Figure 2010133752

4−2.DLT法
DLT法は、写真座標と対象空間の三次元座標との関係を3次の射影変換式で近似したものである。DLT法の基本式は以下の数8となる。なお、DLT法の詳細については、「村井俊治:解析写真測量、p46−51、p149−155」等を参照する。
4-2. DLT method The DLT method approximates the relationship between the photographic coordinates and the three-dimensional coordinates of the target space by a cubic projective transformation equation. The basic formula of the DLT method is the following formula 8. For details of the DLT method, refer to “Shunji Murai: Analytical Photogrammetry, p46-51, p149-155” and the like.

Figure 2010133752
Figure 2010133752

数8の式の分母を消去すると、数9の線形式を導き出せる。   If the denominator of the equation (8) is eliminated, the line form of the equation (9) can be derived.

Figure 2010133752
Figure 2010133752

さらに、数9を変形すると、以下の数10となる。   Furthermore, when Equation 9 is transformed, the following Equation 10 is obtained.

Figure 2010133752
Figure 2010133752

数10に6点以上の基準点の三次元座標を代入し、最小二乗法を用いて解くと、写真座標と対象点座標との関係を決定するL〜L11の11個の未知変量を取得できる。なお、L〜L11には、外部標定要素が含まれる。 By substituting the three-dimensional coordinates of six or more reference points into Equation 10 and solving using the least square method, eleven unknown variables L 1 to L 11 that determine the relationship between the photograph coordinates and the target point coordinates are obtained. You can get it. Note that L 1 to L 11 include external orientation elements.

(第4の実施形態の優位性)
第4の実施形態によれば、単写真標定を採用した場合には、少ない画像からの測定に有利であり、DLTを採用した場合には、単写真標定よりも演算処理が簡易となる優位がある。
(Advantage of the fourth embodiment)
According to the fourth embodiment, when single photograph orientation is adopted, it is advantageous for measurement from a small number of images, and when DLT is adopted, there is an advantage that arithmetic processing is simpler than single photograph orientation. is there.

5.第5の実施形態
以下、第5の実施形態は、第1の実施形態において、撮影部の位置と姿勢を求める方法として、水平測角部および鉛直測角部の少なくとも一つにより、撮影部の撮影位置を測定する手段を採用したものである。
5). Fifth Embodiment Hereinafter, in the first embodiment, in the first embodiment, as a method for obtaining the position and orientation of the photographing unit, at least one of a horizontal angle measuring unit and a vertical angle measuring unit is used. A means for measuring the photographing position is employed.

図26は、水平測角部を備えた形状測定装置の上面図である。水平測角部32は、ロータリーエンコーダであり、水平角スケール33、エンコーダ34を備える。撮影部2〜9は、水平角スケール33の任意の位置に固定可能であり、撮影部2〜9と水平角スケール33は、一体となって時計回りおよび反時計回りに回転可能に支持される。一方、エンコーダ34は、水平角スケール33円周上の任意の位置に固定される。   FIG. 26 is a top view of a shape measuring apparatus having a horizontal angle measuring unit. The horizontal angle measuring unit 32 is a rotary encoder, and includes a horizontal angle scale 33 and an encoder 34. The photographing units 2 to 9 can be fixed at an arbitrary position of the horizontal angle scale 33, and the photographing units 2 to 9 and the horizontal angle scale 33 are integrally supported so as to be rotatable clockwise and counterclockwise. . On the other hand, the encoder 34 is fixed at an arbitrary position on the circumference of the horizontal angle scale 33.

水平角スケール33は、撮影部検出用パターン33a〜33d、水平角検出用スリット33eを有する。撮影部検出用パターン33a〜33dは、水平角スケール33円周上の任意の位置に着脱可能であり、撮影部2〜9が固定される位置に装着される。例えば、撮影部検出用パターン33a〜33dは、撮影部2と3の中間、撮影部4と5の中間、撮影部6と7の中間、撮影部8と9の中間や、撮影部2,4,6,8の直下に装着される。   The horizontal angle scale 33 includes imaging unit detection patterns 33a to 33d and horizontal angle detection slits 33e. The imaging unit detection patterns 33a to 33d are detachable at arbitrary positions on the circumference of the horizontal angle scale 33, and are mounted at positions where the imaging units 2 to 9 are fixed. For example, the image capturing unit detection patterns 33a to 33d are arranged between the image capturing units 2 and 3, the image capturing units 4 and 5, the image capturing units 6 and 7, the image capturing units 8 and 9, and the image capturing units 2 and 4. , 6 and 8 are installed.

エンコーダ34は、撮影部2〜9および水平角スケール33が回転すると、撮影部検出用パターン33a〜33dを検出する。この際、エンコーダ34は、撮影部検出用パターン33a〜33dのうち最初に検出したパターンの位置の水平角をゼロに設定する。そして、エンコーダ34は、そこから他の撮影部検出用パターン33a〜33dまでの水平角を水平角検出用スリット33eによって検出する。   When the imaging units 2 to 9 and the horizontal angle scale 33 rotate, the encoder 34 detects the imaging unit detection patterns 33a to 33d. At this time, the encoder 34 sets the horizontal angle of the position of the pattern detected first among the imaging unit detection patterns 33a to 33d to zero. Then, the encoder 34 detects the horizontal angle from there to the other imaging unit detection patterns 33a to 33d by the horizontal angle detection slit 33e.

撮影部2〜9が、同一の水平面を回転するように高さを調整した場合、撮影部2〜9の撮影位置は、エンコーダ34によって検出された水平角のみに基づいて求められる。エンコーダ34は、撮影部2〜9の水平角を計算処理部15に出力する。計算処理部15は、入力した撮影部2〜9の水平角に基づいて、撮影部2〜9の相対的な三次元上の撮影位置を求める。また、実スケールの撮影部2〜9の撮影位置を求める場合、計算処理部15は、水平角スケール33の径を入力する。   When the imaging units 2 to 9 adjust the height so as to rotate on the same horizontal plane, the imaging positions of the imaging units 2 to 9 are obtained based only on the horizontal angle detected by the encoder 34. The encoder 34 outputs the horizontal angles of the photographing units 2 to 9 to the calculation processing unit 15. The calculation processing unit 15 obtains a relative three-dimensional shooting position of the shooting units 2 to 9 based on the input horizontal angle of the shooting units 2 to 9. Further, when obtaining the photographing positions of the real scale photographing units 2 to 9, the calculation processing unit 15 inputs the diameter of the horizontal angle scale 33.

また、形状測定装置1は、水平測角部32の代わりに、撮影部2〜9と一体となって鉛直方向に回転する鉛直測角部を備える構成でもよい。この場合、計算処理部15は、鉛直測角部で検出された鉛直角に基づいて撮影部2〜9の撮影位置を求める。   Further, the shape measuring apparatus 1 may include a vertical angle measuring unit that rotates in the vertical direction integrally with the imaging units 2 to 9 instead of the horizontal angle measuring unit 32. In this case, the calculation processing unit 15 obtains the photographing positions of the photographing units 2 to 9 based on the vertical angle detected by the vertical angle measuring unit.

さらに、形状測定装置1は、撮影部2〜9および水平測角部32と一体となって鉛直方向に回転する鉛直角測部を備える構成でもよい。この場合、計算処理部15は、撮影部2〜9の水平角および鉛直角に基づいて撮影部2〜9の撮影位置を求める。   Further, the shape measuring apparatus 1 may be configured to include a vertical angle measuring unit that rotates integrally with the imaging units 2 to 9 and the horizontal angle measuring unit 32 in the vertical direction. In this case, the calculation processing unit 15 obtains the photographing position of the photographing units 2 to 9 based on the horizontal angle and the vertical angle of the photographing units 2 to 9.

(第5の実施形態の優位性)
第5の実施形態によれば、校正用被写体19を撮影した画像に基づいて撮影部2〜9の撮影位置および姿勢を求める必要がない。すなわち、形状測定装置1は、撮影位置姿勢測定部20を備える必要がない。
(Advantage of the fifth embodiment)
According to the fifth embodiment, it is not necessary to obtain the shooting positions and postures of the shooting units 2 to 9 based on the image obtained by shooting the calibration subject 19. That is, the shape measuring apparatus 1 does not need to include the photographing position / orientation measuring unit 20.

本発明は、測定対象物の三次元形状を測定する形状測定装置およびそのプログラムに利用することができる。   The present invention can be used for a shape measuring apparatus and a program for measuring a three-dimensional shape of a measurement object.

第1方式を適用した形状測定装置の上面図である。It is a top view of the shape measuring apparatus to which the first method is applied. 第1の実施形態に係る形状測定装置のブロック図である。It is a block diagram of the shape measuring device concerning a 1st embodiment. 形状測定装置のフローチャートである。It is a flowchart of a shape measuring apparatus. 処理画像を示す図面代用写真(A)と、背景画像を示す図面代用写真(B)と、背景除去画像を示す図面代用写真(C)である。A drawing substitute photo (A) showing a processed image, a drawing substitute photo (B) showing a background image, and a drawing substitute photo (C) showing a background removed image. x方向およびy方向のソーベルフィルタである。It is a Sobel filter in the x and y directions. 1/4圧縮した入力画像を示す図面代用写真(A)と、ソーベルフィルタによるエッジ強度画像を示す図面代用写真(B)である。They are a drawing substitute photo (A) showing an input image subjected to 1/4 compression, and a drawing substitute photo (B) showing an edge strength image by a Sobel filter. エッジ強度のヒストグラムである。It is a histogram of edge intensity. 閾値52で二値化した結果を示す図面代用写真である。5 is a drawing substitute photograph showing the result of binarization with a threshold value 52. FIG. 左右画像で抽出された特徴点を示す図面代用写真である。It is a drawing substitute photograph showing the feature points extracted in the left and right images. テンプレート作成法を説明する説明図(A)と、探索ラインの決定方法を説明する説明図(B)と、探索幅の決定方法を説明する説明図(C)である。It is explanatory drawing (A) explaining the template preparation method, explanatory drawing (B) explaining the determination method of a search line, and explanatory drawing (C) explaining the determination method of search width. TINの形成手順を説明する説明図(A)〜(C)である。It is explanatory drawing (A)-(C) explaining the formation procedure of TIN. メッシュ間隔10mmで作成したTINを示す図面代用写真である。It is a drawing substitute photograph which shows TIN created with the mesh space | interval of 10 mm. 辺の長いTINを除去した結果を示す図面代用写真である。It is a drawing substitute photograph which shows the result of removing TIN having a long side. TINのラベリング結果を示す図面代用写真である。It is a drawing substitute photograph which shows the labeling result of TIN. TINの面積による誤対応点の判定手順を説明する説明図(A)〜(C)である。It is explanatory drawing (A)-(C) explaining the determination procedure of the miscorresponding point by the area of TIN. 面積の大きいTINを除去した結果を示す図面代用写真である。It is a drawing substitute photograph showing the result of removing TIN having a large area. TINの角度による誤対応点の判定手順を説明する説明図(A)〜(C)である。It is explanatory drawing (A)-(C) explaining the determination procedure of the miscorresponding point by the angle of TIN. 角度の小さいTINを除去した結果を示す図面代用写真である。It is a drawing substitute photograph which shows the result of removing TIN having a small angle. TINの辺長、面積、および角度によるTINの除去結果を示す図面代用写真である。It is a drawing substitute photograph which shows the removal result of TIN by the side length, area, and angle of TIN. 密面計測の結果を示す図面代用写真である。It is a drawing substitute photograph which shows the result of dense surface measurement. 複数モデルにおける三次元形状の計測結果を示す図面代用写真である。It is a drawing substitute photograph which shows the measurement result of the three-dimensional shape in a some model. LSMの処理領域の制限を示す図である。It is a figure which shows the restriction | limiting of the process area | region of LSM. LSMの処理領域を調整した計測結果を示す図面代用写真である。It is a drawing substitute photograph which shows the measurement result which adjusted the process area | region of LSM. 図23の複数モデルの合成結果を示す図面代用写真である。It is a drawing substitute photograph which shows the synthetic | combination result of the several model of FIG. 相互標定を説明する説明図である。It is explanatory drawing explaining a relative orientation. 第5の実施形態に係る形状測定装置の上面図である。It is a top view of the shape measuring apparatus which concerns on 5th Embodiment. 単写真標定を説明する説明図である。It is explanatory drawing explaining a single photograph orientation. 第2の実施形態に係る形状測定装置のブロック図である。It is a block diagram of the shape measuring apparatus which concerns on 2nd Embodiment. 輪郭エッジを示す図面代用写真(A)と、特徴点の抽出領域を示す図面代用写真(B)である。It is drawing substitute photograph (A) which shows an outline edge, and drawing substitute photograph (B) which shows the extraction area | region of a feature point. ステレオ画像の撮影範囲の違いを示す図面代用写真である。It is a drawing substitute photograph which shows the difference in the imaging | photography range of a stereo image. 第3の実施形態に係る形状測定装置の上面図である。It is a top view of the shape measuring apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る形状測定装置の変形例の上面図である。It is a top view of the modification of the shape measuring apparatus which concerns on 3rd Embodiment. 基準尺と測定対象物を撮影した左画像を示す図面代用写真(A)と、右画像を示す図面代用写真(B)である。It is drawing substitute photograph (A) which shows the left image which image | photographed the reference | standard scale and the measuring object, and drawing substitute photograph (B) which shows a right image.

符号の説明Explanation of symbols

1…形状測定装置、2〜9…撮影部、10〜13…特徴投影部、14…中継部、15…計算処理部、16…操作部、17…表示部、18…測定対象物、19…校正用被写体、20…撮影位置姿勢測定部、21…特徴点対応付部、22…三次元座標演算部、23…三角形網形成部、24…誤対応点判定部、25…三次元形状測定部、26…背景除去部、27…特徴点抽出部、28…対応点探索部、29…辺長判定部、30…面積判定部、31…角度判定部。   DESCRIPTION OF SYMBOLS 1 ... Shape measuring apparatus, 2-9 ... Imaging | photography part, 10-13 ... Feature projection part, 14 ... Relay part, 15 ... Calculation processing part, 16 ... Operation part, 17 ... Display part, 18 ... Measurement object, 19 ... Calibration subject, 20 ... shooting position / orientation measurement unit, 21 ... feature point correspondence unit, 22 ... three-dimensional coordinate calculation unit, 23 ... triangle network formation unit, 24 ... miscorresponding point determination unit, 25 ... three-dimensional shape measurement unit , 26 ... background removal unit, 27 ... feature point extraction unit, 28 ... corresponding point search unit, 29 ... side length determination unit, 30 ... area determination unit, 31 ... angle determination unit.

Claims (13)

複数の撮影位置から重複した撮影領域で、測定対象物を撮影する撮影部と、
前記撮影部によって撮影された重複画像における前記測定対象物の特徴点の位置を対応付ける特徴点対応付部と、
前記特徴点対応付部で対応付けた特徴点同士を線分で結び三角形網を形成する三角形網形成部と、
前記三角形網形成部で形成した三角形網の辺長、面積、角度の少なくとも一つに基づき、誤対応点を判定する誤対応点判定部と、
前記誤対応点判定部で誤対応点と判定された点を除いた特徴点の位置および前記複数の撮影位置に基づき、前記測定対象物の特徴点の三次元座標または前記測定対象物の三次元形状を求める三次元形状測定部と、を備えることを特徴とする形状測定装置。
An imaging unit for imaging the measurement object in an overlapping imaging area from a plurality of imaging positions;
A feature point association unit for correlating the position of the feature point of the measurement object in the overlapping image captured by the imaging unit;
A triangle network forming unit that connects the feature points associated by the feature point association unit with line segments to form a triangle network; and
A miscorresponding point determination unit that determines a miscorresponding point based on at least one of the side length, area, and angle of the triangular net formed by the triangular net forming unit;
Based on the position of the feature point excluding the point determined to be an erroneous correspondence point by the erroneous correspondence point determination unit and the plurality of imaging positions, the three-dimensional coordinates of the characteristic point of the measurement object or the three-dimensional of the measurement object A shape measuring apparatus comprising: a three-dimensional shape measuring unit for obtaining a shape.
基準点を設けた校正用被写体と、
前記校正用被写体を撮影した重複画像内の対応する基準点の位置に基づき、前記撮影部の撮影位置および姿勢を求める撮影位置姿勢測定部とをさらに備えることを特徴とする請求項1に記載の形状測定装置。
A calibration object with a reference point;
The imaging position / orientation measurement unit that obtains the imaging position and orientation of the imaging unit based on the position of a corresponding reference point in the overlapped image obtained by imaging the calibration subject. Shape measuring device.
前記撮影部の撮影位置を測定する水平角測部および鉛直角測部の少なくとも一つをさらに備えることを特徴とする請求項1に記載の形状測定装置。   The shape measuring apparatus according to claim 1, further comprising at least one of a horizontal angle measuring unit and a vertical angle measuring unit for measuring a shooting position of the shooting unit. 所定の位置関係で基準点を設けた校正用被写体と、
前記校正用被写体を撮影した重複画像内の対応する基準点の位置に基づき、前記撮影部の撮影位置および姿勢を求める撮影位置姿勢測定部とをさらに備えることを特徴とする請求項1に記載の形状測定装置。
A calibration object with a reference point in a predetermined positional relationship;
The imaging position / orientation measurement unit for obtaining an imaging position and orientation of the imaging unit based on a position of a corresponding reference point in an overlapping image obtained by imaging the calibration subject. Shape measuring device.
前記誤対応点判定部は、前記三角形網形成部が三角形網を形成する際に、前記三角形網の辺長、面積、角度の少なくとも一つに基づき、誤対応点を判定することを特徴とする請求項1に記載の形状測定装置。   The miscorresponding point determination unit determines an erroneous corresponding point based on at least one of a side length, an area, and an angle of the triangular net when the triangular net forming unit forms a triangular net. The shape measuring apparatus according to claim 1. 前記誤対応点判定部は、三角形網の辺長に基づいて辺を削除した後、孤立した点の連結数が所定値以下ならば、前記孤立した点を誤対応点と判定することを特徴とする請求項1に記載の形状測定装置。   The miscorresponding point determination unit, after deleting a side based on a side length of a triangular mesh, determines the isolated point as an erroneous corresponding point if the number of isolated points connected is equal to or less than a predetermined value. The shape measuring apparatus according to claim 1. 前記誤対応点判定部は、三角形網における三角形の面積が所定値以上であり、前記三角形の頂点が前記測定対象物の輪郭部分である場合に、前記頂点を誤対応点と判定することを特徴とする請求項1に記載の形状測定装置。   The miscorresponding point determination unit determines the apex as an improper corresponding point when the area of the triangle in the triangle network is a predetermined value or more and the apex of the triangle is the contour portion of the measurement object. The shape measuring apparatus according to claim 1. 前記誤対応点判定部は、三角形網における三角形の角度が所定値以下であり、前記角度を構成する三角形の頂点が前記測定対象物の輪郭部分である場合に、前記頂点を誤対応点と判定することを特徴とする請求項1に記載の形状測定装置。   The miscorresponding point determination unit determines that the vertex is an erroneous corresponding point when the angle of the triangle in the triangle network is equal to or smaller than a predetermined value and the vertex of the triangle constituting the angle is the contour portion of the measurement object. The shape measuring device according to claim 1. 前記三次元形状測定部は、前記測定対象物の輪郭の内側を処理領域として三次元形状を測定することを特徴とする請求項1に記載の形状測定装置。   The shape measuring apparatus according to claim 1, wherein the three-dimensional shape measuring unit measures a three-dimensional shape using the inside of the outline of the measurement object as a processing region. 前記三次元形状測定部は、前記測定対象物の輪郭を含む凸包線を作成し、凸包線から内側に削ることで、前記処理領域を決定することを特徴とする請求項9に記載の形状測定装置。   The said three-dimensional shape measurement part determines the said process area | region by creating the convex hull line containing the outline of the said measurement object, and shaving inward from a convex hull line, It is characterized by the above-mentioned. Shape measuring device. 前記誤対応点判定部が誤対応点であると判定した場合には、前記誤対応点に相当する特徴点の指定が解除されることを特徴とする請求項5に記載の形状測定装置。   The shape measuring apparatus according to claim 5, wherein when the erroneous correspondence point determination unit determines that the erroneous correspondence point is the designation of the characteristic point corresponding to the erroneous correspondence point. 前記三次元形状測定部は、前記誤対応点判定部で初期値を求める際に行った誤対応点の除去の処理を、その後に測定値を求める際に行うように構成されていることを特徴とする請求項1に記載の形状測定装置。   The three-dimensional shape measuring unit is configured to perform the process of removing the erroneous corresponding point performed when the initial value is obtained by the erroneous corresponding point determining unit when the measured value is subsequently obtained. The shape measuring apparatus according to claim 1. 複数の撮影位置から撮影した重複画像における測定対象物の特徴点の位置を対応付ける特徴点対応付ステップと、
前記特徴点対応付ステップで対応付けた特徴点同士を線分で結び三角形網を形成する三角形網形成ステップと、
前記三角形網形成ステップで形成した三角形網の辺長、面積、角度の少なくとも一つに基づき、誤対応点を判定する誤対応点判定ステップと、
前記誤対応点判定ステップで誤対応点と判定された点を除いた特徴点の位置および前記複数の撮影位置に基づき、前記測定対象物の特徴点の三次元座標または前記測定対象物の三次元形状を求める三次元形状測定ステップと、を実行させるためのプログラム。
A feature point correspondence step for correlating the position of the feature point of the measurement object in the overlapping image taken from a plurality of photographing positions;
A triangle network forming step of connecting the feature points associated in the feature point association step with line segments to form a triangle network;
A miscorresponding point determining step of determining a miscorresponding point based on at least one of the side length, area, and angle of the triangular mesh formed in the triangular net forming step;
Based on the position of the feature point excluding the point determined as the erroneous correspondence point in the erroneous correspondence point determination step and the plurality of imaging positions, the three-dimensional coordinates of the characteristic point of the measurement object or the three-dimensional of the measurement object A program for executing a three-dimensional shape measurement step for obtaining a shape.
JP2008308049A 2008-12-02 2008-12-02 Shape measuring apparatus and program Active JP5156601B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008308049A JP5156601B2 (en) 2008-12-02 2008-12-02 Shape measuring apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008308049A JP5156601B2 (en) 2008-12-02 2008-12-02 Shape measuring apparatus and program

Publications (2)

Publication Number Publication Date
JP2010133752A true JP2010133752A (en) 2010-06-17
JP5156601B2 JP5156601B2 (en) 2013-03-06

Family

ID=42345194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008308049A Active JP5156601B2 (en) 2008-12-02 2008-12-02 Shape measuring apparatus and program

Country Status (1)

Country Link
JP (1) JP5156601B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012255286A (en) * 2011-06-08 2012-12-27 Topcon Corp Construction machine control system
CN102865857A (en) * 2012-09-04 2013-01-09 北京信息科技大学 Photography measurement image matching method
CN102901490A (en) * 2012-09-04 2013-01-30 北京信息科技大学 Image matching method based on dynamic threshold, and system
CN104359405A (en) * 2014-11-27 2015-02-18 上海集成电路研发中心有限公司 Three-dimensional scanning device
CN104596483A (en) * 2015-01-30 2015-05-06 北京林业大学 Layout scheme for terrestrial photogrammetric survey camera stations
JP2018197949A (en) * 2017-05-24 2018-12-13 東海旅客鉄道株式会社 Model creation apparatus
JP2020095620A (en) * 2018-12-14 2020-06-18 株式会社デンソーテン Image processing device and image processing method
JP2021117047A (en) * 2020-01-23 2021-08-10 株式会社フジタ Photogrammetric method using unmanned flight vehicle and photogrammetric system using the same
CN114909999A (en) * 2022-07-18 2022-08-16 深圳市超准视觉科技有限公司 Three-dimensional measurement system and method based on structured light

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106382917B (en) * 2015-08-07 2019-05-17 武汉海达数云技术有限公司 The continuous accurate acquisition method of three-dimensional spatial information under a kind of indoor environment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0869547A (en) * 1994-08-30 1996-03-12 Canon Inc Device and method for three-dimensional shape input
JP2000111322A (en) * 1998-10-01 2000-04-18 Sony Corp Three dimensional data processor and method therefor
JP2001004372A (en) * 1999-06-16 2001-01-12 Asahi Optical Co Ltd Photogrammetry image processing device and method therefor, and memory media for storing program thereof
JP2003050110A (en) * 2001-08-07 2003-02-21 Minolta Co Ltd Three-dimensional shape data producing system and method, program and recording medium
JP2005326282A (en) * 2004-05-14 2005-11-24 Canon Inc Position and attitude measurement method and system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0869547A (en) * 1994-08-30 1996-03-12 Canon Inc Device and method for three-dimensional shape input
JP2000111322A (en) * 1998-10-01 2000-04-18 Sony Corp Three dimensional data processor and method therefor
JP2001004372A (en) * 1999-06-16 2001-01-12 Asahi Optical Co Ltd Photogrammetry image processing device and method therefor, and memory media for storing program thereof
JP2003050110A (en) * 2001-08-07 2003-02-21 Minolta Co Ltd Three-dimensional shape data producing system and method, program and recording medium
JP2005326282A (en) * 2004-05-14 2005-11-24 Canon Inc Position and attitude measurement method and system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012255286A (en) * 2011-06-08 2012-12-27 Topcon Corp Construction machine control system
CN102865857A (en) * 2012-09-04 2013-01-09 北京信息科技大学 Photography measurement image matching method
CN102901490A (en) * 2012-09-04 2013-01-30 北京信息科技大学 Image matching method based on dynamic threshold, and system
CN102901490B (en) * 2012-09-04 2014-08-06 北京信息科技大学 Image matching method based on dynamic threshold, and system
CN104359405A (en) * 2014-11-27 2015-02-18 上海集成电路研发中心有限公司 Three-dimensional scanning device
CN104596483A (en) * 2015-01-30 2015-05-06 北京林业大学 Layout scheme for terrestrial photogrammetric survey camera stations
JP2018197949A (en) * 2017-05-24 2018-12-13 東海旅客鉄道株式会社 Model creation apparatus
JP2020095620A (en) * 2018-12-14 2020-06-18 株式会社デンソーテン Image processing device and image processing method
JP2021117047A (en) * 2020-01-23 2021-08-10 株式会社フジタ Photogrammetric method using unmanned flight vehicle and photogrammetric system using the same
CN114909999A (en) * 2022-07-18 2022-08-16 深圳市超准视觉科技有限公司 Three-dimensional measurement system and method based on structured light

Also Published As

Publication number Publication date
JP5156601B2 (en) 2013-03-06

Similar Documents

Publication Publication Date Title
JP5156601B2 (en) Shape measuring apparatus and program
JP5297779B2 (en) Shape measuring apparatus and program
JP5430138B2 (en) Shape measuring apparatus and program
US10311648B2 (en) Systems and methods for scanning three-dimensional objects
US10288418B2 (en) Information processing apparatus, information processing method, and storage medium
JP5480914B2 (en) Point cloud data processing device, point cloud data processing method, and point cloud data processing program
JP6426968B2 (en) INFORMATION PROCESSING APPARATUS AND METHOD THEREOF
JP7037876B2 (en) Use of 3D vision in automated industrial inspection
EP2751521B1 (en) Method and system for alignment of a pattern on a spatial coded slide image
CN110926330B (en) Image processing apparatus, image processing method, and program
JP2004334819A (en) Stereo calibration device and stereo image monitoring device using same
WO2010107004A1 (en) Image capturing device and method for three-dimensional measurement
JP2005326247A (en) Calibrator, calibration method, and calibration program
JP3696336B2 (en) How to calibrate the camera
JP5336325B2 (en) Image processing method
Siddique et al. 3d object localization using 2d estimates for computer vision applications
KR101574195B1 (en) Auto Calibration Method for Virtual Camera based on Mobile Platform
KR101673144B1 (en) Stereoscopic image registration method based on a partial linear method
JP7251631B2 (en) Template creation device, object recognition processing device, template creation method, object recognition processing method, and program
JP7298687B2 (en) Object recognition device and object recognition method
Chidambaram Edge Extraction of Color and Range Images
JP2939577B2 (en) Object recognition method and apparatus
JP2009250777A (en) Surface inspection device and surface inspection method
CN116758160B (en) Method for detecting pose of optical element assembly process based on orthogonal vision system and assembly method
JPH09229648A (en) Input/output method and device for image information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121210

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5156601

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250