JP2007101276A - Three-dimensional measuring projector and system - Google Patents

Three-dimensional measuring projector and system Download PDF

Info

Publication number
JP2007101276A
JP2007101276A JP2005289333A JP2005289333A JP2007101276A JP 2007101276 A JP2007101276 A JP 2007101276A JP 2005289333 A JP2005289333 A JP 2005289333A JP 2005289333 A JP2005289333 A JP 2005289333A JP 2007101276 A JP2007101276 A JP 2007101276A
Authority
JP
Japan
Prior art keywords
pattern
measurement
unit
projection
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005289333A
Other languages
Japanese (ja)
Other versions
JP2007101276A5 (en
JP5002144B2 (en
Inventor
Mitsuharu Yamada
光晴 山田
Hiroto Watanabe
広登 渡辺
Takuya Moriyama
拓哉 森山
Nobuo Takachi
伸夫 高地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2005289333A priority Critical patent/JP5002144B2/en
Priority to US11/526,885 priority patent/US20070091174A1/en
Priority to EP06020585A priority patent/EP1770356A3/en
Publication of JP2007101276A publication Critical patent/JP2007101276A/en
Publication of JP2007101276A5 publication Critical patent/JP2007101276A5/ja
Application granted granted Critical
Publication of JP5002144B2 publication Critical patent/JP5002144B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve efficiency in wide-area, noncontact three-dimensional measurement and facilitate its automation using a projector projecting a target pattern. <P>SOLUTION: The three-dimensional measuring projector 80 comprises a pattern formation section 492 for forming a measurement pattern P including a label with a color code CT having a position detection pattern P1 for indicating a measurement position and a color code pattern P3 which is arranged with predetermined positional relationship with respect to the position detection pattern P1 and includes a plurality of colors for identifying a label, a projection section 12 for projecting the measurement pattern formed by the pattern formation section 492, and a pattern detection section 491 for detecting the position detection pattern P1 and the color code pattern P3 through a photographed image of the measurement pattern projected by the projection section 12 and identifying the color code. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、三次元計測用投影装置及び三次元計測システムに関する。詳しくは、三次元計測用ターゲットパターンを投影する投影装置及び投影されたパターンを含む撮影画像を用いて、広範囲な領域を自動的に計測可能な三次元計測システムに関する。   The present invention relates to a three-dimensional measurement projector and a three-dimensional measurement system. More specifically, the present invention relates to a projection device that projects a target pattern for three-dimensional measurement and a three-dimensional measurement system that can automatically measure a wide area using a captured image that includes the projected pattern.

従来は、非接触で三次元計測を行う場合、非接触三次元計測機と呼ばれるパターン投光機とCCDカメラが一体となった比較的大型な装置で小領域ごとに計測を行い、さらにその小領域ごとに貼り付けたそれぞれのターゲットを写真測量手法で計測し、その座標点からそれら小領域を統合して、広範囲な計測を行っていた。   Conventionally, when non-contact three-dimensional measurement is performed, measurement is performed for each small area with a relatively large device in which a pattern projector called a non-contact three-dimensional measurement device and a CCD camera are integrated, and the small size is further reduced. Each target pasted for each area was measured by a photogrammetry method, and these small areas were integrated from the coordinate points to perform a wide range of measurements.

また、デジタルカメラなどの画像だけで三次元計測する場合、ステレオペアの設定、2枚以上の画像の標定、および計測位置の設定をマニュアルもしくは半自動処理にて行っていた。(特許文献1,2参照)
特開2003−284098号公報(段落0018〜0073、図1〜図11) 特開2005−174151号公報(段落0021〜0087、図1〜図24)
In addition, when three-dimensional measurement is performed using only an image from a digital camera or the like, setting of a stereo pair, orientation of two or more images, and setting of a measurement position are performed manually or semi-automatically. (See Patent Documents 1 and 2)
JP 2003-284098 A (paragraphs 0018 to 0073, FIGS. 1 to 11) JP-A-2005-174151 (paragraphs 0021 to 0087, FIGS. 1 to 24)

広範な領域を計測するには、大型の非接触三次元測定器で多数箇所の小領域を計測し、さらに写真測量手法により、各小領域に貼られた画像接続用のターゲットをカメラで撮影し、各ターゲット点を高精度に三次元計測し、そのカメラ座標系と各三次元測定器で計測した小領域中のターゲットの三次元座標系(地球座標系等)を統合して広範な全体領域としていた。   To measure a wide area, measure a large number of small areas with a large non-contact 3D measuring instrument, and then use a photogrammetry technique to shoot the image connection target attached to each small area with a camera. , Each target point is three-dimensionally measured with high accuracy, and the camera coordinate system and the target three-dimensional coordinate system (Earth coordinate system, etc.) in a small area measured by each three-dimensional measuring instrument are integrated to cover a wide whole area I was trying.

しかしながら、この手法によれば、小領域と広範な領域の測定に別々の測定器を利用しなければならず、煩雑であり、また、三次元計測全体を通した自動化ができないという問題があった。特に、高精度で広範囲にわたり多数の小領域を統合する場合は、各々の計測範囲が狭まるために結果として計測領域数が膨大になり、結果として煩雑で効率の悪い作業となっていた。例えば、車の側面を計測するだけでも小領域数は100カット以上となっていた。このように、個々の作業は簡単でも全体としては手間がかかり、非効率な作業となっていたという問題があった。   However, according to this method, it is necessary to use separate measuring instruments for measuring a small area and a wide area, which is complicated, and there is a problem that automation through the entire three-dimensional measurement is not possible. . In particular, when integrating a large number of small areas over a wide range with high accuracy, each measurement range is narrowed, resulting in an enormous number of measurement areas, resulting in complicated and inefficient work. For example, the number of small areas is 100 cuts or more just by measuring the side of the car. As described above, there is a problem that even though the individual work is simple, the whole work is troublesome and the work is inefficient.

本発明は、ターゲットパターンを投影する投影装置を活用して、広域の非接触三次元測定を効率化すること、自動化を促進することを目的とする。   An object of the present invention is to improve the efficiency and automation of wide-area non-contact three-dimensional measurement using a projection device that projects a target pattern.

上記課題を解決するために、請求項1に記載の三次元計測用投影装置80は、例えば図1に示すように、計測位置を示すための位置検出用パターンP1と、位置検出用パターンP1に対して所定の位置関係に配置され、標識を識別するための複数の色彩が施されたカラーコードパターンP3とを有するカラーコード付き標識CTを含む計測パターンPを形成するパターン形成部492と、パターン形成部492で形成された計測パターンを測定対象物に投影する投影部12と、投影部12により投影された計測パターンの撮影画像から位置検出用パターンP1とカラーコードパターンP3を検出し、カラーコードを識別するパターン検出部491とを備える。   In order to solve the above-described problem, the three-dimensional measurement projector 80 according to claim 1 includes, for example, a position detection pattern P1 for indicating a measurement position and a position detection pattern P1 as shown in FIG. A pattern forming unit 492 that forms a measurement pattern P including a color-coded label CT having a color code pattern P3 arranged in a predetermined positional relationship and provided with a plurality of colors for identifying the label; The projection unit 12 that projects the measurement pattern formed by the forming unit 492 onto the measurement object, the position detection pattern P1 and the color code pattern P3 are detected from the captured image of the measurement pattern projected by the projection unit 12, and the color code And a pattern detection unit 491 for identifying.

ここにおいて、計測パターンには標定パターンが含まれるものとする。また、三次元計測は絶対座標で行われても、相対座標で行われても良い。位置検出用パターンには、典型的にはレトロターゲットやテンプレートパターンがあるが、これに限られず、格子パターンやドットパターンでも位置を特定できるものであれば良い。また、カラーコードパターンには、典型的には矩形の単位領域を複数隣接したパターンが使用されるが、これに限られず、複数のレトロターゲットに彩色したものを用いても良い。また、単位領域は1つで彩色が異なるものを用いても良い。また、パターン投影制御部、パターン検出部、パターン形成部は典型的にはパーソナルコンピュータ内に実現され、投影部と物理的に分離構成されても良い。
このように構成すると、各カラーコード付き標識を識別できるので、ステレオ画像の対応点探索、隣接画像の接続、ステレオマッチング領域の設定が容易になり、自動化も可能となる。また、これにより標定や三次元計測を効率化でき、自動化を促進できる。
Here, it is assumed that the measurement pattern includes an orientation pattern. Further, the three-dimensional measurement may be performed using absolute coordinates or relative coordinates. The position detection pattern typically includes a retro target and a template pattern. However, the position detection pattern is not limited to this, and any pattern can be used as long as the position can be specified using a lattice pattern or a dot pattern. Further, as the color code pattern, a pattern in which a plurality of rectangular unit areas are adjacent to each other is typically used. However, the color code pattern is not limited to this, and a pattern colored in a plurality of retro targets may be used. In addition, one unit area may be used with different coloring. The pattern projection control unit, the pattern detection unit, and the pattern formation unit are typically realized in a personal computer and may be physically separated from the projection unit.
With this configuration, each color-coded sign can be identified, so that it becomes easy to search for corresponding points in stereo images, connect adjacent images, and set a stereo matching area, and can be automated. In addition, this makes it possible to improve the efficiency of orientation and three-dimensional measurement and promote automation.

また、請求項2に記載の三次元計測用投影装置は、例えば図25に示すように、計測位置を示すための位置検出用パターンP1と、位置検出用パターンP1に対して所定の位置関係に配置され、標識を識別するための複数の色彩が施されたカラーコードパターンP3とを有するカラーコード付き標識CTを含む計測パターンPを複数記憶するパターン記憶部495と、パターン記憶部495に記憶された複数の計測パターンから、投影する計測パターンを選択するパターン選択部496と、パターン選択部496により選択された計測パターンを測定対象物に投影する投影部12と、投影部12により投影された計測パターンの撮影画像から位置検出用パターンP1とカラーコードパターンP3を検出し、カラーコードを識別するパターン検出部491とを備える。   The three-dimensional measurement projector according to claim 2 has a predetermined positional relationship with respect to the position detection pattern P1 and the position detection pattern P1 as shown in FIG. 25, for example. A pattern storage unit 495 that stores a plurality of measurement patterns P including a color-coded marker CT having a color code pattern P3 that is arranged and has a plurality of colors for identifying the marker, and is stored in the pattern storage unit 495 A pattern selection unit 496 that selects a measurement pattern to be projected from the plurality of measurement patterns, a projection unit 12 that projects the measurement pattern selected by the pattern selection unit 496 onto the measurement object, and a measurement that is projected by the projection unit 12 Pattern detection for identifying the color code by detecting the position detection pattern P1 and the color code pattern P3 from the captured image of the pattern. And a part 491.

ここにおいて、パターン選択部は典型的にはパーソナルコンピュータ内に実現され、パターン記憶部はパーソナルコンピュータ内又は外付けの記憶装置内に実現されるので、これらは投影部と物理的に分離構成されても良い。このように構成すると、各カラーコード付き標識を識別できるので、ステレオ画像の対応点探索、隣接画像の接続、ステレオマッチング領域の設定が容易になり、自動化も可能となる。また、これにより標定や三次元計測を効率化でき、自動化を促進できる。   Here, the pattern selection unit is typically realized in a personal computer, and the pattern storage unit is realized in a personal computer or an external storage device, so these are physically separated from the projection unit. Also good. With this configuration, each color-coded sign can be identified, so that it is easy to search for corresponding points in a stereo image, connect adjacent images, and set a stereo matching area, and can be automated. In addition, this makes it possible to improve the efficiency of orientation and three-dimensional measurement and promote automation.

また、請求項3に記載の発明は請求項1又は請求項2に記載の三次元計測用投影装置において、例えば図1に示すように、投影部12により投影された計測パターンを撮影する撮像部10を備え、パターン検出部491は、撮像部10により撮影された計測パターンの撮影画像から位置検出用パターンP1とカラーコードパターンP3を検出し、カラーコードを識別する。   Further, the invention described in claim 3 is the three-dimensional measurement projection apparatus according to claim 1 or 2, wherein, for example, as shown in FIG. 1, an imaging unit that captures a measurement pattern projected by the projection unit 12 The pattern detection unit 491 detects the position detection pattern P1 and the color code pattern P3 from the captured image of the measurement pattern captured by the imaging unit 10, and identifies the color code.

また、請求項4に記載の三次元計測用投影装置は、請求項1又は請求項3に記載の三次元計測用投影装置において、パターン形成部492は、位置検出用パターンのみからなる単色ターゲットパターンを形成する。このように構成すると、例えばカラーコードパターンを基準点測定に、単色ターゲットパターンを単色ターゲットパターンに使い分けるなどにより、計測を効率化できる。   The three-dimensional measurement projection apparatus according to claim 4 is the three-dimensional measurement projection apparatus according to claim 1 or 3, wherein the pattern forming unit 492 includes a single-color target pattern including only a position detection pattern. Form. With this configuration, for example, the color code pattern can be used for the reference point measurement, and the single color target pattern can be used for the single color target pattern.

また、請求項5に記載の三次元計測用投影装置は、請求項2又は請求項3に記載の三次元計測用投影装置において、パターン記憶部495は、位置検出用パターンのみからなる単色ターゲットパターンを記憶する。このように構成すると、例えばカラーコードパターンを基準点測定に、単色ターゲットパターンを単色ターゲットパターンに使い分けるなどにより、計測を効率化できる。   The three-dimensional measurement projection apparatus according to claim 5 is the three-dimensional measurement projection apparatus according to claim 2 or 3, wherein the pattern storage unit 495 includes a single-color target pattern composed of only a position detection pattern. Remember. With this configuration, for example, the color code pattern can be used for the reference point measurement, and the single color target pattern can be used for the single color target pattern.

また、請求項6に記載の三次元計測用投影装置は、請求項1乃至請求項5のいずれか1項に記載の三次元計測用投影装置において、投影部12を制御して計測パターンを投影させるパターン投影制御部493を備え、パターン投影制御部493は位置検出用パターンをランダムに配置したランダムパターンを投影部12に投影させ、計測パターンを投影する計測モードとランダムパターンを投影するランダムパターンモードを切替可能である。このように構成すると、例えば標定と三次元計測とを容易に切り替えできる。   A three-dimensional measurement projection apparatus according to claim 6 is the three-dimensional measurement projection apparatus according to any one of claims 1 to 5, wherein the projection unit 12 is controlled to project a measurement pattern. A pattern projection control unit 493 for causing the projection unit 12 to project a random pattern in which position detection patterns are arranged at random, and a measurement mode for projecting a measurement pattern and a random pattern mode for projecting a random pattern. Can be switched. With this configuration, for example, it is possible to easily switch between orientation and three-dimensional measurement.

また、請求項7に記載の三次元計測用投影装置は、請求項1乃至請求項5のいずれか1項に記載の三次元計測用投影装置において、投影部12を制御して計測パターンを投影させるパターン投影制御部493を備え、パターン投影制御部493はステレオ画像の重複範囲を表示する重複撮影範囲表示用パターンを投影部12に投影させ、計測パターンを投影する計測モードと重複撮影範囲表示用パターンを投影する撮影範囲表示モードを切替可能である。このように構成すると、例えば標定と撮像範囲の設定とを容易に切り替えできる。   A projection apparatus for 3D measurement according to claim 7 is the projection apparatus for 3D measurement according to any one of claims 1 to 5, wherein the projection unit 12 is controlled to project a measurement pattern. A pattern projection control unit 493 for causing the projection unit 12 to project an overlapping shooting range display pattern for displaying an overlapping range of stereo images, and a measurement mode for projecting a measurement pattern and an overlapping shooting range display. The shooting range display mode for projecting the pattern can be switched. With this configuration, for example, the orientation and the setting of the imaging range can be easily switched.

また、請求項8に記載の発明は、請求項1乃至請求項5のいずれか1項に記載の三次元計測用投影装置において、投影部12を制御して計測パターンを投影させるパターン投影制御部493を備え、パターン投影制御部493は、撮像部10に係る焦点距離、撮影距離、基線長、オーバーラップ率のいずれか一つを入力することにより、計測パターンの計測点の配置、パターン密度を調整可能である。ここにおいて、計測点には標定点が含まれる。このように構成すると、撮像部の焦点距離等に合わせて適当な計測パターンを選択できる。   The invention according to claim 8 is a pattern projection control unit that controls the projection unit 12 to project a measurement pattern in the three-dimensional measurement projection apparatus according to any one of claims 1 to 5. 493, and the pattern projection control unit 493 inputs one of the focal length, the shooting distance, the base line length, and the overlap rate related to the imaging unit 10, thereby determining the arrangement of the measurement points of the measurement pattern and the pattern density. It can be adjusted. Here, the measurement points include orientation points. If comprised in this way, a suitable measurement pattern can be selected according to the focal distance etc. of an imaging part.

また、請求項9に記載の発明は、請求項1乃至請求項5のいずれか1項に記載の三次元計測用投影装置において、投影部12を制御して計測パターンを投影させるパターン投影制御部493を備え、パターン投影制御部493は、一様な照明光で対象物を照明するテクスチャー取得用の照明を投影部12に行なわせ、計測パターンを投影する計測モードとテクスチャー取得用の照明を行うテクスチャー照明モードを切替可能である。このように構成すると、テクスチャー照明モードを用いて、測定対象物の三次元形状を概略把握できる。   The invention according to claim 9 is a pattern projection control unit that controls the projection unit 12 to project a measurement pattern in the three-dimensional measurement projection apparatus according to any one of claims 1 to 5. The pattern projection control unit 493 has the projection unit 12 perform illumination for texture acquisition that illuminates the object with uniform illumination light, and performs measurement mode for projecting the measurement pattern and illumination for texture acquisition. The texture lighting mode can be switched. If comprised in this way, the three-dimensional shape of a measuring object can be roughly grasped | ascertained using texture illumination mode.

また、請求項10に記載の発明は、請求項9に記載の三次元計測用投影装置において、パターン検出部491は、テクスチャー照明モードで投影されたパターンの撮影画像から取得された色彩に基づいて、投影部12により投影するカラーコード付きターゲットCTの色彩を修正する色彩修正部494を有する。このように構成すると、撮影画像の明暗に応じてカラーコード付きターゲットの色彩を修正でき、カラーコードの識別を容易にできる。   The invention described in claim 10 is the projection apparatus for three-dimensional measurement according to claim 9, wherein the pattern detection unit 491 is based on the color acquired from the captured image of the pattern projected in the texture illumination mode. The color correction unit 494 corrects the color of the color-coded target CT projected by the projection unit 12. If comprised in this way, the color of the target with a color code can be corrected according to the brightness of a picked-up image, and identification of a color code can be made easy.

また、請求項11に記載の三次元計測システム100は、請求項1乃至請求項10のいずれか1項に記載の三次元計測用投影装置を有する。このように構成すると、カラーコード付きターゲットを投影して、ステレオ画像の対応点探索、隣接画像の接続、ステレオマッチング領域の設定が容易になり、自動化も可能となる。また、これにより標定や三次元計測を効率化でき、自動化を促進できる。   A three-dimensional measurement system 100 according to an eleventh aspect includes the three-dimensional measurement projection apparatus according to any one of the first to tenth aspects. With this configuration, it is possible to project a target with a color code, search for corresponding points in a stereo image, connect adjacent images, and set a stereo matching area, and can be automated. In addition, this makes it possible to improve the efficiency of orientation and three-dimensional measurement and promote automation.

また、請求項12に記載の三次元計測用投影装置の計算処理部49は、計測位置を示すための位置検出用パターンP1と、位置検出用パターンP1に対して所定の位置関係に配置され、標識を識別するための複数の色彩が施されたカラーコードパターンP3とを有するカラーコード付き標識CTを含む計測パターンPを形成するパターン形成部492と、投影部12を制御して計測パターンを投影させるパターン投影制御部493と、投影部12により投影された計測パターンの撮影画像から位置検出用パターンP1とカラーコードパターンP3を検出し、カラーコードを識別するパターン検出部491とを備える。請求項1の三次元計測用投影装置に対応する計算処理部の発明である。   The calculation processing unit 49 of the projection device for three-dimensional measurement according to claim 12 is arranged in a predetermined positional relationship with respect to the position detection pattern P1 and the position detection pattern P1 for indicating the measurement position, A pattern forming unit 492 that forms a measurement pattern P including a color-coded marker CT having a color code pattern P3 with a plurality of colors for identifying the marker, and the projection unit 12 to project the measurement pattern A pattern projection control unit 493 to be detected, and a pattern detection unit 491 that detects the position detection pattern P1 and the color code pattern P3 from the captured image of the measurement pattern projected by the projection unit 12 and identifies the color code. The invention is a calculation processing unit corresponding to the three-dimensional measurement projector according to claim 1.

また、請求項13に記載の三次元計測用パターン投影方法は、例えば図24に示すように、計測位置を示すための位置検出用パターンP1と、位置検出用パターンP1に対して所定の位置関係に配置され、標識を識別するための複数の色彩が施されたカラーコードパターンP3とを有するカラーコード付き標識CTを含む計測パターンPを形成するパターン形成工程S810と、パターン形成工程で形成された計測パターンを測定対象物に投影する投影工程S840と、投影工程S840により投影された計測パターンを撮影する撮像工程S850と、撮像工程S850により撮影された計測パターンの撮影画像から位置検出用パターンP1とカラーコードパターンP3を検出し、カラーコードを識別するパターン検出工程860とを備える。
このように構成すると、各カラーコード付き標識を識別できるので、ステレオ画像の対応点探索、隣接画像の接続、ステレオマッチング領域の設定が容易になり、自動化も可能となる。また、これにより標定や三次元計測を効率化でき、自動化を促進できる。
The three-dimensional measurement pattern projection method according to claim 13 is, for example, as shown in FIG. 24, a position detection pattern P1 for indicating a measurement position and a predetermined positional relationship with respect to the position detection pattern P1. A pattern forming step S810 for forming a measurement pattern P including a color-coded marker CT having a color code pattern P3 provided with a plurality of colors for identifying the marker. A projection step S840 for projecting the measurement pattern onto the measurement object, an imaging step S850 for photographing the measurement pattern projected by the projection step S840, and a position detection pattern P1 from the photographed image of the measurement pattern photographed by the imaging step S850. A pattern detection step 860 for detecting the color code pattern P3 and identifying the color code.
With this configuration, each color-coded sign can be identified, so that it is easy to search for corresponding points in a stereo image, connect adjacent images, and set a stereo matching area, and can be automated. In addition, this makes it possible to improve the efficiency of orientation and three-dimensional measurement and promote automation.

また、請求項14に記載の三次元計測用パターン投影方法は、例えば図28に示すように、計測位置を示すための位置検出用パターンP1と、位置検出用パターンP1に対して所定の位置関係に配置され、標識を識別するための複数の色彩が施されたカラーコードパターンP3とを有するカラーコード付き標識CTを含む計測パターンPを複数記憶するパターン記憶工程S820と、パターン記憶工程S820で記憶された複数の計測パターンPから、投影する計測パターンを選択するパターン選択工程S830と、パターン選択工程S830で選択された計測パターンを測定対象物に投影する投影工程S840と、投影工程S840により投影された計測パターンを撮影する撮像工程S850と、撮像工程S850により撮影された計測パターンの撮影画像から位置検出用パターンP1とカラーコードパターンP3を検出し、カラーコードを識別するパターン検出工程S860とを備える。
このように構成すると、各カラーコード付き標識を識別できるので、ステレオ画像の対応点探索、隣接画像の接続、ステレオマッチング領域の設定が容易になり、自動化も可能となる。また、これにより標定や三次元計測を効率化でき、自動化を促進できる。
The three-dimensional measurement pattern projection method according to claim 14 is, for example, as shown in FIG. 28, a position detection pattern P1 for indicating a measurement position and a predetermined positional relationship with respect to the position detection pattern P1. A pattern storage step S820 for storing a plurality of measurement patterns P including a color-coded label CT having a color code pattern P3 provided with a plurality of colors for identifying the marker and stored in the pattern storage step S820 A pattern selection step S830 for selecting a measurement pattern to be projected from the plurality of measured patterns P, a projection step S840 for projecting the measurement pattern selected in the pattern selection step S830 onto the measurement object, and a projection step S840 are used for projection. An imaging process S850 for capturing the measured pattern, and a measurement pattern captured by the imaging process S850. Detecting the over emissions photographing position detection pattern from the image P1 and the color code pattern P3, and a identifying pattern detection step S860 the color code.
With this configuration, each color-coded sign can be identified, so that it is easy to search for corresponding points in a stereo image, connect adjacent images, and set a stereo matching area, and can be automated. In addition, this makes it possible to improve the efficiency of orientation and three-dimensional measurement and promote automation.

また、請求項15に記載の発明は、請求項13に記載の三次元計測用パターン投影方法において、パターン形成工程S810は、位置検出用パターンのみからなる単色ターゲットパターンを形成し、パターン検出工程S860は単色ターゲットパターンを検出する。このように構成すると、例えばカラーコードパターンを基準点測定に、単色ターゲットパターンを精密測定に使い分けるなどにより、計測を効率化できる。   The invention described in claim 15 is the three-dimensional measurement pattern projection method according to claim 13, wherein the pattern forming step S810 forms a single-color target pattern consisting only of the position detecting pattern, and the pattern detecting step S860. Detects a monochromatic target pattern. With this configuration, the measurement can be made more efficient by using, for example, a color code pattern for reference point measurement and a monochromatic target pattern for precise measurement.

また、請求項16に記載の発明は、請求項14に記載の三次元計測用パターン投影方法において、パターン記憶工程S820は、位置検出用パターンのみからなる単色ターゲットパターンを記憶し、パターン検出工程S860は単色ターゲットパターンを検出する。このように構成すると、例えばカラーコードパターンを基準点測定に、単色ターゲットパターンを精密測定に使い分けるなどにより、計測を効率化できる。   Further, in the invention described in claim 16, in the pattern projection method for three-dimensional measurement according to claim 14, the pattern storage step S820 stores a single color target pattern consisting only of the position detection pattern, and the pattern detection step S860. Detects a monochromatic target pattern. With this configuration, the measurement can be made more efficient by using, for example, a color code pattern for reference point measurement and a monochromatic target pattern for precise measurement.

また、請求項17に記載の発明は、請求項15又は請求項16に記載の三次元計測用投影方法において、撮像工程S850において、撮影画像は対をなすステレオ画像であり、ステレオ画像について標定を行なう標定工程S30と、測定対象物の三次元形状を計測する三次元計測工程S50とを備え、標定工程S30又は三次元計測工程S50において、カラーコード付き標識CTは計測用の基準位置を示す計測点として、単色ターゲットパターンはリファレンスポイントとして投影される。ここにおいて、計測用の基準位置を示す計測点には、ターゲットパターンを投影してそのまま撮影に使用しても良く、また、ターゲットパターンを貼り付けて撮影に使用しても良い。このように構成すると、計測を効率化できる。 The invention described in claim 17 is the three-dimensional measurement projection method according to claim 15 or claim 16, wherein the captured image is a paired stereo image in the imaging step S850, and the stereo image is oriented. A standardization step S30 to be performed and a three-dimensional measurement step S50 for measuring the three-dimensional shape of the measurement object. As a point, the monochromatic target pattern is projected as a reference point. Here, the target pattern may be projected onto the measurement point indicating the measurement reference position and used for photographing as it is, or the target pattern may be pasted and used for photographing. If comprised in this way, measurement can be made efficient.

本発明によれば、ターゲットパターンを投影する投影装置を活用して、広域の非接触三次元測定を効率化し、自動化を促進することができる。   ADVANTAGE OF THE INVENTION According to this invention, the non-contact three-dimensional measurement of a wide area can be made efficient and automation can be accelerated | stimulated using the projection apparatus which projects a target pattern.

[第1の実施の形態]
以下に、図面に基づき本発明の第1の実施の形態について説明する。本実施の形態は、計測前準備としての計測パターン(標定パターンを含む)の投影を活用し、標定又は三次元計測に用いる計測パターンを再構成する例、また、計測パターンを構成するターゲット(標識)としてカラーコード付きターゲットを用いる例を示す。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. In the present embodiment, an example of reconstructing a measurement pattern used for orientation or three-dimensional measurement using projection of a measurement pattern (including an orientation pattern) as a pre-measurement preparation, and a target (signpost) constituting the measurement pattern ) Shows an example using a target with a color code.

[投影装置の構成]
図1に本実施の形態による投影装置80の基本構成例のブロック図を示す。図1において、12は計測パターン等の各種投影パターンを投影する投影部としてのプロジェクター、10は投影されたパターンを撮影する撮像部としてのステレオカメラ、49は計算処理部であり、撮像部10で撮影した撮影画像から測定対象物1の特徴点、計測点、標識(ターゲット)などを検出するパターン検出部491、各種投影パターンやこれらの投影パターンに用いるカラーコード付きターゲットCT、リファレンスポイントRF等のパターン要素を形成するパターン形成部492、パターン形成部492で形成された投影パターンを投影部12に投影させるパターン投影制御部493を有する。また、投影パターンの色彩を修正する色彩修正部494を有する。色彩修正部494は、例えば、テクスチャー照明モードで得られた撮影画像の彩色に基づいて投影パターン内のカラーコード付きターゲットCTの彩色を修正する。
[Configuration of Projector]
FIG. 1 shows a block diagram of a basic configuration example of a projection apparatus 80 according to the present embodiment. In FIG. 1, 12 is a projector as a projection unit that projects various projection patterns such as measurement patterns, 10 is a stereo camera as an imaging unit that captures the projected pattern, and 49 is a calculation processing unit. A pattern detection unit 491 that detects a feature point, a measurement point, a sign (target), etc. of the measurement object 1 from the captured image, various projection patterns, a target CT with a color code used for these projection patterns, a reference point RF, etc. A pattern forming unit 492 that forms pattern elements, and a pattern projection control unit 493 that projects the projection pattern formed by the pattern forming unit 492 onto the projection unit 12 are provided. In addition, a color correction unit 494 that corrects the color of the projection pattern is provided. For example, the color correction unit 494 corrects the color of the color-coded target CT in the projection pattern based on the color of the captured image obtained in the texture illumination mode.

投影パターンには、計測パターン、標定パターン、ランダムパターン、計測準備用パターン、重複撮影範囲表示用パターン、テクスチャー用照明パターン等の各種パターンがある。計測パターンPは三次元計測に用いられる計測点Q(位置検出用パターン等)を表示するもので、測定対象物に投影された計測点Qが三次元形状の計測点として使用される。標定パターンは標定に用いられる標定点を表示するもので、測定対象物に投影された標定点がステレオ撮影され、標定に使用される。ところで計測パターンと標定パターンを比較すると、通常は計測点数が標定点数に比して多いのであるが、その他に明確な区別がなく、通常は三次元計測に用いられる時は計測パターンといい、標定に用いられる時は標定パターンという。   The projection pattern includes various patterns such as a measurement pattern, an orientation pattern, a random pattern, a measurement preparation pattern, an overlapping photographing range display pattern, and a texture illumination pattern. The measurement pattern P displays a measurement point Q (position detection pattern or the like) used for three-dimensional measurement, and the measurement point Q projected on the measurement object is used as a three-dimensional shape measurement point. The orientation pattern displays orientation points used for orientation, and the orientation points projected on the measurement object are stereo-photographed and used for orientation. By the way, when comparing the measurement pattern and the orientation pattern, the number of measurement points is usually larger than the number of orientation points, but there is no other distinction, and when it is used for three-dimensional measurement, it is usually called a measurement pattern. When it is used for, it is called orientation pattern.

ランダムパターンは計測点をランダムに配置した計測パターンの一種である。計測準備用パターンは標定や三次元計測の予備測定に用いられるパターンで、例えば図16のような格子パターンや多数の小円をアレイ状に配置したパターンが使用され、それぞれ、格子の交差点や円形小点の重心点が計測点、標定点として使用される。しかし、これらに限られるものではなく、通常の標定パターンや計測パターンも計測準備用パターンとして使用可能である。本実施の形態では、計測パターン、標定パターン、ランダムパターン、計測準備用パターンは計測パターンに含まれるものとし、標定点は計測点に含まれるものとする。   The random pattern is a type of measurement pattern in which measurement points are randomly arranged. The measurement preparation pattern is a pattern used for preliminary measurement of orientation and three-dimensional measurement. For example, a grid pattern as shown in FIG. 16 or a pattern in which a large number of small circles are arranged in an array is used. The center point of the small point is used as the measurement point and the orientation point. However, the present invention is not limited to these, and normal orientation patterns and measurement patterns can also be used as measurement preparation patterns. In the present embodiment, the measurement pattern, orientation pattern, random pattern, and measurement preparation pattern are included in the measurement pattern, and the orientation point is included in the measurement point.

重複撮影範囲表示用パターンはステレオ画像の重複範囲を表示するもので、例えば図7(a)に示すようにカラーコード付きターゲットCTを四隅に配置し、左右2枚のステレオ画像がこれら四隅のカラーコード付きターゲットを含むようにオーバーラップ部を定め、これを表示するものである。テクスチャー用照明パターンは、有形のパターンを用いず、一様な照明光で対象物を照明するテクスチャー取得用の照明を行なうパターンである。   The overlapping shooting range display pattern displays the overlapping range of stereo images. For example, as shown in FIG. 7A, target CTs with color codes are arranged at the four corners, and the two left and right stereo images are the color of these four corners. An overlap portion is defined so as to include a corded target, and this is displayed. The texture illumination pattern is a pattern for performing texture acquisition illumination that illuminates the object with uniform illumination light without using a tangible pattern.

[システム構成]
図2に本実施の形態における三次元計測システム100の全体構成例のブロック図を示す。三次元計測装置100は、撮像部10、投影部12、撮影画像データ記憶部13、対応部40、計算処理部49、表示画像形成部50、表示装置60を備える。このうち、撮影画像データ記憶部13、対応部40、計算処理部49、表示画像形成部50は例えばコンピュータで構成されている。測定対象物1は、施工対象物・製作対象物となる有体物で、例えば建築物、工場等の各種工作物や人物・風景等が該当する。
[System configuration]
FIG. 2 shows a block diagram of an overall configuration example of the three-dimensional measurement system 100 in the present embodiment. The three-dimensional measuring apparatus 100 includes an imaging unit 10, a projecting unit 12, a captured image data storage unit 13, a corresponding unit 40, a calculation processing unit 49, a display image forming unit 50, and a display device 60. Among these, the captured image data storage unit 13, the corresponding unit 40, the calculation processing unit 49, and the display image forming unit 50 are configured by a computer, for example. The measurement object 1 is a tangible object that is a construction object or a production object, and corresponds to, for example, various works such as buildings and factories, people, and landscapes.

投影部12は測定対象物1に各種パターンを投影する。撮像部10は、測定対象物1の撮影画像(典型的にはステレオ画像であるが、単写真画像をペアで用いても良い)を取得するもので、例えば測量用のステレオカメラ又は汎用のデジタルカメラと、これらのカメラで撮影された測定対象物1の画像に対してレンズ収差の補償を行なう装置を組合せた機器が用いられる。撮影画像データ記憶部13は、測定対象物1の撮影画像を記憶するもので、例えば撮像部10で撮影された測定対象物1のステレオ画像を記憶する。   The projection unit 12 projects various patterns onto the measurement object 1. The imaging unit 10 acquires a captured image of the measurement object 1 (typically a stereo image, but single photo images may be used in pairs). For example, a surveying stereo camera or a general-purpose digital camera is used. A device in which a camera and a device that compensates for lens aberration with respect to an image of the measurement object 1 photographed by these cameras is combined is used. The captured image data storage unit 13 stores a captured image of the measurement object 1 and stores, for example, a stereo image of the measurement object 1 captured by the imaging unit 10.

対応部40は、測定対象物1に係る一対の撮影画像又はモデル画像を対応付けて標定やステレオマッチングを行なうもので、測定対象物1の画像がステレオ画像の場合には、カラーコード付き標識の抽出、基準点設定、対応点探索の後に、標定処理を行う。また、三次元計測に際しステレオマッチングを行なう。抽出部41、基準点設定部42、対応点探索部43、標定部44、対応点指示部45、識別コード判別部46、パターン情報記憶部47、撮影・モデル画像表示部48、モデル画像形成部48A、モデル画像記憶部48B、計算処理部49を有している。このうち、抽出部41、識別コード判別部46、パターン情報記憶部47は計算処理部49のパターン検出部491としても機能する。また、マッチング処理部70は、ステレオマッチングの主機能を担う部分で、基準点設定部42、対応点探索部43、対応点指示部45を有する。   The correspondence unit 40 performs orientation and stereo matching by associating a pair of captured images or model images related to the measurement object 1. When the image of the measurement object 1 is a stereo image, a sign with a color code is used. After extraction, reference point setting, and corresponding point search, orientation processing is performed. In addition, stereo matching is performed for three-dimensional measurement. Extraction unit 41, reference point setting unit 42, corresponding point search unit 43, orientation unit 44, corresponding point instruction unit 45, identification code determination unit 46, pattern information storage unit 47, photographing / model image display unit 48, model image formation unit 48A, a model image storage unit 48B, and a calculation processing unit 49. Among these, the extraction unit 41, the identification code determination unit 46, and the pattern information storage unit 47 also function as the pattern detection unit 491 of the calculation processing unit 49. The matching processing unit 70 has a main function of stereo matching, and includes a reference point setting unit 42, a corresponding point searching unit 43, and a corresponding point instruction unit 45.

基準点設定部42は、ステレオ画像の一方の画像(基準画像)上に指定された点の近傍であって、特徴点に適合する点を探索し、当該特徴点に適合する点を基準点に設定する。特徴点には、例えば測定対象物1の中心位置、重心位置、コーナー位置、測定対象物1に貼付された又は投影された標識(ターゲット)などがある。対応点探索部43は、ステレオ画像の他方の画像(探索画像)上における、基準点設定部42により設定された基準点と対応する対応点を定める。操作者が対応点指示部45によって特徴点近傍に指示点を指示すると、操作者が厳格に特徴点を指示しなくても、基準点設定部42によって操作者が基準画像で本来意図した特徴点に引き込まれると共に、対応点探索部43によって探索画像の対応点が定められる。   The reference point setting unit 42 searches for a point that is in the vicinity of a specified point on one image (reference image) of the stereo image and matches the feature point, and uses the point that matches the feature point as a reference point. Set. The feature points include, for example, the center position, the center of gravity position, the corner position of the measurement object 1, and a sign (target) attached to or projected on the measurement object 1. The corresponding point search unit 43 determines a corresponding point corresponding to the reference point set by the reference point setting unit 42 on the other image (search image) of the stereo image. When the operator designates an instruction point in the vicinity of the feature point using the corresponding point instruction unit 45, the feature point originally intended by the operator in the reference image is displayed by the reference point setting unit 42 even if the operator does not strictly specify the feature point. The corresponding points of the search image are determined by the corresponding point search unit 43.

標定部44は、基準点設定部42により設定された基準点と対応点探索部43により求められた対応点を用いて、ステレオ画像などの一対の画像の対応点関係を求め、標定計算処理を行う。対応点指示部45は、操作者が基準画像の特徴点近傍以外の点を指定した場合に、探索画像上での対応点を定める。操作者は、表示装置60に表示される基準画像上の指示点と、対応点指示部45によって定められる探索画像上での対応点の表示位置とを対比して、測定対象物1の特徴点の対応関係を容易に認識できる。また、対応点指示部45による位置対応を用いて、標定部44による相互標定が行なわれる。   The orientation unit 44 uses the reference points set by the reference point setting unit 42 and the corresponding points obtained by the corresponding point search unit 43 to obtain corresponding point relationships between a pair of images such as stereo images, and performs orientation calculation processing. Do. The corresponding point instruction unit 45 determines a corresponding point on the search image when the operator designates a point other than the vicinity of the feature point of the reference image. The operator compares the indicated point on the reference image displayed on the display device 60 with the display position of the corresponding point on the search image determined by the corresponding point indicating unit 45, and thereby the feature point of the measurement object 1 Can be easily recognized. Further, the relative orientation by the orientation unit 44 is performed using the position correspondence by the corresponding point instruction unit 45.

計算処理部49は撮像部10から画像データを受け取って各種パターンを検出し、また、各種パターンを発生させ、投影部12から投影させる。パターン検出部491は各種パターンを検出するが、このうち、抽出部41、識別コード判別部46の機能については後に図4で説明する。パターン情報記憶部47は抽出部41、識別コード判別部46で検出、判別されたカラーコード付きターゲットの位置座標、カラーコード、リファレンスポイントの位置座標などのパターン情報を記憶する。なお、抽出された撮影画像の色彩補正は抽出部41内の色彩補正部312が行ない、形成または選択された投影パターンの色彩修正は計算処理部49の色彩修正部494が行う。   The calculation processing unit 49 receives image data from the imaging unit 10 to detect various patterns, generates various patterns, and causes the projection unit 12 to project them. The pattern detection unit 491 detects various patterns. Among these, the functions of the extraction unit 41 and the identification code determination unit 46 will be described later with reference to FIG. The pattern information storage unit 47 stores pattern information such as the position coordinates of the color code target, the color code, and the reference point position coordinates detected and determined by the extraction unit 41 and the identification code determination unit 46. Note that color correction of the extracted captured image is performed by the color correction unit 312 in the extraction unit 41, and color correction of the projection pattern formed or selected is performed by the color correction unit 494 of the calculation processing unit 49.

モデル画像形成部48Aは、標定部44によって標定計算処理されたパラメータ(撮影したカメラの位置、傾き)から、モデル画像を形成する。ここで、モデル画像とは、偏位修正画像ともいい、撮影画像の一対である左右画像(ステレオ画像)の対応点を同一エピポーララインEP上に再配置し(図10(b)参照)、立体視可能な画像に再配置したものである。モデル画像記憶部48Bは、モデル画像形成部48Aで形成された測定対象物1のモデル画像を記憶する。撮影・モデル画像表示部48は、対応部40で行う抽出、基準点設定、対応点探索、ステレオマッチング等の処理において、撮影画像又はモデル画像形成部48Aにより形成されたモデル画像を一対の画像として表示装置60に表示する。   The model image forming unit 48A forms a model image from the parameters (position and tilt of the photographed camera) subjected to the orientation calculation processing by the orientation unit 44. Here, the model image is also referred to as a displacement corrected image, and corresponding points of the left and right images (stereo images) that are a pair of the captured images are rearranged on the same epipolar line EP (see FIG. 10B), It is rearranged in a viewable image. The model image storage unit 48B stores the model image of the measurement object 1 formed by the model image forming unit 48A. The shooting / model image display unit 48 uses the captured image or the model image formed by the model image forming unit 48A as a pair of images in the processing such as extraction, reference point setting, corresponding point search, and stereo matching performed by the corresponding unit 40. It is displayed on the display device 60.

表示画像形成部50は、測定対象物1の三次元座標データ及び測定対象物1の撮影画像又はモデル画像に基づき、任意の方向からの測定対象物1の立体的二次元画像を作成し、表示するもので、三次元座標データ演算部51で測定対象物1に関する三次元計測位置座標を演算により求め、その結果を三次元座標データ記憶部53に記憶する。立体的二次元画像形成部54は、求められた三次元座標データに基づいて立体的二次元画像を作成し、その結果を立体的二次元画像記憶部55に記憶する。立体的二次元画像表示部57は立体的二次元画像記憶部55に記憶された情報を基に任意の方向から見た立体的二次元画像を表示装置60に表示する。   The display image forming unit 50 creates and displays a stereoscopic two-dimensional image of the measurement object 1 from any direction based on the three-dimensional coordinate data of the measurement object 1 and the captured image or model image of the measurement object 1. Therefore, the three-dimensional coordinate data calculation unit 51 obtains the three-dimensional measurement position coordinates related to the measurement object 1 by calculation, and the result is stored in the three-dimensional coordinate data storage unit 53. The stereoscopic two-dimensional image forming unit 54 creates a stereoscopic two-dimensional image based on the obtained three-dimensional coordinate data, and stores the result in the stereoscopic two-dimensional image storage unit 55. The stereoscopic two-dimensional image display unit 57 displays a stereoscopic two-dimensional image viewed from an arbitrary direction on the display device 60 based on the information stored in the stereoscopic two-dimensional image storage unit 55.

[カラーコード付きターゲット]
図3にカラーコード付きターゲットの例を示す。図3(a)はカラーコードの単位領域が3個、図3(b)は6個、図3(c)は9個のカラーコード付きターゲットである。図3(a)〜(c)のカラーコード付きターゲットCT(CT1〜CT3)は、位置検出用パターン(レトロターゲット部)P1、基準色パターン(基準色部)P2、カラーコードパターン(カラーコード部)P3、空パターン(白色部)P4で構成されている。これら、位置検出用パターンP1、基準色パターンP2、カラーコードパターンP3、空パターンP4はカラーコード付きターゲットCT1内の所定の位置に配置される。すなわち、基準色パターンP2、カラーコードパターンP3、空パターンP4は位置検出用パターンP1に対して所定の位置関係に配置される。
[Target with color code]
FIG. 3 shows an example of a target with a color code. 3A shows three color code unit areas, FIG. 3B shows six color code targets, and FIG. 3C shows nine color code targets. 3A to 3C, the color-coded targets CT (CT1 to CT3) include a position detection pattern (retro target portion) P1, a reference color pattern (reference color portion) P2, and a color code pattern (color code portion). ) P3 and an empty pattern (white portion) P4. These position detection pattern P1, reference color pattern P2, color code pattern P3, and sky pattern P4 are arranged at predetermined positions in the target CT1 with color code. That is, the reference color pattern P2, the color code pattern P3, and the sky pattern P4 are arranged in a predetermined positional relationship with respect to the position detection pattern P1.

レトロターゲット部P1は、ターゲット自体の検出用、その重心検出用、ターゲットの方向(傾斜の程度を表す)検出用、ターゲット領域検出用として使用される。   The retro target portion P1 is used for detecting the target itself, detecting the center of gravity thereof, detecting the direction of the target (representing the degree of inclination), and detecting the target area.

基準色部P2は、照明やカメラ等の撮影条件による色のズレに対応するために、相対比較時の参照用、色ズレを補正するためのカラーキャリブレーション用として使用する。さらに、基準色部P2は、簡易な方法で作成されたカラーコード付きターゲットCTの色彩補正用として使用できる。例えば、色管理がなされていないカラーブリンター(インクジェット・レーザー・昇華型等のプリンタ)で印刷したカラーコード付きターゲットCTを使用する場合は、使用プリンタ等で色彩に個体差が出るが、基準色部P2とカラーコード部P3の色を相対比較し補正することで、個体差の影響を押さえることができる。   The reference color portion P2 is used for reference at the time of relative comparison and for color calibration for correcting the color misregistration in order to cope with color misregistration due to photographing conditions such as illumination and a camera. Furthermore, the reference color portion P2 can be used for color correction of the target CT with a color code created by a simple method. For example, when using a target CT with a color code printed by a color printer (inkjet, laser, sublimation type printer, etc.) that has not been color-controlled, individual differences may occur in the color of the printer used. By comparing and correcting the colors of the part P2 and the color code part P3, the influence of individual differences can be suppressed.

カラーコード部P3は、その各単位領域への配色の組み合わせによってコードを表現する。コードに使用するコード色の数により表現可能なコード数が変化する。例えば、コード色数がnの場合、図3(a)のカラーコード付きターゲットCT1では、カラーコード部P3の単位領域が3個のため、n×n×n通りのコードを表せる。信頼度を上げるため、他の単位領域に使用されている色を重複して使用しないという条件を課した場合でも、n×(n−1)×(n−2)通りのコードを表せる。そして、コード色数を増やせばコード数を増加できる。さらに、カラーコード部P3の単位領域の数とカラーコード数を等しくするという条件を課すと、全てのコード色がカラーコード部P3に使用されるため、基準色部P2との比較のみで無く、カラーコード部P3の各単位領域間で色を相対比較することにより、各単位領域の色彩を確認して識別コードを決定することができ、信頼性を上げることができる。さらに、各単位領域の面積を全て同じにする条件を追加すると、カラーコード付きターゲットCTを画像中から検出する際にも使用できる。これは、異なる識別コードをもつカラーコード付きターゲットCT間でも各色の占有する面積が同じになるため、カラーコード部全体からの検出光からはほぼ同様な分散値が得られるからである。また、単位領域間の境界は等間隔に繰り返され、明確な色彩差が検出されるので、このような検出光の繰り返しパターンからもカラーコード付きターゲットCTを画像中から検出することが可能である。   The color code part P3 expresses a code by a combination of color schemes for each unit area. The number of codes that can be expressed varies depending on the number of code colors used for the code. For example, if the number of code colors is n, the color code target CT1 in FIG. 3A has three unit areas of the color code portion P3, and therefore can represent n × n × n codes. In order to increase the reliability, even when the condition that the colors used in other unit areas are not used redundantly, n × (n−1) × (n−2) codes can be expressed. If the number of code colors is increased, the number of codes can be increased. Furthermore, if the condition that the number of unit areas of the color code part P3 is equal to the number of color codes is imposed, all code colors are used for the color code part P3, so that not only the comparison with the reference color part P2, By relatively comparing the colors between the unit areas of the color code part P3, the color of each unit area can be confirmed to determine the identification code, and the reliability can be improved. Furthermore, if a condition for making the area of each unit region the same is added, the target CT with a color code can also be used when detected from the image. This is because the area occupied by each color is the same even between the target CTs with color codes having different identification codes, so that almost the same dispersion value is obtained from the detection light from the entire color code part. In addition, since the boundary between the unit regions is repeated at equal intervals and a clear color difference is detected, it is possible to detect the target CT with a color code from the image from such a repeated pattern of detection light. .

白色部P4は、カラーコード付きターゲットCTの方向検出用と色ズレのキャリブレーション用として使用する。カラーコード付きターゲットCTの四隅の内、一カ所だけレトロターゲットが配置されない箇所があり、これをカラーコード付きターゲットCTの方向検出用に使用できる。このように白色部P4はレトロターゲットと異なるパターンであれば良い。したがって、白色部には目視でコードを確認するための番号などの文字列を印刷しても良く、また、バーコード等のコード領域としても使用しても良い。さらに、検出精度を上げるために、テンプレートマッチング用のテンプレートパターンとして使用することも可能である。   The white portion P4 is used for detecting the direction of the color-coded target CT and for correcting color misregistration. Among the four corners of the color-coded target CT, there is a place where no retro target is arranged at one place, and this can be used for detecting the direction of the color-coded target CT. Thus, the white part P4 should just be a pattern different from a retro target. Therefore, a character string such as a number for visually confirming the code may be printed on the white portion, and it may be used as a code area such as a barcode. Furthermore, in order to increase the detection accuracy, it can be used as a template pattern for template matching.

図4にカラーコード付きターゲットCTを抽出する抽出部41及びそのカラーコードを判別する識別コード判別部46の構成例を示す。抽出部41は、探索処理部110、レトロターゲットグループ化処理部120、カラーコード付きターゲット検出処理部130、画像・カラーパターン記憶部140を有する。また、識別コード判別部46はカラーコード付きターゲット検出処理部130で検出されたカラーコードを判別しコード番号を付与する。   FIG. 4 shows a configuration example of the extraction unit 41 that extracts the color-coded target CT and the identification code determination unit 46 that determines the color code. The extraction unit 41 includes a search processing unit 110, a retro target grouping processing unit 120, a target detection processing unit with color code 130, and an image / color pattern storage unit 140. Also, the identification code determination unit 46 determines the color code detected by the color code-added target detection processing unit 130 and assigns a code number.

探索処理部110は、撮影画像データ記憶部13又はモデル画像記憶部48Bから読み込まれたカラー画像(撮影画像又はモデル画像)から、レトロターゲットパターン等の位置検出用パターンP1を検出する。位置検出用ターゲットとして、レトロターゲットパターンの代わりにテンプレートパターンが用いられた場合は、テンプレートパターン検出をする。
レトロターゲットグループ化処理部は120は、探索処理部110で検出したレトロターゲットが同じカラーコード付きターゲットCTに属すると判断されたもの(例えば座標がカラーコード付きターゲットCT内にあるもの)を同一グループに属する候補としてグループ化する。
The search processing unit 110 detects a position detection pattern P1 such as a retro target pattern from a color image (captured image or model image) read from the captured image data storage unit 13 or the model image storage unit 48B. When a template pattern is used as the position detection target instead of the retro target pattern, the template pattern is detected.
The retro target grouping processing unit 120 is the same group of those in which the retro targets detected by the search processing unit 110 are determined to belong to the same color coded target CT (for example, the coordinates are in the color coded target CT). Group as candidates belonging to.

カラーコード付きターゲット検出処理部130は、同じカラーコード付きターゲットに属すると判断されたレトロターゲットのグループから、当該カラーコード付きターゲットCTの領域と方向を検出するカラーコード付きターゲット領域方向検出処理部131と、カラーコード付きターゲットCTの基準色部P2、カラーコード部P3における色彩の配列、画像中の測定対象物1の色彩を検出する色彩検出処理部311と、基準色パターンP2を参照してカラーコード部P3及び画像中の測定対象物1の色彩を補正する色彩補正部312と、グループ化が適正になされたかを確認する確認処理部313で構成されている。 なお、抽出された撮影画像の色彩補正は色彩補正部312が行ない、形成または選択された投影パターンの色彩修正は色彩修正部494が行う。   The color code target detection processing unit 130 detects a region and direction of the color code target CT from a group of retro targets determined to belong to the same color code target. The reference color portion P2 of the color-coded target CT, the color arrangement in the color code portion P3, the color detection processing portion 311 for detecting the color of the measurement object 1 in the image, and the reference color pattern P2 A code part P3, a color correction part 312 for correcting the color of the measuring object 1 in the image, and a confirmation processing part 313 for confirming whether or not the grouping is properly performed. Note that color correction of the extracted captured image is performed by the color correction unit 312, and color correction of the projection pattern formed or selected is performed by the color correction unit 494.

画像・カラーパターン記憶部140は、抽出部41に読み込んだ画像(撮影画像・モデル画像)を記憶する読込画像記憶部141と、使用が予定される複数種類のカラーコード付きターゲットCTについて、カラーコード付きターゲットCTの種別を示す種別コード番号を記憶し、さらに、各種のカラーコード付きターゲットCTについて、パターン配置とコード番号の対応関係を記録するカラーコード付きターゲット対応表142で構成されている。   The image / color pattern storage unit 140 is a color code for a read image storage unit 141 that stores an image (photographed image / model image) read by the extraction unit 41 and a plurality of types of color-coded target CTs that are scheduled to be used. A type code number indicating the type of the attached target CT is stored, and for each type of target CT with a color code, a color code target correspondence table 142 is recorded which records the correspondence between the pattern arrangement and the code number.

識別コード判別部46は、カラーコード部P3における色彩の配列から識別コードを判別し、識別コードに変換するもので、カラーコード付きターゲット検出処理部130で検出されたカラーコード付きターゲットCTの領域と方向のデータに基づいて、カラーコード付きターゲットCTの座標を変換する座標変換処理部321と、座標変換されたカラーコード付きターゲットCTのカラーコード部P3における色彩の配列から識別コードを判別し、識別コードに変換するコード変換処理部322で構成されている。   The identification code discriminating unit 46 discriminates an identification code from the color arrangement in the color code unit P3 and converts it into an identification code. The color code-added target CT detected by the color code target detection processing unit 130 Based on the direction data, the coordinate conversion processing unit 321 for converting the coordinates of the color-coded target CT and the color code in the color code portion P3 of the coordinate-converted target CT with the color code discriminates the identification code. The code conversion processing unit 322 converts the code into a code.

[システムの動作]
図5に、三次元計測システムの動作を説明するフローチャート例を示す。ここでは基本フローとして各種パターン投影に係るフローを除いたものを示し、各種パターン投影に係るフローは図14で後述する。
まず、撮影対象物1にカラーコード付きターゲットを貼付する(S01)。投影を行なう場合には貼付に代えて又は貼付と併用して投影が行なわれる。カラーコード付きターゲットを貼付した位置は、計測点Qとして標定や三次元計測に使用される。次に、デジタルカメラ等の撮像部10を用いて撮影した測定対象物1の画像(典型的にはステレオ画像)を撮影し(S10)、撮影した画像を撮影画像データ記憶部13に画像登録する(S11)。
[System Operation]
FIG. 5 shows an example of a flowchart for explaining the operation of the three-dimensional measurement system. Here, a basic flow excluding the flow related to various pattern projections is shown, and the flow related to various pattern projections will be described later with reference to FIG.
First, a target with a color code is attached to the object 1 (S01). When projection is performed, the projection is performed instead of or in combination with the pasting. The position where the target with the color code is pasted is used as a measurement point Q for orientation and three-dimensional measurement. Next, an image (typically a stereo image) of the measurement object 1 photographed using the imaging unit 10 such as a digital camera is photographed (S10), and the photographed image is registered in the photographed image data storage unit 13. (S11).

図6にオーバーラップ撮影の例を示す。計測対象物1に対して、1台、2台もしくは複数台のカメラ10にてオーバーラップするように撮影する(S10)。カメラ10の台数は1台〜複数台、何台でも良く、とくに制約はない。基本的には図6(b)に示すように、2台1組のカメラでステレオ撮影し、このステレオ撮影した画像の一部をオーバーラップさせながら一連のステレオ画像を取得し、標定や三次元計測に供するのであるが、図6(a)に示すように、1台で複数方向からオーバーラップするように撮影しても良く、また、複数台のマルチカメラでオーバーラップするように撮影してもよい。この場合オーバーラップしあう2つの画像でペアを構成するが、1つの画像が例えば左隣の画像と1つのペアを構成し、右隣の画像と別のペアを構成しても良い。   FIG. 6 shows an example of overlap photography. The measurement object 1 is photographed so as to overlap with one, two, or a plurality of cameras 10 (S10). The number of cameras 10 may be one to a plurality or any number, and there is no particular limitation. Basically, as shown in FIG. 6 (b), a stereo image is taken with a set of two cameras, and a series of stereo images are acquired while overlapping a part of the stereo images, and orientation and three-dimensional images are obtained. As shown in Fig. 6 (a), you may shoot so that it overlaps from multiple directions with one camera, or shoot so that it overlaps with multiple multi-cameras. Also good. In this case, a pair is formed by two overlapping images, but one image may form, for example, one pair with the image on the left and another pair with the image on the right.

図7に左右のステレオカメラで撮影される撮影画像の例を示す。図7(a)にステレオ画像のオーバーラップの様子を示す。計測される基本範囲は、2枚(一対)のステレオ撮影画像のオーバーラップ範囲である。このとき、4個のカラーコード付きターゲットCTがオーバーラップ範囲に入るように撮影するが好ましい。このようにするとステレオ画像を用いて三次元測定が可能である。また、図7(b)に隣接し合うステレオ画像間のオーバーラップのさせ方の例を示す。この様に、上下左右方向に2個のカラーコード付きターゲットCTを含んでオーバーラップするように一連の画像を撮影するのが好ましい。このようにすると広域にわたる非接触三次元測定の自動化が可能になる。   FIG. 7 shows an example of a photographed image photographed by the left and right stereo cameras. FIG. 7A shows how the stereo images overlap. The basic range to be measured is an overlap range of two (a pair of) stereo shot images. At this time, it is preferable to perform imaging so that the four color-coded target CTs fall within the overlapping range. In this way, three-dimensional measurement is possible using a stereo image. FIG. 7B shows an example of how to overlap adjacent stereo images. In this way, it is preferable to take a series of images so as to overlap, including two color-coded targets CT in the vertical and horizontal directions. In this way, non-contact three-dimensional measurement over a wide area can be automated.

図5に戻り、次に、対応部40は、撮影画像データ記憶部13に登録された撮影画像又はモデル画像記憶部48Bに記憶されたモデル画像を抽出部41の画像・カラーパターン記憶部140へ読み込む。抽出部41では撮影画像からカラーコード付きターゲットCTを抽出する(S14)。識別コード判定部46において、抽出されたカラーコード付きターゲットCTの識別コードを判別し(S15)、抽出されたカラーコード付きターゲットCTの位置座標及び識別コードはパターン情報記憶部47に記憶される。   Returning to FIG. 5, the correspondence unit 40 then transfers the captured image registered in the captured image data storage unit 13 or the model image stored in the model image storage unit 48 </ b> B to the image / color pattern storage unit 140 of the extraction unit 41. Read. The extraction unit 41 extracts the color-coded target CT from the captured image (S14). The identification code determination unit 46 determines the identification code of the extracted color-coded target CT (S15), and the extracted position coordinates and identification code of the color-coded target CT are stored in the pattern information storage unit 47.

[ステレオペアの設定]
次に、ステレオペアの設定に移行する。識別コードを利用して撮影画像データ記憶部13に登録された画像のうち、ステレオペアとなる左右画像の組を設定する(S16)。
[Stereo pair settings]
Next, the process proceeds to stereo pair setting. Among the images registered in the photographed image data storage unit 13 using the identification code, a set of left and right images forming a stereo pair is set (S16).

図8に、ステレオペア選択(S16)のフロー例を示す。まず。画像毎に登録されたカラーコード付きターゲットCTの番号をリストアップし(S550)、この中から、共通のコード番号のターゲットCTが複数含まれている画像からステレオペアを選択する(S560)。撮影の際に図7(a)に示すように、4つのカラーコード付きターゲットCTを含むようにステレオ撮影していれば、4つのカラーコード付きターゲットCTが入った画像が2枚ずつあるので、ステレオペアが設定できる。また、図7(b)に示すように、各ステレオペア間で共通のコード番号のカラーコード付きターゲットCTが2個入っている場合は、その画像の上下左右いずれかの隣接画像の関係にあるので、各ステレオペア間での配置関係を決定できる(S570)。このステレオペア選択のフローは自動的に行うことが可能である。   FIG. 8 shows a flow example of stereo pair selection (S16). First. The numbers of the target CTs with color codes registered for each image are listed (S550), and a stereo pair is selected from images containing a plurality of target CTs with common code numbers (S560). As shown in FIG. 7 (a), when taking a stereo image so as to include four color-coded target CTs, there are two images each containing four color-coded target CTs. Stereo pairs can be set. In addition, as shown in FIG. 7B, when two color-coded target CTs having a common code number are included in each stereo pair, there is a relationship between adjacent images on the upper, lower, left, and right sides of the image. Therefore, the arrangement relationship between the stereo pairs can be determined (S570). This stereo pair selection flow can be performed automatically.

次に、基準点設定部42によって、ステレオ画像の一方の画像(基準画像)上に指定された点の近傍であって、特徴点に適合する点を探索し、当該特徴点に適合する点を基準点に設定する(S18)。また、対応点探索部43によって、ステレオ画像の他方の画像(探索画像)上における、基準点と対応する対応点を定める(S19)。   Next, the reference point setting unit 42 searches for a point that matches the feature point in the vicinity of the point designated on one image (reference image) of the stereo image, and finds a point that matches the feature point. A reference point is set (S18). In addition, the corresponding point search unit 43 determines a corresponding point corresponding to the reference point on the other image (search image) of the stereo image (S19).

[標定]
つぎに、標定部44によって、標定を行なう(S30)。撮影画像データ記憶部13に記憶された測定対象物1のステレオ画像の相互標定を行い、ステレオ画像のモデル画像に対する対応点関係を求める。
ここで、2枚以上の画像のそれぞれの対応点(同一点)を各画像上で基準点設定部42と対応点探索部43により、操作者がマウスカーソルなどで基準画像上で指示した指示点に対して、特徴点に適合する基準点と対応する対応点の画像座標を読み取る。この対応点は通常画像毎に6点以上必要である。予め測定対象物1について図示しない三次元位置測定装置で別途測定した三次元座標データを三次元座標データ記憶部53に記憶されていれば、基準点座標と画像の対応付けして、絶対標定を実行する。記憶されていなければ相対標定を実行する。
[orientation]
Next, orientation is performed by the orientation unit 44 (S30). The relative orientation of the stereo image of the measuring object 1 stored in the captured image data storage unit 13 is performed, and the corresponding point relationship with respect to the model image of the stereo image is obtained.
Here, the corresponding points (same points) of two or more images are designated on the reference image by the reference point setting unit 42 and the corresponding point searching unit 43 on the reference image by the operator on the reference image. On the other hand, the image coordinates of the corresponding point corresponding to the reference point matching the feature point are read. Six or more corresponding points are required for each normal image. If the three-dimensional coordinate data separately measured with a three-dimensional position measuring device (not shown) for the measurement object 1 is stored in the three-dimensional coordinate data storage unit 53 in advance, the reference point coordinates and the image are associated with each other to perform absolute orientation. Execute. If it is not stored, relative orientation is executed.

たとえば、オーバーラップしたステレオ画像の中にカラーコード付きターゲットが4個あり、1つのカラーコード付きターゲット中に3点の位置検出用パターン(レトロターゲット)があれば、合計12点の位置検出用パターン(レトロターゲット)の重心位置座標から標定処理できる。標定は最低でも6点以上あれば行えるので、位置検出用パターンはカラーコード付きターゲット中に最低2点あればよい。その場合8点で標定処理される。
なお、標定処理は、自動、マニュアル、もしくは半自動によっても可能である。半自動では、カラーコード付きターゲットCT内の位置検出用パターンP1の近辺をマウスでクリックすれば、自動位置検出が行なえる。
For example, if there are four color code targets in the overlapped stereo image and there are three position detection patterns (retro targets) in one color code target, a total of 12 position detection patterns Orientation processing can be performed from the coordinates of the center of gravity of the (retro target). Since orientation can be performed with at least 6 points or more, the position detection pattern may be at least 2 points in a target with a color code. In that case, the orientation process is performed at 8 points.
The orientation process can be performed automatically, manually, or semi-automatically. In semi-automatic, automatic position detection can be performed by clicking the vicinity of the position detection pattern P1 in the color-coded target CT with the mouse.

次にステレオペア選択された各画像について、対応点の座標を用いて、標定部44により標定計算処理を行う。標定計算処理により、撮影した左右それぞれのカメラの位置、傾き、対応点の位置、計測精度を求めることができる。標定計算処理は、一対の撮影画像又は一対のモデル画像の対応付けに関しては相互標定で行ない、複数または全画像間の標定に関してはバンドル調整にて行う。   Next, for each image selected as a stereo pair, the orientation calculation process is performed by the orientation unit 44 using the coordinates of the corresponding points. Through the orientation calculation process, the positions and tilts of the captured left and right cameras, the positions of corresponding points, and the measurement accuracy can be obtained. The orientation calculation processing is performed by mutual orientation for associating a pair of captured images or a pair of model images, and for orientation between a plurality of images or all images by bundle adjustment.

図9は、ステレオ画像におけるモデル座標系XYZとカメラ座標系xyzの説明図である。モデル座標系の原点を左側の投影中心にとり、右側の投影中心を結ぶ線をX軸にとるようにする。縮尺は、基線長を単位長さにとる。このとき求めるパラメータは、左側のカメラのZ軸の回転角κ1、Y軸の回転角φ1、右側のカメラのZ軸の回転角κ2、Y軸の回転角φ2、X軸の回転角ω2の5つの回転角となる。この場合左側のカメラのX軸の回転角ω1は0なので、考慮する必要ない。共面条件式により、左右カメラの位置を定めるのに必要とされるパラメータを求めることができる。   FIG. 9 is an explanatory diagram of a model coordinate system XYZ and a camera coordinate system xyz in a stereo image. The origin of the model coordinate system is taken as the left projection center, and the line connecting the right projection centers is taken as the X axis. For the scale, the base line length is taken as the unit length. The parameters to be obtained at this time are 5 of the left camera Z-axis rotation angle κ1, the Y-axis rotation angle φ1, the right-hand camera Z-axis rotation angle κ2, the Y-axis rotation angle φ2, and the X-axis rotation angle ω2. One rotation angle. In this case, since the rotation angle ω1 of the X axis of the left camera is 0, there is no need to consider it. The parameters required for determining the positions of the left and right cameras can be obtained from the coplanar conditional expression.

モデル画像形成部48Aは、標定部44で標定されたパラメータに基づいて一対のモデル画像を形成し(S42)、モデル画像形成部48Aで形成されたモデル画像は、モデル画像記憶部48Bに記憶される(S43)。撮影・モデル画像表示部48は、このモデル画像をステレオ画像として表示装置60に表示する(S44)。   The model image forming unit 48A forms a pair of model images based on the parameters determined by the orientation unit 44 (S42), and the model image formed by the model image forming unit 48A is stored in the model image storage unit 48B. (S43). The shooting / model image display unit 48 displays the model image on the display device 60 as a stereo image (S44).

図10にリファレンスポイントRFを有するターゲットの例を示す。リファレンスポイントRFを有する計測パターンを用いて標定を行なうことにより、また、標定を繰り返すことにより、標定の精度が向上するが、このような標定は、通常は一度標定処理されたモデル画像に基づいて行われる。モデル画像はモデル画像記憶部48Bから抽出部41の読込画像記憶部141に読み込まれて、再標定に用いられる。図10(a)ではリファレンスポイントRFとして複数のレトロターゲットが配置されている。平面的な測定対象物1では、カラーコード付きターゲットCTだけでよい場合もあるが、測定対象物1の曲面が複雑な場合や曲率が大である場合は、カラーコード付きターゲットCTに加えてこれらリファレンスポイントRFとして多数のレトロターゲットを貼り付けたほうが標定や計測の信頼性が高くなる。   FIG. 10 shows an example of a target having a reference point RF. By performing orientation using a measurement pattern having a reference point RF and by repeating orientation, the accuracy of orientation is improved, but such orientation is usually based on a model image that has been subjected to orientation processing once. Done. The model image is read from the model image storage unit 48B into the read image storage unit 141 of the extraction unit 41 and used for re-orientation. In FIG. 10A, a plurality of retro targets are arranged as reference points RF. In the planar measurement object 1, only the target CT with the color code may be used. However, when the curved surface of the measurement object 1 is complicated or the curvature is large, these are added to the target CT with the color code. The reliability of orientation and measurement becomes higher when a large number of retro targets are attached as reference points RF.

図11にリファレンスポイントの自動対応付けのフロー例を示す。ここではこのリファレンスポイントRFの自動位置検出、対応付けについて説明する。まず、カラーコード付きターゲットCT内の位置検出用パターン(レトロターゲット)P1の位置を検出する(S110)。図10(a)において、4つのカラーコード付きターゲットCT内の位置検出用パターンP1は合計12点で6点以上あり、標定処理が可能である。そこで、標定処理を行い、次いで、偏位修正処理を行う。一般的には、標定作業により撮影カメラの位置と傾きを求めて(S120)、その結果を用いて偏位修正画像を作成する作業が行われる(S130)。ここでは、標定部44の標定結果を用いてモデル画像形成部48Aにより、偏位修正画像を作成する処理を行う。   FIG. 11 shows a flow example of automatic association of reference points. Here, automatic position detection and association of the reference point RF will be described. First, the position of the position detection pattern (retro target) P1 in the color-coded target CT is detected (S110). In FIG. 10A, the position detection patterns P1 in the four color-coded targets CT have a total of 12 points and 6 points or more, and an orientation process is possible. Therefore, orientation processing is performed, and then displacement correction processing is performed. In general, the position and inclination of the photographing camera are obtained by the orientation work (S120), and an operation for creating a deviation corrected image is performed using the result (S130). Here, the model image forming unit 48A uses the orientation result of the orientation unit 44 to create a displacement corrected image.

モデル画像とは、偏位修正画像ともいい、撮影画像の一対である左右画像の対応点を同一エピポーララインEP上に再配置し、立体視可能な画像に再配置したものである。偏位修正処理により偏位修正画像(モデル画像)を作成する。偏位修正画像とは、左右画像のエピポーララインEPを横一線となるように並べ替えた画像である。従って、図10(b)に示すように、左右画像のリファレンスポイントRFは同一エピポーララインEP上に再配列される。標定処理の結果を用いてモデル画像を形成すると、このような偏位修正画像を得られる。   The model image is also referred to as a displacement corrected image, and is obtained by rearranging the corresponding points of the left and right images, which are a pair of captured images, on the same epipolar line EP and rearranging the images in a stereoscopic view. A displacement correction image (model image) is created by the displacement correction processing. The deviation corrected image is an image obtained by rearranging the epipolar lines EP of the left and right images so as to be aligned horizontally. Accordingly, as shown in FIG. 10B, the reference points RF of the left and right images are rearranged on the same epipolar line EP. When a model image is formed using the result of the orientation process, such a displacement corrected image can be obtained.

次に、同一エピポーララインEP上のリファレンスポイントRFとなるターゲットを探索する(S140)。偏位修正画像になっていれば、同一ライン上の一次元探索だけで済むので、探索が容易である。他の場合は、エピポーララインEPだけではなく、その近辺を数ライン分探索する。図10(b)のように、同一ライン上でリファレンスポイントRFが見つかったら、それを対応点として対応付けし、識別(ナンバリング)する(S150)。ここで、もしリファレンスポイントRFが同一ライン上に複数ある場合は、その左右の位置から各リファレンスポイントRFを識別する。次に、検出されたリファレンスポイントRFを加えて、再度標定を行う(S160)。ここで、再度標定を行うことで、標定の信頼性を向上できる。標定結果の精度が十分で(S170)、問題なければ処理を終了する。不十分であれば、悪い点を削除し(S180)、再度標定をやり直す(S160)。   Next, a target to be a reference point RF on the same epipolar line EP is searched (S140). If the image is a displacement correction image, only a one-dimensional search on the same line is required, and the search is easy. In other cases, not only the epipolar line EP but also the vicinity thereof is searched for several lines. As shown in FIG. 10B, when the reference point RF is found on the same line, it is associated as a corresponding point and identified (numbered) (S150). Here, if there are a plurality of reference points RF on the same line, each reference point RF is identified from its left and right positions. Next, the detected reference point RF is added and orientation is performed again (S160). Here, the reliability of the orientation can be improved by performing the orientation again. If the accuracy of the orientation result is sufficient (S170) and there is no problem, the process ends. If it is insufficient, the bad point is deleted (S180), and the orientation is performed again (S160).

[マッチングエリア決定]
図5に戻り、次に、対応部40にてマッチングエリアの決定(三次元計測範囲の決定)(S45)を行い、三次元座標演算部51にて三次元計測(ステレオ計測)を行い(S50)、三次元座標データ記憶部53にステレオ画像の対応点の三次元座標を登録する。マッチングエリアの決定(S45)には、マニュアル計測、半自動計測、自動計測が可能である。半自動では、カラーコード付きターゲットCT内の位置検出用パターンP1の近辺をマウスでクリックすれば、自動位置検出が行なえる。
[Matching area decision]
Returning to FIG. 5, next, the matching unit 40 determines a matching area (determines a three-dimensional measurement range) (S45), and the three-dimensional coordinate calculation unit 51 performs three-dimensional measurement (stereo measurement) (S50). ), The three-dimensional coordinates of the corresponding points of the stereo image are registered in the three-dimensional coordinate data storage unit 53. Manual measurement, semi-automatic measurement, and automatic measurement are possible for the determination of the matching area (S45). In semi-automatic, automatic position detection can be performed by clicking the vicinity of the position detection pattern P1 in the color-coded target CT with the mouse.

次に、ステレオマッチングエリアの自動決定いついて説明する。図7(a)に示すように、ステレオ画像の4隅に配置されたカラーコード付きターゲットCTを含むように対応点探索部43でマッチング範囲を自動設定する。なお、マッチングの前に、一連のモデル画像について、隣接し合うモデル画像で共有されたカラーコード付き標識CTの識別コードが一致するように、測定対象物1に係る一連のモデル画像を配列して用いても良い。   Next, the automatic determination of the stereo matching area will be described. As shown in FIG. 7A, the matching range is automatically set by the corresponding point search unit 43 so as to include the color-coded targets CT arranged at the four corners of the stereo image. Prior to matching, a series of model images related to the measurement object 1 are arranged so that the identification codes of the color-coded markers CT shared by the adjacent model images match for a series of model images. It may be used.

図12にステレオマッチングエリアの自動決定の処理フロー例を示す。また、図13はステレオマッチングエリア設定を説明するための図である。図13はカラーコード付きターゲットCTが位置検出用の3つのレトロターゲットを有する例である。まず、ステレオ画像の4隅に配置されたカラーコード付きターゲットCTを抽出する(S160)。次に4つのカラーコード付きターゲットCT内にある各レトロターゲット部P1を検出する(S170)。これらの検出については図17及び図18の説明を参照されたい。次に、その検出された各レトロターゲット部P1の座標値から全てのレトロターゲット部P1を含むように、最も外側のレトロターゲット部P1を繋いだエリアを計測エリアとして設定する。すなわち、左上を原点(0,0)とした場合、Y座標が最小の点同士を結べば水平の上ライン、Y座標が最大値の点を結べば水平の下ライン、X座標が最小値の点を結べば垂直方向の左ライン、X座標が最大値の点を結べば垂直方法の右ライン、というふうに、計測すべきマッチングエリアを自動で決定できる。   FIG. 12 shows an example of a processing flow for automatically determining the stereo matching area. FIG. 13 is a diagram for explaining stereo matching area setting. FIG. 13 shows an example in which the color-coded target CT has three retro targets for position detection. First, the color-coded target CTs arranged at the four corners of the stereo image are extracted (S160). Next, each retro target part P1 in the four color-coded targets CT is detected (S170). Refer to the description of FIGS. 17 and 18 for these detections. Next, an area connecting the outermost retro target portions P1 is set as a measurement area so as to include all retro target portions P1 from the detected coordinate values of each retro target portion P1. That is, if the upper left is the origin (0, 0), the horizontal upper line is connected if the points with the smallest Y coordinate are connected, the horizontal lower line is connected with the point where the Y coordinate is the maximum value, and the X coordinate is the minimum value. The matching area to be measured can be automatically determined, such as connecting a point to the left line in the vertical direction and connecting the point with the maximum X coordinate to the right line in the vertical method.

このように、マッチング領域を決定することで、図7(b)に示すように、各モデル画像間のオーバーラップも確実にとれるようになる。すなわち、カラーコード付きターゲットCTを画面の4隅の近くに配置し、常にこれらのカラーコード付きターゲットCTの最も外側にあるレトロターゲットを結ぶ領域をマッチングエリアとすることで、ステレオマッチングエリアが自動的に決められると同時に、各モデル画像間のオーバーラップを確実にすることができる。この場合、各カラーコード付きターゲットCTに位置検出用パターン(レトロターゲット部)P1を最低2点以上配置(2点の場合は対角に配置)すれば、マッチングエリアの自動設定処理が可能となる。   In this way, by determining the matching region, as shown in FIG. 7B, the overlap between the model images can be reliably obtained. In other words, the color matching target CT is placed near the four corners of the screen, and the area connecting the outermost retro targets of these color coding targets CT is always used as the matching area, so that the stereo matching area is automatically set. At the same time, the overlap between the model images can be ensured. In this case, if at least two or more position detection patterns (retro target portions) P1 are arranged on each color code target CT (in the case of two points, they are arranged diagonally), matching area automatic setting processing can be performed. .

全自動の場合、コード識別数が多ければ、隣接画像のオーバーラップをとりながら一対の画像(典型的にはステレオ画像)を基本単位として、任意の順序で撮影可能である。また、撮影順番を決めれば、コード識別数が少なくても自動化が可能である。その場合、ステレオ撮影された(オーバーラップした)2枚の画像中のカラーコード付きターゲットCTが識別できればよい。マッチングエリアの決定(S45)がなされた領域については、三次元計測(ステレオ計測)がなされる(S50)。三次元計測には、例えば相互相関係数法を利用した画像相関処理が用いられる。画像相関処理は対応部40(抽出部41、基準点設定部42、対応点探索部43など)の機能及び三次元座標データ演算部51の演算処理によりなされる。   In the fully automatic case, if the number of code identifications is large, a pair of images (typically stereo images) can be taken as a basic unit while overlapping adjacent images so that images can be taken in any order. If the shooting order is determined, automation is possible even if the number of code identifications is small. In that case, it is only necessary to identify the target CT with a color code in two images that have been stereo-photographed (overlapped). Three-dimensional measurement (stereo measurement) is performed on the region where the matching area is determined (S45) (S50). For the three-dimensional measurement, for example, image correlation processing using a cross-correlation coefficient method is used. The image correlation process is performed by the function of the corresponding unit 40 (extracting unit 41, reference point setting unit 42, corresponding point searching unit 43, etc.) and the calculation process of the three-dimensional coordinate data calculating unit 51.

三次元座標データ演算部51の演算処理にて測定対象物1の三次元座標が求められ、三次元座標データ記憶部53に記憶される。三次元座標データ演算部51にて求められた三次元座標あるいは三次元座標データ記憶部53から読み込まれた三次元座標から、立体的二次元画像形成部54にて測定対象物1の立体的二次元画像を作成し、立体的二次元画像記憶部55にて立体的二次元画像を記憶する。立体的二次元画像表示部57は立体的二次元画像記憶55に記憶された情報を基に任意の方向から見た立体的二次元画像を表示装置60に表示する。   The three-dimensional coordinates of the measurement object 1 are obtained by the calculation process of the three-dimensional coordinate data calculation unit 51 and stored in the three-dimensional coordinate data storage unit 53. From the three-dimensional coordinates obtained by the three-dimensional coordinate data calculation unit 51 or the three-dimensional coordinates read from the three-dimensional coordinate data storage unit 53, the three-dimensional two-dimensional image forming unit 54 performs the three-dimensional measurement of the measurement object 1. A three-dimensional image is created, and the stereoscopic two-dimensional image storage unit 55 stores the stereoscopic two-dimensional image. The stereoscopic two-dimensional image display unit 57 displays a stereoscopic two-dimensional image viewed from an arbitrary direction on the display device 60 based on the information stored in the stereoscopic two-dimensional image storage 55.

かかる立体的二次元画像の画面は、任意の方向からの斜視状態を表すことが可能な測定対象物1の立体的二次元画像であり、ワイヤーフレーム面やテクスチャーマッピングによる画像の表示も可能である。テクスチャーマッピングとは、測定対象物1の二次元画像に立体感を表現するテクスチャーを貼り付けることをいう。
このようにして、撮影(S10)〜三次元計測(S50)までは自動計測が可能であり、測定対象物1の三次元座標が求められ、立体的画像が表示装置60に表示される。(特許文献2参照)
Such a stereoscopic two-dimensional image screen is a stereoscopic two-dimensional image of the measuring object 1 that can represent a perspective state from an arbitrary direction, and an image can be displayed by a wire frame surface or texture mapping. . Texture mapping refers to attaching a texture that expresses a three-dimensional effect to the two-dimensional image of the measurement object 1.
In this way, automatic measurement is possible from photographing (S10) to three-dimensional measurement (S50), the three-dimensional coordinates of the measuring object 1 are obtained, and a three-dimensional image is displayed on the display device 60. (See Patent Document 2)

〔投影装置の利用〕
本実施の形態では、この基本処理フローに投影部(プロジェクター)12を利用することにより、次の処理を可能とするものである。
(a)プロジェクター12でカメラで撮影する範囲を照明し、ステレオカメラ10でその範囲を撮影するように調整する。
また、カラーコード付きターゲットCTを投影パターンの4隅に配置して撮影範囲(重複撮影範囲)を表示すると共に、隣接画像の接続に用いるようにすることも可能である。
(b)プロジェクター12でテクスチャー用照明(照明のみ)を投影し、カメラ10では、1つのモデル画像のテクスチャー用の画像(測定対象物の画像)としてステレオペア画像を撮影する。
[Use of projection device]
In the present embodiment, the following processing is enabled by using the projection unit (projector) 12 in this basic processing flow.
(A) The projector 12 illuminates a range to be captured by the camera, and the stereo camera 10 is adjusted to capture the range.
It is also possible to arrange the color-coded target CT at the four corners of the projection pattern to display the imaging range (overlapping imaging range) and to use it for connecting adjacent images.
(B) The projector 12 projects texture illumination (illumination only), and the camera 10 captures a stereo pair image as a texture image (an image of the measurement object) of one model image.

(c)計測前準備として、プロジェクター12から計測準備用パターンを投影し、これをステレオ撮影する。計測準備用パターンは例えば図16のように多数の小円をアレイ状に配置したパターンや格子パターンを用いることができる。測定対象物1の形状が目視、あるいは計算処理にてわかるパターンであればよい。チェックは目視もしくは計算処理にて行う。計測対象物1の形状に応じて投影パターンが変形するので、パターンの変形点をチェックすることにより、測定対象物1の形状の概略を把握できる。 (C) As a pre-measurement preparation, a measurement preparation pattern is projected from the projector 12, and this is photographed in stereo. As the measurement preparation pattern, for example, a pattern in which a large number of small circles are arranged in an array as shown in FIG. 16 or a lattice pattern can be used. Any pattern may be used as long as the shape of the measurement object 1 can be visually confirmed or calculated. Check by visual inspection or calculation. Since the projection pattern is deformed according to the shape of the measurement object 1, the outline of the shape of the measurement object 1 can be grasped by checking the deformation point of the pattern.

計測前準備で抽出した変形点に、リファレンスポイントRFを貼り付ける、もしくは、計測点Q(標定点を含む)を増加する等の処置が可能である。また、標定点の大きさ、数、配置などを計算して本番のパターン投影に反映できる。   It is possible to take measures such as attaching the reference point RF to the deformation point extracted in the pre-measurement preparation or increasing the measurement point Q (including the orientation point). In addition, the size, number, and arrangement of orientation points can be calculated and reflected in the actual pattern projection.

計測前準備で変形点のチェックを行なうに際し、概略測定を併せて行なう方法も可能である。すなわち、撮影画像をパターン検出部491を介して標定部44に送り、標定計算をする。さらに、計測準備用パターンの計測点数が十分多い場合など、投影した標定点を計測点として計測処理を完了することも可能である。   When checking the deformation point in the pre-measurement preparation, it is possible to perform a rough measurement together. That is, the captured image is sent to the orientation unit 44 via the pattern detection unit 491, and orientation calculation is performed. Furthermore, when the number of measurement points in the measurement preparation pattern is sufficiently large, the measurement process can be completed using the projected orientation points as measurement points.

(d)標定処理において、プロジェクター12からカラーコード付きターゲットCT及びリファレンスポイントRFを投影する。ここで、カラーコード付きターゲットCTを照射された位置に貼り付ける。計測前準備で貼ってある場合はそれ以外の点に貼る。なお、投影されたパターンから計測する場合は貼り付ける必要はなく、これをステレオ撮影し、再度標定処理に利用する。 (D) In the orientation process, the color-coded target CT and the reference point RF are projected from the projector 12. Here, the color-coded target CT is pasted at the irradiated position. If it is affixed in preparation before measurement, affix it to other points. In addition, when measuring from the projected pattern, it is not necessary to paste, and this is stereo-photographed and used again for the orientation process.

(e)三次元計測において、プロジェクター12から計測用のパターンを投影する。この場合、例えばステレオマッチング用にランダムパターンなどを照射する。計測用パターンは、先にカメラコンディションにより必要精度が算出されており、その精度に見合った大きさの計測用パターンが照射される。これをステレオ撮影し、三次元計測に利用する。 (E) In the three-dimensional measurement, a measurement pattern is projected from the projector 12. In this case, for example, a random pattern is irradiated for stereo matching. The necessary accuracy of the measurement pattern is calculated in advance by the camera condition, and the measurement pattern having a size corresponding to the accuracy is irradiated. This is stereo-photographed and used for three-dimensional measurement.

(f)次の撮影位置に移動するときに、プロジェクター12によって次の撮影位置を概略ナビゲ−ションしてもよい。
なお、以上の処理を全自動化することも可能である。その場合、貼り付け作業は行わず、すべてプロジェクターからの投影パターンを用いて、計測前準備、標定及び三次元計測を行なう。
(F) When moving to the next photographing position, the next photographing position may be roughly navigated by the projector 12.
Note that the above processing can be fully automated. In that case, the pasting operation is not performed, and the pre-measurement preparation, the orientation, and the three-dimensional measurement are performed using the projection patterns from the projectors.

図14に、投影装置を利用する計測フローの例を示す。プロジェクター12で第1の計測パターン(予備測定用パターン等)を投影し、投影されたパターンの変形に基づき第2の計測パターン(精密測定用パターン等)を形成して投影するものである。
まず、撮影コンディションを入力する(S200)。撮像部10は、焦点距離可変の光学系で構成される。撮影コンディションは、撮像部10のカメラパラメータとして、使用するデジタルカメラの画素数、概略ピクセルサイズ、焦点距離、撮影距離、基線長、オーバラップ率のいずれか一つを入力すれば、平面分解能、奥行き分解能、画角、計測領域などを計算できる。すなわち、撮像部10における撮影範囲に応じて、投影部12は投影されるパターン範囲を設定することができる。これにより予備測定用パターンの計測点の配置、パターン密度を調整可能である。加えて、サイドラップ率、計測したい領域の大きさ等を入力すれば、撮影枚数が計算できる。あるいは、カメラパラメータと必要精度(画素分解能)などを入れてカメラの撮影距離、基線長などを計算することも可能である。
FIG. 14 shows an example of a measurement flow using the projection apparatus. The projector 12 projects a first measurement pattern (preliminary measurement pattern or the like), and forms and projects a second measurement pattern (precision measurement pattern or the like) based on the deformation of the projected pattern.
First, a photographing condition is input (S200). The imaging unit 10 is composed of an optical system with variable focal length. The imaging condition can be obtained by inputting one of the number of pixels of the digital camera to be used, the approximate pixel size, the focal length, the imaging distance, the base line length, and the overlap rate as the camera parameters of the imaging unit 10. Resolution, angle of view, measurement area, etc. can be calculated. That is, the projection unit 12 can set a pattern range to be projected according to the shooting range in the imaging unit 10. Thereby, the arrangement of the measurement points of the preliminary measurement pattern and the pattern density can be adjusted. In addition, the number of shots can be calculated by inputting the side wrap rate, the size of the area to be measured, and the like. Alternatively, it is also possible to calculate a camera shooting distance, a base line length, and the like by including camera parameters and necessary accuracy (pixel resolution).

次に、入力されたコンディションによってカメラパラメータを計算する(S210)。この場合、そのコンディションによって、平面画素分可能、奥行き分解能、一対のステレオ画像における計測範囲の大きさ、測定対象物全体の画像を得るための必要画像枚数などが算出される。
平面分解能、奥行き分解能の計算式は以下のとおりである(*は乗算演算子)。

Δxy(平面分解能)=δp(ピクセルサイズ)*H(撮影距離)/f(焦点距離)
Δz(奥行き分解能)=δp*H*H/(f*B(基線長:カメラ間距離))

次に、撮像部10のカメラパラメータの計算結果に合致するように、プロジェクター12の位置、投影条件を設定する(S220)。
Next, camera parameters are calculated according to the input conditions (S210). In this case, according to the condition, possible for a plane pixel, depth resolution, the size of a measurement range in a pair of stereo images, a necessary number of images for obtaining an image of the entire measurement object, and the like are calculated.
The calculation formulas for plane resolution and depth resolution are as follows (* is a multiplication operator).

Δxy (planar resolution) = δp (pixel size) * H (shooting distance) / f (focal length)
Δz (depth resolution) = δp * H * H / (f * B (base length: distance between cameras))

Next, the position of the projector 12 and the projection conditions are set so as to match the camera parameter calculation result of the imaging unit 10 (S220).

次に、プロジェクター12を撮影範囲表示モードとして、カメラ10で撮影する範囲を投影する(S230)。投影は左右のステレオカメラ10で撮影される範囲のみの照明となっていてもよい。この場合、先に入力したコンディションと使用するプロジェクター12の画角から自動的に計算してその範囲を照明もしくは表示する。左右の撮影範囲の重複範囲から標定や三次元計測可能な有効範囲が定まる。重複撮影範囲表示用パターンはステレオ画像の重複範囲(オーバーラップ部)を表示するもので、パターン投影制御部493により4個のカラーコード付きターゲットCTを投影し、図7(a)に示すように重複範囲の四隅に配置するように設定し、パターン形成部492でこの配置状態のパターンを重複撮影範囲表示用パターンとして形成する。そして各種計測パターンにこの重複撮影範囲表示用パターンを重ねて投影すると、又は各種計測パターンに重複撮影範囲表示用パターンと同じ位置に4個のカラーコード付きターゲットCTを追加して投影すると、ステレオ画像を撮影する際に4個のカラーコード付きターゲットCTを含めるように撮影でき、さらに、隣接する画像を接続できるようして、測定対象物全体に亘る一連のステレオ画像を撮影できる。   Next, the projector 12 is set in the shooting range display mode, and the range shot by the camera 10 is projected (S230). The projection may be illumination only in a range captured by the left and right stereo cameras 10. In this case, the range is illuminated or displayed automatically calculated from the previously input condition and the angle of view of the projector 12 to be used. The effective range where orientation and three-dimensional measurement are possible is determined from the overlapping range of the left and right shooting ranges. The overlapping imaging range display pattern displays the overlapping range (overlap portion) of the stereo image, and the pattern projection control unit 493 projects four color code target CTs, as shown in FIG. The patterns are set so as to be arranged at the four corners of the overlapping range, and the pattern forming unit 492 forms the pattern in this arrangement state as an overlapping photographing range display pattern. When the overlapping shooting range display pattern is superimposed on the various measurement patterns and projected, or when four color-coded target CTs are added and projected on the various measurement patterns at the same position as the overlapping shooting range display pattern, a stereo image is obtained. Can be photographed so as to include four color-coded target CTs, and a series of stereo images over the entire measurement object can be photographed so that adjacent images can be connected.

次に、投影された範囲がほぼ画面一杯に写るようにカメラ位置を設定する(S240)。この場合、重複撮影範囲表示用パターンにおける4個のカラーコード付きターゲットCTが確実に左右のステレオ撮影画面に入るように設定する。なお、先に入力されたコンディションで概略のカメラ位置は既知なので、それらのカメラコンディションを測定対象物に投影して確認できるようにそても良い。   Next, the camera position is set so that the projected range is almost full of the screen (S240). In this case, the four color-coded target CTs in the overlapping photographing range display pattern are set so as to surely enter the left and right stereo photographing screens. In addition, since the approximate camera position is known by the condition input previously, you may be able to project and confirm those camera conditions on a measurement object.

次に、投影モードをテクスチャー照明モードとして、テクスチャー用照明をプロジェクター12より投影する(S245)。テクスチャー用照明とは、有形のパターンを用いず、一様な照明光で対象物を照明するもので、測定対象物1にターゲットを貼り付ける位置を検討するためにも有効である。もし、撮影範囲を投影する工程(S230)で照明のみの投影を行なっている場合には、この作業は不要である。   Next, the illumination for texture is projected from the projector 12 using the projection mode as the texture illumination mode (S245). The texture illumination illuminates the object with uniform illumination light without using a tangible pattern, and is also effective for examining the position where the target is attached to the measurement object 1. If only the illumination is projected in the step of projecting the photographing range (S230), this operation is unnecessary.

次に、テクスチャー用の画像として1モデル(ステレオペア:2枚の画像)を撮影する(第1の撮影 S250)。テクスチャー画像が必要ないときは、ここで撮影しなくともよい。なお、テクスチャー照明モードで投影されたパターンの撮影画像から取得された色彩に基づいて、投影部12により投影するカラーコード付きターゲットCTの色彩を修正することも可能である。修正は例えばパターン形成部492で色彩修正部494を利用して行ない、パターン投影制御部493で修正された計測パターンを投影部12に投影させる。
なお、以上の工程は、図5の処理フローの前に、少なくとも撮影(S10)の前に行われる。
Next, one model (stereo pair: two images) is photographed as a texture image (first photographing S250). When a texture image is not necessary, it is not necessary to take a picture here. Note that the color of the target CT with the color code projected by the projection unit 12 can be corrected based on the color acquired from the captured image of the pattern projected in the texture illumination mode. For example, the correction is performed by the pattern forming unit 492 using the color correcting unit 494, and the measurement pattern corrected by the pattern projection control unit 493 is projected on the projection unit 12.
In addition, the above process is performed at least before photographing (S10) before the processing flow of FIG.

次に計測前準備(予備測定)(S255)について説明する。計測前準備を行う理由は、本番の標定や三次元計測を効率良く行えるようにするためである。したがって、対象物によって行っても行わなくともよい。あるいは一度やっておけば、類似の対象物を計測する場合には必要ない。   Next, preparation before measurement (preliminary measurement) (S255) will be described. The reason for preparing for measurement is to make it possible to efficiently perform actual orientation and three-dimensional measurement. Therefore, it may or may not be performed depending on the object. Or once you do it, you don't need to measure similar objects.

図15に計測前準備(S255)の処理フロー例を示す。計測前準備(S255)は図5の撮影(S10)の前に行われる。まず、プロジェクターの投影モードを計測モードとして、計測準備用パターンを投影する(S300)。なお、計測準備用パターンも計測パターンPの1態様である。図16に計測準備用パターンの例を示す。図16(a)は多数の小円をアレイ状に配置したパターン(小円パターンという)であり、図16(b)は格子パターンである。しかし、これらに限られるものではなく、測定対象物1の形状が目視、あるいは計算処理にてわかるパターンであればよい。すなわち、測定対象物の形状の起伏が存在する位置に適当な間隔でくまなく配置できるパターンであればよい。小円パターンや格子パターンの場合、計測対象物1の形状に応じて投影したパターンが変形するので、計測点の変位をパターンの変形点をチェックすることにより見出し、測定対象物1の形状の概略を把握できる。ここにおいて、変位とは測定対象物表面が投影光に垂直な平面に投影された場合の計測点からの変位をいう。   FIG. 15 shows an example of a processing flow of preparation before measurement (S255). The pre-measurement preparation (S255) is performed before the photographing (S10) in FIG. First, the measurement preparation pattern is projected using the projection mode of the projector as the measurement mode (S300). The measurement preparation pattern is also one mode of the measurement pattern P. FIG. 16 shows an example of a measurement preparation pattern. FIG. 16A shows a pattern in which many small circles are arranged in an array (referred to as a small circle pattern), and FIG. 16B shows a lattice pattern. However, it is not restricted to these, What is necessary is just a pattern which can understand the shape of the measuring object 1 visually or by calculation processing. In other words, any pattern may be used as long as it can be arranged at appropriate intervals at positions where the shape of the measurement object has undulations. In the case of a small circle pattern or a lattice pattern, the projected pattern is deformed according to the shape of the measurement object 1. Therefore, the displacement of the measurement point is found by checking the deformation point of the pattern, and the outline of the shape of the measurement object 1 is obtained. Can be grasped. Here, the displacement refers to the displacement from the measurement point when the surface of the measurement object is projected onto a plane perpendicular to the projection light.

撮影コンディション入力工程(S200)で撮影コンディションを入力しているので、この値から、標定点の大きさ、数、配置などを計算してパターン形成部492により計測パターンを形成し、パターン投影制御部493により投影部12に投影させても良い。また、同時にリファレンスポイントRFやカラーコード付きターゲットCTを格子の交差点や小円の重心点等に挿入又は置換して計測準備用パターンとしてもよいし、他の形状のものを挿入又は置換してもよい。   Since the photographing condition is input in the photographing condition input step (S200), the size, number, arrangement, and the like of the orientation points are calculated from this value, and the measurement pattern is formed by the pattern forming unit 492. The pattern projection control unit You may make it project on the projection part 12 by 493. At the same time, the reference point RF and the target CT with a color code may be inserted or replaced at the intersection of the lattice, the center of gravity of the small circle, or the like, or a measurement preparation pattern may be inserted, or another shape may be inserted or replaced. Good.

次に、パターンの変形点をチェックする(S310)。チェックは目視もしくは計算処理にて行う。ここでは、予備的におよその形状を予測できれば良いので、目視でも可能な場合が多い。計算処理の場合、ステレオカメラ10からの撮影画像をパターン検出部491にて格子の交差点や小円の重心点の変位を検出する。格子の交差点や小円の重心点は計測点に含まれる。例えば、格子の交差点や小円の重心点が等間隔でない箇所などを変形点(変位が生じている点)として検出すればよい。小円パターンの場合は重心位置検出アルゴリズムによって重心点を検出し、位置計測する。これにより、計測準備用パターンを第1の計測パターンPとし、格子の交差点や小円の重心点をその計測点Qとすれば、パターン検出部491で第1の計測パターンにおける計測点の変位が検出されることとなる。   Next, the deformation point of the pattern is checked (S310). Check by visual inspection or calculation. Here, it is only necessary to be able to predict an approximate shape on a preliminary basis, so it is often possible even visually. In the case of the calculation process, the pattern detection unit 491 detects the displacement of the intersection of the lattice and the center of gravity of the small circle in the captured image from the stereo camera 10. Grid intersections and small circle centroids are included in the measurement points. For example, what is necessary is just to detect as a deformation | transformation point (point where the displacement has arisen) etc. where the intersection of a grid | lattice and the gravity point of a small circle are not equal intervals. In the case of a small circle pattern, the center of gravity point is detected by the center of gravity position detection algorithm, and the position is measured. As a result, if the measurement preparation pattern is the first measurement pattern P, and the intersection of the lattice and the center of gravity of the small circle are the measurement points Q, the pattern detection unit 491 can change the displacement of the measurement points in the first measurement pattern. Will be detected.

変形点(変位が生じている点)が検出されたら、変形点にリファレンスポイントを貼り付ける、もしくは、計測準備用パターンにリファレンスポイントを追加する(S320)。チェックが目視の場合、変形点をチェックした時点でリファレンスポイントを貼り付けても良い。自動化処理の場合は、変位の大きさすなわち変形の大きさに応じて計測準備用パターンにリファレンスポイントを追加する。
このように、計測前準備を行うことにより、パターン変形点を事前に見出し、リファレンスポイントとして測定対象物1にターゲットを貼り付けたり、リファレンスポイントを追加した投影パターンを作成する、また、変形点付近のリファレンスポイントを増加する。これにより、標定や三次元計測を効果的に行うことができる。リファレンスポイントを追加した投影パターンを作成する場合には、これにより、パターン検出部491で検出された第1の計測パターンにおける計測点の変位に基づいて、パターン形成部492で計測点を追加した第2の計測パターンを形成することとなる。
When a deformation point (a point where displacement has occurred) is detected, a reference point is pasted on the deformation point or a reference point is added to the measurement preparation pattern (S320). When the check is visual, the reference point may be pasted when the deformation point is checked. In the case of automation processing, reference points are added to the measurement preparation pattern in accordance with the magnitude of displacement, that is, the magnitude of deformation.
In this way, by performing preparation before measurement, pattern deformation points are found in advance, a target is pasted on the measurement object 1 as a reference point, or a projection pattern with reference points added is created. Increase the reference point. Thereby, orientation and three-dimensional measurement can be performed effectively. When creating a projection pattern with reference points added, the pattern forming unit 492 adds the measurement points based on the displacement of the measurement points in the first measurement pattern detected by the pattern detection unit 491. 2 measurement patterns are formed.

図14のフローに戻り、次に、カラーコード付きターゲットCT及びリファレンスポイントRFを投影する(S260)。この工程は図5のS01に相当する。計測前準備が行われた場合には、その結果として、測定対象物1の変形点又は計測パターンPのこれに対応する点にリファレンスポイントRFが増加されている。ここで、カラーコード付きターゲットCTを測定対象物1の照射された位置に貼り付ける。前準備で貼ってある場合はそれ以外の点に貼る。なお、投影された計測パターンPを用いて計測する場合は貼り付ける必要はない。   Returning to the flow of FIG. 14, next, the color-coded target CT and the reference point RF are projected (S260). This step corresponds to S01 in FIG. When the pre-measurement preparation is performed, as a result, the reference point RF is increased to a deformation point of the measurement object 1 or a point corresponding to this of the measurement pattern P. Here, the color-coded target CT is attached to the irradiated position of the measurement object 1. If it is affixed in preparation, attach it to other points. In addition, when measuring using the projected measurement pattern P, it is not necessary to paste.

次に、ステレオ撮影する(第2の撮影 S270)。この工程は図5のS10に相当する。測定対象物に貼り付けられた又は計測パターンに追加されたカラーコード付きターゲットCT及びリファレンスポイントRFを含んで、第2の撮影がされる。この第2の撮影で得られた撮影画像は、標定に用いられ、効率的な標定が行われる(S275 図5のS11〜S30に相当する)。また、第2の撮影において使用された計測パターンを第1の計測パターンとして標定を行い、新たに標定点(計測点に含まれる)に変形点(変位が生じたもの)が見出され、これらの変形点付近のリファレンスポイントを増加した場合には、パターン検出部491で第1の計測パターンにおける計測点の変位が検出され、パターン形成部492でこの変位に基づいて計測点を追加した第2の計測パターンを形成することとなる。   Next, stereo shooting is performed (second shooting S270). This step corresponds to S10 in FIG. The second imaging is performed including the target CT with the color code attached to the measurement object or added to the measurement pattern and the reference point RF. The captured image obtained by the second imaging is used for orientation, and efficient orientation is performed (S275 corresponds to S11 to S30 in FIG. 5). Also, the measurement pattern used in the second imaging is standardized as the first measurement pattern, and new deformation points (displacements) are found at the orientation points (included in the measurement points). When the reference point near the deformation point is increased, the pattern detection unit 491 detects the displacement of the measurement point in the first measurement pattern, and the pattern formation unit 492 adds the measurement point based on this displacement. The measurement pattern is formed.

次に、投影モードを例えばランダムパターンモードとして、三次元計測用の計測パターンを投影する(S280)。この工程は図5のS01に相当する。この場合、例えばステレオマッチング(三次元計測)用にランダムパターンなどを照射する。計測パターンは、先にカメラコンディションにより必要精度が算出されているので、その精度に見合った大きさの計測パターンが照射される。計測前準備が行われた場合には、計測パターンにも、変形点にリファレンスポイントが増加されている。   Next, a measurement pattern for three-dimensional measurement is projected using the projection mode as a random pattern mode, for example (S280). This step corresponds to S01 in FIG. In this case, for example, a random pattern or the like is irradiated for stereo matching (three-dimensional measurement). Since the required accuracy of the measurement pattern is calculated in advance by the camera condition, the measurement pattern having a size corresponding to the accuracy is irradiated. When the pre-measurement preparation is performed, reference points are also added to the deformation points in the measurement pattern.

次に、ステレオ撮影する(第3の撮影 S290)。この工程は図5のS10に相当する。測定対象物に貼り付けられた又は計測パターンに追加されたカラーコード付きターゲットCT及びリファレンスポイントRFを含んで、第3の撮影がされる。この第3の撮影で得られた撮影画像は、三次元計測に用いられ、効率的なの形状計測が行われる(S295、図5のS42〜S50に相当する)。また、第3の撮影において使用された計測パターンを第1の計測パターンとして三次元計測を行い、新たに計測点に変形点(変位が生じたもの)が見出され、これらの変形点付近のリファレンスポイントを増加した場合には、パターン検出部491で第1の計測パターンにおける計測点の変位が検出され、パターン形成部492でこの変位に基づいて計測点を追加した第2の計測パターンを形成することとなる。
この設置位置で計測が行われたら、つぎの撮影位置に移動する(S298)。すなわち、S220に戻って(場合によりS200に戻って)、測定対象物全体の三次元データを得るまで、撮影が繰り返される。
Next, stereo shooting is performed (third shooting S290). This step corresponds to S10 in FIG. The third imaging is performed including the target CT with the color code attached to the measurement object or added to the measurement pattern and the reference point RF. The captured image obtained by the third imaging is used for three-dimensional measurement, and efficient shape measurement is performed (S295, corresponding to S42 to S50 in FIG. 5). In addition, three-dimensional measurement is performed using the measurement pattern used in the third imaging as the first measurement pattern, and new deformation points (displacements) are found at the measurement points. When the reference point is increased, the pattern detection unit 491 detects the displacement of the measurement point in the first measurement pattern, and the pattern formation unit 492 forms a second measurement pattern in which the measurement point is added based on this displacement. Will be.
When measurement is performed at this installation position, the camera moves to the next shooting position (S298). That is, returning to S220 (returning to S200 in some cases), imaging is repeated until three-dimensional data of the entire measurement object is obtained.

このときプロジェクターによって次の撮影位置についてナビゲーションしてもよい。ナビゲーションとは例えば、投影された格子状パターンの歪具合から、標定点の数、配置を選択してラフ測定を行い、標定点の配置を検討したり、ミスマッチング領域を探して標定点の増加を検討したりすることをいう。すなわちナビゲーションの結果により、パターンの貼付位置又は投影位置が定められる。   At this time, navigation may be performed for the next shooting position by the projector. Navigation is, for example, selecting the number and location of orientation points based on the degree of distortion of the projected grid pattern, performing rough measurements, examining the location of orientation points, or searching for mismatched areas and increasing the orientation points Or to consider. That is, the paste position or projection position of the pattern is determined according to the result of navigation.

なお、第2の計測パターンを形成するに際し、計測点を減少又は変更することも可能である。例えば、リファレンスポイントをカラーコード付きターゲットに変更する、カラーコード付きターゲットのカラーコードパターンを変更する、特徴点付近の計測点を特徴点に移動する、前段階に戻って計測を行なうため、リファレンスポイントを減少する、標定不良点を削除するなどの場合がある。
図14の処理を全自動化することも可能である。その場合、ターゲットの貼り付けは行わず、すべてプロジェクターからの投影パターンを用いて計測準備、標定及び三次元計測を行なう。また、図5の処理フローにおいて投影装置の利用によりカラーコード付き標識貼り付け(S01)がカラーコード付き標識投影に代えられれば、このフローの全自動化も可能である)。
In forming the second measurement pattern, the measurement points can be reduced or changed. For example, change the reference point to a target with a color code, change the color code pattern of a target with a color code, move a measurement point near a feature point to a feature point, or return to the previous stage to perform measurement. There are cases where the orientation defect is deleted or the orientation defect point is deleted.
It is also possible to fully automate the process of FIG. In this case, the target is not attached, and measurement preparation, orientation, and three-dimensional measurement are performed using the projection pattern from the projector. In addition, if the labeling with color code (S01) is replaced with the labeling with color code by using the projection device in the processing flow of FIG. 5, this flow can be fully automated).

[カラーコード付きターゲットの検出フロー]
次に、カラーコード付きターゲットの検出フローについて説明する。カラーコード付きターゲットの検出はマニュアルもしくは自動処理で行う。自動処理の場合、カラーコード付きターゲットCTの色識別数もしくは撮影方法により異なったものとなる。まず最初に、カラーコード付きターゲットCTの色識別数が多い場合について説明する。この場合、撮影の順番に制約はなく、全自動処理が可能となる。
[Detection flow of target with color code]
Next, a detection flow of a target with a color code will be described. Detection of a target with a color code is performed manually or automatically. In the case of automatic processing, it differs depending on the number of color identifications of the color-coded target CT or the imaging method. First, a case where the number of color identifications of the color-coded target CT is large will be described. In this case, there is no restriction on the order of shooting, and fully automatic processing is possible.

図17にカラーコード付きターゲットの検出のフロー例を示す。図5のS14〜S15の工程の例である。
まず、処理対象のカラー画像(撮影画像又はモデル画像)を抽出部41の読込画像記憶部141に読み込む(S500)。次に、読込まれた各画像よりカラーコード付きターゲットCTを抽出する(S510)。
FIG. 17 shows a flow example of detection of a target with a color code. It is an example of the process of S14-S15 of FIG.
First, a color image (photographed image or model image) to be processed is read into the read image storage unit 141 of the extraction unit 41 (S500). Next, a target CT with a color code is extracted from each read image (S510).

探索方法は、(1)カラーコード付きターゲットCT中の位置検出用パターン(レトロターゲット)P1を探索する方法、(2)カラーコード部P3の色分散を検出する方法、あるいは(3)彩色された位置検出用パターンを用いる方法など種々の方法がある。   The search method is (1) a method for searching for a position detection pattern (retro target) P1 in a color-coded target CT, (2) a method for detecting chromatic dispersion of the color code portion P3, or (3) a coloration. There are various methods such as a method using a position detection pattern.

(1)カラーコード付きターゲットCTにレトロターゲットが含まれている場合は、明度差が鮮明なパターンを使用するので、カメラの絞りを絞りフラッシュ撮影することにより、レトロターゲットのみが光った画像を取得でき、この像を2値化することにより簡単にレトロターゲットを検出できる。   (1) When a retro-target is included in the color-coded target CT, a pattern with a clear brightness difference is used. The retro target can be easily detected by binarizing this image.

図18はレトロターゲットを用いた重心位置検出の説明図で、(A1)は内円部204の明度が明るく、外円部206の明度が暗いレトロターゲット、(A2)は(A1)のレトロターゲットの直径方向の明度分布図、(B1)は内円部204の明度が暗く、外円部206の明度が明るいレトロターゲット、(B2)は(B1)のレトロターゲットの直径方向の明度分布図を示している。レトロターゲットが図18(A1)のように内円部204の明度が明るい場合は、測定対象物1の撮影画像において重心位置での反射光量が多く明るい部分になっているため、画像の光量分布が図18(A2)のようになり、光量分布の閾値Toからレトロターゲットの内円部204や中心位置を求めることが可能となる。   FIG. 18 is an explanatory diagram of the center-of-gravity position detection using a retro target. (A1) is a retro target in which the brightness of the inner circle portion 204 is bright and the brightness of the outer circle portion 206 is dark, and (A2) is the retro target in (A1). (B1) is a retro target in which the brightness of the inner circle portion 204 is dark and the brightness of the outer circle portion 206 is bright, and (B2) is a brightness distribution diagram in the diameter direction of the retro target of (B1). Show. When the lightness of the inner circle portion 204 is bright as shown in FIG. 18A1, the retro target has a bright portion with a large amount of reflected light at the position of the center of gravity in the captured image of the measurement object 1, and thus the light amount distribution of the image. As shown in FIG. 18A2, it is possible to obtain the inner circle portion 204 and the center position of the retro target from the threshold value To of the light amount distribution.

ターゲットの存在範囲が決定されると、例えばモーメント法によって重心位置を算出する。例えば、図18(A1)に表記されたレトロターゲット200の平面座標を(x、y)とする。そして、レトロターゲット200の明度が、しきい値To以上のx、y方向の点について、(式1)、(式2)を演算する。
xg={Σx*f(x、y)}/Σf(x、y) −−−−(式1)
yg={Σy*f(x、y)}/Σf(x、y) −−−−(式2)
ここに、(xg、yg)は重心位置の座標、f(x、y)は(x、y)座標上の濃度値である。
なお、図18(B1)に表記されたレトロターゲット200の場合は、明度がしきい値To以下のx、y方向の点について、(式1)、(式2)を演算する。
これにより、レトロターゲット200の重心位置が求まる。
When the target existence range is determined, the barycentric position is calculated by, for example, the moment method. For example, the plane coordinates of the retro target 200 shown in FIG. 18 (A1) are (x, y). Then, (Expression 1) and (Expression 2) are calculated for points in the x and y directions where the brightness of the retro target 200 is greater than or equal to the threshold value To.
xg = {Σx * f (x, y)} / Σf (x, y) ---- (Equation 1)
yg = {Σy * f (x, y)} / Σf (x, y) ---- (Formula 2)
Here, (xg, yg) is the coordinates of the center of gravity position, and f (x, y) is the density value on the (x, y) coordinates.
In the case of the retro target 200 shown in FIG. 18B1, (Expression 1) and (Expression 2) are calculated for points in the x and y directions whose lightness is equal to or less than the threshold value To.
Thereby, the position of the center of gravity of the retro target 200 is obtained.

(2)通常、カラーコード付きターゲットCTのカラーコード部には多数のコード色が使用され、色の分散値が大であるという特徴がある。このため、分散値の大きい箇所を画像中から見出すことにより、カラーコード付きターゲットCTを検出できる。
(3)カラーコード付きターゲットCTに使用している3隅のレトロターゲットに異なる色をもたせ、それぞれのレトロターゲットが反射する色を異なるものにする。3隅のレトロターゲットに異なる色をもたせているため、1つのカラーコード付きターゲットに属する各レトロターゲットを判別しやすい。レトロターゲットグループ化処理において、多数のレトロターゲットを使用する場合にも、異なる色のレトロターゲットで一番距離が近いものをグループ候補として選択することにより、処理が簡単になる。
(2) Usually, the color code portion of the color-coded target CT uses a large number of code colors and has a feature that the color dispersion value is large. For this reason, the target CT with a color code can be detected by finding a portion having a large dispersion value from the image.
(3) The retro-targets at the three corners used in the color-coded target CT have different colors, and the colors reflected by the respective retro targets are made different. Since the retro targets at the three corners have different colors, it is easy to distinguish each retro target belonging to one color code target. In the retro target grouping process, even when a large number of retro targets are used, the process can be simplified by selecting the retro targets of different colors that are closest to each other as group candidates.

リファレンスポイントRFとして多数のレトロターゲットを用いる場合には、カラーコード付きターゲットCTのレトロターゲットと単体のレトロターゲットが混在するので、カラーコード付きターゲットCTのレトロターゲットを彩色したレトロターゲットとし、単体のレトロターゲットを白色とすれば、判別し易い。   When a large number of retro targets are used as the reference point RF, the retro target of the color code target CT and the single retro target are mixed, so that the retro target of the color code target CT is colored as a single retro target. If the target is white, it is easy to distinguish.

ここでは、(1)の例について説明する。図17において、レトロターゲット検出処理部111は、カラー画像中から検出した複数のレトロターゲットの座標を読込画像記憶部141に保存する。
次に、レトロターゲットグループ化処理部120は、読込画像記憶部141に保存されたレトロターゲットの座標から、探索処理部110で検出したレトロターゲットが同じカラーコード付きターゲットCTに属すると判断されたもの(例えば座標がカラーコード付きターゲットCT内にあるもの)を同一グループに属する候補としてグループ化し、読込画像記憶部141にその候補の組み合わせ(3個1組)をグループとして保存する(S520)。確認は、例えば、検出したカラーコード付きターゲットCT内の3個のレトロターゲット間の距離及び3個のレトロターゲットを結ぶ三角形の頂角を計測することにより可能である(S530参照)。
さらに、検出したカラーコード付きターゲットCTのパターンをカラーコード付きターゲット対応表142と照合することにより、どの種別のカラーコード付きターゲットであるかを確認する。
Here, the example (1) will be described. In FIG. 17, the retro target detection processing unit 111 stores the coordinates of a plurality of retro targets detected from the color image in the read image storage unit 141.
Next, the retro target grouping processing unit 120 determines from the retro target coordinates stored in the read image storage unit 141 that the retro target detected by the search processing unit 110 belongs to the same color coded target CT. (For example, those whose coordinates are in the color-coded target CT) are grouped as candidates belonging to the same group, and the combination of the candidates (one set of three) is stored as a group in the read image storage unit 141 (S520). The confirmation can be performed, for example, by measuring the distance between the three retro targets in the detected color-coded target CT and the apex angle of the triangle connecting the three retro targets (see S530).
Further, by comparing the detected pattern of the target CT with color code with the target table 142 with color code, it is confirmed which type of target with the color code.

次に、カラーコード付きターゲット検出処理部130は、領域方向検出処理部131において読込画像記憶部141に保存された、レトロターゲットのグループ単位にレトロターゲットの重心位置からカラーコード付きターゲットCTの領域と方向を求める(S530)。この領域と方向を求める前又は後に、色彩検出処理部311で基準色部P2、カラーコード部P3、画像中の測定対象物1の色彩を検出する。必要であれば、色彩補正部312で基準色部P2の色を基準にしてカラーコード部P3や画像中の測定対象物1の色彩を補正する。また、基準にならない印刷色のカラーコード付きターゲットを使用した場合には、その基準色部を併せて補正する。そして確認処理部313において、グループ化が適正に行なわれたか、すなわち、一旦グループ化されたレトロターゲットの重心位置が同じカラーコード付きターゲットCTに属するか否かを確認する。同じグループに属すると判別された場合は次の識別コード判別処理(S535)に進み、同じグループに属さないと判別された場合には、再度グループ化処理(S520)に戻る。   Next, the target detection processing unit with color code 130 stores the region of the target CT with color code from the center of gravity position of the retro target in units of retro targets stored in the read image storage unit 141 in the region direction detection processing unit 131. A direction is obtained (S530). Before or after obtaining the area and direction, the color detection processing unit 311 detects the color of the reference color part P2, the color code part P3, and the measurement object 1 in the image. If necessary, the color correction unit 312 corrects the color of the color code portion P3 and the measurement object 1 in the image based on the color of the reference color portion P2. In addition, when a target with a color code of a print color that is not a reference is used, the reference color portion is corrected together. Then, the confirmation processing unit 313 confirms whether the grouping is performed properly, that is, whether the center of gravity of the retro targets once grouped belongs to the same color code target CT. If it is determined that they belong to the same group, the process proceeds to the next identification code determination process (S535). If it is determined that they do not belong to the same group, the process returns to the grouping process (S520) again.

図19、図20にカラーコード付きターゲット領域方向検出処理部131の処理フロー例を示す。また、図21、図22でレトロターゲットのコード読み込みを説明する。ここでは、図3(a)のカラーコード付きターゲットCT1からコードを読み込む手続きについて説明する。
カラーコード付きターゲットCT1からコードを読み込むには、カラーコード付きターゲットCT1の領域と方向を知る必要があるため、3つの位置検出用レトロターゲットの重心点をR1,R2,R3にラベリングする(図21(a)参照)。
19 and 20 show an example of a processing flow of the target area direction detection processing unit 131 with a color code. The retro target code reading will be described with reference to FIGS. Here, a procedure for reading a code from the color-coded target CT1 in FIG.
In order to read the code from the color-coded target CT1, it is necessary to know the area and direction of the color-coded target CT1, and therefore, the center points of the three position detection retro targets are labeled R1, R2, and R3 (FIG. 21). (See (a)).

ラベリング方法は、対象の3つのレトロターゲットの重心点R1〜R3を通る三角形を作成する(S600)。3つのレトロターゲットの重心点R1〜R3の中から適当に1つを選んでT1と仮にラベリングし(S610)、残りの2つの重心点を時計回りにT2,T3と仮にラベリングをする(S612、図21(b)参照)。
次に、それぞれの重心点を通る辺をラベリングする。T1とT2を通る辺をL12、T2とT3を通る辺をL23、T3とT1を通る辺をL31とする(S614、図22(a)参照)。
The labeling method creates a triangle that passes through the center-of-gravity points R1 to R3 of the three retro targets of interest (S600). Appropriately select one of the centroid points R1 to R3 of the three retro targets and temporarily label it with T1 (S610), and temporarily label the remaining two centroid points with T2 and T3 (S612, (Refer FIG.21 (b)).
Next, the sides passing through the barycentric points are labeled. The side passing through T1 and T2 is L12, the side passing through T2 and T3 is L23, and the side passing through T3 and T1 is L31 (S614, see FIG. 22A).

次に、三角形の内側を各頂点(重心点)から半径R離れた画素値を弧状にスキャンをして、スキャンした範囲で色の変化みる(図22(b)参照)。
重心点T1では、L12からL31を時計回りに、重心点T2では、L23からL12を時計回りに、重心点T3では、L31からL23を時計回りにスキャンをする(S620〜S625)。
半径の決め方は、スキャンをする角度に応じて画像上でレトロターゲットのサイズに倍率をかけて決める。レトロターゲットを斜め方向から撮影された場合は楕円になるため、スキャン範囲も楕円形状になる。倍率は、レトロターゲットのサイズと、レトロターゲット重心位置と基準色部P2の距離によって決められる。
Next, the inside of the triangle is scanned in an arc shape for pixel values that are separated from each vertex (center of gravity) by a radius R, and the color changes within the scanned range (see FIG. 22B).
At the center of gravity T1, L12 to L31 are scanned clockwise, at the center of gravity T2, L23 to L12 are scanned clockwise, and at the center of gravity T3, L31 to L23 are scanned clockwise (S620 to S625).
The method of determining the radius is determined by multiplying the size of the retro target on the image according to the scanning angle. When the retro target is photographed from an oblique direction, it becomes an ellipse, so the scan range is also an ellipse. The magnification is determined by the size of the retro target and the distance between the retro target center of gravity position and the reference color portion P2.

ラベリングの確認処理は、確認処理部313により行われる。スキャンの結果に色の変化があった重心点をR1とし、残りの2つの重心点は、色の変化があった重心点から時計回りにラベリングしてR2、R3とする(S630〜S632)。この例では、重心点T2をR1、重心点T3をR2、重心点T1をR3とする。色の変化があった重心点が1つ、色の変化がない重心点が2つ検出されなかった場合は、レトロターゲットの組み合わせエラーとなり(S633)、3組のレトロターゲットを新たに選出して(S634)、S600に戻る。このように、処理の結果から、選ばれた3つレトロターゲットが、同じカラーコード付きターゲットCT1に属するか否かも確認できる。このようにしてレトロターゲットのグループ化が確定する。
上記のラベリング方法は、図3(a)のカラーコード付きターゲットCT1を例に説明したが、他の、カラーコード付きターゲットCTについても、一部の処理を変えることにより同様の処理ができる。
The confirmation processing for labeling is performed by the confirmation processing unit 313. The barycentric point having the color change in the scan result is set as R1, and the remaining two barycentric points are labeled R2 and R3 by clockwise labeling from the barycentric point having the color change (S630 to S632). In this example, the center of gravity T2 is R1, the center of gravity T3 is R2, and the center of gravity T1 is R3. If one centroid point with a color change and two centroid points with no color change are not detected, a retro target combination error occurs (S633), and three new retro targets are selected. (S634), the process returns to S600. Thus, it can be confirmed from the processing results whether the three selected retro targets belong to the same color-coded target CT1. In this way, the retro target grouping is determined.
Although the above-described labeling method has been described using the color-coded target CT1 in FIG. 3A as an example, the same processing can be performed for other color-coded targets CT1 by changing a part of the processing.

[コードの識別]
図17に戻り、識別コード判別部46は、抽出部41で抽出されたカラーコード付きターゲットCT1について、座標変換処理部321においてグループ化されたレトロターゲットの重心位置に基づいて、カラーコード付きターゲットCT1の設計値にあうように座標変換し、次に、コード変換処理部322において、カラーコードを識別し(S535)、コード変換してカラーコード付きターゲットCT1の識別コードを求め(S540)、読込画像記憶部141に保存する(S545)。
[Identification of code]
Returning to FIG. 17, the identification code determination unit 46 sets the target CT1 with color code based on the barycentric positions of the retro targets grouped by the coordinate conversion processing unit 321 with respect to the target CT1 with color code extracted by the extraction unit 41. Then, the code conversion processing unit 322 identifies the color code (S535), performs code conversion to obtain the identification code of the target CT1 with the color code (S540), and reads the read image. The data is stored in the storage unit 141 (S545).

図20でこの処理フローを説明する。曲面に貼付された、斜め方向から撮影された等により、形に歪のあるカラーコード付きターゲットの撮影画像を、ラベルR1,R2,R3を用いて、歪のない正面図に座標変換する(S640)。座標変換することより、カラーコード付きターゲットの設計値を参照して、レトロターゲット部P1・基準色部P2・カラーコード部P3・白色部P4を判別しやすくなり、後の処理が進め易くなる。   This processing flow will be described with reference to FIG. The photographed image of the target with the color code that is distorted in shape, such as affixed to the curved surface or photographed from an oblique direction, is converted into a front view without distortion using the labels R1, R2, and R3 (S640). ). By converting the coordinates, the retro target portion P1, the reference color portion P2, the color code portion P3, and the white portion P4 can be easily identified with reference to the design value of the target with color code, and the subsequent processing can be easily performed.

次に、座標変換されたカラーコード付きターゲットCT1上で、設計値どおりに白色部P4があるか確認をする(S650)。設計値どおりでない場合は検出エラーとなる(S633)。設計値どおりに白色部P4がある場合は、カラーコード付きターゲットCT1が検出されたと判断される(S655)。   Next, it is checked whether or not there is a white portion P4 as designed on the coordinate-converted target CT1 with color code (S650). If it is not as designed, a detection error occurs (S633). If the white portion P4 is present as designed, it is determined that the color-coded target CT1 has been detected (S655).

次に、色彩補正され、領域と方向がわかったカラーコード付きターゲットCT1のカラーコードの判別をする。
カラーコード部P3は、その各単位領域への配色の組み合わせによってコードを表現する。例えば、コード色数がnで単位領域が3個の場合、n×n×nのコードを表せ、他の単位領域に使用されている色を重複して使用しないという条件を課した場合は、n×(n−1)×(n−2)のコードを表せる。コード色数がn、単位領域がn個で、色を重複して使用しないという条件を課した場合は、nの階乗通りのコードを表現できる。
識別コード判別部46は、コード変換処理部322において、カラーコード部P3における単位領域の配色の組み合わせを、カラーコード付きターゲット対応表142の配色の組み合わせと比較・照合して識別コードを判別する。
Next, the color code of the color-coded target CT1 whose color and color correction have been performed and whose region and direction are known is determined.
The color code part P3 expresses a code by a combination of color schemes for each unit area. For example, when the number of code colors is n and the number of unit areas is three, a code of n × n × n can be expressed, and when the condition that the colors used in other unit areas are not used redundantly is imposed, A code of n × (n−1) × (n−2) can be expressed. When the number of code colors is n, the number of unit areas is n, and the condition that the colors are not used redundantly is imposed, a code corresponding to the factorial of n can be expressed.
In the code conversion processing unit 322, the identification code determination unit 46 determines the identification code by comparing / collating the color combination of the unit area in the color code unit P 3 with the color combination of the color code target correspondence table 142.

色彩の判別方法は、(1)基準色部P2の色とカラーコード部P3の色を比較して決める相対比較方法と、(2)基準色部P2の色と白色部P4の色を使ってカラーコード付きターゲットCT1の色補正を行い、その補正された色でカラーコード部P3のコードの判別をする絶対比較方法の、二つの方法がある。例えば、カラーコード部P3に使用する色数が少ない場合は基準色を相対比較の比較色として使用し、カラーコード部P3に使用する色数が多い場合は、色を補正するためにキャリブレーション用の色として絶対比較の比較色として使用する。前述のように、色彩の検出は色彩検出処理部311で、色補正は色彩補正部312で行う。   Color discrimination methods include (1) a relative comparison method in which the color of the reference color portion P2 and the color of the color code portion P3 are compared, and (2) the color of the reference color portion P2 and the color of the white portion P4. There are two methods: an absolute comparison method in which color correction of the color-coded target CT1 is performed and the code of the color code portion P3 is discriminated with the corrected color. For example, when the number of colors used for the color code portion P3 is small, the reference color is used as a comparative color for relative comparison, and when the number of colors used for the color code portion P3 is large, calibration is performed to correct the colors. Used as a comparative color for absolute comparison. As described above, color detection is performed by the color detection processing unit 311, and color correction is performed by the color correction unit 312.

識別コード判別部46は、コード変換処理部322において、(1)、(2)どちらかの方法を使用して、基準色部P2とカラーコード部P3を検出し(S660、S670)、カラーコード部P3の各色を判別し(図17のS535)、色をコードに変換して、対象のカラーコード付きターゲットCT1の識別コードを求める(S680、図17のS540)。
そして画像ごとに、当該画像に含まれるカラーコード付きターゲットCT1の番号をパターン情報記憶部47に登録する(図17のS545)。パターン情報記憶部47に登録されたデータは、標定や三次元計測で使用され、効率化が図られる。
In the code conversion processing unit 322, the identification code determination unit 46 detects the reference color part P2 and the color code part P3 using either the method (1) or (2) (S660, S670), and the color code. Each color of the part P3 is discriminated (S535 in FIG. 17), and the color is converted into a code to obtain the identification code of the target CT1 with the color code (S680, S540 in FIG. 17).
For each image, the number of the color-coded target CT1 included in the image is registered in the pattern information storage unit 47 (S545 in FIG. 17). The data registered in the pattern information storage unit 47 is used for orientation and three-dimensional measurement to improve efficiency.

[三次元計測用パターン投影方法]
図23に本実施の形態における三次元計測用パターンの投影方法(計測前準備を行なう)の処理フロー例を示す。本実施の形態は、プロジェクター12で第1の計測パターン(予備測定用パターン等)を投影し、投影されたパターンの変形に基づき第2の計測パターン(精密測定用パターン等)を形成して投影するものである。
まず、パターン記憶部495に測定対象物表面に計測点を表示する計測パターンを複数記憶する(パターン記憶工程:S710)。次に、パターン投影制御部493は投影部12に複数の計測パターンのうちの1つを第1の計測パターンとして投影させる(第1の投影工程:S720)。次に、撮像部10は投影工程で投影された第1の計測パターンを撮影する(撮像工程:S730)。次に、パターン検出部491は撮像工程により撮影された第1の計測パターンの撮影画像から計測点を検出する(パターン検出工程:S740)。次に、パターン検出部491はパターン検出工程で検出された第1の計測パターンにおける計測点の変位を検出する(変位検出工程:S750)。次に、パターン形成部492は検出された第1の計測パターンにおける計測点の変位に基づいて計測点を追加、削除又は変更した第2の計測パターンを形成する(パターン形成工程:S760)。次に、パターン投影制御部493は投影部12に第2の計測パターンを投影させる(第2の投影工程:S770)。
このように、投影装置を活用して、計測前準備を行い、標定又は三次元計測に用いるターゲットパターンを再構成することにより、様々な対象に対して非接触三次元測定を適切化かつ自動化することができる。
[Pattern projection method for 3D measurement]
FIG. 23 shows an example of a processing flow of the method for projecting a three-dimensional measurement pattern (preparation before measurement) in the present embodiment. In the present embodiment, the projector 12 projects a first measurement pattern (preliminary measurement pattern or the like), and forms and projects a second measurement pattern (precision measurement pattern or the like) based on the deformation of the projected pattern. To do.
First, a plurality of measurement patterns for displaying measurement points on the surface of the measurement object are stored in the pattern storage unit 495 (pattern storage step: S710). Next, the pattern projection control unit 493 causes the projection unit 12 to project one of the plurality of measurement patterns as a first measurement pattern (first projection step: S720). Next, the imaging unit 10 captures the first measurement pattern projected in the projection process (imaging process: S730). Next, the pattern detection unit 491 detects measurement points from the captured image of the first measurement pattern captured by the imaging process (pattern detection process: S740). Next, the pattern detection unit 491 detects the displacement of the measurement point in the first measurement pattern detected in the pattern detection process (displacement detection process: S750). Next, the pattern forming unit 492 forms a second measurement pattern in which measurement points are added, deleted, or changed based on the detected displacement of the measurement points in the first measurement pattern (pattern formation step: S760). Next, the pattern projection control unit 493 causes the projection unit 12 to project the second measurement pattern (second projection step: S770).
In this way, by utilizing the projection device, pre-measurement preparation is performed, and the target pattern used for orientation or three-dimensional measurement is reconfigured to optimize and automate non-contact three-dimensional measurement for various objects. be able to.

図24に本実施の形態における三次元計測用パターンの投影方法(カラーコード付きターゲットを投影)の別の処理フロー例を示す。本実施の形態は、プロジェクター12でカラーコード付き標識を含む計測パターンを形成して投影するものである。
まず、パターン形成部492において、計測位置を示すための位置検出用パターンP1と標識を識別するための複数の色彩が施されたカラーコードパターンP3とを有するカラーコード付き標識CTを含む計測パターンを形成する(パターン形成工程:S810)。次に、パターン投影制御部493は投影部12にパターン形成工程で形成された計測パターンを投影する(投影工程:S840)。次に、撮像部10は投影工程により投影された計測パターンを撮影する(撮像工程:S850)。次に、パターン検出部492は撮像工程により撮影された計測パターンの撮影画像から位置検出用パターンP1とカラーコードパターンP3を検出し、カラーコードを識別する(パターン検出工程:S860)。
FIG. 24 shows another processing flow example of the method for projecting a three-dimensional measurement pattern (projecting a target with a color code) in the present embodiment. In the present embodiment, a measurement pattern including a sign with a color code is formed and projected by the projector 12.
First, in the pattern forming unit 492, a measurement pattern including a color code marker CT having a position detection pattern P1 for indicating a measurement position and a color code pattern P3 on which a plurality of colors for identifying the marker is applied. It forms (pattern formation process: S810). Next, the pattern projection control unit 493 projects the measurement pattern formed in the pattern formation process onto the projection unit 12 (projection process: S840). Next, the imaging unit 10 captures the measurement pattern projected by the projection process (imaging process: S850). Next, the pattern detection unit 492 detects the position detection pattern P1 and the color code pattern P3 from the captured image of the measurement pattern captured in the imaging process, and identifies the color code (pattern detection process: S860).

このように、カラーコード付きターゲットを使用することにより、各ターゲットを容易に識別でき、広域の測定対象物の画像を自動接続することにより、標定や三次元計測を効率化、自動化することができる。   In this way, each target can be easily identified by using a target with a color code, and orientation and three-dimensional measurement can be made efficient and automated by automatically connecting an image of a measurement object in a wide area. .

〔第2の実施の形態〕
第1の実施の形態では、計測パターンをパターン形成部で形成する例を説明したが、多数の計測パターンをパターン記憶部に記憶しておき、その中から条件に応じて最も適切な計測パターンをパターン選択部で選択して投影する例を説明する。またパターン形成部で形成した計測パターンをパターン記憶部に記憶することも可能な構成とする。
[Second Embodiment]
In the first embodiment, the example in which the measurement pattern is formed by the pattern forming unit has been described. However, a large number of measurement patterns are stored in the pattern storage unit, and the most appropriate measurement pattern is selected according to the conditions. An example of selecting and projecting by the pattern selection unit will be described. In addition, the measurement pattern formed by the pattern forming unit can be stored in the pattern storage unit.

図25に本実施の形態における三次元計測用パターン投影装置80Aの構成例を、図26に本実施の形態における三次元計測システム100Aの全体構成例のブロック図を示す。第1の実施の形態に比して、計算処理部49において、パターン記憶部495とパターン選択部496が追加されている。パターン記憶部495は多数の計測パターン、ランダムパターン、重複撮影範囲表示用パターン、テクスチャー用照明パターン等の各種パターンを記憶する。パターン形成部492で形成した各種パターンも記憶する。パターン選択部496は、パターン記憶部495に記憶された計測パターンの中から投影する計測パターンを適宜選択する。パターン投影制御部493は投影部12を制御して、パターン選択部496で選択された計測パターンを投影させる。パターン検出部491から、第1の計測パターンにおける計測点の変位が大きいと通知を受けたときには、パターン選択部496は、パターン記憶部495に記憶された計測パターンの中から変位部分に位置計測用パターンが多いものを選択して、第3の計測パターンとして選択する。パターン投影制御部493はパターン選択部496で選択された第3の計測パターンを投影部12に投影させる。パターン記憶部495に適当なパターンが見出されない場合には、パターン形成部492は第1の計測パターンを基に変位部分に計測点を追加して新たな第2の計測パターンを形成する。この場合、パターン投影制御部493はパターン形成部492で形成された第2の計測パターンを投影部12に投影させる。   FIG. 25 shows a configuration example of the three-dimensional measurement pattern projection apparatus 80A in the present embodiment, and FIG. 26 shows a block diagram of an overall configuration example of the three-dimensional measurement system 100A in the present embodiment. As compared with the first embodiment, a pattern storage unit 495 and a pattern selection unit 496 are added in the calculation processing unit 49. The pattern storage unit 495 stores various patterns such as a large number of measurement patterns, random patterns, overlapping shooting range display patterns, and texture illumination patterns. Various patterns formed by the pattern forming unit 492 are also stored. The pattern selection unit 496 appropriately selects a measurement pattern to be projected from the measurement patterns stored in the pattern storage unit 495. The pattern projection control unit 493 controls the projection unit 12 to project the measurement pattern selected by the pattern selection unit 496. When the pattern detection unit 491 receives notification from the pattern detection unit 491 that the displacement of the measurement point in the first measurement pattern is large, the pattern selection unit 496 uses the measurement pattern stored in the pattern storage unit 495 for position measurement. A pattern with many patterns is selected and selected as the third measurement pattern. The pattern projection control unit 493 causes the projection unit 12 to project the third measurement pattern selected by the pattern selection unit 496. If an appropriate pattern is not found in the pattern storage unit 495, the pattern forming unit 492 forms a new second measurement pattern by adding measurement points to the displacement portion based on the first measurement pattern. In this case, the pattern projection control unit 493 causes the projection unit 12 to project the second measurement pattern formed by the pattern forming unit 492.

また、パターン記憶部495はカラーコード付きターゲットCT、単色ターゲットパターンを含む計測パターンを記憶する。これらの配置や彩色は多種多様である。パターン選択部496は、パターン記憶部495に記憶された多種多様の計測パターンから投影する計測パターンを適宜選択する。パターン投影制御部493はパターン選択部496で選択された計測パターンを投影部12に投影させる。また、パターン記憶部495はカラーコード付きターゲット、単色ターゲットパターンなどのパターン要素を記憶し、パターン形成部492はこれらの要素を用いてパターンを編集したり、形成したりすることができる。パターン形成部が形成した計測パターンはパターン記憶部495に記憶され、パターン投影制御部493はパターン形成部492で形成された計測パターンを投影部12に投影させることもできる。   Further, the pattern storage unit 495 stores a measurement pattern including a target CT with a color code and a monochromatic target pattern. These arrangements and coloring are various. The pattern selection unit 496 appropriately selects a measurement pattern to be projected from a wide variety of measurement patterns stored in the pattern storage unit 495. The pattern projection control unit 493 causes the projection unit 12 to project the measurement pattern selected by the pattern selection unit 496. The pattern storage unit 495 stores pattern elements such as a target with a color code and a monochromatic target pattern, and the pattern forming unit 492 can edit or form a pattern using these elements. The measurement pattern formed by the pattern forming unit is stored in the pattern storage unit 495, and the pattern projection control unit 493 can cause the projection unit 12 to project the measurement pattern formed by the pattern forming unit 492.

図27に本実施の形態における三次元計測用パターンの投影方法(計測前準備を行なう)の処理フロー例を示す。本実施の形態は、プロジェクター12で第1の計測パターン(予備測定用パターン等)を投影し、投影されたパターンの変形に基づき第3の計測パターン(精密測定用パターン等)を選択して投影するものである。
まず、パターン記憶部495に測定対象物表面に計測点を表示する計測パターンを複数記憶する(パターン記憶工程:S710)。次に、パターン投影制御部493は投影部12に複数の計測パターンのうちの1つを第1の計測パターンとして投影させる(第1の投影工程:S720)。次に、撮像部10は投影工程で投影された第1の計測パターンを撮影する(撮像工程:S730)。次に、パターン検出部491は撮像工程により撮影された第1の計測パターンの撮影画像から計測点を検出する(パターン検出工程:S740)。次に、パターン検出部491はパターン検出工程で検出された第1の計測パターンにおける計測点の変位を検出する(変位検出工程:S750)。次に、パターン形成部492は検出された第1の計測パターンにおける計測点の変位に基づいて、パターン記憶部495に記憶された計測パターンから計測点を追加、削除又は変更した第3の計測パターンを選択する(パターン選択工程:S780)。次に、パターン投影制御部493は投影部12に第3の計測パターンを投影させる(第3の投影工程:S790)。
FIG. 27 shows an example of a process flow of the method for projecting a three-dimensional measurement pattern (preparation before measurement) in the present embodiment. In the present embodiment, the projector 12 projects a first measurement pattern (preliminary measurement pattern, etc.), and selects and projects a third measurement pattern (precision measurement pattern, etc.) based on the deformation of the projected pattern. To do.
First, a plurality of measurement patterns for displaying measurement points on the surface of the measurement object are stored in the pattern storage unit 495 (pattern storage step: S710). Next, the pattern projection control unit 493 causes the projection unit 12 to project one of the plurality of measurement patterns as a first measurement pattern (first projection step: S720). Next, the imaging unit 10 captures the first measurement pattern projected in the projection process (imaging process: S730). Next, the pattern detection unit 491 detects measurement points from the captured image of the first measurement pattern captured by the imaging process (pattern detection process: S740). Next, the pattern detection unit 491 detects the displacement of the measurement point in the first measurement pattern detected in the pattern detection process (displacement detection process: S750). Next, the pattern forming unit 492 adds, deletes, or changes a measurement point from the measurement pattern stored in the pattern storage unit 495 based on the detected displacement of the measurement point in the first measurement pattern. Is selected (pattern selection step: S780). Next, the pattern projection control unit 493 causes the projection unit 12 to project the third measurement pattern (third projection step: S790).

図28に本実施の形態における三次元計測用パターンの別の投影方法(カラーコード付きターゲットを投影)の処理フロー例を示す。本実施の形態は、プロジェクター12でカラーコード付き標識を含む計測パターンを選択して投影するものである。
まず、パターン形成部492において、計測位置を示すための位置検出用パターンP1と標識を識別するための複数の色彩が施されたカラーコードパターンP3とを有するカラーコード付き標識CTを含む計測パターンを複数記憶する(パターン記憶工程:S820)。次に、パターン選択部496はパターン記憶工程で記憶された複数の計測パターンから投影する計測パターンを選択する(パターン選択工程:S830)。次に、パターン投影制御部493は投影部12にパターン選択工程で選択された計測パターンを投影する(投影工程:S840)。次に、撮像部10は投影工程により投影された計測パターンを撮影する(撮像工程:S850)。次に、パターン検出部492は撮像工程により撮影された計測パターンの撮影画像から位置検出用パターンP1とカラーコードパターンP3を検出し、カラーコードを識別する(パターン検出工程:S860)。
FIG. 28 shows a processing flow example of another projection method (projecting a target with a color code) of the three-dimensional measurement pattern in the present embodiment. In the present embodiment, a measurement pattern including a sign with a color code is selected and projected by the projector 12.
First, in the pattern forming unit 492, a measurement pattern including a color code marker CT having a position detection pattern P1 for indicating a measurement position and a color code pattern P3 on which a plurality of colors for identifying the marker is applied. A plurality of patterns are stored (pattern storing step: S820). Next, the pattern selection unit 496 selects a measurement pattern to be projected from the plurality of measurement patterns stored in the pattern storage process (pattern selection process: S830). Next, the pattern projection control unit 493 projects the measurement pattern selected in the pattern selection step onto the projection unit 12 (projection step: S840). Next, the imaging unit 10 captures the measurement pattern projected by the projection process (imaging process: S850). Next, the pattern detection unit 492 detects the position detection pattern P1 and the color code pattern P3 from the captured image of the measurement pattern captured in the imaging process, and identifies the color code (pattern detection process: S860).

〔第3の実施の形態〕
本実施の形態はカラーコード付きターゲットを用いずに、通常のリファレンスポイント(レトロターゲットやテンプレート)のみを用いる例を示す。これらのリファランスポイントは位置検出用パターンのみからなるもので、通常図18のような白黒のレトロターゲットが使用されるが、単色ターゲットパターンを用いても良い。パターン形成部492はこれらリファレンスポイントのみからなる、計測パターンを含む各種投影パターンを形成し、パターン記憶部495はこれら各種投影パターンを記憶し、パターン選択部496はこれら各種投影パターンから投影するパターンを選択し、パターン投影制御部493は投影部12を制御してこれら各種投影パターンを投影させ、パターン検出部491はこれらの投影パターンの撮影画像からリファレンスポイント検出する。レトロターゲットやテンプレートを用いても、その重心点を検出でき、ステレオ画像において基準点及び対応点として対応させることができるので、計測前準備だけでなく、標定及び三次元計測も可能である。図14の処理フロー全体を行うことも可能である。
本実施の形態のシステム構成としては、第1、第2の実施の形態に比して、図4において抽出部の構成が検索処理部110だけで良く、簡略化でき、また、識別コード判別部46を省略できる。なお、カラーコード付きターゲットを使用しない場合は、広角プロジェクターによって測定対象物の座標が明確なポイントを複数含む撮影画像を撮影するのが良い。
[Third Embodiment]
This embodiment shows an example in which only a normal reference point (retro target or template) is used without using a target with a color code. These reference points consist only of position detection patterns, and normally a black and white retro target as shown in FIG. 18 is used, but a monochromatic target pattern may also be used. The pattern formation unit 492 forms various projection patterns including only the reference points and includes the measurement pattern, the pattern storage unit 495 stores these various projection patterns, and the pattern selection unit 496 displays the patterns projected from these various projection patterns. Then, the pattern projection control unit 493 controls the projection unit 12 to project these various projection patterns, and the pattern detection unit 491 detects reference points from the captured images of these projection patterns. Even if a retro target or template is used, the center of gravity can be detected and can be made to correspond as a reference point and a corresponding point in a stereo image, so that not only preparation before measurement but also orientation and three-dimensional measurement are possible. It is also possible to perform the entire processing flow of FIG.
As the system configuration of the present embodiment, the configuration of the extraction unit in FIG. 4 is only the search processing unit 110 as compared with the first and second embodiments, which can be simplified, and the identification code determination unit. 46 can be omitted. Note that when a target with a color code is not used, it is preferable to capture a captured image including a plurality of points with clear coordinates of the measurement object using a wide-angle projector.

〔第4の実施の形態〕
本実施の形態では計測前準備(S255)の段階で概略測定又は測定まで行う方法を説明する。本実施の形態のシステム構成は、第1又は第2の実施の形態と同様である。
図29に、概略測定の処理フローを示す。まず、投影モードを計測モードとして投影部12から測定対象物1に計測準備用パターンを投影し、この投影パターンを撮像部10により撮影して、撮影画像を抽出部41(パターン検出部491)に送信する(S311)。次に、抽出部41(パターン検出部491)にて撮影画像上の計測点の重心位置を検出する(S312)。次に、ステレオ画像の一方(基準画像)において検出された計測点の重心位置を基準点設定部42で基準点として設定し、ステレオ画像の他方(探索画像)において基準点に対応する対応点を求める(S313)。次に、標定部44で標定計算をする(S314)。標定は基準点と対応点のペアが6以上あれば可能である。標定結果から、精度の悪い点があった場合には(S315aでNo)、その点を取り除いて(S315)、6点以上のペアを選んで再度、標定計算をしなおす(S314)。悪い点がなくなるまで、S314,S315を繰り返す。悪い点がなくなれば(S315aでYes)、標定によりカメラ画像とモデル画像との対応関係が定まると共に、悪い点を取り除いた点をリファレンスポイントRFとしてパターン情報記憶部47に登録する。次に、登録したリファレンスポイントRFから変形点付近のものを抽出して、測定対象物1の変形点に対応する位置にリファレンスポイントRFを貼り付ける、もしくは、計測準備用パターンにリファレンスポイントRFを追加して新たな計測パターンPを形成する(S316)。
[Fourth Embodiment]
In the present embodiment, a method of performing rough measurement or measurement until the pre-measurement preparation (S255) will be described. The system configuration of this embodiment is the same as that of the first or second embodiment.
FIG. 29 shows a processing flow of rough measurement. First, a measurement preparation pattern is projected from the projection unit 12 onto the measurement object 1 using the projection mode as a measurement mode, the projection pattern is photographed by the imaging unit 10, and the photographed image is extracted to the extraction unit 41 (pattern detection unit 491). Transmit (S311). Next, the gravity center position of the measurement point on the captured image is detected by the extraction unit 41 (pattern detection unit 491) (S312). Next, the barycentric position of the measurement point detected in one of the stereo images (reference image) is set as a reference point by the reference point setting unit 42, and the corresponding point corresponding to the reference point in the other stereo image (search image) is set. Obtain (S313). Next, the orientation calculation is performed by the orientation unit 44 (S314). Orientation is possible if there are 6 or more pairs of reference points and corresponding points. If there is a point with poor accuracy from the orientation result (No in S315a), the point is removed (S315), a pair of 6 or more points is selected, and the orientation calculation is performed again (S314). S314 and S315 are repeated until there are no bad points. If there is no bad point (Yes in S315a), the correspondence between the camera image and the model image is determined by orientation, and the point from which the bad point is removed is registered in the pattern information storage unit 47 as a reference point RF. Next, the one near the deformation point is extracted from the registered reference point RF, and the reference point RF is pasted at a position corresponding to the deformation point of the measuring object 1, or the reference point RF is added to the measurement preparation pattern. Thus, a new measurement pattern P is formed (S316).

仮に、計測準備用パターンの計測点(標定点を含む)数が十分多いときは、この投影した標定点を計測点として計測処理を完了することも可能である。この場合、図14のS260以後の処理は必要なくなる。   If the number of measurement points (including the orientation points) in the measurement preparation pattern is sufficiently large, the measurement process can be completed using the projected orientation points as measurement points. In this case, the processing after S260 in FIG. 14 is not necessary.

さらに厳密性を要するときは、概略面計測まで行う。図30に概略面計測の処理フロー例を示す。リファレンスポイント追加した計測パターンを投影するときは、例えば計測モードで行なう。まず、リファレンスポイントの最外周を計測エリアとする(S317)。次に、ステレオマッチングを行なう(S318)。次に、ミスマッチングしている領域を映す(S319)。次に、ミスマッチングしている点の箇所にリファレンスポイントを貼り付け、或いは計測パターンにリファレンスポイントを追加して新たな計測パターンを形成する(S319a)。
ここで、タイポイント(接続用:カラーコード化ターゲット)が先に貼ってあれば、計測前準備の処理フロー(S300〜S320)を繰り返すことで、計測前処理でなく、この領域の計測を完了させることも可能である。
If more strictness is required, the approximate surface measurement is performed. FIG. 30 shows an example of a schematic surface measurement processing flow. When the measurement pattern with the added reference point is projected, for example, the measurement mode is used. First, the outermost periphery of the reference point is set as a measurement area (S317). Next, stereo matching is performed (S318). Next, the mismatched area is displayed (S319). Next, a new measurement pattern is formed by pasting a reference point at a point of mismatching or adding a reference point to the measurement pattern (S319a).
Here, if the tie point (for connection: color coded target) is pasted first, the measurement flow in this area is completed instead of the pre-measurement process by repeating the pre-measurement preparation process flow (S300 to S320). It is also possible to make it.

〔第5の実施の形態〕
本実施の形態は、パターン投影の回数を増やすものである。本実施の形態のシステム構成は、第1又は第3の実施の形態と同様である。例えば、標定点投影を複数回行なっても良く、計測点投影を複数回行なっても良い。また、計測によりミスマッチングが生じた場合には、標定点を増加して再度標定点投影を行い、さらに計測を行なっても良い。
[Fifth Embodiment]
In the present embodiment, the number of pattern projections is increased. The system configuration of this embodiment is the same as that of the first or third embodiment. For example, orientation point projection may be performed a plurality of times, and measurement point projection may be performed a plurality of times. When mismatching occurs due to measurement, the orientation points may be increased and the orientation points projected again, and further measurement may be performed.

また、以上の実施の形態で説明した三次元計則用パターン投影方法又は三次元計則方法をコンピュータに実行させるためのコンピュータ読み取り可能なプログラムとしても実現可能である。プログラムは計算処理部49の内蔵メモリに蓄積して使用してもよく、システム内外の記憶装置に蓄積して使用してもよく、インターネットからダウンロードして使用しても良い。また、当該プログラムを記録した記録媒体としても実現可能である。   Further, the present invention can also be realized as a computer-readable program for causing a computer to execute the three-dimensional rule pattern projection method or the three-dimensional rule method described in the above embodiments. The program may be stored and used in a built-in memory of the calculation processing unit 49, may be stored and used in a storage device inside or outside the system, or may be downloaded from the Internet and used. Moreover, it is realizable also as a recording medium which recorded the said program.

以上、本発明の実施の形態について説明したが、本発明は以上の実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で実施の形態に種々変更を加えられることは明白である。例えば、以上の実施の形態では第2の計測パターンの形成に際し、計測点を増加する例を主に説明したが、計測点を減少又は変更することも可能である。カラーコード付き標識について、カラーコードの単位領域数を増加する、基準コード部の位置を変更する、レトロターゲット部を大きくする、白色部に英数字を記載するなど図3以外の構成も可能である。また、計測パターンについて、典型的には矩形の投影範囲にカラーコード付き標識を4隅に配置し、その内側に単色ターゲットパターンを配置するとしても、単色ターゲットの配置は多様にでき、その内側にカラーコード付き標識を配置しても良い。   Although the embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and it is obvious that various modifications can be made to the embodiment without departing from the spirit of the present invention. It is. For example, in the above embodiment, the example in which the measurement points are increased in forming the second measurement pattern has been mainly described. However, the measurement points can be decreased or changed. Regarding the sign with the color code, configurations other than those shown in FIG. 3 are possible, such as increasing the number of unit areas of the color code, changing the position of the reference code part, enlarging the retro target part, and writing alphanumeric characters in the white part. . In addition, regarding the measurement pattern, even if a marker with color code is arranged at four corners in a rectangular projection range and a single-color target pattern is arranged inside the measurement pattern, the arrangement of the single-color target can be varied, and the inside thereof can be varied. A sign with a color code may be arranged.

また、一連の撮影画像について、各撮影画像が4個のカラーコード付き標識CTを含むように、かつ隣接し合う撮影画像間では2個のカラーコード付き標識CTを共有するようにして撮影し、隣接し合う撮影画像で共有されたカラーコード付き標識CTの識別コードが一致するように、一連の撮影画像の配列を自動的に定めても良い。また、ステレオカメラ、プロジェクター、計算処理部は一体的に構成されても良く、分離構成されても良い。また、以上の実施の形態では計算処理部のパターン検出部を対応部内の抽出部、基準点設定部、対応点探索部等と共用する構成としたが、分離構成しても良い。   In addition, for a series of captured images, each captured image is captured so as to include four color-coded labels CT, and between two adjacent captured images, two color-coded markers CT are shared, A sequence of captured images may be automatically determined so that the identification codes of the color-coded markers CT shared by adjacent captured images match. Further, the stereo camera, the projector, and the calculation processing unit may be configured integrally or may be configured separately. In the above embodiment, the pattern detection unit of the calculation processing unit is shared with the extraction unit, the reference point setting unit, the corresponding point search unit, and the like in the corresponding unit. However, a separate configuration may be used.

本発明は、非接触で対象物を三次元計測するシステム、方法に利用される。   The present invention is used in a system and method for three-dimensional measurement of an object without contact.

第1の実施の形態における投影装置の基本構成例のブロック図である。It is a block diagram of the example of basic composition of the projection device in a 1st embodiment. 第1の実施の形態における三次元計測システムの全体構成例のブロック図である。It is a block diagram of the example of whole composition of the three-dimensional measuring system in a 1st embodiment. カラーコード付きターゲットの例を示す図である。It is a figure which shows the example of a target with a color code. 抽出部及び識別コード判別部の構成例を示す図である。It is a figure which shows the structural example of an extraction part and an identification code discrimination | determination part. 第1の実施の形態における三次元計測システムの処理フロー例を示す図である。It is a figure which shows the example of a processing flow of the three-dimensional measurement system in 1st Embodiment. オーバーラップ撮影の例を示す図である。It is a figure which shows the example of overlap imaging | photography. ステレオカメラで撮影される撮影画像の例を示す図である。It is a figure which shows the example of the picked-up image image | photographed with a stereo camera. ステレオペア選択のフロー例を示す図である。It is a figure which shows the example of a flow of a stereo pair selection. ステレオ画像におけるモデル画像座標系XYZとカメラ座標系xyzの説明図である。It is explanatory drawing of the model image coordinate system XYZ and camera coordinate system xyz in a stereo image. リファレンスポイントを有するターゲットの例を示す図である。It is a figure which shows the example of the target which has a reference point. リファレンスポイントの自動対応付けのフロー例を示す図である。It is a figure which shows the example of a flow of the automatic matching of a reference point. ステレオマッチングエリアの自動決定の処理フロー例を示す図である。It is a figure which shows the example of a processing flow of the automatic determination of a stereo matching area. ステレオマッチングエリアの自動決定を説明するための図である。It is a figure for demonstrating the automatic determination of a stereo matching area. 投影装置を利用する計測フローの例を示す図である。It is a figure which shows the example of the measurement flow using a projection apparatus. 計測前準備の処理フロー例を示す図である。It is a figure which shows the example of a processing flow of preparation before a measurement. 計測準備用パターンの例を示す図である。It is a figure which shows the example of the pattern for a measurement preparation. カラーコード付きターゲットの検出のフロー例を示す図である。It is a figure which shows the example of a flow of a detection of the target with a color code. レトロターゲットを用いた重心位置検出の説明図である。It is explanatory drawing of the gravity center position detection using a retro target. カラーコード付きターゲット領域方向検出処理部の処理フロー例を示す図である。It is a figure which shows the example of a processing flow of the target area direction detection process part with a color code. カラーコード付きターゲット領域方向検出処理部の処理フロー例(続)を示す図である。It is a figure which shows the process flow example (continuation) of the target area | region direction detection process part with a color code. レトロターゲットのコード読み込みを説明するための図(その1)である。It is FIG. (1) for demonstrating the code reading of a retro target. レトロターゲットのコード読み込みを説明するための図(その2)である。It is FIG. (2) for demonstrating the code reading of a retro target. 第1の実施の形態における三次元計測用パターンの投影方法(計測前準備を行なう)の処理フロー例を示す図である。It is a figure which shows the example of a processing flow of the projection method (preparation before measurement) of the pattern for three-dimensional measurement in 1st Embodiment. 第1の実施の形態における三次元計測用パターンの別の投影方法(カラーコード付きターゲットを投影)の処理フロー例を示す図である。It is a figure which shows the example of a processing flow of another projection method (projecting a target with a color code) of the pattern for three-dimensional measurement in 1st Embodiment. 第2の実施の形態における三次元計測用投影装置の構成例を示す図である。It is a figure which shows the structural example of the projection apparatus for three-dimensional measurement in 2nd Embodiment. 第2の実施の形態における三次元計測システムの全体構成例のブロック図である。It is a block diagram of the example of whole structure of the three-dimensional measurement system in 2nd Embodiment. 第2の実施の形態における三次元計測用パターンの投影方法(計測前準備を行なう)の処理フロー例を示す図である。It is a figure which shows the example of a processing flow of the projection method (preparation before measurement) of the pattern for three-dimensional measurement in 2nd Embodiment. 第2の実施の形態における三次元計測用パターンの別の投影方法(カラーコード付きターゲットを投影)の処理フロー例を示す図である。It is a figure which shows the example of a processing flow of another projection method (projecting a target with a color code) of the pattern for three-dimensional measurement in 2nd Embodiment. 第4の実施の形態における概略測定の処理フローを示す図である。It is a figure which shows the processing flow of the rough measurement in 4th Embodiment. 第4の実施の形態における概略面計測の処理フローを示す図である・It is a figure which shows the processing flow of the schematic surface measurement in 4th Embodiment.

符号の説明Explanation of symbols

1 測定対象物
10 撮像部
12 投影部
13 撮影画像データ記憶部
40 対応部
41 抽出部
42 基準点設定部
43 対応点探索部
44 標定部
45 対応点指示部
46 識別コード判別部
47 パターン情報記憶部
48 撮影・モデル画像表示部
48A モデル画像形成部
48B モデル画像記憶部
49 計算処理部
50 表示画像形成部
51 三次元座標データ演算部
53 三次元座標データ記憶部
54 立体的二次元画像形成部
55 立体的二次元画像記憶部
57 立体的二次元画像表示部
60 表示装置
70 マッチング処理部
80、80A 三次元計測用投影装置
100、100A 三次元計測システム
110 探索処理部
111 レトロターゲット検出処理部
120 レトロターゲットグループ化処理部
130 カラーコード付きターゲット検出処理部
131 カラーコード付きターゲット領域方向検出処理部
140 画像・カラーパターン記憶部
141 読込画像記憶部
142 カラーコード付きターゲット対応表
200 レトロターゲット
204 内部円
206 外部円
311 色彩検出処理部
312 色彩補正部
313 確認処理部
321 座標変換処理部
322 コード変換処理部
491 パターン検出部
492 パターン形成部
493 パターン投影制御部
494 色彩修正部
495 パターン記憶部
496 パターン選択部
CT、CT1〜CT3 カラーコード付きターゲット
EP エピポーラライン
L12、L23、L31 辺
P 計測パターン
P1 位置検出用パターン(レトロターゲット部)
P2 基準色パターン(基準色部)
P3 カラーコードパターン(カラーコード部)
P4 空パターン(白色部)
Q 計測点
R1〜R3 重心点
RF リファレンスポイント
To 閾値
T1〜T3 仮のラベル
DESCRIPTION OF SYMBOLS 1 Measurement object 10 Imaging part 12 Projection part 13 Captured image data storage part 40 Corresponding part 41 Extraction part 42 Reference point setting part 43 Corresponding point search part 44 Orientation part 45 Corresponding point instruction | indication part 46 Identification code discrimination | determination part 47 Pattern information storage part 48 shooting / model image display unit 48A model image formation unit 48B model image storage unit 49 calculation processing unit 50 display image formation unit 51 three-dimensional coordinate data calculation unit 53 three-dimensional coordinate data storage unit 54 three-dimensional two-dimensional image formation unit 55 three-dimensional Two-dimensional image storage unit 57 three-dimensional two-dimensional image display unit 60 display device 70 matching processing unit 80, 80A three-dimensional measurement projection device 100, 100A three-dimensional measurement system 110 search processing unit 111 retro target detection processing unit 120 retro target Grouping processing unit 130 Color code target detection processing unit 131 Color Coded target area direction detection processing unit 140 Image / color pattern storage unit 141 Read image storage unit 142 Color code target correspondence table 200 Retro target 204 Inner circle 206 Outer circle 311 Color detection processing unit 312 Color correction unit 313 Confirmation processing unit 321 Coordinate conversion processing unit 322 Code conversion processing unit 491 Pattern detection unit 492 Pattern formation unit 493 Pattern projection control unit 494 Color correction unit 495 Pattern storage unit 496 Pattern selection unit CT, CT1-CT3 Target EP with color code Epipolar lines L12, L23, L31 Side P Measurement pattern P1 Position detection pattern (retro target part)
P2 standard color pattern (standard color part)
P3 Color code pattern (color code part)
P4 empty pattern (white part)
Q Measurement points R1 to R3 Center of gravity RF Reference point To Threshold T1 to T3 Temporary label

Claims (17)

計測位置を示すための位置検出用パターンと、前記位置検出用パターンに対して所定の位置関係に配置され、標識を識別するための複数の色彩が施されたカラーコードパターンとを有するカラーコード付き標識を含む計測パターンを形成するパターン形成部と、
前記パターン形成部で形成された計測パターンを測定対象物に投影する投影部と、
前記投影部により投影された計測パターンの撮影画像から前記位置検出用パターンと前記カラーコードパターンを検出し、カラーコードを識別するパターン検出部とを備える、
三次元計測用投影装置。
With a color code having a position detection pattern for indicating a measurement position and a color code pattern arranged in a predetermined positional relationship with the position detection pattern and provided with a plurality of colors for identifying signs A pattern forming unit for forming a measurement pattern including a sign;
A projection unit that projects the measurement pattern formed by the pattern formation unit onto a measurement object;
A pattern detection unit that detects the position detection pattern and the color code pattern from a photographed image of the measurement pattern projected by the projection unit, and identifies a color code;
Projector for 3D measurement.
計測位置を示すための位置検出用パターンと、前記位置検出用パターンに対して所定の位置関係に配置され、標識を識別するための複数の色彩が施されたカラーコードパターンとを有するカラーコード付き標識を含む計測パターンを複数記憶するパターン記憶部と、
前記パターン記憶部に記憶された複数の計測パターンから、投影する計測パターンを選択するパターン選択部と、
前記パターン選択部により選択された計測パターンを測定対象物に投影する投影部と、
前記投影部により投影された計測パターンの撮影画像から前記位置検出用パターンと前記カラーコードパターンを検出し、カラーコードを識別するパターン検出部とを備える、
三次元計測用投影装置。
With a color code having a position detection pattern for indicating a measurement position and a color code pattern arranged in a predetermined positional relationship with the position detection pattern and provided with a plurality of colors for identifying signs A pattern storage unit for storing a plurality of measurement patterns including a sign;
A pattern selection unit for selecting a measurement pattern to be projected from a plurality of measurement patterns stored in the pattern storage unit;
A projection unit that projects the measurement pattern selected by the pattern selection unit onto a measurement object;
A pattern detection unit that detects the position detection pattern and the color code pattern from a photographed image of the measurement pattern projected by the projection unit, and identifies a color code;
Projector for 3D measurement.
前記投影部により投影された前記計測パターンを撮影する撮像部を備え、
前記パターン検出部は、前記撮像部により撮影された前記計測パターンの撮影画像から前記位置検出用パターンと前記カラーコードパターンを検出し、前記カラーコードを識別する;
請求項1又は請求項2に記載の三次元計測用投影装置。
An imaging unit that captures the measurement pattern projected by the projection unit;
The pattern detection unit detects the position detection pattern and the color code pattern from the captured image of the measurement pattern captured by the imaging unit, and identifies the color code;
The projection apparatus for three-dimensional measurement according to claim 1 or 2.
前記パターン形成部は、前記位置検出用パターンのみからなる単色ターゲットパターンを形成する;
請求項1又は請求項3に記載の三次元計測用投影装置。
The pattern forming unit forms a monochromatic target pattern including only the position detection pattern;
The projection apparatus for three-dimensional measurement according to claim 1 or 3.
前記パターン記憶部は、前記位置検出用パターンのみからなる単色ターゲットパターンを含む計測パターンを記憶する;
請求項2又は請求項3に記載の三次元計測用投影装置。
The pattern storage unit stores a measurement pattern including a monochromatic target pattern including only the position detection pattern;
The projection apparatus for three-dimensional measurement according to claim 2 or claim 3.
前記投影部を制御して前記計測パターンを投影させるパターン投影制御部を備え、
前記パターン投影制御部は前記位置検出用パターンをランダムに配置したランダムパターンを前記投影部に投影させ、前記計測パターンを投影する計測モードと前記ランダムパターンを投影するランダムパターンモードを切替可能である;
請求項1乃至請求項5のいずれか1項に記載の三次元計測用投影装置
A pattern projection control unit that controls the projection unit to project the measurement pattern;
The pattern projection control unit can project a random pattern in which the position detection patterns are randomly arranged on the projection unit, and switch between a measurement mode for projecting the measurement pattern and a random pattern mode for projecting the random pattern;
The three-dimensional measurement projector according to any one of claims 1 to 5.
前記投影部を制御して前記計測パターンを投影させるパターン投影制御部を備え、
前記パターン投影制御部はステレオ画像の重複範囲を表示する重複撮影範囲表示用パターンを前記投影部に投影させ、前記計測パターンを投影する計測モードと前記重複撮影範囲表示用パターンを投影する撮影範囲表示モードを切替可能である;
請求項1乃至請求項5のいずれか1項に記載の三次元計測用投影装置
A pattern projection control unit that controls the projection unit to project the measurement pattern;
The pattern projection control unit projects an overlapping shooting range display pattern for displaying an overlapping range of stereo images onto the projecting unit, and projects a measurement mode for projecting the measurement pattern and a shooting range display for projecting the overlapping shooting range display pattern. The mode can be switched;
The three-dimensional measurement projector according to any one of claims 1 to 5.
前記投影部を制御して前記計測パターンを投影させるパターン投影制御部を備え、
前記パターン投影制御部は、前記撮像部に係る焦点距離、撮影距離、基線長、オーバーラップ率のいずれか一つを入力することにより、計測パターンの標定点の配置、パターン密度を調整可能である;
請求項1乃至請求項5のいずれか1項に記載の三次元計測用投影装置
A pattern projection control unit that controls the projection unit to project the measurement pattern;
The pattern projection control unit can adjust the arrangement of the orientation points of the measurement pattern and the pattern density by inputting any one of a focal length, an imaging distance, a base length, and an overlap rate related to the imaging unit. ;
The three-dimensional measurement projector according to any one of claims 1 to 5.
前記投影部を制御して前記計測パターンを投影させるパターン投影制御部を備え、
前記パターン投影制御部は、一様な照明光で対象物を照明するテクスチャー取得用の照明を前記投影部に行なわせ、前記計測パターンを投影する計測モードとテクスチャー取得用の照明を行うテクスチャー照明モードを切替可能である;
請求項1乃至請求項5のいずれか1項に記載の三次元計測用投影装置
A pattern projection control unit that controls the projection unit to project the measurement pattern;
The pattern projection control unit causes the projection unit to perform illumination for texture acquisition that illuminates an object with uniform illumination light, and performs a measurement mode for projecting the measurement pattern and a texture illumination mode for performing illumination for texture acquisition. Can be switched;
The three-dimensional measurement projector according to any one of claims 1 to 5.
前記パターン検出部は、前記テクスチャー照明モードで投影されたパターンの撮影画像から取得された色彩に基づいて、前記投影部により投影するカラーコード付きターゲットの色彩を修正する色彩修正部を有する;
請求項9に記載の三次元計測用投影装置。
The pattern detection unit includes a color correction unit that corrects a color of a target with a color code projected by the projection unit based on a color acquired from a captured image of the pattern projected in the texture illumination mode;
The projection device for three-dimensional measurement according to claim 9.
請求項1乃至請求項10のいずれか1項に記載の三次元計測用投影装置を有する;
三次元計測システム。
It has the projection device for three-dimensional measurement of any one of Claim 1 thru | or 10.
3D measurement system.
計測位置を示すための位置検出用パターンと、前記位置検出用パターンに対して所定の位置関係に配置され、標識を識別するための複数の色彩が施されたカラーコードパターンとを有するカラーコード付き標識を含む計測パターンを形成するパターン形成部と、
投影部を制御して前記計測パターンを投影させるパターン投影制御部と、
前記投影部により投影された前記計測パターンの撮影画像から前記位置検出用パターンと前記カラーコードパターンを検出し、カラーコードを識別するパターン検出部とを備える、
三次元計測用投影装置の計算処理部。
With a color code having a position detection pattern for indicating a measurement position and a color code pattern arranged in a predetermined positional relationship with the position detection pattern and provided with a plurality of colors for identifying signs A pattern forming unit for forming a measurement pattern including a sign;
A pattern projection control unit for controlling the projection unit to project the measurement pattern;
A pattern detection unit that detects the position detection pattern and the color code pattern from a captured image of the measurement pattern projected by the projection unit, and identifies a color code;
Calculation processing unit of the projection device for 3D measurement.
計測位置を示すための位置検出用パターンと、前記位置検出用パターンに対して所定の位置関係に配置され、標識を識別するための複数の色彩が施されたカラーコードパターンとを有するカラーコード付き標識を含む計測パターンを形成するパターン形成工程と、
前記パターン形成工程で形成された計測パターンを測定対象物に投影する投影工程と、
前記投影工程により投影された計測パターンを撮影する撮像工程と、
前記撮像工程により撮影された計測パターンの撮影画像から前記位置検出用パターンと前記カラーコードパターンを検出し、前記カラーコードを識別するパターン検出工程とを備える;
三次元計測用パターン投影方法。
With a color code having a position detection pattern for indicating a measurement position and a color code pattern arranged in a predetermined positional relationship with the position detection pattern and provided with a plurality of colors for identifying signs A pattern forming process for forming a measurement pattern including a sign; and
A projection step of projecting the measurement pattern formed in the pattern formation step onto a measurement object;
An imaging step of photographing the measurement pattern projected by the projection step;
A pattern detection step of detecting the position detection pattern and the color code pattern from a photographed image of the measurement pattern photographed in the imaging step and identifying the color code;
Pattern projection method for 3D measurement.
計測位置を示すための位置検出用パターンと、前記位置検出用パターンに対して所定の位置関係に配置され、標識を識別するための複数の色彩が施されたカラーコードパターンとを有するカラーコード付き標識を含む計測パターンを複数記憶するパターン記憶工程と、
前記パターン記憶工程で記憶された複数の計測パターンから、投影する計測パターンを選択するパターン選択工程と、
前記パターン選択工程で選択された計測パターンを測定対象物に投影する投影工程と、
前記投影工程により投影された計測パターンを撮影する撮像工程と、
前記撮像工程により撮影された計測パターンの撮影画像から前記位置検出用パターンと前記カラーコードパターンを検出し、カラーコードを識別するパターン検出工程とを備える;
三次元計測用パターン投影方法。
With a color code having a position detection pattern for indicating a measurement position and a color code pattern arranged in a predetermined positional relationship with the position detection pattern and provided with a plurality of colors for identifying signs A pattern storage step for storing a plurality of measurement patterns including a sign;
A pattern selection step of selecting a measurement pattern to be projected from a plurality of measurement patterns stored in the pattern storage step;
A projection step of projecting the measurement pattern selected in the pattern selection step onto the measurement object;
An imaging step of photographing the measurement pattern projected by the projection step;
A pattern detection step of detecting the position detection pattern and the color code pattern from a photographed image of the measurement pattern photographed in the imaging step and identifying the color code;
Pattern projection method for 3D measurement.
前記パターン形成工程は、前記位置検出用パターンのみからなる単色ターゲットパターンを形成し、
前記パターン検出工程は前記単色ターゲットパターンを検出する;
請求項13に記載の三次元計測用パターン投影方法。
The pattern forming step forms a monochromatic target pattern consisting only of the position detection pattern,
The pattern detection step detects the monochrome target pattern;
The three-dimensional measurement pattern projection method according to claim 13.
前記パターン記憶工程は、前記位置検出用パターンのみからなる単色ターゲットパターンを含む計測パターンを記憶し、
前記パターン検出工程は前記単色ターゲットパターンを検出する;
請求項14に記載の三次元計測用パターン投影方法。
The pattern storage step stores a measurement pattern including a monochromatic target pattern consisting only of the position detection pattern,
The pattern detection step detects the monochrome target pattern;
The pattern projection method for three-dimensional measurement according to claim 14.
前記撮像工程において、撮影画像は対をなすステレオ画像であり、
前記ステレオ画像について標定を行なう標定工程と、
前記測定対象物の三次元形状を計測する三次元計測工程とを備え、
前記標定工程又は前記三次元計測工程において、前記カラーコード付き標識は計測用の基準位置を示す計測点として、前記単色ターゲットパターンはリファレンスポイントとして投影される;
請求項15又は請求項16に記載の三次元計測用パターン投影方法。
In the imaging step, the captured image is a paired stereo image,
An orientation process for orientation of the stereo image;
A three-dimensional measurement step for measuring a three-dimensional shape of the measurement object,
In the orientation step or the three-dimensional measurement step, the marker with color code is projected as a measurement point indicating a reference position for measurement, and the monochromatic target pattern is projected as a reference point;
The pattern projection method for three-dimensional measurement according to claim 15 or 16.
JP2005289333A 2005-09-30 2005-09-30 Projection apparatus and system for three-dimensional measurement Active JP5002144B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005289333A JP5002144B2 (en) 2005-09-30 2005-09-30 Projection apparatus and system for three-dimensional measurement
US11/526,885 US20070091174A1 (en) 2005-09-30 2006-09-26 Projection device for three-dimensional measurement, and three-dimensional measurement system
EP06020585A EP1770356A3 (en) 2005-09-30 2006-09-29 Three-dimensional measurement system with projection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005289333A JP5002144B2 (en) 2005-09-30 2005-09-30 Projection apparatus and system for three-dimensional measurement

Publications (3)

Publication Number Publication Date
JP2007101276A true JP2007101276A (en) 2007-04-19
JP2007101276A5 JP2007101276A5 (en) 2008-09-11
JP5002144B2 JP5002144B2 (en) 2012-08-15

Family

ID=38028373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005289333A Active JP5002144B2 (en) 2005-09-30 2005-09-30 Projection apparatus and system for three-dimensional measurement

Country Status (1)

Country Link
JP (1) JP5002144B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009069146A (en) * 2007-09-10 2009-04-02 Steinbichler Optotechnik Gmbh Method and device for three dimensionally digitizing object
WO2009141998A1 (en) * 2008-05-19 2009-11-26 パナソニック株式会社 Calibration method, calibration device, and calibration system having the device
JP2010526295A (en) * 2007-04-24 2010-07-29 株式会社ソニー・コンピュータエンタテインメント Scanning 3D objects using a video camera and TV monitor
JP2011064579A (en) * 2009-09-17 2011-03-31 Konica Minolta Sensing Inc Three-dimensional measuring system and three-dimensional measuring method
JP2011080843A (en) * 2009-10-06 2011-04-21 Honda Motor Co Ltd Three-dimensional shape measuring system and three-dimensional shape measuring method
JP2011512533A (en) * 2008-02-15 2011-04-21 ピルキングトン・グループ・リミテッド Method for measuring glass surface shape and optical distortion by reflection optical imaging
JP2011516849A (en) * 2008-04-02 2011-05-26 エイコナ・テクノロジーズ・リミテッド 3D imaging system
JP2013525821A (en) * 2010-05-07 2013-06-20 深▲せん▼泰山在線科技有限公司 Structured light measurement method and system
JP2013190394A (en) * 2012-03-15 2013-09-26 Ricoh Co Ltd Pattern illumination apparatus and distance measuring apparatus
JP2013196355A (en) * 2012-03-19 2013-09-30 Toshiba Corp Object measuring device and object measuring method
EP3048581A1 (en) 2015-01-20 2016-07-27 Ricoh Company, Ltd. Image processing apparatus, system, image processing method, calibration method, and computer-readable recording medium
WO2016158856A1 (en) * 2015-04-02 2016-10-06 株式会社ニコン Imaging system, imaging device, imaging method, and imaging program
JP2017187988A (en) * 2016-04-07 2017-10-12 東芝テック株式会社 Code recognition device
JP2019132673A (en) * 2018-01-31 2019-08-08 沖電気工業株式会社 Terminal device and position detection system
JP2020194594A (en) * 2020-09-01 2020-12-03 東芝テック株式会社 Code recognition device
JP2020537242A (en) * 2017-10-08 2020-12-17 マジック アイ インコーポレイテッド Calibration of sensor systems including multiple movable sensors
US10952827B2 (en) 2014-08-15 2021-03-23 Align Technology, Inc. Calibration of an intraoral scanner

Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63191281A (en) * 1987-02-04 1988-08-08 Nippon Telegr & Teleph Corp <Ntt> Spatial pattern coding method
JPH09329440A (en) * 1996-06-12 1997-12-22 Topcon Corp Coordinating method for measuring points on plural images
JPH1183440A (en) * 1997-07-18 1999-03-26 Art Wing:Kk Action data formation system
JP2000283735A (en) * 1999-03-29 2000-10-13 Minolta Co Ltd Three-dimensional information input camera
JP2000292135A (en) * 1999-04-07 2000-10-20 Minolta Co Ltd Three-dimensional information input camera
JP2001505302A (en) * 1996-09-12 2001-04-17 オーラメトリクス ゲーエムベーハー A method for improving the significance of three-dimensional measurement of objects
JP2001147110A (en) * 1999-11-22 2001-05-29 Sony Corp Random pattern generating device and its method, distance image generating device and its method, and program providing medium
JP2001243468A (en) * 1999-12-24 2001-09-07 Sanyo Electric Co Ltd Device, method, and metdium for three-dimensional modeling, and device, method, and medium for three- dimensional shape data recording
JP2001298655A (en) * 2000-04-13 2001-10-26 Sony Corp Image pickup device, image pickup method and recording medium
JP2001320652A (en) * 2000-05-11 2001-11-16 Nec Corp Projector
JP2001338280A (en) * 2000-05-30 2001-12-07 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional space information input device
JP2002022444A (en) * 2000-07-04 2002-01-23 Takenaka Komuten Co Ltd System and method for collecting coordinate information and mark member
JP2002191058A (en) * 2000-12-20 2002-07-05 Olympus Optical Co Ltd Three-dimensional image acquisition device and three- dimensional image acquisition method
JP2003518614A (en) * 1999-12-27 2003-06-10 シーメンス アクチエンゲゼルシヤフト How to determine 3D surface coordinates
JP2003284098A (en) * 2002-03-20 2003-10-03 Topcon Corp Apparatus and method for displaying stereo image
JP2004191092A (en) * 2002-12-09 2004-07-08 Ricoh Co Ltd Three-dimensional information acquisition system
JP2004220510A (en) * 2003-01-17 2004-08-05 Minolta Co Ltd Three-dimensional shape measuring device, three-dimensional shape measuring method and target mark
JP2004333498A (en) * 2003-05-02 2004-11-25 Mitsutoyo Corp Device and method for detecting two-dimensional absolute position
JP2005140547A (en) * 2003-11-04 2005-06-02 3D Media Co Ltd 3-dimensional measuring method, 3-dimensional measuring device and computer program
JP2005174151A (en) * 2003-12-12 2005-06-30 Topcon Corp Three-dimensional image display device and method

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63191281A (en) * 1987-02-04 1988-08-08 Nippon Telegr & Teleph Corp <Ntt> Spatial pattern coding method
JPH09329440A (en) * 1996-06-12 1997-12-22 Topcon Corp Coordinating method for measuring points on plural images
JP2001505302A (en) * 1996-09-12 2001-04-17 オーラメトリクス ゲーエムベーハー A method for improving the significance of three-dimensional measurement of objects
JPH1183440A (en) * 1997-07-18 1999-03-26 Art Wing:Kk Action data formation system
JP2000283735A (en) * 1999-03-29 2000-10-13 Minolta Co Ltd Three-dimensional information input camera
JP2000292135A (en) * 1999-04-07 2000-10-20 Minolta Co Ltd Three-dimensional information input camera
JP2001147110A (en) * 1999-11-22 2001-05-29 Sony Corp Random pattern generating device and its method, distance image generating device and its method, and program providing medium
JP2001243468A (en) * 1999-12-24 2001-09-07 Sanyo Electric Co Ltd Device, method, and metdium for three-dimensional modeling, and device, method, and medium for three- dimensional shape data recording
JP2003518614A (en) * 1999-12-27 2003-06-10 シーメンス アクチエンゲゼルシヤフト How to determine 3D surface coordinates
JP2001298655A (en) * 2000-04-13 2001-10-26 Sony Corp Image pickup device, image pickup method and recording medium
JP2001320652A (en) * 2000-05-11 2001-11-16 Nec Corp Projector
JP2001338280A (en) * 2000-05-30 2001-12-07 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional space information input device
JP2002022444A (en) * 2000-07-04 2002-01-23 Takenaka Komuten Co Ltd System and method for collecting coordinate information and mark member
JP2002191058A (en) * 2000-12-20 2002-07-05 Olympus Optical Co Ltd Three-dimensional image acquisition device and three- dimensional image acquisition method
JP2003284098A (en) * 2002-03-20 2003-10-03 Topcon Corp Apparatus and method for displaying stereo image
JP2004191092A (en) * 2002-12-09 2004-07-08 Ricoh Co Ltd Three-dimensional information acquisition system
JP2004220510A (en) * 2003-01-17 2004-08-05 Minolta Co Ltd Three-dimensional shape measuring device, three-dimensional shape measuring method and target mark
JP2004333498A (en) * 2003-05-02 2004-11-25 Mitsutoyo Corp Device and method for detecting two-dimensional absolute position
JP2005140547A (en) * 2003-11-04 2005-06-02 3D Media Co Ltd 3-dimensional measuring method, 3-dimensional measuring device and computer program
JP2005174151A (en) * 2003-12-12 2005-06-30 Topcon Corp Three-dimensional image display device and method

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010526295A (en) * 2007-04-24 2010-07-29 株式会社ソニー・コンピュータエンタテインメント Scanning 3D objects using a video camera and TV monitor
JP2009069146A (en) * 2007-09-10 2009-04-02 Steinbichler Optotechnik Gmbh Method and device for three dimensionally digitizing object
JP2011512533A (en) * 2008-02-15 2011-04-21 ピルキングトン・グループ・リミテッド Method for measuring glass surface shape and optical distortion by reflection optical imaging
US8773508B2 (en) 2008-04-02 2014-07-08 Fuel 3D Technologies Limited 3D imaging system
JP2011516849A (en) * 2008-04-02 2011-05-26 エイコナ・テクノロジーズ・リミテッド 3D imaging system
JP4440341B2 (en) * 2008-05-19 2010-03-24 パナソニック株式会社 Calibration method, calibration apparatus, and calibration system including the apparatus
JPWO2009141998A1 (en) * 2008-05-19 2011-09-29 パナソニック株式会社 Calibration method, calibration apparatus, and calibration system including the apparatus
US8400505B2 (en) 2008-05-19 2013-03-19 Panasonic Corporation Calibration method, calibration device, and calibration system including the device
WO2009141998A1 (en) * 2008-05-19 2009-11-26 パナソニック株式会社 Calibration method, calibration device, and calibration system having the device
JP2011064579A (en) * 2009-09-17 2011-03-31 Konica Minolta Sensing Inc Three-dimensional measuring system and three-dimensional measuring method
JP2011080843A (en) * 2009-10-06 2011-04-21 Honda Motor Co Ltd Three-dimensional shape measuring system and three-dimensional shape measuring method
JP2013525821A (en) * 2010-05-07 2013-06-20 深▲せん▼泰山在線科技有限公司 Structured light measurement method and system
JP2013190394A (en) * 2012-03-15 2013-09-26 Ricoh Co Ltd Pattern illumination apparatus and distance measuring apparatus
JP2013196355A (en) * 2012-03-19 2013-09-30 Toshiba Corp Object measuring device and object measuring method
US10952827B2 (en) 2014-08-15 2021-03-23 Align Technology, Inc. Calibration of an intraoral scanner
EP3048581A1 (en) 2015-01-20 2016-07-27 Ricoh Company, Ltd. Image processing apparatus, system, image processing method, calibration method, and computer-readable recording medium
WO2016158856A1 (en) * 2015-04-02 2016-10-06 株式会社ニコン Imaging system, imaging device, imaging method, and imaging program
JP2017187988A (en) * 2016-04-07 2017-10-12 東芝テック株式会社 Code recognition device
CN107273888A (en) * 2016-04-07 2017-10-20 东芝泰格有限公司 Code recognition device and code recognition methods
US10664675B2 (en) 2016-04-07 2020-05-26 Toshiba Tec Kabushiki Kaisha Code recognition device
JP2020537242A (en) * 2017-10-08 2020-12-17 マジック アイ インコーポレイテッド Calibration of sensor systems including multiple movable sensors
JP2019132673A (en) * 2018-01-31 2019-08-08 沖電気工業株式会社 Terminal device and position detection system
JP2020194594A (en) * 2020-09-01 2020-12-03 東芝テック株式会社 Code recognition device
JP7036874B2 (en) 2020-09-01 2022-03-15 東芝テック株式会社 Code recognition device

Also Published As

Publication number Publication date
JP5002144B2 (en) 2012-08-15

Similar Documents

Publication Publication Date Title
JP5002144B2 (en) Projection apparatus and system for three-dimensional measurement
JP4848166B2 (en) Projection apparatus and system for three-dimensional measurement
JP4909543B2 (en) Three-dimensional measurement system and method
EP1770356A2 (en) Three-dimensional measurement system with projection device
JP5207719B2 (en) Label with color code, color code extraction means, and three-dimensional measurement system
US10083522B2 (en) Image based measurement system
US7398928B2 (en) Coded target and photogrammetry method using such targets
JP4811272B2 (en) Image processing apparatus and image processing method for performing three-dimensional measurement
JP5051493B2 (en) 3D measurement marker and 3D measurement method using the same
US7456842B2 (en) Color edge based system and method for determination of 3D surface topology
US20070065004A1 (en) Three-dimensional measurement system and method of the same, and color-coded mark
JP4739004B2 (en) Information processing apparatus and information processing method
JP5707185B2 (en) All-around field for multi-camera calibration
JP2010219825A (en) Photographing device for three-dimensional measurement
JP5421624B2 (en) 3D measurement image capturing device
JP5695821B2 (en) Color code target, color code discrimination device, and color code discrimination method
JP4828195B2 (en) Color-coded sign
JP2010256253A (en) Image capturing device for three-dimensional measurement and method therefor
CN109920009A (en) Control point detection and management method and device based on two dimensional code mark
CN112415010A (en) Imaging detection method and system
JP5350943B2 (en) Color code target, color code discrimination device, and color code discrimination method
KR100808536B1 (en) Method for calibration using by pattern image
JP5375479B2 (en) Three-dimensional measurement system and three-dimensional measurement method
KR102217215B1 (en) Server and method for 3dimension model production using scale bar
KR101026628B1 (en) Three-dimensional measurement system and method of the same, and color-coded mark

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080729

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120521

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5002144

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150525

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250