JP2024055569A - Three-dimensional measurement device, three-dimensional measurement method, program, system, and article manufacturing method - Google Patents
Three-dimensional measurement device, three-dimensional measurement method, program, system, and article manufacturing method Download PDFInfo
- Publication number
- JP2024055569A JP2024055569A JP2022162607A JP2022162607A JP2024055569A JP 2024055569 A JP2024055569 A JP 2024055569A JP 2022162607 A JP2022162607 A JP 2022162607A JP 2022162607 A JP2022162607 A JP 2022162607A JP 2024055569 A JP2024055569 A JP 2024055569A
- Authority
- JP
- Japan
- Prior art keywords
- image
- illumination light
- pattern
- dimensional measuring
- measuring device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004519 manufacturing process Methods 0.000 title claims description 7
- 238000005259 measurement Methods 0.000 title description 87
- 238000000691 measurement method Methods 0.000 title 1
- 238000012545 processing Methods 0.000 claims abstract description 87
- 238000005286 illumination Methods 0.000 claims abstract description 64
- 238000003384 imaging method Methods 0.000 claims description 106
- 238000000034 method Methods 0.000 claims description 69
- 238000011156 evaluation Methods 0.000 claims description 63
- 230000008569 process Effects 0.000 claims description 38
- 238000006243 chemical reaction Methods 0.000 claims description 11
- 238000012937 correction Methods 0.000 claims description 11
- 230000001678 irradiating effect Effects 0.000 claims description 8
- 238000003672 processing method Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 22
- 238000004364 calculation method Methods 0.000 description 16
- 230000004075 alteration Effects 0.000 description 15
- 230000000694 effects Effects 0.000 description 5
- 238000009499 grossing Methods 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003014 reinforcing effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
【課題】対象物までの距離値を高精度に算出可能な3次元計測装置を提供する。【解決手段】3次元計測装置であって、対象物を互いに異なる視点から撮像する複数の撮像部と、複数の撮像部により対象物を第1の条件で取得した第1の画像群と対象物を第1の条件とは異なる第2の条件で取得した第2の画像群と、を用いて対応付けを行うことにより、対象物までの距離値を算出する処理部と、を有し、処理部は、第1と第2の画像群それぞれの画像における照明光の波長に基づく画像特性、照明光の光源に起因する画像特性、照明光のパターンに起因する特徴の大きさの少なくとも1つの情報に基づいて第1と第2の画像群に対する対応付けを行うか、又は、情報に基づいて第1と第2の画像群に対して対応付けの前に行う処理を行った後に対応付けを行い、対応付けによって得られた視差値を用いて距離値を算出することを特徴とする。【選択図】図4[Problem] To provide a three-dimensional measuring device capable of calculating a distance value to an object with high accuracy. [Solution] The three-dimensional measuring device has a plurality of image capturing units that capture images of the object from different viewpoints, and a processing unit that calculates a distance value to the object by performing correspondence using a first image group obtained by the plurality of image capturing units under a first condition and a second image group obtained by the object under a second condition different from the first condition, the processing unit performs correspondence between the first and second image groups based on at least one of information of image characteristics based on the wavelength of the illumination light in each of the first and second image groups, image characteristics caused by the light source of the illumination light, and size of features caused by the pattern of the illumination light, or performs correspondence between the first and second image groups after performing processing on the first and second image groups before the correspondence based on the information, and calculates the distance value using a parallax value obtained by the correspondence. [Selected Figure] Figure 4
Description
本発明は、3次元計測装置、3次元計測装方法、プログラム、システム、及び物品の製造方法に関する。 The present invention relates to a three-dimensional measuring device, a three-dimensional measuring method, a program, a system, and a method for manufacturing an article.
従来、工場の生産ラインでは、3次元計測装置を搭載したロボットを用いて、製造物の組み立てや検査が行われてきた。従来の3次元計測装置として、異なる視点の2つのカメラで撮影した画像間の対応点を探索し、対応点の視差情報を基に三角測量の原理に基づき距離点を計測するステレオ計測が知られている。 Traditionally, in factory production lines, robots equipped with 3D measurement devices have been used to assemble and inspect products. A conventional 3D measurement device is known to use stereo measurement, which searches for corresponding points between images taken by two cameras with different viewpoints, and measures distance points based on the principles of triangulation using the parallax information of the corresponding points.
特許文献1では、異なる位置の2つのカメラと1つのパターンを投影するプロジェクタを備え、第1の距離マップと、第2の距離マップとを算出し、それらに対して信頼度に基づく重みづけ投票を行って最終的な距離マップを算出する方法を開示している。 Patent document 1 discloses a method that uses two cameras in different positions and a projector that projects one pattern, calculates a first distance map and a second distance map, and performs weighted voting based on the reliability of the maps to calculate a final distance map.
尚、計測対象物にドットパターンを投影し1つのカメラで撮影した画像上のドットパターンとプロジェクタのドットパターンとの対応関係から三角測量の原理により計測した距離マップである。第1の距離マップは、能動的に対応付け手掛かりを作り出す方式のため、アクティブステレオ方式とも呼ぶ。第2の距離マップは、計測対象物にドットパターンを投影せずに異なる2つのカメラで撮影距離した画像からステレオ計測した距離マップである。第2の距離マップは、受動的に対応付けを行う方式のため、パッシブステレオ方式とも呼ぶ The distance map is measured by the principle of triangulation based on the correspondence between the dot pattern on the image captured by one camera and the dot pattern on the projector, after projecting a dot pattern on the object to be measured. The first distance map is also called the active stereo method, since it is a method that actively creates matching clues. The second distance map is a distance map measured in stereo from images captured by two different cameras at different distances, without projecting a dot pattern on the object to be measured. The second distance map is also called the passive stereo method, since it is a method that passively performs matching.
このようにアクティブステレオ方式とパッシブステレオ方式を組み合わせることで、テクスチャの少ない計測対象物を含む様々な対象に対して奥行きマップの計測が可能となり、より高精度な計測を実現できる。 By combining active and passive stereo in this way, it becomes possible to measure depth maps for a variety of objects, including those with little texture, achieving more accurate measurements.
しかし、従来の方法は、アクティブステレオ方式とパッシブステレオ方式との双方でそれぞれ個別にマッチングを行って距離を一旦算出する方法を用いている。そのため、それぞれで正しく対応関係が求まらない場合に後処理で情報をまとめたとしても精度が不十分となり、改善の余地があった。 However, conventional methods use a method in which matching is performed separately for both the active stereo method and the passive stereo method, and then the distance is calculated once. As a result, when the correspondence cannot be determined correctly for each method, even if the information is combined in post-processing, the accuracy is insufficient, and there is room for improvement.
そこで、本発明では、対象物までの距離値を高精度に算出可能な3次元計測装置を提供することを目的としている。 Therefore, the present invention aims to provide a three-dimensional measuring device that can calculate the distance to an object with high accuracy.
上記目的を達成するために、本発明の一側面としての3次元計測装置は、対象物を互いに異なる視点から撮像する複数の撮像部と、複数の撮像部により対象物を第1の条件で取得した第1の画像群と対象物を第1の条件とは異なる第2の条件で取得した第2の画像群と、を用いて対応付けを行うことにより、対象物までの距離値を算出する処理部と、を有し、処理部は、第1と第2の画像群それぞれの画像における照明光の波長に基づく画像特性、照明光の光源に起因する画像特性、照明光のパターンに起因する特徴の大きさの少なくとも1つの情報に基づいて第1と第2の画像群に対する対応付けを行うか、又は、情報に基づいて第1と第2の画像群に対して対応付けの前に行う処理を行った後に対応付けを行い、対応付けによって得られた視差値を用いて距離値を算出することを特徴とする。 In order to achieve the above object, a three-dimensional measuring device according to one aspect of the present invention has a plurality of imaging units that capture images of an object from different viewpoints, and a processing unit that calculates a distance value to the object by performing correspondence between a first image group obtained by the plurality of imaging units under a first condition and a second image group obtained by the object under a second condition different from the first condition, and the processing unit performs correspondence between the first and second image groups based on at least one piece of information among image characteristics based on the wavelength of the illumination light in each of the images of the first and second image groups, image characteristics caused by the light source of the illumination light, and size of features caused by the pattern of the illumination light, or performs correspondence between the first and second image groups after performing processing on the first and second image groups before the correspondence based on the information, and calculates the distance value using the parallax value obtained by the correspondence.
本発明によれば、対象物までの距離値を高精度に算出可能な3次元計測装置を提供することができる。 The present invention provides a three-dimensional measuring device that can calculate the distance to an object with high accuracy.
以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。 Below, the mode for carrying out the present invention will be described in detail with reference to the attached drawings. The embodiment described below is one example of a means for realizing the present invention, and should be appropriately modified or changed depending on the configuration of the device to which the present invention is applied and various conditions, and the present invention is not limited to the following embodiment.
<実施例1>
実施例1では、複数の撮像部のうち、1つの撮像部(同一の撮像部)で撮像した画像であるアクティブ画像とパッシブ画像とから、両者が効果的に働くようにマッチングの評価値に統合・併用して距離値を算出する方法について説明する。具体的には、アクティブ画像、パッシブ画像の特性を考慮して収差補正及びノイズ除去処理等の前処理をそれぞれ実施した上で、各画像の特徴の大きさに基づいた領域を用いて統合した評価値を算出する。これにより、従来よりも高精度な距離算出が可能となる。
Example 1
In the first embodiment, a method for calculating a distance value from an active image and a passive image captured by one of a plurality of image capturing units (the same image capturing unit) by integrating and using them together in a matching evaluation value so that both images work effectively will be described. Specifically, after performing preprocessing such as aberration correction and noise removal processing in consideration of the characteristics of the active image and the passive image, an integrated evaluation value is calculated using an area based on the size of the features of each image. This makes it possible to calculate the distance with higher accuracy than before.
アクティブ画像は、計測対象物の表面上にパターン光を照射して撮影した画像であり、計測対象物の表面上に投影されたパターン(照明光のパターン)が観測される画像である。パッシブ画像は、計測対象物の表面上にパターン光を照射せずに撮影した画像であり、計測対象物の表面上にパターン(照明光のパターン)が投影されておらず、計測対象物の3次元構造や表面上のテクスチャが観測される画像である。パターン光を照射して異なる2つのカメラで撮影した画像からステレオ計測することを以下、アクティブ計測と呼び、パターン光を照射せずに異なる2つのカメラで撮影した画像からステレオ計測することを以下、パッシブ計測とも呼ぶ。 An active image is an image taken by shining a pattern light onto the surface of the object to be measured, in which the pattern (illumination light pattern) projected onto the surface of the object to be measured is observed.A passive image is an image taken without shining a pattern light onto the surface of the object to be measured, in which no pattern (illumination light pattern) is projected onto the surface of the object to be measured, in which the three-dimensional structure of the object to be measured and the texture on its surface are observed.Hereinafter, stereo measurement from images taken with two different cameras while shining a pattern light will be referred to as active measurement, and hereinafter, stereo measurement from images taken with two different cameras without shining a pattern light will also be referred to as passive measurement.
図1は、実施例1の3次元計測装置100を例示した図である。実施例1の3次元計測装置100は、制御部101、投影部102、第1の撮像部103、第2の撮像部104、処理部105から構成される。尚、図1には、実施例1における3次元計測装置100が計測する計測対象物106の例も図示されている。
FIG. 1 is a diagram illustrating a three-
制御部101は、CPUやメモリ(記憶部)などを含み、少なくとも1つのコンピュータで構成される。制御部101は、3次元計測装置100が計測対象物106の距離値を出力するために、投影部102、第1の撮像部103、第2の撮像部104、処理部105の各種の動作及び動作の開始と終了を制御する。具体的には、投影部102に対してはパターン光投影開始指令とパターン光投影終了指令を送り、第1の撮像部103と第2の撮像部104に対しては撮像開始指令と撮像終了指令を送る。処理部105に対しては、距離値算出の開始指令等を送る。
The
投影部102は、制御部101からのパターン光投影開始指令を受けると、制御部101からのパターン光投影終了指令を受けるまでパターンを有する照明光としてパターン光を照射し、計測対象物106の表面上にパターン光を投影する。このとき照射されるパターン光は、一様乱数や正規乱数に基づく非周期的な強度パターンをもつものであることが望ましい。パターン光の光源としては、例えば、レーザやLEDなどが挙げられるがそれらに限定されない。尚、投影されるパターン光の波長が第1の撮像部103と第2の撮像部104において感度をもつ波長帯域に含まれており、且つアクティブ画像において計測対象物106表面上のパターンが観測できるものであればよい。
When the
第1の撮像部103と第2の撮像部104は、計測対象物106に対して、少なくとも互いに異なる位置または異なる角度となるように配置されており、第1の撮像部103と第2の撮像部104は、互いに異なる視点で計測対象物106を撮像する。第1の撮像部103と第2の撮像部104は、制御部101からの撮像開始指令を受けると、計測対象物106の撮像を開始する。そして、制御部101からの撮像終了指令を受けるまで各視線方向の画像を撮像し、取得した画像データを処理部105に出力する。尚、このとき、第1の撮像部103と第2の撮像部104が撮像した画像取り込みのタイミングは互いに同期するように制御される。
The
投影部102から投影されるパターン光が近赤外光である場合には、アクティブ画像とパッシブ画像とで、計測対象物106からの反射光として受光する波長帯域が異なることになる。このため、アクティブ画像とパッシブ画像とで、色収差により観測される像の位置ずれが発生する。色収差の影響を低減するための手段としては、処理部105において、アクティブ計測用とパッシブ計測用のキャリブレーションパラメータを用いてそれぞれ色収差を補正する。第1の撮像部103と第2の撮像部104の感度については、投影部102から投影されるパターン光の波長の帯域と、可視光の波長の帯域に感度を持っている必要がある。
When the pattern light projected from the
処理部105は、第1の撮像部103と第2の撮像部104から計測対象物106を撮像した画像群として各画像データを受け取り、且つ制御部101から距離算出開始指令を受け取ると、受け取った各画像データに基づき、距離値算出処理を実施する。具体的には、第1の撮像部103と第2の撮像部104が計測対象物106を撮像した各画像データを用いて対応付けを行い、対応付けを行った各画像データを用いて計測対象物106までの距離値を算出する処理を実施する。処理部105における計測対象物106までの距離値を算出する処理の詳細は後述する。
When the
また、処理部105は、距離値算出処理を実施するのに必要なデータとして、第1の撮像部103と第2の撮像部104のキャリブレーションパラメータを保持している。ここで、キャリブレーションパラメータは、第1の撮像部103と第2の撮像部104との相対位置姿勢を表すパラメータ、それぞれの撮像部の画像中心や焦点距離、歪み収差を表すパラメータ等を含む。尚、アクティブ画像撮像時に投影部102から投影されるパターン光の波長が近赤外光である場合は、アクティブ計測用のキャリブレーションパラメータと、パッシブ計測用のキャリブレーションパラメータをそれぞれ保持しておく。あるいは、両者の波長差に基づく倍率差のみを保持してもよい。
The
図2は、実施例1に係る3次元計測装置100で計測対象物106の距離値を算出するまでの動作(処理)を示すフローチャートである。尚、図2のフローチャートで示す各動作(処理)は、制御部101がコンピュータプログラムを実行することによって、制御される。
FIG. 2 is a flowchart showing the operation (processing) up to calculating the distance value of the
まず、ステップS1101において、制御部101から投影部102にパターン光投影開始指令が送られ、投影部102からパターン光が照射される。これにより、計測対象物106の表面上にパターンが投影される。
First, in step S1101, the
次に、ステップS1102において、制御部101から第1の撮像部103と第2の撮像部104に撮像開始指令が送られる。撮像開始指令が撮像を行う各撮像部に送信されたら、第1の撮像部103と第2の撮像部104は、それぞれの視点から計測対象物106の表面上にパターン光のパターンが投影された第1の条件におけるシーンを撮像する(撮像工程)。この撮像処理は、制御部101から撮像終了指令が送られるまで実施される。本ステップにより、各撮像部が計測対象物106の表面上にパターン光のパターンを投影した第1の条件で撮像したアクティブ画像の画像群(第1の画像群)を取得することができる。本ステップで、第1の撮像部103と第2の撮像部104が撮像して取得した各アクティブ画像(第1の画像群)の画像データは、処理部105に送られる。
Next, in step S1102, the
図3は、実施例1に係る第1の撮像部103と第2の撮像部104で取得するアクティブ画像とパッシブ画像の概念図の一例を示した図である。図3(A)は、第1の撮像部103と第2の撮像部104で取得したアクティブ画像の概念図の一例である。図3(B)は、第1の撮像部103と第2の撮像部104で取得したパッシブ画像の概念図の一例である。
Figure 3 shows an example of a conceptual diagram of an active image and a passive image acquired by the
図3(A)に示す第1のアクティブ画像110は、第1の撮像部103で撮像したアクティブ画像の概念図であり、第2のアクティブ画像111は、第2の撮像部104で撮像したアクティブ画像の概念図である。図3(A)に示す第1のアクティブ画像110と第2のアクティブ画像111において、計測対象物106の表面上に観測されるパターンは、後述する計測対象物106までの距離値の算出処理における視差値算出のための手がかりとして用いられる。
The first active image 110 shown in FIG. 3(A) is a conceptual diagram of an active image captured by the
次に、ステップS1103において、制御部101から投影部102にパターン光投影終了指令が送られ、投影部102はパターン光の照射を止め、計測対象物106へのパターン光の投影を終了する。ここで、本ステップで制御部101は、パターン光を照射する第1の条件からパターン光を照射しない第2の条件となるように照射条件(投影条件)を切り替える。
Next, in step S1103, the
次に、ステップS1104において、制御部101から第1の撮像部103と第2の撮像部104に撮像開始指令が送られる。撮像開始指令が撮像を行う各撮像部に送信されたら、第1の撮像部103と第2の撮像部104は、それぞれの視点から計測対象物106の表面上にパターン光のパターンが投影されていない第2の条件におけるシーンを撮像する(撮像工程)。この撮像処理は、制御部101から撮像終了指令が送られるまで実施される。このとき、第1の撮像部103と第2の撮像部104は、計測対象物106から反射された可視光を受光する。本ステップにより、各撮像部が計測対象物106にパターン光を投影しない第2の条件で撮像したパッシブ画像の画像群(第2の画像群)を取得することができる。本ステップで第1の撮像部103と第2の撮像部104が撮像し、取得した各パッシブ画像(第2の画像群)の画像データは、処理部105に送られる。
Next, in step S1104, an image capture start command is sent from the
図3(B)に示す第1のパッシブ画像112は、第1の撮像部103で撮像したパッシブ画像の概念図であり、第2のパッシブ画像113は、第2の撮像部104で撮像したパッシブ画像の概念図である。第1のパッシブ画像112と第2のパッシブ画像113にて観測される計測対象物106の3次元構造に由来する段差、エッジや表面上のテクスチャ等の特徴は、計測対象物106までの距離値の算出処理における視差値算出のための手がかりとして用いられる。
The first passive image 112 shown in FIG. 3B is a conceptual diagram of a passive image captured by the
ここまで説明したステップS1101からステップS1104までの動作フローは、アクティブ画像、パッシブ画像の順に撮像する場合のフローであるが、この順番について任意に入れ替えても構わない。例えば、パッシブ画像、アクティブ画像の順に撮像する場合は、ステップS1104、S1102、S1103の順に各種の処理を実行する。 The operational flow from step S1101 to step S1104 described so far is a flow for capturing images in the order of active image and passive image, but this order may be changed as desired. For example, when capturing images in the order of passive image and active image, various processes are executed in the order of steps S1104, S1102, and S1103.
次に、ステップS1105において、制御部101から処理部105に距離算出開始指令が送られ、処理部105は、アクティブ画像の各画像データとパッシブ画像の各画像データ、及びキャリブレーションパラメータを用いて距離値を算出する(処理工程)。
Next, in step S1105, the
図4は、処理部105において実施される、計測対象物106の距離値を算出する処理の具体的な動作を示すフローチャートである。即ち、図4は、図2に示すステップS1105の処理の詳細を説明するフローチャートである。尚、図4のフローチャートで示す各動作(処理)は、制御部101がコンピュータプログラムを実行することによって、制御される。
Fig. 4 is a flowchart showing the specific operations of the process for calculating the distance value of the
まず、ステップS1111において、第1のアクティブ画像110と第2のアクティブ画像111にノイズ除去処理を実施する。例えば、アクティブ画像の撮像において、近赤外のレーザを光源としたパターン光を照射した場合には、照明光の光源に起因する画像特性として散乱光同士の干渉により不規則な斑点上の模様(スペックルノイズ)が発生する。スペックルノイズは、位置によって異なる模様として観測されるため、ステレオマッチングの精度低下の要因となる。対策としては、ガウシアンフィルタ、メディアンフィルタなどの平滑化フィルタを用いることが有効である。 First, in step S1111, noise removal processing is performed on the first active image 110 and the second active image 111. For example, when capturing an active image, if pattern light using a near-infrared laser as a light source is irradiated, an irregular spotted pattern (speckle noise) occurs due to interference between scattered lights, which is an image characteristic caused by the light source of the illumination light. Speckle noise is observed as a pattern that differs depending on the position, and therefore causes a decrease in the accuracy of stereo matching. As a countermeasure, it is effective to use a smoothing filter such as a Gaussian filter or a median filter.
平滑化フィルタのサイズは、例えば、第1のアクティブ画像110と第2のアクティブ画像111において観測されるスペックルのサイズ程度に設定するなど最適化しておくことで、より高いノイズ除去効果がある。一方、パッシブ画像にはスペックルノイズは発生せず、ノイズ除去処理は不要であるため、少なくとも第1の画像群におけるアクティブ画像にノイズ除去処理を行う。あるいは、ショットノイズを除外できるように数画素程度のカーネルサイズの平滑化フィルタを適用してもよい。 By optimizing the size of the smoothing filter, for example by setting it to approximately the size of the speckles observed in the first active image 110 and the second active image 111, a higher noise removal effect can be achieved. On the other hand, since speckle noise does not occur in passive images and noise removal processing is not necessary, noise removal processing is performed on at least the active images in the first image group. Alternatively, a smoothing filter with a kernel size of about several pixels can be applied so that shot noise can be removed.
次に、ステップS1112において、第1のパッシブ画像112、第2のパッシブ画像113と、ノイズ除去後の第1のアクティブ画像110と第2のアクティブ画像111において発生する収差(ディストーション)を補正する(歪み補正する)。当該歪み補正は、アクティブ画像とパッシブ画像の少なくとも一方に対して行う。さらに、第1のアクティブ画像110と第2のアクティブ画像111、第1のパッシブ画像112、第2のパッシブ画像113に対し平行化処理を行う。収差の補正には、第1の撮像部103と第2の撮像部104のキャリブレーションパラメータを用いる。
Next, in step S1112, aberration (distortion) occurring in the first passive image 112, the second passive image 113, and the first active image 110 and the second active image 111 after noise removal is corrected (distortion correction is performed). The distortion correction is performed on at least one of the active image and the passive image. Furthermore, parallelization processing is performed on the first active image 110 and the second active image 111, the first passive image 112, and the second passive image 113. Calibration parameters of the
尚、第1の撮像部103と第2の撮像部104において受光する照明光の波長がアクティブ画像撮像時とパッシブ画像撮像時で異なる場合、色収差の影響を低減するために、キャリブレーションパラメータを使い分けることが好ましい。具体的には、アクティブ計測用とパッシブ計測のキャリブレーションパラメータを使い分けることが好ましい。例えば、近赤外のパターン光を照射してアクティブ画像の撮影を行う場合には、近赤外の照明を照射した撮影画像を用いてアクティブ画像用のキャリブレーションパラメータを予め算出しておく。
When the wavelength of the illumination light received by the
また、可視光化でパッシブ画像の撮影を行う場合には、可視光照明下の撮影画像を用いてパッシブ画像用のキャリブレーションパラメータを算出しておく。そして、アクティブ画像における収差補正には算出したアクティブ計測用のキャリブレーションパラメータを用い、パッシブ画像における収差補正には算出したパッシブ計測用のキャリブレーションパラメータを用いる。これにより、平行化した画像において、照明光の波長に基づく画像特性である収差の影響を低減できる(概ね排除できる)。以上のステップS1111、S1112を実施することで、後述する対応付けの前に行う前処理として画像の補正を行うことができる。 When capturing a passive image using visible light, calibration parameters for the passive image are calculated using the image captured under visible light illumination. The calculated calibration parameters for active measurement are then used for aberration correction in the active image, and the calculated calibration parameters for passive measurement are used for aberration correction in the passive image. This makes it possible to reduce (or essentially eliminate) the effects of aberration, which is an image characteristic based on the wavelength of the illumination light, in the collimated image. By performing the above steps S1111 and S1112, image correction can be performed as pre-processing prior to the matching described below.
次に、ステップS1113において、アクティブ画像とパッシブ画像を用いて、第1の撮像部103で撮影した各画像と、第2の撮像部104で撮像した各画像との、着目画素の組み合わせごとに類似度を評価する評価値を算出する。
Next, in step S1113, an evaluation value is calculated using the active image and the passive image to evaluate the similarity for each combination of pixels of interest between each image captured by the
評価値を算出する手法として、ここでは、SAD(Sum of Absolute Difference)を利用する方法について説明する。第1のアクティブ画像及び第2のアクティブ画像の着目画素(x、y)の輝度値をそれぞれILA(x、y)、IRA(x、y)、第1のパッシブ画像及び第2のパッシブ画像の着目画素(x、y)の輝度値をそれぞれILP(x、y)、IRP(x、y)とする。このとき、アクティブ画像の類似度を評価値とした評価値SADA、パッシブ画像の類似度を評価値とした評価値SADPはそれぞれ以下の式(1)と式(2)で表される。
アクティブ画像における評価値SADAとパッシブ画像における評価値SADPは、それぞれ値が小さいほど着目領域周辺が互いに類似することを意味する。類似度を算出するウインドウサイズは、アクティブ画像における投影のパターン(照明光のパターン)の密度や、パッシブ画像における計測対象物の特徴の大きさに応じて、それぞれの画像の特徴が適度に含まれるように設定することで対応付けの精度が向上する。 The smaller the evaluation value SAD A in the active image and the evaluation value SAD P in the passive image, the more similar the periphery of the region of interest is. The window size for calculating the similarity is set so that the features of each image are appropriately included according to the density of the projection pattern (illumination light pattern) in the active image and the size of the features of the measurement target object in the passive image, thereby improving the accuracy of the correspondence.
例えば、図3に示すように、アクティブ画像における評価値SADAを計算するウインドウ107の幅waと高さhaは、ウインドウ内にドットパターンが少なくとも1つは含まれるように設定する。さらに、パッシブ画像における評価値SADPを計算するウインドウ108の幅wpと高さwpは、計測対象物の微細構造を活かした対応付けが行えるよう、マッチング可能な範囲で極力小さく設定する。このようにすることで、対応付けの精度が向上する。 For example, as shown in Fig. 3, the width wa and height ha of a window 107 for calculating an evaluation value SAD A in an active image are set so that at least one dot pattern is included within the window. Furthermore, the width wp and height wp of a window 108 for calculating an evaluation value SAD P in a passive image are set as small as possible within a range where matching is possible so that correspondence can be performed making use of the fine structure of the measurement object. In this way, the accuracy of correspondence is improved.
マッチングに用いるウインドウの大きさは、マッチングの結果得られる距離マップの横分解能に強く影響するため、安定したマッチングができる範囲で極力小さくした方がよい。尚、領域の大きさだけでなく、領域内で利用する画素数を変えてもよい。 The size of the window used for matching strongly affects the horizontal resolution of the distance map obtained as a result of matching, so it is best to make it as small as possible while still allowing stable matching. Note that in addition to the size of the region, the number of pixels used within the region may also be changed.
具体的には、有効な特徴が必要数だけ得られるように、評価値算出に利用する画素を領域内で適宜間引いても構わない。2つの評価値SADAと評価値SADPを算出後、統合した評価値SADを算出する。両者を統合する際には、ウインドウサイズが大きい方の評価値が過剰に寄与しないようにすることが好ましい。2つの評価値SADA、評価値SADPを計算するウインドウ内で利用した画素数をそれぞれSA、SPとし、以下の式(3)のように算出する。
次に、ステップS1114において、ステップS1113で算出した評価値SADを用いて視差値を算出する。例えば、第1の撮像部で撮像した画像を基準として視差値を算出する場合、第2の撮像部で撮像した画像上で、着目画素位置Piと同一高さのライン上に対応点が存在する。ステップS1113において、第2の撮像部で撮像した画像の該当ライン上の各画素位置(Pj1、Pj2、Pj3、・・・、Pjn)と着目画素Piとの類似度を表す評価値(Eij1、Eij2、Eij3、・・・、Eijn)が既に算出されている。本ステップでは、これらの評価値のうち最も類似度が高い組み合わせを選択し、対応する視差値を、着目画素位置Piについての視差値として算出する。 Next, in step S1114, the disparity value is calculated using the evaluation value SAD calculated in step S1113. For example, when calculating the disparity value based on the image captured by the first imaging unit, a corresponding point exists on a line at the same height as the pixel position of interest Pi on the image captured by the second imaging unit. In step S1113, evaluation values (Eij1, Eij2, Eij3, ..., Eijn) representing the similarity between each pixel position (Pj1, Pj2, Pj3, ..., Pjn) on the corresponding line of the image captured by the second imaging unit and the pixel of interest Pi have already been calculated. In this step, the combination with the highest similarity among these evaluation values is selected, and the corresponding disparity value is calculated as the disparity value for the pixel position of interest Pi.
同様の処理を、着目する画素位置を変えながら実施する。尚、類似度を表す評価値の算出手法としてSADを例に示したが、このほかの手法を用いてもよい。例えば、SSD(Sum of Squared Diffference)、NCC(Normalized Cross Correlation)などの手法を用いてもよい。さらに、ZNCC(Zero means Normalized Cross Correlation)などの手法を用いてもよい。 The same process is performed while changing the pixel position of interest. Although SAD is used as an example of a method for calculating an evaluation value representing similarity, other methods may be used. For example, methods such as SSD (Sum of Squared Difference) and NCC (Normalized Cross Correlation) may be used. Furthermore, methods such as ZNCC (Zero Means Normalized Cross Correlation) may be used.
尚、本ステップで用いる評価式はこれらに限定されず、第1の統合画像114において着目する画素位置近傍における特徴と、第2の統合画像115において着目する画素位置近傍における特徴との類似性を評価できるものであればよい。 The evaluation formula used in this step is not limited to these, and any formula can be used as long as it can evaluate the similarity between the features in the vicinity of the pixel position of interest in the first integrated image 114 and the features in the vicinity of the pixel position of interest in the second integrated image 115.
次に、ステップS1115において、視差値を距離値に変換する。距離値は、第1の撮像部103と第2の撮像部104の相対位置関係を含むキャリブレーションパラメータを用いて、視差値から算出することができる。
Next, in step S1115, the parallax value is converted into a distance value. The distance value can be calculated from the parallax value using a calibration parameter including the relative positional relationship between the first
以上、実施例1における計測対象物106までの距離値を対応付け後の統合された画像群を用いて算出する方法について説明したが、実施例1においては上述の方法に限定されず、以下に説明するような様々な変更が可能である。
The above describes a method for calculating the distance value to the
(変形例1)
ステップS1102におけるアクティブ画像の撮影において近赤外のパターン光を用いる場合、環境光の光量が相対的に多いと、環境光に含まれる可視光成分の影響を受けるため、あらかじめ環境光成分を除外してもよい。環境光成分を除去する手段としては、同一の撮像部を用いて、別途、環境光画像を撮影して減算する方法がある。環境光画像は、ノイズ除去処理のうち、アクティブ画像の環境光ノイズを除去するために用いる。
(Variation 1)
When near-infrared pattern light is used in capturing an active image in step S1102, if the amount of ambient light is relatively large, the image will be affected by the visible light component contained in the ambient light, so the ambient light component may be removed in advance. One method for removing the ambient light component is to use the same imaging unit to capture an ambient light image separately and subtract it. The ambient light image is used to remove ambient light noise from the active image as part of the noise removal process.
同一の撮像部で撮像したアクティブ画像と環境光画像における同一の画素位置の輝度値について、アクティブ画像由来の輝度値から環境光画像由来の輝度値を差し引くことで、環境光成分の除去が可能である。尚、ステップS1104におけるパッシブ画像の撮像とステップS1102におけるアクティブ画像の撮像の露光時間が同じ場合には、環境光画像の撮影を行わず、代わりにパッシブ画像を減算することで、環境光成分の除去が可能である。 For the luminance values of the same pixel position in an active image and an ambient light image captured by the same imaging unit, the ambient light component can be removed by subtracting the luminance value derived from the ambient light image from the luminance value derived from the active image. Note that if the exposure time for capturing the passive image in step S1104 and the exposure time for capturing the active image in step S1102 are the same, the ambient light component can be removed by not capturing the ambient light image and instead subtracting the passive image.
(変形例2)
また、ステップS1113において、輝度値のままで演算を行うのではなく、所定の変換処理、具体的にはセンサス変換を行い得られたビット列のハミング距離を用いて評価値を算出してもよい。センサス変換は、着目画素と、周辺領域の各画素の輝度値の大小関係を比較し、着目画素が大きい場合には比較した画素の輝度値を0、小さい場合には1に置き換える変換である。この場合、第1のアクティブ画像110及び第2のアクティブ画像111に対してそれぞれ幅waと高さhaの領域を対象としたセンサス変換を実施し、変換後のビット列を用いてウインドウ内の同一位置同士のビット列を用いてハミング距離を算出する。
(Variation 2)
Also, in step S1113, instead of performing the calculation using the luminance values as they are, a predetermined conversion process, specifically a census conversion, may be performed to calculate the evaluation value using the Hamming distance of the bit string obtained. The census conversion is a conversion in which the luminance values of a pixel of interest and each pixel in the surrounding area are compared to determine which is larger, and if the pixel of interest is larger, the luminance value of the compared pixel is replaced with 0, and if it is smaller, it is replaced with 1. In this case, a census conversion is performed on the first active image 110 and the second active image 111 for an area of width wa and height ha, respectively, and the Hamming distance is calculated using the converted bit strings between bit strings at the same position within the window.
ここで算出したアクティブ画像の評価値を、評価値CHAとする。同様にパッシブ画像には、幅wpと高さhpの領域を対象としたセンサス変換を実施し、変換後のビット列を用いたハミング距離をパッシブ画像の評価値CHPとして算出する。そして、算出した評価値CHA、評価値CHPでそれぞれ、上記式(3)あるいは上記式(4)の評価値SADA、評価値SADPを置き換えて両者を統合した評価値として評価値SADを算出すればよい。または、アクティブ画像とパッシブ画像とでそれぞれ異なる大きさの領域でセンサス変換を行い得られるビット列を並べたビット列を用いてハミング距離を算出してもよい。 The evaluation value of the active image calculated here is designated as evaluation value CH A. Similarly, census conversion is performed on the passive image for an area of width wp and height hp, and the Hamming distance using the converted bit string is calculated as evaluation value CH P of the passive image. Then, the evaluation value SAD A and evaluation value SAD P in the above formula (3) or (4) are replaced with the calculated evaluation values CH A and CH P , respectively, to calculate evaluation value SAD as an evaluation value that combines both. Alternatively, the Hamming distance may be calculated using a bit string in which bit strings obtained by performing census conversion on areas of different sizes for the active image and the passive image are arranged.
例えば、アクティブ画像にウインドウサイズ7×7の49画素の領域でセンサス変換を実施した場合、48(=49-1)ビットのビット列が得られる。同様に、パッシブ画像にウインドウサイズ5×5の25画素の領域でセンサス変換を実施した場合には24(=25-1)ビットのビット列が得られる。このとき、それぞれのビット列を並べて、72(=48+24)ビットのビット列を用いてハミング距離を算出し、この値を評価値としてもよい。この場合には、それぞれの画像からセンサス変換に利用した画素数により、両者の重みを変えることが可能である。なお、実施例1と同様に、領域内で利用する画素数を適宜間引くなどの処理をしてもよい。 For example, when census transformation is performed on an active image in a region of 49 pixels with a window size of 7x7, a bit string of 48 (=49-1) bits is obtained. Similarly, when census transformation is performed on a passive image in a region of 25 pixels with a window size of 5x5, a bit string of 24 (=25-1) bits is obtained. In this case, each bit string can be lined up, and the Hamming distance can be calculated using a bit string of 72 (=48+24) bits, and this value can be used as the evaluation value. In this case, it is possible to change the weight of both depending on the number of pixels used in the census transformation from each image. Note that, as in Example 1, processing such as appropriately thinning out the number of pixels used within the region can be performed.
(変形例3)
ステップS1101~S1104において、アクティブ画像とパッシブ画像とを別々の時刻でそれぞれ撮影を行うこととした。しかし、アクティブ画像を撮像するためのパターン光を特定の波長にして撮影を行い、該当成分を画像から分離することで、1回の撮影でアクティブ画像とパッシブ画像とを取得することも可能である。
(Variation 3)
In steps S1101 to S1104, the active image and the passive image are captured at different times. However, it is also possible to capture the active image with a specific wavelength of pattern light and separate the corresponding component from the image, thereby acquiring the active image and the passive image in a single capture.
例えば、アクティブ画像を撮像するためのパターン光の投影を赤色など特定の色にしてRGBセンサで撮影を行う場合を想定する。この場合、該当色成分を抽出した画像をアクティブ画像に、それ以外(もしくは緑色のみでも良い)の成分を抽出した画像をパッシブ画像にそれぞれ用いる(置き換える)ことも可能となり、1回の撮影でアクティブ画像、パッシブ画像の撮影が行える。この場合においても、それぞれの画像の特性は実施例1と同様に取得方法に依存して異なるため、上記で説明したそれぞれに適したノイズ除去処理や収差補正等の前処理を行い、評価値の算出処理を行う。ここで、当該前処理及び評価値の算出方法自体は実施例1で説明した方法と同様であるため、詳細な説明は省略する。 For example, assume that the pattern light for capturing an active image is projected in a specific color such as red and captured with an RGB sensor. In this case, it is possible to use (replace) an image from which the relevant color components are extracted as the active image, and an image from which other components (or even just green) are extracted as the passive image, and both the active image and the passive image can be captured in a single capture. Even in this case, the characteristics of each image differ depending on the capture method, as in Example 1, so pre-processing such as noise removal and aberration correction appropriate for each image as described above is performed, and then the evaluation value calculation process is performed. Here, the pre-processing and the evaluation value calculation method themselves are the same as those described in Example 1, so a detailed description is omitted.
以上のように、実施例1における3次元計測装置100によれば、各アクティブ画像と各パッシブ画像の各種画像特性や特徴の情報に基づき、それぞれの画像から対応付けに用いる評価値をそれぞれ算出する。そして、算出した当該評価値を用いて計測対象物106までの距離値を算出することができる。これにより、ロバストかつ高精度に計測対象物106までの距離値を算出することができる3次元計測装置を提供することが可能となる。
As described above, according to the three-
<実施例2>
実施例2では、実施例1と同様の装置構成で、アクティブ画像とパッシブ画像とを統合してステレオ計測の対応点探索に用いる画像(統合画像、合成画像)を新たに生成(作成)する。統合画像(第3の画像)を新たに生成する際、アクティブ画像とパッシブ画像の各々で観測される、対応付けの手がかりとなる特徴が残るように統合画像を生成し、統合画像を用いて距離値を算出する。これにより、アクティブ計測とパッシブ計測を別々に行った後に組み合わせるよりも高精度に距離値を算出できる。尚、上記のように実施例2では、実施例1と同様の装置構成であるため、装置構成の詳細な説明を省略する。
Example 2
In the second embodiment, an active image and a passive image are integrated with the same device configuration as in the first embodiment to generate (create) a new image (integrated image, composite image) to be used for searching for corresponding points in stereo measurement. When generating a new integrated image (third image), the integrated image is generated so that features observed in each of the active image and the passive image that serve as a clue for matching remain, and the distance value is calculated using the integrated image. This allows the distance value to be calculated with higher accuracy than when active measurement and passive measurement are performed separately and then combined. As described above, the second embodiment has the same device configuration as the first embodiment, and therefore a detailed description of the device configuration will be omitted.
実施例2は、実施例1において実施していたアクティブ画像とパッシブ画像をそれぞれに適した補正処理を行った上で、アクティブ画像とパッシブ画像における評価値を算出し、算出したアクティブ画像とパッシブ画像の評価値を統合する処理は行わない。代わりに、それぞれの画像における画像特性や特徴に適した補正処理を行った後に、一組のステレオ画像となるように画像に統合して、統合した画像(統合画像)を用いて距離値算出の処理を行う。以下、図5を参照して、実施例2の3次元計測装置について説明する。ここで、実施例2においては、実施例1と異なる部分について説明し、重複する箇所等は適宜説明を省略する。 In Example 2, the active image and passive image are subjected to appropriate correction processing respectively, and then evaluation values for the active image and passive image are calculated, as was done in Example 1, and the calculated evaluation values for the active image and passive image are not integrated. Instead, after performing correction processing appropriate to the image characteristics and features of each image, the images are integrated to form a pair of stereo images, and the integrated image (integrated image) is used to calculate the distance value. The three-dimensional measuring device of Example 2 will be described below with reference to FIG. 5. Here, in Example 2, the differences from Example 1 will be described, and overlapping parts will be omitted as appropriate.
図5は、実施例2における距離値算出フローを示した図である。ここで、図5におけるステップS2111、S2112、S2115、S2116の処理内容は、それぞれ図4におけるS1111、S1112、S1114、S1115と同様の処理内容である。従って、説明を省略し、実施例1における距離値算出処理と異なる処理を含むステップS2113及びS2114の処理について以下に説明する。 Figure 5 is a diagram showing the distance value calculation flow in Example 2. Here, the processing contents of steps S2111, S2112, S2115, and S2116 in Figure 5 are the same as the processing contents of S1111, S1112, S1114, and S1115 in Figure 4, respectively. Therefore, the explanation will be omitted, and the processing of steps S2113 and S2114, which include processing different from the distance value calculation processing in Example 1, will be explained below.
ステップS2113において、第1のアクティブ画像110と第2のアクティブ画像111、及び第1のパッシブ画像112と第2のパッシブ画像113を用いて、対応付け用の画像として統合画像(第3の画像)を生成する。統合画像の生成の際は、各アクティブ画像(第1の画像群)から1つの撮像部が撮像したアクティブ画像(第1の画像)と、各パッシブ画像(第2の画像群)から当該1つの撮像部が撮像したパッシブ画像(第2の画像)とに基づき、統合画像を生成する。具体的には、両者の比率を設定して輝度値の単純和により統合画像を生成する。アクティブ用画像とパッシブ画像の同一画素の輝度値をそれぞれIA、IPとして、合成画像における同一画素の輝度値Isを以下の式(5)のように算出する。
尚、対応付け用の画像生成はこれ以外の方法でもよい。画像上で輝度勾配が大きいような領域は対応付けの手掛かりとして有効なため、アクティブ画像、パッシブ画像それぞれで輝度勾配が大きい領域の比率を上げるように合成するような方法も有効である。この場合には、アクティブ画像及びパッシブ画像に対してソーベルフィルタなどを適用して検出した各画素の輝度勾配の大きさの比率に基づき、それぞれアクティブ画像とパッシブ画像の重みづけ加算を行う。これにより、画素位置ごとに輝度勾配の強度に応じた重みづけで画像合成が可能になる。 Note that other methods can also be used to generate images for matching. Areas in an image with a large luminance gradient can be useful as a clue for matching, so a method of combining images that increases the ratio of areas with a large luminance gradient in each of the active and passive images is also effective. In this case, a Sobel filter or the like is applied to the active and passive images to detect the ratio of the luminance gradient of each pixel, and the active and passive images are weighted and added together. This makes it possible to combine images with weighting according to the strength of the luminance gradient for each pixel position.
図6に、図3(A)における第1のアクティブ画像110と第1のパッシブ画像112から新たに生成した第1の統合画像114の概念図を示す。加えて、図3(B)における第2のアクティブ画像111と第2のパッシブ画像113から新たに生成した第2の統合画像115の概念図を示す。 Figure 6 shows a conceptual diagram of a first integrated image 114 newly generated from the first active image 110 and the first passive image 112 in Figure 3 (A). In addition, a conceptual diagram of a second integrated image 115 newly generated from the second active image 111 and the second passive image 113 in Figure 3 (B) is shown.
ここで、図3(A)に示すアクティブ画像においては、計測対象物106表面上のパターンは明瞭に観測できるものの、計測対象物106由来の特徴である段差は不明瞭になっており、段差近傍の領域については正しい対応付けが困難である。さらに、図3(B)に示すパッシブ画像においては、計測対象物106由来の段差は明瞭に観測できるものの、計測対象物106表面上には特徴が何もないため、この領域については正しい対応付けが困難である。一方、図6に示す統合画像(第1の統合画像114、第2の統合画像115)においては、アクティブ画像由来の特徴とパッシブ画像由来の特徴がいずれも残っているため、共にそれぞれの画像における特徴を明瞭に観測することができる。即ち、新たに生成される統合画像は、計測対象物106の表面上に投影されたパターン及び計測対象物106の3次元構造や表面上のテクスチャが明瞭に観測可能となる画像である。
Here, in the active image shown in FIG. 3(A), the pattern on the surface of the
ステップS2114において、第1の統合画像114と第2の統合画像115における着目画素の組み合わせごとに評価値を算出する。評価値の算出は、実施例1における、第1のアクティブ画像及び第2のアクティブ画像を、第1の統合画像114と第2の統合画像115に置き換えて、上記式(1)で示した評価値を算出する。尚、実施例2では、統合画像を生成して評価値を算出するため、上記式(2)及び上記式(3)で示した評価値の算出は不要であり、上記式(1)で算出した評価値を後段のステップS2115にそのまま用いることができる。 In step S2114, an evaluation value is calculated for each combination of pixels of interest in the first integrated image 114 and the second integrated image 115. The evaluation value is calculated by replacing the first active image and the second active image in the first embodiment with the first integrated image 114 and the second integrated image 115, and calculating the evaluation value shown in the above formula (1). Note that in the second embodiment, since an integrated image is generated and the evaluation value is calculated, it is not necessary to calculate the evaluation values shown in the above formulas (2) and (3), and the evaluation value calculated in the above formula (1) can be used as is in the subsequent step S2115.
以上のように、実施例2における3次元計測装置100によれば、アクティブ画像由来の特徴とパッシブ画像由来の特徴が残るようにそれぞれの画像を統合し、統合した画像を用いて評価値を算出して計測対象物106までの距離値を算出することができる。これにより、アクティブ計測とパッシブ計測を別々に行った後に組み合わせるよりも高精度に距離値を算出することが可能となる。
As described above, according to the three-
<実施例3>
実施例3では、実施例1において実施していたパッシブ画像の撮像の代わりに、計測対象物106に性質の異なるパターン光を照射してアクティブ画像をさらにもう1セット撮像し、2セット分のアクティブ画像を用いて距離値を算出する。これにより、それぞれ性質の異なるパターン光で情報を補強してロバストかつ高精度に距離値の計測が可能となる。
Example 3
In the third embodiment, instead of capturing passive images as in the first embodiment, the
実施例3の装置構成は、投影部102以外は実施例1における装置構成と同様であるため、投影部102以外の装置構成の詳細な説明を省略する。実施例3の投影部102は、パターン光を複数切り替えて照射が行えるものを利用することが可能に構成される。即ち、実施例3の投影部102は、それぞれ性質の異なるパターン光を計測対象物106に投影可能に構成される。
The device configuration of Example 3 is the same as that of Example 1 except for the
ここでは、一例として実施例3の投影部102は、近赤外のレーザを光源としたサイズの大きい疎なドットパターンと、白色LEDを光源としたサイズの小さい密なドットパターンを切り替えて照射できるものとする。このように、実施例3の投影部102は、異なる光源や異なるパターン光を用いることで、性質の異なるパターン光を計測対象物106に照射することができる。尚、照射されるパターン光の光源やパターン光の組み合わせは、これに限定されず、実施例1で述べたようなさまざまなパターンの組み合わせを利用することができる、また、投影部102は、波長を変更したパターン光を照射することも可能に構成される。以下に、実施例3の処理フローについて図7を用いて説明する。
Here, as an example, the
まず、ステップS3101において、制御部101から投影部102にパターン光投影開始指令が送られ、投影部102から第1の条件に基づく第1のパターン光が照射される。これにより、計測対象物106の表面上に第1のパターン光のパターン(第1の照明光のパターン)が投影される。ここで、第1の条件で照射する第1のパターン光は、近赤外のレーザを光源としたパターン光であるものとする。
First, in step S3101, the
次に、ステップS3102において、制御部101から第1の撮像部103と第2の撮像部104に撮像開始指令が送られる。撮像開始指令が撮像を行う各撮像部に送信されたら、第1の撮像部103と第2の撮像部104は、それぞれの視点から計測対象物106の表面上に第1のパターン光のパターンが投影された第1の条件におけるシーンを撮像する(撮像工程)。この撮像処理は、制御部101から撮像終了指令が送られるまで実施される。本ステップにより、各撮像部が計測対象物106の表面上に第1のパターン光のパターンを投影したアクティブ画像の画像群(第1の画像群)を取得することができる。尚、本ステップで第1の撮像部103と第2の撮像部104が撮像して取得した各アクティブ画像(第1の画像群)の画像データは、処理部105に送られる。
Next, in step S3102, the
次に、ステップS3103において、制御部101から投影部102にパターン光投影終了指令が送られ、投影部102は第1のパターン光の照射を止め、計測対象物106への第1のパターン光の投影を終了する。ここで、本ステップで制御部101は、第1のパターン光を照射する第1の条件から、第2のパターン光を照射する第2の条件となるように照射条件(投影条件)を切り替える。
Next, in step S3103, the
次に、ステップS3104において、制御部101から投影部102に第2のパターン光の投影開始指令が送られ、投影部102から計測対象物106に第2の条件に基づく第2のパターン光が照射される。これにより、計測対象物106の表面上に第2のパターン光のパターン(第2の照明光のパターン)が投影される。本ステップで照射される第2のパターン光は、ステップS3101で投影される第1のパターン光とは、性質が異なるパターン光でありここでは、白色LEDを光源としたパターン光であるものとする。
Next, in step S3104, the
次に、ステップS3105において、制御部101から第1の撮像部103と第2の撮像部104に撮像開始指令が送られる。第1の撮像部103と第2の撮像部104は、それぞれの視点か計測対象物106の表面上に第2のパターン光のパターンが投影された第2の条件におけるシーンを撮像する(撮像工程)。この撮像処理は、制御部101から撮像終了指令が送られるまで実施される。このとき、第1の撮像部103と第2の撮像部104は、計測対象物106から反射された可視光を受光する。本ステップにより、各撮像部が計測対象物106の表面上に第2のパターン光のパターンを投影したアクティブ画像の画像群(第2の画像群)を取得することができる。尚、本ステップで第1の撮像部103と第2の撮像部104が撮像して取得した各アクティブ画像(第2の画像群)の画像データは、処理部105に送られる。
Next, in step S3105, the
図8は、実施例3における第1の撮像部103と第2の撮像部104で取得するアクティブ画像の概念図と、当該アクティブ画像とは性質の異なるパターン光が照射されたアクティブ画像の概念図の一例を示した図である。
Figure 8 shows an example of a conceptual diagram of an active image acquired by the
図8(A)は、計測対象物106の表面上に第1のパターン光のパターンを投影し、各撮像部で取得したアクティブ画像の概念図の一例である。尚、図8(A)は、図3(A)に示したアクティブ画像の概念図と同様の概念図である。図8(B)は、計測対象物106の表面上に第2のパターン光のパターンを投影し、各撮像部で取得したアクティブ画像の概念図の一例である。図7の処理フローを例とすると、図8(A)におけるアクティブ画像は、ステップS3102で撮像した画像であり、図8(B)におけるアクティブ画像は、ステップS3104で撮像した画像である。計測対象物106の表面上に観測されるパターンは、後段の距離値算出処理における視差値算出のための手がかりとして用いられる。
Fig. 8(A) is an example of a conceptual diagram of an active image acquired by each imaging unit when a first pattern of light is projected onto the surface of the
次に、ステップS3106において、制御部101から投影部102にパターン光投影終了指令が送られ、投影部102は第2のパターン光の照射を止め、計測対象物106への第2のパターン光の投影を終了する。
Next, in step S3106, the
次に、ステップS3107において、制御部101から処理部105に撮像開始指令が送られる。撮像開始指令が撮像を行う各撮像部に送信されたら、処理部105はアクティブ画像110、111、116、117の各画像データ及びキャリブレーションパラメータを用いて距離値を算出する。
Next, in step S3107, the
ここで、処理部105において実施される計測対象物106の距離値を算出する処理の具体的な処理フローは、基本的にはパッシブ画像を図7のステップS3104で取得したアクティブ画像と置き換えれば、実施例1の図4と同様であるため説明は省略する。以下では、実施例1における処理とは異なる処理を含むステップS1111、S1112、S1113について説明する。
Here, the specific processing flow of the process for calculating the distance value of the
ステップS1111において、ステップS3101及びステップS3104で照射したそれぞれのパターン光の特性に合わせたノイズ除去処理を実施する。例えば、近赤外のレーザを光源とした第1のパターン光を照射して撮像したアクティブ画像110、111には、実施例1と同様にスペックルノイズの影響を軽減するため、観測されるスペックルのサイズ程度の平滑化フィルタを適用する。白色LEDを光源とした第2のパターン光を照射して撮像したアクティブ画像116、117には、スペックルが発生しないため、スペックルノイズの除去処理を行わない。 In step S1111, noise removal processing is performed according to the characteristics of each pattern light irradiated in steps S3101 and S3104. For example, to reduce the effect of speckle noise, a smoothing filter of about the size of the observed speckle is applied to active images 110 and 111 captured by irradiating the first pattern light using a near-infrared laser as a light source, as in Example 1. Since no speckle occurs in active images 116 and 117 captured by irradiating the second pattern light using a white LED as a light source, speckle noise removal processing is not performed.
ステップS1112において、アクティブ画像110、111と、アクティブ画像116、117において発生する収差(ディストーション)の補正を行い、アクティブ画像110、111と、アクティブ画像116、117に対して平行化処理を行う。収差の補正には、第1の撮像部103と第2の撮像部104のキャリブレーションパラメータを用いる。尚、第1の撮像部103と第2の撮像部104において受光する波長がステップS3102におけるアクティブ画像撮像時とステップS3105におけるアクティブ画像撮像時で異なるため、キャリブレーションパラメータを使い分けることが好ましい。
In step S1112, aberration (distortion) occurring in active images 110, 111 and active images 116, 117 is corrected, and parallelization processing is performed on active images 110, 111 and active images 116, 117. Calibration parameters of the
ステップS1113において、アクティブ画像110、111と、アクティブ画像116、117を用いて、第1の撮像部103で撮影した画像と、第2の撮像部104で撮像した画像との、着目画素の組み合わせごとに類似度を評価する評価値を算出する。評価値の算出方法は、実施例1におけるパッシブ画像112、113をアクティブ画像116、117と置き換えれば同様であるため説明を省略する。
In step S1113, active images 110, 111 and active images 116, 117 are used to calculate an evaluation value that evaluates the similarity for each combination of pixels of interest between the image captured by the
ここで、類似度を算出するウインドウサイズは、それぞれのアクティブ画像における投影のパターン(照明光のパターン)の密度に応じて、それぞれの画像における特徴が適度に含まれるように設定することで対応付けの精度が向上する。そのため、このようにすることが好ましい。例えば、図7に示すように、アクティブ画像110、111にはウインドウ107、アクティブ画像116、117にはウインドウ118のように、ドットパターンにおけるドットが少なくとも1つは含まれるようなサイズに設定するのが好ましい。 The window size for calculating the similarity is set so that the characteristics of each image are appropriately included, depending on the density of the projection pattern (illumination light pattern) in each active image, improving the accuracy of the correspondence. For this reason, it is preferable to do so. For example, as shown in FIG. 7, it is preferable to set the size so that at least one dot in the dot pattern is included, such as window 107 for active images 110 and 111, and window 118 for active images 116 and 117.
以上のように、実施例3における3次元計測装置100によれば、性質の異なるパターン光をそれぞれ照射したアクティブ画像をそれぞれ撮像する。その後、撮像した各アクティブ画像の各画像群(第1の画像群と第2の画像群)を用いて評価値を算出し、算出した評価値を用いて計測対象物106までの距離値を算出することができる。これにより、それぞれ性質の異なるパターン光で情報を補強してロバスト且つ高精度に計測対象物106までの距離値を算出することが可能となる。
As described above, according to the three-
以上、実施例3における計測対象物106までの距離値の算出方法について説明したが、実施例3においては上述の方法に限定されず、以下に説明するような様々な変更が可能である。
The above describes the method for calculating the distance value to the
例えば、上記では性質の異なるパターン光をそれぞれ計測対象物106に照射し、異なるアクティブ画像を2セット用いて距離値を算出した。ここで、本例では距離値算出に用いるアクティブ画像を3セットに増やし、それぞれ互いに性質の異なるパターン光を照射してもよい。この場合も、実施例3と同様に、ステップS1111では画像ごとに、照射したパターン光の光源特性に応じたノイズ除去を実施する。加えて、ステップS1112では、パターンの波長に応じたキャリブレーションパラメータを用いた収差補正と平行化処理を実施する。
For example, in the above, pattern light of different properties is irradiated onto the
そして、ステップS1113において、照明光のパターンに起因する特徴の大きさ、例えば、ドットパターンにおけるドットの大きさに基づき、ウインドウサイズを設定する。その後、この3セットのアクティブ画像を用いて、それぞれの類似度を評価する評価値を算出する。これにより、上記の実施例3と同様に性質の異なる、即ち照明光の光源や波長、パターン等の少なくとも1つを変更したパターン光のパターンが投影された画像で情報を補強してロバスト且つ高精度に計測対象物106までの距離値を算出可能となる。尚、本例においては、3セットとしたが、3セット以上を用いる場合も上記と同様である。また本例においてアクティブ画像のみに限らず、アクティブ画像とパッシブ画像とを組み合わせて3セット以上の画像を取得し、取得したそれぞれの画像を距離値算出の際に用いるようにしても構わない。
Then, in step S1113, a window size is set based on the size of features resulting from the illumination light pattern, for example, the size of dots in a dot pattern. After that, the three sets of active images are used to calculate an evaluation value for evaluating the similarity of each. As a result, similar to the above-mentioned third embodiment, information can be reinforced with an image projected with a pattern of pattern light having different properties, i.e., at least one of the light source, wavelength, pattern, etc. of the illumination light is changed, making it possible to calculate the distance value to the
また、実施例1で示した変形例2も実施例3に適用することができる。即ち、実施例3におけるステップS1113では、輝度値のままで演算を行うのではなく、所定の変換処理、具体的にはセンサス変換を行い得られたビット列のハミング距離を用いて評価値を算出するようにしてもよい。 Moreover, the modified example 2 shown in the first embodiment can also be applied to the third embodiment. That is, in step S1113 in the third embodiment, instead of performing the calculation using the luminance value as it is, a predetermined conversion process, specifically, a census conversion, can be performed to calculate the evaluation value using the Hamming distance of the bit string obtained.
<物品製造方法に係る実施例>
上述の3次元計測装置100は、ある支持部材に支持された状態で使用されうる。本実施例では、一例として、図9に示すようにロボットアーム200(把持装置)に備え付けられて使用される制御システムについて説明する。図9では図示していないが、3次元計測装置100は第1の撮像部103と第2の撮像部104を有しており、第1の撮像部103と第2の撮像部104を用いて、上述した各実施例と同様に支持台Tに置かれた物体Wを撮像し、画像(画像データ)を取得する。そして、3次元計測装置100の制御部101が、又は、3次元計測装置100の制御部101から出力された画像を取得したアーム制御部210が、物体Wの位置や姿勢を決定する。アーム制御部210は、その位置や姿勢の情報(計測結果)、及び上述した各実施例の3次元計測装置100で算出された物体Wの距離値の情報に基づいて、ロボットアーム200に駆動指令を送ってロボットアーム200を制御する。
<Example of article manufacturing method>
The above-mentioned three-
ロボットアーム200は、上述した各実施例の3次元計測装置100で算出された物体Wの距離値に基づき、先端のロボットハンド(把持部)などで物体Wを保持して、並進や回転などの移動をさせる(移動工程)。さらに、ロボットアーム200によって物体Wを他の部品に組み付ける(組立処理をする)ことにより、複数の部品で構成された所定の物品、例えば電子回路基板や機械などを製造することができる。また、移動された物体Wを加工(処理)することにより、物品を製造することができる。なお、アーム制御部210は、コンピュータとしてのCPUなどの演算装置や、コンピュータプログラムを記憶したメモリなどの記憶装置を有する。尚、ロボットを制御する制御部をアーム制御部210の外部に設けてもよい。
Based on the distance value of the object W calculated by the
また、3次元計測装置100により計測された計測データや得られた画像をディスプレイなどの表示部220に表示してもよい。また、物体Wを他の部品に対して位置合わせのために、把持及び移動をしてもよい。尚、物体Wは図1で例示している計測対象物106と同様の構成である。さらに、3次元計測装置100はロボットアーム200を含むように構成してもよい。
The measurement data and images obtained by the three-
本実施形態の開示は、以下の構成、方法、プログラム、及びシステムを含む。 The disclosure of this embodiment includes the following configurations, methods, programs, and systems.
(構成1)
対象物を互いに異なる視点から撮像する複数の撮像部と、
複数の撮像部により対象物を第1の条件で取得した第1の画像群と対象物を第1の条件とは異なる第2の条件で取得した第2の画像群と、を用いて対応付けを行うことにより、対象物までの距離値を算出する処理部と、を有し、
処理部は、
第1と第2の画像群それぞれの画像における照明光の波長に基づく画像特性、照明光の光源に起因する画像特性、照明光のパターンに起因する特徴の大きさの少なくとも1つの情報に基づいて第1と第2の画像群に対する対応付けを行うか、又は、情報に基づいて第1と第2の画像群に対して対応付けの前に行う処理を行った後に対応付けを行い、
対応付けによって得られた視差値を用いて距離値を算出することを特徴とする3次元計測装置。
(Configuration 1)
A plurality of imaging units that capture images of an object from different viewpoints;
a processing unit that calculates a distance value to the object by associating a first image group obtained by capturing an object under a first condition with a plurality of image capturing units and a second image group obtained by capturing an object under a second condition different from the first condition,
The processing unit includes:
Corresponding the first and second image groups based on at least one of information on image characteristics based on the wavelength of the illumination light in each of the images of the first and second image groups, image characteristics caused by the light source of the illumination light, and size of features caused by the pattern of the illumination light, or correlating the first and second image groups after performing processing on the first and second image groups before the correspondence based on the information;
A three-dimensional measuring device that calculates a distance value using a parallax value obtained by matching.
(構成2)
処理部は、情報に基づいて、第1と第2の画像群の画像から対応付けに用いる評価値をそれぞれ算出し、算出したそれぞれの評価値を統合し、統合した評価値を用いて距離値を算出することを特徴とする構成1に記載の3次元計測装置。
(Configuration 2)
The processing unit calculates an evaluation value to be used for matching from the images of the first and second image groups based on the information, integrates the calculated evaluation values, and calculates a distance value using the integrated evaluation value.
(構成3)
処理部は、第1と第2の画像群それぞれの画像における輝度値に基づき評価値を算出することを特徴とする構成2に記載の3次元計測装置。
(Configuration 3)
3. The three-dimensional measuring apparatus according to configuration 2, wherein the processing unit calculates an evaluation value based on luminance values in each of the first and second image groups.
(構成4)
処理部は、第1と第2の画像群それぞれの画像に所定の変換処理を行い得られたビット列のハミング距離を用いて評価値を算出することを特徴とする構成2に記載の3次元計測装置。
(Configuration 4)
3. The three-dimensional measuring device according to configuration 2, wherein the processing unit calculates an evaluation value using a Hamming distance of a bit string obtained by performing a predetermined conversion process on each of the first and second image groups.
(構成5)
処理部は、照明光の波長に基づき、第1と第2の画像群の少なくとも一方に対して画像の歪み補正を行うことを特徴とする構成1乃至4のいずれか1項に記載の3次元計測装置。
(Configuration 5)
5. The three-dimensional measuring device according to any one of configurations 1 to 4, wherein the processing unit performs image distortion correction on at least one of the first and second image groups based on the wavelength of the illumination light.
(構成6)
処理部は、第1と第2の画像群の画像の少なくとも一方に対して、所定のノイズ除去処理を行うことを特徴とする構成1乃至5のいずれか1項に記載の3次元計測装置。
(Configuration 6)
6. The three-dimensional measuring apparatus according to any one of configurations 1 to 5, wherein the processing unit performs a predetermined noise removal process on at least one of the images in the first and second image groups.
(構成7)
処理部は、照明光のパターンに起因する特徴の大きさに基づき、第1と第2の画像群の画像に対して対応付けに用いる領域を設定し、対応付けに用いる評価値を算出することを特徴とする構成2乃至4のいずれか1項に記載の3次元計測装置。
(Configuration 7)
The three-dimensional measuring device described in any one of configurations 2 to 4, characterized in that the processing unit sets areas to be used for matching in the images of the first and second image groups based on the size of features caused by the illumination light pattern, and calculates an evaluation value to be used for matching.
(構成8)
処理部は、第1の画像群に含まれる第1の画像と第2の画像群に含まれる第2の画像に基づき、統合した画像として第3の画像を生成することを特徴とする構成1に記載の3次元計測装置。
(Configuration 8)
The three-dimensional measuring device described in configuration 1, characterized in that the processing unit generates a third image as an integrated image based on the first image included in the first image group and the second image included in the second image group.
(構成9)
処理部は、第3の画像を用いて距離値を算出することを特徴とする構成8に記載の3次元計測装置。
(Configuration 9)
9. The three-dimensional measuring apparatus according to configuration 8, wherein the processing unit calculates the distance value by using the third image.
(構成10)
対象物に照明光のパターンを投影する投影部を有し、
複数の撮像部は、投影部により対象物に照明光のパターンを投影した画像が含まれる第1の画像群と、対象物に照明光のパターンを投影しない画像が含まれる第2の画像群とを取得することを特徴とする構成1乃至9のいずれか1項に記載の3次元計測装置。
(Configuration 10)
A projection unit projects a pattern of illumination light onto an object,
A three-dimensional measuring device described in any one of configurations 1 to 9, characterized in that the multiple imaging units acquire a first group of images including images in which an illumination light pattern is projected onto the object by a projection unit, and a second group of images including images in which an illumination light pattern is not projected onto the object.
(構成11)
対象物に少なくとも第1の照明光のパターンと、第1の照明光のパターンとは光源、波長、照明光のパターンの少なくとも1つが異なる第2の照明光のパターンを投影可能な投影部を有し、
複数の撮像部は、対象物に第1の照明光のパターンを投影した画像が含まれる第1の画像群と、対象物に第2の照明光のパターンを投影した画像が含まれる第2の画像群とを取得することを特徴とする構成1乃至7のいずれか1項に記載の3次元計測装置。
(Configuration 11)
a projection unit capable of projecting at least a first illumination light pattern and a second illumination light pattern, the second illumination light pattern being different from the first illumination light pattern in at least one of a light source, a wavelength, and an illumination light pattern, onto an object;
A three-dimensional measuring device described in any one of configurations 1 to 7, characterized in that the multiple imaging units acquire a first image group including images of a first illumination light pattern projected onto an object, and a second image group including images of a second illumination light pattern projected onto an object.
(構成12)
撮像部は、特定の波長の照明光を照射して1回の撮像で取得した画像から第1の画像群に含まれる第1の画像と第2の画像群に含まれる第2の画像とを取得することを特徴とする構成1乃至7のいずれか1項に記載の3次元計測装置。
(Configuration 12)
A three-dimensional measuring device described in any one of configurations 1 to 7, characterized in that the imaging unit acquires a first image included in a first image group and a second image included in a second image group from images acquired in a single imaging operation by irradiating illumination light of a specific wavelength.
(構成13)
対象物を互いに異なる視点から撮像する撮像工程と、
撮像工程により対象物を第1の条件で取得した第1の画像群と対象物を第1の条件とは異なる第2の条件で取得した第2の画像群と、を用いて対応付けを行うことにより、対象物までの距離値を算出する処理工程と、を有し、
処理工程では、
第1と第2の画像群それぞれの画像における照明光の波長に基づく画像特性、照明光の光源に起因する画像特性、照明光のパターンに起因する特徴の大きさの少なくとも1つの情報に基づいて第1と第2の画像群に対する対応付けを行うか、又は、情報に基づいて第1と第2の画像群に対して対応付けの前に行う処理を行った後に対応付けを行い、
対応付けによって得られた視差値を用いて距離値を算出することを特徴とする3次元計測方法。
(Configuration 13)
An imaging step of imaging an object from different viewpoints;
a processing step of calculating a distance value to the object by associating a first image group obtained by the imaging step under a first condition with a second image group obtained by the imaging step under a second condition different from the first condition,
In the processing step,
Corresponding the first and second image groups based on at least one of information on image characteristics based on the wavelength of the illumination light in each of the images of the first and second image groups, image characteristics caused by the light source of the illumination light, and size of features caused by the pattern of the illumination light, or correlating the first and second image groups after performing processing on the first and second image groups before the correspondence based on the information;
A three-dimensional measuring method, comprising the steps of: calculating a distance value using a disparity value obtained by matching;
(構成14)
対象物までの距離値を算出する処理方法をコンピュータに実行させるプログラムであって、処理方法は、
対象物を互いに異なる視点から第1の条件で取得した第1の画像群と対象物を互いに異なる視点から第1の条件とは異なる第2の条件で取得した第2の画像群と、を用いて対応付けを行うことにより、対象物までの距離値を算出する処理工程を有し、
処理工程では、
第1と第2の画像群それぞれの画像における照明光の波長に基づく画像特性、照明光の光源に起因する画像特性、照明光のパターンに起因する特徴の大きさの少なくとも1つの情報に基づいて第1と第2の画像群に対する対応付けを行うか、又は、情報に基づいて第1と第2の画像群に対して対応付けの前に行う処理を行った後に対応付けを行い、
対応付けによって得られた視差値を用いて距離値を算出することを特徴とするプログラム。
(Configuration 14)
A program for causing a computer to execute a processing method for calculating a distance value to an object, the processing method comprising:
a processing step of calculating a distance value to the object by matching a first image group, which is obtained by capturing the object from different viewpoints under a first condition, with a second image group, which is obtained by capturing the object from different viewpoints under a second condition different from the first condition;
In the processing step,
Corresponding the first and second image groups based on at least one of information on image characteristics based on the wavelength of the illumination light in each of the images of the first and second image groups, image characteristics caused by the light source of the illumination light, and size of features caused by the pattern of the illumination light, or correlating the first and second image groups after performing processing on the first and second image groups before the correspondence based on the information;
A program for calculating a distance value using a disparity value obtained by matching.
(構成15)
構成1乃至12のいずれか1項に記載の3次元計測装置と、
3次元計測装置により算出された対象物の距離値に基づき対象物を把持して移動させるロボットと、を有する、
ことを特徴とするシステム。
(Configuration 15)
A three-dimensional measurement apparatus according to any one of configurations 1 to 12,
and a robot that grasps and moves an object based on a distance value of the object calculated by the three-dimensional measuring device.
A system characterized by:
(構成16)
構成1乃至12のいずれか1項に記載の3次元計測装置により算出された対象物の距離値に基づき、対象物を把持して移動させる移動工程と、
対象物の処理を行うことで、所定の物品を製造する工程と、を有することを特徴とする物品の製造方法。
(Configuration 16)
a moving step of gripping and moving the object based on the distance value of the object calculated by the three-dimensional measuring device according to any one of configurations 1 to 12;
A method for manufacturing an article, comprising the steps of: manufacturing a specified article by processing an object.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 The above describes preferred embodiments of the present invention, but the present invention is not limited to these embodiments, and various modifications and variations are possible within the scope of the gist of the invention.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。装置は、例えば、3次元計測装置100である。その場合、そのプログラム、該プログラムを記憶した記憶媒体は本発明を構成することとなる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
The present invention can also be realized by supplying a program that realizes one or more of the functions of the above-mentioned embodiments to a system or device via a network or storage medium, and having one or more processors in the computer of the system or device read and execute the program. The device is, for example, a three-
100 3次元計測装置
101 制御部
102 投影部
103 第1の撮像部
104 第2の撮像部
105 処理部
106 計測対象物
REFERENCE SIGNS
Claims (16)
前記複数の撮像部により前記対象物を第1の条件で取得した第1の画像群と前記対象物を前記第1の条件とは異なる第2の条件で取得した第2の画像群と、を用いて対応付けを行うことにより、前記対象物までの距離値を算出する処理部と、を有し、
前記処理部は、
前記第1と第2の画像群それぞれの画像における照明光の波長に基づく画像特性、照明光の光源に起因する画像特性、照明光のパターンに起因する特徴の大きさの少なくとも1つの情報に基づいて前記第1と第2の画像群に対する前記対応付けを行うか、又は、前記情報に基づいて前記第1と第2の画像群に対して前記対応付けの前に行う処理を行った後に前記対応付けを行い、
前記対応付けによって得られた視差値を用いて前記距離値を算出することを特徴とする3次元計測装置。 A plurality of imaging units that capture images of an object from different viewpoints;
a processing unit that calculates a distance value to the object by associating a first image group obtained by capturing the object under a first condition with a second image group obtained by capturing the object under a second condition different from the first condition,
The processing unit includes:
performing the association between the first and second image groups based on at least one piece of information regarding image characteristics based on the wavelength of illumination light in each of the first and second image groups, image characteristics due to a light source of the illumination light, and a size of a feature due to a pattern of the illumination light, or performing the association after performing a process prior to the association on the first and second image groups based on the information;
a three-dimensional measuring device that calculates the distance value using the parallax value obtained by the correspondence.
前記複数の撮像部は、前記投影部により前記対象物に前記照明光のパターンを投影した画像が含まれる第1の画像群と、前記対象物に前記照明光のパターンを投影しない画像が含まれる第2の画像群とを取得することを特徴とする請求項1に記載の3次元計測装置。 a projection unit that projects the pattern of the illumination light onto the object;
2. The three-dimensional measuring device according to claim 1, wherein the plurality of imaging units acquire a first group of images including images in which the illumination light pattern is projected onto the object by the projection unit, and a second group of images including images in which the illumination light pattern is not projected onto the object.
前記複数の撮像部は、前記対象物に前記第1の照明光のパターンを投影した画像が含まれる第1の画像群と、前記対象物に前記第2の照明光のパターンを投影した画像が含まれる第2の画像群とを取得することを特徴とする請求項1に記載の3次元計測装置。 a projection unit capable of projecting at least a first illumination light pattern and a second illumination light pattern, the second illumination light pattern being different from the first illumination light pattern in at least one of a light source, a wavelength, and an illumination light pattern, onto the target;
2. The three-dimensional measuring device according to claim 1, wherein the plurality of imaging units acquire a first group of images including images obtained by projecting the first illumination light pattern onto the object, and a second group of images including images obtained by projecting the second illumination light pattern onto the object.
前記撮像工程により前記対象物を第1の条件で取得した第1の画像群と前記対象物を前記第1の条件とは異なる第2の条件で取得した第2の画像群と、を用いて対応付けを行うことにより、前記対象物までの距離値を算出する処理工程と、を有し、
前記処理工程では、
前記第1と第2の画像群それぞれの画像における照明光の波長に基づく画像特性、照明光の光源に起因する画像特性、照明光のパターンに起因する特徴の大きさの少なくとも1つの情報に基づいて前記第1と第2の画像群に対する前記対応付けを行うか、又は、前記情報に基づいて前記第1と第2の画像群に対して前記対応付けの前に行う処理を行った後に前記対応付けを行い、
前記対応付けによって得られた視差値を用いて前記距離値を算出することを特徴とする3次元計測方法。 An imaging step of imaging an object from different viewpoints;
a processing step of calculating a distance value to the object by performing correspondence between a first image group obtained by the imaging step under a first condition and a second image group obtained by the imaging step under a second condition different from the first condition,
In the processing step,
performing the association between the first and second image groups based on at least one of information regarding image characteristics based on the wavelength of illumination light in each of the first and second image groups, image characteristics due to a light source of the illumination light, and a size of a feature due to a pattern of the illumination light, or performing the association after performing a process prior to the association on the first and second image groups based on the information;
a three-dimensional measuring method, comprising: calculating the distance value using the parallax value obtained by the correspondence;
前記対象物を互いに異なる視点から第1の条件で取得した第1の画像群と前記対象物を互いに異なる視点から前記第1の条件とは異なる第2の条件で取得した第2の画像群と、を用いて対応付けを行うことにより、前記対象物までの距離値を算出する処理工程を有し、
前記処理工程では、
前記第1と第2の画像群それぞれの画像における照明光の波長に基づく画像特性、照明光の光源に起因する画像特性、照明光のパターンに起因する特徴の大きさの少なくとも1つの情報に基づいて前記第1と第2の画像群に対する前記対応付けを行うか、又は、前記情報に基づいて前記第1と第2の画像群に対して前記対応付けの前に行う処理を行った後に前記対応付けを行い、
前記対応付けによって得られた視差値を用いて前記距離値を算出することを特徴とするプログラム。 A program for causing a computer to execute a processing method for calculating a distance value to an object, the processing method comprising:
a processing step of calculating a distance value to the object by matching a first image group, which is obtained by capturing the object from different viewpoints under a first condition, with a second image group, which is obtained by capturing the object from different viewpoints under a second condition different from the first condition;
In the processing step,
performing the association between the first and second image groups based on at least one piece of information regarding image characteristics based on the wavelength of illumination light in each of the first and second image groups, image characteristics due to a light source of the illumination light, and a size of a feature due to a pattern of the illumination light, or performing the association after performing a process prior to the association on the first and second image groups based on the information;
A program for calculating the distance value using the disparity value obtained by the association.
前記3次元計測装置により算出された前記対象物の前記距離値に基づき前記対象物を把持して移動させるロボットと、を有する、
ことを特徴とするシステム。 The three-dimensional measuring device according to claim 1 ;
a robot that grasps and moves the object based on the distance value of the object calculated by the three-dimensional measuring device.
A system characterized by:
前記対象物の処理を行うことで、所定の物品を製造する工程と、を有することを特徴とする物品の製造方法。
a moving step of gripping and moving the object based on the distance value of the object calculated by the three-dimensional measuring device according to claim 1;
and manufacturing a predetermined article by processing the object.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022162607A JP2024055569A (en) | 2022-10-07 | 2022-10-07 | Three-dimensional measurement device, three-dimensional measurement method, program, system, and article manufacturing method |
EP23193102.3A EP4332499A1 (en) | 2022-08-30 | 2023-08-24 | Three-dimensional measuring apparatus, three-dimensional measuring method, storage medium, system, and method for manufacturing an article |
US18/455,934 US20240075627A1 (en) | 2022-08-30 | 2023-08-25 | Three-dimensional measuring apparatus, three-dimensional measuring method, storage medium, system, and method for manufacturing an article |
CN202311082513.7A CN117629109A (en) | 2022-08-30 | 2023-08-25 | Three-dimensional measuring device, three-dimensional measuring method, storage medium, three-dimensional measuring system, and method for manufacturing article |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022162607A JP2024055569A (en) | 2022-10-07 | 2022-10-07 | Three-dimensional measurement device, three-dimensional measurement method, program, system, and article manufacturing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024055569A true JP2024055569A (en) | 2024-04-18 |
Family
ID=90032767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022162607A Pending JP2024055569A (en) | 2022-08-30 | 2022-10-07 | Three-dimensional measurement device, three-dimensional measurement method, program, system, and article manufacturing method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024055569A (en) |
CN (1) | CN117629109A (en) |
-
2022
- 2022-10-07 JP JP2022162607A patent/JP2024055569A/en active Pending
-
2023
- 2023-08-25 CN CN202311082513.7A patent/CN117629109A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN117629109A (en) | 2024-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3531066B1 (en) | Three-dimensional scanning method including a plurality of lasers with different wavelengths, and scanner | |
US9392262B2 (en) | System and method for 3D reconstruction using multiple multi-channel cameras | |
CN104335005B (en) | 3D is scanned and alignment system | |
WO2019007180A1 (en) | Handheld large-scale three-dimensional measurement scanner system simultaneously having photography measurement and three-dimensional scanning functions | |
US9074879B2 (en) | Information processing apparatus and information processing method | |
JP2002213931A (en) | Instrument and method for measuring three-dimensional shape | |
EP3382645B1 (en) | Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images | |
US10713810B2 (en) | Information processing apparatus, method of controlling information processing apparatus, and storage medium | |
CN111028295A (en) | 3D imaging method based on coded structured light and dual purposes | |
JP2012215394A (en) | Three-dimensional measuring apparatus and three-dimensional measuring method | |
JP7093915B2 (en) | Surface shape measurement method | |
WO2020183711A1 (en) | Image processing device and three-dimensional measuring system | |
JP5799473B2 (en) | Image capturing apparatus and image capturing method | |
JP6285686B2 (en) | Parallax image generation device | |
JP5336325B2 (en) | Image processing method | |
JP2012237613A (en) | Shape measuring device and shape measuring method | |
JP2024055569A (en) | Three-dimensional measurement device, three-dimensional measurement method, program, system, and article manufacturing method | |
EP3062516B1 (en) | Parallax image generation system, picking system, parallax image generation method, and computer-readable recording medium | |
US11195290B2 (en) | Apparatus and method for encoding in structured depth camera system | |
JP2020008434A (en) | Three-dimensional measuring device and method | |
JP2022031956A (en) | Method for determining scan range | |
CN212843399U (en) | Portable three-dimensional measuring equipment | |
EP4332499A1 (en) | Three-dimensional measuring apparatus, three-dimensional measuring method, storage medium, system, and method for manufacturing an article | |
JP2002013921A (en) | Three-dimensional imaging device and three-dimensional imaging method | |
JP2006058092A (en) | Three-dimensional shape measuring device and method |