JP2024055569A - Three-dimensional measurement device, three-dimensional measurement method, program, system, and article manufacturing method - Google Patents

Three-dimensional measurement device, three-dimensional measurement method, program, system, and article manufacturing method Download PDF

Info

Publication number
JP2024055569A
JP2024055569A JP2022162607A JP2022162607A JP2024055569A JP 2024055569 A JP2024055569 A JP 2024055569A JP 2022162607 A JP2022162607 A JP 2022162607A JP 2022162607 A JP2022162607 A JP 2022162607A JP 2024055569 A JP2024055569 A JP 2024055569A
Authority
JP
Japan
Prior art keywords
image
illumination light
pattern
dimensional measuring
measuring device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022162607A
Other languages
Japanese (ja)
Inventor
拓海 時光
大輔 渡邊
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022162607A priority Critical patent/JP2024055569A/en
Priority to EP23193102.3A priority patent/EP4332499A1/en
Priority to US18/455,934 priority patent/US20240075627A1/en
Priority to CN202311082513.7A priority patent/CN117629109A/en
Publication of JP2024055569A publication Critical patent/JP2024055569A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】対象物までの距離値を高精度に算出可能な3次元計測装置を提供する。【解決手段】3次元計測装置であって、対象物を互いに異なる視点から撮像する複数の撮像部と、複数の撮像部により対象物を第1の条件で取得した第1の画像群と対象物を第1の条件とは異なる第2の条件で取得した第2の画像群と、を用いて対応付けを行うことにより、対象物までの距離値を算出する処理部と、を有し、処理部は、第1と第2の画像群それぞれの画像における照明光の波長に基づく画像特性、照明光の光源に起因する画像特性、照明光のパターンに起因する特徴の大きさの少なくとも1つの情報に基づいて第1と第2の画像群に対する対応付けを行うか、又は、情報に基づいて第1と第2の画像群に対して対応付けの前に行う処理を行った後に対応付けを行い、対応付けによって得られた視差値を用いて距離値を算出することを特徴とする。【選択図】図4[Problem] To provide a three-dimensional measuring device capable of calculating a distance value to an object with high accuracy. [Solution] The three-dimensional measuring device has a plurality of image capturing units that capture images of the object from different viewpoints, and a processing unit that calculates a distance value to the object by performing correspondence using a first image group obtained by the plurality of image capturing units under a first condition and a second image group obtained by the object under a second condition different from the first condition, the processing unit performs correspondence between the first and second image groups based on at least one of information of image characteristics based on the wavelength of the illumination light in each of the first and second image groups, image characteristics caused by the light source of the illumination light, and size of features caused by the pattern of the illumination light, or performs correspondence between the first and second image groups after performing processing on the first and second image groups before the correspondence based on the information, and calculates the distance value using a parallax value obtained by the correspondence. [Selected Figure] Figure 4

Description

本発明は、3次元計測装置、3次元計測装方法、プログラム、システム、及び物品の製造方法に関する。 The present invention relates to a three-dimensional measuring device, a three-dimensional measuring method, a program, a system, and a method for manufacturing an article.

従来、工場の生産ラインでは、3次元計測装置を搭載したロボットを用いて、製造物の組み立てや検査が行われてきた。従来の3次元計測装置として、異なる視点の2つのカメラで撮影した画像間の対応点を探索し、対応点の視差情報を基に三角測量の原理に基づき距離点を計測するステレオ計測が知られている。 Traditionally, in factory production lines, robots equipped with 3D measurement devices have been used to assemble and inspect products. A conventional 3D measurement device is known to use stereo measurement, which searches for corresponding points between images taken by two cameras with different viewpoints, and measures distance points based on the principles of triangulation using the parallax information of the corresponding points.

特許文献1では、異なる位置の2つのカメラと1つのパターンを投影するプロジェクタを備え、第1の距離マップと、第2の距離マップとを算出し、それらに対して信頼度に基づく重みづけ投票を行って最終的な距離マップを算出する方法を開示している。 Patent document 1 discloses a method that uses two cameras in different positions and a projector that projects one pattern, calculates a first distance map and a second distance map, and performs weighted voting based on the reliability of the maps to calculate a final distance map.

尚、計測対象物にドットパターンを投影し1つのカメラで撮影した画像上のドットパターンとプロジェクタのドットパターンとの対応関係から三角測量の原理により計測した距離マップである。第1の距離マップは、能動的に対応付け手掛かりを作り出す方式のため、アクティブステレオ方式とも呼ぶ。第2の距離マップは、計測対象物にドットパターンを投影せずに異なる2つのカメラで撮影距離した画像からステレオ計測した距離マップである。第2の距離マップは、受動的に対応付けを行う方式のため、パッシブステレオ方式とも呼ぶ The distance map is measured by the principle of triangulation based on the correspondence between the dot pattern on the image captured by one camera and the dot pattern on the projector, after projecting a dot pattern on the object to be measured. The first distance map is also called the active stereo method, since it is a method that actively creates matching clues. The second distance map is a distance map measured in stereo from images captured by two different cameras at different distances, without projecting a dot pattern on the object to be measured. The second distance map is also called the passive stereo method, since it is a method that passively performs matching.

このようにアクティブステレオ方式とパッシブステレオ方式を組み合わせることで、テクスチャの少ない計測対象物を含む様々な対象に対して奥行きマップの計測が可能となり、より高精度な計測を実現できる。 By combining active and passive stereo in this way, it becomes possible to measure depth maps for a variety of objects, including those with little texture, achieving more accurate measurements.

米国特許第10636155号明細書U.S. Pat. No. 1,063,6155

しかし、従来の方法は、アクティブステレオ方式とパッシブステレオ方式との双方でそれぞれ個別にマッチングを行って距離を一旦算出する方法を用いている。そのため、それぞれで正しく対応関係が求まらない場合に後処理で情報をまとめたとしても精度が不十分となり、改善の余地があった。 However, conventional methods use a method in which matching is performed separately for both the active stereo method and the passive stereo method, and then the distance is calculated once. As a result, when the correspondence cannot be determined correctly for each method, even if the information is combined in post-processing, the accuracy is insufficient, and there is room for improvement.

そこで、本発明では、対象物までの距離値を高精度に算出可能な3次元計測装置を提供することを目的としている。 Therefore, the present invention aims to provide a three-dimensional measuring device that can calculate the distance to an object with high accuracy.

上記目的を達成するために、本発明の一側面としての3次元計測装置は、対象物を互いに異なる視点から撮像する複数の撮像部と、複数の撮像部により対象物を第1の条件で取得した第1の画像群と対象物を第1の条件とは異なる第2の条件で取得した第2の画像群と、を用いて対応付けを行うことにより、対象物までの距離値を算出する処理部と、を有し、処理部は、第1と第2の画像群それぞれの画像における照明光の波長に基づく画像特性、照明光の光源に起因する画像特性、照明光のパターンに起因する特徴の大きさの少なくとも1つの情報に基づいて第1と第2の画像群に対する対応付けを行うか、又は、情報に基づいて第1と第2の画像群に対して対応付けの前に行う処理を行った後に対応付けを行い、対応付けによって得られた視差値を用いて距離値を算出することを特徴とする。 In order to achieve the above object, a three-dimensional measuring device according to one aspect of the present invention has a plurality of imaging units that capture images of an object from different viewpoints, and a processing unit that calculates a distance value to the object by performing correspondence between a first image group obtained by the plurality of imaging units under a first condition and a second image group obtained by the object under a second condition different from the first condition, and the processing unit performs correspondence between the first and second image groups based on at least one piece of information among image characteristics based on the wavelength of the illumination light in each of the images of the first and second image groups, image characteristics caused by the light source of the illumination light, and size of features caused by the pattern of the illumination light, or performs correspondence between the first and second image groups after performing processing on the first and second image groups before the correspondence based on the information, and calculates the distance value using the parallax value obtained by the correspondence.

本発明によれば、対象物までの距離値を高精度に算出可能な3次元計測装置を提供することができる。 The present invention provides a three-dimensional measuring device that can calculate the distance to an object with high accuracy.

実施例1に係る3次元計測装置を示した図である。1 is a diagram showing a three-dimensional measuring apparatus according to a first embodiment; 実施例1に係る3次元計測装置の動作処理を示したフローチャートである。4 is a flowchart showing an operation process of the three-dimensional measuring apparatus according to the first embodiment. 実施例1に係る第1の撮像部と第2の撮像部で取得するアクティブ画像とパッシブ画像の例を示した図である。3A and 3B are diagrams illustrating examples of an active image and a passive image acquired by a first imaging unit and a second imaging unit according to the first embodiment. 実施例1に係る処理部での距離値算出処理を示したフローチャートである。11 is a flowchart showing a distance value calculation process in a processing unit according to the first embodiment. 実施例2に係る3次元計測装置の動作処理を示したフローチャートである。10 is a flowchart showing an operation process of the three-dimensional measuring apparatus according to the second embodiment. 実施例2に係るアクティブ画像とパッシブ画像を用いて合成した画像の例を示した図である。FIG. 11 is a diagram showing an example of an image synthesized using an active image and a passive image according to the second embodiment. 実施例3に係る処理部での距離値算出処理を示したフローチャートである。13 is a flowchart showing a distance value calculation process in a processing unit according to the third embodiment. 実施例3に係る第1の撮像部と第2の撮像部で取得するアクティブ画像とアクティブ画像の例を示した図である。13A and 13B are diagrams illustrating an example of an active image acquired by a first imaging unit and a second imaging unit according to a third embodiment. 3次元計測装置が備え付けられた把持装置を含む制御システムの例を示した図である。FIG. 1 is a diagram showing an example of a control system including a gripping device equipped with a three-dimensional measuring device.

以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。 Below, the mode for carrying out the present invention will be described in detail with reference to the attached drawings. The embodiment described below is one example of a means for realizing the present invention, and should be appropriately modified or changed depending on the configuration of the device to which the present invention is applied and various conditions, and the present invention is not limited to the following embodiment.

<実施例1>
実施例1では、複数の撮像部のうち、1つの撮像部(同一の撮像部)で撮像した画像であるアクティブ画像とパッシブ画像とから、両者が効果的に働くようにマッチングの評価値に統合・併用して距離値を算出する方法について説明する。具体的には、アクティブ画像、パッシブ画像の特性を考慮して収差補正及びノイズ除去処理等の前処理をそれぞれ実施した上で、各画像の特徴の大きさに基づいた領域を用いて統合した評価値を算出する。これにより、従来よりも高精度な距離算出が可能となる。
Example 1
In the first embodiment, a method for calculating a distance value from an active image and a passive image captured by one of a plurality of image capturing units (the same image capturing unit) by integrating and using them together in a matching evaluation value so that both images work effectively will be described. Specifically, after performing preprocessing such as aberration correction and noise removal processing in consideration of the characteristics of the active image and the passive image, an integrated evaluation value is calculated using an area based on the size of the features of each image. This makes it possible to calculate the distance with higher accuracy than before.

アクティブ画像は、計測対象物の表面上にパターン光を照射して撮影した画像であり、計測対象物の表面上に投影されたパターン(照明光のパターン)が観測される画像である。パッシブ画像は、計測対象物の表面上にパターン光を照射せずに撮影した画像であり、計測対象物の表面上にパターン(照明光のパターン)が投影されておらず、計測対象物の3次元構造や表面上のテクスチャが観測される画像である。パターン光を照射して異なる2つのカメラで撮影した画像からステレオ計測することを以下、アクティブ計測と呼び、パターン光を照射せずに異なる2つのカメラで撮影した画像からステレオ計測することを以下、パッシブ計測とも呼ぶ。 An active image is an image taken by shining a pattern light onto the surface of the object to be measured, in which the pattern (illumination light pattern) projected onto the surface of the object to be measured is observed.A passive image is an image taken without shining a pattern light onto the surface of the object to be measured, in which no pattern (illumination light pattern) is projected onto the surface of the object to be measured, in which the three-dimensional structure of the object to be measured and the texture on its surface are observed.Hereinafter, stereo measurement from images taken with two different cameras while shining a pattern light will be referred to as active measurement, and hereinafter, stereo measurement from images taken with two different cameras without shining a pattern light will also be referred to as passive measurement.

図1は、実施例1の3次元計測装置100を例示した図である。実施例1の3次元計測装置100は、制御部101、投影部102、第1の撮像部103、第2の撮像部104、処理部105から構成される。尚、図1には、実施例1における3次元計測装置100が計測する計測対象物106の例も図示されている。 FIG. 1 is a diagram illustrating a three-dimensional measuring device 100 according to the first embodiment. The three-dimensional measuring device 100 according to the first embodiment is composed of a control unit 101, a projection unit 102, a first imaging unit 103, a second imaging unit 104, and a processing unit 105. FIG. 1 also illustrates an example of a measurement object 106 measured by the three-dimensional measuring device 100 according to the first embodiment.

制御部101は、CPUやメモリ(記憶部)などを含み、少なくとも1つのコンピュータで構成される。制御部101は、3次元計測装置100が計測対象物106の距離値を出力するために、投影部102、第1の撮像部103、第2の撮像部104、処理部105の各種の動作及び動作の開始と終了を制御する。具体的には、投影部102に対してはパターン光投影開始指令とパターン光投影終了指令を送り、第1の撮像部103と第2の撮像部104に対しては撮像開始指令と撮像終了指令を送る。処理部105に対しては、距離値算出の開始指令等を送る。 The control unit 101 includes a CPU, memory (storage unit), etc., and is composed of at least one computer. The control unit 101 controls various operations and the start and end of operations of the projection unit 102, first image capture unit 103, second image capture unit 104, and processing unit 105 so that the three-dimensional measurement device 100 outputs the distance value of the measurement object 106. Specifically, the control unit 101 sends a pattern light projection start command and a pattern light projection end command to the projection unit 102, and sends an image capture start command and an image capture end command to the first image capture unit 103 and the second image capture unit 104. A command to start distance value calculation, etc. is sent to the processing unit 105.

投影部102は、制御部101からのパターン光投影開始指令を受けると、制御部101からのパターン光投影終了指令を受けるまでパターンを有する照明光としてパターン光を照射し、計測対象物106の表面上にパターン光を投影する。このとき照射されるパターン光は、一様乱数や正規乱数に基づく非周期的な強度パターンをもつものであることが望ましい。パターン光の光源としては、例えば、レーザやLEDなどが挙げられるがそれらに限定されない。尚、投影されるパターン光の波長が第1の撮像部103と第2の撮像部104において感度をもつ波長帯域に含まれており、且つアクティブ画像において計測対象物106表面上のパターンが観測できるものであればよい。 When the projection unit 102 receives a pattern light projection start command from the control unit 101, it irradiates the pattern light as illumination light having a pattern until it receives a pattern light projection end command from the control unit 101, and projects the pattern light onto the surface of the measurement object 106. It is desirable that the pattern light irradiated at this time has a non-periodic intensity pattern based on uniform random numbers or normal random numbers. Examples of light sources for the pattern light include, but are not limited to, lasers and LEDs. Note that it is sufficient that the wavelength of the projected pattern light is included in a wavelength band to which the first imaging unit 103 and the second imaging unit 104 are sensitive, and that the pattern on the surface of the measurement object 106 can be observed in the active image.

第1の撮像部103と第2の撮像部104は、計測対象物106に対して、少なくとも互いに異なる位置または異なる角度となるように配置されており、第1の撮像部103と第2の撮像部104は、互いに異なる視点で計測対象物106を撮像する。第1の撮像部103と第2の撮像部104は、制御部101からの撮像開始指令を受けると、計測対象物106の撮像を開始する。そして、制御部101からの撮像終了指令を受けるまで各視線方向の画像を撮像し、取得した画像データを処理部105に出力する。尚、このとき、第1の撮像部103と第2の撮像部104が撮像した画像取り込みのタイミングは互いに同期するように制御される。 The first imaging unit 103 and the second imaging unit 104 are arranged at least at different positions or angles relative to the measurement object 106, and the first imaging unit 103 and the second imaging unit 104 image the measurement object 106 from different viewpoints. When the first imaging unit 103 and the second imaging unit 104 receive an imaging start command from the control unit 101, they start imaging the measurement object 106. Then, they capture images in each line of sight direction until they receive an imaging end command from the control unit 101, and output the acquired image data to the processing unit 105. At this time, the timing of capturing the images captured by the first imaging unit 103 and the second imaging unit 104 is controlled so as to be synchronized with each other.

投影部102から投影されるパターン光が近赤外光である場合には、アクティブ画像とパッシブ画像とで、計測対象物106からの反射光として受光する波長帯域が異なることになる。このため、アクティブ画像とパッシブ画像とで、色収差により観測される像の位置ずれが発生する。色収差の影響を低減するための手段としては、処理部105において、アクティブ計測用とパッシブ計測用のキャリブレーションパラメータを用いてそれぞれ色収差を補正する。第1の撮像部103と第2の撮像部104の感度については、投影部102から投影されるパターン光の波長の帯域と、可視光の波長の帯域に感度を持っている必要がある。 When the pattern light projected from the projection unit 102 is near-infrared light, the wavelength bands received as reflected light from the measurement object 106 differ between the active image and the passive image. As a result, a position shift occurs between the images observed in the active image and the passive image due to chromatic aberration. As a means for reducing the effects of chromatic aberration, the processing unit 105 corrects the chromatic aberration using calibration parameters for active measurement and passive measurement, respectively. The sensitivity of the first imaging unit 103 and the second imaging unit 104 needs to be sensitive to the wavelength band of the pattern light projected from the projection unit 102 and the wavelength band of visible light.

処理部105は、第1の撮像部103と第2の撮像部104から計測対象物106を撮像した画像群として各画像データを受け取り、且つ制御部101から距離算出開始指令を受け取ると、受け取った各画像データに基づき、距離値算出処理を実施する。具体的には、第1の撮像部103と第2の撮像部104が計測対象物106を撮像した各画像データを用いて対応付けを行い、対応付けを行った各画像データを用いて計測対象物106までの距離値を算出する処理を実施する。処理部105における計測対象物106までの距離値を算出する処理の詳細は後述する。 When the processing unit 105 receives each image data as a group of images of the measurement object 106 from the first imaging unit 103 and the second imaging unit 104 and receives a distance calculation start command from the control unit 101, the processing unit 105 performs a distance value calculation process based on each received image data. Specifically, the processing unit 105 performs a process of matching the image data of the measurement object 106 captured by the first imaging unit 103 and the second imaging unit 104, and calculates a distance value to the measurement object 106 using the matched image data. The process of calculating the distance value to the measurement object 106 in the processing unit 105 will be described in detail later.

また、処理部105は、距離値算出処理を実施するのに必要なデータとして、第1の撮像部103と第2の撮像部104のキャリブレーションパラメータを保持している。ここで、キャリブレーションパラメータは、第1の撮像部103と第2の撮像部104との相対位置姿勢を表すパラメータ、それぞれの撮像部の画像中心や焦点距離、歪み収差を表すパラメータ等を含む。尚、アクティブ画像撮像時に投影部102から投影されるパターン光の波長が近赤外光である場合は、アクティブ計測用のキャリブレーションパラメータと、パッシブ計測用のキャリブレーションパラメータをそれぞれ保持しておく。あるいは、両者の波長差に基づく倍率差のみを保持してもよい。 The processing unit 105 also holds calibration parameters for the first imaging unit 103 and the second imaging unit 104 as data necessary for performing distance value calculation processing. Here, the calibration parameters include parameters representing the relative position and orientation of the first imaging unit 103 and the second imaging unit 104, parameters representing the image center and focal length of each imaging unit, and distortion aberration. Note that when the wavelength of the pattern light projected from the projection unit 102 during active image capture is near-infrared light, calibration parameters for active measurement and calibration parameters for passive measurement are respectively held. Alternatively, only the magnification difference based on the wavelength difference between the two may be held.

図2は、実施例1に係る3次元計測装置100で計測対象物106の距離値を算出するまでの動作(処理)を示すフローチャートである。尚、図2のフローチャートで示す各動作(処理)は、制御部101がコンピュータプログラムを実行することによって、制御される。 FIG. 2 is a flowchart showing the operation (processing) up to calculating the distance value of the measurement object 106 by the three-dimensional measuring device 100 according to the first embodiment. Note that each operation (processing) shown in the flowchart in FIG. 2 is controlled by the control unit 101 executing a computer program.

まず、ステップS1101において、制御部101から投影部102にパターン光投影開始指令が送られ、投影部102からパターン光が照射される。これにより、計測対象物106の表面上にパターンが投影される。 First, in step S1101, the control unit 101 sends a pattern light projection start command to the projection unit 102, and the projection unit 102 irradiates the pattern light. This causes the pattern to be projected onto the surface of the measurement object 106.

次に、ステップS1102において、制御部101から第1の撮像部103と第2の撮像部104に撮像開始指令が送られる。撮像開始指令が撮像を行う各撮像部に送信されたら、第1の撮像部103と第2の撮像部104は、それぞれの視点から計測対象物106の表面上にパターン光のパターンが投影された第1の条件におけるシーンを撮像する(撮像工程)。この撮像処理は、制御部101から撮像終了指令が送られるまで実施される。本ステップにより、各撮像部が計測対象物106の表面上にパターン光のパターンを投影した第1の条件で撮像したアクティブ画像の画像群(第1の画像群)を取得することができる。本ステップで、第1の撮像部103と第2の撮像部104が撮像して取得した各アクティブ画像(第1の画像群)の画像データは、処理部105に送られる。 Next, in step S1102, the control unit 101 sends an imaging start command to the first imaging unit 103 and the second imaging unit 104. When the imaging start command is sent to each imaging unit that performs imaging, the first imaging unit 103 and the second imaging unit 104 capture a scene under a first condition in which a pattern of pattern light is projected onto the surface of the measurement object 106 from each viewpoint (imaging process). This imaging process is performed until an imaging end command is sent from the control unit 101. This step makes it possible to obtain a group of active images (first image group) captured by each imaging unit under the first condition in which a pattern of pattern light is projected onto the surface of the measurement object 106. In this step, the image data of each active image (first image group) captured and acquired by the first imaging unit 103 and the second imaging unit 104 is sent to the processing unit 105.

図3は、実施例1に係る第1の撮像部103と第2の撮像部104で取得するアクティブ画像とパッシブ画像の概念図の一例を示した図である。図3(A)は、第1の撮像部103と第2の撮像部104で取得したアクティブ画像の概念図の一例である。図3(B)は、第1の撮像部103と第2の撮像部104で取得したパッシブ画像の概念図の一例である。 Figure 3 shows an example of a conceptual diagram of an active image and a passive image acquired by the first imaging unit 103 and the second imaging unit 104 according to the first embodiment. Figure 3 (A) is an example of a conceptual diagram of an active image acquired by the first imaging unit 103 and the second imaging unit 104. Figure 3 (B) is an example of a conceptual diagram of a passive image acquired by the first imaging unit 103 and the second imaging unit 104.

図3(A)に示す第1のアクティブ画像110は、第1の撮像部103で撮像したアクティブ画像の概念図であり、第2のアクティブ画像111は、第2の撮像部104で撮像したアクティブ画像の概念図である。図3(A)に示す第1のアクティブ画像110と第2のアクティブ画像111において、計測対象物106の表面上に観測されるパターンは、後述する計測対象物106までの距離値の算出処理における視差値算出のための手がかりとして用いられる。 The first active image 110 shown in FIG. 3(A) is a conceptual diagram of an active image captured by the first imaging unit 103, and the second active image 111 is a conceptual diagram of an active image captured by the second imaging unit 104. In the first active image 110 and the second active image 111 shown in FIG. 3(A), the pattern observed on the surface of the measurement object 106 is used as a clue for calculating a parallax value in the process of calculating the distance value to the measurement object 106, which will be described later.

次に、ステップS1103において、制御部101から投影部102にパターン光投影終了指令が送られ、投影部102はパターン光の照射を止め、計測対象物106へのパターン光の投影を終了する。ここで、本ステップで制御部101は、パターン光を照射する第1の条件からパターン光を照射しない第2の条件となるように照射条件(投影条件)を切り替える。 Next, in step S1103, the control unit 101 sends a pattern light projection end command to the projection unit 102, and the projection unit 102 stops emitting the pattern light and ends the projection of the pattern light onto the measurement object 106. Here, in this step, the control unit 101 switches the irradiation condition (projection condition) from a first condition in which the pattern light is irradiated to a second condition in which the pattern light is not irradiated.

次に、ステップS1104において、制御部101から第1の撮像部103と第2の撮像部104に撮像開始指令が送られる。撮像開始指令が撮像を行う各撮像部に送信されたら、第1の撮像部103と第2の撮像部104は、それぞれの視点から計測対象物106の表面上にパターン光のパターンが投影されていない第2の条件におけるシーンを撮像する(撮像工程)。この撮像処理は、制御部101から撮像終了指令が送られるまで実施される。このとき、第1の撮像部103と第2の撮像部104は、計測対象物106から反射された可視光を受光する。本ステップにより、各撮像部が計測対象物106にパターン光を投影しない第2の条件で撮像したパッシブ画像の画像群(第2の画像群)を取得することができる。本ステップで第1の撮像部103と第2の撮像部104が撮像し、取得した各パッシブ画像(第2の画像群)の画像データは、処理部105に送られる。 Next, in step S1104, an image capture start command is sent from the control unit 101 to the first image capture unit 103 and the second image capture unit 104. When the image capture start command is sent to each image capture unit that performs image capture, the first image capture unit 103 and the second image capture unit 104 capture a scene from each viewpoint under a second condition in which the pattern of the pattern light is not projected onto the surface of the measurement object 106 (image capture process). This image capture process is performed until an image capture end command is sent from the control unit 101. At this time, the first image capture unit 103 and the second image capture unit 104 receive visible light reflected from the measurement object 106. This step makes it possible to obtain a group of passive images (a second group of images) captured under the second condition in which each image capture unit does not project the pattern light onto the measurement object 106. In this step, the first imaging unit 103 and the second imaging unit 104 capture images, and the image data of each acquired passive image (second image group) is sent to the processing unit 105.

図3(B)に示す第1のパッシブ画像112は、第1の撮像部103で撮像したパッシブ画像の概念図であり、第2のパッシブ画像113は、第2の撮像部104で撮像したパッシブ画像の概念図である。第1のパッシブ画像112と第2のパッシブ画像113にて観測される計測対象物106の3次元構造に由来する段差、エッジや表面上のテクスチャ等の特徴は、計測対象物106までの距離値の算出処理における視差値算出のための手がかりとして用いられる。 The first passive image 112 shown in FIG. 3B is a conceptual diagram of a passive image captured by the first imaging unit 103, and the second passive image 113 is a conceptual diagram of a passive image captured by the second imaging unit 104. Features such as steps, edges, and surface textures resulting from the three-dimensional structure of the measurement object 106 observed in the first passive image 112 and the second passive image 113 are used as clues for calculating a parallax value in the process of calculating the distance value to the measurement object 106.

ここまで説明したステップS1101からステップS1104までの動作フローは、アクティブ画像、パッシブ画像の順に撮像する場合のフローであるが、この順番について任意に入れ替えても構わない。例えば、パッシブ画像、アクティブ画像の順に撮像する場合は、ステップS1104、S1102、S1103の順に各種の処理を実行する。 The operational flow from step S1101 to step S1104 described so far is a flow for capturing images in the order of active image and passive image, but this order may be changed as desired. For example, when capturing images in the order of passive image and active image, various processes are executed in the order of steps S1104, S1102, and S1103.

次に、ステップS1105において、制御部101から処理部105に距離算出開始指令が送られ、処理部105は、アクティブ画像の各画像データとパッシブ画像の各画像データ、及びキャリブレーションパラメータを用いて距離値を算出する(処理工程)。 Next, in step S1105, the control unit 101 sends a distance calculation start command to the processing unit 105, and the processing unit 105 calculates a distance value using each image data of the active image and each image data of the passive image, as well as the calibration parameters (processing step).

図4は、処理部105において実施される、計測対象物106の距離値を算出する処理の具体的な動作を示すフローチャートである。即ち、図4は、図2に示すステップS1105の処理の詳細を説明するフローチャートである。尚、図4のフローチャートで示す各動作(処理)は、制御部101がコンピュータプログラムを実行することによって、制御される。 Fig. 4 is a flowchart showing the specific operations of the process for calculating the distance value of the measurement object 106, which is performed by the processing unit 105. That is, Fig. 4 is a flowchart explaining the details of the process of step S1105 shown in Fig. 2. Note that each operation (process) shown in the flowchart in Fig. 4 is controlled by the control unit 101 executing a computer program.

まず、ステップS1111において、第1のアクティブ画像110と第2のアクティブ画像111にノイズ除去処理を実施する。例えば、アクティブ画像の撮像において、近赤外のレーザを光源としたパターン光を照射した場合には、照明光の光源に起因する画像特性として散乱光同士の干渉により不規則な斑点上の模様(スペックルノイズ)が発生する。スペックルノイズは、位置によって異なる模様として観測されるため、ステレオマッチングの精度低下の要因となる。対策としては、ガウシアンフィルタ、メディアンフィルタなどの平滑化フィルタを用いることが有効である。 First, in step S1111, noise removal processing is performed on the first active image 110 and the second active image 111. For example, when capturing an active image, if pattern light using a near-infrared laser as a light source is irradiated, an irregular spotted pattern (speckle noise) occurs due to interference between scattered lights, which is an image characteristic caused by the light source of the illumination light. Speckle noise is observed as a pattern that differs depending on the position, and therefore causes a decrease in the accuracy of stereo matching. As a countermeasure, it is effective to use a smoothing filter such as a Gaussian filter or a median filter.

平滑化フィルタのサイズは、例えば、第1のアクティブ画像110と第2のアクティブ画像111において観測されるスペックルのサイズ程度に設定するなど最適化しておくことで、より高いノイズ除去効果がある。一方、パッシブ画像にはスペックルノイズは発生せず、ノイズ除去処理は不要であるため、少なくとも第1の画像群におけるアクティブ画像にノイズ除去処理を行う。あるいは、ショットノイズを除外できるように数画素程度のカーネルサイズの平滑化フィルタを適用してもよい。 By optimizing the size of the smoothing filter, for example by setting it to approximately the size of the speckles observed in the first active image 110 and the second active image 111, a higher noise removal effect can be achieved. On the other hand, since speckle noise does not occur in passive images and noise removal processing is not necessary, noise removal processing is performed on at least the active images in the first image group. Alternatively, a smoothing filter with a kernel size of about several pixels can be applied so that shot noise can be removed.

次に、ステップS1112において、第1のパッシブ画像112、第2のパッシブ画像113と、ノイズ除去後の第1のアクティブ画像110と第2のアクティブ画像111において発生する収差(ディストーション)を補正する(歪み補正する)。当該歪み補正は、アクティブ画像とパッシブ画像の少なくとも一方に対して行う。さらに、第1のアクティブ画像110と第2のアクティブ画像111、第1のパッシブ画像112、第2のパッシブ画像113に対し平行化処理を行う。収差の補正には、第1の撮像部103と第2の撮像部104のキャリブレーションパラメータを用いる。 Next, in step S1112, aberration (distortion) occurring in the first passive image 112, the second passive image 113, and the first active image 110 and the second active image 111 after noise removal is corrected (distortion correction is performed). The distortion correction is performed on at least one of the active image and the passive image. Furthermore, parallelization processing is performed on the first active image 110 and the second active image 111, the first passive image 112, and the second passive image 113. Calibration parameters of the first imaging unit 103 and the second imaging unit 104 are used to correct the aberration.

尚、第1の撮像部103と第2の撮像部104において受光する照明光の波長がアクティブ画像撮像時とパッシブ画像撮像時で異なる場合、色収差の影響を低減するために、キャリブレーションパラメータを使い分けることが好ましい。具体的には、アクティブ計測用とパッシブ計測のキャリブレーションパラメータを使い分けることが好ましい。例えば、近赤外のパターン光を照射してアクティブ画像の撮影を行う場合には、近赤外の照明を照射した撮影画像を用いてアクティブ画像用のキャリブレーションパラメータを予め算出しておく。 When the wavelength of the illumination light received by the first imaging unit 103 and the second imaging unit 104 differs between active and passive image capture, it is preferable to use different calibration parameters to reduce the effects of chromatic aberration. Specifically, it is preferable to use different calibration parameters for active and passive measurement. For example, when capturing an active image by irradiating a near-infrared pattern light, the calibration parameters for the active image are calculated in advance using a captured image irradiated with near-infrared illumination.

また、可視光化でパッシブ画像の撮影を行う場合には、可視光照明下の撮影画像を用いてパッシブ画像用のキャリブレーションパラメータを算出しておく。そして、アクティブ画像における収差補正には算出したアクティブ計測用のキャリブレーションパラメータを用い、パッシブ画像における収差補正には算出したパッシブ計測用のキャリブレーションパラメータを用いる。これにより、平行化した画像において、照明光の波長に基づく画像特性である収差の影響を低減できる(概ね排除できる)。以上のステップS1111、S1112を実施することで、後述する対応付けの前に行う前処理として画像の補正を行うことができる。 When capturing a passive image using visible light, calibration parameters for the passive image are calculated using the image captured under visible light illumination. The calculated calibration parameters for active measurement are then used for aberration correction in the active image, and the calculated calibration parameters for passive measurement are used for aberration correction in the passive image. This makes it possible to reduce (or essentially eliminate) the effects of aberration, which is an image characteristic based on the wavelength of the illumination light, in the collimated image. By performing the above steps S1111 and S1112, image correction can be performed as pre-processing prior to the matching described below.

次に、ステップS1113において、アクティブ画像とパッシブ画像を用いて、第1の撮像部103で撮影した各画像と、第2の撮像部104で撮像した各画像との、着目画素の組み合わせごとに類似度を評価する評価値を算出する。 Next, in step S1113, an evaluation value is calculated using the active image and the passive image to evaluate the similarity for each combination of pixels of interest between each image captured by the first imaging unit 103 and each image captured by the second imaging unit 104.

評価値を算出する手法として、ここでは、SAD(Sum of Absolute Difference)を利用する方法について説明する。第1のアクティブ画像及び第2のアクティブ画像の着目画素(x、y)の輝度値をそれぞれILA(x、y)、IRA(x、y)、第1のパッシブ画像及び第2のパッシブ画像の着目画素(x、y)の輝度値をそれぞれILP(x、y)、IRP(x、y)とする。このとき、アクティブ画像の類似度を評価値とした評価値SAD、パッシブ画像の類似度を評価値とした評価値SADはそれぞれ以下の式(1)と式(2)で表される。

Figure 2024055569000002
Here, a method of using SAD (Sum of Absolute Difference) will be described as a method of calculating the evaluation value. The luminance values of the pixel of interest (x, y) in the first active image and the second active image are ILA (x, y) and IRA (x, y), respectively, and the luminance values of the pixel of interest (x, y) in the first passive image and the second passive image are ILP (x, y) and IRP (x, y), respectively. In this case, the evaluation value SAD A in which the similarity of the active image is the evaluation value, and the evaluation value SAD P in which the similarity of the passive image is the evaluation value are expressed by the following formulas (1) and (2), respectively.
Figure 2024055569000002

アクティブ画像における評価値SADとパッシブ画像における評価値SADは、それぞれ値が小さいほど着目領域周辺が互いに類似することを意味する。類似度を算出するウインドウサイズは、アクティブ画像における投影のパターン(照明光のパターン)の密度や、パッシブ画像における計測対象物の特徴の大きさに応じて、それぞれの画像の特徴が適度に含まれるように設定することで対応付けの精度が向上する。 The smaller the evaluation value SAD A in the active image and the evaluation value SAD P in the passive image, the more similar the periphery of the region of interest is. The window size for calculating the similarity is set so that the features of each image are appropriately included according to the density of the projection pattern (illumination light pattern) in the active image and the size of the features of the measurement target object in the passive image, thereby improving the accuracy of the correspondence.

例えば、図3に示すように、アクティブ画像における評価値SADを計算するウインドウ107の幅waと高さhaは、ウインドウ内にドットパターンが少なくとも1つは含まれるように設定する。さらに、パッシブ画像における評価値SADを計算するウインドウ108の幅wpと高さwpは、計測対象物の微細構造を活かした対応付けが行えるよう、マッチング可能な範囲で極力小さく設定する。このようにすることで、対応付けの精度が向上する。 For example, as shown in Fig. 3, the width wa and height ha of a window 107 for calculating an evaluation value SAD A in an active image are set so that at least one dot pattern is included within the window. Furthermore, the width wp and height wp of a window 108 for calculating an evaluation value SAD P in a passive image are set as small as possible within a range where matching is possible so that correspondence can be performed making use of the fine structure of the measurement object. In this way, the accuracy of correspondence is improved.

マッチングに用いるウインドウの大きさは、マッチングの結果得られる距離マップの横分解能に強く影響するため、安定したマッチングができる範囲で極力小さくした方がよい。尚、領域の大きさだけでなく、領域内で利用する画素数を変えてもよい。 The size of the window used for matching strongly affects the horizontal resolution of the distance map obtained as a result of matching, so it is best to make it as small as possible while still allowing stable matching. Note that in addition to the size of the region, the number of pixels used within the region may also be changed.

具体的には、有効な特徴が必要数だけ得られるように、評価値算出に利用する画素を領域内で適宜間引いても構わない。2つの評価値SADと評価値SADを算出後、統合した評価値SADを算出する。両者を統合する際には、ウインドウサイズが大きい方の評価値が過剰に寄与しないようにすることが好ましい。2つの評価値SAD、評価値SADを計算するウインドウ内で利用した画素数をそれぞれS、Sとし、以下の式(3)のように算出する。

Figure 2024055569000003
尚、アクティブ画像とパッシブ画像の重要度に応じて、上記の式(3)の代わりに、以下の式(4)で示すように、両者の比率を変えて統合してもよい。
Figure 2024055569000004
ここで、kはアクティブ画像の情報とパッシブ画像の情報を統合する比率であり、0≦k≦1の範囲で選択される。例えば、アクティブ画像の情報を重視したい場合には、kの値を0.5より大きく設定すればよい。 Specifically, the pixels used to calculate the evaluation value may be appropriately thinned out within the region so that the necessary number of valid features are obtained. After the two evaluation values SAD A and SAD P are calculated, an integrated evaluation value SAD is calculated. When integrating the two, it is preferable to prevent the evaluation value of the larger window size from contributing excessively. The numbers of pixels used within the window for calculating the two evaluation values SAD A and S P are respectively S A and S P , and are calculated according to the following formula (3).
Figure 2024055569000003
Depending on the importance of the active image and the passive image, the ratio of the two may be changed and integrated as shown in the following equation (4) instead of the above equation (3).
Figure 2024055569000004
Here, k is the ratio at which active image information and passive image information are integrated, and is selected in the range of 0≦k≦1. For example, if it is desired to place importance on active image information, the value of k should be set to be greater than 0.5.

次に、ステップS1114において、ステップS1113で算出した評価値SADを用いて視差値を算出する。例えば、第1の撮像部で撮像した画像を基準として視差値を算出する場合、第2の撮像部で撮像した画像上で、着目画素位置Piと同一高さのライン上に対応点が存在する。ステップS1113において、第2の撮像部で撮像した画像の該当ライン上の各画素位置(Pj1、Pj2、Pj3、・・・、Pjn)と着目画素Piとの類似度を表す評価値(Eij1、Eij2、Eij3、・・・、Eijn)が既に算出されている。本ステップでは、これらの評価値のうち最も類似度が高い組み合わせを選択し、対応する視差値を、着目画素位置Piについての視差値として算出する。 Next, in step S1114, the disparity value is calculated using the evaluation value SAD calculated in step S1113. For example, when calculating the disparity value based on the image captured by the first imaging unit, a corresponding point exists on a line at the same height as the pixel position of interest Pi on the image captured by the second imaging unit. In step S1113, evaluation values (Eij1, Eij2, Eij3, ..., Eijn) representing the similarity between each pixel position (Pj1, Pj2, Pj3, ..., Pjn) on the corresponding line of the image captured by the second imaging unit and the pixel of interest Pi have already been calculated. In this step, the combination with the highest similarity among these evaluation values is selected, and the corresponding disparity value is calculated as the disparity value for the pixel position of interest Pi.

同様の処理を、着目する画素位置を変えながら実施する。尚、類似度を表す評価値の算出手法としてSADを例に示したが、このほかの手法を用いてもよい。例えば、SSD(Sum of Squared Diffference)、NCC(Normalized Cross Correlation)などの手法を用いてもよい。さらに、ZNCC(Zero means Normalized Cross Correlation)などの手法を用いてもよい。 The same process is performed while changing the pixel position of interest. Although SAD is used as an example of a method for calculating an evaluation value representing similarity, other methods may be used. For example, methods such as SSD (Sum of Squared Difference) and NCC (Normalized Cross Correlation) may be used. Furthermore, methods such as ZNCC (Zero Means Normalized Cross Correlation) may be used.

尚、本ステップで用いる評価式はこれらに限定されず、第1の統合画像114において着目する画素位置近傍における特徴と、第2の統合画像115において着目する画素位置近傍における特徴との類似性を評価できるものであればよい。 The evaluation formula used in this step is not limited to these, and any formula can be used as long as it can evaluate the similarity between the features in the vicinity of the pixel position of interest in the first integrated image 114 and the features in the vicinity of the pixel position of interest in the second integrated image 115.

次に、ステップS1115において、視差値を距離値に変換する。距離値は、第1の撮像部103と第2の撮像部104の相対位置関係を含むキャリブレーションパラメータを用いて、視差値から算出することができる。 Next, in step S1115, the parallax value is converted into a distance value. The distance value can be calculated from the parallax value using a calibration parameter including the relative positional relationship between the first image capture unit 103 and the second image capture unit 104.

以上、実施例1における計測対象物106までの距離値を対応付け後の統合された画像群を用いて算出する方法について説明したが、実施例1においては上述の方法に限定されず、以下に説明するような様々な変更が可能である。 The above describes a method for calculating the distance value to the measurement object 106 in Example 1 using the combined image group after matching, but Example 1 is not limited to the above-mentioned method, and various modifications are possible as described below.

(変形例1)
ステップS1102におけるアクティブ画像の撮影において近赤外のパターン光を用いる場合、環境光の光量が相対的に多いと、環境光に含まれる可視光成分の影響を受けるため、あらかじめ環境光成分を除外してもよい。環境光成分を除去する手段としては、同一の撮像部を用いて、別途、環境光画像を撮影して減算する方法がある。環境光画像は、ノイズ除去処理のうち、アクティブ画像の環境光ノイズを除去するために用いる。
(Variation 1)
When near-infrared pattern light is used in capturing an active image in step S1102, if the amount of ambient light is relatively large, the image will be affected by the visible light component contained in the ambient light, so the ambient light component may be removed in advance. One method for removing the ambient light component is to use the same imaging unit to capture an ambient light image separately and subtract it. The ambient light image is used to remove ambient light noise from the active image as part of the noise removal process.

同一の撮像部で撮像したアクティブ画像と環境光画像における同一の画素位置の輝度値について、アクティブ画像由来の輝度値から環境光画像由来の輝度値を差し引くことで、環境光成分の除去が可能である。尚、ステップS1104におけるパッシブ画像の撮像とステップS1102におけるアクティブ画像の撮像の露光時間が同じ場合には、環境光画像の撮影を行わず、代わりにパッシブ画像を減算することで、環境光成分の除去が可能である。 For the luminance values of the same pixel position in an active image and an ambient light image captured by the same imaging unit, the ambient light component can be removed by subtracting the luminance value derived from the ambient light image from the luminance value derived from the active image. Note that if the exposure time for capturing the passive image in step S1104 and the exposure time for capturing the active image in step S1102 are the same, the ambient light component can be removed by not capturing the ambient light image and instead subtracting the passive image.

(変形例2)
また、ステップS1113において、輝度値のままで演算を行うのではなく、所定の変換処理、具体的にはセンサス変換を行い得られたビット列のハミング距離を用いて評価値を算出してもよい。センサス変換は、着目画素と、周辺領域の各画素の輝度値の大小関係を比較し、着目画素が大きい場合には比較した画素の輝度値を0、小さい場合には1に置き換える変換である。この場合、第1のアクティブ画像110及び第2のアクティブ画像111に対してそれぞれ幅waと高さhaの領域を対象としたセンサス変換を実施し、変換後のビット列を用いてウインドウ内の同一位置同士のビット列を用いてハミング距離を算出する。
(Variation 2)
Also, in step S1113, instead of performing the calculation using the luminance values as they are, a predetermined conversion process, specifically a census conversion, may be performed to calculate the evaluation value using the Hamming distance of the bit string obtained. The census conversion is a conversion in which the luminance values of a pixel of interest and each pixel in the surrounding area are compared to determine which is larger, and if the pixel of interest is larger, the luminance value of the compared pixel is replaced with 0, and if it is smaller, it is replaced with 1. In this case, a census conversion is performed on the first active image 110 and the second active image 111 for an area of width wa and height ha, respectively, and the Hamming distance is calculated using the converted bit strings between bit strings at the same position within the window.

ここで算出したアクティブ画像の評価値を、評価値CHとする。同様にパッシブ画像には、幅wpと高さhpの領域を対象としたセンサス変換を実施し、変換後のビット列を用いたハミング距離をパッシブ画像の評価値CHとして算出する。そして、算出した評価値CH、評価値CHでそれぞれ、上記式(3)あるいは上記式(4)の評価値SAD、評価値SADを置き換えて両者を統合した評価値として評価値SADを算出すればよい。または、アクティブ画像とパッシブ画像とでそれぞれ異なる大きさの領域でセンサス変換を行い得られるビット列を並べたビット列を用いてハミング距離を算出してもよい。 The evaluation value of the active image calculated here is designated as evaluation value CH A. Similarly, census conversion is performed on the passive image for an area of width wp and height hp, and the Hamming distance using the converted bit string is calculated as evaluation value CH P of the passive image. Then, the evaluation value SAD A and evaluation value SAD P in the above formula (3) or (4) are replaced with the calculated evaluation values CH A and CH P , respectively, to calculate evaluation value SAD as an evaluation value that combines both. Alternatively, the Hamming distance may be calculated using a bit string in which bit strings obtained by performing census conversion on areas of different sizes for the active image and the passive image are arranged.

例えば、アクティブ画像にウインドウサイズ7×7の49画素の領域でセンサス変換を実施した場合、48(=49-1)ビットのビット列が得られる。同様に、パッシブ画像にウインドウサイズ5×5の25画素の領域でセンサス変換を実施した場合には24(=25-1)ビットのビット列が得られる。このとき、それぞれのビット列を並べて、72(=48+24)ビットのビット列を用いてハミング距離を算出し、この値を評価値としてもよい。この場合には、それぞれの画像からセンサス変換に利用した画素数により、両者の重みを変えることが可能である。なお、実施例1と同様に、領域内で利用する画素数を適宜間引くなどの処理をしてもよい。 For example, when census transformation is performed on an active image in a region of 49 pixels with a window size of 7x7, a bit string of 48 (=49-1) bits is obtained. Similarly, when census transformation is performed on a passive image in a region of 25 pixels with a window size of 5x5, a bit string of 24 (=25-1) bits is obtained. In this case, each bit string can be lined up, and the Hamming distance can be calculated using a bit string of 72 (=48+24) bits, and this value can be used as the evaluation value. In this case, it is possible to change the weight of both depending on the number of pixels used in the census transformation from each image. Note that, as in Example 1, processing such as appropriately thinning out the number of pixels used within the region can be performed.

(変形例3)
ステップS1101~S1104において、アクティブ画像とパッシブ画像とを別々の時刻でそれぞれ撮影を行うこととした。しかし、アクティブ画像を撮像するためのパターン光を特定の波長にして撮影を行い、該当成分を画像から分離することで、1回の撮影でアクティブ画像とパッシブ画像とを取得することも可能である。
(Variation 3)
In steps S1101 to S1104, the active image and the passive image are captured at different times. However, it is also possible to capture the active image with a specific wavelength of pattern light and separate the corresponding component from the image, thereby acquiring the active image and the passive image in a single capture.

例えば、アクティブ画像を撮像するためのパターン光の投影を赤色など特定の色にしてRGBセンサで撮影を行う場合を想定する。この場合、該当色成分を抽出した画像をアクティブ画像に、それ以外(もしくは緑色のみでも良い)の成分を抽出した画像をパッシブ画像にそれぞれ用いる(置き換える)ことも可能となり、1回の撮影でアクティブ画像、パッシブ画像の撮影が行える。この場合においても、それぞれの画像の特性は実施例1と同様に取得方法に依存して異なるため、上記で説明したそれぞれに適したノイズ除去処理や収差補正等の前処理を行い、評価値の算出処理を行う。ここで、当該前処理及び評価値の算出方法自体は実施例1で説明した方法と同様であるため、詳細な説明は省略する。 For example, assume that the pattern light for capturing an active image is projected in a specific color such as red and captured with an RGB sensor. In this case, it is possible to use (replace) an image from which the relevant color components are extracted as the active image, and an image from which other components (or even just green) are extracted as the passive image, and both the active image and the passive image can be captured in a single capture. Even in this case, the characteristics of each image differ depending on the capture method, as in Example 1, so pre-processing such as noise removal and aberration correction appropriate for each image as described above is performed, and then the evaluation value calculation process is performed. Here, the pre-processing and the evaluation value calculation method themselves are the same as those described in Example 1, so a detailed description is omitted.

以上のように、実施例1における3次元計測装置100によれば、各アクティブ画像と各パッシブ画像の各種画像特性や特徴の情報に基づき、それぞれの画像から対応付けに用いる評価値をそれぞれ算出する。そして、算出した当該評価値を用いて計測対象物106までの距離値を算出することができる。これにより、ロバストかつ高精度に計測対象物106までの距離値を算出することができる3次元計測装置を提供することが可能となる。 As described above, according to the three-dimensional measuring device 100 in the first embodiment, an evaluation value used for matching is calculated from each active image and each passive image based on information on various image characteristics and features of each image. Then, the calculated evaluation value can be used to calculate a distance value to the measurement object 106. This makes it possible to provide a three-dimensional measuring device that can robustly and accurately calculate a distance value to the measurement object 106.

<実施例2>
実施例2では、実施例1と同様の装置構成で、アクティブ画像とパッシブ画像とを統合してステレオ計測の対応点探索に用いる画像(統合画像、合成画像)を新たに生成(作成)する。統合画像(第3の画像)を新たに生成する際、アクティブ画像とパッシブ画像の各々で観測される、対応付けの手がかりとなる特徴が残るように統合画像を生成し、統合画像を用いて距離値を算出する。これにより、アクティブ計測とパッシブ計測を別々に行った後に組み合わせるよりも高精度に距離値を算出できる。尚、上記のように実施例2では、実施例1と同様の装置構成であるため、装置構成の詳細な説明を省略する。
Example 2
In the second embodiment, an active image and a passive image are integrated with the same device configuration as in the first embodiment to generate (create) a new image (integrated image, composite image) to be used for searching for corresponding points in stereo measurement. When generating a new integrated image (third image), the integrated image is generated so that features observed in each of the active image and the passive image that serve as a clue for matching remain, and the distance value is calculated using the integrated image. This allows the distance value to be calculated with higher accuracy than when active measurement and passive measurement are performed separately and then combined. As described above, the second embodiment has the same device configuration as the first embodiment, and therefore a detailed description of the device configuration will be omitted.

実施例2は、実施例1において実施していたアクティブ画像とパッシブ画像をそれぞれに適した補正処理を行った上で、アクティブ画像とパッシブ画像における評価値を算出し、算出したアクティブ画像とパッシブ画像の評価値を統合する処理は行わない。代わりに、それぞれの画像における画像特性や特徴に適した補正処理を行った後に、一組のステレオ画像となるように画像に統合して、統合した画像(統合画像)を用いて距離値算出の処理を行う。以下、図5を参照して、実施例2の3次元計測装置について説明する。ここで、実施例2においては、実施例1と異なる部分について説明し、重複する箇所等は適宜説明を省略する。 In Example 2, the active image and passive image are subjected to appropriate correction processing respectively, and then evaluation values for the active image and passive image are calculated, as was done in Example 1, and the calculated evaluation values for the active image and passive image are not integrated. Instead, after performing correction processing appropriate to the image characteristics and features of each image, the images are integrated to form a pair of stereo images, and the integrated image (integrated image) is used to calculate the distance value. The three-dimensional measuring device of Example 2 will be described below with reference to FIG. 5. Here, in Example 2, the differences from Example 1 will be described, and overlapping parts will be omitted as appropriate.

図5は、実施例2における距離値算出フローを示した図である。ここで、図5におけるステップS2111、S2112、S2115、S2116の処理内容は、それぞれ図4におけるS1111、S1112、S1114、S1115と同様の処理内容である。従って、説明を省略し、実施例1における距離値算出処理と異なる処理を含むステップS2113及びS2114の処理について以下に説明する。 Figure 5 is a diagram showing the distance value calculation flow in Example 2. Here, the processing contents of steps S2111, S2112, S2115, and S2116 in Figure 5 are the same as the processing contents of S1111, S1112, S1114, and S1115 in Figure 4, respectively. Therefore, the explanation will be omitted, and the processing of steps S2113 and S2114, which include processing different from the distance value calculation processing in Example 1, will be explained below.

ステップS2113において、第1のアクティブ画像110と第2のアクティブ画像111、及び第1のパッシブ画像112と第2のパッシブ画像113を用いて、対応付け用の画像として統合画像(第3の画像)を生成する。統合画像の生成の際は、各アクティブ画像(第1の画像群)から1つの撮像部が撮像したアクティブ画像(第1の画像)と、各パッシブ画像(第2の画像群)から当該1つの撮像部が撮像したパッシブ画像(第2の画像)とに基づき、統合画像を生成する。具体的には、両者の比率を設定して輝度値の単純和により統合画像を生成する。アクティブ用画像とパッシブ画像の同一画素の輝度値をそれぞれI、Iとして、合成画像における同一画素の輝度値Isを以下の式(5)のように算出する。

Figure 2024055569000005
ここで、kは、アクティブ画像の情報とパッシブ画像の情報を統合する比率であり、0≦k≦1の範囲で選択される。たとえば、アクティブ画像の情報を重視したい場合にはkの値を0.5より大きく設定すればよい。 In step S2113, the first active image 110 and the second active image 111, and the first passive image 112 and the second passive image 113 are used to generate an integrated image (third image) as an image for matching. When generating the integrated image, the integrated image is generated based on an active image (first image) captured by one imaging unit from each active image (first image group) and a passive image (second image) captured by the one imaging unit from each passive image (second image group). Specifically, the ratio between the two is set and the integrated image is generated by a simple sum of the luminance values. The luminance values of the same pixel in the active image and the passive image are I A and I P , respectively, and the luminance value Is of the same pixel in the composite image is calculated as shown in the following formula (5).
Figure 2024055569000005
Here, k is the ratio at which active image information and passive image information are integrated, and is selected in the range of 0≦k≦1. For example, when emphasis is placed on active image information, the value of k should be set to a value greater than 0.5.

尚、対応付け用の画像生成はこれ以外の方法でもよい。画像上で輝度勾配が大きいような領域は対応付けの手掛かりとして有効なため、アクティブ画像、パッシブ画像それぞれで輝度勾配が大きい領域の比率を上げるように合成するような方法も有効である。この場合には、アクティブ画像及びパッシブ画像に対してソーベルフィルタなどを適用して検出した各画素の輝度勾配の大きさの比率に基づき、それぞれアクティブ画像とパッシブ画像の重みづけ加算を行う。これにより、画素位置ごとに輝度勾配の強度に応じた重みづけで画像合成が可能になる。 Note that other methods can also be used to generate images for matching. Areas in an image with a large luminance gradient can be useful as a clue for matching, so a method of combining images that increases the ratio of areas with a large luminance gradient in each of the active and passive images is also effective. In this case, a Sobel filter or the like is applied to the active and passive images to detect the ratio of the luminance gradient of each pixel, and the active and passive images are weighted and added together. This makes it possible to combine images with weighting according to the strength of the luminance gradient for each pixel position.

図6に、図3(A)における第1のアクティブ画像110と第1のパッシブ画像112から新たに生成した第1の統合画像114の概念図を示す。加えて、図3(B)における第2のアクティブ画像111と第2のパッシブ画像113から新たに生成した第2の統合画像115の概念図を示す。 Figure 6 shows a conceptual diagram of a first integrated image 114 newly generated from the first active image 110 and the first passive image 112 in Figure 3 (A). In addition, a conceptual diagram of a second integrated image 115 newly generated from the second active image 111 and the second passive image 113 in Figure 3 (B) is shown.

ここで、図3(A)に示すアクティブ画像においては、計測対象物106表面上のパターンは明瞭に観測できるものの、計測対象物106由来の特徴である段差は不明瞭になっており、段差近傍の領域については正しい対応付けが困難である。さらに、図3(B)に示すパッシブ画像においては、計測対象物106由来の段差は明瞭に観測できるものの、計測対象物106表面上には特徴が何もないため、この領域については正しい対応付けが困難である。一方、図6に示す統合画像(第1の統合画像114、第2の統合画像115)においては、アクティブ画像由来の特徴とパッシブ画像由来の特徴がいずれも残っているため、共にそれぞれの画像における特徴を明瞭に観測することができる。即ち、新たに生成される統合画像は、計測対象物106の表面上に投影されたパターン及び計測対象物106の3次元構造や表面上のテクスチャが明瞭に観測可能となる画像である。 Here, in the active image shown in FIG. 3(A), the pattern on the surface of the measurement object 106 can be clearly observed, but the step, which is a feature derived from the measurement object 106, is unclear, and it is difficult to correctly match the area near the step. Furthermore, in the passive image shown in FIG. 3(B), the step derived from the measurement object 106 can be clearly observed, but there are no features on the surface of the measurement object 106, so it is difficult to correctly match this area. On the other hand, in the integrated image shown in FIG. 6 (first integrated image 114, second integrated image 115), both the features derived from the active image and the features derived from the passive image remain, so the features in both images can be clearly observed. In other words, the newly generated integrated image is an image in which the pattern projected on the surface of the measurement object 106 and the three-dimensional structure and texture on the surface of the measurement object 106 can be clearly observed.

ステップS2114において、第1の統合画像114と第2の統合画像115における着目画素の組み合わせごとに評価値を算出する。評価値の算出は、実施例1における、第1のアクティブ画像及び第2のアクティブ画像を、第1の統合画像114と第2の統合画像115に置き換えて、上記式(1)で示した評価値を算出する。尚、実施例2では、統合画像を生成して評価値を算出するため、上記式(2)及び上記式(3)で示した評価値の算出は不要であり、上記式(1)で算出した評価値を後段のステップS2115にそのまま用いることができる。 In step S2114, an evaluation value is calculated for each combination of pixels of interest in the first integrated image 114 and the second integrated image 115. The evaluation value is calculated by replacing the first active image and the second active image in the first embodiment with the first integrated image 114 and the second integrated image 115, and calculating the evaluation value shown in the above formula (1). Note that in the second embodiment, since an integrated image is generated and the evaluation value is calculated, it is not necessary to calculate the evaluation values shown in the above formulas (2) and (3), and the evaluation value calculated in the above formula (1) can be used as is in the subsequent step S2115.

以上のように、実施例2における3次元計測装置100によれば、アクティブ画像由来の特徴とパッシブ画像由来の特徴が残るようにそれぞれの画像を統合し、統合した画像を用いて評価値を算出して計測対象物106までの距離値を算出することができる。これにより、アクティブ計測とパッシブ計測を別々に行った後に組み合わせるよりも高精度に距離値を算出することが可能となる。 As described above, according to the three-dimensional measuring device 100 in the second embodiment, the images are integrated so that the features derived from the active image and the features derived from the passive image remain, and the integrated image is used to calculate an evaluation value and calculate a distance value to the measurement object 106. This makes it possible to calculate a distance value with higher accuracy than if active measurement and passive measurement were performed separately and then combined.

<実施例3>
実施例3では、実施例1において実施していたパッシブ画像の撮像の代わりに、計測対象物106に性質の異なるパターン光を照射してアクティブ画像をさらにもう1セット撮像し、2セット分のアクティブ画像を用いて距離値を算出する。これにより、それぞれ性質の異なるパターン光で情報を補強してロバストかつ高精度に距離値の計測が可能となる。
Example 3
In the third embodiment, instead of capturing passive images as in the first embodiment, the measurement target 106 is irradiated with pattern light having different properties, another set of active images is captured, and the distance value is calculated using the two sets of active images. This makes it possible to measure the distance value robustly and with high accuracy by reinforcing information with the pattern light having different properties.

実施例3の装置構成は、投影部102以外は実施例1における装置構成と同様であるため、投影部102以外の装置構成の詳細な説明を省略する。実施例3の投影部102は、パターン光を複数切り替えて照射が行えるものを利用することが可能に構成される。即ち、実施例3の投影部102は、それぞれ性質の異なるパターン光を計測対象物106に投影可能に構成される。 The device configuration of Example 3 is the same as that of Example 1 except for the projection unit 102, so detailed description of the device configuration other than the projection unit 102 will be omitted. The projection unit 102 of Example 3 is configured to be capable of using multiple pattern lights that can be switched for irradiation. In other words, the projection unit 102 of Example 3 is configured to be capable of projecting pattern lights each having different properties onto the measurement object 106.

ここでは、一例として実施例3の投影部102は、近赤外のレーザを光源としたサイズの大きい疎なドットパターンと、白色LEDを光源としたサイズの小さい密なドットパターンを切り替えて照射できるものとする。このように、実施例3の投影部102は、異なる光源や異なるパターン光を用いることで、性質の異なるパターン光を計測対象物106に照射することができる。尚、照射されるパターン光の光源やパターン光の組み合わせは、これに限定されず、実施例1で述べたようなさまざまなパターンの組み合わせを利用することができる、また、投影部102は、波長を変更したパターン光を照射することも可能に構成される。以下に、実施例3の処理フローについて図7を用いて説明する。 Here, as an example, the projection unit 102 of Example 3 can switch between irradiating a large sparse dot pattern using a near-infrared laser as a light source and a small dense dot pattern using a white LED as a light source. In this way, the projection unit 102 of Example 3 can irradiate the measurement target 106 with pattern light of different properties by using different light sources and different pattern light. Note that the light source of the irradiated pattern light and the combination of pattern light can be used, and various pattern combinations such as those described in Example 1 can be used. Furthermore, the projection unit 102 is configured to be able to irradiate pattern light with a changed wavelength. Below, the processing flow of Example 3 is explained using FIG. 7.

まず、ステップS3101において、制御部101から投影部102にパターン光投影開始指令が送られ、投影部102から第1の条件に基づく第1のパターン光が照射される。これにより、計測対象物106の表面上に第1のパターン光のパターン(第1の照明光のパターン)が投影される。ここで、第1の条件で照射する第1のパターン光は、近赤外のレーザを光源としたパターン光であるものとする。 First, in step S3101, the control unit 101 sends a pattern light projection start command to the projection unit 102, and the projection unit 102 irradiates a first pattern light based on a first condition. This causes a pattern of the first pattern light (a pattern of the first illumination light) to be projected onto the surface of the measurement object 106. Here, the first pattern light irradiated under the first condition is pattern light using a near-infrared laser as a light source.

次に、ステップS3102において、制御部101から第1の撮像部103と第2の撮像部104に撮像開始指令が送られる。撮像開始指令が撮像を行う各撮像部に送信されたら、第1の撮像部103と第2の撮像部104は、それぞれの視点から計測対象物106の表面上に第1のパターン光のパターンが投影された第1の条件におけるシーンを撮像する(撮像工程)。この撮像処理は、制御部101から撮像終了指令が送られるまで実施される。本ステップにより、各撮像部が計測対象物106の表面上に第1のパターン光のパターンを投影したアクティブ画像の画像群(第1の画像群)を取得することができる。尚、本ステップで第1の撮像部103と第2の撮像部104が撮像して取得した各アクティブ画像(第1の画像群)の画像データは、処理部105に送られる。 Next, in step S3102, the control unit 101 sends an image capture start command to the first image capture unit 103 and the second image capture unit 104. When the image capture start command is sent to each image capture unit that performs image capture, the first image capture unit 103 and the second image capture unit 104 capture a scene under the first condition in which the first pattern light pattern is projected onto the surface of the measurement object 106 from each viewpoint (image capture process). This image capture process is performed until an image capture end command is sent from the control unit 101. This step allows each image capture unit to acquire a group of active images (first image group) in which the first pattern light pattern is projected onto the surface of the measurement object 106. Note that the image data of each active image (first image group) captured and acquired by the first image capture unit 103 and the second image capture unit 104 in this step is sent to the processing unit 105.

次に、ステップS3103において、制御部101から投影部102にパターン光投影終了指令が送られ、投影部102は第1のパターン光の照射を止め、計測対象物106への第1のパターン光の投影を終了する。ここで、本ステップで制御部101は、第1のパターン光を照射する第1の条件から、第2のパターン光を照射する第2の条件となるように照射条件(投影条件)を切り替える。 Next, in step S3103, the control unit 101 sends a pattern light projection end command to the projection unit 102, and the projection unit 102 stops emitting the first pattern light and ends the projection of the first pattern light onto the measurement object 106. Here, in this step, the control unit 101 switches the irradiation conditions (projection conditions) from the first conditions for emitting the first pattern light to the second conditions for emitting the second pattern light.

次に、ステップS3104において、制御部101から投影部102に第2のパターン光の投影開始指令が送られ、投影部102から計測対象物106に第2の条件に基づく第2のパターン光が照射される。これにより、計測対象物106の表面上に第2のパターン光のパターン(第2の照明光のパターン)が投影される。本ステップで照射される第2のパターン光は、ステップS3101で投影される第1のパターン光とは、性質が異なるパターン光でありここでは、白色LEDを光源としたパターン光であるものとする。 Next, in step S3104, the control unit 101 sends a command to the projection unit 102 to start projection of the second pattern light, and the projection unit 102 irradiates the measurement object 106 with the second pattern light based on the second condition. This causes the second pattern light pattern (second illumination light pattern) to be projected onto the surface of the measurement object 106. The second pattern light irradiated in this step is a pattern light with different properties from the first pattern light projected in step S3101, and here is assumed to be a pattern light with a white LED as the light source.

次に、ステップS3105において、制御部101から第1の撮像部103と第2の撮像部104に撮像開始指令が送られる。第1の撮像部103と第2の撮像部104は、それぞれの視点か計測対象物106の表面上に第2のパターン光のパターンが投影された第2の条件におけるシーンを撮像する(撮像工程)。この撮像処理は、制御部101から撮像終了指令が送られるまで実施される。このとき、第1の撮像部103と第2の撮像部104は、計測対象物106から反射された可視光を受光する。本ステップにより、各撮像部が計測対象物106の表面上に第2のパターン光のパターンを投影したアクティブ画像の画像群(第2の画像群)を取得することができる。尚、本ステップで第1の撮像部103と第2の撮像部104が撮像して取得した各アクティブ画像(第2の画像群)の画像データは、処理部105に送られる。 Next, in step S3105, the control unit 101 sends an image capture start command to the first image capture unit 103 and the second image capture unit 104. The first image capture unit 103 and the second image capture unit 104 capture a scene under the second condition in which the second pattern light pattern is projected on the surface of the measurement object 106 from each viewpoint (image capture process). This image capture process is performed until an image capture end command is sent from the control unit 101. At this time, the first image capture unit 103 and the second image capture unit 104 receive visible light reflected from the measurement object 106. This step allows each image capture unit to acquire a group of active images (second image group) in which the second pattern light pattern is projected on the surface of the measurement object 106. Note that the image data of each active image (second image group) captured and acquired by the first image capture unit 103 and the second image capture unit 104 in this step is sent to the processing unit 105.

図8は、実施例3における第1の撮像部103と第2の撮像部104で取得するアクティブ画像の概念図と、当該アクティブ画像とは性質の異なるパターン光が照射されたアクティブ画像の概念図の一例を示した図である。 Figure 8 shows an example of a conceptual diagram of an active image acquired by the first imaging unit 103 and the second imaging unit 104 in Example 3, and a conceptual diagram of an active image irradiated with pattern light having a different property from the active image.

図8(A)は、計測対象物106の表面上に第1のパターン光のパターンを投影し、各撮像部で取得したアクティブ画像の概念図の一例である。尚、図8(A)は、図3(A)に示したアクティブ画像の概念図と同様の概念図である。図8(B)は、計測対象物106の表面上に第2のパターン光のパターンを投影し、各撮像部で取得したアクティブ画像の概念図の一例である。図7の処理フローを例とすると、図8(A)におけるアクティブ画像は、ステップS3102で撮像した画像であり、図8(B)におけるアクティブ画像は、ステップS3104で撮像した画像である。計測対象物106の表面上に観測されるパターンは、後段の距離値算出処理における視差値算出のための手がかりとして用いられる。 Fig. 8(A) is an example of a conceptual diagram of an active image acquired by each imaging unit when a first pattern of light is projected onto the surface of the measurement object 106. Note that Fig. 8(A) is a conceptual diagram similar to the conceptual diagram of the active image shown in Fig. 3(A). Fig. 8(B) is an example of a conceptual diagram of an active image acquired by each imaging unit when a second pattern of light is projected onto the surface of the measurement object 106. Taking the processing flow of Fig. 7 as an example, the active image in Fig. 8(A) is an image captured in step S3102, and the active image in Fig. 8(B) is an image captured in step S3104. The pattern observed on the surface of the measurement object 106 is used as a clue for calculating a parallax value in the distance value calculation process at a later stage.

次に、ステップS3106において、制御部101から投影部102にパターン光投影終了指令が送られ、投影部102は第2のパターン光の照射を止め、計測対象物106への第2のパターン光の投影を終了する。 Next, in step S3106, the control unit 101 sends a pattern light projection end command to the projection unit 102, and the projection unit 102 stops irradiating the second pattern light and ends the projection of the second pattern light onto the measurement object 106.

次に、ステップS3107において、制御部101から処理部105に撮像開始指令が送られる。撮像開始指令が撮像を行う各撮像部に送信されたら、処理部105はアクティブ画像110、111、116、117の各画像データ及びキャリブレーションパラメータを用いて距離値を算出する。 Next, in step S3107, the control unit 101 sends an image capture start command to the processing unit 105. When the image capture start command is sent to each imaging unit that will capture the image, the processing unit 105 calculates a distance value using the image data of each of the active images 110, 111, 116, and 117 and the calibration parameters.

ここで、処理部105において実施される計測対象物106の距離値を算出する処理の具体的な処理フローは、基本的にはパッシブ画像を図7のステップS3104で取得したアクティブ画像と置き換えれば、実施例1の図4と同様であるため説明は省略する。以下では、実施例1における処理とは異なる処理を含むステップS1111、S1112、S1113について説明する。 Here, the specific processing flow of the process for calculating the distance value of the measurement object 106 performed by the processing unit 105 is basically the same as that shown in FIG. 4 of the first embodiment if the passive image is replaced with the active image acquired in step S3104 of FIG. 7, so a description thereof will be omitted. Below, steps S1111, S1112, and S1113, which include processes different from those in the first embodiment, will be described.

ステップS1111において、ステップS3101及びステップS3104で照射したそれぞれのパターン光の特性に合わせたノイズ除去処理を実施する。例えば、近赤外のレーザを光源とした第1のパターン光を照射して撮像したアクティブ画像110、111には、実施例1と同様にスペックルノイズの影響を軽減するため、観測されるスペックルのサイズ程度の平滑化フィルタを適用する。白色LEDを光源とした第2のパターン光を照射して撮像したアクティブ画像116、117には、スペックルが発生しないため、スペックルノイズの除去処理を行わない。 In step S1111, noise removal processing is performed according to the characteristics of each pattern light irradiated in steps S3101 and S3104. For example, to reduce the effect of speckle noise, a smoothing filter of about the size of the observed speckle is applied to active images 110 and 111 captured by irradiating the first pattern light using a near-infrared laser as a light source, as in Example 1. Since no speckle occurs in active images 116 and 117 captured by irradiating the second pattern light using a white LED as a light source, speckle noise removal processing is not performed.

ステップS1112において、アクティブ画像110、111と、アクティブ画像116、117において発生する収差(ディストーション)の補正を行い、アクティブ画像110、111と、アクティブ画像116、117に対して平行化処理を行う。収差の補正には、第1の撮像部103と第2の撮像部104のキャリブレーションパラメータを用いる。尚、第1の撮像部103と第2の撮像部104において受光する波長がステップS3102におけるアクティブ画像撮像時とステップS3105におけるアクティブ画像撮像時で異なるため、キャリブレーションパラメータを使い分けることが好ましい。 In step S1112, aberration (distortion) occurring in active images 110, 111 and active images 116, 117 is corrected, and parallelization processing is performed on active images 110, 111 and active images 116, 117. Calibration parameters of the first imaging unit 103 and the second imaging unit 104 are used to correct the aberration. Note that since the wavelengths of light received by the first imaging unit 103 and the second imaging unit 104 differ when capturing an active image in step S3102 and when capturing an active image in step S3105, it is preferable to use different calibration parameters.

ステップS1113において、アクティブ画像110、111と、アクティブ画像116、117を用いて、第1の撮像部103で撮影した画像と、第2の撮像部104で撮像した画像との、着目画素の組み合わせごとに類似度を評価する評価値を算出する。評価値の算出方法は、実施例1におけるパッシブ画像112、113をアクティブ画像116、117と置き換えれば同様であるため説明を省略する。 In step S1113, active images 110, 111 and active images 116, 117 are used to calculate an evaluation value that evaluates the similarity for each combination of pixels of interest between the image captured by the first imaging unit 103 and the image captured by the second imaging unit 104. The method of calculating the evaluation value is the same if passive images 112, 113 in Example 1 are replaced with active images 116, 117, so a description thereof will be omitted.

ここで、類似度を算出するウインドウサイズは、それぞれのアクティブ画像における投影のパターン(照明光のパターン)の密度に応じて、それぞれの画像における特徴が適度に含まれるように設定することで対応付けの精度が向上する。そのため、このようにすることが好ましい。例えば、図7に示すように、アクティブ画像110、111にはウインドウ107、アクティブ画像116、117にはウインドウ118のように、ドットパターンにおけるドットが少なくとも1つは含まれるようなサイズに設定するのが好ましい。 The window size for calculating the similarity is set so that the characteristics of each image are appropriately included, depending on the density of the projection pattern (illumination light pattern) in each active image, improving the accuracy of the correspondence. For this reason, it is preferable to do so. For example, as shown in FIG. 7, it is preferable to set the size so that at least one dot in the dot pattern is included, such as window 107 for active images 110 and 111, and window 118 for active images 116 and 117.

以上のように、実施例3における3次元計測装置100によれば、性質の異なるパターン光をそれぞれ照射したアクティブ画像をそれぞれ撮像する。その後、撮像した各アクティブ画像の各画像群(第1の画像群と第2の画像群)を用いて評価値を算出し、算出した評価値を用いて計測対象物106までの距離値を算出することができる。これにより、それぞれ性質の異なるパターン光で情報を補強してロバスト且つ高精度に計測対象物106までの距離値を算出することが可能となる。 As described above, according to the three-dimensional measuring device 100 of the third embodiment, active images are captured by irradiating each active image with a pattern light having a different property. Then, an evaluation value is calculated using each image group (first image group and second image group) of each captured active image, and the distance value to the measurement object 106 can be calculated using the calculated evaluation value. This makes it possible to robustly and highly accurately calculate the distance value to the measurement object 106 by reinforcing information with the pattern light having a different property.

以上、実施例3における計測対象物106までの距離値の算出方法について説明したが、実施例3においては上述の方法に限定されず、以下に説明するような様々な変更が可能である。 The above describes the method for calculating the distance value to the measurement target object 106 in Example 3, but Example 3 is not limited to the above-mentioned method, and various modifications are possible as described below.

例えば、上記では性質の異なるパターン光をそれぞれ計測対象物106に照射し、異なるアクティブ画像を2セット用いて距離値を算出した。ここで、本例では距離値算出に用いるアクティブ画像を3セットに増やし、それぞれ互いに性質の異なるパターン光を照射してもよい。この場合も、実施例3と同様に、ステップS1111では画像ごとに、照射したパターン光の光源特性に応じたノイズ除去を実施する。加えて、ステップS1112では、パターンの波長に応じたキャリブレーションパラメータを用いた収差補正と平行化処理を実施する。 For example, in the above, pattern light of different properties is irradiated onto the measurement object 106, and distance values are calculated using two sets of different active images. Here, in this example, the number of active images used for distance value calculation may be increased to three sets, and pattern light of different properties may be irradiated onto each set. In this case, as in the third embodiment, in step S1111, noise removal is performed for each image according to the light source characteristics of the irradiated pattern light. In addition, in step S1112, aberration correction and parallelization processing are performed using calibration parameters according to the wavelength of the pattern.

そして、ステップS1113において、照明光のパターンに起因する特徴の大きさ、例えば、ドットパターンにおけるドットの大きさに基づき、ウインドウサイズを設定する。その後、この3セットのアクティブ画像を用いて、それぞれの類似度を評価する評価値を算出する。これにより、上記の実施例3と同様に性質の異なる、即ち照明光の光源や波長、パターン等の少なくとも1つを変更したパターン光のパターンが投影された画像で情報を補強してロバスト且つ高精度に計測対象物106までの距離値を算出可能となる。尚、本例においては、3セットとしたが、3セット以上を用いる場合も上記と同様である。また本例においてアクティブ画像のみに限らず、アクティブ画像とパッシブ画像とを組み合わせて3セット以上の画像を取得し、取得したそれぞれの画像を距離値算出の際に用いるようにしても構わない。 Then, in step S1113, a window size is set based on the size of features resulting from the illumination light pattern, for example, the size of dots in a dot pattern. After that, the three sets of active images are used to calculate an evaluation value for evaluating the similarity of each. As a result, similar to the above-mentioned third embodiment, information can be reinforced with an image projected with a pattern of pattern light having different properties, i.e., at least one of the light source, wavelength, pattern, etc. of the illumination light is changed, making it possible to calculate the distance value to the measurement object 106 robustly and with high accuracy. Note that in this embodiment, three sets are used, but the above is also true when three or more sets are used. Also, in this embodiment, it is not limited to only active images, and three or more sets of images may be obtained by combining active images and passive images, and each of the obtained images may be used when calculating the distance value.

また、実施例1で示した変形例2も実施例3に適用することができる。即ち、実施例3におけるステップS1113では、輝度値のままで演算を行うのではなく、所定の変換処理、具体的にはセンサス変換を行い得られたビット列のハミング距離を用いて評価値を算出するようにしてもよい。 Moreover, the modified example 2 shown in the first embodiment can also be applied to the third embodiment. That is, in step S1113 in the third embodiment, instead of performing the calculation using the luminance value as it is, a predetermined conversion process, specifically, a census conversion, can be performed to calculate the evaluation value using the Hamming distance of the bit string obtained.

<物品製造方法に係る実施例>
上述の3次元計測装置100は、ある支持部材に支持された状態で使用されうる。本実施例では、一例として、図9に示すようにロボットアーム200(把持装置)に備え付けられて使用される制御システムについて説明する。図9では図示していないが、3次元計測装置100は第1の撮像部103と第2の撮像部104を有しており、第1の撮像部103と第2の撮像部104を用いて、上述した各実施例と同様に支持台Tに置かれた物体Wを撮像し、画像(画像データ)を取得する。そして、3次元計測装置100の制御部101が、又は、3次元計測装置100の制御部101から出力された画像を取得したアーム制御部210が、物体Wの位置や姿勢を決定する。アーム制御部210は、その位置や姿勢の情報(計測結果)、及び上述した各実施例の3次元計測装置100で算出された物体Wの距離値の情報に基づいて、ロボットアーム200に駆動指令を送ってロボットアーム200を制御する。
<Example of article manufacturing method>
The above-mentioned three-dimensional measuring device 100 can be used in a state where it is supported by a certain support member. In this embodiment, as an example, a control system that is attached to a robot arm 200 (gripping device) and used as shown in FIG. 9 will be described. Although not shown in FIG. 9, the three-dimensional measuring device 100 has a first imaging unit 103 and a second imaging unit 104, and uses the first imaging unit 103 and the second imaging unit 104 to capture an image (image data) of an object W placed on a support table T in the same manner as in each of the above-mentioned embodiments. Then, the control unit 101 of the three-dimensional measuring device 100, or the arm control unit 210 that has acquired the image output from the control unit 101 of the three-dimensional measuring device 100, determines the position and orientation of the object W. The arm control unit 210 sends a drive command to the robot arm 200 based on the information on the position and orientation (measurement result) and the information on the distance value of the object W calculated by the three-dimensional measuring device 100 of each of the above-mentioned embodiments to control the robot arm 200.

ロボットアーム200は、上述した各実施例の3次元計測装置100で算出された物体Wの距離値に基づき、先端のロボットハンド(把持部)などで物体Wを保持して、並進や回転などの移動をさせる(移動工程)。さらに、ロボットアーム200によって物体Wを他の部品に組み付ける(組立処理をする)ことにより、複数の部品で構成された所定の物品、例えば電子回路基板や機械などを製造することができる。また、移動された物体Wを加工(処理)することにより、物品を製造することができる。なお、アーム制御部210は、コンピュータとしてのCPUなどの演算装置や、コンピュータプログラムを記憶したメモリなどの記憶装置を有する。尚、ロボットを制御する制御部をアーム制御部210の外部に設けてもよい。 Based on the distance value of the object W calculated by the 3D measuring device 100 of each of the above-mentioned embodiments, the robot arm 200 holds the object W with a robot hand (gripping part) at the tip, and moves it in a translational or rotational manner (movement process). Furthermore, by assembling the object W to other parts using the robot arm 200 (performing an assembly process), a predetermined item composed of multiple parts, such as an electronic circuit board or a machine, can be manufactured. Furthermore, by processing (treating) the moved object W, an item can be manufactured. The arm control unit 210 has a calculation device such as a CPU as a computer, and a storage device such as a memory that stores a computer program. A control unit that controls the robot may be provided outside the arm control unit 210.

また、3次元計測装置100により計測された計測データや得られた画像をディスプレイなどの表示部220に表示してもよい。また、物体Wを他の部品に対して位置合わせのために、把持及び移動をしてもよい。尚、物体Wは図1で例示している計測対象物106と同様の構成である。さらに、3次元計測装置100はロボットアーム200を含むように構成してもよい。 The measurement data and images obtained by the three-dimensional measuring device 100 may be displayed on a display unit 220 such as a display. The object W may be grasped and moved in order to align it with other parts. The object W has a similar configuration to the measurement target 106 illustrated in FIG. 1. The three-dimensional measuring device 100 may be configured to include a robot arm 200.

本実施形態の開示は、以下の構成、方法、プログラム、及びシステムを含む。 The disclosure of this embodiment includes the following configurations, methods, programs, and systems.

(構成1)
対象物を互いに異なる視点から撮像する複数の撮像部と、
複数の撮像部により対象物を第1の条件で取得した第1の画像群と対象物を第1の条件とは異なる第2の条件で取得した第2の画像群と、を用いて対応付けを行うことにより、対象物までの距離値を算出する処理部と、を有し、
処理部は、
第1と第2の画像群それぞれの画像における照明光の波長に基づく画像特性、照明光の光源に起因する画像特性、照明光のパターンに起因する特徴の大きさの少なくとも1つの情報に基づいて第1と第2の画像群に対する対応付けを行うか、又は、情報に基づいて第1と第2の画像群に対して対応付けの前に行う処理を行った後に対応付けを行い、
対応付けによって得られた視差値を用いて距離値を算出することを特徴とする3次元計測装置。
(Configuration 1)
A plurality of imaging units that capture images of an object from different viewpoints;
a processing unit that calculates a distance value to the object by associating a first image group obtained by capturing an object under a first condition with a plurality of image capturing units and a second image group obtained by capturing an object under a second condition different from the first condition,
The processing unit includes:
Corresponding the first and second image groups based on at least one of information on image characteristics based on the wavelength of the illumination light in each of the images of the first and second image groups, image characteristics caused by the light source of the illumination light, and size of features caused by the pattern of the illumination light, or correlating the first and second image groups after performing processing on the first and second image groups before the correspondence based on the information;
A three-dimensional measuring device that calculates a distance value using a parallax value obtained by matching.

(構成2)
処理部は、情報に基づいて、第1と第2の画像群の画像から対応付けに用いる評価値をそれぞれ算出し、算出したそれぞれの評価値を統合し、統合した評価値を用いて距離値を算出することを特徴とする構成1に記載の3次元計測装置。
(Configuration 2)
The processing unit calculates an evaluation value to be used for matching from the images of the first and second image groups based on the information, integrates the calculated evaluation values, and calculates a distance value using the integrated evaluation value.

(構成3)
処理部は、第1と第2の画像群それぞれの画像における輝度値に基づき評価値を算出することを特徴とする構成2に記載の3次元計測装置。
(Configuration 3)
3. The three-dimensional measuring apparatus according to configuration 2, wherein the processing unit calculates an evaluation value based on luminance values in each of the first and second image groups.

(構成4)
処理部は、第1と第2の画像群それぞれの画像に所定の変換処理を行い得られたビット列のハミング距離を用いて評価値を算出することを特徴とする構成2に記載の3次元計測装置。
(Configuration 4)
3. The three-dimensional measuring device according to configuration 2, wherein the processing unit calculates an evaluation value using a Hamming distance of a bit string obtained by performing a predetermined conversion process on each of the first and second image groups.

(構成5)
処理部は、照明光の波長に基づき、第1と第2の画像群の少なくとも一方に対して画像の歪み補正を行うことを特徴とする構成1乃至4のいずれか1項に記載の3次元計測装置。
(Configuration 5)
5. The three-dimensional measuring device according to any one of configurations 1 to 4, wherein the processing unit performs image distortion correction on at least one of the first and second image groups based on the wavelength of the illumination light.

(構成6)
処理部は、第1と第2の画像群の画像の少なくとも一方に対して、所定のノイズ除去処理を行うことを特徴とする構成1乃至5のいずれか1項に記載の3次元計測装置。
(Configuration 6)
6. The three-dimensional measuring apparatus according to any one of configurations 1 to 5, wherein the processing unit performs a predetermined noise removal process on at least one of the images in the first and second image groups.

(構成7)
処理部は、照明光のパターンに起因する特徴の大きさに基づき、第1と第2の画像群の画像に対して対応付けに用いる領域を設定し、対応付けに用いる評価値を算出することを特徴とする構成2乃至4のいずれか1項に記載の3次元計測装置。
(Configuration 7)
The three-dimensional measuring device described in any one of configurations 2 to 4, characterized in that the processing unit sets areas to be used for matching in the images of the first and second image groups based on the size of features caused by the illumination light pattern, and calculates an evaluation value to be used for matching.

(構成8)
処理部は、第1の画像群に含まれる第1の画像と第2の画像群に含まれる第2の画像に基づき、統合した画像として第3の画像を生成することを特徴とする構成1に記載の3次元計測装置。
(Configuration 8)
The three-dimensional measuring device described in configuration 1, characterized in that the processing unit generates a third image as an integrated image based on the first image included in the first image group and the second image included in the second image group.

(構成9)
処理部は、第3の画像を用いて距離値を算出することを特徴とする構成8に記載の3次元計測装置。
(Configuration 9)
9. The three-dimensional measuring apparatus according to configuration 8, wherein the processing unit calculates the distance value by using the third image.

(構成10)
対象物に照明光のパターンを投影する投影部を有し、
複数の撮像部は、投影部により対象物に照明光のパターンを投影した画像が含まれる第1の画像群と、対象物に照明光のパターンを投影しない画像が含まれる第2の画像群とを取得することを特徴とする構成1乃至9のいずれか1項に記載の3次元計測装置。
(Configuration 10)
A projection unit projects a pattern of illumination light onto an object,
A three-dimensional measuring device described in any one of configurations 1 to 9, characterized in that the multiple imaging units acquire a first group of images including images in which an illumination light pattern is projected onto the object by a projection unit, and a second group of images including images in which an illumination light pattern is not projected onto the object.

(構成11)
対象物に少なくとも第1の照明光のパターンと、第1の照明光のパターンとは光源、波長、照明光のパターンの少なくとも1つが異なる第2の照明光のパターンを投影可能な投影部を有し、
複数の撮像部は、対象物に第1の照明光のパターンを投影した画像が含まれる第1の画像群と、対象物に第2の照明光のパターンを投影した画像が含まれる第2の画像群とを取得することを特徴とする構成1乃至7のいずれか1項に記載の3次元計測装置。
(Configuration 11)
a projection unit capable of projecting at least a first illumination light pattern and a second illumination light pattern, the second illumination light pattern being different from the first illumination light pattern in at least one of a light source, a wavelength, and an illumination light pattern, onto an object;
A three-dimensional measuring device described in any one of configurations 1 to 7, characterized in that the multiple imaging units acquire a first image group including images of a first illumination light pattern projected onto an object, and a second image group including images of a second illumination light pattern projected onto an object.

(構成12)
撮像部は、特定の波長の照明光を照射して1回の撮像で取得した画像から第1の画像群に含まれる第1の画像と第2の画像群に含まれる第2の画像とを取得することを特徴とする構成1乃至7のいずれか1項に記載の3次元計測装置。
(Configuration 12)
A three-dimensional measuring device described in any one of configurations 1 to 7, characterized in that the imaging unit acquires a first image included in a first image group and a second image included in a second image group from images acquired in a single imaging operation by irradiating illumination light of a specific wavelength.

(構成13)
対象物を互いに異なる視点から撮像する撮像工程と、
撮像工程により対象物を第1の条件で取得した第1の画像群と対象物を第1の条件とは異なる第2の条件で取得した第2の画像群と、を用いて対応付けを行うことにより、対象物までの距離値を算出する処理工程と、を有し、
処理工程では、
第1と第2の画像群それぞれの画像における照明光の波長に基づく画像特性、照明光の光源に起因する画像特性、照明光のパターンに起因する特徴の大きさの少なくとも1つの情報に基づいて第1と第2の画像群に対する対応付けを行うか、又は、情報に基づいて第1と第2の画像群に対して対応付けの前に行う処理を行った後に対応付けを行い、
対応付けによって得られた視差値を用いて距離値を算出することを特徴とする3次元計測方法。
(Configuration 13)
An imaging step of imaging an object from different viewpoints;
a processing step of calculating a distance value to the object by associating a first image group obtained by the imaging step under a first condition with a second image group obtained by the imaging step under a second condition different from the first condition,
In the processing step,
Corresponding the first and second image groups based on at least one of information on image characteristics based on the wavelength of the illumination light in each of the images of the first and second image groups, image characteristics caused by the light source of the illumination light, and size of features caused by the pattern of the illumination light, or correlating the first and second image groups after performing processing on the first and second image groups before the correspondence based on the information;
A three-dimensional measuring method, comprising the steps of: calculating a distance value using a disparity value obtained by matching;

(構成14)
対象物までの距離値を算出する処理方法をコンピュータに実行させるプログラムであって、処理方法は、
対象物を互いに異なる視点から第1の条件で取得した第1の画像群と対象物を互いに異なる視点から第1の条件とは異なる第2の条件で取得した第2の画像群と、を用いて対応付けを行うことにより、対象物までの距離値を算出する処理工程を有し、
処理工程では、
第1と第2の画像群それぞれの画像における照明光の波長に基づく画像特性、照明光の光源に起因する画像特性、照明光のパターンに起因する特徴の大きさの少なくとも1つの情報に基づいて第1と第2の画像群に対する対応付けを行うか、又は、情報に基づいて第1と第2の画像群に対して対応付けの前に行う処理を行った後に対応付けを行い、
対応付けによって得られた視差値を用いて距離値を算出することを特徴とするプログラム。
(Configuration 14)
A program for causing a computer to execute a processing method for calculating a distance value to an object, the processing method comprising:
a processing step of calculating a distance value to the object by matching a first image group, which is obtained by capturing the object from different viewpoints under a first condition, with a second image group, which is obtained by capturing the object from different viewpoints under a second condition different from the first condition;
In the processing step,
Corresponding the first and second image groups based on at least one of information on image characteristics based on the wavelength of the illumination light in each of the images of the first and second image groups, image characteristics caused by the light source of the illumination light, and size of features caused by the pattern of the illumination light, or correlating the first and second image groups after performing processing on the first and second image groups before the correspondence based on the information;
A program for calculating a distance value using a disparity value obtained by matching.

(構成15)
構成1乃至12のいずれか1項に記載の3次元計測装置と、
3次元計測装置により算出された対象物の距離値に基づき対象物を把持して移動させるロボットと、を有する、
ことを特徴とするシステム。
(Configuration 15)
A three-dimensional measurement apparatus according to any one of configurations 1 to 12,
and a robot that grasps and moves an object based on a distance value of the object calculated by the three-dimensional measuring device.
A system characterized by:

(構成16)
構成1乃至12のいずれか1項に記載の3次元計測装置により算出された対象物の距離値に基づき、対象物を把持して移動させる移動工程と、
対象物の処理を行うことで、所定の物品を製造する工程と、を有することを特徴とする物品の製造方法。
(Configuration 16)
a moving step of gripping and moving the object based on the distance value of the object calculated by the three-dimensional measuring device according to any one of configurations 1 to 12;
A method for manufacturing an article, comprising the steps of: manufacturing a specified article by processing an object.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 The above describes preferred embodiments of the present invention, but the present invention is not limited to these embodiments, and various modifications and variations are possible within the scope of the gist of the invention.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。装置は、例えば、3次元計測装置100である。その場合、そのプログラム、該プログラムを記憶した記憶媒体は本発明を構成することとなる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention can also be realized by supplying a program that realizes one or more of the functions of the above-mentioned embodiments to a system or device via a network or storage medium, and having one or more processors in the computer of the system or device read and execute the program. The device is, for example, a three-dimensional measurement device 100. In this case, the program and the storage medium on which the program is stored constitute the present invention. It can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.

100 3次元計測装置
101 制御部
102 投影部
103 第1の撮像部
104 第2の撮像部
105 処理部
106 計測対象物

REFERENCE SIGNS LIST 100 Three-dimensional measuring device 101 Control unit 102 Projection unit 103 First imaging unit 104 Second imaging unit 105 Processing unit 106 Measurement object

Claims (16)

対象物を互いに異なる視点から撮像する複数の撮像部と、
前記複数の撮像部により前記対象物を第1の条件で取得した第1の画像群と前記対象物を前記第1の条件とは異なる第2の条件で取得した第2の画像群と、を用いて対応付けを行うことにより、前記対象物までの距離値を算出する処理部と、を有し、
前記処理部は、
前記第1と第2の画像群それぞれの画像における照明光の波長に基づく画像特性、照明光の光源に起因する画像特性、照明光のパターンに起因する特徴の大きさの少なくとも1つの情報に基づいて前記第1と第2の画像群に対する前記対応付けを行うか、又は、前記情報に基づいて前記第1と第2の画像群に対して前記対応付けの前に行う処理を行った後に前記対応付けを行い、
前記対応付けによって得られた視差値を用いて前記距離値を算出することを特徴とする3次元計測装置。
A plurality of imaging units that capture images of an object from different viewpoints;
a processing unit that calculates a distance value to the object by associating a first image group obtained by capturing the object under a first condition with a second image group obtained by capturing the object under a second condition different from the first condition,
The processing unit includes:
performing the association between the first and second image groups based on at least one piece of information regarding image characteristics based on the wavelength of illumination light in each of the first and second image groups, image characteristics due to a light source of the illumination light, and a size of a feature due to a pattern of the illumination light, or performing the association after performing a process prior to the association on the first and second image groups based on the information;
a three-dimensional measuring device that calculates the distance value using the parallax value obtained by the correspondence.
前記処理部は、前記情報に基づいて、前記第1と第2の画像群の画像から前記対応付けに用いる評価値をそれぞれ算出し、算出したそれぞれの評価値を統合し、前記統合した評価値を用いて前記距離値を算出することを特徴とする請求項1に記載の3次元計測装置。 The three-dimensional measuring device according to claim 1, characterized in that the processing unit calculates evaluation values to be used in the matching from the images of the first and second image groups based on the information, integrates the calculated evaluation values, and calculates the distance value using the integrated evaluation value. 前記処理部は、前記第1と第2の画像群それぞれの画像における輝度値に基づき前記評価値を算出することを特徴とする請求項2に記載の3次元計測装置。 The three-dimensional measuring device according to claim 2, characterized in that the processing unit calculates the evaluation value based on the brightness values in each of the first and second image groups. 前記処理部は、前記第1と第2の画像群それぞれの画像に所定の変換処理を行い得られたビット列のハミング距離を用いて前記評価値を算出することを特徴とする請求項2に記載の3次元計測装置。 The three-dimensional measuring device according to claim 2, characterized in that the processing unit calculates the evaluation value using the Hamming distance of the bit string obtained by performing a predetermined conversion process on each of the images of the first and second image groups. 前記処理部は、前記照明光の波長に基づき、前記第1と第2の画像群の少なくとも一方に対して画像の歪み補正を行うことを特徴とする請求項1に記載の3次元計測装置。 The three-dimensional measuring device according to claim 1, characterized in that the processing unit performs image distortion correction for at least one of the first and second image groups based on the wavelength of the illumination light. 前記処理部は、前記第1と第2の画像群の画像の少なくとも一方に対して、所定のノイズ除去処理を行うことを特徴とする請求項1に記載の3次元計測装置。 The three-dimensional measuring device according to claim 1, characterized in that the processing unit performs a predetermined noise removal process on at least one of the images in the first and second image groups. 前記処理部は、前記照明光のパターンに起因する特徴の大きさに基づき、前記第1と第2の画像群の画像に対して前記対応付けに用いる領域を設定し、前記対応付けに用いる評価値を算出することを特徴とする請求項2に記載の3次元計測装置。 The three-dimensional measuring device according to claim 2, characterized in that the processing unit sets areas to be used for the matching in the images of the first and second image groups based on the size of features caused by the illumination light pattern, and calculates an evaluation value to be used for the matching. 前記処理部は、前記第1の画像群に含まれる第1の画像と前記第2の画像群に含まれる第2の画像に基づき、統合した画像として第3の画像を生成することを特徴とする請求項1に記載の3次元計測装置。 The three-dimensional measuring device according to claim 1, characterized in that the processing unit generates a third image as an integrated image based on a first image included in the first image group and a second image included in the second image group. 前記処理部は、前記第3の画像を用いて前記距離値を算出することを特徴とする請求項8に記載の3次元計測装置。 The three-dimensional measuring device according to claim 8, characterized in that the processing unit calculates the distance value using the third image. 前記対象物に前記照明光のパターンを投影する投影部を有し、
前記複数の撮像部は、前記投影部により前記対象物に前記照明光のパターンを投影した画像が含まれる第1の画像群と、前記対象物に前記照明光のパターンを投影しない画像が含まれる第2の画像群とを取得することを特徴とする請求項1に記載の3次元計測装置。
a projection unit that projects the pattern of the illumination light onto the object;
2. The three-dimensional measuring device according to claim 1, wherein the plurality of imaging units acquire a first group of images including images in which the illumination light pattern is projected onto the object by the projection unit, and a second group of images including images in which the illumination light pattern is not projected onto the object.
前記対象物に少なくとも第1の照明光のパターンと、前記第1の照明光のパターンとは光源、波長、照明光のパターンの少なくとも1つが異なる第2の照明光のパターンを投影可能な投影部を有し、
前記複数の撮像部は、前記対象物に前記第1の照明光のパターンを投影した画像が含まれる第1の画像群と、前記対象物に前記第2の照明光のパターンを投影した画像が含まれる第2の画像群とを取得することを特徴とする請求項1に記載の3次元計測装置。
a projection unit capable of projecting at least a first illumination light pattern and a second illumination light pattern, the second illumination light pattern being different from the first illumination light pattern in at least one of a light source, a wavelength, and an illumination light pattern, onto the target;
2. The three-dimensional measuring device according to claim 1, wherein the plurality of imaging units acquire a first group of images including images obtained by projecting the first illumination light pattern onto the object, and a second group of images including images obtained by projecting the second illumination light pattern onto the object.
前記撮像部は、特定の波長の照明光を照射して1回の撮像で取得した画像から前記第1の画像群に含まれる第1の画像と前記第2の画像群に含まれる第2の画像とを取得することを特徴とする請求項1に記載の3次元計測装置。 The three-dimensional measuring device according to claim 1, characterized in that the imaging unit acquires a first image included in the first image group and a second image included in the second image group from images acquired in one imaging operation by irradiating illumination light of a specific wavelength. 対象物を互いに異なる視点から撮像する撮像工程と、
前記撮像工程により前記対象物を第1の条件で取得した第1の画像群と前記対象物を前記第1の条件とは異なる第2の条件で取得した第2の画像群と、を用いて対応付けを行うことにより、前記対象物までの距離値を算出する処理工程と、を有し、
前記処理工程では、
前記第1と第2の画像群それぞれの画像における照明光の波長に基づく画像特性、照明光の光源に起因する画像特性、照明光のパターンに起因する特徴の大きさの少なくとも1つの情報に基づいて前記第1と第2の画像群に対する前記対応付けを行うか、又は、前記情報に基づいて前記第1と第2の画像群に対して前記対応付けの前に行う処理を行った後に前記対応付けを行い、
前記対応付けによって得られた視差値を用いて前記距離値を算出することを特徴とする3次元計測方法。
An imaging step of imaging an object from different viewpoints;
a processing step of calculating a distance value to the object by performing correspondence between a first image group obtained by the imaging step under a first condition and a second image group obtained by the imaging step under a second condition different from the first condition,
In the processing step,
performing the association between the first and second image groups based on at least one of information regarding image characteristics based on the wavelength of illumination light in each of the first and second image groups, image characteristics due to a light source of the illumination light, and a size of a feature due to a pattern of the illumination light, or performing the association after performing a process prior to the association on the first and second image groups based on the information;
a three-dimensional measuring method, comprising: calculating the distance value using the parallax value obtained by the correspondence;
対象物までの距離値を算出する処理方法をコンピュータに実行させるプログラムであって、前記処理方法は、
前記対象物を互いに異なる視点から第1の条件で取得した第1の画像群と前記対象物を互いに異なる視点から前記第1の条件とは異なる第2の条件で取得した第2の画像群と、を用いて対応付けを行うことにより、前記対象物までの距離値を算出する処理工程を有し、
前記処理工程では、
前記第1と第2の画像群それぞれの画像における照明光の波長に基づく画像特性、照明光の光源に起因する画像特性、照明光のパターンに起因する特徴の大きさの少なくとも1つの情報に基づいて前記第1と第2の画像群に対する前記対応付けを行うか、又は、前記情報に基づいて前記第1と第2の画像群に対して前記対応付けの前に行う処理を行った後に前記対応付けを行い、
前記対応付けによって得られた視差値を用いて前記距離値を算出することを特徴とするプログラム。
A program for causing a computer to execute a processing method for calculating a distance value to an object, the processing method comprising:
a processing step of calculating a distance value to the object by matching a first image group, which is obtained by capturing the object from different viewpoints under a first condition, with a second image group, which is obtained by capturing the object from different viewpoints under a second condition different from the first condition;
In the processing step,
performing the association between the first and second image groups based on at least one piece of information regarding image characteristics based on the wavelength of illumination light in each of the first and second image groups, image characteristics due to a light source of the illumination light, and a size of a feature due to a pattern of the illumination light, or performing the association after performing a process prior to the association on the first and second image groups based on the information;
A program for calculating the distance value using the disparity value obtained by the association.
請求項1に記載の3次元計測装置と、
前記3次元計測装置により算出された前記対象物の前記距離値に基づき前記対象物を把持して移動させるロボットと、を有する、
ことを特徴とするシステム。
The three-dimensional measuring device according to claim 1 ;
a robot that grasps and moves the object based on the distance value of the object calculated by the three-dimensional measuring device.
A system characterized by:
請求項1に記載の3次元計測装置により算出された前記対象物の前記距離値に基づき、前記対象物を把持して移動させる移動工程と、
前記対象物の処理を行うことで、所定の物品を製造する工程と、を有することを特徴とする物品の製造方法。

a moving step of gripping and moving the object based on the distance value of the object calculated by the three-dimensional measuring device according to claim 1;
and manufacturing a predetermined article by processing the object.

JP2022162607A 2022-08-30 2022-10-07 Three-dimensional measurement device, three-dimensional measurement method, program, system, and article manufacturing method Pending JP2024055569A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022162607A JP2024055569A (en) 2022-10-07 2022-10-07 Three-dimensional measurement device, three-dimensional measurement method, program, system, and article manufacturing method
EP23193102.3A EP4332499A1 (en) 2022-08-30 2023-08-24 Three-dimensional measuring apparatus, three-dimensional measuring method, storage medium, system, and method for manufacturing an article
US18/455,934 US20240075627A1 (en) 2022-08-30 2023-08-25 Three-dimensional measuring apparatus, three-dimensional measuring method, storage medium, system, and method for manufacturing an article
CN202311082513.7A CN117629109A (en) 2022-08-30 2023-08-25 Three-dimensional measuring device, three-dimensional measuring method, storage medium, three-dimensional measuring system, and method for manufacturing article

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022162607A JP2024055569A (en) 2022-10-07 2022-10-07 Three-dimensional measurement device, three-dimensional measurement method, program, system, and article manufacturing method

Publications (1)

Publication Number Publication Date
JP2024055569A true JP2024055569A (en) 2024-04-18

Family

ID=90032767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022162607A Pending JP2024055569A (en) 2022-08-30 2022-10-07 Three-dimensional measurement device, three-dimensional measurement method, program, system, and article manufacturing method

Country Status (2)

Country Link
JP (1) JP2024055569A (en)
CN (1) CN117629109A (en)

Also Published As

Publication number Publication date
CN117629109A (en) 2024-03-01

Similar Documents

Publication Publication Date Title
EP3531066B1 (en) Three-dimensional scanning method including a plurality of lasers with different wavelengths, and scanner
US9392262B2 (en) System and method for 3D reconstruction using multiple multi-channel cameras
CN104335005B (en) 3D is scanned and alignment system
WO2019007180A1 (en) Handheld large-scale three-dimensional measurement scanner system simultaneously having photography measurement and three-dimensional scanning functions
US9074879B2 (en) Information processing apparatus and information processing method
JP2002213931A (en) Instrument and method for measuring three-dimensional shape
EP3382645B1 (en) Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
US10713810B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
CN111028295A (en) 3D imaging method based on coded structured light and dual purposes
JP2012215394A (en) Three-dimensional measuring apparatus and three-dimensional measuring method
JP7093915B2 (en) Surface shape measurement method
WO2020183711A1 (en) Image processing device and three-dimensional measuring system
JP5799473B2 (en) Image capturing apparatus and image capturing method
JP6285686B2 (en) Parallax image generation device
JP5336325B2 (en) Image processing method
JP2012237613A (en) Shape measuring device and shape measuring method
JP2024055569A (en) Three-dimensional measurement device, three-dimensional measurement method, program, system, and article manufacturing method
EP3062516B1 (en) Parallax image generation system, picking system, parallax image generation method, and computer-readable recording medium
US11195290B2 (en) Apparatus and method for encoding in structured depth camera system
JP2020008434A (en) Three-dimensional measuring device and method
JP2022031956A (en) Method for determining scan range
CN212843399U (en) Portable three-dimensional measuring equipment
EP4332499A1 (en) Three-dimensional measuring apparatus, three-dimensional measuring method, storage medium, system, and method for manufacturing an article
JP2002013921A (en) Three-dimensional imaging device and three-dimensional imaging method
JP2006058092A (en) Three-dimensional shape measuring device and method