JP2022135340A - Three-dimensional measuring device, computer program, manufacturing system, and method for manufacturing article - Google Patents
Three-dimensional measuring device, computer program, manufacturing system, and method for manufacturing article Download PDFInfo
- Publication number
- JP2022135340A JP2022135340A JP2021035082A JP2021035082A JP2022135340A JP 2022135340 A JP2022135340 A JP 2022135340A JP 2021035082 A JP2021035082 A JP 2021035082A JP 2021035082 A JP2021035082 A JP 2021035082A JP 2022135340 A JP2022135340 A JP 2022135340A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- imaging
- infrared light
- illumination unit
- infrared
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000004590 computer program Methods 0.000 title claims description 14
- 238000004519 manufacturing process Methods 0.000 title claims description 9
- 238000005286 illumination Methods 0.000 claims abstract description 145
- 238000003384 imaging method Methods 0.000 claims abstract description 124
- 238000005259 measurement Methods 0.000 claims abstract description 104
- 238000004364 calculation method Methods 0.000 claims abstract description 33
- 230000008569 process Effects 0.000 claims abstract description 17
- 230000035945 sensitivity Effects 0.000 claims abstract description 15
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 claims abstract description 5
- 238000012545 processing Methods 0.000 claims description 41
- 238000010586 diagram Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 7
- 150000001875 compounds Chemical class 0.000 description 6
- 238000013500 data storage Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000003595 spectral effect Effects 0.000 description 6
- 238000003860 storage Methods 0.000 description 4
- 238000002834 transmittance Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 229920006395 saturated elastomer Polymers 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
Abstract
Description
本発明は、近赤外光等を用いた3次元計測装置等に関する。 The present invention relates to a three-dimensional measuring device using near-infrared light and the like.
生産ラインでの部品の自動ピッキングや検査、AGV(無人搬送車)をはじめとした様々な分野でマシンビジョンが利用されている。その主な利用目的は物体認識や検査用画像処理であり、そのためには計測対象物のカラー画像と3次元データが必要となる。 Machine vision is used in various fields, including automatic picking and inspection of parts on production lines, and AGVs (automated guided vehicles). It is mainly used for object recognition and image processing for inspection, and for that purpose a color image and three-dimensional data of the object to be measured are required.
従来のカラー画像と3次元データを取得できる3次元計測システムとして、特許文献1がある。特許文献1においては、特別な撮像素子を用いてステレオマッチングを実施してカラー画像と3次元データを取得する。ここで特別な撮像措置とは、RGB受光素子が繰り返し配置されている行と、可視光全域に反応する受光素子が繰り返し配置されている行とを列方向に交互に配置した撮像素子である。このような撮像素子を用いることによって、モノクロカメラの撮像装置を用いた場合と同等程度以上の距離測定精度を担保するカラー情報を取得可能な撮像装置を提供可能となっている。
Japanese Patent Application Laid-Open No. 2002-200002 discloses a three-dimensional measurement system capable of acquiring conventional color images and three-dimensional data. In
又、3次元計測システムにおいて、左右2台の赤外線カメラ、赤外パターン照明、RGBセンサの4つを配置し、左右の赤外線カメラと赤外パターン照明で3次元データを取得し、RGBセンサでカラー画像を取得しているものがある。 In addition, in the 3D measurement system, four infrared cameras (left and right), infrared pattern lighting, and an RGB sensor are arranged. Some are acquiring images.
しかし、特許文献1に記載の3次元計測システムにおいては、特別な撮像素子を用いるため装置が高価になるという問題がある。又、RGB受光素子が繰り返し配置されている行と、可視光全域に反応する受光素子が繰り返し配置されている行が列方向に交互に配置されているため、列方向の分解能が劣化するという問題がある。
However, in the three-dimensional measurement system described in
又、前述のような、左右2台の赤外線カメラ、赤外パターン照明、RGBセンサの4つが配置されている3次元計測システムにおいては、2台の赤外線カメラとRGBセンサが別々のセンサである。従って、デプスマップとしての3次元データとカラー画像の光軸が異なるという問題があり、その後の画像処理が複雑化するという問題がある。
本発明は、上記のような問題を解決し、簡単な構成で精度の高い3次元計測が可能な3次元計測装置等を提供することを目的とする。
Further, in the three-dimensional measurement system in which the two infrared cameras on the left and right, the infrared pattern illumination, and the RGB sensor are arranged as described above, the two infrared cameras and the RGB sensor are separate sensors. Therefore, there is a problem that the three-dimensional data as the depth map and the optical axis of the color image are different, which complicates the subsequent image processing.
SUMMARY OF THE INVENTION It is an object of the present invention to provide a three-dimensional measuring apparatus or the like capable of solving the above-described problems and performing highly accurate three-dimensional measurement with a simple configuration.
その目的を達成するために、本発明の3次元計測システムは、
近赤外光で計測対象物を照明するための近赤外光照明部と、
隣接する画素が可視光に対して互いに異なる波長感度を持つと共に、各画素が前記近赤外光に対して感度特性を有する撮像素子と、
前記近赤外光照明部で前記計測対象物を照明しない状態で前記撮像素子から得られた第1の撮像信号を処理してカラー画像信号を生成するカラー画像信号生成部と、
前記近赤外光照明部を用いて前記計測対象物を照明した状態で前記撮像素子から得られた第2の撮像信号から3次元データを算出する3次元データ計算部と、
を有することを特徴とする。
In order to achieve the object, the three-dimensional measurement system of the present invention
a near-infrared light illumination unit for illuminating the measurement object with near-infrared light;
an imaging device in which adjacent pixels have different wavelength sensitivities to visible light and each pixel has a sensitivity characteristic to the near-infrared light;
a color image signal generation unit that processes a first imaging signal obtained from the imaging device in a state where the measurement object is not illuminated by the near-infrared light illumination unit to generate a color image signal;
a three-dimensional data calculation unit that calculates three-dimensional data from a second imaging signal obtained from the imaging element while the measurement object is illuminated using the near-infrared light illumination unit;
characterized by having
本発明によれば、簡単な構成で精度の高い3次元計測が可能な3次元計測装置等を実現することができる。 According to the present invention, it is possible to realize a three-dimensional measurement apparatus or the like capable of performing three-dimensional measurement with high accuracy with a simple configuration.
以下に、本発明の好ましい実施形態を添付の図面に基づいて詳細に説明する。下記に示す実施形態は4つあり、第1実施形態では複眼カメラと近赤外パターン照明の2要素、第2実施形態では単眼カメラと近赤外パターン照明の2要素が主要な構成要素となる。第3実施形態では複眼カメラと近赤外均一照明の2要素、第4実施形態では複眼カメラと近赤外パターン照明と近赤外均一照明の3要素、が主要な構成要素となる。夫々の実施形態を以下で詳細に説明する。
<第1実施形態>
Preferred embodiments of the present invention are described in detail below with reference to the accompanying drawings. There are four embodiments shown below. In the first embodiment, two elements, a compound eye camera and near-infrared pattern illumination, are the main components, and in the second embodiment, two elements, a monocular camera and near-infrared pattern illumination, are the main components. . In the third embodiment, two elements, a compound-eye camera and near-infrared uniform illumination, are main components, and in the fourth embodiment, three elements, a compound-eye camera, near-infrared pattern illumination, and near-infrared uniform illumination, are main components. Each embodiment is described in detail below.
<First Embodiment>
図1は、第1実施形態の3次元計測システムの構成を示すブロック図である。
第1実施形態では、複眼カメラと近赤外パターン照明の2要素が主要な構成要素となる。主に撮像条件が異なる実施例を5つ、図1を用いて詳細に説明する。
FIG. 1 is a block diagram showing the configuration of the three-dimensional measurement system of the first embodiment.
In the first embodiment, two elements, the compound eye camera and the near-infrared pattern illumination, are the main components. Five examples mainly having different imaging conditions will be described in detail with reference to FIG.
図1に示す実施例1の3次元計測システム100は、計測対象物101のカラー画像と3次元データを取得するための装置であり、投影部110、2つの撮像部120、計算出力部130を有する。投影部110と撮像部120は計測対象物101を向いて配置されている。投影部110は、白色均一照明部111と近赤外パターン照明部112を有する。ここで前記白色均一照明部111は、計測対象物を可視光で照明するための可視光照明部として機能しており、前記近赤外パターン照明部112は、近赤外光で測定対象を照明するための近赤外光照明部として機能している。
A three-
2つの撮像部120は、夫々結像レンズ121とRGBセンサ122を有し、投影部110を挟んで対称な位置に夫々配置されている。そして、2つの撮像部120の一方を右目カメラ、他方を左目カメラとした場合、右目カメラと左目カメラの視差を用いたステレオマッチング手法で3次元データとなるデプスマップを計算している。更に計算出力部130は、コンピュータとしてのCPUやコンピュータプログラムを記憶したメモリ等からなり、画像生成部131、データ保存部132、カラー画像出力部133、3次元データ計算部134、3次元データ出力部135を有する。又、本実施形態では、蛍光灯やLEDなどによる環境光102がある状況を想定している。
The two
次に、近赤外パターン照明部112について説明する。図2は、近赤外パターン照明部112の照明パターンの例を示した図である。本実施例においては、近赤外パターン照明部112は、計測対象物を所定のパターンの近赤外光で照明すると共に、照明パターンはランダム照明とする。ここでは、パターンの照明分布を把握しておく必要はない。又、照明の作成方法として、プロジェクターを用いても良いし、複数の光源をアレイ状に配置したものを用いても良いし、レーザー光源にCGH(計算機生成ホログラム)やDOE(回折光学素子)を配置したものを用いても良い。又、これらの照明を組み合わせて用いても良い。波長としては780nm~1000nmの分光特性の照明パターンが照射される。
Next, the near-infrared
次に、撮像素子としてのRGBセンサについて説明する。図3は、RGBセンサ122のカラーフィルタパターンの例を示した図である。図3に示すカラーフィルタパターンは、一般的にベイヤー配列と呼ばれるものである。RGBセンサ122を構成する2次元配置された複数の画素の、各画素の上には、夫々可視光領域を透過するR、G、Bのカラーフィルタの内の1つが配置されている。即ち、図3に示すように、任意の2×2の4画素に着目すると、赤(R)が1画素、緑(G)が2画素、青(B)が1画素の比で配置されている。
Next, an RGB sensor as an imaging device will be described. FIG. 3 is a diagram showing an example of the color filter pattern of the
次に、RGBセンサ122の分光特性について説明する。図4は、一般的なベイヤー配列を有するRGBセンサの分光感度特性を示す図であり、横軸は波長(単位:nm)、縦軸は透過率を表している。又、実線が赤の画素の、破線が緑の画素の、一点鎖線が青の画素の、分光感度特性である。波長400nmから780nmの領域においては、夫々の色に対応した透過率となっているが、780nm~1000nmの波長においてはRGBの透過率が略同じとなることが知られている。即ち、RGBセンサ122は、隣接する各画素が異なる可視光の波長感度を持つと共に、各画素が近赤外光に対して夫々感度特性を有する撮像素子である。尚、近赤外光に対する感度特性は略同じであった方が望ましいが、異なっていても良い。夫々の感度の違いを係数で補正して合わせることもできからである。
本実施形態においては、撮像素子のこのような近赤外光に対する感度特性を利用する。
Next, spectral characteristics of the
In the present embodiment, such sensitivity characteristics of the image sensor to near-infrared light are utilized.
次に、撮像動作と、各撮像で取得されたデータからカラー画像と3次元データを出力する過程について図5を用いて詳細に説明する。
図5は実施例の動作を説明するためのフローチャートであり、計算処理部内のCPUがメモリに記憶されたコンピュータプログラムを実行することによって図5の各ステップの処理が行われる。
Next, the imaging operation and the process of outputting a color image and three-dimensional data from the data obtained by each imaging will be described in detail with reference to FIG.
FIG. 5 is a flow chart for explaining the operation of the embodiment, and the processing of each step in FIG. 5 is performed by executing the computer program stored in the memory by the CPU in the calculation processing unit.
実施例1においては、撮像は2回実施する。1回目の撮像(第1の撮像)は、主にカラー画像を取得するためのものであり、図5のステップS1で、白色均一照明部111により計測対象物101を白色光で照明しながら第1の撮像を行う。この時、白色均一照明部111からの白色均一照明光と環境光102で計測対象物101が照明され、反射光が、2つの撮像部内の結像レンズ121を介して夫々のRGBセンサ122に結像する。
In Example 1, imaging is performed twice. The first imaging (first imaging) is mainly for obtaining a color image. In step S1 in FIG. 1 is imaged. At this time, the
図5のステップS1における第1の撮像によって、RGBセンサ122で取得されたデータ(第1の撮像信号)は、ステップS2で画像生成部131に転送される。
ステップS2においては、2つある撮像部120のどちらか一方の撮像部120の画像データが画像生成部131に供給される。ここで、右目カメラもしくは左目カメラのうち、予め選択された一方の撮像部120は基準カメラとよばれ、ステップS2において画像生成部131に供給される画像データは、前記基準カメラのRGBの各画素からの点順次の画像データである。即ち、画像生成部131には、モザイク状に配置されたRGBフィルタにより、R、G、B信号が夫々点順次に離散的に入力される。
The data (first imaging signal) acquired by the
In step S<b>2 , the image data of one of the two
画像生成部131においては、ステップS3で一般的なデモザイキング処理が施される。即ち、点順次の各色信号を色ごとに一度分離し、夫々データがない画素領域を周辺の画素情報から内挿補間やサンプルホールド等することによって離散的なRGB信号を夫々連続的な同時化されたR信号、G信号、B信号にする。このような同時化処理をデモザイキング処理と呼ぶ。デモザイキング処理が施され同時化されたR信号、G信号、B信号はステップS4でカラー画像出力部133に送られる。
In the
そして、ステップS5でカラー画像として処理され、視認用の表示画像又は記録画像として出力される。このように、ステップS1~S5は、近赤外光照明部で計測対象物を照明しない状態で、前記計測対象物を可視光及び環境光の少なくとも一方で照明した状態で、撮像素子から得られた第1の撮像信号を処理してカラー画像信号を生成する。又、ステップS1~S5は、カラー画像信号生成部として機能している。 Then, in step S5, it is processed as a color image and output as a display image for visual recognition or a recorded image. In this way, in steps S1 to S5, the measurement object is not illuminated by the near-infrared light illumination unit, and the measurement object is illuminated by at least one of visible light and ambient light. The first imaging signal is processed to generate a color image signal. Further, steps S1 to S5 function as a color image signal generator.
一方、ステップS2で、夫々画像生成部131に供給された左目カメラからのRGBの点順次の画像データと、右目カメラからのRGBの点順次の画像データは、ステップS6で両方の画像データをデータ保存部132に夫々保存する。
これは、実施例1では、ステレオマッチングをするため両カメラの減算用データが必須であり、右目と左目で見え方が異なるために、減算用のデータそれぞれ異なるためである。
On the other hand, the RGB dot-sequential image data from the left-eye camera and the RGB dot-sequential image data from the right-eye camera supplied to the
This is because, in the first embodiment, the subtraction data of both cameras are essential for stereo matching, and the subtraction data are different because the right eye and the left eye see differently.
次にステップS7において、2回目の撮像(第2の撮像)を行うことによって第2の撮像信号を取得する。第2の撮像は、3次元データを取得するためのものであり、白色均一照明部111と近赤外パターン照明部112により計測対象物101を同時に照明しながら撮像する。このとき、白色均一照明部111からの白色均一照明光と、近赤外パターン照明部112からの近赤外パターンと、環境光102が計測対象物101で反射し、反射光は、2つの撮像部内の結像レンズ121を介して夫々のRGBセンサ122に結像する。
Next, in step S7, a second imaging signal is acquired by performing a second imaging (second imaging). The second imaging is for obtaining three-dimensional data, and images are captured while simultaneously illuminating the
第2の撮像において2つのRGBセンサ122で夫々撮像された画像データ(第2の撮像信号)は、ステップS8において、右目カメラからの画像データ、左目カメラからの画像データとして共に画像生成部131に送られる。
ステップS9において、画像生成部131は、第2の撮像で取得された右目カメラと右目カメラからの画像データから、データ保存部132に保存した、デモザイキングされる前のRGBの画像データを夫々減算する。ここで、ステップS9は第2の撮像信号と、第1の撮像信号とを演算する演算部として機能している。
The image data (second imaging signals) respectively captured by the two
In step S9, the
即ち、第2の撮像で取得された点順次の画像データ(白色均一照明+近赤外パターン照明+環境光下での画像データ)から、第1の撮像条件で取得された点順次の画像データ(白色均一照明+環境光下での画像データ)を減算する。 That is, point-sequential image data acquired under the first imaging condition from point-sequential image data acquired in the second imaging (image data under uniform white illumination + near-infrared pattern illumination + ambient light). Subtract (white uniform illumination + image data under ambient light).
このような減算の結果、近赤外パターン照明部112による近赤外光パターンのみで照射した場合と同等なデータを取得することができる。ここで、図4に示すようなRGBセンサの分光感度特性に対して、近赤外光を780nm~1000nmの範囲内に設定すれば、R,G,Bの各画素からの出力は略同じとなる。即ち、RGBセンサ122から、カラーフィルタがないモノクロセンサからの出力と同等な解像度をもつ画像データが得られる。
As a result of such subtraction, it is possible to obtain data equivalent to that obtained when only the near-infrared light pattern is irradiated by the near-infrared
従って、後述する3次元データの計算により、モノクロセンサで取得したデータと同等の高分解能をもつデプスマップ、すなわち3次元データを得ることができる。
上述の減算結果としてのデータは、ステップS10で3次元データ計算部134に転送される。
Therefore, by calculating the three-dimensional data, which will be described later, it is possible to obtain a depth map, that is, three-dimensional data, which has a high resolution equivalent to that obtained by a monochrome sensor.
The data as the subtraction result described above is transferred to the three-dimensional
3次元データ計算部134においては、ステップS11でステレオマッチング計算が実施され、右目カメラと左目カメラの視差量をカメラからの距離に変換して計算する。具体的には、図2に示したようなランダムパターンにおいて、適当なサイズのサブウィンドウを規定し、右目カメラと左目カメラでパターンが一致するサブウィンドウを、パターンマッチングを用いて抽出する。
In the three-dimensional
パターンが一致したサブウィンドウ同士の位置の差が視差となり、視差が大きければ手前、小さければ奥に位置することとなり、結果として基準カメラのデプスマップとしての3次元データを取得できる。本計算手法は、3次元データ計算手法として公知であるため、詳細な説明は省略する。 The difference between the positions of the sub-windows with matching patterns is the parallax. If the parallax is large, it is located in front, and if the parallax is small, it is located in the back. As a result, three-dimensional data can be acquired as a depth map of the reference camera. Since this calculation method is known as a three-dimensional data calculation method, detailed description thereof will be omitted.
ここで、サブウィンドウのウィンドウサイズが大きければ、処理速度に時間がかかるがパターンにノイズが加わったとしてもパターンマッチングの精度が上がるため、データの飛びなどが抑えられる。一方、ウィンドウサイズが小さければ、処理速度は高速化されるがノイズに弱くなるためデータの飛びなどが発生する。ウィンドウサイズ分の分解能を犠牲とするため、ローパスフィルタを通した3次元データとなる。 Here, if the window size of the sub-window is large, the processing speed takes a long time, but even if noise is added to the pattern, the accuracy of pattern matching increases, so data jumps can be suppressed. On the other hand, if the window size is small, the processing speed is increased, but the processing becomes vulnerable to noise, resulting in data jumps and the like. Since the resolution for the window size is sacrificed, the three-dimensional data is passed through a low-pass filter.
取得された3次元データはステップS12で3次元データ出力部135に転送され、ステップS13で3次元データとして外部のPC等に対して出力される。このように、ステップS7~S13は、近赤外光照明部を用いて前記計測対象物を照明した状態で前記撮像素子から得られた第2の撮像信号から3次元データを算出する3次元データ計算部として機能している。
尚、カラー画像出力部133を介して得られるカラー画像と、3次元データ出力部135を介して得られる3次元データは、使用される状況に合わせて、不図示のディスプレイに表示したり、不図示の外部PC等において物体認識処理等に利用する。
The acquired three-dimensional data is transferred to the three-dimensional
The color image obtained through the color
このように、本実施例においては、近赤外パターン光を用いて取得された3次元データは、カラー画像用のRGBセンサで取得されたものであるから、3次元データとカラー画像とは光軸が一致している。もし通常のカラー画像と近赤外パターン光を用いて取得された3次元データ用の画像が夫々異なるセンサで取得された場合には、後処理によって位置姿勢変換などをしなければならず、データの取り扱いが非常に複雑化する。特に、デプスマップではデータ欠損領域が発生することが、3次元計測を実施するうえで避けられないのが一般的であるが、その場合にカラー画像と3次元計測用の画像が同じ光軸で取得されるとデータの取り扱いが簡易になる。 As described above, in this embodiment, the three-dimensional data obtained using the near-infrared pattern light is obtained by the RGB sensor for color images. Axes are aligned. If an ordinary color image and an image for three-dimensional data obtained using near-infrared pattern light are obtained by different sensors, then post-processing such as position and orientation conversion must be performed, and the data handling becomes very complicated. In particular, it is generally unavoidable for 3D measurement that data missing areas occur in the depth map. Once acquired, handling of the data is simplified.
尚、カラー画像用のセンサと3次元計測用のセンサが異なる場合であってもセンサ同士を近づけることによって影響を少なくすることも可能ではある。しかし、例えば工業用途の3次元計測においては高精度が必須であるため、各センサのレンズを大きくしなければならず、センサ同士を離間配置しなければならない。その点、本実施形態によれば、上記のような問題を根本的に解決することができる。加えて一般的かつ大量生産されているRGBセンサを用いることができるため安価な構成で装置を構成することができる。 Even if the color image sensor and the three-dimensional measurement sensor are different, the influence can be reduced by bringing the sensors close to each other. However, for example, in three-dimensional measurement for industrial use, high accuracy is essential, so the lens of each sensor must be enlarged and the sensors must be spaced apart. In that respect, according to this embodiment, the above problems can be fundamentally solved. In addition, since a general and mass-produced RGB sensor can be used, the device can be constructed at a low cost.
実施例2は、実施例1の変形例で、近赤外パターン照明部112の撮像条件が1つではなくて時間的に変化する複数の撮像条件を用いる点に特徴がある。
図6は、実施例2における、時間的に変化する近赤外光パターンの例を示した図である。本実施例においては、4種類の所定のパターンの近赤外光を順次投影しながら、4回の撮像(第2の撮像~第5の撮像)を行う。尚、近赤外パターンは4種類に限定されず、撮像回数も4回に限定されない。尚、撮像条件数が多ければ多いほど、3次元データの分解能が向上するが、撮像を含めた処理時間が長くかかる。
The second embodiment is a modification of the first embodiment, and is characterized in that the near-infrared
FIG. 6 is a diagram showing an example of a near-infrared light pattern that changes with time in Example 2. FIG. In this embodiment, while sequentially projecting four types of predetermined patterns of near-infrared light, imaging is performed four times (second imaging to fifth imaging). The number of near-infrared patterns is not limited to four, and the number of times of imaging is not limited to four. As the number of imaging conditions increases, the resolution of three-dimensional data improves, but the processing time including imaging increases.
実施例2では、カラー画像を取得するための第1の撮像も含めると、合計の撮像回数は5回となる。第1の撮像条件は、白色均一照明部111を計測対象物101に対して照明しながら撮像する。これは実施例1と同等である。第2~第5の撮像条件は、白色均一照明部111と近赤外パターン照明部112を照明しながら撮像する。ここで、第2~第5の撮像において、白色均一照明部111の強度は同じとし、近赤外パターン照明部112により、図6の時刻t0、t1、t2、t3で示される4種類のパターンを順次切り替える。
In Example 2, the total number of times of imaging is five, including the first imaging for obtaining a color image. Under the first imaging condition, imaging is performed while illuminating the
以下、各撮像条件のデータを用いた各種計算のフローについて図7を用いて説明する。
図7は実施例2の動作を説明するためのフローチャートであり、計算処理部内のCPUがメモリに記憶されたコンピュータプログラムを実行することによって図7の各ステップの処理が行われる。尚、図7において、図5と同じ名前のステップは図5と同じ処理なので説明を省略又は簡略化する。
A flow of various calculations using data of each imaging condition will be described below with reference to FIG.
FIG. 7 is a flow chart for explaining the operation of the second embodiment, and the processing of each step in FIG. 7 is performed by executing the computer program stored in the memory by the CPU in the calculation processing unit. In FIG. 7, the steps having the same names as those in FIG. 5 are the same processes as in FIG.
図7のステップS1で、環境光と白色均一照明部111により計測対象物101を照明しながら第1の撮像をする。ステップS2、S6を経て、ステップS14では、第Nの撮像(最初はN=2とする)を行う。このとき図6のt0の近赤外パターンで照明を行う。ステップS14において第2の撮像で得られたデータは、ステップS15で画像生成部131に送られ、図6のt0の近赤外パターンに対応した画像データから、データ保存部132に保存されている第1の撮像で得られたデータが減算される。
In step S1 in FIG. 7, the first imaging is performed while illuminating the
その後でステップS17でN=5か判断し、Noの場合にはS18でNに1加算してステップS14に戻り、次は第3の撮像を図6のt1の近赤外パターンを照明しつつ行う。これらの動作をステップS17でYesとなるまで繰り返す。それにより、最終的に第2~第5の撮像により撮像されたt0~t3のパターン(近赤外パターンN=2~5)の画像データ夫々から、データ保存部132に保存されている第1の撮像条件で得られたデータが減算され、4種類の減算データが得られて保存される。尚、ここで、本説明では簡単のためS14の撮像、S15の転送、S16の減算を一連の処理として繰り返したが、各々の処理を4回ずつ繰り返してもよい。以降の実施例においても同様である。
Then, in step S17, it is determined whether N=5, and if No, 1 is added to N in S18, and the process returns to step S14. conduct. These operations are repeated until Yes in step S17. As a result, the image data of the patterns t0 to t3 (near-infrared patterns N=2 to 5) captured by the second to fifth imaging are finally obtained from the first image data stored in the
ステップS17でYesとなったらステップS19に進み、ステップS9で保存されている4種類の減算データを3次元データ計算部134へ転送する。そして、これらの4種類の減算データに基づきステップS20でステレオマッチングが行われ、ステップS21で3次元データ出力部135に転送され、ステップS22で3次元データとして外部に出力される。
If Yes in step S17, the process proceeds to step S19, and the four types of subtraction data stored in step S9 are transferred to the three-dimensional
ここで、ステップS20におけるステレオマッチングの方法は実施例1とは異なる。即ち、実施例1のステップS11では、左目カメラの画像1枚と、右目カメラの画像1枚との視差を、パターンマッチングを実施することで算出した。しかし、ステップS20では左目カメラの画像4枚と、右目カメラの画像4枚があるため、同位置の画素の強度情報を時間軸方向に並べたデータでマッチングを実施する。 Here, the method of stereo matching in step S20 is different from that of the first embodiment. That is, in step S11 of Example 1, the parallax between one image of the left-eye camera and one image of the right-eye camera was calculated by performing pattern matching. However, in step S20, since there are four left-eye camera images and four right-eye camera images, matching is performed using data in which intensity information of pixels at the same positions are arranged in the time axis direction.
図8(A)は、実施例1で示した単一画像同士でサブウィンドウを用いたパターンマッチングの概念図であり、図8(B)は、実施例2で示す複数画像同士で時間軸方向の強度情報を用いたパターンマッチングの概念図である。図8(A)に示す、実施例1に示した手法では、左目カメラと右目カメラのデータの中のサブウィンドウ内のパターンが同一となる部位をパターンマッチングで抽出する。 FIG. 8A is a conceptual diagram of pattern matching using sub-windows between single images shown in the first embodiment, and FIG. FIG. 4 is a conceptual diagram of pattern matching using intensity information; In the method shown in FIG. 8(A) and shown in the first embodiment, a portion having the same pattern in the subwindow in the data of the left-eye camera and the right-eye camera is extracted by pattern matching.
一方、図8(B)に示す、実施例2の手法では、4枚の画像を時間軸方向に並べ、時間軸方向に串刺しにした画素単位のデータが、右目カメラと左目カメラで同一となる部位をパターンマッチングで抽出する。実施例1ではサブウィンドウを使用しているためローパスフィルタを通した3次元データであったが、本実施例ではサブウィンドウを使用しないため分解能を高めることができる。 On the other hand, in the method of the second embodiment shown in FIG. 8B, the four images are arranged in the direction of the time axis, and the pixel-by-pixel data obtained by skewering the images in the direction of the time axis becomes the same for the right-eye camera and the left-eye camera. Parts are extracted by pattern matching. Since the sub-window is used in the first embodiment, the three-dimensional data is passed through a low-pass filter. However, since the sub-window is not used in the present embodiment, the resolution can be improved.
実施例3は、実施例1及び2の変形で、近赤外パターン照明部112で照明する際は白色均一照明部111をオフしてRGBセンサ122が飽和しないようにしたものである。その代わりに、白色均一照明部111も近赤外パターン照明部112もオフして環境光102のみで撮像する第3の撮像を行う。
Embodiment 3 is a modification of
又、説明の簡単化のため、ここでは近赤外パターン照明部112を用いた撮像は1回として説明する。しかし、実施例2で説明したように近赤外パターン照明部112を用いた撮像を複数回行い、時間的なデータを用いたマッチングをしてより高分解能な3次元データを取得しても良い。
又、実施形態1の実施例3以降の実施例においても、同様に、近赤外パターンを切り替えつつ時間的にずれた複数回の撮像を行っても良いが、説明は省略する。
Also, for the sake of simplification of explanation, here, it is assumed that imaging using the near-infrared
Similarly, in the examples after the example 3 of the first embodiment, while switching the near-infrared pattern, the imaging may be performed a plurality of times with a time lag, but the explanation is omitted.
図9は実施例3の動作を説明するためのフローチャートであり、計算処理部内のCPUがメモリに記憶されたコンピュータプログラムを実行することによって図9の各ステップの処理が行われる。尚、図9において、図5と同じ名前のステップは図5と同じ処理なので説明を省略又は簡略化する。 FIG. 9 is a flowchart for explaining the operation of the third embodiment, and each step of FIG. 9 is processed by executing a computer program stored in the memory by the CPU in the calculation processing unit. In FIG. 9, the steps with the same names as those in FIG. 5 are the same processes as in FIG.
図9のステップS1で、環境光及び白色均一照明部111で計測対象物101を照明しつつ第1の撮像をする。ステップS2を経て、ステップS23では、第2の撮像条件(近赤外パターン+環境光)で撮像が行われ、第2の撮像で得られたデータは、ステップS24において画像生成部131に転送され、ステップS25でデータ保存部132に保存される。
In step S<b>1 in FIG. 9 , the first imaging is performed while the
次にステップS26で、白色均一照明部111も近赤外パターン照明部112もオフして環境光102のみで照明しつつ第3の撮像を行う。第3の撮像で得られた画像データは、ステップS27で画像生成部131に送られ、ステップS28において、データ保存部132に保存されている第2の撮像で得られたデータから減算される。
Next, in step S26, the white
その後でステップS10で3次元データ計算部134へ転送され、ステップS28で得られた減算データに基づきステップS11でステレオマッチングが行われ、ステップS12で3次元データ出力部135に転送され、ステップS13で3次元データとして外部に出力される。
Thereafter, it is transferred to the three-dimensional
このように、第1の撮像で取得されたデータは白色均一照明+環境光下で撮像されたデータ、第2の撮像で取得されたデータは近赤外パターン照明+環境光下で撮像されたデータ、第3の撮像で取得されたデータは環境光下で撮像されたデータである。又、第1の撮像で取得されたデータは、カラー画像用に用いられ、第2の撮像で取得されたデータから第3の撮像で取得されたデータを差し引くことで、近赤外パターン照明のみのデータを計算し、これより3次元データを計算する。 In this way, the data acquired in the first imaging is data captured under uniform white illumination + ambient light, and the data acquired in the second imaging is data captured under near-infrared pattern illumination + ambient light. The data and the data acquired in the third imaging are data captured under ambient light. In addition, the data acquired by the first imaging is used for color images, and by subtracting the data acquired by the third imaging from the data acquired by the second imaging, only the near-infrared pattern illumination is obtained. is calculated, and three-dimensional data is calculated from this.
実施例3の特徴は、前述のように、白色均一照明部111と近赤外パターン照明部112を同時に照明させないようにしてRGBセンサ122の飽和を防ぐようにした点にある。即ち、実施例1又は2の場合、白色均一照明部111と近赤外パターン照明部112を同時に照明した場合に、RGBセンサ122の画素の一部又は全部が飽和してしまう可能性がある。
As described above, the third embodiment is characterized in that the white
その場合には、右目カメラと左目カメラのマッチングはできなくなる。それに対して、実施例3では、白色均一照明部111と近赤外パターン照明部112の照明点灯タイミングをずらし、環境光102のみを用いた撮像は別途行うことで飽和の可能性を下げている。
In that case, matching between the right-eye camera and the left-eye camera becomes impossible. On the other hand, in Example 3, the lighting timings of the uniform
実施例4は実施例3の変形である。環境光が十分な明るさであることを検出した場合に、白色均一照明部111を用いずに処理を行うものである。カラー画像は環境光102のみの状態で取得したデータを用いる。白色均一照明が不要となるため、節電でき、或いは装置をより小型化できる。
図10は実施例4の動作を説明するためのフローチャートであり、計算処理部内のCPUがメモリに記憶されたコンピュータプログラムを実行することによって図10の各ステップの処理が行われる。尚、図10において、図5と同じ名前のステップは図5と同じ処理なので説明を省略又は簡略化する。
Example 4 is a modification of Example 3. When it is detected that the ambient light is sufficiently bright, processing is performed without using the uniform
FIG. 10 is a flow chart for explaining the operation of the fourth embodiment, and the processing of each step in FIG. 10 is performed by executing the computer program stored in the memory by the CPU in the calculation processing unit. In FIG. 10, the steps having the same names as those in FIG. 5 are the same processing as in FIG.
図10において、ステップS29で、白色均一照明部111も近赤外パターン照明部112もオフして環境光102のみで第1の撮像をする。得られた画像データはステップS2を介してステップS6においてデータ保存部132で保存される。ステップS30で、環境光及び近赤外パターン照明部112による照明をしつつ第2の撮像をする。その後の処理は図5と同じである。
In FIG. 10, in step S29, both the white
実施例4によれば、第1の撮像で取得されたデータは環境光下での画像データ、第2の撮像で取得されたデータは近赤外パターン照明+環境光下での画像データである。第2の撮像で取得されたデータから第1の撮像で取得されたデータを減算することで、近赤外パターン照明のみのデータを計算し、これより3次元データを計算する。その他の計算工程は、実施例1と同じである。 According to Example 4, the data acquired in the first imaging is image data under ambient light, and the data acquired in the second imaging is image data under near-infrared pattern illumination + ambient light. . By subtracting the data acquired in the first imaging from the data acquired in the second imaging, the data of only the near-infrared pattern illumination is calculated, and the three-dimensional data is calculated from this. Other calculation steps are the same as in the first embodiment.
実施例5は実施例3の変形例であり、環境光102が無い、又はほとんど無い状況での例である。この場合、環境光102が存在しないため、環境光102を差し引く計算が不要となる。
図11は実施例5の動作を説明するためのフローチャートであり、計算処理部内のCPUがメモリに記憶されたコンピュータプログラムを実行することによって図11の各ステップの処理が行われる。尚、図11において、図5と同じ名前のステップは図5と同じ処理なので説明を省略又は簡略化する。
Example 5 is a modification of Example 3, and is an example in a situation where there is no
FIG. 11 is a flowchart for explaining the operation of the fifth embodiment, and each step of FIG. 11 is processed by executing a computer program stored in the memory by the CPU in the calculation processing unit. In FIG. 11, the steps having the same names as those in FIG. 5 are the same processing as in FIG.
図11のステップS31で白色均一照明部111のみで計測対象物101を照明しながら第1の撮像をする。又、ステップS32では近赤外パターン照明部112のみで照明しながら第2の撮像をする。
第1の撮像で取得されたデータは白色均一照明のみで照明された画像データ、第2の撮像で取得されたデータは近赤外パターン照明のみで照明された画像データとなる。
In step S31 of FIG. 11, the first imaging is performed while illuminating the
The data acquired by the first imaging is image data illuminated only by uniform white illumination, and the data acquired by the second imaging is image data illuminated only by near-infrared pattern illumination.
第1の撮像で取得されたデータは、実施例1と同様、カラー画像用として用いられる。一方、第2の撮像条件で取得されたデータは近赤外パターン照明のみの画像データとなっているので図5のS9における減算処理が不要となる。従ってそのままステップS8、S10を経て、ステップS11~S13で3次元データを計算し出力する。
<第2実施形態>
The data obtained by the first imaging is used for color images as in the first embodiment. On the other hand, since the data acquired under the second imaging condition is image data obtained only by near-infrared pattern illumination, the subtraction processing in S9 of FIG. 5 is unnecessary. Therefore, through steps S8 and S10, three-dimensional data is calculated and output in steps S11 to S13.
<Second embodiment>
図12に、第2実施形態の3次元計測システムを示す。
第2実施形態では、撮像部を1つにしている。その代わり、第1実施形態においては、近赤外パターン照明は未知のランダムパターンを用いていたが、単眼カメラでは既知のパターンである必要がある。3次元データの計算以外の処理は、第1実施形態と同様の処理となる。即ち、図12中の、700~735は図1の100~135と同じものであるので説明は省略する。単眼カメラにすることで、装置を小型化できる。主に撮像条件が異なる実施例を2つ以下で詳細に説明する。
FIG. 12 shows the three-dimensional measurement system of the second embodiment.
In the second embodiment, only one imaging unit is provided. Instead, in the first embodiment, an unknown random pattern was used for the near-infrared pattern illumination, but a monocular camera needs to use a known pattern. Processing other than calculation of three-dimensional data is the same as that of the first embodiment. That is, 700 to 735 in FIG. 12 are the same as 100 to 135 in FIG. 1, so the description is omitted. By using a monocular camera, the size of the device can be reduced. Two or less examples with mainly different imaging conditions will be described in detail.
実施例6は、実施例1の複眼カメラを単眼カメラにし、近赤外パターン照明を既知のランダムパターンとしたものである。
具体的には、第1の撮像では、白色均一照明部711を計測対象物701に対して照明しながら撮像する。第2の撮像では、白色均一照明部711と近赤外パターン照明部712を照明しながら撮像する。ここで近赤外パターン照明部712の照明パターンは実施例1と異なり、既知のランダムパターンとする。
In Example 6, the compound eye camera of Example 1 is replaced by a monocular camera, and the near-infrared pattern illumination is a known random pattern.
Specifically, in the first imaging, the
ここで既知のランダムパターンについて説明する。ランダムパターンが既知であると、ランダムパターンの部分領域が画像上のどこにあるのか単眼カメラでもパターンマッチングで把握することができる。図13は、既知のランダムパターンによる測距原理の概念図である。図13(A)に示すように、もし計測対象物がなく、計測範囲の背面に床面がある場合、既知のランダムパターンがRGBセンサにどのように撮像されるかはあらかじめ知ることができる。一方図13の右側に示すように、計測対象物があり既知のランダムパターンの画像が変化した場合、その変化量から床面からの距離を計測することができる。 A known random pattern will now be described. If the random pattern is known, even a monocular camera can grasp where the partial area of the random pattern is on the image by pattern matching. FIG. 13 is a conceptual diagram of the principle of distance measurement using a known random pattern. As shown in FIG. 13A, if there is no measurement target and there is a floor behind the measurement range, it is possible to know in advance how a known random pattern will be imaged by the RGB sensor. On the other hand, as shown on the right side of FIG. 13, when there is an object to be measured and the known random pattern image changes, the distance from the floor surface can be measured from the amount of change.
図14は実施例6の動作を説明するためのフローチャートであり、計算処理部内のCPUがメモリに記憶されたコンピュータプログラムを実行することによって図14の各ステップの処理が行われる。尚、図14において、図5と同じ名前のステップは図5と同じ処理であり、図14中の731~735は図1の131~135と同じものなので説明を省略又は簡略化する。 FIG. 14 is a flow chart for explaining the operation of the sixth embodiment, and the processing of each step in FIG. 14 is performed by executing the computer program stored in the memory by the CPU in the calculation processing unit. In FIG. 14, the steps with the same names as those in FIG. 5 are the same processes as in FIG. 5, and 731 to 735 in FIG. 14 are the same as 131 to 135 in FIG. 1, so the description will be omitted or simplified.
図14のステップS33では白色均一照明と環境光による照明の下で、既知のランダムパターンによる近赤外パターン照明をしつつ第2の撮像をする。その後ステップS8~S10を経て、ステップS34において、3次元データ計算部134で、既知のランダムパターンによる3次元データ算出を行う。その後、ステップS12~S13を経て3次元データを外部に出力する。
In step S33 of FIG. 14, the second imaging is performed under uniform white illumination and ambient light illumination, while performing near-infrared pattern illumination with a known random pattern. After that, through steps S8 to S10, in step S34, the three-dimensional
実施例7は、実施例2の複眼カメラを単眼カメラにし、近赤外パターン照明のパターンをランダムパターンの代わりに、既知の複数のラインパターンとしたものである。一般的に、本手法は空間符号化法と呼ばれている。
図15は、空間符号化法における複数のラインパターンの例を示す図である。空間符号化法を実施することで、高精度な3次元計測を実施することができることが知られている。これは一般的によく知られており公知であるため、これ以上説明は省略する。
In Example 7, the compound eye camera of Example 2 is replaced by a monocular camera, and the pattern of near-infrared pattern illumination is a known plurality of line patterns instead of the random pattern. This method is generally called a spatial encoding method.
FIG. 15 is a diagram showing an example of multiple line patterns in the spatial encoding method. It is known that high-precision three-dimensional measurement can be performed by implementing a spatial encoding method. Since this is generally well known and publicly known, further explanation is omitted.
図16は実施例7の動作を説明するためのフローチャートであり、計算処理部内のCPUがメモリに記憶されたコンピュータプログラムを実行することによって図16の各ステップの処理が行われる。尚、図16において、図7と同じ名前のステップは図7と同じ処理であり、図16中の731~735は図1の131~135と同じものなので説明を省略又は簡略化する。 FIG. 16 is a flow chart for explaining the operation of the seventh embodiment, and the processing of each step in FIG. 16 is performed by executing the computer program stored in the memory by the CPU in the calculation processing unit. In FIG. 16, the steps with the same names as those in FIG. 7 are the same processes as in FIG. 7, and 731 to 735 in FIG. 16 are the same as 131 to 135 in FIG. 1, so the description will be omitted or simplified.
具体的な撮像動作は、実施例2と同じであり、ステップS1で、環境光と白色均一照明部711で計測対象物701を照明しつつ第1の撮像をする。その後、ステップS2、S6を経て、ステップS35、S15~S18により、環境光と白色均一照明部711と近赤外パターン照明部712で計測対象物を照明しながら第2~第5の撮像を行う。その際、近赤外パターン照明部712の照明パターンは図15の時刻t0から、t1、t2、t3で示される既知の4種類のラインパターン(ラインパターンN=2~5)を順次切り替えて使用する。
その後ステップS19を経て、ステップS36において、3次元データ計算部134で、既知のラインパターンを用いた空間符号化法で3次元データ算出を行う。その後、ステップS21~S22を経て3次元データを外部に出力する。
A specific imaging operation is the same as that of the second embodiment, and in step S1, the first imaging is performed while illuminating the
After that, through step S19, in step S36, the three-dimensional
以上のように、実施例7によれば、単眼カメラにすることができるため、装置をより小型化でき、しかも高精度な3次元計測が可能となる。
尚、実施例6、7で説明した既知のランダムパターン及び既知の複数のラインパターンを用いる手法は、実施形態1のような複眼カメラを用いた3次元計測システムにも適用できるが、ここでは説明を省略する。
<第3実施形態>
As described above, according to the seventh embodiment, since a monocular camera can be used, the device can be made more compact, and high-precision three-dimensional measurement can be performed.
The method using known random patterns and a plurality of known line patterns described in Examples 6 and 7 can also be applied to a three-dimensional measurement system using a compound eye camera as in
<Third Embodiment>
次に、図17は、第3実施形態の3次元計測システムの構成例を示すブロック図である。第3実施形態は、第1実施形態の近赤外パターン照明部112を近赤外均一照明部1013に変更したものである。即ち、本実施例では、近赤外光照明部は計測対象物を均一な近赤外光で照明するための近赤外均一照明部を有する。尚、図17中の、1000~1035は図1の100~135と同じものであるので説明は省略する。
Next, FIG. 17 is a block diagram showing a configuration example of a three-dimensional measurement system according to the third embodiment. 3rd Embodiment changes the near-infrared
本実施形態においては、近赤外均一照明を用いてステレオマッチングを実施するが、まず近赤外パターン照明を用いたステレオマッチングと、近赤外均一照明を用いた場合のステレオマッチングとの差について説明する。近赤外パターン照明を用いた場合は、パターンの一部を目印に右目カメラと左目カメラのマッチングをするため、計測対象物の平坦面など対象物側に特徴がないところも能動的にパターン照明によって情報を付与することで、高精度に計測可能となる。一方で、計測対象物がプラスチック製であったりすると、対象物内部への光のしみこみによりパターンがにじむ場合がある。 In this embodiment, stereo matching is performed using near-infrared uniform illumination. First, the difference between stereo matching using near-infrared pattern illumination and stereo matching when using near-infrared uniform illumination explain. When using near-infrared pattern illumination, since the right-eye camera and left-eye camera are matched using a part of the pattern as a mark, the pattern illumination can be performed actively even where there are no features on the object side, such as the flat surface of the measurement object. By giving information by, it is possible to measure with high accuracy. On the other hand, if the object to be measured is made of plastic, the pattern may blur due to the penetration of light into the inside of the object.
その場合、均一照明によって平均的に対象物を照射し(すなわち光がにじむとしても全体としてにじむため影響がない)、部位の形状や構造を目印にステレオマッチングを実施することで、計測対象物のエッジなどがより明瞭に計測可能となる。ただし近赤外均一照明を用いる場合、目印は計測対象物の形状や構造などとなるため、計測対象物の平坦面などの計測は困難になる。
従って、本実施形態は、パターン照明だと光がにじんでしまうような計測対象物に対して特に有効であり、高精度な3次元計測が可能となる。
In that case, the object is illuminated evenly with uniform illumination (i.e., even if the light is blurred, there is no effect because it is blurred as a whole), and stereo matching is performed using the shape and structure of the part as a mark to determine the object to be measured. Edges and the like can be measured more clearly. However, when near-infrared uniform illumination is used, the mark becomes the shape, structure, etc. of the object to be measured, making it difficult to measure the flat surface of the object to be measured.
Therefore, the present embodiment is particularly effective for a measurement object for which light is blurred under pattern illumination, and enables highly accurate three-dimensional measurement.
実施例8は、実施例1の変形で近赤外パターン照明を近赤外均一照明に変更したものである。
図18は実施例8の動作を説明するためのフローチャートであり、計算処理部内のCPUがメモリに記憶されたコンピュータプログラムを実行することによって図18の各ステップの処理が行われる。尚、図18において、図5と同じ名前のステップは図5と同じ処理であり、図18中の1031~1035は図1の131~135と同じものなので説明を省略又は簡略化する。
Example 8 is a modification of Example 1 in which near-infrared pattern illumination is changed to near-infrared uniform illumination.
FIG. 18 is a flowchart for explaining the operation of the eighth embodiment, and each step of FIG. 18 is processed by the CPU in the calculation processing unit executing the computer program stored in the memory. In FIG. 18, the steps having the same names as those in FIG. 5 are the same processes as in FIG. 5, and 1031 to 1035 in FIG. 18 are the same as 131 to 135 in FIG. 1, so the description will be omitted or simplified.
ステップS1で、環境光と白色均一照明部1011とで計測対象物1001を照明しながら第1の撮像をする。ステップS2、S6を介して、ステップS37で環境光と白色均一照明部1011と近赤外均一照明部1013により計測対象物1001を照明しながら第2の撮像を行う。他の処理は実施例1と同じであり説明は省略する。
In step S<b>1 , the first imaging is performed while illuminating the
本実施例8によれば、パターン照明だと光がにじんでしまうような計測対象物に対して高精度な3次元計測が可能となる。
以上が実施形態3の説明となる。尚、実施形態3で説明した近赤外均一照明は、実施形態1の実施例3、4、5においても使用可能である。
<第4実施形態>
According to the eighth embodiment, it is possible to perform highly accurate three-dimensional measurement of a measurement object that would be blurred by pattern illumination.
The above is the description of the third embodiment. The near-infrared uniform illumination described in the third embodiment can also be used in Examples 3, 4, and 5 of the first embodiment.
<Fourth Embodiment>
図19に、第4実施形態の3次元計測システムを示す。尚、図19中の、1113は近赤外均一照明部であり、それ以外の1100~1135は図1の100~135と同じものであるので説明は省略する。
第4実施形態では、複眼カメラを用いて3次元データを取得すると共に、近赤外パターン照明と近赤外均一照明を用いた画像から算出することによって、より高精度な3次元データを取得することを可能としている。即ち、第1実施形態~第3実施形態では、近赤外光照明部は計測対象物を所定のパターンの近赤外光と均一な近赤外光の一方だけで照明していたが、本実施例では計測対象物を所定のパターンの近赤外光と均一な近赤外光の両方を用いて照明している。
FIG. 19 shows a three-dimensional measurement system according to the fourth embodiment. In FIG. 19, 1113 is a near-infrared uniform illumination unit, and 1100 to 1135 other than that are the same as 100 to 135 in FIG. 1, so description thereof is omitted.
In the fourth embodiment, three-dimensional data is acquired using a compound eye camera, and more accurate three-dimensional data is acquired by calculating from images using near-infrared pattern illumination and near-infrared uniform illumination. making it possible. That is, in the first to third embodiments, the near-infrared light illumination unit illuminates the measurement target with only one of the predetermined pattern of near-infrared light and uniform near-infrared light. In the embodiment, the object to be measured is illuminated using both near-infrared light of a predetermined pattern and uniform near-infrared light.
実施例9は、実施例1及び実施例8を組み合わせたもので、近赤外照明に関して、近赤外パターン照明と近赤外均一照明を夫々照射して撮像し、3次元データを計算する際に合成するものである。
図20は実施例9の動作を説明するためのフローチャートであり、計算処理部内のCPUがメモリに記憶されたコンピュータプログラムを実行することによって図20の各ステップの処理が行われる。尚、図20において、図1や図18と同じ名前のステップは図1や図18と同じ処理であり、図20中の1131~1135は図1の131~135と同じものなので説明を省略又は簡略化する。
Example 9 is a combination of Example 1 and Example 8. With regard to near-infrared illumination, near-infrared pattern illumination and near-infrared uniform illumination are respectively irradiated for imaging, and three-dimensional data is calculated. is synthesized to
FIG. 20 is a flow chart for explaining the operation of the ninth embodiment, and the processing of each step in FIG. 20 is performed by executing the computer program stored in the memory by the CPU in the calculation processing unit. 20, the steps with the same names as those in FIGS. 1 and 18 are the same processes as in FIGS. 1 and 18, and 1131 to 1135 in FIG. 20 are the same as 131 to 135 in FIG. Simplify.
ステップからステップS11において、図5と同様に赤外パターンを用いたステレオマッチングを行い、その結果を保存する。
次にステップS37で図18と同様に環境光と白色均一照明部1111と近赤外均一照明部1113により計測対象物1101を照明しながら第3の撮像を行う。
From step S11, stereo matching using infrared patterns is performed in the same manner as in FIG. 5, and the result is stored.
Next, in step S37, the third imaging is performed while illuminating the
その後で、ステップS38~ステップS41で図18のステップS8~S11と同様の処理をしてステレオマッチングを行い、その結果を保存する。即ち、この段階で、3次元データ計算部1134には、近赤外パターン照明によって計算された3次元データと、近赤外均一照明によって計算された3次元データの2種類が存在する。
次にステップS42で、ステップ11で得られた3次元データとステップS41で得られた3次元データの内の信頼性の高い方を選択して最終的な3次元データを作成する。そしてそれをステップS43で3次元データ出力部1135へ転送し、ステップS44で3次元データとして外部に出力する。
Thereafter, stereo matching is performed in steps S38 to S41 in the same manner as in steps S8 to S11 of FIG. 18, and the results are saved. That is, at this stage, the three-dimensional
Next, in step S42, the three-dimensional data obtained in step S11 and the three-dimensional data obtained in step S41 are selected, whichever is more reliable, and the final three-dimensional data is created. Then, it is transferred to the three-dimensional
本実施例においては、デプスマップである3次元データのうち、一方の3次元データがノイズ等で欠落している場合に、他方で取得した3次元データで補完することができるので欠落を削減できる。又、両方の3次元データが存在する画素であっても、デプスマップ上の隣接画素との勾配情報等を使用して、より信頼度が高い3次元データを画素毎に選択することができる。 In the present embodiment, if one of the three-dimensional data, which is the depth map, is missing due to noise or the like, the other three-dimensional data can be complemented, so the missing can be reduced. . Moreover, even for a pixel in which both types of three-dimensional data exist, it is possible to select the three-dimensional data with higher reliability for each pixel by using gradient information and the like with adjacent pixels on the depth map.
例えば、計測対象物の平坦な部位(デプスマップ上の隣接画素との勾配が小さい画素)のデータは近赤外パターン照明によって計算されたデータを用いる。そして、計測対象物のエッジ部位(デプスマップ上の隣接画素との勾配が大きい画素)のデータは近赤外均一照明によって計算されたデータを用いる等の選択をする。それによって、計測対象物全体について信頼性の高い高精度な3次元計測データを取得することができる。
尚、実施例9は、実施例1と実施例8を合成したものとして説明したが、実施例9と同様に、実施形態1の実施例2、3、4、5に実施例8を合成した実施例を構成しても良い。
<第5実施形態>
For example, data calculated by near-infrared pattern illumination is used for data of a flat portion of the measurement object (pixels with a small gradient to adjacent pixels on the depth map). Then, for the data of the edge part of the object to be measured (the pixel having a large gradient with respect to the adjacent pixel on the depth map), a selection is made such as using the data calculated by the near-infrared uniform illumination. Thereby, highly reliable and highly accurate three-dimensional measurement data can be acquired for the entire measurement object.
In addition, although Example 9 was described as a synthesis of Examples 1 and 8, Example 8 was synthesized with Examples 2, 3, 4, and 5 of
<Fifth Embodiment>
図21は第5実施形態の製造システムの構成例を示す図である。3次元計測装置1100はロボットアーム1300(把持装置)の先端に取り付けられて使用され、製造システムの一部として機能する。3次元計測装置1100の投影部1110は、支持台1350に置かれた計測対象物1101に近赤外パターンや近赤外均一光を投影して撮像部1120で撮像し画像を取得する。
FIG. 21 is a diagram showing a configuration example of a manufacturing system according to the fifth embodiment. The three-
そして、3次元計測装置1100は例えば図20のフローチャートに示すような制御を行って計測対象物1101の3次元データを算出し、制御部1310に出力する。
制御部1310は、3次元計測装置1100から取得した計測対象物の3次元データに基づき計測対象物1101の位置や形状や姿勢を求める。そして、求められた位置、形状及び姿勢に基づきロボットアーム1300に駆動指令を送ってロボットアーム1300のアームや先端のロボットハンドを多軸で制御する。
Then, the three-
The
ロボットアーム1300は先端のロボットハンドなど(把持部)で計測対象物1101を保持(把持)して、並進や回転などの移動制御処理や姿勢制御処理を行う。更に、ロボットアーム1300によって計測対象物1101を他の部品に組み付ける組み付け処理をすることにより、複数の部品で構成された物品、例えば電子回路基板や機械などの物品を製造することができる。又、移動された計測対象物1101を加工処理することにより、物品を製造することができる。
The
制御部1310は、コンピュータとしてのCPUなどの演算装置や計測対象物1101を制御するためのコンピュータプログラムを記憶したメモリなどの記憶装置を有する。尚、ロボットアーム1300を制御するための制御部1310は、図21の製造システムの外部に設けても良い。又、3次元計測装置1100により計測された計測データや得られた画像を表示部1320に表示してもよい。
The
以上、本発明の好ましい実施形態について説明したが、本発明は、これらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。又、説明の中で、処理時間の高速化、分解能や計測精度の向上、装置構成のコスト、といったトレードオフについても説明してきた。これらを計測対象物ごとに適切に組み合わせることで、最も低コストで高効率な3次元計測が可能となる3次元計測システムを提供することが可能となる。
尚、本実施例における制御の一部又は全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して3次元計測システム等に供給するようにしてもよい。そしてその3次元計測システム等におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。
Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes are possible within the scope of the gist thereof. Also, in the explanation, trade-offs such as speeding up of processing time, improvement of resolution and measurement accuracy, and cost of apparatus configuration have been explained. By appropriately combining these for each measurement object, it is possible to provide a three-dimensional measurement system that enables three-dimensional measurement at the lowest cost and with the highest efficiency.
It should be noted that a computer program that implements the functions of the above-described embodiments may be supplied to a three-dimensional measurement system or the like via a network or various storage media for part or all of the control in this embodiment. A computer (or CPU, MPU, etc.) in the three-dimensional measurement system or the like may read and execute the program. In that case, the program and the storage medium storing the program constitute the present invention.
100 3次元計測システム
101 計測対象物
112 近赤外パターン照明
122 RGBセンサ
130 計算出力部
100 Three-
Claims (18)
隣接する画素が可視光に対して互いに異なる波長感度を持つと共に、各画素が前記近赤外光に対して感度特性を有する撮像素子と、
前記近赤外光照明部で前記計測対象物を照明しない状態で前記撮像素子から得られた第1の撮像信号を処理してカラー画像信号を生成するカラー画像信号生成部と、
前記近赤外光照明部を用いて前記計測対象物を照明した状態で前記撮像素子から得られた第2の撮像信号から3次元データを算出する3次元データ計算部と、
を有することを特徴とする3次元計測装置。 a near-infrared light illumination unit for illuminating the measurement object with near-infrared light;
an imaging device in which adjacent pixels have different wavelength sensitivities to visible light and each pixel has a sensitivity characteristic to the near-infrared light;
a color image signal generation unit that processes a first imaging signal obtained from the imaging device in a state where the measurement object is not illuminated by the near-infrared light illumination unit to generate a color image signal;
a three-dimensional data calculation unit that calculates three-dimensional data from a second imaging signal obtained from the imaging element while the measurement object is illuminated using the near-infrared light illumination unit;
A three-dimensional measuring device comprising:
前記3次元計測装置により得られた前記計測対象物の前記3次元データに基づいて前記計測対象物を保持して移動させるロボットと、を有することを特徴とする製造システム。 A three-dimensional measurement device according to any one of claims 1 to 15,
and a robot that holds and moves the object to be measured based on the three-dimensional data of the object to be measured obtained by the three-dimensional measuring device.
前記3次元データに基づいて前記計測対象物を処理することにより物品を製造する工程と、を有することを特徴とする物品の製造方法。
A step of calculating the three-dimensional data of the measurement object using the three-dimensional measurement device according to any one of claims 1 to 15;
and a step of manufacturing an article by processing the object to be measured based on the three-dimensional data.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021035082A JP2022135340A (en) | 2021-03-05 | 2021-03-05 | Three-dimensional measuring device, computer program, manufacturing system, and method for manufacturing article |
PCT/JP2022/007917 WO2022186074A1 (en) | 2021-03-05 | 2022-02-25 | Measuring device, storage medium, manufacturing system, and article manufacturing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021035082A JP2022135340A (en) | 2021-03-05 | 2021-03-05 | Three-dimensional measuring device, computer program, manufacturing system, and method for manufacturing article |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022135340A true JP2022135340A (en) | 2022-09-15 |
JP2022135340A5 JP2022135340A5 (en) | 2024-03-11 |
Family
ID=83155129
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021035082A Pending JP2022135340A (en) | 2021-03-05 | 2021-03-05 | Three-dimensional measuring device, computer program, manufacturing system, and method for manufacturing article |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2022135340A (en) |
WO (1) | WO2022186074A1 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003324751A (en) * | 2002-05-07 | 2003-11-14 | Toshiba Corp | Information input apparatus |
JP4395150B2 (en) * | 2006-06-28 | 2010-01-06 | 富士フイルム株式会社 | Distance image sensor |
JP2011243862A (en) * | 2010-05-20 | 2011-12-01 | Sony Corp | Imaging device and imaging apparatus |
JP5521854B2 (en) * | 2010-07-26 | 2014-06-18 | コニカミノルタ株式会社 | Imaging device and image input device |
JP6182396B2 (en) * | 2013-08-30 | 2017-08-16 | 日立オートモティブシステムズ株式会社 | Imaging device |
-
2021
- 2021-03-05 JP JP2021035082A patent/JP2022135340A/en active Pending
-
2022
- 2022-02-25 WO PCT/JP2022/007917 patent/WO2022186074A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2022186074A1 (en) | 2022-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4900723B2 (en) | Image processing apparatus, image processing program, and display apparatus | |
US20040125205A1 (en) | System and a method for high speed three-dimensional imaging | |
CN104813141A (en) | Image generation device | |
JP2016166784A (en) | Measurement device | |
US9664507B2 (en) | Depth value measurement using illumination by pixels | |
CN108737696A (en) | Picture pick-up device, control method and non-transitory storage medium | |
JP6624939B2 (en) | Image processing device, imaging device, and image processing program | |
JP2009025189A (en) | Measuring instrument | |
JP3507865B2 (en) | Method and apparatus for real-time shape measurement by CCD camera using DMD | |
JP6425571B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM | |
US9354606B1 (en) | Systems and methodologies related to generating projectable data for 3-D viewing | |
JP6706026B2 (en) | Endoscope system and operating method of endoscope apparatus | |
WO2016084926A1 (en) | Image pickup system | |
WO2022186074A1 (en) | Measuring device, storage medium, manufacturing system, and article manufacturing method | |
JP2001330417A (en) | Three-dimensional shape measuring method and apparatus using color pattern light projection | |
JP5890953B2 (en) | Inspection device | |
JPWO2016194179A1 (en) | Imaging apparatus, endoscope apparatus, and imaging method | |
JP7118776B2 (en) | IMAGING DEVICE, IMAGE PROCESSING METHOD, IMAGE PROCESSING PROGRAM AND RECORDING MEDIUM | |
JP7176855B2 (en) | Endoscope device, method of operating endoscope device, program, and recording medium | |
CN113905223B (en) | Color 3D imaging method based on single color camera zero registration error and color camera | |
JP2006170744A (en) | Three-dimensional distance measuring instrument | |
KR20080114550A (en) | Ultraviolet microscope | |
JP2019070886A (en) | Image processing device, imaging device, and image processing method | |
JP6903824B2 (en) | Projection device and its control method and control program | |
JPH0430831A (en) | Enddoscope apparatus for measurement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240301 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240301 |