JP2022135340A - Three-dimensional measuring device, computer program, manufacturing system, and method for manufacturing article - Google Patents

Three-dimensional measuring device, computer program, manufacturing system, and method for manufacturing article Download PDF

Info

Publication number
JP2022135340A
JP2022135340A JP2021035082A JP2021035082A JP2022135340A JP 2022135340 A JP2022135340 A JP 2022135340A JP 2021035082 A JP2021035082 A JP 2021035082A JP 2021035082 A JP2021035082 A JP 2021035082A JP 2022135340 A JP2022135340 A JP 2022135340A
Authority
JP
Japan
Prior art keywords
dimensional
imaging
infrared light
illumination unit
infrared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021035082A
Other languages
Japanese (ja)
Other versions
JP2022135340A5 (en
Inventor
洋志 奥田
Hiroshi Okuda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021035082A priority Critical patent/JP2022135340A/en
Priority to PCT/JP2022/007917 priority patent/WO2022186074A1/en
Publication of JP2022135340A publication Critical patent/JP2022135340A/en
Publication of JP2022135340A5 publication Critical patent/JP2022135340A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Abstract

To provide a three-dimensional measuring device that can perform three-dimensional measurement with high accuracy with a simple configuration.SOLUTION: A three-dimensional measuring device has: a near infrared light illumination unit for illuminating a measurement object with near infrared light; an image pickup device in which adjacent pixels have different wavelength sensitivities to visible light and each pixel has sensitivity characteristics to the near infrared light; a color image signal generation unit that processes a first imaging signal obtained from the image pickup device with the measurement object not illuminated by the near infrared light illumination unit to generate a color image signal; and a three-dimensional data calculation unit that calculates three-dimensional data from a second imaging signal obtained from the image pickup device with the measurement object illuminated by using the near infrared light illumination unit.SELECTED DRAWING: Figure 1

Description

本発明は、近赤外光等を用いた3次元計測装置等に関する。 The present invention relates to a three-dimensional measuring device using near-infrared light and the like.

生産ラインでの部品の自動ピッキングや検査、AGV(無人搬送車)をはじめとした様々な分野でマシンビジョンが利用されている。その主な利用目的は物体認識や検査用画像処理であり、そのためには計測対象物のカラー画像と3次元データが必要となる。 Machine vision is used in various fields, including automatic picking and inspection of parts on production lines, and AGVs (automated guided vehicles). It is mainly used for object recognition and image processing for inspection, and for that purpose a color image and three-dimensional data of the object to be measured are required.

従来のカラー画像と3次元データを取得できる3次元計測システムとして、特許文献1がある。特許文献1においては、特別な撮像素子を用いてステレオマッチングを実施してカラー画像と3次元データを取得する。ここで特別な撮像措置とは、RGB受光素子が繰り返し配置されている行と、可視光全域に反応する受光素子が繰り返し配置されている行とを列方向に交互に配置した撮像素子である。このような撮像素子を用いることによって、モノクロカメラの撮像装置を用いた場合と同等程度以上の距離測定精度を担保するカラー情報を取得可能な撮像装置を提供可能となっている。 Japanese Patent Application Laid-Open No. 2002-200002 discloses a three-dimensional measurement system capable of acquiring conventional color images and three-dimensional data. In Patent Literature 1, stereo matching is performed using a special imaging device to obtain a color image and three-dimensional data. Here, the special imaging device is an imaging device in which rows in which RGB light receiving elements are repeatedly arranged and rows in which light receiving elements that respond to the entire visible light are repeatedly arranged are alternately arranged in the column direction. By using such an image pickup device, it is possible to provide an image pickup device capable of acquiring color information that ensures distance measurement accuracy equal to or higher than that obtained when using an image pickup device of a monochrome camera.

又、3次元計測システムにおいて、左右2台の赤外線カメラ、赤外パターン照明、RGBセンサの4つを配置し、左右の赤外線カメラと赤外パターン照明で3次元データを取得し、RGBセンサでカラー画像を取得しているものがある。 In addition, in the 3D measurement system, four infrared cameras (left and right), infrared pattern lighting, and an RGB sensor are arranged. Some are acquiring images.

特開2015-50494号公報JP 2015-50494 A

しかし、特許文献1に記載の3次元計測システムにおいては、特別な撮像素子を用いるため装置が高価になるという問題がある。又、RGB受光素子が繰り返し配置されている行と、可視光全域に反応する受光素子が繰り返し配置されている行が列方向に交互に配置されているため、列方向の分解能が劣化するという問題がある。 However, in the three-dimensional measurement system described in Patent Document 1, there is a problem that the device becomes expensive because a special imaging device is used. In addition, since rows in which the RGB light receiving elements are repeatedly arranged and rows in which the light receiving elements that respond to the entire visible light are repeatedly arranged are alternately arranged in the column direction, the resolution in the column direction is degraded. There is

又、前述のような、左右2台の赤外線カメラ、赤外パターン照明、RGBセンサの4つが配置されている3次元計測システムにおいては、2台の赤外線カメラとRGBセンサが別々のセンサである。従って、デプスマップとしての3次元データとカラー画像の光軸が異なるという問題があり、その後の画像処理が複雑化するという問題がある。
本発明は、上記のような問題を解決し、簡単な構成で精度の高い3次元計測が可能な3次元計測装置等を提供することを目的とする。
Further, in the three-dimensional measurement system in which the two infrared cameras on the left and right, the infrared pattern illumination, and the RGB sensor are arranged as described above, the two infrared cameras and the RGB sensor are separate sensors. Therefore, there is a problem that the three-dimensional data as the depth map and the optical axis of the color image are different, which complicates the subsequent image processing.
SUMMARY OF THE INVENTION It is an object of the present invention to provide a three-dimensional measuring apparatus or the like capable of solving the above-described problems and performing highly accurate three-dimensional measurement with a simple configuration.

その目的を達成するために、本発明の3次元計測システムは、
近赤外光で計測対象物を照明するための近赤外光照明部と、
隣接する画素が可視光に対して互いに異なる波長感度を持つと共に、各画素が前記近赤外光に対して感度特性を有する撮像素子と、
前記近赤外光照明部で前記計測対象物を照明しない状態で前記撮像素子から得られた第1の撮像信号を処理してカラー画像信号を生成するカラー画像信号生成部と、
前記近赤外光照明部を用いて前記計測対象物を照明した状態で前記撮像素子から得られた第2の撮像信号から3次元データを算出する3次元データ計算部と、
を有することを特徴とする。
In order to achieve the object, the three-dimensional measurement system of the present invention
a near-infrared light illumination unit for illuminating the measurement object with near-infrared light;
an imaging device in which adjacent pixels have different wavelength sensitivities to visible light and each pixel has a sensitivity characteristic to the near-infrared light;
a color image signal generation unit that processes a first imaging signal obtained from the imaging device in a state where the measurement object is not illuminated by the near-infrared light illumination unit to generate a color image signal;
a three-dimensional data calculation unit that calculates three-dimensional data from a second imaging signal obtained from the imaging element while the measurement object is illuminated using the near-infrared light illumination unit;
characterized by having

本発明によれば、簡単な構成で精度の高い3次元計測が可能な3次元計測装置等を実現することができる。 According to the present invention, it is possible to realize a three-dimensional measurement apparatus or the like capable of performing three-dimensional measurement with high accuracy with a simple configuration.

第1実施形態の3次元計測システムの構成例を示すブロック図である。1 is a block diagram showing a configuration example of a three-dimensional measurement system according to a first embodiment; FIG. 近赤外パターン照明部112の照明パターンの例を示した図である。FIG. 4 is a diagram showing an example of an illumination pattern of a near-infrared pattern illumination unit 112; RGBセンサ122のカラーフィルタパターンの例を示した図である。4 is a diagram showing an example of a color filter pattern of an RGB sensor 122; FIG. 一般的なベイヤー配列のRGBセンサの分光感度特性を示す図である。FIG. 3 is a diagram showing spectral sensitivity characteristics of a general Bayer array RGB sensor; 実施例1の動作を説明するためのフローチャートである。4 is a flow chart for explaining the operation of the first embodiment; 実施例2における、時間的に変化する近赤外光パターンの例を示した図である。FIG. 10 is a diagram showing an example of a near-infrared light pattern that changes over time in Example 2; 実施例2の動作を説明するためのフローチャートである。9 is a flow chart for explaining the operation of the second embodiment; 単一画像同士でサブウィンドウを用いたパターンマッチングの概念と、複数画像同士で時間軸方向の強度情報を用いたパターンマッチングの概念を示した図である。FIG. 4 is a diagram showing the concept of pattern matching between single images using sub-windows and the concept of pattern matching between multiple images using intensity information in the direction of the time axis; 実施例3の動作を説明するためのフローチャートである。10 is a flow chart for explaining the operation of the third embodiment; 実施例4の動作を説明するためのフローチャートである。14 is a flowchart for explaining the operation of Example 4; 実施例5の動作を説明するためのフローチャートである。14 is a flow chart for explaining the operation of the fifth embodiment; 第2実施形態の3次元計測システムの構成を示すブロック図である。FIG. 11 is a block diagram showing the configuration of a three-dimensional measurement system according to a second embodiment; FIG. 既知のランダムパターンによる測距原理の概念図である。1 is a conceptual diagram of a known random pattern ranging principle; FIG. 実施例6の動作を説明するためのフローチャートである。FIG. 12 is a flowchart for explaining the operation of the sixth embodiment; FIG. 空間符号化法における複数のラインパターンの例を示す図である。FIG. 4 is a diagram showing an example of multiple line patterns in the spatial encoding method; 実施例7の動作を説明するためのフローチャートである。FIG. 11 is a flow chart for explaining the operation of the seventh embodiment; FIG. 第3実施形態の3次元計測システムの構成例を示すブロック図である。FIG. 11 is a block diagram showing a configuration example of a three-dimensional measurement system according to a third embodiment; FIG. 実施例8の動作を説明するためのフローチャートである。FIG. 13 is a flowchart for explaining the operation of the eighth embodiment; FIG. 第4実施形態の3次元計測システムを示した図である。It is the figure which showed the three-dimensional measurement system of 4th Embodiment. 実施例9の動作を説明するためのフローチャートである。FIG. 12 is a flow chart for explaining the operation of the ninth embodiment; FIG. 第5実施形態の製造システムの構成例を示す図である。It is a figure which shows the structural example of the manufacturing system of 5th Embodiment.

以下に、本発明の好ましい実施形態を添付の図面に基づいて詳細に説明する。下記に示す実施形態は4つあり、第1実施形態では複眼カメラと近赤外パターン照明の2要素、第2実施形態では単眼カメラと近赤外パターン照明の2要素が主要な構成要素となる。第3実施形態では複眼カメラと近赤外均一照明の2要素、第4実施形態では複眼カメラと近赤外パターン照明と近赤外均一照明の3要素、が主要な構成要素となる。夫々の実施形態を以下で詳細に説明する。
<第1実施形態>
Preferred embodiments of the present invention are described in detail below with reference to the accompanying drawings. There are four embodiments shown below. In the first embodiment, two elements, a compound eye camera and near-infrared pattern illumination, are the main components, and in the second embodiment, two elements, a monocular camera and near-infrared pattern illumination, are the main components. . In the third embodiment, two elements, a compound-eye camera and near-infrared uniform illumination, are main components, and in the fourth embodiment, three elements, a compound-eye camera, near-infrared pattern illumination, and near-infrared uniform illumination, are main components. Each embodiment is described in detail below.
<First Embodiment>

図1は、第1実施形態の3次元計測システムの構成を示すブロック図である。
第1実施形態では、複眼カメラと近赤外パターン照明の2要素が主要な構成要素となる。主に撮像条件が異なる実施例を5つ、図1を用いて詳細に説明する。
FIG. 1 is a block diagram showing the configuration of the three-dimensional measurement system of the first embodiment.
In the first embodiment, two elements, the compound eye camera and the near-infrared pattern illumination, are the main components. Five examples mainly having different imaging conditions will be described in detail with reference to FIG.

図1に示す実施例1の3次元計測システム100は、計測対象物101のカラー画像と3次元データを取得するための装置であり、投影部110、2つの撮像部120、計算出力部130を有する。投影部110と撮像部120は計測対象物101を向いて配置されている。投影部110は、白色均一照明部111と近赤外パターン照明部112を有する。ここで前記白色均一照明部111は、計測対象物を可視光で照明するための可視光照明部として機能しており、前記近赤外パターン照明部112は、近赤外光で測定対象を照明するための近赤外光照明部として機能している。 A three-dimensional measurement system 100 according to the first embodiment shown in FIG. 1 is a device for acquiring a color image and three-dimensional data of an object 101 to be measured. have. The projection unit 110 and the imaging unit 120 are arranged facing the measurement object 101 . The projection unit 110 has a white uniform illumination unit 111 and a near-infrared pattern illumination unit 112 . Here, the white uniform illumination unit 111 functions as a visible light illumination unit for illuminating the measurement object with visible light, and the near-infrared pattern illumination unit 112 illuminates the measurement object with near-infrared light. It functions as a near-infrared light illumination unit for

2つの撮像部120は、夫々結像レンズ121とRGBセンサ122を有し、投影部110を挟んで対称な位置に夫々配置されている。そして、2つの撮像部120の一方を右目カメラ、他方を左目カメラとした場合、右目カメラと左目カメラの視差を用いたステレオマッチング手法で3次元データとなるデプスマップを計算している。更に計算出力部130は、コンピュータとしてのCPUやコンピュータプログラムを記憶したメモリ等からなり、画像生成部131、データ保存部132、カラー画像出力部133、3次元データ計算部134、3次元データ出力部135を有する。又、本実施形態では、蛍光灯やLEDなどによる環境光102がある状況を想定している。 The two imaging units 120 each have an imaging lens 121 and an RGB sensor 122 and are arranged at symmetrical positions with the projection unit 110 interposed therebetween. When one of the two imaging units 120 is a right-eye camera and the other is a left-eye camera, a stereo matching method using parallax between the right-eye camera and the left-eye camera is used to calculate a depth map as three-dimensional data. Further, the calculation output unit 130 includes a CPU as a computer, a memory storing computer programs, and the like, and includes an image generation unit 131, a data storage unit 132, a color image output unit 133, a three-dimensional data calculation unit 134, and a three-dimensional data output unit. 135. Further, in this embodiment, it is assumed that there is ambient light 102 such as a fluorescent lamp or an LED.

次に、近赤外パターン照明部112について説明する。図2は、近赤外パターン照明部112の照明パターンの例を示した図である。本実施例においては、近赤外パターン照明部112は、計測対象物を所定のパターンの近赤外光で照明すると共に、照明パターンはランダム照明とする。ここでは、パターンの照明分布を把握しておく必要はない。又、照明の作成方法として、プロジェクターを用いても良いし、複数の光源をアレイ状に配置したものを用いても良いし、レーザー光源にCGH(計算機生成ホログラム)やDOE(回折光学素子)を配置したものを用いても良い。又、これらの照明を組み合わせて用いても良い。波長としては780nm~1000nmの分光特性の照明パターンが照射される。 Next, the near-infrared pattern illumination section 112 will be described. FIG. 2 is a diagram showing an example of an illumination pattern of the near-infrared pattern illumination section 112. As shown in FIG. In this embodiment, the near-infrared pattern illumination unit 112 illuminates the measurement object with a predetermined pattern of near-infrared light, and the illumination pattern is random illumination. Here, it is not necessary to know the illumination distribution of the pattern. Also, as a method of creating illumination, a projector may be used, a plurality of light sources arranged in an array may be used, and a CGH (computer-generated hologram) or DOE (diffractive optical element) may be used as a laser light source. Arranged ones may be used. Also, these lights may be used in combination. As for the wavelength, an illumination pattern with spectral characteristics of 780 nm to 1000 nm is irradiated.

次に、撮像素子としてのRGBセンサについて説明する。図3は、RGBセンサ122のカラーフィルタパターンの例を示した図である。図3に示すカラーフィルタパターンは、一般的にベイヤー配列と呼ばれるものである。RGBセンサ122を構成する2次元配置された複数の画素の、各画素の上には、夫々可視光領域を透過するR、G、Bのカラーフィルタの内の1つが配置されている。即ち、図3に示すように、任意の2×2の4画素に着目すると、赤(R)が1画素、緑(G)が2画素、青(B)が1画素の比で配置されている。 Next, an RGB sensor as an imaging device will be described. FIG. 3 is a diagram showing an example of the color filter pattern of the RGB sensor 122. As shown in FIG. The color filter pattern shown in FIG. 3 is generally called a Bayer array. One of the R, G, and B color filters that transmit the visible light region is arranged above each pixel of the plurality of two-dimensionally arranged pixels that constitute the RGB sensor 122 . That is, as shown in FIG. 3, focusing on arbitrary 2×2=4 pixels, red (R) is arranged at a ratio of 1 pixel, green (G) at 2 pixels, and blue (B) at a ratio of 1 pixel. there is

次に、RGBセンサ122の分光特性について説明する。図4は、一般的なベイヤー配列を有するRGBセンサの分光感度特性を示す図であり、横軸は波長(単位:nm)、縦軸は透過率を表している。又、実線が赤の画素の、破線が緑の画素の、一点鎖線が青の画素の、分光感度特性である。波長400nmから780nmの領域においては、夫々の色に対応した透過率となっているが、780nm~1000nmの波長においてはRGBの透過率が略同じとなることが知られている。即ち、RGBセンサ122は、隣接する各画素が異なる可視光の波長感度を持つと共に、各画素が近赤外光に対して夫々感度特性を有する撮像素子である。尚、近赤外光に対する感度特性は略同じであった方が望ましいが、異なっていても良い。夫々の感度の違いを係数で補正して合わせることもできからである。
本実施形態においては、撮像素子のこのような近赤外光に対する感度特性を利用する。
Next, spectral characteristics of the RGB sensor 122 will be described. FIG. 4 is a diagram showing spectral sensitivity characteristics of an RGB sensor having a general Bayer array, where the horizontal axis represents wavelength (unit: nm) and the vertical axis represents transmittance. Also, the solid line is the spectral sensitivity characteristic of the red pixel, the dashed line is the green pixel, and the one-dot chain line is the blue pixel. In the wavelength range of 400 nm to 780 nm, the transmittance corresponds to each color, but it is known that the RGB transmittances are substantially the same in the wavelength range of 780 nm to 1000 nm. That is, the RGB sensor 122 is an imaging device in which adjacent pixels have different wavelength sensitivities to visible light, and each pixel has sensitivity characteristics to near-infrared light. Although it is desirable that the sensitivity characteristics to near-infrared light are substantially the same, they may be different. This is because the difference in sensitivity can be corrected by a coefficient and matched.
In the present embodiment, such sensitivity characteristics of the image sensor to near-infrared light are utilized.

次に、撮像動作と、各撮像で取得されたデータからカラー画像と3次元データを出力する過程について図5を用いて詳細に説明する。
図5は実施例の動作を説明するためのフローチャートであり、計算処理部内のCPUがメモリに記憶されたコンピュータプログラムを実行することによって図5の各ステップの処理が行われる。
Next, the imaging operation and the process of outputting a color image and three-dimensional data from the data obtained by each imaging will be described in detail with reference to FIG.
FIG. 5 is a flow chart for explaining the operation of the embodiment, and the processing of each step in FIG. 5 is performed by executing the computer program stored in the memory by the CPU in the calculation processing unit.

実施例1においては、撮像は2回実施する。1回目の撮像(第1の撮像)は、主にカラー画像を取得するためのものであり、図5のステップS1で、白色均一照明部111により計測対象物101を白色光で照明しながら第1の撮像を行う。この時、白色均一照明部111からの白色均一照明光と環境光102で計測対象物101が照明され、反射光が、2つの撮像部内の結像レンズ121を介して夫々のRGBセンサ122に結像する。 In Example 1, imaging is performed twice. The first imaging (first imaging) is mainly for obtaining a color image. In step S1 in FIG. 1 is imaged. At this time, the measurement object 101 is illuminated with the uniform white illumination light from the uniform white illumination unit 111 and the ambient light 102, and the reflected light is focused on the respective RGB sensors 122 via the imaging lenses 121 in the two imaging units. image.

図5のステップS1における第1の撮像によって、RGBセンサ122で取得されたデータ(第1の撮像信号)は、ステップS2で画像生成部131に転送される。
ステップS2においては、2つある撮像部120のどちらか一方の撮像部120の画像データが画像生成部131に供給される。ここで、右目カメラもしくは左目カメラのうち、予め選択された一方の撮像部120は基準カメラとよばれ、ステップS2において画像生成部131に供給される画像データは、前記基準カメラのRGBの各画素からの点順次の画像データである。即ち、画像生成部131には、モザイク状に配置されたRGBフィルタにより、R、G、B信号が夫々点順次に離散的に入力される。
The data (first imaging signal) acquired by the RGB sensor 122 by the first imaging in step S1 of FIG. 5 is transferred to the image generator 131 in step S2.
In step S<b>2 , the image data of one of the two imaging units 120 is supplied to the image generating unit 131 . Here, one of the imaging units 120 preselected from the right-eye camera or the left-eye camera is called a reference camera, and the image data supplied to the image generation unit 131 in step S2 is the RGB pixels of the reference camera is point-sequential image data from . That is, the R, G, and B signals are discretely input to the image generator 131 in a dot-sequential manner by the RGB filters arranged in a mosaic pattern.

画像生成部131においては、ステップS3で一般的なデモザイキング処理が施される。即ち、点順次の各色信号を色ごとに一度分離し、夫々データがない画素領域を周辺の画素情報から内挿補間やサンプルホールド等することによって離散的なRGB信号を夫々連続的な同時化されたR信号、G信号、B信号にする。このような同時化処理をデモザイキング処理と呼ぶ。デモザイキング処理が施され同時化されたR信号、G信号、B信号はステップS4でカラー画像出力部133に送られる。 In the image generator 131, general demosaicing processing is performed in step S3. That is, the dot-sequential color signals are once separated for each color, and the discrete RGB signals are continuously synchronized by performing interpolation, sample-holding, or the like on pixel regions having no data from surrounding pixel information. R signal, G signal, and B signal. Such synchronization processing is called demosaicing processing. The R signal, G signal, and B signal that have been demosaiced and synchronized are sent to the color image output unit 133 in step S4.

そして、ステップS5でカラー画像として処理され、視認用の表示画像又は記録画像として出力される。このように、ステップS1~S5は、近赤外光照明部で計測対象物を照明しない状態で、前記計測対象物を可視光及び環境光の少なくとも一方で照明した状態で、撮像素子から得られた第1の撮像信号を処理してカラー画像信号を生成する。又、ステップS1~S5は、カラー画像信号生成部として機能している。 Then, in step S5, it is processed as a color image and output as a display image for visual recognition or a recorded image. In this way, in steps S1 to S5, the measurement object is not illuminated by the near-infrared light illumination unit, and the measurement object is illuminated by at least one of visible light and ambient light. The first imaging signal is processed to generate a color image signal. Further, steps S1 to S5 function as a color image signal generator.

一方、ステップS2で、夫々画像生成部131に供給された左目カメラからのRGBの点順次の画像データと、右目カメラからのRGBの点順次の画像データは、ステップS6で両方の画像データをデータ保存部132に夫々保存する。
これは、実施例1では、ステレオマッチングをするため両カメラの減算用データが必須であり、右目と左目で見え方が異なるために、減算用のデータそれぞれ異なるためである。
On the other hand, the RGB dot-sequential image data from the left-eye camera and the RGB dot-sequential image data from the right-eye camera supplied to the image generation unit 131 in step S2 are converted into data in step S6. Each of them is stored in the storage unit 132 .
This is because, in the first embodiment, the subtraction data of both cameras are essential for stereo matching, and the subtraction data are different because the right eye and the left eye see differently.

次にステップS7において、2回目の撮像(第2の撮像)を行うことによって第2の撮像信号を取得する。第2の撮像は、3次元データを取得するためのものであり、白色均一照明部111と近赤外パターン照明部112により計測対象物101を同時に照明しながら撮像する。このとき、白色均一照明部111からの白色均一照明光と、近赤外パターン照明部112からの近赤外パターンと、環境光102が計測対象物101で反射し、反射光は、2つの撮像部内の結像レンズ121を介して夫々のRGBセンサ122に結像する。 Next, in step S7, a second imaging signal is acquired by performing a second imaging (second imaging). The second imaging is for obtaining three-dimensional data, and images are captured while simultaneously illuminating the measurement object 101 with the white uniform illumination unit 111 and the near-infrared pattern illumination unit 112 . At this time, the white uniform illumination light from the white uniform illumination unit 111, the near-infrared pattern from the near-infrared pattern illumination unit 112, and the ambient light 102 are reflected by the measurement object 101, and the reflected light is used for two imaging. An image is formed on each RGB sensor 122 via an imaging lens 121 in the unit.

第2の撮像において2つのRGBセンサ122で夫々撮像された画像データ(第2の撮像信号)は、ステップS8において、右目カメラからの画像データ、左目カメラからの画像データとして共に画像生成部131に送られる。
ステップS9において、画像生成部131は、第2の撮像で取得された右目カメラと右目カメラからの画像データから、データ保存部132に保存した、デモザイキングされる前のRGBの画像データを夫々減算する。ここで、ステップS9は第2の撮像信号と、第1の撮像信号とを演算する演算部として機能している。
The image data (second imaging signals) respectively captured by the two RGB sensors 122 in the second imaging are sent to the image generator 131 as image data from the right-eye camera and image data from the left-eye camera in step S8. Sent.
In step S9, the image generation unit 131 subtracts the RGB image data before demosaicing, stored in the data storage unit 132, from the image data from the right-eye camera and the right-eye camera acquired in the second imaging. do. Here, step S9 functions as a calculation unit that calculates the second imaging signal and the first imaging signal.

即ち、第2の撮像で取得された点順次の画像データ(白色均一照明+近赤外パターン照明+環境光下での画像データ)から、第1の撮像条件で取得された点順次の画像データ(白色均一照明+環境光下での画像データ)を減算する。 That is, point-sequential image data acquired under the first imaging condition from point-sequential image data acquired in the second imaging (image data under uniform white illumination + near-infrared pattern illumination + ambient light). Subtract (white uniform illumination + image data under ambient light).

このような減算の結果、近赤外パターン照明部112による近赤外光パターンのみで照射した場合と同等なデータを取得することができる。ここで、図4に示すようなRGBセンサの分光感度特性に対して、近赤外光を780nm~1000nmの範囲内に設定すれば、R,G,Bの各画素からの出力は略同じとなる。即ち、RGBセンサ122から、カラーフィルタがないモノクロセンサからの出力と同等な解像度をもつ画像データが得られる。 As a result of such subtraction, it is possible to obtain data equivalent to that obtained when only the near-infrared light pattern is irradiated by the near-infrared pattern illumination unit 112 . Here, if the near-infrared light is set within the range of 780 nm to 1000 nm for the spectral sensitivity characteristics of the RGB sensor as shown in FIG. Become. That is, the RGB sensor 122 provides image data with a resolution equivalent to that of a monochrome sensor without color filters.

従って、後述する3次元データの計算により、モノクロセンサで取得したデータと同等の高分解能をもつデプスマップ、すなわち3次元データを得ることができる。
上述の減算結果としてのデータは、ステップS10で3次元データ計算部134に転送される。
Therefore, by calculating the three-dimensional data, which will be described later, it is possible to obtain a depth map, that is, three-dimensional data, which has a high resolution equivalent to that obtained by a monochrome sensor.
The data as the subtraction result described above is transferred to the three-dimensional data calculation unit 134 in step S10.

3次元データ計算部134においては、ステップS11でステレオマッチング計算が実施され、右目カメラと左目カメラの視差量をカメラからの距離に変換して計算する。具体的には、図2に示したようなランダムパターンにおいて、適当なサイズのサブウィンドウを規定し、右目カメラと左目カメラでパターンが一致するサブウィンドウを、パターンマッチングを用いて抽出する。 In the three-dimensional data calculation unit 134, stereo matching calculation is performed in step S11, and the amount of parallax between the right-eye camera and the left-eye camera is converted into the distance from the camera and calculated. Specifically, in a random pattern as shown in FIG. 2, a sub-window of an appropriate size is defined, and sub-windows whose patterns match between the right-eye camera and the left-eye camera are extracted using pattern matching.

パターンが一致したサブウィンドウ同士の位置の差が視差となり、視差が大きければ手前、小さければ奥に位置することとなり、結果として基準カメラのデプスマップとしての3次元データを取得できる。本計算手法は、3次元データ計算手法として公知であるため、詳細な説明は省略する。 The difference between the positions of the sub-windows with matching patterns is the parallax. If the parallax is large, it is located in front, and if the parallax is small, it is located in the back. As a result, three-dimensional data can be acquired as a depth map of the reference camera. Since this calculation method is known as a three-dimensional data calculation method, detailed description thereof will be omitted.

ここで、サブウィンドウのウィンドウサイズが大きければ、処理速度に時間がかかるがパターンにノイズが加わったとしてもパターンマッチングの精度が上がるため、データの飛びなどが抑えられる。一方、ウィンドウサイズが小さければ、処理速度は高速化されるがノイズに弱くなるためデータの飛びなどが発生する。ウィンドウサイズ分の分解能を犠牲とするため、ローパスフィルタを通した3次元データとなる。 Here, if the window size of the sub-window is large, the processing speed takes a long time, but even if noise is added to the pattern, the accuracy of pattern matching increases, so data jumps can be suppressed. On the other hand, if the window size is small, the processing speed is increased, but the processing becomes vulnerable to noise, resulting in data jumps and the like. Since the resolution for the window size is sacrificed, the three-dimensional data is passed through a low-pass filter.

取得された3次元データはステップS12で3次元データ出力部135に転送され、ステップS13で3次元データとして外部のPC等に対して出力される。このように、ステップS7~S13は、近赤外光照明部を用いて前記計測対象物を照明した状態で前記撮像素子から得られた第2の撮像信号から3次元データを算出する3次元データ計算部として機能している。
尚、カラー画像出力部133を介して得られるカラー画像と、3次元データ出力部135を介して得られる3次元データは、使用される状況に合わせて、不図示のディスプレイに表示したり、不図示の外部PC等において物体認識処理等に利用する。
The acquired three-dimensional data is transferred to the three-dimensional data output unit 135 in step S12, and output as three-dimensional data to an external PC or the like in step S13. In this way, steps S7 to S13 are three-dimensional data for calculating three-dimensional data from the second imaging signal obtained from the imaging device while the measurement object is illuminated using the near-infrared light illumination unit. It functions as a calculator.
The color image obtained through the color image output unit 133 and the three-dimensional data obtained through the three-dimensional data output unit 135 may be displayed on a display (not shown) or It is used for object recognition processing and the like in an external PC or the like shown in the figure.

このように、本実施例においては、近赤外パターン光を用いて取得された3次元データは、カラー画像用のRGBセンサで取得されたものであるから、3次元データとカラー画像とは光軸が一致している。もし通常のカラー画像と近赤外パターン光を用いて取得された3次元データ用の画像が夫々異なるセンサで取得された場合には、後処理によって位置姿勢変換などをしなければならず、データの取り扱いが非常に複雑化する。特に、デプスマップではデータ欠損領域が発生することが、3次元計測を実施するうえで避けられないのが一般的であるが、その場合にカラー画像と3次元計測用の画像が同じ光軸で取得されるとデータの取り扱いが簡易になる。 As described above, in this embodiment, the three-dimensional data obtained using the near-infrared pattern light is obtained by the RGB sensor for color images. Axes are aligned. If an ordinary color image and an image for three-dimensional data obtained using near-infrared pattern light are obtained by different sensors, then post-processing such as position and orientation conversion must be performed, and the data handling becomes very complicated. In particular, it is generally unavoidable for 3D measurement that data missing areas occur in the depth map. Once acquired, handling of the data is simplified.

尚、カラー画像用のセンサと3次元計測用のセンサが異なる場合であってもセンサ同士を近づけることによって影響を少なくすることも可能ではある。しかし、例えば工業用途の3次元計測においては高精度が必須であるため、各センサのレンズを大きくしなければならず、センサ同士を離間配置しなければならない。その点、本実施形態によれば、上記のような問題を根本的に解決することができる。加えて一般的かつ大量生産されているRGBセンサを用いることができるため安価な構成で装置を構成することができる。 Even if the color image sensor and the three-dimensional measurement sensor are different, the influence can be reduced by bringing the sensors close to each other. However, for example, in three-dimensional measurement for industrial use, high accuracy is essential, so the lens of each sensor must be enlarged and the sensors must be spaced apart. In that respect, according to this embodiment, the above problems can be fundamentally solved. In addition, since a general and mass-produced RGB sensor can be used, the device can be constructed at a low cost.

実施例2は、実施例1の変形例で、近赤外パターン照明部112の撮像条件が1つではなくて時間的に変化する複数の撮像条件を用いる点に特徴がある。
図6は、実施例2における、時間的に変化する近赤外光パターンの例を示した図である。本実施例においては、4種類の所定のパターンの近赤外光を順次投影しながら、4回の撮像(第2の撮像~第5の撮像)を行う。尚、近赤外パターンは4種類に限定されず、撮像回数も4回に限定されない。尚、撮像条件数が多ければ多いほど、3次元データの分解能が向上するが、撮像を含めた処理時間が長くかかる。
The second embodiment is a modification of the first embodiment, and is characterized in that the near-infrared pattern illumination unit 112 uses not one imaging condition but a plurality of imaging conditions that change with time.
FIG. 6 is a diagram showing an example of a near-infrared light pattern that changes with time in Example 2. FIG. In this embodiment, while sequentially projecting four types of predetermined patterns of near-infrared light, imaging is performed four times (second imaging to fifth imaging). The number of near-infrared patterns is not limited to four, and the number of times of imaging is not limited to four. As the number of imaging conditions increases, the resolution of three-dimensional data improves, but the processing time including imaging increases.

実施例2では、カラー画像を取得するための第1の撮像も含めると、合計の撮像回数は5回となる。第1の撮像条件は、白色均一照明部111を計測対象物101に対して照明しながら撮像する。これは実施例1と同等である。第2~第5の撮像条件は、白色均一照明部111と近赤外パターン照明部112を照明しながら撮像する。ここで、第2~第5の撮像において、白色均一照明部111の強度は同じとし、近赤外パターン照明部112により、図6の時刻t0、t1、t2、t3で示される4種類のパターンを順次切り替える。 In Example 2, the total number of times of imaging is five, including the first imaging for obtaining a color image. Under the first imaging condition, imaging is performed while illuminating the measurement object 101 with the uniform white illumination unit 111 . This is equivalent to Example 1. Under the second to fifth imaging conditions, imaging is performed while the uniform white illumination unit 111 and the near-infrared pattern illumination unit 112 are illuminated. Here, in the second to fifth imaging, the intensity of the white uniform illumination unit 111 is the same, and the near-infrared pattern illumination unit 112 emits four patterns indicated by times t0, t1, t2, and t3 in FIG. switch sequentially.

以下、各撮像条件のデータを用いた各種計算のフローについて図7を用いて説明する。
図7は実施例2の動作を説明するためのフローチャートであり、計算処理部内のCPUがメモリに記憶されたコンピュータプログラムを実行することによって図7の各ステップの処理が行われる。尚、図7において、図5と同じ名前のステップは図5と同じ処理なので説明を省略又は簡略化する。
A flow of various calculations using data of each imaging condition will be described below with reference to FIG.
FIG. 7 is a flow chart for explaining the operation of the second embodiment, and the processing of each step in FIG. 7 is performed by executing the computer program stored in the memory by the CPU in the calculation processing unit. In FIG. 7, the steps having the same names as those in FIG. 5 are the same processes as in FIG.

図7のステップS1で、環境光と白色均一照明部111により計測対象物101を照明しながら第1の撮像をする。ステップS2、S6を経て、ステップS14では、第Nの撮像(最初はN=2とする)を行う。このとき図6のt0の近赤外パターンで照明を行う。ステップS14において第2の撮像で得られたデータは、ステップS15で画像生成部131に送られ、図6のt0の近赤外パターンに対応した画像データから、データ保存部132に保存されている第1の撮像で得られたデータが減算される。 In step S1 in FIG. 7, the first imaging is performed while illuminating the measurement object 101 with the ambient light and the white uniform illumination unit 111 . After steps S2 and S6, in step S14, the N-th imaging (initial N=2) is performed. At this time, illumination is performed with the near-infrared pattern of t0 in FIG. The data obtained by the second imaging in step S14 is sent to the image generation unit 131 in step S15, and the image data corresponding to the near-infrared pattern at t0 in FIG. The data obtained in the first imaging are subtracted.

その後でステップS17でN=5か判断し、Noの場合にはS18でNに1加算してステップS14に戻り、次は第3の撮像を図6のt1の近赤外パターンを照明しつつ行う。これらの動作をステップS17でYesとなるまで繰り返す。それにより、最終的に第2~第5の撮像により撮像されたt0~t3のパターン(近赤外パターンN=2~5)の画像データ夫々から、データ保存部132に保存されている第1の撮像条件で得られたデータが減算され、4種類の減算データが得られて保存される。尚、ここで、本説明では簡単のためS14の撮像、S15の転送、S16の減算を一連の処理として繰り返したが、各々の処理を4回ずつ繰り返してもよい。以降の実施例においても同様である。 Then, in step S17, it is determined whether N=5, and if No, 1 is added to N in S18, and the process returns to step S14. conduct. These operations are repeated until Yes in step S17. As a result, the image data of the patterns t0 to t3 (near-infrared patterns N=2 to 5) captured by the second to fifth imaging are finally obtained from the first image data stored in the data storage unit 132. are subtracted from the data obtained under the imaging conditions of , and four types of subtraction data are obtained and stored. In this description, for the sake of simplicity, the imaging in S14, the transfer in S15, and the subtraction in S16 are repeated as a series of processes, but each process may be repeated four times. The same applies to the following examples.

ステップS17でYesとなったらステップS19に進み、ステップS9で保存されている4種類の減算データを3次元データ計算部134へ転送する。そして、これらの4種類の減算データに基づきステップS20でステレオマッチングが行われ、ステップS21で3次元データ出力部135に転送され、ステップS22で3次元データとして外部に出力される。 If Yes in step S17, the process proceeds to step S19, and the four types of subtraction data stored in step S9 are transferred to the three-dimensional data calculation unit 134. FIG. Based on these four types of subtraction data, stereo matching is performed in step S20, transferred to the three-dimensional data output unit 135 in step S21, and output to the outside as three-dimensional data in step S22.

ここで、ステップS20におけるステレオマッチングの方法は実施例1とは異なる。即ち、実施例1のステップS11では、左目カメラの画像1枚と、右目カメラの画像1枚との視差を、パターンマッチングを実施することで算出した。しかし、ステップS20では左目カメラの画像4枚と、右目カメラの画像4枚があるため、同位置の画素の強度情報を時間軸方向に並べたデータでマッチングを実施する。 Here, the method of stereo matching in step S20 is different from that of the first embodiment. That is, in step S11 of Example 1, the parallax between one image of the left-eye camera and one image of the right-eye camera was calculated by performing pattern matching. However, in step S20, since there are four left-eye camera images and four right-eye camera images, matching is performed using data in which intensity information of pixels at the same positions are arranged in the time axis direction.

図8(A)は、実施例1で示した単一画像同士でサブウィンドウを用いたパターンマッチングの概念図であり、図8(B)は、実施例2で示す複数画像同士で時間軸方向の強度情報を用いたパターンマッチングの概念図である。図8(A)に示す、実施例1に示した手法では、左目カメラと右目カメラのデータの中のサブウィンドウ内のパターンが同一となる部位をパターンマッチングで抽出する。 FIG. 8A is a conceptual diagram of pattern matching using sub-windows between single images shown in the first embodiment, and FIG. FIG. 4 is a conceptual diagram of pattern matching using intensity information; In the method shown in FIG. 8(A) and shown in the first embodiment, a portion having the same pattern in the subwindow in the data of the left-eye camera and the right-eye camera is extracted by pattern matching.

一方、図8(B)に示す、実施例2の手法では、4枚の画像を時間軸方向に並べ、時間軸方向に串刺しにした画素単位のデータが、右目カメラと左目カメラで同一となる部位をパターンマッチングで抽出する。実施例1ではサブウィンドウを使用しているためローパスフィルタを通した3次元データであったが、本実施例ではサブウィンドウを使用しないため分解能を高めることができる。 On the other hand, in the method of the second embodiment shown in FIG. 8B, the four images are arranged in the direction of the time axis, and the pixel-by-pixel data obtained by skewering the images in the direction of the time axis becomes the same for the right-eye camera and the left-eye camera. Parts are extracted by pattern matching. Since the sub-window is used in the first embodiment, the three-dimensional data is passed through a low-pass filter. However, since the sub-window is not used in the present embodiment, the resolution can be improved.

実施例3は、実施例1及び2の変形で、近赤外パターン照明部112で照明する際は白色均一照明部111をオフしてRGBセンサ122が飽和しないようにしたものである。その代わりに、白色均一照明部111も近赤外パターン照明部112もオフして環境光102のみで撮像する第3の撮像を行う。 Embodiment 3 is a modification of Embodiments 1 and 2, in which the uniform white illumination unit 111 is turned off when illumination is performed by the near-infrared pattern illumination unit 112 so that the RGB sensor 122 is not saturated. Instead, the white uniform illumination unit 111 and the near-infrared pattern illumination unit 112 are both turned off, and a third image capturing is performed using only the ambient light 102 .

又、説明の簡単化のため、ここでは近赤外パターン照明部112を用いた撮像は1回として説明する。しかし、実施例2で説明したように近赤外パターン照明部112を用いた撮像を複数回行い、時間的なデータを用いたマッチングをしてより高分解能な3次元データを取得しても良い。
又、実施形態1の実施例3以降の実施例においても、同様に、近赤外パターンを切り替えつつ時間的にずれた複数回の撮像を行っても良いが、説明は省略する。
Also, for the sake of simplification of explanation, here, it is assumed that imaging using the near-infrared pattern illumination unit 112 is performed once. However, as described in Embodiment 2, imaging using the near-infrared pattern illumination unit 112 may be performed a plurality of times, and matching using temporal data may be performed to acquire three-dimensional data with higher resolution. .
Similarly, in the examples after the example 3 of the first embodiment, while switching the near-infrared pattern, the imaging may be performed a plurality of times with a time lag, but the explanation is omitted.

図9は実施例3の動作を説明するためのフローチャートであり、計算処理部内のCPUがメモリに記憶されたコンピュータプログラムを実行することによって図9の各ステップの処理が行われる。尚、図9において、図5と同じ名前のステップは図5と同じ処理なので説明を省略又は簡略化する。 FIG. 9 is a flowchart for explaining the operation of the third embodiment, and each step of FIG. 9 is processed by executing a computer program stored in the memory by the CPU in the calculation processing unit. In FIG. 9, the steps with the same names as those in FIG. 5 are the same processes as in FIG.

図9のステップS1で、環境光及び白色均一照明部111で計測対象物101を照明しつつ第1の撮像をする。ステップS2を経て、ステップS23では、第2の撮像条件(近赤外パターン+環境光)で撮像が行われ、第2の撮像で得られたデータは、ステップS24において画像生成部131に転送され、ステップS25でデータ保存部132に保存される。 In step S<b>1 in FIG. 9 , the first imaging is performed while the measurement object 101 is illuminated by the ambient light and white uniform illumination unit 111 . After step S2, in step S23, imaging is performed under the second imaging conditions (near-infrared pattern + ambient light), and the data obtained in the second imaging is transferred to the image generation unit 131 in step S24. , is stored in the data storage unit 132 in step S25.

次にステップS26で、白色均一照明部111も近赤外パターン照明部112もオフして環境光102のみで照明しつつ第3の撮像を行う。第3の撮像で得られた画像データは、ステップS27で画像生成部131に送られ、ステップS28において、データ保存部132に保存されている第2の撮像で得られたデータから減算される。 Next, in step S26, the white uniform illumination unit 111 and the near-infrared pattern illumination unit 112 are both turned off, and illumination is performed only with the ambient light 102, and the third imaging is performed. The image data obtained by the third imaging is sent to the image generation unit 131 in step S27, and is subtracted from the data obtained by the second imaging stored in the data storage unit 132 in step S28.

その後でステップS10で3次元データ計算部134へ転送され、ステップS28で得られた減算データに基づきステップS11でステレオマッチングが行われ、ステップS12で3次元データ出力部135に転送され、ステップS13で3次元データとして外部に出力される。 Thereafter, it is transferred to the three-dimensional data calculation unit 134 in step S10, stereo matching is performed in step S11 based on the subtraction data obtained in step S28, transferred to the three-dimensional data output unit 135 in step S12, and transferred to the three-dimensional data output unit 135 in step S13. It is output to the outside as three-dimensional data.

このように、第1の撮像で取得されたデータは白色均一照明+環境光下で撮像されたデータ、第2の撮像で取得されたデータは近赤外パターン照明+環境光下で撮像されたデータ、第3の撮像で取得されたデータは環境光下で撮像されたデータである。又、第1の撮像で取得されたデータは、カラー画像用に用いられ、第2の撮像で取得されたデータから第3の撮像で取得されたデータを差し引くことで、近赤外パターン照明のみのデータを計算し、これより3次元データを計算する。 In this way, the data acquired in the first imaging is data captured under uniform white illumination + ambient light, and the data acquired in the second imaging is data captured under near-infrared pattern illumination + ambient light. The data and the data acquired in the third imaging are data captured under ambient light. In addition, the data acquired by the first imaging is used for color images, and by subtracting the data acquired by the third imaging from the data acquired by the second imaging, only the near-infrared pattern illumination is obtained. is calculated, and three-dimensional data is calculated from this.

実施例3の特徴は、前述のように、白色均一照明部111と近赤外パターン照明部112を同時に照明させないようにしてRGBセンサ122の飽和を防ぐようにした点にある。即ち、実施例1又は2の場合、白色均一照明部111と近赤外パターン照明部112を同時に照明した場合に、RGBセンサ122の画素の一部又は全部が飽和してしまう可能性がある。 As described above, the third embodiment is characterized in that the white uniform illumination unit 111 and the near-infrared pattern illumination unit 112 are not illuminated at the same time to prevent saturation of the RGB sensor 122 . That is, in the case of Example 1 or 2, when the white uniform illumination unit 111 and the near-infrared pattern illumination unit 112 are illuminated simultaneously, there is a possibility that some or all of the pixels of the RGB sensor 122 are saturated.

その場合には、右目カメラと左目カメラのマッチングはできなくなる。それに対して、実施例3では、白色均一照明部111と近赤外パターン照明部112の照明点灯タイミングをずらし、環境光102のみを用いた撮像は別途行うことで飽和の可能性を下げている。 In that case, matching between the right-eye camera and the left-eye camera becomes impossible. On the other hand, in Example 3, the lighting timings of the uniform white illumination unit 111 and the near-infrared pattern illumination unit 112 are shifted, and the imaging using only the ambient light 102 is separately performed to reduce the possibility of saturation. .

実施例4は実施例3の変形である。環境光が十分な明るさであることを検出した場合に、白色均一照明部111を用いずに処理を行うものである。カラー画像は環境光102のみの状態で取得したデータを用いる。白色均一照明が不要となるため、節電でき、或いは装置をより小型化できる。
図10は実施例4の動作を説明するためのフローチャートであり、計算処理部内のCPUがメモリに記憶されたコンピュータプログラムを実行することによって図10の各ステップの処理が行われる。尚、図10において、図5と同じ名前のステップは図5と同じ処理なので説明を省略又は簡略化する。
Example 4 is a modification of Example 3. When it is detected that the ambient light is sufficiently bright, processing is performed without using the uniform white illumination unit 111 . For the color image, data obtained under only ambient light 102 is used. Since white uniform illumination is not required, power can be saved or the device can be made smaller.
FIG. 10 is a flow chart for explaining the operation of the fourth embodiment, and the processing of each step in FIG. 10 is performed by executing the computer program stored in the memory by the CPU in the calculation processing unit. In FIG. 10, the steps having the same names as those in FIG. 5 are the same processing as in FIG.

図10において、ステップS29で、白色均一照明部111も近赤外パターン照明部112もオフして環境光102のみで第1の撮像をする。得られた画像データはステップS2を介してステップS6においてデータ保存部132で保存される。ステップS30で、環境光及び近赤外パターン照明部112による照明をしつつ第2の撮像をする。その後の処理は図5と同じである。 In FIG. 10, in step S29, both the white uniform illumination unit 111 and the near-infrared pattern illumination unit 112 are turned off, and the first imaging is performed using only the ambient light 102. FIG. The obtained image data is stored in the data storage unit 132 in step S6 via step S2. In step S<b>30 , the second imaging is performed while the ambient light and illumination by the near-infrared pattern illumination unit 112 are applied. Subsequent processing is the same as in FIG.

実施例4によれば、第1の撮像で取得されたデータは環境光下での画像データ、第2の撮像で取得されたデータは近赤外パターン照明+環境光下での画像データである。第2の撮像で取得されたデータから第1の撮像で取得されたデータを減算することで、近赤外パターン照明のみのデータを計算し、これより3次元データを計算する。その他の計算工程は、実施例1と同じである。 According to Example 4, the data acquired in the first imaging is image data under ambient light, and the data acquired in the second imaging is image data under near-infrared pattern illumination + ambient light. . By subtracting the data acquired in the first imaging from the data acquired in the second imaging, the data of only the near-infrared pattern illumination is calculated, and the three-dimensional data is calculated from this. Other calculation steps are the same as in the first embodiment.

実施例5は実施例3の変形例であり、環境光102が無い、又はほとんど無い状況での例である。この場合、環境光102が存在しないため、環境光102を差し引く計算が不要となる。
図11は実施例5の動作を説明するためのフローチャートであり、計算処理部内のCPUがメモリに記憶されたコンピュータプログラムを実行することによって図11の各ステップの処理が行われる。尚、図11において、図5と同じ名前のステップは図5と同じ処理なので説明を省略又は簡略化する。
Example 5 is a modification of Example 3, and is an example in a situation where there is no ambient light 102 or almost no ambient light. In this case, since the ambient light 102 does not exist, the calculation for subtracting the ambient light 102 is unnecessary.
FIG. 11 is a flowchart for explaining the operation of the fifth embodiment, and each step of FIG. 11 is processed by executing a computer program stored in the memory by the CPU in the calculation processing unit. In FIG. 11, the steps having the same names as those in FIG. 5 are the same processing as in FIG.

図11のステップS31で白色均一照明部111のみで計測対象物101を照明しながら第1の撮像をする。又、ステップS32では近赤外パターン照明部112のみで照明しながら第2の撮像をする。
第1の撮像で取得されたデータは白色均一照明のみで照明された画像データ、第2の撮像で取得されたデータは近赤外パターン照明のみで照明された画像データとなる。
In step S31 of FIG. 11, the first imaging is performed while illuminating the measurement object 101 only with the uniform white illumination unit 111. FIG. Further, in step S32, the second imaging is performed while only the near-infrared pattern illumination unit 112 is used for illumination.
The data acquired by the first imaging is image data illuminated only by uniform white illumination, and the data acquired by the second imaging is image data illuminated only by near-infrared pattern illumination.

第1の撮像で取得されたデータは、実施例1と同様、カラー画像用として用いられる。一方、第2の撮像条件で取得されたデータは近赤外パターン照明のみの画像データとなっているので図5のS9における減算処理が不要となる。従ってそのままステップS8、S10を経て、ステップS11~S13で3次元データを計算し出力する。
<第2実施形態>
The data obtained by the first imaging is used for color images as in the first embodiment. On the other hand, since the data acquired under the second imaging condition is image data obtained only by near-infrared pattern illumination, the subtraction processing in S9 of FIG. 5 is unnecessary. Therefore, through steps S8 and S10, three-dimensional data is calculated and output in steps S11 to S13.
<Second embodiment>

図12に、第2実施形態の3次元計測システムを示す。
第2実施形態では、撮像部を1つにしている。その代わり、第1実施形態においては、近赤外パターン照明は未知のランダムパターンを用いていたが、単眼カメラでは既知のパターンである必要がある。3次元データの計算以外の処理は、第1実施形態と同様の処理となる。即ち、図12中の、700~735は図1の100~135と同じものであるので説明は省略する。単眼カメラにすることで、装置を小型化できる。主に撮像条件が異なる実施例を2つ以下で詳細に説明する。
FIG. 12 shows the three-dimensional measurement system of the second embodiment.
In the second embodiment, only one imaging unit is provided. Instead, in the first embodiment, an unknown random pattern was used for the near-infrared pattern illumination, but a monocular camera needs to use a known pattern. Processing other than calculation of three-dimensional data is the same as that of the first embodiment. That is, 700 to 735 in FIG. 12 are the same as 100 to 135 in FIG. 1, so the description is omitted. By using a monocular camera, the size of the device can be reduced. Two or less examples with mainly different imaging conditions will be described in detail.

実施例6は、実施例1の複眼カメラを単眼カメラにし、近赤外パターン照明を既知のランダムパターンとしたものである。
具体的には、第1の撮像では、白色均一照明部711を計測対象物701に対して照明しながら撮像する。第2の撮像では、白色均一照明部711と近赤外パターン照明部712を照明しながら撮像する。ここで近赤外パターン照明部712の照明パターンは実施例1と異なり、既知のランダムパターンとする。
In Example 6, the compound eye camera of Example 1 is replaced by a monocular camera, and the near-infrared pattern illumination is a known random pattern.
Specifically, in the first imaging, the measurement object 701 is imaged while the white uniform illumination unit 711 is illuminating the measurement object 701 . In the second imaging, imaging is performed while illuminating the white uniform illumination unit 711 and the near-infrared pattern illumination unit 712 . Here, the illumination pattern of the near-infrared pattern illumination unit 712 is a known random pattern, unlike the first embodiment.

ここで既知のランダムパターンについて説明する。ランダムパターンが既知であると、ランダムパターンの部分領域が画像上のどこにあるのか単眼カメラでもパターンマッチングで把握することができる。図13は、既知のランダムパターンによる測距原理の概念図である。図13(A)に示すように、もし計測対象物がなく、計測範囲の背面に床面がある場合、既知のランダムパターンがRGBセンサにどのように撮像されるかはあらかじめ知ることができる。一方図13の右側に示すように、計測対象物があり既知のランダムパターンの画像が変化した場合、その変化量から床面からの距離を計測することができる。 A known random pattern will now be described. If the random pattern is known, even a monocular camera can grasp where the partial area of the random pattern is on the image by pattern matching. FIG. 13 is a conceptual diagram of the principle of distance measurement using a known random pattern. As shown in FIG. 13A, if there is no measurement target and there is a floor behind the measurement range, it is possible to know in advance how a known random pattern will be imaged by the RGB sensor. On the other hand, as shown on the right side of FIG. 13, when there is an object to be measured and the known random pattern image changes, the distance from the floor surface can be measured from the amount of change.

図14は実施例6の動作を説明するためのフローチャートであり、計算処理部内のCPUがメモリに記憶されたコンピュータプログラムを実行することによって図14の各ステップの処理が行われる。尚、図14において、図5と同じ名前のステップは図5と同じ処理であり、図14中の731~735は図1の131~135と同じものなので説明を省略又は簡略化する。 FIG. 14 is a flow chart for explaining the operation of the sixth embodiment, and the processing of each step in FIG. 14 is performed by executing the computer program stored in the memory by the CPU in the calculation processing unit. In FIG. 14, the steps with the same names as those in FIG. 5 are the same processes as in FIG. 5, and 731 to 735 in FIG. 14 are the same as 131 to 135 in FIG. 1, so the description will be omitted or simplified.

図14のステップS33では白色均一照明と環境光による照明の下で、既知のランダムパターンによる近赤外パターン照明をしつつ第2の撮像をする。その後ステップS8~S10を経て、ステップS34において、3次元データ計算部134で、既知のランダムパターンによる3次元データ算出を行う。その後、ステップS12~S13を経て3次元データを外部に出力する。 In step S33 of FIG. 14, the second imaging is performed under uniform white illumination and ambient light illumination, while performing near-infrared pattern illumination with a known random pattern. After that, through steps S8 to S10, in step S34, the three-dimensional data calculation unit 134 calculates three-dimensional data using a known random pattern. After that, the three-dimensional data is output to the outside through steps S12 and S13.

実施例7は、実施例2の複眼カメラを単眼カメラにし、近赤外パターン照明のパターンをランダムパターンの代わりに、既知の複数のラインパターンとしたものである。一般的に、本手法は空間符号化法と呼ばれている。
図15は、空間符号化法における複数のラインパターンの例を示す図である。空間符号化法を実施することで、高精度な3次元計測を実施することができることが知られている。これは一般的によく知られており公知であるため、これ以上説明は省略する。
In Example 7, the compound eye camera of Example 2 is replaced by a monocular camera, and the pattern of near-infrared pattern illumination is a known plurality of line patterns instead of the random pattern. This method is generally called a spatial encoding method.
FIG. 15 is a diagram showing an example of multiple line patterns in the spatial encoding method. It is known that high-precision three-dimensional measurement can be performed by implementing a spatial encoding method. Since this is generally well known and publicly known, further explanation is omitted.

図16は実施例7の動作を説明するためのフローチャートであり、計算処理部内のCPUがメモリに記憶されたコンピュータプログラムを実行することによって図16の各ステップの処理が行われる。尚、図16において、図7と同じ名前のステップは図7と同じ処理であり、図16中の731~735は図1の131~135と同じものなので説明を省略又は簡略化する。 FIG. 16 is a flow chart for explaining the operation of the seventh embodiment, and the processing of each step in FIG. 16 is performed by executing the computer program stored in the memory by the CPU in the calculation processing unit. In FIG. 16, the steps with the same names as those in FIG. 7 are the same processes as in FIG. 7, and 731 to 735 in FIG. 16 are the same as 131 to 135 in FIG. 1, so the description will be omitted or simplified.

具体的な撮像動作は、実施例2と同じであり、ステップS1で、環境光と白色均一照明部711で計測対象物701を照明しつつ第1の撮像をする。その後、ステップS2、S6を経て、ステップS35、S15~S18により、環境光と白色均一照明部711と近赤外パターン照明部712で計測対象物を照明しながら第2~第5の撮像を行う。その際、近赤外パターン照明部712の照明パターンは図15の時刻t0から、t1、t2、t3で示される既知の4種類のラインパターン(ラインパターンN=2~5)を順次切り替えて使用する。
その後ステップS19を経て、ステップS36において、3次元データ計算部134で、既知のラインパターンを用いた空間符号化法で3次元データ算出を行う。その後、ステップS21~S22を経て3次元データを外部に出力する。
A specific imaging operation is the same as that of the second embodiment, and in step S1, the first imaging is performed while illuminating the measurement object 701 with ambient light and the uniform white illumination unit 711 . After that, through steps S2 and S6, in steps S35 and S15 to S18, the second to fifth imaging is performed while illuminating the measurement object with the ambient light, the uniform white illumination unit 711, and the near-infrared pattern illumination unit 712. . At that time, the illumination pattern of the near-infrared pattern illumination unit 712 is used by sequentially switching between four known line patterns (line patterns N=2 to 5) indicated by t1, t2, and t3 from time t0 in FIG. do.
After that, through step S19, in step S36, the three-dimensional data calculation unit 134 calculates three-dimensional data by a spatial encoding method using a known line pattern. After that, the three-dimensional data is output to the outside through steps S21 and S22.

以上のように、実施例7によれば、単眼カメラにすることができるため、装置をより小型化でき、しかも高精度な3次元計測が可能となる。
尚、実施例6、7で説明した既知のランダムパターン及び既知の複数のラインパターンを用いる手法は、実施形態1のような複眼カメラを用いた3次元計測システムにも適用できるが、ここでは説明を省略する。
<第3実施形態>
As described above, according to the seventh embodiment, since a monocular camera can be used, the device can be made more compact, and high-precision three-dimensional measurement can be performed.
The method using known random patterns and a plurality of known line patterns described in Examples 6 and 7 can also be applied to a three-dimensional measurement system using a compound eye camera as in Embodiment 1. omitted.
<Third Embodiment>

次に、図17は、第3実施形態の3次元計測システムの構成例を示すブロック図である。第3実施形態は、第1実施形態の近赤外パターン照明部112を近赤外均一照明部1013に変更したものである。即ち、本実施例では、近赤外光照明部は計測対象物を均一な近赤外光で照明するための近赤外均一照明部を有する。尚、図17中の、1000~1035は図1の100~135と同じものであるので説明は省略する。 Next, FIG. 17 is a block diagram showing a configuration example of a three-dimensional measurement system according to the third embodiment. 3rd Embodiment changes the near-infrared pattern illumination part 112 of 1st Embodiment into the near-infrared uniform illumination part 1013. FIG. That is, in this embodiment, the near-infrared illumination unit has a near-infrared uniform illumination unit for illuminating the measurement object with uniform near-infrared light. Note that 1000 to 1035 in FIG. 17 are the same as 100 to 135 in FIG. 1, so the description is omitted.

本実施形態においては、近赤外均一照明を用いてステレオマッチングを実施するが、まず近赤外パターン照明を用いたステレオマッチングと、近赤外均一照明を用いた場合のステレオマッチングとの差について説明する。近赤外パターン照明を用いた場合は、パターンの一部を目印に右目カメラと左目カメラのマッチングをするため、計測対象物の平坦面など対象物側に特徴がないところも能動的にパターン照明によって情報を付与することで、高精度に計測可能となる。一方で、計測対象物がプラスチック製であったりすると、対象物内部への光のしみこみによりパターンがにじむ場合がある。 In this embodiment, stereo matching is performed using near-infrared uniform illumination. First, the difference between stereo matching using near-infrared pattern illumination and stereo matching when using near-infrared uniform illumination explain. When using near-infrared pattern illumination, since the right-eye camera and left-eye camera are matched using a part of the pattern as a mark, the pattern illumination can be performed actively even where there are no features on the object side, such as the flat surface of the measurement object. By giving information by, it is possible to measure with high accuracy. On the other hand, if the object to be measured is made of plastic, the pattern may blur due to the penetration of light into the inside of the object.

その場合、均一照明によって平均的に対象物を照射し(すなわち光がにじむとしても全体としてにじむため影響がない)、部位の形状や構造を目印にステレオマッチングを実施することで、計測対象物のエッジなどがより明瞭に計測可能となる。ただし近赤外均一照明を用いる場合、目印は計測対象物の形状や構造などとなるため、計測対象物の平坦面などの計測は困難になる。
従って、本実施形態は、パターン照明だと光がにじんでしまうような計測対象物に対して特に有効であり、高精度な3次元計測が可能となる。
In that case, the object is illuminated evenly with uniform illumination (i.e., even if the light is blurred, there is no effect because it is blurred as a whole), and stereo matching is performed using the shape and structure of the part as a mark to determine the object to be measured. Edges and the like can be measured more clearly. However, when near-infrared uniform illumination is used, the mark becomes the shape, structure, etc. of the object to be measured, making it difficult to measure the flat surface of the object to be measured.
Therefore, the present embodiment is particularly effective for a measurement object for which light is blurred under pattern illumination, and enables highly accurate three-dimensional measurement.

実施例8は、実施例1の変形で近赤外パターン照明を近赤外均一照明に変更したものである。
図18は実施例8の動作を説明するためのフローチャートであり、計算処理部内のCPUがメモリに記憶されたコンピュータプログラムを実行することによって図18の各ステップの処理が行われる。尚、図18において、図5と同じ名前のステップは図5と同じ処理であり、図18中の1031~1035は図1の131~135と同じものなので説明を省略又は簡略化する。
Example 8 is a modification of Example 1 in which near-infrared pattern illumination is changed to near-infrared uniform illumination.
FIG. 18 is a flowchart for explaining the operation of the eighth embodiment, and each step of FIG. 18 is processed by the CPU in the calculation processing unit executing the computer program stored in the memory. In FIG. 18, the steps having the same names as those in FIG. 5 are the same processes as in FIG. 5, and 1031 to 1035 in FIG. 18 are the same as 131 to 135 in FIG. 1, so the description will be omitted or simplified.

ステップS1で、環境光と白色均一照明部1011とで計測対象物1001を照明しながら第1の撮像をする。ステップS2、S6を介して、ステップS37で環境光と白色均一照明部1011と近赤外均一照明部1013により計測対象物1001を照明しながら第2の撮像を行う。他の処理は実施例1と同じであり説明は省略する。 In step S<b>1 , the first imaging is performed while illuminating the measurement object 1001 with ambient light and the white uniform illumination unit 1011 . Through steps S2 and S6, the second imaging is performed while illuminating the measurement object 1001 with ambient light, the white uniform illumination unit 1011, and the near-infrared uniform illumination unit 1013 in step S37. Other processes are the same as those in the first embodiment, and description thereof is omitted.

本実施例8によれば、パターン照明だと光がにじんでしまうような計測対象物に対して高精度な3次元計測が可能となる。
以上が実施形態3の説明となる。尚、実施形態3で説明した近赤外均一照明は、実施形態1の実施例3、4、5においても使用可能である。
<第4実施形態>
According to the eighth embodiment, it is possible to perform highly accurate three-dimensional measurement of a measurement object that would be blurred by pattern illumination.
The above is the description of the third embodiment. The near-infrared uniform illumination described in the third embodiment can also be used in Examples 3, 4, and 5 of the first embodiment.
<Fourth Embodiment>

図19に、第4実施形態の3次元計測システムを示す。尚、図19中の、1113は近赤外均一照明部であり、それ以外の1100~1135は図1の100~135と同じものであるので説明は省略する。
第4実施形態では、複眼カメラを用いて3次元データを取得すると共に、近赤外パターン照明と近赤外均一照明を用いた画像から算出することによって、より高精度な3次元データを取得することを可能としている。即ち、第1実施形態~第3実施形態では、近赤外光照明部は計測対象物を所定のパターンの近赤外光と均一な近赤外光の一方だけで照明していたが、本実施例では計測対象物を所定のパターンの近赤外光と均一な近赤外光の両方を用いて照明している。
FIG. 19 shows a three-dimensional measurement system according to the fourth embodiment. In FIG. 19, 1113 is a near-infrared uniform illumination unit, and 1100 to 1135 other than that are the same as 100 to 135 in FIG. 1, so description thereof is omitted.
In the fourth embodiment, three-dimensional data is acquired using a compound eye camera, and more accurate three-dimensional data is acquired by calculating from images using near-infrared pattern illumination and near-infrared uniform illumination. making it possible. That is, in the first to third embodiments, the near-infrared light illumination unit illuminates the measurement target with only one of the predetermined pattern of near-infrared light and uniform near-infrared light. In the embodiment, the object to be measured is illuminated using both near-infrared light of a predetermined pattern and uniform near-infrared light.

実施例9は、実施例1及び実施例8を組み合わせたもので、近赤外照明に関して、近赤外パターン照明と近赤外均一照明を夫々照射して撮像し、3次元データを計算する際に合成するものである。
図20は実施例9の動作を説明するためのフローチャートであり、計算処理部内のCPUがメモリに記憶されたコンピュータプログラムを実行することによって図20の各ステップの処理が行われる。尚、図20において、図1や図18と同じ名前のステップは図1や図18と同じ処理であり、図20中の1131~1135は図1の131~135と同じものなので説明を省略又は簡略化する。
Example 9 is a combination of Example 1 and Example 8. With regard to near-infrared illumination, near-infrared pattern illumination and near-infrared uniform illumination are respectively irradiated for imaging, and three-dimensional data is calculated. is synthesized to
FIG. 20 is a flow chart for explaining the operation of the ninth embodiment, and the processing of each step in FIG. 20 is performed by executing the computer program stored in the memory by the CPU in the calculation processing unit. 20, the steps with the same names as those in FIGS. 1 and 18 are the same processes as in FIGS. 1 and 18, and 1131 to 1135 in FIG. 20 are the same as 131 to 135 in FIG. Simplify.

ステップからステップS11において、図5と同様に赤外パターンを用いたステレオマッチングを行い、その結果を保存する。
次にステップS37で図18と同様に環境光と白色均一照明部1111と近赤外均一照明部1113により計測対象物1101を照明しながら第3の撮像を行う。
From step S11, stereo matching using infrared patterns is performed in the same manner as in FIG. 5, and the result is stored.
Next, in step S37, the third imaging is performed while illuminating the measurement object 1101 with ambient light, the white uniform illumination unit 1111, and the near-infrared uniform illumination unit 1113 in the same manner as in FIG.

その後で、ステップS38~ステップS41で図18のステップS8~S11と同様の処理をしてステレオマッチングを行い、その結果を保存する。即ち、この段階で、3次元データ計算部1134には、近赤外パターン照明によって計算された3次元データと、近赤外均一照明によって計算された3次元データの2種類が存在する。
次にステップS42で、ステップ11で得られた3次元データとステップS41で得られた3次元データの内の信頼性の高い方を選択して最終的な3次元データを作成する。そしてそれをステップS43で3次元データ出力部1135へ転送し、ステップS44で3次元データとして外部に出力する。
Thereafter, stereo matching is performed in steps S38 to S41 in the same manner as in steps S8 to S11 of FIG. 18, and the results are saved. That is, at this stage, the three-dimensional data calculation unit 1134 has two types of three-dimensional data: the three-dimensional data calculated by the near-infrared pattern illumination and the three-dimensional data calculated by the near-infrared uniform illumination.
Next, in step S42, the three-dimensional data obtained in step S11 and the three-dimensional data obtained in step S41 are selected, whichever is more reliable, and the final three-dimensional data is created. Then, it is transferred to the three-dimensional data output unit 1135 in step S43, and is output to the outside as three-dimensional data in step S44.

本実施例においては、デプスマップである3次元データのうち、一方の3次元データがノイズ等で欠落している場合に、他方で取得した3次元データで補完することができるので欠落を削減できる。又、両方の3次元データが存在する画素であっても、デプスマップ上の隣接画素との勾配情報等を使用して、より信頼度が高い3次元データを画素毎に選択することができる。 In the present embodiment, if one of the three-dimensional data, which is the depth map, is missing due to noise or the like, the other three-dimensional data can be complemented, so the missing can be reduced. . Moreover, even for a pixel in which both types of three-dimensional data exist, it is possible to select the three-dimensional data with higher reliability for each pixel by using gradient information and the like with adjacent pixels on the depth map.

例えば、計測対象物の平坦な部位(デプスマップ上の隣接画素との勾配が小さい画素)のデータは近赤外パターン照明によって計算されたデータを用いる。そして、計測対象物のエッジ部位(デプスマップ上の隣接画素との勾配が大きい画素)のデータは近赤外均一照明によって計算されたデータを用いる等の選択をする。それによって、計測対象物全体について信頼性の高い高精度な3次元計測データを取得することができる。
尚、実施例9は、実施例1と実施例8を合成したものとして説明したが、実施例9と同様に、実施形態1の実施例2、3、4、5に実施例8を合成した実施例を構成しても良い。
<第5実施形態>
For example, data calculated by near-infrared pattern illumination is used for data of a flat portion of the measurement object (pixels with a small gradient to adjacent pixels on the depth map). Then, for the data of the edge part of the object to be measured (the pixel having a large gradient with respect to the adjacent pixel on the depth map), a selection is made such as using the data calculated by the near-infrared uniform illumination. Thereby, highly reliable and highly accurate three-dimensional measurement data can be acquired for the entire measurement object.
In addition, although Example 9 was described as a synthesis of Examples 1 and 8, Example 8 was synthesized with Examples 2, 3, 4, and 5 of Embodiment 1 in the same manner as in Example 9. Embodiments may be constructed.
<Fifth Embodiment>

図21は第5実施形態の製造システムの構成例を示す図である。3次元計測装置1100はロボットアーム1300(把持装置)の先端に取り付けられて使用され、製造システムの一部として機能する。3次元計測装置1100の投影部1110は、支持台1350に置かれた計測対象物1101に近赤外パターンや近赤外均一光を投影して撮像部1120で撮像し画像を取得する。 FIG. 21 is a diagram showing a configuration example of a manufacturing system according to the fifth embodiment. The three-dimensional measuring device 1100 is attached to the tip of a robot arm 1300 (gripping device) and used, and functions as a part of the manufacturing system. The projection unit 1110 of the three-dimensional measurement apparatus 1100 projects a near-infrared pattern or near-infrared uniform light onto the measurement object 1101 placed on the support table 1350, and the imaging unit 1120 captures the image to obtain an image.

そして、3次元計測装置1100は例えば図20のフローチャートに示すような制御を行って計測対象物1101の3次元データを算出し、制御部1310に出力する。
制御部1310は、3次元計測装置1100から取得した計測対象物の3次元データに基づき計測対象物1101の位置や形状や姿勢を求める。そして、求められた位置、形状及び姿勢に基づきロボットアーム1300に駆動指令を送ってロボットアーム1300のアームや先端のロボットハンドを多軸で制御する。
Then, the three-dimensional measurement apparatus 1100 calculates three-dimensional data of the object to be measured 1101 by performing control such as that shown in the flowchart of FIG.
The control unit 1310 obtains the position, shape, and orientation of the measurement object 1101 based on the three-dimensional data of the measurement object obtained from the three-dimensional measurement device 1100 . Then, based on the obtained position, shape and posture, a drive command is sent to the robot arm 1300 to control the arm of the robot arm 1300 and the robot hand at the tip in multiple axes.

ロボットアーム1300は先端のロボットハンドなど(把持部)で計測対象物1101を保持(把持)して、並進や回転などの移動制御処理や姿勢制御処理を行う。更に、ロボットアーム1300によって計測対象物1101を他の部品に組み付ける組み付け処理をすることにより、複数の部品で構成された物品、例えば電子回路基板や機械などの物品を製造することができる。又、移動された計測対象物1101を加工処理することにより、物品を製造することができる。 The robot arm 1300 holds (grips) the measurement object 1101 with a robot hand or the like (gripping portion) at its tip, and performs movement control processing such as translation and rotation and posture control processing. Furthermore, by performing an assembling process of assembling the measurement object 1101 to other parts by the robot arm 1300, it is possible to manufacture an article composed of a plurality of parts, such as an electronic circuit board or a machine. Further, by processing the moved measurement object 1101, an article can be manufactured.

制御部1310は、コンピュータとしてのCPUなどの演算装置や計測対象物1101を制御するためのコンピュータプログラムを記憶したメモリなどの記憶装置を有する。尚、ロボットアーム1300を制御するための制御部1310は、図21の製造システムの外部に設けても良い。又、3次元計測装置1100により計測された計測データや得られた画像を表示部1320に表示してもよい。 The control unit 1310 has an arithmetic device such as a CPU as a computer and a storage device such as a memory storing a computer program for controlling the measurement object 1101 . Note that the controller 1310 for controlling the robot arm 1300 may be provided outside the manufacturing system of FIG. Also, the measurement data measured by the three-dimensional measurement device 1100 and the obtained image may be displayed on the display unit 1320 .

以上、本発明の好ましい実施形態について説明したが、本発明は、これらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。又、説明の中で、処理時間の高速化、分解能や計測精度の向上、装置構成のコスト、といったトレードオフについても説明してきた。これらを計測対象物ごとに適切に組み合わせることで、最も低コストで高効率な3次元計測が可能となる3次元計測システムを提供することが可能となる。
尚、本実施例における制御の一部又は全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して3次元計測システム等に供給するようにしてもよい。そしてその3次元計測システム等におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。
Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes are possible within the scope of the gist thereof. Also, in the explanation, trade-offs such as speeding up of processing time, improvement of resolution and measurement accuracy, and cost of apparatus configuration have been explained. By appropriately combining these for each measurement object, it is possible to provide a three-dimensional measurement system that enables three-dimensional measurement at the lowest cost and with the highest efficiency.
It should be noted that a computer program that implements the functions of the above-described embodiments may be supplied to a three-dimensional measurement system or the like via a network or various storage media for part or all of the control in this embodiment. A computer (or CPU, MPU, etc.) in the three-dimensional measurement system or the like may read and execute the program. In that case, the program and the storage medium storing the program constitute the present invention.

100 3次元計測システム
101 計測対象物
112 近赤外パターン照明
122 RGBセンサ
130 計算出力部


100 Three-dimensional measurement system 101 Measurement object 112 Near-infrared pattern illumination 122 RGB sensor 130 Calculation output unit


Claims (18)

近赤外光で計測対象物を照明するための近赤外光照明部と、
隣接する画素が可視光に対して互いに異なる波長感度を持つと共に、各画素が前記近赤外光に対して感度特性を有する撮像素子と、
前記近赤外光照明部で前記計測対象物を照明しない状態で前記撮像素子から得られた第1の撮像信号を処理してカラー画像信号を生成するカラー画像信号生成部と、
前記近赤外光照明部を用いて前記計測対象物を照明した状態で前記撮像素子から得られた第2の撮像信号から3次元データを算出する3次元データ計算部と、
を有することを特徴とする3次元計測装置。
a near-infrared light illumination unit for illuminating the measurement object with near-infrared light;
an imaging device in which adjacent pixels have different wavelength sensitivities to visible light and each pixel has a sensitivity characteristic to the near-infrared light;
a color image signal generation unit that processes a first imaging signal obtained from the imaging device in a state where the measurement object is not illuminated by the near-infrared light illumination unit to generate a color image signal;
a three-dimensional data calculation unit that calculates three-dimensional data from a second imaging signal obtained from the imaging element while the measurement object is illuminated using the near-infrared light illumination unit;
A three-dimensional measuring device comprising:
前記カラー画像信号生成部は前記第1の撮像信号をデモザイキング処理して前記カラー画像信号を生成することを特徴とする請求項1に記載の3次元計測装置。 2. The three-dimensional measurement apparatus according to claim 1, wherein the color image signal generating section performs demosaicing processing on the first imaging signal to generate the color image signal. 前記3次元データ計算部は、前記第2の撮像信号と、前記第1の撮像信号とを演算する演算部を有することを特徴とする請求項1に記載の3次元計測装置。 2. The three-dimensional measurement apparatus according to claim 1, wherein the three-dimensional data calculation section has a calculation section for calculating the second imaging signal and the first imaging signal. 前記カラー画像信号生成部は前記第1の撮像信号をデモザイキング処理して前記カラー画像信号を生成すると共に、前記演算部は、前記第2の撮像信号と前記デモザイキング処理する前の前記第1の撮像信号とを演算することを特徴とする請求項3に記載の3次元計測装置。 The color image signal generation unit performs demosaicing processing on the first imaging signal to generate the color image signal, and the computing unit performs demosaicing processing on the first imaging signal and the first imaging signal before the demosaicing processing. 4. The three-dimensional measuring apparatus according to claim 3, wherein the imaging signal of . 前記演算部は、前記第2の撮像信号から前記デモザイキング処理する前の前記第1の撮像信号を減算することを特徴とする請求項4に記載の3次元計測装置。 5. The three-dimensional measurement apparatus according to claim 4, wherein the calculation unit subtracts the first image signal before the demosaicing process from the second image signal. 前記近赤外光照明部は前記計測対象物を所定のパターンの前記近赤外光で照明する近赤外パターン照明部を含むことを特徴とする請求項1に記載の3次元計測装置。 2. The three-dimensional measurement apparatus according to claim 1, wherein the near-infrared light illumination unit includes a near-infrared pattern illumination unit that illuminates the measurement object with the near-infrared light of a predetermined pattern. 前記近赤外光照明部は前記計測対象物に前記所定のパターンの前記近赤外光を順次投影することを特徴とする請求項6に記載の3次元計測装置。 7. The three-dimensional measurement apparatus according to claim 6, wherein the near-infrared light illumination unit sequentially projects the near-infrared light of the predetermined pattern onto the measurement object. 前記所定のパターンはランダムパターンを含むことを特徴とする請求項6に記載の3次元計測装置。 7. The three-dimensional measuring device according to claim 6, wherein said predetermined pattern includes a random pattern. 前記所定のパターンはラインパターンを含むことを特徴とする請求項6に記載の3次元計測装置。 7. The three-dimensional measuring device according to claim 6, wherein said predetermined pattern includes a line pattern. 前記近赤外光照明部は前記計測対象物を均一な前記近赤外光で照明するための近赤外均一照明部を含むことを特徴とする請求項1に記載の3次元計測装置。 2. The three-dimensional measurement apparatus according to claim 1, wherein the near-infrared light illumination unit includes a near-infrared uniform illumination unit for illuminating the measurement object with the uniform near-infrared light. 更に、前記計測対象物を可視光で照明するための可視光照明部を有することを特徴とする請求項1に記載の3次元計測装置。 2. The three-dimensional measuring apparatus according to claim 1, further comprising a visible light illumination unit for illuminating the object to be measured with visible light. 前記可視光照明部は白色光で前記計測対象物を照明することを特徴とする請求項11に記載の3次元計測装置。 12. The three-dimensional measurement apparatus according to claim 11, wherein the visible light illumination unit illuminates the measurement object with white light. 前記近赤外光照明部は前記計測対象物を所定のパターンの前記近赤外光と均一な前記近赤外光の少なくとも一方で照明することを特徴とする請求項1に記載の3次元計測装置。 2. The three-dimensional measurement according to claim 1, wherein the near-infrared light illumination unit illuminates the object to be measured with at least one of the near-infrared light having a predetermined pattern and the uniform near-infrared light. Device. 前記カラー画像信号生成部は、前記近赤外光照明部で前記計測対象物を照明しない状態で、前記計測対象物を可視光及び環境光の少なくとも一方で照明した状態で、前記撮像素子から得られた前記第1の撮像信号を処理して前記カラー画像信号を生成することを特徴とする請求項1に記載の3次元計測装置。 The color image signal generation unit obtains the 2. The three-dimensional measuring apparatus according to claim 1, wherein the color image signal is generated by processing the obtained first imaging signal. 前記近赤外光は、波長が780nm~1000nmの範囲内であることを特徴とする請求項1に記載の3次元計測装置。 2. The three-dimensional measurement apparatus according to claim 1, wherein the near-infrared light has a wavelength within a range of 780 nm to 1000 nm. 請求項1~15のいずれか1項に記載の3次元計測装置の各部をコンピュータにより制御するためのコンピュータプログラム。 A computer program for controlling each part of the three-dimensional measuring device according to any one of claims 1 to 15 by a computer. 請求項1~15のいずれか1項に記載の3次元計測装置と、
前記3次元計測装置により得られた前記計測対象物の前記3次元データに基づいて前記計測対象物を保持して移動させるロボットと、を有することを特徴とする製造システム。
A three-dimensional measurement device according to any one of claims 1 to 15,
and a robot that holds and moves the object to be measured based on the three-dimensional data of the object to be measured obtained by the three-dimensional measuring device.
請求項1~15のいずれか1項に記載の3次元計測装置を用いて前記計測対象物の前記3次元データを算出する工程と、
前記3次元データに基づいて前記計測対象物を処理することにより物品を製造する工程と、を有することを特徴とする物品の製造方法。

A step of calculating the three-dimensional data of the measurement object using the three-dimensional measurement device according to any one of claims 1 to 15;
and a step of manufacturing an article by processing the object to be measured based on the three-dimensional data.

JP2021035082A 2021-03-05 2021-03-05 Three-dimensional measuring device, computer program, manufacturing system, and method for manufacturing article Pending JP2022135340A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021035082A JP2022135340A (en) 2021-03-05 2021-03-05 Three-dimensional measuring device, computer program, manufacturing system, and method for manufacturing article
PCT/JP2022/007917 WO2022186074A1 (en) 2021-03-05 2022-02-25 Measuring device, storage medium, manufacturing system, and article manufacturing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021035082A JP2022135340A (en) 2021-03-05 2021-03-05 Three-dimensional measuring device, computer program, manufacturing system, and method for manufacturing article

Publications (2)

Publication Number Publication Date
JP2022135340A true JP2022135340A (en) 2022-09-15
JP2022135340A5 JP2022135340A5 (en) 2024-03-11

Family

ID=83155129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021035082A Pending JP2022135340A (en) 2021-03-05 2021-03-05 Three-dimensional measuring device, computer program, manufacturing system, and method for manufacturing article

Country Status (2)

Country Link
JP (1) JP2022135340A (en)
WO (1) WO2022186074A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003324751A (en) * 2002-05-07 2003-11-14 Toshiba Corp Information input apparatus
JP4395150B2 (en) * 2006-06-28 2010-01-06 富士フイルム株式会社 Distance image sensor
JP2011243862A (en) * 2010-05-20 2011-12-01 Sony Corp Imaging device and imaging apparatus
JP5521854B2 (en) * 2010-07-26 2014-06-18 コニカミノルタ株式会社 Imaging device and image input device
JP6182396B2 (en) * 2013-08-30 2017-08-16 日立オートモティブシステムズ株式会社 Imaging device

Also Published As

Publication number Publication date
WO2022186074A1 (en) 2022-09-09

Similar Documents

Publication Publication Date Title
JP4900723B2 (en) Image processing apparatus, image processing program, and display apparatus
US20040125205A1 (en) System and a method for high speed three-dimensional imaging
CN104813141A (en) Image generation device
JP2016166784A (en) Measurement device
US9664507B2 (en) Depth value measurement using illumination by pixels
CN108737696A (en) Picture pick-up device, control method and non-transitory storage medium
JP6624939B2 (en) Image processing device, imaging device, and image processing program
JP2009025189A (en) Measuring instrument
JP3507865B2 (en) Method and apparatus for real-time shape measurement by CCD camera using DMD
JP6425571B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
US9354606B1 (en) Systems and methodologies related to generating projectable data for 3-D viewing
JP6706026B2 (en) Endoscope system and operating method of endoscope apparatus
WO2016084926A1 (en) Image pickup system
WO2022186074A1 (en) Measuring device, storage medium, manufacturing system, and article manufacturing method
JP2001330417A (en) Three-dimensional shape measuring method and apparatus using color pattern light projection
JP5890953B2 (en) Inspection device
JPWO2016194179A1 (en) Imaging apparatus, endoscope apparatus, and imaging method
JP7118776B2 (en) IMAGING DEVICE, IMAGE PROCESSING METHOD, IMAGE PROCESSING PROGRAM AND RECORDING MEDIUM
JP7176855B2 (en) Endoscope device, method of operating endoscope device, program, and recording medium
CN113905223B (en) Color 3D imaging method based on single color camera zero registration error and color camera
JP2006170744A (en) Three-dimensional distance measuring instrument
KR20080114550A (en) Ultraviolet microscope
JP2019070886A (en) Image processing device, imaging device, and image processing method
JP6903824B2 (en) Projection device and its control method and control program
JPH0430831A (en) Enddoscope apparatus for measurement

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240301

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240301