JP2002213931A - Instrument and method for measuring three-dimensional shape - Google Patents

Instrument and method for measuring three-dimensional shape

Info

Publication number
JP2002213931A
JP2002213931A JP2001009029A JP2001009029A JP2002213931A JP 2002213931 A JP2002213931 A JP 2002213931A JP 2001009029 A JP2001009029 A JP 2001009029A JP 2001009029 A JP2001009029 A JP 2001009029A JP 2002213931 A JP2002213931 A JP 2002213931A
Authority
JP
Japan
Prior art keywords
pattern
image
light
dimensional shape
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001009029A
Other languages
Japanese (ja)
Inventor
Yutaka Egawa
豊 江川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2001009029A priority Critical patent/JP2002213931A/en
Publication of JP2002213931A publication Critical patent/JP2002213931A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional shape measuring instrument to efficiently execute a distance-calculating processing based on pattern irradiation images photographed with a plurality of cameras. SOLUTION: A measuring object is irradiated with light different in patterns, or the patterned light and irradiation light of no pattern as different polarized lights, to be selectively photographed separately with the plurality of cameras, and differential data are obtained based on the photographed images to generate a parallax image. By this constitution, influence of color, reflection difference, a pattern and the like of the measuring object is canceled by one projection and photographing to generate the accurate parallax image, and precise measurement free from the influence of a change is allowed even when the subject has a complicated pattern, even when the subject is a moving body, even when a measuring instrument is moved, and even when an illumination or a projected light is changed with time.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、輝度情報および距
離情報から3次元形状を計測する3次元形状計測装置お
よび3次元形状計測方法に関する。特に、本発明は、被
写体に模様、異なる反射率の部位などを有する場合や、
被写体または計測装置が動く場合であっても正確に被写
体の形状を計測することを可能とした3次元形状計測装
置および3次元形状計測方法に関する。
The present invention relates to a three-dimensional shape measuring apparatus and a three-dimensional shape measuring method for measuring a three-dimensional shape from luminance information and distance information. In particular, the present invention, when the subject has a pattern, such as a portion of different reflectance,
The present invention relates to a three-dimensional shape measuring apparatus and a three-dimensional shape measuring method that can accurately measure the shape of a subject even when the subject or the measuring device moves.

【0002】[0002]

【従来の技術】3次元形状を取得する手法には、アクテ
ィブ手法(Active vision)とパッシブ手法(Passive v
ision)がある。アクティブ手法は、(1)レーザ光や超
音波等を発して、対象物からの反射光量や到達時間を計
測し、奥行き情報を抽出する手法や、(2)スリット光
などの特殊なパターン光源を用いて、対象表面パターン
の幾何学的変形等の画像情報より対象形状を推定するパ
ターン投影方法や、(3)光学的処理によってモアレ縞に
より等高線を形成させて、3次元情報を得る方法などが
ある。一方、パッシブ手法は、対象物の見え方、光源、
照明、影情報等に関する知識を利用して、一枚の画像か
ら3次元情報を推定する単眼立体視、三角測量原理で各
画素の奥行き情報を推定するステレオ視法等がある。
2. Description of the Related Art A technique for acquiring a three-dimensional shape includes an active technique (Active vision) and a passive technique (Passive v).
ision). The active method uses (1) a method that emits laser light or ultrasonic waves to measure the amount of light reflected from an object and the arrival time to extract depth information, and (2) a special pattern light source such as slit light. A pattern projection method for estimating a target shape from image information such as a geometric deformation of a target surface pattern, and (3) a method of obtaining three-dimensional information by forming contour lines by moiré fringes by optical processing. is there. On the other hand, the passive method is based on
There are monocular stereoscopic vision in which three-dimensional information is estimated from one image using knowledge about illumination, shadow information, and the like, and stereoscopic vision in which depth information of each pixel is estimated based on the principle of triangulation.

【0003】ステレオ視法は、2つの視点からの撮像画
像の違いから視差を計算し、視差に基づいて三角測量に
より、画像上各点の位置を計算する。被写体の模様(テ
クスチャ)情報を基に、2つの画像における対応領域を
探索する必要があり、処理負荷が大きい問題がある。
[0003] In the stereo vision method, a parallax is calculated from a difference between captured images from two viewpoints, and the position of each point on the image is calculated by triangulation based on the parallax. It is necessary to search for a corresponding region in two images based on pattern (texture) information of a subject, and there is a problem that a processing load is large.

【0004】さらに、アクティブステレオ法(パターン
投影法)は、ステレオ視法に対し、被写体のテクスチャ
を既知の単純なパターンに置き換えることで、処理負荷
を低減する。2台のカメラではなく、1台のカメラと1台
のパターン投光器を用い、投影した2次元投影パターン
と撮像パターンの違いから視差を計算する。
Further, the active stereo method (pattern projection method) reduces the processing load by replacing the texture of a subject with a known simple pattern, as compared with the stereo vision method. Using one camera and one pattern projector instead of two cameras, the parallax is calculated from the difference between the projected two-dimensional projection pattern and the imaging pattern.

【0005】アクティブステレオ法の問題として、撮像
パターンと投影パターンを比較する際に、投影パターン
に対し撮像パターンが、形状の影響、反射率、模様の影
響等の要因で変化する問題がある。被写体が全面で白色
である場合は、撮像されるパターンは形状の影響のみに
より投影パターンに対して変化する。しかし、被写体が
模様を持つ場合、模様の影響による変化を形状の影響と
して計算すると、誤差要因になってしまう。したがっ
て、被写体を模様のないものに限定しなければならな
い。
[0005] As a problem of the active stereo method, there is a problem that, when comparing an imaging pattern with a projection pattern, the imaging pattern changes with respect to the projection pattern due to factors such as influence of shape, reflectance, and effect of pattern. When the subject is white on the entire surface, the pattern to be imaged changes with respect to the projection pattern only by the influence of the shape. However, when the subject has a pattern, if the change due to the effect of the pattern is calculated as the effect of the shape, it becomes an error factor. Therefore, the subject must be limited to one without a pattern.

【0006】反射率の差異、模様のある被写体を測定す
るためには、投影パターンを変えて複数回撮像して、差
分を撮ることにより、模様の影響によるパターン変化を
キャンセルし、形状の影響によるパターンの変化の成分
のみを抽出する手法がよく用いられている。
In order to measure an object having a difference in reflectance and a pattern, a plurality of images are taken while changing the projection pattern, and the difference is taken, thereby canceling the pattern change due to the effect of the pattern and the effect of the shape. A technique of extracting only a component of a pattern change is often used.

【0007】[0007]

【発明が解決しようとする課題】しかし、投影パターン
を変えて複数回の投影・撮像により測定を行う方法で
は、被写体が動く場合や、測定装置が動く場合に正確な
測定が困難になるという問題がある。
However, in the method of performing measurement by projecting / imaging a plurality of times while changing the projection pattern, it is difficult to perform accurate measurement when the subject moves or when the measuring device moves. There is.

【0008】また、複数回の撮像を行う際の投影光や環
境光のちらつきや時間変化は、画像間の差分を抽出する
ことではキャンセルされずに残ってしまい、誤差要因に
なる。
In addition, the flickering and temporal change of the projection light and the environment light when performing the image pickup a plurality of times remain without being canceled by extracting the difference between the images, and become an error factor.

【0009】本発明は、上述の問題点に鑑みてなされた
ものであり、1回の投影・撮像で、測定対象となる被写
体の反射率の差異、模様の影響によるパターン変化をキ
ャンセルし、形状の影響によるパターンの変化の成分の
みを抽出して正確な被写体形状を計測することを可能と
した3次元形状計測装置および3次元形状計測方法を提
供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems, and it is possible to cancel a pattern change due to a difference in reflectance of a subject to be measured and a pattern by a single projection / imaging operation, It is an object of the present invention to provide a three-dimensional shape measuring apparatus and a three-dimensional shape measuring method capable of extracting only a component of a change in a pattern due to the influence of the above and measuring an accurate subject shape.

【0010】[0010]

【課題を解決するための手段】本発明の第1の側面は、
2次元パターンを計測対象に対して投影したパターン画
像に基づいて計測対象の距離情報を取得する3次元形状
計測装置において、少なくとも1つの2次元パターンを
含む複数の照射光を、各々が異なる偏光角を持つ偏光照
射光として計測対象に対して照射する投光手段と、前記
複数の照射光が照射された計測対象の像を撮像する撮像
手段であり、前記偏光照射光の各々を選択的に撮像し複
数の撮影画像を取得する撮像手段と、前記撮像手段の撮
影した複数の画像に基づいて視差画像を生成し、該視差
画像に基づいて前記計測対象の距離情報を求める画像処
理手段と、を有することを特徴とする3次元形状計測装
置にある。
SUMMARY OF THE INVENTION A first aspect of the present invention is as follows.
In a three-dimensional shape measuring apparatus that acquires distance information of a measurement target based on a pattern image obtained by projecting a two-dimensional pattern onto the measurement target, a plurality of irradiation lights including at least one two-dimensional pattern are respectively irradiated with different polarization angles A light projecting unit that irradiates the measurement target with polarized irradiation light, and an imaging unit that captures an image of the measurement target irradiated with the plurality of irradiation lights, and selectively captures each of the polarized light. Imaging means for acquiring a plurality of captured images, and image processing means for generating a parallax image based on the plurality of images captured by the imaging means, and obtaining distance information of the measurement target based on the parallax images, A three-dimensional shape measuring apparatus characterized by having

【0011】さらに、本発明の3次元形状計測装置の一
実施態様において、前記投光手段は、1つの2次元パタ
ーンと、パターンを持たない均一照射光の各々を異なる
偏光角を持つ偏光照射光として計測対象に対して照射す
る構成であることを特徴とする。
Further, in one embodiment of the three-dimensional shape measuring apparatus according to the present invention, the light projecting means converts a single two-dimensional pattern and a uniform irradiation light having no pattern into polarized irradiation light having different polarization angles. It is characterized in that the measurement target is irradiated.

【0012】さらに、本発明の3次元形状計測装置の一
実施態様において、前記投光手段は、複数の異なる2次
元パターンの各々を異なる偏光角を持つ偏光照射光とし
て計測対象に対して照射する構成であることを特徴とす
る。
Further, in one embodiment of the three-dimensional shape measuring apparatus according to the present invention, the light projecting means irradiates each of the plurality of different two-dimensional patterns to the object to be measured as polarized light having different polarization angles. It is characterized by having a configuration.

【0013】さらに、本発明の3次元形状計測装置の一
実施態様において、前記画像処理手段は、前記複数の撮
像手段の各々の撮影した複数の画像の差分データを算出
し、該差分データに基づいて視差画像を生成する構成で
あることを特徴とする。
Further, in one embodiment of the three-dimensional shape measuring apparatus of the present invention, the image processing means calculates difference data of a plurality of images photographed by each of the plurality of imaging means, and calculates the difference data based on the difference data. And generating a parallax image.

【0014】さらに、本発明の3次元形状計測装置の一
実施態様において、前記画像処理手段は、前記複数の撮
像手段の各々の撮影した複数の画像の加算データを算出
し、該加算データに基づいて輝度画像を生成する構成で
あることを特徴とする。
Further, in one embodiment of the three-dimensional shape measuring apparatus of the present invention, the image processing means calculates addition data of a plurality of images taken by each of the plurality of imaging means, and based on the addition data. And generates a luminance image.

【0015】さらに、本発明の3次元形状計測装置の一
実施態様において、前記投光手段は、複数の光源と、該
複数の光源に対応して設定されたそれぞれが異なる偏光
角の出力光を出力する複数の偏光フィルタとを有する構
成であることを特徴とする。
Further, in one embodiment of the three-dimensional shape measuring apparatus according to the present invention, the light projecting means includes a plurality of light sources and output lights having different polarization angles respectively set corresponding to the plurality of light sources. It is characterized by having a configuration having a plurality of polarizing filters for outputting.

【0016】さらに、本発明の3次元形状計測装置の一
実施態様において、前記投光手段は、それぞれが異なる
偏光角の出力光を出力する複数の偏光光源を有する構成
であることを特徴とする。
Further, in one embodiment of the three-dimensional shape measuring apparatus according to the present invention, the light projecting means is configured to have a plurality of polarized light sources each outputting output light having a different polarization angle. .

【0017】さらに、本発明の3次元形状計測装置の一
実施態様において、前記撮像手段は、複数の撮影手段
と、該複数の撮影手段に対応して設定されたそれぞれが
異なる偏光角の光を通過させる複数の偏光フィルタとを
有する構成であることを特徴とする。
Further, in one embodiment of the three-dimensional shape measuring apparatus according to the present invention, the image pickup means includes a plurality of image pickup means and light beams having different polarization angles respectively set corresponding to the plurality of image pickup means. It is characterized by having a configuration having a plurality of polarizing filters that pass therethrough.

【0018】さらに、本発明の3次元形状計測装置の一
実施態様において、前記撮像手段は、複数の撮影手段
と、異なる偏光角の光を分離するビームスプリッタとを
有する構成であることを特徴とする。
Further, in one embodiment of the three-dimensional shape measuring apparatus according to the present invention, the image pickup means has a configuration including a plurality of image pickup means and a beam splitter for separating lights having different polarization angles. I do.

【0019】さらに、本発明の第2の側面は、2次元パ
ターンを計測対象に対して投影したパターン画像に基づ
いて計測対象の距離情報を取得する3次元形状計測方法
において、少なくとも1つの2次元パターンを含む複数
の照射光を、各々が異なる偏光角を持つ偏光照射光とし
て計測対象に対して照射するパターン投光ステップと、
前記複数の照射光が照射された計測対象の像を撮像する
撮像ステップであり、前記偏光照射光の各々を選択的に
撮像し複数の撮影画像を取得する撮像ステップと、前記
撮像ステップにおいて撮影した複数の画像に基づいて視
差画像を生成し、該視差画像に基づいて前記計測対象の
距離情報を求める画像処理ステップと、を有することを
特徴とする3次元形状計測方法にある。
According to a second aspect of the present invention, there is provided a three-dimensional shape measuring method for acquiring distance information of a measurement target based on a pattern image obtained by projecting a two-dimensional pattern onto the measurement target. A pattern light projection step of irradiating a plurality of irradiation lights including a pattern to the measurement target as polarized light irradiation lights each having a different polarization angle,
An imaging step of capturing an image of a measurement target irradiated with the plurality of irradiation lights, an imaging step of selectively capturing each of the polarized irradiation lights to obtain a plurality of captured images, and an image captured in the imaging step. An image processing step of generating a parallax image based on a plurality of images and obtaining distance information of the measurement target based on the parallax image.

【0020】さらに、本発明の3次元形状計測方法の一
実施態様において、前記パターン投光ステップは、1つ
の2次元パターンと、パターンを持たない均一照射光の
各々を異なる偏光角を持つ偏光照射光として計測対象に
対して照射することを特徴とする。
Further, in one embodiment of the three-dimensional shape measuring method according to the present invention, the pattern projecting step includes the step of irradiating one two-dimensional pattern and uniform irradiation light having no pattern with polarized light having different polarization angles. It is characterized by irradiating the object to be measured as light.

【0021】さらに、本発明の3次元形状計測方法の一
実施態様において、前記パターン投光ステップは、複数
の異なる2次元パターンの各々を異なる偏光角を持つ偏
光照射光として計測対象に対して照射することを特徴と
する。
Further, in one embodiment of the three-dimensional shape measuring method according to the present invention, the pattern projecting step includes irradiating each of the plurality of different two-dimensional patterns to the object to be measured as polarized irradiation light having a different polarization angle. It is characterized by doing.

【0022】さらに、本発明の3次元形状計測方法の一
実施態様において、前記画像処理ステップは、前記複数
の撮像手段の各々の撮影した複数の画像の差分データを
算出し、該差分データに基づいて視差画像を生成するこ
とを特徴とする。
Further, in one embodiment of the three-dimensional shape measuring method according to the present invention, the image processing step calculates difference data of a plurality of images taken by each of the plurality of imaging means, and calculates the difference data based on the difference data. And generating a parallax image.

【0023】さらに、本発明の3次元形状計測方法の一
実施態様において、前記画像処理ステップは、前記複数
の撮像手段の各々の撮影した複数の画像の加算データを
算出し、該加算データに基づいて輝度画像を生成するこ
とを特徴とする。
Further, in one embodiment of the three-dimensional shape measuring method of the present invention, the image processing step calculates addition data of a plurality of images taken by each of the plurality of image pickup means, and calculates the addition data based on the addition data. And generating a luminance image.

【0024】[0024]

【発明の実施の形態】以下、図を用いて本発明の3次元
形状計測装置および3次元形状計測方法の実施の形態を
詳しく説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of a three-dimensional shape measuring apparatus and a three-dimensional shape measuring method according to the present invention will be described below in detail with reference to the drawings.

【0025】[実施例1]図1に本発明の3次元形状計
測装置の一実施形態に係る構成の概要を説明する図を示
す。この3次元形状計測装置は、強度または波長につい
てコード化された複数の異なる投影パターン光を測定対
象物10に照射し、複数のカメラの各々において複数の
投影パターンから選択された各々の投影パターン画像を
取得するものである。
[First Embodiment] FIG. 1 is a diagram for explaining the outline of the configuration according to an embodiment of the three-dimensional shape measuring apparatus of the present invention. The three-dimensional shape measuring apparatus irradiates the measurement target 10 with a plurality of different projection pattern lights coded with respect to intensity or wavelength, and each projection pattern image selected from the plurality of projection patterns in each of the plurality of cameras. Is what you get.

【0026】図1の構成において、3次元形状を測定し
ようとする測定対象物10には、第1の光源111、第1
の偏光板112、第1のハーフミラー131を介して投
影部1、110から供給される第1の投影パターンが照
射される。この第1の投影パターンは、例えば図2
(a)に示すストライプ状のパターンである。また、第
2の光源121、第2の偏光板122、第1のハーフミ
ラー131を介して投影部2、120から供給される第
2の投影パターンが照射される。この第2の投影パター
ンは、例えば図2(b)に示す均一なパターン(パター
ンなし)である。
In the configuration shown in FIG. 1, a first light source 111 and a first light source 111 are provided on a measuring object 10 whose three-dimensional shape is to be measured.
The first projection pattern supplied from the projection units 1 and 110 is applied via the polarizing plate 112 and the first half mirror 131. The first projection pattern is, for example, as shown in FIG.
This is a stripe pattern shown in FIG. Further, a second projection pattern supplied from the projection units 2 and 120 is emitted through the second light source 121, the second polarizing plate 122, and the first half mirror 131. The second projection pattern is, for example, a uniform pattern (no pattern) shown in FIG.

【0027】なお、第1の実施例として、第1の投影パタ
ーンとしてストライプパターン、第2の投影パターンと
してパターンを持たない均一照射光とした構成例を説明
する。後段の第2実施例として、第1の投影パターンと
してストライプパターンA、第2の投影パターンとして
異なるストライプパターンBを用いた例について説明す
る。
As a first embodiment, a configuration example will be described in which a first projection pattern is a stripe pattern, and a second projection pattern is a uniform irradiation light having no pattern. As a second embodiment, a description will be given of an example in which a stripe pattern A is used as a first projection pattern and a different stripe pattern B is used as a second projection pattern.

【0028】図1の構成では、第1の光源111、第1の
偏光板112、第1のハーフミラー131を介して投影
部1、110から供給される第1の投影パターンが照射
され、第2の光源121、第2の偏光板122、第1の
ハーフミラー131を介して投影部2、120から供給
される第2の投影パターンが照射される。
In the configuration shown in FIG. 1, the first projection pattern supplied from the projection units 1 and 110 via the first light source 111, the first polarizing plate 112, and the first half mirror 131 is irradiated, The second projection pattern supplied from the projection units 2 and 120 is emitted via the two light sources 121, the second polarizing plate 122, and the first half mirror 131.

【0029】第1のハーフミラー131は、第1の光源1
11、第1の偏光板112を介して照射される第1の投影
パターンの反射光と、第2の光源121、第2の偏光板
122を介して照射される第2の投影パターンの透過光
が同一光軸に重なるように設けられる。
The first half mirror 131 is provided for the first light source 1.
11, reflected light of the first projection pattern radiated through the first polarizing plate 112, and transmitted light of the second projection pattern radiated through the second light source 121 and the second polarizing plate 122 Are provided so as to overlap the same optical axis.

【0030】第1の投影パターンを照射する投影光路上
に設けられた第1の偏光板112と、第2の投影パター
ンを照射する投影光路上に設けられた第2の偏光板12
2とは偏光の角度が異なる。例えば第1の偏光板112
と第2の偏光板122とは90度異なる偏光成分光を出
力する。第1の投影パターンは、第1の偏光板112によ
る偏光成分からなる偏光パターンとして被測定対象物1
0に照射され、第2の投影パターンは、第2の偏光板1
22による偏光成分からなる偏光パターンとして被測定
対象物10に照射される。
A first polarizing plate 112 provided on a projection optical path for irradiating a first projection pattern, and a second polarizing plate 12 provided on a projection optical path for irradiating a second projection pattern
The angle of polarization is different from that of 2. For example, the first polarizing plate 112
And the second polarizing plate 122 output polarized component light that differs by 90 degrees. The first projection pattern is a polarization pattern composed of a polarization component of the first
0, and the second projected pattern is the second polarizing plate 1
The object to be measured 10 is radiated as a polarization pattern composed of a polarization component by 22.

【0031】複数の異なる偏光投影パターンが照射され
た測定対象物10の画像は、2つのカメラ151,16
1によって撮影される。
An image of the measurement object 10 irradiated with a plurality of different polarization projection patterns is obtained by two cameras 151 and 16.
1 is taken.

【0032】測定対象物10の画像は、第2のハーフミ
ラー171を通過し、第3の偏光板152を介して第1
のカメラ151によって第1の撮影画像が撮影される。
また、これと同時に第2のハーフミラー171によって
反射され、第4の偏光板162を介して第2のカメラ1
61によって第2の撮影画像が撮影される。第1のカメ
ラ151によって撮影された第1の撮影画像は、撮込部
1,150を介して画像処理部200に出力、格納さ
れ、第2のカメラ161によって撮影された第2の撮影
画像は、撮込部2,160を介して画像処理部200に
出力、格納される。
The image of the measurement object 10 passes through the second half mirror 171 and passes through the third polarizing plate 152 to the first half mirror 171.
The first photographed image is photographed by the camera 151.
At the same time, the light is reflected by the second half mirror 171 and passes through the fourth polarizing plate 162 to the second camera 1.
The second photographed image is photographed by 61. The first captured image captured by the first camera 151 is output to and stored in the image processing unit 200 via the capturing units 1 and 150, and the second captured image captured by the second camera 161 is Are output to and stored in the image processing unit 200 via the imaging units 2 and 160.

【0033】第2のハーフミラー171は、第1の撮影
画像を撮影する第1のカメラ151と、第2の撮影画像
を撮影する第2のカメラ161とが同一光軸に重なるよ
うに設けられる。
The second half mirror 171 is provided so that the first camera 151 for photographing the first photographed image and the second camera 161 for photographing the second photographed image are overlapped on the same optical axis. .

【0034】第1の撮影画像を撮影する第1のカメラ15
1の撮像光路上に設けられた第3の偏光板152と、第
2の撮影画像を撮影する第2のカメラ161の撮像光路
上に設けられた第4の偏光板162とは偏光の角度が異
なる。
First camera 15 for photographing a first photographed image
The third polarizing plate 152 provided on the first imaging optical path and the fourth polarizing plate 162 provided on the imaging optical path of the second camera 161 that captures the second captured image have an angle of polarization. different.

【0035】第3の偏光板152は、第1の光源11
1、第1の偏光板112を介して照射される第1の投影パ
ターンの偏光成分画像を通過させ、第2の投影パターン
の偏光成分画像を通過させない。従って、第1のカメラ
151は、第1の投影パターン照射画像を撮影すること
になる。具体的には、例えば第1の投影パターンが図2
の(a)に示すようなストライプパターンであり、測定
対象物が図2の(c)に示すような物体であった場合、
第1のカメラ151の撮影する画像は、図2の(d)に
示す画像となる。
The third polarizing plate 152 is connected to the first light source 11
1. Pass the polarized component image of the first projection pattern irradiated through the first polarizing plate 112, and do not pass the polarized component image of the second projection pattern. Therefore, the first camera 151 captures the first projection pattern irradiation image. Specifically, for example, the first projection pattern is shown in FIG.
In the case of a stripe pattern as shown in FIG. 2A and the object to be measured is an object as shown in FIG.
The image captured by the first camera 151 is the image shown in FIG.

【0036】一方、第4の偏光板162は、第2の光源
121、第2の偏光板122を介して照射される第2の
投影パターンの偏光成分画像を通過させ、第1の投影パ
ターンの偏光成分画像を通過させない。従って、第2の
カメラ161は、第2の投影パターン照射画像を撮影す
ることになる。具体的には、例えば第2の投影パターン
が図2の(b)に示すようなパターン(パターンなし)
であり、測定対象物が図2の(c)に示すような物体で
あった場合、第2のカメラ161の撮影する画像は、図
2の(e)に示す画像となる。
On the other hand, the fourth polarizing plate 162 allows the polarization component image of the second projection pattern radiated through the second light source 121 and the second polarizing plate 122 to pass therethrough, and Do not pass the polarization component image. Therefore, the second camera 161 captures the second projection pattern irradiation image. Specifically, for example, the second projection pattern is a pattern as shown in FIG. 2B (no pattern)
In the case where the measurement target is an object shown in FIG. 2C, the image captured by the second camera 161 is the image shown in FIG.

【0037】これらの、第1のカメラ151によって撮
り込まれた第1の投影パターン画像は、撮込部1,15
0を介して画像処理部200に出力、格納され、第2の
カメラ161によって撮り込まれた第2の投影パターン
画像は、撮込部2,160を介して画像処理部200に
出力、格納される。これらの画像に基づいて測定対象物
の形状の計測処理ず画像処理部200において実行さ
れ、計測された形状データに基づく3次元画像が表示部
300に表示される。
The first projection pattern images captured by the first camera 151 are
The second projection pattern image output and stored in the image processing unit 200 via the image capturing unit 0 is output and stored in the image processing unit 200 via the capturing units 2 and 160. You. Based on these images, the image processing unit 200 does not perform measurement processing of the shape of the measurement target, and a three-dimensional image based on the measured shape data is displayed on the display unit 300.

【0038】図3に画像処理部200の構成を説明する
ブロック図を示す。画像処理部200は、第1の投影パ
ターン情報を格納する第1の投影パターンメモリ20
1、第2の投影パターン情報を格納する第2の投影パタ
ーンメモリ202を有する。第1の投影パターンメモリ
201には、例えば図2(a)のストライプパターンデ
ータが格納され投影部1,101に第1のパターンデー
タが供給される。第2の投影パターンメモリ202に
は、例えば図2(b)のパターンデータが格納され投影
部2,120に第2のパターンデータが供給される。
FIG. 3 is a block diagram illustrating the configuration of the image processing section 200. The image processing unit 200 includes a first projection pattern memory 20 for storing first projection pattern information.
1. It has a second projection pattern memory 202 for storing second projection pattern information. The first projection pattern memory 201 stores, for example, the stripe pattern data shown in FIG. 2A, and supplies the first pattern data to the projection units 1 and 101. 2B is stored in the second projection pattern memory 202, and the second pattern data is supplied to the projection units 2 and 120, for example.

【0039】第1のカメラ151によって撮り込まれた
第1の投影パターン画像は、撮込部1,150を介して
画像処理部200の第1の画像メモリ203に格納され
る。また、第2のカメラ161によって撮り込まれた第
2の投影パターン画像は、撮込部2,160を介して画
像処理部200の第2の画像メモリ204に格納され
る。
The first projection pattern image captured by the first camera 151 is stored in the first image memory 203 of the image processing unit 200 via the capturing units 1 and 150. Further, the second projection pattern image captured by the second camera 161 is stored in the second image memory 204 of the image processing unit 200 via the capturing units 2 and 160.

【0040】具体的には、例えば第1の投影パターンが
図2の(a)に示すようなストライプパターンであり、
測定対象物が図2の(c)に示すような物体であった場
合、第1のカメラ151が撮影し、第1の画像メモリ20
3に格納される画像は、図2の(d)に示す画像とな
る。また、第2の投影パターンが図2の(b)に示すよ
うなパターン(パターンなし)である場合は、第2のカ
メラ161が撮影し、第2の画像メモリ204に格納さ
れる画像は、図2の(e)に示す画像となる。
Specifically, for example, the first projection pattern is a stripe pattern as shown in FIG.
When the measurement object is an object as shown in FIG. 2C, the first camera 151 takes an image and the first image memory 20
The image stored in No. 3 is the image shown in FIG. When the second projection pattern is a pattern as shown in FIG. 2B (no pattern), the image captured by the second camera 161 and stored in the second image memory 204 is The image shown in FIG.

【0041】撮像画像処理部205は、これら2つの画
像メモリ203,204に格納された画像を比較して、
測定対象物の反射率情報を持つ輝度画像と、反射率情報
を除去した差分画像としての視差パターン画像を生成す
る。
The captured image processing unit 205 compares the images stored in these two image memories 203 and 204,
A luminance image having reflectance information of the measurement object and a parallax pattern image as a difference image from which the reflectance information has been removed are generated.

【0042】第1の投影パターンとして図2の(a)に
示すようなストライプパターン、第2の投影パターンと
して図2の(b)に示すようなパターン(パターンな
し)とした場合の撮像画像処理部205における処理に
ついて図4のフローに従って説明する。
Image processing in the case where the first projection pattern is a stripe pattern as shown in FIG. 2A and the second projection pattern is a pattern as shown in FIG. 2B (no pattern). The processing in the unit 205 will be described according to the flow of FIG.

【0043】撮像画像処理部205は、2つの画像メモ
リ203,204に格納された画像データを入力し、各
対応画素値の差分を算出(S101)する。この差分算
出処理をすべての画素について実行(S102でYes
となるまで)して、この差分画像データを視差画像とし
て視差パターン画像メモリ206に出力する。
The captured image processing unit 205 inputs the image data stored in the two image memories 203 and 204, and calculates the difference between the corresponding pixel values (S101). This difference calculation process is executed for all pixels (Yes in S102).
Then, the difference image data is output to the parallax pattern image memory 206 as a parallax image.

【0044】撮像画像処理部205において2つのパタ
ーン画像の差分に基づいて生成される視差パターン画像
の例を図5に示す。図5の視差パターン画像は、第1の
投影パターンとして図2の(a)に示すストライプパタ
ーンを、第2の投影パターンとして図2の(b)に示す
ようなパターン(パターンなし)を(c)に示す測定対
象物にそれぞれ異なる偏光成分光として照射し、図2の
(d)に示す画像と図2の(e)に示す画像とを2つの
カメラで撮影してこれらの画像データの差分により生成
される視差画像である。
FIG. 5 shows an example of a parallax pattern image generated based on the difference between two pattern images in the captured image processing unit 205. In the parallax pattern image of FIG. 5, a stripe pattern shown in FIG. 2A as a first projection pattern and a pattern (no pattern) as shown in FIG. 2) are illuminated as different polarized light components, and an image shown in FIG. 2 (d) and an image shown in FIG. 2 (e) are taken by two cameras, and the difference between these image data is obtained. Is a parallax image generated by.

【0045】図5に示すように、2つの撮像パターンの
差分をとることにより、被写体反射率の影響をキャンセ
ルすることが可能となる。図2(c)の例では、測定対
象物に異なる反射率を持つ着色領域11、あるいは構成
物12が存在するが、第1の投影パターンの撮影画像で
ある図2(d)の画像から、第2の投影パターンの撮影
画像である図2(e)の画像の各画素において差分をと
ることで、着色領域11、あるいは構成物12の影響を
取り除くことが可能となる。この結果、図5に示すよう
に純粋な視差画像が生成可能となる。
As shown in FIG. 5, by taking the difference between the two image pickup patterns, it is possible to cancel the influence of the object reflectance. In the example of FIG. 2C, the measurement object has the coloring region 11 or the constituent 12 having different reflectances. From the image of FIG. 2D which is a captured image of the first projection pattern, By taking a difference between the pixels of the image of FIG. 2E, which is a captured image of the second projection pattern, it is possible to remove the influence of the colored region 11 or the component 12. As a result, a pure parallax image can be generated as shown in FIG.

【0046】形状計算処理部207は、視差パターン画
像メモリ206に格納された視差パターン画像に基づい
て測定対象物の形状計算を実行する。
The shape calculation processing unit 207 calculates the shape of the object to be measured based on the parallax pattern image stored in the parallax pattern image memory 206.

【0047】図6を用いて形状計算処理部207におい
て実行される形状計算処理について説明する。形状計算
処理部207では、視差パターン画像からストライプパ
ターンを抽出し、各ストライプにおける色や輝度の情報
を検出し、この検出した情報と、投影パターンメモリ2
01に記憶された投影パターンにおけるストライプパタ
ーンの色や輝度と比較して、投光器からのスリット角θ
を算出する。図6のように、各ストライプのスリット角
θと、カメラの結像面上に撮像された画像上のx座標と
カメラパラメータである焦点距離Fと基線長(距離)L
から、次の式(1)によって測定点Aまでの距離Zを算
出する。
The shape calculation processing executed in the shape calculation processing unit 207 will be described with reference to FIG. The shape calculation processing unit 207 extracts a stripe pattern from the parallax pattern image, detects color and luminance information in each stripe, and stores the detected information in the projection pattern memory 2.
01 and the slit angle θ from the projector in comparison with the color and luminance of the stripe pattern in the projection pattern stored in
Is calculated. As shown in FIG. 6, a slit angle θ of each stripe, an x coordinate on an image captured on an image plane of a camera, a focal length F which is a camera parameter, and a base length (distance) L
Then, the distance Z to the measurement point A is calculated by the following equation (1).

【0048】[0048]

【数1】 Z=(F×L)/(x+F×tanθ) …(1)Z = (F × L) / (x + F × tan θ) (1)

【0049】上記式に基づいて、測定対象物の距離デー
タ、すなわち形状データが算出され、算出された形状デ
ータとしての距離画像が形状データメモリ208に格納
される。
Based on the above equation, distance data of the object to be measured, that is, shape data is calculated, and a distance image as the calculated shape data is stored in the shape data memory 208.

【0050】また、輝度画像メモリ209には、パター
ン無しの照射画像が格納される。この例の場合、第2の
画像メモリ204の画像が輝度画像としてそのまま使用
可能である。
The irradiation image without a pattern is stored in the luminance image memory 209. In this case, the image in the second image memory 204 can be used as it is as a luminance image.

【0051】形状計算処理部207で生成され形状デー
タメモリ208に格納された距離画像は、統合処理部2
10でポリゴン化し、輝度画像メモリ209に記憶され
た輝度画像をテクスチャマッピングして3次元画像が生
成され、表示部300へ出力することにより測定対象物
の3次元形状が表示される。
The distance image generated by the shape calculation processing unit 207 and stored in the shape data memory 208 is integrated with the integrated processing unit 2.
In step 10, a three-dimensional image is generated by forming a polygon, texture-mapping the luminance image stored in the luminance image memory 209, and outputting the three-dimensional image to the display unit 300 to display the three-dimensional shape of the measurement target.

【0052】図7は、人物を撮像したときの(a)輝度
画像と(b)距離画像の一例を示す。この距離画像は、
カメラの受光部から対象物各点までの距離を各画素値と
し、2次元に配列したものである。これらを画面上で表
示する方法として、例えば、輝度の大小で表現すること
ができ、紙面手前側の領域における輝度を大にし、紙面
奥方向に輝度が小になるように表現しても良い。
FIG. 7 shows an example of (a) a luminance image and (b) a distance image when a person is imaged. This distance image is
The distance from the light receiving portion of the camera to each point of the object is defined as each pixel value and is arranged two-dimensionally. As a method of displaying these on the screen, for example, the brightness can be expressed by the magnitude of the brightness, and the brightness may be increased in the area on the near side of the paper and decreased in the depth direction of the paper.

【0053】統合処理部で210では図7(b)に示す
ような距離画像に基づいて、ポリゴン化を実行し、生成
したポリゴンデータに輝度画像メモリ209に記憶され
た輝度画像をテクスチャマッピングして3次元データを
生成して表示出力部へ出力する。
In the integration processing unit 210, polygonization is performed based on the distance image as shown in FIG. 7B, and the generated polygon data is texture-mapped with the luminance image stored in the luminance image memory 209. The three-dimensional data is generated and output to the display output unit.

【0054】このように、本発明の3次元形状計測装置
によると、2つのカメラで同時に撮像したデータに基づ
いて正確な距離情報を取得することが可能となり、従来
の測定手法に比較して測定時間を短縮することが出来
る。また、測定対象物の反射率の差異を除去するための
特殊な設備が不要であるため、コストを抑えることが出
来る。
As described above, according to the three-dimensional shape measuring apparatus of the present invention, it is possible to obtain accurate distance information based on data captured by two cameras at the same time. Time can be reduced. Further, since special equipment for removing the difference in the reflectance of the measurement object is not required, the cost can be reduced.

【0055】[実施例2]次に、第2実施例として、第
1の投影パターンとしてストライプパターンA、第2の
投影パターンとして異なるストライプパターンBを用い
た例について説明する。
[Embodiment 2] Next, as a second embodiment,
An example in which a stripe pattern A is used as one projection pattern and a different stripe pattern B is used as a second projection pattern will be described.

【0056】図8に2つの異なる投影パターン、測定対
象物、2つの撮影画像の例を示す。測定対象物に照射さ
れる2つの異なる投影パターンは、例えば図8(a)に
示すストライプ状のパターンと(b)に示すストライプ
状のパターンである。パターン上部の数値は、各パター
ンに割り当てられたコードであり、8つの異なるコード
を用いた例を示している。コードは、例えば異なる明度
によって異なるコードを割り当てたり、あるいは異なる
カラーを異なるコードとして割り当ててもよい。
FIG. 8 shows an example of two different projection patterns, an object to be measured, and two photographed images. The two different projection patterns applied to the measurement object are, for example, a stripe pattern shown in FIG. 8A and a stripe pattern shown in FIG. Numerical values above the patterns are codes assigned to each pattern, and show examples using eight different codes. The codes may be assigned different codes, for example with different brightness, or different colors may be assigned as different codes.

【0057】なお、図8(a)に示すストライプ状のパ
ターンと(b)に示すストライプ状のパターンの各々
は、各パターンの和がすべて同一、ここではコード値の
加算値がすべて「9」になるようにしてある。これは輝
度画像の生成を2つのパターン撮影画像の加算処理によ
って簡易に求めるためである。この処理については後述
する。
Each of the stripe pattern shown in FIG. 8A and the stripe pattern shown in FIG. 8B has the same sum of all the patterns. Here, the sum of the code values is all “9”. It is made to become. This is because the generation of the luminance image is easily obtained by the addition processing of the two pattern photographed images. This processing will be described later.

【0058】実施例1で説明した図1と同様の構成にお
いて、第1の光源111、第1の偏光板112、第1のハ
ーフミラー131を介して投影部1、110から供給さ
れる図8(a)に示す第1の投影パターンが照射され、
第2の光源121、第2の偏光板122、第1のハーフ
ミラー131を介して投影部2、120から供給される
図8(b)に示す第2の投影パターンが照射される。
In the configuration similar to that of FIG. 1 described in the first embodiment, FIG. 8 is supplied from the projection units 1 and 110 via the first light source 111, the first polarizing plate 112, and the first half mirror 131. The first projection pattern shown in (a) is irradiated,
A second projection pattern shown in FIG. 8B supplied from the projection units 2 and 120 is emitted through the second light source 121, the second polarizing plate 122, and the first half mirror 131.

【0059】測定対象物10の画像は、第2のハーフミ
ラー171を通過し、第3の偏光板152を介して第1
のカメラ151によって第1の撮影画像が撮影される。
また、これと同時に第2のハーフミラー171によって
反射され、第4の偏光板162を介して第2のカメラ1
61によって第2の撮影画像が撮影される。測定対象物
が図8の(c)に示すような物体であった場合、第1の
カメラ151の撮影する画像は、図8の(d)に示す画
像となる。また、第2のカメラ161の撮影する画像
は、図8の(e)に示す画像となる。
The image of the measuring object 10 passes through the second half mirror 171 and passes through the third polarizer 152 to the first half mirror 171.
The first photographed image is photographed by the camera 151.
At the same time, the light is reflected by the second half mirror 171 and passes through the fourth polarizing plate 162 to the second camera 1.
The second photographed image is photographed by 61. When the measurement target is an object as illustrated in FIG. 8C, the image captured by the first camera 151 is an image illustrated in FIG. 8D. The image captured by the second camera 161 is the image shown in FIG.

【0060】画像処理部200の2つの画像メモリ20
3,204の各々には、図8(d),(e)の画像デー
タが格納される。撮像画像処理部205は、これら2つ
の画像メモリ203,204に格納された画像を比較し
て、測定対象物の反射率情報を持つ輝度画像と、反射率
情報を除去した差分画像としての視差パターン画像を生
成する。
The two image memories 20 of the image processing section 200
The image data shown in FIGS. 8D and 8E is stored in each of 3 and 204. The captured image processing unit 205 compares the images stored in the two image memories 203 and 204, and compares the image with the luminance image having the reflectance information of the measurement target object and the parallax pattern as the difference image from which the reflectance information has been removed. Generate an image.

【0061】撮像画像処理部205における処理につい
て図9のフローに従って説明する。図9には、(a)差
分画像(視差画像)の生成処理フローと、(b)和画像
(輝度画像)の生成処理フローを示す。
The processing in the picked-up image processing unit 205 will be described with reference to the flow of FIG. FIG. 9 shows (a) a generation processing flow of a difference image (parallax image) and (b) a generation processing flow of a sum image (luminance image).

【0062】まず、(a)差分画像(視差画像)の生成
処理について説明する。撮像画像処理部205は、2つ
の画像メモリ203,204に格納された画像データを
入力し、ステップS201において各対応画素値の差分
を算出し、さらに、ステップS202において予め2つ
のパターンデータの持つコード値総計(ここでは9)を
加算し、ステップS203において2で割る処理を実行
し、これらの処理をすべての画素について実行(S20
4でYesとなるまで)する。その結果、図10(a)
に示す視差画像データが生成される。
First, (a) a process of generating a difference image (parallax image) will be described. The captured image processing unit 205 inputs the image data stored in the two image memories 203 and 204, calculates the difference between the corresponding pixel values in step S201, and further includes, in step S202, a code having two pattern data in advance. The total value (here, 9) is added, and a process of dividing by 2 is executed in step S203, and these processes are executed for all pixels (S20).
4 until the answer is Yes). As a result, FIG.
Is generated.

【0063】ここでは、図8(e)の画像から(d)の
画像のコードを減算する処理として説明する。例えば、
図8(c)に示すような着色領域11、あるいは構成物
12により反射率が異なり、これらの領域にあるコード
のパターンを照射した場合にそれぞれ照射コードに対し
て着色領域11:+α、構成物12:+βの影響をもた
らすとする。
Here, the process of subtracting the code of the image of FIG. 8D from the image of FIG. 8E will be described. For example,
The reflectance differs depending on the colored region 11 or the component 12 as shown in FIG. 8C, and when the pattern of the code in these regions is irradiated, the colored region 11: + α, the component 12: Suppose that the effect of + β is caused.

【0064】この場合、図8(a)の第1の投影パター
ンの照射画像の撮影画像として取得される図8(d)の
画像において、右から3番目の領域は、本来コード2の
データが得られるが、着色領域11の領域では、コード
2+αが得られることになる。また、左から2番目の領
域は、本来コード4のデータが得られるが、構成物12
の領域では、コード4+βが得られることになる。ま
た、図8(b)の第2の投影パターンの照射画像の撮影
画像として取得される図8(e)の画像において、右か
ら3番目の領域は、本来コード7のデータが得られる
が、着色領域11の領域では、コード7+αが得られる
ことになる。また、左から2番目の領域は、本来コード
5のデータが得られるが、構成物12の領域では、コー
ド5+βが得られることになる。
In this case, in the image of FIG. 8D obtained as a photographed image of the irradiation image of the first projection pattern of FIG. However, the code 2 + α is obtained in the colored region 11. In the second area from the left, data of code 4 is originally obtained.
In the area of, the code 4 + β is obtained. In the image of FIG. 8E acquired as a captured image of the irradiation image of the second projection pattern of FIG. 8B, the data of the code 7 is originally obtained in the third region from the right. In the area of the colored area 11, code 7 + α is obtained. In the second area from the left, data of code 5 is originally obtained, but in the area of the component 12, code 5 + β is obtained.

【0065】このように、図8(d)、(e)の画像の
各々は、着色領域11、あるいは構成物12の影響を受
けた画像となる。
As described above, each of the images shown in FIGS. 8D and 8E is an image affected by the colored region 11 or the component 12.

【0066】これらの2画像からまず差分を計算する。
図10の(a)には、右から3番目のパターンについて
の計算処理例を示している。測定対象物の下部の着色領
域11以外の部分では、「7−2」が計算され、また、
測定対象物の上部の着色領域11の部分では、「(7+
α)−(2+α)」が計算される。さらに、2つのパタ
ーンデータの持つコード値総計(ここでは9)を加算
し、この値を2で除する処理を実行する。この結果、右
から3番目のパターンの下部の着色領域11以外の部分
では、「7−2+9=7」が算出され、また、測定対象
物の上部の着色領域11の部分では、「{(7+α)−
(2+α)+9}/2=7」が算出される。結果として
着色領域の影響がキャンセルされる。
First, a difference is calculated from these two images.
FIG. 10A shows an example of calculation processing for the third pattern from the right. In a portion other than the colored region 11 below the measurement object, “7-2” is calculated, and
In the colored region 11 above the measurement object, “(7+
α) − (2 + α) ”is calculated. Further, a process of adding the total code values (here, 9) of the two pattern data and dividing this value by 2 is executed. As a result, “7−2 + 9 = 7” is calculated for the portion other than the lower colored region 11 of the third pattern from the right, and “{(7 + α)” is calculated for the upper colored region 11 of the measurement target. )-
(2 + α) + 9 ° / 2 = 7 ”is calculated. As a result, the influence of the colored area is canceled.

【0067】これは構成物12についても同様であり、
構成物12の持つコードに対する影響値:βがキャンセ
ルされることになる。その結果、着色領域11、あるい
は構成物12の影響が取り除かれ、図10(a)に示す
ような純粋な視差画像が生成される。
This is the same for the component 12.
The effect value: β on the code of the constituent 12 is canceled. As a result, the influence of the coloring region 11 or the constituent 12 is removed, and a pure parallax image as shown in FIG. 10A is generated.

【0068】一方、輝度画像の生成は、図9(b)和画
像(輝度画像)の生成処理によって実行される。まず、
撮像画像処理部205は、2つの画像メモリ203,2
04に格納された画像データを入力し、ステップS30
1において各対応画素値の和を算出し、さらに、ステッ
プS302において2で割る処理を実行し、必要であれ
ば画像全体に対する均一な輝度調整を実行する。これら
の処理をすべての画素について実行(S303でYes
となるまで)する。その結果、図10(b)に示す輝度
画像データが生成される。
On the other hand, the generation of the luminance image is executed by the processing of generating a sum image (luminance image) shown in FIG. First,
The captured image processing unit 205 includes two image memories 203 and 2
04, the image data stored in step S30 is input.
In step 1, the sum of the corresponding pixel values is calculated, and in step S302, a process of dividing by 2 is performed, and if necessary, uniform brightness adjustment is performed on the entire image. Execute these processes for all pixels (Yes in S303)
Until it becomes). As a result, luminance image data shown in FIG. 10B is generated.

【0069】図10の(b)には、右から3番目のパタ
ーンについての計算処理例を示している。測定対象物の
下部の着色領域11以外の部分では、「(7+2)/2
=4.5」が計算され、また、測定対象物の上部の着色
領域11の部分では、「{(7+α)+(2+α)}=
α+4.5」が算出される。4.5は、すべての領域に
おいて均一なコード値であり、このコード値が輝度デー
タとして不要であれば、4.5をキャンセルするために
画像全体に対する均一な輝度調整を実行する。なお、予
め調整の不要な値としてパターン設定することにより輝
度調整は省略可能である。
FIG. 10B shows an example of calculation processing for the third pattern from the right. In the portion other than the colored region 11 below the measurement object, “(7 + 2) / 2
= 4.5 ”, and in the colored region 11 above the measurement object,“ {(7 + α) + (2 + α)} =
α + 4.5 ”is calculated. 4.5 is a uniform code value in all areas, and if this code value is unnecessary as luminance data, uniform luminance adjustment is performed on the entire image in order to cancel 4.5. The brightness adjustment can be omitted by setting a pattern as a value that does not need to be adjusted in advance.

【0070】このように撮像画像処理部205は、視差
画像、輝度画像を生成し、それぞれ視差パターン画像メ
モリ206、輝度画像メモリ209に格納する。形状計
算処理部207は、視差パターン画像メモリ206に格
納された視差パターン画像に基づいて測定対象物の形状
計算を実行し距離画像を生成する。形状計算は、実施例
1で説明した図6の距離(形状)計算理論によって実現
される。
As described above, the captured image processing unit 205 generates a parallax image and a luminance image, and stores them in the parallax pattern image memory 206 and the luminance image memory 209, respectively. The shape calculation processing unit 207 performs a shape calculation of the measurement target based on the parallax pattern image stored in the parallax pattern image memory 206 to generate a distance image. The shape calculation is realized by the distance (shape) calculation theory of FIG. 6 described in the first embodiment.

【0071】形状計算処理部207で生成され形状デー
タメモリ208に格納された距離画像は、統合処理部2
10でポリゴン化し、輝度画像メモリ209に記憶され
た輝度画像をテクスチャマッピングして3次元画像が生
成され、表示部300へ出力することにより測定対象物
の3次元形状が表示される。
The distance image generated by the shape calculation processing unit 207 and stored in the shape data memory 208 is integrated with the integrated processing unit 2.
In step 10, a three-dimensional image is generated by forming a polygon, texture-mapping the luminance image stored in the luminance image memory 209, and outputting the three-dimensional image to the display unit 300 to display the three-dimensional shape of the measurement target.

【0072】このように、本発明の3次元形状計測装置
によると、2つのカメラで同時に撮像したデータに基づ
いて正確な距離情報を取得することが可能となり、従来
の測定手法に比較して測定時間を短縮することが出来
る。また、測定対象物の反射率の差異を除去するための
特殊な設備が不要であるため、コストを抑えることが出
来る。
As described above, according to the three-dimensional shape measuring apparatus of the present invention, it is possible to obtain accurate distance information based on data captured simultaneously by two cameras, and it is possible to obtain more accurate distance information than a conventional measuring method. Time can be reduced. Further, since special equipment for removing the difference in the reflectance of the measurement object is not required, the cost can be reduced.

【0073】[その他の実施例]上述した実施例では、
図1を用いて説明したように、2つの異なるパターン投
影のために、異なる角度の偏光を出力する2つの偏光板
を用い、一方、撮影手段にも異なる角度の偏光を通過さ
せる2つの偏光板を用いた構成例を示した。この他にい
くつかの構成例が適用可能であり、それらの代表的構成
例について図11を用いて説明する。
[Other Embodiments] In the above embodiment,
As described with reference to FIG. 1, two polarizers that output polarized light of different angles are used for projecting two different patterns, and two polarizers that transmit polarized light of different angles also to the photographing unit. An example of the configuration using the above is shown. In addition, some configuration examples are applicable, and a typical configuration example thereof will be described with reference to FIG.

【0074】図11(a),(b)は、異なる複数のパ
ターン照射を実現する構成であり、(c),(d)は、
それぞれのパターン画像を選択的に撮影する撮影手段構
成を示している。
FIGS. 11 (a) and 11 (b) show a configuration for realizing a plurality of different pattern irradiations, and FIGS.
The configuration of a photographing means for selectively photographing each pattern image is shown.

【0075】(a)は、偏光光源とハーフミラー構成を
用いた複数パターン照射構成である。偏光光源511,
512は、それぞれ異なる角度の偏光を出力する光源で
あり、これらの光源から、異なるパターンを測定対象物
に対して照射する。偏光光源511,512からのパタ
ーンは、ハーフミラー513は、偏光光源511の反射
光と、偏光光源512の透過光が同一光軸に重なるよう
に設けられる。
(A) shows a multiple pattern irradiation configuration using a polarized light source and a half mirror configuration. Polarized light source 511,
Numerals 512 denote light sources that output polarized light having different angles, and irradiate different patterns to the object to be measured from these light sources. The patterns from the polarized light sources 511 and 512 are provided on the half mirror 513 so that the reflected light of the polarized light source 511 and the transmitted light of the polarized light source 512 overlap on the same optical axis.

【0076】(b)は、光源と偏光フィルタとハーフミ
ラーを設けた構成である。光源521からパターン光が
照射され、光源522から異なるパターン光が照射され
る。それぞれのパターン光は、偏光フィルタ524,5
25によって特定の角度の偏光としてハーフミラー52
3を通過またはハーフミラーによって反射されて測定対
象物に照射される。
(B) shows a configuration in which a light source, a polarizing filter, and a half mirror are provided. Pattern light is emitted from the light source 521, and different pattern light is emitted from the light source 522. Each pattern light is supplied to a polarizing filter 524,5.
25 allows the half mirror 52 to be polarized at a specific angle.
3 or reflected by a half mirror to irradiate the object to be measured.

【0077】(c)は、異なるパターン光が照射された
測定対象物の撮影構成であり、それぞれ異なるパターン
画像を選択的に撮影するカメラ531,532の前方に
偏光ビームスプリッタ533を設けた構成である。複数
のパターンは、前述の実施例、または図11(a),
(b)のような構成によって異なる偏光成分からなるパ
ターン光として測定対象物に照射されており、これらの
パターン光を偏光ビームスプリッタ533が分離し、一
方を通過、他方ほ反射し、異なるカメラによって各パタ
ーン画像が撮影される。
(C) shows a configuration for photographing an object to be measured irradiated with different pattern lights, in which a polarizing beam splitter 533 is provided in front of cameras 531 and 532 for selectively photographing different pattern images. is there. The plurality of patterns can be obtained from the embodiment described above or from FIG.
The object to be measured is irradiated as a pattern light composed of different polarization components by the configuration as shown in (b), and these pattern lights are separated by the polarization beam splitter 533, pass through one side, and reflect the other side, and are separated by different cameras. Each pattern image is photographed.

【0078】(d)は、カメラと偏光フィルタとハーフ
ミラーを設けた測定対象物の撮影構成であり、それぞれ
異なるパターン画像を選択的に撮影するカメラ541,
542の前方に偏光フィルタ544,545が設けら
れ、ハーフミラー543の反射光、通過光から偏光フィ
ルタ544,545を通過したパターン画像を撮影す
る。複数のパターンは、前述の実施例、または図11
(a),(b)のような構成によって異なる偏光成分か
らなるパターン光として測定対象物に照射されており、
偏光フィルタ544,545は、それぞれこれらのパタ
ーン光の異なるパターン光成分を通過するように構成さ
れる。このように、異なるパターン光の照射構成、撮影
構成は様々な態様が適用可能である。
(D) is a photographing configuration of an object to be measured provided with a camera, a polarizing filter, and a half mirror. Cameras 541 and 541 selectively photograph different pattern images.
Polarizing filters 544 and 545 are provided in front of 542, and a pattern image that has passed through the polarizing filters 544 and 545 from the reflected light and transmitted light of the half mirror 543 is captured. The plurality of patterns are the same as in the above-described embodiment or FIG.
(A) and (b) are irradiated on the measurement object as pattern light composed of different polarization components depending on the configuration,
The polarizing filters 544 and 545 are configured to pass different pattern light components of these pattern lights, respectively. As described above, various modes can be applied to different pattern light irradiation configurations and imaging configurations.

【0079】なお、上述した実施例では、測定対象物の
模様、反射率の差異などのキャンセル効果について重点
的に説明したが、本発明の構成は、1回の撮影で視差画
像を生成する構成であるので、例えば測定対象物が動く
ような被写体である場合にも、動きの影響を受けること
なく1回の撮影タイミングで取得される複数の画像に基
づいて正確な距離情報を取得可能となるという効果があ
る。また、測定装置が移動していても、同様の理由によ
り良好に計測が可能である。また、照明や投影光が時間
変化しても、変化の影響を排除して高精度の計測が可能
となる。
In the above-described embodiments, the canceling effect such as the pattern of the object to be measured and the difference in the reflectance has been mainly described. However, the structure of the present invention is such that the parallax image is generated by one photographing. Therefore, for example, even when the measurement target is a moving subject, accurate distance information can be obtained based on a plurality of images obtained at one shooting timing without being affected by movement. This has the effect. Even if the measuring device is moving, good measurement can be performed for the same reason. Further, even if the illumination or projection light changes with time, the effect of the change can be eliminated and high-precision measurement can be performed.

【0080】以上、特定の実施例を参照しながら、本発
明について詳解してきた。しかしながら、本発明の要旨
を逸脱しない範囲で当業者が該実施例の修正や代用を成
し得ることは自明である。すなわち、例示という形態で
本発明を開示してきたのであり、限定的に解釈されるべ
きではない。本発明の要旨を判断するためには、冒頭に
記載した特許請求の範囲の欄を参酌すべきである。
The present invention has been described in detail with reference to the specific embodiments. However, it is obvious that those skilled in the art can modify or substitute the embodiment without departing from the spirit of the present invention. That is, the present invention has been disclosed by way of example, and should not be construed as limiting. In order to determine the gist of the present invention, the claims described at the beginning should be considered.

【0081】[0081]

【発明の効果】上述したように、本発明の3次元形状測
定装置および3次元形状計測方法によれば、1回の投影
・撮像で、測定対象物の反射率の差異、模様等の影響を
キャンセルして、形状を計測できるので、複雑な模様を
持つ被写体であっても、動く被写体であっても、測定装
置が移動していても、良好に計測が可能である。また、
照明や投影光が時間変化しても、変化の影響をキャンセ
ル出来、効率的にかつ高精度な形状計測が可能となる。
As described above, according to the three-dimensional shape measuring apparatus and the three-dimensional shape measuring method of the present invention, the influence of the difference in the reflectance of the object to be measured, the pattern, etc. can be obtained by one projection / imaging. Since the shape can be canceled and the shape can be measured, it is possible to measure well even if the subject has a complicated pattern, is a moving subject, or the measuring device is moving. Also,
Even if the illumination or projection light changes with time, the influence of the change can be canceled, and efficient and highly accurate shape measurement can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の3次元形状計測装置の構成概要を示す
ブロック図である。
FIG. 1 is a block diagram illustrating a schematic configuration of a three-dimensional shape measuring apparatus according to the present invention.

【図2】本発明の3次元画形状計測装置により適用され
る照射パターン、測定対象物例、撮影画像例を説明する
図である。
FIG. 2 is a diagram illustrating an irradiation pattern, an example of an object to be measured, and an example of a captured image applied by the three-dimensional image shape measuring apparatus of the present invention.

【図3】本発明の3次元形状計測装置の画像処理部構成
を示すブロック図である。
FIG. 3 is a block diagram illustrating a configuration of an image processing unit of the three-dimensional shape measuring apparatus according to the present invention.

【図4】本発明の3次元形状計測装置の撮像画像処理部
における視差画像生成処理フローを示す図である。
FIG. 4 is a diagram illustrating a parallax image generation processing flow in a captured image processing unit of the three-dimensional shape measurement apparatus of the present invention.

【図5】本発明の3次元形状計測装置の撮像画像処理部
において生成される視差画像の例を示す図である。
FIG. 5 is a diagram illustrating an example of a parallax image generated in a captured image processing unit of the three-dimensional shape measurement device of the present invention.

【図6】本発明の3次元形状計測装置において適用可能
な空間コード化法による距離算出法を示す図である。
FIG. 6 is a diagram showing a distance calculation method by a space coding method applicable to the three-dimensional shape measuring apparatus of the present invention.

【図7】本発明の3次元形状計測装置において生成され
る輝度画像および距離画像の例を示す図である。
FIG. 7 is a diagram showing an example of a luminance image and a distance image generated by the three-dimensional shape measuring apparatus of the present invention.

【図8】本発明の3次元画形状計測装置により適用され
る照射パターン、測定対象物例、撮影画像例を説明する
図である。
FIG. 8 is a diagram illustrating an irradiation pattern, an example of a measurement target object, and an example of a captured image applied by the three-dimensional image shape measuring apparatus of the present invention.

【図9】本発明の3次元形状計測装置の撮像画像処理部
における視差画像生成処理フローおよび輝度画像生成処
理フローを示す図である。
FIG. 9 is a diagram illustrating a parallax image generation processing flow and a luminance image generation processing flow in a captured image processing unit of the three-dimensional shape measurement apparatus of the present invention.

【図10】本発明の3次元形状計測装置の撮像画像処理
部において生成される視差画像、輝度画像の例を示す図
である。
FIG. 10 is a diagram illustrating an example of a parallax image and a luminance image generated in a captured image processing unit of the three-dimensional shape measurement device of the present invention.

【図11】本発明の3次元形状計測装置のパターン投影
構成およびパターン撮影構成例を示す図である。
FIG. 11 is a diagram showing an example of a pattern projection configuration and a pattern imaging configuration of the three-dimensional shape measuring apparatus of the present invention.

【符号の説明】[Explanation of symbols]

10 測定対象物 110,120 投影部 111,121 光源 112,122 偏光板 131 ハーフミラー 150,160 撮込部 151,161 カメラ 152,162 偏光板 171 ハーフミラー 200 画像処理部 300 表示部 201,202 投影パターンメモリ 203,204 画像メモリ 205 撮像画像処理部 206 視差パターン画像メモリ 207 形状計算処理部 208 形状データメモリ 209 輝度画像メモリ 210 統合処理部 511,512 偏光光源 513 ハーフミラー 521,522 光源 523 ハーフミラー 524,525 偏光フィルタ 531,532 カメラ 533 ハーフミラー 541,542 カメラ 543 ハーフミラー 544,545 偏光フィルタ Reference Signs List 10 Measurement target 110, 120 Projecting unit 111, 121 Light source 112, 122 Polarizing plate 131 Half mirror 150, 160 Image capturing unit 151, 161 Camera 152, 162 Polarizing plate 171 Half mirror 200 Image processing unit 300 Display unit 201, 202 Projection Pattern memory 203, 204 Image memory 205 Captured image processing unit 206 Parallax pattern image memory 207 Shape calculation processing unit 208 Shape data memory 209 Luminance image memory 210 Integration processing unit 511, 512 Polarized light source 513 Half mirror 521, 522 Light source 523 Half mirror 524 , 525 Polarizing filter 531, 532 Camera 533 Half mirror 541, 542 Camera 543 Half mirror 544, 545 Polarizing filter

フロントページの続き Fターム(参考) 2F065 AA06 AA53 BB05 CC16 DD06 EE04 FF08 FF09 FF42 FF49 HH06 HH07 JJ03 JJ05 LL00 LL28 LL33 LL41 QQ03 QQ24 QQ25 QQ27 SS02 SS13 5B057 BA02 BA15 CA08 CA13 CA16 CB08 CB13 CB17 DA16 DA17 DB03 DB09 DC32 Continuation of the front page F term (reference) 2F065 AA06 AA53 BB05 CC16 DD06 EE04 FF08 FF09 FF42 FF49 HH06 HH07 JJ03 JJ05 LL00 LL28 LL33 LL41 QQ03 QQ24 QQ25 QQ27 SS02 SS13 5B057 BA02 DB15 CB08 DB16

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】2次元パターンを計測対象に対して投影し
たパターン画像に基づいて計測対象の距離情報を取得す
る3次元形状計測装置において、 少なくとも1つの2次元パターンを含む複数の照射光
を、各々が異なる偏光角を持つ偏光照射光として計測対
象に対して照射する投光手段と、 前記複数の照射光が照射された計測対象の像を撮像する
撮像手段であり、前記偏光照射光の各々を選択的に撮像
し複数の撮影画像を取得する撮像手段と、 前記撮像手段の撮影した複数の画像に基づいて視差画像
を生成し、該視差画像に基づいて前記計測対象の距離情
報を求める画像処理手段と、 を有することを特徴とする3次元形状計測装置。
1. A three-dimensional shape measuring apparatus for acquiring distance information of a measurement target based on a pattern image obtained by projecting a two-dimensional pattern onto the measurement target, wherein a plurality of irradiation lights including at least one two-dimensional pattern are provided. Light projection means for irradiating the measurement target with polarized light having different polarization angles, and imaging means for capturing an image of the measurement target irradiated with the plurality of irradiation lights, each of the polarized light An imaging unit that selectively captures images to obtain a plurality of captured images, an image that generates a parallax image based on the plurality of images captured by the imaging unit, and obtains distance information of the measurement target based on the parallax images. A three-dimensional shape measuring apparatus, comprising: processing means.
【請求項2】前記投光手段は、1つの2次元パターン
と、パターンを持たない均一照射光の各々を異なる偏光
角を持つ偏光照射光として計測対象に対して照射する構
成であることを特徴とする請求項1に記載の3次元形状
計測装置。
2. The apparatus according to claim 1, wherein the light projecting means irradiates the object to be measured with one two-dimensional pattern and uniform irradiation light having no pattern as polarized irradiation light having different polarization angles. The three-dimensional shape measuring apparatus according to claim 1.
【請求項3】前記投光手段は、複数の異なる2次元パタ
ーンの各々を異なる偏光角を持つ偏光照射光として計測
対象に対して照射する構成であることを特徴とする請求
項1に記載の3次元形状計測装置。
3. The apparatus according to claim 1, wherein said light projecting means irradiates each of a plurality of different two-dimensional patterns onto a measurement object as polarized light having different polarization angles. 3D shape measuring device.
【請求項4】前記画像処理手段は、 前記複数の撮像手段の各々の撮影した複数の画像の差分
データを算出し、該差分データに基づいて視差画像を生
成する構成であることを特徴とする請求項1乃至3いず
れかに記載の3次元形状計測装置。
4. The image processing means is configured to calculate difference data of a plurality of images taken by each of the plurality of imaging means, and generate a parallax image based on the difference data. The three-dimensional shape measuring device according to claim 1.
【請求項5】前記画像処理手段は、 前記複数の撮像手段の各々の撮影した複数の画像の加算
データを算出し、該加算データに基づいて輝度画像を生
成する構成であることを特徴とする請求項1乃至4いず
れかに記載の3次元形状計測装置。
5. The image processing means is configured to calculate addition data of a plurality of images taken by each of the plurality of imaging means, and to generate a luminance image based on the addition data. The three-dimensional shape measuring device according to claim 1.
【請求項6】前記投光手段は、複数の光源と、該複数の
光源に対応して設定されたそれぞれが異なる偏光角の出
力光を出力する複数の偏光フィルタとを有する構成であ
ることを特徴とする請求項1乃至5いずれかに記載の3
次元形状計測装置。
6. A light-emitting device according to claim 1, wherein said light projecting means has a plurality of light sources and a plurality of polarization filters set corresponding to said plurality of light sources, each of which outputs output light having a different polarization angle. The method according to any one of claims 1 to 5, wherein
Dimensional shape measuring device.
【請求項7】前記投光手段は、それぞれが異なる偏光角
の出力光を出力する複数の偏光光源を有する構成である
ことを特徴とする請求項1乃至5いずれかに記載の3次
元形状計測装置。
7. The three-dimensional shape measurement according to claim 1, wherein said light projecting means has a plurality of polarized light sources each of which outputs output light having a different polarization angle. apparatus.
【請求項8】前記撮像手段は、 複数の撮影手段と、該複数の撮影手段に対応して設定さ
れたそれぞれが異なる偏光角の光を通過させる複数の偏
光フィルタとを有する構成であることを特徴とする請求
項1乃至7いずれかに記載の3次元形状計測装置。
8. The image pickup device according to claim 1, wherein the image pickup device has a plurality of photographing devices, and a plurality of polarizing filters set corresponding to the plurality of photographing devices, each of which transmits light having a different polarization angle. The three-dimensional shape measuring apparatus according to any one of claims 1 to 7, wherein:
【請求項9】前記撮像手段は、 複数の撮影手段と、異なる偏光角の光を分離するビーム
スプリッタとを有する構成であることを特徴とする請求
項1乃至7いずれかに記載の3次元形状計測装置。
9. The three-dimensional shape according to claim 1, wherein said image pickup means has a plurality of image pickup means and a beam splitter for separating light having different polarization angles. Measuring device.
【請求項10】2次元パターンを計測対象に対して投影
したパターン画像に基づいて計測対象の距離情報を取得
する3次元形状計測方法において、 少なくとも1つの2次元パターンを含む複数の照射光
を、各々が異なる偏光角を持つ偏光照射光として計測対
象に対して照射するパターン投光ステップと、 前記複数の照射光が照射された計測対象の像を撮像する
撮像ステップであり、前記偏光照射光の各々を選択的に
撮像し複数の撮影画像を取得する撮像ステップと、 前記撮像ステップにおいて撮影した複数の画像に基づい
て視差画像を生成し、該視差画像に基づいて前記計測対
象の距離情報を求める画像処理ステップと、 を有することを特徴とする3次元形状計測方法。
10. A three-dimensional shape measurement method for acquiring distance information of a measurement target based on a pattern image obtained by projecting a two-dimensional pattern onto the measurement target, wherein a plurality of irradiation lights including at least one two-dimensional pattern are provided. A pattern projection step of irradiating the measurement target as polarized irradiation light each having a different polarization angle, and an imaging step of capturing an image of the measurement target irradiated with the plurality of irradiation lights, An imaging step of selectively imaging each to obtain a plurality of captured images; generating a parallax image based on the plurality of images captured in the imaging step; and obtaining distance information of the measurement target based on the parallax images. An image processing step, comprising the steps of:
【請求項11】前記パターン投光ステップは、1つの2
次元パターンと、パターンを持たない均一照射光の各々
を異なる偏光角を持つ偏光照射光として計測対象に対し
て照射することを特徴とする請求項10に記載の3次元
形状計測方法。
11. The pattern projecting step includes:
The three-dimensional shape measurement method according to claim 10, wherein the three-dimensional shape and the uniform irradiation light having no pattern are each irradiated on the measurement target as polarized irradiation light having a different polarization angle.
【請求項12】前記パターン投光ステップは、複数の異
なる2次元パターンの各々を異なる偏光角を持つ偏光照
射光として計測対象に対して照射することを特徴とする
請求項10に記載の3次元形状計測方法。
12. The three-dimensional pattern according to claim 10, wherein the pattern projecting step irradiates each of the plurality of different two-dimensional patterns as polarized light having different polarization angles to the object to be measured. Shape measurement method.
【請求項13】前記画像処理ステップは、 前記複数の撮像手段の各々の撮影した複数の画像の差分
データを算出し、該差分データに基づいて視差画像を生
成することを特徴とする請求項10乃至12いずれかに
記載の3次元形状計測方法。
13. The method according to claim 10, wherein the image processing step calculates difference data of a plurality of images taken by each of the plurality of imaging means, and generates a parallax image based on the difference data. 13. The three-dimensional shape measurement method according to any one of claims 12 to 12.
【請求項14】前記画像処理ステップは、 前記複数の撮像手段の各々の撮影した複数の画像の加算
データを算出し、該加算データに基づいて輝度画像を生
成することを特徴とする請求項10乃至13いずれかに
記載の3次元形状計測方法。
14. An image processing method according to claim 10, wherein said image processing step calculates sum data of a plurality of images taken by each of said plurality of image pickup means, and generates a luminance image based on said sum data. 14. The method for measuring a three-dimensional shape according to any one of claims 13 to 13.
JP2001009029A 2001-01-17 2001-01-17 Instrument and method for measuring three-dimensional shape Pending JP2002213931A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001009029A JP2002213931A (en) 2001-01-17 2001-01-17 Instrument and method for measuring three-dimensional shape

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001009029A JP2002213931A (en) 2001-01-17 2001-01-17 Instrument and method for measuring three-dimensional shape

Publications (1)

Publication Number Publication Date
JP2002213931A true JP2002213931A (en) 2002-07-31

Family

ID=18876576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001009029A Pending JP2002213931A (en) 2001-01-17 2001-01-17 Instrument and method for measuring three-dimensional shape

Country Status (1)

Country Link
JP (1) JP2002213931A (en)

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006064454A (en) * 2004-08-25 2006-03-09 Fuji Xerox Co Ltd Three-dimensional image acquisition system and method
JP2006308323A (en) * 2005-04-26 2006-11-09 Teruaki Yogo Three-dimensional shape measuring method
US7236256B2 (en) * 2002-12-11 2007-06-26 Fuji Xerox Co. Ltd. Range finder and method
JP2008309532A (en) * 2007-06-13 2008-12-25 Lasertec Corp Three-dimensional measuring apparatus and inspection apparatus
JP2009511897A (en) * 2005-10-11 2009-03-19 プライム センス リミティド Object reconstruction method and system
GB2453163A (en) * 2007-09-26 2009-04-01 Christopher Douglas Blair Three dimensional imaging by multiple image capture under different illumination conditions
JP2009300386A (en) * 2008-06-17 2009-12-24 Sokkia Topcon Co Ltd Survey instrument
JP2010276507A (en) * 2009-05-29 2010-12-09 Ricoh Co Ltd Image recognizing device and vehicle-exterior monitoring device
US8050461B2 (en) 2005-10-11 2011-11-01 Primesense Ltd. Depth-varying light fields for three dimensional sensing
US8150142B2 (en) 2007-04-02 2012-04-03 Prime Sense Ltd. Depth mapping using projected patterns
JP2012122975A (en) * 2010-12-10 2012-06-28 Maxell Finetech Ltd Optical distance measuring device, distance measuring method of optical distance measurement device and program for distance measurement
US8350847B2 (en) 2007-01-21 2013-01-08 Primesense Ltd Depth mapping using multi-beam illumination
US8374397B2 (en) 2005-10-11 2013-02-12 Primesense Ltd Depth-varying light fields for three dimensional sensing
US8390821B2 (en) 2005-10-11 2013-03-05 Primesense Ltd. Three-dimensional sensing using speckle patterns
US8456517B2 (en) 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
US8462207B2 (en) 2009-02-12 2013-06-11 Primesense Ltd. Depth ranging with Moiré patterns
US8494252B2 (en) 2007-06-19 2013-07-23 Primesense Ltd. Depth mapping using optical elements having non-uniform focal characteristics
US8493496B2 (en) 2007-04-02 2013-07-23 Primesense Ltd. Depth mapping using projected patterns
JP2013257340A (en) * 2005-12-14 2013-12-26 Koh Young Technology Inc Three-dimensional shape measuring apparatus and method
US8717417B2 (en) 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
US8786682B2 (en) 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
JP2014153287A (en) * 2013-02-12 2014-08-25 Wakayama Univ Shape measurement device and shape measurement method
US8830227B2 (en) 2009-12-06 2014-09-09 Primesense Ltd. Depth-based gain control
WO2015014797A1 (en) * 2013-08-02 2015-02-05 Koninklijke Philips N.V. Laser device with adjustable polarization
US8982182B2 (en) 2010-03-01 2015-03-17 Apple Inc. Non-uniform spatial resource allocation for depth mapping
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
US9066087B2 (en) 2010-11-19 2015-06-23 Apple Inc. Depth mapping using time-coded illumination
KR20150069771A (en) * 2013-12-16 2015-06-24 삼성전자주식회사 Event filtering device and motion recognition device thereof
US9098931B2 (en) 2010-08-11 2015-08-04 Apple Inc. Scanning projectors and image capture modules for 3D mapping
US9131136B2 (en) 2010-12-06 2015-09-08 Apple Inc. Lens arrays for pattern projection and imaging
US9157790B2 (en) 2012-02-15 2015-10-13 Apple Inc. Integrated optoelectronic modules with transmitter, receiver and beam-combining optics for aligning a beam axis with a collection axis
JP2015232481A (en) * 2014-06-09 2015-12-24 株式会社キーエンス Inspection device, inspection method, and program
US9330324B2 (en) 2005-10-11 2016-05-03 Apple Inc. Error compensation in three-dimensional mapping
WO2016098400A1 (en) * 2014-12-15 2016-06-23 ソニー株式会社 Image capture device assembly, three-dimensional shape measurement device, and motion detection device
US9582889B2 (en) 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
JP2018204976A (en) * 2017-05-30 2018-12-27 キヤノン株式会社 Distance measuring apparatus, distance measuring method, and imaging apparatus
US10223575B2 (en) 2015-07-09 2019-03-05 Canon Kabushiki Kaisha Measurement apparatus for measuring shape of object, system and method for producing article
JP2019100852A (en) * 2017-12-01 2019-06-24 オムロン株式会社 Image processing system and image processing method
JP2021504677A (en) * 2017-12-12 2021-02-15 ウェイモ エルエルシー LIDAR systems and methods with adjustable resolution and fail-safe operation
WO2022054167A1 (en) * 2020-09-09 2022-03-17 日本電信電話株式会社 Position estimation method, position estimation device, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03289505A (en) * 1990-04-06 1991-12-19 Nippondenso Co Ltd Three-dimensional shape measuring apparatus
JPH04220509A (en) * 1990-03-09 1992-08-11 Carl Zeiss:Fa Method and apparatus for measuring surface of substance without contact
JPH0791929A (en) * 1993-09-20 1995-04-07 Mitsubishi Heavy Ind Ltd Device for measuring three-dimensional shape with telecamera
JPH07120217A (en) * 1993-10-28 1995-05-12 Sony Corp Distance measurement method and device
JPH0942940A (en) * 1995-08-03 1997-02-14 Canon Inc Shape measuring method and device for three-dimensional object
JPH10170239A (en) * 1996-10-08 1998-06-26 Matsushita Electric Ind Co Ltd Three-dimensional shape measuring device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04220509A (en) * 1990-03-09 1992-08-11 Carl Zeiss:Fa Method and apparatus for measuring surface of substance without contact
JPH03289505A (en) * 1990-04-06 1991-12-19 Nippondenso Co Ltd Three-dimensional shape measuring apparatus
JPH0791929A (en) * 1993-09-20 1995-04-07 Mitsubishi Heavy Ind Ltd Device for measuring three-dimensional shape with telecamera
JPH07120217A (en) * 1993-10-28 1995-05-12 Sony Corp Distance measurement method and device
JPH0942940A (en) * 1995-08-03 1997-02-14 Canon Inc Shape measuring method and device for three-dimensional object
JPH10170239A (en) * 1996-10-08 1998-06-26 Matsushita Electric Ind Co Ltd Three-dimensional shape measuring device

Cited By (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7236256B2 (en) * 2002-12-11 2007-06-26 Fuji Xerox Co. Ltd. Range finder and method
JP4556555B2 (en) * 2004-08-25 2010-10-06 富士ゼロックス株式会社 Three-dimensional image acquisition apparatus and method
JP2006064454A (en) * 2004-08-25 2006-03-09 Fuji Xerox Co Ltd Three-dimensional image acquisition system and method
JP2006308323A (en) * 2005-04-26 2006-11-09 Teruaki Yogo Three-dimensional shape measuring method
US8374397B2 (en) 2005-10-11 2013-02-12 Primesense Ltd Depth-varying light fields for three dimensional sensing
JP2009511897A (en) * 2005-10-11 2009-03-19 プライム センス リミティド Object reconstruction method and system
US9066084B2 (en) 2005-10-11 2015-06-23 Apple Inc. Method and system for object reconstruction
US8400494B2 (en) 2005-10-11 2013-03-19 Primesense Ltd. Method and system for object reconstruction
US8050461B2 (en) 2005-10-11 2011-11-01 Primesense Ltd. Depth-varying light fields for three dimensional sensing
US8390821B2 (en) 2005-10-11 2013-03-05 Primesense Ltd. Three-dimensional sensing using speckle patterns
US9330324B2 (en) 2005-10-11 2016-05-03 Apple Inc. Error compensation in three-dimensional mapping
JP2013257340A (en) * 2005-12-14 2013-12-26 Koh Young Technology Inc Three-dimensional shape measuring apparatus and method
US8350847B2 (en) 2007-01-21 2013-01-08 Primesense Ltd Depth mapping using multi-beam illumination
US8150142B2 (en) 2007-04-02 2012-04-03 Prime Sense Ltd. Depth mapping using projected patterns
US8493496B2 (en) 2007-04-02 2013-07-23 Primesense Ltd. Depth mapping using projected patterns
JP2008309532A (en) * 2007-06-13 2008-12-25 Lasertec Corp Three-dimensional measuring apparatus and inspection apparatus
US8494252B2 (en) 2007-06-19 2013-07-23 Primesense Ltd. Depth mapping using optical elements having non-uniform focal characteristics
GB2453163B (en) * 2007-09-26 2011-06-29 Christopher Douglas Blair Three-dimensional imaging system
GB2453163A (en) * 2007-09-26 2009-04-01 Christopher Douglas Blair Three dimensional imaging by multiple image capture under different illumination conditions
JP2009300386A (en) * 2008-06-17 2009-12-24 Sokkia Topcon Co Ltd Survey instrument
US8456517B2 (en) 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
US8462207B2 (en) 2009-02-12 2013-06-11 Primesense Ltd. Depth ranging with Moiré patterns
US8786682B2 (en) 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
US8717417B2 (en) 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
JP2010276507A (en) * 2009-05-29 2010-12-09 Ricoh Co Ltd Image recognizing device and vehicle-exterior monitoring device
US9582889B2 (en) 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
US8830227B2 (en) 2009-12-06 2014-09-09 Primesense Ltd. Depth-based gain control
US8982182B2 (en) 2010-03-01 2015-03-17 Apple Inc. Non-uniform spatial resource allocation for depth mapping
US9098931B2 (en) 2010-08-11 2015-08-04 Apple Inc. Scanning projectors and image capture modules for 3D mapping
US9066087B2 (en) 2010-11-19 2015-06-23 Apple Inc. Depth mapping using time-coded illumination
US9131136B2 (en) 2010-12-06 2015-09-08 Apple Inc. Lens arrays for pattern projection and imaging
US9167138B2 (en) 2010-12-06 2015-10-20 Apple Inc. Pattern projection and imaging using lens arrays
JP2012122975A (en) * 2010-12-10 2012-06-28 Maxell Finetech Ltd Optical distance measuring device, distance measuring method of optical distance measurement device and program for distance measurement
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
US9651417B2 (en) 2012-02-15 2017-05-16 Apple Inc. Scanning depth engine
US9157790B2 (en) 2012-02-15 2015-10-13 Apple Inc. Integrated optoelectronic modules with transmitter, receiver and beam-combining optics for aligning a beam axis with a collection axis
JP2014153287A (en) * 2013-02-12 2014-08-25 Wakayama Univ Shape measurement device and shape measurement method
US10135225B2 (en) 2013-08-02 2018-11-20 Koninklijke Philips N.V. Laser device with adjustable polarization
JP2016525802A (en) * 2013-08-02 2016-08-25 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Laser device with tunable polarization
WO2015014797A1 (en) * 2013-08-02 2015-02-05 Koninklijke Philips N.V. Laser device with adjustable polarization
CN105474482A (en) * 2013-08-02 2016-04-06 皇家飞利浦有限公司 Laser device with adjustable polarization
KR20150069771A (en) * 2013-12-16 2015-06-24 삼성전자주식회사 Event filtering device and motion recognition device thereof
KR102159996B1 (en) 2013-12-16 2020-09-25 삼성전자주식회사 Event filtering device and motion recognition device thereof
JP2015232481A (en) * 2014-06-09 2015-12-24 株式会社キーエンス Inspection device, inspection method, and program
JP2020060599A (en) * 2014-12-15 2020-04-16 ソニー株式会社 Imaging device assembly, three-dimensional shape measuring device and motion detection device, and method of measuring three-dimensional shape
CN111982023B (en) * 2014-12-15 2022-06-14 索尼公司 Image capturing device assembly, three-dimensional shape measuring device, and motion detecting device
JPWO2016098400A1 (en) * 2014-12-15 2017-09-21 ソニー株式会社 Imaging device assembly, three-dimensional shape measuring device, and motion detecting device
CN107003116A (en) * 2014-12-15 2017-08-01 索尼公司 Image capture device component, 3 d shape measuring apparatus and motion detection apparatus
WO2016098400A1 (en) * 2014-12-15 2016-06-23 ソニー株式会社 Image capture device assembly, three-dimensional shape measurement device, and motion detection device
CN111982023A (en) * 2014-12-15 2020-11-24 索尼公司 Image capturing device assembly, three-dimensional shape measuring device, and motion detecting device
EP3236199A4 (en) * 2014-12-15 2018-06-06 Sony Corporation Image capture device assembly, three-dimensional shape measurement device, and motion detection device
US11099008B2 (en) 2014-12-15 2021-08-24 Sony Corporation Capture device assembly, three-dimensional shape measurement device, and motion detection device
US10223575B2 (en) 2015-07-09 2019-03-05 Canon Kabushiki Kaisha Measurement apparatus for measuring shape of object, system and method for producing article
JP2018204976A (en) * 2017-05-30 2018-12-27 キヤノン株式会社 Distance measuring apparatus, distance measuring method, and imaging apparatus
JP7005175B2 (en) 2017-05-30 2022-01-21 キヤノン株式会社 Distance measuring device, distance measuring method and imaging device
JP2019100852A (en) * 2017-12-01 2019-06-24 オムロン株式会社 Image processing system and image processing method
US11118901B2 (en) 2017-12-01 2021-09-14 Omron Corporation Image processing system and image processing method
JP2021504677A (en) * 2017-12-12 2021-02-15 ウェイモ エルエルシー LIDAR systems and methods with adjustable resolution and fail-safe operation
JP7046420B2 (en) 2017-12-12 2022-04-04 ウェイモ エルエルシー LIDAR systems and methods with adjustable resolution and fail-safe operation
JP2022091842A (en) * 2017-12-12 2022-06-21 ウェイモ エルエルシー Systems and methods for lidars with adjustable resolution and failsafe operation
JP7266130B2 (en) 2017-12-12 2023-04-27 ウェイモ エルエルシー Systems and methods for LIDAR with adjustable resolution and fail-safe operation
WO2022054167A1 (en) * 2020-09-09 2022-03-17 日本電信電話株式会社 Position estimation method, position estimation device, and program
JP7445176B2 (en) 2020-09-09 2024-03-07 日本電信電話株式会社 Position estimation method, position estimation device and program

Similar Documents

Publication Publication Date Title
JP2002213931A (en) Instrument and method for measuring three-dimensional shape
EP3531066B1 (en) Three-dimensional scanning method including a plurality of lasers with different wavelengths, and scanner
US9392262B2 (en) System and method for 3D reconstruction using multiple multi-channel cameras
US20190156557A1 (en) 3d geometric modeling and 3d video content creation
EP2751521B1 (en) Method and system for alignment of a pattern on a spatial coded slide image
CN104335005B (en) 3D is scanned and alignment system
JP3714063B2 (en) 3D shape measuring device
CN107735645B (en) Three-dimensional shape measuring device
US6765606B1 (en) Three dimension imaging by dual wavelength triangulation
KR101824328B1 (en) 3-D scanner and the scanning method using the chromatic aberration
JP2008241643A (en) Three-dimensional shape measuring device
JP3414624B2 (en) Real-time range finder
JP2001082940A (en) Apparatus and method for generating three-dimensional model
JP3818028B2 (en) 3D image capturing apparatus and 3D image capturing method
KR20200046789A (en) Method and apparatus for generating 3-dimensional data of moving object
JP2004110804A (en) Three-dimensional image photographing equipment and method
JP2010078339A (en) Device and method for measuring three-dimensional shape, and program
JP5743433B2 (en) 3D shape measuring device
JP3912666B2 (en) Optical shape measuring device
JP3852285B2 (en) 3D shape measuring apparatus and 3D shape measuring method
JP3932776B2 (en) 3D image generation apparatus and 3D image generation method
JP3729035B2 (en) 3D image capturing apparatus and 3D image capturing method
JP3668466B2 (en) Real-time range finder
JPH0723684Y2 (en) Range finder
JP2002013918A (en) Three-dimensional image forming device and three- dimensional image forming method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070605