JP2001264033A - Three-dimensional shape-measuring apparatus and its method, three-dimensional modeling device and its method, and program providing medium - Google Patents

Three-dimensional shape-measuring apparatus and its method, three-dimensional modeling device and its method, and program providing medium

Info

Publication number
JP2001264033A
JP2001264033A JP2000075733A JP2000075733A JP2001264033A JP 2001264033 A JP2001264033 A JP 2001264033A JP 2000075733 A JP2000075733 A JP 2000075733A JP 2000075733 A JP2000075733 A JP 2000075733A JP 2001264033 A JP2001264033 A JP 2001264033A
Authority
JP
Japan
Prior art keywords
image
projection pattern
light
distance image
reference camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000075733A
Other languages
Japanese (ja)
Inventor
Ikoku Go
偉国 呉
Teruyuki Ushiro
輝行 後
Takayuki Ashigahara
隆之 芦ヶ原
Kazunori Hayashi
和慶 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000075733A priority Critical patent/JP2001264033A/en
Publication of JP2001264033A publication Critical patent/JP2001264033A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional shape measuring apparatus, capable of producing a distance image with high accuracy by simultaneously capturing a texture image and a light projection pattern image for distance measurement, in a stereoscopically imaging method. SOLUTION: A light projection pattern is irradiated with infrared rays, or the like, having wavelengths which are different from those of visible rays. The texture image with visible rays and a light projection pattern image with infrared rays, or the like, are captured simultaneously by a standard camera and a reference camera. A mismatching area is detected in a distance image obtained from the pattern images. By using the images captured simultaneously with infrared rays, a distant image having a partial area corresponding to the mismatching area is produced, and it is substituted for the mismatching area in the distance image based on the pattern images, thereby producing a more accurate distance image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、三次元形状計測装
置とその方法、三次元モデリング装置とその方法、およ
びプログラム提供媒体に関する。特に三次元空間上であ
る距離範囲に存在する物体を複数の異なる位置から撮影
した画像を用いて被写体表面の三次元形状を計測する場
合に用いられる好適な三次元形状計測装置とその方法、
三次元モデリング装置とその方法、およびプログラム提
供媒体に関する。
The present invention relates to a three-dimensional shape measuring device and method, a three-dimensional modeling device and method, and a program providing medium. Particularly suitable three-dimensional shape measurement device and method used when measuring the three-dimensional shape of the subject surface using images taken from a plurality of different positions of the object present in a distance range on the three-dimensional space,
The present invention relates to a three-dimensional modeling device and method, and a program providing medium.

【0002】[0002]

【従来の技術】物体の三次元形状を求める従来手法とし
て、大きく分けて能動的手法(アクティブ手法)と受動
的手法(パッシブ手法)がある。能動的手法としては、光
を投射して、その光が反射して帰ってくるまでの時間を
測定することで各測定対象物体までの距離を求める方法
や、測定対象にスリット状のパターン光をあてて測定対
象に投影されたパターン光の形状を調べることによって
三次元形状を計測する光切断法といった方法がある。
2. Description of the Related Art Conventional methods for obtaining a three-dimensional shape of an object are roughly classified into an active method (active method) and a passive method (passive method). Active methods include a method of projecting light and measuring the time until the light is reflected back to determine the distance to each object to be measured, or a method of applying slit-shaped pattern light to the object to be measured. There is a method such as a light cutting method for measuring a three-dimensional shape by examining the shape of the pattern light projected on the target to be measured.

【0003】また、受動的手法として代表的なものは、
三角測量の原理を利用したステレオ画像法であり、これ
は2台以上のカメラを使って、その画像間の対応点を見
つけることで視差を求め、距離を計測する方法である。
ステレオ画像法については、例えば、金出、中原、奥富
「マルチベースラインステレオ法による三次元計測」、
画像ラボ、pp53−57に記載されている。
[0003] A typical passive method is as follows.
This is a stereo image method that uses the principle of triangulation, and is a method of measuring a distance by using two or more cameras to find a corresponding point between the images to obtain parallax.
For stereo image method, for example, Kinade, Nakahara, Okutomi "3D measurement by multi-baseline stereo method",
Image Lab, pp 53-57.

【0004】ステレオ画像法について、その原理を簡単
に説明する。ステレオ画像法は複数のカメラを用いて2
つ以上の方向(異なる視線方向)から同一対象物を撮影
して得られる複数の画像における画素同士を対応づける
ことで測定対象物の三次元空間における位置を求めよう
とするものである。例えば基準カメラと参照カメラによ
り異なる方向から同一対象物を撮影して、それぞれの画
像内の測定対象物の距離を三角測量の原理により測定す
る。
The principle of the stereo image method will be briefly described. The stereo image method uses two or more cameras.
The position of a measurement target in a three-dimensional space is to be obtained by associating pixels in a plurality of images obtained by photographing the same target from more than one direction (different line-of-sight directions). For example, the same object is photographed from different directions by the reference camera and the reference camera, and the distance between the measurement objects in each image is measured based on the principle of triangulation.

【0005】図1は、ステレオ画像法の原理を説明する
図である。基準カメラ(Camera 1)と参照カメ
ラ(Camera 2)は異なる方向から同一対象物を
撮影する。基準カメラによって撮影された画像中の「m
b」というポイントの奥行きを求めることを考える。
FIG. 1 is a diagram for explaining the principle of the stereo image method. The reference camera (Camera 1) and the reference camera (Camera 2) photograph the same object from different directions. "M" in the image taken by the reference camera
Consider finding the depth of the point "b".

【0006】基準カメラによる撮影画像中のポイント
「mb」に見える物体は、奥行き方向の位置(p1,p
2,p3)によって、異なる方向から同一物体を撮影し
ている参照カメラによって撮影された画像において、
「m1」、「m2」、「m3」のようにある直線上に展
開されることになる。この直線をエピポーラライン(E
pipolar line)Lpと呼ぶ。
[0006] An object that appears at a point "mb" in an image captured by the reference camera is located at a position in the depth direction (p1, p).
According to (2, p3), in an image captured by a reference camera capturing the same object from different directions,
It is developed on a certain straight line such as "m1,""m2," and "m3." This straight line is connected to the epipolar line (E
(pipolar line) Lp.

【0007】基準カメラにおけるポイント「mb」の位
置は、参照カメラによる画像中では「エピポーラ・ライ
ン」と呼ばれる直線上に現れる。撮像対象となる点P
(P1,P2,P3を含む直線上に存在する点)は、基
準カメラの視線上に存在する限り、奥行きすなわち基準
カメラとの距離の大小に拘らず、基準画像上では同じ観
察点「mb」に現れる。これに対し、参照カメラによる
撮影画像上における点Pは、エピポーラ・ライン上に基
準カメラと観察点Pとの距離の大小に応じた位置にあら
われる。
[0007] The position of the point "mb" in the reference camera appears on a straight line called an "epipolar line" in the image taken by the reference camera. Point P to be imaged
(Points existing on a straight line including P1, P2, and P3) are the same observation point “mb” on the reference image regardless of the depth, that is, the distance from the reference camera, as long as they are on the line of sight of the reference camera. Appears in On the other hand, the point P on the image captured by the reference camera appears on the epipolar line at a position corresponding to the magnitude of the distance between the reference camera and the observation point P.

【0008】図1には、エピポーラ・ラインと、参照画
像中における観察点「mb」の対応を図解している。同
図に示すように、観察点Pの位置がP1,P2,P3へ
と変化するに従って、参照画像中の観察点は「m1」、
「m2」、「m3」へとシフトする。
FIG. 1 illustrates a correspondence between an epipolar line and an observation point “mb” in a reference image. As shown in the figure, as the position of the observation point P changes to P1, P2, and P3, the observation point in the reference image is “m1”,
Shift to “m2” and “m3”.

【0009】以上の幾何光学的性質を利用して、基準画
像上の観察点「mb」との対応点をエピポーラ・ライン
上で探索することにより、点Pの距離を同定することが
できる。これが「ステレオ画像法」の基本的原理であ
る。このような方法で画面上のすべての画素についての
三次元情報を取得する。取得した三次元情報は画素ごと
に対応した画素属性データとして使用することが可能と
なる。
Using the above geometrical optical properties, the distance to the point P can be identified by searching for a point corresponding to the observation point "mb" on the reference image on the epipolar line. This is the basic principle of the “stereo image method”. In this way, three-dimensional information on all pixels on the screen is obtained. The acquired three-dimensional information can be used as pixel attribute data corresponding to each pixel.

【0010】上述のステレオ画像法は1台の基準カメラ
と1台の参照カメラとを用いた構成としたが、参照カメ
ラを複数用いたマルチベースラインステレオ(Mult
iBaseline Stereo)法によって評価値
を求めて、該評価値に基づいて画素ごとの三次元情報を
取得するように構成してもよい。マルチベースラインス
テレオ画像法は、1つの基準カメラと複数の参照カメラ
によって撮影される画像を用い、複数の参照カメラ画像
それぞれについて基準カメラ画像との相関を表す評価値
を求め、それぞれの評価値を加算し、その加算値を最終
的な評価値とするものである。このマルチベースライン
ステレオ画像法の詳細は、例えば「複数の基線長を利用
したステレオマッチング」、電子情報通信学会論文誌D
−IIVol.J75−D−II No.8 pp.1
317−1327 1992年8月、に記載されてい
る。
Although the above-described stereo image method uses one reference camera and one reference camera, a multi-baseline stereo (Multi) using a plurality of reference cameras is used.
An evaluation value may be obtained by an iBaseline Stereo) method, and three-dimensional information for each pixel may be obtained based on the evaluation value. The multi-baseline stereo image method uses images taken by one reference camera and a plurality of reference cameras, obtains an evaluation value representing a correlation between each of the plurality of reference camera images and the reference camera image, and calculates each evaluation value. The sum is added and the sum is used as a final evaluation value. For details of the multi-baseline stereo image method, see, for example, “Stereo matching using a plurality of baseline lengths”, IEICE Transactions D
-IIVol. J75-D-II No. 8 pp. 1
317-1327, August 1992.

【0011】上述のように、ステレオ画像法は、複数の
カメラを用いて2つ以上の方向(異なる視線方向)から
同一対象物を撮影して得られる複数の画像における画素
同士を対応づけること、すなわち「対応点付け」を実施
することで測定対象物の三次元空間における位置を求め
ようとするものである。
As described above, the stereo image method associates pixels in a plurality of images obtained by photographing the same object from two or more directions (different line-of-sight directions) using a plurality of cameras; That is, the position of the measurement object in the three-dimensional space is obtained by performing “corresponding scoring”.

【0012】従来、よく使われている「対応点付け」の
手法は、Pixel-basedマッチング、Area-basedマッチン
グとFeature-basedマッチングに大別される。Pixel-bas
edマッチングとは、一方の画像における点の対応を、他
方の画像でそのまま探索する方法である(C.Lawrence Z
itnick and Jon A. Webb: Multi-baseline Stereo Usin
g Surface Extraction, Technical Report, CMU-CS-96-
196, (1996)参照)。
Conventionally, the method of “corresponding scoring” that is often used is roughly classified into pixel-based matching, area-based matching, and feature-based matching. Pixel-bas
ed matching is a method of searching for the correspondence of points in one image as it is in the other image (C. Lawrence Z
itnick and Jon A. Webb: Multi-baseline Stereo Usin
g Surface Extraction, Technical Report, CMU-CS-96-
196, (1996)).

【0013】Area-basedマッチングとは、一方の画像に
おける点の対応を、他方の画像で探す時、その点の周り
の局所的な画像パターンを用いて探索する方法である
(奥富、金出: 複数の基線長を利用したステレオマッ
チング、電子情報通信学会論文誌D-II、Vol.J75-D-II,
No.8, pp.1317-1327, (1992)、横山、三輪、芦ヶ原、小
柳津、林、後: Stereo Camera System and Its Applic
ation、 SRF'97、(1997)、金出、木村: ビデオレー
ト・ステレオマシン、日本ロボット学会誌、Vol.13, N
o.3, pp.322〜326, (1995)、金出、蚊野、木村、川村、
吉田、織田: ビデオレートステレオマシンの開発、日
本ロボット学会誌、Vol.15, No.2, pp.261〜267, (199
7)、山口、高地、井口: 適応ウィンドウ法を用いた石
像計測のためのステレオ対応付け、人文科学とコンピュ
ータ、Vol.32, No.10, pp.55〜60, (1996)、横矢: 最
近の信号処理総合特集号 コンピュータビジョンの最近
の話題、システム/制御/情報、Vol.38, No.8, pp.436
〜441, (1994)参照)。
Area-based matching is a method of searching for a correspondence of a point in one image by using a local image pattern around the point when searching the other image (Okutomi, Kinide: Stereo matching using multiple baseline lengths, IEICE Transactions D-II, Vol.J75-D-II,
No.8, pp.1317-1327, (1992), Yokoyama, Miwa, Ashigahara, Koyanatsu, Hayashi, later: Stereo Camera System and Its Applic
ation, SRF'97, (1997), Kanade, Kimura: Video Rate Stereo Machine, Journal of the Robotics Society of Japan, Vol.13, N
o.3, pp.322-326, (1995), Kinade, Mosquito Field, Kimura, Kawamura,
Yoshida, Oda: Development of Video Rate Stereo Machine, Journal of the Robotics Society of Japan, Vol.15, No.2, pp.261-267, (199
7), Yamaguchi, Takachi, Iguchi: Stereo matching for stone image measurement using adaptive window method, Humanities and Computer, Vol.32, No.10, pp.55-60, (1996), Yokoya: Recent Special Issue on Signal Processing in Computers, Recent Topics on Computer Vision, Systems / Control / Information, Vol.38, No.8, pp.436
441, (1994)).

【0014】Feature-basedマッチングとは、画像から
濃淡エッジなどの特徴を抽出し、画像間の特徴だけを用
いて対応付けを行う方法である(H.H.Baker and T.O.Bi
nford: Depth from edge and intensity based stereo,
In Proc. IJCAI'81, (1981)、石山、角保、河井、植
芝、富田: セグメントベーストステレオにおける対応
候補探索、信学技報、Vol.96, No.136, (1997)、W.E.L.
Grimson: Computationalexperiments with a feature b
ased stereo algorithm, IEEE Trans. PAMI, Vol.7, N
o.1, pp.17〜34, (1985))。
[0014] Feature-based matching is a method of extracting features such as shaded edges from images and associating them using only features between images (HHBaker and TOBi).
nford: Depth from edge and intensity based stereo,
In Proc. IJCAI'81, (1981), Ishiyama, Kakuho, Kawai, Ueshiba, Tomita: Searching for Correspondence Candidates in Segment-Based Stereo, IEICE Technical Report, Vol.96, No.136, (1997), WEL
Grimson: Computationalexperiments with a feature b
ased stereo algorithm, IEEE Trans. PAMI, Vol. 7, N
o.1, pp.17-34, (1985)).

【0015】上述の各種の方法により、ステレオ画像法
における対応点付け処理が行なわれる。しかしながら、
白い壁や人間の顔などの特徴(濃淡、形状、色等)のほ
とんどない対象に対しては、上述のいずれの方法を使用
しても、3次元形状を計測するために必要となる対応点
付け処理が困難となる。これが、ステレオ画像法による
処理における一つの大きな課題となっている。
According to the various methods described above, the corresponding pointing process in the stereo image method is performed. However,
For objects with few features (shades, shapes, colors, etc.) such as white walls and human faces, the corresponding points required to measure the three-dimensional shape using any of the above methods The attachment process becomes difficult. This is one of the major issues in processing by the stereo image method.

【0016】白い壁や人間の顔などの特徴(濃淡、形
状、色等)のほとんどない対象に対しての対応付け処理
をより正確に行なうため、チェッカや周波数変調された
正弦波などの周期的なパターンを投光することによっ
て、マルチベースラインステレオシステムによる画像マ
ッチングのエラーを低減する手法が、いくつか開示され
ている(S.B.Kang, J.A.Webb, C.L.Zitnick and T.Kana
de: A Multibaseline Stereo System with Active Illu
mination and Real-time Image Acquisition, ProcIEEE
Int Conf. Comput. Vis., Vol.5, pp.88〜93, (199
5)、M.Noguchi and S.K.Nayar: Microscopic Shape fro
m Focus Using Active Illumination, Proc Int. Conf.
Pattern Recogn., Vol.12, No.Vol 1, pp.147〜152,
(1994)参照)。
In order to more accurately perform an associating process on an object having almost no characteristic (shade, shape, color, etc.) such as a white wall or a human face, a periodic process such as a checker or a frequency-modulated sine wave is performed. Several techniques have been disclosed for reducing errors in image matching by a multi-baseline stereo system by projecting a simple pattern (SBKang, JAWebb, CLZitnick and T. Kana).
de: A Multibaseline Stereo System with Active Illu
mination and Real-time Image Acquisition, ProcIEEE
Int Conf.Comput.Vis., Vol.5, pp.88-93, (199
5), M. Noguchi and SKNayar: Microscopic Shape fro
m Focus Using Active Illumination, Proc Int. Conf.
Pattern Recogn., Vol.12, No.Vol 1, pp.147-152,
(1994)).

【0017】[0017]

【発明が解決しようとする課題】しかしながら、上述し
た従来手法では、対応付け処理におけるエラー、すなわ
ちミスマッチングの完全な除去を達成することはできな
かった。また、上述の周波数変調された周期的なパター
ンを投光して対応付け処理を実行する構成は、複数台
(3台以上)のカメラを用いるマルチベースラインステ
レオマシンにおいては、ミスマッチング領域減少に対し
て効果があるが、2台のカメラを用いる2眼ステレオ視
に対しては、生成される模様が周期的であるために類似
する模様同士の対応付けにエラーが発生する可能性があ
り、必ずしも有効とはならないという欠点がある。
However, in the above-mentioned conventional method, it was not possible to completely eliminate an error in the matching process, that is, a mismatch. Further, the above-described configuration of projecting the frequency-modulated periodic pattern and executing the associating process reduces the mismatching area in a multi-baseline stereo machine using a plurality of (three or more) cameras. However, for binocular stereo vision using two cameras, there is a possibility that an error occurs in associating similar patterns with each other because the generated patterns are periodic, There is a disadvantage that it is not always effective.

【0018】その他の手法として、空間コード法と呼ば
れる3次元計測法があるが、空間コード法は、被測定対
象物に対して、(1)規則正しいパターン光を投光しなけ
ればならないこと、(2)投光系とカメラとの位置関係が
厳密に保持しなければ距離計測ができないこと、(3)必
ず複数の規則正しいパターンを投光しなければ、距離画
像が得られないこと、(4)コードパターンを精密に投光
する必要があること等、様々な制約があるので、投光装
置の複雑化、計測処理の煩雑さ等、多くの欠点がある。
As another technique, there is a three-dimensional measurement method called a spatial code method. The spatial code method requires that (1) regular pattern light must be projected onto an object to be measured; 2) distance measurement cannot be performed unless the positional relationship between the light emitting system and the camera is strictly maintained; (3) distance images cannot be obtained unless plural regular patterns are always projected; (4) Since there are various restrictions such as the necessity of projecting a code pattern precisely, there are many disadvantages such as a complicated light projecting device and complicated measurement processing.

【0019】本発明は、このような課題を解決するため
になされた三次元形状計測装置とその方法、および、こ
れを応用した三次元モデリング装置とその方法を提供す
るものであり、テクスチャ画像と投光パターン画像を同
期的に取り込む構成を実現したものである。
The present invention provides a three-dimensional shape measuring apparatus and a method thereof for solving the above-mentioned problem, and a three-dimensional modeling apparatus and a method using the three-dimensional shape measuring apparatus. This achieves a configuration for synchronously capturing a light projection pattern image.

【0020】すなわち、ステレオ画像法においてテクス
チャ画像と距離計測用の投光パターン画像を同時に別々
の波長光で照射し、同時に別々に取り込むことを可能と
したものである。具体的には、例えばテクスチャ画像を
可視光で、距離計測用の投光パターン画像を赤外光で取
り込むような撮影機構を構成して、テクスチャ画像と投
光パターン画像を1回の撮影処理で同時に撮り込む三次
元(3D)形状計測装置を実現するものである。
That is, in the stereo image method, it is possible to simultaneously irradiate the texture image and the light projection pattern image for distance measurement with light of different wavelengths, and to simultaneously capture them separately. Specifically, for example, a photographing mechanism that captures a texture image with visible light and a light-projection pattern image for distance measurement with infrared light is configured so that the texture image and the light-projection pattern image can be captured in one photographing process. The present invention realizes a three-dimensional (3D) shape measuring device that captures images at the same time.

【0021】[0021]

【課題を解決するための手段】本発明は、上記課題を参
酌してなされたものであり、その第1の側面は、測定対
象を異なる方向から撮影した画像を用いて前記測定対象
の三次元形状を計測する三次元形状計測装置において、
可視光とは異なる波長の光を用いて投光パターンを前記
測定対象に照射する投光パターン照射手段と、前記投光
パターン照射手段によって投光パターンの照射された投
光パターン画像と、可視光によって観察されるテクスチ
ャ画像の2つの画像を画像分離手段によって分離して同
期した投光パターン画像とテクスチャ画像とを個別に撮
り込む基準カメラと、前記投光パターン照射手段によっ
て投光パターンの照射された投光パターン画像と、可視
光によって観察されるテクスチャ画像の2つの画像を画
像分離手段によって分離して同期した投光パターン画像
とテクスチャ画像とを、前記基準カメラと異なる方向か
ら、かつ前記基準カメラと同期したタイミングで撮り込
む参照カメラと、前記基準カメラおよび参照カメラによ
って撮り込まれた投光パターン画像に基づく距離画像、
および前記基準カメラおよび参照カメラによって撮り込
まれたテクスチャ画像に基づく距離画像を生成する距離
画像生成手段と、前記距離画像生成手段の生成した投光
パターン画像に基づく距離画像中のミスマッチング領域
を検出するミスマッチング領域検出手段と、前記ミスマ
ッチング領域検出手段の検出したミスマッチング領域を
含む部分領域の距離画像をテクスチャ画像に基づく距離
画像に置換する置換手段と、を有することを特徴とする
三次元形状計測装置にある。
Means for Solving the Problems The present invention has been made in consideration of the above problems, and a first aspect of the present invention is to provide a three-dimensional image of the object to be measured using images taken from different directions. In a three-dimensional shape measurement device that measures the shape,
A projection pattern irradiating unit that irradiates the measurement target with a projection pattern using light having a wavelength different from visible light, a projection pattern image irradiated with the projection pattern by the projection pattern irradiating unit, and a visible light A reference camera that separates and synchronizes the two projected images of the texture image observed by the image separating unit and captures the synchronized light projection pattern image and the texture image separately, and the illumination of the light projection pattern by the illumination pattern irradiation unit The projected light pattern image and the texture image, which are obtained by separating and synchronizing two images of the texture image observed by visible light by the image separating means, from a direction different from the reference camera and the reference image, A reference camera which is taken at a timing synchronized with the camera, and which is taken by the reference camera and the reference camera. Distance image based on the light pattern image,
And a distance image generating means for generating a distance image based on a texture image captured by the reference camera and the reference camera; and detecting a mismatched area in the distance image based on the light projection pattern image generated by the distance image generating means. A mismatching area detecting means, and a replacing means for replacing a distance image of a partial area including the mismatching area detected by the mismatching area detecting means with a distance image based on a texture image. It is in the shape measuring device.

【0022】さらに、本発明の三次元形状計測装置にお
いて、前記投光パターン照射手段の照射する投光パター
ンは赤外光による投光パターンであることを特徴とす
る。
Further, in the three-dimensional shape measuring apparatus according to the present invention, the light projection pattern irradiated by the light projection pattern irradiation means is a light projection pattern by infrared light.

【0023】さらに、本発明の三次元形状計測装置にお
いて、前記投光パターン照射手段の照射する投光パター
ンは非周期的投光パターンであることを特徴とする。
Further, in the three-dimensional shape measuring apparatus according to the present invention, the light projection pattern irradiated by the light projection pattern irradiation means is an aperiodic light projection pattern.

【0024】さらに、本発明の三次元形状計測装置にお
いて、前記画像分離手段は、分光器、および該分光器に
よって分離された経路上に配置された特定波長の光をカ
ットするフィルタを含む構成を有することを特徴とす
る。
Further, in the three-dimensional shape measuring apparatus according to the present invention, the image separating means includes a spectroscope and a filter arranged on a path separated by the spectrometer to cut off light of a specific wavelength. It is characterized by having.

【0025】さらに、本発明の三次元形状計測装置にお
いて、前記ミスマッチング領域検出手段は、距離画像中
の隣接画素の画素値の差分と予め定めた閾値とを比較
し、該閾値より差分の小さい画素同士に同一ラベルを付
与するラベリング処理を実行し、同一ラベル領域に囲ま
れた異なるラベルの付与された小領域をミスマッチング
領域として検出する処理を実行する構成であることを特
徴とする。
Further, in the three-dimensional shape measuring apparatus according to the present invention, the mismatching area detecting means compares a difference between pixel values of adjacent pixels in the distance image with a predetermined threshold value, and the difference is smaller than the threshold value. The present invention is characterized in that a labeling process for giving the same label to pixels is executed, and a process for detecting a small area with a different label and surrounded by the same label area as a mismatching area is executed.

【0026】さらに、本発明の三次元形状計測装置にお
いて、前記距離画像生成手段は、前記投光パターン画像
に基づく距離画像中のミスマッチング領域を含む部分領
域についてのみ前記テクスチャ画像に基づく距離画像を
生成することを特徴とする。
Further, in the three-dimensional shape measuring apparatus according to the present invention, the distance image generating means generates a distance image based on the texture image only for a partial region including a mismatching region in the distance image based on the light projection pattern image. It is characterized by generating.

【0027】さらに、本発明の三次元形状計測装置にお
いて、前記置換手段は、テクスチャ画像に基づく距離画
像と、投光パターンに基づく距離画像の対応画素値を比
較してテクスチャ画像に基づく距離画像の信頼性判定を
実行し、信頼性の確認されたテクスチャ画像に基づく距
離画像を投光パターンに基づく距離画像に対する置換デ
ータとして適用する構成を有することを特徴とする。
Further, in the three-dimensional shape measuring apparatus according to the present invention, the replacement means compares the corresponding pixel values of the distance image based on the texture image and the distance image based on the light projection pattern to determine the distance image based on the texture image. It is characterized by having a configuration in which a reliability determination is executed and a distance image based on a texture image for which reliability has been confirmed is applied as replacement data for a distance image based on a light projection pattern.

【0028】さらに、本発明の三次元形状計測装置は、
複数の基準カメラと参照カメラの組を有し、前記距離画
像生成手段は、前記基準カメラと参照カメラの各々の組
によって撮り込まれた投光パターン画像に基づく複数の
距離画像、および前記基準カメラと参照カメラの各々の
組によって撮り込まれたテクスチャ画像に基づいて複数
の距離画像を生成する構成を有することを特徴とする。
Further, the three-dimensional shape measuring apparatus of the present invention
A plurality of pairs of reference cameras and reference cameras, wherein the distance image generating means includes a plurality of distance images based on a light projection pattern image captured by each pair of the reference cameras and reference cameras; and And a configuration for generating a plurality of distance images based on a texture image captured by each set of the reference camera and the reference camera.

【0029】さらに、本発明の三次元形状計測装置は、
複数の基準カメラと参照カメラの組を有するとともに、
複数の投光パターン照射手段を有し、該複数の投光パタ
ーン照射手段の各々は、可視光と異なり、かつ他の投光
パターン照射手段とも異なる固有の波長の光を用いて投
光パターンを前記測定対象に照射する構成を有し、前記
複数の基準カメラと参照カメラの組の各々の組は、それ
ぞれ異なる波長の光に基づく投光パターン画像をテクス
チャ画像と分離して撮り込み、前記距離画像生成手段
は、前記基準カメラと参照カメラの各々の組によって撮
り込まれた投光パターン画像に基づく複数の距離画像、
および前記基準カメラと参照カメラの各々の組によって
撮り込まれたテクスチャ画像に基づいて複数の距離画像
を生成する構成を有することを特徴とする。
Further, the three-dimensional shape measuring apparatus of the present invention
Having a plurality of reference camera and reference camera pairs,
It has a plurality of projection pattern irradiation means, each of the plurality of projection pattern irradiation means is different from visible light, and uses a light of a unique wavelength different from other light projection pattern irradiation means to form a projection pattern. It has a configuration to irradiate the measurement target, each set of the plurality of reference camera and reference camera sets, separately captures a projection pattern image based on light of different wavelengths from a texture image, and captures the distance. Image generating means, a plurality of distance images based on the light projection pattern image captured by each set of the reference camera and the reference camera,
And a configuration for generating a plurality of distance images based on a texture image captured by each set of the reference camera and the reference camera.

【0030】さらに、本発明の第2の側面は、測定対象
を異なる方向から撮影した画像を用いて前記測定対象の
三次元形状を計測する三次元形状計測方法において、可
視光とは異なる波長の光を用いて投光パターンを前記測
定対象に照射する投光パターン照射ステップと、前記投
光パターンの照射された投光パターン画像と、可視光に
よって観察されるテクスチャ画像の2つの画像を画像分
離手段によって分離して同期した投光パターン画像とテ
クスチャ画像を基準カメラによって個別に撮り込むとと
もに、前記基準カメラと異なる方向から、かつ前記基準
カメラと同期したタイミングで参照カメラによって同期
した投光パターン画像とテクスチャ画像を個別に撮り込
む画像撮り込みステップと、前記基準カメラおよび参照
カメラによって撮り込まれた投光パターン画像に基づい
て距離画像を生成する第1距離画像生成ステップと、前
記第1距離画像生成ステップにおいて生成した投光パタ
ーン画像に基づく距離画像中のミスマッチング領域を検
出するミスマッチング領域検出ステップと、前記ミスマ
ッチング領域検出ステップの検出したミスマッチング領
域を含む部分領域の距離画像を前記テクスチャ画像に基
づいて生成する第2距離画像生成ステップと、前記第1
距離画像生成ステップにおいて生成された投光パターン
画像に基づく距離画像のミスマッチング領域を含む部分
領域について、前記第2距離画像生成ステップにおいて
生成された部分領域についてのテクスチャ画像に基づく
距離画像に置換する置換ステップと、を有することを特
徴とする三次元形状計測方法にある。
Further, a second aspect of the present invention relates to a three-dimensional shape measuring method for measuring a three-dimensional shape of a measurement object using images taken from different directions of the measurement object, wherein the method has a wavelength different from that of visible light. A light projection pattern irradiating step of irradiating the measurement target with a light projection pattern using light; and an image separation of two images of a light projection pattern image irradiated with the light projection pattern and a texture image observed by visible light. The projection pattern image and the texture image separated and synchronized by the means are separately captured by the reference camera, and the projection pattern image synchronized by the reference camera from a different direction from the reference camera and at a timing synchronized with the reference camera. Image capturing step of individually capturing a texture image and a texture image, and capturing by the reference camera and the reference camera. A first distance image generating step of generating a distance image based on the projected light projection pattern image, and a mistake detecting a mismatching region in the distance image based on the light projection pattern image generated in the first distance image generating step. A matching area detecting step, a second distance image generating step of generating a distance image of a partial area including the mismatching area detected by the mismatching area detecting step based on the texture image,
The partial area including the mismatched area of the distance image based on the projection pattern image generated in the distance image generating step is replaced with a distance image based on the texture image of the partial area generated in the second distance image generating step. And a replacement step.

【0031】さらに、本発明の三次元形状計測方法にお
いて、前記投光パターン照射手段の照射する投光パター
ンは赤外光による非周期的投光パターンであることを特
徴とする。
Further, in the three-dimensional shape measuring method according to the present invention, the light projection pattern irradiated by the light projection pattern irradiation means is a non-periodic light projection pattern by infrared light.

【0032】さらに、本発明の三次元形状計測方法にお
いて、前記ミスマッチング領域検出ステップは、距離画
像中の隣接画素の画素値の差分と予め定めた閾値とを比
較し、該閾値より差分の小さい画素同士に同一ラベルを
付与するラベリング処理ステップと、同一ラベル領域に
囲まれた異なるラベルの付与された小領域をミスマッチ
ング領域として検出する検出ステップとを含むことを特
徴とする。
Further, in the three-dimensional shape measuring method according to the present invention, in the mismatching area detecting step, a difference between pixel values of adjacent pixels in the range image is compared with a predetermined threshold value, and the difference is smaller than the threshold value. The method includes a labeling processing step of assigning the same label to pixels, and a detection step of detecting a small area with a different label and surrounded by the same label area as a mismatching area.

【0033】さらに、本発明の三次元形状計測方法にお
いて、前記置換ステップは、テクスチャ画像に基づく距
離画像と、投光パターンに基づく距離画像の対応画素値
を比較してテクスチャ画像に基づく距離画像の信頼性判
定を実行し、信頼性の確認されたテクスチャ画像に基づ
く距離画像を投光パターンに基づく距離画像に対する置
換データとして適用することを特徴とする。
Further, in the three-dimensional shape measuring method according to the present invention, the replacing step includes comparing a distance image based on the texture image with a corresponding pixel value of the distance image based on the light projection pattern to determine a distance image based on the texture image. A reliability determination is performed, and a distance image based on the texture image whose reliability has been confirmed is applied as replacement data for the distance image based on the light projection pattern.

【0034】さらに、本発明の第3の側面は、測定対象
を異なる方向から撮影した画像を用いて前記測定対象の
三次元形状を計測する三次元形状計測方法において、可
視光とは異なる波長の光を用いて投光パターンを前記測
定対象に照射する投光パターン照射ステップと、前記投
光パターンの照射された投光パターン画像と、可視光に
よって観察されるテクスチャ画像の2つの画像を画像分
離手段によって分離して同期した投光パターン画像とテ
クスチャ画像を基準カメラによって個別に撮り込むとと
もに、前記基準カメラと異なる方向から、かつ前記基準
カメラと同期したタイミングで参照カメラによって同期
した投光パターン画像とテクスチャ画像を個別に撮り込
む画像撮り込みステップと、前記基準カメラおよび参照
カメラによって撮り込まれた投光パターン画像に基づく
距離画像を第1距離画像として、前記基準カメラおよび
参照カメラによって撮り込まれたテクスチャ画像に基づ
く距離画像を第2距離画像として並列に生成する複数距
離画像並列生成ステップと、前記複数距離画像並列生成
ステップにおいて生成した第1距離画像または第2距離画
像の少なくともいずれか一方の距離画像中のミスマッチ
ング領域を検出するミスマッチング領域検出ステップ
と、前記ミスマッチング領域検出ステップの検出した一
方の距離画像中のミスマッチング領域を含む部分領域の
距離画像を他方の距離画像に置換する置換ステップと、
を有することを特徴とする三次元形状計測方法にある。
Further, a third aspect of the present invention is a three-dimensional shape measuring method for measuring the three-dimensional shape of the object to be measured using images taken of the object from different directions. A light projection pattern irradiating step of irradiating the measurement target with a light projection pattern using light; and an image separation of two images of a light projection pattern image irradiated with the light projection pattern and a texture image observed by visible light. The projection pattern image and the texture image separated and synchronized by the means are separately captured by the reference camera, and the projection pattern image synchronized by the reference camera from a different direction from the reference camera and at a timing synchronized with the reference camera. Image capturing step of individually capturing a texture image and a texture image, and capturing by the reference camera and the reference camera. A plurality of distance image parallel generations in which a distance image based on a textured image captured by the reference camera and the reference camera is generated in parallel as a second distance image, using a distance image based on the projected light projection pattern image as a first distance image. A step of detecting a mismatching area in a distance image of at least one of the first distance image and the second distance image generated in the multiple distance image parallel generation step; and detecting the mismatching area. A replacement step of replacing the distance image of the partial area including the mismatched area in one of the distance images detected by the step with the other distance image,
A three-dimensional shape measuring method characterized by having:

【0035】さらに、本発明の三次元形状計測方法にお
いて、前記投光パターン照射手段の照射する投光パター
ンは赤外光による非周期的投光パターンであることを特
徴とする。
Further, in the three-dimensional shape measuring method according to the present invention, the light projection pattern irradiated by the light projection pattern irradiation means is a non-periodic light projection pattern by infrared light.

【0036】さらに、本発明の三次元形状計測方法にお
いて、前記ミスマッチング領域検出ステップは、距離画
像中の隣接画素の画素値の差分と予め定めた閾値とを比
較し、該閾値より差分の小さい画素同士に同一ラベルを
付与するラベリング処理ステップと、同一ラベル領域に
囲まれた異なるラベルの付与された小領域をミスマッチ
ング領域として検出する検出ステップとを含むことを特
徴とする。
Further, in the three-dimensional shape measuring method according to the present invention, in the mismatching area detecting step, a difference between pixel values of adjacent pixels in the distance image is compared with a predetermined threshold value, and the difference is smaller than the threshold value. The method includes a labeling processing step of assigning the same label to pixels, and a detection step of detecting a small area with a different label and surrounded by the same label area as a mismatching area.

【0037】さらに、本発明の三次元形状計測方法にお
いて、前記置換ステップは、テクスチャ画像に基づく距
離画像と、投光パターンに基づく距離画像の対応画素値
を比較してテクスチャ画像に基づく距離画像の信頼性判
定を実行し、信頼性の確認されたテクスチャ画像に基づ
く距離画像を投光パターンに基づく距離画像に対する置
換データとして適用することを特徴とする。
Further, in the three-dimensional shape measuring method according to the present invention, the replacing step includes comparing a distance image based on the texture image with a corresponding pixel value of the distance image based on the light projection pattern to calculate the distance image based on the texture image. A reliability determination is performed, and a distance image based on the texture image whose reliability has been confirmed is applied as replacement data for the distance image based on the light projection pattern.

【0038】さらに、本発明の第4の側面は、測定対象
を異なる方向から撮影した画像を用いて前記測定対象の
三次元形状を計測し、三次元モデリングを行なう三次元
モデリング装置において、可視光とは異なる波長の光を
用いて投光パターンを前記測定対象に照射する投光パタ
ーン照射手段と、前記投光パターン照射手段によって投
光パターンの照射された投光パターン画像と、可視光に
よって観察されるテクスチャ画像の2つの画像を画像分
離手段によって分離して同期した投光パターン画像とテ
クスチャ画像とを個別に撮り込む基準カメラと、前記投
光パターン照射手段によって投光パターンの照射された
投光パターン画像と、可視光によって観察されるテクス
チャ画像の2つの画像を画像分離手段によって分離して
同期した投光パターン画像とテクスチャ画像とを、前記
基準カメラと異なる方向から、かつ前記基準カメラと同
期したタイミングで撮り込む参照カメラと、前記基準カ
メラおよび参照カメラによって撮り込まれた投光パター
ン画像に基づく距離画像、および前記基準カメラおよび
参照カメラによって撮り込まれたテクスチャ画像に基づ
く距離画像を生成する距離画像生成手段と、前記距離画
像生成手段の生成した投光パターン画像に基づく距離画
像中のミスマッチング領域を検出するミスマッチング領
域検出手段と、前記ミスマッチング領域検出手段の検出
したミスマッチング領域を含む部分領域の距離画像をテ
クスチャ画像に基づく距離画像に置換する置換手段と、
前記置換手段によって置換され生成された投光パターン
画像に基づく距離画像とテクスチャ画像に基づく距離画
像の合成距離画像、および前記基準カメラによって撮り
込まれたテクスチャ画像に基づいて三次元形状データを
生成する三次元形状データ生成手段と、を有することを
特徴とする三次元モデリング装置にある。
Further, a fourth aspect of the present invention is a three-dimensional modeling apparatus for measuring a three-dimensional shape of a measurement object using images obtained by photographing the measurement object from different directions and performing three-dimensional modeling. A light projection pattern irradiating means for irradiating the measurement target with a light projection pattern using light having a wavelength different from that of light, a light projection pattern image irradiated with the light projection pattern by the light projection pattern irradiating means, and observing with visible light. A reference camera that separates and synchronizes the two projected texture images by an image separating unit and separately captures a synchronized light projection pattern image and a texture image; and a projection camera irradiated with the light projection pattern by the light projection pattern irradiation unit. A light projection pattern in which two images, a light pattern image and a texture image observed by visible light, are separated and synchronized by image separation means. Camera and a texture image from different directions from the reference camera and at a timing synchronized with the reference camera, and a distance image based on the projection pattern image captured by the reference camera and the reference camera A distance image generating means for generating a distance image based on a texture image captured by the reference camera and the reference camera; and a mismatching area in the distance image based on the light projection pattern image generated by the distance image generating means. A mismatching area detecting means for detecting, and a replacing means for replacing a distance image of a partial area including the mismatching area detected by the mismatching area detecting means with a distance image based on a texture image,
A three-dimensional shape data is generated based on a composite distance image of a distance image based on a light projection pattern image replaced and generated by the replacement unit and a distance image based on a texture image, and a texture image captured by the reference camera. And a three-dimensional shape data generating means.

【0039】さらに、本発明の第5の側面は、測定対象
を異なる方向から撮影した画像を用いて前記測定対象の
三次元形状を計測し、三次元モデリングを行なう三次元
モデリング方法において、可視光とは異なる波長の光を
用いて投光パターンを前記測定対象に照射する投光パタ
ーン照射ステップと、前記投光パターンの照射された投
光パターン画像と、可視光によって観察されるテクスチ
ャ画像の2つの画像を画像分離手段によって分離して同
期した投光パターン画像とテクスチャ画像を基準カメラ
によって個別に撮り込むとともに、前記基準カメラと異
なる方向から、かつ前記基準カメラと同期したタイミン
グで参照カメラによって同期した投光パターン画像とテ
クスチャ画像を個別に撮り込む画像撮り込みステップ
と、前記基準カメラおよび参照カメラによって撮り込ま
れた投光パターン画像に基づく距離画像を生成する第1
距離画像生成ステップと、前記第1距離画像生成ステッ
プにおいて生成した投光パターン画像に基づく距離画像
中のミスマッチング領域を検出するミスマッチング領域
検出ステップと、前記ミスマッチング領域検出ステップ
の検出したミスマッチング領域を含む部分領域の距離画
像を前記テクスチャ画像に基づいて生成する第2距離画
像生成ステップと、前記第1距離画像生成ステップにお
いて生成された投光パターン画像に基づく距離画像のミ
スマッチング領域を含む部分領域について、前記第2距
離画像生成ステップにおいて生成された部分領域につい
てのテクスチャ画像に基づく距離画像に置換する置換ス
テップと、前記置換ステップによって置換され生成され
た投光パターン画像に基づく距離画像とテクスチャ画像
に基づく距離画像の合成距離画像、および前記基準カメ
ラによって撮り込まれたテクスチャ画像に基づいて三次
元形状データを生成する三次元形状データ生成ステップ
と、を有することを特徴とする三次元モデリング方法に
ある。
Further, according to a fifth aspect of the present invention, there is provided a three-dimensional modeling method for measuring a three-dimensional shape of the measurement object using images obtained by photographing the measurement object from different directions and performing three-dimensional modeling. A light projection pattern irradiating step of irradiating the measurement target with a light projection pattern using light having a wavelength different from that of light, a light projection pattern image irradiated with the light projection pattern, and a texture image observed by visible light. The light projection pattern image and the texture image which are separated and synchronized by the image separation means are separately captured by the reference camera, and are synchronized by the reference camera from a different direction from the reference camera and at a timing synchronized with the reference camera. Capturing an image of the projected light pattern image and the texture image separately, and the reference camera First generating a distance image based on the projection pattern image interleaved taken by a preliminary reference camera
A distance image generating step, a mismatching area detecting step of detecting a mismatching area in the distance image based on the light projection pattern image generated in the first distance image generating step, and a mismatch detected by the mismatching area detecting step. A second distance image generating step of generating a distance image of a partial area including the area based on the texture image; and a mismatching area of the distance image based on the light projection pattern image generated in the first distance image generating step. A replacement step of replacing the partial area with a distance image based on the texture image of the partial area generated in the second distance image generation step; and a distance image based on the light projection pattern image generated and replaced by the replacement step. Of the distance image based on the texture image A three-dimensional shape data generating step of generating three-dimensional shape data based on a synthetic distance image and a texture image captured by the reference camera.

【0040】さらに、本発明の第6の側面は、測定対象
を異なる方向から撮影した画像を用いて前記測定対象の
三次元形状を計測し、三次元モデリングを行なう三次元
モデリング方法において、可視光とは異なる波長の光を
用いて投光パターンを前記測定対象に照射する投光パタ
ーン照射ステップと、前記投光パターンの照射された投
光パターン画像と、可視光によって観察されるテクスチ
ャ画像の2つの画像を画像分離手段によって分離して同
期した投光パターン画像とテクスチャ画像を基準カメラ
によって個別に撮り込むとともに、前記基準カメラと異
なる方向から、かつ前記基準カメラと同期したタイミン
グで参照カメラによって同期した投光パターン画像とテ
クスチャ画像を個別に撮り込む画像撮り込みステップ
と、前記基準カメラおよび参照カメラによって撮り込ま
れた投光パターン画像に基づく距離画像を第1距離画像
として、前記基準カメラおよび参照カメラによって撮り
込まれたテクスチャ画像に基づく距離画像を第2距離画
像として並列に生成する複数距離画像並列生成ステップ
と、前記複数距離画像並列生成ステップにおいて生成し
た第1距離画像または第2距離画像の少なくともいずれか
一方の距離画像中のミスマッチング領域を検出するミス
マッチング領域検出ステップと、前記ミスマッチング領
域検出ステップの検出した一方の距離画像中のミスマッ
チング領域を含む部分領域の距離画像を他方の距離画像
に置換する置換ステップと、前記置換ステップによって
置換され生成された投光パターン画像に基づく距離画像
とテクスチャ画像に基づく距離画像の合成距離画像、お
よび前記基準カメラによって撮り込まれたテクスチャ画
像に基づいて三次元形状データを生成する三次元形状デ
ータ生成ステップと、を有することを特徴とする三次元
モデリング方法にある。
According to a sixth aspect of the present invention, there is provided a three-dimensional modeling method for measuring a three-dimensional shape of a measurement object using images obtained by photographing the measurement object from different directions and performing three-dimensional modeling. A light projection pattern irradiating step of irradiating the measurement target with a light projection pattern using light having a wavelength different from that of light, a light projection pattern image irradiated with the light projection pattern, and a texture image observed by visible light. The light projection pattern image and the texture image which are separated and synchronized by the image separation means are separately captured by the reference camera, and are synchronized by the reference camera from a different direction from the reference camera and at a timing synchronized with the reference camera. Capturing an image of the projected light pattern image and the texture image separately, and the reference camera And a distance image based on the projection pattern image captured by the reference camera as a first distance image, and a distance image based on a texture image captured by the reference camera and the reference camera as a second distance image. Multiple distance image parallel generation step, a mismatching area detection step of detecting a mismatching area in at least one of the first distance image or the second distance image generated in the multiple distance image parallel generation step, A replacement step of replacing the distance image of the partial area including the mismatched area in one of the distance images detected by the mismatched area detection step with the other distance image, and a light projection pattern image replaced and generated by the replacement step Of Range Image Based on Image and Texture Image Away images, and the 3D modeling method characterized by having a three-dimensional shape data generating step of generating a three-dimensional shape data based on the texture image interleaved taken by the reference camera.

【0041】さらに、本発明の第7の側面は、測定対象
を異なる方向から撮影した画像を用いて前記測定対象の
三次元形状を計測する三次元形状計測を実行するための
処理をコンピュータ・システム上で実行せしめるコンピ
ュータ・プログラムを有形的に提供するプログラム提供
媒体であって、前記コンピュータ・プログラムは、可視
光とは異なる波長の光を用いて投光パターンを前記測定
対象に照射する投光パターン照射ステップと、前記投光
パターンの照射された投光パターン画像と、可視光によ
って観察されるテクスチャ画像の2つの画像を画像分離
手段によって分離して同期した投光パターン画像とテク
スチャ画像を基準カメラによって個別に撮り込むととも
に、前記基準カメラと異なる方向から、かつ前記基準カ
メラと同期したタイミングで参照カメラによって同期し
た投光パターン画像とテクスチャ画像を個別に撮り込む
画像撮り込みステップと、前記基準カメラおよび参照カ
メラによって撮り込まれた投光パターン画像に基づく距
離画像を生成する第1距離画像生成ステップと、前記第
1距離画像生成ステップにおいて生成した投光パターン
画像に基づく距離画像中のミスマッチング領域を検出す
るミスマッチング領域検出ステップと、前記ミスマッチ
ング領域検出ステップの検出したミスマッチング領域を
含む部分領域の距離画像を前記テクスチャ画像に基づい
て生成する第2距離画像生成ステップと、前記第1距離
画像生成ステップにおいて生成された投光パターン画像
に基づく距離画像のミスマッチング領域を含む部分領域
について、前記第2距離画像生成ステップにおいて生成
された部分領域についてのテクスチャ画像に基づく距離
画像に置換する置換ステップと、を有することを特徴と
するプログラム提供媒体にある。
Further, according to a seventh aspect of the present invention, there is provided a computer system for executing a process for performing three-dimensional shape measurement for measuring the three-dimensional shape of the measurement object using images obtained by photographing the measurement object from different directions. A program providing medium that tangibly provides a computer program to be executed on the computer program, wherein the computer program irradiates the measurement target with a light projection pattern using light having a wavelength different from visible light. An irradiating step, an illuminated pattern image illuminated with the illuminated pattern, and a texture image observed by visible light are separated by an image separating unit and synchronized to synchronize the illuminated pattern image and the texture image with a reference camera. To capture images individually from different directions and synchronized with the reference camera. An image capturing step of separately capturing a light projection pattern image and a texture image synchronized by a reference camera in a shooting, and a first distance for generating a distance image based on the light projection pattern image captured by the reference camera and the reference camera. An image generating step;
(1) a mismatching area detection step of detecting a mismatching area in the distance image based on the light projection pattern image generated in the distance image generation step, and a distance image of a partial area including the mismatching area detected by the mismatching area detection step Generating a second distance image based on the texture image, and a partial area including a mismatched area of the distance image based on the projection pattern image generated in the first distance image generating step. A replacement step of replacing the partial area generated in the image generation step with a distance image based on a texture image.

【0042】本発明の第7の側面に係るプログラム提供
媒体は、例えば、様々なプログラム・コードを実行可能
な汎用コンピュータ・システムに対して、コンピュータ
・プログラムをコンピュータ可読な形式で提供する媒体
である。媒体は、CDやFD、MOなどの記憶媒体、あ
るいは、ネットワークなどの伝送媒体など、その形態は
特に限定されない。
The program providing medium according to the seventh aspect of the present invention is, for example, a medium for providing a computer program in a computer-readable format to a general-purpose computer system capable of executing various program codes. . The form of the medium is not particularly limited, such as a storage medium such as a CD, an FD, and an MO, and a transmission medium such as a network.

【0043】このようなプログラム提供媒体は、コンピ
ュータ・システム上で所定のコンピュータ・プログラム
の機能を実現するための、コンピュータ・プログラムと
提供媒体との構造上又は機能上の協働的関係を定義した
ものである。換言すれば、該提供媒体を介してコンピュ
ータ・プログラムをコンピュータ・システムにインスト
ールすることによって、コンピュータ・システム上では
協働的作用が発揮され、本発明の他の側面と同様の作用
効果を得ることができるのである。
Such a program providing medium defines a structural or functional cooperative relationship between the computer program and the providing medium for realizing a predetermined computer program function on a computer system. Things. In other words, by installing the computer program into the computer system via the providing medium, a cooperative operation is exerted on the computer system, and the same operation and effect as the other aspects of the present invention can be obtained. You can do it.

【0044】本発明のさらに他の目的、特徴や利点は、
後述する本発明の実施例や添付する図面に基づくより詳
細な説明によって明らかになるであろう。
Still other objects, features and advantages of the present invention are:
It will become apparent from the following more detailed description based on the embodiments of the present invention and the accompanying drawings.

【0045】[0045]

【発明の実施の形態】[三次元形状計測装置−実施例
1]本発明を適用した三次元形状計測装置の構成例を図
2に示す。本発明の三次元形状計測装置は、先に説明し
たステレオ画像法を適用して計測対象の三次元形状を計
測するものであり、立体形状を持つ、例えば人の顔等の
被測定対象物に対して角度の異なる位置に配置した2つ
のカメラ、いわゆる基準カメラと参照カメラを用いて像
を撮り込み、これら2つのカメラの撮影する画像に基づ
いて図1で説明したステレオ画像法に基づいて被測定対
象物の表面形状を計測するものである。
DESCRIPTION OF THE PREFERRED EMBODIMENTS [3D Shape Measuring Apparatus-First Embodiment] FIG. 2 shows a configuration example of a 3D shape measuring apparatus to which the present invention is applied. The three-dimensional shape measuring apparatus of the present invention measures a three-dimensional shape of a measurement target by applying the stereo image method described above, and has a three-dimensional shape, for example, for a measurement target object such as a human face. An image is captured using two cameras arranged at different angles with respect to each other, that is, a so-called reference camera and a reference camera, and based on the images captured by these two cameras, the image is captured based on the stereo image method described in FIG. This is for measuring the surface shape of the measurement object.

【0046】本発明の三次元形状計測装置の投光パター
ン照射手段220は、例えば赤外光のような、いわゆる
太陽光、蛍光灯、白熱灯等の可視光とは異なる波長の光
によって被測定対象物200に対して照射する投光パタ
ーン照射手段220として構成され、照射する投光パタ
ーンは一様乱数や正規乱数に基づく非周期的投光パター
ンとすることが望ましい。
The light projecting pattern irradiating means 220 of the three-dimensional shape measuring apparatus of the present invention measures the light to be measured by light having a wavelength different from visible light such as sunlight, fluorescent light, incandescent light such as infrared light. It is configured as a light emitting pattern irradiating means 220 for irradiating the object 200, and it is desirable that the light emitting pattern to be irradiated is an aperiodic light emitting pattern based on a uniform random number or a normal random number.

【0047】投光パターン照射手段220で計測対象2
00に対して投光される非周期投光パターンは、例えば
ドットのサイズ、線の長さ、太さ、位置、濃度等に周期
性を持たないパターンであり、例えば図3(a)、
(b)に示すようなパターンが用いられる。これらの非
周期的パターンは、予めスライド等に形成し、スライド
を介して可視光とは異なる波長の光、例えば赤外光を照
射することによって得ることができる。このような非周
期パターンを計測対象200の表面に形成し、これを撮
像することにより、距離画像生成時の基準カメラと参照
カメラの撮像データの対応付けを容易にすることができ
る。
The light to be measured 2
The non-periodic light projection pattern that is projected to the light source 00 has no periodicity in, for example, dot size, line length, thickness, position, density, and the like. For example, FIG.
A pattern as shown in FIG. These non-periodic patterns can be obtained by previously forming on a slide or the like and irradiating light having a wavelength different from visible light, for example, infrared light, through the slide. By forming such a non-periodic pattern on the surface of the measurement target 200 and capturing the image, it is possible to easily associate the image data of the reference camera and the reference camera when generating the distance image.

【0048】投光パターン照射手段220の具体的構成
例を図4に示す。図4は赤外LED照明を用いた投光パ
ターン照射手段の例である。複数のLEDが配列された
LEDアレイ401から発光された赤外光は、光拡散板
402を介することによって照明むらの軽減がなされ
る。さらに、集光レンズ403を介してスライド40
4、投光レンズ405を介して計測対象410に照射さ
れる。
FIG. 4 shows a specific example of the structure of the light projecting pattern irradiating means 220. FIG. 4 shows an example of a light projection pattern irradiation unit using infrared LED illumination. Irradiation of the infrared light emitted from the LED array 401 in which a plurality of LEDs are arranged is reduced through the light diffusion plate 402 to reduce unevenness in illumination. Further, the slide 40 is provided via the condenser lens 403.
4. The measurement target 410 is irradiated via the light projecting lens 405.

【0049】スライド404は、非周期的パターンが記
録されたスライドである。上述のようにドットのサイ
ズ、線の長さ、太さ、位置、濃度等に周期性がない、い
わゆる非周期的な投光パターン、例えば図3(a)、
(b)に示すようなパターンが記録されたスライドであ
る。
The slide 404 is a slide on which an aperiodic pattern is recorded. As described above, there is no periodicity in dot size, line length, thickness, position, density, etc., so-called non-periodic light projection pattern, for example, FIG.
It is a slide on which a pattern as shown in FIG.

【0050】LEDアレイ401は、発光駆動回路40
7によって発光され、発光駆動回路407は、シャッタ
ー同期回路408によって、図2に示す基準カメラ20
1、参照カメラ202による画像撮り込みのタイミング
すなわちシャッター・タイミングと同期するように制御
される。
The LED array 401 includes the light emission drive circuit 40
The light emission drive circuit 407 is driven by the shutter synchronization circuit 408 to output the reference camera 20 shown in FIG.
1. Control is performed so as to be synchronized with the timing of capturing an image by the reference camera 202, that is, the shutter timing.

【0051】なお、赤外光によって非周期パターンを計
測対象に照射する本発明の構成では、所定時間継続した
パターン照射が可能となり、フラッシュ光によるパター
ン画像撮り込み構成よりも照明むらが減少する。本発明
の構成では赤外光を用いることで可視光による画像(テ
クスチャ画像)との区別を可能としたので、投光パター
ン画像(赤外光)とテクスチャ画像(可視光)との画像
撮り込みにおいてシャッタースピードを切り換える必要
がなく、測定対象全体に対して均一な強度の非周期パタ
ーンを形成することができ、基準カメラ、参照カメラに
よる投光パターン画像の撮り込みが可能となる。従って
正確な距離画像の生成が可能となる。
In the configuration of the present invention in which the non-periodic pattern is irradiated on the object to be measured by infrared light, the pattern can be continuously irradiated for a predetermined time, and the illumination unevenness is reduced as compared with the configuration in which the pattern image is captured by flash light. In the configuration of the present invention, since it is possible to distinguish an image (texture image) by visible light by using infrared light, an image capture of a light projection pattern image (infrared light) and a texture image (visible light) is performed. Therefore, it is not necessary to switch the shutter speed, a non-periodic pattern having a uniform intensity can be formed over the entire measurement target, and a light projection pattern image can be captured by the reference camera and the reference camera. Therefore, an accurate distance image can be generated.

【0052】図2に戻って、本発明の三次元形状計測装
置の構成について説明を続ける。基準カメラ201と参
照カメラ202は、計測対象200に対して異なる視線
方向に配置されて、各視線方向の画像を撮影する。基準
カメラ201、参照カメラ202によって撮影される画
像は、同期したタイミングで撮り込まれる。基準カメラ
201、参照カメラ202から撮り込まれた画像はそれ
ぞれA/D変換部を介してフレームメモリ203〜20
6に格納される。
Returning to FIG. 2, the description of the configuration of the three-dimensional shape measuring apparatus of the present invention will be continued. The reference camera 201 and the reference camera 202 are arranged in different line-of-sight directions with respect to the measurement target 200, and capture images in each line-of-sight direction. Images captured by the reference camera 201 and the reference camera 202 are captured at synchronized timing. Images captured from the reference camera 201 and the reference camera 202 are respectively transmitted to the frame memories 203 to 20 via the A / D converter.
6 is stored.

【0053】基準カメラ201と、参照カメラ202に
は各々2つのフレームメモリに異なる画像データが取り
込まれる。すなわち、一方に赤外光による投光パターン
画像、他方に可視光によるテクスチャ画像が取り込まれ
る。この構成について、図5を用いて詳細に説明する。
Different image data is taken into two frame memories by the reference camera 201 and the reference camera 202, respectively. That is, a projection pattern image by infrared light is captured on one side, and a texture image by visible light is captured on the other side. This configuration will be described in detail with reference to FIG.

【0054】図5は、基準カメラ201および参照カメ
ラ202の各々が一回の撮像タイミングで各々2つの画
像取り込みを実現する構成を示すブロック図である。
FIG. 5 is a block diagram showing a configuration in which each of the reference camera 201 and the reference camera 202 realizes capturing of two images at one image capturing timing.

【0055】計測対象200に基準カメラのレンズ50
1および参照カメラのレンズ507がそれぞれ異なる方
向から向けられ、投光パターン照射手段220から、可
視光とは異なる波長の光、ここでは赤外光によるパター
ンが計測対象に投光照射される。本発明の三次元形状計
測装置における投光パターン照射手段220の照射する
光の波長は、テクスチャ画像撮り込みに使用される可視
光と異なる波長、すなわち、投光パターン画像をテクス
チャ画像と分離して撮り込むことが可能となる波長であ
ればよいが、ここでは、赤外光を使用したものとして説
明する。
The lens 50 of the reference camera is placed on the measurement object 200.
The lens 1 and the lens 507 of the reference camera are respectively directed from different directions, and a pattern of light having a wavelength different from visible light, here an infrared light, is projected and irradiated from the light projection pattern irradiating means 220 to the measurement target. The wavelength of the light emitted from the projection pattern irradiating means 220 in the three-dimensional shape measuring apparatus of the present invention is different from the wavelength of visible light used for capturing a texture image, that is, the projection pattern image is separated from the texture image. Any wavelength may be used as long as it can capture images. Here, the description will be made assuming that infrared light is used.

【0056】計測対象200は、上述の赤外光パターン
を照射した像として撮影される他、太陽光、蛍光灯、白
熱灯等のいわゆる環境光によって可視像の撮影が可能な
環境に置かれる。基準カメラレンズ501、および参照
カメラレンズ507によって同期したタイミングで撮り
込まれた画像は、それぞれの分光器502、508を介
して2つの光路に分割され、可視光カットフィルタ50
3、509が設置された光路では、可視光カットフィル
タ503、509によって可視光がカットされ、投光パ
ターン照射手段220によって投光照射された赤外光照
射パターンに基づく投光パターン画像520,523が
撮り込まれる。
The object 200 to be measured is photographed as an image illuminated with the above-described infrared light pattern, and is placed in an environment where a visible image can be photographed by so-called environmental light such as sunlight, a fluorescent lamp, an incandescent lamp, or the like. . An image captured at a timing synchronized by the reference camera lens 501 and the reference camera lens 507 is split into two optical paths via respective spectroscopes 502 and 508, and the visible light cut filter 50
In the optical path where the light projection patterns 3 and 509 are installed, visible light is cut by the visible light cut filters 503 and 509, and the light projection pattern images 520 and 523 based on the infrared light irradiation pattern projected and irradiated by the light projection pattern irradiation means 220. Is captured.

【0057】すなわち、投光パターン画像1,520
は、投光パターン照射手段220の照射した赤外光の投
光パターンの照射された計測対象を基準カメラレンズ5
01によって撮り込んだ画像であり、投光パターン画像
2,523は、投光パターン照射手段220の照射した
赤外光の投光パターンの照射された計測対象を参照カメ
ラレンズ507によって撮り込んだ画像である。
That is, the light projection pattern images 1,520
Is a reference camera lens 5 that illuminates the measurement target irradiated with the infrared light projection pattern irradiated by the light projection pattern irradiation means 220.
01 is an image captured by the reference camera lens 507, and the light projection pattern images 2 and 523 are images captured by the reference camera lens 507 of the measurement target irradiated with the infrared light projection pattern irradiated by the light projection pattern irradiation unit 220. It is.

【0058】一方、赤外光カットフィルタ505,51
1の設置された各光路では、赤外光カットフィルタ50
5、511によって赤外光がカットされ、太陽光、蛍光
灯、白熱灯等のいわゆる環境光によって計測対象200
を観察した可視像がそれぞれのCCD素子506,51
2に撮り込まれる。
On the other hand, infrared light cut filters 505 and 51
In each installed optical path, the infrared light cut filter 50
The infrared light is cut by 5, 511, and the measurement target 200 is measured by so-called environmental light such as sunlight, fluorescent light, incandescent light, and the like.
Observed images of the CCD elements 506, 51
It is shot in 2.

【0059】すなわち、テクスチャ画像1,521は、
太陽光、蛍光灯、白熱灯等のいわゆる環境光の照射され
た計測対象を基準カメラレンズ501によって撮り込ん
だ画像であり、テクスチャ画像2,522は、太陽光、
蛍光灯、白熱灯等のいわゆる環境光の照射された計測対
象を参照カメラレンズ507によって撮り込んだ画像で
ある。
That is, the texture images 1 and 521 are
A reference camera lens 501 captures an image of a measurement target irradiated with so-called environmental light such as sunlight, a fluorescent light, an incandescent light, and the like. Texture images 2 and 522 include sunlight,
The reference camera lens 507 captures an image of a measurement target irradiated with so-called environmental light such as a fluorescent lamp or an incandescent lamp.

【0060】画像対応付け&距離画像生成手段530
は、2つの投光パターン画像520,523に基づいて
ステレオ画像法を用いて画像の対応付け及び距離画像の
生成を実行する。また、画像対応付け&距離画像生成手
段531は、2つのテクスチャ画像521,522に基
づいてステレオ画像法を用いて画像の対応付け及び距離
画像の生成を実行する。なお、後段で説明するが、画像
対応付け&距離画像生成手段531による2つのテクス
チャ画像521,522に基づく距離画像の生成処理
は、画像対応付け&距離画像生成手段530による投光
パターン画像520,523に基づいて生成された距離
画像の補完処理として実行されればよく、必ずしも撮り
込み画像のすべての画素領域について距離画像を生成す
る必要はない。
Image Correlation & Distance Image Generation Means 530
Executes image association and generation of a distance image using a stereo image method based on the two light projection pattern images 520 and 523. The image association & distance image generation unit 531 executes image association and generation of a distance image using a stereo image method based on the two texture images 521 and 522. As will be described later, the generation process of the distance image based on the two texture images 521 and 522 by the image association & distance image generation unit 531 is performed by the light projection pattern image 520 by the image association & distance image generation unit 530. This may be performed as a supplementary process for the distance image generated based on 523, and it is not always necessary to generate the distance image for all pixel regions of the captured image.

【0061】画像対応付け&距離画像生成手段530,
531における処理、およびその後の処理について、図
2に戻って説明する。
The image association and distance image generation means 530,
The processing in 531 and the subsequent processing will be described with reference to FIG.

【0062】図2におけるフレームメモリ1a,203
には、基準カメラ201によって撮り込まれた投光パタ
ーン画像、フレームメモリ1b,204には基準カメラ
201によって撮り込まれたテクスチャ画像、フレーム
メモリ2a,205には、参照カメラ202によって撮
り込まれた投光パターン画像、フレームメモリ2b,2
06には参照カメラ202によって撮り込まれたテクス
チャ画像が格納される。
The frame memories 1a and 203 shown in FIG.
, A projection pattern image captured by the reference camera 201, a texture image captured by the reference camera 201 in the frame memories 1b and 204, and a texture image captured by the reference camera 202 in the frame memories 2a and 205. Light projection pattern image, frame memories 2b, 2
06 stores a texture image captured by the reference camera 202.

【0063】画像間対応付け手段A,207は、フレー
ムメモリ1a,203とフレームメモリ2a,205の
基準カメラ及び参照カメラ各々の投光パターン画像間の
対応付け処理を行なう。すなわち、基準カメラ201の
撮影した画像の各画素に対する参照カメラ202の撮影
した参照画像の画素の対応付け処理を行ない、基準画像
に対する参照画像の視差データを距離画像生成手段A,
209に出力する。
The image-to-image associating means A and 207 perform an associating process between the projection pattern images of the reference cameras and the reference cameras in the frame memories 1a and 203 and the frame memories 2a and 205. That is, a process of associating each pixel of the image captured by the reference camera 201 with a pixel of the reference image captured by the reference camera 202 is performed, and disparity data of the reference image with respect to the reference image is stored in the distance image generation unit A
209.

【0064】投光パターン照射手段220の照射する投
光パターンは、先に説明したように非周期的なパターン
であり、各カメラによって撮影した画像の対応付けが比
較的容易に行われる。ただし、投光パターン照射手段2
20は一方向からの光(赤外光)照射であるので、投光
パターン照射手段220と計測対象200およびカメラ
の位置関係から、照射光の正反射光をカメラがとらえる
場合があり、この場合には画素値の飽和が発生して対応
付け処理ができない領域が発生することがある。また、
計測対象200の表面形状によって投光パターンに部分
的な周期性が発生する場合もあり、このような領域では
正確な距離画像が生成されない場合がある。
The light projection pattern emitted by the light projection pattern irradiating means 220 is a non-periodic pattern as described above, and it is relatively easy to associate images taken by each camera. However, the projection pattern irradiation means 2
20 is light (infrared light) irradiation from one direction, the camera may catch the specular reflected light of the irradiation light from the positional relationship between the projection pattern irradiation means 220, the measurement target 200, and the camera. In some cases, a region where the pixel value is saturated and the association process cannot be performed may occur. Also,
Depending on the surface shape of the measurement target 200, a partial periodicity may occur in the light projection pattern, and an accurate distance image may not be generated in such a region.

【0065】本発明の三次元形状計測装置では、このよ
うな領域、すなわち投光パターン画像に基づいて距離画
像が正確に生成されない領域を検出して、その領域につ
いてフレームメモリ1b,204と、フレームメモリ2
b,206に格納されているテクスチャ画像に基づく距
離画像を生成して補完処理を行ない正確な距離画像を出
力するものである。
In the three-dimensional shape measuring apparatus of the present invention, such a region, that is, a region where a distance image is not accurately generated based on a light projection pattern image is detected, and the frame memories 1b and 204 and a frame Memory 2
b, a distance image based on the texture image stored in 206 is generated, complement processing is performed, and an accurate distance image is output.

【0066】図2に示す距離画像生成手段209は、ま
ず、画像間対応付け手段A,207から入力される赤外
光非周期パターン投光に基づく投光パターン基準画像と
投光パターン参照画像の各画素の視差データを用いて距
離画像を生成する。距離画像は、基準カメラ201が撮
影した計測対象画像の各画素について、基準カメラ20
1と計測対象200との距離を反映させた画像である。
距離画像生成手段209によって生成された距離画像は
画像メモリ210に出力保持される。
The distance image generation means 209 shown in FIG. 2 firstly generates the light projection pattern reference image and the light projection pattern reference image based on the infrared non-periodic pattern light input from the inter-image correspondence means A and 207. A distance image is generated using the parallax data of each pixel. The distance image is a reference camera 20 for each pixel of the measurement target image captured by the reference camera 201.
It is an image in which the distance between 1 and the measurement target 200 is reflected.
The distance image generated by the distance image generation unit 209 is output and held in the image memory 210.

【0067】ミスマッチング領域検出手段211は、画
像メモリ210から投光パターン画像に基づく距離画像
を読み出してラベリングによるミスマッチング領域検出
処理を実行する。ラベリングによるミスマッチング領域
検出処理については後段で詳細に説明する。
The mismatching area detecting means 211 reads out a distance image based on the light projection pattern image from the image memory 210 and executes a mismatching area detecting process by labeling. The mismatching area detection processing by labeling will be described in detail later.

【0068】ミスマッチング領域検出手段211の検出
したミスマッチング領域の画素位置情報は、距離画像生
成手段209、置換手段212に出力される。
The pixel position information of the mismatching area detected by the mismatching area detecting means 211 is output to the distance image generating means 209 and the replacing means 212.

【0069】距離画像生成手段209は、ミスマッチン
グ領域の検出したミスマッチング画素領域を含む部分領
域ついて、画像間対応付け手段B,208の対応付け処
理データに基づいて距離画像を生成する。
The distance image generation means 209 generates a distance image for the partial area including the mismatched pixel area detected by the mismatched area, based on the correlation processing data of the image correlation means B and 208.

【0070】フレームメモリ1b,204、フレームメ
モリ2b,206は、基準カメラ201と参照カメラ2
02が可視光に基づいて撮影した画像、すなわちテクス
チャ画像を格納しており、画像間対応付け手段B,20
8は、2つのテクスチャ画像に基づいて視差データを生
成し、距離画像生成手段209は、2つのテクスチャ画
像に基づいて、上述のミスマッチング画素領域を含む部
分領域の距離画像を生成する。
The frame memories 1b and 204 and the frame memories 2b and 206 correspond to the reference camera 201 and the reference camera 2 respectively.
02 stores an image photographed based on visible light, that is, a texture image.
8 generates parallax data based on the two texture images, and the distance image generation unit 209 generates a distance image of the partial region including the above-described mismatched pixel region based on the two texture images.

【0071】2つのテクスチャ画像に基づいて生成され
たミスマッチング画素領域を含む部分領域の距離画像
は、置換手段212を介して画像メモリ210に出力さ
れ、投光パターンに基づく距離画像におけるミスマッチ
ング領域が、テクスチャ画像に基づいて生成された距離
画像に置換される。ミスマッチング領域は、具体的に
は、例えば正反射領域において発生する。
The distance image of the partial area including the mismatching pixel area generated based on the two texture images is output to the image memory 210 via the replacing means 212, and is output to the mismatching area in the distance image based on the light projection pattern. Is replaced with a distance image generated based on the texture image. Specifically, the mismatching region occurs, for example, in a regular reflection region.

【0072】なお、置換手段212は、ミスマッチング
領域検出手段211が検出したミスマッチング領域の周
辺の画素値における距離画像(投光パターン画像に基づ
く距離画像)と、新たに生成したテクスチャ画像に基づ
く部分領域の距離データとの連続性を判定した上で、そ
の整合性を確保して各画素の距離画像データの置換を実
行して画像メモリ210に出力する。
The replacement means 212 is based on a distance image (a distance image based on a light projection pattern image) at pixel values around the mismatching area detected by the mismatching area detection means 211 and a texture image newly generated. After determining the continuity with the distance data of the partial region, the replacement is performed on the distance image data of each pixel while ensuring the consistency and output to the image memory 210.

【0073】置換手段212は、テクスチャ画像に基づ
いて生成した部分的な距離画像におけるミスマッチング
領域の周囲の画素値(距離データ)と、先に投光パター
ン画像に基づいて生成した距離画像の対応画素の画素値
との差を予め設定した閾値と比較して、その差が閾値よ
り小さいときに、テクスチャ画像に基づく距離画像を置
換データとして使用可能と判定して置換処理を行なう。
その差が閾値より大きい場合は、ミスマッチング領域と
して認識した領域は、測定対象に実在する極端な凹凸部
である可能性もあり、この場合は、その部分の置換処理
は行なわない。
The replacement means 212 corresponds to the pixel values (distance data) around the mismatching area in the partial distance image generated based on the texture image and the distance image previously generated based on the light projection pattern image. The difference between the pixel value and the pixel value is compared with a preset threshold value, and when the difference is smaller than the threshold value, it is determined that a distance image based on the texture image can be used as replacement data, and replacement processing is performed.
If the difference is larger than the threshold value, the region recognized as the mismatching region may be an extremely uneven portion existing in the measurement target, and in this case, the replacement process of that portion is not performed.

【0074】各カメラによって撮影される投光パターン
画像とテクスチャ画像は、同一の撮り込み画像に基づく
ものであるため、投光パターン画像に基づく距離画像
と、テクスチャ画像に基づく距離画像とは、各画素が基
本的に対応するものとなり、置換手段212によって容
易に置換処理を実行することができる。
Since the light projection pattern image and the texture image captured by each camera are based on the same captured image, the distance image based on the light projection pattern image and the distance image based on the texture image are The pixels basically correspond to each other, and the replacement unit 212 can easily execute the replacement process.

【0075】画像メモリ210に格納された距離画像
は、投光パターン画像に基づく距離画像中のミスマッチ
ング領域をテクスチャ画像に基づく距離画像によって置
換した合成画像となり、より正確な距離画像として出力
手段213を介して出力される。
The distance image stored in the image memory 210 is a composite image obtained by replacing the mismatched area in the distance image based on the projection pattern image with the distance image based on the texture image, and outputs the distance image as a more accurate distance image. Is output via.

【0076】なお、図2に示す構成の各ブロックにおけ
る処理、およびブロック間データ転送制御等は、図示し
ない制御手段によって制御され、所定のメモリ、例えば
RAM,ROM等の半導体メモリ、磁気ディスク、光デ
ィスク等の記憶媒体に記録された制御プログラムによっ
て制御することができる。また、図示しない入力手段に
よってユーザがコマンド、パラメータ等を入力して各制
御態様を変更することが可能である。
The processing in each block having the configuration shown in FIG. 2 and the control of data transfer between blocks are controlled by control means (not shown), and predetermined memories, for example, semiconductor memories such as RAM and ROM, magnetic disks, and optical disks And the like can be controlled by a control program recorded in a storage medium such as. Further, the user can input commands, parameters, and the like using input means (not shown) to change each control mode.

【0077】また、図2においては、画像間対応付け手
段A,207と画像間対応付け手段B,208とを別ブ
ロックとして示してあるが、これらは1つの処理ブロッ
クとして構成してもよく、フレームメモリ1a,203
とフレームメモリ2a,205の画像間対応付け処理の
後、必要に応じてフレームメモリ1b,204とフレー
ムメモリ2b,206の画像間対応付け処理を、同一の
処理ブロックにおいてシリアルに実行するようにしても
よい。
In FIG. 2, the inter-image associating means A and 207 and the inter-image associating means B and 208 are shown as separate blocks. However, these may be configured as one processing block. Frame memory 1a, 203
After the image association processing of the frame memories 2a and 205, the image association processing of the frame memories 1b and 204 and the frame memories 2b and 206 is executed serially in the same processing block as necessary. Is also good.

【0078】図6は、本発明の三次元形状計測装置を用
いて三次元形状を計測する方法を説明したフローチャー
トである。以下、図6のフロー中の各ステップについて
説明する。
FIG. 6 is a flowchart illustrating a method for measuring a three-dimensional shape using the three-dimensional shape measuring apparatus of the present invention. Hereinafter, each step in the flow of FIG. 6 will be described.

【0079】ステップ601では、基準カメラによって
撮像された投光パターン画像1と、参照カメラによって
撮像された投光パターン画像2に基づいて距離画像D1
(i,j)が算出される。この距離画像の算出は、図2
における画像対応付け手段A,207の生成する視差デ
ータに基づいて距離画像生成手段209が生成するもの
である。
In step 601, a distance image D1 is obtained based on the light projection pattern image 1 captured by the reference camera and the light projection pattern image 2 captured by the reference camera.
(I, j) is calculated. The calculation of the distance image is shown in FIG.
Is generated by the distance image generation means 209 based on the parallax data generated by the image association means A and 207 in.

【0080】次に、ステップ602において、投光パタ
ーン画像に基づいて生成された距離画像中のミスマッチ
ング領域の検出が実行される。ミスマッチング領域の検
出処理について、図7、図8を用いて説明する。
Next, in step 602, detection of a mismatching area in the distance image generated based on the light projection pattern image is executed. The detection process of the mismatching region will be described with reference to FIGS.

【0081】図7は、ミスマッチングの検出処理の概略
を示すものであり、ステップ701において2つのカメ
ラ、すなわち基準カメラ、参照カメラによって異なる視
点方向からの画像を取り込み、ステップ702において
距離画像を生成し、ステップ703において距離画像の
ラベリング処理を実行し、その結果得られるラベリング
画像704に基づいて、ステップ705においてミスマ
ッチング領域を検出する。
FIG. 7 shows an outline of the process of detecting a mismatch. In step 701, images from different viewpoint directions are taken in by two cameras, that is, a reference camera and a reference camera, and a distance image is generated in step 702. Then, in step 703, labeling processing of the distance image is executed, and a mismatching area is detected in step 705 based on the resulting labeling image 704.

【0082】図7に示すステップ703におけるラベリ
ング処理の詳細処理フローを図8に示す。まず、図8の
ステップ801において、図2に示すミスマッチング領
域検出手段211は、画像メモリ210から距離画像D
1を読み出す。
FIG. 8 shows a detailed processing flow of the labeling processing in step 703 shown in FIG. First, in step 801 of FIG. 8, the mismatching area detecting unit 211 shown in FIG.
Read 1

【0083】ステップ802において、ミスマッチング
領域検出手段211は、ラベリング処理を開始する座標
を設定するための初期化処理として、ラベリング未処理
画素数kを初期化し、ミスマッチング領域検出手段21
1は、内蔵する座標記憶用バッファx[k],y[k]
を初期化する。
In step 802, the mismatching area detecting means 211 initializes the number k of unprocessed pixels for labeling as initialization processing for setting coordinates at which labeling processing is started.
1 is a built-in coordinate storage buffer x [k], y [k]
Is initialized.

【0084】ステップ803において、ミスマッチング
領域検出手段211は、距離画像D1の中の計測対象
(被写体)に対応する部分の任意の位置座標を注目画素
の座標(i,j)として設定する。
In step 803, the mismatching area detection means 211 sets arbitrary position coordinates of a portion corresponding to the measurement target (subject) in the distance image D1 as coordinates (i, j) of the pixel of interest.

【0085】ステップ804において、ミスマッチング
領域検出手段211は、距離画像D1の注目画素の画素
値g(i,j)を抽出する。画素値g(i,j)は、画
素(i,j)の距離値を示している。
At step 804, the mismatching area detecting means 211 extracts the pixel value g (i, j) of the target pixel of the distance image D1. The pixel value g (i, j) indicates a distance value of the pixel (i, j).

【0086】次に、ステップ805において、ミスマッ
チング領域検出手段211は、注目画素(i,j)に隣
接する画素の内の1つの未処理画素の画素値g(i+
m,j+n)(ただしm,n=−1,0,1)を抽出す
る。
Next, at step 805, the mismatching area detecting means 211 outputs the pixel value g (i + i) of one unprocessed pixel among the pixels adjacent to the target pixel (i, j).
m, j + n) (where m, n = -1, 0, 1).

【0087】ステップ806において、ミスマッチング
領域検出手段211は、注目する画素(i,j)の画素
値g(i,j)が、ラベル値L0であるか否かを判定
し、さらに注目する画素の画素値g(i,j)と隣接す
る画素の画素値g(i+m,j+n)の差の絶対値が所
定の閾値より小さいか否かを判定する。
In step 806, the mismatching area detecting means 211 determines whether or not the pixel value g (i, j) of the pixel of interest (i, j) is the label value L0, and further determines the pixel of interest. It is determined whether or not the absolute value of the difference between the pixel value g (i, j) of the pixel and the pixel value g (i + m, j + n) of the adjacent pixel is smaller than a predetermined threshold.

【0088】この閾値との比較により、画素(i,j)
と隣接画素(i+m,j+n)の連続性が判定される。
すなわち画素(i,j)と隣接画素(i+m,j+n)
の画素値、g(i,j)とg(i+m,j+n)との差
分が閾値より小さければその2つの画素は連続する領域
にあると判定され、閾値より大であれば不連続の領域で
あると判定する。
By comparison with this threshold value, the pixel (i, j)
And the continuity of the adjacent pixel (i + m, j + n) is determined.
That is, the pixel (i, j) and the adjacent pixel (i + m, j + n)
If the difference between the pixel value of g (i, j) and g (i + m, j + n) is smaller than the threshold value, it is determined that the two pixels are in a continuous area. It is determined that there is.

【0089】注目する画素の画素値g(i,j)がL0
でなく、かつ、隣接する画素の画素値g(i+m.j+
n)が画素値g(i,j)に対して連続していると判定
された場合ステップ807に進む。
The pixel value g (i, j) of the pixel of interest is L0
And the pixel value g (i + mj +
If it is determined that n) is continuous with the pixel value g (i, j), the process proceeds to step 807.

【0090】ステップ807において、ミスマッチング
領域検出手段211は、ラベリング未処理画素数kを1
だけインクリメントし、隣接する画素のx座標i+mを
座標記憶用バッファx[k]に記憶し、y座標j+nを
座標記憶用バッファy[k]に記憶する。
In step 807, the mismatching area detecting means 211 sets the number k of unprocessed pixels to be labeled to 1
Then, the x coordinate i + m of the adjacent pixel is stored in the coordinate storage buffer x [k], and the y coordinate j + n is stored in the coordinate storage buffer y [k].

【0091】ステップ808において、ミスマッチング
領域検出手段211は、注目する画素に隣接する8つの
全ての画素に対してステップ805,806の処理を施
したか否かを判定し、隣接する画素にステップ805,
806の処理を施していないものが存在すると判定した
場合、ステップ805に戻り、それ以降の処理を繰り返
す。その後、ステップ808で、隣接する8つの全ての
画素に対してステップ805,806の処理を施したと
判定された場合、ステップ809に進む。
In step 808, the mismatching area detecting means 211 determines whether or not the processing in steps 805 and 806 has been performed on all eight pixels adjacent to the pixel of interest. ,
If it is determined that there is any one that has not been subjected to the processing of 806, the process returns to step 805, and the subsequent processing is repeated. Thereafter, if it is determined in step 808 that the processing in steps 805 and 806 has been performed on all eight adjacent pixels, the process proceeds to step 809.

【0092】ステップ809において、ミスマッチング
領域検出手段211は、注目画素の画素値g(i,j)
をラベル値L0に置換する。ここで、ラベル値L0は、
距離画像D1の測定対象(被写体)に対応する部分の画
素に対して付されるものである。
At step 809, the mismatching area detecting means 211 outputs the pixel value g (i, j) of the target pixel.
Is replaced with the label value L0. Here, the label value L0 is
This is added to the pixels of the part corresponding to the measurement target (subject) of the distance image D1.

【0093】ステップ810において、ミスマッチング
領域検出手段211は、ラベリング未処理画素数kが0
であるか否かを判定し、ラベリング未処理画素数kが0
ではないと判定した場合、ステップ811に進む。
In step 810, the mismatching area detecting means 211 determines that the number k of unprocessed pixels to be labeled is 0.
And whether the number k of unprocessed pixels to be labeled is 0 or not.
If it is determined that it is not, the process proceeds to step 811.

【0094】ステップ811において、ミスマッチング
領域検出手段211は、座標記憶用バッファx[k]に
記憶されている値を注目画素のx座標とし、座標記憶用
バッファy[k]に記憶されている値を注目画素のy座
標とする。これにより、先ほどまでの注目画素に隣接
し、かつ画素値が連続する画素が新たな注目画素とされ
る。その後、ミスマッチング領域検出手段211は、ラ
ベリング未処理画素数kを1だけインクリメントしてス
テップ804に戻る。
In step 811, the mismatching area detecting means 211 sets the value stored in the coordinate storage buffer x [k] as the x coordinate of the pixel of interest and stores the value in the coordinate storage buffer y [k]. Let the value be the y coordinate of the pixel of interest. Thereby, a pixel adjacent to the previous pixel of interest and having a continuous pixel value is set as a new pixel of interest. Thereafter, the mismatching area detection unit 211 increments the number k of unlabeled pixels by one and returns to step 804.

【0095】その後、ステップ810において、ラベリ
ング未処理画素数kが0であると判定されるまで、ステ
ップ804以降の処理が繰り返され、ラベリング未処理
画素数kが0であると判定された場合、ステップ812
に進む。ステップ812において、ミスマッチング領域
検出手段211は、距離画像D1の画素で画素値がラベ
ル値L0に置換されていない画素の画素値をミスマッチ
ング領域であることを示すラベル値L1に置換する。
Thereafter, in step 810, the processing after step 804 is repeated until it is determined that the number k of unprocessed labeling pixels is 0, and when it is determined that the number k of unprocessed labeling pixels is 0, Step 812
Proceed to. In step 812, the mismatching area detection unit 211 replaces the pixel values of the pixels of the distance image D1 whose pixel values are not replaced with the label value L0 with the label value L1 indicating that the pixel is a mismatching area.

【0096】上述のようなラベリング処理が終了する
と、距離画像D1において距離データが所定の閾値以下
の差分を有する連続領域には同一のラベルが付与され、
例えば図7のラベリング画像704が得られる。
When the above-described labeling processing is completed, the same label is assigned to continuous areas in which the distance data has a difference equal to or less than a predetermined threshold in the distance image D1,
For example, a labeling image 704 in FIG. 7 is obtained.

【0097】ミスマッチング領域検出手段211は、同
一ラベルが付与された画素に囲まれていて、かつ周囲と
異なるラベルが付与された小さな孤立領域が存在するか
否かを上記のラベル値にしたがって判定する。図7のラ
ベリング画像704では、領域B,C,Dがこれらの条
件に該当し、この領域B,C,Dをミスマッチング領域
であると判定(ステップ705)する。
The mismatching area detecting means 211 determines whether or not there is a small isolated area surrounded by pixels to which the same label is assigned and to which a label different from the surrounding area is present, according to the above label value. I do. In the labeling image 704 of FIG. 7, the areas B, C, and D correspond to these conditions, and the areas B, C, and D are determined to be mismatching areas (step 705).

【0098】図6に戻って、さらに説明を続ける。ステ
ップ602において、図7,8のフローに従ってミスマ
ッチング領域の検出が終了すると、ステップ603にお
いて、ミスマッチング領域が検出されたか否かが判定さ
れ、ミスマッチング領域が検出されなかった場合は、投
光パターン画像のみから距離画像の生成処理(ステップ
610)が行なわれる。
Returning to FIG. 6, the description will be continued. In step 602, when the detection of the mismatching area is completed according to the flow of FIGS. 7 and 8, it is determined in step 603 whether the mismatching area is detected. If the mismatching area is not detected, the light is projected. A process of generating a distance image from only the pattern image (step 610) is performed.

【0099】ステップ603において、ミスマッチング
領域が検出された場合は、ステップ604,605にお
いて、計算領域設定処理が行なわれる。この計算領域設
定処理は、テクスチャ画像を用いた距離画像の生成処理
を行なう部分領域を設定する処理であり、ステップ60
2で検出されたミスマッチング領域を含む座標領域がテ
クスチャ画像を用いた距離画像の生成処理を行なう部分
領域として設定される。
If a mismatching area is detected in step 603, calculation area setting processing is performed in steps 604 and 605. This calculation region setting process is a process of setting a partial region in which a distance image generation process using a texture image is performed.
The coordinate area including the mismatched area detected in step 2 is set as a partial area for performing a distance image generation process using a texture image.

【0100】次に、ステップ606において、ステップ
604,605において設定された計算領域における距
離画像がD2(i,j)として算出される。これらは、
図2におけるフレームメモリ1b,204に格納された
基準カメラが撮影したテクスチャ画像と、フレームメモ
リ2b,206に格納された参照カメラが撮影したテク
スチャ画像とに基づいて画像間対応付け手段B,208
がステレオ画像法に基づく対応付け処理を実行し視差デ
ータを生成して、さらに距離画像生成手段209が視差
データに基づく距離画像を生成する処理である。なお、
これらの処理は、ステップ604,605において設定
された部分領域、すなわちミスマッチング領域を含む画
素領域についてのみ行われる。
Next, in step 606, the distance image in the calculation area set in steps 604 and 605 is calculated as D2 (i, j). They are,
Based on the texture images captured by the reference camera stored in the frame memories 1b and 204 and the texture images captured by the reference camera stored in the frame memories 2b and 206 in FIG.
Is a process in which the associating process based on the stereo image method is executed to generate disparity data, and the distance image generating unit 209 further generates a distance image based on the disparity data. In addition,
These processes are performed only on the partial area set in steps 604 and 605, that is, on the pixel area including the mismatching area.

【0101】ステップ606において、テクスチャ画像
を用いた部分領域の距離画像が生成されると、ステップ
607に進み、生成された距離画像の信頼性の判定処理
がなされる。この信頼性判定処理は、テクスチャ画像に
基づいて生成された距離画像と、既に投光パターン画像
に基づいて生成されている距離画像との整合性を判定す
ることによって行われる。具体的には、例えば、ミスマ
ッチング領域の周囲画素について、テクスチャ画像に基
づいて生成された距離画像の画素値と、投光パターン画
像に基づいて生成された距離画像の画素値、これら2つ
の画素値データの比較によって行われ、これらが大きく
離れているときは、テクスチャ画像に基づいて生成した
距離画像の信頼性は否定(ステップ608においてN
o)され、置換処理を中止する。
In step 606, when the distance image of the partial area using the texture image is generated, the process proceeds to step 607, in which the reliability of the generated distance image is determined. This reliability determination process is performed by determining the consistency between the distance image generated based on the texture image and the distance image already generated based on the light projection pattern image. Specifically, for example, for pixels around the mismatching area, the pixel values of the distance image generated based on the texture image, the pixel values of the distance image generated based on the light projection pattern image, and these two pixels This is performed by comparing value data, and when these are far apart, the reliability of the distance image generated based on the texture image is denied (N in step 608).
o) and the replacement process is stopped.

【0102】具体的には、図2に示す置換手段212
が、テクスチャ画像に基づいて生成した部分的な距離画
像におけるミスマッチング領域の周囲の画素値(距離デ
ータ)と、先に投光パターン画像に基づいて生成した距
離画像の対応画素の画素値との差分を算出し、これを予
め設定した閾値と比較して、差が閾値より小さいときテ
クスチャ画像に基づく距離画像による置換処理を行な
う。差が閾値より大きい場合は、ミスマッチング領域と
して認識した領域は、測定対象に実在する極端な凹凸部
である可能性があり、置換処理は行なわない。
Specifically, the replacement means 212 shown in FIG.
Is the difference between the pixel value (distance data) around the mismatching region in the partial distance image generated based on the texture image and the pixel value of the corresponding pixel of the distance image generated previously based on the light projection pattern image. The difference is calculated, and the difference is compared with a preset threshold value. When the difference is smaller than the threshold value, the replacement process with the distance image based on the texture image is performed. If the difference is larger than the threshold value, the region recognized as the mismatching region may be an extremely uneven portion existing in the measurement target, and the replacement process is not performed.

【0103】テクスチャ画像に基づいて生成された距離
画像に信頼性がある(ステップ608の判定がYes)
と判定された場合には、ステップ609において、テク
スチャ画像に基づいて生成された距離画像D2(i,
j)を投光パターン画像に基づいて生成された距離画像
D1(i,j)に適用する。すなわち、ミスマッチング
領域の距離画像をテクスチャ画像に基づいて生成された
距離画像D2(i,j)に置き換える。
The distance image generated based on the texture image has reliability (Yes in step 608).
Is determined in step 609, the distance image D2 (i,
j) is applied to the distance image D1 (i, j) generated based on the light projection pattern image. That is, the distance image of the mismatching area is replaced with the distance image D2 (i, j) generated based on the texture image.

【0104】投光パターン画像に基づいて生成された距
離画像D1(i,j)について、そのミスマッチング領
域をテクスチャ画像に基づいて生成された距離画像D2
(i,j)で置き換えた合成画像が、最終的距離画像と
して生成(ステップ610)され、出力される。
With respect to the distance image D1 (i, j) generated based on the light projection pattern image, the mismatched area is defined as the distance image D2 generated based on the texture image.
The composite image replaced with (i, j) is generated as a final distance image (step 610) and output.

【0105】図9に本発明の三次元形状計測装置におい
て、基準カメラと参照カメラの撮影する投光パターン画
像と、テクスチャ画像の例を示す。
FIG. 9 shows an example of a light projection pattern image and a texture image taken by the reference camera and the reference camera in the three-dimensional shape measuring apparatus of the present invention.

【0106】図9(a)が基準カメラの撮影した投光パ
ターン画像、図9(b)が参照カメラの撮影した投光パ
ターン画像、図9(c)が基準カメラの撮影したテクス
チャ画像、図9(d)が参照カメラの撮影したテクスチ
ャ画像である。図9(a),(b)は、図面上では明確
に示されないが、図9上段に示す非周期パターンが赤外
光によって照射され、計測対象に非周期パターンが映し
出される。これが各カメラによって撮り込まれる。図9
(c),(d)は、非周期パターンは撮影されることな
く、太陽光、蛍光灯、白熱灯の可視光によって観察した
状態で計測対象が撮影されたものである。
FIG. 9A is a projection pattern image taken by the reference camera, FIG. 9B is a projection pattern image taken by the reference camera, and FIG. 9C is a texture image taken by the reference camera. 9 (d) is a texture image taken by the reference camera. Although FIGS. 9A and 9B are not clearly shown in the drawings, the aperiodic pattern shown in the upper part of FIG. 9 is irradiated with infrared light, and the aperiodic pattern is projected on the measurement target. This is captured by each camera. FIG.
(C) and (d) show the case where the measurement target is photographed in a state where the non-periodic pattern is not photographed but observed with visible light of sunlight, a fluorescent lamp, and an incandescent lamp.

【0107】図9の(a),(b)には、図に示すよう
な正反射領域が発生し、これらの部分において正確な距
離画像の生成が困難になる。すなわちこの正反射領域は
照射パターンの取得ができず、画素の対応付けが困難と
なり前述のミスマッチング領域となる可能性が高い部分
である。本発明の三次元形状計測装置においては、これ
らの部分を図9(c)、(d)のテクスチャ画像に基づ
く距離画像で置換することにより正確な距離画像を得
る。
In FIGS. 9A and 9B, regular reflection areas as shown in FIG. 9 occur, and it becomes difficult to generate an accurate distance image in these areas. That is, the regular reflection region is a portion where the irradiation pattern cannot be obtained, the association of pixels becomes difficult, and the possibility of becoming the above-described mismatching region is high. In the three-dimensional shape measuring apparatus of the present invention, an accurate distance image is obtained by replacing these parts with a distance image based on the texture images of FIGS. 9 (c) and 9 (d).

【0108】図10に、投光パターン画像に基づく距離
画像と、テクスチャ画像に基づく距離画像と、最終的な
出力画像の例を示す。図10において、各距離画像は、
それぞれ色(濃淡)によって距離の差異を示している。
なお、図10では置換領域の説明のための模式的な距離
画像を示しているものであり、実際の距離画像とは異な
っている。
FIG. 10 shows an example of a distance image based on a light projection pattern image, a distance image based on a texture image, and a final output image. In FIG. 10, each distance image is
Each of the colors (shading) indicates a difference in distance.
FIG. 10 shows a schematic distance image for explaining the replacement area, which is different from an actual distance image.

【0109】図10において、左上の図が投光パターン
に基づく距離画像であり、ミスマッチング領域が測定対
象のほぼ正面の領域に形成され、誤った距離値が距離画
像上に示されている。図10右上は、テクスチャ画像に
基づく距離画像であり、図の測定対象の右側面にミスマ
ッチング領域が存在するものの、測定対象の正面には、
ミスマッチング領域はなく、これらの領域の距離画像を
置換領域として設定することにより、図10下の出力距
離画像が得られる。図10下の距離画像にはミスマッチ
ング領域は存在せず、正確な距離画像としての出力が得
られる
In FIG. 10, the upper left diagram is a distance image based on the light projection pattern, a mismatching region is formed in a region almost in front of the measurement target, and an incorrect distance value is shown on the distance image. The upper right part of FIG. 10 is a distance image based on the texture image. Although a mismatching area exists on the right side of the measurement target in the figure, the front side of the measurement target has
There is no mismatching area, and by setting the distance images of these areas as replacement areas, the output distance image shown in the lower part of FIG. 10 is obtained. There is no mismatching area in the distance image in the lower part of FIG. 10, and an output as an accurate distance image is obtained.

【0110】なお、上述の例では、1つの基準カメラと
参照カメラとの組を有する例を中心として説明したが、
複数の基準カメラと参照カメラの組を有する構成とし
て、距離画像生成手段が、基準カメラと参照カメラの各
々の組によって撮り込まれた投光パターン画像に基づく
複数の距離画像を生成し、さらに基準カメラと参照カメ
ラの各々の組によって撮り込まれたテクスチャ画像に基
づいて複数の距離画像を生成する構成しとして、複数の
距離画像、例えば様々な視点からの距離画像を生成する
構成としてもよい。
In the above example, the example having one set of the reference camera and the reference camera has been mainly described.
As a configuration having a plurality of pairs of a reference camera and a reference camera, the distance image generation means generates a plurality of distance images based on the light emission pattern images captured by each pair of the reference camera and the reference camera, and further includes a reference As a configuration for generating a plurality of distance images based on a texture image captured by each set of the camera and the reference camera, a configuration for generating a plurality of distance images, for example, distance images from various viewpoints may be used.

【0111】さらに、複数の基準カメラと参照カメラの
組を有するとともに、複数の投光パターン照射手段を構
成し、複数の投光パターン照射手段の各々が、可視光と
異なり、かつ他の投光パターン照射手段とも異なる固有
の波長の光を用いて投光パターンを測定対象に照射する
構成として、複数の基準カメラと参照カメラの組の各々
の組が、それぞれ異なる波長の光に基づく投光パターン
画像をテクスチャ画像と分離して撮り込み、距離画像生
成手段が、基準カメラと参照カメラの各々の組によって
撮り込まれた投光パターン画像に基づく複数の距離画像
を斎整するとともに、基準カメラと参照カメラの各々の
組によって撮り込まれたテクスチャ画像に基づいて複数
の距離画像を生成する構成としてもよい。
Further, a plurality of sets of a reference camera and a reference camera are provided, and a plurality of light projecting pattern irradiating means are formed. Each of the plurality of light projecting pattern irradiating means is different from visible light and has another light projecting pattern. As a configuration for irradiating the measurement target with light having a unique wavelength different from the pattern irradiating means, each set of a plurality of sets of a reference camera and a reference camera is configured to emit light based on light having a different wavelength. The image is captured separately from the texture image, and the distance image generating means adjusts a plurality of distance images based on the light emitting pattern image captured by each set of the reference camera and the reference camera, and the reference camera and A configuration in which a plurality of distance images are generated based on texture images captured by each set of reference cameras may be adopted.

【0112】このように、本発明の三次元形状計測装置
と三次元形状計測方法によれば、可視光でのテクスチャ
画像と、赤外光による非周期的投光パターン画像を同時
に撮り込むことが可能となり、非周期的投光パターン画
像によって得られる距離画像にミスマッチング領域が発
生した場合であっても、可視光での同時撮り込み画像を
用いてミスマッチング領域に対応する部分領域の距離画
像を生成して、これを投光パターン画像に基づく距離画
像中のミスマッチング領域に置換することが可能とな
り、より正確な距離画像を得ることが可能となる。
As described above, according to the three-dimensional shape measuring apparatus and the three-dimensional shape measuring method of the present invention, it is possible to simultaneously capture a texture image with visible light and an aperiodic light projection pattern image with infrared light. Even if a mismatching area occurs in the distance image obtained by the aperiodic light projection pattern image, the distance image of the partial area corresponding to the mismatching area using the simultaneously captured image with visible light can be used. Is generated, and this can be replaced with a mismatching area in the distance image based on the light projection pattern image, and a more accurate distance image can be obtained.

【0113】また、本発明の三次元形状計測装置と三次
元形状計測方法によれば、可視光でのテクスチャ画像
と、赤外光による非周期的投光パターン画像は、時間的
ずれが全くなく同時に撮り込むことが可能であるので、
距離画像の画素同士の対応付けが正確に行われ、置換処
理が容易に実行できる。
According to the three-dimensional shape measuring apparatus and the three-dimensional shape measuring method of the present invention, the texture image of visible light and the aperiodic light projection pattern image of infrared light have no time lag. Since it is possible to shoot at the same time,
The pixels in the range image are accurately associated with each other, and the replacement process can be easily performed.

【0114】また、本発明の三次元形状計測装置と三次
元形状計測方法によれば、非周期的投光パターン画像は
赤外光による照射によって行われ、従来のフラッシュ使
用によるパターン照射と異なり、パターン画像撮り込み
時間(シャッター開放時間)を長く設定することが可能
となり、安定した画像の撮り込みが可能となる。
According to the three-dimensional shape measuring apparatus and the three-dimensional shape measuring method of the present invention, the aperiodic light projection pattern image is formed by irradiation with infrared light, which is different from the conventional pattern irradiation using a flash. The pattern image capturing time (shutter release time) can be set long, and a stable image can be captured.

【0115】[三次元形状計測装置−実施例2]上述の
実施例で説明した図2の構成は、可視光でのテクスチャ
画像と、赤外光による非周期的投光パターン画像を同時
に撮り込み、まず、赤外光による非周期的投光パターン
画像に基づいて、距離画像を生成して、その距離画像か
らミスマッチング領域を検出した後、その領域について
のみ、テクスチャ画像に基づく距離画像を生成して、生
成した部分領域の距離画像を置換領域として使用する構
成であったが、可視光でのテクスチャ画像と、赤外光に
よる非周期的投光パターン画像の両者に基づく距離画像
生成処理を並行して実行し、これら2つの距離画像から
選択的に距離画像を選定して出力する構成を実施例2と
して説明する。
[Three-Dimensional Shape Measuring Apparatus—Second Embodiment] The configuration shown in FIG. 2 described in the above embodiment simultaneously captures a texture image with visible light and an aperiodic light projection pattern image with infrared light. First, a distance image is generated based on a non-periodic light projection pattern image by infrared light, a mismatching area is detected from the distance image, and a distance image based on a texture image is generated only for the area. Then, the configuration is such that the generated distance image of the partial area is used as the replacement area. However, the distance image generation processing based on both the texture image of visible light and the aperiodic light projection pattern image of infrared light is performed. A configuration for executing in parallel and selectively selecting and outputting a distance image from these two distance images will be described as a second embodiment.

【0116】図11に実施例2の三次元形状計測装置の
ブロック図を示す。図11に示す構成では、図2に示す
実施例1の構成と異なり、距離画像生成手段が2つ、画
像メモリが2つ構成され、距離画像生成手段A,110
1は、フレームメモリ1a,203とフレームメモリ2
a,205に格納された投光パターン画像に基づく距離
画像を生成し、距離画像生成手段B,1102は、フレ
ームメモリ1b,204とフレームメモリ2b,206
に格納されたテクスチャ画像に基づく距離画像を生成す
る。これら2つの距離画像生成手段はすべての領域につ
いての距離画像を生成する。
FIG. 11 is a block diagram of a three-dimensional shape measuring apparatus according to the second embodiment. In the configuration shown in FIG. 11, unlike the configuration of the first embodiment shown in FIG. 2, two distance image generation units and two image memories are configured.
1 is a frame memory 1a, 203 and a frame memory 2
a, 205, generate a distance image based on the light projection pattern image stored therein, and the distance image generating means B, 1102 generates frame images 1b, 204 and frame memories 2b, 206.
Generate a distance image based on the texture image stored in the. These two distance image generating means generate distance images for all areas.

【0117】生成された距離画像は、それぞれ画像メモ
リA,1103と画像メモリB,1104に格納され
る。
The generated distance images are stored in image memories A and 1103 and image memories B and 1104, respectively.

【0118】ミスマッチング領域検出手段は、それぞれ
の画像メモリに格納された距離画像についてのミスマッ
チング領域を検出し、いずれかの領域にミスマッチング
領域が存在する場合は、領域データを選択手段1106
に出力し、選択手段は、その領域については、他方のメ
モリに格納された距離画像に置き換えを実行し、最終的
に合成した距離画像を出力手段1107を介して出力す
る。
The mismatching area detecting means detects a mismatching area of the distance image stored in each image memory, and if any of the areas has a mismatching area, selects area data.
Then, the selection unit executes the replacement of the area with the distance image stored in the other memory, and outputs the finally synthesized distance image via the output unit 1107.

【0119】本実施例の構成によれば、2つの距離画像
が並列に生成され、ミスマッチング領域が検出された場
合、他方の距離画像への置き換え処理が即座に実行でき
るので、処理の高速化が可能となる。また、ミスマッチ
ング領域検出手段1105、または選択手段1106に
おいて、2つの距離画像の各画素値の比較処理が実行可
能となるので各距離画像中の誤った画素値を有する領域
抽出が容易となる。
According to the configuration of the present embodiment, when two distance images are generated in parallel and a mismatching area is detected, the replacement processing with the other distance image can be executed immediately, so that the processing speed is increased. Becomes possible. In addition, since the mismatching area detecting unit 1105 or the selecting unit 1106 can execute comparison processing of each pixel value of the two distance images, it is easy to extract an area having an incorrect pixel value in each distance image.

【0120】[三次元モデリング装置]次に本発明の三
次元形状計測装置を用いた三次元モデリング装置および
三次元モデリング方法について説明する。
[3D Modeling Apparatus] Next, a 3D modeling apparatus and a 3D modeling method using the 3D shape measuring apparatus of the present invention will be described.

【0121】本発明の三次元モデリング装置の構成ブロ
ック図を図12に、処理フローを図13に示す。図12
に示すように距離画像の生成手段は、実施例1で説明し
た手法と同一の手法であり、投光パターン画像に基づく
距離画像をテクスチャ画像に基づく距離画像を用いて補
完を実行し、出力距離画像を生成する。
FIG. 12 is a block diagram showing the configuration of the three-dimensional modeling apparatus according to the present invention, and FIG. FIG.
As shown in FIG. 7, the means for generating a distance image is the same method as the method described in the first embodiment. The distance image based on the light projection pattern image is complemented using the distance image based on the texture image, and the output distance is calculated. Generate an image.

【0122】図12示す三次元(3D)形状データ生成
手段1201は、出力距離画像と、フレームメモリ1
b,204に格納されたテクスチャ画像データを受領
し、距離画像にテクスチャ画像データを貼り合わせる処
理を実行し、さらに、計測対象の配置された空間のキャ
リブレーションパラメータに基づいて、xyz空間上の
3D形状データを生成する。生成された3D形状データ
はテクスチャ画像とともに表示される。
The three-dimensional (3D) shape data generating means 1201 shown in FIG.
b, receiving the texture image data stored in 204, performing a process of pasting the texture image data to the distance image, and further, based on the calibration parameters of the space in which the measurement target is arranged, a 3D image in the xyz space. Generate shape data. The generated 3D shape data is displayed together with the texture image.

【0123】図13は、図12示す三次元(3D)形状
データ生成手段1201における三次元モデリング装置
の処理フローを示すものであり、まず、三次元(3D)
形状データ生成手段1201は、投光パターン画像に基
づく距離画像をテクスチャ画像に基づく距離画像を用い
て補完処理を行なった距離画像D(i,j)を入力(ス
テップ1301)し、さらに基準カメラによって撮り込
まれたテクスチャ画像を入力(ステップ1302)す
る。
FIG. 13 shows a processing flow of the three-dimensional modeling device in the three-dimensional (3D) shape data generating means 1201 shown in FIG.
The shape data generating means 1201 inputs a distance image D (i, j) obtained by performing a complementation process on the distance image based on the light projection pattern image using the distance image based on the texture image (step 1301), and further receives the reference image from the reference camera. The captured texture image is input (step 1302).

【0124】さらに、ステップ1303において、三次
元(3D)形状データ生成手段1201は、入力した距
離画像にテクスチャ画像データを貼り合わせる処理を実
行する。さらに、ステップ1304において、計測対象
の配置された空間のキャリブレーションパラメータを入
力し、xyz空間上の3D形状データを生成(ステップ
1305)する。さらにステップ1306において3D
形状データとテクスチャを表示する。
Further, in step 1303, the three-dimensional (3D) shape data generating means 1201 executes processing for pasting the texture image data to the input distance image. Further, in step 1304, a calibration parameter of the space where the measurement target is arranged is input, and 3D shape data in the xyz space is generated (step 1305). In step 1306, 3D
Display shape data and texture.

【0125】本発明の三次元モデリング装置は、従来の
1つの投光パターンに基づく距離画像によって生成され
る三次元画像ではなく、同時に撮り込まれるテクスチャ
画像に基づいてミスマッチング領域を補完した距離画像
に基づいて生成される三次元画像であるので、誤った距
離画像に基づいて不正確な三次元画像が生成されること
がなく、より高精度な三次元(3D)表示が可能とな
る。
The three-dimensional modeling apparatus of the present invention is not limited to a conventional three-dimensional image generated by a distance image based on one projection pattern, but a distance image in which a mismatching area is complemented based on a texture image captured at the same time. Since the three-dimensional image is generated based on the distance image, an inaccurate three-dimensional image is not generated based on the erroneous distance image, and a more accurate three-dimensional (3D) display can be performed.

【0126】なお、前述の実施例2で説明した投光パタ
ーン画像に基づく距離画像とテクスチャ画像に基づく距
離画像とを並列処理によって生成する態様の三次元形状
計測装置を適用して三次元モデリング装置を構成しても
よい。
The three-dimensional shape measuring apparatus is applied to the three-dimensional shape measuring apparatus in which the distance image based on the light projection pattern image and the distance image based on the texture image described in the second embodiment are generated by parallel processing. May be configured.

【0127】以上、特定の実施例を参照しながら、本発
明について詳解してきた。しかしながら、本発明の要旨
を逸脱しない範囲で当業者が該実施例の修正や代用を成
し得ることは自明である。すなわち、例示という形態で
本発明を開示してきたのであり、限定的に解釈されるべ
きではない。上記実施例では、投光パターンの照射を赤
外光によるものを中心として説明したが、本発明の三次
元形状計測装置とその方法、三次元モデリング装置とそ
の方法では、可視光で撮り込まれるテクスチャ画像と異
なる画像として投光パターン画像を同時撮り込み可能と
する構成であればよく、投光パターンの照射は、赤外光
に限らず、可視光と異なる波長を用い、これをテクスチ
ャ画像と異なる画像として撮り込み可能な構成、例えば
特定のフィルタ手段によって投光パターン画像のみ、ま
たはテクスチャ画像のみを撮り込むことを可能とした構
成であればよい。本発明の要旨を判断するためには、冒
頭に記載した特許請求の範囲の欄を参酌すべきである。
The present invention has been described in detail with reference to the specific embodiments. However, it is obvious that those skilled in the art can modify or substitute the embodiment without departing from the spirit of the present invention. That is, the present invention has been disclosed by way of example, and should not be construed as limiting. In the above-described embodiment, the irradiation of the light projection pattern is mainly described with infrared light. However, in the three-dimensional shape measuring device and method of the present invention, the three-dimensional modeling device and method are captured with visible light. Any configuration that allows simultaneous projection of the light projection pattern image as an image different from the texture image may be used. Irradiation of the light projection pattern is not limited to infrared light, and a wavelength different from visible light is used. Any configuration that can be captured as a different image, for example, a configuration capable of capturing only a light projection pattern image or only a texture image by a specific filter means may be used. In order to determine the gist of the present invention, the claims described at the beginning should be considered.

【0128】[0128]

【発明の効果】以上詳記したように、本発明によれば、
可視光でのテクスチャ画像と、赤外光等、可視光とは異
なる波長を有する光による投光パターン画像を同時に撮
り込むことが可能となり、投光パターン画像によって得
られる距離画像にミスマッチング領域が発生した場合で
あっても、可視光での同時撮り込み画像を用いてミスマ
ッチング領域に対応する部分領域の距離画像を生成し
て、これを投光パターン画像に基づく距離画像中のミス
マッチング領域に置換することが可能となり、より正確
な距離画像を得ることが可能となる。
As described above in detail, according to the present invention,
It is possible to simultaneously capture a texture image with visible light and a light projection pattern image with light having a wavelength different from visible light, such as infrared light, and a mismatching area is included in the distance image obtained by the light projection pattern image. Even if it occurs, a distance image of the partial region corresponding to the mismatching region is generated using the simultaneously captured image with visible light, and this is used as the mismatching region in the distance image based on the projection pattern image. , And a more accurate distance image can be obtained.

【0129】また、本発明によれば、赤外光等の可視光
とは異なる波長を有する光による投光パターン画像は、
非周期パターンであるので、対応付け処理におけるミス
マッチング領域の減少が図れ、距離画像の画素同士の対
応付けがより正確に行われる。
Further, according to the present invention, a light projection pattern image by light having a wavelength different from visible light such as infrared light is
Since the pattern is an aperiodic pattern, the number of mismatched areas in the association process can be reduced, and the pixels in the distance image can be associated with each other more accurately.

【0130】また、本発明によれば、可視光でのテクス
チャ画像と、赤外光等の可視光とは異なる波長を有する
光による投光パターン画像は、時間的ずれが全くなく同
時に撮り込むことが可能であるので、距離画像の画素同
士の対応付けが正確に行われ、置換処理が容易に実行で
きる。
According to the present invention, a texture image with visible light and a light projection pattern image with light having a wavelength different from visible light, such as infrared light, can be captured simultaneously with no time lag. Is possible, the pixels in the range image are associated with each other accurately, and the replacement process can be easily executed.

【0131】また、本発明によれば、投光パターン画像
は、例えば赤外光による照射によって行われ、従来のフ
ラッシュ使用によるパターン照射と異なり、パターン画
像撮り込み時間(シャッター開放時間)を長く設定する
ことが可能となり、安定した画像の撮り込みが可能とな
る。
Further, according to the present invention, the projected pattern image is formed by irradiation with infrared light, for example, and unlike the conventional pattern irradiation using a flash, the pattern image capturing time (shutter open time) is set longer. It is possible to capture a stable image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明において使用される三次元情報取得構成
として適用可能なステレオ画像法について説明した図で
ある。
FIG. 1 is a diagram illustrating a stereo image method applicable as a three-dimensional information acquisition configuration used in the present invention.

【図2】本発明の三次元形状計測装置の一実施例の構成
を示すブロック図である。
FIG. 2 is a block diagram showing a configuration of an embodiment of a three-dimensional shape measuring apparatus according to the present invention.

【図3】本発明における投光パターン照射手段において
用いられる非周期投光パターンの例を示す図である。
FIG. 3 is a diagram illustrating an example of an aperiodic light projection pattern used in a light projection pattern irradiation unit according to the present invention.

【図4】本発明における投光パターン照射手段の構成例
を示す図である。
FIG. 4 is a diagram showing a configuration example of a light projection pattern irradiation unit in the present invention.

【図5】本発明の基準カメラ、および参照カメラによる
投光パターン画像とテクスチャ画像との撮り込み構成を
示す図である。
FIG. 5 is a diagram showing a configuration of capturing a light projection pattern image and a texture image by a reference camera and a reference camera according to the present invention.

【図6】本発明の三次元形状計測装置における距離画像
生成処理のフローチャートを示す図である。
FIG. 6 is a diagram showing a flowchart of a distance image generation process in the three-dimensional shape measuring apparatus of the present invention.

【図7】本発明の三次元形状計測装置におけるミスマッ
チング領域の検出処理フローを示す図である。
FIG. 7 is a diagram showing a flow of processing for detecting a mismatching region in the three-dimensional shape measuring apparatus of the present invention.

【図8】本発明の三次元形状計測装置における距離画像
に基づくラベリング処理の処理フローを示す図である。
FIG. 8 is a diagram showing a processing flow of labeling processing based on a distance image in the three-dimensional shape measuring apparatus of the present invention.

【図9】本発明の三次元形状計測装置における基準カメ
ラと参照カメラの撮り込む投光パターン画像およびテク
スチャ画像の例を示す図である。
FIG. 9 is a diagram showing an example of a light projection pattern image and a texture image captured by a reference camera and a reference camera in the three-dimensional shape measuring apparatus of the present invention.

【図10】本発明の三次元形状計測装置における投光パ
ターン画像およびテクスチャ画像に基づく距離画像と出
力する距離画像の対応を説明する図である。
FIG. 10 is a diagram illustrating the correspondence between a distance image based on a light projection pattern image and a texture image and a distance image to be output in the three-dimensional shape measuring apparatus of the present invention.

【図11】本発明の三次元形状計測装置の第2実施例の
構成を示すブロック図である。
FIG. 11 is a block diagram showing the configuration of a second embodiment of the three-dimensional shape measuring apparatus of the present invention.

【図12】本発明の三次元モデリング装置の構成を示す
ブロック図である。
FIG. 12 is a block diagram showing a configuration of a three-dimensional modeling device of the present invention.

【図13】本発明の三次元モデリング装置の処理フロー
を示す図である。
FIG. 13 is a diagram showing a processing flow of the three-dimensional modeling device of the present invention.

【符号の説明】[Explanation of symbols]

201…基準カメラ 202…参照カメラ 203〜206…フレームメモリ 207、208…画像間対応付け手段 209…距離画像生成手段 210…画像メモリ 211…ミスマッチング領域検出手段 212…置換手段 213…出力手段 220…投光パターン照射手段 401…LEDアレイ 402…光拡散板 403…集光レンズ 404…スライド 405…投光レンズ 407…発光駆動回路 408…シャッター同期回路 501…基準カメラレンズ 502,508…分光器 503,509…可視光カットフィルタ 504,510…CCD素子 505,511…赤外光カットフィルタ 506,512…CCD素子 507…参照カメラレンズ 1101,1102…距離画像生成手段 1103,1104…画像メモリ 1105…ミスマッチング領域検出手段 1106…選択手段 1107…出力手段 1201…三次元(3D)形状データ生成手段 1202…表示手段 201 Reference camera 202 Reference camera 203-206 Frame memory 207, 208 Image correspondence means 209 Distance image generation means 210 Image memory 211 Mismatch area detection means 212 Replacement means 213 Output means 220 Projection pattern irradiation means 401 LED array 402 Light diffusion plate 403 Condensing lens 404 Slide 405 Projection lens 407 Light emission drive circuit 408 Shutter synchronization circuit 501 Reference camera lens 502, 508 Spectroscope 503 509: visible light cut filter 504, 510: CCD element 505, 511: infrared light cut filter 506, 512: CCD element 507: reference camera lens 1101, 1102: distance image generating means 1103, 1104: image memory 1105: mismap Ring region detection unit 1106 ... selection unit 1107 ... output unit 1201 ... three-dimensional (3D) shape data generating unit 1202 ... display means

フロントページの続き (72)発明者 芦ヶ原 隆之 東京都品川区東五反田1丁目14番10号 株 式会社ソニー木原研究所内 (72)発明者 林 和慶 東京都品川区東五反田1丁目14番10号 株 式会社ソニー木原研究所内 Fターム(参考) 2F065 AA04 AA53 BB05 BB28 BB29 CC16 FF05 GG07 GG18 GG21 HH07 JJ03 JJ05 JJ26 LL26 LL30 LL67 QQ03 QQ08 QQ21 QQ24 QQ38 RR05 2F112 AA07 AA09 CA08 DA21 DA28 EA00 FA03 FA07 FA21 FA38 FA39 Continued on the front page (72) Inventor Takayuki Ashigahara 1-14-10 Higashi-Gotanda, Shinagawa-ku, Tokyo Inside Sony Kihara Laboratory Co., Ltd. (72) Inventor Kazuyoshi Hayashi 1--14 Higashi-Gotanda, Shinagawa-ku, Tokyo No. 10 F-term in Sony Kihara Research Laboratories (reference)

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】測定対象を異なる方向から撮影した画像を
用いて前記測定対象の三次元形状を計測する三次元形状
計測装置において、 可視光とは異なる波長の光を用いて投光パターンを前記
測定対象に照射する投光パターン照射手段と、 前記投光パターン照射手段によって投光パターンの照射
された投光パターン画像と、可視光によって観察される
テクスチャ画像の2つの画像を画像分離手段によって分
離して同期した投光パターン画像とテクスチャ画像とを
個別に撮り込む基準カメラと、 前記投光パターン照射手段によって投光パターンの照射
された投光パターン画像と、可視光によって観察される
テクスチャ画像の2つの画像を画像分離手段によって分
離して同期した投光パターン画像とテクスチャ画像と
を、前記基準カメラと異なる方向から、かつ前記基準カ
メラと同期したタイミングで撮り込む参照カメラと、 前記基準カメラおよび参照カメラによって撮り込まれた
投光パターン画像に基づく距離画像、および前記基準カ
メラおよび参照カメラによって撮り込まれたテクスチャ
画像に基づく距離画像を生成する距離画像生成手段と、 前記距離画像生成手段の生成した投光パターン画像に基
づく距離画像中のミスマッチング領域を検出するミスマ
ッチング領域検出手段と、 前記ミスマッチング領域検出手段の検出したミスマッチ
ング領域を含む部分領域の距離画像をテクスチャ画像に
基づく距離画像に置換する置換手段と、 を有することを特徴とする三次元形状計測装置。
1. A three-dimensional shape measuring apparatus for measuring a three-dimensional shape of an object to be measured using images taken from different directions of the object to be measured, wherein the light projection pattern is formed using light having a wavelength different from visible light. A light projection pattern irradiating means for irradiating the object to be measured; a light projection pattern image irradiated with the light projection pattern by the light projection pattern irradiating means; and a texture image observed by visible light, which is separated by an image separating means. A reference camera that separately captures the synchronized light projection pattern image and the texture image, and a light projection pattern image irradiated by the light projection pattern by the light projection pattern irradiation unit, and a texture image observed by visible light. The light projection pattern image and the texture image, which are obtained by separating and synchronizing the two images by the image separating means, are output to a different one from the reference camera. And a reference camera that captures at a timing synchronized with the reference camera, a distance image based on the projection pattern image captured by the reference camera and the reference camera, and a texture captured by the reference camera and the reference camera. A range image generating unit that generates a range image based on an image; a mismatching region detecting unit that detects a mismatching region in the range image based on the light projection pattern image generated by the range image generating unit; A replacement unit configured to replace a distance image of a partial region including a mismatched region detected by the unit with a distance image based on a texture image.
【請求項2】前記投光パターン照射手段の照射する投光
パターンは赤外光による投光パターンであることを特徴
とする請求項1に記載の三次元形状計測装置。
2. The three-dimensional shape measuring apparatus according to claim 1, wherein the light projection pattern irradiated by the light projection pattern irradiation means is a light projection pattern using infrared light.
【請求項3】前記投光パターン照射手段の照射する投光
パターンは非周期的投光パターンであることを特徴とす
る請求項1に記載の三次元形状計測装置。
3. The three-dimensional shape measuring apparatus according to claim 1, wherein the light projection pattern irradiated by the light projection pattern irradiation means is an aperiodic light projection pattern.
【請求項4】前記画像分離手段は、分光器、および該分
光器によって分離された経路上に配置された特定波長の
光をカットするフィルタを含む構成を有することを特徴
とする請求項1に記載の三次元形状計測装置。
4. The apparatus according to claim 1, wherein said image separating means includes a spectroscope and a filter arranged on a path separated by said spectroscope to cut light of a specific wavelength. The three-dimensional shape measuring device according to the above.
【請求項5】前記ミスマッチング領域検出手段は、距離
画像中の隣接画素の画素値の差分と予め定めた閾値とを
比較し、該閾値より差分の小さい画素同士に同一ラベル
を付与するラベリング処理を実行し、同一ラベル領域に
囲まれた異なるラベルの付与された小領域をミスマッチ
ング領域として検出する処理を実行する構成であること
を特徴とする請求項1に記載の三次元形状計測装置。
5. A labeling process for comparing a difference between pixel values of adjacent pixels in a distance image with a predetermined threshold value and assigning the same label to pixels having a smaller difference than the threshold value. 3. The three-dimensional shape measuring apparatus according to claim 1, wherein the processing is performed to execute a process of detecting, as a mismatching region, a small region with a different label surrounded by the same label region.
【請求項6】前記距離画像生成手段は、前記投光パター
ン画像に基づく距離画像中のミスマッチング領域を含む
部分領域についてのみ前記テクスチャ画像に基づく距離
画像を生成することを特徴とする請求項1に記載の三次
元形状計測装置。
6. The distance image generating means for generating a distance image based on the texture image only for a partial area including a mismatching area in the distance image based on the light projection pattern image. 3. The three-dimensional shape measuring device according to 1.
【請求項7】前記置換手段は、テクスチャ画像に基づく
距離画像と、投光パターンに基づく距離画像の対応画素
値を比較してテクスチャ画像に基づく距離画像の信頼性
判定を実行し、信頼性の確認されたテクスチャ画像に基
づく距離画像を投光パターンに基づく距離画像に対する
置換データとして適用する構成を有することを特徴とす
る請求項1に記載の三次元形状計測装置。
7. The replacement means executes a reliability judgment of the distance image based on the texture image by comparing a corresponding pixel value of the distance image based on the texture image with a corresponding pixel value of the distance image based on the light projection pattern. The three-dimensional shape measuring apparatus according to claim 1, wherein the three-dimensional shape measuring apparatus according to claim 1, further comprising a configuration that applies a distance image based on the confirmed texture image as replacement data for the distance image based on the light projection pattern.
【請求項8】複数の基準カメラと参照カメラの組を有
し、 前記距離画像生成手段は、前記基準カメラと参照カメラ
の各々の組によって撮り込まれた投光パターン画像に基
づく複数の距離画像、および前記基準カメラと参照カメ
ラの各々の組によって撮り込まれたテクスチャ画像に基
づいて複数の距離画像を生成する構成を有することを特
徴とする請求項1に記載の三次元形状計測装置。
8. A plurality of sets of a reference camera and a reference camera, wherein the distance image generating means includes a plurality of range images based on a projection pattern image captured by each set of the reference camera and the reference camera. The three-dimensional shape measuring apparatus according to claim 1, further comprising a configuration for generating a plurality of distance images based on a texture image captured by each set of the reference camera and the reference camera.
【請求項9】複数の基準カメラと参照カメラの組を有す
るとともに、 複数の投光パターン照射手段を有し、該複数の投光パタ
ーン照射手段の各々は、可視光と異なり、かつ他の投光
パターン照射手段とも異なる固有の波長の光を用いて投
光パターンを前記測定対象に照射する構成を有し、 前記複数の基準カメラと参照カメラの組の各々の組は、
それぞれ異なる波長の光に基づく投光パターン画像をテ
クスチャ画像と分離して撮り込み、 前記距離画像生成手段は、前記基準カメラと参照カメラ
の各々の組によって撮り込まれた投光パターン画像に基
づく複数の距離画像、および前記基準カメラと参照カメ
ラの各々の組によって撮り込まれたテクスチャ画像に基
づいて複数の距離画像を生成する構成を有することを特
徴とする請求項1に記載の三次元形状計測装置。
9. A plurality of sets of reference cameras and reference cameras, and a plurality of light projecting pattern irradiating means, wherein each of the plurality of light projecting pattern irradiating means is different from the visible light and has another light projecting pattern. Light pattern irradiating means has a configuration of irradiating the measurement target with a light projection pattern using light of a unique wavelength, each set of the plurality of sets of reference cameras and reference cameras,
Separately captures a light projection pattern image based on light of different wavelengths from a texture image, and captures the distance image generating means, based on the light projection pattern images captured by each set of the reference camera and the reference camera. 3. The three-dimensional shape measurement according to claim 1, further comprising a step of generating a plurality of distance images based on a distance image and a texture image captured by each set of the reference camera and the reference camera. apparatus.
【請求項10】測定対象を異なる方向から撮影した画像
を用いて前記測定対象の三次元形状を計測する三次元形
状計測方法において、 可視光とは異なる波長の光を用いて投光パターンを前記
測定対象に照射する投光パターン照射ステップと、 前記投光パターンの照射された投光パターン画像と、可
視光によって観察されるテクスチャ画像の2つの画像を
画像分離手段によって分離して同期した投光パターン画
像とテクスチャ画像を基準カメラによって個別に撮り込
むとともに、前記基準カメラと異なる方向から、かつ前
記基準カメラと同期したタイミングで参照カメラによっ
て同期した投光パターン画像とテクスチャ画像を個別に
撮り込む画像撮り込みステップと、 前記基準カメラおよび参照カメラによって撮り込まれた
投光パターン画像に基づいて距離画像を生成する第1距
離画像生成ステップと、 前記第1距離画像生成ステップにおいて生成した投光パ
ターン画像に基づく距離画像中のミスマッチング領域を
検出するミスマッチング領域検出ステップと、 前記ミスマッチング領域検出ステップの検出したミスマ
ッチング領域を含む部分領域の距離画像を前記テクスチ
ャ画像に基づいて生成する第2距離画像生成ステップ
と、 前記第1距離画像生成ステップにおいて生成された投光
パターン画像に基づく距離画像のミスマッチング領域を
含む部分領域について、前記第2距離画像生成ステップ
において生成された部分領域についてのテクスチャ画像
に基づく距離画像に置換する置換ステップと、 を有することを特徴とする三次元形状計測方法。
10. A three-dimensional shape measuring method for measuring a three-dimensional shape of a measurement object using images taken of the measurement object from different directions, wherein the light projection pattern is formed by using light having a wavelength different from visible light. A light-projection pattern irradiation step of irradiating the object to be measured, a light-projection pattern image illuminated with the light-projection pattern, and a light projection synchronized and separated by image separation means into two images of a texture image observed by visible light An image in which the pattern image and the texture image are separately captured by the reference camera, and the projection pattern image and the texture image separately captured by the reference camera from a different direction from the reference camera and at a timing synchronized with the reference camera. A capturing step; and a projection pattern image captured by the reference camera and the reference camera. A first distance image generating step of generating a distance image based on the first distance image generating step; a mismatching area detecting step of detecting a mismatching area in the distance image based on the light projection pattern image generated in the first distance image generating step; A second distance image generation step of generating a distance image of a partial area including the mismatched area detected by the matching area detection step based on the texture image; and a light projection pattern image generated in the first distance image generation step. Replacing a partial area including a mismatched area of the distance image based on the distance image based on the texture image of the partial area generated in the second distance image generating step. Shape measurement method.
【請求項11】前記投光パターン照射ステップにおいて
照射する投光パターンは赤外光による非周期的投光パタ
ーンであることを特徴とする請求項10に記載の三次元
形状計測方法。
11. The three-dimensional shape measuring method according to claim 10, wherein the light projection pattern irradiated in the light projection pattern irradiation step is a non-periodic light projection pattern using infrared light.
【請求項12】前記ミスマッチング領域検出ステップ
は、 距離画像中の隣接画素の画素値の差分と予め定めた閾値
とを比較し、該閾値より差分の小さい画素同士に同一ラ
ベルを付与するラベリング処理ステップと、 同一ラベル領域に囲まれた異なるラベルの付与された小
領域をミスマッチング領域として検出する検出ステップ
と、 を含むことを特徴とする請求項10に記載の三次元形状
計測方法。
12. A labeling process for comparing a difference between pixel values of adjacent pixels in a distance image with a predetermined threshold value and assigning the same label to pixels having a smaller difference value than the threshold value. The three-dimensional shape measuring method according to claim 10, further comprising: a step of detecting a small area provided with a different label and surrounded by the same label area as a mismatching area.
【請求項13】前記置換ステップは、テクスチャ画像に
基づく距離画像と、投光パターンに基づく距離画像の対
応画素値を比較してテクスチャ画像に基づく距離画像の
信頼性判定を実行し、信頼性の確認されたテクスチャ画
像に基づく距離画像を投光パターンに基づく距離画像に
対する置換データとして適用することを特徴とする請求
項10に記載の三次元形状計測方法。
13. The replacement step includes the step of comparing the distance image based on the texture image and the corresponding pixel value of the distance image based on the light projection pattern to determine the reliability of the distance image based on the texture image. The three-dimensional shape measuring method according to claim 10, wherein the distance image based on the confirmed texture image is applied as replacement data for the distance image based on the light projection pattern.
【請求項14】測定対象を異なる方向から撮影した画像
を用いて前記測定対象の三次元形状を計測する三次元形
状計測方法において、 可視光とは異なる波長の光を用いて投光パターンを前記
測定対象に照射する投光パターン照射ステップと、 前記投光パターンの照射された投光パターン画像と、可
視光によって観察されるテクスチャ画像の2つの画像を
画像分離手段によって分離して同期した投光パターン画
像とテクスチャ画像を基準カメラによって個別に撮り込
むとともに、前記基準カメラと異なる方向から、かつ前
記基準カメラと同期したタイミングで参照カメラによっ
て同期した投光パターン画像とテクスチャ画像を個別に
撮り込む画像撮り込みステップと、 前記基準カメラおよび参照カメラによって撮り込まれた
投光パターン画像に基づく距離画像を第1距離画像とし
て、前記基準カメラおよび参照カメラによって撮り込ま
れたテクスチャ画像に基づく距離画像を第2距離画像と
して並列に生成する複数距離画像並列生成ステップと、 前記複数距離画像並列生成ステップにおいて生成した第
1距離画像または第2距離画像の少なくともいずれか一方
の距離画像中のミスマッチング領域を検出するミスマッ
チング領域検出ステップと、 前記ミスマッチング領域検出ステップの検出した一方の
距離画像中のミスマッチング領域を含む部分領域の距離
画像を他方の距離画像に置換する置換ステップと、 を有することを特徴とする三次元形状計測方法。
14. A three-dimensional shape measuring method for measuring a three-dimensional shape of a measurement object using images taken of the measurement object from different directions, wherein the light projection pattern is formed by using light having a wavelength different from visible light. A light-projection pattern irradiation step of irradiating the object to be measured, a light-projection pattern image illuminated with the light-projection pattern, and a light projection synchronized and separated by image separation means into two images of a texture image observed by visible light An image in which the pattern image and the texture image are separately captured by the reference camera, and the projection pattern image and the texture image separately captured by the reference camera from a different direction from the reference camera and at a timing synchronized with the reference camera. A capturing step; and a projection pattern image captured by the reference camera and the reference camera. A plurality of distance image parallel generation steps of generating a distance image based on a texture image captured by the reference camera and the reference camera in parallel as a second distance image, using the distance image based on the first distance image, The number generated in the generation step
A mismatching region detecting step of detecting a mismatching region in at least one of the distance images of the one distance image and the second distance image, and a mismatching region in one of the distance images detected by the mismatching region detecting step. A replacement step of replacing the distance image of the partial area including the other distance image with the other distance image.
【請求項15】前記投光パターン照射ステップにおいて
照射する投光パターンは赤外光による非周期的投光パタ
ーンであることを特徴とする請求項14に記載の三次元
形状計測方法。
15. The three-dimensional shape measuring method according to claim 14, wherein the light projection pattern irradiated in the light projection pattern irradiation step is a non-periodic light projection pattern by infrared light.
【請求項16】前記ミスマッチング領域検出ステップ
は、 距離画像中の隣接画素の画素値の差分と予め定めた閾値
とを比較し、該閾値より差分の小さい画素同士に同一ラ
ベルを付与するラベリング処理ステップと、 同一ラベル領域に囲まれた異なるラベルの付与された小
領域をミスマッチング領域として検出する検出ステップ
と、 を含むことを特徴とする請求項14に記載の三次元形状
計測方法。
16. A labeling process for comparing a difference between pixel values of adjacent pixels in a distance image with a predetermined threshold value and assigning the same label to pixels having a smaller difference value than the threshold value. The three-dimensional shape measuring method according to claim 14, further comprising: a step of detecting a small area provided with a different label surrounded by the same label area as a mismatching area.
【請求項17】前記置換ステップは、テクスチャ画像に
基づく距離画像と、投光パターンに基づく距離画像の対
応画素値を比較してテクスチャ画像に基づく距離画像の
信頼性判定を実行し、信頼性の確認されたテクスチャ画
像に基づく距離画像を投光パターンに基づく距離画像に
対する置換データとして適用することを特徴とする請求
項14に記載の三次元形状計測方法。
17. The method according to claim 1, wherein the replacing step includes comparing a distance image based on the texture image with a corresponding pixel value of the distance image based on the projection pattern, and performing a reliability determination on the distance image based on the texture image. The three-dimensional shape measuring method according to claim 14, wherein the distance image based on the confirmed texture image is applied as replacement data for the distance image based on the light projection pattern.
【請求項18】測定対象を異なる方向から撮影した画像
を用いて前記測定対象の三次元形状を計測し、三次元モ
デリングを行なう三次元モデリング装置において、 可視光とは異なる波長の光を用いて投光パターンを前記
測定対象に照射する投光パターン照射手段と、 前記投光パターン照射手段によって投光パターンの照射
された投光パターン画像と、可視光によって観察される
テクスチャ画像の2つの画像を画像分離手段によって分
離して同期した投光パターン画像とテクスチャ画像とを
個別に撮り込む基準カメラと、 前記投光パターン照射手段によって投光パターンの照射
された投光パターン画像と、可視光によって観察される
テクスチャ画像の2つの画像を画像分離手段によって分
離して同期した投光パターン画像とテクスチャ画像と
を、前記基準カメラと異なる方向から、かつ前記基準カ
メラと同期したタイミングで撮り込む参照カメラと、 前記基準カメラおよび参照カメラによって撮り込まれた
投光パターン画像に基づく距離画像、および前記基準カ
メラおよび参照カメラによって撮り込まれたテクスチャ
画像に基づく距離画像を生成する距離画像生成手段と、 前記距離画像生成手段の生成した投光パターン画像に基
づく距離画像中のミスマッチング領域を検出するミスマ
ッチング領域検出手段と、 前記ミスマッチング領域検出手段の検出したミスマッチ
ング領域を含む部分領域の距離画像をテクスチャ画像に
基づく距離画像に置換する置換手段と、 前記置換手段によって置換され生成された投光パターン
画像に基づく距離画像とテクスチャ画像に基づく距離画
像の合成距離画像、および前記基準カメラによって撮り
込まれたテクスチャ画像に基づいて三次元形状データを
生成する三次元形状データ生成手段と、 を有することを特徴とする三次元モデリング装置。
18. A three-dimensional modeling apparatus for measuring a three-dimensional shape of a measurement object using images taken of the measurement object from different directions and performing three-dimensional modeling, wherein a light having a wavelength different from visible light is used. A light projection pattern irradiating unit that irradiates the measurement target with a light projection pattern; a light projection pattern image irradiated with the light projection pattern by the light projection pattern irradiation unit; and a texture image observed by visible light. A reference camera that separately captures the projected light pattern image and the texture image separated and synchronized by the image separating means, a projected light pattern image irradiated with the projected light pattern by the light emitting pattern irradiating means, and observed by visible light. The light projection pattern image and the texture image which are synchronized by separating the two images of the texture image A reference camera that captures from a direction different from the reference camera and at a timing synchronized with the reference camera, a distance image based on the light emission pattern image captured by the reference camera and the reference camera, and the reference camera and reference A distance image generating means for generating a distance image based on a texture image captured by a camera; and a mismatching area detecting means for detecting a mismatching area in the distance image based on the light projection pattern image generated by the distance image generating means. A replacement unit that replaces a distance image of a partial region including a mismatched region detected by the mismatched region detection unit with a distance image based on a texture image; and based on a light projection pattern image replaced and generated by the replacement unit. The combination of the distance image based on the distance image and the texture image Distance image, and three-dimensional modeling apparatus characterized by having a three-dimensional shape data generating means for generating three-dimensional shape data based on the take incorporated texture image by the reference camera.
【請求項19】測定対象を異なる方向から撮影した画像
を用いて前記測定対象の三次元形状を計測し、三次元モ
デリングを行なう三次元モデリング方法において、 可視光とは異なる波長の光を用いて投光パターンを前記
測定対象に照射する投光パターン照射ステップと、 前記投光パターンの照射された投光パターン画像と、可
視光によって観察されるテクスチャ画像の2つの画像を
画像分離手段によって分離して同期した投光パターン画
像とテクスチャ画像を基準カメラによって個別に撮り込
むとともに、前記基準カメラと異なる方向から、かつ前
記基準カメラと同期したタイミングで参照カメラによっ
て同期した投光パターン画像とテクスチャ画像を個別に
撮り込む画像撮り込みステップと、 前記基準カメラおよび参照カメラによって撮り込まれた
投光パターン画像に基づく距離画像を生成する第1距離
画像生成ステップと、 前記第1距離画像生成ステップにおいて生成した投光パ
ターン画像に基づく距離画像中のミスマッチング領域を
検出するミスマッチング領域検出ステップと、 前記ミスマッチング領域検出ステップの検出したミスマ
ッチング領域を含む部分領域の距離画像を前記テクスチ
ャ画像に基づいて生成する第2距離画像生成ステップ
と、 前記第1距離画像生成ステップにおいて生成された投光
パターン画像に基づく距離画像のミスマッチング領域を
含む部分領域について、前記第2距離画像生成ステップ
において生成された部分領域についてのテクスチャ画像
に基づく距離画像に置換する置換ステップと、 前記置換ステップによって置換され生成された投光パタ
ーン画像に基づく距離画像とテクスチャ画像に基づく距
離画像の合成距離画像、および前記基準カメラによって
撮り込まれたテクスチャ画像に基づいて三次元形状デー
タを生成する三次元形状データ生成ステップと、 を有することを特徴とする三次元モデリング方法。
19. A three-dimensional modeling method for measuring a three-dimensional shape of the measurement object using images taken of the measurement object from different directions and performing three-dimensional modeling, wherein light having a wavelength different from visible light is used. A light emitting pattern irradiating step of irradiating the light emitting pattern to the object to be measured; and a light emitting pattern image irradiated with the light emitting pattern and a texture image observed by visible light are separated by an image separating unit. The projection pattern image and the texture image synchronized with the reference camera are separately captured by the reference camera, and the projection pattern image and the texture image synchronized by the reference camera from a different direction from the reference camera and at a timing synchronized with the reference camera. An image capturing step for capturing individually, and capturing by the reference camera and the reference camera. A first distance image generating step of generating a distance image based on the inserted light projection pattern image, and a mismatch matching detecting a mismatching area in the distance image based on the light projection pattern image generated in the first distance image generating step An area detecting step, a second distance image generating step of generating a distance image of a partial area including the mismatching area detected by the mismatching area detecting step based on the texture image, and a generating step in the first distance image generating step A replacement step of replacing a partial area including a mismatched area of a distance image based on the projected light projection pattern image with a distance image based on a texture image of the partial area generated in the second distance image generation step; Floodlight pattern generated by replacing the step And a three-dimensional shape data generating step of generating three-dimensional shape data based on a synthesized distance image of a distance image based on the base image and a distance image based on the texture image, and a three-dimensional shape data based on the texture image captured by the reference camera. A three-dimensional modeling method characterized in that:
【請求項20】測定対象を異なる方向から撮影した画像
を用いて前記測定対象の三次元形状を計測し、三次元モ
デリングを行なう三次元モデリング方法において、 可視光とは異なる波長の光を用いて投光パターンを前記
測定対象に照射する投光パターン照射ステップと、 前記投光パターンの照射された投光パターン画像と、可
視光によって観察されるテクスチャ画像の2つの画像を
画像分離手段によって分離して同期した投光パターン画
像とテクスチャ画像を基準カメラによって個別に撮り込
むとともに、前記基準カメラと異なる方向から、かつ前
記基準カメラと同期したタイミングで参照カメラによっ
て同期した投光パターン画像とテクスチャ画像を個別に
撮り込む画像撮り込みステップと、 前記基準カメラおよび参照カメラによって撮り込まれた
投光パターン画像に基づく距離画像を第1距離画像とし
て、前記基準カメラおよび参照カメラによって撮り込ま
れたテクスチャ画像に基づく距離画像を第2距離画像と
して並列に生成する複数距離画像並列生成ステップと、 前記複数距離画像並列生成ステップにおいて生成した第
1距離画像または第2距離画像の少なくともいずれか一方
の距離画像中のミスマッチング領域を検出するミスマッ
チング領域検出ステップと、 前記ミスマッチング領域検出ステップの検出した一方の
距離画像中のミスマッチング領域を含む部分領域の距離
画像を他方の距離画像に置換する置換ステップと、 前記置換ステップによって置換され生成された投光パタ
ーン画像に基づく距離画像とテクスチャ画像に基づく距
離画像の合成距離画像、および前記基準カメラによって
撮り込まれたテクスチャ画像に基づいて三次元形状デー
タを生成する三次元形状データ生成ステップと、 を有することを特徴とする三次元モデリング方法。
20. A three-dimensional modeling method for measuring a three-dimensional shape of an object to be measured using images taken of the object from different directions and performing three-dimensional modeling, wherein a light having a wavelength different from visible light is used. A light emitting pattern irradiating step of irradiating the light emitting pattern to the object to be measured; and a light emitting pattern image irradiated with the light emitting pattern and a texture image observed by visible light are separated by an image separating unit. The projection pattern image and the texture image synchronized with the reference camera are separately captured by the reference camera, and the projection pattern image and the texture image synchronized by the reference camera from a different direction from the reference camera and at a timing synchronized with the reference camera. An image capturing step for capturing individually, and capturing by the reference camera and the reference camera. A plurality of distance image parallel generations in which a distance image based on a textured image captured by the reference camera and the reference camera is generated in parallel as a second distance image, using a distance image based on the projected light projection pattern image as a first distance image. And the step of generating the plurality of distance image parallel generation steps.
A mismatching region detecting step of detecting a mismatching region in at least one of the distance images of the one distance image and the second distance image, and a mismatching region in one of the distance images detected by the mismatching region detecting step. A replacement step of replacing the distance image of the partial area including the other distance image, a composite distance image of a distance image based on the light projection pattern image generated and replaced by the replacement step and a distance image based on the texture image, and the reference A three-dimensional shape data generating step of generating three-dimensional shape data based on a texture image captured by a camera.
【請求項21】測定対象を異なる方向から撮影した画像
を用いて前記測定対象の三次元形状を計測する三次元形
状計測を実行するための処理をコンピュータ・システム
上で実行せしめるコンピュータ・プログラムを有形的に
提供するプログラム提供媒体であって、前記コンピュー
タ・プログラムは、 可視光とは異なる波長の光を用いて投光パターンを前記
測定対象に照射する投光パターン照射ステップと、 前記投光パターンの照射された投光パターン画像と、可
視光によって観察されるテクスチャ画像の2つの画像を
画像分離手段によって分離して同期した投光パターン画
像とテクスチャ画像を基準カメラによって個別に撮り込
むとともに、前記基準カメラと異なる方向から、かつ前
記基準カメラと同期したタイミングで参照カメラによっ
て同期した投光パターン画像とテクスチャ画像を個別に
撮り込む画像撮り込みステップと、 前記基準カメラおよび参照カメラによって撮り込まれた
投光パターン画像に基づく距離画像を生成する第1距離
画像生成ステップと、 前記第1距離画像生成ステップにおいて生成した投光パ
ターン画像に基づく距離画像中のミスマッチング領域を
検出するミスマッチング領域検出ステップと、 前記ミスマッチング領域検出ステップの検出したミスマ
ッチング領域を含む部分領域の距離画像を前記テクスチ
ャ画像に基づいて生成する第2距離画像生成ステップ
と、 前記第1距離画像生成ステップにおいて生成された投光
パターン画像に基づく距離画像のミスマッチング領域を
含む部分領域について、前記第2距離画像生成ステップ
において生成された部分領域についてのテクスチャ画像
に基づく距離画像に置換する置換ステップと、 を有することを特徴とするプログラム提供媒体。
21. A computer program that causes a computer system to execute a process for executing a three-dimensional shape measurement for measuring a three-dimensional shape of the measurement target using images obtained by photographing the measurement target from different directions. A computer program program, the computer program comprises: a projection pattern irradiation step of irradiating the measurement target with a projection pattern using light having a wavelength different from visible light; and The projected light pattern image and the texture image are separated by an image separating means, and the synchronized light projection pattern image and the texture image are separately captured by a reference camera. By the reference camera from a different direction from the camera and at the same timing as the reference camera An image capturing step of separately capturing a synchronized light projection pattern image and a texture image; a first distance image generating step of generating a distance image based on the light projection pattern image captured by the reference camera and the reference camera; A mismatching area detecting step of detecting a mismatching area in the distance image based on the light projection pattern image generated in the first distance image generating step, and a partial area including the mismatching area detected by the mismatching area detecting step. A second distance image generating step of generating a distance image based on the texture image; and a partial area including a mismatching area of the distance image based on the light projection pattern image generated in the first distance image generating step. The part generated in the two-distance image generation step Program providing medium characterized by having a substitution step of replacing the distance image based on the texture image of the region.
JP2000075733A 2000-03-17 2000-03-17 Three-dimensional shape-measuring apparatus and its method, three-dimensional modeling device and its method, and program providing medium Pending JP2001264033A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000075733A JP2001264033A (en) 2000-03-17 2000-03-17 Three-dimensional shape-measuring apparatus and its method, three-dimensional modeling device and its method, and program providing medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000075733A JP2001264033A (en) 2000-03-17 2000-03-17 Three-dimensional shape-measuring apparatus and its method, three-dimensional modeling device and its method, and program providing medium

Publications (1)

Publication Number Publication Date
JP2001264033A true JP2001264033A (en) 2001-09-26

Family

ID=18593577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000075733A Pending JP2001264033A (en) 2000-03-17 2000-03-17 Three-dimensional shape-measuring apparatus and its method, three-dimensional modeling device and its method, and program providing medium

Country Status (1)

Country Link
JP (1) JP2001264033A (en)

Cited By (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002170100A (en) * 2000-11-30 2002-06-14 Olympus Optical Co Ltd Inter-image correspondence searching device and inter- image correspondence searching method
JP2005169141A (en) * 2005-01-24 2005-06-30 National Institute Of Information & Communication Technology Organism activity measurement system
WO2007129563A1 (en) * 2006-05-09 2007-11-15 Panasonic Corporation Range finder with image selecting function for finding range
JP2010133751A (en) * 2008-12-02 2010-06-17 Topcon Corp Shape measuring device and program
US7911496B2 (en) 2006-11-02 2011-03-22 Fujifilm Corporation Method of generating range images and apparatus therefor
US8434874B2 (en) 2006-05-30 2013-05-07 Panasonic Corporation Pattern projection light source and compound-eye distance measurement apparatus
JP2013544449A (en) * 2010-09-08 2013-12-12 マイクロソフト コーポレーション Depth camera based on structured light and stereoscopic vision
CN103477186A (en) * 2011-04-07 2013-12-25 松下电器产业株式会社 Stereoscopic imaging device
JP2015019346A (en) * 2013-06-12 2015-01-29 日本放送協会 Parallax image generator
JP2016080535A (en) * 2014-10-17 2016-05-16 株式会社リコー Pattern irradiation device and system
JP2016183889A (en) * 2015-03-26 2016-10-20 日産自動車株式会社 Self-position calculation device and self-position calculation method
US9774831B2 (en) 2013-02-24 2017-09-26 Fotonation Cayman Limited Thin form factor computational array cameras and modular array cameras
US9774789B2 (en) 2013-03-08 2017-09-26 Fotonation Cayman Limited Systems and methods for high dynamic range imaging using array cameras
US9787911B2 (en) 2013-03-14 2017-10-10 Fotonation Cayman Limited Systems and methods for photometric normalization in array cameras
US9794476B2 (en) 2011-09-19 2017-10-17 Fotonation Cayman Limited Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures
US9800859B2 (en) 2013-03-15 2017-10-24 Fotonation Cayman Limited Systems and methods for estimating depth using stereo array cameras
US9800856B2 (en) 2013-03-13 2017-10-24 Fotonation Cayman Limited Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9807382B2 (en) 2012-06-28 2017-10-31 Fotonation Cayman Limited Systems and methods for detecting defective camera arrays and optic arrays
US9813617B2 (en) 2013-11-26 2017-11-07 Fotonation Cayman Limited Array camera configurations incorporating constituent array cameras and constituent cameras
US9813616B2 (en) 2012-08-23 2017-11-07 Fotonation Cayman Limited Feature based high resolution motion estimation from low resolution images captured using an array source
US9811753B2 (en) 2011-09-28 2017-11-07 Fotonation Cayman Limited Systems and methods for encoding light field image files
US9858673B2 (en) 2012-08-21 2018-01-02 Fotonation Cayman Limited Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints
US9866739B2 (en) 2011-05-11 2018-01-09 Fotonation Cayman Limited Systems and methods for transmitting and receiving array camera image data
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
CN107784171A (en) * 2017-10-25 2018-03-09 武汉华酷科技有限公司 A kind of spatial model construction method
US9924092B2 (en) 2013-11-07 2018-03-20 Fotonation Cayman Limited Array cameras incorporating independently aligned lens stacks
US9936148B2 (en) 2010-05-12 2018-04-03 Fotonation Cayman Limited Imager array interfaces
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
US9955070B2 (en) 2013-03-15 2018-04-24 Fotonation Cayman Limited Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
JP2018511796A (en) * 2015-03-30 2018-04-26 エックス デベロップメント エルエルシー Imager for detecting visual and infrared projected patterns
US9986224B2 (en) 2013-03-10 2018-05-29 Fotonation Cayman Limited System and methods for calibration of an array camera
US10009538B2 (en) 2013-02-21 2018-06-26 Fotonation Cayman Limited Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
US10027901B2 (en) 2008-05-20 2018-07-17 Fotonation Cayman Limited Systems and methods for generating depth maps using a camera arrays incorporating monochrome and color cameras
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US10091405B2 (en) 2013-03-14 2018-10-02 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US10127682B2 (en) 2013-03-13 2018-11-13 Fotonation Limited System and methods for calibration of an array camera
US10142560B2 (en) 2008-05-20 2018-11-27 Fotonation Limited Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US10182216B2 (en) 2013-03-15 2019-01-15 Fotonation Limited Extended color processing on pelican array cameras
US10250871B2 (en) 2014-09-29 2019-04-02 Fotonation Limited Systems and methods for dynamic calibration of array cameras
US10261219B2 (en) 2012-06-30 2019-04-16 Fotonation Limited Systems and methods for manufacturing camera modules using active alignment of lens stack arrays and sensors
US10306120B2 (en) 2009-11-20 2019-05-28 Fotonation Limited Capturing and processing of images captured by camera arrays incorporating cameras with telephoto and conventional lenses to generate depth maps
US10311649B2 (en) 2012-02-21 2019-06-04 Fotonation Limited Systems and method for performing depth based image editing
US10366472B2 (en) 2010-12-14 2019-07-30 Fotonation Limited Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
US10390005B2 (en) 2012-09-28 2019-08-20 Fotonation Limited Generating images from light fields utilizing virtual viewpoints
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10805589B2 (en) 2015-04-19 2020-10-13 Fotonation Limited Multi-baseline camera array system architectures for depth augmentation in VR/AR applications
CN113677953A (en) * 2019-04-22 2021-11-19 株式会社新川 Line shape measuring device, line three-dimensional image generating method, and line shape measuring method
JP2022506753A (en) * 2018-10-30 2022-01-17 オーナー・デヴァイス・カンパニー・リミテッド Depth information acquisition method and electronic device
US11270110B2 (en) 2019-09-17 2022-03-08 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11302012B2 (en) 2019-11-30 2022-04-12 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
WO2022185780A1 (en) 2021-03-03 2022-09-09 ソニーグループ株式会社 Information processing device, information processing method, and program
US11525906B2 (en) 2019-10-07 2022-12-13 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
US11580667B2 (en) 2020-01-29 2023-02-14 Intrinsic Innovation Llc Systems and methods for characterizing object pose detection and measurement systems
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
EP4332499A1 (en) 2022-08-30 2024-03-06 Canon Kabushiki Kaisha Three-dimensional measuring apparatus, three-dimensional measuring method, storage medium, system, and method for manufacturing an article
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects

Cited By (112)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002170100A (en) * 2000-11-30 2002-06-14 Olympus Optical Co Ltd Inter-image correspondence searching device and inter- image correspondence searching method
JP2005169141A (en) * 2005-01-24 2005-06-30 National Institute Of Information & Communication Technology Organism activity measurement system
WO2007129563A1 (en) * 2006-05-09 2007-11-15 Panasonic Corporation Range finder with image selecting function for finding range
US8434874B2 (en) 2006-05-30 2013-05-07 Panasonic Corporation Pattern projection light source and compound-eye distance measurement apparatus
US7911496B2 (en) 2006-11-02 2011-03-22 Fujifilm Corporation Method of generating range images and apparatus therefor
US10027901B2 (en) 2008-05-20 2018-07-17 Fotonation Cayman Limited Systems and methods for generating depth maps using a camera arrays incorporating monochrome and color cameras
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US10142560B2 (en) 2008-05-20 2018-11-27 Fotonation Limited Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US11412158B2 (en) 2008-05-20 2022-08-09 Fotonation Limited Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
JP2010133751A (en) * 2008-12-02 2010-06-17 Topcon Corp Shape measuring device and program
US10306120B2 (en) 2009-11-20 2019-05-28 Fotonation Limited Capturing and processing of images captured by camera arrays incorporating cameras with telephoto and conventional lenses to generate depth maps
US9936148B2 (en) 2010-05-12 2018-04-03 Fotonation Cayman Limited Imager array interfaces
US10455168B2 (en) 2010-05-12 2019-10-22 Fotonation Limited Imager array interfaces
EP2614405A4 (en) * 2010-09-08 2017-01-11 Microsoft Technology Licensing, LLC Depth camera based on structured light and stereo vision
JP2013544449A (en) * 2010-09-08 2013-12-12 マイクロソフト コーポレーション Depth camera based on structured light and stereoscopic vision
US10366472B2 (en) 2010-12-14 2019-07-30 Fotonation Limited Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
US11875475B2 (en) 2010-12-14 2024-01-16 Adeia Imaging Llc Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
US11423513B2 (en) 2010-12-14 2022-08-23 Fotonation Limited Systems and methods for synthesizing high resolution images using images captured by an array of independently controllable imagers
CN103477186A (en) * 2011-04-07 2013-12-25 松下电器产业株式会社 Stereoscopic imaging device
US9807369B2 (en) 2011-04-07 2017-10-31 Panasonic Intellectual Property Management Co., Ltd. 3D imaging apparatus
US9866739B2 (en) 2011-05-11 2018-01-09 Fotonation Cayman Limited Systems and methods for transmitting and receiving array camera image data
US10742861B2 (en) 2011-05-11 2020-08-11 Fotonation Limited Systems and methods for transmitting and receiving array camera image data
US10218889B2 (en) 2011-05-11 2019-02-26 Fotonation Limited Systems and methods for transmitting and receiving array camera image data
US9794476B2 (en) 2011-09-19 2017-10-17 Fotonation Cayman Limited Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures
US10375302B2 (en) 2011-09-19 2019-08-06 Fotonation Limited Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures
US10019816B2 (en) 2011-09-28 2018-07-10 Fotonation Cayman Limited Systems and methods for decoding image files containing depth maps stored as metadata
US20180197035A1 (en) 2011-09-28 2018-07-12 Fotonation Cayman Limited Systems and Methods for Encoding Image Files Containing Depth Maps Stored as Metadata
US10984276B2 (en) 2011-09-28 2021-04-20 Fotonation Limited Systems and methods for encoding image files containing depth maps stored as metadata
US11729365B2 (en) 2011-09-28 2023-08-15 Adela Imaging LLC Systems and methods for encoding image files containing depth maps stored as metadata
US10275676B2 (en) 2011-09-28 2019-04-30 Fotonation Limited Systems and methods for encoding image files containing depth maps stored as metadata
US9864921B2 (en) 2011-09-28 2018-01-09 Fotonation Cayman Limited Systems and methods for encoding image files containing depth maps stored as metadata
US10430682B2 (en) 2011-09-28 2019-10-01 Fotonation Limited Systems and methods for decoding image files containing depth maps stored as metadata
US9811753B2 (en) 2011-09-28 2017-11-07 Fotonation Cayman Limited Systems and methods for encoding light field image files
US10311649B2 (en) 2012-02-21 2019-06-04 Fotonation Limited Systems and method for performing depth based image editing
US10334241B2 (en) 2012-06-28 2019-06-25 Fotonation Limited Systems and methods for detecting defective camera arrays and optic arrays
US9807382B2 (en) 2012-06-28 2017-10-31 Fotonation Cayman Limited Systems and methods for detecting defective camera arrays and optic arrays
US10261219B2 (en) 2012-06-30 2019-04-16 Fotonation Limited Systems and methods for manufacturing camera modules using active alignment of lens stack arrays and sensors
US11022725B2 (en) 2012-06-30 2021-06-01 Fotonation Limited Systems and methods for manufacturing camera modules using active alignment of lens stack arrays and sensors
US9858673B2 (en) 2012-08-21 2018-01-02 Fotonation Cayman Limited Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints
US10380752B2 (en) 2012-08-21 2019-08-13 Fotonation Limited Systems and methods for estimating depth and visibility from a reference viewpoint for pixels in a set of images captured from different viewpoints
US9813616B2 (en) 2012-08-23 2017-11-07 Fotonation Cayman Limited Feature based high resolution motion estimation from low resolution images captured using an array source
US10462362B2 (en) 2012-08-23 2019-10-29 Fotonation Limited Feature based high resolution motion estimation from low resolution images captured using an array source
US10390005B2 (en) 2012-09-28 2019-08-20 Fotonation Limited Generating images from light fields utilizing virtual viewpoints
US10009538B2 (en) 2013-02-21 2018-06-26 Fotonation Cayman Limited Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
US9774831B2 (en) 2013-02-24 2017-09-26 Fotonation Cayman Limited Thin form factor computational array cameras and modular array cameras
US9917998B2 (en) 2013-03-08 2018-03-13 Fotonation Cayman Limited Systems and methods for measuring scene information while capturing images using array cameras
US9774789B2 (en) 2013-03-08 2017-09-26 Fotonation Cayman Limited Systems and methods for high dynamic range imaging using array cameras
US9986224B2 (en) 2013-03-10 2018-05-29 Fotonation Cayman Limited System and methods for calibration of an array camera
US11985293B2 (en) 2013-03-10 2024-05-14 Adeia Imaging Llc System and methods for calibration of an array camera
US10958892B2 (en) 2013-03-10 2021-03-23 Fotonation Limited System and methods for calibration of an array camera
US10225543B2 (en) 2013-03-10 2019-03-05 Fotonation Limited System and methods for calibration of an array camera
US11570423B2 (en) 2013-03-10 2023-01-31 Adeia Imaging Llc System and methods for calibration of an array camera
US11272161B2 (en) 2013-03-10 2022-03-08 Fotonation Limited System and methods for calibration of an array camera
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US10127682B2 (en) 2013-03-13 2018-11-13 Fotonation Limited System and methods for calibration of an array camera
US9800856B2 (en) 2013-03-13 2017-10-24 Fotonation Cayman Limited Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9787911B2 (en) 2013-03-14 2017-10-10 Fotonation Cayman Limited Systems and methods for photometric normalization in array cameras
US10412314B2 (en) 2013-03-14 2019-09-10 Fotonation Limited Systems and methods for photometric normalization in array cameras
US10091405B2 (en) 2013-03-14 2018-10-02 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US10547772B2 (en) 2013-03-14 2020-01-28 Fotonation Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9955070B2 (en) 2013-03-15 2018-04-24 Fotonation Cayman Limited Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9800859B2 (en) 2013-03-15 2017-10-24 Fotonation Cayman Limited Systems and methods for estimating depth using stereo array cameras
US10455218B2 (en) 2013-03-15 2019-10-22 Fotonation Limited Systems and methods for estimating depth using stereo array cameras
US10638099B2 (en) 2013-03-15 2020-04-28 Fotonation Limited Extended color processing on pelican array cameras
US10182216B2 (en) 2013-03-15 2019-01-15 Fotonation Limited Extended color processing on pelican array cameras
US10542208B2 (en) 2013-03-15 2020-01-21 Fotonation Limited Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US10674138B2 (en) 2013-03-15 2020-06-02 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
JP2015019346A (en) * 2013-06-12 2015-01-29 日本放送協会 Parallax image generator
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US10540806B2 (en) 2013-09-27 2020-01-21 Fotonation Limited Systems and methods for depth-assisted perspective distortion correction
US9924092B2 (en) 2013-11-07 2018-03-20 Fotonation Cayman Limited Array cameras incorporating independently aligned lens stacks
US11486698B2 (en) 2013-11-18 2022-11-01 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US10767981B2 (en) 2013-11-18 2020-09-08 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
US9813617B2 (en) 2013-11-26 2017-11-07 Fotonation Cayman Limited Array camera configurations incorporating constituent array cameras and constituent cameras
US10708492B2 (en) 2013-11-26 2020-07-07 Fotonation Limited Array camera configurations incorporating constituent array cameras and constituent cameras
US10574905B2 (en) 2014-03-07 2020-02-25 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US11546576B2 (en) 2014-09-29 2023-01-03 Adeia Imaging Llc Systems and methods for dynamic calibration of array cameras
US10250871B2 (en) 2014-09-29 2019-04-02 Fotonation Limited Systems and methods for dynamic calibration of array cameras
JP2016080535A (en) * 2014-10-17 2016-05-16 株式会社リコー Pattern irradiation device and system
JP2016183889A (en) * 2015-03-26 2016-10-20 日産自動車株式会社 Self-position calculation device and self-position calculation method
US10466043B2 (en) 2015-03-30 2019-11-05 X Development Llc Imager for detecting visual light and projected patterns
US11209265B2 (en) 2015-03-30 2021-12-28 X Development Llc Imager for detecting visual light and projected patterns
JP2018511796A (en) * 2015-03-30 2018-04-26 エックス デベロップメント エルエルシー Imager for detecting visual and infrared projected patterns
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
US10805589B2 (en) 2015-04-19 2020-10-13 Fotonation Limited Multi-baseline camera array system architectures for depth augmentation in VR/AR applications
US11368662B2 (en) 2015-04-19 2022-06-21 Fotonation Limited Multi-baseline camera array system architectures for depth augmentation in VR/AR applications
US10818026B2 (en) 2017-08-21 2020-10-27 Fotonation Limited Systems and methods for hybrid depth regularization
US11983893B2 (en) 2017-08-21 2024-05-14 Adeia Imaging Llc Systems and methods for hybrid depth regularization
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US11562498B2 (en) 2017-08-21 2023-01-24 Adela Imaging LLC Systems and methods for hybrid depth regularization
CN107784171A (en) * 2017-10-25 2018-03-09 武汉华酷科技有限公司 A kind of spatial model construction method
JP2022506753A (en) * 2018-10-30 2022-01-17 オーナー・デヴァイス・カンパニー・リミテッド Depth information acquisition method and electronic device
CN113677953A (en) * 2019-04-22 2021-11-19 株式会社新川 Line shape measuring device, line three-dimensional image generating method, and line shape measuring method
US11270110B2 (en) 2019-09-17 2022-03-08 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
US11699273B2 (en) 2019-09-17 2023-07-11 Intrinsic Innovation Llc Systems and methods for surface modeling using polarization cues
US11525906B2 (en) 2019-10-07 2022-12-13 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
US11982775B2 (en) 2019-10-07 2024-05-14 Intrinsic Innovation Llc Systems and methods for augmentation of sensor systems and imaging systems with polarization
US11842495B2 (en) 2019-11-30 2023-12-12 Intrinsic Innovation Llc Systems and methods for transparent object segmentation using polarization cues
US11302012B2 (en) 2019-11-30 2022-04-12 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
US11580667B2 (en) 2020-01-29 2023-02-14 Intrinsic Innovation Llc Systems and methods for characterizing object pose detection and measurement systems
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
WO2022185780A1 (en) 2021-03-03 2022-09-09 ソニーグループ株式会社 Information processing device, information processing method, and program
KR20230152661A (en) 2021-03-03 2023-11-03 소니그룹주식회사 Information processing devices, information processing methods and programs
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11683594B2 (en) 2021-04-15 2023-06-20 Intrinsic Innovation Llc Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
EP4332499A1 (en) 2022-08-30 2024-03-06 Canon Kabushiki Kaisha Three-dimensional measuring apparatus, three-dimensional measuring method, storage medium, system, and method for manufacturing an article

Similar Documents

Publication Publication Date Title
JP2001264033A (en) Three-dimensional shape-measuring apparatus and its method, three-dimensional modeling device and its method, and program providing medium
US9392262B2 (en) System and method for 3D reconstruction using multiple multi-channel cameras
US20190156557A1 (en) 3d geometric modeling and 3d video content creation
US6754370B1 (en) Real-time structured light range scanning of moving scenes
US7589825B2 (en) Ranging apparatus
KR101706093B1 (en) System for extracting 3-dimensional coordinate and method thereof
US8339616B2 (en) Method and apparatus for high-speed unconstrained three-dimensional digitalization
JP2001194114A (en) Image processing apparatus and method and program providing medium
JP2012504771A (en) Method and system for providing three-dimensional and distance inter-surface estimation
JP4110501B2 (en) Random pattern generation apparatus and method, distance image generation apparatus and method, and program providing medium
KR20070061094A (en) Edge-adaptive stereo/multi-view image matching apparatus and its method
EP3382645A2 (en) Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
JP7078173B2 (en) Image processing device and 3D measurement system
JP2001091232A (en) Three-dimensional shape measuring device and method, and recording medium
JP2001159506A (en) Three-dimensional shape measuring device and method and recording medium
JP2001194126A (en) Apparatus and method for measuring three-dimensional shape and program providing medium
JP3988574B2 (en) Image processing device
Benveniste et al. Nary coded structured light-based range scanners using color invariants
JP4337203B2 (en) Distance image generating apparatus, distance image generating method, and program providing medium
JP2015019346A (en) Parallax image generator
JP5336325B2 (en) Image processing method
JP2001338280A (en) Three-dimensional space information input device
JP3253328B2 (en) Distance video input processing method
JP3852285B2 (en) 3D shape measuring apparatus and 3D shape measuring method
JP2004132759A (en) Three-dimensional image generating data imaging device, three-dimensional image generating data imaging method, and computer program