JPH11183142A - Method and apparatus for picking up three-dimensional image - Google Patents

Method and apparatus for picking up three-dimensional image

Info

Publication number
JPH11183142A
JPH11183142A JP9350636A JP35063697A JPH11183142A JP H11183142 A JPH11183142 A JP H11183142A JP 9350636 A JP9350636 A JP 9350636A JP 35063697 A JP35063697 A JP 35063697A JP H11183142 A JPH11183142 A JP H11183142A
Authority
JP
Japan
Prior art keywords
image
pixel
distance
parallax
distance information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9350636A
Other languages
Japanese (ja)
Other versions
JP3525712B2 (en
Inventor
Ken Tokai
研 東海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP35063697A priority Critical patent/JP3525712B2/en
Publication of JPH11183142A publication Critical patent/JPH11183142A/en
Application granted granted Critical
Publication of JP3525712B2 publication Critical patent/JP3525712B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To avoid generation of an occlusion and improve measurement accuracy for distance information by obtaining a plurality of parallax images for an object to be measured and calculating a distance value at each pixel of a reference parallax image, based on a stereoscopic image pair of the reference parallax image and each parallax image. SOLUTION: A pickup part-moving mechanism part 2 makes an image pickup part 1 carry out a repeated stepped movement, that is, repeatedly stops and moves the image pickup part 1. A plurality of parallax images are obtained by picking up images at each position where the image pickup part 1 stops, which are stored in a luminance value memory 4. The stop position of the image pickup part 1 is set at several tens points via an equal distance. An image to be used as a luminance image information is selected from the plurality of parallax images to be a reference parallax image. A corresponding pixel-searching part 6 forms a first stereoscopic image pair from the parallax image selected on the basis of data of a pickup position memory 3 and the reference parallax image, searches for corresponding pixels, calculates distance information and further calculates an estimated parallax value from a second stereoscopic image pair.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、輝度情報及び距離
情報からなる三次元画像を取得する画像撮像方法及び装
置に係り、特に、ステレオ視を利用して形状測定を行う
に際し、測定対象物(被測定物体)が比較的複雑な形状
を有している場合であっても、オクルージョン対策を図
るとともに計測する距離情報の精度向上を可能とする三
次元画像撮像方法及び三次元画像撮像装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image pickup method and apparatus for obtaining a three-dimensional image composed of luminance information and distance information, and more particularly, to measuring a shape of an object to be measured when performing shape measurement using stereo vision. The present invention relates to a three-dimensional image capturing method and a three-dimensional image capturing apparatus that can take measures against occlusion and improve the accuracy of measured distance information even when a (measured object) has a relatively complicated shape.

【0002】[0002]

【従来の技術】対象物体の形状を測定する方法として
は、ステレオ視に代表されるパッシブ手法と、対象物体
に光を照射しその反射光を検出して行うアクティブ手法
(レーザレーダ、アクティブステレオ、モアレ、干渉)と
が存在する。一般的にアクティブ手法の方が計測精度は
高いが、光を照射する投光手段の限界により、例えばレ
ーザのパワーの届く範囲で測定できるレンジが決るの
で、数メートルの範囲の距離にあるものしか測定できな
い場合が多い。一方、パッシブ手法は汎用的であり、対
象物体に対する制約が少ないという利点がある。
2. Description of the Related Art As a method of measuring the shape of a target object, a passive method represented by stereo vision and an active method of irradiating a target object with light and detecting reflected light thereof are used.
(Laser radar, active stereo, moiré, interference). In general, the measurement accuracy of the active method is higher, but the measurement range is determined within the reach of the laser power, for example, due to the limitations of the light emitting means that emits light. In many cases, measurement is not possible. On the other hand, the passive method is versatile and has the advantage that there are few restrictions on the target object.

【0003】パッシブ手法の中でも、ステレオ視による
形状測定は比較的精度が良い方法として知られている。
ステレオ視による形状測定は三角測量の原理を応用し、
例えば図4に示すように、被測定物体を異なる位置から
撮像して得られる観測系A,Bの各画角による2枚の視
差画像対から、輝度情報となる一方の視差画像(輝度画
像)の各画素での撮像点からの距離値を算出するもので
ある。
[0003] Among the passive methods, shape measurement by stereo vision is known as a method with relatively high accuracy.
Shape measurement by stereo vision applies the principle of triangulation,
For example, as shown in FIG. 4, one parallax image (luminance image) serving as luminance information is obtained from two parallax image pairs at each angle of view of the observation systems A and B obtained by imaging the object to be measured from different positions. The distance value from the imaging point at each pixel is calculated.

【0004】上述したステレオ視による形状測定によれ
ば、各視差画像を得るための観測系の光軸が異なってい
るため、オクルージョンの問題が発生する。これは特
に、輝度値と距離値を一対一に対応させようとする場合
に支障が生じる。すなわち、図4に示すように、被測定
物体40の輝度情報を得ている観測系Aの画角で見えて
いる領域が、他の観測系Bの画角で見えない現象(オク
ルージョン)が発生し、輝度情報における各画素に対し
て輝度値と距離値とを一対一に対応させることができ
ず、その結果、距離情報を持たない画素が存在すること
になる。
According to the shape measurement by stereo vision described above, the problem of occlusion occurs because the optical axis of the observation system for obtaining each parallax image is different. This is particularly troublesome when trying to make one-to-one correspondence between the luminance value and the distance value. That is, as shown in FIG. 4, a phenomenon (occlusion) occurs in which the area that is visible at the angle of view of the observation system A that obtains the luminance information of the measured object 40 is not visible at the angle of view of the other observation system B. However, it is not possible to make one-to-one correspondence between the luminance value and the distance value for each pixel in the luminance information, and as a result, there is a pixel having no distance information.

【0005】このようなオクルージョンの問題に対処す
るため、オクルージョン領域が存在するような被測定物
体が比較的複雑な形状を有する場合の距離情報の計測方
法として、被測定物体を異なる複数の位置から撮影して
複数の視差画像を取得し、距離算出処理を繰り返し行い
オクルージョン部分の距離を算出する方法が提案されて
いる。
In order to cope with such an occlusion problem, as a method of measuring distance information when an object to be measured having an occlusion region has a relatively complicated shape, the object to be measured is measured from a plurality of different positions. There has been proposed a method of acquiring a plurality of parallax images by photographing and repeatedly performing a distance calculation process to calculate a distance of an occlusion portion.

【0006】すなわち、この方法は、被測定物体を異な
る複数の位置から撮像して得られた複数の視差画像か
ら、被測定物体の連続ステレオ画像を作成(各視差画像
の水平方向の切断線を撮像順に並べることによって作
成)し、次に、連続ステレオ画像を方向成分に分解して
オクルージョンのない部分の奥行きを算出し、この奥行
きの決定した部分を除いた連続ステレオ画像から再度奥
行きを算出する処理を繰り返すことにより、オクルージ
ョン部分の奥行きを算出するようにしている。奥行きの
算出は、連続ステレオ画像を様々な傾きの直線で走査
し、その直線上の分散を求め、この分散がある基準値以
下の場合に、その直線の方向(傾き)に対応した奥行き
に物体が存在しているとみなしている(特開平6−74
723号公報参照)。
That is, in this method, a continuous stereo image of a measured object is created from a plurality of parallax images obtained by imaging the measured object from a plurality of different positions (a horizontal cutting line of each parallax image is formed). Then, the continuous stereo image is decomposed into directional components to calculate the depth of the portion without occlusion, and the depth is calculated again from the continuous stereo image excluding the portion where the depth is determined. The depth of the occlusion part is calculated by repeating the processing. To calculate the depth, a continuous stereo image is scanned with straight lines having various inclinations, the variance on the straight line is obtained, and when the variance is equal to or less than a reference value, the object is set at a depth corresponding to the direction (inclination) of the straight line. Is considered to exist (Japanese Unexamined Patent Publication No. 6-74).
723).

【0007】[0007]

【発明が解決しようとする課題】しかしながら上記方法
においては、奥行きの算出に際して、オクルージョンが
発生していない領域の視差画像を選別することなく、撮
像した複数の視差画像を全て連続ステレオ画像の作成に
採用している。この場合、採用された視差画像対によっ
ては、距離測定精度の低下をもたらす可能性があるもの
が含まれている。この理由について以下に説明する。
However, in the above-mentioned method, when calculating the depth, all of the plurality of captured parallax images can be formed into a continuous stereo image without selecting parallax images in an area where occlusion does not occur. Has adopted. In this case, some of the adopted parallax image pairs may cause a reduction in distance measurement accuracy. The reason will be described below.

【0008】すなわち、図5に示すように、レンズ50
を介して異なる位置から撮像して得た一対の視差画像か
ら構成されるステレオ視(ステレオ画像対)において、
撮影された画像の画素サイズの一辺の長さをλ、各視差
画像におけるレンズ中心位置の間隔である基線長をB、
レンズの焦点距離をFとした場合、ステレオ画像対での
対応画素のピクセルの差である視差dと、被測定物体4
0が位置する面からレンズ50の中心までの距離値zと
の関係は式1で表現することができる。
That is, as shown in FIG.
In stereo vision (stereo image pair) composed of a pair of parallax images obtained by imaging from different positions via
Λ is the length of one side of the pixel size of the captured image, B is the base line length that is the distance between the lens center positions in each parallax image,
Assuming that the focal length of the lens is F, the parallax d, which is the difference between the pixels of the corresponding pixels in the stereo image pair, and the measured object 4
The relationship with the distance value z from the plane where 0 is located to the center of the lens 50 can be expressed by Equation 1.

【0009】[0009]

【式1】d=B・F/λ・z[Equation 1] d = B · F / λ · z

【0010】ステレオ画像対から直接計測されるのは視
差d(ピクセル差)であり、式1より基線長Bが小さい
と得られる視差d自体が小さくなり、視差に生じる誤差
が大きくなる。したがって、上述した連続ステレオ画像
の作成において、誤差が大きい可能性がある視差を使用
して算出した直線による距離情報(奥行き)は、当然誤
差が大きくなることが予想される。なお、図5では撮像
画像面をレンズ50の前方に位置させて説明している
が、実際の光学系ではレンズ50に対して対称位置とな
る結像中心上の後方側に結像面(撮像面)が存在する。
What is directly measured from the stereo image pair is the parallax d (pixel difference). According to Equation 1, when the base line length B is small, the obtained parallax d itself becomes small, and the error generated in the parallax increases. Therefore, in the creation of the continuous stereo image described above, it is expected that the distance information (depth) based on the straight line calculated using the parallax that may have a large error will naturally have a large error. In FIG. 5, the captured image plane is described in front of the lens 50. However, in an actual optical system, the image plane (imaging plane) is located on the rear side above the image forming center symmetrical with respect to the lens 50. Plane) exists.

【0011】本発明は上記実情に鑑みてなされたもの
で、オクルージョンの発生をできるだけ回避するととも
に、距離情報の測定精度の向上を可能とする三次元画像
撮像方法及び三次元画像撮像装置を提供することを目的
とする。
The present invention has been made in view of the above-mentioned circumstances, and provides a three-dimensional image pickup method and a three-dimensional image pickup apparatus capable of avoiding occlusion as much as possible and improving the accuracy of measuring distance information. The purpose is to:

【0012】[0012]

【課題を解決するための手段】上記目的を達成するため
請求項1の発明は、被測定物体に対する輝度情報及び距
離情報を測定する三次元画像撮像方法において、次の手
順で行うことを特徴としている。先ず、前記被測定物体
を複数の撮像位置から撮影して複数の視差画像を取得す
る。次に、前記視差画像の一つを輝度情報とするととも
に、この輝度情報となる基準視差画像とその撮像位置に
最も近い撮像位置での第1の視差画像との画像対からス
テレオ視に必要な第1回めの対応画素探索を行い、第1
のオクルージョンが発生しない範囲において前記画像対
の視差から輝度情報の各画素に対する撮像位置からの各
距離を算出して距離情報として記憶する。前記基準視差
画像とその撮像位置に2番めに近い撮像位置での第2の
視差画像との画像対から再度対応画素探索を行い、第2
のオクルージョンが発生しない範囲において各画素に対
応する各距離を算出し、距離が算出できた画素について
は既に記憶している距離情報を書き換える距離情報書換
処理を行う。この距離情報書換処理について、前記基準
視差画像と撮像位置の近さが3番め以降の各視差画像と
の画像対で順次処理を繰り返し行う。そして、前記第1
のオクルージョンが発生している範囲の画素について
は、距離情報がないオクルージョン画素として記憶す
る。
According to a first aspect of the present invention, there is provided a three-dimensional image pickup method for measuring luminance information and distance information with respect to an object to be measured, which is performed by the following procedure. I have. First, a plurality of parallax images are obtained by photographing the object to be measured from a plurality of imaging positions. Next, one of the parallax images is used as luminance information, and necessary for stereoscopic viewing from an image pair of a reference parallax image serving as the luminance information and a first parallax image at an imaging position closest to the imaging position. The first corresponding pixel search is performed, and the first
In the range where the occlusion does not occur, the respective distances from the imaging position to each pixel of the luminance information are calculated from the parallax of the image pair and stored as distance information. A corresponding pixel search is again performed from the image pair of the reference parallax image and the second parallax image at the second closest imaging position to the imaging position.
The distance information corresponding to each pixel is calculated in the range where the occlusion does not occur, and the distance information rewriting process of rewriting the already stored distance information is performed for the pixel whose distance has been calculated. This distance information rewriting process is sequentially repeated for the image pair of the reference parallax image and each of the parallax images whose proximity to the imaging position is the third or later. And the first
Are stored as occlusion pixels having no distance information.

【0013】請求項2の発明は、請求項1に記載の三次
元画像撮像方法において、前記基準視差画像は、複数の
視差画像の内、被測定物体に対して中間位置の視差画像
であることを特徴としている。
According to a second aspect of the present invention, in the three-dimensional image capturing method according to the first aspect, the reference parallax image is a parallax image at an intermediate position with respect to the measured object among a plurality of parallax images. It is characterized by.

【0014】請求項3の発明は、請求項1に記載の三次
元画像撮像方法において、前記距離情報書換処理におけ
る対応画素探索は、直前までの距離情報書換処理により
記憶されている距離情報に基づいて行うことを特徴とし
ている。
According to a third aspect of the present invention, in the three-dimensional image pickup method according to the first aspect, the corresponding pixel search in the distance information rewriting process is based on the distance information stored by the immediately preceding distance information rewriting process. It is characterized by performing.

【0015】請求項4の発明は、請求項1に記載の三次
元画像撮像方法において、前記第1のオクルージョンが
発生している範囲の画素については、この画素に対する
最近傍の画素の距離情報を割り当てることを特徴として
いる。
According to a fourth aspect of the present invention, in the three-dimensional image capturing method according to the first aspect, for a pixel in a range where the first occlusion occurs, distance information of a pixel closest to the pixel is obtained. It is characterized by assigning.

【0016】請求項5の発明は、被測定物体に対する輝
度情報及び距離情報を測定する三次元画像撮像装置であ
って、次の各構成を具備することを特徴としている。撮
像部。この撮像部は、前記被測定物体を複数の撮像位置
からそれぞれ撮影し、複数の視差画像を取得可能とする
ものである。対応画素探索手段。この対応画素探索手段
は、複数の視差画像の一つを輝度情報とし、輝度情報と
なる基準視差画像と他の各視差画像との画像対を順次選
択し、ステレオ視に必要な対応画素の探索を行うもので
ある。距離情報算出手段。この距離情報算出手段は、前
記各画像対の視差から前記基準視差画像中の画素におけ
る撮像位置からの距離を算出するものである。距離値メ
モリ。この距離値メモリは、前記距離情報算出手段にお
いて距離が算出できた画素について距離情報を記憶する
ものである。オクルージョン領域処理部。このオクルー
ジョン領域処理部は、前記距離情報算出手段において距
離が算出できなかった画素をオクルージョン画素として
記憶するものである。三次元画像メモリ。この三次元画
像メモリは、前記基準視差画像の各画素に対して距離情
報又はオクルージョン画素を対応させて三次元情報を記
憶するものである。距離情報書換手段。この距離情報書
換手段は、前記三次元画像メモリの各画素の距離情報に
対して、前記距離情報算出手段での距離算出の基礎とな
る各画像対の撮像における基線長が最大となる画素対に
よる距離情報に書き換えるものである。
According to a fifth aspect of the present invention, there is provided a three-dimensional image pickup apparatus for measuring luminance information and distance information with respect to an object to be measured. Imaging unit. The imaging unit captures the object to be measured from a plurality of imaging positions, and enables acquisition of a plurality of parallax images. Corresponding pixel search means. The corresponding pixel searching means uses one of the plurality of parallax images as luminance information, sequentially selects an image pair of a reference parallax image serving as luminance information and each of the other parallax images, and searches for a corresponding pixel required for stereoscopic viewing. Is what you do. Distance information calculation means. The distance information calculating means calculates a distance from an imaging position of a pixel in the reference parallax image from the parallax of each image pair. Distance value memory. This distance value memory stores distance information for pixels whose distances have been calculated by the distance information calculation means. Occlusion area processing unit. The occlusion area processing section stores pixels whose distances could not be calculated by the distance information calculating means as occlusion pixels. 3D image memory. The three-dimensional image memory stores the three-dimensional information by associating distance information or occlusion pixels with each pixel of the reference parallax image. Distance information rewriting means. The distance information rewriting means uses, for the distance information of each pixel of the three-dimensional image memory, a pixel pair having a maximum base line length in imaging each image pair serving as a basis for distance calculation by the distance information calculation means. It is rewritten to distance information.

【0017】請求項6の発明は、請求項5に記載の三次
元画像撮像装置において、前記オクルージョン画素に対
して、最近傍の画素の距離値を割当てる距離値割当処理
手段を備えたことを特徴としている。
According to a sixth aspect of the present invention, in the three-dimensional image pickup apparatus according to the fifth aspect, a distance value assigning means for assigning a distance value of a nearest pixel to the occlusion pixel is provided. And

【0018】本発明によれば、基準視差画像とその撮像
位置に最も近い撮像位置での第1の視差画像との画像対
からステレオ視に必要な第1回めの対応画素探索を行う
ので、基準長が短いステレオ視によりオクルージョンの
発生をできるだけ回避するができる。
According to the present invention, the first corresponding pixel search required for stereoscopic viewing is performed from the image pair of the reference parallax image and the first parallax image at the closest imaging position. Occlusion can be avoided as much as possible by stereo vision with a short reference length.

【0019】また、基準視差画像と視差画像との画像対
から複数回の対応画素探索を行い、距離情報を書き換え
ることが行われるので、基準長が長いステレオ視による
距離情報に書き換えることにより、距離情報の測定精度
の向上を可能とする。
Further, since the corresponding pixel search is performed a plurality of times from the image pair of the reference parallax image and the parallax image and the distance information is rewritten, the distance information is rewritten to the distance information based on stereo vision having a long reference length. The accuracy of information measurement can be improved.

【0020】基準視差画像について、複数の視差画像の
内の被測定物体に対して中間位置の視差画像とすること
により、オクルージョンの発生する範囲を少なくするこ
とができる。
The range in which occlusion occurs can be reduced by using the reference parallax image as a parallax image at an intermediate position with respect to the measured object in the plurality of parallax images.

【0021】距離情報書換処理における対応画素探索に
ついて、直前までの距離情報書換処理により記憶されて
いる距離情報に基づいて行うことにより、処理速度の高
速化を図ることができる。
The processing speed can be increased by performing the corresponding pixel search in the distance information rewriting process based on the distance information stored in the immediately preceding distance information rewriting process.

【0022】第1回めの対応画素探索で第1のオクルー
ジョンが発生している範囲の画素について、この画素に
対する最近傍の画素の距離情報を割り当てることによ
り、エッジのなまりを回避してエッジの保存を行うこと
ができる。
By assigning distance information of the nearest pixel to the pixel in the range where the first occlusion has occurred in the first corresponding pixel search, the rounding of the edge can be avoided by avoiding the rounding of the edge. You can save.

【0023】[0023]

【発明の実施の形態】本発明の三次元画像撮像装置及び
三次元画像撮像方法の実施の形態の一例について、図面
を参照しながら説明する。図1は、三次元画像撮像装置
としてのOAカメラの構成を示すブロック図であり、図
2は三次元画像撮像装置の動作を説明するためのフロー
チャート図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a three-dimensional image pickup apparatus and a three-dimensional image pickup method according to the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of an OA camera as a three-dimensional image capturing device, and FIG. 2 is a flowchart illustrating an operation of the three-dimensional image capturing device.

【0024】三次元画像撮像装置は、被測定物体に対す
る輝度情報及び距離情報を測定する装置であり、被測定
物体を撮像して画像を得る撮像部1と、複数の視差画像
を得るため前記撮像部1を一定距離の範囲において平行
移動させる撮像部移動機構部2と、撮像部移動機構部2
による各撮像位置を記憶する撮像位置メモリ3と、各視
差画像を記憶する輝度値メモリ4と、視差画像のうちの
一つを基準視差画像として選択記憶する出力輝度値メモ
リ5と、基準視差画像と視差画像との画像対における対
応画素を探索する対応画素探索部(対応画素探索手段)
6と、画像対から基準視差画像の各画素の距離情報を算
出する距離情報算出部(距離情報算出手段)7と、距離
情報を記憶する距離値メモリ8と、画像対から基準視差
画像におけるオクルージョン領域の画素を検出して処理
するオクルージョン領域処理部9と、被測定物体の輝度
情報及び距離情報を記憶する三次元画像メモリ10と、
を具備して構成されている。
The three-dimensional image pickup device is a device for measuring luminance information and distance information with respect to an object to be measured. The image pickup section 1 obtains an image by picking up an object to be measured, and the image pickup section 1 obtains a plurality of parallax images. An imaging section moving mechanism section 2 that translates the section 1 within a certain distance range; and an imaging section moving mechanism section 2
, An imaging position memory 3 for storing each imaging position, a luminance value memory 4 for storing each parallax image, an output luminance value memory 5 for selectively storing one of the parallax images as a reference parallax image, and a reference parallax image. Corresponding pixel search unit (corresponding pixel search means) for searching for a corresponding pixel in an image pair of an image and a parallax image
6, a distance information calculating unit (distance information calculating means) 7 for calculating distance information of each pixel of the reference parallax image from the image pair, a distance value memory 8 for storing distance information, and occlusion in the reference parallax image from the image pair. An occlusion area processing unit 9 for detecting and processing pixels in the area, a three-dimensional image memory 10 for storing luminance information and distance information of the measured object,
It is comprised including.

【0025】撮像部1は、撮像部移動機構部2により一
定距離の範囲において直線的にステップ移動し、各ステ
ップごとにそれぞれ異なる位置から被測定物体に対して
撮像を行い、複数の視差画像を取得するようになってい
る。対応画素探索部6においては、出力輝度値メモリ5
において選択され輝度情報となる基準視差画像と他の各
視差画像との画像対を順次選択し、ステレオ視に必要な
対応画素の探索を行うようになっている。
The imaging section 1 linearly moves in steps within a certain distance range by the imaging section moving mechanism section 2, images the object to be measured from different positions for each step, and forms a plurality of parallax images. It is supposed to get. In the corresponding pixel search unit 6, the output luminance value memory 5
, The image pair of the reference parallax image and each of the other parallax images, which is selected as the luminance information, is sequentially selected, and a search for a corresponding pixel required for stereoscopic viewing is performed.

【0026】この基準視差画像と他の各視差画像との組
み合わせにより、基線長の短いものから長いものまで種
々の画像対に対して対応画素探索が行われることによ
り、オクルージョンの発生領域が少ないもの(基線長が
短い画像対による)から距離値の測定精度が高いもの
(基線長が長い画像対による)までの距離情報を得るこ
とができる。すなわち、基線長が短い(光軸が近い)画
像対によると、撮像における画角がほぼ等しいので撮像
画像同士(基準視差画像と視差画像)におけるほとんど
の画素が両方の画像に存在し、一方の画素しか得られな
いオクルージョンの発生を回避することができる。ま
た、基線長が長い画像対によると、上述した式1におけ
る視差の値が大きくなり、視差による誤差を少なくして
距離値の測定精度を高くすることができる。
By combining this reference parallax image with each of the other parallax images, a corresponding pixel search is performed for various image pairs from a short base line to a long base line, so that an occlusion generation area is small. It is possible to obtain distance information from a pair of images having a short base line length to a unit having a high distance value measurement accuracy (a pair of images having a long base line). That is, according to an image pair having a short base line length (close to the optical axis), almost all pixels in the captured images (the reference parallax image and the parallax image) are present in both images because the angle of view in the imaging is substantially the same. Occlusion in which only pixels are obtained can be avoided. Further, according to the image pair having a long base line length, the value of the parallax in Expression 1 described above becomes large, and the error due to the parallax can be reduced, and the accuracy of distance value measurement can be increased.

【0027】また、出力輝度値メモリ5においては、輝
度情報の画素に対してそれぞれ距離情報が付加できるよ
うに、換言すればオクルージョン領域ができるだけ発生
しないよう、被測定物体に対して中間位置となる撮像位
置での画像を基準視差画像(輝度情報)に選択するよう
にしている。すなわち、基準視差画像を被測定物体に対
して中間位置となる撮像位置で得られた画像とし、この
画像に対して画角が少しずれた視差画像とによるステレ
オ画像対をとれば、被測定物体をほぼ正面から撮像する
ステレオ視とすることができ、オクルージョン領域の発
生を最小限にすることができる。
The output luminance value memory 5 is located at an intermediate position with respect to the object to be measured so that distance information can be added to each pixel of luminance information, in other words, an occlusion area is generated as little as possible. The image at the imaging position is selected as the reference parallax image (luminance information). In other words, if the reference parallax image is an image obtained at an imaging position that is an intermediate position with respect to the measured object, and a stereo image pair is formed from the image and a parallax image having a slightly shifted angle of view, the measured object Can be stereoscopically imaged from almost the front, and the occurrence of occlusion areas can be minimized.

【0028】距離情報算出部7においては、基準視差画
像と各視差画像との画像対から輝度画像情報の画素にお
ける撮像位置からの距離を算出する。この場合、基準視
差画像と各視差画像との画像対において、オクルージョ
ン領域が発生している部分については対応画素がないた
め距離算出ができない。そして、距離値メモリ8におい
て、距離情報算出部7において距離が算出できた画素に
ついて距離情報を記憶し、距離情報算出部7において距
離が算出できなかった画素については、オクルージョン
画素として記憶する。また、オクルージョン領域処理部
9には距離値割当処理手段が設けられ、距離値メモリ8
でオクルージョン画素とされた各画素に対して、最近傍
の画素の距離値を割り当てるようになっている。
The distance information calculator 7 calculates the distance from the image pickup position of the pixel of the luminance image information from the image pair of the reference parallax image and each parallax image. In this case, in an image pair of the reference parallax image and each parallax image, a portion where an occlusion area occurs has no corresponding pixel, and therefore cannot be calculated. Then, in the distance value memory 8, the distance information is stored for the pixels for which the distance can be calculated by the distance information calculation unit 7, and the pixels for which the distance cannot be calculated by the distance information calculation unit 7 are stored as occlusion pixels. Further, the occlusion area processing section 9 is provided with a distance value assignment processing means,
The distance value of the nearest pixel is assigned to each pixel that has been determined to be an occlusion pixel.

【0029】三次元画像メモリ10では、輝度画像情報
としての基準視差画像の各画素に対して、距離情報又は
オクルージョン画素を対応させた三次元情報として記憶
する。三次元画像メモリ10の各画素の距離情報に対し
ては、前記距離情報算出部7での距離算出の基礎となる
各画像対の撮像における基線長が最大となる画素対によ
る距離情報に書き換え可能に構成されている。
The three-dimensional image memory 10 stores distance information or three-dimensional information in which occlusion pixels are associated with each pixel of the reference parallax image as luminance image information. The distance information of each pixel in the three-dimensional image memory 10 can be rewritten to distance information based on a pixel pair having a maximum base line length in imaging each image pair, which is the basis of distance calculation in the distance information calculation unit 7. Is configured.

【0030】次に、上記三次元画像撮像装置を用いた撮
像方法について、図1及び図2を参照しながら説明す
る。三次元画像撮像装置のスイッチ(図示せず)で撮像
開始が選択されると、撮像部移動機構部2により撮像部
1が停止と移動を繰り返すステップ移動を行う(ステッ
プ101)。撮像部1が停止している各位置で撮像が行
われて(ステップ102)複数の視差画像を取得し、得
られた輝度画像は輝度値メモリ4にそれぞれ記憶(ステ
ップ103)されることが繰り返される(ステップ10
4)。前記撮像部1が停止する位置は、撮像部1が平行
移動可能な一定直線距離内で等間隔に数十箇所程度設定
されている。したがって、輝度値メモリ4には、各視差
画像の各画素の輝度情報が記憶される。
Next, an imaging method using the three-dimensional image imaging apparatus will be described with reference to FIGS. When the start of imaging is selected by a switch (not shown) of the three-dimensional imaging apparatus, the imaging unit moving mechanism unit 2 performs a step movement in which the imaging unit 1 repeatedly stops and moves (step 101). Imaging is performed at each position where the imaging unit 1 is stopped (Step 102), a plurality of parallax images are obtained, and the obtained luminance images are stored in the luminance value memory 4 (Step 103) repeatedly. (Step 10
4). The position at which the imaging unit 1 stops is set to several tens at equal intervals within a fixed linear distance in which the imaging unit 1 can move in parallel. Therefore, the luminance value memory 4 stores the luminance information of each pixel of each parallax image.

【0031】次に、複数の視差画像の中から輝度画像情
報として使用する画像を基準視差画像として選択する
(ステップ105)。この基準視差画像は、前記したよ
うに、オクルージョン領域ができるだけ発生しないよう
に、移動する撮像部1の中間停止位置での撮像された視
差画像、すなわち被測定物体に対して中心位置で撮像さ
れた画像を基準視差画像として使用する。選択された基
準視差画像の各画素の輝度値情報は、出力輝度値メモリ
5に記憶される(ステップ106)。
Next, an image used as luminance image information is selected from a plurality of parallax images as a reference parallax image (step 105). As described above, the reference parallax image is captured at the center position with respect to the measured object, that is, the parallax image captured at the intermediate stop position of the moving imaging unit 1 so that the occlusion region is generated as little as possible. The image is used as a reference parallax image. The luminance value information of each pixel of the selected reference parallax image is stored in the output luminance value memory 5 (Step 106).

【0032】続いて、対応画素探索部6において、撮像
位置メモリ3のデータを元に基準視差画像を撮像した撮
像位置に最も近い位置で撮像した視差画像を選択し、こ
の視差画像と輝度画像情報として選択した基準視差画像
とにより第1のステレオ画像対を形成する(ステップ1
07)。この場合、基準視差画像と視差画像との光軸は
一番近い位置に存在しているので、オクルージョン領域
の発生を最小限にすることができる。
Subsequently, the corresponding pixel search unit 6 selects a parallax image captured at a position closest to the capturing position of the reference parallax image based on the data in the capturing position memory 3, and selects the parallax image and the luminance image information. Form a first stereo image pair with the reference parallax image selected as (step 1)
07). In this case, since the optical axes of the reference parallax image and the parallax image are located at the closest positions, the occurrence of the occlusion region can be minimized.

【0033】そして、このステレオ画像対において、対
応する画素を探索する対応画素探索を行う(ステップ1
08)。対応画素探索に際しては、画像同士の光軸が近
いため、基準視差画像の画素位置に近い位置に視差画像
の対応画素が存在しているので、対応画素探索の探索領
域を小さく設定することができる。対応画素探索の方法
としては、対象画素付近にある一定の大きさの窓を設
け、この窓内の画素の輝度値の差がもっとも小さい画
素、すなわち、式2に示すDwを最小にする画素を対応
画素とするなどが考えられる。
Then, in this stereo image pair, a corresponding pixel search for searching for a corresponding pixel is performed (step 1).
08). At the time of searching for a corresponding pixel, since the optical axes of the images are close to each other, the corresponding pixel of the parallax image exists at a position close to the pixel position of the reference parallax image, so that the search area of the corresponding pixel search can be set small. . As a method of searching for a corresponding pixel, a window having a certain size near the target pixel is provided, and a pixel having the smallest difference in luminance value between pixels in this window, that is, a pixel that minimizes Dw shown in Equation 2 For example, a corresponding pixel may be used.

【0034】[0034]

【式2】 (Equation 2)

【0035】式2中、Wは設定した相関窓の大きさ、I
refはステレオ画像対の基準視差画像における画素の輝
度値、Isはステレオ画像対を形成する視差画像におけ
る画素の輝度値である。対応画素が探索できた場合に
は、式3により、距離情報(距離値z)を算出する(ス
テップ109)。式3は式1を変形したもので、ノーテ
ーションに関しては式1と同一である。この動作を基準
視差画像の全ての画素に対して行う。
In Equation 2, W is the size of the set correlation window, and I is
ref is the luminance value of the pixel in the reference parallax image of the stereo image pair, and Is is the luminance value of the pixel in the parallax image forming the stereo image pair. If the corresponding pixel can be searched, distance information (distance value z) is calculated by Expression 3 (step 109). Expression 3 is a modification of Expression 1, and is the same as Expression 1 with respect to the notation. This operation is performed for all pixels of the reference parallax image.

【0036】[0036]

【式3】z=B・F/λ・d[Equation 3] z = B · F / λ · d

【0037】ステレオ画像対において対応画素が探索で
き、式3により距離値が算出された各画素の距離値は、
距離値メモリ8に記憶される(ステップ110)。オク
ルージョンにより距離値が算出できない場合には、その
画素がオクルージョン画素であるとの情報を距離値メモ
リ8に記憶する。
The corresponding pixel can be searched for in the stereo image pair, and the distance value of each pixel for which the distance value has been calculated by Equation 3 is
It is stored in the distance value memory 8 (step 110). If the distance value cannot be calculated due to occlusion, information indicating that the pixel is an occlusion pixel is stored in the distance value memory 8.

【0038】次に、前ステップでステレオ画像対の一方
として用いた視差画像以外で、基準視差画像を撮像した
撮像位置と最も近い位置で撮像した視差画像を、第2の
ステレオ画像対の視差画像として用いる(ステップ11
1)。前ステップにおいてあらかじめ距離値メモリ8に
記憶されている距離値(後述するステップ115で上書
きされた距離値)が算出されているので、式1により視
差dの予想値を算出することができる(ステップ11
2)。この視差dを利用して対応画素の探索を行う(ス
テップ113)ことにより探索時間の短縮(処理時間の
高速化)を図ることができる。
Next, in addition to the parallax image used as one of the stereo image pair in the previous step, a parallax image taken at a position closest to the imaging position where the reference parallax image was taken is taken as a parallax image of the second stereo image pair. (Step 11
1). Since the distance value previously stored in the distance value memory 8 (the distance value overwritten in step 115 described later) has been calculated in the previous step, the expected value of the parallax d can be calculated by Expression 1 (step). 11
2). By searching for the corresponding pixel using the parallax d (step 113), the search time can be reduced (the processing time can be shortened).

【0039】ステレオ画像対における対応画素より基準
視差画像の各画素の距離情報を算出(ステップ114)
する手順は前ステップと同じであるが、第2のステレオ
画像対の基線長は前ステップでの第1のステレオ画像対
の基線長より長いので、より測定精度の高い距離情報を
求めることが可能となる。その反面、オクルージョンの
発生により距離値が算出できない画素数が増加する。そ
して、第2のステレオ画像対により距離値が算出できた
画素については、第1のステレオ画像対により既に算出
され距離値メモリ8に書き込まれている画素について、
新たに算出した距離値によりデータの上書きを行う(ス
テップ115)。
The distance information of each pixel of the reference parallax image is calculated from the corresponding pixel in the stereo image pair (step 114).
Procedure is the same as in the previous step, but since the baseline length of the second stereo image pair is longer than the baseline length of the first stereo image pair in the previous step, distance information with higher measurement accuracy can be obtained. Becomes On the other hand, the number of pixels for which a distance value cannot be calculated due to the occurrence of occlusion increases. For the pixels for which the distance value has been calculated by the second stereo image pair, for the pixels that have already been calculated by the first stereo image pair and have been written to the distance value memory 8,
The data is overwritten with the newly calculated distance value (step 115).

【0040】以後、同様の手順により、撮像された視差
画像すべてに対して各ステレオ画像対を設定し、各ステ
ップにおいて算出された距離値情報による上書き動作を
行うことにより、第1のステレオ画像対によるオクルー
ジョンが発生しない領域における基準視差画像の各画素
について、最も基線長が長いステレオ画像対による距離
情報を求めることができる(ステップ116)。
Thereafter, the same stereo image pair is set for all the captured parallax images, and the first stereo image pair is set by performing an overwriting operation using the distance value information calculated in each step. For each pixel of the reference parallax image in an area where occlusion does not occur, distance information based on the stereo image pair having the longest base line length can be obtained (step 116).

【0041】全ての視差画像を利用してステレオ画像対
を形成し、各画素における距離情報を算出した後でも、
撮像対象によってはオクルージョンが発生している、す
なわち距離値メモリ8にオクルージョン画素として記憶
されている場合がある。このような領域は、基準視差画
像(輝度画像情報)を撮像した位置から見えるエッジ領
域(図1のオクルージョン領域参照)であると考えられ
る。
Even after forming a stereo image pair by using all the parallax images and calculating the distance information for each pixel,
Depending on the imaging target, occlusion may occur, that is, the occlusion pixel may be stored in the distance value memory 8. Such an area is considered to be an edge area (see the occlusion area in FIG. 1) that is visible from the position where the reference parallax image (luminance image information) is captured.

【0042】これらのオクルージョン画素の処理の仕方
について説明する。図4に示したように、背景物体41
の前方に被測定物体40が存在する場合、被測定物体に
おけるある水平面断面での実際の距離値(奥行き情報)
は図5(a)のようになっている。ここにおいて、斜線
領域がオクルージョン領域に相当している。オクルージ
ョン領域の画素に対して、周囲画素からの重み付け平均
を取った距離値を対応させると、図5(b)に示すよう
に、不必要なエッジの「なまり」が発生してしまう。こ
のような「なまり」が発生すると、距離情報を用いての
背景物体41の画像から被測定物体40の画像の分離を
行おうとする場合に、背景画像と物体画像との境界のエ
ッジが検出できず分離が困難になってしまう。
A method of processing these occlusion pixels will be described. As shown in FIG.
Is the actual distance value (depth information) in a certain horizontal section of the measured object when the measured object 40 exists in front of
Is as shown in FIG. Here, the shaded area corresponds to the occlusion area. When pixels in the occlusion area are associated with distance values obtained by taking weighted averages from surrounding pixels, unnecessary rounding of edges occurs as shown in FIG. 5B. When such “rounding” occurs, when the image of the measured object 40 is to be separated from the image of the background object 41 using the distance information, the edge of the boundary between the background image and the object image can be detected. Separation becomes difficult.

【0043】そこで、本発明の三次元画像撮像装置のオ
クルージョン領域処理部9においては、オクルージョン
領域の画素に対して(ステップ118)、最近傍の画素
の距離値を割り当てる作業を行う(ステップ119)こ
とにより、距離情報のプロファイルは図5(c)に示す
ようになる。この場合、各画素の距離情報自体としては
誤差が大きくなる可能性があるが、エッジ部分は保存さ
れ、背景画像から被測定物体の画像を容易に分離するこ
とが可能となる。
Therefore, in the occlusion area processing section 9 of the three-dimensional image pickup apparatus of the present invention, the operation of allocating the distance value of the nearest pixel to the pixel of the occlusion area (step 118) is performed (step 119). Thus, the profile of the distance information is as shown in FIG. In this case, although the error may increase as the distance information of each pixel, the edge portion is preserved, and the image of the measured object can be easily separated from the background image.

【0044】オクルージョン領域の処理が終了すると、
基準視差画像(輝度情報画像)の各画素に対して距離値
が得られ(ステップ117)、輝度値と距離値の情報を
各画素に持つ三次元画像として三次元画像メモリに記憶
(ステップ120)して動作を終了する。
When the processing of the occlusion area is completed,
A distance value is obtained for each pixel of the reference parallax image (luminance information image) (step 117), and information of the luminance value and the distance value is stored in a three-dimensional image memory as a three-dimensional image having each pixel (step 120). To end the operation.

【0045】上記した三次元画像撮像装置では、複数の
視差画像を得る手段として撮像部1を移動機構によりス
テップ的に平行移動させて撮像位置の異なる視差画像を
取得していたが、あらかじめ複数台の光学系を設置して
撮像することにより、複数の視差画像を取得するように
した構造であっても良い。
In the three-dimensional image pickup apparatus described above, as a means for obtaining a plurality of parallax images, the image pickup unit 1 is moved in parallel in a stepwise manner by a moving mechanism to obtain parallax images having different image pickup positions. A configuration may be adopted in which a plurality of parallax images are obtained by installing the optical system and imaging.

【0046】また、対応画素探索の際に用いる輝度情報
としては、輝度情報画像に使用する通常のR,G,B信号
以外にも赤外領域に感度を有する撮像装置により得られ
る赤外反射光情報を利用しても良い。一般に異なる材質
は異なる反射スペクトルを有しているので、通常の可視
光では対応点探索が不可能な場合でも複数のスペクトル
を利用することで対応画素探索が可能になることが考え
られる。
The luminance information used in searching for the corresponding pixel includes infrared reflected light obtained by an imaging device having sensitivity in the infrared region in addition to the normal R, G, and B signals used for the luminance information image. Information may be used. Generally, since different materials have different reflection spectra, it is conceivable that a corresponding pixel search can be performed by using a plurality of spectra even when a corresponding point search is impossible with ordinary visible light.

【0047】また、対応画素探索の際に相関窓内の輝度
値の差を最小にすることで対応画素を検出したが、ハフ
変換などにより直線成分を検出するなど特徴量を算出す
ることで対応画素の検出を行っても良い。
The corresponding pixel is detected by minimizing the difference between the luminance values in the correlation window when searching for the corresponding pixel. However, the corresponding amount is calculated by calculating a characteristic amount such as detecting a linear component by Hough transform or the like. Pixel detection may be performed.

【0048】上述した三次元画像撮像方法によれば、初
めに複数の視差画像を一括して取得し対応画素探索や距
離値算出の処理を行っているが、最初に輝度情報画像と
するべき位置で撮像して基準視差画像を得た後、異なる
視点からの撮像を行い、その度に対応画素探索及び距離
値算出を行うことにより、輝度値メモリの容量削減を図
ることも可能である。
According to the above-described three-dimensional image capturing method, a plurality of parallax images are first collectively obtained and the corresponding pixel search and the distance value calculation are performed. After obtaining the reference parallax image by performing the above-described image capturing, the image capturing is performed from a different viewpoint, and the corresponding pixel search and the distance value calculation are performed each time, so that the capacity of the luminance value memory can be reduced.

【0049】[0049]

【発明の効果】本発明によれば、被測定物体に対して複
数の視差画像を取得し、基準視差画像と各視差画像との
ステレオ画像対により基準視差画像の各画素での距離値
を算出することにより、オクルージョンが発生しない範
囲で最大の基線長を持つステレオ画像対から距離値を算
出可能となるので、オクルージョンを回避しつつ測定精
度の高い距離情報を取得することができる。また、オク
ルージョンが回避できなかった領域の画素については、
画素に対する最近傍の画素の距離情報を割り当てること
により、エッジの保存を行うことができ、背景画像から
物体画像の分離を距離情報を用いて容易に行うことを可
能とする。
According to the present invention, a plurality of parallax images are acquired for an object to be measured, and a distance value at each pixel of the reference parallax image is calculated from a stereo image pair of the reference parallax image and each parallax image. By doing so, the distance value can be calculated from the stereo image pair having the maximum baseline length in a range where occlusion does not occur, so that distance information with high measurement accuracy can be obtained while avoiding occlusion. For pixels in the area where occlusion could not be avoided,
By assigning the distance information of the nearest pixel to the pixel, the edge can be preserved, and the object image can be easily separated from the background image using the distance information.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の三次元画像撮像装置の実施の一例とし
てのOAカメラの構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an OA camera as an example of an embodiment of a three-dimensional image capturing apparatus according to the present invention.

【図2】三次元画像撮像装置の動作を説明するためのフ
ローチャート図である。
FIG. 2 is a flowchart for explaining the operation of the three-dimensional image pickup device.

【図3】(a)(b)(c)はオクルージョンが回避で
きなかった画素に対する距離値の付加の仕方を説明する
ための被測定物体に対する水平断面での距離情報説明図
である。
FIGS. 3A, 3B, and 3C are explanatory diagrams of distance information in a horizontal cross section with respect to an object to be measured for explaining how to add a distance value to a pixel for which occlusion cannot be avoided;

【図4】ステレオ視において被測定物体に発生するオク
ルージョンを説明するための撮像平面説明図である。
FIG. 4 is an explanatory plan view of an imaging plane for explaining occlusion occurring in a measured object in stereo vision.

【図5】ステレオ視における基線長及び距離と視差との
関係を示す光学関係説明図である。
FIG. 5 is an optical explanatory diagram showing a relationship between a base line length and a distance and a parallax in stereo vision.

【符号の説明】 1…撮像部、 2…撮像部移動機構部、 3…撮像位置
メモリ、 4…輝度値メモリ、 5…出力輝度値メモ
リ、 6…対応画素探索部(対応画素探索手段)、 7
…距離情報算出部(距離情報算出手段)、 8…距離値
メモリ、 9…オクルージョン領域処理部、 10…三
次元画像メモリ
[Description of Signs] 1 ... Imaging unit 2 ... Imaging unit moving mechanism unit 3 ... Imaging position memory 4 ... Luminance value memory 5 ... Output luminance value memory 6 ... Corresponding pixel searching unit (corresponding pixel searching means) 7
... Distance information calculation unit (distance information calculation means) 8 ... Distance value memory 9 ... Occlusion area processing unit 10 ... 3D image memory

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】被測定物体に対する輝度情報及び距離情報
を測定する三次元画像撮像方法において、 前記被測定物体を複数の撮像位置から撮影して複数の視
差画像を取得し、 前記視差画像の一つを輝度情報とするとともに、この輝
度情報となる基準視差画像とその撮像位置に最も近い撮
像位置での第1の視差画像との画像対からステレオ視に
必要な第1回めの対応画素探索を行い、第1のオクルー
ジョンが発生しない範囲において前記画像対の視差から
輝度情報の各画素に対する撮像位置からの各距離を算出
して距離情報として記憶し、 前記基準視差画像とその撮像位置に2番めに近い撮像位
置での第2の視差画像との画像対から再度対応画素探索
を行い、第2のオクルージョンが発生しない範囲におい
て各画素に対応する各距離を算出し、距離が算出できた
画素については既に記憶している距離情報を書き換える
距離情報書換処理を行い、 この距離情報書換処理について、前記基準視差画像と撮
像位置の近さが3番め以降の各視差画像との画像対で順
次処理を繰り返し行い、 前記第1のオクルージョンが発生している範囲の画素に
ついては、距離情報がないオクルージョン画素として記
憶することを特徴とする三次元画像撮像方法。
1. A three-dimensional image capturing method for measuring luminance information and distance information for an object to be measured, wherein said object to be measured is photographed from a plurality of image pickup positions to obtain a plurality of parallax images, And the first parallax image necessary for stereoscopic viewing from an image pair of a reference parallax image serving as the luminance information and a first parallax image at an imaging position closest to the imaging position. Is performed, and in the range where the first occlusion does not occur, each distance from the imaging position to each pixel of the luminance information is calculated from the parallax of the image pair and stored as distance information. A corresponding pixel search is again performed from the image pair with the second parallax image at the closest imaging position, and each distance corresponding to each pixel is calculated in a range where the second occlusion does not occur, The distance information rewriting process for rewriting the distance information already stored is performed for the pixels for which the separation has been calculated. For the distance information rewriting process, each parallax image in which the distance between the reference parallax image and the imaging position is the third or later. A three-dimensional image pickup method, wherein the pixels in the range where the first occlusion occurs are stored as occlusion pixels having no distance information.
【請求項2】前記基準視差画像は、複数の視差画像の
内、被測定物体に対して中間位置の視差画像である請求
項1に記載の三次元画像撮像方法。
2. The three-dimensional image pickup method according to claim 1, wherein the reference parallax image is a parallax image at an intermediate position with respect to a measured object among a plurality of parallax images.
【請求項3】前記距離情報書換処理における対応画素探
索は、直前までの距離情報書換処理により記憶されてい
る距離情報に基づいて行う請求項1に記載の三次元画像
撮像方法。
3. The three-dimensional image pickup method according to claim 1, wherein the corresponding pixel search in the distance information rewriting process is performed based on the distance information stored by the immediately preceding distance information rewriting process.
【請求項4】前記第1のオクルージョンが発生している
範囲の画素については、この画素に対する最近傍の画素
の距離情報を割り当てる請求項1に記載の三次元画像撮
像方法。
4. The three-dimensional image pickup method according to claim 1, wherein distance information of a pixel closest to the pixel in a range where the first occlusion occurs is assigned.
【請求項5】被測定物体に対する輝度情報及び距離情報
を測定する装置であって、 前記被測定物体を複数の撮像位置からそれぞれ撮影し、
複数の視差画像を取得可能とする撮像部と、 複数の視差画像の一つを輝度情報とし、輝度情報となる
基準視差画像と他の各視差画像との画像対を順次選択
し、ステレオ視に必要な対応画素の探索を行う対応画素
探索手段と、 前記各画像対の視差から前記基準視差画像中の画素にお
ける撮像位置からの距離を算出する距離情報算出手段
と、 前記距離情報算出手段において距離が算出できた画素に
ついて距離情報を記憶する距離値メモリと、 前記距離情報算出手段において距離が算出できなかった
画素をオクルージョン画素として記憶するオクルージョ
ン領域処理部と、 前記基準視差画像の各画素に対して距離情報又はオクル
ージョン画素を対応させて三次元情報を記憶する三次元
画像メモリと、 前記三次元画像メモリの各画素の距離情報に対して、前
記距離情報算出手段での距離算出の基礎となる各画像対
の撮像における基線長が最大となる画素対による距離情
報に書き換える距離情報書換手段と、 を有することを特徴とする三次元画像撮像装置。
5. An apparatus for measuring luminance information and distance information for an object to be measured, wherein the apparatus measures an image of the object to be measured from a plurality of imaging positions,
An imaging unit capable of acquiring a plurality of parallax images, and one of the plurality of parallax images as luminance information, sequentially selecting an image pair of a reference parallax image serving as luminance information and each of the other parallax images, for stereo viewing. Corresponding pixel searching means for searching for a necessary corresponding pixel; distance information calculating means for calculating a distance from an imaging position of a pixel in the reference parallax image from the parallax of each image pair; and a distance in the distance information calculating means. A distance value memory that stores distance information for the pixel that could be calculated, an occlusion area processing unit that stores a pixel whose distance could not be calculated by the distance information calculation unit as an occlusion pixel, and for each pixel of the reference parallax image. A three-dimensional image memory that stores three-dimensional information in correspondence with distance information or occlusion pixels, and distance information of each pixel of the three-dimensional image memory. And a distance information rewriting means for rewriting the distance information by a pixel pair having a maximum base line length in imaging each image pair as a basis of the distance calculation by the distance information calculating means. Image capturing device.
【請求項6】前記オクルージョン画素に対して、最近傍
の画素の距離値を割当てる距離値割当処理手段を備えた
請求項5に記載の三次元画像撮像装置。
6. A three-dimensional image pickup apparatus according to claim 5, further comprising a distance value assigning means for assigning a distance value of a nearest pixel to said occlusion pixel.
JP35063697A 1997-12-19 1997-12-19 Three-dimensional image capturing method and three-dimensional image capturing device Expired - Fee Related JP3525712B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35063697A JP3525712B2 (en) 1997-12-19 1997-12-19 Three-dimensional image capturing method and three-dimensional image capturing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35063697A JP3525712B2 (en) 1997-12-19 1997-12-19 Three-dimensional image capturing method and three-dimensional image capturing device

Publications (2)

Publication Number Publication Date
JPH11183142A true JPH11183142A (en) 1999-07-09
JP3525712B2 JP3525712B2 (en) 2004-05-10

Family

ID=18411828

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35063697A Expired - Fee Related JP3525712B2 (en) 1997-12-19 1997-12-19 Three-dimensional image capturing method and three-dimensional image capturing device

Country Status (1)

Country Link
JP (1) JP3525712B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1087336A2 (en) * 1999-09-22 2001-03-28 Fuji Jukogyo Kabushiki Kaisha Apparatus and method for stereoscopic image processing
JP2001283200A (en) * 2000-03-30 2001-10-12 Meidensha Corp Device for preparing three-dimensional shape model of object
JP2013518340A (en) * 2010-01-26 2013-05-20 サーブ アクティエボラーグ Automated 3D mapping method
US8989518B2 (en) 2006-06-23 2015-03-24 Canon Kabushiki Kaisha Information processing method and apparatus for calculating information regarding measurement target on the basis of captured images

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266827A (en) * 1993-03-11 1994-09-22 Toppan Printing Co Ltd Method and device for preparing parallactic picture
JPH0843055A (en) * 1994-07-29 1996-02-16 Canon Inc Method and apparatus for recognizing shape of three dimensional object
JPH08254424A (en) * 1995-03-15 1996-10-01 Canon Inc Three-dimensional object form measuring method and device
JPH08263696A (en) * 1995-03-01 1996-10-11 Meidensha Corp Three-dimensional object model generating method
JPH09218954A (en) * 1996-02-14 1997-08-19 Nippon Telegr & Teleph Corp <Ntt> Image generating method
JPH09288735A (en) * 1996-04-23 1997-11-04 Canon Inc Image processor

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266827A (en) * 1993-03-11 1994-09-22 Toppan Printing Co Ltd Method and device for preparing parallactic picture
JPH0843055A (en) * 1994-07-29 1996-02-16 Canon Inc Method and apparatus for recognizing shape of three dimensional object
JPH08263696A (en) * 1995-03-01 1996-10-11 Meidensha Corp Three-dimensional object model generating method
JPH08254424A (en) * 1995-03-15 1996-10-01 Canon Inc Three-dimensional object form measuring method and device
JPH09218954A (en) * 1996-02-14 1997-08-19 Nippon Telegr & Teleph Corp <Ntt> Image generating method
JPH09288735A (en) * 1996-04-23 1997-11-04 Canon Inc Image processor

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1087336A2 (en) * 1999-09-22 2001-03-28 Fuji Jukogyo Kabushiki Kaisha Apparatus and method for stereoscopic image processing
EP1087336A3 (en) * 1999-09-22 2006-05-17 Fuji Jukogyo Kabushiki Kaisha Apparatus and method for stereoscopic image processing
JP2001283200A (en) * 2000-03-30 2001-10-12 Meidensha Corp Device for preparing three-dimensional shape model of object
US8989518B2 (en) 2006-06-23 2015-03-24 Canon Kabushiki Kaisha Information processing method and apparatus for calculating information regarding measurement target on the basis of captured images
JP2013518340A (en) * 2010-01-26 2013-05-20 サーブ アクティエボラーグ Automated 3D mapping method

Also Published As

Publication number Publication date
JP3525712B2 (en) 2004-05-10

Similar Documents

Publication Publication Date Title
US8718326B2 (en) System and method for extracting three-dimensional coordinates
CA2577840C (en) A method for automated 3d imaging
US7720277B2 (en) Three-dimensional-information reconstructing apparatus, method and program
US7342669B2 (en) Three-dimensional shape measuring method and its device
US7471809B2 (en) Method, apparatus, and program for processing stereo image
KR102424135B1 (en) Structured light matching of a set of curves from two cameras
US11803982B2 (en) Image processing device and three-dimensional measuring system
US11348271B2 (en) Image processing device and three-dimensional measuring system
JP2001147110A (en) Random pattern generating device and its method, distance image generating device and its method, and program providing medium
JP2008275366A (en) Stereoscopic 3-d measurement system
JPH1144533A (en) Preceding vehicle detector
JP3991501B2 (en) 3D input device
JP2003346130A (en) Three-dimensional information processor and three- dimensional information processing method
JP3525712B2 (en) Three-dimensional image capturing method and three-dimensional image capturing device
JPH11223516A (en) Three dimensional image pickup device
JPH1096607A (en) Object detector and plane estimation method
JP3852285B2 (en) 3D shape measuring apparatus and 3D shape measuring method
JP2003099784A (en) Recognition method for moving object
JPH07306037A (en) Solid object region detector, measuring instrument of distance to solid object region, and their detection and measurement method
JP2004340714A (en) Optimum arrangement determination method of stereo camera and its system
JP2001319224A (en) Device and method for detecting three-dimensional object, and recording medium
WO2023095375A1 (en) Three-dimensional model generation method and three-dimensional model generation device
KR20020037778A (en) Three-Dimensional Shape Measuring Method
CN112602118B (en) Image processing device and three-dimensional measurement system
JP2002031511A (en) Three-dimensional digitizer

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040209

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090227

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100227

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees