JPH1079029A - Stereoscopic information detecting method and device therefor - Google Patents

Stereoscopic information detecting method and device therefor

Info

Publication number
JPH1079029A
JPH1079029A JP8248523A JP24852396A JPH1079029A JP H1079029 A JPH1079029 A JP H1079029A JP 8248523 A JP8248523 A JP 8248523A JP 24852396 A JP24852396 A JP 24852396A JP H1079029 A JPH1079029 A JP H1079029A
Authority
JP
Japan
Prior art keywords
information
subject
dimensional
light source
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8248523A
Other languages
Japanese (ja)
Inventor
Motohiro Ishikawa
基博 石川
Masakazu Matsugi
優和 真継
Masayoshi Sekine
正慶 関根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP8248523A priority Critical patent/JPH1079029A/en
Publication of JPH1079029A publication Critical patent/JPH1079029A/en
Pending legal-status Critical Current

Links

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a stereoscopic information detecting method detecting stereoscopic shape information on a subject and texture information on the subject from plural pieces of picture data. SOLUTION: Video signals inputted from cameras 3a to 3c are converted into a picture format easily handled by a stereoscopic information detecting part 8 by a video signal part 5. The result is written in a memory 6 as one sheet of picture data by each view point by CPU 9. In addition CPU 9 writes a camera parameter including subject position information previously stored within a storage device 7, view point position information of the respective cameras 3a to 3c and information on a focal distance, a picture angle, etc., and information on the position and the characteristic of a light source 2 in the memory 6 with picture data. A stereoscopic information detecting part 8 executes processing for detecting stereoscopic information consisting of stereoscopic shape information of the subject 1 and the characteristic (texture information) of a subject surface.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、被写体を撮影する
ことにより得られる画像信号から、当該被写体の立体形
状情報及び表面反射率等のテクスチャ情報とからなる立
体情報を検出する立体情報検出方法及びその装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional information detecting method for detecting three-dimensional information comprising three-dimensional shape information of a subject and texture information such as surface reflectance from an image signal obtained by photographing the subject. Regarding the device.

【0002】[0002]

【従来の技術】従来、任意の被写体の立体形状情報を検
出する手法の一つに、被写体を複数の異なる視点から撮
影して画像データを取得し、撮影時の相対的な視点位置
関係と画像データ中の被写体位置とから、三角測量の原
理を用いて被写体までの距離を検出し、これを統合して
被写体の立体形状情報を検出する手法がある。
2. Description of the Related Art Conventionally, as one of methods for detecting three-dimensional shape information of an arbitrary subject, a subject is photographed from a plurality of different viewpoints to acquire image data, and a relative viewpoint positional relationship at the time of photographing and an image. There is a method of detecting a distance to a subject from the position of the subject in the data using the principle of triangulation, and integrating the distance to detect three-dimensional shape information of the subject.

【0003】図8は、上記従来の手法の原理を示す説明
図である。同図において、被写体の一の点Aを二つのカ
メラ3a、3b(視点位置OL、OR)により撮影した
場合、両視点位置の視差によって画像データ中の位置に
ずれ(PR−PL)が生じる。このずれの量を求めるこ
とにより、撮影時の光軸方向、焦点距離、及び二つのカ
メラ3a、3bの相対位置関係に基づいて、任意の空間
上での点Aの位置を決定することができる。
FIG. 8 is an explanatory diagram showing the principle of the above-mentioned conventional method. In the figure, when one point A of an object is photographed by two cameras 3a and 3b (viewpoint positions OL and OR), a shift (PR-PL) occurs in the position in the image data due to the parallax between the two viewpoints. By calculating the amount of this shift, the position of the point A in an arbitrary space can be determined based on the optical axis direction, the focal length, and the relative positional relationship between the two cameras 3a and 3b at the time of shooting. .

【0004】実際の処理は、以下のように行われる。ま
ず、複数の視点位置から被写体の撮影を行い、このとき
に各視点位置及び被写体位置の相対位置関係を記録す
る。次に、複数の視点位置から撮影された複数の画像デ
ータから、テンプレートマッチング法等の既知の手法を
用いて、複数の画像データ間の画素単位での対応関係を
求める。そして、求められた対応関係と撮影時に記録し
た視点位置とから視差を求め、三角測量の原理を用いて
任意の座標上で統合された被写体形状を求めることがで
きる。
The actual processing is performed as follows. First, the subject is photographed from a plurality of viewpoint positions, and at this time, the relative positional relationship between each viewpoint position and the subject position is recorded. Next, from a plurality of pieces of image data captured from a plurality of viewpoint positions, a correspondence relationship in pixel units between the plurality of pieces of image data is obtained using a known method such as a template matching method. Then, parallax is obtained from the obtained correspondence and the viewpoint position recorded at the time of shooting, and an integrated object shape on arbitrary coordinates can be obtained using the principle of triangulation.

【0005】複数の画像データ間の対応関係を求める場
合、テンプレートマッチング法等では、画素の輝度レベ
ルでの対応関係が用いられる。撮影時の被写体表面での
光の反射は、被写体に光を照射する光源2と視点位置O
L、ORとの位置関係が図9に示す関係にある場合は、
次式のモデルで表すことができる。
When a correspondence between a plurality of image data is obtained, a correspondence at a luminance level of a pixel is used in a template matching method or the like. The reflection of light on the surface of the subject during photographing is performed by the light source 2 that irradiates the subject with light and the viewpoint position O.
When the positional relationship between L and OR is as shown in FIG.
It can be represented by the following equation model.

【0006】 I=I0・Ka・cosθ+I0・Kb・(cosφ)Kc+C……(1) ここで、Kaは拡散反射係数、Kbは鏡面反射係数、K
cは表面荒さによる鏡面反射の広がりを表す定数、Cは
環境光による寄与、I0は光源の輝度、Iは反射後検出
される輝度を示す。また、図9において、Nは表面法線
方向、θは光源方向と法線方向とがなす角、φは光源反
射方向と視点方向とがなす角である。
I = I0 · Ka · cos θ + I0 · Kb · (cosφ) Kc + C (1) where Ka is the diffuse reflection coefficient, Kb is the specular reflection coefficient, and K
c is a constant representing the spread of specular reflection due to surface roughness, C is contribution by environmental light, I0 is the luminance of the light source, and I is the luminance detected after reflection. In FIG. 9, N is the surface normal direction, θ is the angle between the light source direction and the normal direction, and φ is the angle between the light source reflection direction and the viewpoint direction.

【0007】上式より、拡散光は光源方向と被写体表面
とがなす角θによって決定され、視点と反射方向とがな
す角φにはよらない。従って、被写体表面が一様な拡散
反射面(Kb≒0)である場合、同一の光源に対して任
意の面の輝度レベルは視点位置に拘わらずほぼ等しいと
考えることができ、複数の画像データ間の対応関係を正
しく求めることができる。
From the above equation, the diffused light is determined by the angle θ between the light source direction and the subject surface, and does not depend on the angle φ between the viewpoint and the reflection direction. Therefore, when the surface of the subject is a uniform diffuse reflection surface (Kb ≒ 0), it can be considered that the luminance level of an arbitrary surface with respect to the same light source is substantially equal regardless of the viewpoint position. It is possible to correctly determine the correspondence between the two.

【0008】[0008]

【発明が解決しようとする課題】しかしながら、被写体
表面が拡散反射面以外の面を有するとき、つまり同じ面
の輝度が視点に対して大きく変化する場合は、画像デー
タの輝度レベルをそのまま用いる手法を用いて正しい対
応関係を求めることができなかった。すなわち、これま
での対応点抽出により被写体形状を求める手法において
は、その精度が被写体の面特性によって左右され、判定
可能な被写体が限定されていた。
However, when the object surface has a surface other than the diffuse reflection surface, that is, when the luminance of the same surface greatly changes with respect to the viewpoint, a method of using the luminance level of the image data as it is. Could not find the correct correspondence. That is, in the conventional method of obtaining the shape of the subject by extracting the corresponding points, the accuracy of the method depends on the surface characteristics of the subject, and the subjects that can be determined are limited.

【0009】また、被写体の立体形状情報を使用する場
合、実際にはその被写体のテクスチャ情報が必要な場合
があり、その表面の色、反射率等が不明なままではデー
タとして不十分であった。
When the three-dimensional shape information of a subject is used, texture information of the subject may be actually required, and if the surface color, reflectance, etc. are unknown, the data is insufficient. .

【0010】本発明はこのような状況に鑑みてなされた
ものであり、複数の画像データから被写体の立体形状情
報及び被写体のテクスチャ情報を含む立体情報を検出す
ることができる立体情報検出方法及びその装置を提供す
ることを目的とする。
The present invention has been made in view of such a situation, and a three-dimensional information detecting method and a three-dimensional information detecting method capable of detecting three-dimensional information including three-dimensional shape information of a subject and texture information of the subject from a plurality of image data. It is intended to provide a device.

【0011】[0011]

【課題を解決するための手段】上記目的を達成するため
に、請求項1の立体情報検出方法は、光源により照明さ
れた被写体を複数の視点位置から撮影装置により撮影す
ることにより得られる画像データから前記被写体の立体
情報を検出する立体情報検出方法であって、前記得られ
た画像データを複数の小領域に分割し、前記複数の視点
位置毎に、前記光源に関する光源情報と前記複数の視点
位置それぞれにおける前記撮影装置の撮影姿勢情報とを
用いて、前記複数の小領域それぞれの立体情報を検出
し、前記複数の視点位置毎に検出された前記複数の小領
域それぞれの立体情報を任意の座標系上で統合すること
により前記被写体の立体情報を検出する事を特徴とす
る。
According to a first aspect of the present invention, there is provided a method for detecting three-dimensional information, comprising: obtaining image data obtained by photographing a subject illuminated by a light source from a plurality of viewpoint positions by a photographing device; A stereoscopic information detection method for detecting stereoscopic information of the subject from the image data, wherein the obtained image data is divided into a plurality of small areas, and light source information regarding the light source and the plurality of viewpoints are provided for each of the plurality of viewpoint positions. Using the photographing posture information of the photographing device at each position, the stereoscopic information of each of the plurality of small regions is detected, and the stereoscopic information of each of the plurality of small regions detected for each of the plurality of viewpoint positions is arbitrarily determined. The three-dimensional information of the subject is detected by integrating the coordinates on a coordinate system.

【0012】請求項2の立体情報検出方法は、上記請求
項1に記載の立体情報検出方法において、前記立体情報
は前記被写体の立体形状情報と前記被写体の表面のテク
スチャ情報とからなり、前記立体情報検出方法は、前記
複数の視点位置における前記撮影装置の撮影姿勢情報と
前記得られた画像データに基づいて被写体の立体形状情
報を求め、前記被写体の立体形状情報及び前記光源に関
する光源情報とに基づいて、前記被写体の表面のテクス
チャ情報を求め、前記求められた立体形状情報及び前記
求められたテクスチャ情報を任意の座標系において立体
情報として統合することを特徴とする。
According to a second aspect of the present invention, in the three-dimensional information detection method according to the first aspect, the three-dimensional information comprises three-dimensional shape information of the subject and texture information of a surface of the subject. The information detection method obtains three-dimensional shape information of the subject based on the shooting attitude information of the shooting device at the plurality of viewpoint positions and the obtained image data, and obtains the three-dimensional shape information of the subject and light source information regarding the light source. Texture information of the surface of the subject is obtained based on the obtained information, and the obtained three-dimensional shape information and the obtained texture information are integrated as three-dimensional information in an arbitrary coordinate system.

【0013】請求項3の立体情報検出方法は、上記請求
項1又は2に記載の立体情報検出方法において、前記得
られた画像データに基づいて、前記各視点位置における
前記撮影装置の撮影姿勢情報を検出するステップを含む
ことを特徴とする。
According to a third aspect of the present invention, in the three-dimensional information detecting method according to the first or second aspect, based on the obtained image data, the photographing posture information of the photographing device at each viewpoint position is obtained. Is detected.

【0014】請求項4の立体情報検出方法は、上記請求
項3に記載の立体情報検出方法において、前記各視点位
置における前記撮影装置の撮影姿勢情報を検出するステ
ップは、表面に既知のパターンが描かれた試料を前記被
写体と共に撮影するステップを含むことを特徴とする。
According to a third aspect of the present invention, in the three-dimensional information detecting method according to the third aspect, the step of detecting the photographing posture information of the photographing apparatus at each of the viewpoint positions includes the step of: The method further includes a step of photographing the drawn sample together with the subject.

【0015】請求項5の立体情報検出方法は、上記請求
項1〜4のいずれか1項に記載の立体情報検出方法にお
いて、前記得られた画像データに基づいて前記光源の光
源情報を検出するステップを含むことを特徴とする。
According to a fifth aspect of the present invention, in the three-dimensional information detecting method according to any one of the first to fourth aspects, the light source information of the light source is detected based on the obtained image data. It is characterized by including a step.

【0016】請求項6の立体情報検出方法は、上記請求
項5に記載の立体情報検出方法において、前記光源の光
源情報を検出するステップにおいて、前記光源情報は、
光学的特性が既知である複数の領域を有する試料を被写
体と共に撮影することにより得られる画像データに基づ
いて検出されることを特徴とする。
According to a third aspect of the present invention, in the three-dimensional information detecting method according to the fifth aspect, in the step of detecting the light source information of the light source, the light source information includes:
It is characterized by being detected based on image data obtained by photographing a sample having a plurality of regions with known optical characteristics together with a subject.

【0017】請求項7の立体情報検出方法は、上記請求
項2に記載の立体情報検出方法において、前記テクスチ
ャ情報は前記被写体の表面の反射率を含み、前記立体情
報検出方法は、前記反射率を用いて前記求められた前記
被写体の立体形状情報を修正するステップを含むことを
特徴とする。
According to a third aspect of the present invention, in the three-dimensional information detecting method according to the second aspect, the texture information includes a reflectivity of a surface of the subject, and the three-dimensional information detecting method includes the reflectivity. Correcting the obtained three-dimensional shape information of the subject using

【0018】請求項8の立体情報検出方法は、上記請求
項7に記載の立体情報検出方法において、前記修正され
た立体形状情報を用いて、前記反射率を修正するステッ
プを含むことを特徴とする。
According to a third aspect of the present invention, there is provided a three-dimensional information detecting method according to the seventh aspect, further comprising the step of correcting the reflectance using the corrected three-dimensional shape information. I do.

【0019】請求項9の立体情報検出装置は、光源によ
り照明された被写体を複数の視点位置に設けられた撮影
装置により撮影することにより得られた画像データが入
力される入力手段と、前記入力された画像データを複数
の小領域に分割し、前記複数の視点位置毎に、前記光源
に関する光源情報と前記複数の撮影装置の撮影姿勢情報
とを用いて、前記複数の小領域それぞれの立体情報を検
出し、前記複数の視点位置毎に検出された前記複数の小
領域それぞれの立体情報を任意の座標系上で統合するこ
とにより前記被写体の立体情報を検出する立体情報検出
手段とを備えることを特徴とする。
According to a ninth aspect of the present invention, there is provided a three-dimensional information detecting device, comprising: input means for inputting image data obtained by photographing a subject illuminated by a light source by photographing devices provided at a plurality of viewpoint positions; The divided image data is divided into a plurality of small areas, and for each of the plurality of viewpoint positions, stereoscopic information of each of the plurality of small areas is obtained by using light source information regarding the light source and shooting attitude information of the plurality of shooting devices. And stereoscopic information detecting means for detecting stereoscopic information of the subject by integrating stereoscopic information of each of the plurality of small areas detected for each of the plurality of viewpoint positions on an arbitrary coordinate system. It is characterized by.

【0020】請求項10の立体情報検出装置は、上記請
求項9に記載の立体情報検出装置において、前記立体情
報は前記被写体の立体形状情報と前記被写体の表面のテ
クスチャ情報とを含み、前記立体情報検出手段は、前記
複数の視点位置における前記撮影装置の撮影姿勢情報と
前記入力された画像データに基づいて被写体の立体形状
情報を求め、前記被写体の立体形状情報及び前記光源に
関する光源情報とに基づいて前記被写体の表面のテクス
チャ情報を求め、前記求められた立体形状情報及び前記
求められたテクスチャ情報を任意の座標系において立体
情報として統合することにより前記立体情報を検出する
ように構成されることを特徴とする。
According to a tenth aspect of the present invention, in the three-dimensional information detecting apparatus according to the ninth aspect, the three-dimensional information includes three-dimensional shape information of the subject and texture information of a surface of the subject. The information detecting means obtains three-dimensional shape information of the subject based on the shooting attitude information of the shooting device at the plurality of viewpoint positions and the input image data, and obtains the three-dimensional shape information of the subject and light source information regarding the light source. Texture information on the surface of the object based on the obtained three-dimensional shape information and the obtained texture information are integrated as three-dimensional information in an arbitrary coordinate system to detect the three-dimensional information. It is characterized by the following.

【0021】請求項11の立体情報検出装置は、上記請
求項9又は10に記載の立体情報検出装置において、前
記撮影装置により得られた画像データに基づいて前記各
視点位置における前記撮影装置の撮影姿勢情報を検出す
る撮影姿勢情報検出手段を備えることを特徴とする。
According to an eleventh aspect of the present invention, there is provided the three-dimensional information detecting apparatus according to the ninth or tenth aspect, wherein the three-dimensional information detecting apparatus captures the image at each of the viewpoint positions based on the image data obtained by the capturing apparatus. It is characterized by comprising photographing posture information detecting means for detecting posture information.

【0022】請求項12の立体情報検出装置は、上記請
求項11に記載の立体情報検出装置において、前記撮影
姿勢情報検出手段は、前記各視点位置における前記撮影
装置の撮影姿勢情報を、表面に既知のパターンが描かれ
た試料を前記被写体と共に撮影することにより検出する
ように構成されることを特徴とする。
According to a twelfth aspect of the present invention, in the three-dimensional information detecting apparatus according to the eleventh aspect, the photographing posture information detecting means stores photographing posture information of the photographing device at each viewpoint position on a surface. The apparatus is characterized in that it is configured to detect a specimen on which a known pattern is drawn by photographing the specimen together with the subject.

【0023】請求項13の立体情報検出装置は、上記請
求項9〜12のいずれか1項に記載の立体情報検出装置
において、前記撮影装置により得られた画像データに基
づいて前記光源の光源情報を検出する光源情報検出手段
を備えることを特徴とする。
According to a thirteenth aspect of the present invention, in the three-dimensional information detecting device according to any one of the ninth to twelfth aspects, the light source information of the light source is based on image data obtained by the photographing device. Is provided with light source information detecting means for detecting

【0024】請求項14の立体情報検出装置は、上記請
求項13に記載の立体情報検出装置において、前記光源
情報検出手段は、前記光源情報を、光学的特性が既知で
ある複数の領域を有する試料を被写体と共に撮影するこ
とにより得られる画像データに基づいて検出するように
構成されることを特徴とする。
According to a fourteenth aspect of the present invention, in the three-dimensional information detecting apparatus according to the thirteenth aspect, the light source information detecting means has a plurality of regions whose optical characteristics are known. It is characterized in that detection is performed based on image data obtained by photographing a sample together with a subject.

【0025】請求項15の立体情報検出装置は、上記請
求項10に記載の立体情報検出装置において、前記テク
スチャ情報は前記被写体の表面の反射率を含み、前記立
体状情報検出装置は、前記反射率を用いて前記求められ
た前記被写体の立体形状情報を修正する立体形状情報修
正手段を備えることを特徴とする。
According to a three-dimensional information detecting device of the fifteenth aspect, in the three-dimensional information detecting device according to the tenth aspect, the texture information includes a reflectance of a surface of the subject, and the three-dimensional information detecting device includes: A stereoscopic shape information correcting unit configured to correct the obtained stereoscopic shape information of the subject using a ratio.

【0026】請求項16の立体情報検出装置は、上記請
求項15に記載の立体情報検出装置において、前記修正
された立体形状情報を用いて、前記反射率を修正する反
射率修正手段を備えることを特徴とする。
According to a sixteenth aspect of the present invention, in the three-dimensional information detection apparatus according to the fifteenth aspect, the three-dimensional information detection apparatus further includes a reflectance correction unit that corrects the reflectance using the corrected three-dimensional shape information. It is characterized by.

【0027】[0027]

【発明の実施の形態】以下、本発明の実施の形態を、図
面を参照して説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0028】(第1の実施の形態)まず最初に、本発明
の第1の実施の形態について、図1〜図3を参照して説
明する。
(First Embodiment) First, a first embodiment of the present invention will be described with reference to FIGS.

【0029】図1は、本実施の形態にかかる立体情報検
出方法を採用する撮影システムの概略構成を示すブロッ
ク図である。
FIG. 1 is a block diagram showing a schematic configuration of a photographing system employing the stereoscopic information detecting method according to the present embodiment.

【0030】同図において、三角錘形状を有する被写体
1は、十分離れた光源2によって一様に照明された状態
にあり、複数の視点位置におかれたカメラ3a、3b、
3cによって撮影されている。カメラ3a、3b、3c
の複数視点位置からの映像信号は立体情報検出装置4へ
入力されて処理される。
In FIG. 1, a subject 1 having a triangular pyramid shape is in a state of being uniformly illuminated by a light source 2 which is sufficiently far away, and cameras 3a, 3b,
3c. Cameras 3a, 3b, 3c
Are input to the stereoscopic information detecting device 4 and processed.

【0031】立体情報検出装置4は、カメラ3a、3
b、3cから入力された映像信号を任意の画像フォーマ
ットへ変換する映像信号部5と、複数の画像データから
被写体の立体情報を検出する立体情報検出部8と、装置
内の各部を制御するためのCPU9と、画像データを記
憶するメモリ6と、検出された立体情報等の情報を記録
するための記録部7とから構成されている。
The three-dimensional information detecting device 4 includes cameras 3a, 3
b, a video signal unit 5 for converting a video signal input from 3c into an arbitrary image format, a stereoscopic information detecting unit 8 for detecting stereoscopic information of a subject from a plurality of image data, and control of each unit in the apparatus. CPU 9, a memory 6 for storing image data, and a recording unit 7 for recording information such as detected stereoscopic information.

【0032】カメラ3a、3b、3cから入力された映
像信号は、映像信号部5において立体情報検出部8が扱
いやすい画像フォーマット、例えば10bitグレイス
ケールのビットマップデータへ変換される。この変換
は、カメラ3a、3b、3cからのRGB信号を1:
2:1の割合で加算することにより行われ、その結果は
CPU9により各視点毎に1枚分の画像データとしてメ
モリ6へ書き込まれる。また、CPU9により、予め記
録部7内に記録されていた被写体位置情報、カメラ3
a、3b、3cそれぞれの視点位置情報、焦点距離や画
角等の情報を含むカメラパラメータ、及び、光源2の位
置や特性に関する情報が、画像データと共にメモリ6へ
書き込まれる。メモリ6に書き込まれた画像データ及び
各情報は、後述する処理に用いられる。
The video signals input from the cameras 3a, 3b and 3c are converted into an image format which can be easily handled by the three-dimensional information detector 8 in the video signal unit 5, for example, 10-bit gray scale bitmap data. This conversion converts the RGB signals from the cameras 3a, 3b, 3c into 1:
The addition is performed at a ratio of 2: 1, and the result is written into the memory 6 as one image data for each viewpoint by the CPU 9. In addition, the CPU 9 stores the subject position information and the camera 3 previously recorded in the recording unit 7.
Camera parameters including information on the viewpoint positions a, 3b, and 3c, information on the focal length, the angle of view, and the like, and information on the position and characteristics of the light source 2 are written into the memory 6 together with the image data. The image data and information written in the memory 6 are used for processing described later.

【0033】立体情報検出部8では、被写体1の立体形
状情報及び被写体表面の特性(テクスチャ情報)からな
る立体情報を検出するための処理が行われる。
The three-dimensional information detector 8 performs a process for detecting three-dimensional information comprising the three-dimensional shape information of the subject 1 and the characteristics (texture information) of the subject surface.

【0034】図2は、立体情報検出部8において行われ
る、被写体1の立体形状情報及び被写体表面の特性等の
テクスチャ情報を含む立体情報を検出する立体情報検出
処理手順を示すフローチャートである。なお、本フロー
チャートを実行するためのプログラムは図示しないメモ
リに記憶され、CPU9により実行される。
FIG. 2 is a flowchart showing the procedure of the three-dimensional information detecting process performed by the three-dimensional information detector 8 for detecting three-dimensional information including the three-dimensional shape information of the subject 1 and texture information such as the characteristics of the subject surface. Note that a program for executing this flowchart is stored in a memory (not shown) and executed by the CPU 9.

【0035】まず、ステップS1において、全ての画像
データに対して処理が終了したか否かが判別される。最
初はこの答が否定(NO)であるので、ステップS2に
進み、任意の二つの視点OL(XL,YL,ZL)、O
R(XR,YR,ZR)が選択され、一方の視点位置か
ら撮影された画像データと、他方の視点位置から撮影さ
れた画像データとの対応点を抽出する対応点抽出処理が
行われる。
First, in step S1, it is determined whether or not processing has been completed for all image data. At first, since this answer is negative (NO), the process proceeds to step S2, and arbitrary two viewpoints OL (XL, YL, ZL), O
R (XR, YR, ZR) is selected, and corresponding point extraction processing is performed to extract corresponding points between image data captured from one viewpoint position and image data captured from the other viewpoint position.

【0036】ある程度の被写体の大きさを想定した場
合、ステップS2において選択された二つの視点位置は
既知であるので、2枚の画像データ中の被写体領域の重
複部分が、カメラパラメータ及び被写体・視点位置情報
に基づいて幾何学的に算出可能である。処理の負担を軽
減するため、対応点抽出処理は、この重複領域に対して
のみ行われる。本実施の形態では、対応点抽出処理方法
としてテンプレートマッチング法が用いられるものとす
る。
Assuming a certain size of the subject, the two viewpoint positions selected in step S2 are known, so that the overlapping portion of the subject region in the two pieces of image data is determined by the camera parameters and the subject / viewpoint. It can be calculated geometrically based on the position information. In order to reduce the processing load, the corresponding point extraction processing is performed only on this overlapping area. In the present embodiment, a template matching method is used as a corresponding point extraction processing method.

【0037】図3は、テンプレートマッチング法を説明
するための説明図であり、(A)は左側の視点位置から
撮影された被写体1の画像データであり、(B)は右側
の視点位置から撮影された被写体1の画像データであ
る。同図に示すように、テンプレートマッチング法は、
一方の画像データ中に目的とする画像が含まれる任意の
大きさの領域(テンプレート)を設定し、このテンプレ
ートに含まれる画像(以下、テンプレート画像という)
11が他方の画像データ中のどこに位置するかをサーチ
し、最も一致度の高い領域を対応点とする方法である。
FIGS. 3A and 3B are explanatory diagrams for explaining the template matching method. FIG. 3A shows image data of the subject 1 photographed from the left viewpoint position, and FIG. 3B shows the photograph data from the right viewpoint position. This is the image data of the subject 1 that has been performed. As shown in the figure, the template matching method
An area (template) of an arbitrary size including a target image in one image data is set, and an image included in this template (hereinafter, referred to as a template image)
This is a method of searching for the position of the image data 11 in the other image data, and using the area having the highest matching degree as the corresponding point.

【0038】対応点抽出処理に用いられる画像データ
は、撮影時の輝度データがそのまま用いられる場合や、
エッジ検出のためのフィルタ処理等が施された画像デー
タが用いられる場合があるが、いずれの場合も輝度の分
布を利用しているため、被写体1の表面状態により上記
(1)式における鏡面反射の影響を受け、それが大きな
誤差の原因となる。被写体1の表面状態を考慮した処理
を行うことは困難であるので、ステップS2における対
応点抽出処理においては、被写体表面は一様な拡散反射
を行うものとし、鏡面反射成分による誤差を含んだ対応
点が求められる。
As the image data used for the corresponding point extraction processing, the case where the luminance data at the time of photographing is used as it is,
Image data that has been subjected to a filtering process or the like for edge detection may be used. In any case, since the luminance distribution is used, the specular reflection in the above equation (1) depends on the surface state of the subject 1. , Which causes large errors. Since it is difficult to perform a process in consideration of the surface state of the subject 1, in the corresponding point extraction process in step S2, the subject surface is assumed to perform uniform diffuse reflection, and a response including an error due to a specular reflection component is performed. Points are required.

【0039】対応点抽出処理が終了すると、ステップS
3に進み、対応点抽出処理の結果と、各視点位置の相対
関係と、撮影時のカメラパラメータとに基づいて、三角
測量の原理を用いて被写体の立体形状情報が求められ
る。求められた立体形状情報は、後述する立体情報の統
一のため、予め定められた座標系上へ移動される。
When the corresponding point extraction processing is completed, step S
Proceeding to 3, the three-dimensional shape information of the subject is obtained by using the principle of triangulation based on the result of the corresponding point extraction processing, the relative relationship between the viewpoint positions, and the camera parameters at the time of shooting. The obtained three-dimensional shape information is moved to a predetermined coordinate system in order to unify the three-dimensional information described later.

【0040】更に、ステップS3では、求められた立体
形状情報を任意の大きさの小領域(面)に分割する処理
が行われる。上述したように、ここでは被写体の表面は
拡散反射成分のみをもつものとして対応点抽出処理が行
われている。(1)式から判るように、鏡面反射成分は
視点位置が光線の反射方向からずれるに従って急激に減
少するため、一つの視野位置から被写体を見た場合、特
定の法線方向をもった面以外は鏡面反射成分が小さく、
無視してもその誤差は小さい。従って、拡散反射のみを
考慮した場合、(1)式は以下のように近似することが
できる。
Further, in step S3, a process of dividing the obtained three-dimensional shape information into small areas (planes) of an arbitrary size is performed. As described above, here, the corresponding point extraction processing is performed assuming that the surface of the subject has only a diffuse reflection component. As can be seen from equation (1), since the specular reflection component rapidly decreases as the viewpoint position deviates from the reflection direction of the light rays, when the subject is viewed from one visual field position, the surface other than the surface having a specific normal direction is observed. Has a small specular reflection component,
Even if ignored, the error is small. Therefore, when only the diffuse reflection is considered, the equation (1) can be approximated as follows.

【0041】I=I0・Ka・cosθ+C……(2) 領域内の材質が変わらない場合、Iは面の法線方向と光
源方向とがなす角θのみに依存する。従って、輝度の変
化が一定値以内の条件で小領域分割を行うことにより、
小領域内はそこに含まれる面の法線方向がほぼ等しい一
つの面として取り扱うことができ、一つの小領域に一つ
の拡散反射率を対応させることができる。実際の分割方
法としては、先に求めてある立体形状情報を考慮した上
で、Iを1画像データ中で規格化し、その変動が所定値
以下、または面積が所定値以下になるように分割が行わ
れる。
I = I0 · Ka · cos θ + C (2) If the material in the region does not change, I depends only on the angle θ between the normal direction of the surface and the light source direction. Therefore, by performing small area division under the condition that the change in luminance is within a certain value,
The inside of a small region can be treated as one surface in which the normal directions of the planes included therein are almost equal, and one diffuse reflectance can correspond to one small region. As an actual division method, I is normalized in one image data, taking into account the previously obtained three-dimensional shape information, and division is performed so that its variation is equal to or less than a predetermined value or the area is equal to or less than a predetermined value. Done.

【0042】ステップS3の処理が終了すると、ステッ
プS4に進み、ステップS3で分割された小領域と光源
2との位置関係が求められる。上述したように光源方向
の情報は予め検出されてメモリ6に記憶されており、こ
れを上述した任意の座標系に置くことにより、光源2か
らの光線と小領域に含まれる面とにより作られる角θ及
びφを算出することができる。
When the process in step S3 is completed, the process proceeds to step S4, where the positional relationship between the small area divided in step S3 and the light source 2 is obtained. As described above, the information on the light source direction is detected in advance and stored in the memory 6, and by placing this information in the above-described arbitrary coordinate system, it is created by the light from the light source 2 and the surface included in the small area. The angles θ and φ can be calculated.

【0043】ステップS4における角θ及びφの算出
後、ステップS5では、入力された画像データ内におい
て輝度差が大きくなっている領域が検出される。この部
分は、鏡面反射成分による誤対応が生じていると考えら
れるからである。すなわち、(1)式より、鏡面反射成
分は(cosφ)Kcに依存するため、一つの視点からは
cosφが1に近くなる特定の法線方向をもった領域の
みがその周囲の領域に比較して急激に高輝度となるの
で、画像データを任意の大きさの小領域にわけた場合、
隣接する領域との輝度差が大きな領域が、表面の色、材
質の違いによる拡散反射成分の差以外の、鏡面反射成分
による影響を受けた領域である可能性が高い。ステップ
S5ではそのような領域が検出される。この領域の大き
さをステップS3で設定された小領域よりも大きくとる
ことにより、後述する対応点抽出の結果との対応を図る
ことができる。
After calculating the angles θ and φ in step S4, in step S5, a region where the luminance difference is large in the input image data is detected. This is because this portion is considered to have an erroneous response due to the specular reflection component. That is, from equation (1), since the specular reflection component depends on (cos φ) Kc , only a region having a specific normal direction where cos φ is close to 1 from one viewpoint is compared with the surrounding region. When the image data is divided into small areas of arbitrary size,
It is highly probable that the area where the luminance difference from the adjacent area is large is an area affected by the specular reflection component other than the difference in the diffuse reflection component due to the difference in surface color and material. In step S5, such an area is detected. By setting the size of this area larger than the small area set in step S3, it is possible to cope with the result of corresponding point extraction described later.

【0044】ステップS6では、ステップS3からステ
ップS5までの結果を統合することにより、鏡面反射成
分が大きくかつ立体形状情報の変化量が大きくなってい
る誤り領域が取り出され、誤り領域を示すフラグが付加
される。(1)式より、任意の領域の鏡面反射成分は視
点によって大きく異なるため、同一の小領域に対して
は、対応点抽出で用いられた二つの画像データのうちの
一方のみが高輝度となる。このような領域に対して対応
点抽出を行うと、その領域はエラーとなってインパルス
状の凹又は凸の形状が示される。従って、ステップS3
で求められた立体形状情報において、その立体形状情報
の変化量が大きな領域は、鏡面反射による誤対応が生じ
ている可能性が高い。実際に凹又は凸の形状である場合
を除くため、ステップS3〜S5の結果が統合され、周
囲と比較して輝度の変化が大きく且つ形状変化の大きな
領域が検出される。
In step S6, by integrating the results of steps S3 to S5, an error region having a large specular reflection component and a large amount of change in three-dimensional shape information is extracted, and a flag indicating the error region is set. Will be added. According to the equation (1), since the specular reflection component of an arbitrary region greatly differs depending on the viewpoint, only one of the two image data used in the corresponding point extraction has high brightness for the same small region. . When corresponding points are extracted from such an area, the area becomes an error and an impulse concave or convex shape is shown. Therefore, step S3
In the three-dimensional shape information obtained by the above, in a region where the amount of change in the three-dimensional shape information is large, there is a high possibility that an erroneous response due to specular reflection has occurred. In order to exclude the case where the shape is actually concave or convex, the results of steps S3 to S5 are integrated, and an area where the change in luminance is large and the shape change is large compared to the surroundings is detected.

【0045】また、ステップS6では、ステップS4に
おいて算出された角度φが設定された角度より小さい場
合は、その領域では鏡面反射成分が無視できないものと
して、その領域が誤り領域であるとされる。これによ
り、求められる被写体1の立体形状情報の精度を向上さ
せることができる。
In step S6, if the angle φ calculated in step S4 is smaller than the set angle, the specular reflection component cannot be ignored in the area, and the area is determined to be an error area. Thereby, the accuracy of the required three-dimensional shape information of the subject 1 can be improved.

【0046】誤り領域を示すフラグ付加の後、ステップ
S7では、ステップS6でフラグが付加された領域を除
く領域について、ステップS3で分割された任意の大き
さの小領域毎に、(2)式及びステップS4で求められ
た角度θを用いて、面の拡散反射係数Kaが求められ
る。(2)式では、観測されるIには環境光等の誤差が
含まれているが、小領域中ではCは一定値を取るものと
して取り扱うことにより、(2)式中のI0・Kaを求
めることができる。この処理は、フラグが付加されてい
ない全ての小領域に対して行われる。
After the addition of the flag indicating the error area, in step S7, for the area excluding the area to which the flag has been added in step S6, for each small area of an arbitrary size divided in step S3, equation (2) Then, the diffuse reflection coefficient Ka of the surface is obtained using the angle θ obtained in step S4. In the equation (2), the observed I includes an error such as ambient light, but in a small area, C is treated as having a constant value, so that I0 · Ka in the equation (2) is calculated. You can ask. This process is performed on all the small areas to which no flag is added.

【0047】ステップS8では、ステップS6において
フラグが付加された小領域に対する処理が行われる。す
なわち、(1)式から明らかなように、鏡面反射成分は
ある視点位置で急激に大きくなり、フラグが付加されて
いる領域の周囲には、鏡面反射成分の影響が小さい領域
であってステップS7において法線方向及び拡散反射係
数が既知となった領域が存在する。そこで、この周囲の
領域の結果を用いて、誤り領域の形状を補間することに
より、その小領域の拡散反射係数が求められる。ここで
は、正規化された輝度I及び光源2の輝度I0及び拡散
反射係数Kaが既知となっている。これに加えて、補間
により求められた面の法線方向を用いて角度θ及びφを
用いることにより、鏡面反射係数Kb及び定数Kcが求
められる。一つの小領域内では環境光の影響は等しいも
のとし、且つ領域内に対応した画素間では角度φのみが
異なっているとすると、各画素間で(1)式の差分を取
った式に対して最小二乗法等の手法を用いることにより
当該小領域内の鏡面反射Kb及び定数Kcを求めること
ができる。このような鏡面反射成分の大きな領域に対す
る処理によって、法線方向及びKb、Kcが決定され
る。
In step S8, processing is performed on the small area to which the flag has been added in step S6. That is, as is apparent from the equation (1), the specular reflection component rapidly increases at a certain viewpoint position, and the area where the flag is added is an area where the influence of the specular reflection component is small and the step S7 There is a region in which the normal direction and the diffuse reflection coefficient are known. Therefore, the diffuse reflection coefficient of the small area is obtained by interpolating the shape of the error area using the result of the surrounding area. Here, the normalized luminance I, the luminance I0 of the light source 2 and the diffuse reflection coefficient Ka are known. In addition to this, the specular reflection coefficient Kb and the constant Kc are obtained by using the angles θ and φ using the normal direction of the surface obtained by interpolation. Assuming that the influence of ambient light is the same in one small area, and that only the angle φ is different between the pixels corresponding to the area, if the difference of equation (1) is obtained for each pixel, By using a method such as the least square method, the specular reflection Kb and the constant Kc in the small area can be obtained. The normal direction and Kb and Kc are determined by the processing for such a region having a large specular reflection component.

【0048】ステップS9では、上述した処理により求
められた係数及び法線方向を用いて、対応点抽出により
求められた立体形状情報の補正が行われる。上記ステッ
プS3で対応点抽出により求められていた立体形状情報
は、被写体の表面が拡散反射のみを行うと仮定されてい
た。鏡面反射成分を考慮して求められた情報は、(1)
式におけるKa、Kb、Kcの他、小領域に含まれる面
の法線方向が修正されている。この修正された法線方向
が被写体1の距離情報と矛盾なく一致するように、被写
体1の距離情報が修正される。また、各面での反射係数
を距離情報と共に扱うことができるように、被写体の距
離情報を示す点に、任意の座標上での当該小領域の位置
情報と反射係数とが追加される。
In step S9, the three-dimensional shape information obtained by extracting the corresponding points is corrected using the coefficients and the normal direction obtained by the above-described processing. The three-dimensional shape information obtained by the corresponding point extraction in step S3 assumes that the surface of the subject performs only diffuse reflection. The information obtained in consideration of the specular reflection component is (1)
In addition to Ka, Kb, and Kc in the equation, the normal direction of the plane included in the small area is corrected. The distance information of the subject 1 is corrected such that the corrected normal direction matches the distance information of the subject 1 without inconsistency. In addition, the position information and the reflection coefficient of the small area on arbitrary coordinates are added to the point indicating the distance information of the subject so that the reflection coefficient on each surface can be handled together with the distance information.

【0049】ステップS2からステップS9までの処理
は異なる二つの視点から取り込まれた画像データに対し
て行われ、この処理により一つの被写体情報(立体情
報)が得られる。
The processes from step S2 to step S9 are performed on image data taken from two different viewpoints, and one subject information (three-dimensional information) is obtained by this process.

【0050】ステップS10では、これまでに処理され
た任意の組合せの画像データから得られた被写体情報
と、今回得られた被写体情報との融合が行われる。すな
わち、異なる組合せ及び画像データから得られる同一領
域の被写体情報は、撮影時の差、外乱又は処理上の誤差
により完全には一致しないので、この重複領域が示す差
を用いて被写体情報全体の修正が行われ、任意の座標系
で一つの被写体情報が作成される。
In step S10, the subject information obtained from the image data of an arbitrary combination processed so far is merged with the subject information obtained this time. That is, the subject information of the same region obtained from different combinations and image data does not completely match due to a difference at the time of shooting, a disturbance, or an error in processing. Therefore, the entire subject information is corrected using the difference indicated by the overlapping region. Is performed, and one piece of subject information is created in an arbitrary coordinate system.

【0051】上述した画像処理が全ての画像データに対
して終了すると、ステップS1の答は肯定(YES)と
なり、これまでの処理によって構築された被写体1の立
体形状情報と反射率等のテクスチャ情報とを統合した被
写体情報(立体情報)が、任意の形式で記録部7へ記録
されて、本処理手順が終了する。
When the above-described image processing has been completed for all the image data, the answer to step S1 is affirmative (YES), and the three-dimensional shape information of the subject 1 and the texture information such as the reflectance, etc., constructed by the processing so far. Are integrated in the recording unit 7 in an arbitrary format, and the processing procedure ends.

【0052】以上説明したように、本実施の形態によれ
ば、複数の視点位置から撮影された画像データに基づい
て、任意の座標系上での、立体形状情報及び反射率等の
テクスチャ情報からなる立体情報を精度よく得ることが
できる。
As described above, according to the present embodiment, based on image data captured from a plurality of viewpoint positions, three-dimensional shape information and texture information such as reflectance on an arbitrary coordinate system can be obtained. 3D information can be obtained with high accuracy.

【0053】また、立体形状情報を反射率で修正するよ
うにしたので、被写体1の立体形状情報と反射率との間
に生じる誤差が少なくなり、更に精度よく立体情報を得
ることができる。
Further, since the three-dimensional shape information is corrected by the reflectance, an error generated between the three-dimensional shape information of the subject 1 and the reflectance is reduced, and the three-dimensional information can be obtained more accurately.

【0054】なお、本実施の形態では、入力された画像
データをグレイスケールに変換したものを用いていた
が、立体情報が求められた後、立体形状情報と画像デー
タ中の画素との対応から、被写体表面の色情報を付加す
ることも可能である。この場合、最終的な立体情報は、
一つの点に対して任意の座標系での位置情報と、その点
での色、模様、反射率からなるテクスチャ情報から構成
されることになる。すなわち、各視点からの複数領域の
立体形状情報と色・反射率等のテクスチャ情報と任意の
座標系上で統合することにより、種々の形式の立体情報
を、統一した形式で効率よく作成できるとともに、その
立体情報を容易に取り扱うことが可能となる。
In this embodiment, the input image data is converted to gray scale. However, after the three-dimensional information is obtained, the correspondence between the three-dimensional shape information and the pixels in the image data is determined. It is also possible to add color information of the subject surface. In this case, the final three-dimensional information is
One point is composed of position information in an arbitrary coordinate system and texture information including the color, pattern, and reflectance at that point. That is, by integrating the three-dimensional shape information of a plurality of regions from each viewpoint and texture information such as color and reflectivity on an arbitrary coordinate system, three-dimensional information in various formats can be efficiently created in a unified format, and , The three-dimensional information can be easily handled.

【0055】(第2の実施の形態)次に、本発明の第2
の実施の形態について、図4〜図6を参照して説明す
る。本実施の形態では、光源2の位置情報等を含む光源
情報が未知の場合の立体情報検出処理について説明す
る。
(Second Embodiment) Next, a second embodiment of the present invention will be described.
The embodiment will be described with reference to FIGS. In the present embodiment, a description will be given of three-dimensional information detection processing when light source information including position information of the light source 2 and the like is unknown.

【0056】図4は、本実施の形態に係る立体情報検出
方法を採用する撮影システムの概略構成を示すブロック
図である。同図において、上述した第1の実施の形態の
図1に示した構成と同一の構成要素には同一符号を付し
てある。
FIG. 4 is a block diagram showing a schematic configuration of a photographing system employing the stereoscopic information detecting method according to the present embodiment. In the figure, the same components as those of the above-described first embodiment shown in FIG. 1 are denoted by the same reference numerals.

【0057】被写体1の近くには、その形状が既知のパ
ッド12が配置されており、複数のカメラ3a、3b、
3cと、パッド12と被写体1との位置関係は既知とな
っている。また、撮影時のカメラパラメータも既知とな
っている。
A pad 12 having a known shape is arranged near the subject 1, and a plurality of cameras 3a, 3b,
The positional relationship between 3c, the pad 12, and the subject 1 is known. Also, camera parameters at the time of shooting are known.

【0058】パッド12上には、複数の場所に任意のパ
ターンが描かれており、このパターンは拡散反射成分の
みを有する領域と、拡散反射成分及び鏡面反射成分を有
する領域とに分かれている。各領域の拡散反射係数、鏡
面反射係数は、パッド12上での位置によりそれぞれ異
なっており、それらのパターン位置と拡散反射係数、鏡
面反射係数との関係は既知となっている。光源2は被写
体1から十分離れた位置に配置され、被写体1を一様な
光で照明している。このような状況の下で、予め設定さ
れた複数の視点から撮影された画像データから、被写体
1の立体情報の検出が行われる。
An arbitrary pattern is drawn on the pad 12 at a plurality of places, and this pattern is divided into a region having only a diffuse reflection component and a region having a diffuse reflection component and a specular reflection component. The diffuse reflection coefficient and the specular reflection coefficient of each region differ depending on the position on the pad 12, and the relationship between the pattern position and the diffuse reflection coefficient and the specular reflection coefficient is known. The light source 2 is arranged at a position sufficiently distant from the subject 1, and illuminates the subject 1 with uniform light. Under such circumstances, three-dimensional information of the subject 1 is detected from image data taken from a plurality of preset viewpoints.

【0059】図5は、本実施の形態における立体情報検
出手順を示すフローチャートである。
FIG. 5 is a flowchart showing a procedure for detecting stereoscopic information in the present embodiment.

【0060】まず、ステップS21において、全ての画
像データに対して処理が終了したか否かが判別される。
最初はこの答が否定(NO)であるので、ステップS2
2に進み、被写体1と共に撮影されたパッド12の、画
像データ中に占める領域を検出するパッド領域検出処理
が行われる。撮影された画像データには被写体1以外に
パッド12が含まれているが、被写体1の立体情報検出
処理ではパッド12部分の画像データは必要なく、後述
する光源情報検出処理以外の処理にはパッド12部分の
画像データが除かれた画像データを用いるためである。
被写体位置情報、パッド12の位置情報、及び各画像デ
ータの視点位置は既知であるので、これらのパラメータ
を用いて画像データ中のパッド位置を算出することは可
能であるが、パッド12上の既知となっているパターン
を用いて画像データ中からパッド領域を認識することが
できる。具体的には、パッド12と視点位置との相対位
置関係は既知であるので、パッド12の表面のパターン
に対して図に示すような視点方向からの見え方による変
更を加えた既知パターンをテンプレート画像としてマッ
チング処理を行うことにより、パッド12部分の領域が
認識される。
First, in step S21, it is determined whether or not processing has been completed for all image data.
At first, since this answer is negative (NO), step S2
Proceeding to 2, pad area detection processing for detecting the area occupied in the image data of the pad 12 photographed together with the subject 1 is performed. Although the photographed image data includes the pad 12 in addition to the subject 1, the stereoscopic information detection process of the subject 1 does not require the image data of the pad 12, and the pad 12 is used for processes other than the light source information detection process described later. This is because the image data from which the 12 parts of the image data have been removed is used.
Since the subject position information, the position information of the pad 12 and the viewpoint position of each image data are known, it is possible to calculate the pad position in the image data using these parameters. The pad area can be recognized from the image data by using the pattern of. Specifically, since the relative positional relationship between the pad 12 and the viewpoint position is known, a known pattern obtained by modifying the pattern on the surface of the pad 12 according to the appearance from the viewpoint direction as shown in FIG. By performing the matching process as an image, the area of the pad 12 is recognized.

【0061】画像データ中のパッド領域検出処理が終了
すると、ステップS23において、パッド12上の既知
パターンをテンプレートとしてマッチング処理を行うこ
とにより、ステップS22で認識されたパッド領域中か
ら拡散反射成分のみの領域と鏡面反射成分を含む領域と
が認識される。そして、ステップS24において、光源
特性が算出される。具体的には、まず、拡散反射成分の
みの複数領域が取り出され、各領域内での反射光の相対
的な輝度差が求められる。そして、光源2及び環境光は
パッド12上で一様であるとして、上述した(2)式を
用いて算出される各領域の値の差分が求められ、これら
の最小二乗法の手法によりパッド12の法線方向と光源
方向とがなす角cosθ及び光源2の輝度I0が算出さ
れる。
When the pad area detection process in the image data is completed, in step S23, a matching process is performed using the known pattern on the pad 12 as a template, so that only the diffuse reflection component is detected from the pad region recognized in step S22. The region and the region containing the specular reflection component are recognized. Then, in step S24, the light source characteristics are calculated. Specifically, first, a plurality of regions including only diffuse reflection components are extracted, and a relative luminance difference of reflected light in each region is obtained. Then, assuming that the light source 2 and the ambient light are uniform on the pad 12, a difference between the values of the respective regions calculated using the above-described equation (2) is obtained. The angle cos θ between the normal direction of the light source and the light source direction and the luminance I0 of the light source 2 are calculated.

【0062】更に、光源方向の特定のために、角φの決
定にはパッド12上の鏡面反射成分を有する領域からの
情報が用いられる。これは、cosθを算出したときと
同様に、複数領域の相対的な輝度差から求めることがで
きる。しかし、一つの視点位置から得られる画像データ
のみを用いて光源方向を求める場合には、鏡面反射成分
の影響が少ない場合、例えば光源方向と任意の視点位置
が図6のようにパッド12から見て同じ方向にある場合
では、光源方向を特定することが困難となる。従って、
ステップS24における、パッド12を用いた光源方向
の特定においては、複数の視点位置から求められた結果
を比較し、最も鏡面反射成分が大きくなる視点位置にお
けるデータが採用される。
Further, in order to determine the direction of the light source, information from an area having a specular reflection component on the pad 12 is used to determine the angle φ. This can be obtained from the relative luminance difference between a plurality of regions, as in the case where cos θ is calculated. However, when determining the light source direction using only image data obtained from one viewpoint position, when the influence of the specular reflection component is small, for example, the light source direction and an arbitrary viewpoint position are viewed from the pad 12 as shown in FIG. If they are in the same direction, it is difficult to specify the light source direction. Therefore,
In specifying the light source direction using the pad 12 in step S24, results obtained from a plurality of viewpoint positions are compared, and data at the viewpoint position where the specular reflection component is the largest is adopted.

【0063】このようにして求められた光源2の特性と
して光源方向及び光源2の輝度の算出が終了すると、ス
テップS25に進む。以下、ステップS25からステッ
プS34の処理手順は、上述した第1の実施の形態の図
2に示したステップS2からステップS11の処理手順
と同様である。
When the calculation of the light source direction and the brightness of the light source 2 as the characteristics of the light source 2 thus obtained is completed, the process proceeds to step S25. Hereinafter, the processing procedure from step S25 to step S34 is the same as the processing procedure from step S2 to step S11 shown in FIG. 2 of the first embodiment described above.

【0064】以上説明したように、本実施の形態によれ
ば、既知のパターンが描かれており、予め光学的な特性
が判っているパッド12を用いることにより、光源2の
特性が既知でない場合であっても、被写体1の立体形状
情報及び被写体1の表面のテクスチャ情報からなる立体
情報を得ることができる。
As described above, according to the present embodiment, a known pattern is drawn, and the characteristics of the light source 2 are not known by using the pad 12 whose optical characteristics are known in advance. However, three-dimensional information including the three-dimensional shape information of the subject 1 and the texture information of the surface of the subject 1 can be obtained.

【0065】なお、光源2の位置が被写体1に近く、被
写体に一様な光線が当たっていない場合は以下のように
対応することができる。すなわち、(2)式より、光源
2が近い場合は、パッド12上の拡散反射成分を有する
複数の領域では、パッド12への入射角θが異なるため
反射光の輝度が異なる。従って、異なる領域では異なる
光源方向θが算出される。従って、光源2からの複数の
光線がパッド12と交差する点及びその点における光線
の角度が判るので、幾何学的に光線の交点、つまり光源
2の方向及び位置を求めることができる。
When the position of the light source 2 is close to the subject 1 and a uniform light beam does not hit the subject, the following measures can be taken. That is, according to the equation (2), when the light source 2 is close, the luminance of the reflected light is different in a plurality of regions having the diffuse reflection component on the pad 12 because the incident angles θ to the pad 12 are different. Therefore, different light source directions θ are calculated in different regions. Therefore, the point at which a plurality of light beams from the light source 2 intersect the pad 12 and the angle of the light beam at that point are known, so that the intersection of the light beams, that is, the direction and position of the light source 2 can be obtained geometrically.

【0066】また、上述したように、本実施の形態で
は、光源情報を得るために表面のパターンが既知である
パッド12を用いたが、これを被写体1中の法線方向の
異なる、同じ拡散反射係数を有する複数の拡散反射面
(領域)で代用することも可能である。この場合、画像
データ中での光源情報取得のための領域を指定する必要
があるが、撮影方向の自由度が大きいという利点があ
る。
As described above, in this embodiment, the pad 12 having a known surface pattern is used to obtain light source information. It is also possible to substitute a plurality of diffuse reflection surfaces (areas) having a reflection coefficient. In this case, it is necessary to specify an area for acquiring light source information in the image data, but there is an advantage that the degree of freedom in the shooting direction is large.

【0067】(第3の実施の形態)次に、本発明の第3
の実施の形態について、図7を参照して説明する。本実
施の形態では、不特定の視点位置から撮影された複数の
画像データに基づいて立体情報を検出する手法について
説明する。
(Third Embodiment) Next, a third embodiment of the present invention will be described.
The embodiment will be described with reference to FIG. In the present embodiment, a method for detecting stereoscopic information based on a plurality of image data captured from an unspecified viewpoint position will be described.

【0068】図7は、本実施の形態に係る立体情報検出
方法を採用する撮影システムの概略構成を示すブロック
図である。同図において、上述した第1の実施の形態の
図1に示した構成と同一の構成要素には同一符号を付し
てある。
FIG. 7 is a block diagram showing a schematic configuration of a photographing system employing the stereoscopic information detecting method according to the present embodiment. In the figure, the same components as those of the above-described first embodiment shown in FIG. 1 are denoted by the same reference numerals.

【0069】被写体1は、視点位置及び光源情報を得る
ためのその形状が既知のパッド12の上に配置されてお
り、一台の複眼カメラ3dによりパッド12を含む被写
体1が撮影されている。複眼カメラ3dの焦点距離、鏡
筒間の相対的な位置関係、及び光軸方向等のカメラパラ
メータは既知である。また、パッド12上の表面には、
上述した第2の実施の形態と同様に、形状及び光学的特
性が既知の任意のパターンが描かれている。光源2は被
写体1から十分に離れた位置に配置されており、被写体
1を一様な光で照明している。この状況の下で、カメラ
3dを移動させることにより、複数の視点から被写体1
2が撮影され、その画像データから視点位置情報、立体
形状情報や反射率等の立体情報が検出される。
The subject 1 is arranged on a pad 12 whose shape for obtaining the viewpoint position and the light source information is known, and the subject 1 including the pad 12 is photographed by one compound-eye camera 3d. Camera parameters such as the focal length of the compound eye camera 3d, the relative positional relationship between the lens barrels, and the optical axis direction are known. Also, on the surface on the pad 12,
As in the second embodiment described above, an arbitrary pattern whose shape and optical characteristics are known is drawn. The light source 2 is arranged at a position sufficiently distant from the subject 1 and illuminates the subject 1 with uniform light. In this situation, moving the camera 3d allows the subject 1 to be viewed from a plurality of viewpoints.
2 is photographed, and three-dimensional information such as viewpoint position information, three-dimensional shape information, and reflectance is detected from the image data.

【0070】なお、本実施の形態において、被写体1の
立体形状情報検出処理及び光源情報検出処理は、上述し
た第1及び第2の実施の形態と同様であるので、ここで
は、画像データからの視点位置検出手順について説明す
る。
In this embodiment, the processing for detecting the three-dimensional shape of the subject 1 and the processing for detecting the light source information are the same as those in the first and second embodiments. The viewpoint position detection procedure will be described.

【0071】左右鏡筒の相対位置関係が既知であるカメ
ラ3dで被写体1を撮影した場合、第1の実施の形態で
説明した対応点抽出手順を用いて、カメラ3dにより撮
影された二つの画像データの画素間の対応関係を得るこ
とができれば、任意の座標上において、三角測量の原理
を用いて、画素に対応した被写体の位置と一つの視点位
置との相対位置関係を求めることができる。ここでは、
両視点間の相対位置関係を関連づけるために、画像デー
タ中のパッド情報が用いられる。第2の実施の形態で光
源方向を求めたときと同様に、パッド上に描かれた既知
パターンは視点位置により変化するので、このパターン
の変化を検出することにより、その画像データがパッド
12に対してどの角度から見た場合の画像データである
か、即ち視点位置と被写体位置との相対位置関係を検出
することができる。
When the subject 1 is photographed by the camera 3d whose relative positional relationship between the left and right lens barrels is known, two images photographed by the camera 3d are performed using the corresponding point extraction procedure described in the first embodiment. If the correspondence between the pixels of the data can be obtained, the relative positional relationship between the position of the subject corresponding to the pixel and one viewpoint position can be obtained on arbitrary coordinates by using the principle of triangulation. here,
Pad information in the image data is used to associate the relative positional relationship between the two viewpoints. As in the case of obtaining the light source direction in the second embodiment, the known pattern drawn on the pad changes depending on the viewpoint position. By detecting the change in the pattern, the image data is transferred to the pad 12. On the other hand, it is possible to detect from which angle the image data is viewed, that is, the relative positional relationship between the viewpoint position and the subject position.

【0072】本実施の形態で用いたパッド12上には、
拡散反射成分のみを有する領域があるので、この領域に
対して対応点抽出及び視点位置検出を行えば、光源2の
位置に左右されずに安定した視点位置検出を行うことが
できる。
On the pad 12 used in the present embodiment,
Since there is a region having only the diffuse reflection component, if the corresponding point is extracted and the viewpoint position is detected for this region, a stable viewpoint position detection can be performed irrespective of the position of the light source 2.

【0073】このようにして検出された視点位置に基づ
いて、上述した手法により、被写体の立体形状情報及び
反射率情報等のテクスチャ情報を含む立体情報を得るこ
とができる。
Based on the viewpoint position detected in this way, it is possible to obtain three-dimensional information including texture information such as three-dimensional shape information and reflectance information of the subject by the above-described method.

【0074】以上説明したように、本実施の形態によれ
ば、パッド12及び複眼カメラ3dを用いることによ
り、撮影時に視点位置を固定することなく、任意の視点
位置から撮影された画像データから被写体の立体形状情
報及びテクスチャ情報からなる立体情報を検出すること
ができる。
As described above, according to the present embodiment, by using the pad 12 and the compound-eye camera 3d, the subject can be obtained from image data taken from an arbitrary viewpoint without fixing the viewpoint at the time of photographing. 3D information including the 3D shape information and the texture information can be detected.

【0075】[0075]

【発明の効果】以上説明したように、請求項1の立体情
報検出方法又は請求項9の立体情報検出装置によれば、
前記得られた画像データを複数の小領域に分割し、前記
複数の視点位置毎に、前記光源に関する光源情報と前記
複数の視点位置それぞれにおける前記撮影装置の撮影姿
勢情報とを用いて、前記複数の小領域それぞれの立体情
報を検出し、前記複数の視点位置毎に検出された前記複
数の小領域それぞれの立体情報を任意の座標系上で統合
することにより前記被写体の立体情報を検出するように
したので、任意の座標形状での被写体の立体情報を精度
良く得ることができるという効果が得られる。
As described above, according to the three-dimensional information detecting method of the first aspect or the three-dimensional information detecting apparatus of the ninth aspect,
The obtained image data is divided into a plurality of small areas, and for each of the plurality of viewpoint positions, light source information regarding the light source and shooting posture information of the imaging device at each of the plurality of viewpoint positions are used. The three-dimensional information of each of the small areas is detected, and the three-dimensional information of each of the plurality of small areas detected for each of the plurality of viewpoint positions is integrated on an arbitrary coordinate system to detect the three-dimensional information of the subject. Therefore, an effect is obtained that stereoscopic information of a subject in an arbitrary coordinate shape can be obtained with high accuracy.

【0076】請求項2の立体情報検出方法又は請求項1
0の立体情報検出装置によれば、前記立体情報は前記被
写体の立体形状情報と前記被写体の表面のテクスチャ情
報とから構成し、前記複数の視点位置における前記撮影
装置の撮影姿勢情報と前記得られた画像データに基づい
て被写体の立体形状情報を求め、前記被写体の立体形状
情報及び前記光源に関する光源情報とに基づいて、前記
被写体の表面のテクスチャ情報を求め、前記求められた
立体形状情報及び前記求められたテクスチャ情報を任意
の座標系において立体情報として統合するようにしたの
で、任意の座標系での、立体形状情報及びテクスチャ情
報からなる立体情報を精度良く得ることができるという
効果が得られる。
The three-dimensional information detecting method according to claim 2 or claim 1
According to the three-dimensional information detecting device, the three-dimensional information is composed of the three-dimensional shape information of the subject and the texture information of the surface of the subject, and the photographing posture information of the photographing device at the plurality of viewpoint positions and the obtained three-dimensional information are obtained. The three-dimensional shape information of the subject is obtained based on the obtained image data, and the texture information of the surface of the subject is obtained based on the three-dimensional shape information of the subject and the light source information on the light source. Since the obtained texture information is integrated as three-dimensional information in an arbitrary coordinate system, an effect that three-dimensional information including three-dimensional shape information and texture information in an arbitrary coordinate system can be obtained with high accuracy can be obtained. .

【0077】請求項3の立体情報検出方法又は請求項1
1の立体情報検出装置によれば、得られた画像データに
基づいて、前記各視点位置における前記撮影装置の撮影
姿勢情報を検出するようにしたので、撮影時に始点位置
を固定することなく、任意の視点位置から撮影された画
像データから被写体の立体形状情報及びテクスチャ情報
からなる立体情報を得ることができるという効果が得ら
れる。
The three-dimensional information detecting method according to claim 3 or claim 1
According to the three-dimensional information detecting device, the photographing posture information of the photographing device at each of the viewpoint positions is detected based on the obtained image data. Thus, it is possible to obtain the effect that stereoscopic information including the stereoscopic shape information and the texture information of the subject can be obtained from the image data captured from the viewpoint position.

【0078】請求項4の立体情報検出方法又は請求項1
2の立体情報検出装置によれば、各視点位置における前
記撮影装置の撮影姿勢情報を、表面に既知のパターンが
描かれた試料を前記被写体と共に撮影することにより検
出するようにしたので、撮影時に始点位置を固定するこ
となく、しかも簡単な構成で、任意の視点位置から撮影
された画像データから被写体の立体形状情報及びテクス
チャ情報からなる立体情報を得ることができるという効
果が得られる。
The three-dimensional information detecting method according to claim 4 or claim 1
According to the three-dimensional information detecting device, the photographing posture information of the photographing device at each viewpoint position is detected by photographing a sample with a known pattern drawn on the surface together with the subject, so that the photographing posture information can be obtained at the time of photographing. The effect is obtained that the stereoscopic information including the stereoscopic shape information and the texture information of the subject can be obtained from the image data photographed from an arbitrary viewpoint position without fixing the starting point position and with a simple configuration.

【0079】請求項5の立体情報検出方法又は請求項1
3の立体情報検出装置によれば、得られた画像データに
基づいて前記光源の光源情報を検出するようにしたの
で、光源の特性が既知ではない場合であっても、被写体
の立体形状情報及びテクスチャ情報からなる立体情報を
得ることができるという効果が得られる。
The three-dimensional information detecting method according to claim 5 or claim 1
According to the three-dimensional information detecting device, the light source information of the light source is detected based on the obtained image data. Therefore, even when the characteristics of the light source are not known, the three-dimensional shape information of the subject and The effect is obtained that three-dimensional information consisting of texture information can be obtained.

【0080】請求項6の立体情報検出方法又は請求項1
4の立体情報検出装置によれば、光源情報を、光学的特
性が既知である複数の領域を有する試料を被写体と共に
撮影することにより得られる画像データに基づいて検出
するようにしたので、光源の特性が既知ではない場合で
あっても、簡単な構成で、被写体の立体形状情報及びテ
クスチャ情報からなる立体情報を得ることができるとい
う効果が得られる。
The three-dimensional information detection method according to claim 6 or claim 1
According to the three-dimensional information detecting device of No. 4, light source information is detected based on image data obtained by photographing a sample having a plurality of regions with known optical characteristics together with a subject, so that the light source information Even in the case where the characteristics are not known, the effect is obtained that, with a simple configuration, it is possible to obtain the three-dimensional information including the three-dimensional shape information and the texture information of the subject.

【0081】請求項7の立体情報検出方法又は請求項1
5の立体情報検出装置によれば、テクスチャ情報に含ま
れる反射率を用いて、求められた被写体の立体形状情報
を修正するようにしたので、被写体の形状と反射率との
間に生じる誤差が少なくなり、精度よく立体情報を得る
ことができるという効果が得られる。
The three-dimensional information detecting method according to claim 7 or claim 1
According to the three-dimensional information detecting device of No. 5, since the obtained three-dimensional shape information of the subject is corrected using the reflectance included in the texture information, an error generated between the shape of the subject and the reflectance is reduced. The effect is that the stereoscopic information can be obtained with high accuracy.

【0082】請求項8の立体情報検出方法又は請求項1
6の立体情報検出装置によれば、修正された立体形状情
報を用いて、反射率を修正するようにしたので、被写体
の形状と反射率との間に生じる誤差が少なくなり、精度
よく立体情報を得ることができるという効果が得られ
る。
The three-dimensional information detecting method according to claim 8 or claim 1
According to the three-dimensional information detecting device of No. 6, since the reflectance is corrected using the corrected three-dimensional shape information, an error occurring between the shape of the subject and the reflectance is reduced, and the three-dimensional information is accurately detected. Can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態にかかる立体情報検
出方法を採用する撮影システムの概略構成を示すブロッ
ク図である。
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging system that employs a stereoscopic information detection method according to a first embodiment of the present invention.

【図2】同実施の形態における、被写体の立体形状情報
及び被写体表面の特性等のテクスチャ情報を含む立体情
報を検出する立体情報検出処理手順を示すフローチャー
トである。
FIG. 2 is a flowchart showing a stereoscopic information detection processing procedure for detecting stereoscopic information including texture information such as the three-dimensional shape information of the subject and the characteristics of the surface of the subject in the embodiment;

【図3】テンプレートマッチング法を説明するための説
明図である。
FIG. 3 is an explanatory diagram for explaining a template matching method.

【図4】本発明の第2の実施の形態に係る立体情報検出
方法を採用する撮影システムの概略構成を示すブロック
図である。
FIG. 4 is a block diagram illustrating a schematic configuration of an imaging system that employs a stereoscopic information detection method according to a second embodiment of the present invention.

【図5】同実施の形態における立体情報検出手順を示す
フローチャートである。
FIG. 5 is a flowchart showing a stereoscopic information detection procedure in the embodiment.

【図6】鏡面反射成分の影響が少ない場合に光源方向を
特定する手法を説明するための説明図である。
FIG. 6 is an explanatory diagram for explaining a method of specifying a light source direction when the influence of a specular reflection component is small.

【図7】本発明の第3の実施の形態に係る立体情報検出
方法を採用する撮影システムの概略構成を示すブロック
図である。
FIG. 7 is a block diagram illustrating a schematic configuration of an imaging system that employs a three-dimensional information detection method according to a third embodiment of the present invention.

【図8】従来の立体情報検出方法を説明するための説明
図である。
FIG. 8 is an explanatory diagram for describing a conventional stereoscopic information detection method.

【図9】被写体表面での光線の反射状態を示す説明図で
ある。
FIG. 9 is an explanatory diagram illustrating a reflection state of light rays on a subject surface.

【符号の説明】[Explanation of symbols]

1 被写体 2 光源 3 カメラ 7 記録部 8 立体情報抽出部 12 パッド DESCRIPTION OF SYMBOLS 1 Subject 2 Light source 3 Camera 7 Recording part 8 Three-dimensional information extraction part 12 Pad

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】 光源により照明された被写体を複数の視
点位置から撮影装置により撮影することにより得られる
画像データから前記被写体の立体情報を検出する立体情
報検出方法であって、 前記得られた画像データを複数の小領域に分割し、 前記複数の視点位置毎に、前記光源に関する光源情報と
前記複数の視点位置それぞれにおける前記撮影装置の撮
影姿勢情報とを用いて、前記複数の小領域それぞれの立
体情報を検出し、 前記複数の視点位置毎に検出された前記複数の小領域そ
れぞれの立体情報を任意の座標系上で統合することによ
り前記被写体の立体情報を検出する事を特徴とする立体
情報検出方法。
1. A three-dimensional information detection method for detecting three-dimensional information of a subject illuminated by a light source from image data obtained by photographing the subject from a plurality of viewpoint positions with a photographing device, wherein the obtained image is Dividing the data into a plurality of small areas, for each of the plurality of viewpoint positions, using light source information regarding the light source and shooting attitude information of the imaging apparatus at each of the plurality of viewpoint positions, each of the plurality of small areas Detecting a three-dimensional information of the subject by integrating the three-dimensional information of each of the plurality of small areas detected for each of the plurality of viewpoint positions on an arbitrary coordinate system; Information detection method.
【請求項2】 前記立体情報は前記被写体の立体形状情
報と前記被写体の表面のテクスチャ情報とからなり、前
記立体情報検出方法は、 前記複数の視点位置における前記撮影装置の撮影姿勢情
報と前記得られた画像データに基づいて被写体の立体形
状情報を求め、 前記被写体の立体形状情報及び前記光源に関する光源情
報とに基づいて、前記被写体の表面のテクスチャ情報を
求め、 前記求められた立体形状情報及び前記求められたテクス
チャ情報を任意の座標系において立体情報として統合す
ることを特徴とする請求項1に記載の立体情報検出方
法。
2. The three-dimensional information includes three-dimensional shape information of the subject and texture information of a surface of the subject, and the three-dimensional information detecting method includes: acquiring the photographing posture information of the photographing device at the plurality of viewpoint positions; Determining three-dimensional shape information of the subject based on the obtained image data; determining texture information of the surface of the subject based on the three-dimensional shape information of the subject and light source information regarding the light source; The three-dimensional information detecting method according to claim 1, wherein the obtained texture information is integrated as three-dimensional information in an arbitrary coordinate system.
【請求項3】 前記得られた画像データに基づいて、前
記各視点位置における前記撮影装置の撮影姿勢情報を検
出するステップを含むことを特徴とする請求項1又は2
に記載の立体情報検出方法。
3. The method according to claim 1, further comprising the step of detecting photographing attitude information of the photographing device at each of the viewpoint positions based on the obtained image data.
The stereoscopic information detection method according to 1.
【請求項4】 前記各視点位置における前記撮影装置の
撮影姿勢情報を検出するステップは、表面に既知のパタ
ーンが描かれた試料を前記被写体と共に撮影するステッ
プを含むことを特徴とする請求項3に記載の立体情報検
出方法。
4. The method according to claim 3, wherein the step of detecting photographing posture information of the photographing apparatus at each viewpoint position includes a step of photographing a sample having a known pattern drawn on a surface thereof together with the subject. The stereoscopic information detection method according to 1.
【請求項5】 前記得られた画像データに基づいて前記
光源の光源情報を検出するステップを含むことを特徴と
する請求項1〜4のいずれか1項に記載の立体情報検出
方法。
5. The stereoscopic information detecting method according to claim 1, further comprising the step of detecting light source information of the light source based on the obtained image data.
【請求項6】 前記光源の光源情報を検出するステップ
において、前記光源情報は、光学的特性が既知である複
数の領域を有する試料を被写体と共に撮影することによ
り得られる画像データに基づいて検出されることを特徴
とする請求項5に記載の立体情報検出方法。
6. In the step of detecting light source information of the light source, the light source information is detected based on image data obtained by photographing a sample having a plurality of regions whose optical characteristics are known together with a subject. The three-dimensional information detection method according to claim 5, wherein
【請求項7】 前記テクスチャ情報は前記被写体の表面
の反射率を含み、前記立体情報検出方法は、前記反射率
を用いて前記求められた前記被写体の立体形状情報を修
正するステップを含むことを特徴とする請求項2に記載
の立体情報検出方法。
7. The texture information includes a reflectance of a surface of the subject, and the three-dimensional information detecting method includes a step of correcting the determined three-dimensional shape information of the subject using the reflectance. The three-dimensional information detection method according to claim 2, wherein:
【請求項8】 前記修正された立体形状情報を用いて、
前記反射率を修正するステップを含むことを特徴とする
請求項7に記載の立体情報検出方法。
8. Using the corrected three-dimensional shape information,
The stereoscopic information detection method according to claim 7, further comprising a step of correcting the reflectance.
【請求項9】 光源により照明された被写体を複数の視
点位置に設けられた撮影装置により撮影することにより
得られた画像データが入力される入力手段と、 前記入力された画像データを複数の小領域に分割し、前
記複数の視点位置毎に、前記光源に関する光源情報と前
記複数の撮影装置の撮影姿勢情報とを用いて、前記複数
の小領域それぞれの立体情報を検出し、前記複数の視点
位置毎に検出された前記複数の小領域それぞれの立体情
報を任意の座標系上で統合することにより前記被写体の
立体情報を検出する立体情報検出手段とを備えることを
特徴とする立体情報検出装置。
9. An input means for inputting image data obtained by photographing a subject illuminated by a light source by photographing devices provided at a plurality of viewpoint positions; Divided into regions, for each of the plurality of viewpoint positions, using light source information relating to the light source and photographing attitude information of the plurality of photographing devices, detecting three-dimensional information of each of the plurality of small regions; Stereoscopic information detecting device, comprising: stereoscopic information detecting means for detecting stereoscopic information of the subject by integrating stereoscopic information of each of the plurality of small areas detected for each position on an arbitrary coordinate system. .
【請求項10】 前記立体情報は前記被写体の立体形状
情報と前記被写体の表面のテクスチャ情報とを含み、 前記立体情報検出手段は、前記複数の視点位置における
前記撮影装置の撮影姿勢情報と前記入力された画像デー
タに基づいて被写体の立体形状情報を求め、前記被写体
の立体形状情報及び前記光源に関する光源情報とに基づ
いて前記被写体の表面のテクスチャ情報を求め、前記求
められた立体形状情報及び前記求められたテクスチャ情
報を任意の座標系において立体情報として統合すること
により前記立体情報を検出するように構成されることを
特徴とする請求項9に記載の立体情報検出装置。
10. The three-dimensional information includes three-dimensional shape information of the subject and texture information of a surface of the subject, and the three-dimensional information detecting means includes: shooting orientation information of the shooting device at the plurality of viewpoint positions; The three-dimensional shape information of the subject is obtained based on the obtained image data, and the texture information of the surface of the subject is obtained based on the three-dimensional shape information of the subject and the light source information on the light source. The three-dimensional information detecting apparatus according to claim 9, wherein the three-dimensional information is detected by integrating the obtained texture information as three-dimensional information in an arbitrary coordinate system.
【請求項11】 前記撮影装置により得られた画像デー
タに基づいて前記各視点位置における前記撮影装置の撮
影姿勢情報を検出する撮影姿勢情報検出手段を備えるこ
とを特徴とする請求項9又は10に記載の立体情報検出
装置。
11. A photographing posture information detecting means for detecting photographing posture information of the photographing device at each of the viewpoint positions based on image data obtained by the photographing device. The three-dimensional information detection device according to the above.
【請求項12】 前記撮影姿勢情報検出手段は、前記各
視点位置における前記撮影装置の撮影姿勢情報を、表面
に既知のパターンが描かれた試料を前記被写体と共に撮
影することにより検出するように構成されることを特徴
とする請求項11に記載の立体情報検出装置。
12. The photographing posture information detecting means is configured to detect photographing posture information of the photographing device at each of the viewpoint positions by photographing a sample having a known pattern drawn on a surface thereof together with the subject. The three-dimensional information detection device according to claim 11, wherein
【請求項13】 前記撮影装置により得られた画像デー
タに基づいて前記光源の光源情報を検出する光源情報検
出手段を備えることを特徴とする請求項9〜12のいず
れか1項に記載の立体情報検出装置。
13. The three-dimensional object according to claim 9, further comprising light source information detecting means for detecting light source information of the light source based on image data obtained by the photographing device. Information detection device.
【請求項14】 前記光源情報検出手段は、前記光源情
報を、光学的特性が既知である複数の領域を有する試料
を被写体と共に撮影することにより得られる画像データ
に基づいて検出するように構成されることを特徴とする
請求項13に記載の立体情報検出装置。
14. The light source information detecting means is configured to detect the light source information based on image data obtained by photographing a sample having a plurality of regions having known optical characteristics together with a subject. 14. The three-dimensional information detection device according to claim 13, wherein:
【請求項15】 前記テクスチャ情報は前記被写体の表
面の反射率を含み、前記立体状情報検出装置は、前記反
射率を用いて前記求められた前記被写体の立体形状情報
を修正する立体形状情報修正手段を備えることを特徴と
する請求項10に記載の立体情報検出装置。
15. The texture information includes a reflectance of a surface of the subject, and the three-dimensional information detection device corrects the obtained three-dimensional shape information of the subject using the reflectance. The three-dimensional information detection device according to claim 10, further comprising a unit.
【請求項16】 前記修正された立体形状情報を用い
て、前記反射率を修正する反射率修正手段を備えること
を特徴とする請求項15に記載の立体情報検出装置。
16. The three-dimensional information detecting apparatus according to claim 15, further comprising: a reflectance correcting unit configured to correct the reflectance using the corrected three-dimensional shape information.
JP8248523A 1996-09-02 1996-09-02 Stereoscopic information detecting method and device therefor Pending JPH1079029A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8248523A JPH1079029A (en) 1996-09-02 1996-09-02 Stereoscopic information detecting method and device therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8248523A JPH1079029A (en) 1996-09-02 1996-09-02 Stereoscopic information detecting method and device therefor

Publications (1)

Publication Number Publication Date
JPH1079029A true JPH1079029A (en) 1998-03-24

Family

ID=17179460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8248523A Pending JPH1079029A (en) 1996-09-02 1996-09-02 Stereoscopic information detecting method and device therefor

Country Status (1)

Country Link
JP (1) JPH1079029A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100375708B1 (en) * 2000-10-28 2003-03-15 전자부품연구원 3D Stereosc opic Multiview Video System and Manufacturing Method
KR100392085B1 (en) * 2000-11-09 2003-07-22 전자부품연구원 Method for 3-Dimensional Messaging Using 3D Display System and The System
KR100424401B1 (en) * 2001-11-02 2004-03-24 전자부품연구원 3D Stereoscopic Multiview video system include Searching function
JP2006012166A (en) * 2004-06-28 2006-01-12 Microsoft Corp Stereo three-dimensional reconstruction system and process based on color segmentation
JP2006012161A (en) * 2004-06-28 2006-01-12 Microsoft Corp Interactive viewpoint video system and process
US7310154B2 (en) 2000-08-08 2007-12-18 Ricoh Company, Ltd. Shape measurement system
US7688363B2 (en) 2006-05-29 2010-03-30 Panasonic Corporation Super-resolution device, super-resolution method, super-resolution program, and super-resolution system
JP2012203559A (en) * 2011-03-24 2012-10-22 Olympus Corp Image processor, image processing program and image processing method
KR101212411B1 (en) * 2006-03-08 2012-12-13 주식회사 현대오토넷 A Passenger Detection System For Automobile And Method thereof
US8564607B2 (en) 2009-12-08 2013-10-22 Electronics And Telecommunications Research Institute Apparatus and method for creating textures of building
KR20150106579A (en) * 2014-03-12 2015-09-22 주식회사 마인즈아이 Testing system of the device with free-form surface or 3 dimensional form and operating method for the testing system
WO2017154707A1 (en) * 2016-03-09 2017-09-14 株式会社ニコン Detection device, detection system, detection method, and detection program
CN114136232A (en) * 2021-11-19 2022-03-04 中国神华能源股份有限公司哈尔乌素露天煤矿 Material accumulation form measuring method and system
CN115835448A (en) * 2022-12-28 2023-03-21 无锡车联天下信息技术有限公司 Method and device for adjusting light, endoscope equipment and medium

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7310154B2 (en) 2000-08-08 2007-12-18 Ricoh Company, Ltd. Shape measurement system
KR100375708B1 (en) * 2000-10-28 2003-03-15 전자부품연구원 3D Stereosc opic Multiview Video System and Manufacturing Method
KR100392085B1 (en) * 2000-11-09 2003-07-22 전자부품연구원 Method for 3-Dimensional Messaging Using 3D Display System and The System
KR100424401B1 (en) * 2001-11-02 2004-03-24 전자부품연구원 3D Stereoscopic Multiview video system include Searching function
JP2006012166A (en) * 2004-06-28 2006-01-12 Microsoft Corp Stereo three-dimensional reconstruction system and process based on color segmentation
JP2006012161A (en) * 2004-06-28 2006-01-12 Microsoft Corp Interactive viewpoint video system and process
KR101212411B1 (en) * 2006-03-08 2012-12-13 주식회사 현대오토넷 A Passenger Detection System For Automobile And Method thereof
US7688363B2 (en) 2006-05-29 2010-03-30 Panasonic Corporation Super-resolution device, super-resolution method, super-resolution program, and super-resolution system
US7893971B2 (en) 2006-05-29 2011-02-22 Panasonic Corporation Light source estimation device that captures light source images when it is determined that the imaging device is not being used by the cameraman
US8564607B2 (en) 2009-12-08 2013-10-22 Electronics And Telecommunications Research Institute Apparatus and method for creating textures of building
JP2012203559A (en) * 2011-03-24 2012-10-22 Olympus Corp Image processor, image processing program and image processing method
KR20150106579A (en) * 2014-03-12 2015-09-22 주식회사 마인즈아이 Testing system of the device with free-form surface or 3 dimensional form and operating method for the testing system
WO2017154707A1 (en) * 2016-03-09 2017-09-14 株式会社ニコン Detection device, detection system, detection method, and detection program
JPWO2017154707A1 (en) * 2016-03-09 2019-01-24 株式会社ニコン Detection apparatus, detection system, detection method, and detection program
US11629950B2 (en) 2016-03-09 2023-04-18 Nikon Corporation Detection device, detection system, detection method, and storage medium
CN114136232A (en) * 2021-11-19 2022-03-04 中国神华能源股份有限公司哈尔乌素露天煤矿 Material accumulation form measuring method and system
CN115835448A (en) * 2022-12-28 2023-03-21 无锡车联天下信息技术有限公司 Method and device for adjusting light, endoscope equipment and medium
CN115835448B (en) * 2022-12-28 2024-03-19 无锡车联天下信息技术有限公司 Method and device for adjusting light, endoscope equipment and medium

Similar Documents

Publication Publication Date Title
CN109737874B (en) Object size measuring method and device based on three-dimensional vision technology
JP6764533B2 (en) Calibration device, chart for calibration, chart pattern generator, and calibration method
JP3859574B2 (en) 3D visual sensor
US6438507B1 (en) Data processing method and processing device
US6031941A (en) Three-dimensional model data forming apparatus
US20110228052A1 (en) Three-dimensional measurement apparatus and method
JP4825971B2 (en) Distance calculation device, distance calculation method, structure analysis device, and structure analysis method.
US20100295926A1 (en) Fast Three Dimensional Recovery Method and Apparatus
JP2012088114A (en) Optical information processing device, optical information processing method, optical information processing system and optical information processing program
CN109377551B (en) Three-dimensional face reconstruction method and device and storage medium thereof
CN111879235A (en) Three-dimensional scanning detection method and system for bent pipe and computer equipment
JPH1079029A (en) Stereoscopic information detecting method and device therefor
JP2008096162A (en) Three-dimensional distance measuring sensor and three-dimensional distance measuring method
CN115830103A (en) Monocular color-based transparent object positioning method and device and storage medium
JPH1069543A (en) Method and device for reconstituting curved surface of object
JPS63311485A (en) Automatic calibration device
CN116524022B (en) Offset data calculation method, image fusion device and electronic equipment
JP3282332B2 (en) Image input system
KR20090110348A (en) Object shape generating method, object shape generating device and program
US20050286059A1 (en) Attitude and position measurement of objects using image processing processes
JPH1023311A (en) Image information input method and device therefor
JP4248212B2 (en) Stereo image processing apparatus and stereo image processing method
JP2016102755A (en) Information processing device, information processing method and program
JP2961140B2 (en) Image processing method
JP5967470B2 (en) Inspection device