JPH09229648A - Input/output method and device for image information - Google Patents

Input/output method and device for image information

Info

Publication number
JPH09229648A
JPH09229648A JP8057056A JP5705696A JPH09229648A JP H09229648 A JPH09229648 A JP H09229648A JP 8057056 A JP8057056 A JP 8057056A JP 5705696 A JP5705696 A JP 5705696A JP H09229648 A JPH09229648 A JP H09229648A
Authority
JP
Japan
Prior art keywords
subject
image
depth information
information
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8057056A
Other languages
Japanese (ja)
Inventor
Katsumi Iijima
克己 飯島
Katsuhiko Mori
克彦 森
Sunao Kurahashi
直 倉橋
Motohiro Ishikawa
基博 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP8057056A priority Critical patent/JPH09229648A/en
Publication of JPH09229648A publication Critical patent/JPH09229648A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image information input/output device which can acquire depth information of an object to be photographed with a high value of utilization from any point of view with a high accuracy. SOLUTION: Among a plurality of pieces of depth information acquired through the second processing, the piece(s) showing more outside than the depth information obtained by the first processing should be removed (10001 of (C) in the attached illustration). The information piece showing inside, i.e., recess, (10003 of (C) in illustration) is adopted, while the depth information due to the first processing concerning approx. the same position (10004 of (C)) is removed. The remaining depth information due to the first processing and the second processing are adopted in such a way that they are tied together, as (C) and (D) in illustration.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、被写体を撮像して
得た画像から、CG(コンピュータグラフィックス)、
CAD(キャド)または文書ファイルとの合成等、各種
目的に利用される三次元形状情報を抽出する画像情報入
出力装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a computer graphics (CG) from an image obtained by picking up an image of a subject.
The present invention relates to an image information input / output device that extracts three-dimensional shape information used for various purposes such as synthesizing with a CAD (cad) or a document file.

【0002】[0002]

【従来の技術】従来より、被写体の三次元形状を求める
手法には、大別すると、受動的手法と能動的手法があ
る。
2. Description of the Related Art Conventionally, methods for obtaining a three-dimensional shape of a subject are roughly classified into a passive method and an active method.

【0003】受動的手法の代表的なものではいわゆるス
テレオ画像法があり、この手法は、二台のカメラを用い
て三角測量を行うものである。すなわち、左右のカメラ
で得られる各画像中に、同一物点が写っている箇所を探
索し、その位置のずれ量から物点の三次元位置を計測す
るものである。
A typical passive method is a so-called stereo image method, and this method uses two cameras to perform triangulation. That is, in each image obtained by the left and right cameras, a location where the same object point is found is searched, and the three-dimensional position of the object point is measured from the displacement amount of the position.

【0004】一方、能動的手法の代表的なものには、投
影した光が帰ってくるまでの時間を計測して距離を求め
る光レーダ型のレンジファインダや、スリット状の光パ
ターンを投影して被写体に写るパターン形状の変位から
三次元形状を測定するスリット光投影法等がある。
On the other hand, typical active methods include an optical radar type range finder for measuring the time until the projected light returns and a slit-shaped optical pattern for projection. There is a slit light projection method or the like that measures a three-dimensional shape from the displacement of the pattern shape reflected on the subject.

【0005】ところで、従来より、被写体を任意の視点
からみた場合の像を、得られた被写体の三次元情報に基
づき二次元のディスプレイ等に出力・再生することが一
般に行われている。
By the way, conventionally, it is generally practiced to output / reproduce an image of a subject viewed from an arbitrary viewpoint on a two-dimensional display or the like based on the obtained three-dimensional information of the subject.

【0006】また、パーソナルコンピュータの普及に伴
い、電子カメラで撮像した画像を取り込んで、編集する
ことが可能になった。例えば、電子カメラで複数の画像
に分けて撮像された風景画像を、パーソナルコンピュー
タに取り込んで、アプリケーションソフトにより任意に
加工・処理を施すことも既に可能となっている。
With the widespread use of personal computers, it has become possible to capture and edit images taken by electronic cameras. For example, it is already possible to import a landscape image captured by an electronic camera into a plurality of images into a personal computer and arbitrarily process and process the image with application software.

【0007】このような背景から、多様な被写体につい
て、目的に応じた精度の高い三次元形状情報を取得する
ことが必要となってきている。例えば、オフィス等で一
般に扱われる画像情報は、最終的には紙に出力されるこ
とが多く、利用が要求される画像形態は、自然画だけで
なく、被写体を輪郭線のみで表す線画もある。従って、
被写体の画像情報をあらゆる側面(視点)から捉え、自
由に加工・処理できるようにすることが望まれている。
From such a background, it is necessary to acquire highly accurate three-dimensional shape information for various objects according to the purpose. For example, image information generally handled in an office or the like is often output on paper in the end, and the image form that is required to be used is not only a natural image but also a line drawing that represents a subject only with a contour line. . Therefore,
It is desired to capture image information of a subject from all sides (viewpoints) so that it can be freely processed and processed.

【0008】[0008]

【発明が解決しようとする課題】しかしながら、例えば
ステレオ画像法のような受動的手法では、測定情報は離
散的であり、ノイズを含む場合もある。また、特定位置
からの距離情報の算出を主目的とするため、被写体の立
体形状そのものを計測するには必ずしも十分ではない。
そのため、高精度でなめらかな三次元形状情報を得るこ
とは困難である。
However, in passive techniques such as, for example, stereo imaging, the measurement information is discrete and may contain noise. Moreover, since the main purpose is to calculate distance information from a specific position, it is not always sufficient to measure the three-dimensional shape itself of the subject.
Therefore, it is difficult to obtain highly accurate and smooth three-dimensional shape information.

【0009】一方、能動的手法では、被写体へのレーザ
光線照射等を必要とする場合があるため、測定対象とな
る被写体の種類に一定の制限があり、その測定自体も煩
雑で、容易でない。
On the other hand, in the active method, since it is necessary to irradiate the subject with a laser beam, there is a certain limitation on the type of the subject to be measured, and the measurement itself is complicated and not easy.

【0010】また、上記受動的手法、能動的手法のいず
れにおいても、被写体の周囲を移動しながら撮像するよ
うな動的な撮像方法に柔軟に対応して、任意の視点によ
る精度の高い距離測定(以下「奥行き情報抽出」ともい
う)を行うことは困難であった。
Further, in both the passive method and the active method described above, the distance can be measured with high accuracy from an arbitrary viewpoint by flexibly supporting a dynamic imaging method in which an image is taken while moving around the subject. It was difficult to perform (hereinafter also referred to as “depth information extraction”).

【0011】そのため、被写体の種類に制限を受けるこ
となく、任意の視点による高精度の奥行き情報を得て、
目的に応じた利用を図る上で、改善の余地があった。
Therefore, it is possible to obtain highly accurate depth information from an arbitrary viewpoint without being restricted by the type of subject,
There was room for improvement in the purpose of using it.

【0012】本発明は上記従来技術の問題を解決するた
めになされたものであり、その目的は、あらゆる被写体
について、任意の視点からの高精度で利用価値の高い奥
行き情報を得ることができる画像情報入出力装置を提供
することにある。
The present invention has been made in order to solve the above-mentioned problems of the prior art, and an object thereof is an image capable of obtaining highly accurate and highly useful depth information from an arbitrary viewpoint for any object. To provide an information input / output device.

【0013】[0013]

【課題を解決するための手段】上記目的を達成するため
に本発明の請求項1の画像情報入出力装置は、被写体を
撮像し該被写体の各部位の奥行き情報を得る画像情報入
出力装置において、前記被写体の画像を複数の視点に投
影し、該投影された複数の画像の輪郭に基づき前記被写
体の各部位の奥行き情報を求める輪郭計測手段と、前記
被写体を二つの視点により撮像し、該二つの視点により
撮像された被写体の二つの画像から前記二つの視点の視
差を用いて前記被写体の各部位の奥行き情報を求めるス
テレオ計測手段と、前記輪郭計測手段により得られた奥
行き情報と前記ステレオ計測手段により得られた奥行き
情報とに基づいて前記被写体の各部位の奥行き情報を求
める統合手段とを備えたことを特徴とする。
In order to achieve the above object, the image information input / output device according to claim 1 of the present invention is an image information input / output device for capturing an image of a subject and obtaining depth information of each part of the subject. An image of the subject is projected to a plurality of viewpoints, contour measuring means for obtaining depth information of each part of the subject based on contours of the projected plurality of images, and the subject is imaged from two viewpoints, Stereo measuring means for obtaining depth information of each part of the subject from two images of the subject captured from two viewpoints using parallax of the two viewpoints, depth information obtained by the contour measuring means and the stereo And an integration unit that obtains the depth information of each part of the subject based on the depth information obtained by the measuring unit.

【0014】同じ目的を達成するために本発明の請求項
2の画像情報入出力装置は、上記請求項1の構成におい
て、前記統合手段は、前記被写体の各部位に関して、前
記輪郭計測手段により得られた奥行き情報及び前記ステ
レオ計測手段により得られた奥行き情報を取捨選択する
取捨選択手段を備えたことを特徴とする。
In order to achieve the same object, the image information input / output device according to a second aspect of the present invention is the image information input / output device according to the first aspect, wherein the integrating means obtains the contour measuring means for each part of the subject. It is characterized by further comprising a selection means for selecting the depth information obtained and the depth information obtained by the stereo measurement means.

【0015】同じ目的を達成するために本発明の請求項
3の画像情報入出力装置は、上記請求項2の構成におい
て、前記取捨選択手段は、前記被写体の略同一部位に関
して、前記輪郭計測手段により得られた奥行き情報及び
前記ステレオ計測手段により得られた奥行き情報のうち
外側に係るものを除去することを特徴とする。
In order to achieve the same object, an image information input / output device according to a third aspect of the present invention is the image information input / output device according to the second aspect, wherein the selection means is the contour measuring means for substantially the same portion of the subject. The depth information obtained by the above and the depth information obtained by the stereo measurement means are removed from the outside.

【0016】同じ目的を達成するために本発明の請求項
4の画像情報入出力方法は、被写体を撮像し該被写体の
各部位の奥行き情報を得る画像情報入出力方法におい
て、前記被写体の画像を複数の視点に投影し、該投影さ
れた複数の画像の輪郭に基づき前記被写体の各部位の奥
行き情報を求める輪郭計測段階と、前記被写体を二つの
視点により撮像し、該二つの視点により撮像された被写
体の二つの画像から前記二つの視点の視差を用いて前記
被写体の各部位の奥行き情報を求めるステレオ計測段階
と、前記輪郭計測段階により得られた奥行き情報と前記
ステレオ計測段階により得られた奥行き情報とに基づい
て前記被写体の各部位の奥行き情報を求める統合段階と
を含むことを特徴とする。
In order to achieve the same object, an image information input / output method according to a fourth aspect of the present invention is an image information input / output method for picking up an image of a subject and obtaining depth information of each part of the subject. A contour measuring step of projecting to a plurality of viewpoints and obtaining depth information of each part of the subject based on the contours of the projected plurality of images, and the subject is imaged from two viewpoints and imaged from the two viewpoints. The stereo measurement step of obtaining depth information of each part of the subject from the two images of the subject using the parallax of the two viewpoints, the depth information obtained in the contour measurement step, and the stereo measurement step An integration step of obtaining depth information of each part of the subject based on the depth information.

【0017】同じ目的を達成するために本発明の請求項
5の画像情報入出力方法は、被写体の画像を複数の視点
に投影し、該投影された複数の画像の輪郭の外側に係る
座標情報を前記被写体を含む空間の各座標を表現する空
間座標情報から除去することにより、前記空間座標情報
に残された座標情報から前記被写体の三次元形状を把握
することを特徴とする。
In order to achieve the same object, an image information input / output method according to a fifth aspect of the present invention is such that the image of a subject is projected onto a plurality of viewpoints and coordinate information relating to the outside of the contours of the projected plurality of images. Is removed from the spatial coordinate information expressing each coordinate of the space including the subject, so that the three-dimensional shape of the subject is grasped from the coordinate information remaining in the spatial coordinate information.

【0018】ここで、「奥行き」とは、被写体各部位の
視点からの距離を意味する。
Here, the "depth" means the distance of each part of the subject from the viewpoint.

【0019】[0019]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0020】以下に、本発明の実施の一形態に係る画像
情報入出力装置を説明する。
An image information input / output device according to an embodiment of the present invention will be described below.

【0021】まず、図2〜図4を用いて画像情報入出力
装置の構成を説明し、次に図5〜図13を用いて奥行き
情報抽出処理について説明した上で、最後に図1を用い
て奥行き情報の統合処理について説明する。
First, the configuration of the image information input / output device will be described with reference to FIGS. 2 to 4, the depth information extraction processing will be described with reference to FIGS. 5 to 13, and finally FIG. The depth information integration process will be described.

【0022】図2は、本実施の形態に係る画像情報入出
力装置と、その周辺環境の概略を示すブロック図であ
る。
FIG. 2 is a block diagram showing an outline of the image information input / output device according to the present embodiment and its surrounding environment.

【0023】同図において、画像情報入出力装置20に
は撮像ヘッド部(カメラヘッド)1の他、カメラ姿勢位
置検知部4、画像メモリ5、奥行き情報演算部6及び2
次元画像データ演算部7から成る処理部21が含まれ
る。
In the figure, in the image information input / output device 20, in addition to the image pickup head unit (camera head) 1, a camera posture position detection unit 4, an image memory 5, depth information calculation units 6 and 2 are provided.
A processing unit 21 including the three-dimensional image data calculation unit 7 is included.

【0024】撮像ヘッド部1は、撮像開始の位置A0か
ら撮像終了の位置Anまで、円弧状に移動しながら検出
対象である被写体2を撮像する。左側の撮像レンズ10
0Lの撮像範囲は円弧10Lで、右側の撮像レンズ10
0Rの撮像範囲は円弧10Rで示されている。照明部2
00は、撮像環境に応じて照明光を被写体2に照射す
る。また、被写体2の背後には、パッド(以下「背面」
という)3が配置される。
The image pickup head unit 1 picks up an image of the subject 2 to be detected while moving in an arc shape from the image pickup start position A0 to the image pickup end position An. Left imaging lens 10
The imaging range of 0L is a circular arc 10L, and the imaging lens 10 on the right side
The imaging range of 0R is indicated by the arc 10R. Lighting unit 2
00 illuminates the subject 2 with illumination light according to the imaging environment. In addition, a pad (hereinafter referred to as “back surface”) is provided behind the subject 2.
3) is placed.

【0025】カメラ姿勢位置検知部4は、ジャイロ等の
センサにより角度情報を算出すると共に、背面3から得
られる情報に基づく画像処理により、姿勢・位置情報を
算出することにより、撮像系の姿勢・位置を検知する。
The camera posture position detection unit 4 calculates angle information by a sensor such as a gyro and also calculates posture and position information by image processing based on the information obtained from the back surface 3 to determine the posture / position of the image pickup system. Detect the position.

【0026】なお、撮像ヘッド部1によるA0−An間
の各撮像地点における位置の情報は、このカメラ姿勢位
置検知部4から周辺機器等へ送出される。
The information on the position at each image pickup point between A0 and An by the image pickup head unit 1 is sent from the camera posture position detection unit 4 to peripheral devices and the like.

【0027】画像メモリ5は、撮像ヘッド1で得られた
画像情報とカメラ姿勢位置検知部4で得られた撮像ヘッ
ド部1の位置情報とを記憶する。
The image memory 5 stores the image information obtained by the image pickup head 1 and the position information of the image pickup head unit 1 obtained by the camera posture position detection unit 4.

【0028】奥行き情報演算部6は、画像メモリ5に記
憶された上記画像情報、位置情報に基づき被写体2の立
体形状を演算する。
The depth information calculator 6 calculates the three-dimensional shape of the subject 2 based on the image information and the position information stored in the image memory 5.

【0029】2次元画像データ演算部7は、上記演算さ
れた被写体2の立体形状に係る三次元情報に基づいて、
任意の視点から見た場合の被写体2について、使用者の
指定する画像形態での2次元画像情報を演算する。
The two-dimensional image data calculation unit 7 calculates the three-dimensional information about the three-dimensional shape of the subject 2 calculated as above.
Two-dimensional image information in the image form specified by the user is calculated for the subject 2 viewed from an arbitrary viewpoint.

【0030】次に、本装置の使用時の処理を略説する。Next, the processing when using this apparatus will be briefly described.

【0031】まず使用者は、撮像ヘッド部1を被写体2
に向け図示しないレリーズボタンを操作すると、被写体
2の撮像が行われ、最初の画像情報が画像メモリに5に
記憶される。
First, the user attaches the imaging head unit 1 to the subject 2
When a release button (not shown) is operated, the subject 2 is imaged and the first image information is stored in the image memory 5.

【0032】次に使用者が撮像ヘッド部1を、被写体2
を中心に位置A0から位置Anへ移動させる。位置A0
からAnへ移動している最中に、位置A0に対して撮像
ヘッド部1の位置および撮像方向が所定量変化したこと
をカメラ姿勢検知部4が検知すると、次に2度目の撮像
が行なわれ、以下順々にn度目まで同様に撮像が行われ
る。
Next, the user attaches the imaging head unit 1 to the subject 2
The center is moved from the position A0 to the position An. Position A0
When the camera posture detection unit 4 detects that the position and the imaging direction of the imaging head unit 1 have changed from the position A0 by a predetermined amount while moving from A to An, the second imaging is performed. In the same manner, imaging is sequentially performed up to the nth time.

【0033】例えば3°毎の角度間隔で撮像されるとす
ると、位置A0〜Anが180°である場合には、合計
60回撮像されることになる。角度間隔の設定は、ジャ
イロ等の性能及び求めたい奥行き情報の分解能から決定
する。例えばジャイロの検出能力が90°/secなら
ば、3°/フレーム速度と設定する。
For example, if images are taken at angular intervals of 3 °, a total of 60 images will be taken when the positions A0 to An are 180 °. The setting of the angular interval is determined from the performance of the gyro and the resolution of the depth information to be obtained. For example, if the detection capability of the gyro is 90 ° / sec, 3 ° / frame speed is set.

【0034】被写体2の画像情報は、カメラ姿勢位置検
知部4により得られた撮像ヘッド部1の位置A0に対す
る位置の変位量及び撮像方向の変位量と共に、画像メモ
リ5に記憶される。そして、この位置の変位量および方
向の変位量の少なくとも一方が所定量より大きい場合に
は、警告が行われる。
The image information of the subject 2 is stored in the image memory 5 together with the amount of displacement of the position of the image pickup head unit 1 with respect to the position A0 and the amount of displacement in the image pickup direction obtained by the camera posture position detector 4. Then, when at least one of the displacement amount of this position and the displacement amount of the direction is larger than a predetermined amount, a warning is given.

【0035】この撮像動作が数回繰り返され、被写体2
の奥行き情報を演算するのに十分な数の画像情報が得ら
れると、図示しない撮影終了検知器等でその旨が使用者
に知らされ、撮像が終了する。
This image pickup operation is repeated several times, and the object 2
When a sufficient number of pieces of image information for calculating the depth information are obtained, the user is notified of that fact by an imaging end detector or the like (not shown), and the imaging ends.

【0036】次に、奥行き情報演算部6では画像メモリ
5に記憶された画像情報とそれぞれの画像データに対応
する撮像ヘッド部1の位置情報とから、被写体2の三次
元画像情報が演算される。2次元画像データ演算部7
は、画像情報入出力装置20に接続された操作部11に
より指定された画像形態で、かつ被写体2を最初に撮影
した位置A0から見た場合の二次元画像情報を、被写体
2の三次元画像情報に基づき演算し、操作部11に接続
されたモニタ8に表示させる。
Next, the depth information calculation unit 6 calculates the three-dimensional image information of the subject 2 from the image information stored in the image memory 5 and the position information of the image pickup head unit 1 corresponding to each image data. . Two-dimensional image data calculation unit 7
Is the three-dimensional image of the subject 2 in the image form designated by the operation unit 11 connected to the image information input / output device 20, and the two-dimensional image information when the subject 2 is first photographed from the position A0. It is calculated based on the information and displayed on the monitor 8 connected to the operation unit 11.

【0037】使用者は、操作部11を操作して、2次元
画像データ演算部7に操作に応じた演算を行わせること
により、二次元画像情報を、被写体2を任意の視点から
見た場合の情報に変更することができる。さらに、操作
部11の操作により、モニタ8に表示される被写体2の
画像形態を変更することができる。
When the user operates the operation unit 11 and causes the two-dimensional image data operation unit 7 to perform an operation according to the operation, the two-dimensional image information is viewed from an arbitrary viewpoint of the subject 2. You can change the information. Further, by operating the operation unit 11, the image form of the subject 2 displayed on the monitor 8 can be changed.

【0038】なお、プリンタ9は処理部21及び操作部
11に接続され、各種情報を印刷出力する。また、画像
情報入出力装置20及び文章データ作成部1001に接
続されたデータ合成部1000は、画像情報入出力装置
20から送られてきた画像情報と文章データ作成部10
01により作成され送られてきた文書ファイルとを合成
する。
The printer 9 is connected to the processing section 21 and the operation section 11 and prints out various information. Further, the data composition unit 1000 connected to the image information input / output device 20 and the text data creation unit 1001 includes the image information and text data creation unit 10 sent from the image information input / output device 20.
The document file created and sent by 01 is combined.

【0039】図3は、本実施の形態に係る画像情報入出
力装置の全体構成図であり、図2の撮像ヘッド部1及び
処理部21の構成要素を詳細に示したものである。
FIG. 3 is an overall configuration diagram of the image information input / output device according to the present embodiment, and shows the components of the image pickup head unit 1 and the processing unit 21 of FIG. 2 in detail.

【0040】同図中、図2と同一の要素には同一符号を
付してある。
In the figure, the same elements as those in FIG. 2 are designated by the same reference numerals.

【0041】システムコントローラ210には、照明部
200、カメラ姿勢位置検知部4、ズーム制御部106
L,106R、フォーカス制御部107L,107R、
絞り制御部108L,108R、発音体97、イメージ
センサドライバ102L1,102R1、映像信号処理
部104L,104R、被写体分離部105L,105
R、合焦検出部270、画像処理部220、レリーズボ
タン230、外部入力I/F(インタフェイス)部76
0、オーバラップ検出部92が接続され、システムコン
トローラ210は、これら全体を制御する。
The system controller 210 includes an illumination unit 200, a camera posture position detection unit 4, and a zoom control unit 106.
L, 106R, focus control units 107L, 107R,
Aperture control units 108L and 108R, sounding body 97, image sensor drivers 102L1 and 102R1, video signal processing units 104L and 104R, and subject separation units 105L and 105.
R, focus detection unit 270, image processing unit 220, release button 230, external input I / F (interface) unit 76
0, the overlap detector 92 is connected, and the system controller 210 controls all of them.

【0042】レリーズボタン230が押下されると、被
写体からの光像は、ズームレンズからなる撮像レンズ1
00L,100Rを経て絞り101L,101Rによっ
て絞られ、CCD等を用いてイメージセンサ102L
2,102R2により電気信号に交換される。なお、イ
メージセンサ102L2,102R2は、それぞれに接
続されたイメージセンサドライバ102L1,102R
1を介して制御される。
When the release button 230 is pressed, the optical image from the subject is captured by the image pickup lens 1 including a zoom lens.
00L, 100R, then apertures 101L, 101R, and an image sensor 102L using a CCD or the like.
2, 102R2 exchanges electrical signals. The image sensors 102L2 and 102R2 are connected to the image sensor drivers 102L1 and 102R, respectively.
1 is controlled via

【0043】上記電気信号は、イメージセンサ102L
2,102R2に接続されたA/D変換部103L,1
03Rによってアナログ信号からデジタル信号に変換さ
れ、A/D変換部103Lに接続されたメモリ83及び
メモリ85、並びにA/D変換部103Rに接続された
メモリ73及びメモリ75にそれぞれ格納される。
The electric signal is sent to the image sensor 102L.
2, 102R2 connected to the A / D converter 103L, 1
The analog signal is converted to a digital signal by 03R and stored in the memory 83 and the memory 85 connected to the A / D conversion unit 103L, and the memory 73 and the memory 75 connected to the A / D conversion unit 103R.

【0044】メモリ83,85及びメモリ73,75に
格納されたデジタル信号は、映像信号処理部104L及
び映像信号処理部104Rによって適切な形態の輝度信
号及び色信号から成る映像信号に変換される。
The digital signals stored in the memories 83 and 85 and the memories 73 and 75 are converted by the video signal processing section 104L and the video signal processing section 104R into video signals composed of luminance signals and chrominance signals of appropriate forms.

【0045】上記変換された映像信号は、映像信号処理
部104L,104Rに接続された被写体分離部105
L,105Rによって立体形状情報として抽出されるべ
き被写体2の信号と背面3の信号とに分離される。
The converted video signal is processed by the subject separation unit 105 connected to the video signal processing units 104L and 104R.
The signals of the subject 2 and the signal of the rear surface 3 which are to be extracted as three-dimensional shape information are separated by L and 105R.

【0046】ここで、分離は例えば次のようにして行
う。
Here, the separation is performed as follows, for example.

【0047】予め背面3を撮像してその画像情報をメモ
リに保持しておき、その後被写体2を上記背面3の前部
に配置して被写体2ごと撮像する。そして、メモリに保
持された背面3のみの画像とのマッチング処理及び差分
処理を施すことにより背面領域のみを分離する。なお、
分離の方法はこれに限るものでなく、色またはテクスチ
ャの情報を基に分離するようにしてもよい。
The rear surface 3 is imaged in advance and its image information is held in a memory, and then the object 2 is arranged in front of the rear surface 3 and the object 2 is imaged together. Then, only the back surface area is separated by performing matching processing and difference processing with the image of only the back surface 3 held in the memory. In addition,
The separation method is not limited to this, and separation may be performed based on color or texture information.

【0048】このようにして分離された被写体2の映像
信号は、被写体分離部105L,105Rに接続された
画像処理部220により、撮像時のパラメータに基づく
奥行き情報の抽出処理(以下「第1処理」といい、詳細
は後述する)が施された後、記録部250に記録され
る。
The image signal of the subject 2 separated in this way is extracted by the image processing unit 220 connected to the subject separating units 105L and 105R to extract depth information based on the parameters at the time of image pickup (hereinafter referred to as "first process"). ", Which will be described later in detail), and is recorded in the recording unit 250.

【0049】一方、映像信号処理部104L,104R
で得られた輝度信号及び色信号から成る映像信号は、画
像処理部220により、視差を用いた奥行き情報の抽出
処理(以下「第2処理」といい、詳細は後述する)が施
された後、記録部250に記録される。
On the other hand, the video signal processing units 104L and 104R
After the video signal including the luminance signal and the color signal obtained in step 1 is subjected to depth information extraction processing using parallax (hereinafter referred to as “second processing”, details will be described later) by the image processing unit 220. Are recorded in the recording unit 250.

【0050】そして、上記第1処理及び第2処理により
得られた奥行き情報を、システムコントローラ210の
制御により画像処理部220にて、取捨選択することに
より統合し、被写体2全体の最終的奥行き情報を求める
(後述)。
Then, the depth information obtained by the first processing and the second processing is integrated by selecting it in the image processing section 220 under the control of the system controller 210, and the final depth information of the entire subject 2. (See below).

【0051】また、被写体分離部105L,105Rに
接続された合焦検出部270により、合焦が行われる。
Focusing is performed by a focus detecting section 270 connected to the object separating sections 105L and 105R.

【0052】焦点距離の設定は、次のようにして行う。The focal length is set as follows.

【0053】まず、距離情報は下記数式1により表わさ
れる。
First, the distance information is represented by the following mathematical formula 1.

【0054】[0054]

【数1】Z=fb/d ここに、Zは視点と被写体2との距離を、fは焦点距離
を、bは基線長を、dは二つの視点の視差を示す。視差
により決まる距離分離能をパラメータとして考え、下記
数式2を得る。
Z = fb / d where Z is the distance between the viewpoint and the subject 2, f is the focal length, b is the baseline length, and d is the parallax between the two viewpoints. Considering the distance separability determined by parallax as a parameter, the following Equation 2 is obtained.

【0055】[0055]

【数2】∂Z/∂d=−fb/d2 よって、焦点距離は、下記数式3により与えられる。[Formula 2] ∂Z / ∂d = −fb / d 2 Therefore, the focal length is given by the following mathematical formula 3.

【0056】[0056]

【数3】f=(−d2/b)・(∂Z/∂d) また、外部入力I/F760を介してコンピュータ等か
ら分解能を設定し、この値に基づいて、焦点距離fを設
定することも可能である。
[Formula 3] f = (-d 2 / b) · (∂Z / ∂d) Further, the resolution is set from a computer or the like via the external input I / F 760, and the focal length f is set based on this value. It is also possible to do so.

【0057】この他、表示部240は、映像信号処理部
104L,104Rに接続され、種々の画像情報を出力
表示する。
In addition, the display unit 240 is connected to the video signal processing units 104L and 104R and outputs and displays various image information.

【0058】また、オーバーラップ検出部92は、メモ
リ73,75,83,85に接続されている。
The overlap detecting section 92 is connected to the memories 73, 75, 83 and 85.

【0059】図4は、システムコントローラ210の構
成を示すブロック図である。同図に示すように、システ
ムコントローラ210は、マイクロコンピュータ900
に、画像情報の演算処理を行う画像演算処理部920
と、画像情報を格納するメモリ910とがバスにて接続
されている。
FIG. 4 is a block diagram showing the configuration of the system controller 210. As shown in the figure, the system controller 210 is a microcomputer 900.
In addition, an image calculation processing unit 920 that performs calculation processing of image information.
And a memory 910 for storing image information are connected by a bus.

【0060】以下に、第1処理を図5〜図7を用いて説
明する。
The first process will be described below with reference to FIGS.

【0061】図5は、本実施の形態において、第1処理
を説明するための図である。
FIG. 5 is a diagram for explaining the first process in this embodiment.

【0062】同図中、1120は空間を所定の座標間隔
で区切ったボクセル空間であり、三次元座標(X,Y,
Z)により各ボクセルが表現される。ボクセル空間11
20は、球形状の被写体2全体を内包し、被写体2表面
の各部位の位置情報は、カメラの主点1110からの奥
行き情報として三次元座標により表現される。
In the figure, reference numeral 1120 denotes a voxel space in which the space is divided at predetermined coordinate intervals, and three-dimensional coordinates (X, Y,
Each voxel is represented by Z). Voxel space 11
Reference numeral 20 includes the entire spherical object 2, and the position information of each part on the surface of the object 2 is represented by three-dimensional coordinates as depth information from the principal point 1110 of the camera.

【0063】また、1100は、得られた画像に前述し
た手法により被写体2と背面3との分離処理が施された
背景分離画像であり、被写体画像1101と背景画像1
102とから成る。
Reference numeral 1100 denotes a background separation image obtained by subjecting the obtained image to the separation processing of the object 2 and the back surface 3 by the above-described method, and the object image 1101 and the background image 1
And 102.

【0064】ここで、背景分離画像1100は、画像の
各部分について、被写体2を表す部分か背面3を表す部
分かが判断されたものであり、上記分離処理の後に、例
えば被写体2を表す部分の画像情報にはフラグ「1」を
付加すると共に、背面3を表わす部分の画像情報にはフ
ラグ「0」を付加することにより得ることができる。
Here, it is determined that the background separated image 1100 is a portion representing the subject 2 or a portion representing the back surface 3 in each portion of the image, and, for example, the portion representing the subject 2 after the separation processing. This can be obtained by adding the flag "1" to the image information of "1" and adding the flag "0" to the image information of the portion representing the back surface 3.

【0065】線分1130〜1134は、分離された被
写体画像の輪郭部から主点1110を通り、被写体2に
接する。被写体2の表面上の点P1,P2,P3,P
4,P5は、被写体画像1101の輪郭上の点p1,p
2,p3,p4,p5に対応し、それぞれ線分113
0,1131,1132,1133,1134により結
ばれる。
The line segments 1130 to 1134 pass through the principal point 1110 from the outline of the separated subject image and contact the subject 2. Points P1, P2, P3, P on the surface of subject 2
4 and P5 are points p1 and p on the contour of the subject image 1101.
2, p3, p4, p5 corresponding to line segment 113
It is connected by 0,1131,1132,1133,1134.

【0066】第1処理は、ボクセル空間1120から被
写体2の輪郭の外部を除去することにより行う。すなわ
ち、外側のボクセルデータを多数の線分で切るのであ
る。これは、例えば線分1130〜1134よりも外側
にあるボクセルは、被写体部分ではないものとして扱
い、内側のボクセルのみで形成される立体形状が被写体
2の形状であるとみなすことを意味する。具体的な処理
は、各ボクセルについて、フラグを立て、例えばフラグ
「0」ならそのボクセルの座標情報をボクセル空間11
20の空間座標から除去し、フラグ「1」なら採用する
ことにより行う。
The first processing is performed by removing the outside of the contour of the subject 2 from the voxel space 1120. That is, the outer voxel data is divided into a large number of line segments. This means that, for example, the voxels outside the line segments 1130 to 1134 are treated as not the subject portion, and the three-dimensional shape formed only by the inner voxels is regarded as the subject 2 shape. A specific process is to set a flag for each voxel. For example, if the flag is “0”, the coordinate information of that voxel is set to the voxel space 11
It is performed by removing from the space coordinates of 20 and adopting the flag "1".

【0067】図6は、第1処理による座標情報除去処理
を模式的に示したものであり、被写体2の断面図を示し
たものである。本図では、説明を容易化するため、被写
体2を撮像するカメラを二次元的に移動させ、同一平面
内で処理を行った場合について示している。
FIG. 6 schematically shows the coordinate information removing process by the first process, and is a sectional view of the subject 2. In the figure, for ease of explanation, a case is shown in which the camera for imaging the subject 2 is moved two-dimensionally and processing is performed within the same plane.

【0068】同図中、(a)の1210はボクセル空間
の一部(平面で捉えたものである)であり、その中に平
面体としての被写体2がある。
In the figure, reference numeral 1210 in (a) is a part of the voxel space (captured in a plane), and the subject 2 as a plane body is present therein.

【0069】本図では撮像する視点は4つとし、各カメ
ラの主点1200〜1203がそれに該当する。
In this figure, there are four viewpoints to be imaged, and the main points 1200 to 1203 of each camera correspond to it.

【0070】被写体2の画像は各主点1200〜120
3を経て、イメージセンサ120L2等の断面1240
〜1243に投影される。
The image of the subject 2 has main points 1200-120.
3 through the cross section 1240 of the image sensor 120L2, etc.
To 1243.

【0071】被写体2の輪郭に接する線分1220〜1
227は、被写体2の内側の境界線となる。線分122
0,1221は主点1200を通り、線分1222,1
223は主点1201を通り、線分1224,1225
は主点1202を通り、線分1226,1227は主点
1203を通る。
Line segments 1220 to 1 that are in contact with the contour of the subject 2
227 is an inner boundary line of the subject 2. Line segment 122
0,1221 passes through the main point 1200, and the line segment 1222,1
223 passes through the main point 1201 and is divided into line segments 1224 and 1225.
Passes through the principal point 1202, and the line segments 1226 and 1227 pass through the principal point 1203.

【0072】ここで、各線分1200〜1207により
被写体2の外側の部分をボクセル空間の一部1210か
ら除去すると、同図に示す交点a,b,c,d,e,
f,g,hで囲まれた領域1230が、境界線の内側と
して残る。同図の(b)は、本処理が施された領域を抽
出し、被写体2の真の領域1231をオーバラップさせ
て示したものである。
Here, when the outer part of the subject 2 is removed from the part 1210 of the voxel space by the line segments 1200 to 1207, the intersection points a, b, c, d, e, shown in FIG.
A region 1230 surrounded by f, g, and h remains inside the boundary line. In (b) of the figure, the region subjected to this processing is extracted, and the true region 1231 of the subject 2 is shown as being overlapped.

【0073】このような処理を三次元的に行うことで、
被写体2の立体的輪郭を把握できる。
By performing such processing three-dimensionally,
The three-dimensional contour of the subject 2 can be grasped.

【0074】なお、このような処理は、ボクセル空間側
から投影画像を見て、三次元的に行うこともできる。す
なわち、例えばボクセル空間内のある座標から、逆に主
点1110を通る線分を計算すると共に、その座標に係
る点が背景分離画像1100のどこに投影されるかを計
算し、その投影点が被写体画像1101を示すかそれと
も背景画像1102を示すかを、フラグにより判断する
ようにしてもよい。そして、この処理をボクセル空間の
点(0,0,0)から(X0,Y0,Z0)まで、各点に
ついて行うのである。
Note that such processing can be performed three-dimensionally by viewing the projected image from the voxel space side. That is, for example, a line segment that passes through the principal point 1110 is calculated from a certain coordinate in the voxel space, and where the point relating to the coordinate is projected on the background separated image 1100 is calculated. A flag may be used to determine whether the image 1101 or the background image 1102 is displayed. Then, this processing is performed for each point from the point (0, 0 , 0) to (X 0 , Y 0 , Z 0 ) in the voxel space.

【0075】この処理は、以下のような算術処理により
行われる。
This processing is performed by the following arithmetic processing.

【0076】まず、主点1110の座標を(a0,b0
0)とし、ボクセル空間座標(X,Y,Z)に対応す
る背景分離画像1100への投影点を(x,y)とする
と、投影点(x,y)は、下記数式4を介して、下記数
式5,6により求められる。
First, the coordinates of the principal point 1110 are (a 0 , b 0 ,
c 0 ), and the projection point on the background separated image 1100 corresponding to the voxel space coordinates (X, Y, Z) is (x, y), the projection point (x, y) is given by , Is calculated by the following mathematical formulas 5 and 6.

【0077】[0077]

【数4】 (Equation 4)

【0078】[0078]

【数5】x=fX′/Z′## EQU5 ## x = fX '/ Z'

【0079】[0079]

【数6】y=fY′/Z′ ここに、ωは、X軸に関し、Y軸からZ軸方向へ回転す
る方向へのねじれ角であり、θは、Y軸に関し、Z軸か
らX軸方向へ回転する方向へのねじれ角であり、φは、
Z軸に関し、X軸からY軸方向へ回転する方向へのねじ
れ角である。これらのねじれ角ω,θ,φは、カメラの
主点1110の座標系と、ボクセル空間1120の座標
系とのねじれ関係を示すパラメータである。
Y = fY ′ / Z ′ where ω is the twist angle in the direction of rotation from the Y axis to the Z axis with respect to the X axis, and θ is the Y axis with respect to the Z axis to the X axis. Is the twist angle in the direction of rotation, and φ is
With respect to the Z axis, it is the twist angle in the direction of rotation from the X axis to the Y axis direction. These twist angles ω, θ, and φ are parameters indicating the twist relationship between the coordinate system of the principal point 1110 of the camera and the coordinate system of the voxel space 1120.

【0080】次に、投影点(x,y)のフラグを参照す
ることにより、当該ボクセルが被写体2の内部に属する
ものであるか否かを判別する。なお、x,yの値が整数
値でない場合は、その近傍領域からフラグを判断する。
そして、この処理を多視点から繰り返し行うことによ
り、被写体2の奥行き情報がボクセル空間1120の中
に抽出される。この処理の過程を、図7に示す。同図
中、図5と同一の要素には同一符号を付してある。
Next, by referring to the flag of the projection point (x, y), it is judged whether or not the voxel belongs to the inside of the subject 2. When the values of x and y are not integers, the flag is judged from the neighboring area.
Then, the depth information of the subject 2 is extracted into the voxel space 1120 by repeating this processing from multiple viewpoints. The process of this process is shown in FIG. In the figure, the same elements as those in FIG. 5 are designated by the same reference numerals.

【0081】以上説明した第1処理により、被写体2の
輪郭を把握できる。
By the first processing described above, the contour of the subject 2 can be grasped.

【0082】以下に、図8〜図13を用いて、上記第2
処理について説明する。
Below, with reference to FIG. 8 to FIG.
The processing will be described.

【0083】図8は、第2処理により被写体2の奥行き
情報を抽出する手順を示すブロック図である。
FIG. 8 is a block diagram showing a procedure for extracting the depth information of the subject 2 by the second processing.

【0084】本処理は、いわゆるステレオ画像から奥行
き情報を求めるものである。ステレオ画像110は画像
メモリ5に蓄積されており、左画像と右画像とからな
る。
This processing is to obtain depth information from a so-called stereo image. The stereo image 110 is stored in the image memory 5 and includes a left image and a right image.

【0085】ステレオ画像110は、エッジ抽出部11
1に入力され、後述する手法によりエッジが抽出された
エッジ画像が生成される。このエッジ画像は、エッジ画
像対応点抽出部113により、左右の画像中の各画素
が、互いにどのような対応関係になっているかが判断さ
れ、その対応関係の情報は矛盾排除処理部114に出力
される。
The stereo image 110 includes the edge extraction unit 11
1 is input, and an edge image in which edges have been extracted is generated by the method described later. With respect to this edge image, the edge image corresponding point extraction unit 113 determines how each pixel in the left and right images has a corresponding relationship, and the information on the corresponding relationship is output to the contradiction elimination processing unit 114. To be done.

【0086】一方、ステレオ画像110は、ステレオ画
像対応点抽出部112にも入力され、後述する手法に
て、ステレオ画像110の輝度値から各画素が互いにど
のような対応関係になっているかが判断されて、その対
応関係の情報が矛盾排除処理部114に出力される。
On the other hand, the stereo image 110 is also input to the stereo image corresponding point extraction unit 112, and it is determined from the brightness value of the stereo image 110 how each pixel corresponds to each other by a method described later. Then, the information on the correspondence is output to the contradiction elimination processing unit 114.

【0087】矛盾排除処理部114では、エッジ画像対
応点抽出部113で求められた対応関係と、ステレオ画
像対応点抽出部112で求められた対応関係とを比較
し、両者に矛盾があるかどうかを判別する。そして、両
者に矛盾があるときは、対応関係の信頼性が低いものと
してその情報を排除する。このときの判断においては、
両者に適当に重み付けをするようにしてもよい。
In the contradiction elimination processing unit 114, the correspondence relationship obtained by the edge image corresponding point extraction unit 113 and the correspondence relationship obtained by the stereo image corresponding point extraction unit 112 are compared to determine whether or not there is a contradiction. To determine. Then, when there is a contradiction between the two, the information is excluded because the correspondence relationship has low reliability. In the judgment at this time,
Both may be appropriately weighted.

【0088】矛盾排除処理部114の処理結果はオクル
ージョン領域判定処理部115に出力される。ここで
は、既に求められた対応点の個所と、対応点を求める途
中で使用されている相関の程度を表す指数、例えば残差
とにより、オクルージョン領域を判断される。これは、
対応点抽出処理により一応の結果は得られるが、その信
頼性をさらに高めるために行われるものである。
The processing result of the contradiction elimination processing unit 114 is output to the occlusion area determination processing unit 115. Here, the occlusion area is determined based on the locations of the corresponding points that have already been obtained and an index that indicates the degree of correlation used in the course of obtaining the corresponding points, such as a residual. this is,
Although a corresponding result is obtained by the corresponding point extraction process, it is performed to further improve the reliability.

【0089】相関の程度を表す指数としては相関係数ま
たは残差が用いられ、例えば残差が非常に大きいときや
相関係数が低いときは、対応関係の信頼性が低いと判断
される。そして、この信頼性の低い部分が、オクルージ
ョン領域または対応関係が存在しない領域として扱われ
る。
A correlation coefficient or a residual is used as an index indicating the degree of correlation. For example, when the residual is very large or the correlation coefficient is low, it is determined that the reliability of the correspondence is low. Then, this low-reliability portion is treated as an occlusion area or an area having no correspondence.

【0090】奥行き情報分布算出処理部116では、得
られた対応関係に基づいて、三角測量の原理により、被
写体2の奥行き情報が算出される。なお三角測量は、前
記数式1を用いて行う。
In the depth information distribution calculation processing unit 116, the depth information of the subject 2 is calculated based on the obtained correspondence relationship by the principle of triangulation. The triangulation is performed by using the above formula 1.

【0091】ステレオ画像110は、さらに特徴点抽出
部117にも入力され、背景部の特徴点が同定処理され
る。その処理結果は補正データ算出処理部118に出力
され、背景部の特徴点を利用して、撮像パラメータ,姿
勢及び移動関係が取得される。その際、ジャイロ880
による角度変化等の情報が補正データ算出処理部118
に出力される。
The stereo image 110 is also input to the feature point extraction unit 117, and the feature points in the background portion are identified. The processing result is output to the correction data calculation processing unit 118, and the imaging parameter, the posture, and the movement relationship are acquired by using the feature points of the background portion. At that time, gyro 880
Information such as an angle change due to the correction data calculation processing unit 118
Is output to

【0092】ここで、上記ステレオ画像対応点抽出部1
12による対応点抽出処理方法の代表として、テンプレ
ートマッチング法について説明する。
Here, the stereo image corresponding point extraction unit 1
The template matching method will be described as a representative of the corresponding point extraction processing method of 12.

【0093】図9は、ステレオ画像112によるテンプ
レートマッチング法を説明するための図である。
FIG. 9 is a diagram for explaining the template matching method using the stereo image 112.

【0094】同図のように、例えば左画像からN×N画
素のテンプレート画像を切り出す。そしてこれを、右画
像から得られたM×M画素の入力画像内の探索領域(M
−N+1)2上で動かす。さらに、下記数式7に基づ
き、残差R(a1,b1)が最小となるようなテンプレ
ート画像の位置を求め、N×N画素のテンプレート画像
の中心画素を一致個所として求める。
As shown in the figure, for example, a template image of N × N pixels is cut out from the left image. Then, this is set as a search region (M
-N + 1) Move up 2 . Further, the position of the template image that minimizes the residual R (a1, b1) is obtained based on the following formula 7, and the central pixel of the template image of N × N pixels is obtained as the matching point.

【0095】[0095]

【数7】 ここで、(a1,b1)はN×N画素のテンプレート画
像の左上位置を示し、IR(a1,b1)(i,j)は右画像の
部分画像に、TL(i,j)は、左画像から切り出した
テンプレート画像に対応する。
(Equation 7) Here, (a1, b1) indicates the upper left position of the template image of N × N pixels, I R (a1, b1) (i, j) is a partial image of the right image, and T L (i, j) is , Corresponding to the template image cut out from the left image.

【0096】次に、エッジ抽出部111によるエッジ抽
出方法を説明する。エッジ抽出には、例えばロバートフ
ィルタ等の手法のほかゾーベルフィルタを用いることも
できる。
Next, the edge extraction method by the edge extraction unit 111 will be described. For the edge extraction, a Sobel filter can be used in addition to a technique such as a Robert filter.

【0097】ロバートフィルタによれば、入力画像をf
(i,j)とすると、出力画像をg(i,j)は下記数
式8または下記数式9により算出される。
According to the Robert filter, the input image is f
If (i, j), g (i, j) of the output image is calculated by the following formula 8 or formula 9.

【0098】[0098]

【数8】 g(i,j)=[{f(i,j)-f(i+1,j+1)}2+{f(i+1,j)-f(i,j+1)2]1/2 G (i, j) = [{f (i, j) -f (i + 1, j + 1)} 2 + {f (i + 1, j) -f (i, j + 1) ) 2 ] 1/2

【0099】[0099]

【数9】 g(i,j)=|{f(i,j)-f(i+1,j+1)}|+|{f(i+1,j)-f(i,j+1)}| ゾーベルフィルタによれば、下記数式10及び数式11
によりマトリックスfx,fyを得た後、下記数式12
によりエッジの強さの方向を表わす指数θ1が算出され
る。
G (i, j) = | {f (i, j) -f (i + 1, j + 1)} | + | {f (i + 1, j) -f (i, j + 1)} | According to the Sobel filter,
After obtaining the matrices fx and fy by
Thus, the index θ 1 representing the direction of edge strength is calculated.

【0100】[0100]

【数10】 (Equation 10)

【0101】[0101]

【数11】 [Equation 11]

【0102】[0102]

【数12】θ1=tan-1(fy/fx) このようにして、エッジ部が強調された画像に対し二値
化処理を行いエッジ成分を抽出する。なお、二値化処理
は適当な閾値を用いて行う。
[Mathematical formula-see original document] [theta] 1 = tan < -1 > (fy / fx) In this way, binarization processing is performed on the image in which the edge portion is emphasized to extract the edge component. The binarization process is performed using an appropriate threshold value.

【0103】以上のような処理によりステレオ画像に基
づいて求められた奥行き情報を、図10に示す。
FIG. 10 shows the depth information obtained based on the stereo image by the above processing.

【0104】同図において、図5と同一要素には同一符
号を付してその説明を省略する。同図中、点Q1〜Q
7は、奥行き情報が求められた点を示し、点q1〜q
7は、各点Q1〜Q7に対応する背景分離画像1100中
の投影点を示す。また、左右の画像から得られた2つの
背景分離画像の中心間の距離を基線長Bとする。
In the figure, the same elements as those of FIG. 5 are designated by the same reference numerals and the description thereof will be omitted. In the figure, points Q 1 to Q
7 indicates a point for which depth information is obtained, and points q 1 to q
7 shows a projected point in the background separation image 1100 corresponding to each point Q 1 to Q 7. In addition, the distance between the centers of the two background separated images obtained from the left and right images is defined as the baseline length B.

【0105】次に、多視点においてステレオ画像から得
られた奥行き情報の統合処理を、図11〜図13に基づ
き説明する。
Next, the integration processing of depth information obtained from stereo images from multiple viewpoints will be described with reference to FIGS. 11 to 13.

【0106】図11は、第2処理における奥行き情報統
合処理の手順を示すブロック図である。
FIG. 11 is a block diagram showing the procedure of depth information integration processing in the second processing.

【0107】例えば同図に示す第1の視点tによる奥行
き情報Zt、次に第2の視点t+δtによる奥行き情報
t+δtというように、1対のステレオ画像からは、奥
行き情報120が時々刻々と生成される。
[0107] For example, the first view point t by the depth information Z t shown in the figure, then and so depth information Z t + .DELTA.t according to a second viewpoint t + .DELTA.t, 1 from the pair of stereo images, depth information 120 from time to time Generated moment by moment.

【0108】各視点による奥行き情報は、座標系変換部
121に入力され、カメラ姿勢位置検知部4からも入力
される位置情報を用いて、後述する手法により、任意の
統一された座標系に変換される。統一された座標系とし
て、例えば図5に示すようなボクセル空間と同様の座標
系を採用してもよい。統一された座標系への変換には、
アフィン変換等を用い、オイラー角が同一になるように
する。このように変換することにより、多視点で得られ
た奥行き情報の統合処理を容易にできるのである。
The depth information from each viewpoint is input to the coordinate system conversion unit 121 and converted into an arbitrary unified coordinate system by the method described later using the position information input from the camera posture position detection unit 4. To be done. As the unified coordinate system, for example, a coordinate system similar to the voxel space as shown in FIG. 5 may be adopted. To convert to a unified coordinate system,
Use the affine transformation or the like to make the Euler angles the same. By performing such conversion, it is possible to easily integrate the depth information obtained from multiple viewpoints.

【0109】上記統一された座標系に変換された各奥行
き情報は、奥行き情報統合部122にて、オクルージョ
ン領域情報送出部123からの情報をも用いて統合され
る。その処理の詳細は後述する。
The depth information integrated into the unified coordinate system is integrated by the depth information integration unit 122 using the information from the occlusion area information transmission unit 123. Details of the processing will be described later.

【0110】ここでいう「統合」とは、少なくとも二つ
以上の任意の視点による被写体2の奥行き情報120に
対して、各々の局所的なずれ量に係る情報を得て、得ら
れたずれ情報を基に、同一座標系から見た奥行き情報と
することをいい、同一点は同一であると判断すること、
求められた各点の座標の間を補間すること等により行わ
れる。
The "integration" referred to here is obtained by obtaining information relating to each local deviation amount with respect to the depth information 120 of the subject 2 from at least two or more arbitrary viewpoints. Based on, it means that it is the depth information viewed from the same coordinate system, it is determined that the same point is the same,
It is performed by interpolating between the obtained coordinates of each point.

【0111】なお、統合された奥行き情報及びオクルー
ジョン領域情報送出部からの情報は、表示部124によ
り表示される。
The integrated depth information and the information from the occlusion area information sending section are displayed on the display section 124.

【0112】次に、奥行き情報統合部122による統合
処理を図12を用いて説明する。同図の(a)は、第1
の視点tにより得られた奥行き情報Zt(X,Y)を一
例として描いたものである。
Next, the integration processing by the depth information integration unit 122 will be described with reference to FIG. (A) of the figure shows the first
The depth information Z t (X, Y) obtained from the viewpoint t of FIG.

【0113】(b)は、次の第2の視点t+δtにより
得られた奥行き情報Zt+δt(X,Y)を、統一された
方向から見た場合の奥行き情報Z′t+δt(X,Y)を
描いたものである。
[0113] (b) the depth information obtained by the following second aspect t + δt Z t + δt ( X, Y) depth information when the, viewed from unified direction Z 't + δt (X , Y).

【0114】(c)は、(a)と(b)とを描いたもの
であり、奥行き情報Zt(X,Y)とZ′t+δt(X,
Y)とは局所的に(i0,j0)だけずれている。
(C) is a drawing of (a) and (b), showing depth information Z t (X, Y) and Z't + δt (X,
It is locally deviated from (Y) by (i0, j0).

【0115】(d)は、(c)に対して奥行き情報Z′
t+δt(X,Y)を(−i0,−j0)だけシフトして
描いたものである。奥行き情報Z′t+δt(X,Y)を
シフトしたものは、点線で描いてある。
(D) is depth information Z'with respect to (c).
It is drawn by shifting t + δt (X, Y) by (-i0, -j0). The depth information Z ′ t + δt (X, Y) shifted is drawn by a dotted line.

【0116】ここで、上記シフト量を決定する量i0及
びj0は、次のように導出する。
Here, the quantities i0 and j0 that determine the shift amount are derived as follows.

【0117】カメラ姿勢位置検知部4による検知輝度及
びステレオ画像からの奥行き抽出精度が高精度である場
合は、ずれ量Q(i,j)は小さな値となる。ずれ量Q
(i,j)は、下記数式13により算出される。
When the detected brightness by the camera posture position detection unit 4 and the depth extraction accuracy from the stereo image are highly accurate, the deviation amount Q (i, j) has a small value. Deviation amount Q
(I, j) is calculated by the following Expression 13.

【0118】[0118]

【数13】 このずれ量Q(i,j)が最小となるような量i,jを
求め、それを量i0,j0とする。
(Equation 13) The quantities i, j that minimize the deviation Q (i, j) are obtained, and are defined as the quantities i0, j0.

【0119】この量i0,j0によりシフトされ、
(d)のように重ねられた奥行き情報から、以下に説明
する同一点の排除及び中間点の補間の処理を行う。
Shifted by this quantity i0, j0,
From the overlapped depth information as shown in (d), the same point is excluded and the intermediate point is interpolated as described below.

【0120】まず、同一点排除処理を説明する。First, the same point exclusion processing will be described.

【0121】本処理では、互いの奥行き情報中、被写体
2の同一の点を示す情報がある場合には、いずれか一方
の情報を採用し、他方を排除する。これには情報量を削
減するという意義もある。対比される情報が同一の点を
示すか否かは下記数式14また数式15により判断し、
いずれか一方の式が成立する場合に同一と判断する。
In this processing, if there is information indicating the same point of the subject 2 in the mutual depth information, either one is adopted and the other is excluded. This also has the significance of reducing the amount of information. Whether or not the compared information indicates the same point is determined by the following formula 14 or formula 15,
It is determined that they are the same when either one of the expressions is satisfied.

【0122】[0122]

【数14】(x0−x1)2+(y0−y1)2+(z0
−z1)2<ε1
(14) (x0-x1) 2 + (y0-y1) 2 + (z0
-Z1) 2 <ε1

【0123】[0123]

【数15】a2(x0−x1)2+b2(y0−y1)2
+c2(z0−z1)2<ε2 ここで、ε1,ε2は所定の基準値であり、a2,b
2,c2は係数である。例えばa2=b2=1とし、c
2=2とすることにより、距離の違いに対してより敏感
に判断することができる。
## EQU15 ## a2 (x0-x1) 2 + b2 (y0-y1) 2
+ C2 (z0-z1) 2 <ε2 where ε1 and ε2 are predetermined reference values, and a2 and b
2, c2 are coefficients. For example, a2 = b2 = 1, and c
By setting 2 = 2, it is possible to more sensitively judge the difference in distance.

【0124】次に、中間点の補間処理を図13を用いて
説明する。
Next, the intermediate point interpolation processing will be described with reference to FIG.

【0125】同図は、説明を簡略化するために図12の
(d)の奥行き情報をZ−X平面に投影し、一次元で示
したものである。
In the same figure, in order to simplify the explanation, the depth information of (d) of FIG. 12 is projected on the ZX plane and shown in one dimension.

【0126】同図の(a)の白丸が奥行き情報Z
t(X,Y)を示し、黒丸が奥行き情報Z′t+δt(X,
Y)を(i0,j0)シフトした奥行き情報Z′t+δt
(X+i0,Y+j0)を示す。
The white circle in (a) of the figure is the depth information Z.
t (X, Y), and black circles represent depth information Z ′ t + δt (X, Y
Depth information Z ′ t + δt obtained by shifting (Y) by (i0, j0)
(X + i0, Y + j0) is shown.

【0127】ここで行う補間は、例えば互いの奥行き情
報から中間点を採用する中間点補間とする。中間点補間
により求められた新たな奥行き情報Znewを、(b)
に白い四角で示す。
The interpolation performed here is, for example, an intermediate point interpolation that adopts an intermediate point from mutual depth information. The new depth information Znew obtained by the midpoint interpolation is (b)
Is indicated by a white square.

【0128】補間方法としては、線形補間、スプライン
補間等を用いることができる。
As the interpolation method, linear interpolation, spline interpolation or the like can be used.

【0129】次に、撮像系の深度情報から得たフラグを
基に、各奥行き情報Znewの信頼性を判断する。例え
ば、撮像系の光学系の焦点深度情報を利用して、信頼性
の低い奥行き情報Znewは排除する。
Next, the reliability of each depth information Znew is judged based on the flag obtained from the depth information of the image pickup system. For example, the depth information Znew having low reliability is eliminated by using the depth-of-focus information of the optical system of the imaging system.

【0130】さらに、オクルージョン領域情報送出部1
23からの検知情報に基づき、各奥行き情報Znewを
取捨選択する。
Further, the occlusion area information sending section 1
Based on the detection information from 23, each depth information Znew is selected.

【0131】以上説明した第2処理により、被写体2の
立体形状を把握できる。特に被写体2の凹部についても
奥行き情報を得ることが容易であるという利点がある。
The three-dimensional shape of the subject 2 can be grasped by the second processing described above. In particular, there is an advantage that it is easy to obtain depth information about the concave portion of the subject 2.

【0132】以下に、上述した第1処理で求めた奥行き
情報と第2処理で求めた奥行き情報とを統合する処理に
ついて、図1を用いて説明する。
The process of integrating the depth information obtained in the first process and the depth information obtained in the second process described above will be described below with reference to FIG.

【0133】図1は、本実施の形態に係る画像情報入出
力装置において、奥行き情報取捨選択による統合処理を
説明するための図である。
FIG. 1 is a diagram for explaining an integration process by depth information selection in the image information input / output device according to this embodiment.

【0134】同図の(A)は、第1処理の模式図であ
り、図5をより簡略化して描いたものである。また、
(B)は、第2処理の模式図であり、図10をより簡略
化して描いたものである。
FIG. 15A is a schematic diagram of the first processing, which is a simplified drawing of FIG. Also,
(B) is a schematic diagram of the second processing, and is a more simplified drawing of FIG. 10.

【0135】本統合処理の説明を簡略化するため、特定
の断面について述べる。(A),(B)において、特定
断面を斜線で示し、その特定断面を上から(Y軸方向か
ら中心点方向へ)見た場合を(C),(D)に示す。
In order to simplify the description of this integration process, a specific section will be described. In (A) and (B), the specific cross section is shown by hatching, and (C) and (D) show the specific cross section viewed from above (from the Y-axis direction to the central point direction).

【0136】(C)は、第1処理の出力結果を示す斜線
の四角と、第2処理の出力結果を示す斜線の白丸とを単
純に組み合わせ、重ねて表示したものである。なお、こ
の斜線の白丸は、(B)の白丸に対応するものである。
(C) is a display in which the shaded squares showing the output result of the first process and the shaded white circles showing the output result of the second process are simply combined and displayed in an overlapping manner. The shaded white circles correspond to the white circles in (B).

【0137】本統合処理は、次の(1),(2),
(3)の手順により行う。
This integration processing is performed in the following (1), (2),
Perform according to the procedure of (3).

【0138】(1)第2処理による奥行き情報のうち、
第1処理による奥行き情報よりも外側を示すものは除去
する。
(1) Of the depth information obtained by the second processing,
Those outside the depth information obtained by the first process are removed.

【0139】(2)第2処理による奥行き情報のうち、
第1処理による奥行き情報よりも内側、すなわち凹部を
表現できるものは採用すると共に、略同一部位に係る第
1処理による奥行き情報は除去する。
(2) Of the depth information obtained by the second processing,
The inside of the depth information obtained by the first processing, that is, the one that can express the concave portion is adopted, and the depth information obtained by the first processing regarding substantially the same portion is removed.

【0140】(3)残された第1及び第2処理による奥
行き情報は、両者を互いに繋ぐように採用する。
(3) The remaining depth information by the first and second processes is adopted so as to connect the two.

【0141】例えば、(C)の奥行き情報10001,
10002に着目すると、この情報に係る部位について
は、第1処理による奥行き情報よりも奥行き情報100
01,10002の方が外側を示している(飛び出して
いる)ことがわかる。この現象は、何らかの誤差による
ものと考えられるので、奥行き情報10001,100
02は採用せず除去する。
For example, (C) depth information 10001,
Focusing on 10002, regarding the part related to this information, the depth information 100 is larger than the depth information obtained by the first processing.
It can be seen that 01, 10002 indicates the outside (projects). Since this phenomenon is considered to be caused by some error, the depth information 10001,100
02 is not adopted and is removed.

【0142】一方、奥行き情報10003のように、第
1処理による奥行き情報よりも内側を示す(引っ込んで
いる)情報は採用すると共に、同一部位に係る第1処理
による奥行き情報10004は除去する。
On the other hand, like the depth information 10003, the information indicating the inside (recessed) of the depth information by the first process is adopted, and the depth information 10004 by the first process for the same part is removed.

【0143】このように取捨選択するのは、第1処理及
び第2処理の性質を考慮したものである。すなわち、第
1処理は一般に被写体の凸部の抽出精度は高く、凹部の
抽出は困難である一方、第2処理は一般に被写体の凹部
についても抽出が容易である。従って、原則として凸部
については第1処理の結果を、凹部については第2処理
の結果を採用することにより、信頼性の高い奥行き情報
を得ることができるのである。
The selection is made in consideration of the characteristics of the first processing and the second processing. That is, in the first process, the extraction accuracy of the convex part of the subject is generally high, and it is difficult to extract the concave part, while in the second process, the concave part of the subject is generally easy to extract. Therefore, as a general rule, by using the result of the first processing for the convex portion and the result of the second processing for the concave portion, highly reliable depth information can be obtained.

【0144】このような統合処理の結果を(D)に示
す。本処理を三次元的に行うことにより、被写体2の立
体形状に忠実で、滑らかな奥行き情報を得ることができ
る。
The result of such integration processing is shown in (D). By performing this processing three-dimensionally, it is possible to obtain smooth depth information that is faithful to the three-dimensional shape of the subject 2.

【0145】なお、凹部の処理について、上記例では、
二つの奥行き情報10003が隣接している場合を説明
したが、両情報が離れているときは、情報の繋ぎ方を工
夫する。例えば、両情報の間隔が2画素(セル)以下の
場合は両者を繋ぎ、3画素以上の場合は、その3画素に
ついては第1処理の奥行き情報を採用して繋ぐようにす
る。
Regarding the processing of the recess, in the above example,
The case where the two pieces of depth information 10003 are adjacent to each other has been described, but when the two pieces of information are apart from each other, a method of connecting the information is devised. For example, when the distance between both pieces of information is 2 pixels (cells) or less, they are connected, and when the information is 3 pixels or more, the depth information of the first process is used to connect them.

【0146】このように繋ぐことにより、より忠実で滑
らかな奥行き情報が得られる。
By connecting in this way, more faithful and smooth depth information can be obtained.

【0147】なお、統合処理の手順は、前述した
(1),(2),(3)に限るものではない。例えば、
手順(3)に代えて、第1処理及び第2処理の互いの奥
行き情報を適当に重み付けをして補間したものを採用す
るようにしてもよい。
The procedure of the integration process is not limited to the above (1), (2) and (3). For example,
Instead of the procedure (3), the depth information of the first process and the depth information of the second process may be appropriately weighted and interpolated.

【0148】これにより、第2処理の奥行き情報が離散
的(とびとび)である場合にも、滑らかな奥行き情報の
取得を確保できる。
As a result, even if the depth information of the second process is discrete (split), it is possible to ensure smooth acquisition of depth information.

【0149】また、統合処理の手順は、前述した
(1),(2),(3)のうち、(2)に代えて、次の
手順を採用してもよい。すなわち、第2処理による奥行
き情報のうち、第1処理による奥行き情報よりも内側、
すなわち凹部を表現できるものがある場合には、両者の
中間点付近をその部位の奥行き情報として採用する。こ
れにより、奥行き情報をより滑らかにすることができ
る。
Further, as the procedure of the integration process, the following procedure may be adopted instead of (2) among (1), (2) and (3) described above. That is, of the depth information obtained by the second processing, the inside of the depth information obtained by the first processing,
That is, when there is something that can represent the concave portion, the vicinity of the midpoint between the two is adopted as the depth information of the portion. Thereby, the depth information can be made smoother.

【0150】以上説明したように、本実施の形態に係る
画像情報入出力装置によれば、第1処理及び第2処理の
いずれによっても被写体2の奥行き情報を得ることがで
き、さらに両者の特性を考慮して情報を統合することに
より、被写体2の立体形状に忠実で、滑らかな最終的奥
行き情報を得ることができる。また、あらゆる側面から
の精度の高い奥行き情報により、目的に応じた利用価値
の高い画像形態を得ることができる。
As described above, according to the image information input / output device of this embodiment, the depth information of the subject 2 can be obtained by both the first process and the second process, and the characteristics of both can be obtained. By integrating the information in consideration of, it is possible to obtain final depth information that is faithful to the three-dimensional shape of the subject 2 and is smooth. Also, with highly accurate depth information from all sides, it is possible to obtain a highly usable image form according to the purpose.

【0151】なお、本実施の形態において、第1処理及
び第2処理を直交空間座標を用いて行うようにしたが、
これに限るものでなく、極座標または円柱座標等の曲線
座標を用いて行うようにしてもよい。
In the present embodiment, the first process and the second process are performed using the orthogonal space coordinates.
The present invention is not limited to this, and it may be performed using curvilinear coordinates such as polar coordinates or cylindrical coordinates.

【0152】[0152]

【発明の効果】以上説明したように、本発明の請求項1
に係る画像情報入出力装置によれば、輪郭計測手段によ
り被写体の画像が複数の視点に投影され、該投影された
複数の画像の輪郭に基づき前記被写体の各部位の奥行き
情報が求められ、ステレオ計測手段により前記被写体が
二つの視点により撮像され、該二つの視点により撮像さ
れた被写体の二つの画像から前記二つの視点の視差を用
いて前記被写体の各部位の奥行き情報が求められ、前記
輪郭計測手段により得られた奥行き情報と前記ステレオ
計測手段により得られた奥行き情報とに基づいて前記被
写体の各部位の奥行き情報が統合手段により求められる
ので、あらゆる被写体について、任意の視点からの高精
度で滑らかな奥行き情報を得ることができ、三次元形状
情報の利用価値を高めることができる。
As described above, according to the first aspect of the present invention.
According to the image information input / output device of the present invention, the image of the subject is projected onto the plurality of viewpoints by the contour measuring means, depth information of each part of the subject is obtained based on the contours of the projected plurality of images, and the stereo is obtained. The measuring means images the subject from two viewpoints, depth information of each part of the subject is obtained from two images of the subject captured from the two viewpoints by using parallax of the two viewpoints, and the contour is obtained. Since the depth information of each part of the subject is obtained by the integration unit based on the depth information obtained by the measuring unit and the depth information obtained by the stereo measuring unit, high accuracy from any viewpoint is obtained for all subjects. It is possible to obtain smooth depth information and increase the utility value of three-dimensional shape information.

【0153】本発明の請求項2に係る画像情報入出力装
置によれば、前記被写体の各部位に関して、前記輪郭計
測手段により得られた奥行き情報及び前記ステレオ計測
手段により得られた奥行き情報が取捨選択手段により取
捨選択されるので、より信頼性が高く被写体形状に忠実
な奥行き情報を得ることができる。
According to the image information input / output device of the second aspect of the present invention, the depth information obtained by the contour measuring means and the depth information obtained by the stereo measuring means are discarded for each part of the subject. Since depth information is selected by the selection means, it is possible to obtain more reliable depth information that is faithful to the subject shape.

【0154】本発明の請求項3に係る画像情報入出力装
置によれば、前記被写体の略同一部位に関して、前記輪
郭計測手段により得られた奥行き情報及び前記ステレオ
計測手段により得られた奥行き情報のうち外側に係るも
のが前記取捨選択手段により除去されるので、より信頼
性が高く被写体に忠実な奥行き情報を得ることができ
る。
According to the image information input / output device of the third aspect of the present invention, the depth information obtained by the contour measuring means and the depth information obtained by the stereo measuring means for substantially the same part of the subject are displayed. Outer ones are removed by the selection means, so that it is possible to obtain more reliable depth information that is faithful to the subject.

【0155】本発明の請求項4に係る画像情報入出力方
法によれば、輪郭計測段階で被写体の画像が複数の視点
に投影され、該投影された複数の画像の輪郭に基づき前
記被写体の各部位の奥行き情報が求められ、ステレオ計
測段階で前記被写体が二つの視点により撮像され、該二
つの視点により撮像された被写体の二つの画像から前記
二つの視点の視差を用いて前記被写体の各部位の奥行き
情報が求められ、前記輪郭計測段階で得られた奥行き情
報と前記ステレオ計測段階で得られた奥行き情報とに基
づいて前記被写体の各部位の奥行き情報が統合段階で求
められるので、あらゆる被写体について、任意の視点か
らの高精度で滑らかな奥行き情報を得ることができ、三
次元形状情報の利用価値を高めることができる。
According to the image information inputting / outputting method of the fourth aspect of the present invention, the image of the subject is projected at a plurality of viewpoints in the contour measuring step, and each of the subject is projected based on the contours of the projected plurality of images. Depth information of the part is obtained, the subject is imaged from two viewpoints in a stereo measurement step, and each part of the subject is calculated from two images of the subject captured from the two viewpoints using parallax of the two viewpoints. Depth information of each object is obtained in the integration step based on the depth information obtained in the contour measurement step and the depth information obtained in the stereo measurement step. With respect to, it is possible to obtain highly accurate and smooth depth information from an arbitrary viewpoint, and to enhance the utility value of the three-dimensional shape information.

【0156】本発明の請求項5に係る画像情報入出力方
法によれば、被写体の画像を複数の視点に投影され、該
投影された複数の画像の輪郭の外側に係る座標情報が前
記被写体を含む空間の各座標を表現する空間座標情報か
ら除去されることにより、前記空間座標情報に残された
座標情報から前記被写体の三次元形状が把握されるの
で、被写体の三次元形状を、簡易な構成で容易に把握で
きる。
According to the image information input / output method of the fifth aspect of the present invention, the image of the subject is projected onto a plurality of viewpoints, and the coordinate information on the outside of the contours of the projected plurality of images indicates the subject. Since the three-dimensional shape of the subject is grasped from the coordinate information left in the spatial coordinate information by removing the three-dimensional shape of the subject from the spatial coordinate information expressing each coordinate of the space including the three-dimensional shape of the subject, Easy to understand in the configuration.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の一形態に係る画像情報入出力装
置において、奥行き情報の取捨選択による統合処理を説
明するための図である。
FIG. 1 is a diagram for explaining integration processing by selecting depth information in an image information input / output device according to an embodiment of the present invention.

【図2】同実施の形態に係る画像情報入出力装置と、そ
の周辺環境の概略を示すブロック図である。
FIG. 2 is a block diagram showing an outline of an image information input / output device according to the same embodiment and its surrounding environment.

【図3】同実施の形態に係る画像情報入出力装置の全体
構成図である。
FIG. 3 is an overall configuration diagram of an image information input / output device according to the same embodiment.

【図4】同装置に係る、システムコントローラの構成を
示すブロック図である。
FIG. 4 is a block diagram showing a configuration of a system controller according to the apparatus.

【図5】同実施の形態において、第1処理を説明するた
めの図である。
FIG. 5 is a diagram for explaining a first process in the same embodiment.

【図6】第1処理による座標情報除去処理に係る、被写
体断面図である。
FIG. 6 is a sectional view of a subject relating to coordinate information removal processing by the first processing.

【図7】第1処理の処理過程を示す図である。FIG. 7 is a diagram showing a process of a first process.

【図8】第2処理により被写体の奥行き情報を抽出する
手順を示すブロック図である。
FIG. 8 is a block diagram showing a procedure for extracting depth information of a subject by the second processing.

【図9】第2処理におけるテンプレートマッチング法を
説明するための図である。
FIG. 9 is a diagram for explaining a template matching method in the second processing.

【図10】第2処理を説明するための図である。FIG. 10 is a diagram for explaining a second process.

【図11】第2処理における奥行き情報統合処理の手順
を示すブロック図である。
FIG. 11 is a block diagram showing a procedure of depth information integration processing in the second processing.

【図12】第2処理において、奥行き情報統合部による
統合処理を説明するための図である。
FIG. 12 is a diagram for explaining integration processing by a depth information integration unit in the second processing.

【図13】第2処理において、中間点補間処理を説明す
るための図である。
FIG. 13 is a diagram for explaining an intermediate point interpolation process in the second process.

【符号の説明】[Explanation of symbols]

1 撮像ヘッド部 2 被写体 3 背面 4 カメラ姿勢位置検知部 5 画像メモリ 6 奥行き情報演算部 7 2次元画像データ演算部 100R 撮像レンズ 100L 撮像レンズ 102R2 イメージセンサ 102L2 イメージセンサ 104R 映像信号処理部 104L 映像信号処理部 105R 被写体分離部 105L 被写体分離部 210 システムコントローラ 220 画像処理部 900 マイクロコンピュータ 920 画像演算処理部 116 奥行き情報分布算出処理部 122 奥行き情報統合部 DESCRIPTION OF SYMBOLS 1 Imaging head section 2 Subject 3 Rear surface 4 Camera attitude position detection section 5 Image memory 6 Depth information calculation section 7 Two-dimensional image data calculation section 100R Imaging lens 100L Imaging lens 102R2 Image sensor 102L2 Image sensor 104R Video signal processing section 104L Video signal processing Unit 105R Subject Separation Unit 105L Subject Separation Unit 210 System Controller 220 Image Processing Unit 900 Microcomputer 920 Image Calculation Processing Unit 116 Depth Information Distribution Calculation Processing Unit 122 Depth Information Integration Unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 石川 基博 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 ─────────────────────────────────────────────────── ─── Continuation of front page (72) Inventor Motohiro Ishikawa 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 被写体を撮像し該被写体の各部位の奥行
き情報を得る画像情報入出力装置において、前記被写体
の画像を複数の視点に投影し、該投影された複数の画像
の輪郭に基づき前記被写体の各部位の奥行き情報を求め
る輪郭計測手段と、前記被写体を二つの視点により撮像
し、該二つの視点により撮像された被写体の二つの画像
から前記二つの視点の視差を用いて前記被写体の各部位
の奥行き情報を求めるステレオ計測手段と、前記輪郭計
測手段により得られた奥行き情報と前記ステレオ計測手
段により得られた奥行き情報とに基づいて前記被写体の
各部位の奥行き情報を求める統合手段とを備えたことを
特徴とする画像情報入出力装置。
1. An image information input / output device for capturing an image of a subject to obtain depth information of each part of the subject, wherein the image of the subject is projected onto a plurality of viewpoints, and the image is projected based on the contours of the plurality of projected images. A contour measuring unit that obtains depth information of each part of the subject, and the subject is imaged from two viewpoints, and the two images of the subject captured from the two viewpoints are used to detect the subject using the parallax of the two viewpoints. Stereo measurement means for obtaining depth information of each part, and integration means for obtaining depth information of each part of the subject based on the depth information obtained by the contour measurement means and the depth information obtained by the stereo measurement means. An image information input / output device comprising:
【請求項2】 前記統合手段は、前記被写体の各部位に
関して、前記輪郭計測手段により得られた奥行き情報及
び前記ステレオ計測手段により得られた奥行き情報を取
捨選択する取捨選択手段を備えたことを特徴とする請求
項1記載の画像情報入出力装置。
2. The integrating means comprises a sorting means for sorting depth information obtained by the contour measuring means and depth information obtained by the stereo measuring means for each part of the subject. The image information input / output device according to claim 1, characterized in that:
【請求項3】 前記取捨選択手段は、前記被写体の略同
一部位に関して、前記輪郭計測手段により得られた奥行
き情報及び前記ステレオ計測手段により得られた奥行き
情報のうち外側に係るものを除去することを特徴とする
請求項2記載の画像情報入出力装置。
3. The selection means removes the depth information obtained by the contour measurement means and the depth information obtained by the stereo measurement means, which are outside, with respect to substantially the same part of the subject. The image information input / output device according to claim 2.
【請求項4】 被写体を撮像し該被写体の各部位の奥行
き情報を得る画像情報入出力方法において、前記被写体
の画像を複数の視点に投影し、該投影された複数の画像
の輪郭に基づき前記被写体の各部位の奥行き情報を求め
る輪郭計測段階と、前記被写体を二つの視点により撮像
し、該二つの視点により撮像された被写体の二つの画像
から前記二つの視点の視差を用いて前記被写体の各部位
の奥行き情報を求めるステレオ計測段階と、前記輪郭計
測段階により得られた奥行き情報と前記ステレオ計測段
階により得られた奥行き情報とに基づいて前記被写体の
各部位の奥行き情報を求める統合段階とを含むことを特
徴とする画像情報入出力方法。
4. An image information input / output method for capturing an image of a subject and obtaining depth information of each part of the subject, wherein the images of the subject are projected onto a plurality of viewpoints, and the image is projected based on the contours of the plurality of projected images. A contour measuring step of obtaining depth information of each part of the subject, and the subject is imaged from two viewpoints, and from the two images of the subject imaged from the two viewpoints, the parallax of the two viewpoints is used to detect the subject. A stereo measurement step of obtaining depth information of each part, and an integration step of obtaining depth information of each part of the subject based on the depth information obtained by the contour measurement step and the depth information obtained by the stereo measurement step. An image information input / output method comprising:
【請求項5】 被写体の画像を複数の視点に投影し、該
投影された複数の画像の輪郭の外側に係る座標情報を前
記被写体を含む空間の各座標を表現する空間座標情報か
ら除去することにより、前記空間座標情報に残された座
標情報から前記被写体の三次元形状を把握することを特
徴とする画像情報入出力方法。
5. An image of a subject is projected to a plurality of viewpoints, and coordinate information outside the contours of the plurality of projected images is removed from spatial coordinate information representing each coordinate of a space including the subject. According to the image information input / output method, the three-dimensional shape of the subject is grasped from the coordinate information left in the spatial coordinate information.
JP8057056A 1996-02-21 1996-02-21 Input/output method and device for image information Pending JPH09229648A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8057056A JPH09229648A (en) 1996-02-21 1996-02-21 Input/output method and device for image information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8057056A JPH09229648A (en) 1996-02-21 1996-02-21 Input/output method and device for image information

Publications (1)

Publication Number Publication Date
JPH09229648A true JPH09229648A (en) 1997-09-05

Family

ID=13044795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8057056A Pending JPH09229648A (en) 1996-02-21 1996-02-21 Input/output method and device for image information

Country Status (1)

Country Link
JP (1) JPH09229648A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007069721A1 (en) * 2005-12-16 2007-06-21 Ihi Corporation Three-dimensional shape data storing/displaying method and device, and three-dimensional shape measuring method and device
WO2007069726A1 (en) * 2005-12-16 2007-06-21 Ihi Corporation Self-position identifying method and device, and three-dimensional shape measurement method and device
WO2007069724A1 (en) * 2005-12-16 2007-06-21 Ihi Corporation Three-dimensional shape data aligning method and device
JP2008309671A (en) * 2007-06-15 2008-12-25 Ihi Corp Object recognition method and device
JP2009031295A (en) * 2008-08-05 2009-02-12 Olympus Corp Mobile object posture detection device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4650752B2 (en) * 2005-12-16 2011-03-16 株式会社Ihi Self-position identification method and apparatus and three-dimensional shape measurement method and apparatus
JP4650750B2 (en) * 2005-12-16 2011-03-16 株式会社Ihi 3D shape data storage and display method and apparatus, and 3D shape measurement method and apparatus
WO2007069724A1 (en) * 2005-12-16 2007-06-21 Ihi Corporation Three-dimensional shape data aligning method and device
US8300048B2 (en) 2005-12-16 2012-10-30 Ihi Corporation Three-dimensional shape data recording/display method and device, and three-dimensional shape measuring method and device
US8121399B2 (en) 2005-12-16 2012-02-21 Ihi Corporation Self-position identifying method and device, and three-dimensional shape measuring method and device
JPWO2007069726A1 (en) * 2005-12-16 2009-05-28 株式会社Ihi Self-position identification method and apparatus and three-dimensional shape measurement method and apparatus
WO2007069726A1 (en) * 2005-12-16 2007-06-21 Ihi Corporation Self-position identifying method and device, and three-dimensional shape measurement method and device
JPWO2007069724A1 (en) * 2005-12-16 2009-05-28 株式会社Ihi Method and apparatus for aligning 3D shape data
JP4650751B2 (en) * 2005-12-16 2011-03-16 株式会社Ihi Method and apparatus for aligning 3D shape data
WO2007069721A1 (en) * 2005-12-16 2007-06-21 Ihi Corporation Three-dimensional shape data storing/displaying method and device, and three-dimensional shape measuring method and device
JPWO2007069721A1 (en) * 2005-12-16 2009-05-28 株式会社Ihi 3D shape data storage and display method and apparatus, and 3D shape measurement method and apparatus
US8116558B2 (en) 2005-12-16 2012-02-14 Ihi Corporation Three-dimensional shape data position matching method and device
JP2008309671A (en) * 2007-06-15 2008-12-25 Ihi Corp Object recognition method and device
JP2009031295A (en) * 2008-08-05 2009-02-12 Olympus Corp Mobile object posture detection device

Similar Documents

Publication Publication Date Title
US6445814B2 (en) Three-dimensional information processing apparatus and method
JP2874710B2 (en) 3D position measuring device
US9183634B2 (en) Image processing apparatus and image processing method
JP2953154B2 (en) Shape synthesis method
JP2004030461A (en) Method and program for edge matching, and computer readable recording medium with the program recorded thereon, as well as method and program for stereo matching, and computer readable recording medium with the program recorded thereon
JPH1079029A (en) Stereoscopic information detecting method and device therefor
JPH1021401A (en) Three-dimensional information processor
JP3862402B2 (en) 3D model generation apparatus and computer-readable recording medium on which 3D model generation program is recorded
JPH1023311A (en) Image information input method and device therefor
JPH09305796A (en) Image information processor
JPH0766436B2 (en) 3D model construction device using continuous silhouette images
JPH09229648A (en) Input/output method and device for image information
JPH09231370A (en) Picture information input device
JP3501841B2 (en) Three-dimensional object region detection device, distance measuring device to three-dimensional object region, and their detection and measurement method
JPH0875454A (en) Range finding device
JPH09231371A (en) Picture information input device and its method
JPH09231369A (en) Picture information input device
JP7298687B2 (en) Object recognition device and object recognition method
JPH09119819A (en) Three-dimensional information reconstruction apparatus
JP2961140B2 (en) Image processing method
JP4021036B2 (en) Stereo image processing device
JP5891751B2 (en) Inter-image difference device and inter-image difference method
JPH09187037A (en) Image processor
JPH1023469A (en) Three-dimensional information processor and its method
JPH1194527A (en) Stereo measuring method and device using image processing