JPH09231369A - Picture information input device - Google Patents
Picture information input deviceInfo
- Publication number
- JPH09231369A JPH09231369A JP8057057A JP5705796A JPH09231369A JP H09231369 A JPH09231369 A JP H09231369A JP 8057057 A JP8057057 A JP 8057057A JP 5705796 A JP5705796 A JP 5705796A JP H09231369 A JPH09231369 A JP H09231369A
- Authority
- JP
- Japan
- Prior art keywords
- image
- depth information
- subject
- information
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、任意の位置から撮
像した被写体像に基づきその被写体の奥行き情報を抽出
する画像情報入力装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image information input device for extracting depth information of a subject based on a subject image picked up from an arbitrary position.
【0002】[0002]
【従来の技術】従来、物体の三次元形状を求める技術と
しては、大別して受動的手法と能動的手法とがある。2. Description of the Related Art Conventionally, techniques for obtaining a three-dimensional shape of an object are roughly classified into a passive technique and an active technique.
【0003】受動的手法の代表的なものとして、2台の
カメラを用いて三角測量を行うステレオ画像法があり、
このステレオ画像法では、左右の画像から同じものが写
し出されている場所を探索し、その場所を示す位置のず
れ量から被写体の三次元位置を計測する。As a typical passive method, there is a stereo image method in which two cameras are used for triangulation.
In this stereo image method, a place where the same one is projected is searched from the left and right images, and the three-dimensional position of the subject is measured from the amount of displacement of the position indicating that place.
【0004】これに対し、能動的手法の代表的なものと
しては、被写体に対し所定位置から光を投影し、被写体
からの反射光がその所定位置に戻るまでの時間を計測
し、その計測した時間から被写体までの距離を求める手
法があり、この手法は光レーダ型のレンジファインダー
などに適用されている。On the other hand, as a typical active method, light is projected onto a subject from a predetermined position, and the time until the reflected light from the subject returns to the predetermined position is measured and measured. There is a method for obtaining the distance from the time to the subject, and this method is applied to an optical radar type range finder and the like.
【0005】また、被写体に対しスリット状の光パター
ンを投影し、その被写体に写るパターン形状の変位から
その被写体の三次元形状を測定するスリット光投影法な
どがある。Further, there is a slit light projection method in which a slit-shaped light pattern is projected on a subject and the three-dimensional shape of the subject is measured from the displacement of the pattern shape reflected on the subject.
【0006】これらの方法で得られた被写体の三次元デ
ータから被写体を任意の視点から見た場合における被写
体像を生成し、その被写体上を2次元のディスプレイな
どに表示するなど、上述の物体の三次元形状を求める技
術は、画像処理分野で広く用いられている。From the three-dimensional data of the subject obtained by these methods, a subject image is generated when the subject is viewed from an arbitrary viewpoint, and the subject image is displayed on a two-dimensional display or the like. The technique for obtaining a three-dimensional shape is widely used in the field of image processing.
【0007】近年、パーソナルコンピュータの普及およ
びその急速な性能向上に伴い、パーソナルコンピュータ
によって、電子カメラで撮像した画像を取り込み、その
画像編集を行うことが可能なアプリケーションソフトが
出現している。例えば、電子カメラで風景を複数の画像
に分けて撮影するとすると、この複数の画像はパーソナ
ルコンピュータに取り込まれ、パーソナルコンピュータ
では、アプリケーションソフトを起動することによっ
て、その取り込まれた画像に対しその画像の編集などの
処理を施すなど、取り込まれた画像をある限定された範
囲で処理することが可能である。In recent years, with the spread of personal computers and the rapid improvement in performance thereof, application software capable of capturing images taken by an electronic camera and editing the images by personal computers has appeared. For example, if a landscape is divided into a plurality of images by an electronic camera and the plurality of images are captured, the plurality of images are captured by a personal computer, and the personal computer activates the application software so that the captured images can be captured. It is possible to process the captured image in a limited range, such as performing editing or the like.
【0008】[0008]
【発明が解決しようとする課題】しかし、上述のステレ
オ画像法においては、カメラが設置されている特定位置
からの距離情報算出が主目的であり、被写体の立体形状
そのものを直接計測することを目的としていない。However, in the above-mentioned stereo image method, the main purpose is to calculate the distance information from the specific position where the camera is installed, and the object is to directly measure the three-dimensional shape itself of the subject. And not.
【0009】また、能動的手法では、被写体に対する投
影を、レーザ光などを被写体に照射することによって行
うから、その利用において煩雑な作業が必要である。Further, in the active method, since the projection on the subject is performed by irradiating the subject with a laser beam or the like, a complicated work is required in its use.
【0010】さらに、受動的手法、能動的手法のいずれ
かを、ある物体をその周囲を移動しながら撮像するよう
な動的な撮像方式に適用することにより、その物体に対
する奥行き情報を抽出する方法があるが、その方法によ
っては、画像処理に柔軟に対応可能な奥行き情報を抽出
することはできない。Furthermore, by applying either the passive method or the active method to a dynamic imaging system in which an object is imaged while moving around it, a method of extracting depth information for the object. However, depending on the method, it is not possible to extract depth information that can flexibly deal with image processing.
【0011】さらに、処理された画像は2次元ディスプ
レイまたは紙などに出力されることが多く、またその画
像形態は自然画である場合、被写体を輪郭線で表す線画
である場合などの各種形態の場合からなる。すなわち、
上述の手法などで得られた距離情報などに基づき被写体
形状を2次元ディスプレイまたは紙などに忠実に出力す
ることに主眼がおかれているから、一般的には、被写体
の三次元データを様々な側面から加工するための画像処
理に柔軟に対応可能な奥行き情報の抽出は行われておら
ず、柔軟に対応可能な奥行き情報が必要とされる画像形
態へ被写体を変換することは行われていない。Further, the processed image is often output to a two-dimensional display, paper, or the like, and the image form has various forms such as a natural image and a line drawing representing an object by a contour line. It consists of cases. That is,
Since the focus is on faithfully outputting the subject shape to a two-dimensional display or paper based on the distance information obtained by the above-mentioned method, etc., in general, various three-dimensional data of the subject can be obtained. Depth information that can flexibly handle image processing for processing from the side has not been extracted, and the subject has not been converted to an image form that requires depth information that can flexibly respond. .
【0012】一方、電子カメラで撮像した画像を取り込
み、その画像編集を行うことが可能なアプリケーション
ソフトは出現しているが、アプリケーションソフトで
は、被写体の三次元データを様々な側面から加工するた
めの画像処理に柔軟に対応可能な奥行き情報が得られな
いから、その取り込まれた画像に対する処理内容が制限
され、被写体を目的とする画像形態に変換することはで
きない。On the other hand, although application software capable of capturing an image captured by an electronic camera and editing the image has appeared, the application software is used for processing three-dimensional data of a subject from various aspects. Since depth information that can flexibly deal with image processing cannot be obtained, the processing content for the captured image is limited, and the subject cannot be converted into the desired image form.
【0013】本発明の目的は、被写体を目的とする画像
形態に変換するための処理に柔軟に対応可能な奥行き情
報を得ることができる画像情報入力装置を提供すること
にある。It is an object of the present invention to provide an image information input device capable of obtaining depth information that can flexibly deal with processing for converting a subject into a desired image form.
【0014】[0014]
【課題を解決するための手段】請求項1記載の発明は、
少なくとも1つの光学系を介して被写体を撮像し、その
被写体像を出力する撮像手段と、前記撮像手段で任意の
位置から撮像した被写体像に基づきその被写体の奥行き
情報を抽出する奥行き情報抽出手段とを備える画像情報
入力装置において、前記奥行き情報抽出手段は、複数視
点から撮像された被写体像の境界部から奥行き情報をボ
クセル空間上に求めるための処理をし、その処理によっ
て得られたボクセル空間上に存在する前記被写体像の割
合を積算し、その積算結果に応じて前記奥行き情報を抽
出することを特徴とする。According to the first aspect of the present invention,
An image pickup means for picking up an image of a subject through at least one optical system and outputting the subject image, and a depth information extraction means for extracting depth information of the subject based on the subject image picked up from an arbitrary position by the image pickup means. In the image information input device, the depth information extraction means performs a process for obtaining depth information in a voxel space from a boundary portion of object images captured from a plurality of viewpoints, and in the voxel space obtained by the process. It is characterized in that the ratios of the subject images existing in the are integrated and the depth information is extracted according to the integration result.
【0015】請求項2記載の発明は、請求項1記載の画
像情報入力装置において、前記奥行き情報抽出手段は、
前記ボクセル空間上に存在する前記被写体像の割合の積
算を、前記各視点からの存在確率を積算することによっ
て行い、その積算結果の内設定された閾値を超えたもの
を前記奥行き情報として抽出することを特徴とする。According to a second aspect of the invention, in the image information input apparatus according to the first aspect, the depth information extracting means is
The accumulation of the ratio of the subject image existing in the voxel space is performed by integrating the existence probabilities from the respective viewpoints, and the one that exceeds a set threshold value in the integration result is extracted as the depth information. It is characterized by
【0016】[0016]
【発明の実施の形態】以下に、本発明の実施の形態につ
いて図を参照しながら説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0017】(実施の第1形態)図1は本発明の画像情
報入力装置の実施の第1形態の構成を示すブロック図で
ある。(First Embodiment) FIG. 1 is a block diagram showing the configuration of the first embodiment of the image information input apparatus according to the present invention.
【0018】画像情報入力装置は、図1に示すように、
被写体を撮像するカメラヘッド1を備える。本例では、
カメラヘッド1は、背面3を背景とする検出物(被写
体)2を撮像する。The image information input device is, as shown in FIG.
A camera head 1 for capturing an image of a subject is provided. In this example,
The camera head 1 images a detected object (subject) 2 with the back surface 3 as the background.
【0019】カメラヘッド1は、左右に設けられている
撮像レンズ100L,100Rと、撮像レンズ100L
と撮像レンズ100Rとの間に配置されている照明部2
00とを有する。The camera head 1 includes image pickup lenses 100L and 100R provided on the left and right, and an image pickup lens 100L.
And the illumination unit 2 disposed between the image pickup lens 100R and
00.
【0020】撮像レンズ100Lは装置側からみて左側
に、撮像レンズ100Rは装置側からみて右側にそれぞ
れ配置されている。撮像レンズ100Lによる撮像範囲
は、図中の10Lで表される範囲からなり、撮像レンズ
100Rによる撮像範囲は、図中の10Rで表される範
囲からなる。カメラヘッド1は、各撮像レンズ100
L,100Rを介して捕らえられた被写体をCCDから
なる撮像素子(図示せず)に結像し、CCDは被写体像
を光電変換によって対応する電気信号に変換し、この電
気信号はアナログ・デジタル変換によってデジタル信号
の画像データに変換される。The image pickup lens 100L is arranged on the left side when viewed from the device side, and the image pickup lens 100R is arranged on the right side when viewed from the device side. The imaging range of the imaging lens 100L is a range represented by 10L in the figure, and the imaging range of the imaging lens 100R is a range represented by 10R in the figure. The camera head 1 is provided with each imaging lens 100.
A subject captured via L and 100R is imaged on an image pickup device (not shown) including a CCD, and the CCD converts the subject image into a corresponding electric signal by photoelectric conversion, and this electric signal is converted into an analog / digital signal. Is converted into digital signal image data.
【0021】カメラヘッド1の姿勢および位置は、カメ
ラ姿勢位置検知部4で検知される。カメラ姿勢位置検知
部4は、ジャイロなどのセンサからの検出信号に基づき
角度情報を算出する手段と、背面3から得られる情報に
基づき画像処理を行うことによって姿勢位置情報を算出
する手段とを有し、これらの手段によってカメラヘッド
1の姿勢、位置を検出する。本実施の形態では、カメラ
ヘッド1はA0−An間の位置を撮像位置として移動さ
れ、そのカメラヘッド1の位置はカメラ姿勢位置検知部
4で検知される。The attitude and the position of the camera head 1 are detected by the camera attitude position detector 4. The camera posture position detection unit 4 has means for calculating angle information based on a detection signal from a sensor such as a gyro and means for calculating posture position information by performing image processing based on information obtained from the back surface 3. Then, the posture and position of the camera head 1 are detected by these means. In the present embodiment, the camera head 1 is moved with the position between A0 and An as the imaging position, and the position of the camera head 1 is detected by the camera attitude position detection unit 4.
【0022】カメラヘッド1で得られた画像データおよ
びそれに対応するカメラ姿勢位置検知部4で得られた姿
勢位置情報は、各画像メモリ5a,5bの一方に対応付
けられて格納される。画像メモリ5a,5bに格納され
た画像データおよびそれに対応する姿勢位置情報は、奥
行き情報演算部6に与えられる。The image data obtained by the camera head 1 and the posture position information obtained by the camera posture position detection unit 4 corresponding to the image data are stored in one of the image memories 5a and 5b in association with each other. The image data stored in the image memories 5a and 5b and the posture position information corresponding to the image data are given to the depth information calculation unit 6.
【0023】奥行き情報演算部6は、画像データとそれ
に対応する姿勢位置情報に基づき演算を行い、この演算
によって被写体の立体形状を規定する3次元画像データ
(奥行き情報)を算出する。The depth information calculation unit 6 performs a calculation based on the image data and the posture position information corresponding to the image data, and calculates three-dimensional image data (depth information) that defines the three-dimensional shape of the subject by this calculation.
【0024】この算出された3次元画像データは2次元
画像データ演算部7に与えらえ、2次元画像データ演算
部7は、3次元画像データに基づき使用者が指定する画
像形態および指定された視点から見ることを条件に被写
体の2次元画像データを算出する。この算出された被写
体の2次元画像データからは、使用者が指定する画像形
態でかつ指定された視点から見た2次元画像が得られる
ことになる。この画像形態の指定および視点の指定は操
作手段11から行われ、この視点は任意の位置に指定す
ることが可能である。The calculated three-dimensional image data is given to the two-dimensional image data operation unit 7, and the two-dimensional image data operation unit 7 specifies the image form and the user's specified image form based on the three-dimensional image data. Two-dimensional image data of the subject is calculated under the condition that the subject is viewed from the viewpoint. From the calculated two-dimensional image data of the subject, a two-dimensional image in the image form specified by the user and viewed from the specified viewpoint can be obtained. The designation of the image form and the designation of the viewpoint are performed from the operation unit 11, and the viewpoint can be designated at an arbitrary position.
【0025】2次元画像データ演算部7は、カメラヘッ
ド1、カメラ姿勢位置検知部4、各画像メモリ5a,5
b、奥行き情報演算部6と共働して画像情報入力装置を
構成する。The two-dimensional image data calculation unit 7 includes a camera head 1, a camera attitude position detection unit 4, and image memories 5a and 5a.
b, the image information input device is configured in cooperation with the depth information calculation unit 6.
【0026】2次元画像データ演算部7で算出された2
次元画像データは、操作手段11、データ合成手段10
00またはプリンタ9に供給される。2 calculated by the two-dimensional image data calculation unit 7
The three-dimensional image data includes operation means 11 and data synthesizing means 10.
00 or the printer 9.
【0027】データ合成手段1000は、操作手段11
の指示に基づき文章データ作成手段1001が作成した
文章に供給された2次元画像データが示す画像をはめ込
むための合成処理を行い、その合成処理の結果は操作手
段11を介してモニタ8に表示される。The data synthesizing means 1000 is the operating means 11
Based on the instruction, the synthesizing process for fitting the image represented by the two-dimensional image data supplied to the sentence created by the sentence data creating unit 1001 is performed, and the result of the synthesizing process is displayed on the monitor 8 via the operating unit 11. It
【0028】プリンタ9は操作手段11に指示に基づき
供給された2次元画像データが示す画像を印刷するとと
もに、操作手段11を介して供給された画像合成文章を
印刷する。The printer 9 prints the image represented by the two-dimensional image data supplied to the operating means 11 based on the instruction, and also prints the image composite text supplied via the operating means 11.
【0029】操作手段11は、上述した条件などの設定
を行うとともに、データ合成手段1000およびプリン
タ9への指示、供給された2次元画像データが示す画
像、供給された画像合成文章のモニタ8への表示などを
行う。The operating means 11 sets the above-mentioned conditions and the like, and gives an instruction to the data synthesizing means 1000 and the printer 9, an image indicated by the supplied two-dimensional image data, and a monitor 8 of the supplied image composite text. Is displayed.
【0030】本画像情報入力装置による撮影動作につい
て説明する。A photographing operation by the image information input device will be described.
【0031】まず、カメラヘッド1が、その初期位置と
して例えばA0の位置において検出物2に向けられる。
次いで、使用者によってレリーズボタン(図示せず)が
操作され、位置A0において検出物2の撮影が行われ
る。First, the camera head 1 is directed toward the object to be detected 2 at the initial position A0, for example.
Next, the user operates the release button (not shown), and the detection object 2 is photographed at the position A0.
【0032】位置A0における撮影が終了すると、カメ
ラヘッド1は検出物2を中心に順次位置A0から位置A
nに向けて所定の移量角度量で円弧上を移動される。カ
メラ姿勢位置検知部4がカメラヘッド1の所定角度量の
移動を検出すると、次の撮影が行われ、以降順に位置A
nまでの撮影が行われる。例えば、A0〜An間が18
0度で3度の移動ピッチで撮影が順に行われると、60
個の画像データが得られることになる。When the photographing at the position A0 is completed, the camera head 1 sequentially moves from the position A0 to the position A around the detected object 2.
It is moved on the circular arc toward the n at a predetermined shift angle amount. When the camera posture position detection unit 4 detects the movement of the camera head 1 by a predetermined angle amount, the next shooting is performed, and the position A
Shooting up to n is performed. For example, between A0 and An is 18
When shooting is performed in sequence with a moving pitch of 0 degree and 3 degrees, 60
Individual image data will be obtained.
【0033】この移動角度量の設定は、カメラ姿勢位置
検知部4のジャイロなどのセンサの検知性能および求め
たい奥行き情報の分解能から決定される。例えば、ジャ
イロの検出能力が90度/secであるとき、移動角度
量として3度/フレーム速度に設定される。The setting of the movement angle amount is determined from the detection performance of a sensor such as a gyro of the camera posture position detection unit 4 and the resolution of depth information to be obtained. For example, when the detection capability of the gyro is 90 degrees / sec, the movement angle amount is set to 3 degrees / frame speed.
【0034】この撮影中、画像データとその撮影位置お
よび方向に対する変位量とは、対応付けて画像メモリ5
a,5bに格納される。また、カメラヘッド1の位置お
よび方向の少なくとも一方が所定より大きく移動する
と、警告手段(図示せず)から警告が発せられる。さら
に、検出物2の奥行き情報の演算に対し十分な画像デー
タが得られると、撮影終了報知手段(図示せず)で十分
な画像データが得られた旨が使用者に通知され、使用者
はその通知に基づき撮影を終了する。During the photographing, the image data and the displacement amount with respect to the photographing position and the direction thereof are associated with each other, and the image memory 5
It is stored in a and 5b. Further, when at least one of the position and the direction of the camera head 1 moves more than a predetermined value, a warning is issued from a warning means (not shown). Further, when sufficient image data is obtained for the calculation of the depth information of the detected object 2, the user is notified that sufficient image data has been obtained by the image capturing end notifying means (not shown), and the user is notified. Shooting is terminated based on the notification.
【0035】撮影が終了すると、画像メモリ5a,5b
に格納された画像データおよびそれに対応する姿勢位置
情報は奥行き情報演算部6に与えら、奥行き情報演算部
6は、画像データとそれに対応する姿勢位置情報に基づ
き演算を行い、この演算によって被写体の立体形状を規
定する3次元画像データ(奥行き情報)が算出される。When the photographing is completed, the image memories 5a and 5b
The image data and the corresponding posture position information stored therein are given to the depth information calculation unit 6, and the depth information calculation unit 6 performs calculation based on the image data and the posture position information corresponding thereto, and by this calculation, Three-dimensional image data (depth information) that defines a three-dimensional shape is calculated.
【0036】この算出された3次元画像データは2次元
画像データ演算部7に与えらえ、2次元画像データ演算
部7は、3次元画像データに基づき使用者が指定する画
像形態および指定された視点から見ることを条件に被写
体の2次元画像データを算出する。この算出された被写
体の2次元画像データからは、使用者が指定する画像形
態でかつ指定された視点から見た2次元画像が得られ、
この得られた2次元画像はモニタ8に表示される。この
画像形態および視点の変更が操作手段11から行われる
と、変更した画像形態でかつ視点から見た2次元画像が
得られる。The calculated three-dimensional image data is given to the two-dimensional image data calculation unit 7, and the two-dimensional image data calculation unit 7 specifies the image form and the designation by the user based on the three-dimensional image data. Two-dimensional image data of the subject is calculated under the condition that the subject is viewed from the viewpoint. From the calculated two-dimensional image data of the subject, a two-dimensional image in the image form specified by the user and viewed from the specified viewpoint is obtained.
The obtained two-dimensional image is displayed on the monitor 8. When the image form and the viewpoint are changed by the operating means 11, a two-dimensional image in the changed image form and viewed from the viewpoint is obtained.
【0037】次に、画像情報入力装置の詳細な構成につ
いて図2ないし図4を参照しながら説明する。図2およ
び図3は図1の画像情報入力装置の詳細な構成を示すブ
ロック図、図4は図2のシステムコントローラの構成を
示すブロック図である。Next, the detailed structure of the image information input device will be described with reference to FIGS. 2 and 3 are block diagrams showing a detailed configuration of the image information input device of FIG. 1, and FIG. 4 is a block diagram showing a configuration of the system controller of FIG.
【0038】カメラヘッド1は、図2および図3に示す
ように、左右撮像レンズ100L,100Rに対しほぼ
対象に構成されている。As shown in FIGS. 2 and 3, the camera head 1 is substantially symmetrical with the left and right imaging lenses 100L and 100R.
【0039】撮像レンズ100Lは、図2に示すよう
に、ズーム機構(図示せず)およびオートフォーカス機
構(図示せず)を有し、ズーム機構はズーム制御部10
6Lで、オートフォーカス機構はフォーカス制御部10
7Lでそれぞれ駆動、制御される。As shown in FIG. 2, the image pickup lens 100L has a zoom mechanism (not shown) and an autofocus mechanism (not shown), and the zoom mechanism is the zoom controller 10.
6L, the autofocus mechanism is the focus control unit 10
Each of them is driven and controlled by 7L.
【0040】撮像レンズ100Lの後方には光量を調節
するための絞り101Lが配置され、絞り101Lの絞
り量は絞り制御部108Lで駆動、制御される。A diaphragm 101L for adjusting the amount of light is arranged behind the image pickup lens 100L, and the diaphragm amount of the diaphragm 101L is driven and controlled by a diaphragm controller 108L.
【0041】光量が調節された被写体像はイメージセン
サ(CCD)102Lに結像され、イメージセンサ10
2Lは光電変換によって被写体像を対応する電気信号に
変換する。イメージセンサ102Lはイメージセンサド
ライバ120Lで駆動、制御される。A subject image whose light amount has been adjusted is formed on an image sensor (CCD) 102L, and the image sensor 10
The 2L converts a subject image into a corresponding electric signal by photoelectric conversion. The image sensor 102L is driven and controlled by the image sensor driver 120L.
【0042】イメージセンサ102Lの電気信号はA/
D変換部103Lでデジタル信号に変換され、このデジ
タル信号は各メモリ83,85に格納される。The electric signal of the image sensor 102L is A /
The D conversion unit 103L converts the digital signal, and the digital signal is stored in the memories 83 and 85.
【0043】撮像レンズ100Rは、撮像レンズ100
Lと同様に、ズーム機構(図示せず)およびオートフォ
ーカス機構(図示せず)を有し、ズーム機構はズーム制
御部106Rで、オートフォーカス機構はフォーカス制
御部107Rでそれぞれ駆動、制御される。The image pickup lens 100R is the image pickup lens 100R.
Like L, it has a zoom mechanism (not shown) and an autofocus mechanism (not shown). The zoom mechanism is driven and controlled by the zoom control unit 106R and the autofocus mechanism by the focus control unit 107R.
【0044】撮像レンズ100Rの後方には光量を調節
するための絞り101Rが配置され、絞り101Rの絞
り量は絞り制御部108Rで駆動、制御される。A diaphragm 101R for adjusting the amount of light is arranged behind the image pickup lens 100R, and the diaphragm amount of the diaphragm 101R is driven and controlled by a diaphragm controller 108R.
【0045】光量が調節された被写体像はイメージセン
サ(CCD)102Rに結像され、イメージセンサ10
2Rは光電変換によって被写体像を対応する電気信号に
変換する。イメージセンサ102Rはイメージセンサド
ライバ120Rで駆動、制御される。A subject image whose light amount has been adjusted is formed on an image sensor (CCD) 102R, and the image sensor 10
The 2R converts a subject image into a corresponding electric signal by photoelectric conversion. The image sensor 102R is driven and controlled by the image sensor driver 120R.
【0046】イメージセンサ102Rの電気信号はA/
D変換部103Rでデジタル信号に変換され、このデジ
タル信号は各メモリ73,75に格納される。The electric signal of the image sensor 102R is A /
The D conversion unit 103R converts the digital signal, and the digital signal is stored in the memories 73 and 75.
【0047】ズーム制御部106L、フォーカス制御部
107L、絞り制御部108L、イメージセンサドライ
バ120L、ズーム制御部106R、フォーカス制御部
107R、絞り制御部108R、イメージセンサドライ
バ120Rにはシステムコントローラ210から制御内
容を示す指示が与えられる。The system controller 210 controls the zoom controller 106L, focus controller 107L, aperture controller 108L, image sensor driver 120L, zoom controller 106R, focus controller 107R, aperture controller 108R, and image sensor driver 120R. Is given.
【0048】システムコントローラ210は、照明20
0を駆動制御するとともに、カメラ姿勢位置検知部4か
ら姿勢位置情報を監視し、上述した警告音を発するため
の発音体97の駆動を制御する。発音体97は、警告音
とともに、システムコントローラ210からの指示に基
づき撮影終了通知の旨を示す撮影終了通知音を発する。
発音体97は、上述の警告手段と撮影終了報知手段とを
構成する。The system controller 210 controls the lighting 20.
While controlling the drive of 0, the camera posture position detection unit 4 monitors the posture position information, and controls the drive of the sounding body 97 for issuing the above-mentioned warning sound. The sounding body 97 emits a photographing end notification sound indicating that the photographing end notification is issued based on an instruction from the system controller 210, together with the warning sound.
The sounding body 97 constitutes the above-mentioned warning means and shooting end notification means.
【0049】各メモリ83、85に格納されている画像
データは、図3に示すように、映像信号処理部104L
およびオーバラップ検出部92に与えられる。The image data stored in each of the memories 83 and 85 is, as shown in FIG. 3, a video signal processing unit 104L.
And to the overlap detector 92.
【0050】映像信号処理部104Lは、各メモリ8
3,85のデジタル信号を適正な形態の輝度信号および
色信号に変換するための変換処理を行う。映像信号処理
部104Lの輝度信号および色信号は、被写体分離部1
05Lおよび表示部240に与えられる。The video signal processing unit 104L includes each memory 8
A conversion process for converting 3,85 digital signals into luminance signals and chrominance signals of appropriate forms is performed. The luminance signal and the color signal of the video signal processing unit 104L are the subject separation unit 1
05L and the display unit 240.
【0051】被写体分離部105Lは、映像信号処理部
104Lの輝度信号および色信号から奥行き情報の計測
対象となる主被写体とその背景とを分離する。この分離
方法としては、例えば、予め背面の映像を撮像し、その
画像をメモリに保持した後に、計測対象となる主被写体
をその背景とともに撮像し、撮像した映像と予めメモリ
に格納している背面の映像とのマッチングおよび差分処
理を施し、背面領域を分離する方法が用いられる。この
方法に代えて、色またはテクスチャの情報に基づき主被
写体とその背景とを分離する方法を用いることもでき
る。なお、本実施の形態では、主被写体として検出物2
が背面3から分離される。The subject separation unit 105L separates the main subject, which is the measurement target of depth information, and the background thereof from the luminance signal and the color signal of the video signal processing unit 104L. As this separation method, for example, an image of the rear surface is captured in advance, the image is held in a memory, and then a main subject to be measured is captured together with its background, and the captured image and the rear surface stored in the memory in advance. The method of performing the matching and the difference processing with the image of and separating the back area is used. Instead of this method, a method of separating the main subject and its background based on color or texture information can also be used. In the present embodiment, the detected object 2 is used as the main subject.
Are separated from the back surface 3.
【0052】被写体分離部105Lで背景と分離された
主被写体の画像は、画像処理部220および合焦検出部
270に与えられる。The image of the main subject separated from the background by the subject separation unit 105L is given to the image processing unit 220 and the focus detection unit 270.
【0053】同様に、各メモリ73、75に格納されて
いる画像データは、映像信号処理部104Rおよびオー
バラップ検出部92に与えられる。Similarly, the image data stored in the memories 73 and 75 are given to the video signal processing unit 104R and the overlap detecting unit 92.
【0054】映像信号処理部104Rは、各メモリ7
3,75のデジタル信号を適正な形態の輝度信号および
色信号に変換するための変換処理を行う。映像信号処理
部104Rの輝度信号および色信号は、被写体分離部1
05Rおよび表示部240に与えられる。The video signal processing unit 104R is provided in each memory 7
A conversion process for converting the 3,75 digital signals into luminance signals and chrominance signals of appropriate forms is performed. The luminance signal and the color signal of the video signal processing unit 104R are the subject separation unit 1
05R and the display unit 240.
【0055】被写体分離部105Rは、映像信号処理部
104Rの輝度信号および色信号から奥行き情報の計測
対象となる主被写体とその背景とを分離する。この分離
方法としては、上述した方法と同じ方法である。The subject separation unit 105R separates the main subject, which is the measurement target of the depth information, and the background thereof from the luminance signal and the color signal of the video signal processing unit 104R. This separation method is the same as the above-mentioned method.
【0056】被写体分離部105Rで背景と分離された
主被写体の画像データは、画像処理部220および合焦
検出部270に与えられる。The image data of the main subject separated from the background by the subject separation unit 105R is given to the image processing unit 220 and the focus detection unit 270.
【0057】オーバーラップ検出部92は、各撮像レン
ズ100L,100Rで捕らえられた各画像データに基
づき各撮像レンズ100L,100Rで捕らえられた被
写体の重りの程度を検出し、その検出結果情報はシステ
ムコントローラ210(図2に示す)に与えられる。The overlap detecting section 92 detects the degree of weight of the object captured by each of the image pickup lenses 100L and 100R based on the image data captured by each of the image pickup lenses 100L and 100R, and the detection result information is the system. Provided to controller 210 (shown in FIG. 2).
【0058】画像処理部220は、各撮像レンズ100
L,100Rで捕らえられた各主被写体の画像データに
基づき被写体の奥行き情報を抽出するとともに、その抽
出した各撮像地点における被写体の奥行き情報をカメラ
姿勢位置検知部4から得られる姿勢位置情報に基づき統
合し、出力する。この奥行き情報の抽出およびその統合
については後述する。なお、この画像処理部220に
は、図1に示す、画像メモリ5a,5b、奥行き情報演
算部6、2次元画像データ演算部7が含まれている。画
像処理部220で抽出された奥行き情報は、記録部25
0に記録される。The image processing section 220 is provided for each image pickup lens 100.
The depth information of the subject is extracted based on the image data of each main subject captured by L and 100R, and the depth information of the subject at each of the extracted image pickup points is based on the posture position information obtained from the camera posture position detection unit 4. Integrate and output. The extraction of the depth information and its integration will be described later. The image processing unit 220 includes the image memories 5a and 5b, the depth information calculation unit 6, and the two-dimensional image data calculation unit 7 shown in FIG. The depth information extracted by the image processing unit 220 is stored in the recording unit 25.
Recorded as 0.
【0059】表示部240は、各撮像レンズ100L,
100Rで捕らえられた被写体画像を表示する。The display section 240 includes the image pickup lenses 100L,
The subject image captured at 100R is displayed.
【0060】合焦検出部270は、各主被写体の画像デ
ータに基づき演算を行い、その演算によって各撮像レン
ズ100L,100Rにおける焦点距離情報を求める。
この求められた各撮像レンズ100L,100Rにおけ
る焦点距離情報は、システムコントローラ210に与え
られる。The focus detection section 270 performs a calculation based on the image data of each main subject, and obtains the focal length information in each of the image pickup lenses 100L and 100R by the calculation.
The obtained focal length information of each of the imaging lenses 100L and 100R is given to the system controller 210.
【0061】システムコントローラ210には、オーバ
ラップ検出部92、映像信号処理部104L,104
R、被写体分離部105L,105R、画像処理部22
0、れリーズボタン230、合焦検出部270および外
部入力I/F760が接続され、これらのブロック間の
情報の転送制御、動作制御を行う。The system controller 210 includes an overlap detector 92 and video signal processors 104L and 104.
R, subject separation units 105L and 105R, image processing unit 22
0, the release button 230, the focus detection unit 270, and the external input I / F 760 are connected, and transfer control of information between these blocks and operation control are performed.
【0062】外部入力I/F760はコンピュータなど
の外部装置に接続され、外部装置からの設定指示が外部
入力I/F760を介してシステムコントローラ210
に与えられる。The external input I / F 760 is connected to an external device such as a computer, and a setting instruction from the external device is transmitted via the external input I / F 760 to the system controller 210.
Given to.
【0063】システムコントローラ210は、図4に示
すように、マイクロコンピュータ900、メモリ91
0、および画像演算処理部920から構成されている。As shown in FIG. 4, the system controller 210 includes a microcomputer 900 and a memory 91.
0, and an image calculation processing unit 920.
【0064】次に、本画像情報入力装置における奥行き
情報の抽出動作について図を参照しながら説明する。Next, the operation of extracting depth information in this image information input device will be described with reference to the drawings.
【0065】まず、画像処理部220(図3に示す)に
おける奥行き情報の抽出処理について詳細に説明する。First, the depth information extraction processing in the image processing unit 220 (shown in FIG. 3) will be described in detail.
【0066】画像処理部220は、各撮像レンズ100
L,100Rで捕らえられた各主被写体の撮像時の各パ
ラメータに基づき各主被写体に対する奥行き情報の抽出
処理(奥行き情報抽出処理#1という)と、奥行き情報
の計測対象となる各主被写体の輝度信号および色信号に
基づき視差を求め、この求められた視差から奥行き情報
を抽出する抽出処理(奥行き情報抽出処理#2という)
とを行い、処理#1による奥行き情報と処理#2による
奥行き情報とを組み合わせて全体の奥行き情報を求め
る。The image processing section 220 includes the image pickup lenses 100.
Depth information extraction processing (referred to as depth information extraction processing # 1) for each main subject based on each parameter at the time of imaging each main subject captured by L and 100R, and the brightness of each main subject that is the target of depth information measurement. Extraction processing for obtaining parallax based on signals and color signals and extracting depth information from the obtained parallax (referred to as depth information extraction processing # 2)
And the depth information obtained by the process # 1 and the depth information obtained by the process # 2 are combined to obtain the entire depth information.
【0067】また、焦点距離の設定は、距離情報に基づ
き設定される。この焦点距離と距離情報との関係は次の
(1)式で表される。The focal length is set based on the distance information. The relationship between the focal length and the distance information is expressed by the following equation (1).
【0068】[0068]
【数1】 この式中のrは距離、fは焦点距離、bは基線長、dは
視差をそれぞれ示す。[Equation 1] In this equation, r is the distance, f is the focal length, b is the baseline length, and d is the parallax.
【0069】ここで、視差により決定される距離分解能
をパラメータとすると、次の(2),(3)式から焦点
距離fが算出される。Here, when the distance resolution determined by the parallax is used as a parameter, the focal length f is calculated from the following equations (2) and (3).
【0070】[0070]
【数2】 [Equation 2]
【0071】[0071]
【数3】 よって、外部入力I/F760を介してコンピュータな
どから分解能を設定し、この分解能の値に基づき焦点距
離fを設定することも可能である。(Equation 3) Therefore, it is also possible to set the resolution from a computer or the like via the external input I / F 760 and set the focal length f based on the value of this resolution.
【0072】次に、奥行き情報抽出処理#1について図
5ないし図9を参照しながら説明する。図5は極座標ボ
クセル空間を用いた奥行き情報抽出処理を概念的に示す
図、図6は多視点の輪郭画像から奥行き情報を抽出する
手法を概念的に示す図、図7は8視点の輪郭画像に対す
る投票処理を様子を概念的に示す図、図8は図7の投票
処理による得票状況を示す図である。Next, the depth information extraction processing # 1 will be described with reference to FIGS. 5 is a diagram conceptually showing depth information extraction processing using polar coordinate voxel space, FIG. 6 is a diagram conceptually showing a method of extracting depth information from a multi-viewpoint contour image, and FIG. 7 is an 8-viewpoint contour image. FIG. 8 is a diagram conceptually showing the state of the voting process for FIG. 8, and FIG. 8 is a diagram showing the voting situation by the voting process of FIG.
【0073】奥行き情報抽出処理#1には、ボクセル空
間座標系において、背景と分離された主被写体の画像か
ら奥行き情報を抽出する手法が用いられる。この手法で
は、まず、被写体分離部105L,105Rで、映像信
号処理部104L,104Rの輝度信号および色信号か
ら奥行き情報の計測対象となる主被写体とその背景とが
分離される。For the depth information extraction processing # 1, a method of extracting depth information from the image of the main subject separated from the background in the voxel space coordinate system is used. In this method, first, the subject separation units 105L and 105R separate the main subject, which is the measurement target of depth information, and the background thereof from the luminance signal and the color signal of the video signal processing units 104L and 104R.
【0074】この分離処理によって、図5に示すよう
に、カメラヘッド1の撮像基準点を示す主点1110で
撮像された画像は背景1102と被写体1101とが分
離された背景分離画像1100になる。この分離方法は
上述した方法であり、分離後の主被写体には奥行き計測
対象の被写体であることを示すフラグ「1」が、背景1
102にはフラグ「0」がそれぞれセットされ、これに
よって背景分離画像1100が得られる。この背景11
02と分離された被写体1101の輪郭からは主点11
10を通る複数の線分1130〜1134が極座標で表
されるボクセル空間1120に向けて伸ばされる。By this separation processing, as shown in FIG. 5, the image picked up at the principal point 1110 indicating the image pickup reference point of the camera head 1 becomes a background separated image 1100 in which the background 1102 and the subject 1101 are separated. This separation method is the method described above, and the flag “1” indicating that the main object after separation is the depth measurement target object has the background 1
A flag "0" is set in each of 102, whereby a background separated image 1100 is obtained. This background 11
From the contour of the subject 1101 separated from 02, the principal point 11
A plurality of line segments 1130 to 1134 passing through 10 are extended toward the voxel space 1120 represented by polar coordinates.
【0075】各線分1130〜1134によってボクセ
ル空間1120に対する主被写体の存在確率の投票が行
われる。この投票する行為は、この線分1130〜11
40より内側部分は被写体であるとし、例えば「1」を
積算していく行為であり、線分1130〜1140より
内側部分がボクセル空間内部に存在すれば、「1」の加
算が行われる。The line segments 1130 to 1134 vote for the existence probability of the main subject in the voxel space 1120. The act of voting is this line segment 1130-11
It is assumed that the portion inside 40 is a subject, and for example, it is an act of accumulating "1". If the portion inside line segments 1130 to 1140 exists inside the voxel space, "1" is added.
【0076】次に、主点を変えながら、上述したよう
に、被写体の輪郭からは主点を通る複数の線分による投
票すなわち積算処理が行われる。本実施の形態では、カ
メラヘッド1は被写体を中心に順次位置A0から位置A
nに向けて所定の移量角度量で円弧上に沿って移動する
ものとし、そのカメラヘッド1の移動断面を見ながら本
処理の説明を行う。Next, while changing the principal point, as described above, the voting, that is, the integrating process is performed from the contour of the subject by a plurality of line segments passing through the principal point. In the present embodiment, the camera head 1 sequentially moves from the position A0 to the position A around the subject.
It is assumed that the camera head 1 moves along an arc at a predetermined shift angle amount toward n, and this processing will be described with reference to the moving cross section of the camera head 1.
【0077】例えば、図6(a)に示すように、カメラ
ヘッド1が主点をすなわち視点を順に位置1200〜1
203に変えながら撮影することによってセンサ面12
40〜1243に得られた各被写体毎にその輪郭から各
主点1200〜1203を経てボクセル空間1210に
向けて伸びる境界線1220〜1227が引かれ、その
各境界線1220〜1227の内側部分を被写体とする
投票によって最高得票領域として領域1230が得られ
る。For example, as shown in FIG. 6A, the camera head 1 positions the main point, that is, the viewpoint in order at positions 1200 to 1.
The sensor surface 12
For each subject obtained in 40 to 1243, boundary lines 1220 to 1227 extending from the outline to the voxel space 1210 via the principal points 1200 to 1203 are drawn, and the inner portion of each of the boundary lines 1220 to 1227 is the subject. The area 1230 is obtained as the highest vote area by the vote.
【0078】この多視点からの被写体を用いることによ
って、ボクセル空間1210上には被写体の抽出結果と
してabcdefghで囲まれる領域1230が得られ
る。By using the subject from multiple viewpoints, a region 1230 surrounded by abcdefgh is obtained in the voxel space 1210 as the subject extraction result.
【0079】この得られた領域1230は、図6(b)
に示すように、真の被写体形状1231を含む形状にな
り、さらに視点を増すことにより、ボクセル空間上に得
られる形状は真の被写体形状に近く付くことが分かる。The obtained area 1230 is shown in FIG. 6 (b).
As shown in, the shape becomes a shape including the true object shape 1231. By further increasing the viewpoint, it can be seen that the shape obtained in the voxel space comes close to the true object shape.
【0080】上述の説明では、処理をカメラヘッド1の
移動が2次元平面に沿って行われるものとしてしている
が、この処理を3次元的に行う場合には、例えば図7に
示すように、ボクセル空間側の位置(X,Y,Z)から
逆に主点を通る線分を計算し、その線分の画像に対する
投影位置を計算し、その投影位置に対する画像のフラグ
を参照して背景を示すか被写体を示すかを判断すること
により、ボクセル空間上に被写体に対する領域が得られ
る。この操作はボクセル空間の原点(0,0,0)から
(X0,Y0,Z0)まで繰り返し行われる。In the above description, the processing is performed assuming that the movement of the camera head 1 is performed along the two-dimensional plane. However, when this processing is performed three-dimensionally, for example, as shown in FIG. , Calculate the line segment that passes through the principal point from the position (X, Y, Z) on the voxel space side, calculate the projection position for the image of that line segment, and refer to the image flag for that projection position to refer to the background A region for the subject is obtained in the voxel space by determining whether or not. This operation is repeated from the origin (0,0,0) of the voxel space to (X0, Y0, Z0).
【0081】ここで、投影される点を(x,y)とする
と、x,yは次の(4),(5),(6)式から求めら
れる。Here, assuming that the projected point is (x, y), x, y can be obtained from the following equations (4), (5) and (6).
【0082】[0082]
【数4】 (Equation 4)
【0083】[0083]
【数5】 (Equation 5)
【0084】[0084]
【数6】 ただし、(a,b,c)は主点1110の座標を示す。(Equation 6) However, (a, b, c) indicates the coordinates of the principal point 1110.
【0085】その投影位置(x,y)が背景領域か被写
体領域かの判断は、その投影位置のフラグを参照するこ
とによって行われるが、x,yが整数値でないときに
は、近傍領域のフラグから背景領域か被写体領域かの判
断を行う。すなわち、フラグデータに基づきボクセルデ
ータが被写体内にあるかないかの判断が行われ、被写体
内にあるときには、得票を「1」加算する。Whether the projection position (x, y) is the background region or the subject region is determined by referring to the flag of the projection position. When x, y is not an integer value, the flag of the neighboring region is used. It is determined whether the background area or the subject area. That is, it is determined based on the flag data whether or not the voxel data is in the subject, and when it is in the subject, the vote is incremented by "1".
【0086】このようにボクセル空間側から画像に向け
て線分を引く操作を主点を変えながら繰り返し行うこと
によって、被写体の奥行き情報がボクセル空間上に得票
として表現される。By repeatedly performing the operation of drawing a line segment from the voxel space side toward the image as described above while changing the principal point, the depth information of the subject is expressed in the voxel space as a vote.
【0087】なお、上述の例では、得票結果から最高得
票部のみを奥行き情報の抽出結果としているが、予め所
定の閾値を設定し、その閾値以上の投票結果を奥行き情
報として組み入れるようにする方法を用いることもでき
る。この方法では、誤差の軽減を図ることができる。そ
の理由としては、この投票処理に類似した処理として被
写体の境界部(輪郭部)を用いてボクセル空間を切り出
す処理があり、この処理による切出し後の結果、最高得
票部領域と同じ領域が得られるが、境界によって切り出
される位置が内側になりすぎるなどの切り過ぎが生じる
ことがある。これに対し、予め所定の閾値を設定する方
法では、最高得票、次点、さらにその次点を取り込む事
が可能になり、切り過ぎなどに起因する誤差の発生を極
力少なく抑制することができる。In the above example, only the highest-voting part is selected as the extraction result of the depth information from the voting result. However, a predetermined threshold value is set in advance, and the voting result equal to or more than the threshold value is incorporated as the depth information. Can also be used. This method can reduce the error. The reason is that, as a process similar to this voting process, there is a process of cutting out the voxel space using the boundary part (outline part) of the subject, and after cutting out by this process, the same region as the highest-voting part region is obtained. However, too much cutting may occur such that the position cut out by the boundary is too inward. On the other hand, with the method of setting a predetermined threshold value in advance, it is possible to capture the highest number of votes, the next point, and the next point, and it is possible to suppress the occurrence of an error due to overcutting as much as possible.
【0088】次に、円柱形状の被写体に対する、図6
(b)に示す処理と同様の投票処理について図7および
図8を参照しながら説明する。なお、本7図では、8視
点からの投票状態の結果を2次元的に示し、センサ断
面、境界線などは省略している。Next, as shown in FIG.
A voting process similar to the process shown in (b) will be described with reference to FIGS. 7 and 8. In FIG. 7, the results of the voting state from the eight viewpoints are shown two-dimensionally, and the sensor cross section, the boundary line, etc. are omitted.
【0089】この円柱形状の被写体に対する投票状態
は、図7に示すように、直交座標系におけるボクセル空
間の一部5210上に得票を示す程度が階調によって2
次元的に表示されている。本図中において、黒は得票
「0」を示し、白に向けて階調が上がるほど得票が高い
なり、最大得票部は白で表されている。As shown in FIG. 7, the voting state for this cylindrical object is such that, depending on the gradation, the degree to which the vote is obtained on a part 5210 of the voxel space in the Cartesian coordinate system depends on the gradation.
It is displayed dimensionally. In this figure, black indicates the vote “0”, the higher the gradation toward white, the higher the vote, and the maximum vote portion is shown in white.
【0090】この投票結果を3次元的に表すと、図8に
示すように、横軸をボクセル空間の断面の座標を示す軸
として、縦軸に得票数が表されている。本図では、最高
得票数が8票、次点が7票などとなり、本図から明らか
なように、得票数が高い部分ほど被写体の正しい形状に
近いことが分かる。なお、上述したように、誤差を軽減
するために、予め設定された閾値を7票とし、この7票
以上の部分が奥行き情報として抽出される。When the voting results are three-dimensionally expressed, as shown in FIG. 8, the horizontal axis is the axis indicating the coordinates of the cross section of the voxel space, and the vertical axis is the number of votes. In this figure, the maximum number of votes is 8, the runner-up is 7, and so on. As is clear from this figure, the higher the number of votes, the closer to the correct shape of the subject. In addition, as described above, in order to reduce the error, the preset threshold value is set to 7 votes, and the portion of 7 votes or more is extracted as the depth information.
【0091】次に、ステレオ画像からの奥行き情報抽出
処理について図9ないし図11を参照しながら説明す
る。図9は輪郭画像から奥行き情報を抽出する処理過程
を示す図、図10は点プレートマッチングを示す図、図
11はステレオ画像からの奥行き情報の算出を概略的に
示す図である。Next, the depth information extraction processing from the stereo image will be described with reference to FIGS. 9 to 11. FIG. 9 is a diagram showing a process of extracting depth information from a contour image, FIG. 10 is a diagram showing point plate matching, and FIG. 11 is a diagram schematically showing calculation of depth information from a stereo image.
【0092】まず、ステレオ画像から奥行き情報を抽出
する処理手順について図9を参照しながら説明する。First, a processing procedure for extracting depth information from a stereo image will be described with reference to FIG.
【0093】図9を参照するに、画像メモリに格納され
ている、R画像110R(以下、画像110Rという)
と共働してステレオ画像を構成するL画像110L(以
下、画像110Lという)は、エッジ抽出部111L、
特徴点抽出部117L、ステレオ画像対応点抽出部11
2に与えられる。同様に、画像110Rは、エッジ抽出
部111R、特徴点抽出部117R、ステレオ画像対応
点抽出部112に与えられる。Referring to FIG. 9, an R image 110R (hereinafter referred to as image 110R) stored in the image memory.
The L image 110L (hereinafter, referred to as image 110L) that forms a stereo image in cooperation with the edge extraction unit 111L,
Feature point extraction unit 117L, stereo image corresponding point extraction unit 11
2 given. Similarly, the image 110R is provided to the edge extraction unit 111R, the feature point extraction unit 117R, and the stereo image corresponding point extraction unit 112.
【0094】各エッジ抽出部111L,111Rは、対
応する画像からエッジを抽出した画像を生成する。特徴
点抽出部117L,117Rは、背面部の特徴を同定す
る処理を行う。ステレオ画像対応点抽出部112は、各
画像の画素の対応関係を抽出する処理を行う。Each of the edge extraction units 111L and 111R generates an image in which edges are extracted from the corresponding image. The feature point extraction units 117L and 117R perform processing for identifying the features of the back surface. The stereo image corresponding point extraction unit 112 performs a process of extracting the correspondence relationship between pixels of each image.
【0095】各エッジ抽出部111L,111Rで生成
された画像はエッジ画像対応点抽出部113に与えら
れ、エッジ画像対応点抽出部113は各画像の画素の対
応関係を抽出する処理を行い、この処理では、各画像の
輝度値からそれぞれの画素の対応関係を抽出する。The images generated by the edge extracting units 111L and 111R are given to the edge image corresponding point extracting unit 113, and the edge image corresponding point extracting unit 113 performs a process of extracting the correspondence between pixels of each image. In the processing, the correspondence relationship of each pixel is extracted from the brightness value of each image.
【0096】エッジ画像対応点抽出部113で抽出され
た対応関係は、ステレオ画像対応点抽出部112で抽出
された対応関係とともに除去処理部114に与えられ
る。除去処理部114は、エッジ画像対応点抽出部11
3で抽出された対応関係と、ステレオ画像対応点抽出部
112で抽出された対応関係との間に矛盾があるか否か
を判定し、その判定結果に応じて各対応関係間における
矛盾箇所を除去する処理を行う。この処理では、エッジ
画像対応点抽出部113で抽出された対応関係と、ステ
レオ画像対応点抽出部112で抽出された対応関係とが
一致しないとき、その対応関係は信頼性が低いとして排
除される。また、各対応関係に重み付けをして判断を行
うようすることもできる。The correspondence relationship extracted by the edge image corresponding point extracting section 113 is given to the removal processing section 114 together with the correspondence relationship extracted by the stereo image corresponding point extracting section 112. The removal processing unit 114 uses the edge image corresponding point extraction unit 11
It is determined whether there is a contradiction between the correspondence extracted in 3 and the correspondence extracted by the stereo image corresponding point extraction unit 112, and the contradiction between the correspondences is determined according to the determination result. Perform the removal process. In this process, when the correspondence relationship extracted by the edge image corresponding point extraction unit 113 and the correspondence relationship extracted by the stereo image corresponding point extraction unit 112 do not match, the correspondence relationship is excluded because of low reliability. . Further, it is also possible to weight each correspondence relationship to make the determination.
【0097】除去処理部114の処理結果は、オクルー
ジョン領域判定処理部115および奥行き情報分布算出
処理部116に与えられる。The processing result of the removal processing unit 114 is given to the occlusion area determination processing unit 115 and the depth information distribution calculation processing unit 116.
【0098】オクルージョン領域判定処理部115は、
除去処理部114の処理結果から求められた対応点箇所
と、対応点を求める途中で使用している相関の程度を表
す指数、例えば残差からオクルージョン領域を判断し、
その判断結果に信頼性を付加して出力する。例えば、相
関の程度を表す指数として、相関係数または残差を用い
て、その相関係数が低いときまたはその残差が大きいと
きには、対応関係の信頼が低いと判断し、その低い部分
をオクルージョン領域または対応がない領域として取り
扱う。The occlusion area determination processing section 115
The occlusion area is determined from the corresponding points obtained from the processing result of the removal processing unit 114 and an index indicating the degree of correlation used in the process of obtaining the corresponding points, for example, the residual.
Reliability is added to the determination result and the result is output. For example, if the correlation coefficient or residual is used as an index indicating the degree of correlation, and the correlation coefficient is low or the residual is large, it is determined that the reliability of the correspondence relationship is low, and the low portion is occluded. Treat as an area or an area with no correspondence.
【0099】奥行き情報分布算出処理部116は、各対
応関係から三角測量の原理で奥行き情報分布を算出し、
その算出された奥行き情報分布は出力される。この奥行
き情報分布の算出には、後述する補正データ算出処理部
118からの撮影パラメータ、位置検出情報などが用い
られる。なお、この三角測量については(1)式で説明
した通りである。The depth information distribution calculation processing unit 116 calculates the depth information distribution from each correspondence relationship by the principle of triangulation,
The calculated depth information distribution is output. The calculation of the depth information distribution uses shooting parameters, position detection information, and the like from the correction data calculation processing unit 118 described later. The triangulation is as described in the equation (1).
【0100】各特徴点抽出部117L,117Rで同定
された背面部の特徴点は補正データ算出処理部118に
与えられ、補正データ算出処理部118は撮影パラメー
タを取得するとともに、ジャイロ880で検出された角
度変化などの情報からカメラヘッド1の姿勢、移動関係
を取得する。この取得された撮影パラメータ、およびカ
メラヘッド1の姿勢、移動関係を含む位置検出情報は奥
行き情報分布算出処理部116に与えられる。The back face feature points identified by the respective feature point extraction units 117L and 117R are given to the correction data calculation processing unit 118, and the correction data calculation processing unit 118 acquires the photographing parameters and is detected by the gyro 880. The attitude and movement relationship of the camera head 1 are acquired from the information such as the angle change. The acquired shooting parameters and the position detection information including the posture and movement relationship of the camera head 1 are given to the depth information distribution calculation processing unit 116.
【0101】次に、エッジ画像対応点抽出部113にお
ける対応点抽出方法について図10を参照しながら説明
する。Next, the corresponding point extraction method in the edge image corresponding point extraction section 113 will be described with reference to FIG.
【0102】エッジ画像対応点抽出部113における対
応点抽出方法の代表的なものとしては、テンプレートマ
ッチング法がある。テンプレートマッチング法は、図1
0に示すように、N×N画素のテンプレート画像が左の
撮像レンズから得られた画像から切り出される。この切
り出されたN×N画素は右の撮像レンズから得られた画
像のM×M画素の入力画素内の探索領域範囲RA(以下
の(7)式で表される領域)上で動かされ、残差R
(a,b)(以下の(8)式で求められる)が最小にな
るようにテンプレート画像の位置が求められる。この求
められた位置がN×Nのテンプレート画像の中心画素位
置とされる。A typical matching point extraction method in the edge image corresponding point extraction section 113 is a template matching method. Figure 1 shows the template matching method.
As shown in 0, a template image of N × N pixels is cut out from the image obtained from the left imaging lens. The cut out N × N pixels are moved on a search region range RA (a region represented by the following formula (7)) in the input pixels of M × M pixels of the image obtained from the right imaging lens, Residual R
The position of the template image is obtained so that (a, b) (obtained by the following equation (8)) is minimized. The obtained position is the center pixel position of the N × N template image.
【0103】[0103]
【数7】 (Equation 7)
【0104】[0104]
【数8】 次に、エッジ抽出方法について図11を参照しながら説
明する。(Equation 8) Next, the edge extraction method will be described with reference to FIG.
【0105】エッジ抽出方法としては、例えばロバート
フィルタなどの手法が用いられ、またこれに代えて、ゾ
ーベルフィルタを用いることもできる。As the edge extraction method, for example, a method such as a Robert filter is used, and instead of this, a Sobel filter can also be used.
【0106】ロバートフィルタを用いるとき、入力画像
f(i,j)、出力画像g(i,j)とすると、出力画
像g(i,j)は次の(9)式または(10)式から求
められる。When a Robert filter is used and an input image f (i, j) and an output image g (i, j) are used, the output image g (i, j) is calculated from the following equation (9) or (10). Desired.
【0107】[0107]
【数9】 [Equation 9]
【0108】[0108]
【数10】 ゾーベルフィルタの場合、次の(11),(12),
(13)式から求められる。(Equation 10) In the case of a Sobel filter, the following (11), (12),
It is obtained from the equation (13).
【0109】[0109]
【数11】 [Equation 11]
【0110】[0110]
【数12】 (Equation 12)
【0111】[0111]
【数13】 このようにして、エッジ部が強調された画像に対し2値
化処理を行うことによってエッジ成分が抽出される。な
お、2値化処理は、適当な閾値を用いて行われる。(Equation 13) In this way, the edge component is extracted by performing the binarization process on the image in which the edge portion is emphasized. The binarization process is performed using an appropriate threshold value.
【0112】以上の手法によれば、図11に示すよう
に、○印で示す奥行き情報が得られる。なお、Bは基線
長を示す。According to the above method, as shown in FIG. 11, depth information indicated by a circle can be obtained. In addition, B shows a base line length.
【0113】次に、多視点でのステレオ画像より得られ
た奥行き情報の処理について図12を参照しながら説明
する。図12は多視点ステレオ画像からの奥行き情報を
統合する処理の流れを示す図である。Next, processing of depth information obtained from a multi-view stereo image will be described with reference to FIG. FIG. 12 is a diagram showing a flow of processing for integrating depth information from multi-view stereo images.
【0114】多視点で撮像されたステレオ画像のそれぞ
れからは、上述の1視点のステレオ画像からの奥行き情
報抽出処理によって個々の視点の奥行き情報が抽出さ
れ、各奥行き情報を順に加えらることによって統合され
る。From each of the stereo images picked up from multiple viewpoints, the depth information of each viewpoint is extracted by the depth information extraction processing from the stereo image of one viewpoint described above, and each depth information is added in order. Integrated.
【0115】各視点のステレオ画像から得られた奥行き
情報120は、図12に示すように、対応するカメラヘ
ッドの位置方向情報125とともに、座標系変換手段1
21に供給される。As shown in FIG. 12, the depth information 120 obtained from the stereo images of the respective viewpoints, together with the position / direction information 125 of the corresponding camera heads, is coordinate system conversion means 1.
21.
【0116】座標系変換手段121は、各視点毎に得ら
れた奥行き情報を対応するカメラヘッドの位置方向情報
125に基づき任意の統一された座標系の情報に変換さ
れる。この統一された座標系の一例としては、極座標系
のボクセル空間が用いられる。各視点毎に得られた奥行
き情報を任意の統一された座標系の情報に変換すること
によって、後に行われる多視点の奥行き情報の統合が容
易になる。また、奥行き情報を統一された座標系の情報
に変換する方法としては、アフィン変換などを用いてオ
イラー角を同じにする方法が用いられる。The coordinate system conversion means 121 converts the depth information obtained for each viewpoint into information of an arbitrary unified coordinate system based on the corresponding camera head position / direction information 125. As an example of this unified coordinate system, a voxel space of a polar coordinate system is used. By converting the depth information obtained for each viewpoint into information of an arbitrary unified coordinate system, it becomes easy to integrate depth information of multiple viewpoints, which is performed later. Further, as a method of converting the depth information into information of a unified coordinate system, a method of making the Euler angles the same by using affine transformation or the like is used.
【0117】統一座標系の奥行き情報は、オクルージョ
ン領域情報送出手段123から送出されたオクルージョ
ン情報とともに、奥行き情報統合手段122に与えら
れ、奥行き情報統合手段122は、オクルージョン情報
に対応する奥行き情報を排除しながら各統一座標系の奥
行き情報を統合する処理を行う。この統合処理では、少
なくとも2つ以上の任意の位置からの被写体の奥行き情
報120に対し局所的なずれ情報を得、そのずれ情報に
基づき同一座標系から見た奥行き情報にするように各奥
行き情報120が位置する点を決めるとともに、その点
の座標間の補間を行い、さらに、少なくとも3つ以上の
複数視点で得られた各奥行き情報の内の、重複する領域
の奥行き情報を多数決する処理を行う。The depth information of the unified coordinate system is given to the depth information integrating means 122 together with the occlusion information sent from the occlusion area information sending means 123, and the depth information integrating means 122 excludes the depth information corresponding to the occlusion information. Meanwhile, the process of integrating the depth information of each unified coordinate system is performed. In this integration processing, local deviation information is obtained with respect to the depth information 120 of the subject from at least two or more arbitrary positions, and based on the deviation information, the depth information viewed from the same coordinate system is used for each depth information. A process of determining the point where 120 is located, interpolating between the coordinates of the point, and further determining the majority of the depth information of the overlapping regions among the depth information obtained from at least three or more viewpoints. To do.
【0118】奥行き情報統合手段122で統合された奥
行き情報は、オクルージョン領域情報送出手段123か
らのオクルージョン情報とともに表示部124に与えら
れ、表示部124は、統合された奥行き情報とオクルー
ジョン情報とを表示する。The depth information integrated by the depth information integration means 122 is given to the display section 124 together with the occlusion information from the occlusion area information transmission means 123, and the display section 124 displays the integrated depth information and occlusion information. To do.
【0119】次に、奥行き情報統合手段122の処理に
ついて図13を参照しながら説明する。図13は図12
の奥行き情報統合手段122における多数決処理の内容
を示す図である。Next, the processing of the depth information integration means 122 will be described with reference to FIG. 13 is shown in FIG.
It is a figure which shows the content of the majority decision process in the depth information integration means 122 of FIG.
【0120】各視点における奥行き情報として、図13
に示すように、3つの視点における奥行き情報が得られ
たとし、その1つは△(20000)で示す奥行き情報
であり、その奥行き情報には20020〜20022ま
での情報が含まれている。他の1つは○(20001)
で示す奥行き情報であり、さらに他の1つは□(200
02)で示す奥行き情報である。なお、本例では、簡単
化のために、奥行き情報はr−θの2次元座標で示さ
れ、被写体はφ軸方向に変化がないものとする。As depth information at each viewpoint, FIG.
As shown in FIG. 3, depth information from three viewpoints is obtained, one of which is depth information indicated by Δ (20000), and the depth information includes information from 2002 to 200222. The other one is ○ (20001)
Is the depth information, and the other one is □ (200
02) is the depth information. In this example, for simplification, the depth information is represented by two-dimensional coordinates of r−θ, and the subject does not change in the φ-axis direction.
【0121】現在、3視点からの奥行き情報、△(20
000),○(20001)、□(20002)が得ら
れており、その情報が重複領域20010において、複
数求められている。Currently, depth information from three viewpoints, Δ (20
000), ◯ (20001), and □ (20002) are obtained, and a plurality of pieces of the information are obtained in the overlapping area 20010.
【0122】しかし、奥行き情報20020〜2002
2は他の視点から得られた情報に比して異なることがあ
る。これは、例えば被写体の表面の鏡面反射成分が強い
場合が考えられる。一般に、鏡面反射が強い場合は、そ
の輝度強度が他に比して突出していたりする。このよう
な場合では、対応点抽出処理はその強い輝度情報に影響
され、視差情報を正確に求めることができない。従っ
て、上述したように、奥行き情報20020〜2002
2が他の視点から得られた情報に比して異なるような状
況が発生する。However, depth information 20020 to 2002
2 may be different compared to information obtained from other perspectives. This may be because, for example, the specular reflection component on the surface of the subject is strong. Generally, when the specular reflection is strong, the brightness intensity is more prominent than others. In such a case, the corresponding point extraction process is affected by the strong luminance information, and the parallax information cannot be accurately obtained. Therefore, as described above, the depth information 2002-2002
A situation occurs in which 2 is different compared to information obtained from other viewpoints.
【0123】奥行き情報20020〜20022の信頼
性は低いと見做され、この奥行き情報20020〜20
022は他の視点の奥行き情報を利用して除去される。
視点が変わると、別の箇所に強い輝度成分をもたらすか
ら、この奥行き情報20020〜20022は他の場所
本例ではθ軸方向における他の場所という意味で図中外
に移動している。The depth information 20020 to 20022 is considered to have low reliability, and the depth information 20020 to 2022 is considered to be low.
022 is removed by using the depth information of another viewpoint.
When the viewpoint is changed, a strong luminance component is brought to another place, so that the depth information 20020 to 20022 has moved to the outside of the figure in the sense of another place in the θ axis direction in another place.
【0124】このことから、少なくとも3視点からの奥
行き情報が重複する領域20010で2つ以上が同じ奥
行きを示す場合を採用し、1つだけ大きく異なる奥行き
情報は除去されることになる。本例では、奥行き情報2
0020〜20022が除去される。この除去の基準に
は閾値が用いられ、この閾値を超えた奥行き情報は除去
される。From this, a case is adopted in which two or more of the areas 20010 in which the depth information from at least three viewpoints overlaps have the same depth, and the depth information that differs by only one is removed. In this example, the depth information 2
0020 to 20022 are removed. A threshold is used as a criterion for this removal, and depth information that exceeds this threshold is removed.
【0125】信頼性の低い奥行き情報20020〜20
022が除去された後には、奥行き情報、△(2000
0),○(20001)、□(20002)から平均を
取り、その平均した結果として☆(20003)で示す
奥行き情報が得られる。Unreliable depth information 20020 to 2020
After 022 is removed, the depth information, Δ (2000
0), ◯ (20001), □ (20002) are averaged and the depth information indicated by ☆ (20003) is obtained as the averaged result.
【0126】奥行き情報は重複領域20010内で得ら
れるから、全体を得るために、他の3視点による重複領
域を用いてその領域の奥行き情報を得る操作が順に行わ
れ、鏡面反射成分の悪影響を取り除いた形で奥行き情報
を得ることが可能になる。Since the depth information is obtained in the overlapping area 20010, in order to obtain the whole, the operation of obtaining the depth information of the area using the overlapping areas of the other three viewpoints is sequentially performed, and the adverse effect of the specular reflection component is reduced. It becomes possible to obtain the depth information in the removed form.
【0127】次に、平均処理、1つの選択処理の他に局
所的なずれを補間する処理があり、この処理について図
14および図15を参照しながら説明する。図14は多
視点ステレオ画像からの奥行き情報の統合の様子を模擬
的に示す図、図15は中間点補間方法を示す図である。
本説明では、説明の簡単化のために、3視点からの情報
を扱わずに、2視点からの情報を扱うものとする。Next, in addition to the averaging process and one selection process, there is a process for interpolating a local shift, and this process will be described with reference to FIGS. 14 and 15. FIG. 14 is a diagram schematically showing how depth information is integrated from a multi-view stereo image, and FIG. 15 is a diagram showing an intermediate point interpolation method.
In this description, for simplicity of description, it is assumed that information from two viewpoints is handled instead of information from three viewpoints.
【0128】多視点ステレオ画像からの奥行き情報の統
合処理において、図14(a)に示すように、1つの視
点(t)で得られた奥行き情報はrt(θ,φ)であ
り、次の視点(t+δt)で得られた奥行き情報rt+
δt(θ,φ)は、図14(b)に示すように、統一さ
れた方向から見ると、r´t+δt(θ,φ)となる。In the process of integrating depth information from multi-view stereo images, the depth information obtained at one viewpoint (t) is rt (θ, φ), as shown in FIG. Depth information rt + obtained from the viewpoint (t + δt)
δt (θ, φ) is r′t + δt (θ, φ) when viewed from a unified direction, as shown in FIG.
【0129】次いで、図14(c)に示すように、奥行
き情報rt(θ,φ)とr´t+δt(θ,φ)とがぞ
れぞれ局所的に(i0,j0)ずれていると、図14
(d)に示すように、ずれ(i0,j0)分の移動によ
って奥行き情報rt(θ,φ)とr´t+δt(θ,
φ)とはほぼ重ね合わされた状態になる。Next, as shown in FIG. 14C, if the depth information rt (θ, φ) and r′t + δt (θ, φ) are locally shifted (i0, j0), respectively. , FIG. 14
As shown in (d), the depth information rt (θ, φ) and r′t + δt (θ, θ,
φ) is almost superposed.
【0130】カメラ姿勢位置検知部(図1に示す)が非
常に高精度であり、ステレオ画像からの奥行き抽出精度
も高精度であるとき、局所的ずれ(i0,j0)は小さ
い値となる。また、既に鏡面反射成分の悪影響は除去さ
れている。When the camera posture position detection unit (shown in FIG. 1) is extremely accurate and the depth extraction accuracy from the stereo image is also highly accurate, the local deviation (i0, j0) has a small value. Further, the adverse effect of the specular reflection component has already been removed.
【0131】上述のずれ量は次の(14)式に基づき算
出される。The above shift amount is calculated based on the following equation (14).
【0132】[0132]
【数14】 この式中のQの内、最小のQを与える(i0,j0)が
導き出され、その(i0,j0)をずれ量として奥行き
情報が移動され、例えば図14(d)に示すように奥行
き情報rt(θ,φ)とr´t+δt(θ,φ)とがほ
ぼ重ね合わされる。[Equation 14] Of the Q's in this equation, (i0, j0) that gives the smallest Q is derived, and the depth information is moved with the (i0, j0) as the shift amount. For example, as shown in FIG. rt (θ, φ) and r′t + δt (θ, φ) are almost superposed.
【0133】この重ね合わせが行われた後に、同一点が
存在すれば、その同一点の排除が行われるとともに、中
間点の補間が行われる。After the superposition, if the same point exists, the same point is excluded and the intermediate point is interpolated.
【0134】この同一点の排除では、同一点と判断され
た点の中の1つを取り出し、他の点を排除する。よっ
て、情報量の削減が図られる。この同一点であるか否か
の判断は、次の(15)式または(16)式で示す関係
を満足するか否かによって行われる。In the exclusion of the same point, one of the points determined to be the same point is taken out and the other points are eliminated. Therefore, the amount of information can be reduced. The determination as to whether or not they are the same point is made based on whether or not the relationship represented by the following expression (15) or (16) is satisfied.
【0135】[0135]
【数15】 (Equation 15)
【0136】[0136]
【数16】 ただし、ε1,ε2は基準値、a,b,c,dは適当に
選択された係数である。例えば、b=c=1、a=2と
することによって、距離の違いに対してより敏感に判定
することが可能になる。(Equation 16) However, ε1 and ε2 are reference values, and a, b, c, and d are appropriately selected coefficients. For example, by setting b = c = 1 and a = 2, it becomes possible to more sensitively determine the difference in distance.
【0137】次に求められた点の座標から補間が行われ
る。この補間方法について図15を参照しながら説明す
る。Interpolation is performed from the coordinates of the obtained points. This interpolation method will be described with reference to FIG.
【0138】奥行き情報rt(θ,φ)は、図15に示
すように、○印で、(i0,j0)シフトされたr´t
+δt(θ,φ)は●印でそれぞれ表され、奥行き情報
rt(θ,φ)とr´t+δt(θ,φ)とは、1次元
平面であるZ−X平面に投影されている。この奥行き情
報rt(θ,φ)とr´t+δt(θ,φ)とに対する
中間補間によって、□印で表される中間データが得ら
れ、この中間データが新たな奥行き情報rnewとな
る。As shown in FIG. 15, the depth information rt (θ, φ) is r′t which is (i0, j0) -shifted with a circle.
+ Δt (θ, φ) is represented by a ● symbol, and the depth information rt (θ, φ) and r′t + δt (θ, φ) are projected on the ZX plane which is a one-dimensional plane. Intermediate data represented by □ is obtained by the intermediate interpolation of the depth information rt (θ, φ) and r′t + δt (θ, φ), and this intermediate data becomes new depth information rnew.
【0139】この補間方法としては、線形補間、スプラ
イン補間などを用いることができる。As this interpolation method, linear interpolation, spline interpolation or the like can be used.
【0140】このように、鏡面反射成分からの悪影響を
取り除き、補間された奥行き情報が得られることになる
が、さらに、撮像系の深度情報からのフラグに基づき奥
行き情報の座標の信頼性を判断することによって、信頼
性がより高い奥行き情報を得ることができる。この処理
では、撮像レンズの焦点深度情報に基づき信頼性が低い
情報を排除する。また、オクルージョン情報によって情
報の取捨選択が行われる。As described above, the adverse effect from the specular reflection component is removed and the interpolated depth information is obtained. Furthermore, the reliability of the coordinates of the depth information is judged based on the flag from the depth information of the image pickup system. By doing so, it is possible to obtain more reliable depth information. In this process, information with low reliability is excluded based on the focal depth information of the imaging lens. Further, information is selected according to the occlusion information.
【0141】次に、輪郭からの奥行き情報とステレオ画
像からの奥行き情報との統合について図16を参照しな
がら説明する。図16は輪郭からの奥行き情報とステレ
オ画像からの奥行き情報との統合処理内容を示す図であ
る。Next, the integration of the depth information from the contour and the depth information from the stereo image will be described with reference to FIG. FIG. 16 is a diagram showing the contents of integration processing of the depth information from the contour and the depth information from the stereo image.
【0142】輪郭からの奥行き情報とステレオ画像から
の奥行き情報との統合処理では、図18に示すように、
輪郭からの奥行き情報抽出処理#1(図16(a)に示
す)で得られた奥行き情報と、ステレオ画像からの奥行
き情報抽出処理#2(図16(b)に示す)で得られた
奥行き情報とがある断面において単純に組み合わされ、
この組み合わせによってその断面には、図16(c)に
示すように、処理#1で得られた奥行き情報(ハッチン
グ入り矩形で示す)と処理#2で得られた奥行き情報
(ハッチング入り白丸で示す)とが単純に並べられる。In the integration processing of the depth information from the contour and the depth information from the stereo image, as shown in FIG.
Depth information obtained from the contour depth information extraction process # 1 (shown in FIG. 16A) and depth information obtained from the stereo image depth information extraction process # 2 (shown in FIG. 16B). Information and simply combined in some cross section,
With this combination, as shown in FIG. 16C, the depth information (indicated by hatched rectangles) obtained in the process # 1 and the depth information (indicated by hatched white circles) obtained in the process # 2 are shown in the cross section. ) And are simply arranged.
【0143】この図16(c)から明らかなように、奥
行き情報10001,10002は輪郭線より外側に位
置することが分かり、奥行き情報10001,1000
2が何らかの誤差により輪郭線より外側に位置すると考
えられるから、奥行き情報10001,10002は採
用されない。これに対し、奥行き情報10003は輪郭
線より外側に位置するから、新たな奥行き情報として採
用され、また奥行き情報1004は削除される。このこ
とは、輪郭からの奥行き情報において、一般に凸部は適
正に抽出可能であるが、凹部は適正に抽出できないとい
う性質に基づくものである。As is apparent from FIG. 16C, it is understood that the depth information 10001 and 10002 are located outside the contour line, and the depth information 10001 and 10002 are obtained.
Since it is considered that 2 is located outside the contour line due to some error, the depth information 10001 and 10002 are not adopted. On the other hand, since the depth information 10003 is located outside the contour line, it is adopted as new depth information, and the depth information 1004 is deleted. This is based on the property that in general, in the depth information from the contour, the convex portion can be properly extracted, but the concave portion cannot be properly extracted.
【0144】したがって、輪郭線の奥行き情報より外側
に位置する情報の除去、輪郭線の奥行き情報より凹部を
表現可能な情報の採用、輪郭からの情報とステレオ画像
かららの情報とを繋ぐ処理に用いる残りの情報の採用な
どを含む統合処理が行われ、その処理結果、図16
(d)に示すように、被写体に忠実で滑らかな奥行き情
報が得られる。Therefore, it is possible to remove information located outside the depth information of the contour line, adopt information that can express the concave portion from the depth information of the contour line, and perform processing for connecting the information from the contour and the information from the stereo image. The integrated processing including the adoption of the remaining information to be used is performed, and the processing result is shown in FIG.
As shown in (d), it is possible to obtain smooth depth information that is faithful to the subject.
【0145】(実施の第2形態)次に、本発明の実施の
第2形態について説明する。(Second Embodiment) Next, a second embodiment of the present invention will be described.
【0146】本実施の形態は、実施の第1形態と同じ構
成を有し、本実施の形態では、実施の第1形態と異なる
投票処理を行う。The present embodiment has the same structure as the first embodiment, and in this embodiment, a voting process different from that of the first embodiment is performed.
【0147】具体的には、実施の第1形態では、被写体
の内部から見てボクセル内に均一に1票投じる投票処理
を行うが、1視点からの投票行為が必ず均一である必要
はなく、本実施の形態では、例えばカメラヘッド1に近
い側の所では1票であり、パッドに近付くほど2票、3
票と投票するなど、パッドとの距離に応じて投票する票
数に重み付けをするように投票処理を行う。Specifically, in the first embodiment, the voting process of uniformly casting one vote in the voxel as viewed from the inside of the subject is performed, but the voting action from one viewpoint is not necessarily uniform. In the present embodiment, for example, one vote is provided on the side closer to the camera head 1, and two votes and three votes are obtained as the position approaches the pad.
The voting process is performed such that the number of votes cast is weighted according to the distance from the pad, such as voting votes.
【0148】この重み付けによる投票処理によって、投
票数が高くなるところ、すなわち被写体部派より加速さ
れた得票数が多くなる。なお、投票する場所か否かの判
定は実施の第1形態と同じように行われる。By the voting process based on this weighting, the number of votes increased, that is, the number of votes obtained from the subject group is increased. The determination as to whether or not it is a place to vote is performed in the same manner as in the first embodiment.
【0149】(実施の第3形態)次に、本発明の実施の
第3形態について説明する。(Third Embodiment) Next, a third embodiment of the present invention will be described.
【0150】本実施の形態は、実施の第1形態と同じ構
成を有し、本実施の形態では、実施の第1形態と異なる
投票処理を行う。The present embodiment has the same configuration as the first embodiment, and in this embodiment, a voting process different from that of the first embodiment is performed.
【0151】具体的には、実施の第1形態では、被写体
の内部から見てボクセル内に均一に1票投じ、それが設
定された閾値を超えると、得票として採用する投票処理
を行うが、本実施の形態は、実施の第1形態の処理を段
階的に行う方法を採用し、この方法では、ある視点数に
対し投票行為を行い、その後閾値を用いておおまかに見
込みがある場所を選択し、選択された範囲に対し投票を
行い、これを段階的に繰り返す。Specifically, in the first embodiment, one vote is uniformly cast within the voxel as viewed from the inside of the subject, and when it exceeds the set threshold value, the voting process adopted as the vote is performed. The present embodiment adopts a method of performing the processing of the first embodiment step by step. In this method, a voting act is performed for a certain number of viewpoints, and then a threshold is used to select a roughly promising place. Then, votes are cast for the selected range, and this is repeated in stages.
【0152】上述の方法を用いることによって、見込み
がない所の処理は省略され、処理速度の向上を図ること
ができる。By using the above-mentioned method, the processing in places where there is no prospect is omitted, and the processing speed can be improved.
【0153】[0153]
【発明の効果】以上に説明したように、請求項1記載の
画像情報入力装置によれば、奥行き情報抽出手段で、複
数視点から撮像された被写体像の境界部から奥行き情報
をボクセル空間上に求めるための処理をし、その処理に
よって得られたボクセル空間上に存在する被写体像の割
合を積算し、その積算結果に応じて前記奥行き情報を抽
出するから、被写体を目的とする画像形態に変換するた
めの処理に柔軟に対応可能な奥行き情報を得ることがで
きる。As described above, according to the image information input device of the first aspect, the depth information extraction means puts the depth information into the voxel space from the boundary portion of the subject images picked up from a plurality of viewpoints. The subject is converted into the target image form because the processing for obtaining the subject is performed, the proportions of the subject images existing in the voxel space obtained by the processing are integrated, and the depth information is extracted according to the integration result. It is possible to obtain the depth information that can flexibly correspond to the processing for performing.
【0154】請求項2記載の画像情報入力装置によれ
ば、奥行き情報抽出手段で、ボクセル空間上に存在する
被写体像の割合の積算を、各視点からの存在確率を積算
することによって行い、その積算結果の内設定された閾
値を超えたものを奥行き情報として抽出するから、切り
過ぎなどに起因する誤差の発生を極力少なく抑制するこ
とができる。According to the image information input device of the second aspect, the depth information extracting means performs the integration of the ratios of the subject images existing in the voxel space by integrating the existence probabilities from the respective viewpoints, Since the depth information that exceeds the set threshold among the integration results is extracted, it is possible to suppress the occurrence of an error due to overcutting as much as possible.
【図1】本発明の画像情報入力装置の実施の第1形態の
構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a first embodiment of an image information input device of the invention.
【図2】図1の画像情報入力装置の詳細な構成を示すブ
ロック図である。FIG. 2 is a block diagram showing a detailed configuration of the image information input device of FIG.
【図3】図1の画像情報入力装置の詳細な構成を示すブ
ロック図である。FIG. 3 is a block diagram showing a detailed configuration of the image information input device of FIG.
【図4】図2のシステムコントローラの構成を示すブロ
ック図である。FIG. 4 is a block diagram showing the configuration of the system controller of FIG.
【図5】極座標ボクセル空間を用いた奥行き情報抽出処
理を概念的に示す図である。FIG. 5 is a diagram conceptually showing depth information extraction processing using polar coordinate voxel space.
【図6】多視点の輪郭画像から奥行き情報を抽出する手
法を概念的に示す図である。FIG. 6 is a diagram conceptually showing a method of extracting depth information from a multi-viewpoint contour image.
【図7】8視点の輪郭画像に対する投票処理を様子を概
念的に示す図である。FIG. 7 is a diagram conceptually showing a state of voting processing for an 8-viewpoint contour image.
【図8】図7の投票処理による得票状況を示す図であ
る。FIG. 8 is a diagram showing a voting situation in the voting process of FIG. 7.
【図9】輪郭画像から奥行き情報を抽出する処理過程を
示す図である。FIG. 9 is a diagram showing a process of extracting depth information from a contour image.
【図10】点プレートマッチングを示す図である。FIG. 10 is a diagram showing point plate matching.
【図11】ステレオ画像からの奥行き情報の算出を概略
的に示す図である。FIG. 11 is a diagram schematically showing calculation of depth information from a stereo image.
【図12】多視点ステレオ画像からの奥行き情報を統合
する処理の流れを示す図である。FIG. 12 is a diagram showing a flow of processing for integrating depth information from a multi-view stereo image.
【図13】図12の奥行き情報統合手段122における
多数決処理の内容を示す図である。13 is a diagram showing the contents of a majority decision process in the depth information integration means 122 of FIG.
【図14】多視点ステレオ画像からの奥行き情報の統合
の様子を模擬的に示す図である。FIG. 14 is a diagram schematically showing how depth information is integrated from a multi-view stereo image.
【図15】中間点補間方法を示す図である。FIG. 15 is a diagram showing an intermediate point interpolation method.
【図16】輪郭からの奥行き情報とステレオ画像からの
奥行き情報との統合処理内容を示す図である。[Fig. 16] Fig. 16 is a diagram illustrating the content of integration processing of depth information from a contour and depth information from a stereo image.
1 カメラヘッド 4 カメラ姿勢位置検知部 5a,5b 画像メモリ 6 奥行き情報演算部 7 2次元画像データ演算部 100L,100R 撮像レンズ 101L,101R 絞り 102L,102R イメージセンサ 104L,104R 映像信号処理部 105L,105R 被写体分離部 220 画像処理部 250 記録部 270 合焦検出部 DESCRIPTION OF SYMBOLS 1 camera head 4 camera attitude position detection unit 5a, 5b image memory 6 depth information calculation unit 7 two-dimensional image data calculation unit 100L, 100R imaging lens 101L, 101R aperture 102L, 102R image sensor 104L, 104R video signal processing unit 105L, 105R Subject separation unit 220 Image processing unit 250 Recording unit 270 Focus detection unit
───────────────────────────────────────────────────── フロントページの続き (72)発明者 倉橋 直 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 ─────────────────────────────────────────────────── ─── Continued Front Page (72) Inventor Nao Kurahashi 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc.
Claims (2)
を撮像し、その被写体像を出力する撮像手段と、前記撮
像手段で任意の位置から撮像した被写体像に基づきその
被写体の奥行き情報を抽出する奥行き情報抽出手段とを
備える画像情報入力装置において、前記奥行き情報抽出
手段は、複数視点から撮像された被写体像の境界部から
奥行き情報をボクセル空間上に求めるための処理をし、
その処理によって得られたボクセル空間上に存在する前
記被写体像の割合を積算し、その積算結果に応じて前記
奥行き情報を抽出することを特徴とする画像情報入力装
置。1. An image pickup unit for picking up an image of a subject through at least one optical system and outputting the image of the subject, and depth information of the subject is extracted based on the subject image picked up from an arbitrary position by the image pickup unit. In the image information input device including depth information extraction means, the depth information extraction means performs processing for obtaining depth information in a voxel space from a boundary portion of a subject image captured from a plurality of viewpoints,
An image information input device, characterized in that the ratios of the subject images existing in the voxel space obtained by the processing are integrated, and the depth information is extracted according to the integration result.
ル空間上に存在する前記被写体像の割合の積算を、前記
各視点からの存在確率を積算することによって行い、そ
の積算結果の内設定された閾値を超えたものを前記奥行
き情報として抽出することを特徴とする請求項1記載の
画像情報入力装置。2. The depth information extracting means integrates the proportions of the subject images existing in the voxel space by integrating the existence probabilities from the respective viewpoints, and is set in the integration result. The image information input device according to claim 1, wherein a depth exceeding a threshold value is extracted as the depth information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8057057A JPH09231369A (en) | 1996-02-21 | 1996-02-21 | Picture information input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8057057A JPH09231369A (en) | 1996-02-21 | 1996-02-21 | Picture information input device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH09231369A true JPH09231369A (en) | 1997-09-05 |
Family
ID=13044825
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8057057A Pending JPH09231369A (en) | 1996-02-21 | 1996-02-21 | Picture information input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH09231369A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6847371B2 (en) | 1996-08-29 | 2005-01-25 | Sanyo Electric Co., Ltd. | Texture information assignment method, object extraction method, three-dimensional model generating method, and apparatus thereof |
JP2005056295A (en) * | 2003-08-07 | 2005-03-03 | Iwane Kenkyusho:Kk | 360-degree image conversion processing apparatus |
JP2008225787A (en) * | 2007-03-12 | 2008-09-25 | Toyota Motor Corp | Image recognition device |
WO2011044214A2 (en) * | 2009-10-07 | 2011-04-14 | Microsoft Corporation | Systems and methods for removing a background of an image |
US8861839B2 (en) | 2009-10-07 | 2014-10-14 | Microsoft Corporation | Human tracking system |
US8891827B2 (en) | 2009-10-07 | 2014-11-18 | Microsoft Corporation | Systems and methods for tracking a model |
US8963829B2 (en) | 2009-10-07 | 2015-02-24 | Microsoft Corporation | Methods and systems for determining and tracking extremities of a target |
-
1996
- 1996-02-21 JP JP8057057A patent/JPH09231369A/en active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6847371B2 (en) | 1996-08-29 | 2005-01-25 | Sanyo Electric Co., Ltd. | Texture information assignment method, object extraction method, three-dimensional model generating method, and apparatus thereof |
US7106348B2 (en) | 1996-08-29 | 2006-09-12 | Sanyo Electric Co., Ltd. | Texture information assignment method, object extraction method, three-dimensional model generating method, and apparatus thereof |
JP2005056295A (en) * | 2003-08-07 | 2005-03-03 | Iwane Kenkyusho:Kk | 360-degree image conversion processing apparatus |
JP2008225787A (en) * | 2007-03-12 | 2008-09-25 | Toyota Motor Corp | Image recognition device |
US8891827B2 (en) | 2009-10-07 | 2014-11-18 | Microsoft Corporation | Systems and methods for tracking a model |
WO2011044214A3 (en) * | 2009-10-07 | 2011-08-18 | Microsoft Corporation | Systems and methods for removing a background of an image |
US8861839B2 (en) | 2009-10-07 | 2014-10-14 | Microsoft Corporation | Human tracking system |
US8867820B2 (en) | 2009-10-07 | 2014-10-21 | Microsoft Corporation | Systems and methods for removing a background of an image |
WO2011044214A2 (en) * | 2009-10-07 | 2011-04-14 | Microsoft Corporation | Systems and methods for removing a background of an image |
US8897495B2 (en) | 2009-10-07 | 2014-11-25 | Microsoft Corporation | Systems and methods for tracking a model |
US8963829B2 (en) | 2009-10-07 | 2015-02-24 | Microsoft Corporation | Methods and systems for determining and tracking extremities of a target |
US8970487B2 (en) | 2009-10-07 | 2015-03-03 | Microsoft Technology Licensing, Llc | Human tracking system |
US9522328B2 (en) | 2009-10-07 | 2016-12-20 | Microsoft Technology Licensing, Llc | Human tracking system |
US9582717B2 (en) | 2009-10-07 | 2017-02-28 | Microsoft Technology Licensing, Llc | Systems and methods for tracking a model |
US9659377B2 (en) | 2009-10-07 | 2017-05-23 | Microsoft Technology Licensing, Llc | Methods and systems for determining and tracking extremities of a target |
US9679390B2 (en) | 2009-10-07 | 2017-06-13 | Microsoft Technology Licensing, Llc | Systems and methods for removing a background of an image |
US9821226B2 (en) | 2009-10-07 | 2017-11-21 | Microsoft Technology Licensing, Llc | Human tracking system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6445814B2 (en) | Three-dimensional information processing apparatus and method | |
EP0707288B1 (en) | Image processing method and apparatus | |
US6640004B2 (en) | Image sensing and image processing apparatuses | |
JP3064928B2 (en) | Subject extraction method | |
KR101804205B1 (en) | Apparatus and method for image processing | |
WO2014073322A1 (en) | Object detection device and object detection method | |
JP2000102040A (en) | Electronic stereo camera | |
CN111724470B (en) | Processing method and electronic equipment | |
JPH05303629A (en) | Method for synthesizing shape | |
JP2020191624A (en) | Electronic apparatus and control method for the same | |
JPH1021401A (en) | Three-dimensional information processor | |
JP4198536B2 (en) | Object photographing apparatus, object photographing method and object photographing program | |
JPH09231370A (en) | Picture information input device | |
JPH09231369A (en) | Picture information input device | |
JPH09305796A (en) | Image information processor | |
JPH1023311A (en) | Image information input method and device therefor | |
JP2004069583A (en) | Image processing device | |
JP6039301B2 (en) | IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP2013120435A (en) | Image processing apparatus and image processing method, and program | |
JP3501841B2 (en) | Three-dimensional object region detection device, distance measuring device to three-dimensional object region, and their detection and measurement method | |
US20130076868A1 (en) | Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same | |
JP7028814B2 (en) | External shape recognition device, external shape recognition system and external shape recognition method | |
JPH09231371A (en) | Picture information input device and its method | |
JP4021036B2 (en) | Stereo image processing device | |
JPH09229648A (en) | Input/output method and device for image information |