JP2001052177A - Image processor and method for processing image - Google Patents

Image processor and method for processing image

Info

Publication number
JP2001052177A
JP2001052177A JP11227356A JP22735699A JP2001052177A JP 2001052177 A JP2001052177 A JP 2001052177A JP 11227356 A JP11227356 A JP 11227356A JP 22735699 A JP22735699 A JP 22735699A JP 2001052177 A JP2001052177 A JP 2001052177A
Authority
JP
Japan
Prior art keywords
image
camera
straight line
coordinate system
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11227356A
Other languages
Japanese (ja)
Inventor
Hideyoshi Tominaga
英義 富永
Daisuke Shibuichi
大助 四分一
Nobuyoshi Terajima
信義 寺島
Tsukasa Tanaka
司 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waseda University
Original Assignee
Waseda University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waseda University filed Critical Waseda University
Priority to JP11227356A priority Critical patent/JP2001052177A/en
Publication of JP2001052177A publication Critical patent/JP2001052177A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide communication of high presence by displaying the video of a transmitter at the free viewpoint position of a recipient at a distance place by composing a device of plural cameras, a computer and a display thereof without using a special dedicated image processor. SOLUTION: In this image processor, the three-dimensional information of an object is extracted from an input image photographed by a photographing part 101 where plural cameras are arranged on both the sides of a display 113 and the output image of the object is displayed from that three-dimensional information and the information of the free viewpoint position of the recipient by a reconstituting/display part 115. Thus, the visual line of a user at a distant place can be matched and the video of the transmitter at the free viewpoint position of the recipient can be generated so that the communication of high presence can be provided.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えばテレビ会議
システムあるいはテレビ電話システムに使用される画像
処理装置及びその方法に関する。本発明は、カメラより
撮影された入力画像から、被写体の3次元情報を抽出
し、その被写体の3次元情報と、利用者の視点位置情報
とを用いて、利用者の視点位置に応じた被写体の画像を
再構成・表示する画像処理装置及び画像処理方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and a method for use in, for example, a video conference system or a video telephone system. The present invention extracts three-dimensional information of a subject from an input image captured by a camera, and uses the three-dimensional information of the subject and the viewpoint position information of the user to determine a subject corresponding to the viewpoint position of the user. And an image processing method for reconstructing and displaying an image.

【0002】特に、複数台のカメラのレンズ中心が一直
線上になるように配置した撮影部を用いて入力画像を取
得し、その入力画像間の特徴点の対応づけをエピポーラ
平面画像上の対応点直線検出に帰着させることで、人物
顔などの特徴量の少ない被写体に対し、人手を介するこ
となく自動的に被写体の3次元情報を取得して、その被
写体の3次元情報を利用し利用者による自由な視点位置
に応じた被写体の画像を再構成し、計算機のディスプレ
イで表示する画像処理装置及び画像処理方法に関する。
In particular, an input image is obtained by using an image pickup unit arranged such that the lens centers of a plurality of cameras are on a straight line, and the correspondence of feature points between the input images is determined by corresponding points on an epipolar plane image. By reducing to straight line detection, for a subject with a small amount of feature such as a human face, the 3D information of the subject is automatically obtained without manual intervention, and the user uses the 3D information of the subject to The present invention relates to an image processing apparatus and an image processing method for reconstructing an image of a subject corresponding to a free viewpoint position and displaying the image on a display of a computer.

【0003】[0003]

【従来の技術】近年の画像圧縮技術の進歩や、ITU-Tに
おいてISDNによるテレビ会議・テレビ電話を主たる用途
に開発された映像符号化標準H.261やそのH.261を改良し
たH. 263の標準化により、テレビ会議システムが実用化
しており、今後、その必要性は社会の情報化の流れや計
算機など、ハードウェアの性能向上とともに高まってい
くと考えられる。
2. Description of the Related Art Recent advances in image compression technology and the video coding standard H.261 developed for video conferencing and video telephony based on ISDN at ITU-T and the H.263 improved version of H.263 Video conferencing systems have been put into practical use due to the standardization of the Internet, and it is expected that the necessity will increase in the future as the performance of hardware such as the flow of computerization in society and computers increases.

【0004】しかし、現在のテレビ会議システムでは、
利用者を撮影するカメラがディスプレイの外部(例えば
上部など)に設置されているために、利用者がディスプ
レイを見ると、カメラは下を向いた利用者の顔を撮影す
ることになり、遠隔地にいる一方の利用者には、下を向
いてうつむいた顔画像が送信される。このため、遠隔地
にいる利用者どうしの視線が一致せずコミュニケーショ
ンをとるのに非常に不都合であるという問題が生じてい
る。
However, in the current video conference system,
Since the camera that shoots the user is installed outside the display (for example, on the top), when the user looks at the display, the camera will shoot the face of the user facing down, and the A face image of the user facing down is transmitted to one user. For this reason, there is a problem that the eyes of the users located at remote locations do not match, and it is very inconvenient to communicate.

【0005】この視線不一致の問題を解決する従来技術
に、ハーフミラーを用いたテレビ電話(例えば、昭和63
年電子情報通信学会秋季全国大会 D-38 "視線一致型:
小型テレビ電話装置の開発"、末武国弘、吉川研一によ
り発表されている)が開発されている。
[0005] Conventional techniques for solving this problem of line-of-sight mismatch include a videophone using a half mirror (for example, Showa 63).
IEICE Autumn National Convention D-38 "Gaze-matched type:
Development of Small Telephone Device ", published by Kunihiro Suetake and Kenichi Yoshikawa).

【0006】従来の画像処理装置の原理を図26を用い
て、以下に述べる。
The principle of the conventional image processing apparatus will be described below with reference to FIG.

【0007】従来の画像処理装置の原理は、利用者(A)2
601側の画像処理装置2602では、45度傾いたハーフミラ
ー2603を通して、カメラ2604で利用者(A)2601の顔を撮
影し、通信回線2611を介して、遠隔地にいる一方の利用
者(B)2606側にある同様の画像処理装置2607へ送信す
る。利用者(B)2606 側の画像処理装置2607内のカメラ26
09で撮影された遠隔地の利用者(B)2606の映像は、利用
者(A)2601側の画像処理装置2602で受信し、テレビモニ
ター2605で再生されるが、その画像はハーフミラー2603
で反射されて利用者(A)2601へ提供される。これによっ
て、お互い遠隔地にいる利用者(A)(B)どうしは、視線を
一致させてコミュニケーションを取ることができる。
[0007] The principle of the conventional image processing apparatus is that the user (A) 2
In the image processing device 2602 on the 601 side, the face of the user (A) 2601 is photographed by the camera 2604 through the half mirror 2603 inclined at 45 degrees, and the other user (B ) And sends it to the similar image processing device 2607 on the 2606 side. The camera 26 in the image processing device 2607 on the user (B) 2606 side
The video of the remote user (B) 2606 captured in 09 is received by the image processing device 2602 on the user (A) 2601 side and reproduced on the television monitor 2605.
And is provided to the user (A) 2601. As a result, the users (A) and (B) who are in remote locations can communicate with each other by matching their eyes.

【0008】[0008]

【発明が解決する課題】しかしながら、従来技術では、
遠隔地にいる利用者同士の視線一致は可能であるもの
の、画像処理装置がハーフミラーを用いたハードウェア
で構成されているため、画像処理装置が特殊化してい
る。このため、既存のディスプレイを用いることができ
ず、汎用性に欠けるという問題があった。
However, in the prior art,
Although it is possible to match the line of sight of users at remote locations, the image processing device is specialized because the image processing device is configured by hardware using a half mirror. For this reason, there was a problem that an existing display could not be used and lacked versatility.

【0009】また、受信側利用者の前にあるディスプレ
イに表示されている遠隔地にいる一方の利用者の映像
は、画像処理装置内のディスプレイの裏側に固定されて
いるカメラが、ハーフミラーを通して捉えたとされる映
像であるため、受信側利用者による自由な視点位置での
映像表示ができない。これにより、遠隔地にいる利用者
を、異なる角度から撮影した場合の映像を取得すること
ができないために、あたかも遠隔地にいる利用者が目の
前にいるといった臨場感が高くないという問題点があっ
た。
[0009] In addition, the image of one remote user displayed on the display in front of the receiving user is transmitted through a half mirror through a camera fixed to the back of the display in the image processing apparatus. Since the image is assumed to be captured, it is not possible for the receiving user to display an image at a free viewpoint position. As a result, it is not possible to acquire a video image of a user at a remote location from a different angle, so that the presence of the user at a remote location is not high, as if it were in front of the user. was there.

【0010】したがって、本発明の目的は、上記問題点
を解決するもので、画像処理装置をハーフミラーを用い
た専用ハードウェアで構成することなく、既存の計算機
のディスプレイを利用し、複数台のカメラと計算機とソ
フトウェアで構成する。また、臨場感の高いコミュニケ
ーションを提供するために、受信側利用者による自由な
視点位置での、送信側利用者の映像表示が可能な画像処
理装置及び画像処理方法を提供することである。
Therefore, an object of the present invention is to solve the above-mentioned problems, and it is possible to use a display of an existing computer without using an image processing apparatus with dedicated hardware using a half mirror, and to use a plurality of displays. It consists of a camera, a computer and software. Another object of the present invention is to provide an image processing apparatus and an image processing method capable of displaying an image of a transmitting user at a free viewpoint position by a receiving user in order to provide highly realistic communication.

【0011】[0011]

【課題を解決するための手段】上記目的を達成するた
め、以下に述べる手段をとる。
In order to achieve the above object, the following means are taken.

【0012】人物顔画像処理における研究では、一般に
人物顔は特徴量が少ないために、人物顔の画像認識・分
析が困難であり、複数台のカメラで撮影した場合、画像
間の特徴点の対応付けの自動化が非常に困難であるとさ
れている。
In research on human face image processing, image recognition and analysis of a human face is generally difficult because a human face has a small amount of features. It is said that it is very difficult to automate the attachment.

【0013】そこで本発明では、特徴点の対応付けの自
動化を実現するために、エピポーラ平面画像を用いる。
Therefore, in the present invention, an epipolar plane image is used in order to realize automatic correlation of feature points.

【0014】カメラ光軸がカメラベースライン(移動す
るカメラのレンズ中心を結んだ直線)に対し垂直、且つ
そのカメラが等速度で移動している場合、得られた画像
を時間軸方向に配置したとき、時空間画像が生成され
る。その時空間画像を水平方向に切断したとき得られる
切断面を、エピポーラ平面画像という。そのエピポーラ
平面画像では、画像間の特徴点は直線軌跡になって現
れ、且つ、その直線軌跡の傾きはカメラベースラインと
被写体間の距離情報をもつ性質をもつ。
When the camera optical axis is perpendicular to the camera baseline (a straight line connecting the lens centers of the moving camera) and the camera is moving at a constant speed, the obtained images are arranged in the time axis direction. Sometimes, a spatiotemporal image is generated. The cut plane obtained when the spatiotemporal image is cut in the horizontal direction is called an epipolar plane image. In the epipolar plane image, the feature points between the images appear as a linear trajectory, and the inclination of the linear trajectory has the property of having information on the distance between the camera baseline and the subject.

【0015】本発明では、エピポーラ平面画像上では、
特徴点は直線軌跡を描き、その直線軌跡の傾きは距離情
報を有することを利用し、少ない入力画像から構成され
るエピポーラ平面画像上の直線軌跡の検出(対応点直線
の検出)処理を行ない、その後、補間処理を行なう。そ
して、その補間処理されたエピポーラ平面画像上の対応
点直線の傾きから、カメラベースラインと被写体間の距
離情報を抽出し、3次元情報を獲得することを完全自動
化させて行なうことを特徴とする。
In the present invention, on the epipolar plane image,
The feature points draw a straight line trajectory, and the inclination of the straight line trajectory utilizes the fact that it has distance information, and performs a process of detecting a straight line trajectory (detection of a corresponding point straight line) on an epipolar plane image composed of a small number of input images, Thereafter, an interpolation process is performed. Then, the distance information between the camera baseline and the subject is extracted from the inclination of the corresponding point line on the interpolated epipolar plane image, and the acquisition of three-dimensional information is performed by fully automated processing. .

【0016】さて、ディスプレイの両側に設置されたレ
ンズ中心が一直線に並んでいる複数台のカメラを同期さ
せて、被写体を撮影し、入力画像を取得する。
Now, a plurality of cameras whose lens centers are arranged on both sides of the display and whose centers are arranged in a straight line are synchronized, an object is photographed, and an input image is obtained.

【0017】それら入力画像に対し、予め撮影して計算
機のメモリに蓄積しておいた背景画像を読み出し、背景
画像との差分を取って背景を除去し、背景除去画像を生
成する。
For these input images, a background image previously photographed and stored in a memory of a computer is read, and the background is removed by taking a difference from the background image to generate a background-removed image.

【0018】カメラベースライン(本発明では、複数台
のカメラのレンズ中心を結んだ直線)に対して、各カメ
ラ光軸が垂直にした場合である画像に変換したいので、
カメラキャリブレーションを行ない、カメラパラメータ
を算出し、そのカメラパラメータを基に、カメラベース
ラインを算出し、そして、そのカメラベースラインに対
して、各カメラ光軸が垂直になるように変換、且つ、焦
点距離を統一することで、背景除去画像の正規化を行な
う。
Since it is desired to convert the camera base line (in the present invention, a straight line connecting the lens centers of a plurality of cameras) into an image in which the optical axes of the respective cameras are perpendicular to each other,
Perform camera calibration, calculate camera parameters, calculate a camera baseline based on the camera parameters, and convert each camera optical axis to be perpendicular to the camera baseline, and By unifying the focal length, the background-removed image is normalized.

【0019】次に、実空間におけるカメラ間隔と同じ割
合で、時空間座標系に背景除去画像を計算機のメモリに
格納する。
Next, the background-removed image is stored in the memory of the computer in the spatiotemporal coordinate system at the same ratio as the camera interval in the real space.

【0020】水平方向に切断することで、入力画像数分
のラインが並んだエピポーラ平面画像を得る。
By cutting in the horizontal direction, an epipolar plane image in which lines for the number of input images are arranged is obtained.

【0021】そのエピポーラ平面画像上で、最も緩やか
な対応点直線の傾きをdecideKminと定義し、そのdecide
Kminを度数分布表と人物顔の特徴を用いて算出する。
On the epipolar plane image, the slope of the gentlest corresponding point straight line is defined as “decideK min”.
K min is calculated using the frequency distribution table and the characteristics of the human face.

【0022】次に、算出されたdecideKminと、エピポー
ラ平面画像上の入力画像数分のラインを用いて、エピポ
ーラ平面画像上の対応点直線を検出し、補間処理を行な
う。
Next, using the calculated decideK min and the number of lines corresponding to the number of input images on the epipolar plane image, a corresponding point straight line on the epipolar plane image is detected, and interpolation processing is performed.

【0023】次に、補間されたエピポーラ平面画像か
ら、被写体の各特徴点とカメラベースライン間の距離情
報を算出して、各特徴点の3次元情報を抽出する。
Next, distance information between each feature point of the subject and the camera baseline is calculated from the interpolated epipolar plane image, and three-dimensional information of each feature point is extracted.

【0024】3次元情報を算出する処理が、入力画像1
フレーム分完了するまで、計算機のメモリに蓄積してお
く。
The processing for calculating the three-dimensional information is based on the input image 1
Until the frame is completed, the data is stored in the memory of the computer.

【0025】次に、蓄積された1フレーム分の被写体の
3次元情報と、入力された受信側利用者の自由な視点位
置情報を読み込み、計算機内に3次元空間を表現できる
ソフトウェアで被写体の再構成を行ない、ディスプレイ
などに表示する。
Next, one frame of the accumulated subject
It reads the three-dimensional information and the input free viewpoint position information of the receiving user, reconstructs the subject using software capable of expressing the three-dimensional space in the computer, and displays it on a display or the like.

【0026】また、取得した被写体の3次元情報を送信
し、受信側で利用者の自由な視点からの画像に再構成し
て表示する。
Further, the obtained three-dimensional information of the subject is transmitted, and the receiving side reconstructs and displays an image from a free viewpoint of the user.

【0027】[0027]

【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を参照しながら説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0028】(画像処理装置の構成)図1は本発明の画像
処理装置の構成の一例を示す図である。図1において本
発明の画像処理装置は、送信画像処理部110と受信画像
処理部117とから構成されている。送信画像処理部110
は、入力対象である被写体111と背景112を撮影した画像
(以下、単に入力画像ともいう)をすべてのカメラの画角
内に収まるように撮影を行なう、レンズ中心が一直線上
に並んでいる4台のCCD(Charge Coupled Device)カメ
ラなどから成る撮影部101と、カメラキャリブレーショ
ンを行ない、撮影部101内の4台の各カメラのカメラパ
ラメータを算出する処理と、後記カメラ座標系(Xc 、Y
c 、Zc )の、後記仮想カメラ座標系 (Xv 、Yv 、Zv )に
正規化を行なうキャリブレーション処理部102と、予め
背景112を撮影しておいた画像(以下、背景画像ともい
う)と、前述入力画像との差分を行ない、入力画像から
背景画像を除去する背景処理部103と、前記背景除去画
像を仮想カメラ座標系に配置されている撮影部101内の
複数台のカメラの間隔の割合と同一に後記時空間座標系
(u、v、E) に配置し、この時空間座標系(u、v、E)のuE
平面に並行に切断することにより取得される切断面であ
るエピポーラ平面画像(以下、単にEPIともいう)を、時
空間座標系のv軸方向に順次スキャンさせて生成するエ
ピポーラ平面画像生成部104と、各EPI上において、撮影
部101内の複数台のカメラのレンズ中心を結んだ直線(以
下、単にカメラベースラインともいう)と被写体111の距
離が最短になる特徴点が、EPI上に描く直線軌跡の傾き
(以下、単にdecideKminともいう)を算出する最短距離情
報算出部105と、前記decideKminを用いて、各EPI上にお
いて設定する後記基準ライン上の各特徴点(以下、単に
基準画素ともいう)に対する対応点直線を検出し、手前
の物体が奥にある物体を遮蔽するオクルージョン部分に
も対応しつつ補間処理を行なう補間処理部106と、補間
されたEPIから被写体111の各特徴点とカメラベースライ
ン間の距離情報(カメラベースラインからの奥行き情報)
を算出して、仮想カメラ座標系における各特徴点の3次
元情報を抽出する3次元情報抽出部107と、算出された前
記3次元情報を入力画像1フレーム分算出するまで、計算
機に蓄積しておく3次元情報蓄積部108と、被写体111の1
フレーム分の3次元情報を、画像送信処理部110から画像
受信処理部117へ送信する送信部109とを備えている。受
信画像処理部117は、送信画像処理部110から受信画像処
理部117へ送信された3次元情報を受信する受信部114
と、仮想カメラ座標系における、受信画像処理部117側
の利用者の視点位置情報を入力する視点位置入力部116
と、送信画像処理部110から受信画像処理部117の受信部
114へ送信された3次元情報と、視点位置入力部116より
取得した受信画像処理部117側の利用者の視点位置情報
を読み込み、送信画像処理部110の被写体111の再構成を
行ない、表示する再構成・表示部115とを備えている。
なお、本発明の画像処理装置で備えている撮影部101の
カメラの台数は、ディスプレイ113の両側に2台以上ずつ
備えていれば、何台でも構わない。
(Configuration of Image Processing Apparatus) FIG. 1 is a diagram showing an example of the configuration of an image processing apparatus according to the present invention. 1, the image processing apparatus of the present invention includes a transmission image processing unit 110 and a reception image processing unit 117. Transmission image processing unit 110
Is the image of subject 111 and background 112
(Hereinafter, simply referred to as an input image) an image capturing unit 101 including four CCD (Charge Coupled Device) cameras and the like in which lens centers are arranged in a straight line, and captures images so as to be within the angle of view of all cameras. To perform camera calibration and calculate camera parameters of each of the four cameras in the photographing unit 101; and a camera coordinate system (X c , Y
c , Z c ), a calibration processing unit 102 for normalizing to a virtual camera coordinate system (X v , Y v , Z v ) described later, and an image in which a background 112 has been photographed in advance (hereinafter, also referred to as a background image). And a background processing unit 103 that subtracts the background image from the input image by performing a difference from the input image, and a plurality of cameras in the imaging unit 101 in which the background removal image is arranged in a virtual camera coordinate system. Space-time coordinate system
(u, v, E) and uE of this spatiotemporal coordinate system (u, v, E)
An epipolar plane image generating unit 104 that generates an epipolar plane image that is a cut plane obtained by cutting in parallel to a plane (hereinafter, also simply referred to as EPI) by sequentially scanning in the v-axis direction of a spatiotemporal coordinate system. On each EPI, a straight line drawn on the EPI is a feature point at which the distance between a straight line connecting the lens centers of a plurality of cameras in the photographing unit 101 (hereinafter, also simply referred to as a camera baseline) and the subject 111 is the shortest. Trajectory slope
(Hereinafter, also simply referred to as decideK min ) and the shortest distance information calculation unit 105, using the decideK min , each feature point on a reference line to be set on each EPI (hereinafter, also simply referred to as a reference pixel) An interpolation processing unit 106 that detects a straight line corresponding to the object and performs an interpolation process while also responding to an occlusion part where an object in front of the object blocks an object in the back, and each feature point of the subject 111 and a camera base from the interpolated EPI. Distance information between lines (depth information from camera baseline)
And a three-dimensional information extraction unit 107 that extracts three-dimensional information of each feature point in the virtual camera coordinate system, and accumulates the calculated three-dimensional information in a computer until one frame of the input image is calculated. 3D information storage unit 108 and one of the subjects 111
And a transmission unit 109 for transmitting the three-dimensional information for the frame from the image transmission processing unit 110 to the image reception processing unit 117. The reception image processing unit 117 receives the three-dimensional information transmitted from the transmission image processing unit 110 to the reception image processing unit 117.
A viewpoint position input unit 116 for inputting viewpoint position information of the user on the side of the received image processing unit 117 in the virtual camera coordinate system.
From the transmission image processing unit 110 to the reception unit of the reception image processing unit 117
The three-dimensional information transmitted to 114 and the viewpoint position information of the user on the reception image processing unit 117 side obtained from the viewpoint position input unit 116 are read, and the subject 111 of the transmission image processing unit 110 is reconstructed and displayed. And a reconfiguration / display unit 115.
The number of cameras of the photographing unit 101 provided in the image processing apparatus of the present invention may be any number as long as two or more cameras are provided on both sides of the display 113.

【0029】以下では説明をしやすくするため、カメラ
台数を本発明において、最小台数である4台として論ず
る。
In the following, the number of cameras will be discussed as the minimum number of four in the present invention, for ease of explanation.

【0030】(座標系の説明)図2は各座標系の説明であ
る。
(Description of Coordinate System) FIG. 2 is an explanation of each coordinate system.

【0031】撮影部101内のカメラ0(206)とカメラ3(20
9)の中間に存在する仮想カメラ205のレンズ中心を原点O
v (0、0、0)とし、空間的にお互いにその原点を通り直
交する3直線Xv 、Yv 、Zvの座標系を仮想カメラ座標系
(Xv 、Yv 、Zv )201とする。
The cameras 0 (206) and 3 (20
The center of the lens of the virtual camera 205 existing in the middle of 9) is the origin O
v (0, 0, 0), and the coordinate system of three straight lines X v , Y v , Z v that are spatially orthogonal to each other and pass through their origins is the virtual camera coordinate system
(X v , Y v , Z v ) 201.

【0032】ここで、キャリブレーション処理部102に
おいて、カメラキャリブレーションにより算出したカメ
ラパラメータのうち、外部パラメータ中のワールド座標
系の原点からの、各カメラのレンズ中心(Xvi 、0、0 )
( i=0、1、2、3 )の座標値を用いて、カメラベースライ
ンベクトルを算出する。そして、仮想カメラ座標系 (Xv
、Yv 、Zv )201のXv 軸方向がそのカメラベースライン
ベクトルに並行になるように仮想カメラ座標系(Xv 、Y
v 、Zv )201を設定する。
Here, among the camera parameters calculated by the camera calibration in the calibration processing unit 102, the lens center (X vi , 0, 0) of each camera from the origin of the world coordinate system in the external parameters.
The camera baseline vector is calculated using the coordinate values of (i = 0, 1, 2, 3). Then, the virtual camera coordinate system (X v
, Y v , Z v ) The virtual camera coordinate system (X v , Y v ) such that the X v axis direction of 201 is parallel to its camera baseline vector.
v , Zv ) 201 are set.

【0033】ここで、仮想カメラ座標系の単位系は、カ
メラキャリブレーションにより算出したカメラパラメー
タを用いて、メートル単位系などの既存の単位系で定義
するとよい。
Here, the unit system of the virtual camera coordinate system may be defined by an existing unit system such as a metric unit system using camera parameters calculated by camera calibration.

【0034】次に、撮影部101内の4台のカメラ(カメラ0
(206)、カメラ1(207)、カメラ2(208)、カメラ3(209))に
おいて、各カメラのレンズ中心 (Xvi 、0、0)(i=0、1、
2、3)を通る、各カメラ光軸上(後記、カメラ座標系 (Xc
、Yc 、Zc )701のZc軸方向)にあり、且つ、焦点距離fi
(i=0、1、2、3)だけ離れたところにできる撮影面を、
撮影面座標系(x、y)202とする。撮影面座標系(x、y)202
の原点はカメラ光軸Zcと、その撮影面が交わる点にあ
る。撮影面座標系(x、y)202は、仮想カメラ座標系(X
v 、Yv 、Zv )201に合わせて定義するため、その単位系
は、仮想カメラ座標系(Xv 、Yv 、Zv )201における単位
系と同一の単位系になる。
Next, four cameras (camera 0) in the photographing unit 101
(206), camera 1 (207), camera 2 (208), camera 3 (209)), the lens center of each camera (X vi , 0, 0) (i = 0, 1,
2, 3), on each camera optical axis (see below, camera coordinate system (X c
, Y c , Z c ) in the Zc-axis direction of 701) and the focal length f i
(i = 0, 1, 2, 3)
The imaging plane coordinate system (x, y) 202 is used. Shooting plane coordinate system (x, y) 202
The origin and the camera optical axis Z c, lies in its imaging surface intersects. The shooting plane coordinate system (x, y) 202 is a virtual camera coordinate system (X
v , Yv , Zv ) 201, the unit system is the same as the unit system in the virtual camera coordinate system ( Xv , Yv , Zv ) 201.

【0035】次に、前記撮影面座標系(x、y)202におい
て、撮影された画像をメモリへ格納する際に、その格納
方法が計算機によって異なる。ここでは、原点を左下に
設定し、新たな座標系を、ディジタル画像座標系(u、v)
203とする。
Next, in the photographing plane coordinate system (x, y) 202, when a photographed image is stored in the memory, the method of storing the image differs depending on the computer. Here, the origin is set to the lower left, and the new coordinate system is set to the digital image coordinate system (u, v).
203.

【0036】ここではディジタル画像座標系(u、v)203
の原点を左下にしたが、計算機のメモリへの撮影された
画像の格納の仕様により、原点を適宜定めるとよい。ま
た、入力画像のサイズは、縦Vsize 、横Usizeとする。
この座標系は撮影面座標系(x、y)202における原点位置
のみ変更したものなので、単位系は撮影面座標系(x、y)
202と同一の単位系になり、ゆえに、仮想カメラ座標系
(Xv 、Yv 、Zv )201の単位系と同一の単位系になる。
Here, the digital image coordinate system (u, v) 203
Although the origin is set at the lower left, the origin may be appropriately determined according to the specification of storing the photographed image in the memory of the computer. In addition, the size of the input image is vertical V size and horizontal U size .
Since this coordinate system is obtained by changing only the origin position in the photographing plane coordinate system (x, y) 202, the unit system is the photographing plane coordinate system (x, y)
The same unit system as 202, and therefore the virtual camera coordinate system
The unit system is the same as the unit system of (X v , Y v , Z v ) 201.

【0037】次に、撮影部101内のそれぞれのカメラか
ら得られる前記ディジタル画像を、仮想カメラ座標系(X
v 、Yv 、Zv )201に設置されている4台のカメラのカメ
ラ間隔と同一の割合で、計算機のメモリに配置したとき
にできる3直線u、v、Eの座標系を時空間座標系(u、v、
E)204とする。時空間座標系のE軸上にディジタル座標系
の原点が乗るようにする。
Next, the digital image obtained from each camera in the photographing unit 101 is converted into a virtual camera coordinate system (X
v , Y v , Z v ) Spatio-temporal coordinates of the three straight lines u, v, E that can be created when placed in the computer memory at the same ratio as the camera interval of the four cameras installed in 201 System (u, v,
E) 204. The origin of the digital coordinate system should be on the E-axis of the spatiotemporal coordinate system.

【0038】時空間座標系(u、v、E)204の単位系は、デ
ィジタル画像座標系(u、v)203の単位系で表現されてい
る画像を用いているので、ディジタル座標系(u、v)203
の単位系と同一になる。ゆえに仮想カメラ座標系(Xy
Yv 、Zv ) 201の単位系と同一の単位系である。
Since the unit system of the spatiotemporal coordinate system (u, v, E) 204 uses an image expressed by the unit system of the digital image coordinate system (u, v) 203, the digital coordinate system (u, v, E) 203 is used. , V) 203
And the same unit system. Therefore, the virtual camera coordinate system (X y ,
Y v , Z v ) The unit system is the same as the unit system of 201.

【0039】(画像処理装置の全体のフローチャート)図
3は、画像処理装置全体の動作を示すフローチャートで
ある。以下、画像処理装置の動作について図4から図9を
用いて説明する。
(Overall Flowchart of Image Processing Apparatus) FIG.
FIG. 3 is a flowchart showing the operation of the entire image processing apparatus. Hereinafter, the operation of the image processing apparatus will be described with reference to FIGS.

【0040】ここでは、入力画像601から背景除去画像6
03を生成し、時空間座標系(u、v、E)204に配置する処理
(ステップ302から309)まで説明する。
Here, the background image 6
Generate 03 and place it in the spatiotemporal coordinate system (u, v, E) 204
(Steps 302 to 309) will be described.

【0041】(カメラキャリブレーション)図4は 、キャ
リブレーション処理部102における、カメラキャリブレ
ーション処理を示したものである。
(Camera Calibration) FIG. 4 shows camera calibration processing in the calibration processing unit 102.

【0042】まず、撮影部内の4台のカメラ(カメラ0(20
6)からカメラ3(209))に対し、カメラキャリブレーショ
ンがすでに完了しているかどうかを判定(ステップ302)
する。初期状態では行なわれていないので、長さが既知
であるキャリブレーションパターン401を用意し、撮影
部101内の4台のカメラの画角内に収まるように撮影をす
る。
First, four cameras (camera 0 (20
It is determined whether the camera calibration has already been completed for the camera 3 (209) from 6) (step 302).
I do. Since the calibration is not performed in the initial state, a calibration pattern 401 having a known length is prepared, and shooting is performed so as to be within the view angles of the four cameras in the shooting unit 101.

【0043】次に、キャリブレーション処理部102にお
いて、4台のカメラそれぞれに対して、カメラキャリブ
レーション(ステップ302)を行なう。
Next, the calibration processing section 102 performs camera calibration (step 302) for each of the four cameras.

【0044】キャリブレーションパターン401中の既知
である点を原点としたワールド座標系を設定し、ワール
ド座標系の原点からの各カメラのレンズ中心座標、ワー
ルド座標系に対する各カメラのレンズ光軸Zcの方向とい
う外部パラメータを算出し、また、各カメラの焦点距離
fi (i=0、1、2、3)、画像中心座標、画素サイズ、レン
ズ歪み係数といった内部パラメータを算出する。
A world coordinate system whose origin is a known point in the calibration pattern 401 is set, the lens center coordinates of each camera from the origin of the world coordinate system, and the lens optical axis Z c of each camera with respect to the world coordinate system. Calculate the external parameter called the direction of
Internal parameters such as f i (i = 0, 1, 2, 3), image center coordinates, pixel size, and lens distortion coefficient are calculated.

【0045】なお、撮影部101内の4台のカメラのセッテ
ィングの際、後記背景除去画像603の正規化(ステップ30
7)を行なうため、各カメラのカメラ座標系(Xc 、Yc 、Z
c )を、仮想カメラ座標系 (Xv 、Yv 、Zv )201に正規化
する。そして、焦点距離fi(i=0、1、2、3)をFに統一す
るため、できるだけ各カメラのカメラ光軸 (Zc軸)はカ
メラベースラインに垂直であり、4台のカメラの焦点距
離fi (i=0、1、2、3)はできるだけ等しいことが望まし
い。
When setting the four cameras in the photographing unit 101, the background-removed image 603 described later is normalized (step 30).
7), the camera coordinate system (X c , Y c , Z
c ) is normalized to the virtual camera coordinate system (X v , Y v , Z v ) 201. Then, in order to unify the focal length f i (i = 0, 1, 2, 3) to F, the camera optical axis ( Zc axis) of each camera is as perpendicular to the camera baseline as possible, and the It is desirable that the focal lengths f i (i = 0, 1, 2, 3) be as equal as possible.

【0046】また、今後撮影部101内の4台のカメラの位
置関係を崩さぬように、カメラを動かしてはいけない。
In the future, the cameras must not be moved so that the positional relationship between the four cameras in the photographing unit 101 is maintained.

【0047】(被写体・背景の撮影)図5(A)は、撮影部10
1において、背景112を撮影(ステップ304)している様子
を示している。
(Shooting of Subject / Background) FIG.
In FIG. 1, a state in which the background 112 is photographed (step 304) is shown.

【0048】撮影部101内の4台のカメラ(カメラ0(206)
からカメラ3(209)まで)の画角内に背景112が収まってい
ることを確認し、その4台のカメラを同期させて撮影
し、各カメラから得られた背景画像602を計算機のメモ
リに格納しておく。なお、背景112には、入力画像601か
ら背景画像602の除去を容易にするために、被写体のテ
クスチャとは異なる単一色であることが望ましい。
The four cameras (camera 0 (206)
To the camera 3 (209)), confirm that the background 112 is within the angle of view, shoot the four cameras in synchronization, and save the background image 602 obtained from each camera to the computer memory. Store it. The background 112 is desirably a single color different from the texture of the subject in order to easily remove the background image 602 from the input image 601.

【0049】図5(B)は被写体111と背景112を撮影(ステ
ップ305)している様子を示している。
FIG. 5B shows a state where the subject 111 and the background 112 are photographed (step 305).

【0050】図5(A)と同様に、4台のカメラの画角内に
被写体111と背景112が収まることを確認し、同期させて
撮影し、その4台のカメラから得られた入力画像601を取
得する。
As in FIG. 5A, it is confirmed that the subject 111 and the background 112 are within the angle of view of the four cameras, the images are taken in synchronization, and the input images obtained from the four cameras are obtained. Get 601.

【0051】(背景除去処理)図6は、背景処理部103にお
いて、入力画像601と背景画像602の差分をとることによ
り、入力画像601から背景画像602を除去する (ステップ
306)様子を示している。これより、背景除去画像603を
生成する。
(Background Removal Processing) FIG. 6 shows how the background processing unit 103 removes the background image 602 from the input image 601 by calculating the difference between the input image 601 and the background image 602 (step
306). Thus, the background removal image 603 is generated.

【0052】ここで、入力画像601、背景画像602の画像
サイズは、横Usize 、縦Vsizeで同一であるものとす
る。また、差分をとることにより生成される背景除去画
像603も横Usize 、縦Vsizeである。
Here, it is assumed that the image sizes of the input image 601 and the background image 602 are the same in the horizontal U size and the vertical V size . The background removal image 603 generated by taking the difference is also a horizontal U size and a vertical V size .

【0053】(各カメラ座標系の正規化)図7(A)から(C)
は、キャリブレーション処理部102において、3直線X
c 、Yc 、Z c が空間的に原点Oc (0、0、0)で直行してい
る各カメラのカメラ座標系(Xc 、Yc、Zc )701を正規化
(ステップ307)する様子を示した図である。
(Normalization of Each Camera Coordinate System) FIGS. 7A to 7C
Are three straight lines X in the calibration processing unit 102.
c , Yc , Z c Is the spatial origin Oc Go straight at (0,0,0)
Camera coordinate system (Xc , Yc, Zc) Normalized 701
(Step 307) FIG.

【0054】図7(A)はカメラ座標系701のYc 軸がカメラ
ベースラインベクトル(仮想カメラ座標系(Xv 、Yv 、Zv
)201のXv軸と並行)に垂直になるように、Zc軸を中心に
カメラ座標系をθ回転させた様子を示している。また、
図7(B)はカメラ座標系(Xc、Yc 、Zc )701のZc 軸がカ
メラベースラインベクトルに垂直になるように、Yc軸を
中心にカメラ座標系(Xc 、Yc 、Zc )701をさらにφ回転
させた様子を示している。
[0054] FIG. 7 (A) is Y c-axis camera baseline vector of the camera coordinate system 701 (the virtual camera coordinate system (X v, Y v, Z v
2) shows a state in which the camera coordinate system is rotated by θ around the Zc axis so as to be perpendicular to ( Xv axis of 201). Also,
Figure 7 (B) is a camera coordinate system (X c, Y c, Z c) as 701 Z c axis is perpendicular to the camera baseline vector, the camera coordinate system about the Y c-axis (X c, Y c , Z c ) 701 is further rotated by φ.

【0055】また、このとき、撮影部101内の4台のカメ
ラの焦点距離fi (i =0、1、2、3)をFで統一することも
行なう。これより、各カメラに対する背景除去画像603
の正規化を行なう。
At this time, the focal lengths f i (i = 0, 1, 2, 3) of the four cameras in the photographing unit 101 are unified with F. Thus, the background removal image 603 for each camera
Is normalized.

【0056】(背景除去画像を時空間座標系に配置)図8
は、エピポーラ平面画像生成部104において、仮想カメ
ラ座標系(Xv 、Yv、Zv )201上に配置された撮影部101内
の4台のカメラの各カメラ間隔の割合で、背景除去画像6
03を時空間座標系(u、v、E)204に配置する(ステップ30
8)ことを示している。
(Arrangement of Background Removed Image in Spatiotemporal Coordinate System) FIG.
Is the epipolar plane image generating unit 104, the virtual camera coordinate system (X v, Y v, Z v) at a rate of each camera interval four cameras in the imaging portion 101 disposed on the 201, the background removed image 6
03 in the spatiotemporal coordinate system (u, v, E) 204 (step 30
8) indicates that

【0057】また、背景除去画像603の水平方向をu軸、
垂直方向をv軸、カメラ0からカメラ3の順で取得した背
景除去画像603を、順にE = E0 、E1 、E2 、E3と配置す
る方向をE軸とする。なお、背景除去画像603の画像サイ
ズは横Usize 、縦Vsizeで ある。
The horizontal direction of the background-removed image 603 is represented by the u-axis,
The vertical direction is the v axis, and the direction in which the background-removed images 603 acquired in the order of camera 0 to camera 3 are arranged in the order of E = E 0 , E 1 , E 2 , and E 3 is the E axis. Note that the image size of the background-removed image 603 is a horizontal U size and a vertical V size .

【0058】仮想カメラ座標系(Xv 、Yv、Zv )201にお
いて、撮影部101内のカメラ0からカメラ3のそれぞれの
座標値は (Xv0 、0、0)、(Xv1 、0、0)、(Xv2 、0、
0)、(Xv3 、0、0)であり、各カメラ間隔は、 (カメラ0と
カメラ1の間隔):(カメラ1とカメラ2の間隔):(カメラ2と
カメラ3の間隔)= (Xv1 - Xv0 ):(Xv2 -Xv1 ):(Xv3 - X
v 2 )となる。なお、Xv0 ≦0、Xv1 ≦0、Xv2 ≧0、Xv3
≧0である。
The virtual camera coordinate system (Xv , Yv, Zv ) 201
And each of camera 0 to camera 3 in the imaging unit 101
The coordinate value is (Xv0, 0, 0), (Xv1, 0, 0), (Xv2, 0,
0), (Xv3 , 0, 0), and the camera interval is (Camera 0 and
(Interval of camera 1): (Interval of camera 1 and camera 2): (Interval of camera 2
Camera 3 interval) = (Xv1 -Xv0) :( Xv2 -Xv1) :( Xv3 -X
v Two). Note that Xv0 ≤0, Xv1 ≤0, Xv2 ≧ 0, Xv3 
≧ 0.

【0059】時空間座標系(u、v、E)204において、背景
除去画像603を順に、E = E0 、E1 、E2 、E3 に計算
機のメモリに格納する。
In the spatiotemporal coordinate system (u, v, E) 204, the background
In order of the removal image 603, E = E0, E1 , ETwo, EThreeCalculated
To the machine's memory.

【0060】ここで、仮想カメラ座標系(Xv 、Yv
Zv )201に配置された撮影部101内の4台のカメラまでの
各カメラ間隔と同じ割合で、背景除去画像603を時空間
座標系(u、v、E)204に配置する際に、仮想カメラ座標系
(Xv 、Yv 、Zv )201のXvと同じ単位で配置すると時空間
座標系(u、v、E)204のE軸方向にメモリを非常に多く使
用することになるので、 ΔXv = a × ΔE (a≧1) として縮小して配置する。
Here, the virtual camera coordinate system (X v , Y v ,
Z v ) When the background-removed image 603 is arranged in the spatiotemporal coordinate system (u, v, E) 204 at the same ratio as the camera interval up to the four cameras in the imaging unit 101 arranged in the Virtual camera coordinate system
(X v , Y v , Z v ) If it is arranged in the same unit as X v of 201, it will use a lot of memory in the E-axis direction of the spatiotemporal coordinate system (u, v, E) 204, so ΔX v = a × ΔE (a ≧ 1) is reduced and arranged.

【0061】(エピポーラ平面画像生成)図9(A)(B)はエ
ピポーラ平面画像生成部104において、時空間座標系
(u、v、E)204に配置した4枚の背景除去画像603に対して
uE平面に並行に切断したときに得られるエピポーラ平面
画像(以下、単にEPIともいう) 901を生成する(ステップ
309)様子を示している。
(Epipolar Plane Image Generation) FIGS. 9A and 9B show the epipolar plane image generation unit 104 in the spatiotemporal coordinate system.
For the four background removal images 603 arranged at (u, v, E) 204
Generate an epipolar plane image (hereinafter, also simply referred to as EPI) 901 obtained when cutting in parallel to the uE plane (step
309).

【0062】以下、EPIの性質について述べる。Hereinafter, the properties of the EPI will be described.

【0063】撮影部101内の4台のカメラ(カメラ0(206)
からカメラ3(209)まで)のカメラ光軸(カメラ座標系701
(Xc 、Yc 、Zc )のZc 軸)が、カメラベースラインに対
して垂直であり、図9(A)に示すよう、uE平面に並行に切
断した時にできる切断面をエピポーラ平面画像(以下、
単にEPIともいう)といい、そのEPI上では、画像間の同
一特徴点は直線軌跡(以下、単に対応点直線ともいう)を
描くという性質がある。EPI上の対応点直線の軌跡を検
出することで、手前の物体が奥の物体を隠すオクルージ
ョンが生じる場合でも、画像間の同一特徴点の対応がと
れ、また、その対応点直線の傾きから、画像中の各特徴
点とカメラベースラインとの距離情報を取得することが
できる。また、EPI上で最も緩やかな直線は、カメラベ
ースラインに最短距離にある物体が描く対応点直線であ
り、その傾きは、カメラベースラインからの最短距離情
報を有する。
The four cameras (camera 0 (206)
To the camera 3 (209)) (camera coordinate system 701
(X c, Y c, Z c) is Z c axis) is perpendicular to the camera baseline, as shown in FIG. 9 (A), the epipolar plane cut surface formed when cut parallel to uE plane Image (hereinafter,
It is simply referred to as an EPI. On the EPI, the same feature point between images has a property of drawing a straight line locus (hereinafter, also simply referred to as a corresponding point straight line). By detecting the trajectory of the corresponding point straight line on the EPI, even if occlusion occurs in which the object in front hides the object in the back, correspondence between the same feature points between images can be taken, and from the slope of the corresponding point straight line, Distance information between each feature point in the image and the camera baseline can be obtained. Further, the gentlest straight line on the EPI is a corresponding point straight line drawn by an object located at the shortest distance from the camera baseline, and its inclination has information on the shortest distance from the camera baseline.

【0064】しかし、図9(A)では、背景除去画像603がE
軸上に離散的に並んでおり、また、得られる図9(B)のEP
Iには4ラインしか存在せず、一般に対応点直線の検出は
困難であると考えられる。
However, in FIG. 9A, the background removal image
The EP of FIG. 9 (B) is discretely arranged on the axis and obtained.
I has only four lines, and it is generally considered difficult to detect the corresponding point straight line.

【0065】そこで本発明では、カメラ光軸がカメラベ
ースラインに対し垂直である場合、EPI上では対応点軌
跡(対応点直線)は直線になるという性質を利用し、ま
ず、 EPI上における最も緩やかな傾きをもつ対応点直線
(傾きが最短距離情報を有する直線)を検出し、その傾き
decideKminから微小な傾きΔkずつ動かし、対応点直線
の補間を行なう手法を取る。
Therefore, in the present invention, when the camera optical axis is perpendicular to the camera baseline, the corresponding point trajectory (corresponding point straight line) on the EPI is used as a straight line. Point line with a steep slope
(A straight line whose slope has the shortest distance information)
It takes a method of moving the minute slope Δk from decideK min to interpolate the corresponding point straight line.

【0066】後記EPI補間が終了したら、次のEPIの補間
へと移るために、V=VepiをΔV=1ずつ動かしていく。
After the EPI interpolation described later is completed, V = V epi is moved by ΔV = 1 at a time in order to proceed to the next EPI interpolation.

【0067】(最短距離情報から再構成・表示処理の簡
単な説明)ここでは、図3におけるステップ310からステ
ップ316までの流れを簡単に説明する。
(Simple Description of Reconstruction / Display Processing from Shortest Distance Information) Here, the flow from step 310 to step 316 in FIG. 3 will be briefly described.

【0068】まず、最短距離情報算出部105において、
エピポーラ平面画像生成部104で得られたエピポーラ平
面画像902上の、被写体111と撮影部101内の4台のカメラ
により構成されるカメラベースラインとの距離が最短に
なる対応点直線を検出し、その最短距離を有する傾きを
decideKminとし、算出する処理(ステップ310)を行な
う。
First, in the shortest distance information calculation unit 105,
On the epipolar plane image 902 obtained by the epipolar plane image generation unit 104, a corresponding point straight line where the distance between the subject 111 and the camera baseline formed by the four cameras in the imaging unit 101 is the shortest is detected. The slope with the shortest distance
A process of calculating (Step 310) is performed with decideK min .

【0069】次に、補間処理部106において、最短距離
情報算出部105で得られた最短距離情報(ステップ310)を
もつ傾きdecideKminを用いて、エピポーラ平面画像902
上の対応点直線を検出し、補間処理(ステップ311)を行
なう。
Next, the interpolation processing unit 106 uses the slope decideK min having the shortest distance information (step 310) obtained by the shortest distance information calculation unit 105 to generate the epipolar plane image 902.
The corresponding corresponding point straight line is detected, and interpolation processing (step 311) is performed.

【0070】次に、3次元情報抽出部107において、補間
処理部106で得られた補間後のエピポーラ平面画像か
ら、被写体111の各特徴点とカメラベースラインの奥行
き情報を抽出し、仮想カメラ座標系(Xv 、Yv 、Zv )201
上での、その特徴点の3次元情報(Xv 、Yv 、Zv )を算出
する処理(ステップ312)を行なう。
Next, the three-dimensional information extraction unit 107 extracts each feature point of the subject 111 and depth information of the camera baseline from the interpolated epipolar plane image obtained by the interpolation processing unit 106, Corollary ( Xv , Yv , Zv ) 201
The above process of calculating the three-dimensional information ( Xv , Yv , Zv ) of the feature point is performed (step 312).

【0071】次に、3次元情報蓄積部108において、背景
処理画像603の垂直方向V軸に対して、Vsizeまで処理が
完了したかどうか、つまり、1フレーム終了したかどう
かを判定する処理(ステップ313)を行ない、完了してい
れば、ステップ314に進み、完了していなければ、ステ
ップ309まで戻り、1フレーム完了するまで処理を続け
る。
Next, the three-dimensional information storage unit 108 determines whether or not the processing has been completed up to V size with respect to the vertical V axis of the background processed image 603, that is, whether or not one frame has been completed ( Step 313) is performed, and if completed, the process proceeds to step 314. If not completed, the process returns to step 309 to continue the process until one frame is completed.

【0072】次に、ステップ313において、1フレーム完
了したならば、3次元情報蓄積部108で蓄積された1フレ
ーム分の3次元情報を、画像送信処理部110内の送信部10
9で、受信画像処理部117内の受信部114へ送信する(ステ
ップ314)。次に、ステップ315において、送信画像処理
部110内の送信部109から、受信画像処理部117内の受信
部114で受信する。
Next, if one frame is completed in step 313, the three-dimensional information for one frame stored in the three-dimensional information storage unit 108 is transmitted to the transmission unit 10 in the image transmission processing unit 110.
At 9, transmission is made to the reception unit 114 in the reception image processing unit 117 (step 314). Next, in step 315, the data is received from the transmission unit 109 in the transmission image processing unit 110 by the reception unit 114 in the reception image processing unit 117.

【0073】次に、受信部114で受信した被写体111の3
次元情報と、視点位置入力部116より入力された利用者
の視点位置情報を再構成・表示部115が読み込み、仮想
カメラ座標系(Xv 、Yv 、Zv )201における利用者の自由
な視点位置による被写体111の3次元モデルを表示する処
理(ステップ316)を行なう。
Next, 3 of the subject 111 received by the receiving unit 114
The reconstruction / display unit 115 reads the dimensional information and the viewpoint position information of the user input from the viewpoint position input unit 116, and allows the user to freely move the virtual camera coordinate system ( Xv , Yv , Zv ) 201. A process of displaying a three-dimensional model of the subject 111 based on the viewpoint position (step 316) is performed.

【0074】以下に送信画像処理部110内の最短距離情
報算出部105、補間処理部106、3次元情報抽出部107、3
次元情報蓄積部108、送信部109と、受信画像処理部117
内の受信部114、再構成・表示部115と視点位置入力部11
6の詳細について順に述べていく。
The shortest distance information calculation unit 105, the interpolation processing unit 106, and the three-dimensional information extraction units 107 and 3 in the transmission image processing unit 110 are described below.
Dimension information storage unit 108, transmission unit 109, and reception image processing unit 117
Receiving section 114, reconstruction / display section 115 and viewpoint position input section 11
The details of 6 will be described in order.

【0075】(最短距離情報算出部の詳細) (最短距離情報算出処理の全体の流れ)図10は、最短距離
情報算出部105のフローチャートを示したものである。
以下、図12から図16を用いて説明する。
(Details of Shortest Distance Information Calculation Unit) (Overall Flow of Shortest Distance Information Calculation Processing) FIG. 10 is a flowchart of the shortest distance information calculation unit 105.
Hereinafter, description will be made with reference to FIGS.

【0076】まず初めに、各基準画素Pr(Upr 、Epr )に
おける最適な直線の傾きKoptを求めて、 Kopt (Upr 、E
pr )に格納する(ステップ1001)。この処理の詳細を図11
のフローチャートに示し、図12から図15を用いながら、
以下に説明する。
First, an optimum straight line slope K opt at each reference pixel Pr (U pr , E pr ) is obtained, and K opt (U pr , E pr)
pr ) (step 1001). Figure 11 shows the details of this process.
Shown in the flowchart of FIG.
This will be described below.

【0077】(設定)図12(A)から(D)は、エピポーラ平面
画像生成部104で得られたエピポーラ平面画像902上にお
いて、被写体111とカメラベースラインとの間が最短距
離となるような被写体111の特徴点の画素の対応点直線
の傾きdecideKminを算出する様子を示した図である。
(Setting) FIGS. 12A to 12D show the case where the distance between the subject 111 and the camera baseline is the shortest on the epipolar plane image 902 obtained by the epipolar plane image generation unit 104. FIG. 9 is a diagram illustrating a state of calculating a slope “decideK min” of a straight line of a corresponding point of a pixel of a feature point of a subject 111.

【0078】まず、図12(A)では、時空間座標系204にお
いて、v = VepiにおけるEPIを示している。E = E0 、E
1 、E2 、E3 のうち、基準ラインEprを設定(ステップ11
01)し、その基準ラインEpr上の画素Pr(Upr 、Epr )を基
準画素とする。Pr(Upr 、Ep r )をEpr =0とする(ステッ
プ1102)。その後、Pr(Upr 、Epr )は基準ラインEpr上を
1画素ずつスキャンさせていく。なお、基準ラインEpr
E0からE3のうち、何ライン設定してもよいが、被写体11
1が人物顔であるとき、オクルージョン部分が少ないた
め、EPI上の対応点軌跡のほとんどが中央を通過するこ
とと、できるだけ処理量を少なくしたいことから、EPI
上の中央2ライン(E = E1 、E2 )を基準ラインEprに選ん
でおくとよい。
First, FIG. 12A shows the EPI at v = V epi in the spatiotemporal coordinate system 204. E = E 0 , E
1, of the E 2, E 3, setting a reference line E pr (Step 11
01), and the pixel Pr (U pr , E pr ) on the reference line E pr is set as the reference pixel. Pr (U pr, E p r ) is referred to as E pr = 0 (step 1102). Then, Pr (U pr , E pr ) moves on the reference line E pr .
Scan one pixel at a time. The reference line E pr is
Among the E 0 of E 3, may be set many lines, the object 11
When 1 is a human face, since the occlusion part is small, most of the corresponding point trajectories on the EPI pass through the center and we want to reduce the processing amount as much as possible.
The upper center two lines (E = E 1 , E 2 ) may be selected as reference lines Epr .

【0079】図12(B)は、Pr(Upr 、Epr )を通る直線L:u
= k×(E - Epr ) + Uprを仮定(ステップ1104)し、傾き
kが、Kmin ≦ k ≦ Kmaxの範囲で、KminからKmaxへ傾き
kをΔkずつ動かし、各Pr(Upr 、Epr )に対する対応点直
線の検出を行なっている様子を示した図である。なお、
uE平面において、傾きkは常に、k ≦ 0となっている。
FIG. 12B shows a straight line L: u passing through Pr (U pr , E pr ).
= k × (E-E pr ) + U pr (step 1104)
k slopes from K min to K max in the range of K min ≤ k ≤ K max
FIG. 9 is a diagram showing a state in which a corresponding point straight line is detected for each Pr (U pr , E pr ) by moving k by Δk. In addition,
In the uE plane, the slope k is always k ≦ 0.

【0080】また、直線L:u = k×(E-Epr )+Uprと、基
準ラインEpr 以外の残りの3ラインを比較ラインとし、
直線Lと比較ラインとの交点Pi を比較画素とする。
A straight line L: u = k × (EE pr ) + U pr and the remaining three lines other than the reference line E pr are set as comparison lines,
And comparing the pixel an intersection P i and the comparative line and the straight line L.

【0081】(Kopt算出)図12(B)において、まず、 Pr(U
pr 、Epr )を固定し、各傾きkに対するPr(Upr、Epr )の
画素値と、直線Lと比較ラインとの各交点Piの画素値の
差Eを計算(ステップ1105)し、それぞれ算出したEをSum
[k]に加算していく(ステップ1106)。直線L上のすべての
Piに対して完了したならば(ステップ1107)、Sum[k]を計
算機のメモリに格納する(ステップ1109)。これを直線L
に対して、Kmin ≦ k ≦ Kmaxの範囲で、Δkずつ動かし
(ステップ1111)、各kに対して、ステップ1104からステ
ップ1111の処理を行ない、Sum[k]を計算機のメモリに格
納する。そして、Kmin ≦ k≦ Kmaxの範囲外になったと
き、そのPr(Upr 、Epr )における各kに対するSum[k]を
求める計算を完了する。
(Calculation of K opt ) In FIG. 12B, first, Pr (U
pr , E pr ) are fixed, and the difference E between the pixel value of Pr (U pr , E pr ) for each slope k and the pixel value of each intersection P i of the straight line L and the comparison line is calculated (step 1105). , And calculate the calculated E
It is added to [k] (step 1106). All on the straight line L
Once completed for P i (step 1107), stores the Sum [k] in the memory of the computer (step 1109). This is a straight line L
And move Δk in the range of K min ≤ k ≤ K max
(Step 1111) For each k, the processing from step 1104 to step 1111 is performed, and Sum [k] is stored in the memory of the computer. Then, when it is out of the range of K min ≤ k ≤ K max , the calculation for obtaining Sum [k] for each k in Pr (U pr , E pr ) is completed.

【0082】ここで、前記Kmin 、Kmax は以下のような
理由で決定する。
Here, K min and K max are determined for the following reasons.

【0083】Kminに関しては、被写体111とカメラベー
スライン間において、最も近い被写体111の特徴点は、
他の特徴点で遮蔽される(オクルージョンが起こる)こと
なく、常にEPI上に現れ、直線軌跡が途切れることはな
い。そのような特徴点で考えられる最も近い特徴点は、
各カメラで撮影し、取得した入力画像601内に、その特
徴点が常に存在し、且つEPI上で最も緩やかな直線にな
る状態であると考えられる。よって、今回、ここでは、
EPI上で直線Lは、右下から左上を通る直線であるので、
Kmin を、 Kmin = -(Usize /(E3 - E0)) とする。また、Kmaxに関しては、各Pr(Upr 、Epr )に対
するKoptを検索するために、直線Lを直角に近い状態に
までまわせるような値を、予め入力しておくことが望ま
しい。
With respect to K min , the closest feature point of the subject 111 between the subject 111 and the camera baseline is:
It always appears on the EPI without being occluded (occlusion) by other feature points, and the linear trajectory is not interrupted. The closest possible feature point for such a feature point is
It is considered that the feature point is always present in the input image 601 obtained and acquired by each camera, and the straight line is the gentlest on the EPI. So, this time,
Since the straight line L on the EPI is a straight line passing from the lower right to the upper left,
Let K min be K min =-(U size / (E 3 -E 0 )). In addition, as for K max , it is desirable to input in advance a value that allows the straight line L to be turned to a state close to a right angle in order to search for K opt for each Pr (U pr , E pr ).

【0084】なお、ここでは、直線L:u = k×(E - Epr
) + Upr としたが、 直線Lを、E=k×(u - Upr ) + Epr
としてもよい。また、カメラ3からカメラ0の順に時空間
座標系(u、v、E)204に配置する場合、uE 平面では直線
軌跡は左下から右上になるが、k ≧ 0となるので、 K
mi n =Usize /(E0 - E3 )とすればよい。
Here, a straight line L: u = k × (E−E pr
) + U pr , but the straight line L is E = k × (u-U pr ) + E pr
It may be. In addition, when arranging in the spatiotemporal coordinate system (u, v, E) 204 in the order of camera 3 to camera 0, the linear trajectory goes from the lower left to the upper right on the uE plane, but since k ≥ 0, K
It is sufficient to set min = U size / (E 0 -E 3 ).

【0085】図12(C)は、メモリに格納していたSum[k]
を読み出し、Sum[k]が最小になる値を検索(ステップ111
2)した図を示している。これにより、Sum[k]が最小であ
るときの直線Lを、そのPr(Upr 、Epr )に対する対応点
直線と見なし、その傾きkをKo pt とし、Kopt (Upr 、E
pr )を計算機のメモリに格納しておく。
FIG. 12C shows Sum [k] stored in the memory.
And searches for a value that minimizes Sum [k] (step 111).
2) shows the figure. Thus, the straight line L when Sum [k] is the smallest, considers that Pr (U pr, E pr) and the corresponding point straight against, and the gradient k and K o pt, K opt (U pr, E
pr ) is stored in the memory of the computer.

【0086】ステップ1101からステップ1113までの処理
を、基準ラインEpr上の全てのPr(Up r 、Epr )に対して
行ない(ステップ1113)、各Pr(Upr 、Epr )に対するKopt
を算出する。
[0086] K the processing from step 1101 to step 1113, all of Pr (U p r, E pr ) on the reference line E pr performed with respect to (step 1113), each of Pr (U pr, E pr) for opt
Is calculated.

【0087】図12(D)は、基準ラインEpr が、次の基準
ラインへ移った図を示している(ステップ1616 )。前記
のステップ1101からステップ1113までの処理を行い、各
Pr(Upr、Epr )に対するKoptを算出する。
FIG. 12D shows a diagram in which the reference line Epr has shifted to the next reference line (step 1616). Perform the processing from step 1101 to step 1113 described above,
Calculate K opt for Pr (U pr , E pr ).

【0088】しかし、ここでいう対応点直線の中には、
Kopt決定の際に誤検出により、Sum[k]が最小になった場
合もありうる。これは基準画素Prと比較されるPiが、3
点ほどしかないことと、人物顔には類似画素が非常に多
く存在するためであると考えられる。
However, in the corresponding point straight line here,
Sum [k] may be minimized due to erroneous detection when determining K opt . P i which is compared with the reference pixel Pr is 3
This is considered to be due to the fact that there are only about dots and that there are very many similar pixels in the human face.

【0089】しかし、そのような誤検出によって求めら
れたKoptは基準ラインEpr上の全画素に対し、多くはな
いので、その部分を回避して、EPI上で緩やかな直線の
傾きを算出するようにしたいため、次のような処理を行
なう。
However, since K opt obtained by such an erroneous detection is not large for all the pixels on the reference line Epr , avoiding such a portion, a gentle straight line slope is calculated on the EPI. Therefore, the following processing is performed.

【0090】(Kopt-N度数分布表)基準ラインEpr上の各
基準画素Pr(Upr 、Epr )に対するKopt (Upr 、Epr )
を、計算機のメモリから読みだし、横軸を|Kopt|(Kopt
の絶対値を意味する)、縦軸をN(その|Kopt|に対する基
準画素Pr(Upr、Epr)の出現回数)として、|Kopt|-Nの度
数分布表を作成する(ステップ1002)。
[0090] (K opt -N Frequencies) reference line E each reference pixel Pr (U pr, E pr) on pr K opt for (U pr, E pr)
Is read from the computer memory, and the horizontal axis is | K opt | (K opt
, And the vertical axis is N (the number of appearances of the reference pixel Pr (U pr , E pr ) with respect to | K opt |), and a frequency distribution table of | K opt | -N is created (step 1002).

【0091】(正面顔と横顔による最短距離情報算出法)
次に、図13は、正面を向いた被写体111の鼻1301の位置
でXv Zv平面に対し、v= Vepiで水平に切断したときの、
正面を向いた被写体111とカメラベースライン(Xv 軸)と
の距離関係を示した図である。
(Method of calculating shortest distance information from front face and side face)
Next, FIG. 13, with respect to X v Z v plane position of the nose 1301 of the subject 111 facing the front, when the horizontally cut with v = V epi,
FIG. 7 is a diagram showing a distance relationship between a subject 111 facing front and a camera baseline (X v- axis).

【0092】図13より、頬1302の部分は、わりあい平面
のようになっている部分が多く、カメラベースライン(X
v軸)からZcheekだけ離れている画素が、切断面上の画像
中で最も多いと考えられる。
FIG. 13 shows that the portion of the cheek 1302 has a relatively flat surface, and the camera base line (X
It is considered that the number of pixels separated by Z cheek from ( v- axis) is the largest in the images on the cut plane.

【0093】また、切断面上でカメラベースライン(Xv
軸)に対して、最短距離である部分は鼻1301であり、Z
noseだけ離れている。その距離の差は、ΔZ = Zcheek -
Znoseである。
Also, the camera baseline (X v
The part that is the shortest distance to the (axis) is the nose 1301 and Z
Only nose away. The difference between the distances is ΔZ = Z cheek-
Z nose .

【0094】図14は、正面を向いた被写体111の鼻1301
の位置でXv Zv平面に対し、v = Vepiで水平に切断した
ときの、|Kopt|-N度数分布表である。図14の度数分布表
中の出現度数Nの最大値付近は、図13の頬1302の部分で
あり、最短距離であるZnoseを算出するには、図14にお
いて、出現度数Nの最大値Nmaxの|Kopt|よりも、|Kopt|
が大きい方向(ここでは、座標系がk ≦ 0なので、カメ
ラベースラインに近いほど|Kopt|は大きくなる)にあ
る。
FIG. 14 shows the nose 1301 of the subject 111 facing the front.
12 is a | K opt | -N frequency distribution table obtained by cutting horizontally at v = V epi with respect to the X v Z v plane at the position of. The vicinity of the maximum value of the appearance frequency N in the frequency distribution table of FIG. 14 is the portion of the cheek 1302 in FIG. 13, and the shortest distance Z nose is calculated in FIG. | K opt | rather than max | K opt |
Is larger (here, since the coordinate system is k ≦ 0, | K opt | becomes larger as the position is closer to the camera baseline).

【0095】しかし、以上のことを踏まえて、Nmaxとな
るときの|Kopt|から、+ΔZのところを最短距離Znose
あるとしてしまうと、図15のように、被写体111が横を
向いた場合、最短距離は頬の部分のZ = Zcheekであるの
で、出現度数の最大値Nmaxから+ΔZのところを最短距
離としてしまうと、現実には存在しない部分が最短であ
るという誤った最短距離情報を算出することになる。つ
まり、図15のような被写体111が横を向いた場合には適
応できない。また、図16は被写体111が横を向いたとき
の|Kopt|-N度数分布表である。
However, based on the above, if it is assumed that + ΔZ is the shortest distance Z nose from | K opt | when N max is reached, as shown in FIG. In this case, the shortest distance is Z = Z cheek of the cheek part, so if the shortest distance is set to + ΔZ from the maximum value N max of the appearance frequency, the erroneous shortest that the part that does not actually exist is the shortest Distance information will be calculated. That is, when the subject 111 as shown in FIG. FIG. 16 is a | K opt | -N frequency distribution table when the subject 111 faces sideways.

【0096】そこで本発明では、人物顔において、頬13
02と鼻1301の部分の画素数の割合は、1.0 : rate (0.0
< rate < 1.0 )であると仮定し、|Kopt|-N度数分布表に
おいて、各|Kopt|での出現度数NをN[|Ko pt|]、出現度数
の最大値Nmaxとしたとき、N[|Kopt|]/Nmax ≧ rateを満
たす範囲で、できる限り、|Kopt|が大きいものを算出
し、そのKoptをEPI上における最短距離情報decideKmin
とする。これをメモリに格納する(ステップ1003)。
Therefore, in the present invention, the cheek 13
The ratio of the number of pixels between 02 and the nose 1301 is 1.0: rate (0.0
<Assuming a rate <1.0), | in -N frequency distribution table, each | | K opt K opt | the occurrence frequency N with N [| K o pt |] , the maximum value N max of the frequency of occurrence when, N [| K opt |] / N in a range satisfying max ≧ rate, as much as possible, | K opt | calculating what is large, the shortest distance information DecideK min the K opt on EPI
And This is stored in the memory (step 1003).

【0097】このようにすれば、被写体111が正面や横
を向いた場合に対して図14、 図16に示すように、最短
距離情報decideKminを算出することができる。
In this manner, the shortest distance information decideK min can be calculated as shown in FIGS. 14 and 16 for the case where the subject 111 faces front or side.

【0098】以上より、各基準画素Pr(Upr 、Epr )に対
するKopt算出の際に誤検出により生じたKoptを回避し、
各EPI上における被写体111とカメラベースラインの最短
距離に近い値を算出する。
[0098] As described above, each reference pixel Pr (U pr, E pr) to avoid K opt caused by the erroneous detection when K opt calculated for,
A value close to the shortest distance between the subject 111 and the camera baseline on each EPI is calculated.

【0099】算出したdecideKminは、後記のEPI上の対
応点直線の補間で用いる。
The calculated decideK min is used in interpolation of a corresponding point straight line on the EPI described later.

【0100】(補間処理部の詳細)図17は、補間処理部10
6のフローチャートを示したものである。以下、図18か
ら図21を用いて説明する。
(Details of Interpolation Processing Unit) FIG.
6 shows a flowchart of FIG. Hereinafter, a description will be given with reference to FIGS.

【0101】(補間処理部)補間処理部106において、前
記エピポーラ平面画像902と、上述最短距離情報decideK
minを用いて、エピポーラ平面画像902上の対応点直線の
補間処理を行なう。
(Interpolation processing unit) In the interpolation processing unit 106, the epipolar plane image 902 and the shortest distance information decideK
Using min , interpolation processing of a corresponding point straight line on the epipolar plane image 902 is performed.

【0102】図18、図19の(A)から(E)は、v = Vepiで切
断して生成された EPIの補間処理を示した図である。
(A) to (E) of FIG. 18 and FIG. 19 are diagrams showing an interpolation process of an EPI generated by cutting at v = V epi .

【0103】(設定)図18(A)では、時空間座標系204にお
いて、v = VepiにおけるEPIを示している。E = E0 、E
1 、E2 、E3のうち、1ラインを基準ラインEpr(ステップ
1701)とし、その基準ラインEpr上の画素Pr(Upr 、Epr )
を基準画素とする。Pr(Upr 、Epr)は基準ラインEpr上を
1画素ずつスキャンさせていく。なお、基準ラインE
prは、前記最短距離情報算出同様、E0からE3のうち、何
ライン設定してもよいが、被写体111が人物顔であると
き、EPI上の対応点軌跡のほとんどが中央を通過するこ
とと、できるだけ処理量を少なくしたいことから、EPI
上の中央2ライン(E = E1 、E2 )を基準ラインEprに選ん
でおくとよい。
(Setting) FIG. 18A shows the EPI at v = V epi in the spatiotemporal coordinate system 204. E = E 0 , E
1, of the E 2, E 3, the reference line E pr one line (step
1701), and the pixels Pr (U pr , E pr ) on the reference line E pr
Is a reference pixel. Pr (U pr , E pr ) is on the reference line E pr
Scan one pixel at a time. The reference line E
pr is the shortest distance information calculation similar, among the E 0 of E 3, it may be set many lines, but when the object 111 is a person face, that most of the corresponding point trace on EPI passes a central To reduce the processing volume as much as possible,
The upper center two lines (E = E 1 , E 2 ) may be selected as reference lines Epr .

【0104】(補間処理の全体の流れ)次に、図18(B)で
は、最短距離情報算出部105で求めたk = decideKmin
用いて、補間処理を開始する。
(Overall Flow of Interpolation Processing) Next, in FIG. 18B, the interpolation processing is started using k = decisionK min obtained by the shortest distance information calculation unit 105.

【0105】まず、傾きkをdecideKminに初期設定(ステ
ップ1702)し、基準画素Pr(Upr 、Ep r をUpr = 0(ステッ
プ1703)にする。直線Lを、u=k×(E -Epr ) + Uprと設定
(ステップ1704)する。
[0105] First, initial setting of the inclination k to DecideK min (step 1702), the reference pixel Pr (U pr, the E p r to U pr = 0 (step 1703). The straight line L, u = k × ( E -E pr ) + U pr and set
(Step 1704).

【0106】E = Epr上の各Prに対して、直線Lが対応点
直線であるか否かの判定(ステップ1705)を行ない、直線
Lが対応点直線であれば、エピポーラ平面画像上に基準
画素Pr(Upr 、Epr )の画素値で、EPIに対応点直線を描
く(ステップ1706)。
For each Pr on E = Epr , it is determined whether or not the straight line L is a corresponding point straight line (step 1705).
If L is a corresponding point straight line, a corresponding point straight line is drawn on the EPI with the pixel value of the reference pixel Pr (U pr , E pr ) on the epipolar plane image (step 1706).

【0107】次に、E = Epr上のすべての基準画素Pr(U
pr 、Epr )に対し、EPI補間処理が完了したかどうか判
定(ステップ1707)し、完了しているならば、次のステッ
プに進む。
Next, all of the reference pixel Pr (U on E = E pr
It is determined whether or not EPI interpolation processing has been completed for pr and Epr ) (step 1707). If it has been completed, the process proceeds to the next step.

【0108】次に、直線Lの傾きkが、Kmin ≦ k ≦ K
maxの範囲を終了しているかどうかを判定(ステップ170
9)する。完了しているならば、基準ラインを次のライン
に設定し、前記ステップ1701からステップ1711の処理を
行なう。
Next, the slope k of the straight line L is expressed as K min ≦ k ≦ K
It is determined whether the range of max has ended (step 170).
9). If it has been completed, the reference line is set to the next line, and the processing of steps 1701 to 1711 is performed.

【0109】(対応点直線決定の詳細)図20は、ステップ
1705の、直線Lが対応点直線であるか否かの判定の詳細
を示した図である。図18、図19を用いて説明する。
(Details of Determination of Straight Line of Corresponding Points) FIG.
FIG. 18 is a diagram showing details of the determination of whether or not the straight line L is a corresponding point straight line in 1705. This will be described with reference to FIGS.

【0110】図18(B)では、直線Lの傾きkがdecideKmin
に設定されており、基準画素Pr(Upr、Epr )と比較画素P
iとが同色か否かの判定(ステップ2001)を行なってい
く。同色判定は、Prと各Piの画素値の差がThE以下であ
ったとき、同色とみなし、ステップ2002へ進み、それ以
外のときは異色とみなし、ステップ2004に進む。なお、
ThEは実験的に求めた値である。
[0110] In FIG. 18 (B), the slope k of the straight line L is DecideK min
And the reference pixel Pr (U pr , E pr ) and the comparison pixel P
It is determined whether or not i is the same color (step 2001). Same color determination, when the difference between the pixel values of Pr and each P i is equal to or less than Th E, regarded as the same color, the process proceeds to step 2002, considers the unique in other cases, the process proceeds to step 2004. In addition,
Th E is a value obtained experimentally.

【0111】ステップ2001で同色と判定された場合、ス
テップ2002へ進む。ここで、L'は以前に今注目している
Piに関して、対応点直線が存在し、既に補間されている
直線を意味する。直線L上のPiに、L'が存在したかどう
かを判定(ステップ2002)し、図18(B)の場合、まだ、直
線L'は存在しないので、ステップ2007へ進む。
If it is determined in step 2001 that the colors are the same, the process proceeds to step 2002. Here, L 'has been watching now before
For Pi , a corresponding point straight line exists and means a straight line that has already been interpolated. The P i on the straight line L, L 'determines whether exists (step 2002), the case of FIG. 18 (B), the still straight L' because there is no, the process proceeds to step 2007.

【0112】次に、Prと比較すべきPiがすべて完了した
かどうかを判定(ステップ2007)する。すべてのPiが完了
したならば、直線Lは対応点直線であると決定する(ステ
ップ2009)。
[0112] Next, P i to be compared with Pr is determined whether or not it was completed all (step 2007). When all Pi have been completed, the straight line L is determined to be the corresponding point straight line (step 2009).

【0113】図18(C)は、傾きkがKmin ≦ k ≦ Kmax
範囲でΔkずつ変化したときのEPI補間の様子を示してい
る。
FIG. 18C shows the state of EPI interpolation when the gradient k changes by Δk in the range of K min ≦ k ≦ K max .

【0114】一方、図18(D)は、ステップ2001で異色と
判定された場合である。まず、ステップ2004に進み、ス
テップ2002同様、今着目しているPrに、L'が存在するか
どうかを判定する。図18(D)の場合、E = E0上のPiは、
すでに対応点直線が検出されているので、L'を持つこと
になる。よって、ステップ2005に進む。ステップ2005で
は、現在の直線Lの傾きkと、L'の傾きK(u、E)を比較す
る。図18(D)の場合、k> K(u、E)なので、直線Lは対応点
直線でないと決定(ステップ2006)する。そして、直線L
が対応点直線であるか否かの判定(ステップ1705)を終了
し、ステップ1706を飛び越し、ステップ1707へ進む。
On the other hand, FIG. 18D shows a case where it is determined in step 2001 that the color is different. First, the process proceeds to step 2004, and similarly to step 2002, it is determined whether or not L 'is present in the current Pr. For Figure 18 (D), the P i on E = E 0,
Since the corresponding point straight line has already been detected, it has L '. Therefore, the process proceeds to step 2005. In step 2005, the slope k of the current straight line L is compared with the slope K (u, E) of L ′. In the case of FIG. 18D, since k> K (u, E), it is determined that the straight line L is not a corresponding point straight line (step 2006). And the straight line L
Is terminated (step 1705), the process skips step 1706, and proceeds to step 1707.

【0115】図19(E)は、基準ラインEprが、次の基準ラ
インEpr = E2になった場合を示した図である。傾きkはd
ecideKminから始める。まず、ステップ2001で、E = E0
のPiは異色であると判定されるので、ステップ2004へ進
む。次にそのPiに対してL'が存在するかどうかを判定
(ステップ2005)し、図19(E)の場合、すでにL'が存在す
るので、ステップ2005へ進む。ここで、k > K(u、E)な
ので、ステップ2007へ進む。次に、E = E1のPiについ
て、前記E = E0の場合と同様の処理を行なう。
[0115] Figure 19 (E), the reference line E pr is a diagram showing a case where it becomes the next reference line E pr = E 2. Slope k is d
Start with ecideK min . First, in step 2001, E = E 0
Since the P i is determined to be unique, the process proceeds to step 2004. Next, determine whether L 'exists for the P i
(Step 2005) Then, in the case of FIG. 19E, since L ′ already exists, the process proceeds to Step 2005. Here, since k> K (u, E), the process proceeds to step 2007. Next, P i of E = E 1, performs the same processing as that of the E = E 0.

【0116】次に、E = E3のPiについて同色か否かを判
定(ステップ2001)する。ここで、Piは異色であり、ステ
ップ2004へ進む。次にL'が存在するか否かの判定(ステ
ップ2004)を行なう。図19(D)では、E = E3のPi上には、
L'が存在しないので、ステップ2006へ進み、直線Lは対
応点直線でないと見なし、ステップ1707へ進む。
Next, to determine whether the same color or not the P i of E = E 3 (Step 2001). Here, Pi is a different color, and the process proceeds to step 2004. Next, it is determined whether or not L 'exists (step 2004). In FIG. 19 (D), the on P i of E = E 3,
Since L ′ does not exist, the process proceeds to step 2006, where it is assumed that the straight line L is not the corresponding point straight line, and the process proceeds to step 1707.

【0117】図19(E)は、傾きkがKmin ≦ k ≦ Kmax
範囲で、Δkずつ変化したときのEPI補間の様子を示して
いる。ここでは、E = E0のPiは異色なので、ステップ20
04へ進み、次にL'が存在するか否かの判定(ステップ200
4)を行なう。L'が存在するので、ステップ2005へ進む。
ここでは、k > K(u、E)なので、ステップ2007へ進む。
FIG. 19E shows a state of the EPI interpolation when the inclination k changes by Δk in the range of K min ≦ k ≦ K max . Here, since the P i of E = E 0 a unique, steps 20
04, and then determine whether L 'exists (step 200
Perform 4). Since L ′ exists, the process proceeds to step 2005.
Here, since k> K (u, E), the process proceeds to step 2007.

【0118】次に、E = E1のPiについて、前記E = E1
場合と同様の処理を行なう。
[0118] Next, the P i of E = E 1, performs the same processing as that of the E = E 1.

【0119】次に、E = E3のPiについて、同色か否かの
判定(ステップ2001)を行なう。ここで、Piは同色なの
で、ステップ2002へ進み、次にL'が存在するか否かの判
定(ステップ2003)を行なう。ここでは、L'が存在しない
ので、ステップ2007へ進み、全てのPiに対して、完了し
たので、直線Lを対応点直線と見なす(ステップ2009)。
[0119] Next, the P i of E = E 3, performs determination of whether the same color (the step 2001). Here, since Pi is the same color, the process proceeds to step 2002, and it is next determined whether or not L ′ exists (step 2003). In this case, since L 'does not exist, the process proceeds to step 2007, for all of P i, so complete, regarded as a straight line L and the corresponding point line (step 2009).

【0120】図18、図19のEPIでは、オクルージョンが
発生しているが、そのような場合でも、特徴点の軌跡を
追跡(図19(F))している。
In the EPIs shown in FIGS. 18 and 19, occlusion occurs. Even in such a case, the locus of the feature point is tracked (FIG. 19 (F)).

【0121】(対応点直線を描く)図21は、ステップ1706
の、エピポーラ平面画像上に基準画素Pr(Upr 、Epr )の
画素値で対応点直線を描く処理の詳細を説明したフロー
チャートである。まず、対応点直線であると決定された
直線L上の画素に対し、1画素ずつ以下の処理を行なう。
ここでの処理は、今設定されている直線L上の画素に対
し、既に対応点直線が数本通過している場合、直線Lの
傾きkと、その画素位置に格納されている既に通過して
いる対応点直線L'の傾きK(u、E)(ここで、対応点直線を
EPI上に描くとき、その画素位置にその直線Lの傾きk
を、K(u、E)に格納する)を比較して、最小の傾きをその
画素位置における画素値とする。
(Drawing a corresponding point straight line) FIG.
6 is a flowchart illustrating details of a process of drawing a corresponding point straight line with pixel values of reference pixels Pr (U pr , E pr ) on an epipolar plane image. First, the following processing is performed for each pixel on a straight line L determined to be a corresponding point straight line.
In this process, if several corresponding point straight lines have already passed through the pixels on the straight line L that is currently set, the slope k of the straight line L and the already stored straight line stored at that pixel position The slope K (u, E) of the corresponding point line L '
When drawing on the EPI, the slope k of the straight line L at that pixel position
Is stored in K (u, E)), and the minimum slope is defined as the pixel value at that pixel position.

【0122】エピポーラ平面画像上で、その画素上に直
線Lが初めて通過したとき、ステップ2103に進む。一
方、すでに対応点直線が通過している場合、ステップ21
02へ進む。
When the straight line L passes through the pixel on the epipolar plane image for the first time, the process proceeds to step 2103. On the other hand, if the corresponding point straight line has already passed, step 21
Proceed to 02.

【0123】ステップ2102では、直線Lの傾きkと既に通
過している対応点直線L'の傾きK(u、E)の比較をする(ス
テップ2102)。k < K(u、E)であるならば、ステップ2103
へ進み、そうでないならば、ステップ2105へ進む。これ
は、傾きが緩やかなものを優先するようにし、傾きが急
であるものが上書きしないようにしている。
In step 2102, the slope k of the straight line L is compared with the slope K (u, E) of the corresponding point straight line L 'that has already passed (step 2102). If k <K (u, E), step 2103
If not, go to step 2105. This is to give priority to those with a gentle gradient and prevent overwriting those with a steep gradient.

【0124】ステップ2103では、その画素位置で基準画
素Pr(Upr 、Epr )の画素値で描く。ステップ2104では、
K(u、E)を更新する。
In step 2103, a pixel value of the reference pixel Pr (U pr , E pr ) is drawn at that pixel position. In step 2104,
Update K (u, E).

【0125】直線L上の全ての画素に対して完了したな
らば、ステップ1707へ進む。以上の処理により、4ライ
ンのEPIを補間することができる。
If the processing has been completed for all the pixels on the straight line L, the flow advances to step 1707. With the above processing, the EPI of four lines can be interpolated.

【0126】なお、図25は、EPI補間が1フレーム分完了
し、E軸方向に対し、中央部分(E =Ecenter)で、uv平面
に並行に切断した様子を示している。E =Ecenterの部分
は、仮想カメラ205の位置なので、取得される画像は仮
想カメラ205で撮影された画像になる。仮想カメラ205は
被写体111の正面にあるので、時空間座標系(u、v、E)20
4から切断した画像は、被写体111が正面を向いた画像に
なる。
FIG. 25 shows a state in which the EPI interpolation has been completed for one frame, and cut in parallel with the uv plane at the central portion (E = E center ) in the E-axis direction. Since E = E center is the position of the virtual camera 205, the acquired image is an image captured by the virtual camera 205. Since the virtual camera 205 is in front of the subject 111, the spatiotemporal coordinate system (u, v, E) 20
The image cut from Step 4 is an image in which the subject 111 faces front.

【0127】(3次元情報抽出部の詳細)図22は、3次元情
報抽出部107における3次元情報抽出処理(ステップ312)
と3次元情報蓄積部108における3次元情報蓄積処理(ステ
ップ312)に関するフローチャートである。
(Details of Three-Dimensional Information Extraction Unit) FIG. 22 shows a three-dimensional information extraction process in the three-dimensional information extraction unit 107 (step 312).
4 is a flowchart regarding three-dimensional information storage processing (step 312) in the three-dimensional information storage unit 108.

【0128】以下に、図23を用いて説明する。Hereinafter, description will be made with reference to FIG.

【0129】図23は、EPI上の対応点直線の検出とその
補間処理が完了し、補間したEPI上の対応点直線の傾き
から、被写体111の各特徴点とカメラベースラインの距
離情報を抽出し、仮想カメラ座標系(Xv 、Yv 、Zv )201
における3次元情報を取得する様子を示した図である。
FIG. 23 shows the detection of the corresponding point straight line on the EPI and the interpolation processing thereof. The distance information between each feature point of the subject 111 and the camera baseline is extracted from the slope of the interpolated corresponding point straight line on the EPI. Virtual camera coordinate system ( Xv , Yv , Zv ) 201
FIG. 6 is a diagram showing a state of acquiring three-dimensional information in FIG.

【0130】補間後のEPIで、E = Ecenterの位置は、各
特徴点の直線軌跡が多く存在すると考えられる位置なの
で、このP(u、Ecenter)の位置に格納されているK(u、E)
を計算機のメモリから読みだし(ステップ2201)、以下の
式を用いて距離情報を算出(ステップ2202)する。 Xv = (a/k)×(u - u0 ) Yv = (a/k)×(v - v0 ) Zv = F × |a/k| 上式の算出方法を以下に説明する。仮想カメラ座標系(X
v 、Yv 、Zv )201で、被写体111の3次元情報を算出す
る。 x = F×(Xv /Zv ) (1) y = F×(Yv /Zv ) (2) また、撮影面座標系(x、y)202とディジタル座標系(u、
v)203の関係は、 x = u - u0 (3) y = v - v0 (4) ただし、(u0、v0 )はディジタル画像座標系(u、v)203で
見たときの撮影面座標系(x、y)202の原点位置であり、F
は正規化された焦点距離である。
In the EPI after interpolation, the position of E = E center is a position where it is considered that there are many linear trajectories of each feature point, and therefore, the K (u, E) is stored at the position of P (u, E center ). , E)
Is read from the memory of the computer (step 2201), and distance information is calculated using the following equation (step 2202). X v = (a / k) x (u-u 0 ) Y v = (a / k) x (v-v 0 ) Z v = F x | a / k | . Virtual camera coordinate system (X
In v , Yv , Zv ) 201, three-dimensional information of the subject 111 is calculated. x = F × (X v / Z v ) (1) y = F × (Y v / Z v ) (2) Also, the imaging plane coordinate system (x, y) 202 and the digital coordinate system (u,
v) 203, x = u-u 0 (3) y = v-v 0 (4) where (u 0 , v 0 ) is the digital image coordinate system (u, v) 203 The origin position of the shooting plane coordinate system (x, y) 202
Is the normalized focal length.

【0131】被写体111に対して、複数台のカメラがXv
軸方向に、カメラ0(206)を原点としてEの位置で撮影し
ているが、被写体111と複数台のカメラの位置関係は相
対的なものだから、-Xv方向に等速度で移動している1台
のカメラ(カメラの移動距離をD)が被写体111を撮影して
いる場合と等価である。よって、 x = F×(Xv - D)/Zv (5) と表現できる。上式(5)を整理すると、 x = -(F/Zv)×D + F×Xv/Zv (6) となる。ここで、前記直線Lを式変形すると、 x = k×E -k×Epr + Upr - u0 となり、また、DとEの関係は前記 D = a × E (a ≧ 1) (7) を代入して、 x = (k/a)×D -k×Epr + Upr - u0 (8) を得る。よって、式(6)と式(8)を比較すると、 k/a = -(F/Zv) よって、 Zv = -F×a/k (a ≧ 1) (9) 式(9)と式(3)(4)より、式(1)(2)は以下のようになる。 Xv = (a/k)×(u - u0) (1)' Yv = (a/k)×(v - v0) (2)' ゆえに、仮想カメラ座標系(Xv、Yv、Zv)201における被
写体111の3次元位置は、 Xv = (a/k)×(u - u0) (10) Yv = (a/k)×(v - v0) (11) Zv = -F×(a/k) (12) となる。ただし、単位系は仮想カメラ座標系(Xv 、Y
v 、Zv )201で表現しているので、単位系にはメートル
単位系が用いられている。
[0131] with respect to the subject 111, a plurality of cameras X v
In the axial direction, shooting is performed at the position of E with the camera 0 (206) as the origin, but since the positional relationship between the subject 111 and the plurality of cameras is relative, it is necessary to move at a constant speed in the -X v direction. This is equivalent to the case where one camera (the moving distance of the camera is D) is shooting the subject 111. Therefore, it can be expressed as x = F × ( Xv −D) / Zv (5). When rearranging the above equation (5), x = − (F / Zv ) × D + F × Xv / Zv (6) Here, if the straight line L to the formula deformed, x = k × E -k × E pr + U pr - u 0 , and the addition, the relationship between D and E the D = a × E (a ≧ 1) (7 ) by substituting, x = (k / a) × D -k × E pr + U pr - obtain u 0 (8). Therefore, comparing Equations (6) and (8), k / a =-(F / Z v ), so that Z v = -F × a / k (a ≥ 1) (9) Equation (9) From equations (3) and (4), equations (1) and (2) are as follows. X v = (a / k) × (u-u 0 ) (1) 'Y v = (a / k) × (v-v 0 ) (2)' Therefore, the virtual camera coordinate system (X v , Y v , Z v ) 201, the three-dimensional position of the subject 111 is X v = (a / k) × (u−u 0 ) (10) Y v = (a / k) × (v−v 0 ) (11) Z v = -F × (a / k) (12) However, the unit system is the virtual camera coordinate system ( Xv , Y
v , Z v ) 201, so the metric unit system is used.

【0132】(3次元情報蓄積の詳細)3次元情報蓄積部10
8において、 入力画像601に対して、1フレーム完了する
まで(ステップ313)、各EPIから算出した被写体111の3次
元情報を計算機のメモリに格納(ステップ2203)してお
く。
(Details of Three-Dimensional Information Storage) Three-dimensional information storage unit 10
At 8, the three-dimensional information of the subject 111 calculated from each EPI is stored in the memory of the computer (Step 2203) until one frame is completed for the input image 601 (Step 313).

【0133】次にE = Ecenter上のすべての画素に対
し、3次元情報抽出したならば(ステップ2204)、ステッ
プ313へ進む。
Next, when three-dimensional information has been extracted for all pixels on E = E center (step 2204), the flow advances to step 313.

【0134】(3次元情報送信の詳細)送信画像処理部110
の送信部109から被写体111の1フレーム分の3次元情報
を、受信画像処理部117の受信部114へ送信する(ステッ
プ314)。
(Details of three-dimensional information transmission) Transmission image processing unit 110
The three-dimensional information for one frame of the subject 111 is transmitted from the transmitting unit 109 to the receiving unit 114 of the received image processing unit 117 (step 314).

【0135】(3次元情報受信の詳細)送信画像処理部110
の送信部109から送信された被写体111の1フレーム分の3
次元情報を、受信画像処理部117の受信部114で受信する
(ステップ315)。
(Details of Reception of Three-Dimensional Information) Transmission Image Processing Unit 110
3 of one frame of the subject 111 transmitted from the transmission unit 109 of
The dimensional information is received by the receiving unit 114 of the received image processing unit 117
(Step 315).

【0136】(再構成・表示の詳細)図24は、1フレーム
分蓄積された3次元情報を基に、被写体111を再構成・表
示する(ステップ316)フローチャートを示した図であ
る。
(Details of Reconstruction / Display) FIG. 24 is a view showing a flowchart for reconstructing / displaying the subject 111 based on the three-dimensional information accumulated for one frame (step 316).

【0137】まず、受信画像処理部117内の受信部114で
受信した被写体111の1フレーム分の3次元情報を、再構
成・表示部115で読み出す(ステップ2401)。
First, the three-dimensional information of one frame of the subject 111 received by the receiving unit 114 in the received image processing unit 117 is read out by the reconstruction / display unit 115 (step 2401).

【0138】次に、視点位置入力部116で、受信側の利
用者が入力した仮想カメラ座標系(Xv、Yv 、Zv )201に
おける視点位置情報を取得(ステップ2402)する。次に、
読み出した3次元情報と、入力された視点位置情報を基
に、再構成・表示部115で表示(ステップ2403)する。
Next, the viewpoint position input unit 116 acquires viewpoint position information in the virtual camera coordinate system ( Xv , Yv , Zv ) 201 input by the user on the receiving side (step 2402). next,
Based on the read three-dimensional information and the input viewpoint position information, it is displayed on the reconstruction / display unit 115 (step 2403).

【0139】なお、再構成・表示の際、OpenGLやVRMLな
どの3次元空間を表現できるソフトウェアであれば、何
でもよい。
At the time of reconstruction and display, any software can be used as long as it can represent a three-dimensional space, such as OpenGL or VRML.

【0140】次に、利用者が視点位置を変更するかどう
かの判定(ステップ2404)を行なう。変更があれば、ステ
ップ2402へ戻り、なければ、ステップ317へ進む。
Next, it is determined whether or not the user changes the viewpoint position (step 2404). If there is a change, the process returns to step 2402; otherwise, the process proceeds to step 317.

【0141】なお、受信・送信側にいる両利用者には、
送信画像処理部110と受信画像処理部117からなる同一の
画像処理装置を備えているとする。
Note that both users on the receiving / transmitting side
It is assumed that the same image processing apparatus including the transmission image processing unit 110 and the reception image processing unit 117 is provided.

【0142】(他のアプリケーション)なお、本発明は、
図27に示す画像処理装置を用いることで、複数台のカメ
ラ画像から、レーザーなどを照射することない非接触
で、被写体111の3次元形状を獲得し、その3次元形状デ
ータを記録媒体に記録することで、計算機のメモリから
読み出し、再構築・表示することも可能である。
(Other Applications) In the present invention,
By using the image processing device shown in FIG. 27, a three-dimensional shape of the subject 111 is acquired from a plurality of camera images without irradiating a laser or the like, and the three-dimensional shape data is recorded on a recording medium. By doing so, it is also possible to read out from the memory of the computer, reconstruct and display.

【0143】[0143]

【発明の効果】以上に示したように、本発明の画像処理
装置及び画像処理方法を用いれば、複数台のカメラで撮
影された入力画像より、本発明で定義された仮想カメラ
が捉えたとする3次元化された人物顔画像を人手を介す
ることなく、完全自動化で取得することができる。
As described above, when the image processing apparatus and the image processing method of the present invention are used, it is assumed that the virtual camera defined by the present invention is captured from input images captured by a plurality of cameras. The three-dimensionalized human face image can be acquired by fully automatic operation without human intervention.

【0144】このため、ハーフミラーなどを用いた専用
ハードウェアを用いることなく、既存の計算機のディス
プレイと計算機を使用し、遠隔地にいる利用者同士は視
線を一致させてコミュニケーションをとることが容易に
なった。
For this reason, it is easy for users in remote locations to communicate with each other by using the existing computer display and computer without using dedicated hardware using a half mirror or the like. Became.

【0145】また、本発明の画像処理装置によれば、前
述仮想カメラが捉えたとする3次元化された人物顔画像
を取得できるので、受信側利用者による自由な視点位置
から、送信側の利用者の顔画像を取得することができ
る。これにより、臨場感のあるコミュニケーションがで
きるようになった。
According to the image processing apparatus of the present invention, a three-dimensional human face image assumed to be captured by the virtual camera can be obtained. Person's face image can be obtained. This has made it possible to communicate with a sense of reality.

【図面の簡単な説明】[Brief description of the drawings]

【図1】画像処理装置の構成を示すブロック図。FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus.

【図2】各座標系の説明図。FIG. 2 is an explanatory diagram of each coordinate system.

【図3】画像処理装置の動作を示すフローチャート。FIG. 3 is a flowchart illustrating an operation of the image processing apparatus.

【図4】カメラキャリブレーションを示すブロック図。FIG. 4 is a block diagram illustrating camera calibration.

【図5】背景、被写体を撮影する状態を示すブロック
図。
FIG. 5 is a block diagram illustrating a state in which a background and a subject are imaged.

【図6】入力画像から背景を除去する処理を示すブロッ
ク図。
FIG. 6 is a block diagram illustrating processing for removing a background from an input image.

【図7】カメラ座標系を正規化する処理を示すブロック
図。
FIG. 7 is a block diagram illustrating processing for normalizing a camera coordinate system.

【図8】背景除去画像を時空間座標系に展開する処理を
示すブロック図。
FIG. 8 is a block diagram showing processing for developing a background-removed image into a spatiotemporal coordinate system.

【図9】エピポーラ平面画像を生成する処理を示したブ
ロック図。
FIG. 9 is a block diagram illustrating a process of generating an epipolar plane image.

【図10】最短距離情報を算出する処理のフローチャー
ト。
FIG. 10 is a flowchart of processing for calculating shortest distance information.

【図11】各基準画素に対する対応点直線の傾きを算出す
る処理のフローチャート。
FIG. 11 is a flowchart of a process for calculating a slope of a corresponding point straight line with respect to each reference pixel.

【図12】各基準画素に対する対応点直線の傾きを算出す
る処理を示すブロック図。
FIG. 12 is a block diagram illustrating a process of calculating an inclination of a straight line of a corresponding point with respect to each reference pixel.

【図13】被写体が撮影部に対して正面を向いた場合の構
成を示すブロック図。
FIG. 13 is a block diagram illustrating a configuration in a case where a subject faces the front with respect to a photographing unit.

【図14】被写体が撮影部に対して正面を向いた場合の度
数分布表を示すブロック図。
FIG. 14 is a block diagram illustrating a frequency distribution table when the subject faces the front of the imaging unit.

【図15】被写体が撮影部に対して横を向いた場合の構成
を示すブロック図。
FIG. 15 is a block diagram illustrating a configuration in a case where a subject faces sideways with respect to a photographing unit.

【図16】被写体が撮影部に対して横を向いた場合の度数
分布表を示すブロック。
FIG. 16 is a block diagram illustrating a frequency distribution table when a subject faces sideways with respect to a photographing unit.

【図17】エピポーラ平面画像の補間処理のフローチャー
ト。
FIG. 17 is a flowchart of an interpolation process of an epipolar plane image.

【図18】エピポーラ平面画像の補間処理を示すブロック
図。
FIG. 18 is a block diagram illustrating interpolation processing of an epipolar plane image.

【図19】エピポーラ平面画像の補間処理を示すブロック
図。
FIG. 19 is a block diagram illustrating interpolation processing of an epipolar plane image.

【図20】対応点直線であるか否かを判定する処理のフロ
ーチャート。
FIG. 20 is a flowchart of a process for determining whether or not the corresponding point is a straight line.

【図21】対応点直線をエピポーラ平面画像上に描く処理
のフローチャート。
FIG. 21 is a flowchart of a process of drawing a corresponding point straight line on an epipolar plane image.

【図22】3次元情報を抽出する処理のフローチャート。FIG. 22 is a flowchart of a process for extracting three-dimensional information.

【図23】3次元情報を抽出する処理を示すブロック図。FIG. 23 is a block diagram illustrating a process of extracting three-dimensional information.

【図24】視点位置情報と抽出された3次元情報を用いて
再構成・表示する処理のフローチャート。
FIG. 24 is a flowchart of a process of reconstructing and displaying using viewpoint position information and extracted three-dimensional information.

【図25】1フレーム分、補間処理を完了し、中央で切断
した場合の出力画像を取得する処理を示すブロック図。
FIG. 25 is a block diagram illustrating a process of acquiring an output image when the interpolation process is completed for one frame and cut at the center.

【図26】従来の画像処理装置の動作を示すブロック図。FIG. 26 is a block diagram illustrating the operation of a conventional image processing apparatus.

【図27】3次元形状取得画像処理装置の動作を示すブロ
ック図。
FIG. 27 is a block diagram illustrating the operation of the three-dimensional shape acquisition image processing apparatus.

【符号の説明】[Explanation of symbols]

101 撮影部 102 キャリブレーション処理部 103 背景処理部 104 エピポーラ平面画像生成部 105 最短距離情報算出部 106 補間処理部 107 3次元情報抽出部 108 3次元情報蓄積部 109 送信部 110 送信画像処理部 111 被写体 112 背景 113 ディスプレイ 114 受信部 115 再構成・表示部 116 視点位置入力部 117 受信画像処理部 201 仮想カメラ座標系 202 撮像面座標系 203 ディジタル画像座標系 204 時空間座標系 205 仮想カメラ 206 カメラ0 207 カメラ1 208 カメラ2 209 カメラ3 401 キャリブレーションパターン 601 入力画像 602 背景画像 603 背景除去画像 701 カメラ座標系 901、902 エピポーラ平面画像 1301 鼻 1302 頬 2501 仮想カメラ205位置での出力画像 2601 利用者(A) 2602、2607 画像処理装置 2603、2608 ハーフミラー 2604、2609 カメラ 2605、2610 テレビモニター 2606 遠隔地の利用者(B) 101 imaging unit 102 calibration processing unit 103 background processing unit 104 epipolar plane image generation unit 105 shortest distance information calculation unit 106 interpolation processing unit 107 three-dimensional information extraction unit 108 three-dimensional information storage unit 109 transmission unit 110 transmission image processing unit 111 subject 112 Background 113 Display 114 Receiving unit 115 Reconstruction / display unit 116 Viewpoint position input unit 117 Received image processing unit 201 Virtual camera coordinate system 202 Imaging plane coordinate system 203 Digital image coordinate system 204 Spatio-temporal coordinate system 205 Virtual camera 206 Camera 0 207 Camera 1 208 Camera 2 209 Camera 3 401 Calibration pattern 601 Input image 602 Background image 603 Background removal image 701 Camera coordinate system 901, 902 Epipolar plane image 1301 Nose 1302 Cheek 2501 Output image at virtual camera 205 position 2601 User (A 2602, 2607 Image processing unit 2603, 2608 Half mirror 2604, 2609 Camera 2605, 2610 TV monitor 2606 Remote user (B)

フロントページの続き Fターム(参考) 2F065 AA04 AA06 AA53 BB05 FF04 JJ03 JJ05 JJ26 QQ31 UU05 2F112 AC03 AC06 CA08 FA03 FA35 FA45 5B057 BA02 CA08 CA12 CA16 CB13 CC01 CD20 5C064 AA01 AA02 AC02 AC07 AC14 AD06 AD14 Continued on the front page F term (reference) 2F065 AA04 AA06 AA53 BB05 FF04 JJ03 JJ05 JJ26 QQ31 UU05 2F112 AC03 AC06 CA08 FA03 FA35 FA45 5B057 BA02 CA08 CA12 CA16 CB13 CC01 CD20 5C064 AA01 AA02 AC02 AC07 AD14 AD06

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 そのレンズ中心がほぼ一直線上に配置さ
れ、入力対象の被写体をそれぞれ撮像する少なくとも4
台のカメラを含む撮影手段と、 予め撮影されている背景画像と被写体を撮影した入力画
像との差分処理を行って背景除去画像を生成する背景処
理手段と、 前記撮影手段の各カメラに対し、前記被写体を撮影する
前に予めカメラキャリブレーションを行って各カメラの
カメラパラメータを算出し、各カメラで被写体を撮影し
た入力画像を取得するごとに、前記各カメラのカメラパ
ラメータにより、各カメラにおけるカメラ座標系を、前
記複数のカメラが共通に位置するベースライン上に原点
を取り空間的にお互いにその原点を通って直交する仮想
カメラ座標系に正規化するキャリブレーション処理手段
と、 前記複数のカメラ間の距離に基づいて前記背景除去画像
を前記複数のカメラが共通に位置するベースラインを時
間軸とする時空間座標系の時間軸上に展開し、前記時空
間座標系の水平方向に切断した切断面の画像であるエピ
ポーラ平面画像を生成するエピポーラ平面画像生成手段
と、 前記生成されたエピポーラ平面画像上で、前記被写体の
特徴点の傾きが最も緩い角度を検出して前記被写体と前
記複数台のカメラが位置するベースラインから最短距離
になる点との距離情報を算出する最短距離情報算出手段
と、 前記最短距離情報に基づいて各エピポーラ平面画像上に
おいて設定した特定画素に対する対応点直線を検出し、
エピポーラ平面画像の補間を行なう補間処理手段と、 前記補間されたエピポーラ平面画像から、前記被写体の
各特徴点と前記カメラが位置するベースライン間との距
離情報を算出し、前記仮想カメラ座標系における各特徴
点の3次元情報として出力する3次元情報抽出手段とを備
えたことを特徴とする画像処理装置。
1. The lens center is arranged substantially on a straight line, and at least four images each of which captures an object to be input.
Photographing means including two cameras, background processing means for performing a difference process between a previously captured background image and an input image of a subject to generate a background-removed image, and for each camera of the photographing means, Before photographing the subject, the camera parameters of each camera are calculated by performing camera calibration in advance, and each time an input image obtained by photographing the subject with each camera is obtained, the camera parameter of each camera is used. Calibration processing means for taking an origin on a baseline where the plurality of cameras are located in common and normalizing the coordinate system to a virtual camera coordinate system which is spatially orthogonal to each other through the origin; and A spatio-temporal coordinate system in which the background-removed image is based on a distance between the plurality of cameras and a baseline is a time axis. An epipolar plane image generating unit that expands on a time axis and generates an epipolar plane image that is an image of a cut plane cut in the horizontal direction of the spatiotemporal coordinate system, and, on the generated epipolar plane image, A shortest distance information calculating means for detecting the angle at which the inclination of the feature point is the gentlest and calculating distance information between the subject and a point that is the shortest distance from the baseline at which the plurality of cameras are located; Based on each epipolar plane image, a corresponding point straight line for a specific pixel set on the epipolar plane image is detected,
Interpolation processing means for interpolating an epipolar plane image; calculating, from the interpolated epipolar plane image, distance information between each feature point of the subject and a base line at which the camera is located, in the virtual camera coordinate system. An image processing apparatus comprising: three-dimensional information extracting means for outputting three-dimensional information of each feature point.
【請求項2】 前記最短距離情報算出手段は、 前記各カメラより入力された画像から構成されるエピポ
ーラ平面画像上にある前記特定画素に対する最適な対応
点直線を算出し、この対応点直線の傾きをメモリに格納
する手段と、 前記対応点直線の傾きをメモリから読み出し、その対応
点直線の傾きに対する前記特定画素の出現頻度を調べて
度数分布表を作成する手段と、 予め被写体によって最も平坦な部分と最も凸である部分
のテクスチャの割合を測定し、その割合を前記度数分布
表に用いて最短距離情報を算出する手段とを含む請求項
1記載の画像処理装置。
2. The shortest distance information calculating means calculates an optimal corresponding point line for the specific pixel on an epipolar plane image composed of images input from the cameras, and calculates a slope of the corresponding point line. Means for reading the slope of the corresponding point straight line from the memory, examining the frequency of appearance of the specific pixel with respect to the slope of the corresponding point straight line, and creating a frequency distribution table; Means for measuring the ratio of the texture of the part and the texture of the most convex part, and calculating the shortest distance information using the ratio in the frequency distribution table.
The image processing device according to 1.
【請求項3】 前記補間処理手段は、 前記最短距離情報と前記エピポーラ平面画像上に現れて
いる前記入力画像数分のラインとから、特定画素を通る
直線が残りのライン上を通過し且つその直線が対応点直
線になるかどうかを判定し、対応点直線であれば補間を
する手段と、 検出された対応点直線がすべてのラインを通過せず、途
中で既に検出補間されている対応点直線と交差する遮蔽
が生じている場合、重なっている直線部分は既に検出・
補間されている直線を優先させ、重なっていない直線部
分をその特定画素の対応点直線として補間する手段とを
含む請求項1または2記載の画像処理装置。
3. The interpolation processing unit, from the shortest distance information and the number of lines of the input image appearing on the epipolar plane image, a straight line passing through a specific pixel passes on the remaining line and the A means for determining whether a straight line is a corresponding point straight line and performing interpolation if it is a corresponding point straight line, and a corresponding point where the detected corresponding point straight line does not pass through all lines but is already detected and interpolated in the middle. If there is an occlusion that intersects with the straight line, the overlapping straight line portion is already detected and
3. The image processing apparatus according to claim 1, further comprising means for giving priority to the interpolated straight line and interpolating a non-overlapping straight line portion as a corresponding point straight line of the specific pixel.
【請求項4】 前記3次元情報抽出手段は、 前記メモリに格納されている前記特定画素を通る対応点
直線の傾きをメモリから読み出し、前記ベースラインと
その特定画素間の距離を算出し、前記仮想カメラ座標系
における前記特定画素の3次元座標を抽出する手段を含
む請求項1ないし3のいずれか記載の画像処理装置。
4. The three-dimensional information extracting means reads out a slope of a corresponding point straight line passing through the specific pixel stored in the memory from a memory, calculates a distance between the baseline and the specific pixel, 4. The image processing apparatus according to claim 1, further comprising a unit configured to extract three-dimensional coordinates of the specific pixel in a virtual camera coordinate system.
【請求項5】送信部と受信部とを備え、 前記送信部は、前記3次元座標で抽出する手段で抽出さ
れた各特定画素の3次元情報を受信部へ送信する手段を
含み、 前記受信部は、受信した3次元情報に基づいて任意の位
置のカメラの視点からの画像に再構成して出力表示する
手段を含む請求項1ないし4のいずれか記載の画像処理
装置。
5. A transmitting unit, comprising: a transmitting unit; and a transmitting unit, the transmitting unit including: a unit configured to transmit, to a receiving unit, three-dimensional information of each specific pixel extracted by the unit that extracts the three-dimensional coordinates. 5. The image processing apparatus according to claim 1, wherein the unit includes means for reconstructing an image from a viewpoint of a camera at an arbitrary position based on the received three-dimensional information and outputting and displaying the image.
【請求項6】 前記補間処理手段より補間されたエピポー
ラ平面画像を1フレーム分蓄積し、前記時空間座標系の
時間軸上の任意の位置で前記時間軸に垂直に切断して、
前記ベースライン上の仮想位置におけるカメラが撮影し
た画像を生成する手段を含む請求項1ないし4のいずれ
か記載の画像処理装置。
6. An epipolar plane image interpolated by the interpolation processing means for one frame is accumulated, and is cut perpendicularly to the time axis at an arbitrary position on the time axis of the spatiotemporal coordinate system.
5. The image processing apparatus according to claim 1, further comprising a unit configured to generate an image captured by a camera at a virtual position on the baseline.
【請求項7】 ほぼ直線上に配置された少なくとも4台
のカメラを含む撮影手段により被写体を撮像し、 この撮像された被写体の画像を前記カメラが共通に位置
するベースラインを時間軸とする時空間座標系の時間軸
上に前記カメラ間の距離に応じて展開して前記時空間座
標系を水平方向に切断したエピポーラ平面画像を生成
し、 このエピポーラ平面画像で前記被写体の特徴点の傾きが
最も緩い角度を検出し前記被写体と前記カメラが共通に
位置するベースラインから最短距離となる点との距離情
報を算出し、 この最短距離となる点の距離情報に基づいて前記エピポ
ーラ平面画像の補間を行い、 この補間されたエピポーラ平面画像から前記被写体の特
徴点と前記カメラが共通に位置するベースライン間との
距離を算出し前記カメラが共通に位置するベースライン
に原点がある仮想カメラ座標系における各特徴点の3次
元情報として出力し、 前記各特徴点の3次元情報に基づいて前記撮像した被写
体の画像を仮想カメラ座標系の任意の位置からの画像に
再構成することを特徴とする画像処理方法。
7. When an object is photographed by photographing means including at least four cameras arranged on a substantially straight line, and the image of the photographed object is used as a time base with respect to a baseline at which the cameras are located in common. An epipolar plane image is generated by expanding the spatiotemporal coordinate system in the horizontal direction by expanding the space on the time axis of the spatial coordinate system in accordance with the distance between the cameras. In this epipolar plane image, the inclination of the feature point of the subject is calculated. Detecting the gentlest angle, calculating distance information between the subject and a point at the shortest distance from a baseline at which the camera is commonly located, and interpolating the epipolar plane image based on the distance information at the point at the shortest distance From the interpolated epipolar plane image, calculate the distance between the feature point of the subject and the baseline where the camera is located in common, and share the camera Output as three-dimensional information of each feature point in a virtual camera coordinate system having an origin at a base line to be placed; An image processing method comprising reconstructing an image from an image.
JP11227356A 1999-08-11 1999-08-11 Image processor and method for processing image Pending JP2001052177A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11227356A JP2001052177A (en) 1999-08-11 1999-08-11 Image processor and method for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11227356A JP2001052177A (en) 1999-08-11 1999-08-11 Image processor and method for processing image

Publications (1)

Publication Number Publication Date
JP2001052177A true JP2001052177A (en) 2001-02-23

Family

ID=16859526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11227356A Pending JP2001052177A (en) 1999-08-11 1999-08-11 Image processor and method for processing image

Country Status (1)

Country Link
JP (1) JP2001052177A (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274097A (en) * 2002-03-12 2003-09-26 Sony Corp System and method for receiving order of article
JP2005149127A (en) * 2003-11-14 2005-06-09 Sony Corp Imaging display device and method, and image sending and receiving system
JP2006039770A (en) * 2004-07-23 2006-02-09 Sony Corp Image processing apparatus, method, and program
JP2006285415A (en) * 2005-03-31 2006-10-19 Sony Corp Image processing method, device and program
JP2007095073A (en) * 2005-09-29 2007-04-12 Mitsubishi Electric Research Laboratories Inc Method and system for extracting alpha matte from image acquired of scene
JP2007257623A (en) * 2006-03-24 2007-10-04 Mitsubishi Electric Research Laboratories Inc Method and system to determine alpha matte of video acquired for certain scene
JP2008140271A (en) * 2006-12-04 2008-06-19 Toshiba Corp Interactive device and method thereof
JP2009109322A (en) * 2007-10-30 2009-05-21 National Institute Of Information & Communication Technology Camera, camera array and camera array system
JP2010278989A (en) * 2009-06-01 2010-12-09 Nippon Hoso Kyokai <Nhk> Display-photographing apparatus
JP2011027447A (en) * 2009-06-30 2011-02-10 Cheng Uei Precision Industry Co Ltd Optical localizing apparatus and localizing method therefor
US7957581B2 (en) 2003-11-27 2011-06-07 Sony Corporation Image processing apparatus and method
KR101479901B1 (en) 2014-06-11 2015-01-08 주식회사 리버스톤미디어 Method and apparatus for controlling of virtual camera
JP2015513113A (en) * 2011-12-29 2015-04-30 ザズル インコーポレイテッド System and method for efficiently recording large-diameter wave fronts of visible light and near-visible light
KR101515404B1 (en) * 2014-06-11 2015-05-04 주식회사 리버스톤미디어 Method and apparatus for controlling of virtual camera
CN109801374A (en) * 2019-01-14 2019-05-24 盾钰(上海)互联网科技有限公司 A kind of method, medium and system reconstructing threedimensional model by multi-angle image collection
US10719862B2 (en) 2008-07-29 2020-07-21 Zazzle Inc. System and method for intake of manufacturing patterns and applying them to the automated production of interactive, customizable product
US11157977B1 (en) 2007-10-26 2021-10-26 Zazzle Inc. Sales system using apparel modeling system and method
CN113632458A (en) * 2019-02-05 2021-11-09 视见科技(杭州)有限公司 System, algorithm and design for wide angle camera perspective experience
JP2023047371A (en) * 2021-09-27 2023-04-06 日本電気株式会社 Fish detection device, fish detection method and program

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003274097A (en) * 2002-03-12 2003-09-26 Sony Corp System and method for receiving order of article
JP2005149127A (en) * 2003-11-14 2005-06-09 Sony Corp Imaging display device and method, and image sending and receiving system
JP4595313B2 (en) * 2003-11-14 2010-12-08 ソニー株式会社 Imaging display apparatus and method, and image transmission / reception system
US7957581B2 (en) 2003-11-27 2011-06-07 Sony Corporation Image processing apparatus and method
JP4586447B2 (en) * 2004-07-23 2010-11-24 ソニー株式会社 Image processing apparatus and method, and program
JP2006039770A (en) * 2004-07-23 2006-02-09 Sony Corp Image processing apparatus, method, and program
JP2006285415A (en) * 2005-03-31 2006-10-19 Sony Corp Image processing method, device and program
JP4617965B2 (en) * 2005-03-31 2011-01-26 ソニー株式会社 Image processing method, apparatus and program
JP2007095073A (en) * 2005-09-29 2007-04-12 Mitsubishi Electric Research Laboratories Inc Method and system for extracting alpha matte from image acquired of scene
JP2007257623A (en) * 2006-03-24 2007-10-04 Mitsubishi Electric Research Laboratories Inc Method and system to determine alpha matte of video acquired for certain scene
JP2008140271A (en) * 2006-12-04 2008-06-19 Toshiba Corp Interactive device and method thereof
US11157977B1 (en) 2007-10-26 2021-10-26 Zazzle Inc. Sales system using apparel modeling system and method
JP2009109322A (en) * 2007-10-30 2009-05-21 National Institute Of Information & Communication Technology Camera, camera array and camera array system
US10719862B2 (en) 2008-07-29 2020-07-21 Zazzle Inc. System and method for intake of manufacturing patterns and applying them to the automated production of interactive, customizable product
JP2010278989A (en) * 2009-06-01 2010-12-09 Nippon Hoso Kyokai <Nhk> Display-photographing apparatus
JP2011027447A (en) * 2009-06-30 2011-02-10 Cheng Uei Precision Industry Co Ltd Optical localizing apparatus and localizing method therefor
JP2015513113A (en) * 2011-12-29 2015-04-30 ザズル インコーポレイテッド System and method for efficiently recording large-diameter wave fronts of visible light and near-visible light
US10969743B2 (en) 2011-12-29 2021-04-06 Zazzle Inc. System and method for the efficient recording of large aperture wave fronts of visible and near visible light
KR101479901B1 (en) 2014-06-11 2015-01-08 주식회사 리버스톤미디어 Method and apparatus for controlling of virtual camera
KR101515404B1 (en) * 2014-06-11 2015-05-04 주식회사 리버스톤미디어 Method and apparatus for controlling of virtual camera
CN109801374A (en) * 2019-01-14 2019-05-24 盾钰(上海)互联网科技有限公司 A kind of method, medium and system reconstructing threedimensional model by multi-angle image collection
CN113632458A (en) * 2019-02-05 2021-11-09 视见科技(杭州)有限公司 System, algorithm and design for wide angle camera perspective experience
JP2023047371A (en) * 2021-09-27 2023-04-06 日本電気株式会社 Fish detection device, fish detection method and program
JP7287430B2 (en) 2021-09-27 2023-06-06 日本電気株式会社 Fish detection device, fish detection method and program

Similar Documents

Publication Publication Date Title
US5359362A (en) Videoconference system using a virtual camera image
JP2001052177A (en) Image processor and method for processing image
KR101091297B1 (en) Image processing apparatus, and method of the same
US7330584B2 (en) Image processing apparatus and method
US8384763B2 (en) Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging
US6704042B2 (en) Video processing apparatus, control method therefor, and storage medium
US8009897B2 (en) Method and apparatus for image matching
CN101610421B (en) Video communication method, video communication device and video communication system
CN106981078B (en) Sight line correction method and device, intelligent conference terminal and storage medium
US20020106120A1 (en) Method of analyzing in real time the correspondence of image characteristics in corresponding video images
US20030035001A1 (en) 3D video conferencing
US9380263B2 (en) Systems and methods for real-time view-synthesis in a multi-camera setup
Schreer et al. 3dpresence-a system concept for multi-user and multi-party immersive 3d videoconferencing
US20220342365A1 (en) System and method for holographic communication
Knorr et al. Stereoscopic 3D from 2D video with super-resolution capability
US9113153B2 (en) Determining a stereo image from video
Liu et al. A computational approach to establish eye-contact in videocommunication
JP6004978B2 (en) Subject image extraction device and subject image extraction / synthesis device
Woo et al. Stereo imaging using a camera with stereoscopic adapter
JP2005174148A (en) Image pickup device and method, and image pickup system
JP2002232838A (en) Digital camera
JPH08116556A (en) Image processing method and device
Schreer et al. Real-time disparity analysis for applications in immersive teleconference scenarios-a comparative study
JP2006024141A (en) Image processor and image processing method and program
JPH09191452A (en) Video telephone system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090615

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090707