JPH07296194A - Method and device for image processing - Google Patents

Method and device for image processing

Info

Publication number
JPH07296194A
JPH07296194A JP10785494A JP10785494A JPH07296194A JP H07296194 A JPH07296194 A JP H07296194A JP 10785494 A JP10785494 A JP 10785494A JP 10785494 A JP10785494 A JP 10785494A JP H07296194 A JPH07296194 A JP H07296194A
Authority
JP
Japan
Prior art keywords
image
pixel
viewpoint
input
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP10785494A
Other languages
Japanese (ja)
Inventor
Takahiro Oshino
隆弘 押野
Akihiro Katayama
昭宏 片山
Kouichirou Tanaka
宏一良 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP10785494A priority Critical patent/JPH07296194A/en
Priority to DE69529548T priority patent/DE69529548T2/en
Priority to EP95302680A priority patent/EP0684585B1/en
Publication of JPH07296194A publication Critical patent/JPH07296194A/en
Priority to US08/838,177 priority patent/US6263100B1/en
Priority to US09/866,669 priority patent/US6628820B2/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE:To geneate an interpolated image with high accuracy based on multiple viewpoint images. CONSTITUTION:An epipola plane image (EPI) is generated by arranging lines on the same position in sequence of a viewpoint based on images from plural viewpoints. The line to be interpolated is inserted to each line, and corresponding points a1, b1, and c1 are detected by detecting a straight line. At this time, a score is given to each picture element through which the straight line passes corresponding to the number of straight lines detected from remarked picture elements, and as for the picture element in which the correspondence of a picture element which a low score and one with a high score is overlapped, the correspondence with the low point is eliminated. The point on the interpolated line of the straight line consisting of those points is set as the point generated by interpolation. However, the interpolation is performed preferentially starting from the correspondence with the high score by performing interpolation according to the correspondence with the low score in advance and then the interpolated image can be generated.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は複数の撮像手段(カメラ
等)から得られた画像を補間処理により撮像手段の視点
とは異なった視点の画像を生成する画像処理装置及びそ
の方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and method for generating an image of a viewpoint different from that of the image pickup means by interpolating images obtained from a plurality of image pickup means (cameras or the like). is there.

【0002】[0002]

【従来の技術】従来、複数の視点位置から撮影した画像
をもとに、撮影した位置とは異なった位置から撮影した
画像を生成する手法としてエピポーラプレーンイメージ
(以下EPIと略す)を用いる方法がある。
2. Description of the Related Art Conventionally, a method of using an epipolar plane image (hereinafter abbreviated as EPI) has been used as a method of generating an image captured from a position different from the captured position based on images captured from a plurality of viewpoint positions. is there.

【0003】この方法は、図16に示すように、各画像
中の同じ位置にあるラインを抽出して(図16
(a))、1つのEPIを合成し(図16(b))、こ
のEPI上で直線検出を行うことにより注目点に対応す
る点(対応点)を求め(図16(c))、撮影した位置
とは異なる位置から撮影した場合に得られる画像を生成
する(図16(d))、というものである。
This method extracts lines at the same position in each image as shown in FIG.
(A)) One EPI is combined (Fig. 16 (b)), and a line corresponding to the point of interest (corresponding point) is obtained by performing straight line detection on this EPI (Fig. 16 (c)), and imaging is performed. An image obtained when the image is captured from a position different from the position (FIG. 16D) is generated.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記従
来例では背景・壁などのように一様な色の物体は、EP
I上で直線検出を行った場合、無数の直線が検出され対
応点を特定することができなかった。そのため、そのよ
うな一様な色の物体の前方に小さな物体が配置されてい
る場合、EPI上では小さな物体の対応点を追い越して
直線を検出してしまう(即ち、物体の前後関係が逆転し
てしまう)という問題点があった。
However, in the above-mentioned conventional example, an object of uniform color such as a background or a wall is
When straight line detection was performed on I, innumerable straight lines were detected and the corresponding points could not be specified. Therefore, when a small object is placed in front of such an object of uniform color, a straight line is detected on the EPI by overtaking the corresponding point of the small object (that is, the context of the object is reversed. The problem was that

【0005】本発明は上記従来例に鑑みてなされたもの
で、画像の内容にかかわらず正確に補間画像を生成する
画像処理方法およびその装置を提供することを目的とす
る。
The present invention has been made in view of the above-mentioned conventional example, and an object of the present invention is to provide an image processing method and apparatus for accurately generating an interpolated image regardless of the contents of the image.

【0006】[0006]

【課題を解決するための手段】本発明は、上記問題点に
鑑みてなされたもので、対応点を検出する際、ある注目
点からの検出される直線の数を利用して対応点としての
確からしさを表現して、直線検出を行う方法をとる。即
ち、本発明の画像処理方法においては、複数の位置から
撮影した画像を入力する多視点画像入力工程と、入力さ
れた多視点画像データをEPIに分解しEPI上で直線
検出することにより対応点を求める直線検出工程と、検
出された直線を用いて異なった位置から撮影した場合に
得られるはずの画像を生成する画像補間工程を備える。
上記構成において、多視点画像入力工程は1台以上のカ
メラから得られる多数枚の画像やデータベースに蓄積さ
れている多視点画像(複数の異なる視点から撮影した画
像)を入力し、直線検出工程は入力された多視点画像デ
ータをEPIに分解しながらEPI上で対応点を求める
ために直線を検出し、画像補間工程は直線検出工程によ
って得られた対応点をもとに異なった視点から見た場合
の画像を補間処理によって生成する。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and when detecting a corresponding point, the number of straight lines detected from a certain point of interest is used as a corresponding point. A straight line is detected by expressing certainty. That is, in the image processing method of the present invention, the multi-viewpoint image input step of inputting images shot from a plurality of positions and the corresponding points by dividing the input multi-viewpoint image data into EPIs and detecting straight lines on the EPIs. And a image interpolation step of generating an image that should be obtained when shooting from different positions using the detected straight line.
In the above configuration, the multi-viewpoint image input step inputs a large number of images obtained from one or more cameras or a multi-viewpoint image (images taken from a plurality of different viewpoints) accumulated in the database, and the straight line detection step While dividing the input multi-viewpoint image data into EPI, a straight line is detected in order to find a corresponding point on the EPI, and the image interpolation process is performed from different viewpoints based on the corresponding point obtained by the straight line detecting process. The image of the case is generated by the interpolation processing.

【0007】また、他の態様として本発明の画像処理方
法は次のような構成から成る。
As another aspect, the image processing method of the present invention has the following configuration.

【0008】複数位置の視点に対応する複数の画像を入
力する画像入力工程と、前記画像入力工程により入力さ
れる複数の画像間で対応する画素の候補を検出する候補
検出工程と、該対応画素の候補に対して、対応の確から
しさをチェックするチェック工程と、前記候補検出工程
により検出された対応する画素の候補から、前記対応の
確からしさに応じて、対応する画素を検出する対応検出
工程と、該対応検出工程により検出された対応画素間の
関係に基づいて、前記画像入力工程により入力される画
像の視点とは異なる視点に対応する画像を生成する画像
補間工程とを備える。
An image inputting step of inputting a plurality of images corresponding to viewpoints at a plurality of positions, a candidate detecting step of detecting a corresponding pixel candidate between the plurality of images input by the image inputting step, and the corresponding pixel A checking step of checking the likelihood of correspondence with respect to the candidate, and a corresponding detection step of detecting a corresponding pixel from the candidates of the corresponding pixel detected by the candidate detecting step, according to the certainty of the correspondence. And an image interpolation step of generating an image corresponding to a viewpoint different from the viewpoint of the image input in the image input step based on the relationship between the corresponding pixels detected in the correspondence detection step.

【0009】また、他の態様として本発明の画像処理方
法は次のような構成から成る。
As another aspect, the image processing method of the present invention has the following configuration.

【0010】複数位置の視点に対応する複数の画像を入
力する画像入力工程と、前記画像入力工程により入力さ
れる複数の画像間で対応する画素の候補を、エピポーラ
プレーンイメージ上で直線検出することにより検出する
候補検出工程と、該対応画素の候補に対して、対応の確
からしさを示す得点を、前記検出手段により検出された
直線が各画素を通る数に応じて、各画素毎に付与する付
与工程と、前記候補検出工程により検出された対応する
画素の候補から、より対応関係の確かな対応画素を有す
る画素候補を、対応関係のより不確かな対応画素を有す
る画素の対応点から除外して、対応する画素を検出する
対応検出工程と、該対応検出工程により検出された対応
画素間を通るエピポーラプレーンイメージ上の直線上で
補間点を生成し、該補間点をすべてのエピポーラプレー
ンイメージについて合成して、前記記画像入力工程によ
り入力される画像の視点とは異なる視点に対応する画像
を生成する画像補間工程とを備える。
An image input step of inputting a plurality of images corresponding to viewpoints at a plurality of positions, and a straight line detection of corresponding pixel candidates between the plurality of images input by the image input step on the epipolar plane image. The candidate detection step of detecting by the above, and a score indicating the certainty of correspondence to the corresponding pixel candidate is given to each pixel according to the number of straight lines detected by the detection means passing through each pixel. From the corresponding pixel candidates detected by the applying step and the candidate detecting step, a pixel candidate having a corresponding pixel having a more corresponding relationship is excluded from corresponding points of pixels having a corresponding pixel having a more uncertain corresponding relationship. A corresponding detection step of detecting a corresponding pixel, and generating an interpolation point on a straight line on the epipolar plane image passing between the corresponding pixels detected by the corresponding detection step, By combining the interpolation point for all epipolar plane images, and an image interpolation step that generates an image corresponding to the different viewpoints from the viewpoint of the image input by the SL image input step.

【0011】また、本発明の画像処理装置においては、
複数の位置から撮影した画像を入力する多視点画像入力
手段と、入力された多視点画像データをEPIに分解し
EPI上で直線検出することにより対応点を求める直線
検出手段と、検出された直線を用いて異なった位置から
撮影した場合に得られるはずの画像を生成する画像補間
手段とを備える。上記構成において、多視点画像入力手
段は1台以上のカメラから得られる多数枚の画像やデー
タベースに蓄積されている多視点画像(複数の異なる視
点から撮影した画像)を入力し、直線検出手段は入力さ
れた多視点画像データをEPIに分解しながらEPI上
で対応点を求めるために直線を検出し、画像補間手段は
直線検出手段によって得られた対応点をもとに異なった
視点から見た場合の画像を補間処理によって生成する。
Further, in the image processing apparatus of the present invention,
Multi-viewpoint image input means for inputting images photographed from a plurality of positions, straight-line detecting means for decomposing the input multi-viewpoint image data into EPI and detecting straight lines on the EPI, and detected straight lines And an image interpolating means for generating an image that should be obtained when images are taken from different positions by using. In the above structure, the multi-view image input means inputs a large number of images obtained from one or more cameras or multi-view images (images taken from a plurality of different viewpoints) accumulated in the database, and the straight line detection means While dividing the input multi-viewpoint image data into EPI, a straight line is detected in order to obtain a corresponding point on the EPI, and the image interpolating means is viewed from different viewpoints based on the corresponding point obtained by the straight line detecting means. The image of the case is generated by the interpolation processing.

【0012】また、他の態様として本発明の画像処理装
置は次のような構成から成る。
As another aspect, the image processing apparatus of the present invention has the following configuration.

【0013】複数位置の視点に対応する複数の画像を入
力する画像入力手段と、前記画像入力手段により入力さ
れる複数の画像間で対応する画素の候補を検出する候補
検出手段と、該対応画素の候補に対して、対応の確から
しさをチェックするチェック手段と、前記候補検出手段
により検出された対応する画素の候補から、前記対応の
確からしさに応じて、対応する画素を検出する対応検出
手段と、該対応検出手段により検出された対応画素間の
関係に基づいて、前記画像入力手段により入力される画
像の視点とは異なる視点に対応する画像を生成する画像
補間手段とを備える。
Image input means for inputting a plurality of images corresponding to viewpoints at a plurality of positions, candidate detection means for detecting corresponding pixel candidates among the plurality of images input by the image input means, and the corresponding pixels Check means for checking the probability of correspondence of the candidate, and correspondence detection means for detecting a corresponding pixel from the candidate of the corresponding pixel detected by the candidate detecting means, according to the probability of correspondence. And image interpolation means for generating an image corresponding to a viewpoint different from the viewpoint of the image input by the image input means, based on the relationship between the corresponding pixels detected by the correspondence detection means.

【0014】また、他の態様として本発明の画像処理装
置は次のような構成から成る。
As another aspect, the image processing apparatus of the present invention has the following configuration.

【0015】複数位置の視点に対応する複数の画像を入
力する画像入力手段と、前記画像入力手段により入力さ
れる複数の画像間で対応する画素の候補を、エピポーラ
プレーンイメージ上で直線検出することにより検出する
候補検出手段と、該対応画素の候補に対して、対応の確
からしさを示す得点を、前記検出手段により検出された
直線が各画素を通る数に応じて、各画素毎に付与する付
与手段と、前記候補検出手段により検出された対応する
画素の候補から、より対応関係の確かな対応画素を有す
る画素候補を、対応関係のより不確かな対応画素を有す
る画素の対応点から除外して、対応する画素を検出する
対応検出手段と、該対応検出手段により検出された対応
画素間を通るエピポーラプレーンイメージ上の直線上で
補間点を生成し、該補間点をすべてのエピポーラプレー
ンイメージについて合成して、前記記画像入力手段によ
り入力される画像の視点とは異なる視点に対応する画像
を生成する画像補間手段とを備える。
Straight line detection on the epipolar plane image of image input means for inputting a plurality of images corresponding to viewpoints at a plurality of positions and pixel candidates corresponding between the plurality of images input by the image input means. The candidate detection means for detecting by the above and the score indicating the certainty of correspondence to the candidate of the corresponding pixel are given to each pixel according to the number of straight lines detected by the detection means passing through each pixel. From the assigning means and the corresponding pixel candidates detected by the candidate detecting means, a pixel candidate having a corresponding pixel having a more corresponding relationship is excluded from corresponding points of pixels having a corresponding pixel having a more uncertain corresponding relationship. A corresponding detection means for detecting the corresponding pixel and an interpolation point on a straight line on the epipolar plane image passing between the corresponding pixels detected by the corresponding detection means, By combining the interpolation point for all epipolar plane images, and an image interpolation unit that generates an image corresponding to the different viewpoints from the viewpoint of the image input by the SL image input means.

【0016】[0016]

【作用】上記構成により、異なる視点の画像間の対応
を、対応の確からしさをチェックしつつ検出して、その
対応に基づいた補間画像を生成する。
With the above structure, the correspondence between the images of different viewpoints is detected while checking the certainty of the correspondence, and the interpolated image based on the correspondence is generated.

【0017】[0017]

【第1実施例】次に、本発明の第1の実施例について図
面を参照して説明する。
First Embodiment Next, a first embodiment of the present invention will be described with reference to the drawings.

【0018】<装置の構成>図1は画像入力部にカメラ
を4台用いた場合の画像処理装置の例である。図におい
て、画像入力部33は4台のカメラ20〜23を含み、
撮影した画像をデジタル画像信号として入力ポート24
を介して装置に入力する。CPU25は、画像処理装置
全体を制御するプロセッサであり、ROM27またはR
AM26に格納されたプログラムを実行することで所定
の制御手順を実行する。RAM26、ROM27にはプ
ログラムのほか、データ類も格納される。更にRAM2
6には、画像入力部33から入力されたデジタル画像デ
ータも格納される。ハードディスク29は、ディスクI
/Oポート28を介してCPU25あるいはRAM26
などとデータ等を交換する。画像データはディスク29
にも格納される。撮影された画像データあるいは処理さ
れた画像データは、VRAM30に展開され、ビデオ信
号出力用I/F31を介してステレオディスプレイ32
0から表示出力される。なお、ここでは4台のカメラを
用いて説明しているが、カメラの台数はこれに限らず、
何台でもよい。
<Device Configuration> FIG. 1 shows an example of an image processing device in which four cameras are used as an image input unit. In the figure, the image input unit 33 includes four cameras 20 to 23,
The captured image as a digital image signal is input port 24
To the device via. The CPU 25 is a processor that controls the entire image processing apparatus, and is a ROM 27 or R
A predetermined control procedure is executed by executing the program stored in the AM 26. The RAM 26 and the ROM 27 store data as well as programs. RAM2
6 also stores digital image data input from the image input unit 33. The hard disk 29 is the disk I
CPU 25 or RAM 26 via the / O port 28
Exchange data etc. Image data is disk 29
Also stored in. The captured image data or the processed image data is expanded in the VRAM 30, and the stereo display 32 is output via the video signal output I / F 31.
Display output from 0. It should be noted that although the description is given using four cameras here, the number of cameras is not limited to this, and
Any number is acceptable.

【0019】<画像補間処理>図2は、第1実施例の画
像処理装置による画像補間処理の流れを示すフローチャ
ートである。
<Image Interpolation Processing> FIG. 2 is a flow chart showing the flow of image interpolation processing by the image processing apparatus of the first embodiment.

【0020】カメラ等の画像入力機器から入力された原
画像は、まずステップS21において、レンズの色収差
や歪、光軸のズレ、カメラの姿勢・位置等の幾何学的な
補正処理及びCCDセンサの感度ムラ等の補正処理が行
われる。この処理は、あらかじめキャリブレーションし
てその補正データをROMやRAMの中に記録しておけ
ば、テーブル参照の形で高速に補正処理が行える。ま
た、この補正用データを画像入力前に毎回求めれば正確
な補正が可能となる。また、この補正処理が済むとステ
ップS22に移り、撮影パラメータから対応点探索を行
う範囲を決定する。その結果を用いてS23に移り、各
画像間の対応点検索を行う。対応点探索が終了すると次
にステップS24に移り、画像の補間処理を行ったの
ち、ステップS25でレンティキュラディスプレイに補
正済の入力画像と補間された画像を表示する。
In step S21, an original image input from an image input device such as a camera is first subjected to geometrical correction processing such as chromatic aberration and distortion of a lens, deviation of an optical axis, camera posture and position, and a CCD sensor. Correction processing for uneven sensitivity is performed. If this process is calibrated in advance and the correction data is recorded in the ROM or RAM, the correction process can be performed at high speed in the form of table reference. Further, if this correction data is obtained each time before image input, accurate correction can be performed. Further, when this correction process is completed, the process proceeds to step S22, and the range for performing the corresponding point search is determined from the shooting parameters. Using the result, the process proceeds to S23 and the corresponding points between the images are searched. When the corresponding point search is completed, the process proceeds to step S24 to perform image interpolation processing, and then, in step S25, the corrected input image and the interpolated image are displayed on the lenticular display.

【0021】次に、各部の処理を詳しく説明する。Next, the processing of each unit will be described in detail.

【0022】<対応点探索範囲の算出>まず、図3を用
いて、対応点探索範囲の算出処理を説明する。
<Calculation of Corresponding Point Search Range> First, the calculation processing of the corresponding point search range will be described with reference to FIG.

【0023】図3は対応点探索範囲の算出原理を示す図
である。S101が撮影したい空間の一番後方の面、S
102が撮影空間Ω、S103が撮影したい空間の一番
前方の面、S104が撮影したい空間の一番後ろの面ま
での距離(Le)、S105が撮影したい空間の一番前
方の面までの距離(Lf)である。S106は、撮影位
置P1(S108)から撮像面への垂線と、撮影位置P
1から距離d(S109)だけはなれた撮影位置P2
(S110)から撮影空間Ωの一番前方の面にある撮影
物体a(S112)までを結んだ直線との角度α、S1
07は、同様に撮影空間Ωの一番後ろの面S101にあ
る撮影物体b(S113)と点P2とを結んだ直線と、
視点位置P1から撮像面への垂線との角度β、S111
は焦点距離fである。a’(S114),b’(S11
5)は、点P2からの物体a(S112),b(S11
3)の撮像面での位置を表す。この図3の幾何に従い、
対応点探索範囲である撮像面中のa’とb’との距離を
求める。
FIG. 3 is a diagram showing the principle of calculating the corresponding point search range. S101 is the rearmost surface of the space you want to shoot, S
102 is the photographing space Ω, S103 is the frontmost surface of the space to be photographed, S104 is the distance to the rearmost surface of the space to be photographed (Le), and S105 is the distance to the frontmost surface of the space to be photographed. (Lf). In S106, the vertical line from the shooting position P1 (S108) to the imaging surface and the shooting position P
Shooting position P2 that is a distance d (S109) from 1
An angle α with a straight line connecting (S110) to the shooting object a (S112) on the frontmost surface of the shooting space Ω, S1
Similarly, 07 is a straight line connecting the shooting object b (S113) on the rearmost surface S101 of the shooting space Ω and the point P2,
Angle β from the viewpoint position P1 to the perpendicular to the imaging surface, S111
Is the focal length f. a '(S114), b' (S11
5) is the object a (S112), b (S11) from the point P2.
The position of 3) on the imaging surface is shown. According to the geometry of this Figure 3,
The distance between a'and b'in the imaging plane, which is the corresponding point search range, is calculated.

【0024】まず、撮影位置P1(S108)とP2
(S110)において、撮影空間Ωの一番前方の物体で
あるa(S112)のそれぞれの撮像面での移動距離d
1を求める。それは図3の幾何から次式で求められる。
なお、撮像面での主走査方向の大きさをnxであらわ
す。
First, the photographing positions P1 (S108) and P2
In (S110), the moving distance d on each imaging surface of a (S112), which is the frontmost object in the imaging space Ω.
Ask for 1. It can be calculated from the geometry of FIG.
The size in the main scanning direction on the image pickup surface is represented by nx.

【0025】 d1=nx/(2tanα)=nx/(2(d/Lf)) … (1) 同様に、撮影空間Ωの一番後方の物体b(S113)が
視点位置P1(S108)とP2(S110)におい
て、それぞれの撮像面での移動距離d2を求める。
D1 = nx / (2tanα) = nx / (2 (d / Lf)) (1) Similarly, the rearmost object b (S113) in the shooting space Ω is the viewpoint positions P1 (S108) and P2. In (S110), the moving distance d2 on each imaging surface is obtained.

【0026】 d2=nx/(2tanβ)=nx/(2(d/Le)) … (2) これらより、視点P1の画像と視点P2の画像との対応
点を探索するための直線探索の傾きの範囲は、d1〜d
2で変化させればよいことになる。
D2 = nx / (2tanβ) = nx / (2 (d / Le)) (2) From these, the inclination of the straight line search for searching the corresponding point between the image of the viewpoint P1 and the image of the viewpoint P2 Range is d1 to d
You can change it by 2.

【0027】また、探索刻みsはそのカメラ台数Nから
次式で求めることができる。
The search step s can be obtained from the number N of cameras by the following equation.

【0028】s=1/N 上記のように、撮影したい空間を一番前方および後方の
面に限定することにより、対応点探索範囲を不用意に拡
げることを防ぎ、かつ、探索処理の高速化が可能とな
る。また、探索刻みの上限(細かさ)をカメラ台数から
求めることによって、不用意に探索刻みを小さくするこ
とによる探索処理時間の増大を防ぐことが可能となる。
S = 1 / N As described above, by restricting the space to be photographed to the frontmost and rearmost surfaces, it is possible to prevent the corresponding point search range from being unintentionally expanded and to speed up the search processing. Is possible. Further, by obtaining the upper limit (fineness) of the search step from the number of cameras, it is possible to prevent the search processing time from increasing due to the careless reduction of the search step.

【0029】<対応点探索処理>次に、求められた対応
点探索パラメータを用いた対応点探索処理を図4を用い
て説明する。図4は、ステップS23の対応点探索処理
のフローチャートである。ステップS31において初期
設定として注目ラスタを各画像の第1ラスタにセットす
る。
<Corresponding Point Searching Process> Next, the corresponding point searching process using the obtained corresponding point searching parameter will be described with reference to FIG. FIG. 4 is a flowchart of the corresponding point search process in step S23. In step S31, the raster of interest is set as the first raster of each image as an initial setting.

【0030】次にステップS32において各画像の注目
ラスタをワークメモりに読み込み、仮想的にj番目のエ
ピポーラプレーンイメージ(EPI)を構成する。ここ
で言うj番目のEPIとは図5に示すように画像平面上
の各点EPj(x,i)が EPj(x,i)=Ni(x,j) を満たすような点EPj(x,i)の集合のことであ
る。ただし、Ni(x,j)はi番目の画像(ここで
は、i=1〜4)のjラスタ目におけるx番目の画素
値、即ちi番目の画像において座標が(x,j)で表さ
れる画素の値を表している。入力機器(カメラ等)が等
間隔で平行に設置されている場合、このEPI上では、
対応する点は全て直線上に並んで存在する。従って、対
応点の検出は直線を検出することによって行え、また、
画像の補間は検出された直線上で行えばよいことにな
る。そこで、ステップS34において得られた直線から
対応点を計算し、記憶する。
Next, in step S32, the target raster of each image is read into the work memory to virtually form the j-th epipolar plane image (EPI). The j-th EPI referred to here is a point EPj (x, i) at which each point EPj (x, i) on the image plane satisfies EPj (x, i) = Ni (x, j) as shown in FIG. i) is a set. However, Ni (x, j) is represented by the x-th pixel value in the j-th raster of the i-th image (here, i = 1 to 4), that is, the coordinates in the i-th image are represented by (x, j). Represents the value of the pixel. If the input devices (camera, etc.) are installed in parallel at equal intervals, on this EPI,
All the corresponding points are lined up on a straight line. Therefore, the corresponding points can be detected by detecting the straight line, and
The image interpolation may be performed on the detected straight line. Therefore, corresponding points are calculated from the straight line obtained in step S34 and stored.

【0031】具体的なアルゴリズムを図6のフローチャ
ートを用いて示す。
A concrete algorithm will be described with reference to the flowchart of FIG.

【0032】まず、ステップS71で、優先順位n=
1、注目画素のラインr=1に設定する。次に、ステッ
プS72に移り、EPj(x,r)を注目画素とし、m
=k1〜k1+k2,x=1〜nxの範囲内で、
First, in step S71, the priority order n =
1, the line of the target pixel is set to r = 1. Next, the process proceeds to step S72, where EPj (x, r) is set as a target pixel, and m
= K1 to k1 + k2, and x = 1 to nx,

【数1】 を満足するmをすべて求め、検出された全ての直線数を
Lとして記憶する。ただし、mは実数値もとり得るの
で、x+m×(iー1)の値は四捨五入して対応するx
座標を決定する。TH2は対応点を見つけるための閾値
であり、ここでは1200に設定している。この120
0の意味合いであるが、4ラインのEPIなので差分を
3回計算することになり、それぞれの差分値が20以下
くらいであれば、ほほ同じ色であるという仮定のもとに
3×202=1200としている。もし理想的な入力系
で画像にスペキュラー成分が存在しない場合(各画像に
写っている点は同じ画素値を持つ)は、TH2=0で良
いが、実際の入力系では同じ点でも各画像で画素値がば
らついているため、幅を持たせて差分値を20としてい
る。従って、入力系が高精度になるほどこの差分値は小
さくなり、逆の場合は差分値を大きく設定する必要があ
る。
[Equation 1] All m satisfying the above are obtained, and all the detected straight line numbers are stored as L. However, since m can be a real number, the value of x + m × (i-1) is rounded to the corresponding x.
Determine the coordinates. TH2 is a threshold for finding a corresponding point, and is set to 1200 here. This 120
It means 0, but since it is an EPI of 4 lines, the difference is calculated 3 times, and if each difference value is about 20 or less, 3 × 20 2 = It is set to 1200. If there is no specular component in the image with an ideal input system (the points appearing in each image have the same pixel value), TH2 = 0 is acceptable, but in the actual input system, even at the same point in each image, Since the pixel values vary, the difference value is set to 20 by providing a width. Therefore, the higher the accuracy of the input system, the smaller the difference value, and in the opposite case, the difference value needs to be set larger.

【0033】上記の手法は、画素値がRGBの場合にそ
れぞれに対して行う場合だが、それだけでなく、YI
Q、あるいはHSIなどの様々な表色系に一度変換した
場合にも対応でき、それぞれに適した閾値を設定して用
いることも可能である。また、k1,k2はステップS
22で求めたパラメータd1,d2をそれぞれ用いる
(即ち、k1=d2,k2=d1)。また、EPj(x
+m×(i−1),i)が存在しない場合は、このmに
おける対応点は存在しないとして処理を続ける。ただ
し、ステップS72においてEPj(x+m×(i−
r),i)が処理済の場合は、EPj(x+m×(i−
r),i)−EPj(x,r)=0として処理を続け
る。
The above method is applied to each of the case where the pixel value is RGB, but not only that, but the YI
It is possible to deal with the case of once converting into various color systems such as Q or HSI, and it is also possible to set and use a threshold value suitable for each. Also, k1 and k2 are step S
The parameters d1 and d2 obtained in step 22 are used (that is, k1 = d2 and k2 = d1). Also, EPj (x
If + m × (i−1), i) does not exist, the corresponding point in m is not present and the process is continued. However, in step S72, EPj (x + m × (i−
When r) and i) have been processed, EPj (x + m * (i-
r), i) -EPj (x, r) = 0 and the processing is continued.

【0034】次にステップS73に移り、ステップS7
2により求まった傾きmの直線から優先順位nの対応点
を求め、得点f(L)の値とともに(n,f(L))と
してメモリに記憶する。ここで、Lは検出された直線数
で、f()は直線数が多い場合には小さな値を、直線数
が少ない場合には大きな値を示す関数である。
Then, the process proceeds to step S73, and step S7
The corresponding point of the priority order n is obtained from the straight line of the gradient m obtained by 2, and is stored in the memory as (n, f (L)) together with the value of the score f (L). Here, L is the number of detected straight lines, and f () is a function showing a small value when the number of straight lines is large and a large value when the number of straight lines is small.

【0035】注目画素に対して複数の対応点が求まる場
合は、便宜上全てを優先順位nの対応点として記憶す
る。対応点として求まった画素は処理済の画素とする。
ここで、傾きmの直線より求まった対応点がすでに処理
済みで、かつその対応点について記憶されている(n,
f(L’))の得点f(L’)の値が、注目画素に関す
る得点よりも大きい場合には、この点を対応点から除外
する。すなわち、ある点に関してその対応点の数の多寡
が得点として示されるが、この得点は注目点に関する対
応関係の確からしさを示す尺度でもある。2点を対応付
けようとしたときこの尺度を用いて対応の確からしさを
判定し、ある画素が他の画素から対応関係にあるとされ
た場合、その画素が既により確からしい対応関係を有し
ているならば、新たな対応付けは行わない。こうして不
確かな対応付けを減らし、より確からしい対応づけを行
うことができる。さらに、ステップS73では、wに未
処理の画素数をセットする。
When a plurality of corresponding points are obtained for the pixel of interest, all of them are stored as corresponding points of priority n for convenience. Pixels found as corresponding points are processed pixels.
Here, the corresponding point obtained from the straight line of the slope m has already been processed, and the corresponding point is stored (n,
When the value of the score f (L ′) of f (L ′) is larger than the score of the pixel of interest, this point is excluded from the corresponding points. That is, for a certain point, the number of corresponding points is shown as a score, and this score is also a measure showing the certainty of the correspondence relationship regarding the target point. When two points are attempted to be associated with each other, the certainty of correspondence is determined using this scale, and when a pixel is determined to have a correspondence relationship with another pixel, that pixel already has a more probable correspondence relationship. If so, no new correspondence is made. In this way, uncertain correspondence can be reduced, and more reliable correspondence can be performed. Further, in step S73, the number of unprocessed pixels is set to w.

【0036】図17は、ステップS73をより詳細に示
すフローチャートの一例である。
FIG. 17 is an example of a flowchart showing step S73 in more detail.

【0037】まず、ステップS72で求めた直線を基に
得点f(L)を算出する(S171)。次に、直線を基
にして対応点を1つ求める(S172)。もし対応点が
なければ未処理の画素数をwにセットしてステップS7
3の処理を終了する(S179)。対応点が見つかった
ならば、その点が処理済みか判定し(S174)、処理
済みでなければ対応点として記憶する(S178)。処
理済みであれば、その対応点の得点f(L’)と注目点
の得点f(L)とを比較し(S175)、f(L’)>
f(L)であれば、すなわち、対応点に関して既になさ
れている対応付けの方がより確かなものであれば、その
対応点に関しては更なる対応付けをおこなわず、対応点
から除外する(S177)。f(L’)<f(L)であ
れば、対応点と注目点との対応のほうが、対応点に関し
て既に与えられている対応よりも確からしいので、対応
点として登録する(S178)。以上を対応点を求めつ
つ繰り返す。こうしてステップS73の処理を終える。
First, the score f (L) is calculated based on the straight line obtained in step S72 (S171). Next, one corresponding point is obtained based on the straight line (S172). If there is no corresponding point, the number of unprocessed pixels is set to w and step S7
The process of 3 is terminated (S179). If a corresponding point is found, it is determined whether the point has been processed (S174), and if not processed, it is stored as a corresponding point (S178). If processed, the score f (L ') of the corresponding point and the score f (L) of the target point are compared (S175), and f (L')>
If it is f (L), that is, if the correspondence that has already been made for the corresponding points is more certain, then the corresponding points are excluded from the corresponding points without further matching (S177). ). If f (L ') <f (L), the correspondence between the corresponding point and the target point is more likely than the correspondence already given for the corresponding point, and is registered as the corresponding point (S178). The above is repeated while finding the corresponding points. In this way, the process of step S73 ends.

【0038】次に、ステップS74に移り、未処理の画
素数wが0か否かを判定し、0なら第jエピポーラプレ
ーンでの処理を終了し、0でなければステップS75に
移り、注目ラインrが最終ラインかどうかを判定する。
最終ラインならばステップS77においてr=1(先頭
ライン)に設定し、そうでなければステップS76で注
目ラインrの値を1増やす。図6中のNはEPIの構成
ライン数(ここでは、N=4)を示している。
Next, in step S74, it is determined whether or not the number of unprocessed pixels w is 0. If it is 0, the process in the j-th epipolar plane is ended, and if it is not 0, the process proceeds to step S75 and the line of interest is selected. Determine if r is the last line.
If it is the last line, r = 1 (leading line) is set in step S77, and if not, the value of the target line r is incremented by 1 in step S76. N in FIG. 6 indicates the number of EPI constituent lines (here, N = 4).

【0039】次に、ステップS78に移り、優先順位を
示すnがPに等しいか否かを判定する。Pは物体同士が
隠蔽しあう現象(オクルージョン)の複雑さを表すもの
である。すなわち、Pが大きな値であれば物体が幾重に
も重なっている状態であり、Pが小さければ物体の重な
りは少ない。Pの値の設定は、どの程度のオクルージョ
ンまで再現するかにより決まってくる。ここでは、経験
的な値として、P=(Nー1)×10=30に設定して
いる。ステップS78においてn≠PならばステップS
80に移り、優先順位nに1加え、Wをwの値にセット
し、ステップS72に戻る。n=PならばステップS7
9に移り、未処理の画素数が前回の処理時よりも減少し
たか否かを判定し、減少したならば、ステップS80に
移り、そうでなければ第jEPIでの直線検出処理、即
ち図4ステップS34を終了し、ステップS36に戻
り、次のEPIの処理に移る。ステップS36におい
て、入力画像のすべてのラスタについて処理が行われた
かが判定され、まだならば、jの値を1増やしてステッ
プS32に戻り、すべてのラスタについて処理が終了し
たならば、すなわち、図2のステップS23が終了した
ならばステップS24に移る。
Next, in step S78, it is determined whether or not n indicating the priority is equal to P. P represents the complexity of a phenomenon (occlusion) in which objects conceal each other. That is, when P is a large value, the objects are overlapped many times, and when P is small, the objects are less overlapped. The setting of the value of P depends on how much occlusion is reproduced. Here, P = (N-1) × 10 = 30 is set as an empirical value. If n ≠ P in step S78, step S
Moving to 80, 1 is added to the priority order n, W is set to the value of w, and the process returns to step S72. If n = P, step S7
9, it is determined whether or not the number of unprocessed pixels is smaller than that in the previous processing, and if it is decreased, the processing proceeds to step S80, and if not, the straight line detection processing in the jEPI, that is, FIG. The step S34 is ended, the process returns to the step S36, and the process for the next EPI is started. In step S36, it is determined whether or not all rasters of the input image have been processed. If not, the value of j is incremented by 1 and the process returns to step S32. If the processing is completed for all rasters, that is, in FIG. When step S23 of is completed, the process proceeds to step S24.

【0040】上記のように処理を行うことにより、2枚
の画像からでは求まらなかった対応点が検出でき、ま
た、オクルージョン等にも対応できるので、対応点探索
の精度が向上する。また、ある注目画素から検出される
直線数を、その注目画素の対応点としての確からしさを
得点として表現し、その得点の大小を比較しながらより
確からしい対応点を求めるため、一様な色の物体の前に
ある小さな物体の前後関係が逆転することなく対応点探
索が可能となる。
By performing the processing as described above, it is possible to detect the corresponding points which cannot be found from the two images and to deal with occlusion and the like, so that the accuracy of the corresponding point search is improved. In addition, the number of straight lines detected from a certain pixel of interest is expressed as a point of certainty as the corresponding point of the pixel of interest, and the size of the point is compared to obtain a more probable corresponding point. The corresponding points can be searched without reversing the context of the small object in front of the object.

【0041】<画像補間処理>次にステップS24に移
り、画像の補間処理を行う。画像の補間処理はステップ
S23より求まった対応点を用いて行う。具体的なアル
ゴリズムを図7を例にして説明する。
<Image Interpolation Processing> Next, in step S24, image interpolation processing is performed. The image interpolation processing is performed using the corresponding points obtained in step S23. A specific algorithm will be described with reference to FIG.

【0042】図7は、j番目のEPIを表している。a
1は優先順位1、得点f(L)=1の対応点を示し、b
1は優先順位1、得点20の対応点を示し、c2は優先
順位2、得点20の対応点を示している。入力画像間に
等間隔にn枚の画像を補間する場合を考える。ここでは
説明を簡単にするため、内挿ライン数n=2とする。こ
のことをj番目のEPIで考えた場合、図9に示すよう
にEPIのライン間に2本ずつラインを内挿し、原画の
対応点同士を結んだ直線上にある内挿されたラインの画
素値は直線上の対応点の平均値を設定すればよい。以下
図8のフローチャートを用いて説明する。図8は、ステ
ップS24の詳細を示すフローチャートである。
FIG. 7 shows the jth EPI. a
1 indicates a corresponding point of priority 1 and score f (L) = 1, b
1 represents the corresponding points of priority 1 and score 20, and c2 represents the corresponding points of priority 2 and score 20. Consider a case where n images are interpolated at equal intervals between input images. Here, the number of interpolation lines is set to n = 2 to simplify the description. When this is considered for the j-th EPI, as shown in FIG. 9, two lines are interpolated between the lines of the EPI and the pixels of the interpolated line on the straight line connecting the corresponding points of the original image are inserted. The value may be set to the average value of corresponding points on the straight line. This will be described below with reference to the flowchart of FIG. FIG. 8 is a flowchart showing details of step S24.

【0043】まず、ステップS81において画像補間処
理のための初期設定を行う。j=1にセットし、注目E
PIを第jEPIにセットする。また、優先順位nをn
=Pにセットする。ここで、PはステップS78で用い
たP(P=30)と同じものである。
First, in step S81, initial setting for image interpolation processing is performed. Set j = 1 and pay attention E
Set PI to jth EPI. In addition, the priority order n
= P. Here, P is the same as P (P = 30) used in step S78.

【0044】次にステップS82に移り、第jEPI上
の優先順位nの対応点を結んだ直線を考え、この直線上
にある内挿ラインの画素値を直線上にある原画像の画素
値の平均値にセットする。ただし、内挿されたラインに
おいて、既に対応点として値が代入されていた場合にお
いても、別の対応点の方の得点が高い場合はその内挿ラ
インの画素値を上書きでき、得点が低い場合は上書きが
できないものとする。図9の対応点a1及びb1を例に
とれば、対応点同士を結んだ直線上の点a及びbの画素
値はそれぞれ、a1,b1で示される画素値の平均値を
代入する。しかし、座標(11,3)ではa1,b1の
どちらの対応点でもあるが得点の高いb1の対応点とし
てその直線上の画素値の平均値bが代入されている。
Next, in step S82, a straight line connecting the corresponding points of the priority n on the j-th EPI is considered, and the pixel values of the interpolation line on this straight line are averaged of the pixel values of the original image on the straight line. Set to the value. However, even if a value has already been assigned as a corresponding point in the interpolated line, if the score of another corresponding point is high, the pixel value of that interpolation line can be overwritten, and if the score is low. Cannot be overwritten. Taking the corresponding points a1 and b1 in FIG. 9 as an example, the pixel values of the points a and b on the straight line connecting the corresponding points substitute the average values of the pixel values indicated by a1 and b1. However, at the coordinate (11, 3), the average value b of the pixel values on the straight line is substituted as the corresponding point of b1 which is a corresponding point of both a1 and b1 but has a high score.

【0045】この処理を終えたらステップS83に移
り、注目EPI上の優先順位nの全ての対応点に対しス
テップS82の処理が終了したか否かの判定を行い、終
了していなければステップS82に戻り、終了したなら
ば、ステップS84に移り、現在処理している優先順位
が1かどうかの判定を行う。
When this processing is completed, the routine proceeds to step S83, where it is judged whether or not the processing of step S82 has been completed for all the corresponding points of the priority order n on the noted EPI, and if not, it proceeds to step S82. When the process returns and ends, the process proceeds to step S84, and it is determined whether or not the priority order currently processed is 1.

【0046】ステップS84における判定の結果、優先
順位が1でなければ、ステップS85にて優先順位を1
減じて(n=n−1)ステップS82に移り、1ならば
ステップS86にて注目EPIが最終のEPIかどうか
の判定を行う。ここで、nyは入力画像の総ラスタ数で
ある。注目ラスタが最終のEPIでなければ、注目EP
Iを次のEPIにセット(j=j+1)し、ステップS
85に戻る。最終EPIならば画像補間処理を終了しス
テップS25に戻る。
If the result of determination in step S84 is that the priority is not 1, the priority is set to 1 in step S85.
Then, (n = n-1), the process proceeds to step S82, and if 1 is determined in step S86, it is determined whether the focused EPI is the final EPI. Here, ny is the total number of rasters of the input image. If the raster of interest is not the final EPI, the EP of interest
I is set to the next EPI (j = j + 1), and step S
Return to 85. If it is the final EPI, the image interpolation processing is terminated and the process returns to step S25.

【0047】図9に示すように上記処理により内挿され
たラインをj2,j3,j5,j6,j8,j9と表す
と、例えば補間画像2は、内挿ラインj2(j=1〜n
y)を並べることによって構成できる(図10参照)。
補間画像3,5,6,9に関しても同様である。
As shown in FIG. 9, if the lines interpolated by the above process are represented as j2, j3, j5, j6, j8, j9, for example, the interpolated image 2 will have an interpolated line j2 (j = 1 to n).
It can be configured by arranging y) (see FIG. 10).
The same applies to the interpolated images 3, 5, 6, and 9.

【0048】上記のように、優先順位の低い(nの値が
大きい)対応点から順に処理を行い、優先順位の高い対
応点、あるいは優先順位が同じでも得点の高い対応点に
よって上書きすることで図9に示すようにオクルージョ
ンを考慮した補間処理を行うことができる。ただし、
a,b,cはそれぞれ対応点a1,b1,c1により内
挿された画素値を表している。
As described above, the processing is performed in order from the corresponding point having the lowest priority (the value of n is large), and the corresponding points having a high priority or the points having the same priority but having a high score are overwritten. As shown in FIG. 9, it is possible to perform interpolation processing in consideration of occlusion. However,
Symbols a, b and c represent pixel values interpolated by the corresponding points a1, b1 and c1, respectively.

【0049】以上述べた構成及び方法を用いて多数枚の
入力画像から補間画像を生成することにより、2枚の画
像からでは求めることができなかった対応点を検出する
ことができるので、補間の精度が向上する。対応点探索
の際においても、撮影パラメータを用いて探索パラメー
タを自動的に決定できるため、探索処理の高速化が可能
となっている。また、多数枚の画像から対応点を求める
ので前述のようにオクルージョンの問題が解決でき、ま
た、検出した直線数を利用した補間方法によって、撮影
した物体の前後配置が逆転する問題も解決できる。
By generating an interpolated image from a large number of input images using the configuration and method described above, it is possible to detect corresponding points that could not be obtained from the two images. Accuracy is improved. Even in the case of searching for corresponding points, the search parameter can be automatically determined using the shooting parameter, so that the search process can be speeded up. Further, since the corresponding points are obtained from a large number of images, the problem of occlusion can be solved as described above, and the problem that the front and rear arrangement of the imaged object is reversed can be solved by the interpolation method using the detected number of straight lines.

【0050】また、以上は上下方向の視差を省略した場
合について説明したが、平面上で格子状の粗い視点間隔
の撮影位置から撮影した多視点画像を保持し、混ぜ、左
右方向にこれらの多視点画像を視点間補間し、次に上下
方向に視点間補間することにより、上下方向の視差も考
慮した画像が生成される。
Further, although the case where the vertical parallax is omitted has been described above, multi-view images taken from shooting positions of coarse viewpoint intervals on a plane are held and mixed, and these multi-view images are horizontally mixed. The viewpoint image is interpolated between viewpoints, and then interpolated between viewpoints in the vertical direction to generate an image in which vertical parallax is taken into consideration.

【0051】次に、本実施例の画像処理装置における対
応点探索部において、さらに高速化を行う方法を示す。
Next, a method of further increasing the speed in the corresponding point searching section in the image processing apparatus of this embodiment will be described.

【0052】なお、本実施例の対応点探索部において、
直線探索をエピポーラプレーンイメージの第1ラインか
ら最終ラインに向かって探索するだけ行うのではなく、
最終ラインから第1ラインに向かって探索を行うことに
よっても実現できる。その際の探索パラメータである探
索範囲、探索刻み、直線の傾きは、それぞれのパラメー
タの符号を反転させれば、そのまま直線探索可能が可能
となる。このように、1つのEPIについてその上下か
ら対応点を探索することで、対応点探索処理をより高速
化することができる。
In the corresponding point searching unit of this embodiment,
Instead of just searching for a straight line from the first line to the last line of the epipolar plane image,
It can also be realized by conducting a search from the last line to the first line. The search range, the search step, and the slope of the straight line, which are the search parameters at that time, can be directly searched for the line by inverting the sign of each parameter. In this way, by searching for the corresponding points from above and below one EPI, the corresponding point search process can be sped up.

【0053】[0053]

【第2実施例】次に、利用者が頭の位置を前後に変えて
視点を上下前後左右に移動させた場合、観察者の視点位
置を検出し、観察者から見える画像を再構成することに
よって、観察者が視点を上下前後左右にスムーズに移動
した場合にも対応できる画像処理装置の例を示す。ただ
し、説明をわかりやすくするため、以下では上下方向の
視差を省略した場合について説明する。
[Second Embodiment] Next, when the user moves the viewpoint up, down, front, rear, left and right by changing the position of the head forward and backward, the viewpoint position of the observer is detected and the image seen by the observer is reconstructed. An example of an image processing apparatus that can handle a case where an observer smoothly moves the viewpoint up, down, front, back, left, and right will be described. However, in order to make the description easier to understand, a case where the vertical parallax is omitted will be described below.

【0054】図11は本発明の第2実施例である画像表
示装置の構成を示す図である。図11において、1は固
定して設置される画像表示用の表示スクリーン、2は表
示スクリーン1を眺める利用者の目の位置を検出する視
点検出器、3は平面上に並んだ粗い視点間隔から表示す
る対象物を撮影した多視点画像を保持している多視点画
像データベースである。
FIG. 11 is a diagram showing the configuration of an image display device according to the second embodiment of the present invention. In FIG. 11, 1 is a fixed display screen for image display, 2 is a viewpoint detector for detecting the position of the eyes of the user who views the display screen 1, and 3 is a coarse viewpoint interval arranged on a plane. It is a multi-view image database that holds multi-view images of an object to be displayed.

【0055】4は表示スクリーン1に関するパラメータ
を保持する表示パラメータ保持部、5は多視点画像デー
タベース4の多視点画像を撮影した際の視点並びの平面
を表す座標系を保持している撮影視点座標系保持部、6
は多視点画像データベース4の視点間補間された画像も
含む多視点画像の多視点画像の画像パラメータを保持し
ている多視点画像パラメータ保持部である。
Reference numeral 4 is a display parameter holding unit for holding parameters relating to the display screen 1, and 5 is a photographing viewpoint coordinate which holds a coordinate system representing a plane of the viewpoint arrangement when photographing the multi-view images of the multi-view image database 4. System holding part, 6
Is a multi-view image parameter holding unit that holds the image parameters of the multi-view images of the multi-view images including the images interpolated between viewpoints of the multi-view image database 4.

【0056】7は視点検出器1からの信号をもとに視点
パラメータを算出する視点パラメータ算出部、8は視点
の移動に対応した画像を生成する画像生成部、9は注目
する画素を示す画素インデクス信号、10は視点パラメ
ータと表示パラメータから、画素インデクス信号9の示
す画素に対応する視線方向を算出する視線パラメータ算
出部、11は視線パラメータの表す視線と、撮影視点座
標系が表す撮影視点並びの平面との交点(仮想視点)を
算出する仮想視点パラメータ算出部、12は視線パラメ
ータ、撮影視点座標系、仮想視点パラメータおよび多視
点画像パラメータから、仮想視点における画像の視線方
向に対応する画素位置を算出する画素位置算出部、13
は画素位置と仮想視点パラメータをもとに、多視点画像
データベース3の視点間補間された画像も含む多視点画
像から、対応する画素値を算出する画素値算出する画素
値算出部、14は表示スクリーン1へ画像を表示する画
像表示部である。
Reference numeral 7 is a viewpoint parameter calculator for calculating viewpoint parameters based on the signal from the viewpoint detector 1, 8 is an image generator for generating an image corresponding to the movement of the viewpoint, and 9 is a pixel indicating a pixel of interest. The index signal, 10 is a line-of-sight parameter calculation unit that calculates the line-of-sight direction corresponding to the pixel indicated by the pixel index signal 9 from the viewpoint parameter and the display parameter, and 11 is the line-of-sight represented by the line-of-sight parameter and the line-of-sight viewpoint represented by the shooting-viewpoint coordinate system A virtual viewpoint parameter calculation unit that calculates an intersection (virtual viewpoint) with the plane of, and 12 is a pixel position corresponding to the viewpoint direction of the image in the virtual viewpoint from the viewpoint parameter, the photographing viewpoint coordinate system, the virtual viewpoint parameter, and the multi-viewpoint image parameter. A pixel position calculation unit for calculating
Is a pixel value calculation unit that calculates a pixel value that calculates a corresponding pixel value from a multi-view image that also includes images inter-view interpolated in the multi-view image database 3 based on the pixel position and the virtual viewpoint parameter. An image display unit that displays an image on the screen 1.

【0057】15は、視点パラメータが更新されたこと
を示す更新信号、16は画素値を表す画素値信号であ
る。17は第1実施例で用いられた粗い視点間隔から撮
影された多視点画像から十分細かい視点間間隔の多視点
画像を生成する視点間補間処理部、18をまとめて画素
値生成部と呼ぶ。
Reference numeral 15 is an update signal indicating that the viewpoint parameter has been updated, and 16 is a pixel value signal indicating a pixel value. Reference numeral 17 denotes an inter-viewpoint interpolation processing unit that generates a multi-viewpoint image having a sufficiently fine inter-viewpoint interval from a multi-viewpoint image captured from a coarse viewpoint interval used in the first embodiment, and 18 is collectively referred to as a pixel value generation unit.

【0058】次に、図11の構成による画像表示装置の
作用の概略を述べる。表示スクリーン1を眺める利用者
が頭の位置を変えて視点を移動させると、視点検出器2
の信号が変化し、視点パラメータ算出部7は、この変化
を受けて更新信号15を画像生成部8へ送る。画像生成
部8は更新信号15を受けると、視点移動に対応した新
たな画像の生成を開始する。画像生成部8はすべての画
素について画素インデクス信号9に対応した画素値信号
16を画素値生成部17より得る。画素値生成部17で
は、表示パラメータ保持部4から表示パラメータをそれ
ぞれ取得し、画素インデクス信号9に対応する視線パラ
メータを算出する。次に仮想視点パラメータ算出部11
は、撮影視点座標系保持部5から撮影視点座標系を取得
し、視線パラメータの表す視線と、撮影視点座標系が表
す撮影視点の並びの平面との交点(仮想視点)を表す仮
想視点パラメータを算出する。
Next, the outline of the operation of the image display device having the configuration of FIG. 11 will be described. When the user looking at the display screen 1 changes the position of his head to move the viewpoint, the viewpoint detector 2
Changes, the viewpoint parameter calculation unit 7 sends the update signal 15 to the image generation unit 8 in response to this change. Upon receiving the update signal 15, the image generator 8 starts generating a new image corresponding to the movement of the viewpoint. The image generation unit 8 obtains the pixel value signal 16 corresponding to the pixel index signal 9 from all the pixels from the pixel value generation unit 17. The pixel value generation unit 17 acquires each display parameter from the display parameter storage unit 4 and calculates the line-of-sight parameter corresponding to the pixel index signal 9. Next, the virtual viewpoint parameter calculation unit 11
Acquires a shooting viewpoint coordinate system from the shooting viewpoint coordinate system holding unit 5 and sets a virtual viewpoint parameter representing an intersection (virtual viewpoint) between the line of sight represented by the line-of-sight parameter and the plane of the array of shooting viewpoints represented by the shooting viewpoint coordinate system. calculate.

【0059】一方、画素位置算出部12は、多視点画像
パラメータ保持部6から多視点画像パラメータを取得
し、その他、視線パラメータ、撮影視点座標系、仮想視
点パラメータから仮想視点位置における画像の視線方向
に対応する画素位置を算出する。画素値算出部13は画
素位置と仮想視点パラメータをもとに、多視点画像デー
タベース3およびそれらより視点間補間処理部17で生
成された視点間補間画像から、対応する画素値信号16
を算出する。画像生成部8はすべての画素について、画
素値信号16を画素値算出部13から得ると、これを画
像表示部14へ送る。画像表示部14はこうして生成さ
れた新しい視点に対応した画像を表示スクリーン1へ表
示する。
On the other hand, the pixel position calculation unit 12 obtains the multi-viewpoint image parameter from the multi-viewpoint image parameter holding unit 6, and in addition, the line-of-sight direction of the image at the virtual viewpoint position from the line-of-sight parameter, the photographing viewpoint coordinate system, and the virtual viewpoint parameter. The pixel position corresponding to is calculated. The pixel value calculation unit 13 uses the pixel position and the virtual viewpoint parameter to generate a corresponding pixel value signal 16 from the multi-viewpoint image database 3 and the inter-viewpoint interpolation image generated by the inter-viewpoint interpolation processing unit 17 from them.
To calculate. When the pixel value signal 16 is obtained from the pixel value calculation unit 13 for all the pixels, the image generation unit 8 sends it to the image display unit 14. The image display unit 14 displays the image thus generated on the display screen 1 corresponding to the new viewpoint.

【0060】結果として、利用者は多視点画像データベ
ース3に保持されている画像を撮影した視点位置以外
の、前後上下左右に視点を移動してもその視点移動に合
わせた対象物の画像を表示スクリーン1を通して眺める
ことができる。
As a result, the user displays the image of the object according to the movement of the viewpoint even if the viewpoint is moved forward, backward, upward, downward, leftward or rightward other than the viewpoint position at which the image stored in the multi-viewpoint image database 3 is photographed. It can be viewed through screen 1.

【0061】次に、各部の処理を詳しく説明する。Next, the processing of each unit will be described in detail.

【0062】まず、図12,図13を用いて、視線パラ
メータ算出部10の処理を説明する。
First, the processing of the line-of-sight parameter calculating section 10 will be described with reference to FIGS.

【0063】図12は視線パラメータ算出部10の算出
原理を示す図である。1は表示スクリーン、21は表示
スクリーン1の端点(位置ベクトルXsで示す)、22
は長さが表示スクリーン1のピクセルピッチで、傾きが
表示スクリーン1の傾きに一致するベクトル(表示スク
リーンベクトルpで示す)、23は表示スクリーン1上
の注目する画素位置(位置ベクトルXpで示す)、24
は利用者の視点位置(位置ベクトルXvで示す)、25
は注目する画素位置23に対応する視線、26は視線2
5の傾きを表す視線ベクトル(ベクトルaで示す)であ
る。
FIG. 12 is a diagram showing the calculation principle of the line-of-sight parameter calculation unit 10. 1 is a display screen, 21 is an end point of the display screen 1 (indicated by a position vector Xs), 22
Is the vector whose length is the pixel pitch of the display screen 1 and whose inclination matches the inclination of the display screen 1 (shown by the display screen vector p), and 23 is the pixel position of interest on the display screen 1 (shown by the position vector Xp). , 24
Is the user's viewpoint position (indicated by position vector Xv), 25
Is the line of sight corresponding to the pixel position 23 of interest, and 26 is the line of sight 2
It is a line-of-sight vector (indicated by a vector a) indicating the inclination of 5.

【0064】図13は視線パラメータ算出部10の処理
を示すフローチャートである。まず、S31で視点パラ
メータ算出部7から視点パラメータを取得する。ここ
で、視点パラメータは図12の利用者の視点位置24で
ある。次にS32で表示パラメータ保持部4から表示パ
ラメータを取得する。ここで表示パラメータとは、表示
スクリーン1の端点21(ベクトルXs)、表示スクリ
ーンベクトル22(ベクトルp)である。表示スクリー
ンベクトル22は、表示スクリーンの傾き、実サイズお
よびピクセルサイズから決定される。次にS33で、図
12に示す幾何学に従い、画素インデクス信号9に対応
する表示スクリーン1上の注目する画素位置23を以下
の(1)式で算出する。ただし、画素インデクス信号9
をiとする。
FIG. 13 is a flow chart showing the processing of the line-of-sight parameter calculation unit 10. First, in S31, the viewpoint parameter is acquired from the viewpoint parameter calculation unit 7. Here, the viewpoint parameter is the viewpoint position 24 of the user in FIG. Next, in S32, the display parameter is acquired from the display parameter holding unit 4. Here, the display parameters are the end point 21 (vector Xs) of the display screen 1 and the display screen vector 22 (vector p). The display screen vector 22 is determined from the tilt of the display screen, the actual size and the pixel size. Next, in S33, the pixel position 23 of interest on the display screen 1 corresponding to the pixel index signal 9 is calculated according to the geometry shown in FIG. However, the pixel index signal 9
Be i.

【0065】Xp=Xs+i・p … (1) 次にS34で、視点位置24から眺めた場合の画素位置
23の方向に対応する視線パラメータを求める。視線パ
ラメータは、視点位置24および視線ベクトル26の組
み(Xv,a)とする。視線25は図12に示す幾何学
に従い、画素位置23(ベクトルXp)および視点位置
24(ベクトルXv)の2点を通る直線であり、視線ベ
クトル26(ベクトルa)は以下の(2)式で算出す
る。
Xp = Xs + i · p (1) Next, in S34, the line-of-sight parameter corresponding to the direction of the pixel position 23 when viewed from the viewpoint position 24 is obtained. The line-of-sight parameter is a set (Xv, a) of the viewpoint position 24 and the line-of-sight vector 26. The line-of-sight 25 is a straight line passing through the two points of the pixel position 23 (vector Xp) and the viewpoint position 24 (vector Xv) according to the geometry shown in FIG. 12, and the line-of-sight vector 26 (vector a) is expressed by the following equation (2). calculate.

【0066】a=Xp−Xv … (2) 視線パラメータ算出部10は、このようにして視線パラ
メータを算出する。
A = Xp-Xv (2) The line-of-sight parameter calculating unit 10 calculates the line-of-sight parameter in this way.

【0067】次に、図14を用いて仮想視点パラメータ
算出部11および画素位置算出部12の処理を説明す
る。
Next, the processing of the virtual viewpoint parameter calculator 11 and the pixel position calculator 12 will be described with reference to FIG.

【0068】図14は仮想視点パラメータ算出部11お
よび画素位置算出部12の算出原理を示す図である。2
5は視線、41は多視点画像データベース3の多視点画
像を撮影した際の視点の並びの平面である視点並び直
線、42は視線25と、視点並び直線41との交点(仮
想視点,位置ベクトルXで示す)、43は視点並び直線
41の傾きを表すベクトル(視点並びベクトルTで示
す)、44は視点並び直線の端点(位置ベクトルXlで
示す)である。45は仮想視点42における画角θの視
野、46は、長さが、多視点画像を撮影したカメラの焦
点距離、傾きが、カメラの傾きであるようなベクトル
(焦点ベクトルfで示す)、47は仮想視点42におけ
る仮想的な撮像面、48は仮想的な撮像面47と視線2
5との交点である画素位置(位置ベクトルXp’で示
す)、49は長さが仮想的な撮像面47のピクセルピッ
チで、傾きが仮想的な撮像面47の傾き(通常は焦点ベ
クトル46に直角)に一致するベクトル(撮像面ベクト
ルp’で示す)である。
FIG. 14 is a diagram showing the calculation principle of the virtual viewpoint parameter calculation unit 11 and the pixel position calculation unit 12. Two
5 is a line of sight, 41 is a line of sight lines which is a plane of the line of sight when a multi-viewpoint image of the multi-viewpoint image database 3 is photographed, 42 is an intersection of the line of sight 25 and the line of sight 41 (virtual viewpoint, position vector). X is shown), 43 is a vector representing the inclination of the line of sight line 41 (shown as the line of sight vector T), and 44 is an end point of the line of sight line (shown as the position vector X1). Reference numeral 45 is a field of view with an angle of view θ at the virtual viewpoint 42, 46 is a vector whose length is the focal length of the camera that captured the multi-viewpoint image, and whose inclination is the inclination of the camera (indicated by the focus vector f), 47 Is a virtual imaging plane at the virtual viewpoint 42, 48 is a virtual imaging plane 47 and the line of sight 2
5 is a pixel position (shown by a position vector Xp ′) which is an intersection with 5, and 49 is a pixel pitch of the imaginary imaging surface 47 having a length, and the inclination of the imaginary imaging surface 47 has an inclination (usually the focus vector 46 The vector (shown by the imaging plane vector p ′) that matches the (right angle).

【0069】ここで、視点並びベクトル43および視点
並び直線の端点44が撮影視点座標系を表す値として、
撮影視点座標系保持部5に保持されている。また、焦点
ベクトル46および撮像面ベクトル49は、多視点画像
パラメータとして多視点画像パラメータ保持部6に保持
されている。焦点ベクトル46は、多視点画像を撮影し
たカメラの焦点距離および傾きから決定される。撮像面
ベクトル49は、焦点ベクトル46に直交し、大きさが
撮像面のセルサイズ(1ピクセルの大きさ)に等しいベ
クトルである。
Here, the viewpoint arrangement vector 43 and the end point 44 of the viewpoint arrangement line are values representing the photographing viewpoint coordinate system.
It is held in the photographing viewpoint coordinate system holding unit 5. The focus vector 46 and the imaging plane vector 49 are held in the multi-viewpoint image parameter holding unit 6 as multi-viewpoint image parameters. The focus vector 46 is determined from the focal length and the tilt of the camera that captured the multi-viewpoint image. The imaging plane vector 49 is a vector that is orthogonal to the focus vector 46 and has a size equal to the cell size (1 pixel size) of the imaging plane.

【0070】次に、図14を用いて仮想視点パラメータ
算出部11の処理を説明する。図14の示す幾何学に従
うと、仮想視点42は以下の(3),(4)式で表され
る。
Next, the processing of the virtual viewpoint parameter calculation unit 11 will be described with reference to FIG. According to the geometry shown in FIG. 14, the virtual viewpoint 42 is expressed by the following equations (3) and (4).

【0071】X=Xl+t・T … (3) X=Xv+α・a … (4) ここで仮想視点を一意に表すパラメータとしてtを仮想
視点パラメータとする。αは視線方向の係数である。
(3),(4)式を解くことによりtを算出し、Xを算
出する。
X = Xl + t.multidot.T (3) X = Xv + .alpha..multidot.a (4) Here, t is a virtual viewpoint parameter that uniquely represents the virtual viewpoint. α is a coefficient in the line-of-sight direction.
By calculating equations (3) and (4), t is calculated and X is calculated.

【0072】次に、図14を用いて画素位置算出部12
の処理を説明する。図14の示す幾何学に従い、画素位
置48は以下の(5),(6)式で表される。
Next, referring to FIG. 14, the pixel position calculation unit 12
The processing of will be described. According to the geometry shown in FIG. 14, the pixel position 48 is expressed by the following equations (5) and (6).

【0073】Xp’=X+f+i’・p’ … (5) Xp’=X+β・a … (6) ここで、画素位置48を一意に表すパラメータとして
i’を画素位置パラメータとする。βは視線方向の係数
である。(5),(6)式を解くことによりi’を算出
し、これを画素位置算出部12の出力とする。
Xp ′ = X + f + i ′ · p ′ (5) Xp ′ = X + β · a (6) Here, i ′ is a pixel position parameter that uniquely represents the pixel position 48. β is a coefficient in the viewing direction. I ′ is calculated by solving the equations (5) and (6), and this is used as the output of the pixel position calculation unit 12.

【0074】次に、画素値算出部13の処理について具
体的に説明する。
Next, the processing of the pixel value calculation unit 13 will be concretely described.

【0075】本実施例では、多視点画像データベース3
に保持されている多視点画像は、粗い視点間隔で撮影し
た画像であり、それを視点間補間処理部17で十分細か
い視点間補間画像が得られる。この補間処理は、第1実
施例で説明した要領で行われる。そこで、まず、仮想視
点パラメータ算出部11で算出された仮想視点パラメー
タtの示す仮想視点42からの画像の近似画像として、
仮想視点に一番近い視点から撮影された画像を、多視点
画像データベース3から得て、それを基にして視点間補
間処理部で補間画像を生成する。次に、この画像のう
ち、画素位置算出部12で算出された画素位置48に最
も近い位置の画素の値を取得し、これを出力の画素値信
号16とする。
In this embodiment, the multi-view image database 3
The multi-viewpoint image held in is an image captured at coarse viewpoint intervals, and the inter-viewpoint interpolation processing unit 17 can obtain a sufficiently fine inter-viewpoint interpolated image. This interpolation processing is performed as described in the first embodiment. Therefore, first, as an approximate image of the image from the virtual viewpoint 42 indicated by the virtual viewpoint parameter t calculated by the virtual viewpoint parameter calculation unit 11,
An image captured from a viewpoint closest to the virtual viewpoint is obtained from the multi-viewpoint image database 3 and an inter-viewpoint interpolation processing unit generates an interpolated image based on the image. Next, in this image, the value of the pixel at the position closest to the pixel position 48 calculated by the pixel position calculation unit 12 is acquired, and this is set as the output pixel value signal 16.

【0076】以上、説明をわかりやすくするため、上下
方向の視差を省略した場合についての各部の処理を説明
したが、上下方向の多視点画像を用意すれば同様の方法
で、上下方向の視差を考慮に入れた、前後上下左右に視
点移動可能な両眼立体表示装置となる。
For the sake of clarity, the processing of each part when the vertical parallax is omitted has been described above. However, if a vertical multi-viewpoint image is prepared, the vertical parallax can be calculated in the same manner. This is a binocular stereoscopic display device that can be moved in the front, rear, up, down, left, and right directions, taking into consideration.

【0077】以上述べた構成及び方法を用いて、多数枚
の入力画像から補間画像を生成することにより、2枚の
画像からでは求めることができなかった対応点を検出す
ることができるので、補間の精度が向上する。対応点探
索の際においても、撮影パラメータを用いて探索パラメ
ータを自動的に決定できるため、探索処理の高速化が可
能となっている。また、多数枚の画像から対応点を求め
るので前述のようにオクルージョンの問題が解決でき、
また、検出した直線数を利用した補間方法によって、撮
影した物体の前後配置が逆転する問題も解決できる。こ
のようにして得られた補間画像を、観察者の視点に応じ
て表示するために、本実施例の画像表示装置は、観察者
の視点の移動に伴ってスムーズで精度の高い画像の移動
が可能である。
By generating an interpolated image from a large number of input images using the configuration and method described above, it is possible to detect corresponding points that could not be obtained from two images. The accuracy of is improved. Even in the case of searching for corresponding points, the search parameter can be automatically determined using the shooting parameter, so that the search process can be speeded up. Also, since the corresponding points are obtained from a large number of images, the problem of occlusion can be solved as described above,
Further, the interpolation method using the detected number of straight lines can solve the problem that the front and rear arrangement of the photographed object is reversed. In order to display the interpolated image obtained in this way according to the viewpoint of the observer, the image display apparatus of the present embodiment is capable of smoothly and accurately moving the image as the viewpoint of the observer moves. It is possible.

【0078】なお、表示スクリーン1および画像表示部
8に、レンチキュラー方式やメガネ方式等の両眼立体視
が可能な立体表示スクリーン及び立体画像表示部を用
い、かつ、視点パラメータ算出部7が左右おのおのの目
の位置に対応する視点パラメータを算出し、これに対応
して画像生成部8が左右おのおのの目に提示するための
画像を生成することにより、前後上下左右に視点移動可
能な両眼立体表示装置となる。
The display screen 1 and the image display unit 8 are a stereoscopic display screen and a stereoscopic image display unit capable of binocular stereoscopic vision such as a lenticular system or a glasses system, and the viewpoint parameter calculation unit 7 is left and right. By calculating the viewpoint parameter corresponding to the position of the eyes of the eyes and correspondingly generating the image to be presented to each of the left and right eyes, the image generation unit 8 can move the viewpoints in the front, rear, up, down, left and right directions. It becomes a display device.

【0079】[0079]

【第3実施例】次に、第2実施例における表示スクリー
ン1が利用者の頭部に固定される形の、いわゆるヘッド
・マウンテッド・ディスプレイ(HMD)タイプの画像
表示装置の例を示す。
Third Embodiment Next, an example of a so-called head mounted display (HMD) type image display device in which the display screen 1 in the second embodiment is fixed to the user's head will be described.

【0080】本実施例の構成は、第2実施例の構成のう
ち、視線パラメータ算出部10の処理内容だけを以下に
説明する処理に置き換えた形となる。説明は、上下方向
の視差を省略した場合について述べる。
The configuration of this embodiment is the same as that of the second embodiment except that only the processing contents of the line-of-sight parameter calculation unit 10 are replaced with the processing described below. In the description, the case where the vertical parallax is omitted will be described.

【0081】図15は本実施例における視線パラメータ
算出部10の算出原理を示す図である。1は表示スクリ
ーン、22は、長さが表示スクリーン1のピクセルピッ
チで、傾きが表示スクリーン1の傾きに一致するベクト
ル(表示スクリーンベクトルp)、23は表示スクリー
ン1上の注目する画素位置(位置ベクトルXp)、24
は利用者の視点位置(位置ベクトルXv)、111は視
点位置24から表示スクリーン1の中央点へのベクトル
(正面ベクトルF)、25は注目する画素位置23に対
応する視線、26は視線25の傾きをあらわす視線ベク
トル(ベクトルa)である。
FIG. 15 is a diagram showing the calculation principle of the line-of-sight parameter calculation unit 10 in this embodiment. 1 is a display screen, 22 is a vector whose length is the pixel pitch of the display screen 1 and whose inclination matches the inclination of the display screen 1 (display screen vector p), and 23 is the pixel position (position) of interest on the display screen 1. Vector Xp), 24
Is the user's viewpoint position (position vector Xv), 111 is the vector from the viewpoint position 24 to the center point of the display screen 1 (front vector F), 25 is the line of sight corresponding to the pixel position 23 of interest, and 26 is the line of sight 25. It is a line-of-sight vector (vector a) that represents the inclination.

【0082】次に、図15を用いて、視線パラメータ算
出部10の処理を説明する。HMDタイプの表示装置で
は、視点検出器2は、利用者の視点24の位置に加え
て、正面方向の傾き、すなわち正面ベクトル111の傾
きを検出する。表示スクリーンベクトル22の傾きは正
面ベクトル111の傾きから決定される(通常は直
角)。一方、視点位置24から表示スクリーン1までの
距離、すなわち正面ベクトル111の長さ、および、ピ
クセルピッチすなわち表示スクリーンベクトル22の長
さは、HMDの形状によって決定される固定した値であ
り、この値は表示パラメータ保持部4に保持される。図
15の示す幾何学に従い、注目する画素位置23(ベク
トルXp)および視線ベクトル26(ベクトルa)を以
下の式で算出する。ただし、画素インデクス9をiとす
る。
Next, the processing of the line-of-sight parameter calculation unit 10 will be described with reference to FIG. In the HMD type display device, the viewpoint detector 2 detects the tilt in the front direction, that is, the tilt of the front vector 111, in addition to the position of the viewpoint 24 of the user. The tilt of the display screen vector 22 is determined from the tilt of the front vector 111 (usually a right angle). On the other hand, the distance from the viewpoint position 24 to the display screen 1, that is, the length of the front vector 111, and the pixel pitch, that is, the length of the display screen vector 22, are fixed values determined by the shape of the HMD. Are stored in the display parameter storage unit 4. According to the geometry shown in FIG. 15, the pixel position 23 (vector Xp) of interest and the line-of-sight vector 26 (vector a) are calculated by the following formulas. However, the pixel index 9 is i.

【0083】Xp=Xv+F+i・p a=Xp−Xv 以上のように、視点パラメータ算出部10により画素位
置および視線を算出し、それ以外の構成,処理を第1実
施例と同じ要領で行うことで、HMDタイプの表示装置
で多視点画像を任意の視点移動表示できる画像表示装置
となる。
Xp = Xv + F + i · pa = Xp-Xv As described above, the viewpoint parameter calculation unit 10 calculates the pixel position and the line of sight, and other configurations and processing are performed in the same manner as in the first embodiment. , An HMD type display device capable of moving and displaying a multi-viewpoint image at any viewpoint.

【0084】また、表示スクリーン1が頭部に固定され
ていなくても、固定して設置された表示スクリーン1と
利用者の視点位置24の相対的位置関係が固定であるよ
うなコックピットタイプの表示装置を用いても、本実施
例と同じ視線パラメータ算出部10の処理で、任意の視
点移動表示できる画像表示装置となる。このとき、視点
検出器2の代わりに、基準座標における視点位置24を
ハンドル等で操作する視点位置入力装置を用いる。
Further, even if the display screen 1 is not fixed to the head, a cockpit type display in which the relative positional relationship between the fixed display screen 1 and the user's viewpoint position 24 is fixed. Even if the apparatus is used, the same processing of the line-of-sight parameter calculation unit 10 as in the present embodiment provides an image display apparatus capable of arbitrary viewpoint movement display. At this time, instead of the viewpoint detector 2, a viewpoint position input device for operating the viewpoint position 24 in the reference coordinates with a handle or the like is used.

【0085】以上述べた構成及び方法を用いて、多数枚
の入力画像から補間画像を生成することにより、2枚の
画像からでは求めることができなかった対応点を検出す
ることができるので、補間の精度が向上する。対応点探
索の際においても、撮影パラメータを用いて探索パラメ
ータを自動的に決定できるため、探索処理の高速化が可
能となっている。また、多数枚の画像から対応点を求め
るので前述のようにオクルージョンの問題が解決でき、
また、検出した直線数を利用した補間方法によって、撮
影した物体の前後配置が逆転する問題も解決できる。こ
のようにして得られた補間画像を、観察者の視点に応じ
て表示するために、本実施例のHMDによれば、観察者
の視点の移動に伴ってスムーズで精度の高い画像の移動
が可能である。
By generating an interpolated image from a large number of input images by using the configuration and method described above, it is possible to detect corresponding points that could not be obtained from two images. The accuracy of is improved. Even in the case of searching for corresponding points, the search parameter can be automatically determined using the shooting parameter, so that the search process can be speeded up. Also, since the corresponding points are obtained from a large number of images, the problem of occlusion can be solved as described above,
Further, the interpolation method using the detected number of straight lines can solve the problem that the front and rear arrangement of the photographed object is reversed. In order to display the interpolated image obtained in this manner according to the viewpoint of the observer, according to the HMD of the present embodiment, smooth and highly accurate image movement is possible as the observer's viewpoint moves. It is possible.

【0086】以上の第1乃至第3実施例各々では、あら
かじめ撮影された多視点画像とそれから視点間補間を行
った画像も含んだ多視点画像データベース3に保持され
ている構成としたが、これを、多視点画像を実時間で取
り込むことのできる多眼テレビカメラに置き換えること
により、実時間の任意視点画像撮影・表示システムとな
る。
In each of the above-mentioned first to third embodiments, the multi-viewpoint image database 3 including pre-captured multi-viewpoint images and images interpolated between them is held. Is replaced with a multi-view television camera capable of capturing multi-viewpoint images in real time, thereby providing a real-time arbitrary-viewpoint image capturing / display system.

【0087】上記構成により、上記各実施例の装置は、
物体の前後関係が逆転してしまうような場合において
も、精度よく補間画像を生成することが可能となった。
また、対応点探索パラメータを自動的に決定することに
よって、補間処理の高速化が可能となった。また、補間
処理により求めた多数の画像あるいは十分細かく視点を
移動して撮影した多視点画像を用いて前後方向の視点移
動に対応した画像を再構成することにより、従来は対応
できなかった前後方向への視点移動が可能となった。
With the above structure, the apparatus of each of the above embodiments is
It is possible to generate an interpolated image with high accuracy even when the context of the object is reversed.
In addition, by automatically determining the corresponding point search parameter, the speed of the interpolation process can be increased. In addition, by reconstructing the image corresponding to the viewpoint movement in the front-back direction using a large number of images obtained by interpolation processing or a multi-viewpoint image captured by moving the viewpoint finely enough, It became possible to move the viewpoint to.

【0088】なお、本発明は単体の画像処理装置に適用
しても良いし、多視点テレビ、多視点テレビ電話端末や
多視点テレビ会議システムのようなシステム機器に適用
してもよいし、コンピュータや他の画像処理装置と組み
合わせた複合装置にも適用できる。
The present invention may be applied to a single image processing apparatus, a system equipment such as a multi-view television, a multi-view video telephone terminal, a multi-view video conference system, or a computer. Also, it can be applied to a composite device combined with another image processing device.

【0089】[0089]

【発明の効果】以上説明したように、本発明に係る画像
表示装置は、画像の内容にかかわらず正確に補間画像を
生成することができ、また、生成した補間画像を用いて
高精度の表示を実現することができる。
As described above, the image display device according to the present invention can accurately generate an interpolated image regardless of the content of the image, and also uses the generated interpolated image to display with high accuracy. Can be realized.

【0090】[0090]

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1実施例の画像表示装置のブロック
図である。
FIG. 1 is a block diagram of an image display device according to a first embodiment of the present invention.

【図2】第1実施例の画像補間処理の流れを示すフロー
チャートである。
FIG. 2 is a flowchart showing a flow of image interpolation processing of the first embodiment.

【図3】図2ステップS22の撮影パラメータから対応
点探索範囲の算出原理を示す図である。
FIG. 3 is a diagram showing a principle of calculating a corresponding point search range from the shooting parameter in step S22 of FIG. 2;

【図4】図2ステップS23の対応点探索処理の流れを
示すフローチャートである。
FIG. 4 is a flowchart showing a flow of corresponding point search processing in step S23 of FIG.

【図5】j番目のエピポーラプレーンイメージを示す図
である。
FIG. 5 is a diagram showing a j-th epipolar plane image.

【図6】図2ステップS24の直線検出の流れを示すフ
ローチャートである。
FIG. 6 is a flowchart showing the flow of straight line detection in step S24 of FIG.

【図7】補間処理を説明するための図である。FIG. 7 is a diagram for explaining interpolation processing.

【図8】補間処理の流れを示すフローチャートである。FIG. 8 is a flowchart showing a flow of interpolation processing.

【図9】補間処理を説明するための図である。FIG. 9 is a diagram for explaining interpolation processing.

【図10】補間処理を説明するための図である。FIG. 10 is a diagram for explaining interpolation processing.

【図11】第2実施例の画像表示装置のブロック図であ
る。
FIG. 11 is a block diagram of an image display device according to a second embodiment.

【図12】第2実施例の視線パラメータ算出部10の算
出原理を示す図である。
FIG. 12 is a diagram showing the calculation principle of the line-of-sight parameter calculation unit 10 of the second embodiment.

【図13】視線パラメータ算出部10の処理を示すフロ
ーチャートである。
FIG. 13 is a flowchart showing the processing of the line-of-sight parameter calculation unit 10.

【図14】仮想視点パラメータ算出部11および画素位
置算出部12の算出原理を示す図である。
FIG. 14 is a diagram showing calculation principles of a virtual viewpoint parameter calculation unit 11 and a pixel position calculation unit 12.

【図15】第3実施例における視線パラメータ算出部1
0の算出原理を示す図である。
FIG. 15 is a line-of-sight parameter calculation unit 1 according to the third embodiment.
It is a figure which shows the calculation principle of 0.

【図16】視点間補間の処理の流れを示す図である。FIG. 16 is a diagram illustrating a flow of inter-viewpoint interpolation processing.

【図17】第1実施例の対応点を検出する処理のフロー
チャートである。
FIG. 17 is a flowchart of a process for detecting corresponding points according to the first embodiment.

【符号の説明】[Explanation of symbols]

20,21,22,23 カメラ、 25 CPU、 26 RAM、 27 ROM、 29 ディスク、 30 VRAM、 32 ディスプレイである。 20, 21, 22, 23 camera, 25 CPU, 26 RAM, 27 ROM, 29 disk, 30 VRAM, 32 display.

Claims (28)

【特許請求の範囲】[Claims] 【請求項1】 複数位置の視点に対応する複数の画像を
入力する画像入力工程と、 前記画像入力工程により入力される複数の画像間で対応
する画素の候補を検出する候補検出工程と、 該対応画素の候補に対して、対応の確からしさをチェッ
クするチェック工程と、 前記候補検出工程により検出された対応する画素の候補
から、前記対応の確からしさに応じて、対応する画素を
検出する対応検出工程と、 該対応検出工程により検出された対応画素間の関係に基
づいて、前記画像入力工程により入力される画像の視点
とは異なる視点に対応する画像を生成する画像補間工程
と、を備えたことを特徴とする画像処理方法。
1. An image input step of inputting a plurality of images corresponding to viewpoints at a plurality of positions, and a candidate detection step of detecting corresponding pixel candidates between the plurality of images input by the image input step, A checking step of checking the likelihood of correspondence with respect to the candidate of the corresponding pixel, and a step of detecting a corresponding pixel from the candidate of the corresponding pixel detected by the candidate detecting step, according to the certainty of the correspondence. A detection step; and an image interpolation step of generating an image corresponding to a viewpoint different from the viewpoint of the image input by the image input step based on the relationship between the corresponding pixels detected by the correspondence detection step. An image processing method characterized by the above.
【請求項2】 前記画像入力工程は、複数台のカメラか
ら画像を入力することを特徴とする請求項1記載の画像
処理方法。
2. The image processing method according to claim 1, wherein the image input step inputs images from a plurality of cameras.
【請求項3】 前記画像入力工程は、画像データベース
から画像を入力することを特徴とする請求項1記載の画
像処理方法。
3. The image processing method according to claim 1, wherein the image input step inputs an image from an image database.
【請求項4】 前記候補検出工程は、入力画像間の対応
点をエピポーラプレーンイメージ上で直線検出すること
により検出することを特徴とする請求項1記載の画像処
理方法。
4. The image processing method according to claim 1, wherein the candidate detecting step detects the corresponding points between the input images by detecting straight lines on the epipolar plane image.
【請求項5】 前記候補検出工程は、エピポーラプレー
ン上で検出する直線の傾きを小数精度で求めることを特
徴とする請求項4記載の画像処理方法。
5. The image processing method according to claim 4, wherein the candidate detecting step obtains the inclination of a straight line detected on the epipolar plane with decimal precision.
【請求項6】 前記チェック工程は、各注目画素から検
出される直線数に応じて、直線数が多ければ低い得点
を、直線数が少なければ高い得点を各直線上の各画素に
対して付与し、前記対応検出工程は、対応画素候補のう
ち、高得点を有する画素を、低得点を有する画素の対応
画素から除外することを特徴とする請求項4記載の画像
処理方法。
6. The checking step assigns a low score to the pixels on each straight line if the number of straight lines is large and a high score to the pixels on each straight line according to the number of straight lines detected from each pixel of interest. 5. The image processing method according to claim 4, wherein the correspondence detection step excludes pixels having a high score from the corresponding pixels of pixels having a low score among the corresponding pixel candidates.
【請求項7】 前記候補検出工程は、直線検出の際に、
撮影時のパラメータを用いて検出パラメータを自動的に
決定することを特徴とする請求項4記載の画像処理方
法。
7. The candidate detecting step comprises:
The image processing method according to claim 4, wherein the detection parameter is automatically determined by using the parameter at the time of shooting.
【請求項8】 前記候補検出工程は、直線検出を逆方向
からも検索することを特徴とする請求項4記載の画像処
理方法。
8. The image processing method according to claim 4, wherein in the candidate detecting step, line detection is also performed in a reverse direction.
【請求項9】 前記画像補間工程は、画像の補間を、入
力画像の各エピポーラプレーンイメージ毎に行うことを
特徴とする請求項4記載の画像処理方法。
9. The image processing method according to claim 4, wherein the image interpolation step performs image interpolation for each epipolar plane image of the input image.
【請求項10】 前記対応検出工程は、より対応関係の
確かな対応画素を有する画素を、対応関係のより不確か
な対応点を有する画素の対応点から除外することを特徴
とする請求項1記載の画像処理方法。
10. The correspondence detection step excludes a pixel having a corresponding pixel having a more reliable correspondence from a corresponding point of a pixel having a more uncertain correspondence. Image processing method.
【請求項11】 前記画像補間工程は、前記候補検出手
段により各エピポーラプレーンイメージ上で検出された
直線上に画素を補って補間ラスタを生成し、該補間ラス
タを各エピポーラプレーンイメージごとに繋ぎ合わせて
補間画像を生成することを特徴とする請求項4記載の画
像処理方法。
11. The image interpolating step generates an interpolation raster by compensating pixels on a straight line detected on each epipolar plane image by the candidate detecting means, and connects the interpolation raster for each epipolar plane image. The image processing method according to claim 4, wherein the interpolated image is generated by the above method.
【請求項12】 複数位置の視点に対応する複数の画像
を入力する画像入力工程と、 前記画像入力工程により入力される複数の画像間で対応
する画素の候補を、エピポーラプレーンイメージ上で直
線検出することにより検出する候補検出工程と、 該対応画素の候補に対して、対応の確からしさを示す得
点を、前記検出手段により検出された直線が各画素を通
る数に応じて、各画素毎に付与する付与工程と、 前記候補検出工程により検出された対応する画素の候補
から、より対応関係の確かな対応画素を有する画素候補
を、対応関係のより不確かな対応画素を有する画素の対
応点から除外して、対応する画素を検出する対応検出工
程と、 該対応検出工程により検出された対応画素間を通るエピ
ポーラプレーンイメージ上の直線上で補間点を生成し、
該補間点をすべてのエピポーラプレーンイメージについ
て合成して、前記記画像入力工程により入力される画像
の視点とは異なる視点に対応する画像を生成する画像補
間工程と、 を備えたことを特徴とする画像処理方法。
12. An image input step of inputting a plurality of images corresponding to viewpoints at a plurality of positions, and a straight line detection on the epipolar plane image of pixel candidates corresponding to the plurality of images input by the image input step. A candidate detection step of detecting the corresponding pixel, and a score indicating the likelihood of correspondence with respect to the candidate of the corresponding pixel, for each pixel according to the number of straight lines detected by the detecting means passing through each pixel. From the corresponding pixel candidates that are detected by the applying step and the candidate detection step, a pixel candidate having a corresponding pixel having a more corresponding relationship is selected from corresponding points of pixels having a corresponding pixel having a more uncertain corresponding relationship. Exclude the corresponding detection step of detecting the corresponding pixel and generate the interpolation point on the straight line on the epipolar plane image passing between the corresponding pixels detected by the corresponding detection step. And,
An image interpolation step of synthesizing the interpolation points for all epipolar plane images to generate an image corresponding to a viewpoint different from the viewpoint of the image input in the image input step. Image processing method.
【請求項13】 観察者の目の位置を検出する視点検出
工程と、 検出された視点位置から見える画像を、前記画像入力工
程により入力された画像と、前記画像補間工程による生
成された補間画像とから再構成する画像再構成工程と、 該再構成された画像を出力する画像出力工程とを更に備
えることを特徴とする請求項1記載の画像処理方法。
13. A viewpoint detection step of detecting the position of the eyes of an observer, an image seen from the detected viewpoint position, an image input by the image input step, and an interpolation image generated by the image interpolation step. The image processing method according to claim 1, further comprising an image reconstructing step of reconstructing the reconstructed image and an image outputting step of outputting the reconstructed image.
【請求項14】 前記画像再構成工程は、観察者の視点
位置および画像出力装置の種類から画像の再構成に必要
なパラメータを計算し、そのパラメータを用いて再構成
画像の各画素が入力された多視点画像のどの画素に対応
するかを計算し、対応する画素を多視点画像から抽出し
て画像を再構成することを特徴とする前記請求項13記
載の画像処理方法。
14. The image reconstructing step calculates a parameter required for image reconstruction from the viewpoint position of the observer and the type of the image output device, and each pixel of the reconstructed image is input using the parameter. 14. The image processing method according to claim 13, wherein which pixel of the multi-view image corresponds to is calculated, and the corresponding pixel is extracted from the multi-view image to reconstruct the image.
【請求項15】 複数位置の視点に対応する複数の画像
を入力する画像入力手段と、 前記画像入力手段により入力される複数の画像間で対応
する画素の候補を検出する候補検出手段と、 該対応画素の候補に対して、対応の確からしさをチェッ
クするチェック手段と、 前記候補検出手段により検出された対応する画素の候補
から、前記対応の確からしさに応じて、対応する画素を
検出する対応検出手段と、 該対応検出手段により検出された対応画素間の関係に基
づいて、前記画像入力手段により入力される画像の視点
とは異なる視点に対応する画像を生成する画像補間手段
と、を備えたことを特徴とする画像処理装置。
15. Image input means for inputting a plurality of images corresponding to viewpoints at a plurality of positions, and candidate detection means for detecting a candidate of a corresponding pixel among the plurality of images input by the image input means, Checking means for checking the probability of correspondence with respect to the candidate of the corresponding pixel, and detecting the corresponding pixel from the candidate of the corresponding pixel detected by the candidate detecting means, according to the certainty of the correspondence. A detection means; and an image interpolation means for generating an image corresponding to a viewpoint different from the viewpoint of the image input by the image input means, based on the relationship between the corresponding pixels detected by the correspondence detection means. An image processing device characterized by the above.
【請求項16】 前記画像入力手段は、複数台のカメラ
を含み、該カメラから画像を入力することを特徴とする
請求項15記載の画像処理装置。
16. The image processing apparatus according to claim 15, wherein the image input unit includes a plurality of cameras and inputs images from the cameras.
【請求項17】 前記画像入力手段は、画像データベー
スを含み、該データベースから画像を入力することを特
徴とする請求項15記載の画像処理装置。
17. The image processing apparatus according to claim 15, wherein the image input unit includes an image database and inputs an image from the database.
【請求項18】 前記候補検出手段は、入力画像間の対
応点をエピポーラプレーンイメージ上で直線検出するこ
とにより検出することを特徴とする請求項15記載の画
像処理装置。
18. The image processing apparatus according to claim 15, wherein the candidate detecting unit detects the corresponding points between the input images by performing straight line detection on the epipolar plane image.
【請求項19】 前記候補検出手段は、エピポーラプレ
ーン上で検出する直線の傾きを小数精度で求めることを
特徴とする請求項18記載の画像処理装置。
19. The image processing apparatus according to claim 18, wherein the candidate detecting means obtains the inclination of a straight line detected on the epipolar plane with decimal precision.
【請求項20】 前記チェック手段は、各注目画素から
検出される直線数に応じて、直線数が多ければ低い得点
を、直線数が少なければ高い得点を各直線上の各画素に
対して付与し、前記対応検出手段は、対応画素候補のう
ち、高得点を有する画素を、低得点を有する画素の対応
画素から除外することを特徴とする請求項18記載の画
像処理装置。
20. According to the number of straight lines detected from each pixel of interest, the checking means gives a low score to each pixel on each straight line if the number of straight lines is large and a high score if the number of straight lines is small. 19. The image processing apparatus according to claim 18, wherein the correspondence detection unit excludes, from the corresponding pixel candidates, pixels having a high score from corresponding pixels of pixels having a low score.
【請求項21】 前記候補検出手段は、直線検出の際
に、撮影時のパラメータを用いて検出パラメータを自動
的に決定することを特徴とする請求項18記載の画像処
理装置。
21. The image processing apparatus according to claim 18, wherein the candidate detecting means automatically determines a detection parameter by using a parameter at the time of shooting when the straight line is detected.
【請求項22】 前記候補検出手段は、直線検出を逆方
向からも検索することを特徴とする請求項18記載の画
像処理装置。
22. The image processing apparatus according to claim 18, wherein the candidate detecting unit searches for a straight line in the reverse direction.
【請求項23】 前記画像補間手段は、画像の補間を、
入力画像の各エピポーラプレーンイメージ毎に行うこと
を特徴とする請求項18記載の画像処理装置。
23. The image interpolation means performs image interpolation,
The image processing apparatus according to claim 18, wherein the processing is performed for each epipolar plane image of the input image.
【請求項24】 前記対応検出手段は、より対応関係の
確かな対応画素を有する画素を、対応関係のより不確か
な対応点を有する画素の対応点から除外することを特徴
とする請求項15記載の画像処理装置。
24. The correspondence detection means excludes a pixel having a corresponding pixel having a more certain correspondence relationship from corresponding points of pixels having a corresponding point having a more uncertain correspondence relationship. Image processing device.
【請求項25】 前記画像補間手段は、前記候補検出手
段により各エピポーラプレーンイメージ上で検出された
直線上に画素を補って補間ラスタを生成し、該補間ラス
タを各エピポーラプレーンイメージごとに繋ぎ合わせて
補間画像を生成することを特徴とする請求項18記載の
画像処理装置。
25. The image interpolating means supplements pixels on a straight line detected on each epipolar plane image by the candidate detecting means to generate an interpolating raster, and connects the interpolating raster for each epipolar plane image. 19. The image processing apparatus according to claim 18, wherein the interpolated image is generated by the interpolation.
【請求項26】 複数位置の視点に対応する複数の画像
を入力する画像入力手段と、 前記画像入力手段により入力される複数の画像間で対応
する画素の候補を、エピポーラプレーンイメージ上で直
線検出することにより検出する候補検出手段と、 該対応画素の候補に対して、対応の確からしさを示す得
点を、前記検出手段により検出された直線が各画素を通
る数に応じて、各画素毎に付与する付与手段と、 前記候補検出手段により検出された対応する画素の候補
から、より対応関係の確かな対応画素を有する画素候補
を、対応関係のより不確かな対応画素を有する画素の対
応点から除外して、対応する画素を検出する対応検出手
段と、 該対応検出手段により検出された対応画素間を通るエピ
ポーラプレーンイメージ上の直線上で補間点を生成し、
該補間点をすべてのエピポーラプレーンイメージについ
て合成して、前記記画像入力手段により入力される画像
の視点とは異なる視点に対応する画像を生成する画像補
間手段と、を備えたことを特徴とする画像処理装置。
26. An image input unit for inputting a plurality of images corresponding to viewpoints at a plurality of positions, and a pixel candidate corresponding to the plurality of images input by the image input unit are detected by a straight line on the epipolar plane image. And a score indicating the certainty of correspondence with respect to the candidate of the corresponding pixel, for each pixel according to the number of straight lines detected by the detecting unit passing through each pixel. From the corresponding pixel candidates having a more reliable correspondence pixel from the corresponding pixel candidates detected by the granting means and the candidate detection means, from corresponding points of pixels having a more uncertain correspondence pixel in the correspondence relationship. Exclude and generate the interpolation detection point on the straight line on the epipolar plane image passing between the corresponding pixels detected by the corresponding detection means and the corresponding detection means. And,
Image interpolation means for synthesizing the interpolation points for all epipolar plane images to generate an image corresponding to a viewpoint different from the viewpoint of the image input by the image input means. Image processing device.
【請求項27】 観察者の目の位置を検出する視点検出
手段と、 検出された視点位置から見える画像を、前記画像入力手
段により入力された画像と、前記画像補間手段による生
成された補間画像とから再構成する画像再構成手段と、 該再構成された画像を出力する画像出力手段とを更に備
えることを特徴とする請求項15記載の画像処理装置。
27. A viewpoint detecting means for detecting the position of the eyes of an observer, an image seen from the detected viewpoint position, an image inputted by the image input means, and an interpolated image generated by the image interpolating means. 16. The image processing apparatus according to claim 15, further comprising an image reconstructing unit for reconstructing the reconstructed image and an image output unit for outputting the reconstructed image.
【請求項28】 前記画像再構成手段は、観察者の視点
位置および画像出力装置の種類から画像の再構成に必要
なパラメータを計算し、そのパラメータを用いて再構成
画像の各画素が入力された多視点画像のどの画素に対応
するかを計算し、対応する画素を多視点画像から抽出し
て画像を再構成することを特徴とする前記請求項27記
載の画像処理装置。
28. The image reconstructing means calculates a parameter necessary for reconstructing an image from the viewpoint position of the observer and the type of the image output device, and each pixel of the reconstructed image is input using the parameter. 28. The image processing apparatus according to claim 27, further comprising: calculating which pixel of the multi-viewpoint image corresponds, extracting the corresponding pixel from the multi-viewpoint image, and reconstructing the image.
JP10785494A 1994-04-22 1994-04-22 Method and device for image processing Withdrawn JPH07296194A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP10785494A JPH07296194A (en) 1994-04-22 1994-04-22 Method and device for image processing
DE69529548T DE69529548T2 (en) 1994-04-22 1995-04-21 Imaging process and apparatus
EP95302680A EP0684585B1 (en) 1994-04-22 1995-04-21 Image forming method and apparatus
US08/838,177 US6263100B1 (en) 1994-04-22 1997-04-16 Image processing method and apparatus for generating an image from the viewpoint of an observer on the basis of images obtained from a plurality of viewpoints
US09/866,669 US6628820B2 (en) 1994-04-22 2001-05-30 Image forming method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10785494A JPH07296194A (en) 1994-04-22 1994-04-22 Method and device for image processing

Publications (1)

Publication Number Publication Date
JPH07296194A true JPH07296194A (en) 1995-11-10

Family

ID=14469752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10785494A Withdrawn JPH07296194A (en) 1994-04-22 1994-04-22 Method and device for image processing

Country Status (1)

Country Link
JP (1) JPH07296194A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09112270A (en) * 1995-10-18 1997-04-28 Hitachi Constr Mach Co Ltd Engine cooling device
JP2006039770A (en) * 2004-07-23 2006-02-09 Sony Corp Image processing apparatus, method, and program
JP2008522324A (en) * 2004-12-03 2008-06-26 ソニー株式会社 System and method for capturing facial and physical movements
WO2011048773A1 (en) * 2009-10-20 2011-04-28 Sony Corporation Image display apparatus, image display method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09112270A (en) * 1995-10-18 1997-04-28 Hitachi Constr Mach Co Ltd Engine cooling device
JP2006039770A (en) * 2004-07-23 2006-02-09 Sony Corp Image processing apparatus, method, and program
JP2008522324A (en) * 2004-12-03 2008-06-26 ソニー株式会社 System and method for capturing facial and physical movements
WO2011048773A1 (en) * 2009-10-20 2011-04-28 Sony Corporation Image display apparatus, image display method, and program
JP2011090400A (en) * 2009-10-20 2011-05-06 Sony Corp Image display device, method, and program
CN102246202A (en) * 2009-10-20 2011-11-16 索尼公司 Image display apparatus, image display method, and program

Similar Documents

Publication Publication Date Title
EP0680019B1 (en) Image processing method and apparatus
US6608622B1 (en) Multi-viewpoint image processing method and apparatus
US6628820B2 (en) Image forming method and apparatus
JP4052331B2 (en) Virtual viewpoint image generation method, three-dimensional image display method and apparatus
EP2328125B1 (en) Image splicing method and device
EP0680014B1 (en) Image processing method and apparatus
JP4065488B2 (en) 3D image generation apparatus, 3D image generation method, and storage medium
JP2000102040A (en) Electronic stereo camera
JP2012068861A (en) Ar processing unit, ar processing method and program
JP3032414B2 (en) Image processing method and image processing apparatus
CN107864372B (en) Stereo photographing method and device and terminal
JP2002056379A (en) Three-dimensional data generating device
JPH08147497A (en) Picture processing method and device therefor
JP3054312B2 (en) Image processing apparatus and method
JPH07296194A (en) Method and device for image processing
CN115205807A (en) Lane line fusion method and device, automobile, electronic equipment and computer-readable storage medium
JPH08116556A (en) Image processing method and device
JPH09288735A (en) Image processor
CN109379577B (en) Video generation method, device and equipment of virtual viewpoint
JPH07274063A (en) Method and device for processing picture
KR20160101762A (en) The method of auto stitching and panoramic image genertation using color histogram
JP3135162B2 (en) Distance measuring device
KR101632069B1 (en) Method and apparatus for generating depth map using refracitve medium on binocular base
JPH08279961A (en) Method and device for processing picture
JP2012248206A (en) Ar processing apparatus, ar processing method and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20010703