JP3054312B2 - Image processing apparatus and method - Google Patents
Image processing apparatus and methodInfo
- Publication number
- JP3054312B2 JP3054312B2 JP6107855A JP10785594A JP3054312B2 JP 3054312 B2 JP3054312 B2 JP 3054312B2 JP 6107855 A JP6107855 A JP 6107855A JP 10785594 A JP10785594 A JP 10785594A JP 3054312 B2 JP3054312 B2 JP 3054312B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- viewpoint
- image data
- image processing
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Studio Circuits (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
Description
【0001】[0001]
【産業上の利用分野】本発明は、視点の異なる複数の画
像を入力とし、観察者の現在の目の位置に応じた視点位
置を有する画像を出力する画像処理方法および画像処理
装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and an image processing apparatus for inputting a plurality of images having different viewpoints and outputting an image having a viewpoint position corresponding to the current eye position of an observer.
【0002】[0002]
【従来の技術】従来、複数の視点から見た画像を立体表
示する装置として、ステレオディスプレイやレンチキュ
ラーディスプレイなどがある。ステレオディスプレイ
は、2台のカメラから得られる画像を交互に高速に切り
替えて表示される。観察者は、この切り替えに同期する
シャッターメガネや偏光メガネを用いることにより、映
像を立体的に観察することができる。また、レンチキュ
ラディスプレイは、例えば4台のカメラからの画像をそ
れぞれ画素単位に並べ替え、前面にレンチキュラーシー
トを張り付けることにより4視点の映像を立体的に表現
することができるというものである。2. Description of the Related Art Conventionally, as a device for stereoscopically displaying an image viewed from a plurality of viewpoints, there are a stereo display and a lenticular display. The stereo display alternately displays images obtained from two cameras at high speed. The observer can observe the image three-dimensionally by using shutter glasses or polarized glasses synchronized with the switching. The lenticular display is capable of three-dimensionally displaying images from four viewpoints by rearranging images from, for example, four cameras in pixel units and attaching a lenticular sheet to the front surface.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、上述し
た従来のステレオディスプレイでは、画像の撮影時にお
けるカメラの撮影方向の立体像しか観察することができ
なかった。すなわち、一般に2台のカメラを固定して物
体を撮影するので、観察者が視点(目の位置)を移動し
ても見える画像は同じであり、観察者の側での視点移動
が反映しないので臨場感に欠けるという問題点がある。
また、レンチキュラーディスプレイでは、観察者の視点
の左右方向の移動に対応できるが、それは複数のカメラ
のどれかから見た画像をとびとびに見るというものであ
って、連続的な視点移動には対応できないうえに、前後
方向への視点を移動させることはできなかった。前後方
向への視点移動に関しては、コンピュータ・グラフィッ
クスで作成された画像を基に立体視する場合には行われ
ているが、これはコンピュータ・グラフィックスという
画像としては単純でかつ画像内の点の対応する3次元空
間内での座標値が全て明らかになっているという特殊な
状況下のものである。カメラで撮影した画像を立体視す
る場合には、前後方向への視点移動は、これまでほとん
ど検討されていない。However, in the above-described conventional stereo display, only a three-dimensional image in a shooting direction of a camera at the time of shooting an image can be observed. That is, since an object is generally photographed with two cameras fixed, even if the observer moves his / her viewpoint (eye position), the same image is seen, and the viewpoint movement on the observer side is not reflected. There is a problem of lack of realism.
In addition, the lenticular display can cope with the movement of the viewpoint of the observer in the left and right direction, but it can see the image viewed from any of the multiple cameras in a discrete manner and cannot cope with the continuous viewpoint movement. In addition, it was not possible to move the viewpoint in the front-back direction. The movement of the viewpoint in the front-back direction is performed when stereoscopic viewing is performed based on an image created by computer graphics, but this is simple as a computer graphics image and a point within the image is used. This is under a special situation where the coordinate values in the corresponding three-dimensional space are all clear. When stereoscopically viewing an image captured by a camera, moving the viewpoint in the front-back direction has hardly been considered so far.
【0004】本発明は、上記問題点に鑑みてなされたも
ので、観察者の目の位置が前後方向を含む各方向へ移動
した場合に、その移動した位置から見た画像を与えるこ
とができる画像処理方法及び画像処理装置を提供するこ
とにある。The present invention has been made in view of the above problems, and when an observer's eye position moves in each direction including the front-back direction, an image viewed from the moved position can be given. An object of the present invention is to provide an image processing method and an image processing device.
【0005】[0005]
【課題を解決するための手段】上記目的を達成するため
に、本発明の画像処理装置は次のような構成から成る。
すなわち、互いに異なる位置を視点とする複数の画像を
多視点画像データとして入力する画像入力手段と、観察
者の視点の位置を検出する視点検出手段と、前記視点検
出手段により検出された視点位置に基づいて、該位置を
視点とする画像を前記多視点画像データから再構成する
画像再構成手段と、再構成された画像の歪みを補正する
補正手段と、補正された画像を画像出力装置に出力する
画像出力手段とを備える。In order to achieve the above object, an image processing apparatus according to the present invention has the following arrangement.
That is, an image input unit that inputs a plurality of images having different viewpoints as viewpoints as multi-view image data, a viewpoint detection unit that detects a position of a viewpoint of an observer, and a viewpoint position detected by the viewpoint detection unit. Image reconstructing means for reconstructing an image having the viewpoint as the viewpoint from the multi-viewpoint image data, correcting means for correcting distortion of the reconstructed image, and outputting the corrected image to an image output device Image output means.
【0006】また、上記目的を達成するために、本発明
の画像処理方法は次のような構成から成る。すなわち、
互いに異なる位置を視点とする複数の画像を多視点画像
データとして入力する画像入力工程と、観察者の視点の
位置を検出する視点検出工程と、前記視点検出工程によ
り検出された視点位置に基づいて、該位置を視点とする
画像を前記多視点画像データから再構成する画像再構成
工程と、再構成された画像の歪みを補正する補正工程
と、補正された画像を画像出力方法に出力する画像出力
工程とを備える。In order to achieve the above object, an image processing method according to the present invention has the following arrangement. That is,
An image input step of inputting a plurality of images having different viewpoints as viewpoints as multi-viewpoint image data, a viewpoint detection step of detecting the position of the observer's viewpoint, and a viewpoint position detected by the viewpoint detection step. An image reconstructing step of reconstructing an image having the viewpoint as the viewpoint from the multi-viewpoint image data, a correcting step of correcting a distortion of the reconstructed image, and an image outputting the corrected image to an image output method. And an output step.
【0007】[0007]
【作用】上記構成により、多視点画像を基にして、観察
者の視点位置に応じた画像を差異構成し、出力する。With the above arrangement, an image corresponding to the viewpoint position of the observer is differently constructed and output based on the multi-viewpoint image.
【0008】[0008]
【実施例】次に、本発明の実施例について図面を参照し
て説明する。Next, embodiments of the present invention will be described with reference to the drawings.
【0009】[0009]
【第1実施例】 <装置の構成>図1は第1実施例の画像処理装置の構成
を示す図である。図中、11は固定して設置される画像
表示用の表示スクリーン、12は表示スクリーン11を
眺める利用者の目の位置を検出する視点検出器、13は
直線上に並んだ十分間隔の細かい視点から表示する対象
物を撮影した多視点画像を保持している多視点画像デー
タベースである。14は表示スクリーン11に関するパ
ラメータを保持する表示パラメータ保持部、15は多視
点画像データベース13の多視点画像を撮影した際の視
点の並びの直線を表す座標系を保持している撮影視点座
標系保持部、16は多視点画像データベース13の多視
点画像の画像パラメータを保持している多視点画像パラ
メータ保持部である。First Embodiment <Structure of Apparatus> FIG. 1 is a diagram showing the structure of an image processing apparatus according to a first embodiment. In the figure, reference numeral 11 denotes a fixed display screen for displaying an image, 12 denotes a viewpoint detector for detecting the position of the eyes of a user who looks at the display screen 11, and 13 denotes a finely spaced viewpoint having a sufficiently long interval. 5 is a multi-view image database that stores multi-view images obtained by photographing an object to be displayed from. Reference numeral 14 denotes a display parameter storage unit that stores parameters related to the display screen 11, and reference numeral 15 denotes a capturing viewpoint coordinate system that retains a coordinate system that represents a straight line of viewpoints when capturing a multi-view image in the multi-view image database 13. Reference numeral 16 denotes a multi-view image parameter holding unit that holds image parameters of multi-view images in the multi-view image database 13.
【0010】17は視点検出器12からの信号を元に視
点パラメータを算出する視点パラメータ算出部、18は
視点の移動に対応した画像を生成する画像生成部、19
は注目する画素を示す画素インデクス信号、110は、
視点パラメータと表示パラメータから、画素インデクス
19の示す画素に対応する視線方向を算出する視線パラ
メータ算出部、111は、視線パラメータの表す視線
と、撮影視点座標系が表す撮影視点の並びの直線との交
点(仮想視点)を算出する仮想視点パラメータ算出部、
112は、視線パラメータ,撮影視点座標系,仮想視点
パラメータおよび多視点画像パラメータから、仮想視点
における画像の、視線方向に対応する画素位置を算出す
る画素位置算出部、113は、画素位置と仮想視点パラ
メータをもとに、多視点画像データベース13の多視点
画像から対応する画素値を算出する画素値算出部、11
4は表示スクリーン11へ画像を表示する画像表示部で
ある。115は視点パラメータが更新されたことを示す
更新信号、116は画素値信号である。117はまとめ
て画素値生成部である。118は上下方向の歪みを補正
する歪み補正部である。Reference numeral 17 denotes a viewpoint parameter calculation unit for calculating viewpoint parameters based on a signal from the viewpoint detector 12, 18 an image generation unit for generating an image corresponding to movement of the viewpoint, 19
Is a pixel index signal indicating a pixel of interest, and 110 is
A gaze parameter calculation unit that calculates a gaze direction corresponding to the pixel indicated by the pixel index 19 from the viewpoint parameter and the display parameter, and a line-of-sight line represented by the line-of-sight parameter represented by the line-of-sight parameter represented by the line-of-sight parameter. A virtual viewpoint parameter calculation unit for calculating an intersection (virtual viewpoint),
Reference numeral 112 denotes a pixel position calculation unit that calculates a pixel position corresponding to a line-of-sight direction of an image at a virtual viewpoint from a line-of-sight parameter, a shooting viewpoint coordinate system, a virtual viewpoint parameter, and a multi-viewpoint image parameter. A pixel value calculation unit 11 for calculating a corresponding pixel value from the multi-view image in the multi-view image database 13 based on the parameters;
Reference numeral 4 denotes an image display unit that displays an image on the display screen 11. Reference numeral 115 denotes an update signal indicating that the viewpoint parameter has been updated, and reference numeral 116 denotes a pixel value signal. Reference numeral 117 denotes a pixel value generation unit. Reference numeral 118 denotes a distortion correction unit that corrects vertical distortion.
【0011】ここで、多視点画像データベース13は、
十分細かい視点間隔で直線上に並んだ多数の視点から、
表示すべき対象物を撮影した画像である。これに対応し
て、撮影視点座標系保持部15に保持されているデータ
は、これら画像を撮影した際の視点の並びの直線を表す
座標系のデータである。画像生成部18は、更新信号1
15を受信したときに画像の生成を行うように構成され
ており、画像生成部18からは、再構成後の画像すなわ
ち表示スクリーン11上の画像での注目する画素の座標
を示す画素インデクス19が出力されている。画素イン
デクス19は、画像の再構成を行う場合に、再構成後の
画像の全画素を一巡するように順次出力されるようにな
っている。Here, the multi-view image database 13 is
From a number of viewpoints arranged on a straight line with sufficiently fine viewpoint intervals,
This is an image obtained by photographing an object to be displayed. Correspondingly, the data held in the shooting viewpoint coordinate system holding unit 15 is data of a coordinate system that represents a straight line of viewpoints at the time of capturing these images. The image generation unit 18 outputs the update signal 1
15 is received, the image generation unit 18 generates a pixel index 19 indicating the coordinates of the pixel of interest in the reconstructed image, that is, the image on the display screen 11. Has been output. When reconstructing an image, the pixel index 19 is sequentially output so as to make a cycle through all pixels of the reconstructed image.
【0012】<装置の動作>次に、本実施例の動作につ
いて説明する。まずこの動作の概略を説明する。<Operation of Apparatus> Next, the operation of this embodiment will be described. First, an outline of this operation will be described.
【0013】表示スクリーン11を眺める利用者が頭の
位置を変えて視点を移動させると、視点検出器12の信
号が変化し、視点パラメータ算出部17は、この変化を
受けて、更新信号115を画像生成部18へ送る。画像
生成部18は更新信号115を受けると、視点移動に対
応した新たな画像の生成を開始する。この新たな画像の
生成は、画像生成部18が全ての画素について画素イン
デクス19を順次出力し、各画素ごとの画素値信号11
6を画素値生成部117より順次獲得することによって
行われる。ここで、画素値生成部117の動作を説明す
る。When the user looking at the display screen 11 changes his / her head position and moves his / her viewpoint, the signal of the viewpoint detector 12 changes, and the viewpoint parameter calculation unit 17 receives the change and generates an update signal 115. Send to the image generation unit 18. Upon receiving the update signal 115, the image generator 18 starts generating a new image corresponding to the viewpoint movement. To generate this new image, the image generation unit 18 sequentially outputs the pixel indexes 19 for all the pixels, and outputs the pixel value signal 11 for each pixel.
6 is sequentially obtained from the pixel value generation unit 117. Here, the operation of the pixel value generation unit 117 will be described.
【0014】[画素値生成部]画素値生成部117で
は、まず、視線パラメータ算出部110が、視点パラメ
ータ算出部17から視点パラメータを、表示パラメータ
保持部14から表示パラメータをそれぞれ取得し、入力
された画素インデクス19に対応する視線パラメータを
算出する。次に仮想視点パラメータ算出部111が、撮
影視点座標系保持部15から撮影視点座標系を取得し、
視線パラメータの表す視線と、撮影視点座標系が表す撮
影視点の並びの直線との交点(仮想視点)を表す仮想視
点パラメータを算出する。一方、画素位置算出部112
は、多視点画像パラメータ保持部16から多視点画像パ
ラメータを取得し、そのほか視線パラメータ、撮影視点
座標系、仮想視点パラメータから、仮想視点における画
像の、視線方向に対応する画素位置を算出する。そして
画素値算出部113が、画素位置と仮想視点パラメータ
とを基に、多視点画像データベース13内の画像から、
対応する画素値信号116を算出する。このようにし
て、画素値生成部117は、入力する画素インデクス1
9ごとに画素値信号116を算出して画像生成部18に
出力する。[Pixel Value Generation Unit] In the pixel value generation unit 117, first, the line-of-sight parameter calculation unit 110 acquires viewpoint parameters from the viewpoint parameter calculation unit 17 and display parameters from the display parameter holding unit 14, and receives them. A gaze parameter corresponding to the pixel index 19 is calculated. Next, the virtual viewpoint parameter calculation unit 111 acquires the shooting viewpoint coordinate system from the shooting viewpoint coordinate system holding unit 15,
A virtual viewpoint parameter representing an intersection (virtual viewpoint) between a line of sight indicated by the line-of-sight parameter and a straight line of the arrangement of the imaging viewpoints represented by the imaging viewpoint coordinate system is calculated. On the other hand, the pixel position calculation unit 112
Acquires the multi-viewpoint image parameters from the multi-viewpoint image parameter holding unit 16, and calculates the pixel position corresponding to the line-of-sight direction of the image at the virtual viewpoint from the line-of-sight parameters, the shooting viewpoint coordinate system, and the virtual viewpoint parameters. Then, based on the pixel position and the virtual viewpoint parameters, the pixel value calculation unit 113 calculates, from the image in the multi-viewpoint image database 13,
A corresponding pixel value signal 116 is calculated. In this way, the pixel value generation unit 117 outputs the input pixel index 1
The pixel value signal 116 is calculated every 9 and output to the image generation unit 18.
【0015】[生成された画素値の処理]以上のように
して、画像生成部18は、画素値信号116を画素値算
出部113より全ての画素について得ると、これを歪み
補正部118へ送る。歪み補正部118は、生成された
画像の上下方向の歪みを補正するため、上下方向に画像
の拡大縮小変換を行い、補正した画像を画像表示部11
4へ出力する。画像表示部114は、こうして生成され
た新しい視点に対応した画像を表示スクリーン11へ表
示する。これにより、利用者の視点移動に伴う一連の画
像生成動作が完了する。後述する説明から明らかになる
ように、利用者は、前後左右に視点を移動した場合、そ
こが多視点画像データベース13に保持されている各画
像を撮影した視点以外の場所であっても、その視点移動
に合わせた対象物の画像を表示スクリーン11を通して
眺めることができる。[Processing of Generated Pixel Value] As described above, when the image generation unit 18 obtains the pixel value signal 116 for all the pixels from the pixel value calculation unit 113, it sends this to the distortion correction unit 118. . The distortion correction unit 118 performs vertical scaling of the image in order to correct vertical distortion of the generated image, and displays the corrected image on the image display unit 11.
Output to 4. The image display unit 114 displays the image corresponding to the new viewpoint thus generated on the display screen 11. As a result, a series of image generation operations accompanying the movement of the viewpoint of the user is completed. As will be apparent from the description below, when the user moves the viewpoint back and forth, left and right, even if that is a place other than the viewpoint where each image held in the multi-view image database 13 is captured, The image of the target object in accordance with the movement of the viewpoint can be viewed through the display screen 11.
【0016】次に、各部の処理を詳しく説明する。Next, the processing of each section will be described in detail.
【0017】[視線パラメータの算出]まず、視線パラ
メータ算出部110における視線パラメータの算出の処
理を説明する。[Calculation of Line-of-Sight Parameters] First, the process of calculating the line-of-sight parameters in the line-of-sight parameter calculation unit 110 will be described.
【0018】図2は第1実施例の画像処理装置の視線パ
ラメータ算出部110の算出原理を示す図である。図
中、21は表示スクリーン11の端点、22は長さが表
示スクリーン11のピクセルピッチで、傾きが表示スク
リーン11の傾きに一致する表示スクリーンベクトル、
23は表示スクリーン11上の注目する画素位置、24
は利用者の視点位置、25は注目する画素位置23に対
応する視線、26は視線25の傾きをあらわす視線ベク
トルである。FIG. 2 is a diagram showing the calculation principle of the visual axis parameter calculation unit 110 of the image processing apparatus according to the first embodiment. In the figure, 21 is an end point of the display screen 11, 22 is a display screen vector whose length is the pixel pitch of the display screen 11, and whose inclination matches the inclination of the display screen 11,
23 is a pixel position of interest on the display screen 11, 24
Is a viewpoint position of the user, 25 is a line of sight corresponding to the pixel position 23 of interest, and 26 is a line of sight vector representing the inclination of the line of sight 25.
【0019】ここで、端点21,注目する画素位置2
3,利用者の視点位置24,表示スクリーンベクトル2
2,視線ベクトル26を、それぞれベクトルXs,ベク
トルXp,ベクトルXv,ベクトルp,ベクトルaで表
すものとする。また、上下方向のベクトル成分は無視
し、左右前後の平面内で処理を行う。Here, the end point 21 and the pixel position 2 of interest
3, user's viewpoint 24, display screen vector 2
2. It is assumed that the line-of-sight vector 26 is represented by a vector Xs, a vector Xp, a vector Xv, a vector p, and a vector a, respectively. In addition, the processing is performed in the plane of the left, right, front and rear, ignoring the vector components in the vertical direction.
【0020】図3は第1実施例の画像処理装置の視線パ
ラメータ算出部110の処理を示すフローチャートであ
る。FIG. 3 is a flow chart showing the processing of the line-of-sight parameter calculator 110 of the image processing apparatus according to the first embodiment.
【0021】まず、ステップS31で、視点パラメータ
算出部17から視点パラメータを取得する。視点パラメ
ータとは、図2の利用者の視点位置24である。また、
ステップS32で、表示パラメータ保持部14から表示
パラメータを取得する。表示パラメータとは、表示スク
リーン11の端点21、表示スクリーンベクトル22で
表される。表示スクリーンベクトル22は、表示スクリ
ーン11の傾きと実サイズおよびピクセルサイズから決
定される。次にステップS33で、図2に示される配置
に基づき、画素インデクス19に対応して、表示スクリ
ーン11上の注目する画素位置23を以下の(1)式で
算出する。ただし、画素インデクス19をiとする。First, in step S31, viewpoint parameters are obtained from the viewpoint parameter calculation unit 17. The viewpoint parameter is the viewpoint position 24 of the user in FIG. Also,
In step S32, display parameters are acquired from the display parameter holding unit 14. The display parameters are represented by an end point 21 of the display screen 11 and a display screen vector 22. The display screen vector 22 is determined from the tilt of the display screen 11, the actual size, and the pixel size. Next, in step S33, a pixel position 23 of interest on the display screen 11 corresponding to the pixel index 19 is calculated by the following equation (1) based on the arrangement shown in FIG. Here, the pixel index 19 is i.
【0022】 Xp=Xs+i・p … (1) 次にステップS34で、利用者の視点位置24から眺め
た場合の注目する画素位置23の方向に対応する視線パ
ラメータを求める。視線パラメータは、利用者の視点位
置24および視線ベクトル26の組(Xv,a)として
表される。視線25が注目する画素位置23および利用
者の視点位置24の2点を通る直線であるから、視線ベ
クトル26は以下の(2)式で算出できる。Xp = Xs + ip (1) Next, in step S34, a line-of-sight parameter corresponding to the direction of the pixel position 23 of interest when viewed from the user's viewpoint position 24 is determined. The line-of-sight parameter is represented as a pair (Xv, a) of the user's viewpoint position 24 and the line-of-sight vector 26. Since the line of sight 25 is a straight line passing through two points of the pixel position 23 of interest and the user's viewpoint position 24, the line of sight vector 26 can be calculated by the following equation (2).
【0023】 a=Xp−Xv … (2) [画素位置および仮想視点の算出]次に、図4を用いて
仮想視点パラメータ算出部111および画素位置算出部
112の処理を説明する。A = Xp−Xv (2) [Calculation of Pixel Position and Virtual Viewpoint] Next, the processing of the virtual viewpoint parameter calculation unit 111 and the pixel position calculation unit 112 will be described with reference to FIG.
【0024】図4は第1実施例の画像処理装置の仮想視
点パラメータ算出部111および画素位置算出部112
の算出原理を示す図である。図中、41は多視点画像デ
ータベース13の多視点画像を撮影した際の視点並び直
線、42は視線25と、視点並び直線41との交点であ
る仮想視点、43は視点並び直線41の傾きを表す視点
並びベクトル、44は視点並び直線41の端点である。
45は仮想視点42における画角θの視野、46は多視
点画像を撮影したカメラの焦点距離を長さとし、カメラ
の傾きをその傾きとする焦点ベクトル、47は仮想視点
42における仮想的な撮像面、48は仮想的な撮像面4
7と視線25との交点である画素位置、49は長さが仮
想的な撮像面47のピクセルピッチであり、傾きが仮想
的な撮像面47の傾き(通常は焦点ベクトル46に直
角)に一致する撮像面ベクトルである。FIG. 4 shows a virtual viewpoint parameter calculator 111 and a pixel position calculator 112 of the image processing apparatus according to the first embodiment.
It is a figure showing the calculation principle of. In the figure, reference numeral 41 denotes a line of viewpoint arranged at the time of photographing a multi-viewpoint image of the multi-viewpoint image database 13, 42 denotes a virtual viewpoint which is the intersection of the line of sight 25 and the line of viewpoints 41, and 43 denotes the inclination of the line of viewpoints 41. The viewpoint array vector 44 shown is an end point of the viewpoint array straight line 41.
45 is a visual field of the angle of view θ at the virtual viewpoint 42, 46 is a focal length of the focal length of the camera that has captured the multi-viewpoint image, and a tilt is the inclination of the camera. 47 is a virtual imaging surface at the virtual viewpoint 42. , 48 are virtual imaging planes 4
The pixel position 49, which is the intersection of the line of sight 7 and the line of sight 25, the length of which is the pixel pitch of the virtual imaging plane 47, the inclination of which coincides with the inclination of the virtual imaging plane 47 (usually perpendicular to the focus vector 46) Is the imaging plane vector.
【0025】ここで、仮想視点42,視点並びベクトル
43,端点44,焦点ベクトル46,画素位置48,撮
像面ベクトル49を、それぞれベクトルX,ベクトル
T,ベクトルXl,ベクトルf,ベクトルXp’,ベク
トルp’で表すものとする。また、説明のため上下方向
のベクトル成分は無視し、左右前後の平面内で処理を行
う。Here, the virtual viewpoint 42, the viewpoint arrangement vector 43, the end point 44, the focus vector 46, the pixel position 48, and the imaging plane vector 49 are represented by a vector X, a vector T, a vector X1, a vector f, a vector Xp ', and a vector Xp', respectively. Let it be represented by p '. For the sake of explanation, the vector components in the vertical direction are ignored, and the processing is performed in the planes before, after, left, right, front and rear.
【0026】ここで、視点並びベクトル43および端点
44が撮影視点座標系を表す値として、撮影視点座標系
保持部15に保持されている。また、焦点ベクトル46
および撮像面ベクトル49は、多視点画像パラメータと
して多視点画像パラメータ保持部16に保持されてい
る。撮像面ベクトル49の大きさは、実際の撮像面のセ
ルサイズ(1ピクセルの大きさ)に等しい。また、視点
並び直線41は、表示スクリーンベクトル22と平行に
配置される。Here, the viewpoint array vector 43 and the end point 44 are held in the shooting viewpoint coordinate system holding unit 15 as values representing the shooting viewpoint coordinate system. The focus vector 46
The imaging plane vector 49 is held in the multi-view image parameter holding unit 16 as a multi-view image parameter. The size of the imaging plane vector 49 is equal to the actual cell size of the imaging plane (the size of one pixel). Further, the viewpoint arrangement straight line 41 is arranged in parallel with the display screen vector 22.
【0027】以上のように各点、各ベクトルが表される
とき、仮想視点42は以下の(3)、(4)式で表され
る。When each point and each vector are represented as described above, the virtual viewpoint 42 is represented by the following equations (3) and (4).
【0028】 X=Xl+t・T … (3) X=Xv+α・a … (4) ここで仮想視点を一意に表すパラメータとしてtを仮想
視点パラメータとする。αは視線方向の係数である。仮
想視点パラメータ算出部111は、(3),(4)式を
解くことにより仮想視点パラメータtを算出し、仮想視
点位置ベクトルXを算出する。X = Xl + t · T (3) X = Xv + α · a (4) Here, t is a virtual viewpoint parameter as a parameter uniquely representing a virtual viewpoint. α is a coefficient in the line-of-sight direction. The virtual viewpoint parameter calculation unit 111 calculates a virtual viewpoint parameter t by solving equations (3) and (4), and calculates a virtual viewpoint position vector X.
【0029】また、画素位置48は以下の(5),
(6)式で表される。The pixel position 48 is defined by the following (5),
It is expressed by equation (6).
【0030】 Xp’=X+f+i’・p’ … (5) Xp’=X+β・a … (6) ここで、画素位置48を一意に表すパラメータとして
i’を画素位置パラメータとする。βは視線方向の係数
である。画素位置算出部112は、(5),(6)式を
解くことにより画素位置パラメータi’を算出し、これ
を出力とする。Xp ′ = X + f + i ′ · p ′ (5) Xp ′ = X + β · a (6) Here, i ′ is a pixel position parameter as a parameter uniquely representing the pixel position 48. β is a coefficient of the line-of-sight direction. The pixel position calculation unit 112 calculates a pixel position parameter i ′ by solving equations (5) and (6), and outputs the calculated pixel position parameter i ′.
【0031】[画素値の算出]次に、画素値算出部11
3の処理について具体的に説明する。[Calculation of Pixel Value] Next, the pixel value calculation unit 11
The processing of No. 3 will be specifically described.
【0032】本実施例では、多視点画像データベース1
3に保持されている多視点画像は、十分細かい視点間隔
で撮影した画像である。そこで、まず、仮想視点パラメ
ータ算出部111で算出された仮想視点パラメータの示
す仮想視点42からの画像の近似画像として、この仮想
視点42に一番近い視点から撮影された画像を、多視点
画像データベース13から見つける。次に、この画像の
うち、画素位置算出部112で算出された注目する画素
位置23に最も近い位置の画素の値を取得し、これを出
力の画素値信号116とする。In this embodiment, the multi-view image database 1
The multi-viewpoint image held in 3 is an image captured at a sufficiently small viewpoint interval. Therefore, first, as an approximate image of the image from the virtual viewpoint 42 indicated by the virtual viewpoint parameter calculated by the virtual viewpoint parameter calculation unit 111, an image taken from the viewpoint closest to the virtual viewpoint 42 is stored in the multi-view image database. Find from 13. Next, in this image, the value of the pixel at the position closest to the target pixel position 23 calculated by the pixel position calculation unit 112 is obtained, and this is set as the output pixel value signal 116.
【0033】[歪み補正]次に、歪み補正部118の処
理についてくわしく説明する。多視点画像データベース
13の画像は左右方向のみの多視点画像であるため、上
下方向の視差情報がない。このため、画像生成部18
は、前後方向に視点を移動した画像を光学的に完全に再
構成することはできず、上下方向に歪みが生じる。歪み
補正部118は利用者の視点位置24に応じて上下方向
に画像を拡大・縮小することにより、視点並び直線41
から特定の距離にある被写体の像の歪みを補正する。[Distortion Correction] Next, the processing of the distortion correction section 118 will be described in detail. Since the image in the multi-view image database 13 is a multi-view image only in the left-right direction, there is no parallax information in the up-down direction. For this reason, the image generation unit 18
Cannot completely completely reconstruct an image whose viewpoint has been moved in the front-back direction, and distortion occurs in the vertical direction. The distortion correction unit 118 enlarges / reduces the image in the vertical direction according to the viewpoint position 24 of the user, thereby obtaining the viewpoint alignment straight line 41.
To correct the distortion of the image of the subject at a specific distance from.
【0034】図5は第1実施例の画像処理装置の歪み補
正部118の原理を示す図である。図中、51はある被
写体の高さ、52は被写体までの距離、53はカメラの
焦点距離、54は撮影された被写体の像の高さ、55は
前後の視点移動距離、56は再構成する被写体の画像の
高さである。FIG. 5 is a diagram showing the principle of the distortion correction unit 118 of the image processing apparatus according to the first embodiment. In the figure, 51 is the height of a certain subject, 52 is the distance to the subject, 53 is the focal length of the camera, 54 is the height of the image of the photographed subject, 55 is the distance to the front and rear viewpoints, and 56 is the reconstructed image. This is the height of the image of the subject.
【0035】ここで、高さ51,被写体までの距離5
2,焦点距離53,像の高さ54,視点移動距離55,
画像の高さ56を、それぞれT,Td,F,s,z,
s’で示すものとする。このように各値が表されると
き、以下の(7),(8)式が成り立つ。Here, the height 51 and the distance to the subject 5
2, focal length 53, image height 54, viewpoint moving distance 55,
The height 56 of the image is defined as T, Td, F, s, z,
Let it be denoted by s'. When each value is represented in this way, the following equations (7) and (8) hold.
【0036】 s/F=T/Td … (7) s’/F=T/(Td−z) … (8) (7),(8)式を解くことにより(9)式が導かれ
る。S / F = T / Td (7) s ′ / F = T / (Td−z) (8) Equation (9) is derived by solving equations (7) and (8).
【0037】 k=s’/s=Td/(Td−z) … (9) ここで、kは上下方向の歪みを表す歪み度である。歪み
補正部118は、視点パラメータ算出部17から得られ
る利用者の視点位置24の前後方向の座標値と、撮影視
点座標系保持部15から得られる視点並び直線41の前
後方向の座標値との差を視点移動距離55とする。ま
た、多視点画像パラメータ保持部16には、撮影した被
写体の注目点(あるいは、ピントを合わせた点)までの
おおまかな距離の値が被写体までの距離52としてあら
かじめ保持されている。歪み補正部118はこの値を多
視点画像パラメータ保持部16から取得する。そして歪
み補正部118は(9)式を解くことにより歪み度を算
出し、画像生成部18から受け取った画像を歪み度倍だ
け上下方向に拡大・縮小変換する。歪み補正部118は
こうして補正された画像を画像表示部114へ出力す
る。K = s ′ / s = Td / (Td−z) (9) Here, k is a distortion degree representing a distortion in the vertical direction. The distortion correction unit 118 calculates the coordinate values in the front-back direction of the user's viewpoint position 24 obtained from the viewpoint parameter calculation unit 17 and the coordinate values in the front-back direction of the viewpoint line 41 obtained from the shooting viewpoint coordinate system holding unit 15. The difference is defined as a viewpoint moving distance 55. In the multi-viewpoint image parameter holding unit 16, a rough distance value to a point of interest (or a point at which the image is focused) of the photographed object is stored in advance as a distance 52 to the object. The distortion correction unit 118 acquires this value from the multi-view image parameter holding unit 16. Then, the distortion correction unit 118 calculates the degree of distortion by solving the equation (9), and enlarges / reduces the image received from the image generation unit 18 in the vertical direction by the degree of distortion. The distortion correction unit 118 outputs the image corrected in this way to the image display unit 114.
【0038】以上のように、本実施例の画像処理装置
は、観察者の視点位置が視点並び直線に沿った方向のみ
ならず前後方向に移動しても、視点位置に合わせた画像
を表示することができる。As described above, the image processing apparatus according to the present embodiment displays an image in accordance with the viewpoint position even if the viewpoint position of the observer moves not only in the direction along the line of viewpoints but also in the front-back direction. be able to.
【0039】すなわち、観察者の目の位置を検出し、観
察者から見える画像を複数枚の画像から再構成すること
により、観察者の視点が移動した場合にそれに対応した
画像をスムーズに出力することができ、さらに、従来で
は対応できなかった前後方向への視点移動が可能となる
という効果がある。That is, by detecting the position of the observer's eyes and reconstructing the image seen by the observer from a plurality of images, an image corresponding to the movement of the observer's viewpoint is smoothly output. In addition, there is an effect that the viewpoint can be moved in the front-back direction, which cannot be handled conventionally.
【0040】なお、表示スクリーン11および画像表示
部114に、レンチキュラ方式やメガネ方式などの両眼
立体視が可能な立体表示スクリーン及び立体画像表示部
を用い、かつ、視点パラメータ算出部17が左右おのお
のの目の位置に対応する視点パラメータを算出し、これ
に対応して画像生成部18が左右おのおのの目に提示す
るための画像を生成することにより、前後左右に視点移
動可能な両眼立体表示装置となる。It should be noted that a stereoscopic display screen and a stereoscopic image display unit capable of binocular stereoscopic viewing, such as a lenticular system or an eyeglasses system, are used for the display screen 11 and the image display unit 114, and the viewpoint parameter calculation unit 17 controls each of the left and right. A viewpoint parameter corresponding to the position of the eye is calculated, and the image generation unit 18 generates an image to be presented to each of the left and right eyes in response to the viewpoint parameter. Device.
【0041】[0041]
【第2実施例】次に、多視点画像データベース13に保
持されている多視点画像の視点間隔が十分に細かくない
場合でも、自由に視点移動表示できる画像表示装置を説
明する。Second Embodiment Next, a description will be given of an image display apparatus capable of freely moving and displaying a viewpoint even when the viewpoint intervals of the multi-view images held in the multi-view image database 13 are not sufficiently small.
【0042】図12は本実施例の画像処理装置の構成を
示すブロック図である。第1実施例と共通する部分には
同一の参照番号を付し、説明を省略する。この画像処理
装置は、上述した第1実施例の多視点画像データベース
13と画素値算出部113との間に視点間補間処理部1
20が設けられた構成となっている。視点間補間処理部
120は、多視点画像データベース13中の粗い視点間
隔で撮影された各画像から、補間処理を行うことによっ
て、十分に細かい視点間間隔の一群の画像を生成するも
のである。こうして十分に細かい視点間間隔とされた画
像を用いることにより、第1実施例と同様に、利用者の
視点の変化に対応した画像が生成される。多視点画像デ
ータベース13中には、左右方向に1直線上に並んだ撮
影視点からの画像が保持されている。以下、図6から図
11を用いて、視点間補間処理部120について詳しく
説明する。FIG. 12 is a block diagram showing the configuration of the image processing apparatus of this embodiment. Portions common to the first embodiment are denoted by the same reference numerals, and description thereof is omitted. The image processing apparatus includes an inter-view interpolation processing unit 1 between the multi-view image database 13 and the pixel value calculation unit 113 of the first embodiment.
20 is provided. The inter-viewpoint interpolation processing unit 120 generates a group of images having sufficiently fine inter-viewpoint intervals by performing interpolation processing from each image captured at the coarse viewpoint intervals in the multi-viewpoint image database 13. By using an image with a sufficiently fine inter-viewpoint interval, an image corresponding to a change in the user's viewpoint is generated as in the first embodiment. The multi-viewpoint image database 13 holds images from the photographing viewpoints arranged on one straight line in the left-right direction. Hereinafter, the inter-viewpoint interpolation processing unit 120 will be described in detail with reference to FIGS.
【0043】図6は、本実施例の視点間補間処理部12
0の処理の流れを示すフローチャートである。FIG. 6 shows an inter-view interpolation processing unit 12 according to this embodiment.
11 is a flowchart showing the flow of the process 0.
【0044】まずステップS61で、多視点画像データ
ベース13の中から、粗い視点間隔で撮影された多視点
画像を取得する。次にステップS62で、視点画像間の
対応点探索(動きベクトル検出)を行う。対応点探索が
終了すると次にステップS63に移り、画像の視点間の
補間処理を行ない、十分に細かい視点間間隔の多視点画
像を求める。First, in step S61, a multi-viewpoint image taken at a coarse viewpoint interval is obtained from the multi-viewpoint image database 13. Next, in step S62, a corresponding point search (motion vector detection) between the viewpoint images is performed. When the corresponding point search is completed, the process proceeds to step S63, in which interpolation processing between the viewpoints of the images is performed to obtain a multi-viewpoint image having sufficiently fine inter-viewpoint intervals.
【0045】図7は、ステップS62の対応点探索処理
のフローチャートである。FIG. 7 is a flowchart of the corresponding point searching process in step S62.
【0046】ステップS71において、初期設定として
注目ラスタを各画像の第1ラスタにセットする。次にス
テップS72において、各画像の注目ラスタをワークメ
モリに読み込み、仮想的に1番目のエピポーラプレーン
を構成する。ここで言うj番目のエピポーラプレーンと
は、図8に示すように画像平面上の各点EPj(x,
i)が EPj(x,i)=Ni(x,j) を満たすような点EPj(x,i)の集合のことであ
る。但し、Ni(x,j)はi番目の画像(ここでは、
i=1〜4)のjライン目におけるx番目の画素値、即
ちi番目の画像において座標が(x,j)で表される画
素の値を表している。入力機器(カメラ)が等間隔で並
行に設置されている場合、このエピポーラプレーン上で
は、対応する点は全て直線上に並んで存在する。従っ
て、画像の補間はこの直線上で行えばよいことになる。
そこでステップS73において対応点が存在する直線を
抽出し、ステップS74において、得られた直線から対
応点を計算し、記憶する。以上を、ステップS75,S
76によりすべてのラスタについて繰りかえす。具体的
なアルゴリズムを次に示す。In step S71, the target raster is set as the first raster of each image as an initial setting. Next, in step S72, the raster of interest of each image is read into the work memory, and a first epipolar plane is virtually configured. Here, the j-th epipolar plane refers to each point EPj (x, x,
A set of points EPj (x, i) such that i) satisfies EPj (x, i) = Ni (x, j). Where Ni (x, j) is the i-th image (here,
It represents the x-th pixel value in the j-th line (i = 1 to 4), that is, the value of the pixel whose coordinates are represented by (x, j) in the i-th image. When input devices (cameras) are installed in parallel at equal intervals, all the corresponding points exist on the epipolar plane in a straight line. Therefore, image interpolation may be performed on this straight line.
Therefore, in step S73, a straight line having a corresponding point is extracted, and in step S74, a corresponding point is calculated from the obtained straight line and stored. Steps S75 and S75
Repeat for all rasters according to 76. The specific algorithm is shown below.
【0047】(ステップA1).EPj(x,r)を注
目画素とし、m=0〜k1の範囲内で、(Step A1). Let EPj (x, r) be the pixel of interest, and within the range of m = 0 to k1,
【数1】 を満足するmを全て求める。但しr=1である。また、
TH2は対応点を見つけるための閾値であり、対応する
画素間で許される誤差量に応じて与える。ここでは12
00(=3×20×20)に設定している。また、k1
はカメラ間隔と物体までの距離により決定される値で、
ここでは20に設定(即ち、20画素以上は移動しない
と仮定)している。(Equation 1) Find all m that satisfies. However, r = 1. Also,
TH2 is a threshold for finding a corresponding point, and is given according to an error amount allowed between corresponding pixels. Here 12
00 (= 3 × 20 × 20). Also, k1
Is a value determined by the camera interval and the distance to the object,
Here, it is set to 20 (that is, it is assumed that no more than 20 pixels are moved).
【0048】(ステップA2).x=1〜nxの全ての
xについて、ステップA1を繰り返し、xの値と対応す
るmの値を全て保持する。(Step A2). Step A1 is repeated for all x of x = 1 to nx, and all values of m corresponding to the value of x are held.
【0049】但し、nxは画像の主走査方向の画素数を
表す。また、EPj(x+m×(i−r)、i)が存在
しない場合は、このmにおける対応点は存在しないとし
て処理を続ける。Here, nx represents the number of pixels of the image in the main scanning direction. If EPj (x + m × (ir), i) does not exist, the process is continued assuming that there is no corresponding point in m.
【0050】(ステップA3).上記ステップA1及び
ステップA2により求まった傾きmの直線から優先順位
1の対応点を求め、メモリに記憶する。複数の対応点が
求まる場合は、便宜上全てを優先順位1の対応点として
記憶する。対応点として求まった画素は処理済の画素と
する。(Step A3). The corresponding point of priority 1 is obtained from the straight line having the slope m obtained in steps A1 and A2 and stored in the memory. When a plurality of corresponding points are obtained, all of them are stored as corresponding points of priority 1 for convenience. Pixels determined as corresponding points are processed pixels.
【0051】(ステップA4).ステップA1,A2,
A3を1サイクルとして、処理済でない画素に対して上
記のサイクルを繰り返す。ステップA1においてEPj
(x+m×(i−r)、i)が処理済の場合は、EPj
(x+m×(i−r)、i)−EPj(x,r)=0と
して処理を続ける。ステップA3において傾きmの直線
より求まった対応点が既に処理済の場合は、この点を対
応点から除外する。第nサイクル目で求まった対応点は
優先順位nの対応点として記憶する。(Step A4). Steps A1, A2,
With A3 as one cycle, the above cycle is repeated for pixels that have not been processed. In step A1, EPj
If (x + m × (ir), i) has been processed, EPj
(X + m × (ir), i) -EPj (x, r) = 0 and the process is continued. If the corresponding point obtained from the straight line having the slope m in step A3 has already been processed, this point is excluded from the corresponding points. The corresponding points obtained in the n-th cycle are stored as corresponding points of the priority n.
【0052】(ステップA5).ステップA4の処理を
行っても未処理の画素が減らなくなったならば、r=2
にセットしEPj(x,r)を注目画素としてステップ
A1〜A4と同様の処理を行う。但し、x=1〜nxで
ある。(Step A5). If the number of unprocessed pixels does not decrease even after performing the processing in step A4, r = 2
And the same processing as in steps A1 to A4 is performed using EPj (x, r) as the pixel of interest. However, x = 1 to nx.
【0053】(ステップA6).ステップA5の処理を
行っても未処理の画素が減らなくなったならば、r=3
にセットしEPj(x,r)注目画素としてステップA
1〜A4と同様の処理を行う。但し、x=1〜nxであ
る。(Step A6). If the number of unprocessed pixels does not decrease even after the processing of step A5, r = 3
And set as EPj (x, r) target pixel in step A
The same processing as 1 to A4 is performed. However, x = 1 to nx.
【0054】(ステップA7).jの値を1増やして処
理1に戻る。(Step A7). The value of j is incremented by 1 and the process returns to processing 1.
【0055】(ステップA8).最終ラスタまで処理が
済んだならば、対応点探索処理を終える。(Step A8). When the processing has been completed up to the final raster, the corresponding point search processing ends.
【0056】上記のように処理を行うことにより、2枚
の画像からでは求まらなかった対応点が検出でき、ま
た、オクルージョン等にも対応できるので、対応点探索
の精度が向上する。By performing the processing as described above, it is possible to detect a corresponding point that could not be obtained from two images, and it is also possible to cope with occlusion and the like, so that the accuracy of the corresponding point search is improved.
【0057】こうしてステップS62の処理が終了する
と、次にステップS63に移り、画像の補間処理を行
う。画像の補間処理は、ステップS62より求まった対
応点を用いて行う。具体的なアルゴリズムを図9を例に
して説明する。When the process in step S62 is completed, the process proceeds to step S63, where an image interpolation process is performed. The image interpolation processing is performed using the corresponding points obtained from step S62. A specific algorithm will be described with reference to FIG.
【0058】図9は、j番目のエピポーラプレーンを表
している。a1,b1は優先順位1の対応点を示し、c
2は優先順位2の対応点を示している。入力画像間に等
間隔にn枚の画像を補間する場合を考える。ここでは説
明を簡単にする為、n=2とする。このことをj番目の
エピポーラプレーンで考えた場合、図10に示すように
エピポーラプレーンのライン間に2本ずつラインを内挿
し、原画のエピポーラプレーンの対応点同士を結んだ直
線上にある内挿されたラインの画素値は対応点同士の平
均値に設定すればよい。即ち、アルゴリズムは次のよう
なものとなる。FIG. 9 shows the j-th epipolar plane. a1 and b1 indicate the corresponding points of the priority order 1, and c
Reference numeral 2 indicates a corresponding point of priority order 2. Consider a case where n images are interpolated at equal intervals between input images. Here, for the sake of simplicity, n = 2. When this is considered in the j-th epipolar plane, as shown in FIG. 10, two lines are interpolated between the lines of the epipolar plane, and interpolation is performed on a straight line connecting corresponding points of the epipolar plane of the original image. The pixel value of the obtained line may be set to the average value of the corresponding points. That is, the algorithm is as follows.
【0059】(ステップB1).優先順位1の対応点を
結んだ直線を考え、この直線上にある内挿ラインの画素
値を直線上にある原画の画素値の平均値にセットする。
図10の対応点a1及びb1を例に取れば、対応点同士
を結んだ直線上の点a及びbの画素値は、それぞれa
1,b1で示される画素値の平均値をとる。(Step B1). Consider a straight line connecting the corresponding points of priority 1, and set the pixel value of the interpolation line on this straight line to the average value of the pixel values of the original image on the straight line.
Taking the corresponding points a1 and b1 in FIG. 10 as an example, the pixel values of points a and b on a straight line connecting the corresponding points are respectively a
The average value of the pixel values indicated by 1, 1 is taken.
【0060】(ステップB2).優先順位1の対応点の
処理が終わったら、次に優先順位2の対応点の処理を行
う。この処理は、基本的にはステップB1の処理と同じ
であるが、ステップB1において既に補間された画素に
対しては処理を行わない。これを図10を用いて説明す
る。画素(3,8)と(2,9)は対応点c2により通
常は補間されるが、既に優先順位1のa1という対応点
により補間されている為、この画素に対しては何も処理
を行わない。従って対応点c2により補間される画素は
(9,2),(8,3),(6,5),(5,6)の4
画素である。(図10の例では、この部分でオクルージ
ョンが発生しているが、このように処理することにより
オクルージョンの問題を解決できる。) (ステップB3).優先順位2の対応点の処理が終わっ
たならば、次に優先順位3の対応点の処理に入る。ステ
ップB2と同様に既に補間処理済の画素に対しては、何
も行わない。以下同様にして、最終の優先順位の対応点
まで処理を行う。(Step B2). After the processing of the corresponding point of the priority 1 is completed, the processing of the corresponding point of the priority 2 is performed next. This process is basically the same as the process in step B1, but does not perform the process on the pixels already interpolated in step B1. This will be described with reference to FIG. The pixels (3, 8) and (2, 9) are normally interpolated by the corresponding point c2, but are already interpolated by the corresponding point of a1 having the priority order 1, so that no processing is performed on this pixel. Not performed. Accordingly, the pixels interpolated by the corresponding point c2 are (9, 2), (8, 3), (6, 5), and (5, 6).
Pixel. (In the example of FIG. 10, occlusion occurs in this portion, but the occlusion problem can be solved by performing such processing.) (Step B3). When the processing of the corresponding point of the priority 2 is completed, the processing of the corresponding point of the priority 3 is started. As in step B2, nothing is performed on the pixels that have already been subjected to the interpolation processing. In the same manner, the processing is performed up to the corresponding point of the final priority.
【0061】(ステップB4).ステップB1〜B3の
処理を終えても補間されなかった画素に対しては、周囲
の画素から内挿を行う。この時の方法としては、周囲の
画素値の平均値を用いる方法や最近傍画素の値をそのま
ま用いる方法などがある。(Step B4). For pixels that have not been interpolated even after the processing of steps B1 to B3, interpolation is performed from surrounding pixels. As a method at this time, there is a method using an average value of surrounding pixel values, a method using the value of the nearest pixel as it is, and the like.
【0062】(ステップB5).j=1〜nyについ
て、ステップB1〜B4の処理を行い、j2,j3,j
5,j6,j8,j9を用いて補間画像を得る。但し、
図10に示すようにステップB1〜B4の処理により内
挿されたラインをj2,j3,j5,j6,j8,j9
と表すことにする。例えば補間画像2は、内挿ラインj
2(j=1〜ny)を並べることによって構成できる
(図11参照)。補間画像3,5,6,8,9に関して
も同様である。(Step B5). The processing of steps B1 to B4 is performed for j = 1 to ny, and j2, j3, j
5, j6, j8 and j9 are used to obtain an interpolated image. However,
As shown in FIG. 10, the lines interpolated by the processing of steps B1 to B4 are represented by j2, j3, j5, j6, j8, j9.
Will be expressed as For example, the interpolation image 2 has an interpolation line j
2 (j = 1 to ny) (see FIG. 11). The same applies to the interpolated images 3, 5, 6, 8, and 9.
【0063】以上述べたようにして多視点画像データベ
ース13の画像から視点間補間画像を生成することによ
り、撮影視点並びの直線上で、撮影視点以外の視点から
の画像が得られる。これにより、任意視点からの画像を
生成することができる。したがって、多視点画像データ
ベース13には十分に細かい視点間隔の多視点画像を保
持しておく必要がなく、多視点画像データベース13の
記憶容量が大幅に削減されるという効果がある。As described above, by generating the inter-viewpoint interpolated image from the image in the multi-viewpoint image database 13, an image from a viewpoint other than the photographing viewpoint can be obtained on the straight line of the photographing viewpoints. Thus, an image from an arbitrary viewpoint can be generated. Therefore, the multi-view image database 13 does not need to hold multi-view images with sufficiently fine viewpoint intervals, and the storage capacity of the multi-view image database 13 is greatly reduced.
【0064】[0064]
【第3実施例】第1実施例、第2実施例では、歪み補正
部118の歪み度の計算を行うために、多視点画像パラ
メータ保持部16に撮影した被写体の注目点(あるい
は、ピントを合わせた点)までのおおまかな距離の値が
被写体までの距離52としてあらかじめ保持されている
必要がある。本実施例は、第2実施例の画像処理装置を
拡張し、歪み補正部118の歪み度の値を自動判定する
画像処理装置を説明する。本実施例の画像処理装置の構
成は図12に示したものと略同じものである。Third Embodiment In the first and second embodiments, in order to calculate the degree of distortion by the distortion correction unit 118, the point of interest (or the focus) of the photographed object is stored in the multi-viewpoint image parameter holding unit 16. It is necessary that the approximate distance value to the combined point) be held in advance as the distance 52 to the subject. In the present embodiment, an image processing apparatus that extends the image processing apparatus of the second embodiment and automatically determines the value of the degree of distortion of the distortion correction unit 118 will be described. The configuration of the image processing apparatus of this embodiment is substantially the same as that shown in FIG.
【0065】本実施例では、歪み補正部118が視点間
補間処理部120と協調して歪み度を自動判定する。視
点間補間処理部120は、対応点探索(図6,ステップ
S62)の直線の検出(図7,ステップS73)におい
て、抽出した直線の傾きmを歪み補正部118に通知す
る。歪み補正部118は、この直線の傾きmから、まず
発見した対応点(物体の輝点)のカメラからの距離Td
iを以下の(10)式で求める。In the present embodiment, the distortion correction unit 118 automatically determines the degree of distortion in cooperation with the inter-viewpoint interpolation processing unit 120. The inter-viewpoint interpolation processing unit 120 notifies the distortion correction unit 118 of the gradient m of the extracted straight line in the detection of the straight line in the corresponding point search (FIG. 6, step S62) (FIG. 7, step S73). The distortion correction unit 118 calculates the distance Td from the camera to the corresponding point (bright point of the object), based on the inclination m of the straight line.
i is obtained by the following equation (10).
【0066】 Tdi=W・A/(2・m・tan(θ/2)) … (10) ただし、Wは画像の幅(単位ピクセル)、θはカメラの
画角であり、多視点画像パラメータ保持部16に保持さ
れている。また、Aは多視点画像データベース13の多
視点画像の視点間隔であり、撮影視点座標系保持部15
に保持されている。(10)式は、図13から明らかで
ある。図13において、視点並び直線132上の距離A
離れた2つの視点133,134から同一の対象131
を見た場合を考える。画角θと焦点距離Fと画素サイズ
Sと画像の幅Wとの関係は、S・W/2=Ftan(θ
/2)で与えられる。また、検出直線の傾きmは、隣接
する画像間において、注目対応点のずれ量をピクセル数
で示す値である。従って、図13より、Tdi/A=F
/(m・S)なる関係も与えられる。これら2つの関係
より、式(10)が成立することが分かる。Tdi = W · A / (2 · m · tan (θ / 2)) (10) where W is the width (unit pixel) of the image, θ is the angle of view of the camera, and the multi-viewpoint image parameter It is held by the holding unit 16. A is the viewpoint interval between the multi-view images in the multi-view image database 13, and is a photographing viewpoint coordinate system holding unit 15.
Is held in. The expression (10) is clear from FIG. In FIG. 13, the distance A on the viewpoint line 132
The same object 131 from two distant viewpoints 133 and 134
Think about seeing The relationship among the angle of view θ, the focal length F, the pixel size S, and the width W of the image is given by S · W / 2 = Ftan (θ
/ 2). Further, the slope m of the detection straight line is a value indicating the amount of deviation of the corresponding point of interest between adjacent images by the number of pixels. Therefore, from FIG. 13, Tdi / A = F
/ (M · S) is also given. From these two relationships, it can be seen that equation (10) holds.
【0067】次に、歪み補正部118は、(9)式に倣
って以下の(11)式で各対応点の歪み度kiを算出す
る。Next, the distortion correcting section 118 calculates the degree of distortion ki of each corresponding point by the following equation (11) according to the equation (9).
【0068】 ki=Tdi/(Tdi−z) … (11) そして、(9)式の代わりに、画像中の全対応点のki
の値の平均値を歪み度kとして推定し、算出する。Ki = Tdi / (Tdi−z) (11) Then, instead of equation (9), ki of all corresponding points in the image is used.
Is estimated and calculated as the degree of distortion k.
【0069】以上の処理により、本実施例では、カメラ
から被写体間での距離をあらかじめ知る必要がないとい
う実施例固有の効果が得られる。According to the above-described processing, the present embodiment has an advantage unique to the embodiment that it is not necessary to know in advance the distance between the camera and the subject.
【0070】推定歪み度kの算出は、他にも、まず傾き
mの平均値を求めてから行う方法や、画像の領域ごとに
重み付けを行い、中心となる被写体を推定して行う方法
などが考えられる。Other methods for calculating the estimated distortion degree k include a method in which the average value of the gradient m is calculated first, and a method in which weighting is performed for each image region to estimate a central subject. Conceivable.
【0071】[0071]
【他の実施例】以上の各実施例では、あらかじめ撮影さ
れた多視点画像が多視点画像データベース13に保持さ
れている構成としたが、これを、多視点画像を実時間で
取り込むことのできる多眼テレビカメラに置き換えるこ
とにより、実時間の任意視点画像撮影・表示システムと
なる。[Other Embodiments] In each of the embodiments described above, the multi-viewpoint image photographed in advance is held in the multi-viewpoint image database 13, but the multi-viewpoint image can be captured in real time. By replacing the camera with a multi-view television camera, a real-time arbitrary viewpoint image capturing and displaying system can be realized.
【0072】なお、本発明は単体の画像処理装置に適用
しても良いし、多視点テレビ、多視点テレビ電話端末や
多視点テレビ会議システムのようなシステム機器に適用
しても良いし、コンピュータや他の画像処理装置と組み
合わせた複合装置にも適用できる。The present invention may be applied to a single image processing apparatus, may be applied to a system device such as a multi-view television, a multi-view video telephone terminal, or a multi-view video conference system, or may be applied to a computer. Or a multifunction device combined with another image processing device.
【0073】上記説明した各実施例の画像処理装置は、
観察者の目の位置を検出し、観察者から見える画像を複
数枚の画像から再構成するので、観察者の視点が移動し
た場合にそれに対応した画像をスムーズに出力する。The image processing apparatus of each embodiment described above
Since the position of the observer's eyes is detected and the image seen by the observer is reconstructed from a plurality of images, when the observer's viewpoint moves, an image corresponding to the viewpoint is smoothly output.
【0074】また、視点位置の異なる複数の画像からな
る多視点画像データとしては、1台以上のカメラから得
られる多数枚の画像や、データベースに蓄積されている
多数の画像を用いることができる。画像の再構成を行う
ためには、多視点画像データは十分に細かい間隔で撮影
位置を変化させた画像であることが望まれるが、撮影位
置の間隔が粗い場合であっても、撮影された画像に対し
て補間処理を施して隣接する撮影位置間の位置を視点位
置とする画像を生成し、これら撮影された画像および生
成した画像を多視点画像データとすることにより、画像
の再構成を行うことができる。As the multi-view image data composed of a plurality of images having different viewpoint positions, a large number of images obtained from one or more cameras or a large number of images stored in a database can be used. In order to perform image reconstruction, it is desired that the multi-view image data is an image in which the shooting positions are changed at sufficiently small intervals, but even if the shooting position intervals are coarse, the captured images are captured. An image is subjected to interpolation processing to generate an image having a position between adjacent photographing positions as a viewpoint position, and these photographed images and the generated image are used as multi-viewpoint image data, whereby image reconstruction is performed. It can be carried out.
【0075】さらに、画像の再構成は、観察者の目の位
置および画像出力装置の種類から画像の再構成に必要な
パラメータを計算し、再構成される画像の各画素が多視
点画像データの画像のどの画素に対応するかを求めたパ
ラメータに基づいて計算し、対応する画素を多視点画像
から抽出することにより行われる。この場合、観察者の
目の位置が多視点画像データ中のいずれの画像の視点位
置とも一致しない場合であっても、画素間の対応は求め
られ、したがって、画像の再構成が良好に行われる。Further, in the image reconstruction, parameters required for image reconstruction are calculated from the position of the eyes of the observer and the type of the image output device, and each pixel of the image to be reconstructed is converted into multi-view image data. This is performed by calculating which pixel of the image corresponds to the calculated parameter, and extracting the corresponding pixel from the multi-view image. In this case, even when the position of the observer's eyes does not match the viewpoint position of any image in the multi-view image data, the correspondence between the pixels is obtained, and therefore, the image reconstruction is favorably performed. .
【0076】また、画像出力装置としては、通常のディ
スプレイの他、ステレオディスプレイ、レンチキュラデ
ィスプレイなどを使用することができる。As an image output device, a stereo display, a lenticular display, etc. can be used in addition to a normal display.
【発明の効果】以上説明したように、本発明に係る画像
処理方法および装置は、観察者の目の位置が前後方向を
含む各方向へ移動しても、その移動した位置に応じた画
像を表示することができるという効果を奏する。As described above, according to the image processing method and apparatus of the present invention, even if the position of the observer's eye moves in each direction including the front-back direction, an image corresponding to the moved position is obtained. This has the effect of being able to be displayed.
【0077】[0077]
【図1】第1実施例の画像処理装置の構成を示す図であ
る。FIG. 1 is a diagram illustrating a configuration of an image processing apparatus according to a first embodiment.
【図2】第1実施例の画像処理装置の視線パラメータ算
出部110の算出原理を示す図である。FIG. 2 is a diagram illustrating a calculation principle of a gaze parameter calculation unit 110 of the image processing apparatus according to the first embodiment.
【図3】第1実施例の画像処理装置の視線パラメータ算
出部110の処理を示すフローチャートである。FIG. 3 is a flowchart illustrating a process of a gaze parameter calculator 110 of the image processing apparatus according to the first embodiment.
【図4】第1実施例の画像処理装置の仮想視点パラメー
タ算出部111および画素位置算出部112の算出原理
を示す図である。FIG. 4 is a diagram illustrating a calculation principle of a virtual viewpoint parameter calculation unit 111 and a pixel position calculation unit 112 of the image processing apparatus according to the first embodiment.
【図5】第1実施例の画像処理装置の歪み補正部118
の原理を示す図である。FIG. 5 is a distortion correction unit 118 of the image processing apparatus according to the first embodiment.
FIG.
【図6】第2実施例の画像処理装置の視点間補間処理部
の処理の流れを示すフローチャートである。FIG. 6 is a flowchart illustrating a flow of processing of an inter-viewpoint interpolation processing unit of the image processing apparatus according to the second embodiment.
【図7】第2実施例の画像処理装置による対応点探索処
理を示すフローチャートである。FIG. 7 is a flowchart illustrating a corresponding point search process performed by the image processing apparatus according to the second embodiment.
【図8】第2実施例の画像処理装置によるj番目のエピ
ポーラプレーンを示す図である。FIG. 8 is a diagram illustrating a j-th epipolar plane by the image processing apparatus according to the second embodiment.
【図9】第2実施例の画像処理装置による補間処理アル
ゴリズムの説明を示す図である。FIG. 9 is a diagram illustrating an explanation of an interpolation processing algorithm performed by the image processing apparatus according to the second embodiment.
【図10】第2実施例の画像処理装置による補間処理ア
ルゴリズムの説明を示す図である。FIG. 10 is a diagram illustrating an explanation of an interpolation processing algorithm performed by the image processing apparatus according to the second embodiment.
【図11】第2実施例の画像処理装置による補間処理ア
ルゴリズムの説明を示す図である。FIG. 11 is a diagram illustrating an explanation of an interpolation processing algorithm performed by the image processing apparatus according to the second embodiment.
【図12】第2実施例の画像処理装置の構成を示す図で
ある。FIG. 12 is a diagram illustrating a configuration of an image processing apparatus according to a second embodiment.
【図13】第3実施例の画像処理装置による対象物まで
の距離を算出する原理を説明する図である。FIG. 13 is a diagram illustrating a principle of calculating a distance to an object by the image processing apparatus according to the third embodiment.
11…表示スクリーン 12…視点検出器 13…多視点画像データベース 14…表示パラメータ保持部 15…撮影視点座標系保持部 16…多視点画像パラメータ保持部 17…視点パラメータ算出部 18…画像生成部 19…画素インデクス 110…視線パラメータ算出部 111…仮想視点パラメータ算出部 112…画素位置算出部 113…画素値算出部 114…画像表示部 115…更新信号 116…画素値信号 117…画素値生成部 118…歪み補正部 DESCRIPTION OF SYMBOLS 11 ... Display screen 12 ... Viewpoint detector 13 ... Multi-viewpoint image database 14 ... Display parameter holding part 15 ... Shooting viewpoint coordinate system holding part 16 ... Multi-viewpoint image parameter holding part 17 ... Viewpoint parameter calculation part 18 ... Image generation part 19 ... Pixel index 110: line-of-sight parameter calculation unit 111: virtual viewpoint parameter calculation unit 112: pixel position calculation unit 113: pixel value calculation unit 114: image display unit 115: update signal 116: pixel value signal 117: pixel value generation unit 118: distortion Correction unit
───────────────────────────────────────────────────── フロントページの続き (72)発明者 山本 裕之 東京都大田区下丸子3丁目30番2号 キ ヤノン株式会社内 (72)発明者 田村 秀行 東京都大田区下丸子3丁目30番2号 キ ヤノン株式会社内 (56)参考文献 特開 平5−37965(JP,A) 特開 昭60−198685(JP,A) 米国特許5287437(US,A) (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 G06T 15/00 H04N 13/00 - 15/00 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Hiroyuki Yamamoto 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc. (72) Inventor Hideyuki Tamura 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon (56) References JP-A-5-37965 (JP, A) JP-A-60-198685 (JP, A) US Pat. No. 5,287,437 (US, A) (58) Fields investigated (Int. Cl. 7) G06T 1/00 G06T 15/00 H04N 13/00-15/00
Claims (20)
像を多視点画像データとして入力する画像入力手段と、 観察者の視点の位置を検出する視点検出手段と、 前記視点検出手段により検出された視点位置に基づい
て、該位置を視点とする画像を前記多視点画像データか
ら再構成する画像再構成手段と、 再構成された画像の歪みを補正する補正手段と、 補正された画像を画像出力装置に出力する画像出力手段
と、を備えることを特徴とする画像処理装置。An image input unit for inputting a plurality of images having different viewpoints as viewpoints as multi-viewpoint image data; a viewpoint detecting unit for detecting a position of a viewpoint of an observer; Image reconstructing means for reconstructing an image having the viewpoint as a viewpoint from the multi-view image data based on the viewpoint position, correcting means for correcting distortion of the reconstructed image, and outputting the corrected image to an image An image processing apparatus comprising: an image output unit that outputs an image to an apparatus.
ら撮影された画像を格納したデータベースを含み、該デ
ータベースから画像を入力することを特徴とする請求項
1に記載の画像処理装置。2. The image processing apparatus according to claim 1, wherein the image input unit includes a database in which images previously captured from a plurality of directions are stored, and inputs the images from the database.
を含み、該カメラから画像を入力することを特徴とする
請求項1に記載の画像処理装置。3. The image processing apparatus according to claim 1, wherein the image input unit includes one or more cameras and inputs an image from the cameras.
点画像データを基に、該画像データに補間処理を施して
前記画像入力手段の有していない視点の画像データを生
成し、前記多視点画像データに追加する画像生成手段を
更に備え、前記画像再構成手段は、前記多視点画像デー
タと前記補間画像データとから画像を再構成することを
特徴とする請求項1に記載の画像処理装置。4. Based on the multi-view image data input by the image input means, the image data is subjected to interpolation processing to generate image data of a viewpoint not possessed by the image input means. The image processing apparatus according to claim 1, further comprising an image generating unit that adds the image data to the image data, wherein the image reconstructing unit reconstructs an image from the multi-view image data and the interpolated image data. .
位置および画像出力装置の種類から画像の再構成に必要
なパラメータを計算し、該パラメータを用いて再構成画
像の各画素が多視点画像データ中の画像のどの画素に対
応するかを計算し、対応する画素を多視点画像データか
ら抽出して画像を再構成することを特徴とする請求項1
に記載の画像処理装置。5. The image reconstructing means calculates parameters necessary for reconstructing an image from the position of the viewpoint of the observer and the type of the image output device, and calculates the number of pixels of the reconstructed image using the parameters. 2. The method according to claim 1, further comprising calculating which pixel of the image in the viewpoint image data corresponds to the pixel, extracting the corresponding pixel from the multi-view image data, and reconstructing the image.
An image processing apparatus according to claim 1.
ら等距離の視点並び直線上にあり、前記補正手段は、該
視点並び直線と、前記視点検出手段により検出された観
察者の視点との距離により生じる画像の歪みを補正する
ことを特徴とする請求項1記載の画像処理装置。6. The viewpoint by the image input means is on a straight line of viewpoints equidistant from a subject, and the correcting means is configured to determine a distance between the straight line of viewpoints and the viewpoint of the observer detected by the viewpoint detecting means. 2. The image processing apparatus according to claim 1, wherein the image distortion caused by the correction is corrected.
応点の移動量に基づいて撮影された被写体とカメラとの
距離を算出する手段を有し、該距離を基に画像の歪みを
補正することを特徴とする請求項6記載の画像処理装
置。7. The correction means includes means for calculating a distance between the photographed subject and the camera based on a movement amount of a corresponding point of the multi-view image data, and corrects an image distortion based on the distance. The image processing apparatus according to claim 6, wherein:
あることを特徴とする請求項1に記載の画像処理装置。8. The image processing device according to claim 1, wherein the image output device is a display device.
イであることを特徴とする請求項1に記載の画像処理装
置。9. The image processing device according to claim 1, wherein the image output device is a stereo display.
スプレイであることを特徴とする請求項1に記載の画像
処理装置。10. The image processing apparatus according to claim 1, wherein the image output device is a lenticular display.
画像を多視点画像データとして入力する画像入力工程
と、 観察者の視点の位置を検出する視点検出工程と、 前記視点検出工程により検出された視点位置に基づい
て、該位置を視点とする画像を前記多視点画像データか
ら再構成する画像再構成手段と、 再構成された画像の歪みを補正する補正工程と、 補正された画像を画像出力装置に出力する画像出力工程
と、 を備えることを特徴とする画像処理方法。11. An image inputting step of inputting a plurality of images having different viewpoints as viewpoints as multi-viewpoint image data; a viewpoint detecting step of detecting an observer's viewpoint position; Image reconstruction means for reconstructing an image having the viewpoint as a viewpoint from the multi-view image data based on the viewpoint position, a correction step of correcting distortion of the reconstructed image, and outputting the corrected image to an image An image processing method comprising: outputting an image to an apparatus.
から撮影された画像を格納したデータベースから画像を
入力することを特徴とする請求項11に記載の画像処理
方法。12. The image processing method according to claim 11, wherein in the image input step, an image is input from a database that stores images captured in a number of directions in advance.
ラから画像を入力することを特徴とする請求項11に記
載の画像処理方法。13. The image processing method according to claim 11, wherein the image input step inputs an image from one or more cameras.
視点画像データを基に、該画像データに補間処理を施し
て前記画像入力工程の有していない視点の画像データを
生成し、前記多視点画像データに追加する画像生成工程
を更に備え、前記画像再構成工程は、前記多視点画像デ
ータと前記補間画像データとから画像を再構成すること
を特徴とする請求項11に記載の画像処理方法。14. Based on the multi-view image data input in the image input step, the image data is subjected to interpolation processing to generate image data of a viewpoint not included in the image input step, and The image processing method according to claim 11, further comprising an image generating step of adding the image data to the image data, wherein the image reconstructing step reconstructs an image from the multi-view image data and the interpolated image data. .
の位置および画像出力方法の種類から画像の再構成に必
要なパラメータを計算し、該パラメータを用いて再構成
画像の各画素が多視点画像データ中の画像のどの画素に
対応するかを計算し、対応する画素を多視点画像データ
から抽出して画像を再構成することを特徴とする請求項
11に記載の画像処理方法。15. The image reconstructing step calculates parameters necessary for reconstructing an image from a position of a viewpoint of an observer and a type of an image output method, and calculates a number of pixels of the reconstructed image using the parameters. 12. The image processing method according to claim 11, wherein a pixel corresponding to an image in the viewpoint image data is calculated, and the corresponding pixel is extracted from the multi-view image data to reconstruct the image.
から等距離の視点並び直線上にあり、前記補正工程は、
該視点並び直線と、前記視点検出工程により検出された
観察者の視点との距離により生じる画像の歪みを補正す
ることを特徴とする請求項11記載の画像処理方法。16. The viewpoint in the image input step is on a straight line of viewpoints equidistant from a subject, and the correcting step includes:
12. The image processing method according to claim 11, wherein an image distortion caused by a distance between the viewpoint arrangement straight line and an observer's viewpoint detected in the viewpoint detection step is corrected.
対応点の移動量に基づいて撮影された被写体とカメラと
の距離を算出する工程を有し、該距離を基に画像の歪み
を補正することを特徴とする請求項16記載の画像処理
方法。17. The correcting step includes a step of calculating a distance between the photographed subject and the camera based on a movement amount of a corresponding point of the multi-viewpoint image data, and correcting an image distortion based on the distance. 17. The image processing method according to claim 16, wherein:
置に画像を表示することを特徴とする請求項11に記載
の画像処理方法。18. The image processing method according to claim 11, wherein the image output step displays an image on a display device.
プレイ装置に画像を表示することを特徴とする請求項1
1に記載の画像処理方法。19. The image output step of displaying an image on a stereo display device.
2. The image processing method according to 1.
ィスプレイ装置に画像を表示することを特徴とする請求
項11に記載の画像処理方法。20. The image processing method according to claim 11, wherein the image output step displays an image on a lenticular display device.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6107855A JP3054312B2 (en) | 1994-04-22 | 1994-04-22 | Image processing apparatus and method |
DE69529548T DE69529548T2 (en) | 1994-04-22 | 1995-04-21 | Imaging process and apparatus |
EP95302680A EP0684585B1 (en) | 1994-04-22 | 1995-04-21 | Image forming method and apparatus |
US08/838,177 US6263100B1 (en) | 1994-04-22 | 1997-04-16 | Image processing method and apparatus for generating an image from the viewpoint of an observer on the basis of images obtained from a plurality of viewpoints |
US09/866,669 US6628820B2 (en) | 1994-04-22 | 2001-05-30 | Image forming method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6107855A JP3054312B2 (en) | 1994-04-22 | 1994-04-22 | Image processing apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07296195A JPH07296195A (en) | 1995-11-10 |
JP3054312B2 true JP3054312B2 (en) | 2000-06-19 |
Family
ID=14469778
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6107855A Expired - Fee Related JP3054312B2 (en) | 1994-04-22 | 1994-04-22 | Image processing apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3054312B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4451730B2 (en) | 2003-09-25 | 2010-04-14 | 富士フイルム株式会社 | Moving picture generating apparatus, method and program |
JP4617965B2 (en) * | 2005-03-31 | 2011-01-26 | ソニー株式会社 | Image processing method, apparatus and program |
JP2011113206A (en) * | 2009-11-25 | 2011-06-09 | Nippon Telegr & Teleph Corp <Ntt> | System and method for video image communication |
JP5832211B2 (en) * | 2011-09-16 | 2015-12-16 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
WO2013110779A1 (en) * | 2012-01-26 | 2013-08-01 | Fraunhofer-Gesellschaft Zur Förderung Der Angewandten Forschung | Autostereoscopic display and method of displaying a 3d image |
WO2013110297A1 (en) * | 2012-01-26 | 2013-08-01 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Autostereoscopic display and method of displaying a 3d image |
EP3035282A4 (en) | 2013-09-11 | 2017-07-05 | Sony Corporation | Image processing device and method |
CN115811682B (en) * | 2023-02-09 | 2023-05-12 | 杭州兆华电子股份有限公司 | Loudspeaker distortion analysis method and device based on time domain signals |
-
1994
- 1994-04-22 JP JP6107855A patent/JP3054312B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH07296195A (en) | 1995-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0680019B1 (en) | Image processing method and apparatus | |
US6191808B1 (en) | Image processing method with viewpoint compensation and apparatus therefor | |
US6608622B1 (en) | Multi-viewpoint image processing method and apparatus | |
US6263100B1 (en) | Image processing method and apparatus for generating an image from the viewpoint of an observer on the basis of images obtained from a plurality of viewpoints | |
JP3593466B2 (en) | Method and apparatus for generating virtual viewpoint image | |
JP4642723B2 (en) | Image generating apparatus and image generating method | |
EP0680014B1 (en) | Image processing method and apparatus | |
US8063930B2 (en) | Automatic conversion from monoscopic video to stereoscopic video | |
KR100770019B1 (en) | Apparatus and Method for correction of the image distortion of stereo-camera | |
JP3032414B2 (en) | Image processing method and image processing apparatus | |
EP0707287B1 (en) | Image processing apparatus and method | |
WO2006062325A1 (en) | Apparatus for correcting image distortion of stereo-camera and method thereof | |
JP6585938B2 (en) | Stereoscopic image depth conversion apparatus and program thereof | |
JP3054312B2 (en) | Image processing apparatus and method | |
JP2019029721A (en) | Image processing apparatus, image processing method, and program | |
US10148931B2 (en) | Three-dimensional video image display processing device, video information recording medium, video information providing server, and recording medium storing a program | |
JPH08147497A (en) | Picture processing method and device therefor | |
KR101634225B1 (en) | Device and Method for Multi-view image Calibration | |
JPH08116556A (en) | Image processing method and device | |
JPH09200803A (en) | Image processing unit and image processing method | |
JPH09288735A (en) | Image processor | |
JP5243359B2 (en) | Stereoscopic image generation system and program | |
JP2019185283A (en) | Three-dimensional model generation apparatus and program thereof, and IP stereoscopic image display system | |
JPH07274063A (en) | Method and device for processing picture | |
JPH07296194A (en) | Method and device for image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20000315 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090407 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090407 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100407 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110407 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130407 Year of fee payment: 13 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130407 Year of fee payment: 13 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140407 Year of fee payment: 14 |
|
LAPS | Cancellation because of no payment of annual fees |