JP3032414B2 - Image processing method and image processing apparatus - Google Patents

Image processing method and image processing apparatus

Info

Publication number
JP3032414B2
JP3032414B2 JP5271698A JP27169893A JP3032414B2 JP 3032414 B2 JP3032414 B2 JP 3032414B2 JP 5271698 A JP5271698 A JP 5271698A JP 27169893 A JP27169893 A JP 27169893A JP 3032414 B2 JP3032414 B2 JP 3032414B2
Authority
JP
Japan
Prior art keywords
image
viewpoint
pixel
image processing
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP5271698A
Other languages
Japanese (ja)
Other versions
JPH07129792A (en
Inventor
宏一良 田中
昭宏 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP5271698A priority Critical patent/JP3032414B2/en
Priority to DE69434685T priority patent/DE69434685T2/en
Priority to EP94305725A priority patent/EP0637815B1/en
Publication of JPH07129792A publication Critical patent/JPH07129792A/en
Priority to US08/769,884 priority patent/US6191808B1/en
Application granted granted Critical
Publication of JP3032414B2 publication Critical patent/JP3032414B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、視点の異なる複数の画
像を入力とし、観察者の現在の目の位置に応じた視点位
置を有する画像を出力する画像処理方法および画像処理
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and an image processing apparatus for inputting a plurality of images having different viewpoints and outputting an image having a viewpoint position corresponding to the current eye position of an observer.

【0002】[0002]

【従来の技術】従来、複数の視点から見た画像を立体表
示する装置として、ステレオディスプレイやレンチキュ
ラディスプレイなどがある。ステレオディスプレイで
は、2台のカメラから得られた画像が交互に高速で切り
替えて表示される。観察者は、この切り替えに同期した
シャッターメガネや偏光メガネを用いることにより、映
像を立体的に観察することができる。またレンチキュラ
ディスプレイは、図13に示すように、例えば4台のカ
メラからの画像をそれぞれA,B,C,DとしてAの画素
位置(1,1)をA(1,1)と表記すると、液晶ディスプレ
イ91において画像A〜Dを画素単位に配置し、液晶デ
ィスプレイ91の前面にレンチキュラシート92を張り
付けることにより、4視点からの映像を立体的に表現す
ることができるというものである。
2. Description of the Related Art Conventionally, as a device for stereoscopically displaying an image viewed from a plurality of viewpoints, there are a stereo display and a lenticular display. In a stereo display, images obtained from two cameras are alternately displayed at high speed. The observer can view the image three-dimensionally by using shutter glasses or polarized glasses synchronized with the switching. In addition, as shown in FIG. 13, the lenticular display expresses pixel positions (1, 1) of A as A (1, 1), where images from four cameras are A, B, C, and D, for example. By arranging images A to D on the liquid crystal display 91 in pixel units and attaching a lenticular sheet 92 to the front surface of the liquid crystal display 91, images from four viewpoints can be three-dimensionally expressed.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上述し
た従来のステレオディスプレイでは、画像の撮影時にお
けるカメラの撮影方向の立体像しか観察することができ
なかった。すなわち、一般に2台のカメラを固定して物
体を撮影するので、観察者が視点(目の位置)を移動し
ても見える画像は同じであり、観察者側での視点移動が
反映しないので臨場感に欠けるという問題点がある。ま
た、レンチキュラディスプレイでは、観察者の視点位置
の左右方向の移動に対応できるが、それは複数のカメラ
のどれかから見た画像をとびとびに見るというものであ
って連続的な視点移動には対応できないうえに、前後方
向への視点を移動させることはできなかった。前後方向
への視点移動に関しては、コンピュータ・グラフィック
スで作成された画像を基に立体視する場合には行なわれ
ているが、これはコンピュータ・グラフィックスという
画像としては単純でかつ画像内の点の対応する3次元空
間内での座標値が全て明らかになっているという特殊な
状況下のものである。カメラで撮影した画像を立体視す
る場合には、前後方向への視点の移動は、これまでほと
んど検討されていない。
However, in the above-described conventional stereo display, only a three-dimensional image in a shooting direction of a camera at the time of shooting an image can be observed. That is, since an object is generally photographed with two cameras fixed, even if the observer moves his or her viewpoint (eye position), the same image can be seen, and the viewpoint movement on the observer side is not reflected. There is a problem of lack of feeling. In addition, the lenticular display can cope with the movement of the observer's viewpoint position in the left-right direction, but it can see the image viewed from any of the multiple cameras in a discrete manner and cannot cope with continuous viewpoint movement. In addition, it was not possible to move the viewpoint in the front-back direction. The viewpoint movement in the front-back direction is performed in the case of stereoscopic viewing based on an image created by computer graphics, but this is simple as a computer graphics image and a point in the image. This is under a special situation where the coordinate values in the corresponding three-dimensional space are all clear. When stereoscopically viewing an image captured by a camera, the movement of the viewpoint in the front-back direction has hardly been considered so far.

【0004】本発明の目的は、観察者の目の位置が前後
方向を含む各方向へ移動した場合に、その移動した位置
から見た画像をリアルタイムで与えることができる画像
処理方法および画像処理装置を提供することにある。
An object of the present invention is to provide an image processing method and an image processing apparatus capable of providing an image viewed from the moved position in real time when the position of the observer's eyes moves in various directions including the front-back direction. Is to provide.

【0005】[0005]

【課題を解決するための手段】本発明の画像処理方法
は、それぞれ異なる位置を視点として被写体を撮影した
複数の画像を該画像の撮影時のパラメータとともに多視
点画像データとして入力する多視点画像入力工程と、前
記被写体を観察する視点位置及び視線方向を入力する視
点入力工程と、前記視点入力工程によって入力された前
記視点位置から前記視線方向を見たときの画像を前記多
視点画像データの中から選択し、該画像の前記視線方向
に対応する画素位置情報を、該画像の撮影時のパラメー
タに基づいて画素単位で演算し、表示画面の対応画素情
報として画素単位で出力することにより画像データを再
構成する画像再構成工程と、再構成された画像データ
画像出力装置に出力する画像出力工程とを有する。
An image processing method according to the present invention is a multi-view image input method for inputting, as multi-view image data, a plurality of images obtained by shooting a subject from different positions as viewpoints, together with parameters at the time of shooting the images. A viewpoint input step of inputting a viewpoint position and a line-of-sight direction for observing the subject; and an image obtained when the line-of-sight direction is viewed from the viewpoint position input in the viewpoint input step, in the multi-viewpoint image data. image data by selecting, the pixel position information corresponding to the viewing direction of the image, calculated in pixel units based on the parameters at the time of photographing of the image, and outputs in units of pixels as the corresponding pixel information of the display screen from the And an image output step of outputting the reconstructed image data to the image output device.

【0006】本発明の画像処理装置は、それぞれ異なる
位置を視点として被写体を撮影した複数の画像を該画像
の撮影時のパラメータとともに多視点画像データとして
入力する多視点画像入力手段と、前記被写体を観察する
視点位置及び視線方向を入力する視点入力手段と、前記
視点入力手段によって入力された前記視点位置から前記
視線方向を見たときの画像を前記多視点画像データの中
から選択し、該画像の前記視線方向に対応する画素位置
情報を、該画像の撮影時のパラメータに基づいて画素単
位で演算し、表示画面の対応画素情報として画素単位で
出力することにより画像データを再構成する画像再構成
手段と、再構成された画像データを画像出力装置に出力
する画像出力手段とを有する。
[0006] An image processing apparatus according to the present invention comprises a multi-view image input means for inputting a plurality of images of a subject taken from different positions as viewpoints as multi-view image data together with parameters at the time of capturing the images, A viewpoint input unit for inputting a viewpoint position and a line-of-sight direction to observe, and selecting an image when the line-of-sight direction is viewed from the viewpoint position input by the viewpoint input unit from the multi-viewpoint image data; the pixel positions <br/> information corresponding to the viewing direction, the pixel single based on the parameters at the time of photographing of the image of
Calculated in place, and an image reconstruction means for reconstructing image data by <br/> output in units of pixels as the corresponding pixel information of the display screen, an image output that outputs the image data reconstructed in the image output device Means.

【0007】[0007]

【作用】観察者の目の位置を検出し、観察者から見える
画像を複数枚の画像から再構成するので、観察者の視点
が移動した場合にそれに対応した画像をスムーズに出力
することができる。
Since the position of the observer's eyes is detected and the image seen by the observer is reconstructed from a plurality of images, an image corresponding to the movement of the observer's viewpoint can be output smoothly. .

【0008】視点位置の異なる複数の画像からなる多視
点画像データとしては、1台以上のカメラから得られる
多数枚の画像や、データベースに蓄積されている多数の
画像を用いることができる。画像の再構成を行なうため
には、多視点画像データは十分に細かい間隔で撮影位置
を変化させた画像であることが望まれるが、後述するよ
うに、撮影位置の間隔が粗い場合であっても、撮影され
た画像に対して補間処理を施して隣接する撮影位置間の
位置を視点位置とする画像を生成し、これら撮影された
画像および生成した画像を多視点画像データとすること
により、画像の再構成を行なうことができる。
[0008] As multi-view image data composed of a plurality of images having different viewpoint positions, a large number of images obtained from one or more cameras or a large number of images stored in a database can be used. In order to reconstruct an image, it is desired that the multi-view image data is an image in which the shooting positions are changed at sufficiently small intervals. However, as described later, when the intervals between the shooting positions are coarse, Also, by performing interpolation processing on the captured image to generate an image with the position between adjacent imaging positions as the viewpoint position, and by using these captured image and the generated image as multi-view image data, Image reconstruction can be performed.

【0009】画像の再構成は、観察者の目の位置および
画像出力装置の種類から画像の再構成に必要なパラメー
タを計算し、再構成される画像の各画素が多視点画像デ
ータの画像のどの画素に対応するかを求めたパラメータ
に基づいて計算し、対応する画素を多視点画像データか
ら抽出することにより行なわれる。この場合、観察者の
目の位置が多視点画像データ中のいずれの画像の視点位
置とも一致しない場合であっても、画素間の対応は求め
られ、したがって、画像の再構成が良好に行なわれる。
In the image reconstruction, parameters required for image reconstruction are calculated from the position of the observer's eyes and the type of image output device, and each pixel of the image to be reconstructed is converted to an image of multi-viewpoint image data. This is performed by calculating which pixel corresponds to the calculated parameter, and extracting the corresponding pixel from the multi-view image data. In this case, even when the position of the observer's eye does not match the viewpoint position of any image in the multi-view image data, the correspondence between pixels is obtained, and therefore, image reconstruction is favorably performed. .

【0010】画像出力装置としては、通常のディスプレ
イの他、ステレオディスプレイ、ヘッド・マウンテッド
・ディスプレイ、レンチキュラディスプレイなどを使用
することができる。
As an image output device, a stereo display, a head mounted display, a lenticular display, etc. can be used in addition to a normal display.

【0011】[0011]

【実施例】次に、本発明の実施例について図面を参照し
て説明する。
Next, embodiments of the present invention will be described with reference to the drawings.

【0012】《第1の実施例》図1は本発明の第1の実
施例の画像処理装置の構成を示すブロック図である。こ
の画像処理装置は、固定設置された表示スクリーン1を
介し、後述のように再構成された画像を利用者(観察
者)に対して表示するためのものである。すなわちこの
画像処理装置は、表示スクリーン1を眺める利用者の目
の位置を検出する視点検出器2と、多視点画像データを
保持するデータベースである多視点画像データベース3
と、表示スクリーン1に関するパラメータを保持する表
示パラメータ4と、多視点画像データベース3内の各画
像についてその画像を撮影したときの撮影位置の座標系
のデータを格納した撮影視点座標系保持部5と、多視点
画像データベース3内の画像の画像パラメータを保持す
る多視点画像パラメータ保持部6と、視点検出器2から
の信号を基に視点パラメータを算出するともに利用者の
視点位置が変化した場合に更新信号15を出力する視点
パラメータ算出部7と、利用者の視点に応じた画像を生
成する画像生成部8と、画像生成部8で生成した画像を
表示スクリーンに表示する画像表示部14と、画像の再
構成のために各画素値を算出して画素値信号16として
画像生成部8に出力する画素値生成部17とによって構
成されている。
<< First Embodiment >> FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to a first embodiment of the present invention. This image processing device is for displaying a reconstructed image to a user (observer) through a fixedly installed display screen 1 as described later. That is, the image processing apparatus includes a viewpoint detector 2 for detecting a position of an eye of a user looking at a display screen 1, and a multi-view image database 3 which is a database for holding multi-view image data.
A display parameter 4 for storing parameters relating to the display screen 1, a shooting viewpoint coordinate system holding unit 5 for storing, for each image in the multi-view image database 3, coordinate system data of a shooting position when the image is shot. A multi-viewpoint image parameter holding unit 6 for holding image parameters of images in the multi-viewpoint image database 3, and calculating a viewpoint parameter based on a signal from the viewpoint detector 2 when the viewpoint position of the user changes. A viewpoint parameter calculation unit 7 that outputs an update signal 15, an image generation unit 8 that generates an image corresponding to the user's viewpoint, an image display unit 14 that displays an image generated by the image generation unit 8 on a display screen, A pixel value generation unit 17 that calculates each pixel value for image reconstruction and outputs the pixel value as a pixel value signal 16 to the image generation unit 8.

【0013】ここで多視点画像データベース3内の画像
は、十分に細かい間隔で平面上に並んだ多数の視点か
ら、表示すべき対象物を撮影した画像である。これに対
応して、撮影視点座標系保持部5に保持されているデー
タは、これら画像を撮影した際の視点の並びの平面を表
わす座標系のデータである。また、画像生成部8は、更
新信号15を受信したときに画像の生成を行なうように
構成されており、画像生成部8からは、再構成後の画像
すなわち表示スクリーン1上の画像での注目する画素の
座標を示す画素インデクス信号9が出力されている。画
素インデクス信号9は、画像の再構成を行なう場合に、
再構成後の画像の全画素を一巡するように順次出力され
るようになっている。
Here, the images in the multi-view image database 3 are images obtained by photographing an object to be displayed from a number of viewpoints arranged on a plane at sufficiently fine intervals. Correspondingly, the data held in the shooting viewpoint coordinate system holding unit 5 is data of a coordinate system representing a plane in which the viewpoints are arranged when these images are shot. The image generation unit 8 is configured to generate an image when the update signal 15 is received, and from the image generation unit 8, attention is paid to the reconstructed image, that is, the image on the display screen 1. A pixel index signal 9 indicating the coordinates of the pixel to be output is output. The pixel index signal 9 is used when reconstructing an image.
The pixels are sequentially output so as to make one cycle through all the pixels of the reconstructed image.

【0014】次に、画素値生成部17の構成を説明す
る。画素値生成部17には、画素インデクス信号9の示
す画素に対応する視線方向を視点パラメータおよび表示
パラメータから算出する視線パラメータ算出部10と、
仮想視点を算出する仮想視点パラメータ算出部11と、
仮想視点における画像の、視線方向に対応する画素位置
を算出する画素位置算出部12と、画素位置と仮想視点
パラメータをもとに多視点画像データベース3内の画像
から対応する画素値を算出する画素値算出部13とが設
けられている。ここで、仮想視点とは、視線パラメータ
の表す視線と撮影視点座標系が表わす撮影視点の並びの
平面との交点のことである。また、画素位置算出部12
における画素位置の算出には、視線パラメータ、撮影視
点座標系、仮想視点パラメータおよび多視点画像パラメ
ータが使用される。画素値算出部13で算出された画素
値は画素値信号16となる。
Next, the configuration of the pixel value generator 17 will be described. The pixel value generation unit 17 includes a line-of-sight parameter calculation unit 10 that calculates a line-of-sight direction corresponding to the pixel indicated by the pixel index signal 9 from the viewpoint parameters and the display parameters.
A virtual viewpoint parameter calculation unit 11 for calculating a virtual viewpoint,
A pixel position calculating unit 12 that calculates a pixel position corresponding to a line-of-sight direction of an image at a virtual viewpoint, and a pixel that calculates a corresponding pixel value from an image in the multi-view image database 3 based on the pixel position and the virtual viewpoint parameters A value calculation unit 13 is provided. Here, the virtual viewpoint is an intersection point between the line of sight indicated by the line of sight parameter and the plane of the arrangement of the imaging viewpoints represented by the imaging viewpoint coordinate system. In addition, the pixel position calculation unit 12
The pixel position is calculated using a line-of-sight parameter, a shooting viewpoint coordinate system, a virtual viewpoint parameter, and a multi-viewpoint image parameter. The pixel value calculated by the pixel value calculation unit 13 becomes a pixel value signal 16.

【0015】次に本実施例の動作について説明する。ま
ずこの動作の概要を説明する。
Next, the operation of this embodiment will be described. First, an outline of this operation will be described.

【0016】表示スクリーン1を眺める利用者が頭の位
置を変えて視点を移動させると、視点検出器2の出力す
る信号が変化し、視点パラメータ算出部7はこの変化を
受けて更新信号15を画像生成部8ヘ送る。画像生成部
8は、更新信号15を受けると、視点移動に対応した新
たな画像の生成を開始する。この新たな画像の生成は、
画像生成部8が、全ての画素について画素インデクス信
号9を順次出力し、各画素ごとの画素値信号16を画素
値生成部17より順次獲得することによって行なわれ
る。ここで、画素値生成部17の動作を説明する。
When the user looking at the display screen 1 changes his or her head position and moves his / her viewpoint, the signal output from the viewpoint detector 2 changes, and the viewpoint parameter calculation unit 7 receives this change and updates the update signal 15. Send to the image generation unit 8. Upon receiving the update signal 15, the image generator 8 starts generating a new image corresponding to the viewpoint movement. The creation of this new image
The image generation unit 8 sequentially outputs the pixel index signals 9 for all the pixels, and sequentially obtains the pixel value signals 16 for each pixel from the pixel value generation unit 17. Here, the operation of the pixel value generation unit 17 will be described.

【0017】画素値生成部17では、まず、視線パラメ
ータ算出部10が、視点パラメータ算出部7から視点パ
ラメータを、表示パラメータ保持部4から表示パラメー
タをそれぞれ取得し、入力した画素インデクス信号9に
対応する視線パラメータを算出する。次に、仮想視点パ
ラメータ算出部11が、撮影視点座標系保持部5から撮
影視点座標系を取得し、視線パラメータの表す視線と撮
影視点座標系が表す撮影視点の並びの平面との交点(仮
想視点)を表す仮想視点パラメータを算出する。一方、
画素位置算出部12は、多視点画像パラメータ保持部1
7から多視点画像パラメータを取得し、そのほか視線パ
ラメータ、撮影視点座標系、仮想視点パラメータから、
仮想視点における画像の、視線方向に対応する画素位置
を算出する。そして画素値算出部13が、画素位置と仮
想視点パラメータとを基に、多視点画像データベース3
内の画像から、対応する画素値信号16を算出する。こ
のようにして、画素値生成部17は、入力する画素イン
デクス信号9ごとに画素値信号16を算出して画像生成
部8に出力する。
In the pixel value generation unit 17, first, the line-of-sight parameter calculation unit 10 obtains the viewpoint parameters from the viewpoint parameter calculation unit 7 and the display parameters from the display parameter holding unit 4, and corresponds to the input pixel index signal 9. Gaze parameters to be calculated. Next, the virtual viewpoint parameter calculation unit 11 obtains the shooting viewpoint coordinate system from the shooting viewpoint coordinate system holding unit 5 and intersects the intersection (virtual) of the line of sight indicated by the line-of-sight parameter and the plane of the shooting viewpoints indicated by the shooting viewpoint coordinate system. (Viewpoint) is calculated. on the other hand,
The pixel position calculation unit 12 is a multi-view image parameter holding unit 1
7, and obtains the multi-viewpoint image parameters from the line-of-sight parameters, the shooting viewpoint coordinate system, and the virtual viewpoint parameters.
A pixel position corresponding to the line-of-sight direction of the image at the virtual viewpoint is calculated. Then, the pixel value calculation unit 13 calculates the multi-view image database 3 based on the pixel position and the virtual viewpoint parameters.
Then, the corresponding pixel value signal 16 is calculated from the images in the above. In this way, the pixel value generation unit 17 calculates the pixel value signal 16 for each input pixel index signal 9 and outputs the pixel value signal 16 to the image generation unit 8.

【0018】画像生成部8は、画素値信号16を画素値
算出部13より全ての画素について得ると、これを画像
表示部14ヘ送る。画像表示部14は、こうして生成さ
れた新しい視点に対応した画像を表示スクリーン1ヘ表
示する。これにより、利用者の視点移動に伴う一連の画
像生成動作が完了する。後述する説明から明らかになる
ように、利用者は、前後上下左右に視点を移動した場
合、そこが多視点画像データベース3に保持されている
各画像を撮影した視点以外の場所であっても、その視点
移動に合わせた対象物の画像を表示スクリーン1を通し
て眺めることができる。
When the pixel value signal 16 is obtained from the pixel value calculation unit 13 for all the pixels, the image generation unit 8 sends it to the image display unit 14. The image display unit 14 displays the image corresponding to the new viewpoint generated in this manner on the display screen 1. As a result, a series of image generation operations accompanying the movement of the viewpoint of the user is completed. As will be apparent from the following description, when the user moves his / her viewpoint from front to back, up, down, left and right, even if that is a place other than the viewpoint where each image held in the multi-view image database 3 is captured, The image of the object in accordance with the movement of the viewpoint can be viewed through the display screen 1.

【0019】次に、各部の処理を詳しく説明する。ただ
し、説明をわかりやすくするため、以下では上下方向の
視差をないものとし、左右方向の視差のみを考慮する。
Next, the processing of each section will be described in detail. However, for the sake of simplicity, the following description assumes no vertical parallax and considers only horizontal parallax.

【0020】まず、視線パラメータ算出部10における
視線パラメータの算出処理を説明する。図2は視線パラ
メータ算出部10の算出原理を示す図であり、図3は視
線パラメータ算出部10の処理を示すフローチャートで
ある。
First, the process of calculating the line-of-sight parameters in the line-of-sight parameter calculation unit 10 will be described. FIG. 2 is a diagram showing the calculation principle of the eye-gaze parameter calculation unit 10, and FIG. 3 is a flowchart showing the processing of the eye-gaze parameter calculation unit 10.

【0021】図2において、表示スクリーン1の端点2
1、表示スクリーン1上の注目する画素位置23および
利用者の視点位置24の位置ベクトルをそれぞれ
In FIG. 2, an end point 2 of the display screen 1 is shown.
1. The position vector of the pixel position of interest 23 on the display screen 1 and the position vector of the user's viewpoint position 24 are respectively

【0022】[0022]

【外1】 とする。また、ベクトル22は、長さが表示スクリーン
1のピクセルピッチであり、傾きが表示スクリーン1の
傾きに一致するベクトルであり、これを
[Outside 1] And The vector 22 is a vector whose length is the pixel pitch of the display screen 1 and whose inclination matches the inclination of the display screen 1.

【0023】[0023]

【外2】 とする。視線25は、注目する画素位置23に対応し、
この視線25の傾きを表わすベクトル26を
[Outside 2] And The line of sight 25 corresponds to the pixel position 23 of interest,
A vector 26 representing the inclination of the line of sight 25 is

【0024】[0024]

【外3】 とする。[Outside 3] And

【0025】まず、視点パラメータ算出部7から視点パ
ラメータを取得する(ステップ31)。視点パラメータ
とは、図2における利用者の視点位置24である。ま
た、表示パラメータ保持部4から表示パラメータを取得
する(ステップ32)。表示パラメータとは、表示スク
リーン1の端点21、表示スクリーンベクトル22で表
わされる。表示スクリーンベクトル22は、表示スクリ
ーン1の傾き、実サイズおよびピクセルサイズから決定
される。次に、図2に示される配置に基づき、画素イン
デクス信号9に対応して、表示スクリーン1上の注目す
る画素位置23を以下の(1)式で算出する(ステップ3
3)。ただし、画素インデクス信号9をiとする。
First, a viewpoint parameter is obtained from the viewpoint parameter calculator 7 (step 31). The viewpoint parameter is the viewpoint position 24 of the user in FIG. In addition, display parameters are acquired from the display parameter storage 4 (step 32). The display parameters are represented by an end point 21 of the display screen 1 and a display screen vector 22. The display screen vector 22 is determined from the inclination, the actual size, and the pixel size of the display screen 1. Next, based on the arrangement shown in FIG. 2, the target pixel position 23 on the display screen 1 is calculated by the following equation (1) in correspondence with the pixel index signal 9 (step 3).
3). Here, the pixel index signal 9 is i.

【0026】[0026]

【数1】 画素位置23を求めたら、視点位置24から眺めた場合
の画素位置23の方向に対応する視線パラメータを求め
(ステップ34)、視線パラメータを求める処理を終了
する。視線パラメータは、視点位置24および視線ベク
トル26の組
(Equation 1) After obtaining the pixel position 23, a line-of-sight parameter corresponding to the direction of the pixel position 23 when viewed from the viewpoint position 24 is obtained (step 34), and the processing for obtaining the line-of-sight parameter is ended. The line-of-sight parameter is a set of a viewpoint position 24 and a line-of-sight vector 26.

【0027】[0027]

【外4】 として表わされる。視線25が画素位置23および視点
位置24の2点を通る直線であるから、視線ベクトル2
6は以下の(2)式で算出できる。
[Outside 4] Is represented as Since the line of sight 25 is a straight line passing through the two points of the pixel position 23 and the viewpoint position 24, the line of sight vector 2
6 can be calculated by the following equation (2).

【0028】[0028]

【数2】 次に、仮想視点パラメータ算出部11と画素位置算出部
12での処理を説明する。図4は、仮想視点パラメータ
と画素位置の算出原理を示す図である。
(Equation 2) Next, processing in the virtual viewpoint parameter calculation unit 11 and the pixel position calculation unit 12 will be described. FIG. 4 is a diagram illustrating the principle of calculating virtual viewpoint parameters and pixel positions.

【0029】上述したように本実施例では、多視点画像
データベース3内の各画像を撮影した際の視点は同一平
面上に並んでいる。この並びの平面の断面が図において
視点並び直線41として表わされている。仮想視点42
は、視線25と視点並び直線41との交点として表わさ
れ、その位置ベクトルを
As described above, in the present embodiment, the viewpoints at the time of photographing each image in the multi-viewpoint image database 3 are arranged on the same plane. The cross section of the plane of this arrangement is shown as a viewpoint arrangement straight line 41 in the figure. Virtual viewpoint 42
Is represented as the intersection between the line of sight 25 and the line of viewpoints 41, and its position vector is

【0030】[0030]

【外5】 とする。また、視点並び直線41の傾きを表すべクトル
43を
[Outside 5] And In addition, a vector 43 representing the inclination of the viewpoint arrangement straight line 41 is represented by

【0031】[0031]

【外6】 とし、視点並び直線41の端点44の位置ベクトルを[Outside 6] And the position vector of the end point 44 of the line of viewpoints 41 is

【0032】[0032]

【外7】 とする。視野45は仮想視点42における画角θを表わ
し、ベクトル46は、多視点データの画像を撮影したカ
メラの焦点距離を長さとし、カメラの傾きをその傾きと
するものであって、
[Outside 7] And The field of view 45 represents the angle of view θ at the virtual viewpoint 42, the vector 46 is the length of the focal length of the camera that captured the image of the multi-viewpoint data, and the inclination of the camera is the inclination.

【0033】[0033]

【外8】 という。仮想視点42における仮想的な撮像面47、仮
想的な撮像面47と視線25との交点である画素位置4
8を定める。画素位置48の位置ベクトルが
[Outside 8] That. A virtual imaging plane 47 at the virtual viewpoint 42, and a pixel position 4 which is an intersection of the virtual imaging plane 47 and the line of sight 25
8 is determined. The position vector of pixel position 48 is

【0034】[0034]

【外9】 で示されている。さらに、長さが仮想的な撮像面47の
1ピクセルピッチであり、傾きが仮想的な撮像面47の
傾き(通常は焦点ベクトル46に直角)に一致するべク
トル49を
[Outside 9] Indicated by Further, a vector 49 whose length is one pixel pitch of the virtual imaging surface 47 and whose inclination matches the inclination of the virtual imaging surface 47 (usually perpendicular to the focus vector 46).

【0035】[0035]

【外10】 とする。[Outside 10] And

【0036】ここで、視点並びべクトル43および視点
並び直線41の端点44が、撮影視点座標系を表す値と
して撮影視点座標系保持部5に保持されている。また焦
点ベクトル46および撮像面ベクトル49は、多視点画
像パラメータとして多視点画像パラメータ保持部6に保
持されている。撮像面ベクトル49の大きさは、実際の
撮像面のセルサイズ(1ピクセルの大きさ)に等しい。
Here, the viewpoint arrangement vector 43 and the end point 44 of the viewpoint arrangement straight line 41 are held in the imaging viewpoint coordinate system holding unit 5 as values representing the imaging viewpoint coordinate system. The focus vector 46 and the imaging plane vector 49 are held in the multi-viewpoint image parameter holding unit 6 as multi-viewpoint image parameters. The size of the imaging plane vector 49 is equal to the actual cell size of the imaging plane (the size of one pixel).

【0037】以上のように各点、各ベクトルがあわされ
るとき、仮想視点42は以下の(3),(4)式で表される。
When each point and each vector are linked as described above, the virtual viewpoint 42 is expressed by the following equations (3) and (4).

【0038】[0038]

【数3】 ここで仮想視点を一意に表すパラメータとして、tを仮
想視点パラメータとする。αは視線方向の係数である。
仮想視点パラメータ算出部11は、(3),(4)式を解くこ
とによりtを算出し、
(Equation 3) Here, t is a virtual viewpoint parameter as a parameter that uniquely represents the virtual viewpoint. α is a coefficient in the line-of-sight direction.
The virtual viewpoint parameter calculation unit 11 calculates t by solving equations (3) and (4),

【0039】[0039]

【外11】 を算出する。[Outside 11] Is calculated.

【0040】また、画素位置48は以下の(5),(6)式で
表される。
The pixel position 48 is represented by the following equations (5) and (6).

【0041】[0041]

【数4】 ここで、画素位置48を一意に表すパラメータとして
i'を画素位置パラメータとする。βは視線方向の係数
である。画素位置算出部12は、(5),(6)式を解くこと
により画素位置パラメータi'を算出し、これを出力と
する。
(Equation 4) Here, i ′ is a pixel position parameter as a parameter that uniquely represents the pixel position 48. β is a coefficient of the line-of-sight direction. The pixel position calculation unit 12 calculates a pixel position parameter i ′ by solving equations (5) and (6), and outputs the calculated pixel position parameter i ′.

【0042】次に、画素値算出部13の処理について具
体的に説明する。本実施例では、多視点画像データベー
ス3に保持されている多視点画像は、十分細かい視点間
隔で撮影した画像である。そこで、まず、仮想視点パラ
メータ算出部11で算出された仮想視点パラメータの示
す仮想視点42からの画像の近似画像として、この仮想
視点42に一番近い視点から撮影された画像を、多視点
画像データベース3の中から見つける。次に、この画像
のうち、画素位置算出部12で算出された画素位置48
に最も近い位置の画素の値を取得し、これを出力の画素
値信号16とする。
Next, the processing of the pixel value calculating section 13 will be specifically described. In the present embodiment, the multi-view images stored in the multi-view image database 3 are images captured at sufficiently small viewpoint intervals. Therefore, first, as an approximate image of the image from the virtual viewpoint 42 indicated by the virtual viewpoint parameter calculated by the virtual viewpoint parameter calculation unit 11, an image taken from the viewpoint closest to the virtual viewpoint 42 is stored in the multi-view image database. Find among three. Next, in this image, the pixel position 48 calculated by the pixel position calculation unit 12 is used.
The pixel value at the position closest to is obtained, and this is set as the output pixel value signal 16.

【0043】以上、説明をわかりやすくするため、上下
方向の視差を省略した場合についての各部の処理を説明
したが、上下方向の多視点画像を用意すれば、同様の方
法により、上下方向の視差を考慮に入れた前後上下左右
に視点移動可能な両眼立体表示装置となる。なお、表示
スクリーン1および画像表示部8に、レンチキュラ方式
やメガネ方式などの両眼立体視が可能な立体表示スクリ
ーンおよび立体画像表示部を用い、かつ、視点パラメー
タ算出部7が左右おのおのの目の位置に対応する視点パ
ラメータを算出し、これに対応して画像生成部8が左右
おのおのの目に提示するための画像を生成することによ
り、前後上下左右に視点移動可能な両眼立体表示装置と
なる。
In the above, for the sake of simplicity, the processing of each unit in the case where the vertical parallax is omitted has been described. However, if a vertical multi-viewpoint image is prepared, the vertical parallax is obtained in the same manner. In consideration of the above, a binocular stereoscopic display device capable of moving the viewpoint forward, backward, up, down, left and right is provided. The display screen 1 and the image display unit 8 use a stereoscopic display screen and a stereoscopic image display unit that can perform binocular stereoscopic viewing such as a lenticular system or an eyeglass system, and the viewpoint parameter calculation unit 7 uses the left and right eyes. A binocular stereoscopic display device capable of moving the viewpoint forward, backward, up, down, left, and right by calculating viewpoint parameters corresponding to the position, and generating an image to be presented to each of the left and right eyes by the image generation unit 8 in response to the calculation; Become.

【0044】《第2の実施例》次に、多視点画像データ
ベース3に保持されている各画像の視点間隔が十分に細
かくない場合でも、自由に視点移動表示が行なえる画像
処理装置を説明する。この画像処理装置は、上述した第
1の実施例の画像処理装置の多視点画像データベース3
と画素値算出部13との間に視点間補間処理部が設けら
れた構成となっている。視点間補間処理部は、多視点画
像データベース3中の粗い視点間隔で撮影された各画像
から、補間処理を行なうことによって、十分に細かい視
点間間隔の一群の画像を生成するものである。こうして
十分に細かい視点間間隔とされた画像を用いることによ
り、第1の実施例と同様に、利用者の視点の変化に対応
した画像が生成される。
<< Second Embodiment >> Next, an image processing apparatus capable of freely performing a viewpoint movement display even when the viewpoint interval of each image held in the multi-view image database 3 is not sufficiently small will be described. . This image processing device is a multi-view image database 3 of the image processing device of the first embodiment described above.
The configuration is such that an inter-viewpoint interpolation processing unit is provided between the image processing unit and the pixel value calculation unit 13. The inter-viewpoint interpolation processing unit generates a group of images with sufficiently fine inter-viewpoint intervals by performing interpolation processing from each image captured at the coarse viewpoint intervals in the multi-viewpoint image database 3. By using an image with a sufficiently fine inter-viewpoint interval, an image corresponding to a change in the user's viewpoint is generated as in the first embodiment.

【0045】以下、視点間補間処理部について詳しく説
明する。ここでは、説明をわかりやすくするため、上下
方向の視差を考慮しない場合について説明する。このと
き、多視点画像データベース3中には、左右方向に1直
線上に並んだ各撮影視点からの画像が保持されている。
Hereinafter, the inter-view interpolation processing unit will be described in detail. Here, in order to make the description easy to understand, a case will be described in which the vertical parallax is not considered. At this time, the multi-viewpoint image database 3 holds images from the respective shooting viewpoints arranged on one straight line in the left-right direction.

【0046】図5は、視点間補間処理部の処理の流れを
示すフローチャートである。多視点画像データベース3
の中から粗い視点間隔で撮影された画像を取得する(ス
テップ51)。次に、取得した各画像間で対応点探索
(動きベクトル検出)を行なう(ステップ52)。対応
点探索が終了したら、撮影視点に基づく補間処理を行な
い、十分に細かい視点間間隔の画像を生成し(ステップ
53)、処理を終了する。
FIG. 5 is a flowchart showing the flow of the processing of the inter-viewpoint interpolation processing section. Multi viewpoint image database 3
An image photographed at a coarse viewpoint interval is obtained from among (step 51). Next, a corresponding point search (motion vector detection) is performed between the acquired images (step 52). When the corresponding point search is completed, an interpolation process based on the photographing viewpoint is performed to generate an image with sufficiently fine inter-viewpoint intervals (step 53), and the process ends.

【0047】まず、対応点検索について、図6のフロー
チャートを用いて説明する。
First, the corresponding point search will be described with reference to the flowchart of FIG.

【0048】初期設定として、注目ラスタを各画像の第
1ラスタにセットする(ステップ61)。次に、各画像
の注目ラスタをワークメモリ(不図示)に読み込み(ス
テップ62)、仮想的に1番目のエピポーラプレーンを
構成する。ここで言うj番目のエピポーラプレーンと
は、図7に示すように画像平面上の各点EPj(x,i)が
As an initial setting, the raster of interest is set to the first raster of each image (step 61). Next, the raster of interest of each image is read into a work memory (not shown) (step 62) to virtually configure the first epipolar plane. Here, the j-th epipolar plane refers to each point EP j (x, i) on the image plane as shown in FIG.

【0049】[0049]

【数5】EPj(x,i)=Ni(x,j) を満たすような点EPj(x,i)の集合のことである。た
だし、Ni(x,j)はi番目の画像(ここでは、i=1〜
4)のjライン目におけるx番目の画素値、すなわちi
番目の画像において座標が(x,j)で表される画素の値
を表している。カメラなどの画像入力機器が等間隔で並
行に設置されている場合、このエピポーラプレーン上で
は、対応する点は全て直線上に並んで存在する。したが
って、画像の補間はこの直線上で行なえばよいことにな
る。
## EQU5 ## This is a set of points EP j (x, i) satisfying EP j (x, i) = N i (x, j). Here, N i (x, j) is the i-th image (here, i = 1 to
4) The x-th pixel value in the j-th line, that is, i
In the second image, the coordinates represent the value of the pixel represented by (x, j). When image input devices such as cameras are installed in parallel at equal intervals, all the corresponding points exist on the epipolar plane in a straight line. Therefore, image interpolation may be performed on this straight line.

【0050】そこで、対応点が存在する直線を抽出し
(ステップ63)、得られた直線から対応点を計算し、
記憶する(ステップ64)。具体的な対応点計算アルゴ
リズムを以下に示す。
Then, a straight line having a corresponding point is extracted (step 63), and a corresponding point is calculated from the obtained straight line.
It is stored (step 64). A specific corresponding point calculation algorithm is shown below.

【0051】手順A1: EPj(x,1)を注目画素と
し、m=k1〜k1+k2の範囲内で
Procedure A1: EP j (x, 1) is set as a target pixel, and within a range of m = k 1 to k 1 + k 2.

【0052】[0052]

【数6】 を満足するmを全て求める。ただしTH2は対応点を見
つけるための閾値であり、ここでは1600(=4×2
2)に設定している。また、k1は入力画像の撮影方法
に依存した値で、カメラを等間隔に配置し光軸を平行に
して撮影した場合には、k1=0である。k2はカメラ間
隔と物体までの距離により決定される値で、ここでは2
0に設定(すなわち、20画素以上は移動しないと仮
定)している。
(Equation 6) Find all m that satisfies. Here, TH2 is a threshold for finding a corresponding point, and here, 1600 (= 4 × 2
0 2 ). In addition, k 1 is a value depending on a method of capturing an input image, and k 1 = 0 when cameras are arranged at equal intervals and the optical axis is captured in parallel. k 2 is a value determined by the camera interval and the distance to the object, and here 2
It is set to 0 (that is, it is assumed that 20 pixels or more do not move).

【0053】手順A2: x=1〜nxの全てのxにつ
いて、手順A1を繰り返し、xの値と対応するmの値を
全て保持する。ただし、nxは画像の主走査方向の画素
数を表す。また、EPj(x+m×(i−1),i)が存在し
ない場合は、このmにおける対応点は存在しないとして
処理を続ける。
[0053] Procedure A2: for all x of x = 1 to n x, repeat steps A1, holds all the values of m corresponding to the value of x. However, n x represents the number of pixels in the main scanning direction of the image. If EP j (x + m × (i−1), i) does not exist, the process is continued assuming that there is no corresponding point in m.

【0054】手順A3: 手順A1およびA2により求
まった傾きmの直線から優先順位1の対応点を求め、メ
モリに記憶する。複数の対応点が求まった場合は、便宜
上、全てを優先順位1の対応点として記憶する、対応点
として求まった画素は処理済の画素とする。
Procedure A3: A corresponding point of priority 1 is obtained from the straight line having the slope m obtained by procedures A1 and A2 and stored in the memory. When a plurality of corresponding points are obtained, all of them are stored as corresponding points of priority 1 for convenience. Pixels obtained as corresponding points are processed pixels.

【0055】手順A4: 手順A1〜A3を1サイクル
として、処理済でない画素に対して上記のサイクルを繰
り返す。手順A1においてEPj(x+m×(i−1),i)
が処理済の場合には、EPj(x+m×(i−1),i)−E
j(x,1)=0として処理を続ける。手順A3において
傾きmの直線より求まった対応点が既に処理済の場合
は、この点を対応点から除外する。第nサイクルで求ま
った対応点は優先順位nの対応点として記憶する。
Step A4: Steps A1 to A3 are defined as one cycle, and the above cycle is repeated for unprocessed pixels. In procedure A1, EP j (x + m × (i−1), i)
Has been processed, EP j (x + mx × (i−1), i) −E
The processing is continued with P j (x, 1) = 0. If the corresponding point obtained from the straight line having the slope m in step A3 has already been processed, this point is excluded from the corresponding points. The corresponding points obtained in the n-th cycle are stored as the corresponding points of the priority n.

【0056】手順A5: 手順A4の処理を行なっても
未処理の画素が減らなくなったならば、EPj(x,2)を
注目画素として、手順A1〜A4を実行する。ただし、
x=1〜nxである。
Procedure A5: If the number of unprocessed pixels does not decrease even after the processing of procedure A4, the procedures A1 to A4 are executed with EP j (x, 2) as the pixel of interest. However,
It is x = 1~n x.

【0057】手順A6: 手順A5の処理を行なっても
未処理の画素が減らなくなったならば、EPj(x,3)を
注目画素として、手順A1〜A4を実行する。ただし、
x=1〜nxである。
Step A6: If the number of unprocessed pixels does not decrease even after the processing of step A5, steps A1 to A4 are executed with EP j (x, 3) as the pixel of interest. However,
It is x = 1~n x.

【0058】手順A7: 以下同様にしてjの値を1ず
つ増やして、手順A1からA4を繰り返す。
Step A7: Similarly, the value of j is increased by one, and steps A1 to A4 are repeated.

【0059】手順A8: 最終ラスタまで上記の処理が
行なわれたら、対応点探索処理を終える。
Step A8: When the above processing is performed up to the final raster, the corresponding point search processing is completed.

【0060】上記のように処理を行なうことにより、2
枚の画像からでは求められなかった対応点が検出でき、
また、オクルージョンなどにも対応できるので、対応点
探索の精度が向上する。
By performing the processing as described above, 2
The corresponding points that could not be obtained from the images can be detected,
Further, since it is possible to cope with occlusion and the like, the accuracy of the corresponding point search is improved.

【0061】次に、画像の視点間補間処理(図5のステ
ップ53)について説明する。この補間処理は、上述の
対応点探索処理で探索された対応点を対象として行なわ
れる。ここで、図8を例にして、この補間処理の具体的
アルゴリズムを説明する。
Next, the inter-viewpoint interpolation processing of an image (step 53 in FIG. 5) will be described. This interpolation processing is performed on the corresponding points searched in the corresponding point search processing described above. Here, a specific algorithm of this interpolation processing will be described with reference to FIG.

【0062】図8は、j番目のエピポーラプレーンを表
している。a1,b1は優先順位1の対応点を示し、c2は
優先順位2の対応点を示している。入力した画像間で、
等間隔にn枚の画像を発生させる場合を考える。ここで
は、説明の簡単のため、n=2とする。このことをj番
目のエピポーラプレーンで考えた場合、図9に示すよう
に、エピポーラプレーンのライン間に2本ずつライン
(内挿ラインj-2,j-3,j-5,j-6,j-8,j-9)を内挿し、原
画のエピポーラプレーンの対応点同士を結んだ線分上に
ある内挿されたラインの画素値には、該当する対応点の
画素値の平均値に設定する。すなわち、以下の手順を実
行する。
FIG. 8 shows the j-th epipolar plane. a1 and b1 indicate the corresponding points of the first priority, and c2 indicates the corresponding points of the second priority. Between the input images,
Consider a case where n images are generated at equal intervals. Here, for the sake of simplicity, n = 2. When this is considered in the j-th epipolar plane, as shown in FIG. 9, two lines (interpolation lines j-2, j-3, j-5, j-6, j-8, j-9), and the pixel value of the interpolated line on the line connecting the corresponding points of the epipolar plane of the original image is calculated as the average of the pixel values of the corresponding points. Set. That is, the following procedure is performed.

【0063】手順B1: 優先順位1の対応点を結んだ
線分を考え、この線分上にある内挿ラインの画素値を線
分上にある原画の画素値の平均値に設定する。図9の対
応点a1およびb1を例に取れば、対応点同士を結んだ線
分上の点aおよびbの画素値には、それぞれa1,b1で
示される画素値の平均値をとる。
Procedure B1: Consider a line segment connecting the corresponding points of priority 1, and set the pixel value of the interpolation line on this line segment to the average value of the pixel values of the original image on the line segment. Taking the corresponding points a1 and b1 in FIG. 9 as an example, the pixel values of points a and b on the line connecting the corresponding points are the average values of the pixel values indicated by a1 and b1.

【0064】手順B2: 優先順位1の対応点の処理が
終わったら、次に優先順位2の対応点の処理を行なう。
この処理は、基本的には手順B1と同じであるが、手順
B1において既に補間された画素に対しては処理を行な
わない。これを図9を用いて説明する。画素(3,8)と
(2,9)は対応点c2により通常は補間されるが、既に優
先順位1のa1という対応点により補間されているの
で、この画素に対しては何も処理を行なわない。従って
対応点c2により補間される画素は(9,2),(8,3),
(6,5),(5,6)の4画素である。(図9の例では、こ
の部分でオクルージョンが発生しているが、このように
処理することによりオクルージョンの問題を解決でき
る。) 手順B3: 優先順位2の対応点の処理が終わったなら
ば、次に優先順位3の対応点の処理に入る。手順B2と
同様に、既に補間処理済みの画素に対しては、何も行な
わない。以下同様にして、最終の優先順位の対応点まで
処理を行なう。
Procedure B2: When the processing of the corresponding point of priority 1 is completed, the processing of the corresponding point of priority 2 is performed next.
This processing is basically the same as the procedure B1, but does not perform the processing on the pixels already interpolated in the procedure B1. This will be described with reference to FIG. Pixel (3,8)
Although (2, 9) is normally interpolated by the corresponding point c2, no processing is performed on this pixel because it is already interpolated by the corresponding point of a1 of priority 1. Therefore, the pixels interpolated by the corresponding point c2 are (9, 2), (8, 3),
There are four pixels (6,5) and (5,6). (In the example of FIG. 9, occlusion occurs in this portion, but the occlusion problem can be solved by performing such processing.) Procedure B3: When the processing of the corresponding point of priority 2 is completed, Next, the process for the corresponding point of priority 3 is started. As in the procedure B2, nothing is performed on the pixels that have already been subjected to the interpolation processing. In the same manner, processing is performed up to the corresponding point of the final priority.

【0065】手順B4: 手順B1〜B3の処理を終え
ても補間されなかった画素に対しては、周囲の画素から
内挿を行なう。この時の方法としては、周囲の画素値の
平均値を用いる方法や最近傍画素の値をそのまま用いる
方法などがある。
Procedure B4: For pixels that have not been interpolated even after completing the processing of procedures B1 to B3, interpolation is performed from surrounding pixels. As a method at this time, there is a method using an average value of surrounding pixel values, a method using the value of the nearest pixel as it is, and the like.

【0066】手順B5: j=1〜nyについて、手順
B1〜B4の処理を行ない、内挿ラインj-2,j-3,j-5,j-
6,j-8,j-9を用いて補間画像を得る。例えば、図10に
示す補間画像#2は、内挿ラインj-2(j=1〜ny)を
並ベることによって構成できる。補間画像#3,#5,#
6,#8,#9に関しても同様である。
[0066] Step B5: j = about 1 to n y, performs the processing of steps B1 to B4, the interpolation line j-2, j-3, j-5, j-
Interpolated images are obtained using 6, j-8 and j-9. For example, the interpolation image # 2 shown in FIG. 10, an interpolation line j-2 (j = 1~n y ) can be constituted by Namiberu. Interpolated images # 3, # 5, #
The same applies to 6, # 8, and # 9.

【0067】以上述ベたようにして多視点画像データベ
ース3の画像から視点間補間画像を生成することによ
り、撮影視点並びの直線上で、撮影視点以外の視点から
の画像が得られる。これにより、任意視点からの画像を
生成することができる。したがって、多視点画像データ
ベース3には十分に細かい視点間隔の多視点画像を保持
しておく必要がなく、多視点画像データベース3の記憶
容量が大幅に削減されるという効果がある。
As described above, by generating an inter-viewpoint interpolated image from the image in the multi-viewpoint image database 3, an image from a viewpoint other than the photographing viewpoint can be obtained on a straight line of the photographing viewpoints. Thus, an image from an arbitrary viewpoint can be generated. Therefore, the multi-view image database 3 does not need to hold multi-view images with sufficiently fine viewpoint intervals, and the storage capacity of the multi-view image database 3 is greatly reduced.

【0068】また、以上の説明は上下方向の視差を省略
した場合のものであるが、多視点画像データベース3
に、平面上の格子状の粗い視点間隔の各撮影視点から撮
影した画像を保持し、まず、左右方向にこれらの画像を
視点間補間し、次に上下方向に視点間補間することによ
り、上下方向の視差も考えた画像が生成される。
In the above description, the parallax in the vertical direction is omitted.
By holding the images captured from each of the viewpoints with a coarse lattice spacing on the plane, first interpolate these images in the horizontal direction, and then interpolate them in the vertical direction. An image is generated in consideration of the parallax in the direction.

【0069】《第3の実施例》次に、表示スクリーン1
として、利用者の頭部に固定される形のいわゆるへッド
・マウンテッド・ディスプレイ(HMD)タイプの画像
表示装置を利用する例を説明する。本実施例の画像処理
装置は、HMDに適合するように、第1の実施例の画像
処理装置の視線パラメータ算出部10の処理を以下のよ
うに変更したものである。上下方向の視差を考慮しない
場合について説明する。
<< Third Embodiment >> Next, the display screen 1
An example in which a so-called head mounted display (HMD) type image display device fixed to a user's head will be described. The image processing apparatus according to the present embodiment is obtained by modifying the processing of the line-of-sight parameter calculation unit 10 of the image processing apparatus according to the first embodiment as follows so as to conform to the HMD. A case where the parallax in the vertical direction is not considered will be described.

【0070】図11は、本実施例における視線パラメー
タ算出部10の算出原理を示す図である。図において、
ベクトル22は、長さが表示スクリーン1のピクセルピ
ッチであり、傾きが表示スクリーン1の傾きに一致する
べクトルすなわち
FIG. 11 is a diagram showing the calculation principle of the gaze parameter calculator 10 in this embodiment. In the figure,
The vector 22 is a vector whose length is the pixel pitch of the display screen 1 and whose inclination matches the inclination of the display screen 1, that is,

【0071】[0071]

【外12】 である。また、表示スクリーン1上の注目する画素位置
23と利用者の視点位置24の位置ベクトルをそれぞれ
[Outside 12] It is. Further, the position vector of the pixel position of interest 23 on the display screen 1 and the position vector of the user's viewpoint position 24 are

【0072】[0072]

【外13】 とする。さらに、ベクトル111は、視点位置24から
表示スクリーン1の中央点ヘのべクトルすなわち
[Outside 13] And Further, the vector 111 is a vector from the viewpoint position 24 to the center point of the display screen 1, that is,

【0073】[0073]

【外14】 である。ベクトル26は、注目する画素位置23に対応
する視線25の傾きをあらわす視線ベクトル
[Outside 14] It is. A vector 26 is a line-of-sight vector representing the inclination of the line of sight 25 corresponding to the pixel position 23 of interest.

【0074】[0074]

【外15】 である。[Outside 15] It is.

【0075】HMDタイプの表示装置では、視点検出器
2が一体化されており、利用者の視点24の位置に加え
て、正面方向の傾き、すなわち正面ベクトル111の傾
きを検出できる。表示スクリーンベクトル22の傾き
は、正面ベクトル111の傾きから決定される(通常は
直角)。一方、視点位置24から表示スクリーン1まで
の距離すなわち正面ベクトル111の長さ、およびピク
セルピッチすなわち表示スクリーンベクトル22の長さ
は、HMDの形状によって決定される固定した値であ
り、この値は表示パラメータ保持部4に保持される。し
たがって、注目する画素位置23および視線ベクトル2
6を以下の式で算出できる。ただし、画素インデクス9
をiとする。
In the display device of the HMD type, the viewpoint detector 2 is integrated, and in addition to the position of the user's viewpoint 24, the inclination in the front direction, that is, the inclination of the front vector 111 can be detected. The inclination of the display screen vector 22 is determined from the inclination of the front vector 111 (usually a right angle). On the other hand, the distance from the viewpoint position 24 to the display screen 1, ie, the length of the front vector 111, and the pixel pitch, ie, the length of the display screen vector 22, are fixed values determined by the shape of the HMD. It is stored in the parameter storage unit 4. Therefore, the pixel position 23 of interest and the line-of-sight vector 2
6 can be calculated by the following equation. However, pixel index 9
Is i.

【0076】[0076]

【数7】 以上の構成により、HMDタイプの表示装置において、
多視点画像データベース中の画像から任意の視点移動表
示を行なうことができる。また、表示スクリーン1が頭
部に固定されていなくても、固定して設置された表示ス
クリーン1と利用者の視点位置24の相対的位置関係が
固定であるようなコックピットタイプの表示装置を用い
ても、本実施例と同じ視線パラメータ算出部10の処理
で、任意の視点移動表示ができる画像処理装置となる。
このときは、視点検出器2の代わりに、基準座標におけ
る視点位置24をハンドルなどで操作する視点位置入力
装置を用ればよい。
(Equation 7) With the above configuration, in the HMD type display device,
An arbitrary viewpoint movement display can be performed from an image in the multi-view image database. Further, even if the display screen 1 is not fixed to the head, a cockpit type display device is used in which the relative positional relationship between the fixedly installed display screen 1 and the user's viewpoint position 24 is fixed. However, the image processing apparatus can perform an arbitrary viewpoint movement display by the same processing of the line-of-sight parameter calculation unit 10 as in the present embodiment.
In this case, instead of the viewpoint detector 2, a viewpoint position input device that operates the viewpoint position 24 in the reference coordinates with a handle or the like may be used.

【0077】《第4の実施例》上述の各実施例では、多
視点画像データベース3に保持されている各画像の視点
が平面上に配置されていたが、本発明はこれに限られる
ものではない。例えば、視点が十分細かい間隔で円柱面
に配置され、円柱面から内側を撮影したような画像(全
周型の画像)を利用することもできる。本実施例は、こ
の全周型の画像を対象としたものである。
Fourth Embodiment In each of the above embodiments, the viewpoints of the images held in the multi-view image database 3 are arranged on a plane. However, the present invention is not limited to this. Absent. For example, it is also possible to use an image in which the viewpoints are arranged on a cylindrical surface at sufficiently small intervals and an image of the inside of the cylindrical surface is taken (image of the entire circumference). The present embodiment is directed to this all-around image.

【0078】本実施例の構成は、第1の実施例の仮想視
点パラメータ算出部11および画素位置算出部12の処
理内容を、以下に説明する処理に置き換えた形となる。
上下方向の視差を省略した場合について説明する。図1
2は仮想視点パラメータおよび画素位置の算出原理を示
す図である。
The configuration of this embodiment is such that the processing contents of the virtual viewpoint parameter calculation unit 11 and the pixel position calculation unit 12 of the first embodiment are replaced with the processing described below.
A case where the parallax in the vertical direction is omitted will be described. FIG.
FIG. 2 is a diagram illustrating a principle of calculating virtual viewpoint parameters and pixel positions.

【0079】多視点画像データベース3を構成する画像
を撮影した際に視点が並んでいた円柱の断面を視点並び
円121とする。視線25と視点並び円121との交点
が仮想視点42であり、その位置ベクトルを
The cross-section of the cylinder on which the viewpoints are arranged when the images constituting the multi-viewpoint image database 3 are photographed is defined as a viewpoint arrangement circle 121. The intersection between the line of sight 25 and the circle of viewpoints 121 is a virtual viewpoint 42, and its position vector is

【0080】[0080]

【外16】 とする。視点並び円121の中心122の位置ベクトル
[Outside 16] And The position vector of the center 122 of the viewpoint line circle 121 is

【0081】[0081]

【外17】 とし、中心122から仮想視点42ヘのべクトル123
[Outside 17] And a vector 123 from the center 122 to the virtual viewpoint 42.
To

【0082】[0082]

【外18】 とする。また、仮想視点42における画角θの視野45
を定義する。ベクトル46は、長さが画像を撮影したカ
メラの焦点距離であり、傾きがカメラの傾きであるべク
トルすなわち
[Outside 18] And Also, a visual field 45 of the angle of view θ at the virtual viewpoint 42
Is defined. Vector 46 is a vector whose length is the focal length of the camera that captured the image and whose tilt is the camera tilt, ie,

【0083】[0083]

【外19】 である。仮想視点42における仮想的な撮像面47を考
え、仮想的な撮像面47と視線25との交点である画素
位置48を定める。この画素位置48の位置ベクトルを
[Outside 19] It is. Considering a virtual imaging plane 47 at the virtual viewpoint 42, a pixel position 48 which is an intersection of the virtual imaging plane 47 and the line of sight 25 is determined. The position vector of this pixel position 48 is

【0084】[0084]

【外20】 とする。また、ベクトル49は、長さが仮想的な撮像面
47の1ピクセルピッチであって、傾きが仮想的な撮像
面47の傾き(通常は焦点ベクトル46に直角)に一致
するべクトルすなわち
[Outside 20] And In addition, the vector 49 has a length corresponding to one pixel pitch of the virtual imaging surface 47, and a vector whose inclination matches the inclination of the virtual imaging surface 47 (usually perpendicular to the focus vector 46).

【0085】[0085]

【外21】 である。全周型であるので、円121と視線25との交
点は2つあり、仮想視点42でない方の交点をニセの仮
想視点124とする。
[Outside 21] It is. Since it is a full circumference type, there are two intersections between the circle 121 and the line of sight 25, and the intersection that is not the virtual viewpoint 42 is the fake virtual viewpoint 124.

【0086】ここでは、視点並び円121の中心122
および半径Rが、撮影視点座標系を表す値として撮影視
点座標系保持部5に保持されている。仮想視点ベクトル
123は、仮想視点42を一意に表すパラメータをtと
して、以下の式で定義される。
Here, the center 122 of the viewpoint arrangement circle 121
And the radius R are held in the shooting viewpoint coordinate system holding unit 5 as values representing the shooting viewpoint coordinate system. The virtual viewpoint vector 123 is defined by the following equation, where t is a parameter that uniquely represents the virtual viewpoint 42.

【0087】[0087]

【数8】 また、焦点ベクトル46および撮像面ベクトル49は、
多視点画像パラメータとして多視点画像パラメータ保持
部6に保持されている。撮像面ベクトル49の大きさ
は、撮像面の実サイズおよびピクセルサイズから決定さ
れる。
(Equation 8) The focus vector 46 and the imaging plane vector 49 are
The multi-viewpoint image parameters are held in the multi-viewpoint image parameter holding unit 6. The size of the imaging plane vector 49 is determined from the actual size and the pixel size of the imaging plane.

【0088】次に、仮想視点パラメータの算出処理を説
明する。図12の示すジオメトリにしたがうと、仮想視
点42は以下の2通りの式で表される。
Next, the calculation processing of the virtual viewpoint parameters will be described. According to the geometry shown in FIG. 12, the virtual viewpoint 42 is expressed by the following two equations.

【0089】[0089]

【数9】 ここでαは視線方向の係数である。2式を解くことによ
りtを算出する。このとき、ニセの仮想視点124と正
しい仮想視点42を区別するために、以下の式が成り立
つように解を吟味する。
(Equation 9) Here, α is a coefficient in the line-of-sight direction. T is calculated by solving the two equations. At this time, in order to distinguish the fake virtual viewpoint 124 from the correct virtual viewpoint 42, the solution is examined so that the following equation is satisfied.

【0090】[0090]

【数10】 そののち、図12に示す配置を考慮して、第1の実施例
と同様に画素位置を算出すればよい。以上の構成によ
り、全周型の画像を利用した、全周型の任意の視点移動
が可能な画像処理装置が得られる。この画像処理装置で
は、撮影された対象物を、360度のあらゆる方向かつ
あらゆる距離から眺めることができる。
(Equation 10) After that, the pixel position may be calculated in the same manner as in the first embodiment, in consideration of the arrangement shown in FIG. With the above configuration, it is possible to obtain an image processing apparatus capable of moving an arbitrary viewpoint of an entire circumference using an image of an entire circumference. In this image processing apparatus, a photographed target object can be viewed from any direction and any distance at 360 degrees.

【0091】《その他の実施例》以上の各実施例では、
予め撮影された画像が多視点画像データベース3に保持
されている構成としたが、これを、多視点からの画像を
実時間で取り込むことのできる多眼テレビカメラに置き
換えることにより、実時間の任意視点画像撮影・表示シ
ステムとなる。
<< Other Embodiments >> In each of the above embodiments,
Although the image captured in advance is held in the multi-view image database 3, it is replaced with a multi-view TV camera capable of capturing images from multiple viewpoints in real time, thereby realizing arbitrary time in real time. It becomes a viewpoint image shooting and display system.

【0092】なお、本発明は、単体の画像処理装置に適
用しても良いし、多視点テレビ、多視点テレビ電話端末
や多視点テレビ会議システムのようなシステム機器に適
用しても良いし、コンピュータや他の画像処理装置と組
み合わせた複合装置にも適用できる。
The present invention may be applied to a stand-alone image processing apparatus, may be applied to a system device such as a multi-view television, a multi-view video telephone terminal, or a multi-view video conference system. The present invention can also be applied to a multifunction device combined with a computer or another image processing device.

【0093】[0093]

【発明の効果】以上説明したように本発明は、観察者の
目の位置を検出し、観察者から見える画像を複数枚の画
像から再構成することにより、観察者の視点が移動した
場合にそれに対応した画像をスムーズに出力することが
でき、さらに、従来は対応できなかった前後方向ヘの視
点移動が可能となるという効果がある。
As described above, the present invention detects the position of the observer's eye and reconstructs the image seen by the observer from a plurality of images, so that when the observer's viewpoint moves. An image corresponding to this can be output smoothly, and the viewpoint can be moved in the front-rear direction, which could not be handled conventionally.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施例の画像処理装置の構成を
示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment of the present invention.

【図2】第1の実施例での視線パラメータの算出原理を
示す図である。
FIG. 2 is a diagram illustrating a principle of calculating a line-of-sight parameter in the first embodiment.

【図3】視線バラメータ算出部の処理を示すフローチャ
ートである。
FIG. 3 is a flowchart illustrating a process of a gaze parameter calculating unit.

【図4】第1の実施例での仮想視点パラメータと画素位
置の算出原理を示す図である。
FIG. 4 is a diagram illustrating a principle of calculating a virtual viewpoint parameter and a pixel position in the first embodiment.

【図5】本発明の第2の実施例の画像処理装置における
視点間補間処理部の処理の流れを示すフローチャートで
ある。
FIG. 5 is a flowchart illustrating a flow of processing of an inter-viewpoint interpolation processing unit in the image processing apparatus according to the second embodiment of the present invention.

【図6】対応点探索処理を示すフローチャートである。FIG. 6 is a flowchart illustrating a corresponding point search process.

【図7】j番目のエピポーラプレーンを示す図である。FIG. 7 is a diagram showing a j-th epipolar plane.

【図8】補間処理アルゴリズムを説明するための図であ
る。
FIG. 8 is a diagram for explaining an interpolation processing algorithm.

【図9】補間処理アルゴリズムを説明するための図であ
る。
FIG. 9 is a diagram for explaining an interpolation processing algorithm.

【図10】補間処理アルゴリズムを説明するための図で
ある。
FIG. 10 is a diagram for explaining an interpolation processing algorithm.

【図11】第3の実施例での視線パラメータの算出原理
を示す図である。
FIG. 11 is a diagram illustrating a principle of calculating a line-of-sight parameter in a third embodiment.

【図12】第4の実施例での仮想視点パラメータと画素
位置の算出原理を示す図である。
FIG. 12 is a diagram illustrating a principle of calculating a virtual viewpoint parameter and a pixel position in a fourth embodiment.

【図13】従来のレンチキュラディスプレイを表わす概
略斜視図である。
FIG. 13 is a schematic perspective view showing a conventional lenticular display.

【符号の説明】[Explanation of symbols]

1 表示スクリーン 2 視点検出器 3 多視点画像データベース 4 表示パラメータ保持部 5 撮影視点座標系保持部 6 多視点画像パラメータ保持部 7 視点パラメータ算出部 8 画像生成部 9 画素インデクス信号 10 視線パラメータ算出部 11 仮想視点パラメータ算出部 12 画素位置算出部 13 画素値算出部 14 画像表示部 15 更新信号 16 画素値信号 17 画素値生成部 23 画素位置 24 視点位置 25 視線 41 視点並び直線 42 仮想視点 47 仮想的な撮像面 REFERENCE SIGNS LIST 1 display screen 2 viewpoint detector 3 multi-viewpoint image database 4 display parameter storage unit 5 shooting viewpoint coordinate system storage unit 6 multi-viewpoint image parameter storage unit 7 viewpoint parameter calculation unit 8 image generation unit 9 pixel index signal 10 gaze parameter calculation unit 11 Virtual viewpoint parameter calculation unit 12 pixel position calculation unit 13 pixel value calculation unit 14 image display unit 15 update signal 16 pixel value signal 17 pixel value generation unit 23 pixel position 24 viewpoint position 25 line of sight 41 viewpoint line 42 virtual viewpoint 47 virtual Imaging surface

Claims (20)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 それぞれ異なる位置を視点として被写体
を撮影した複数の画像を該画像の撮影時のパラメータと
ともに多視点画像データとして入力する多視点画像入力
工程と、 前記被写体を観察する視点位置及び視線方向を入力する
視点入力工程と、 前記視点入力工程によって入力された前記視点位置から
前記視線方向を見たときの画像を前記多視点画像データ
の中から選択し、該画像の前記視線方向に対応する画素
位置情報を、該画像の撮影時のパラメータに基づいて
素単位で演算し、表示画面の対応画素情報として画素単
位で出力することにより画像データを再構成する画像再
構成工程と、 再構成された画像データを画像出力装置に出力する画像
出力工程とを有する画像処理方法。
1. A multi-viewpoint image inputting step of inputting a plurality of images of a subject taken at different positions as viewpoints as multi-viewpoint image data together with parameters at the time of photographing the images, a viewpoint position and a line of sight for observing the subject. A viewpoint inputting step of inputting a direction, and selecting an image when the gaze direction is viewed from the viewpoint position input in the viewpoint inputting step from the multi-viewpoint image data, corresponding to the gaze direction of the image. Pixel
The position information is stored in the image based on the parameters at the time of shooting the image.
Calculated in element unit, pixel isolated as the corresponding pixel information of the display screen
The image processing method includes an image reconstruction step of reconstructing image data, and an image output step of outputting the image data reconstructed in the image output apparatus by outputting at positions.
【請求項2】 多視点画像入力工程が、予め多数の方向
から撮影された画像を格納したデータベースから画像を
入力する工程である請求項1に記載の画像処理方法。
2. The image processing method according to claim 1, wherein the multi-viewpoint image inputting step is a step of inputting an image from a database storing images previously photographed from a number of directions.
【請求項3】 多視点画像入力工程が、1台以上のカメ
ラから画像を入力する工程である請求項1に記載の画像
処理方法。
3. The image processing method according to claim 1, wherein the multi-viewpoint image inputting step is a step of inputting an image from one or more cameras.
【請求項4】 多視点画像入力工程が、カメラによって
撮影された複数の画像に対して補間処理を施して前記カ
メラの撮影位置とは異なる視点位置を有する画像を生成
し、前記生成された画像と前記撮影された画像とを入力
する工程である請求項1に記載の画像処理方法。
4. A multi-viewpoint image input step performs an interpolation process on a plurality of images photographed by a camera to generate an image having a viewpoint position different from a photographing position of the camera, and generates the image. 2. The image processing method according to claim 1, further comprising the step of inputting a photographed image and a photographed image.
【請求項5】 多視点画像データに含まれる画像に対し
て補間処理を施して新たな画像を生成し、前記新たな画
像を前記多視点画像データに追加する視点間補間処理工
程をさらに有する請求項1に記載の画像処理方法。
5. An inter-view interpolation processing step of generating a new image by performing an interpolation process on an image included in the multi-view image data and adding the new image to the multi-view image data. Item 2. The image processing method according to Item 1.
【請求項6】 視点入力工程が、観察者の目の位置とと
もに前記観察者の視線方向検出する工程である請求項
1に記載の画像処理方法。
6. A view input step, the image processing method according to claim 1 together with the position of the observer's eye is a step of detecting a gaze direction of the observer.
【請求項7】 画像再構成工程が、観察者の目の位置お
よび画像出力装置の種類から画像の再構成に必要なパラ
メータを計算し、該パラメータを用いて再構成画像の各
画素が多視点画像データ中の画像のどの画素に対応する
かを計算し、対応する画素を多視点画像データから抽出
して画像データを再構成する工程である請求項1に記載
の画像処理方法。
7. An image reconstructing step calculates parameters necessary for reconstructing an image from the position of an eye of an observer and the type of an image output device, and uses the parameters to convert each pixel of the reconstructed image into a multi-viewpoint image. 2. The image processing method according to claim 1, further comprising calculating which pixel of the image in the image data corresponds to the pixel, extracting the corresponding pixel from the multi-view image data, and reconstructing the image data .
【請求項8】 画像出力装置がステレオディスプレイで
ある請求項1に記載の画像処理方法。
8. The image processing method according to claim 1, wherein the image output device is a stereo display.
【請求項9】 画像出力装置がヘッドマウンテッドディ
スプレイである請求項1に記載の画像処理方法。
9. The image processing method according to claim 1, wherein the image output device is a head mounted display.
【請求項10】 画像出力装置がレンチキュラディスプ
レイである請求項1に記載の画像処理方法。
10. The image processing method according to claim 1, wherein the image output device is a lenticular display.
【請求項11】 それぞれ異なる位置を視点として被写
体を撮影した複数の画像を該画像の撮影時のパラメータ
とともに多視点画像データとして入力する多視点画像入
力手段と、 前記被写体を観察する視点位置及び視線方向を入力する
視点入力手段と、 前記視点入力手段によって入力された前記視点位置から
前記視線方向を見たときの画像を前記多視点画像データ
の中から選択し、該画像の前記視線方向に対応する画素
位置情報を、該画像の撮影時のパラメータに基づいて
素単位で演算し、表示画面の対応画素情報として画素単
位で出力することにより画像データを再構成する画像再
構成手段と、 再構成された画像データを画像出力装置に出力する画像
出力手段とを有する画像処理装置。
11. Multi-view image input means for inputting, as multi-view image data, a plurality of images of a subject taken at different positions as viewpoints, together with parameters at the time of photographing the images, a viewpoint position and a line of sight for observing the subject. Viewpoint input means for inputting a direction, and selecting an image when the gaze direction is viewed from the viewpoint position input by the viewpoint input means from the multi-view image data, corresponding to the gaze direction of the image Pixel
The position information is stored in the image based on the parameters at the time of shooting the image.
Calculated in element unit, pixel isolated as the corresponding pixel information of the display screen
An image processing apparatus, comprising: an image reconstructing unit that reconstructs image data by outputting the image data in different places; and an image output unit that outputs the reconstructed image data to the image output device.
【請求項12】 多視点画像入力手段が、予め多数の方
向から撮影された画像を格納したデータベースから画像
を入力するものである請求項11に記載の画像処理装
置。
12. The image processing apparatus according to claim 11 , wherein the multi-viewpoint image input means inputs an image from a database storing images previously photographed from a number of directions.
【請求項13】 多視点画像入力手段が、1台以上のカ
メラから画像を入力するものである請求項11に記載の
画像処理装置。
13. The image processing apparatus according to claim 11 , wherein the multi-view image input means inputs an image from one or more cameras.
【請求項14】 多視点画像入力手段が、カメラによっ
て撮影された複数の画像に対して補間処理を施して前記
カメラの撮影位置とは異なる視点位置を有する画像を生
成し、前記生成された画像と前記撮影された画像とを入
力するものである請求項11に記載の画像処理装置。
14. A multi-view image input unit performs interpolation processing on a plurality of images photographed by a camera to generate an image having a viewpoint position different from the photographing position of the camera, and generates the image. The image processing apparatus according to claim 11 , wherein the image processing apparatus inputs the captured image and the photographed image.
【請求項15】 多視点画像データに含まれる画像に対
して補間処理を施して新たな画像を生成し、前記新たな
画像を前記多視点画像データに追加する視点間補間処理
手段をさらに有する請求項11に記載の画像処理装置。
15. An inter-view interpolation processing means for performing an interpolation process on an image included in multi-view image data to generate a new image, and adding the new image to the multi-view image data. Item 12. The image processing device according to item 11 .
【請求項16】 視点入力手段が、観察者の目の位置と
ともに前記観察者の視線方向の検出を行なう請求項11
に記載の画像処理装置。
16. viewpoint input means, claims along with the position of the viewer's eye performs the observer's gaze direction detection 11
An image processing apparatus according to claim 1.
【請求項17】 画像再構成工程は、観察者の目の位置
および画像出力装置の種類から画像の再構成に必要なパ
ラメータを計算し、該パラメータを用いて再構成画像の
各画素が多視点画像データ中の画像のどの画素に対応す
るかを計算し、対応する画素を多視点画像データから抽
出して画像データを再構成するものである請求項11に
記載の画像処理装置。
17. The image reconstructing step calculates parameters necessary for reconstructing an image from the position of an observer's eye and the type of an image output device, and uses the parameters to convert each pixel of the reconstructed image into a multi-viewpoint image. 12. The image processing apparatus according to claim 11, wherein the image processing apparatus calculates which pixel of the image in the image data corresponds to, extracts the corresponding pixel from the multi-view image data, and reconstructs the image data .
【請求項18】 画像出力装置がステレオディスプレイ
である請求項11に記載の画像処理装置。
18. The image processing device according to claim 11 , wherein the image output device is a stereo display.
【請求項19】 画像出力装置がヘッドマウンテッドデ
ィスプレイである請求項11に記載の画像処理装置。
19. The image processing device according to claim 11 , wherein the image output device is a head mounted display.
【請求項20】 画像出力装置がレンチキュラディスプ
レイである請求項11に記載の画像処理装置。
20. The image processing device according to claim 11 , wherein the image output device is a lenticular display.
JP5271698A 1993-08-04 1993-10-29 Image processing method and image processing apparatus Expired - Fee Related JP3032414B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP5271698A JP3032414B2 (en) 1993-10-29 1993-10-29 Image processing method and image processing apparatus
DE69434685T DE69434685T2 (en) 1993-08-04 1994-08-02 Image processing method and apparatus
EP94305725A EP0637815B1 (en) 1993-08-04 1994-08-02 Image processing method and image processing apparatus
US08/769,884 US6191808B1 (en) 1993-08-04 1996-12-19 Image processing method with viewpoint compensation and apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5271698A JP3032414B2 (en) 1993-10-29 1993-10-29 Image processing method and image processing apparatus

Publications (2)

Publication Number Publication Date
JPH07129792A JPH07129792A (en) 1995-05-19
JP3032414B2 true JP3032414B2 (en) 2000-04-17

Family

ID=17503603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5271698A Expired - Fee Related JP3032414B2 (en) 1993-08-04 1993-10-29 Image processing method and image processing apparatus

Country Status (1)

Country Link
JP (1) JP3032414B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0955925A (en) * 1995-08-11 1997-02-25 Nippon Telegr & Teleph Corp <Ntt> Picture system
JP3365182B2 (en) * 1995-12-27 2003-01-08 三菱電機株式会社 Video surveillance equipment
JPH09214932A (en) * 1996-01-30 1997-08-15 Nippon Telegr & Teleph Corp <Ntt> Image device and image communication system
JP3934211B2 (en) * 1996-06-26 2007-06-20 松下電器産業株式会社 Stereoscopic CG video generation device
US6747610B1 (en) 1997-07-22 2004-06-08 Sanyo Electric Co., Ltd. Stereoscopic image display apparatus capable of selectively displaying desired stereoscopic image
JP4211292B2 (en) 2002-06-03 2009-01-21 ソニー株式会社 Image processing apparatus, image processing method, program, and program recording medium
CN100394303C (en) * 2003-06-23 2008-06-11 爱尔得资讯股份有限公司 Multiple visual angle stereoscopic image display and processing method
KR100612848B1 (en) * 2003-07-15 2006-08-14 삼성전자주식회사 An apparatus for and a method of constructing a multi-view face database and an apparatus for and a method of generating a multi-view face descriptor
JP4440067B2 (en) 2004-10-15 2010-03-24 キヤノン株式会社 Image processing program for stereoscopic display, image processing apparatus, and stereoscopic display system
JP5520774B2 (en) * 2010-10-13 2014-06-11 日本電信電話株式会社 COMMUNICATION DEVICE, COMMUNICATION METHOD, AND PROGRAM
JP5707904B2 (en) * 2010-12-03 2015-04-30 ソニー株式会社 3D data analysis apparatus and 3D data analysis method
US20130113701A1 (en) * 2011-04-28 2013-05-09 Taiji Sasaki Image generation device
CN104041027A (en) * 2012-01-06 2014-09-10 奥崔迪合作公司 Display Processor For 3d Display
CN104221372B (en) * 2012-01-26 2016-12-14 弗劳恩霍弗应用技术研究院 Automatic stereoscopic display device and the method for display 3D rendering
JP6499583B2 (en) * 2013-09-24 2019-04-10 シャープ株式会社 Image processing apparatus and image display apparatus
EP3729804A4 (en) * 2017-12-20 2021-11-10 LEIA Inc. Cross-render multiview camera, system, and method

Also Published As

Publication number Publication date
JPH07129792A (en) 1995-05-19

Similar Documents

Publication Publication Date Title
EP0680019B1 (en) Image processing method and apparatus
EP0637815B1 (en) Image processing method and image processing apparatus
US6608622B1 (en) Multi-viewpoint image processing method and apparatus
JP4642723B2 (en) Image generating apparatus and image generating method
JP3032414B2 (en) Image processing method and image processing apparatus
US6263100B1 (en) Image processing method and apparatus for generating an image from the viewpoint of an observer on the basis of images obtained from a plurality of viewpoints
US8063930B2 (en) Automatic conversion from monoscopic video to stereoscopic video
JP5704893B2 (en) High-density multi-view video display system and method based on active sub-pixel rendering scheme
EP0707287B1 (en) Image processing apparatus and method
JP2002095018A (en) Image display controller, image display system and method for displaying image data
JP4928476B2 (en) Stereoscopic image generating apparatus, method thereof and program thereof
JP6585938B2 (en) Stereoscopic image depth conversion apparatus and program thereof
JP3452244B2 (en) Three-dimensional display method and apparatus
JP2849313B2 (en) Image recording and playback device
JP3054312B2 (en) Image processing apparatus and method
CN107483915B (en) Three-dimensional image control method and device
JPH08147497A (en) Picture processing method and device therefor
JPH08116556A (en) Image processing method and device
JPH09200803A (en) Image processing unit and image processing method
JP5243359B2 (en) Stereoscopic image generation system and program
KR101883883B1 (en) method for glass-free hologram display without flipping images
JPH07274063A (en) Method and device for processing picture
JP2002010294A (en) Stereoscopic image generating apparatus
JP2012199759A (en) Information processing device, program therefor, and information processing method
JPH07296194A (en) Method and device for image processing

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080210

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090210

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100210

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100210

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110210

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120210

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130210

Year of fee payment: 13

LAPS Cancellation because of no payment of annual fees