JPH10111951A - Method and device for image processing and storage medium - Google Patents

Method and device for image processing and storage medium

Info

Publication number
JPH10111951A
JPH10111951A JP26438796A JP26438796A JPH10111951A JP H10111951 A JPH10111951 A JP H10111951A JP 26438796 A JP26438796 A JP 26438796A JP 26438796 A JP26438796 A JP 26438796A JP H10111951 A JPH10111951 A JP H10111951A
Authority
JP
Japan
Prior art keywords
image
viewpoint
correspondence table
ray space
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP26438796A
Other languages
Japanese (ja)
Inventor
Masahiro Shibata
昌宏 柴田
Akihiro Katayama
昭宏 片山
Shinji Uchiyama
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP26438796A priority Critical patent/JPH10111951A/en
Publication of JPH10111951A publication Critical patent/JPH10111951A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To reduce work memory capacity without lowering a process speed by extracting pixels by tracing a pointer from a compressed multi-viewpoint image to a reference image according to a straight line in a light beam space derived from a viewpoint position, a sight direction, and a parameter and a light beam space correspondence table. SOLUTION: Multi-viewpoint images are picked up from viewpoint positions by using a multi-viewpoint image input device 101 to generate the light beam space correspondence table wherein the multi-viewpoint images are made to correspond to straight lines in the light beam space. Then some of the multi- viewpoint images are used as reference images, and the remaining images are represented with pointers indicating pixels in the reference images, compressed, and stored in a storage device 103. Then a viewpoint position and sight detecting device 104 are used to detect the viewpoint position and sight direction of an observer and the pointers are traced by using the compressed light-beam space data stored in the storage device 103 to read in corresponding pixel values from the reference images, so that an image is generated and displayed on an image output device 105.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、圧縮した状態の画
像データをポインタ参照処理により、操作者の動きに応
じてリアルタイムに、任意の視点位置における画像を生
成して表示する画像処理方法および装置および記憶媒体
に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and apparatus for generating and displaying an image at an arbitrary viewpoint position in real time in accordance with the movement of an operator by pointer reference processing of compressed image data. And storage media.

【0002】[0002]

【従来の技術】従来より、複数の視点位置で撮像された
実写画像群を用いて、任意の視点位置における画像を生
成・表示する場合、該実写画像群のデータをメモリ上に
読み込んでおき、各画像データは3次元空間中を飛来す
る光線の集合であると考える光線空間の概念に基づい
て、各画素の輝度値を計算して、任意の視点位置の画像
を生成する方法が提案されている。
2. Description of the Related Art Conventionally, when an image at an arbitrary viewpoint position is generated and displayed using a group of real images captured at a plurality of viewpoint positions, data of the group of real images is read into a memory. Based on the concept of a ray space, where each image data is considered to be a set of rays that fly in a three-dimensional space, a method has been proposed in which the luminance value of each pixel is calculated to generate an image at an arbitrary viewpoint position. I have.

【0003】ここで、光線空間の概念について説明す
る。3次元空間内には、光源や物体の反射光により光線
が発せられている。3次元空間内のある1点を横切る光
線は、その位置(x、 y、 z)と方向(θ、 φ)を表す
5つの変数により一意に定められる。この光線の光強度
を表す関数をφ と定義すると、3次元空間内の光線群
データはφ (x、 y、 z、 θ、 φ )と表される。さら
に、光線群データの時間変化を考慮すると、φ (x、
y、 z、 θ、 φ ; t )となり、3次元空間内の光線群
は6次元の空間として記述される。この空間が光線空間
と呼ばれている。
Here, the concept of the light beam space will be described. Light rays are emitted in the three-dimensional space by light sources and reflected light of an object. A ray crossing one point in the three-dimensional space is uniquely determined by five variables representing its position (x, y, z) and direction (θ, φ). If a function representing the light intensity of this light ray is defined as φ, the ray group data in the three-dimensional space is represented as φ (x, y, z, θ, φ). Further, considering the time change of the ray group data, φ (x,
y, z, θ, φ; t), and the ray group in the three-dimensional space is described as a six-dimensional space. This space is called a ray space.

【0004】ここで、t =0においてZ =z という平面を
通過する光線群に着目する。この面を、基準面と呼ぶ。
Y 軸に垂直な水平面(X-Z 平面)を考え、上下方向の視
差を考慮しないことにすると(y =0、 φ =0)、実空間
は図3(a)に示すようになる。基準面から発せられる光
線群は、位置xと角度θ の2変数でφ (x、 θ )と記述
される。従って、実空間中のある一点(X、 Z )を通過す
る光線群には、 X = x +Z tanθ (1) という関係が成り立つ。ここで、u = tanθ という変数
を定義すると、式(1)は、 X = x +uZ (2) となる。従って、光線空間上では、実空間内の1本の光
線が1点として写像され、そこに光強度すなわち色情報
が記録される。また、式(2)から、実空間内のある1点
を通過する光線群は、x-u空間上で直線に写像されるこ
とがわかる。図3(b)には、実空間内の (X、 Z) の視点
位置で観察された光線がx-u空間に写像された様子を示
す。なお、x-u空間は、前に述べた5次元の光線空間の
部分空間をなすものである。
Here, attention is paid to a group of rays that pass through a plane of Z = z at t = 0. This surface is called a reference surface.
Considering a horizontal plane (XZ plane) perpendicular to the Y axis and not considering the vertical parallax (y = 0, φ = 0), the real space is as shown in FIG. 3 (a). A group of rays emitted from the reference plane is described as φ (x, θ) by two variables of a position x and an angle θ 2. Therefore, a ray group passing through a certain point (X, Z) in the real space has a relation of X = x + Z tanθ (1). Here, if a variable u = tanθ is defined, equation (1) becomes X = x + uZ (2). Therefore, in the light ray space, one light ray in the real space is mapped as one point, and light intensity, that is, color information is recorded there. From equation (2), it can be seen that a ray group passing through a certain point in the real space is mapped to a straight line in the xu space. FIG. 3B shows a state in which the light beam observed at the (X, Z) viewpoint position in the real space is mapped to the xu space. Note that the xu space forms a subspace of the five-dimensional ray space described above.

【0005】この光線空間から任意の視点位置の画像を
精度良く再構成するためには、本来はy軸方向すなわ
ち、上下方向の次元も必要である。しかし、その場合、
光線空間データは少なくともx-y-θ-φ という4次元空
間を形成しなければならず、非常に大きなデータ量を持
つことになる。そこで今までは、光線空間の部分空間で
あるx-u空間のみを考えていた。またさらに、光線空間
の座標全体に色情報を持たせることは、非常に冗長であ
ると考えられる。なぜなら、たとえx-u空間だけを考え
るとしても、画像を再構成するためにはy軸方向の画素
情報が必要となるため、光線空間は3次元となり、そこ
に各光線の光強度を記録しなければならないからであ
る。そこで、再構成する画像のすべての画素について光
線空間演算を行い、メモリ上に読み込んだ多視点画像
(複数の異なる視点位置から撮像した画像)から輝度値
を得る方法があった。なお、光線空間演算とは、多視点
画像を基に任意の視点位置の画像を再構成するために、
x-u空間で式(2)に基づいて行う計算のことである。
In order to accurately reconstruct an image at an arbitrary viewpoint position from this ray space, the dimension in the y-axis direction, that is, the vertical direction, is originally required. But in that case,
The ray space data must form at least a four-dimensional space of xy-θ-φ, which has a very large data amount. So far, we have considered only the xu space, which is a subspace of the ray space. Furthermore, giving color information to the entire coordinates of the ray space is considered to be very redundant. Because, even if only xu space is considered, pixel information in the y-axis direction is needed to reconstruct an image, so the ray space becomes three-dimensional, and the light intensity of each ray must be recorded there. Because it does not become. Therefore, there has been a method of performing a ray space operation on all pixels of an image to be reconstructed, and obtaining a luminance value from a multi-viewpoint image (an image captured from a plurality of different viewpoint positions) read into a memory. In addition, the ray space calculation is to reconstruct an image at an arbitrary viewpoint position based on a multi-view image,
This is a calculation performed based on equation (2) in xu space.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、上記従
来例では、x-u空間はx軸方向(横方向)の視差だけを考
えたものであるから、y軸方向については、すべてのス
キャンラインで同じ光線空間演算を繰り返さなければな
らなかった。また、操作者の動きに応じてリアルタイム
に、任意の視点位置における画像を生成・表示するため
には、高速な光線空間演算を行わなければならない。そ
の演算を行うためには、多視点画像にランダムにアクセ
スし、画素データを読み込む操作を行わなければならな
い。すなわち、多視点画像への高速なランダムアクセス
が要求される。そこで上記の例では、x-u空間と多視点
画像を演算前にメモリ上に読み込んでおく、という手法
をとっていた。
However, in the above conventional example, since the xu space considers only the parallax in the x-axis direction (lateral direction), the same light beam is applied to all scan lines in the y-axis direction. Spatial operations had to be repeated. Further, in order to generate and display an image at an arbitrary viewpoint position in real time according to the movement of the operator, a high-speed ray space operation must be performed. In order to perform the calculation, it is necessary to perform an operation of randomly accessing the multi-view image and reading the pixel data. That is, high-speed random access to a multi-view image is required. Therefore, in the above example, a technique of reading the xu space and the multi-viewpoint image into the memory before the calculation is adopted.

【0007】このように、今までは、任意の視点位置の
画像を生成・表示する際に、同じ光線空間演算を何度も
繰り返す必要があり、さらに、非常に大きなワークメモ
リ容量を使用する必要があった。画素データを得るため
の計算回数が多いということは、リアルタイムな動きを
損なう原因となってしまう。また、物体を記述した光線
空間データが膨大なデータ容量を持ち、それをすべてメ
モリ上に読み込んでおかなければならないとなると、光
線空間を用いて3次元仮想環境内に表現できる物体の数
も限られたものとなってしまう。リアルタイムに画像表
示を行うためにも、計算の繰り返しは避ける必要がある
し、3次元仮想環境内に光線空間データで記述した物体
をたくさん配置できるようにするためにも、光線空間デ
ータが占めるワークメモリ容量はできる限り小さくする
必要がある。
As described above, hitherto, when generating and displaying an image at an arbitrary viewpoint position, it is necessary to repeat the same ray space operation many times, and further, it is necessary to use a very large work memory capacity. was there. The large number of calculations for obtaining the pixel data causes a loss of real-time motion. In addition, if the ray space data describing an object has a huge data capacity and all of it must be read into memory, the number of objects that can be represented in a three-dimensional virtual environment using the ray space is limited. It will be what was done. In order to display images in real time, it is necessary to avoid repetition of calculations, and to occupy a lot of objects described by ray space data in a three-dimensional virtual environment, the work occupied by ray space data Memory capacity must be as small as possible.

【0008】本発明は、任意の視点位置の画像を生成・
表示する処理速度を落とさずに、使用するワークメモリ
容量を削減する画像処理方法および装置および記憶媒体
を提供することを目的とする。
The present invention generates an image at an arbitrary viewpoint position.
It is an object of the present invention to provide an image processing method and apparatus and a storage medium that reduce the work memory capacity to be used without lowering the processing speed for display.

【0009】[0009]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明の画像処理方法においては、複数の視点位
置で撮像した画像を入力する多視点画像入力工程と、前
記入力された多視点画像に基づいて、光線空間と該多視
点画像の座標とを対応づけた光線空間対応表を作成する
対応表作成工程と、前記入力された多視点画像の内の少
なくとも一つの画像をリファレンス画像とし、残りの画
像はリファレンス画像の画素を指すポインタで記述する
ことにより、該多視点画像を圧縮する多視点画像圧縮工
程と、前記圧縮された多視点画像に基づいて、光線空間
データを作成する光線空間作成工程と、観察者の視点位
置と視線方向を検出する視点・視線検出工程と、前記検
出された観察者の視点位置と視線方向及び画像出力のた
めのパラメータから光線空間上の直線を導出する直線導
出工程と、前記導出された直線と前記作成された光線空
間対応表とに従って、前記圧縮された多視点画像からリ
ファレンス画像へのポインタを辿ることによって画素を
抽出して画像を生成する画像生成工程と、前記生成され
た画像を出力する画像出力工程とを設けた。
In order to achieve the above object, in an image processing method according to the present invention, a multi-viewpoint image inputting step of inputting images picked up at a plurality of viewpoint positions; A correspondence table creating step of creating a ray space correspondence table in which a ray space and the coordinates of the multi-viewpoint image are associated with each other based on the viewpoint image, and at least one of the input multi-viewpoint images is referred to as a reference image. The remaining images are described by pointers pointing to the pixels of the reference image, so that a multi-view image compression step of compressing the multi-view image and light space data are created based on the compressed multi-view image. A ray space creating step, a viewpoint / viewing line detecting step of detecting a viewpoint position and a line-of-sight direction of the observer, and the detected viewpoint position and line-of-sight direction of the observer and parameters for image output. Extracting a pixel by tracing a pointer from the compressed multi-viewpoint image to a reference image according to a straight line deriving step of deriving a straight line on a ray space, and the derived straight line and the created ray space correspondence table; And an image output step of outputting the generated image.

【0010】また好ましくは、前記対応表作成工程にお
いて、光線空間の部分空間であるx-u空間と多視点画像
のx座標とを対応させた対応表を作成する。
Preferably, in the correspondence table creation step, a correspondence table is created in which the xu space, which is a subspace of the ray space, and the x coordinate of the multi-viewpoint image are associated.

【0011】また好ましくは、前記リファレンス画像
は、前記入力された多視点画像の画像列の中から等間隔
に選ばれる。
Preferably, the reference images are selected at equal intervals from an image sequence of the input multi-view image.

【0012】また好ましくは、前記多視点画像圧縮工程
において、前記残りの画像は、該画像を挟む位置にある
前後2枚のリファレンス画像の画素を指すポインタで記
述することにより、該多視点画像を圧縮する。
Preferably, in the multi-view image compression step, the multi-view image is described by describing the remaining images with pointers indicating pixels of two reference images before and after the reference image located at a position sandwiching the image. Compress.

【0013】また好ましくは、前記多視点画像圧縮工程
において、リファレンス画像の選択に先立って、前記入
力された多視点画像列の並べ替えを行う。
Preferably, in the multi-view image compression step, the input multi-view image sequence is rearranged prior to selection of a reference image.

【0014】また好ましくは、前記画像生成工程におい
て、前記導出された直線に従って前記光線空間対応表か
ら画像番号と画素位置を検出し、該画像番号がリファレ
ンス画像であるかどうかを判定し、リファレンス画像で
あると判定された場合には、該画像の輝度値に基づいて
再構成画像を生成し、リファレンス画像でないと判定さ
れた場合には、前記光線空間対応表に基づいて得られた
画像の輝度値に基づいて再構成画像を生成する。
Preferably, in the image generating step, an image number and a pixel position are detected from the ray space correspondence table according to the derived straight line, and it is determined whether or not the image number is a reference image. Is determined, a reconstructed image is generated based on the luminance value of the image, and if it is determined that the image is not the reference image, the luminance of the image obtained based on the ray space correspondence table is determined. A reconstructed image is generated based on the value.

【0015】また、本発明の画像処理装置においては、
複数の視点位置で撮像した画像を入力する多視点画像入
力手段と、前記入力された多視点画像に基づいて、光線
空間と該多視点画像の座標とを対応づけた光線空間対応
表を作成する対応表作成手段と、前記入力された多視点
画像の内の少なくとも一つの画像をリファレンス画像と
し、残りの画像はリファレンス画像の画素を指すポイン
タで記述することにより、該多視点画像を圧縮する多視
点画像圧縮手段と、前記圧縮された多視点画像に基づい
て、光線空間データを作成する光線空間作成手段と、観
察者の視点位置と視線方向を検出する視点・視線検出手
段と、前記検出された観察者の視点位置と視線方向及び
画像出力のためのパラメータから光線空間上の直線を導
出する直線導出手段と、前記導出された直線と前記作成
された光線空間対応表とに従って、前記圧縮された多視
点画像からリファレンス画像へのポインタを辿ることに
よって画素を抽出して画像を生成する画像生成手段と、
前記生成された画像を出力する画像出力手段とを設け
た。
Further, in the image processing apparatus of the present invention,
A multi-viewpoint image input means for inputting images captured at a plurality of viewpoint positions, and a ray space correspondence table which associates a ray space with coordinates of the multi-viewpoint image based on the input multi-viewpoint image. A correspondence table creating unit, and a multi-viewpoint image compression unit that compresses the multi-viewpoint image by describing at least one of the input multi-viewpoint images as a reference image and describing the remaining images with pointers indicating pixels of the reference image. Viewpoint image compression means, ray space creation means for creating ray space data based on the compressed multi-viewpoint image, viewpoint / gaze detection means for detecting the viewpoint position and gaze direction of the observer, Straight line deriving means for deriving a straight line on a ray space from the viewpoint position and line of sight of the observer and parameters for image output, and a pair of the derived straight line and the created ray space Accordance with the table, and an image generating means for generating an image by extracting pixels by tracing the pointer from the compressed multi-view image to the reference image,
Image output means for outputting the generated image.

【0016】また好ましくは、前記対応表作成手段は、
光線空間の部分空間であるx-u空間と多視点画像のx座標
とを対応させた対応表を作成する。
[0016] Preferably, the correspondence table creating means includes:
A correspondence table is created by associating the xu space, which is a subspace of the ray space, with the x coordinate of the multi-viewpoint image.

【0017】また好ましくは、前記リファレンス画像
は、前記入力された多視点画像の画像列の中から等間隔
に選ばれる。
Preferably, the reference images are selected at equal intervals from an image sequence of the input multi-viewpoint images.

【0018】また好ましくは、前記多視点画像圧縮手段
は、前記残りの画像は、該画像を挟む位置にある前後2
枚のリファレンス画像の画素を指すポインタで記述する
ことにより、該多視点画像を圧縮する。
[0018] Preferably, the multi-viewpoint image compressing means is configured to store the remaining image in two positions before and after the image.
The multi-viewpoint image is compressed by describing it with a pointer that points to a pixel of the reference image.

【0019】また好ましくは、前記多視点画像圧縮手段
は、リファレンス画像の選択に先立って、前記入力され
た多視点画像列の並べ替えを行う。
[0019] Preferably, the multi-view image compressing means rearranges the input multi-view image sequence before selecting a reference image.

【0020】また好ましくは、前記画像生成手段は、前
記導出された直線に従って前記光線空間対応表から画像
番号と画素位置を検出し、該画像番号がリファレンス画
像であるかどうかを判定し、リファレンス画像であると
判定された場合には、該画像の輝度値に基づいて再構成
画像を生成し、リファレンス画像でないと判定された場
合には、前記光線空間対応表に基づいて得られた画像の
輝度値に基づいて再構成画像を生成する。
Preferably, the image generating means detects an image number and a pixel position from the ray space correspondence table according to the derived straight line, determines whether the image number is a reference image, and Is determined, a reconstructed image is generated based on the luminance value of the image, and if it is determined that the image is not the reference image, the luminance of the image obtained based on the ray space correspondence table is determined. A reconstructed image is generated based on the value.

【0021】また、本発明の記憶媒体においては、複数
の視点位置で撮像した画像を入力する多視点画像入力工
程と、前記入力された多視点画像に基づいて、光線空間
と該多視点画像の座標とを対応づけた光線空間対応表を
作成する対応表作成工程と、前記入力された多視点画像
の内の少なくとも一つの画像をリファレンス画像とし、
残りの画像はリファレンス画像の画素を指すポインタで
記述することにより、該多視点画像を圧縮する多視点画
像圧縮工程と、前記圧縮された多視点画像に基づいて、
光線空間データを作成する光線空間作成工程と、観察者
の視点位置と視線方向を検出する視点・視線検出工程
と、前記検出された観察者の視点位置と視線方向及び画
像出力のためのパラメータから光線空間上の直線を導出
する直線導出工程と、前記導出された直線と前記作成さ
れた光線空間対応表とに従って、前記圧縮された多視点
画像からリファレンス画像へのポインタを辿ることによ
って画素を抽出して画像を生成する画像生成工程と、前
記生成された画像を出力する画像出力工程とを備えたこ
とを特徴とする画像処理方法を実現するためのコンピュ
ータプログラムを記憶し、コンピュータにより読み取り
可能である。
Further, in the storage medium of the present invention, a multi-viewpoint image input step of inputting images captured at a plurality of viewpoint positions, based on the input multi-viewpoint image, a light beam space and the multi-viewpoint image A correspondence table creating step of creating a ray space correspondence table that associates the coordinates, and at least one of the input multi-viewpoint images as a reference image,
The remaining images are described by pointers that point to the pixels of the reference image, and based on the multi-view image compression step of compressing the multi-view image and the compressed multi-view image,
A ray space creation step of creating ray space data, a viewpoint / sight line detection step of detecting the observer's viewpoint position and gaze direction, and the detected observer's viewpoint position and gaze direction and parameters for image output. Extracting a pixel by tracing a pointer from the compressed multi-viewpoint image to a reference image according to a straight line deriving step of deriving a straight line on a ray space, and the derived straight line and the created ray space correspondence table; A computer program for realizing an image processing method, comprising: an image generating step of generating an image by performing the image processing, and an image output step of outputting the generated image. is there.

【0022】[0022]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

(第1の実施形態)図1に、複数の視点位置で撮像され
た実写画像群から任意の視点位置における画像を生成・
表示する装置の実施例の概略図を示す。図中101は、該
実写画像群を撮像するための多視点画像入力装置であ
る。多視点画像入力装置は、1台のカメラをずらすこと
によって多数枚の画像を撮像してもよいし、また複数台
のカメラをセットすることで多数枚の画像を撮像しても
よい。またあるいは、多視点画像データベースに保持さ
れている画像データを入力データとして読み込んでもよ
い。102は記憶装置103に記憶されている処理手順に従っ
て処理を行うCPUである。103は記憶装置であり、多視点
で撮像した画像データや多視点画像から生成された圧縮
した状態の光線空間、CPUの処理手順を示したプログラ
ムを記憶しておく。104は観察者の視点位置・視線方向
を検出するための視点・視線検出装置である。視点・視
線検出装置には、キーボードやマウスなどの汎用的なコ
ンピュータの入力デバイスを用いてもよいし、また、空
間センサの付いている装着型の入力デバイスを用いても
よい。105は、観察者の視点位置・視線方向にしたがっ
て生成された画像を表示するための画像出力装置であ
る。画像出力装置には、CRTや液晶などの一般的な2次
元ディスプレイを用いても、また、レンティキュラやHM
Dなどの3次元ディスプレイを用いてもよい。なお、プ
ログラムは、FD(フロッピーディスク)・CD-ROM・磁
気テープ等の記憶媒体に記録しておき、記憶媒体読み取
り装置106から読みだして記憶装置103に記憶させてもよ
い。また、107は各部を接続するバスである。
(First Embodiment) FIG. 1 shows an example in which an image at an arbitrary viewpoint position is generated from a group of photographed images taken at a plurality of viewpoint positions.
1 shows a schematic diagram of an embodiment of a display device. In the figure, reference numeral 101 denotes a multi-viewpoint image input device for capturing the real image group. The multi-viewpoint image input device may capture a large number of images by shifting one camera, or may capture a large number of images by setting a plurality of cameras. Alternatively, image data held in the multi-view image database may be read as input data. Reference numeral 102 denotes a CPU that performs processing according to the processing procedure stored in the storage device 103. Reference numeral 103 denotes a storage device, which stores image data captured from multiple viewpoints, a compressed light space generated from the multiple viewpoint images, and a program indicating a processing procedure of the CPU. Reference numeral 104 denotes a viewpoint / sight line detection device for detecting the viewpoint position / sight line direction of the observer. As the viewpoint / viewpoint detection device, an input device of a general-purpose computer such as a keyboard or a mouse may be used, or a wearable input device with a space sensor may be used. Reference numeral 105 denotes an image output device for displaying an image generated according to the observer's viewpoint position and line-of-sight direction. An image output device can be a general two-dimensional display such as a CRT or liquid crystal, or it can be a lenticular or HM
A three-dimensional display such as D may be used. The program may be recorded on a storage medium such as an FD (floppy disk), CD-ROM, or magnetic tape, read from the storage medium reading device 106, and stored in the storage device 103. Reference numeral 107 denotes a bus for connecting each unit.

【0023】図1に示した装置を用いて、多視点画像を
撮像して光線空間を作成する処理方法、および光線空間
から任意の視点位置における画像を生成・表示する処理
方法のフローチャートを図2に示す。CPU 102は、記憶
装置103に記憶されているプログラムに従って処理を実
行する。なお、図2中の枠Aは、多視点画像を撮像して
光線空間を作成するまでの部分で、オフラインに処理さ
れる。また、図2中の枠Bは、光線空間から任意の視点
位置における画像を生成・表示するまでの部分で、オン
ラインに処理される。
FIG. 2 is a flowchart showing a processing method for creating a ray space by capturing a multi-viewpoint image using the apparatus shown in FIG. 1, and a processing method for generating and displaying an image at an arbitrary viewpoint position from the ray space. Shown in The CPU 102 executes processing according to a program stored in the storage device 103. Note that the frame A in FIG. 2 is processed off-line in a portion from capturing a multi-view image to creating a ray space. Further, a frame B in FIG. 2 is processed online, from generation to display of an image at an arbitrary viewpoint position from the ray space.

【0024】まず、多視点画像を撮像して光線空間を作
成する処理について説明する。ステップS01では、多視
点画像入力装置101を用いて複数の視点位置から多視点
画像を撮像する。ステップS02では、ステップS01で得
た多視点画像を光線空間上の直線に対応させ、光線空間
対応表を作成する。ステップS03では、多視点画像の内
の数枚をリファレンス画像とし、残りの画像はリファレ
ンス画像の画素を指すポインタで表現することにより、
多視点画像の圧縮を行う。ステップS04では、ステップ
S02及びステップS03で作成された光線空間データ、す
なわち光線空間対応表と圧縮された多視点画像を記憶装
置103に保存させる。ステップS01からステップS04ま
でが、光線空間の作成処理であり、ここまでの処理が、
オフラインに行われる。
First, a process of capturing a multi-viewpoint image and creating a ray space will be described. In step S01, the multi-view image input device 101 is used to capture multi-view images from a plurality of viewpoint positions. In step S02, the multi-viewpoint image obtained in step S01 is made to correspond to a straight line in the ray space, and a ray space correspondence table is created. In step S03, several of the multi-viewpoint images are used as reference images, and the remaining images are represented by pointers that point to pixels of the reference image.
Compress multi-viewpoint images. In step S04, the storage device 103 stores the ray space data created in steps S02 and S03, that is, the ray space correspondence table and the compressed multi-viewpoint image. Steps S01 to S04 are the process of creating the ray space.
Done offline.

【0025】次に、観察者の視点移動に伴って、光線空
間から任意の視点位置における画像を生成・表示する処
理について説明する。ステップS05では、視点・視線検
出装置104を用いて観察者の視点位置・視線方向を検出
する。ステップS06では、ステップS05で検出された視
点位置・視線方向で観察されるべき画像を、記憶装置10
3に記憶されている圧縮された光線空間データを用い
て、ポインタを辿ることによってリファレンス画像から
対応する画素値を読み込み、画像を生成する。ステップ
S07では、ステップS06で生成された画像を画像出力装
置105で表示する。
Next, a description will be given of a process of generating and displaying an image at an arbitrary viewpoint position from the ray space as the observer moves the viewpoint. In step S05, the viewpoint position and the line of sight of the observer are detected using the viewpoint and line of sight detection device 104. In step S06, an image to be observed at the viewpoint position and line-of-sight direction detected in step S05 is stored in the storage device 10.
Using the compressed ray space data stored in 3, the corresponding pixel value is read from the reference image by following the pointer to generate an image. In step S07, the image generated in step S06 is displayed on the image output device 105.

【0026】以上が、本第1の実施形態の全体的な処理
の流れである。では次に、各部分ごとの細かな処理につ
いて説明する。
The above is the overall processing flow of the first embodiment. Next, detailed processing for each part will be described.

【0027】まず初めに、ステップS02における光線空
間対応表の作成処理について図4のフローチャートを用
いて説明する。ステップS201では、ステップS01にお
ける撮像環境、すなわちカメラの位置(視点位置)・姿
勢(視線方向)及びカメラの画角・焦点距離などのカメ
ラパラメータに従って、各画像内の各画素値を3次元空
間内の光線群データに変換する。ステップS202では、
ステップS201で変換された光線群データを式(2)に基づ
いて光線空間の部分空間であるx-u空間上に射影する。
このとき、上下方向の視差を考えないと、光線の位置x
と方向u (tanθ)が同じであれば、同一点上に射影され
ることになる。しかしここで、ステップS201の撮像に
おけるカメラ位置は離散的であるから、光線空間は部分
的に射影されないところが生じる。ステップS203で
は、ステップS202で射影されないすべての部分につい
て、補間合成を行う。これにより、光線空間のすべての
部分に、光線群データを射影することができる。ステッ
プS204では、ステップS203の結果に従って、x-u空間
上に射影された光線すなわち画素の画像番号とx座標の
データを記録した光線空間対応表を作成する。こうして
作成された光線空間対応表は、記憶装置103に記憶され
る。図5に、このときの光線空間対応表と多視点画像と
の関係を示す。なお、ステップS203における光線空間
データの補間合成手法としては、最近傍の光線空間デー
タの値を推定値とするニアリスト・ネイバー(Nearest
Neighbor)法や、近傍データからの距離に基づいて線形
に内挿する線形補間法などが適用できる。
First, the process of creating the ray space correspondence table in step S02 will be described with reference to the flowchart of FIG. In step S201, each pixel value in each image is converted into a three-dimensional space in accordance with the imaging environment in step S01, that is, camera parameters such as a camera position (viewpoint position) / posture (viewing direction) and a camera angle of view / focal length. Is converted to ray group data. In step S202,
The ray group data converted in step S201 is projected onto an xu space, which is a subspace of the ray space, based on equation (2).
At this time, if the parallax in the vertical direction is not considered, the position of the ray x
And the direction u (tan θ) are the same, they are projected on the same point. However, here, since the camera positions in the imaging in step S201 are discrete, the light beam space may not be partially projected. In step S203, interpolation synthesis is performed for all portions not projected in step S202. Thereby, the ray group data can be projected on all parts of the ray space. In step S204, according to the result of step S203, a ray space correspondence table that records data of the light projected on the xu space, that is, the image number of the pixel and the x coordinate is created. The ray space correspondence table created in this way is stored in the storage device 103. FIG. 5 shows the relationship between the ray space correspondence table and the multi-viewpoint image at this time. In addition, as the interpolation synthesis method of the ray space data in step S203, the nearest neighbor (Nearest Neighbor) that uses the value of the nearest ray space data as the estimated value is used.
Neighbor) method, a linear interpolation method of linearly interpolating based on a distance from neighboring data, and the like can be applied.

【0028】次に、ステップS03における多視点画像の
圧縮処理の概念について図6を用いて説明する。多視点
画像は、対象とする物体を様々な位置、角度から見たと
きの画像として考えることができる。従って、これらを
視点の位置を順に変化させた一連の画像列と見なすと、
その画像間には強い相関性があることがわかる。そこ
で、この多視点画像の画像列のうちの数枚を代表的な画
像と考えてリファレンス画像とし、リファレンス画像だ
けを画像データとして保持するようにする。そして、残
りの画像はこのリファレンス画像を参照する形でデータ
を持ち、容量の大きな画像データそのものは保持しない
ようにする。このとき、リファレンス画像の参照形式
は、残りの画像群をはさむ位置にある2枚のリファレン
ス画像を指すポインタによる表現方法とする。なおここ
では、対象とする物体をターンテーブル上で一様に回転
させることによって各画像を撮像した。従って、多視点
画像は、一様な回転で視点移動させて物体の全周を撮像
した画像列と見なすことができる。そして、リファレン
ス画像をこの一様な画像列の中から等間隔に選びだし
た。
Next, the concept of the multi-viewpoint image compression processing in step S03 will be described with reference to FIG. The multi-view image can be considered as an image when the target object is viewed from various positions and angles. Therefore, when these are considered as a series of image sequences in which the positions of the viewpoints are sequentially changed,
It can be seen that there is a strong correlation between the images. Therefore, several images in the image sequence of the multi-viewpoint image are regarded as representative images and used as reference images, and only the reference images are held as image data. The remaining images have data in such a manner as to refer to the reference image, and do not hold large-capacity image data itself. At this time, the reference format of the reference image is a representation method using pointers indicating two reference images located at positions sandwiching the remaining image groups. Here, each image was captured by uniformly rotating the target object on the turntable. Therefore, the multi-view image can be regarded as an image sequence in which the viewpoint is moved by uniform rotation and the entire circumference of the object is imaged. Then, reference images were selected at regular intervals from this uniform image sequence.

【0029】図7のフローチャートを用いて、ステップ
S03の多視点画像の圧縮処理の具体的なアルゴリズムを
示す。ステップS301において、N枚の多視点画像からm
枚のリファレンス画像を等間隔に選択する。ステップS
302に移り、リファレンス画像ではない初めの画像を取
り出し、その画像番号をn=1に設定する。次に、ステッ
プS303に移り、その画像nをはさむ位置にある前後2枚
のリファレンス画像を、画像nからポインタで参照すべ
き対象画像とする。なお、ここで選択した2枚のリファ
レンス画像の内、視点位置が画像nの視線方向に対して
左側に位置するものをL、右側に位置するものをRとす
る。ステップS304に移り、画像nのすべての画素(xn
yn)をリファレンス画像L、 Rへのポインタで表現する。
ステップS305に移り、n=N-mとなっていれば終了し、そ
うでなければ、ステップS306においてnをインクリメン
トしステップS303からの処理を繰り返す。こうして、
リファレンス画像ではない画像の全てについて処理が行
われる。
Referring to the flowchart of FIG. 7, a specific algorithm of the multi-viewpoint image compression processing in step S03 will be described. In step S301, m images are obtained from N multi-viewpoint images.
The reference images are selected at equal intervals. Step S
In step 302, the first image that is not the reference image is extracted, and its image number is set to n = 1. Next, the process proceeds to step S303, and the two preceding and succeeding reference images at the position sandwiching the image n are set as target images to be referenced from the image n by a pointer. Note that among the two reference images selected here, let L be the one where the viewpoint position is located on the left side with respect to the line of sight of the image n, and R be the one located on the right side. Proceeding to step S304, all pixels (x n ,
y n ) is represented by pointers to reference images L and R.
The process proceeds to step S305, and if n = Nm, the process ends. Otherwise, n is incremented in step S306, and the process from step S303 is repeated. Thus,
The processing is performed for all images that are not reference images.

【0030】図8はステップS304におけるポインタ表
現の原理を示す図である。まず、多視点画像の内のある
画像Aに注目する。画像Aとリファレンス画像L、Rの
間には強い相関関係があると考えられる。そこで、画像
Aの各画素についてリファレンス画像L、Rの内のどち
らか一方の中から色の似た画素を探し出す。そのときの
座標値の移動量に対して、予め作成しておくポインタテ
ーブルを表引きする形でポインタデータを求め、その値
を画像Aの画素値とする。予め作成しておくポインタデ
ータを1バイトで記述すれば、1画素の値は1バイトデ
ータとすることができる。従来、画像データはRGBプ
レーン及び物体と背景を分離するαプレーンを持ち、1
画素4バイトのデータ量を持っていた。これを、1バイ
トで記述できることになれば、データ量を1/4にするこ
とができる。
FIG. 8 is a diagram showing the principle of pointer expression in step S304. First, attention is focused on a certain image A in the multi-viewpoint image. It is considered that there is a strong correlation between the image A and the reference images L and R. Therefore, for each pixel of the image A, a pixel having a similar color is searched for in either one of the reference images L and R. Pointer data is obtained by looking up a pointer table created in advance with respect to the movement amount of the coordinate value at that time, and that value is used as the pixel value of the image A. If the pointer data created in advance is described in one byte, the value of one pixel can be one byte data. Conventionally, image data has an RGB plane and an α plane for separating an object and a background,
It had a data amount of 4 bytes per pixel. If this can be described in 1 byte, the data amount can be reduced to 1/4.

【0031】図9はステップS304におけるポインタ表
現の処理のフローチャートである。次に図9に従ってこ
の処理の流れを説明する。
FIG. 9 is a flowchart of the pointer representation process in step S304. Next, the flow of this processing will be described with reference to FIG.

【0032】まずステップS401では、画像nから画素(x
n、 yn)=(0、 0)を選ぶ。ステップS402に移り、画素(x
n、 yn)が背景画素であるならば、ステップS413でその
画素の値を0とし、ステップS414に移る。背景画素で
なければステップS403に移り、しきい値を可変とする
ための変数w=1とし、しきい値TH=w・TH0と設定する。ス
テップS404に移り、画素の移動量を示す変数をi=0、 j
=0と設定する。ステップS405においては、(i、 j)が最
大範囲(p、 θ)を越えていないか判定し、越えていなけ
ればステップS406に移り、越えていればステップS410
に移る。なお、(i、 j)の最大範囲は、p=〔-17、 1
7〕、 θ=〔-1、 1〕としている。ステップS406におい
て、画素(xn、 yn)と画像Lの画素(xn+i、 yn+j)(ある
いは画像Rの画素(xn+i、 yn+j))との色差を計算し、色
差がしきい値以下であるかどうか判定する。色差がしき
い値以下であればステップS407に移り、色差がしきい
値以上であればステップS408でi、 jを順次変化させ、
ステップS405に戻る。なお、色差はL*a*b*表色系によ
り計算しているが、各画像の画素ごとのL*、 a*、 b*
値は予め初めに計算しておき、同じリファレンス画像の
同一画素を参照した際の重複計算を行わないようにして
いる。ステップS407においては、そのときの"L、 (i、
j)"(あるいは"R、 (i、 j)")に対応する1バイトデ
ータを画素(xn、yn)の値とする。なお、"L、 (i、 j)"
及び"R、 (i、 j)"に対して、予め1バイトの画素とポ
インタを割り当てたポインタテーブルを作成しておく。
このときの、ポインタとテーブルの関係を図10に示
す。ステップS409に移り、画像nの全画素について上記
の処理が終了したか判定する。終了していなければ、ス
テップS414で画素(xn、 yn)を隣の画素に移し、ステッ
プS402の処理から繰り返す。ステップS410において
は、w<wmaxであるかを判定する。w<wmaxでなければ、ス
テップS411に移り、画素(xn、 yn)に対応するポインタ
を、画素(xn-1、 yn)あるいは(xn、 yn-1)を指すポイン
タとする。w<wmaxであれば、ステップS412に移り、wを
インクリメントし、初期しきい値TH0をw倍した値をしき
い値とし(TH=w・TH0)、改めてステップS404の処理か
ら繰り返す。なおここでは、TH0=5、wma x=5としてい
る。
First, in step S401, a pixel (x
n , y n ) = (0, 0). Proceeding to step S402, the pixel (x
n, if y n) is a background pixel, the value of the pixel is set to 0 at step S413, proceeds to step S414. If a background pixel proceeds to step S403, and the variable w = 1 for the threshold variable, set the threshold TH = w · TH 0. In step S404, the variables indicating the amount of pixel movement are set to i = 0, j
Set to = 0. In step S405, it is determined whether (i, j) does not exceed the maximum range (p, θ), and if not, the process proceeds to step S406, and if not, the process proceeds to step S410.
Move on to The maximum range of (i, j) is p = [− 17, 1
7], θ = [-1, 1]. In step S406, the pixel (x n, y n) and the image L of the pixel (x n + i, y n + j) ( or the image R pixel (x n + i, y n + j)) of the color difference between Calculate and determine if the color difference is below the threshold. If the color difference is equal to or smaller than the threshold, the process proceeds to step S407. If the color difference is equal to or larger than the threshold, i and j are sequentially changed in step S408.
It returns to step S405. The color difference is calculated using the L * a * b * color system, but the values of L * , a * , and b * for each pixel of each image are calculated first in advance, and the same value of the same reference image is used. Duplicate calculation when referring to a pixel is not performed. In step S407, "L, (i,
j) "(or" R, (i, j) " as the value of) the pixel 1-byte data corresponding to the (x n, y n). Note," L, (i, j ) "
A pointer table in which 1-byte pixels and pointers are assigned in advance to "R, (i, j)".
FIG. 10 shows the relationship between the pointer and the table at this time. In step S409, it is determined whether the above process has been completed for all pixels of the image n. If not completed, the pixel (x n , y n ) is moved to the next pixel in step S414, and the process is repeated from step S402. In step S410, it is determined whether w <w max . If w <w max is not satisfied, the process moves to step S411, and the pointer corresponding to the pixel (x n , y n ) is set to a pointer indicating the pixel (x n-1 , y n ) or (x n , y n-1 ) And If w <w max , the process proceeds to step S412, w is incremented, a value obtained by multiplying the initial threshold value TH0 by w is set as a threshold value (TH = w · TH 0 ), and the process is repeated from step S404. It is to be noted here is the TH 0 = 5, w ma x = 5.

【0033】次に、図2のステップS06における、圧縮
された光線空間データを用いて任意視点の画像を生成す
る処理について説明する。この処理のアルゴリズムを図
11に示す。まずステップS501では、光線空間対応表
と共にm枚のリファレンス画像とポインタデータをメモ
リ上に読み込む。従来は、N枚の画像をすべてメモリ上
に読み込んでいたが、m枚の画像とポインタデータだけ
をメモリ上に読み込めばよいので、メモリ上に読み込む
べきデータ量は従来よりも少なくてすむ。ステップS50
2に移り、図2のステップS05で検出された観察者の視
点位置と視線方向で観察されるべき画像を再構成するた
めに、式(2)に基づいてx-u空間上の直線を求める。ステ
ップS503に移り、x-u空間上の直線に従って光線空間対
応表から画像番号pと画素位置(xp、 yp)を検出する。ス
テップS504に移り、ステップS503で得た画像番号pが
リファレンス画像であるかどうかを判定する。画像番号
pがリファレンス画像ならばステップS505に移り、画素
(xp、 yp)の輝度値を再構成画像の輝度値とする。画像
番号pがリファレンス画像でなければステップS506に移
り、(xp、 yp)のポインタデータから、ポインタテーブ
ルを利用して、参照すべきリファレンス画像番号p'と
(i、 j)の値を得る。ステップS507では、ステップS50
6で得たポインタデータに従って、リファレンス画像p'
の(xp+i、 yp+j)の輝度値を再構成画像の輝度値とす
る。
Next, the process of generating an image of an arbitrary viewpoint using the compressed ray space data in step S06 of FIG. 2 will be described. FIG. 11 shows the algorithm of this processing. First, in step S501, m reference images and pointer data are read into the memory together with the ray space correspondence table. Conventionally, all N images are read into the memory. However, since only m images and pointer data need be read into the memory, the amount of data to be read into the memory can be smaller than before. Step S50
Moving to 2, a straight line in the xu space is determined based on equation (2) in order to reconstruct an image to be observed at the observer's viewpoint position and line-of-sight direction detected in step S05 of FIG. In step S503, the image number p and the pixel position (x p , y p ) are detected from the ray space correspondence table according to the straight line in the xu space. In step S504, it is determined whether or not the image number p obtained in step S503 is a reference image. Image number
If p is the reference image, the process moves to step S505, where the pixel
Let the luminance value of (x p , y p ) be the luminance value of the reconstructed image. If the image number p is not the reference image, the process moves to step S506, where the reference image number p ′ to be referred to is obtained from the pointer data of (x p , y p ) using the pointer table.
Get the value of (i, j). In step S507, step S50
According to the pointer data obtained in step 6, the reference image p '
The luminance value of (x p + i, y p + j) is set as the luminance value of the reconstructed image.

【0034】(第2の実施形態)次に本発明の画像処理
装置を、より一般的な多視点画像列に適用した例につい
て示す。第1の実施形態では、多視点画像を一様な回転
で視点移動させて物体の全周を撮像した画像列とし、リ
ファレンス画像をこの一様な画像列の中から等間隔に選
びだした。本実施例では、一様に視点位置を変化させる
のではなく、あるところは密にあるところは疎に撮像し
た多視点画像列を用いて、リファレンス画像を任意に選
ぶ例を示す。
(Second Embodiment) Next, an example in which the image processing apparatus of the present invention is applied to a more general multi-viewpoint image sequence will be described. In the first embodiment, the multi-viewpoint image is moved in viewpoint by a uniform rotation to form an image sequence in which the entire circumference of the object is captured, and reference images are selected from the uniform image sequence at equal intervals. In this embodiment, an example is shown in which a reference image is arbitrarily selected using a multi-view image sequence that is not uniformly changed, but is sparsely picked up at a certain place.

【0035】この場合においても、第1の実施形態に示
したものと同様な画像処理装置を用いることができ、図
2に示した処理の中で光線空間作成処理の部分だけ変更
すればよい。なお、図1の多視点画像入力装置101にお
いては、1台のカメラを用いる場合には、任意にずらし
て多視点画像を撮像すればよいし、また複数台のカメラ
を用いる場合には、それらを等間隔でなく任意の配置で
撮像すればよい。
In this case, the same image processing apparatus as that shown in the first embodiment can be used, and only the ray space creation processing in the processing shown in FIG. 2 needs to be changed. In the multi-viewpoint image input device 101 of FIG. 1, when using one camera, the multi-viewpoint image may be taken at an arbitrarily shifted position. May be imaged in an arbitrary arrangement, not at equal intervals.

【0036】次に、本第2の実施形態における図2中の
ステップS03の多視点画像の圧縮処理について説明す
る。図12に多視点画像の圧縮処理の具体的なアルゴリ
ズムを示す。ステップS601において、任意の視点位置
で撮像されたN枚の多視点画像を一連の画像列と見な
し、その画像列の間の視点位置の変化が小さくなるよう
に多視点画像列を並び変える。ステップS602では、並
び変えた多視点画像からm枚のリファレンス画像を任意
に選択する。ステップS603に移り、リファレンス画像
へのポインタで表現する画像番号をn=1に設定する。ス
テップS604に移り、画像nをはさむ位置にある2枚のリ
ファレンス画像を画像nからポインタで参照すべき対象
画像とする。なお、ここで選択した2枚のリファレンス
画像の内、一方をLもう一方をRとし、画像nが参照する
2枚のリファレンス画像を区別しておく。これは、第1
の実施形態と異なり視点位置の関係が前後左右に自由に
変化している場合を考えているため、画像nと2枚のリ
ファレンス画像の視点位置の関係を単純に左右に分けら
れるとは限らないためである。ステップS605に移り、
画像nのすべての画素(xn、 yn)をリファレンス画像L、
Rへのポインタで表現する。ステップS606に移り、n=N-
mとなっていれば終了し、そうでなければ、ステップS6
07においてnをインクリメントしステップS604からの処
理を繰り返す。
Next, the multi-viewpoint image compression processing in step S03 in FIG. 2 in the second embodiment will be described. FIG. 12 shows a specific algorithm of the multi-viewpoint image compression processing. In step S601, the N multi-view images captured at an arbitrary viewpoint position are regarded as a series of image sequences, and the multi-view image sequence is rearranged so that a change in viewpoint position between the image sequences is reduced. In step S602, m reference images are arbitrarily selected from the rearranged multi-view images. In step S603, the image number represented by the pointer to the reference image is set to n = 1. In step S604, the two reference images sandwiching the image n are set as target images to be referenced from the image n by the pointer. Note that, of the two reference images selected here, one is L and the other is R, and the two reference images referenced by the image n are distinguished. This is the first
Unlike the first embodiment, a case is considered in which the relationship between the viewpoint positions changes freely in the front, rear, left, and right directions. Therefore, the relationship between the viewpoint positions of the image n and the two reference images cannot always be simply divided into left and right. That's why. Move to step S605,
All pixels (x n , y n ) of image n are referred to as reference image L,
Expressed as a pointer to R. Move to step S606, where n = N-
If it is m, the process ends; otherwise, step S6
In 07, n is incremented and the processing from step S604 is repeated.

【0037】このような処理方法により、各画像に対し
て最も近い視点位置で撮像したリファレンス画像へポイ
ンタをはることができ、任意の視点位置で撮像した多視
点画像の圧縮が可能となる。
With such a processing method, a pointer can be set to the reference image captured at the closest viewpoint position to each image, and a multi-view image captured at an arbitrary viewpoint position can be compressed.

【0038】また、本発明は、複数の機器から構成され
るシステムに適用しても、一つの機器からなる装置に適
用しても良い。また、本発明はシステムあるいは装置に
プログラムを供給することによって実施される場合にも
適用されることは言うまでもない。この場合、本発明に
係るプログラムを格納した記憶媒体が、本発明を構成す
ることになる。そして、該記憶媒体からそのプログラム
をシステムあるいは装置に読み出すことによって、その
システムあるいは装置が、予め定められた方法で動作す
る。
The present invention may be applied to a system constituted by a plurality of devices or to an apparatus constituted by a single device. Needless to say, the present invention is also applicable to a case where the present invention is implemented by supplying a program to a system or an apparatus. In this case, the storage medium storing the program according to the present invention constitutes the present invention. Then, by reading the program from the storage medium to a system or an apparatus, the system or the apparatus operates in a predetermined method.

【0039】[0039]

【発明の効果】以上説明したように、本発明によれば、
任意の視点位置の画像を生成して表示する際の処理速度
を落とさずに、使用するワークメモリ容量を削減するこ
とができる。
As described above, according to the present invention,
The work memory capacity to be used can be reduced without lowering the processing speed when generating and displaying an image at an arbitrary viewpoint position.

【0040】またさらに、光線空間データで記述した物
体をより多く3次元仮想空間内に配置することができる
ようになり、観察者に対してよりリアリティの高い画像
を生成して表示することができる。
Further, more objects described by the ray space data can be arranged in the three-dimensional virtual space, and an image with higher reality can be generated and displayed to the observer. .

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の実施形態の任意視点画像生成・表示装置
の概略構成図である。
FIG. 1 is a schematic configuration diagram of an arbitrary viewpoint image generation / display device according to a first embodiment.

【図2】第1の実施形態の任意視点画像生成・表示装置
の処理のフローチャートである。
FIG. 2 is a flowchart of processing of an arbitrary viewpoint image generation / display device according to the first embodiment.

【図3】光線空間の説明図である。FIG. 3 is an explanatory diagram of a light beam space.

【図4】光線空間対応表の作成処理のフローチャートで
ある。
FIG. 4 is a flowchart of a process of creating a ray space correspondence table.

【図5】光線空間の内部データ構造を示す図である。FIG. 5 is a diagram showing an internal data structure of a ray space.

【図6】多視点画像の圧縮処理の概念図である。FIG. 6 is a conceptual diagram of a multi-viewpoint image compression process.

【図7】第1の実施形態の多視点画像の圧縮処理のフロ
ーチャートである。
FIG. 7 is a flowchart of a multi-viewpoint image compression process according to the first embodiment.

【図8】ポインタ表現の原理図である。FIG. 8 is a principle diagram of pointer expression.

【図9】ポインタ表現の処理のフローチャートである。FIG. 9 is a flowchart of a pointer expression process.

【図10】ポインタと1バイトデータとの関係図であ
る。
FIG. 10 is a relationship diagram between pointers and 1-byte data.

【図11】画像生成処理のフローチャートである。FIG. 11 is a flowchart of an image generation process.

【図12】第2の実施形態の多視点画像の圧縮処理のフ
ローチャートである。
FIG. 12 is a flowchart of a multi-viewpoint image compression process according to the second embodiment.

【符号の説明】[Explanation of symbols]

101 多視点画像入力装置 102 CPU 103 記憶装置 104 視点・視線検出装置 105 画像出力装置 106 記憶媒体読み取り装置 107 バス Reference Signs List 101 Multi-viewpoint image input device 102 CPU 103 Storage device 104 Viewpoint / viewpoint detection device 105 Image output device 106 Storage medium reading device 107 Bus

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 複数の視点位置で撮像した画像を入力す
る多視点画像入力工程と、 前記入力された多視点画像に基づいて、光線空間と該多
視点画像の座標とを対応づけた光線空間対応表を作成す
る対応表作成工程と、 前記入力された多視点画像の内の少なくとも一つの画像
をリファレンス画像とし、残りの画像はリファレンス画
像の画素を指すポインタで記述することにより、該多視
点画像を圧縮する多視点画像圧縮工程と、 前記圧縮された多視点画像に基づいて、光線空間データ
を作成する光線空間作成工程と、 観察者の視点位置と視線方向を検出する視点・視線検出
工程と、 前記検出された観察者の視点位置と視線方向及び画像出
力のためのパラメータから光線空間上の直線を導出する
直線導出工程と、 前記導出された直線と前記作成された光線空間対応表と
に従って、前記圧縮された多視点画像からリファレンス
画像へのポインタを辿ることによって画素を抽出して画
像を生成する画像生成工程と、 前記生成された画像を出力する画像出力工程とを備えた
ことを特徴とする画像処理方法。
A multi-viewpoint image inputting step of inputting images captured at a plurality of viewpoint positions; and a light-ray space in which a light-ray space is associated with coordinates of the multi-viewpoint image based on the input multi-viewpoint image. A correspondence table creating step of creating a correspondence table, at least one of the input multi-viewpoint images is used as a reference image, and the remaining images are described by pointers pointing to pixels of the reference image, whereby the multi-viewpoint A multi-viewpoint image compression step of compressing an image, a ray space creation step of creating ray space data based on the compressed multi-viewpoint image, and a viewpoint / viewpoint detection step of detecting a viewpoint position and a view direction of an observer. A straight line deriving step of deriving a straight line on a ray space from the detected viewpoint position and line of sight of the observer and parameters for image output; and the derived straight line and the creation. An image generation step of extracting pixels to generate an image by tracing a pointer from the compressed multi-viewpoint image to a reference image in accordance with the obtained ray space correspondence table, and an image output for outputting the generated image And an image processing method.
【請求項2】 前記対応表作成工程において、光線空間
の部分空間であるx-u空間と多視点画像のx座標とを対応
させた対応表を作成することを特徴とする請求項1記載
の画像処理方法。
2. The image processing according to claim 1, wherein in the correspondence table creation step, a correspondence table is created in which an xu space, which is a subspace of the ray space, and an x coordinate of a multi-viewpoint image are associated with each other. Method.
【請求項3】 前記リファレンス画像は、前記入力され
た多視点画像の画像列の中から等間隔に選ばれることを
特徴とする請求項1記載の画像処理方法。
3. The image processing method according to claim 1, wherein the reference image is selected at equal intervals from an image sequence of the input multi-viewpoint image.
【請求項4】 前記多視点画像圧縮工程において、前記
残りの画像は、該画像を挟む位置にある前後2枚のリフ
ァレンス画像の画素を指すポインタで記述することによ
り、該多視点画像を圧縮することを特徴とする請求項1
記載の画像処理方法。
4. In the multi-view image compression step, the multi-view image is compressed by describing the remaining images with pointers indicating pixels of two reference images located before and after the reference image at a position sandwiching the image. 2. The method according to claim 1, wherein
The image processing method described in the above.
【請求項5】 前記多視点画像圧縮工程において、リフ
ァレンス画像の選択に先立って、前記入力された多視点
画像列の並べ替えを行うことを特徴とする請求項1記載
の画像処理方法。
5. The image processing method according to claim 1, wherein in the multi-view image compression step, the input multi-view image sequence is rearranged before selecting a reference image.
【請求項6】 前記画像生成工程において、前記導出さ
れた直線に従って前記光線空間対応表から画像番号と画
素位置を検出し、該画像番号がリファレンス画像である
かどうかを判定し、リファレンス画像であると判定され
た場合には、該画像の輝度値に基づいて再構成画像を生
成し、リファレンス画像でないと判定された場合には、
前記光線空間対応表に基づいて得られた画像の輝度値に
基づいて再構成画像を生成することを特徴とする請求項
1記載の画像処理方法。
6. In the image generation step, an image number and a pixel position are detected from the ray space correspondence table according to the derived straight line, and it is determined whether or not the image number is a reference image. Is determined, a reconstructed image is generated based on the luminance value of the image, and if it is determined that the image is not the reference image,
The image processing method according to claim 1, wherein a reconstructed image is generated based on a luminance value of the image obtained based on the ray space correspondence table.
【請求項7】 複数の視点位置で撮像した画像を入力す
る多視点画像入力手段と、 前記入力された多視点画像に基づいて、光線空間と該多
視点画像の座標とを対応づけた光線空間対応表を作成す
る対応表作成手段と、 前記入力された多視点画像の内の少なくとも一つの画像
をリファレンス画像とし、残りの画像はリファレンス画
像の画素を指すポインタで記述することにより、該多視
点画像を圧縮する多視点画像圧縮手段と、 前記圧縮された多視点画像に基づいて、光線空間データ
を作成する光線空間作成手段と、 観察者の視点位置と視線方向を検出する視点・視線検出
手段と、 前記検出された観察者の視点位置と視線方向及び画像出
力のためのパラメータから光線空間上の直線を導出する
直線導出手段と、 前記導出された直線と前記作成された光線空間対応表と
に従って、前記圧縮された多視点画像からリファレンス
画像へのポインタを辿ることによって画素を抽出して画
像を生成する画像生成手段と、 前記生成された画像を出力する画像出力手段とを備えた
ことを特徴とする画像処理装置。
7. A multi-view image input means for inputting images captured at a plurality of viewpoint positions, and a light space in which a light space is associated with coordinates of the multi-view image based on the input multi-view image. A correspondence table creating means for creating a correspondence table, wherein at least one of the input multi-view images is used as a reference image, and the remaining images are described by pointers pointing to pixels of the reference image. Multi-viewpoint image compression means for compressing an image; ray space creation means for creating ray space data based on the compressed multi-viewpoint image; viewpoint / viewpoint detection means for detecting the viewpoint position and view direction of the observer Straight line deriving means for deriving a straight line in a ray space from the detected viewpoint position and line of sight of the observer and parameters for image output; and the derived straight line and the creation. Image generation means for generating an image by extracting pixels by following a pointer from the compressed multi-viewpoint image to a reference image according to the obtained ray space correspondence table, and an image output for outputting the generated image And an image processing apparatus.
【請求項8】 前記対応表作成手段は、光線空間の部分
空間であるx-u空間と多視点画像のx座標とを対応させた
対応表を作成することを特徴とする請求項7記載の画像
処理装置。
8. The image processing apparatus according to claim 7, wherein the correspondence table creating unit creates a correspondence table in which an xu space, which is a subspace of the light ray space, and an x coordinate of the multi-viewpoint image correspond to each other. apparatus.
【請求項9】 前記リファレンス画像は、前記入力され
た多視点画像の画像列の中から等間隔に選ばれることを
特徴とする請求項7記載の画像処理装置。
9. The image processing apparatus according to claim 7, wherein the reference image is selected at equal intervals from an image sequence of the input multi-view image.
【請求項10】 前記多視点画像圧縮手段は、前記残り
の画像は、該画像を挟む位置にある前後2枚のリファレ
ンス画像の画素を指すポインタで記述することにより、
該多視点画像を圧縮することを特徴とする請求項7記載
の画像処理装置。
10. The multi-viewpoint image compressing means describes the remaining image by a pointer indicating pixels of two reference images before and after the reference image at a position sandwiching the image.
The image processing apparatus according to claim 7, wherein the multi-viewpoint image is compressed.
【請求項11】 前記多視点画像圧縮手段は、リファレ
ンス画像の選択に先立って、前記入力された多視点画像
列の並べ替えを行うことを特徴とする請求項7記載の画
像処理装置。
11. The image processing apparatus according to claim 7, wherein the multi-viewpoint image compressing unit rearranges the input multi-viewpoint image sequence before selecting a reference image.
【請求項12】 前記画像生成手段は、前記導出された
直線に従って前記光線空間対応表から画像番号と画素位
置を検出し、該画像番号がリファレンス画像であるかど
うかを判定し、リファレンス画像であると判定された場
合には、該画像の輝度値に基づいて再構成画像を生成
し、リファレンス画像でないと判定された場合には、前
記光線空間対応表に基づいて得られた画像の輝度値に基
づいて再構成画像を生成することを特徴とする請求項7
記載の画像処理装置。
12. The image generating means detects an image number and a pixel position from the ray space correspondence table according to the derived straight line, determines whether the image number is a reference image, and determines whether the image number is a reference image. Is determined, a reconstructed image is generated based on the luminance value of the image, and when it is determined that the image is not the reference image, the luminance value of the image obtained based on the ray space correspondence table is calculated. 8. A reconstructed image is generated based on the reconstructed image.
The image processing apparatus according to any one of the preceding claims.
【請求項13】 複数の視点位置で撮像した画像を入力
する多視点画像入力工程と、 前記入力された多視点画像に基づいて、光線空間と該多
視点画像の座標とを対応づけた光線空間対応表を作成す
る対応表作成工程と、 前記入力された多視点画像の内の少なくとも一つの画像
をリファレンス画像とし、残りの画像はリファレンス画
像の画素を指すポインタで記述することにより、該多視
点画像を圧縮する多視点画像圧縮工程と、 前記圧縮された多視点画像に基づいて、光線空間データ
を作成する光線空間作成工程と、 観察者の視点位置と視線方向を検出する視点・視線検出
工程と、 前記検出された観察者の視点位置と視線方向及び画像出
力のためのパラメータから光線空間上の直線を導出する
直線導出工程と、 前記導出された直線と前記作成された光線空間対応表と
に従って、前記圧縮された多視点画像からリファレンス
画像へのポインタを辿ることによって画素を抽出して画
像を生成する画像生成工程と、 前記生成された画像を出力する画像出力工程とを備えた
ことを特徴とする画像処理方法を実現するためのコンピ
ュータプログラムを記憶し、コンピュータにより読み取
り可能な記憶媒体。
13. A multi-viewpoint image inputting step of inputting images captured at a plurality of viewpoint positions, and a light-ray space in which a light-ray space is associated with coordinates of the multi-viewpoint image based on the input multi-viewpoint image. A correspondence table creating step of creating a correspondence table, at least one of the input multi-viewpoint images is used as a reference image, and the remaining images are described by pointers pointing to pixels of the reference image, whereby the multi-viewpoint A multi-viewpoint image compression step of compressing an image, a ray space creation step of creating ray space data based on the compressed multi-viewpoint image, and a viewpoint / viewpoint detection step of detecting a viewpoint position and a view direction of an observer. A straight line deriving step of deriving a straight line in a ray space from the detected viewpoint position and line of sight of the observer and parameters for image output; An image generating step of extracting pixels to generate an image by tracing a pointer from the compressed multi-viewpoint image to a reference image according to the generated ray space correspondence table; and an image outputting the generated image A computer-readable storage medium storing a computer program for realizing an image processing method comprising an output step.
JP26438796A 1996-10-04 1996-10-04 Method and device for image processing and storage medium Withdrawn JPH10111951A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26438796A JPH10111951A (en) 1996-10-04 1996-10-04 Method and device for image processing and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26438796A JPH10111951A (en) 1996-10-04 1996-10-04 Method and device for image processing and storage medium

Publications (1)

Publication Number Publication Date
JPH10111951A true JPH10111951A (en) 1998-04-28

Family

ID=17402455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26438796A Withdrawn JPH10111951A (en) 1996-10-04 1996-10-04 Method and device for image processing and storage medium

Country Status (1)

Country Link
JP (1) JPH10111951A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352271A (en) * 2001-05-28 2002-12-06 Olympus Optical Co Ltd Three-dimensional image acquisition device
US6674922B1 (en) 1999-03-26 2004-01-06 Canon Kabushiki Kaisha Image processing method, image processing apparatus, and storage medium
US6757441B1 (en) 1999-12-22 2004-06-29 Canon Kabushiki Kaisha Image data encoding/decoding method and apparatus
US6774898B1 (en) 1999-09-02 2004-08-10 Canon Kabushiki Kaisha Image storage method, image rendering method, image storage apparatus, image processing apparatus, image download method, and computer and storage medium
JP2008015756A (en) * 2006-07-05 2008-01-24 Kddi Corp Method, device and program for generating free visual point image by local area division
JP2008217547A (en) * 2007-03-06 2008-09-18 Kddi Corp Method of generating free eye point image
JP2008263528A (en) * 2007-04-13 2008-10-30 Univ Nagoya Image information processing method and image information processing system
JP2009151747A (en) * 2007-11-26 2009-07-09 Kddi Corp Free visual point video forming method and recording medium
JP2010039501A (en) * 2008-07-31 2010-02-18 Kddi Corp Method for generating free viewpoint video image in three-dimensional movement, and recording medium
JP2010072921A (en) * 2008-09-18 2010-04-02 Kddi Corp Image display device, viewpoint guidance method and program
JP2010244220A (en) * 2009-04-03 2010-10-28 Kddi Corp Image processing apparatus, method, and program
JP2011120283A (en) * 2011-02-23 2011-06-16 Nagoya Univ Image information processing method and image information receiving system
US8243122B2 (en) 2007-07-31 2012-08-14 Kddi Corporation Video method for generating free viewpoint video image using divided local regions

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6674922B1 (en) 1999-03-26 2004-01-06 Canon Kabushiki Kaisha Image processing method, image processing apparatus, and storage medium
US6774898B1 (en) 1999-09-02 2004-08-10 Canon Kabushiki Kaisha Image storage method, image rendering method, image storage apparatus, image processing apparatus, image download method, and computer and storage medium
US6757441B1 (en) 1999-12-22 2004-06-29 Canon Kabushiki Kaisha Image data encoding/decoding method and apparatus
JP2002352271A (en) * 2001-05-28 2002-12-06 Olympus Optical Co Ltd Three-dimensional image acquisition device
JP2008015756A (en) * 2006-07-05 2008-01-24 Kddi Corp Method, device and program for generating free visual point image by local area division
JP2008217547A (en) * 2007-03-06 2008-09-18 Kddi Corp Method of generating free eye point image
JP2008263528A (en) * 2007-04-13 2008-10-30 Univ Nagoya Image information processing method and image information processing system
US8243122B2 (en) 2007-07-31 2012-08-14 Kddi Corporation Video method for generating free viewpoint video image using divided local regions
JP2009151747A (en) * 2007-11-26 2009-07-09 Kddi Corp Free visual point video forming method and recording medium
JP2010039501A (en) * 2008-07-31 2010-02-18 Kddi Corp Method for generating free viewpoint video image in three-dimensional movement, and recording medium
US8259160B2 (en) 2008-07-31 2012-09-04 Kddi Corporation Method for generating free viewpoint video image in three-dimensional movement and recording medium
JP2010072921A (en) * 2008-09-18 2010-04-02 Kddi Corp Image display device, viewpoint guidance method and program
JP2010244220A (en) * 2009-04-03 2010-10-28 Kddi Corp Image processing apparatus, method, and program
JP2011120283A (en) * 2011-02-23 2011-06-16 Nagoya Univ Image information processing method and image information receiving system

Similar Documents

Publication Publication Date Title
US5577175A (en) 3-dimensional animation generating apparatus and a method for generating a 3-dimensional animation
JP3593466B2 (en) Method and apparatus for generating virtual viewpoint image
EP0680019B1 (en) Image processing method and apparatus
US5821943A (en) Apparatus and method for recreating and manipulating a 3D object based on a 2D projection thereof
JP3524147B2 (en) 3D image display device
JPH10111951A (en) Method and device for image processing and storage medium
US20100158482A1 (en) Method for processing a video data set
CN110956695A (en) Information processing apparatus, information processing method, and storage medium
WO2020184174A1 (en) Image processing device and image processing method
JPH07129792A (en) Method and device for image processing
US6795090B2 (en) Method and system for panoramic image morphing
CN108655571A (en) A kind of digital-control laser engraving machine, control system and control method, computer
JPH09245195A (en) Image processing method and its device
JP2001067473A (en) Method and device for image generation
US6256035B1 (en) Image processing method and apparatus
JP6595878B2 (en) Element image group generation apparatus and program thereof
CN114332356A (en) Virtual and real picture combining method and device
JPH08263696A (en) Three-dimensional object model generating method
JPH0142427B2 (en)
JP2004133556A (en) Three-dimensional shape extraction method, three-dimensional shape extraction program and storage medium storing three-dimensional shape extraction program
WO2019113215A1 (en) Disparity cache
JP4999010B2 (en) Free viewpoint video generation method and recording medium
JP2511771B2 (en) Image memory type image generator
JP2834790B2 (en) Image information generation method
JP3392088B2 (en) Image storage method, image drawing method, image storage device, image processing device, image download method, computer, and storage medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20040106