JP3532823B2 - Image composition method and medium recording image composition program - Google Patents

Image composition method and medium recording image composition program

Info

Publication number
JP3532823B2
JP3532823B2 JP2000099963A JP2000099963A JP3532823B2 JP 3532823 B2 JP3532823 B2 JP 3532823B2 JP 2000099963 A JP2000099963 A JP 2000099963A JP 2000099963 A JP2000099963 A JP 2000099963A JP 3532823 B2 JP3532823 B2 JP 3532823B2
Authority
JP
Japan
Prior art keywords
image
viewpoint
block
codebook
luminance information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000099963A
Other languages
Japanese (ja)
Other versions
JP2001285074A (en
Inventor
信幸 松本
秀幸 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2000099963A priority Critical patent/JP3532823B2/en
Publication of JP2001285074A publication Critical patent/JP2001285074A/en
Application granted granted Critical
Publication of JP3532823B2 publication Critical patent/JP3532823B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、実写画像を基に
3次元物体をモデル化し、任意視点画像を合成する画像
合成方法および画像合成プログラムを記録した媒体に関
するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image synthesizing method for modeling a three-dimensional object based on a photographed image and synthesizing an arbitrary viewpoint image, and a medium having an image synthesizing program recorded therein.

【0002】[0002]

【従来の技術】コンピュータの利用技術であるバーチャ
ルリアリティ(仮想現実)、動画やゲームに使用する場
合でのCG(コンピュータグラフィックス)、そして、
インターネットの仮想店舗等においては、刻々と変わる
視点方向に追従してその視点方向から対象物を眺めた画
像が得られるようにするイメージベーストレンダリング
の技術は重要である。そして、この場合に、対象物を眺
める方向が変わるに連れて、画像が滑らかに、しかも自
然に変化する必要がある。
2. Description of the Related Art Virtual reality, which is a computer utilization technology, CG (computer graphics) when used for moving images and games, and
In a virtual store on the Internet, an image-based rendering technique is important, which can obtain an image of an object viewed from the viewpoint direction by following the ever-changing viewpoint direction. In this case, the image needs to change smoothly and naturally as the direction in which the object is viewed changes.

【0003】すなわち、ここで重要なのは、3次元物体
に対するイメージベーストレンダリング技術であり、で
きるだけ高精細な画像を高速で作成できるようにする必
要がある。
That is, what is important here is an image-based rendering technique for a three-dimensional object, and it is necessary to be able to create an image with the highest possible resolution at a high speed.

【0004】イメージベーストレンダリング技術は、実
写画像を基に3次元物体をモデル化し、任意視点画像を
合成するものであるが、そのための従来方法としては、
図10に示すように光線べースで任意視点画像を合成す
る方法、および、図11に示すように距離情報を用いて
任意視点画像を合成する方法とがあった。
The image-based rendering technique is for modeling a three-dimensional object based on a real image and synthesizing an arbitrary viewpoint image, and a conventional method therefor is as follows.
There are a method of synthesizing an arbitrary viewpoint image using a ray base as shown in FIG. 10 and a method of synthesizing an arbitrary viewpoint image using distance information as shown in FIG.

【0005】ここで、これらのうち、光線に基づいて任
意視点画像を合成する方法について、図10を参照し
て、説明する。
Here, of these, a method of synthesizing an arbitrary viewpoint image based on light rays will be described with reference to FIG.

【0006】図10はレンズ焦点703を有するレンズ
を持つカメラを用いて3次元物体701を画像位置70
2の面方向から見た画像として、撮影している様子を上
から見た図である。3次元物体701をカメラで撮影し
て画像位置702の面方向から見た画像を得るというこ
とは、カメラの焦点703を通過する光線704を記録
したことに相当する。
FIG. 10 shows a three-dimensional object 701 at an image position 70 using a camera having a lens having a lens focus 703.
It is the figure which looked at the state of photography as an image seen from the direction of 2 surface. Obtaining an image viewed from the surface direction of the image position 702 by capturing an image of the three-dimensional object 701 with a camera corresponds to recording a light ray 704 passing through a focal point 703 of the camera.

【0007】図10では、3次元物体701の像を画像
位置702上の2画素の輝度値として、焦点703を通
過する2つの光線を記録した様子を示している。同様
に、このラインの全画素、更には画像内の全ライン上の
画素における輝度値を、実空間の光線記録と考えること
ができる。
FIG. 10 shows a state in which two rays passing through the focal point 703 are recorded with the image of the three-dimensional object 701 as the luminance value of two pixels on the image position 702. Similarly, the brightness values of all the pixels in this line, and further in the pixels on all the lines in the image, can be considered as a ray record in the real space.

【0008】また、光線の伝搬に伴う変化を無視するな
らば、カメラの焦点703のみならず、記録された光線
方向上の全光線を記録したことになる。よって、1枚の
画像を撮影すれば、焦点を通過する視野角内の全光線、
および、その延長上の光線を記録できる。そのため、視
点を変えて3次元物体701をより多くの視点から撮影
すれば、3次元物体701についてのより多くの光線情
報を獲得できることになる。
If the change accompanying the propagation of the light beam is ignored, not only the focal point 703 of the camera but all the light beams in the recorded light beam direction are recorded. Therefore, if one image is taken, all rays within the viewing angle passing through the focal point,
And the ray on the extension can be recorded. Therefore, if the viewpoint is changed and the three-dimensional object 701 is photographed from a larger number of viewpoints, more ray information about the three-dimensional object 701 can be acquired.

【0009】光線に基づく任意視点画像の合成は、上述
した光線情報の獲得の逆を考えれば良い。
For the synthesis of the arbitrary viewpoint image based on the light rays, the reverse of the acquisition of the light ray information described above may be considered.

【0010】合成したい画像位置702、焦点位置70
3が指定された場合、その焦点位置703を通過する光
線704を光線情報から集めてきて画像702を合成す
る。
Image position 702 and focus position 70 to be combined
When 3 is designated, the light ray 704 passing through the focal position 703 is collected from the light ray information and the image 702 is synthesized.

【0011】この光線情報は普通、3次元物体をターン
テーブルに載せて回転させ、固定カメラで撮影した多視
点画像を用いて得る。合成画像の写実性を高めようとす
ると、より多くの視点画像が必要になるので、一般的に
は、画像に含まれる相関を利用して情報量を圧縮するた
めに、多視点画像をブロック単位で分割して輝度情報を
圧縮する。
This light ray information is usually obtained by using a multi-viewpoint image taken by a fixed camera by placing a three-dimensional object on a turntable and rotating it. In order to increase the realism of the composite image, more viewpoint images are required. Therefore, in general, in order to compress the amount of information by using the correlation included in the images, the multi-view images are divided into blocks. The luminance information is compressed by dividing with.

【0012】次に距離情報を用いて任意視点画像を合成
する方法について図11を参照して説明する。
Next, a method of synthesizing an arbitrary viewpoint image using distance information will be described with reference to FIG.

【0013】ある3次元物体が、カメラで多視点から撮
影されて得られた輝度情報801と、レンジファインダ
ー等によって取得された距離情報802によってモデル
化されている。また、輝度情報を圧縮するためにブロッ
ク単位で輝度情報、距離情報が管理されている。
A certain three-dimensional object is modeled by brightness information 801 obtained by photographing with a camera from multiple viewpoints and distance information 802 obtained by a range finder or the like. Further, in order to compress the brightness information, the brightness information and the distance information are managed in block units.

【0014】このブロック単位で管理された輝度情報8
01、距離情報802内の点線で囲まれた1ラインに着
目して、他の全ブロックの距離情報とともに3次元空間
に点の投影を行うと、3次元物体の断面803が構成さ
れる。合成したい画像位置804、焦点位置805が指
定された場合、この3次元物体803の各点から焦点8
05に向けて投影を行い、画像804との交点に輝度情
報801を埋めていく。このようにして、全てのブロッ
クの全ラインについても同様の投影を行うことで、距離
情報を基にして任意視点画像を合成することができる。
Luminance information 8 managed in units of blocks
01, focusing on one line surrounded by a dotted line in the distance information 802, and projecting points in the three-dimensional space together with the distance information of all the other blocks, a cross section 803 of the three-dimensional object is formed. When the image position 804 and the focus position 805 to be combined are designated, the focus 8 from each point of this three-dimensional object 803.
The projection is performed toward 05, and the brightness information 801 is embedded at the intersection with the image 804. In this way, by performing similar projection on all lines of all blocks, it is possible to synthesize an arbitrary viewpoint image based on the distance information.

【0015】[0015]

【発明が解決しようとする課題】しかしながら、上述し
た光線に基づく3次元物体の画像合成方法や距離情報を
用いた画像合成方法では、常にブロック内の各画素につ
いて合成画像フレームメモリヘの投影先を計算せねばな
らず、多くの演算量とともに多くの合成時間を費やして
いた。よって、観察者の意志で、視点位置が変更されて
いく場合に、十分なフレームレートで画像を合成するの
が困難であり、円滑に視点位置が変わるような画面展開
ととならず、臨場感の欠けた画像となっていた。
However, in the above-described image synthesizing method of a three-dimensional object based on light rays and the image synthesizing method using distance information, the projection destination of each pixel in the block is always projected to the synthetic image frame memory. It had to be calculated, and it took a lot of computation time and a lot of synthesis time. Therefore, when the viewpoint position is changed by the observer's will, it is difficult to synthesize images at a sufficient frame rate, and the screen does not expand so that the viewpoint position changes smoothly. The image was lacking.

【0016】従って、本発明の目的とするところは、上
記のような従来技術の欠点を除去し、視点位置が変化し
ていく場合の描画速度を上げることができて、十分なフ
レームレートを確保することができ、従って、円滑な視
点位置変化となる画像が得られるようにした画像合成方
法およびプログラムを記録した媒体を提供することにあ
る。
Therefore, the object of the present invention is to eliminate the above-mentioned drawbacks of the prior art and to increase the drawing speed when the viewpoint position changes and to secure a sufficient frame rate. Therefore, it is an object of the present invention to provide a medium on which an image synthesizing method and a program are recorded so that an image having a smooth viewpoint position change can be obtained.

【0017】[0017]

【課題を解決するための手段】上記目的を達成するため
に、本発明の画像合成方法は、3次元物体が輝度情報を
含むデータによってモデル化され、更に輝度情報がブロ
ック単位でVQ(ベクトル量子化)符号化されたモデル
から任意視点画像を合成する画像合成工程において、視
点位置が静止しているか移動中かを判定する工程を設
け、移動中の場合には各ブロックそれぞれについて、ブ
ロック内の一部の輝度情報のみ、VQ復号化を施すよう
にし、移動中でない場合は通常のVQ復号化を施すよう
にして、画像合成を行うようにしたものである。
In order to achieve the above object, in the image synthesizing method of the present invention, a three-dimensional object is modeled by data including luminance information, and the luminance information is VQ (vector quantum) in block units. In the image synthesizing step of synthesizing an arbitrary viewpoint image from the coded model, a step of determining whether the viewpoint position is stationary or moving is provided, and when moving, for each block, VQ decoding is applied only to a part of the luminance information, and normal VQ decoding is applied when the image is not moving to perform image composition.

【0018】このような本発明によれば、観察者が視点
移動中には高いフレームレートでの描画を行い、3次元
物体を注視している場合には高い解像度での描画を行う
ので、観察者にとってよりリアリティを感じる3次元物
体の画像合成が可能になる。
According to the present invention as described above, since the observer draws at a high frame rate while the viewpoint is moving and draws at a high resolution when gazing at a three-dimensional object, It is possible to synthesize images of three-dimensional objects that give the person a more realistic feeling.

【0019】[0019]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

【0020】(第1の実施形態)視点状態が静止してい
るか移動中であるかによってVQ(ベクトル量子化)復
号の方法を変えて画像を合成することにより、観察者が
3次元物体に注視している時には高解像度の画像合成を
行い、観察者が移動中にはよりフレームレートが高くな
るように画像を合成できるようにする手法を説明する。
(First Embodiment) An observer looks at a three-dimensional object by synthesizing images by changing the VQ (vector quantization) decoding method depending on whether the viewpoint state is stationary or moving. A method for synthesizing images with high resolution while the viewer is moving and synthesizing images so that the frame rate becomes higher while the observer is moving will be described.

【0021】図1は、第1の実施形態での画像合成方法
の流れを示すフローチャートである。
FIG. 1 is a flow chart showing the flow of the image synthesizing method in the first embodiment.

【0022】図1において、101は観察者がマウスや
ジョイスティック等の(ポインティングデバイス)を利
用した入力インターフェースによって視点位置・視線方
向を入力する視点位置・視線方向入力工程、102は観
察者の視点状態が静止しているか移動中であるかを判定
する視点状態判定工程、103は前記視点位置・視線方
向入力工程101によって入力された視点位置・視線方
向情報に基づいて高解像度で3次元物体の画像合成を行
う高解像度画像合成工程、104は前記視点位置・視線
方向入力工程101によって入力された視点位置・視線
方向情報に基づいて低解像度で3次元物体の画像合成を
行う低解像度画像合成工程、105はこれらの画像合成
工程103,104により合成された画像をディスプレ
イ等の表示装置に出力して観察者に表示する画像表示工
程である。
In FIG. 1, reference numeral 101 denotes a viewpoint position / visual line direction input step in which the observer inputs a viewpoint position / visual line direction through an input interface using a (pointing device) such as a mouse or a joystick, and 102 indicates the observer's viewpoint state. A viewpoint state determination step of determining whether the object is stationary or moving, 103 is a high-resolution image of a three-dimensional object based on the viewpoint position / gaze direction information input in the viewpoint position / gaze direction input step 101. A high-resolution image synthesizing step for synthesizing, a low-resolution image synthesizing step for synthesizing an image of a three-dimensional object at a low resolution based on the viewpoint position / gaze direction input step 101, Reference numeral 105 denotes an image combined by these image combining steps 103 and 104 on a display device such as a display. An image display step of displaying the viewer by force.

【0023】いま、視点位置・視線方向入力工程101
において、ある3次元物体に対しての視点位置・視線方
向が入力されると、次に、視点状態判定工程102にお
いて、観察者の視点位置が静止しているのか移動中なの
かが判定される。
Now, the viewpoint position / line-of-sight direction input step 101
At, when the viewpoint position / line-of-sight direction for a certain three-dimensional object is input, next, in the viewpoint state determination step 102, it is determined whether the observer's viewpoint position is stationary or moving. .

【0024】ここで、観察者の視点位置が静止していた
場合は、その観察者が3次元物体を注視していると判断
することができ、この場合、より高い解像度での画像合
成を行う必要がある。
Here, when the viewpoint position of the observer is stationary, it can be determined that the observer is gazing at the three-dimensional object, and in this case, image combination with higher resolution is performed. There is a need.

【0025】また、観察者の視点位置が移動中であった
場合は、3次元物体の周囲を移動していると考えれば良
いから、画像が連続的に滑らかに移り変わっていくよう
に、、連続的に、かつ、高速に画像が合成された方が観
察者に仮想現実感を与えることができる。
When the observer's viewpoint position is moving, it can be considered that the observer is moving around the three-dimensional object, so that the images are continuously and smoothly changed. It is possible to give the observer a virtual reality by synthesizing images at high speed.

【0026】よって、本発明では、上記判定の結果、視
点状態が静止中の場合は高解像度画像合成工程103に
処理を移し、この高解像度画像合成工程103によって
画像を合成し、また、視点画像が移動中の場合は低解像
度画像合成工程104に処理を移し、この低解像度画像
合成工程104によって低解像度ではあるが高遠に画像
を合成させる。
Therefore, according to the present invention, if the result of the above determination is that the viewpoint state is still, the processing is transferred to the high resolution image synthesizing step 103, the images are synthesized by this high resolution image synthesizing step 103, and the viewpoint image Is moving, the process is transferred to the low-resolution image synthesizing step 104, and the low-resolution image synthesizing step 104 synthesizes images at low resolution but high distance.

【0027】このようにして画像が合成されると、当該
合成画像が画像表示工程105でディスプレイ等の表示
装置に出力されて再び観察者からの視点位置・視線方向
入力待ちになる。
When the images are combined in this manner, the combined image is output to a display device such as a display in the image display step 105, and the observer again waits for the viewpoint position and line-of-sight direction input.

【0028】従って、観察者が視点位置・視線方向入力
を与えることで、その視点方向からみた画像が合成さ
れ、表示装置に表示されることになり、しかも、視点状
態が静止状態のときは高解像度の画像が合成され、ま
た、視点状態が移動中のときは低解像度の画像が合成さ
れて表示されることになるので、状態に応じた最適な画
像がリアルタイムで合成表示できるようになる。
Therefore, when the observer inputs the viewpoint position and the line-of-sight direction, the images viewed from the viewpoint direction are combined and displayed on the display device. Moreover, when the viewpoint state is still, the image is high. The resolution images are combined, and when the viewpoint state is moving, the low resolution images are combined and displayed. Therefore, the optimum image according to the state can be combined and displayed in real time.

【0029】<3次元物体の画像合成方法>次に、高解
像度画像合成工程103、低解像度画像合成工程104
での3次元物体画像合成方法について説明する。
<Three-dimensional object image synthesizing method> Next, a high resolution image synthesizing step 103 and a low resolution image synthesizing step 104.
The three-dimensional object image synthesizing method in 1 will be described.

【0030】本発明で採用する画像合成方法は、3次元
物体が輝度情報を含むデータによってモデル化され、更
に輝度情報がブロック単位でVQ(ベクトル量子化:V
ector Quantization)符号化されたモデルから任意視
点画像を合成する。
In the image synthesizing method adopted in the present invention, a three-dimensional object is modeled by data including brightness information, and the brightness information is VQ (vector quantization: V) in block units.
ector Quantization) Synthesizes an arbitrary viewpoint image from an encoded model.

【0031】VQ符号化について少し触れておく。A few words about VQ encoding.

【0032】ベクトル量子化(VQ)は、ベクトル単位
で多次元空間を代表ベクトルに置き換えて、代表ベクト
ルの番号(インデクス)を符号化する手法であり、多次
元空間の量子化を行うことを意味する。画像の符号化と
いう意味では、画像を複数のブロックに分割し、そのブ
ロックに含まれる画素値をベクトルの要素と見なし、ブ
ロック全体を一括してある代表ブロックに置き換えて量
子化することになる。
The vector quantization (VQ) is a method of replacing the multidimensional space with a representative vector in a vector unit and encoding the number (index) of the representative vector, and means to quantize the multidimensional space. To do. In terms of image encoding, an image is divided into a plurality of blocks, pixel values included in the blocks are regarded as vector elements, and the entire block is collectively replaced with a representative block for quantization.

【0033】例えば、2次元の場合のベクトル量子化に
おけるベクトル空間は図2のようになる。代表べクトル
y毎に自分が代表する領域が決められており、代表ベク
トルでボロノイ分割された平面になっている。例えば、
2次元平面内にべクトルxが入力されると、距離が最も
近い代表ベクトルyに量子化されて、この代表ベクトル
yが出力される。
For example, the vector space in the vector quantization in the two-dimensional case is as shown in FIG. A region represented by each of the representative vectors y is determined, and the plane is a Voronoi-divided plane with the representative vector. For example,
When the vector x is input in the two-dimensional plane, it is quantized into the representative vector y having the shortest distance, and the representative vector y is output.

【0034】ベクトル量子化における一般的な画像符号
化方法について図3を用いて説明する。入力画像をK
[個]の画素からなるブロックに分割して、それぞれを
K次元のベクトルPとみなす。
A general image coding method in vector quantization will be described with reference to FIG. Input image as K
The block is divided into [pieces] of pixels, and each is regarded as a K-dimensional vector P.

【0035】P=(p1,p2,… …,pK) ただし、(p1,p2,… …,pK)は、それぞれ標
本値である。
P = (p1, p2, ..., PK) where (p1, p2, ..., PK) are sample values.

【0036】送信側(符号化側)と受信側(復号化側)
ではN[個]のK次元代表ベクトルからなるコードブッ
ク{Q1,Q2,… …,QN}を用意しておく。送信
側ではこのコードブックの中から入力ベクトルPとの距
離が最も近い代表ベクトルを距離計算によって求め、そ
れがQiであれば、その代表ベクトルのインデクスiを
出力符号として伝送する。
Transmitting side (encoding side) and receiving side (decoding side)
Then, a codebook {Q1, Q2, ..., QN} composed of N [pieces] K-dimensional representative vectors is prepared. On the transmitting side, a representative vector having the shortest distance from the input vector P is obtained from this codebook by distance calculation, and if it is Qi, the index i of the representative vector is transmitted as an output code.

【0037】受信側では送られできたインデクスiで示
される代表ベクトルをコードブックから読み出して逆ブ
ロック化を施して復号画像として出力する。
On the receiving side, the representative vector indicated by the index i that can be sent is read from the codebook, deblocked, and output as a decoded image.

【0038】効率の良いベクトル量子化を実現するに
は、コードブックの設計が重要になってくる。一般的に
は入力画像を代表するようなテスト画像を複数枚用意
し、これらに対して符号化歪み(量子化歪み)を最小に
するような代表ベクトルの組を逐次的に求める方法をと
る。コードブックの代表的な設計法である“k−mea
n法”(この“k−mean法”については、高木幹
雄,下田陽久,“画像解析ハンドブック,”東京大学出
版会,pp.648−651、(1991)に詳しい)
の説明を概略ではあるが以下に示す。
In order to realize efficient vector quantization, codebook design becomes important. In general, a method is used in which a plurality of test images that represent input images are prepared and a set of representative vectors that minimizes coding distortion (quantization distortion) is sequentially obtained for these test images. A typical design method for codebooks is "k-mea"
n-method "(For more information about this" k-mean method ", see Mikio Takagi, Yohisa Shimoda," Image Analysis Handbook, "The University of Tokyo Press, pp.648-651, (1991)).
A brief description of the above is given below.

【0039】(1) 代表ベクトルQiに量子化される
m×n次元ベクトル空間の領域をSiとする。また、ト
レーニングシーケンスt1,……,tkを用意する。
(1) Let Si be the region of the m × n dimensional vector space that is quantized into the representative vector Qi. Further, training sequences t1, ..., tk are prepared.

【0040】(2) 代表ベクトルQi(1=1〜N)
に適当な初期値を与える。
(2) Representative vector Qi (1 = 1 to N)
Give an appropriate initial value to.

【0041】(3) 代表ベクトルQiとトレーニング
シーケンスt1,……,tkとの距離を計算して、各S
iに対してどのトレーニングシーケンスtが属するかを
調べる。
(3) The distance between the representative vector Qi and the training sequence t1, ...
Find out which training sequence t belongs to i.

【0042】(4) 各Si毎に、その中に属するtの
重心を新たな代表ベクトルQiにする。
(4) For each Si, the center of gravity of t belonging to it is set as a new representative vector Qi.

【0043】以上の(3)と(4)を量子化誤差が十分
小さな値に収束するまで続ける。
The above (3) and (4) are repeated until the quantization error converges to a sufficiently small value.

【0044】このように設計したコードブックを用いて
画像符号化を行うのである。
Image coding is performed using the codebook designed in this way.

【0045】次に、上述した一般的な画像符号化を多視
点画像に適応させて、多視点画像の符号化復号化を試み
てみる。
Next, the general image coding described above is applied to a multi-viewpoint image, and an attempt is made to code / decode the multi-viewpoint image.

【0046】ベクトル量子化(VQ)を用いて多視点画
像を符号化するに際して、一般的なVQによる画像符号
化と大きく異なる点は、3次元物体毎にコードブックを
設計し、この設計したコードブックと全インデクスデー
タを復号化処理側に伝送して復号化処理側のメモリに保
持させるようにするという点である。
When encoding a multi-viewpoint image using vector quantization (VQ), the point that is greatly different from general VQ image encoding is that a codebook is designed for each three-dimensional object and the designed code is used. The point is that the book and all index data are transmitted to the decoding processing side and held in the memory on the decoding processing side.

【0047】本発明では、3次元物体毎にコードブック
を設計するが、それに必要な多視点画像は同一被写体を
撮影した画像であり、複数の画像に被写体の同一部分が
多く撮影されている。この相関を十分に利用するため
に、全多視点画像の全ブロックをトレーニングシーケン
スとして入力する。
In the present invention, a codebook is designed for each three-dimensional object, and the multi-viewpoint images required for it are images of the same subject, and the same portion of the subject is often captured in a plurality of images. To fully utilize this correlation, all blocks of all multi-view images are input as a training sequence.

【0048】そして、類似のものは代表的なものに集約
することによって、少ない情報量で一つの被写体を表現
できるようになる。同様に別の被写体毎に別途この手法
を施す。
By grouping similar objects into typical objects, one object can be represented with a small amount of information. Similarly, this method is separately performed for each different subject.

【0049】このように、各3次元物体毎にその物体の
全多視点画像を用いての被写体別コードブックを作成し
て復号化処理側に与えるようにしても、それぞれのコー
ドブックは一般的なVQでのコードブックより、少ない
情報量で済み、しかも、再現画像は高い画質を実現でき
る。なお、ベクトル量子化のデータは全て固定長データ
にすると良い。固定長データとすることによって、復号
処理に時間がかからず、また、任意の単一ブロックのみ
を参照するだけで再生することが可能であり、任意ブロ
ックの高速かつランダムアクセス性を保持した復号にも
最適な符号化方法と云うことになる。
As described above, even if a subject-specific codebook using all multi-viewpoint images of each three-dimensional object is created and given to the decoding processing side, each codebook is general. A smaller amount of information is required than a codebook with VQ, and the reproduced image can realize high image quality. It should be noted that all vector quantization data may be fixed length data. By using fixed length data, the decoding process does not take much time, and it is possible to play back only by referring to any single block. Decoding that maintains high speed and random accessibility of any block. This is also the optimum encoding method.

【0050】具体的に、ベクトル量子化による多視点画
像符号化を考えてみる。
Specifically, consider multi-view image coding by vector quantization.

【0051】これは、図4に示すように、符号化側にお
いては、まずはじめに、全多視点画像をブロック化した
ものをトレーニングシーケンスとして用意して“k−m
ean法”を施し、コードブックを設計する。作成され
たコードブックをもとに、全多視点画像内のブロックに
ついて距離計算を行い、最も近い代表ベクトルのインデ
クスを出力する。
On the encoding side, as shown in FIG. 4, first, a block of all multi-viewpoint images is prepared as a training sequence, and "km
The ean method is applied to design the codebook. Based on the created codebook, distance calculation is performed for blocks in all multi-view images, and the index of the nearest representative vector is output.

【0052】符号化処理側は最後に、全多視点画像から
設計されたコードブックと、全多視点画像についてのイ
ンデクスデータを伝送する。
Finally, the encoding processing side transmits a codebook designed from all multi-view images and index data for all multi-view images.

【0053】復号化処理側ではこれらコードブック、及
び全多視点画像内ブロックについてのインデクスデータ
を受信して、メモリに保持し、任意視点画像合成工程が
視点情報に応じてどのブロックを復号するかの指示を待
つ。そして、要求されたブロックに応じたインデクスの
番号を持つブロックをコードブック内から選んできて、
合成に必要なブロックを復号する。
On the decoding side, the codebook and index data for all multi-viewpoint image blocks are received and held in the memory, and which block is decoded by the arbitrary viewpoint image synthesizing step according to the viewpoint information. Wait for instructions. Then, you can select a block in the codebook that has the index number corresponding to the requested block,
Decode blocks needed for composition.

【0054】本発明の基本的概念はこのようなものであ
るが、コードブックとインデクスの情報を用いて復号す
ると云う手法は従来よりある。但し、従来の手法の場
合、コードブックは符号化処理側と復号化処理側にそれ
ぞれ初めから同じものを用意しておき、符号化処理側で
は合成しようとする画像に対応するインデクスを自己の
持つコードブックから抽出し、当該インデクスだけを送
って復号化処理側においてはこのインデクスに該当する
画像をコードブックから得て画像を合成するようにして
いる。
Although the basic concept of the present invention is as described above, there is a conventional method of decoding using the codebook and index information. However, in the case of the conventional method, the same codebook is prepared on the encoding processing side and the decoding processing side from the beginning, and the encoding processing side has its own index corresponding to the image to be combined. The image is extracted from the codebook, only the index is sent, and the decoding processing side obtains the image corresponding to this index from the codebook and synthesizes the image.

【0055】この場合、コードブックは汎用のものとな
らざるを得ず、最終的に得られる画像は擬似的なものと
ならざるを得ない。
In this case, the codebook must be a general-purpose one, and the image finally obtained must be a pseudo one.

【0056】これを解消するには、汎用ではなく、画像
に応じてその画像用のコードブックを作成して復号側に
送り、復号側ではこれを利用し、受け取ったインデクス
から画像を再生するようにする。このようにすると、実
写性を持った実写ベースでのバーチャルリアリティやウ
ォークスルー、そして、バーチャルショップでの商品展
示、インタラクティブな電子博物館などと云った映像分
野に最適な符号化・復号化方法が実現可能になる。
In order to solve this problem, a codebook for an image is created according to the image and sent to the decoding side, and the decoding side uses this to reproduce the image from the received index. To In this way, a virtual reality and walk-through based on live-action with realism, and an optimal encoding / decoding method for video fields such as product exhibitions in virtual shops and interactive electronic museums are realized. It will be possible.

【0057】また、メモリに保持されたデータは、設計
されたコードブックと全多視点画像内の各ブロックにつ
いてのインデクスデータであり、どちらも固定長データ
である。よって、フレーム内DCT符号化やハイブリッ
ド符号化のように、可変長復号や、階層的な復号を施す
必要がなく、インデクスに応じたコードブック内の代表
ベクトルの参照という単純な操作だけで任意のブロック
を素早く復号することができる。
The data held in the memory is the designed codebook and the index data for each block in all multi-view images, both of which are fixed length data. Therefore, unlike the intra-frame DCT coding and the hybrid coding, it is not necessary to perform variable-length decoding or hierarchical decoding, and it is possible to perform arbitrary operation only by a simple operation of referring to the representative vector in the codebook according to the index. Blocks can be decrypted quickly.

【0058】本発明では、高解像度画像合成は通常のV
Q(ベクトル量子化)復号処理を行うことにより実現
し、低解像度画像合成はブロック内の一部のブロックの
みを対象にVQ復号処理を施すことで実現する。
In the present invention, the high resolution image synthesis is performed by using the normal V
It is realized by performing Q (vector quantization) decoding processing, and low resolution image composition is realized by performing VQ decoding processing only for some blocks in the block.

【0059】図5において、201は前記視点位置・視
線方向入力工程S101により入力された視点位置・視
線方向の情報であり、202はブロック単位の輝度情報
によってモデル化された3次元物体のデータのうち、合
成に必要なブロックを選択するブロック選択工程、20
3はブロック選択工程202によって選ばれたブロック
に対応するインデクスを基に輝度情報のVQ(ベクトル
量子化(VQ:VectorQuantizaition))復号を行うV
Q復号化工程、204はVQ復号化工程203において
参照されるコードブック、205は視点位置・視線方向
の情報201と復号された輝度情報からフレームメモリ
にブロックを投影することにより、画像を合成する画像
合成工程、206はブロック単位の輝度情報の全てがブ
ロック選択工程202を通過したかを判定する終了判定
工程、207は画像表示工程105に送られる合成画像
である。
In FIG. 5, reference numeral 201 is information on the viewpoint position / visual line direction input in the viewpoint position / visual line direction input step S101, and 202 is data of a three-dimensional object modeled by luminance information in block units. Of these, a block selection step of selecting a block required for synthesis, 20
Reference numeral 3 is a V for performing VQ (Vector Quantization) decoding of luminance information based on the index corresponding to the block selected in the block selection step 202.
A Q decoding step, 204 is a codebook referred to in the VQ decoding step 203, 205 is a block from the viewpoint position / line-of-sight direction information 201 and the decoded luminance information, and a block is projected to a frame memory to synthesize an image. An image synthesizing step, 206 is an end determining step of determining whether all the luminance information in block units has passed through the block selecting step 202, and 207 is a synthetic image sent to the image displaying step 105.

【0060】本発明においては、3次元物体に対する視
点位置・視線方向の情報201が入力されると、ブロッ
ク選択工程202において、従来例で説明したような光
線に基づく画像合成方法、もしくは距離情報を用いた画
像合成方法によって合成に必要なブロックが3次元物体
データ(ブロック単位)から選択される。
In the present invention, when the information 201 of the viewpoint position and the line-of-sight direction for the three-dimensional object is input, in the block selecting step 202, the image combining method based on the light ray as described in the conventional example or the distance information is obtained. A block required for composition is selected from the three-dimensional object data (block unit) by the image composition method used.

【0061】そして、選択されたブロックに対応するイ
ンデクスを基に、コードブック204を参照して、VQ
符号化されていたブロックの輝度情報を、VQ復号化工
程203によってVQ復号する。
Then, based on the index corresponding to the selected block, the codebook 204 is referred to, and VQ
The luminance information of the coded block is VQ-decoded by the VQ decoding step 203.

【0062】このVQ復号化工程203では、視点状態
判定工程S102によって判定された静止中・移動中の
判定に応じて、静止中であった場合には、普通にVQ復
号を行い、移動中であった場合には、ブロック内の一部
のブロックしか復号を行わない。
In the VQ decoding step 203, if the stationary state or the moving state is determined in the viewpoint state determining step S102, if the stationary state, the VQ decoding is normally performed and the moving state is in progress. If so, only some of the blocks are decoded.

【0063】続いて、画像合成工程205において、視
点位置・視線方向201とVQ復号された輝度情報か
ら、光線に基づく画像合成方法、または距離情報を用い
た画像合成方法によって輝度情報がフレームメモリに投
影される。
Next, in the image synthesizing step 205, the luminance information is stored in the frame memory from the viewpoint position / line-of-sight direction 201 and the VQ-decoded luminance information by an image synthesizing method based on light rays or an image synthesizing method using distance information. Projected.

【0064】この投影演算は、VQ復号された輝度情報
にのみ行う。よって、動作中であった場合は静止してい
る場合より少ないデータで投影を行うこととなり、従っ
て、その分、高速に描画できるようになる。
This projection calculation is performed only on the VQ-decoded luminance information. Therefore, when the operation is in progress, the projection is performed with less data than when the operation is stationary, and accordingly, the drawing can be performed at high speed.

【0065】最後に、終了判定工程206において3次
元物体データの全てのブロックがブロック選択工程20
2を通過したかが判定され、全てのブロックが通過した
と判定されたならば、合成画像207が完成する。
Finally, in the end determination step 206, all blocks of the three-dimensional object data are selected in the block selection step 20.
If it is determined that all blocks have passed, and the composite image 207 is completed.

【0066】このように処理する結果、視点状態が静止
しているか移動中であるかによってVQ(ベクトル量子
化)復号の方法を変えて画像を合成することとなり、こ
れによって、観察者が3次元物体に注視している時には
高解像度の画像合成を行い、観察者が移動中にはよりフ
レームレートが高くなるように画像を合成できるように
なる。
As a result of such processing, the image is synthesized by changing the VQ (Vector Quantization) decoding method depending on whether the viewpoint state is stationary or moving, whereby the observer is three-dimensional. It becomes possible to perform high-resolution image synthesis while gazing at an object, and to synthesize images so that the frame rate becomes higher while the observer is moving.

【0067】<視点状態判定工程の判定結果に応じた復
号方法>次に、VQ復号化工程203での視点状態判定
工程S102の判定に応じた復号方法について図6を用
いて説明する。
<Decoding Method According to Judgment Result of Viewpoint State Judging Step> Next, a decoding method according to the judgment of the viewpoint state judging step S102 in the VQ decoding step 203 will be described with reference to FIG.

【0068】VQ(ベクトル量子化)における代表ベク
トルのサイズは4×4画素16次元ベクトルとする。図
6において、301、302、303、304は、それ
ぞれ、コードブックとして保存されている4×4画素1
6次元の代表ベクトル、305は301〜304から成
る8×8画素のブロック、306は代表ベクトル301
内の16画素が分割されて8×8画素に広がったブロッ
ク、307は代表ブロック301を基に8×8画素のブ
ロック305に対応する解像度“1/2”のブロックと
して作られた8×8画素のブロックである。
The size of the representative vector in VQ (vector quantization) is a 4 × 4 pixel 16-dimensional vector. In FIG. 6, 301, 302, 303, and 304 are 4 × 4 pixels 1 stored as a codebook, respectively.
6-dimensional representative vector, 305 is a block of 8 × 8 pixels consisting of 301 to 304, 306 is a representative vector 301
A block in which 16 pixels are divided into 8 × 8 pixels and expanded to 8 × 8 pixels. Reference numeral 307 is an 8 × 8 block which is based on the representative block 301 and has a resolution “1/2” corresponding to a block 305 of 8 × 8 pixels. It is a block of pixels.

【0069】そして、視点状態判定工程102におい
て、観察者の視点が静止中であると判定された場合は、
VQ復号化工程203は普通にVQ復号を行う。つま
り、選択されたブロックのインデクスに対応する代表ベ
クトルをコードブック204から参照してVQ復号す
る。
If it is determined in the viewpoint state determination step 102 that the observer's viewpoint is still,
The VQ decoding step 203 normally performs VQ decoding. That is, the representative vector corresponding to the index of the selected block is referred to from the codebook 204 to perform VQ decoding.

【0070】例えば、図6での8×8画素の領域305
をVQ復号するには、301から304までの代表ベク
トルを独立にVQ復号する。
For example, the area 305 of 8 × 8 pixels in FIG.
VQ decoding of the representative vectors 301 to 304 is performed independently.

【0071】一方、視点状態判定工程102において、
観察者の視点が移動中であると判定された場合にはVQ
復号化工程203は、代表ベクトル301だけをVQ復
号して、306のように代表ベクトル301を分割して
同じ輝度値を2×2画素まで広げた8×8ブロック30
5に対応する解像度1/2のブロックとした8×8画素
ブロック307を用いる。
On the other hand, in the viewpoint state determining step 102,
If it is determined that the observer's viewpoint is moving, VQ
The decoding step 203 VQ-decodes only the representative vector 301, divides the representative vector 301 as in 306, and expands the same luminance value to 2 × 2 pixels 8 × 8 block 30.
An 8 × 8 pixel block 307 corresponding to 5 and having a resolution of ½ is used.

【0072】次に、画像合成工程205での処理に入
る。画像合成工程205ではブロック投影演算を行って
フレームメモリ上に画素を投影することにより、画像合
成するが、このブロック投影演算について図7を用いて
説明する。
Next, the processing in the image synthesizing step 205 starts. In the image synthesizing step 205, an image is synthesized by performing block projection calculation and projecting pixels on the frame memory. This block projection calculation will be described with reference to FIG. 7.

【0073】まず、距離情報を用いて画像合成を行う場
合を説明する。
First, a case where image composition is performed using distance information will be described.

【0074】視点状態判定工程102によって視点が移
動中であると判定され、解像度“1/2”の8×8画素
ブロック307をフレームメモリに投影する際は、ブロ
ック306中で復号された輝度情報が入れられた部分の
画素のみの距離データを用いて投影を行う。つまり、図
7で示すように、ブロック306を16分割した2×2
画素ブロックについて、4画素のうち1画素についての
み投影演算を行い、残り3画素についてはフレームメモ
リ上へ相似に投影する。
When the viewpoint state determining step 102 determines that the viewpoint is moving and the 8 × 8 pixel block 307 having the resolution “1/2” is projected on the frame memory, the luminance information decoded in the block 306 is used. Projection is performed using the distance data of only the pixels in the portion where is entered. That is, as shown in FIG. 7, the block 306 is divided into 16 2 × 2 blocks.
With respect to the pixel block, the projection calculation is performed only on one pixel among the four pixels, and the remaining three pixels are similarly projected onto the frame memory.

【0075】また、光線に基づいて画像合成を行う場合
は、ブロック301の復号された領域のみを光線に基づ
いてフレームメモリ上への投影を行い、残りの3/4の
領域はフレームメモリ上へ図7のように相似に投影を行
う。よって、視点移動中の場合に行わねばならない演算
量が、静止している場合での1/4で済み、従って、そ
の分、高速に3次元物体を合成することができる。
In the case of performing image synthesis based on rays, only the decoded area of the block 301 is projected onto the frame memory based on the rays, and the remaining 3/4 area is projected onto the frame memory. Similar projection is performed as shown in FIG. Therefore, the amount of calculation that has to be performed when the viewpoint is moving is only 1/4 that when the viewpoint is stationary, and accordingly, the three-dimensional object can be synthesized at high speed.

【0076】以上のように、視点状態が静止しているか
移動中であるかによってVQ復号の方法を変えて画像を
合成することにより、観察者が3次元物体に注視してい
る時には高解像度の画像合成を行い、観察者が移動中に
はよりフレームレートが高く画像を合成することが可能
になる。
As described above, by combining the images by changing the VQ decoding method depending on whether the viewpoint state is stationary or moving, when the observer is gazing at the three-dimensional object, a high resolution image is obtained. By synthesizing images, it becomes possible to synthesize images with a higher frame rate while the observer is moving.

【0077】なお、本実施例では、VQ復号の方法が高
解像度画像合成用、低解像度画像合成用の2通りになっ
ているが、高解像度での復号画像の画質になんら影響を
与えておらず、また、コードブック符号量も増加してい
ない。しかし、低解像度での復号画像については、一般
的な解像度“1/2”の画像より画質が落とされてい
る。
In the present embodiment, there are two VQ decoding methods, one for high resolution image synthesis and one for low resolution image synthesis. However, the quality of the decoded image at high resolution is not affected. In addition, the codebook code amount has not increased. However, the image quality of a low-resolution decoded image is lower than that of a general image having a resolution of "1/2".

【0078】そこで、次に低解像度の復号画像での画質
を劣化させないようにした例を第2の実施形態として説
明する。
Therefore, an example in which the quality of a low-resolution decoded image is not deteriorated will be described next as a second embodiment.

【0079】(第2実施形態)上述した第1の実施形態
の画像合成方法でのVQ復号化工程203、コードブッ
ク204において、コードブック204を作成する際に
縦横方向に1画素ずつ間の空いた互い違いの重ならない
解像度“1/2”のパターンによって、予めコードブッ
クを設計することにより、低解像度での復号画像の画質
劣化を抑制可能である。この第2の実施形態では、この
ことを利用して低解像度での復号画像の画質劣化を抑制
できるようにする。
(Second Embodiment) In the VQ decoding step 203 and the codebook 204 in the image synthesizing method of the first embodiment described above, when the codebook 204 is created, there is a space between each pixel in the vertical and horizontal directions. By designing the codebook in advance with the pattern of the resolution "1/2" which does not overlap with each other, it is possible to suppress the image quality deterioration of the decoded image at the low resolution. In the second embodiment, it is possible to suppress the image quality deterioration of the decoded image at low resolution by utilizing this fact.

【0080】以下、低解像度での画質劣化を防いだ3次
元物体の画像合成方法について説明する。
Hereinafter, a method of synthesizing an image of a three-dimensional object which prevents deterioration of image quality at low resolution will be described.

【0081】第2の実施形態におけるVQ復号化工程2
03での視点状態判定工程102の判定に応じた復号方
法について図8を用いて説明する。
VQ decoding step 2 in the second embodiment
A decoding method according to the determination in the viewpoint state determination step 102 in 03 will be described with reference to FIG.

【0082】この方法では、図8に示すように、8×8
ブロックを4つの4×4ブロックに分割するのでなく、
8×8ブロック505を、縦横方向に1画素ずつ間の空
いた互い違いの重ならない解像度“1/2”のパターン
として501、502、503、504のように分割し
たトレーニングシーケンスによってコードブックを設計
する。
In this method, as shown in FIG.
Instead of dividing the block into four 4x4 blocks,
A codebook is designed by a training sequence in which an 8 × 8 block 505 is divided into patterns such as 501, 502, 503, and 504 as patterns of alternating resolution “1/2” with one pixel left in each of the vertical and horizontal directions. .

【0083】視点状態判定工程102において、観察者
の視点が静止している判定された場合は、VQ復号化工
程203は代表ベクトル501〜504を復号して、8
×8ブロック505を復号する。
When the viewpoint state determining step 102 determines that the observer's viewpoint is still, the VQ decoding step 203 decodes the representative vectors 501 to 504,
Decrypt the × 8 block 505.

【0084】視点状態判定工程102において、観察者
の視点が移動中であると判定された場合は、代表ベクト
ル501だけをVQ復号して、8×8ブロック505に
対応する解像度“1/2”のブロックとして8×8画素
ブロック506を作成する。
In the viewpoint state determining step 102, when it is determined that the observer's viewpoint is moving, only the representative vector 501 is VQ-decoded and the resolution “1/2” corresponding to the 8 × 8 block 505 is obtained. The 8 × 8 pixel block 506 is created as the block of No.

【0085】そして、投影演算を行うが、これは第1の
実施形態で説明した手法と同様の手法にて行う。これに
よって、観察者の視点移動中の場合に扱う投影演算は、
観察者の視点が静止している場合での投影演算の1/4
で済み、従って、高遠に3次元物体を合成できるように
なると共に、一般的な解像度“1/2”の画像の画質に
保つことができ、画質劣化を抑制できる。
Then, the projection calculation is performed by the same method as that described in the first embodiment. As a result, the projection calculation handled when the viewpoint of the observer is moving is
1/4 of the projection calculation when the observer's viewpoint is stationary
Therefore, it becomes possible to synthesize a three-dimensional object at a high distance, and it is possible to maintain the image quality of an image having a general resolution of "1/2", and suppress image quality deterioration.

【0086】以上のように、本実施例は、視点状態が静
止しているか移動中であるかによってVQ復号の方法を
変えて画像を合成することにより、観察者が3次元物体
に注視している時には高解像度の画像合成を行い、観察
者が移動中にはよりフレームレートが高く画像を合成す
ることが可能になる。
As described above, in the present embodiment, the observer pays attention to the three-dimensional object by combining the images by changing the VQ decoding method depending on whether the viewpoint state is stationary or moving. When the observer is moving, it is possible to synthesize images with high resolution and to synthesize images with a higher frame rate.

【0087】また、本実施例によれば、高速に合成でき
る低解像度の復号画像において、一般的な解像度“1/
2”の画像を実現できる。しかし、コードブック204
を作成する際に縦横方向に1画素ずつ間の空いた互い違
いの重ならない解像度“1/2”のパターンによって設
計しているため、第1の実施形態ほどブロック内相関を
利用したVQ符号化はできていない。また、第1の実施
形態と同じく、コードブック符号量は増加しない。
Further, according to this embodiment, in a low-resolution decoded image that can be synthesized at high speed, a general resolution of "1 /
2 "image can be realized. However, codebook 204
Since the pattern is designed by the pattern of the resolution "1/2" which does not overlap with each other and has one pixel in the vertical and horizontal directions, the VQ encoding using the intra-block correlation is performed as in the first embodiment. Not done. Further, as in the first embodiment, the codebook code amount does not increase.

【0088】以上は低解像度画像の合成にあたり、解像
度を“1/2”に保つことができる実施例であった。
The above is the embodiment in which the resolution can be maintained at "1/2" when synthesizing the low resolution image.

【0089】次に、視点状態が静止しているか移動中で
あるかによってVQ復号で使用するコードブックを使い
分けて画像を合成することにより、観察者が3次元物体
に注視している時には高解像度の画像合成を行い、観察
者が移動中にはよりフレームレートが高く画像を合成す
ることができるようにする例を第3の実施形態として説
明する。
Next, a codebook used in VQ decoding is selectively used depending on whether the viewpoint state is stationary or moving to synthesize an image, thereby obtaining a high resolution when the observer is gazing at a three-dimensional object. An example will be described as a third embodiment in which the images are combined so that the image can be combined with a higher frame rate while the observer is moving.

【0090】(第3の実施形態)第1の実施形態の画像
合成方法でのVQ復号化工程203、コードブック20
4において、予め高解像度と低解像度の2種類のコード
ブック204を用意しておいて、観察者の視点静止・移
動中で使い分けることにより、高解像度の画質を低下さ
せることなく、低解像度でも自然なサンプリングを行う
ことが可能である。
(Third Embodiment) VQ decoding step 203 and codebook 20 in the image combining method of the first embodiment.
4, the two types of codebooks 204 of high resolution and low resolution are prepared in advance, and the codebook 204 is used properly while the observer's viewpoint is stationary or moving, so that the image quality of the high resolution is not deteriorated and the low resolution natural It is possible to perform various samplings.

【0091】第3の実施形態におけるVQ復号化工程2
03での視点状態判定工程102の判定に応じた復号方
法について図9を用いて説明する。この方法では、第1
の実施形態での図6と同様に、8×8ブロック601を
4つの4×4ブロック603,604,605,606
に分割して高解像度用のコードブックを設計する。
VQ decoding step 2 in the third embodiment
A decoding method according to the determination in the viewpoint state determination step 102 in 03 will be described with reference to FIG. In this method, the first
6 in the above embodiment, the 8 × 8 block 601 is replaced by four 4 × 4 blocks 603, 604, 605, 606.
Design a high-resolution codebook by dividing it into.

【0092】また、予め8×8ブロック601に対応す
る低解像度のブロック602を作成し、4×4ブロック
607を基にして、低解像度用のコードブックも設計し
ておく。コードブック符号量は高解像度用コードブック
の1/4が新たに必要になる。視点状態判定工程102
において、観察者の視点が静止している判定された場合
は、VQ復号化工程203は高解像度用のコードブック
を用いて、4×4ブロック603、604、605、6
06を復号する。
A low-resolution block 602 corresponding to the 8 × 8 block 601 is created in advance, and a low-resolution codebook is also designed based on the 4 × 4 block 607. The codebook code amount requires 1/4 of the high-resolution codebook. Viewpoint state determination process 102
If it is determined that the observer's viewpoint is still, the VQ decoding step 203 uses the codebook for high resolution and the 4 × 4 blocks 603, 604, 605, 6
Decode 06.

【0093】視点状態判定工程102において、観察者
の視点が移動中であると判定された場合は、低解像度用
のコードブックを用いて4×4ブロック607をVQ復
号して、8×8ブロック601に対応する解像度“1/
2”のブロックとして8×8画素ブロック602を作成
する。
If it is determined in the viewpoint state determination step 102 that the observer's viewpoint is moving, VQ decoding is performed on the 4 × 4 block 607 using the codebook for low resolution to obtain an 8 × 8 block. Resolution corresponding to 601 "1 /
An 8 × 8 pixel block 602 is created as a 2 ″ block.

【0094】そして、投影演算を行うが、これは第1の
実施形態で説明した手法と同様の手法にて行う。これに
よって、観察者の視点移動中の場合に扱う投影演算は、
観察者の視点が静止している場合での投影演算の1/4
で済み、従って、高遠に3次元物体を合成できるように
なると共に、高解像度の画質を低下させることなく、低
解像度でも自然なサンプリングを行うことが可能とな
る。
Then, the projection calculation is performed by the same method as the method described in the first embodiment. As a result, the projection calculation handled when the viewpoint of the observer is moving is
1/4 of the projection calculation when the observer's viewpoint is stationary
Therefore, it becomes possible to synthesize a three-dimensional object at a high distance, and it is possible to perform natural sampling even at a low resolution without deteriorating the image quality at a high resolution.

【0095】以上のように、視点状態が静止しているか
移動中であるかによってVQ復号で使用するコードブッ
クを使い分けて画像を合成することにより、観察者が3
次元物体に注視している時には高解像度の画像合成を行
い、観察者が移動中にはよりフレームレートが高くでき
るように、画像を合成できるようになる。
As described above, depending on whether the viewpoint state is stationary or moving, the codebooks used in VQ decoding are selectively used to synthesize an image, so that
It becomes possible to perform high-resolution image synthesis while gazing at a three-dimensional object, and to synthesize images so that the observer can increase the frame rate while moving.

【0096】本実施例では、第1の実施形態で実現でき
る高解像度合成画像での画質、および、第2実施形態で
実現できる低解像度合成画像での画質を共に可能にして
いる。しかし、コードブック符号量は5/4倍になる。
In this embodiment, it is possible to achieve both the image quality of a high resolution composite image that can be realized in the first embodiment and the image quality of a low resolution composite image that can be realized in the second embodiment. However, the codebook code amount becomes 5/4 times.

【0097】尚、本発明は上述した実施例に限定するこ
となく、その要旨を変更しない範囲内で適宜変形して実
施可能である。また、実施形態に記載した手法は、コン
ピュータに実行させることのできるプログラムとして、
磁気ディスク(フロッピー(登録商標)ディスク、ハー
ドディスクなど)、光ディスク(CD−ROM、DVD
など)、半導体メモリなどの記録媒体に格納して頒布す
ることもできる。
The present invention is not limited to the above-mentioned embodiments, but can be carried out by appropriately modifying it within the scope of the invention. In addition, the method described in the embodiment is a program that can be executed by a computer.
Magnetic disk (floppy (registered trademark) disk, hard disk, etc.), optical disk (CD-ROM, DVD
Etc.), and can be distributed by being stored in a recording medium such as a semiconductor memory.

【0098】[0098]

【発明の効果】以上記述したように本発明の画像合成方
法によれば、視点状態が静止状態であるか、移動中かに
よって復号するブロックの解像度を変化させるように
し、観察者が静止中には高解像度の画像合成、動作中に
は高いフレームレートでの画像合成が可能になるという
効果を奏する。
As described above, according to the image synthesizing method of the present invention, the resolution of the block to be decoded is changed depending on whether the viewpoint state is the still state or the moving state so that the observer can see the still state. Has the effect of enabling high-resolution image composition and image composition at a high frame rate during operation.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を説明するための図であって、本発明の
第1実施形態における画像合成方法の流れを示すフロー
チャート。
FIG. 1 is a diagram for explaining the present invention and is a flowchart showing a flow of an image synthesizing method according to the first embodiment of the present invention.

【図2】QVにおけるベクトル空間を説明するための
図。
FIG. 2 is a diagram for explaining a vector space in QV.

【図3】ベクトル量子化による一般的な画像符号化を説
明するための図。
FIG. 3 is a diagram for explaining general image encoding by vector quantization.

【図4】ベクトル量子化による他視点画像符号化を説明
するための図。
FIG. 4 is a diagram for explaining other-viewpoint image coding by vector quantization.

【図5】本発明を説明するための図であって、本発明の
第1実施形態でのる画像合成方法における画像合成工程
S103、S104の流れを示すフローチャート。
FIG. 5 is a diagram for explaining the present invention and is a flowchart showing a flow of image synthesizing steps S103 and S104 in the image synthesizing method according to the first embodiment of the present invention.

【図6】本発明を説明するための図であって、本発明の
第1実施形態のVQ符号化工程203を説明する図。
FIG. 6 is a diagram for explaining the present invention, which is a diagram for explaining the VQ encoding step 203 of the first embodiment of the present invention.

【図7】本発明を説明するための図であって、本発明の
第1実施形態での投影方法を説明する図。
FIG. 7 is a diagram for explaining the present invention and a diagram for explaining a projection method in the first embodiment of the present invention.

【図8】本発明を説明するための図であって、本発明の
第2実施形態のVQ符号化工程203を説明する図。
[Fig. 8] Fig. 8 is a diagram for explaining the present invention and a diagram for explaining a VQ encoding step 203 of the second embodiment of the present invention.

【図9】本発明を説明するための図であって、本発明の
第3実施形態のVQ符号化工程203、コードブック2
04を説明する図。
FIG. 9 is a diagram for explaining the present invention, which is a VQ encoding step 203 and a codebook 2 of the third embodiment of the present invention.
FIG.

【図10】光線べースで任意視点画像を合成する方法を
説明する図。
FIG. 10 is a diagram illustrating a method of synthesizing an arbitrary viewpoint image using a ray base.

【図11】距離情報を用いて任意視点画像を合成する方
法を説明する図。
FIG. 11 is a diagram illustrating a method of synthesizing an arbitrary viewpoint image using distance information.

【符号の説明】[Explanation of symbols]

101…視点位置・方向入力工程 102…視点状態判定工程 103…高解像度画像合成工程 104…低解像度画像合成工程 105…画像表示工程 201…視点位置・視点方向 202…ブロック選択工程 203…VQ復号化工程 204…コードブック 205…画像合成工程 206…終了判定工程 207…合成画像 301〜304…4×4ブロック 305…8×8ブロック 306…4×4ブロック301内の画素を分割したブロ
ック 307…8×8ブロック305に対応する解像度112
のブロック 501〜504…重ならないパターンの16次元代表ベ
クトル 505…8×8ブロック 506…8×8ブロック505に対応する解像度1/2
のブロック 601…8×8ブロック 602…8×8ブロック601を解像度112にしたブ
ロック 603〜606…8×8ブロックを4分割した4×4ブ
ロック 607…8×8ブロック601を解像度112にしたブ
ロック 701…3次元物体 702…カメラ画像 703…レンズ焦点 704…光線情報 801…輝度情報ブロック 802…距離情報ブロック 803…3次元物体断面 804…カメラ画像 805…レンズ焦点
101 ... Viewpoint position / direction input step 102 ... Viewpoint state determination step 103 ... High resolution image combining step 104 ... Low resolution image combining step 105 ... Image display step 201 ... Viewpoint position / viewpoint direction 202 ... Block selecting step 203 ... VQ decoding Step 204 ... Codebook 205 ... Image combining step 206 ... End determination step 207 ... Combined images 301 to 304 ... 4x4 block 305 ... 8x8 block 306 ... Blocks 307 ... 8 obtained by dividing pixels in 4x4 block 301. Resolution 8 corresponding to × 8 block 305
Blocks 501 to 504 ... 16-dimensional representative vectors 505 of non-overlapping patterns ... 8 × 8 block 506 ... Resolution 1/2 corresponding to 8 × 8 block 505
Block 601 ... 8 × 8 block 602 ... 8 × 8 block 601 with resolution 112 blocks 603 to 606 ... 8 × 8 block divided into 4 4 × 4 block 607 ... 8 × 8 block 601 with resolution 112 701 ... Three-dimensional object 702 ... Camera image 703 ... Lens focus 704 ... Ray information 801 ... Luminance information block 802 ... Distance information block 803 ... Three-dimensional object section 804 ... Camera image 805 ... Lens focus

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平9−289638(JP,A) 特開 平5−35847(JP,A) 特開 平8−186720(JP,A) 特開 平11−66346(JP,A) 特開 平11−18091(JP,A) 特開 昭63−283273(JP,A) 片山昭宏 外3名,”実時間描画を考 慮した光線空間データの圧縮と実装”, 日本バーチャルリアリティ学会論文誌, 日本バーチャルリアリティ学会,1999年 12月31日,第4巻,第4号,p.631− 638 宮腰 政明,”ファジイクラスタリン グとその応用/ファジイクラスタリング の画像解析への応用”,日本ファジィ学 会誌,日本ファジィ学会,1996年 6月 15日,第8巻,第3号,p.440−447 (58)調査した分野(Int.Cl.7,DB名) H03M 7/30 G06T 3/00 G06T 17/40 H04N 5/262 H04N 1/41 - 1/419 ─────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-9-289638 (JP, A) JP-A-5-35847 (JP, A) JP-A-8-186720 (JP, A) JP-A-11- 66346 (JP, A) JP-A-11-18091 (JP, A) JP-A-63-283273 (JP, A) KATAYAMA Akihiro 3 others, "Compression and implementation of ray space data considering real-time drawing" , Transactions of the Virtual Reality Society of Japan, Japan Virtual Reality Society, December 31, 1999, Volume 4, Issue 4, p. 631-638 Miyakoshi Masaaki, "Fuzzy Clustering and its Applications / Application of Fuzzy Clustering to Image Analysis", Journal of the Japan Society for Fuzzy Science, The Japan Society for Fuzzy Science, June 15, 1996, Vol. 8, No. 3, p. . 440-447 (58) Fields surveyed (Int.Cl. 7 , DB name) H03M 7/30 G06T 3/00 G06T 17/40 H04N 5/262 H04N 1/41-1/419

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】3次元物体が輝度情報を含むデータによっ
てモデル化され、輝度情報がブロック単位でベクトル量
子化符号化されたモデルから、任意に指定される視点で
の画像を合成する画像合成方法において、 前記指定される視点位置が静止しているか移動中かを判
定すると共に、判定結果が視点位置移動中である場合に
はベクトル量子化処理処理対象の各ブロック内の一部
の輝度情報についてのみ施すことにより、画像合成を行
うことを特徴とする画像合成方法。
1. An image synthesizing method for synthesizing an image at an arbitrarily designated viewpoint from a model in which a three-dimensional object is modeled by data including luminance information and the luminance information is vector-quantized and coded in block units. In the case of determining whether the specified viewpoint position is stationary or moving, and when the determination result is that the viewpoint position is moving,
Image synthesis method of the by subjecting only a portion of the luminance information in each block to be processed the vector quantization processing, and performs image synthesis.
【請求項2】前記輝度情報のベクトル量子化復号化処理
において、 4ブロック分の輝度情報を1ブロックで代表させて画像
合成を行うことを特徴とする請求項1記載の画像合成方
法。
2. The image synthesizing method according to claim 1, wherein in the vector quantization decoding processing of the luminance information, the image synthesizing is performed by representing the luminance information of 4 blocks by one block.
【請求項3】前記輝度情報のベクトル量子化符号化処理
において、 対象の物体毎にコードブックを設計し、この設計したコ
ードブックと全インデクスデータを復号化処理側に保持
させるようにし、画像再生は与えられるインデックスデ
ータ対応にコードブックから得た代表ベクトルを用いて
行うと共に、前記コードブックは、縦横方向に1画素ず
つ間の空いた互い違いの重ならない解像度1/2のパタ
ーンによって、予め設計するものであることを特徴とす
る請求項1記載の画像合成方法。
3. In the vector quantization coding processing of the luminance information, a codebook is designed for each target object, and the designed codebook and all index data are held on the decoding processing side, and image reproduction is performed. Is performed by using a representative vector obtained from the codebook corresponding to the given index data, and the codebook is designed in advance by a pattern with a non-overlapping staggered resolution of 1/2 for each pixel in the vertical and horizontal directions. The image synthesizing method according to claim 1, wherein the image synthesizing method is one.
【請求項4】3次元物体が輝度情報を含むデータによっ
てモデル化され、更に輝度情報がブロック単位でベクト
ル量子化符号化されたモデルから任意視点画像を合成す
る画像合成処理において、 ベクトル量子化のコードブックを作成する際に標準的な
コードブックと低解像度のコードブックを設計してお
き、視点移動中の場合にはこの低解像度のコードブック
を用いて画像合成を行うことを特徴とする画像合成方
法。
4. A three-dimensional object is modeled by data including luminance information, and further, in image synthesizing processing for synthesizing an arbitrary viewpoint image from a model in which the luminance information is vector-quantized and coded in block units, vector quantization is performed. An image characterized by designing a standard codebook and a low-resolution codebook when creating a codebook, and performing image synthesis using this low-resolution codebook when the viewpoint is moving. Synthesis method.
【請求項5】3次元物体が輝度情報を含むデータによっ
てモデル化され、輝度情報がブロック単位でベクトル量
子化符号化されたモデルから、任意に指定される視点で
の画像を合成するための、コンピュータで読み取りおよ
び実行可能な画像合成プログラムを記録した媒体であっ
て、 前記指定される視点位置が静止しているか移動中かを判
定するステップと、 この判定結果が視点位置移動中である場合にはベクトル
量子化処理処理対象の各ブロック内の一部の輝度情報
についてのみ施すことにより、画像合成を行うステップ
とを具備する画像合成プログラムを記録した媒体。
5. A three-dimensional object is modeled by data including luminance information, and luminance information is vector-quantized and coded on a block-by-block basis to synthesize an image at an arbitrarily specified viewpoint , Read by computer
A medium in which a finely executable image synthesis program, and determining whether moving or viewpoint position said specified is stationary, this determination is base if is in the viewpoint position movement vector by subjecting only a portion of the luminance information in each block to be processed quantization processing, a medium recording the images synthesis program that includes a step of performing image synthesis.
JP2000099963A 2000-03-31 2000-03-31 Image composition method and medium recording image composition program Expired - Fee Related JP3532823B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000099963A JP3532823B2 (en) 2000-03-31 2000-03-31 Image composition method and medium recording image composition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000099963A JP3532823B2 (en) 2000-03-31 2000-03-31 Image composition method and medium recording image composition program

Publications (2)

Publication Number Publication Date
JP2001285074A JP2001285074A (en) 2001-10-12
JP3532823B2 true JP3532823B2 (en) 2004-05-31

Family

ID=18614235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000099963A Expired - Fee Related JP3532823B2 (en) 2000-03-31 2000-03-31 Image composition method and medium recording image composition program

Country Status (1)

Country Link
JP (1) JP3532823B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10330935B2 (en) * 2016-09-22 2019-06-25 Apple Inc. Predictive, foveated virtual reality system
JP7006056B2 (en) * 2017-06-05 2022-01-24 凸版印刷株式会社 Virtual space presentation device, virtual space presentation method, and program
JP7054336B2 (en) * 2017-12-05 2022-04-13 Kddi株式会社 Modeling equipment, methods and programs
JP6672417B2 (en) * 2018-10-10 2020-03-25 キヤノン株式会社 Image processing apparatus, image processing system, image processing method, and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
宮腰 政明,"ファジイクラスタリングとその応用/ファジイクラスタリングの画像解析への応用",日本ファジィ学会誌,日本ファジィ学会,1996年 6月15日,第8巻,第3号,p.440−447
片山昭宏 外3名,"実時間描画を考慮した光線空間データの圧縮と実装",日本バーチャルリアリティ学会論文誌,日本バーチャルリアリティ学会,1999年12月31日,第4巻,第4号,p.631−638

Also Published As

Publication number Publication date
JP2001285074A (en) 2001-10-12

Similar Documents

Publication Publication Date Title
Shum et al. Survey of image-based representations and compression techniques
Yu A light-field journey to virtual reality
Smolic et al. Interactive 3-D video representation and coding technologies
Shum et al. Review of image-based rendering techniques
US10339701B2 (en) Method, system and apparatus for generation and playback of virtual reality multimedia
Zhang et al. A survey on image-based rendering—representation, sampling and compression
Massey et al. Salient stills: Process and practice
US20080246757A1 (en) 3D Image Generation and Display System
RU2503062C2 (en) Method and system for encoding three-dimensional video signal, encoder for encoding three-dimensional video signal, encoded three-dimensional video signal, method and system for decoding three-dimensional video signal, decoder for decoding three-dimensional video signal
CN107439010A (en) The spherical video of streaming
KR20040050888A (en) Non-flat image processing apparatus, image processing method, recording medium, and computer program
CN101223552A (en) Video processing method and device for depth extraction
JP5826730B2 (en) Video compression apparatus, image processing apparatus, video compression method, image processing method, and data structure of video compression file
Würmlin et al. 3D Video Recorder: a System for Recording and Playing Free‐Viewpoint Video
Moezzi et al. Immersive video
Su et al. Learning compressible 360 video isomers
KR20190031943A (en) Method and apparatus for providing 6-dof omni-directional stereoscopic image based on layer projection
Shum et al. A virtual reality system using the concentric mosaic: construction, rendering, and data compression
JP4403421B2 (en) Image processing apparatus and image processing method
KR20080034419A (en) 3d image generation and display system
EP3729805A1 (en) Method for encoding and decoding volumetric video data
JP3532823B2 (en) Image composition method and medium recording image composition program
JP2001283201A (en) Method for creating three-dimensional image data and method for creating optional viewpoint image using three-dimensional image data
CN114897681A (en) Multi-user free visual angle video method and system based on real-time virtual visual angle interpolation
Bove Object-oriented television

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20031202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040304

LAPS Cancellation because of no payment of annual fees