JP3080487B2 - Motion compensation prediction method for multi-view stereoscopic video - Google Patents

Motion compensation prediction method for multi-view stereoscopic video

Info

Publication number
JP3080487B2
JP3080487B2 JP26174892A JP26174892A JP3080487B2 JP 3080487 B2 JP3080487 B2 JP 3080487B2 JP 26174892 A JP26174892 A JP 26174892A JP 26174892 A JP26174892 A JP 26174892A JP 3080487 B2 JP3080487 B2 JP 3080487B2
Authority
JP
Japan
Prior art keywords
motion compensation
compensation vector
uncovered background
camera
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP26174892A
Other languages
Japanese (ja)
Other versions
JPH06113338A (en
Inventor
真喜子 此島
映史 森松
章 中川
喜一 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP26174892A priority Critical patent/JP3080487B2/en
Publication of JPH06113338A publication Critical patent/JPH06113338A/en
Application granted granted Critical
Publication of JP3080487B2 publication Critical patent/JP3080487B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】 (目次) 産業上の利用分野 従来の技術(図19〜図25) 発明が解決しようとする課題 課題を解決するための手段(図1) 作用(図1) 実施例 ・第1実施例の説明(図2〜図12) ・第2実施例の説明(図13〜図18) ・その他 発明の効果(Contents) Industrial Application Field Conventional Technology (FIGS. 19 to 25) Problems to be Solved by the Invention Means for Solving the Problems (FIG. 1) Function (FIG. 1) Embodiment First Embodiment Description of Examples (FIGS. 2 to 12)-Description of Second Embodiment (FIGS. 13 to 18)-Other Effects of the Invention

【0002】[0002]

【産業上の利用分野】本発明は、2眼以上の多眼式立体
映像について動き補償を行なう多眼式立体映像の動き補
償予測方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion compensation prediction method for a multi-view stereoscopic video, which performs motion compensation on a multi-view stereoscopic video of two or more eyes.

【0003】[0003]

【従来の技術】図19は従来の多眼式立体映像システム
を示す図であるが、この図19において、102はカメ
ラであり、このカメラ102は複数個設けられていて、
各カメラ102は、被写体101を撮影するものであっ
て、縦と横で、各々のカメラ102の配置位置を少しず
つずらしている。
2. Description of the Related Art FIG. 19 shows a conventional multi-view stereoscopic video system. In FIG. 19, reference numeral 102 denotes a camera, and a plurality of cameras 102 are provided.
Each camera 102 captures an image of the subject 101, and the positions of the cameras 102 are slightly shifted vertically and horizontally.

【0004】カメラ102の位置を縦および横に、少し
ずつずらしているのは、1つのカメラからの出力を片方
の眼に対する入力として、両眼視差を形成して立体視が
得られるようにするためである。従って、このようにカ
メラ102を多数用いることにより、出力系でディスプ
レイ107を見る人間が、このディスプレイ107を見
る位置を変えても自然な立体視が得られるようになって
いる。
The reason why the position of the camera 102 is slightly shifted vertically and horizontally is that an output from one camera is used as an input to one eye to form binocular parallax so that stereoscopic vision can be obtained. That's why. Therefore, by using a large number of cameras 102 in this way, a person viewing the display 107 in the output system can obtain a natural stereoscopic view even if the position at which the display 107 is viewed is changed.

【0005】103は符号化器であり、この符号化器1
03は各カメラ102から入力される画像データを符号
化するものである。104は多重化(マルチプレクス)
器であり、この多重化器104は、符号化器103で符
号化された画像データを伝送路にのせて伝送するため
に、符号化された画像データを多重化するものである。
105は分離(デマルチプレクス)器であり、この分離
器105は、伝送路を介して入力された多重画像データ
を分離するものである。そして、106は復号器であ
り、この復号器106は、分離器105で分離された画
像データを、ディスプレイ107に映し出すために復号
を行なうものである。
[0005] Reference numeral 103 denotes an encoder.
03 encodes image data input from each camera 102. 104 is multiplexing (multiplex)
The multiplexer 104 multiplexes the encoded image data in order to transmit the image data encoded by the encoder 103 on a transmission path.
Reference numeral 105 denotes a demultiplexer. The demultiplexer 105 separates multiplexed image data input via a transmission path. Reference numeral 106 denotes a decoder, which decodes the image data separated by the separator 105 in order to display the image data on a display 107.

【0006】なお、ディスプレイ107には、一例とし
てレンチキュラ・レンズ(横方向にのみ視差がある場
合)または、ハエの眼レンズ(縦・横方向に視差がある
場合)を使用する。このような構成により、上記の多眼
式立体映像システムは以下に示す動作を有する。
As the display 107, a lenticular lens (when there is parallax only in the horizontal direction) or a fly's eye lens (when there is parallax in the vertical and horizontal directions) is used as an example. With such a configuration, the above-described multi-view stereoscopic video system has the following operation.

【0007】まず、静止している、あるいは動いている
被写体101を、位置を縦および横に、少しずつずらし
た複数のカメラ102で撮影する。次に、複数のカメラ
102から得られた画像データを高能率符号化し、多重
化器104により多重化(マルチプレクス)する。その
後、伝送路などを介して伝送し、受信側では分離器10
5により分離(デマルチプレクス)した後、復号器10
6により復号を行ない、ディスプレイ107に映し出
す。
First, a still or moving subject 101 is photographed by a plurality of cameras 102 whose positions are slightly shifted vertically and horizontally. Next, the image data obtained from the plurality of cameras 102 is encoded with high efficiency and multiplexed (multiplexed) by the multiplexer 104. After that, the signal is transmitted through a transmission path or the like, and is separated on the receiving side by a separator 10.
5 after demultiplexing (demultiplexing) by the decoder 10
The decoding is performed by 6 and displayed on the display 107.

【0008】このディスプレイ107に映し出された映
像の一例として、図20にタコを被写体としたときの、
縦5眼、横5眼のそれぞれのカメラからの出力を示す。
この例では、上下方向にも視差があることがわかる。さ
らに、別の例として、図21にホログラフィック・ステ
レオグラムを構成する場合のシステムの一例を示す。こ
の図21において、復号器106によって復号を行なう
ところまでは図19で示した多眼式立体映像システムと
同様である。
[0008] As an example of an image projected on the display 107, FIG.
The output from each of a camera with five eyes vertically and five eyes horizontally is shown.
In this example, it can be seen that there is also a parallax in the vertical direction. Further, as another example, FIG. 21 shows an example of a system for forming a holographic stereogram. 21 is the same as the multi-view stereoscopic video system shown in FIG. 19 up to the point where decoding is performed by the decoder 106.

【0009】108は画像サイズ変換部であり、この画
像サイズ変換部108は、位相計算部109によるホロ
グラム位相計算の前処理として、画像サイズを変換する
ものである。位相計算部109は、画像サイズ変換後に
ディスプレイ等のホログラフィック出力系110へ出力
するためのホログラム位相計算を行なうものである。こ
のような構成により、上記のホログラフィック・ステレ
オグラムは、復号器106による復号を行なうところま
では、図19で示した多眼式立体映像システムと同様の
動作を有する。
Reference numeral 108 denotes an image size conversion unit. The image size conversion unit 108 converts the image size as a pre-process of the hologram phase calculation by the phase calculation unit 109. The phase calculation unit 109 performs hologram phase calculation for outputting to the holographic output system 110 such as a display after image size conversion. With such a configuration, the holographic stereogram has the same operation as that of the multi-view stereoscopic video system shown in FIG. 19 until decoding by the decoder 106 is performed.

【0010】しかし、復号器106で復号を行なった後
は、位相計算部109によるホログラム位相計算を行な
うために、画像サイズ変換部108により画像サイズを
変換する。その後、位相計算部109で位相計算を行な
い、ホログラフィック出力系110によって画像を出力
する。さて、多眼式立体映像の実現においては、画面の
動きを補償する必要があり、この動き補償方法として、
時間方向のブロックマッチング予測と、同時刻の、他の
位置のカメラの画像とのブロックマッチング予測(視差
補償)を行なう方法がある。
However, after decoding is performed by the decoder 106, the image size is converted by the image size conversion unit 108 in order to calculate the hologram phase by the phase calculation unit 109. After that, the phase calculation section 109 calculates the phase, and the holographic output system 110 outputs an image. By the way, in realizing a multi-view stereoscopic image, it is necessary to compensate for screen motion.
There is a method of performing block matching prediction in the time direction and block matching prediction (parallax compensation) with an image of a camera at another position at the same time.

【0011】図22は、上記動き補償方法においての、
前者の一例である時間方向のブロックマッチング予測を
行なうものである。この時間方向のブロックマッチング
予測は、過去の画像と入力画像のブロックマッチングと
なり、原画面と参照画面の違いは時間だけが問題となる
ため、単眼式から多眼式まで方法は同じものである。こ
の図22において、201はブロックマッチング及びベ
クトル検出部であり、このブロックマッチング及びベク
トル検出部201は、過去の画像と入力画像との、例え
ば16×16画素のブロックサイズに分割された各ブロ
ックを用いることにより、後述する様な方法で動きベク
トルを検出するようになっている。
FIG. 22 is a diagram showing the motion compensation method according to the present invention.
In this case, block matching prediction in the time direction, which is an example of the former, is performed. The block matching prediction in the time direction is a block matching between the past image and the input image, and the difference between the original screen and the reference screen is only time. Therefore, the method is the same from the monocular system to the multi-view system. In FIG. 22, reference numeral 201 denotes a block matching and vector detection unit. The block matching and vector detection unit 201 converts each block of the past image and the input image, which is divided into a block size of, for example, 16 × 16 pixels. By using this, a motion vector is detected by a method described later.

【0012】図23は、上述のブロックマッチング及び
ベクトル検出部201を詳しく示した図であるが、この
図23において、208はメモリであり、このメモリ2
08は図22におけるメモリ208に相当するものであ
って、参照画面に関する符号化された画像データを記憶
させておくものである。209は2乗誤差算出部であ
り、この2乗誤差算出部209は、入力画面と参照画面
との2乗誤差を算出するものであり、減算部209−1
と2乗計算部209−2と加算部209−3と遅れ要素
(D1)209−4とをそなえて構成されている。
FIG. 23 is a diagram showing the above-mentioned block matching and vector detecting section 201 in detail. In FIG. 23, reference numeral 208 denotes a memory;
08 corresponds to the memory 208 in FIG. 22 and stores encoded image data relating to the reference screen. Reference numeral 209 denotes a square error calculator. The square error calculator 209 calculates a square error between the input screen and the reference screen.
And a square calculator 209-2, an adder 209-3, and a delay element (D1) 209-4.

【0013】210はベクトル変換部であり、このベク
トル変換部210は、参照画面の符号化された画像デー
タについて、ベクトルに変換するものである。211は
ベクトル検出部であり、このベクトル検出部211は、
2乗誤差算出部209で入力画面と参照画面との2乗誤
差の累積によって算出した値を最小にするベクトルを検
出するようになっており、比較部211−1と遅れ要素
(D2)211−2,211−5とセレクタ211−
3,211−4とをそなえて構成されている。
Reference numeral 210 denotes a vector conversion unit, which converts the encoded image data of the reference screen into a vector. Reference numeral 211 denotes a vector detection unit.
The square error calculating unit 209 detects a vector that minimizes the value calculated by accumulating the square error between the input screen and the reference screen. The comparison unit 211-1 and the delay element (D2) 211- 2, 211-5 and selector 211-
3, 211-4.

【0014】ところで、図22における202は可変遅
延部であり、この可変遅延部202は、参照画面を可変
遅延させるものである。203は第1演算部であり、こ
の第1演算部203は、入力画面と、可変遅延部202
により可変遅延された参照画面との差分をとるものであ
る。204は符号化部であり、この符号化部204は入
力される画像データに符号化を施すものである。205
は可変長符号化器(VLC)であり、この可変長符号化
器205は、発生頻度の高い符号語にはビット数を少な
く、発生頻度の低い符号語にはビット数を多く割り当て
ることにより、1符号語当たりの平均のビット数を減ら
して符号化ビットレートの低減して符号化を図るもので
ある。
By the way, reference numeral 202 in FIG. 22 denotes a variable delay section, and this variable delay section 202 variably delays a reference screen. Reference numeral 203 denotes a first calculation unit. The first calculation unit 203 includes an input screen and a variable delay unit 202.
Is used to calculate the difference from the reference screen that has been variably delayed. Reference numeral 204 denotes an encoding unit. The encoding unit 204 encodes input image data. 205
Is a variable-length coder (VLC). The variable-length coder 205 allocates a small number of bits to a code word having a high frequency and a large number of bits to a code word having a low frequency. The encoding is performed by reducing the average number of bits per codeword to reduce the encoding bit rate.

【0015】206はローカルデコード部であり、この
ローカルデコード部206は、符号化部204で符号化
された画像データについて、可変長符号化部205で可
変長符号化されるもののほか、参照画面としても用いる
ためにローカルデコードするものである。207は第2
演算部であり、この第2演算部207は、ローカルデコ
ード部206からの画像データと可変遅延部202から
の画像データに関し、所定の演算を施し、メモリ208
及び可変遅延部202に再送するものである。
Reference numeral 206 denotes a local decoding unit. The local decoding unit 206 performs variable-length encoding on the image data encoded by the encoding unit 204 by a variable-length encoding unit 205, and also serves as a reference screen. Is also used for local decoding. 207 is the second
The second arithmetic unit 207 performs a predetermined arithmetic operation on the image data from the local decode unit 206 and the image data from the variable delay unit 202,
And to the variable delay unit 202.

【0016】208はメモリであり、このメモリ208
は、参照画面に関する符号化された画像データを記憶さ
せておくものである。このような構成により、従来の動
き補償方法では、入力画面と参照画面のあるブロックで
のブロックマッチングを、ブロックマッチング及びベク
トル検出部201により行なう。
Reference numeral 208 denotes a memory.
Stores the encoded image data relating to the reference screen. With such a configuration, in the conventional motion compensation method, block matching in a block having an input screen and a reference screen is performed by the block matching and vector detection unit 201.

【0017】つまり、ブロックマッチング及びベクトル
検出部201では、図23におけるメモリ208によっ
て蓄積されていた参照画面と入力画面の2乗誤差を、2
乗誤差算出部209において算出する。ベクトル検出部
211では、この2乗誤差を最小にするベクトルを検出
して出力する。なお、ここでベクトル検出部211にお
けるセレクタ211−4に入力するベクトルは、参照画
面からの画像データをベクトル変換部210においてベ
クトルに変換したものである。
That is, the block matching and vector detection unit 201 calculates the square error between the reference screen and the input screen stored in the memory 208 in FIG.
Calculated by the squared error calculator 209. The vector detector 211 detects and outputs a vector that minimizes the square error. Here, the vector input to the selector 211-4 in the vector detection unit 211 is obtained by converting the image data from the reference screen into a vector in the vector conversion unit 210.

【0018】ブロックマッチング後は、ブロックマッチ
ング及びベクトル検出部201により動きベクトルを検
出して可変遅延部202にて参照画面を可変遅延させ、
第1演算部203により入力画面との差分をとり、これ
を予測画面とする。この予測画面は符号化部204にお
いて符号化されて、その後可変長符号化器(VLC)2
05により可変長符号化されて送信される。
After the block matching, the motion vector is detected by the block matching and vector detecting section 201, and the reference screen is variably delayed by the variable delay section 202.
The difference from the input screen is obtained by the first calculation unit 203, and this is used as a prediction screen. This prediction screen is encoded by the encoding unit 204, and then the variable length encoder (VLC) 2
05 and is transmitted after being variable-length coded.

【0019】また、参照画面とするために、符号化部2
04で符号化された画像データについて、ローカルデコ
ード部206によりローカルデコードを行なう。なお、
上記動き補償を用いた、グローバル動き補償という考え
かたもある。グローバル動き補償とは、カメラのパン、
ズーム等による画面の全体的な動きを補償するものであ
る。例えば、個々のブロックについてローカルに動き補
償を行ない、その後、行列演算によって、垂直、水平方
向のパン、ズームの3つのパラメータを抽出している。
実際に使用するときには、グローバル動き補償のパラメ
ータと、ローカルな動き補償のパラメータを組み合わせ
て処理、伝送する。
In order to make a reference screen, the encoding unit 2
The local decoding unit 206 performs local decoding on the image data encoded in step 04. In addition,
There is also a concept of global motion compensation using the above-described motion compensation. Global motion compensation is camera pan,
It compensates for the overall movement of the screen due to zooming or the like. For example, motion compensation is locally performed for each block, and thereafter, three parameters of vertical and horizontal panning and zooming are extracted by a matrix operation.
When actually used, processing and transmission are performed by combining the parameters of global motion compensation and the parameters of local motion compensation.

【0020】また、図24は既述の動き補償方法におい
ての、後者の視差補償の一例のブロック図であるが、こ
の図24において、212はブロックマッチング部であ
り、このブロックマッチング部212は、右眼側の入力
画像(原画、あるいは、符号化済の再生画)を参照画面
として、左眼側の入力画像とのブロックマッチングをと
るものである。
FIG. 24 is a block diagram showing an example of the latter parallax compensation in the above-described motion compensation method. In FIG. 24, reference numeral 212 denotes a block matching unit. Using the input image on the right eye side (original image or encoded reproduced image) as a reference screen, block matching with the input image on the left eye side is performed.

【0021】213は視差補償ベクトル検出部であり、
この視差補償ベクトル検出部213は、ブロックマッチ
ング部212において、ブロックマッチングを行なって
から、視差補償ベクトルを検出するものである。従っ
て、上記のブロックマッチング部212と視差補償ベク
トル検出部213は、図23におけるブロックマッチン
グ及びベクトル検出部101と同様の機能を有するもの
である。
Reference numeral 213 denotes a parallax compensation vector detection unit.
The disparity compensation vector detection unit 213 detects a disparity compensation vector after performing block matching in the block matching unit 212. Therefore, the block matching unit 212 and the parallax compensation vector detection unit 213 have the same functions as those of the block matching and vector detection unit 101 in FIG.

【0022】214は可変遅延部であり、この可変遅延
部214については図22における可変遅延部102と
同様に、参照画面である右眼側の入力画像を可変遅延さ
せるものである。215は減算部であり、この減算部2
15は右眼側における符号化部218aまたは符号化部
218bによる入力画像の符号化後、視差補償ベクトル
に従って右眼側の符号化済該当ブロックを可変遅延部2
14により切り出し、左眼側の入力画像との差分信号を
求めものである。216は符号化部であり、この符号化
部216は減算部215において差を取った画像データ
について、符号化を施すものである。
Reference numeral 214 denotes a variable delay unit which, like the variable delay unit 102 shown in FIG. 22, variably delays an input image on the right eye side as a reference screen. Reference numeral 215 denotes a subtraction unit.
Reference numeral 15 denotes a variable delay unit 2 that, after encoding the input image by the encoding unit 218a or the encoding unit 218b on the right eye side, encodes the corresponding coded block on the right eye side according to the disparity compensation vector.
14 to obtain a difference signal from the input image on the left eye side. Reference numeral 216 denotes an encoding unit. The encoding unit 216 encodes the image data obtained by subtracting the difference in the subtraction unit 215.

【0023】217及び220は可変長符号化部であ
り、この可変長符号化部217,220は図19の可変
長符号化部105と同様な可変長符号化を施すものであ
る。ここで、可変長符号化部217は左眼の画像データ
について可変長符号化を施すものであり、可変長符号化
部220は右眼の画像データについて可変長符号化を施
すものである。
Reference numerals 217 and 220 denote variable-length coding units. The variable-length coding units 217 and 220 perform the same variable-length coding as the variable-length coding unit 105 in FIG. Here, the variable length coding unit 217 performs variable length coding on left eye image data, and the variable length coding unit 220 performs variable length coding on right eye image data.

【0024】218a,218bは符号化部であり、こ
の符号化部218a,218bは、符号化部216と同
様に画像データについて符号化を施すものであるが、ブ
ロックマッチング部212によるブロックマッチングの
態様に従ってそなえる位置が異なる。つまり、参照画面
としてブロックマッチング部212に入力する右眼入力
画像は、符号化済のものを使用する場合は、符号化部2
18aをそなえ、符号化前、つまり原画を使用する場合
は、符号化部218bをそなえる。
Reference numerals 218a and 218b denote encoding sections. The encoding sections 218a and 218b encode the image data in the same manner as the encoding section 216. Position varies according to That is, when the right-eye input image to be input to the block matching unit 212 as the reference screen is a coded image, the coding unit 2
18a, and before encoding, that is, when an original image is used, an encoding unit 218b is included.

【0025】このような構成において、従来の視差補償
における、ブロックマッチングと視差補償ベクトルの検
出は、図25に示すようなフローチャートに示すような
動作を有する。つまり、図25におけるステップS1
で、右眼入力画像FR(XOR,YOR)を参照とし、左眼
入力画像FL(XOL,YOL)を視差補償するものであ
る。サーチ範囲はx方向に対し±Sx,y方向に対し±
Syとする。ブロックの大きさをx方向に対し、Bx,
y方向に対しByとする。
In such a configuration, the block matching and the detection of the disparity compensation vector in the conventional disparity compensation have operations as shown in a flowchart of FIG. That is, step S1 in FIG.
In the right eye input image FR (X OR, Y OR) and referring to, in which the left eye input image FL (X OL, Y OL) the parallax compensation. The search range is ± Sx in the x direction and ± Sx in the y direction.
Sy. The size of the block is defined as Bx,
Let it be By in the y direction.

【0026】そして、ステップS2及びステップS3
で、右眼入力画像FR(XOR,YOR)及び左眼入力画像
FL(XOL,YOL)におけるブロック当たりで変動する
座標変位の初期値を設定する。つまり、Y座標において
J=1と設定し、X座標においてI=1と設定する。そ
の後、ステップS4〜ステップS12に渡って、2乗誤
差の累積が最小となるようなベクトルを選択する。つま
り、ステップS4〜ステップS6で、初期の座標値にお
けるベクトルの2乗誤差の累積値を設定し、ステップS
7〜ステップS21でベクトルの最小値を決定する。
Then, steps S2 and S3
Then, the initial value of the coordinate displacement that varies per block in the right-eye input image FR ( XOR , YOR ) and the left-eye input image FL ( XOL , YOL ) is set. That is, J = 1 is set at the Y coordinate, and I = 1 at the X coordinate. Thereafter, a vector that minimizes the accumulation of the square error is selected over steps S4 to S12. That is, in steps S4 to S6, the cumulative value of the square error of the vector at the initial coordinate value is set, and
From step 7 to step S21, the minimum value of the vector is determined.

【0027】そして、ステップS12において、決定し
たベクトルの最小値を視差補償ベクトルとして出力し、
処理を終了する。こうしてブロックマッチングと視差補
償ベクトルが検出されると、右眼側の入力画像の符号化
部218a又は218bによる符号化後、視差補償ベク
トルに従って右眼側の符号化済該当ブロックを可変遅延
部214により切り出す。
Then, in step S12, the minimum value of the determined vector is output as a disparity compensation vector.
The process ends. When the block matching and the disparity compensation vector are detected in this manner, after the right-eye-side input image is encoded by the encoding unit 218a or 218b, the right-eye-side encoded corresponding block is subjected to the variable delay unit 214 according to the disparity compensation vector. cut.

【0028】その後、減算部215によって左眼側の入
力画像との差分信号を求める。求まった差分信号に対
し、符号化部216により符号化を行なってから可変長
符号化部217によって可変長符号化して伝送する。右
眼側についても、可変長符号化部220によって可変長
符号化を行なってから伝送する。
Thereafter, a subtraction unit 215 obtains a difference signal from the input image on the left eye side. The obtained difference signal is encoded by the encoding unit 216 and then variable-length encoded by the variable-length encoding unit 217 and transmitted. For the right eye side as well, variable length coding is performed by the variable length coding unit 220 before transmission.

【0029】[0029]

【発明が解決しようとする課題】しかしながら、このよ
うな従来の動き補償方法及び視差補償方法では、パン、
ズーム等が激しく発生するようなシーンにおいては、ア
ンカバードバックグラウンド(Uncoverd Ba
ckground)が生じ、正確な動き補償が出来ない
ため、符号化効率の低下を招くという課題がある。
However, in such conventional motion compensation methods and disparity compensation methods, the pan,
In a scene in which zooming or the like occurs violently, an uncovered background (Uncovered Ba) is used.
ckround) occurs, and accurate motion compensation cannot be performed, which causes a problem of lowering the coding efficiency.

【0030】ここでアンカバードバックグラウンドと
は、参照画面において隠れていた、つまり、画面の範囲
ではなかった領域が、入力画面において現れてしまうこ
とをいう。本発明は、このような課題に鑑み創案された
もので、アンカバードバックグラウンドが生じた場合で
も、動き補償における参照画面と入力画面を近いものと
することにより、予測誤差を減少させて符号化効率の向
上を図ることができるようにした、多眼式立体映像の動
き補償予測方法を提供することを目的とする。
Here, the uncovered background means that an area hidden on the reference screen, that is, an area which is not the area of the screen appears on the input screen. The present invention has been made in view of such a problem, and even when an uncovered background occurs, encoding is performed by reducing the prediction error by making the reference screen and the input screen in motion compensation close to each other. An object of the present invention is to provide a motion compensation prediction method for a multi-view stereoscopic video, which can improve efficiency.

【0031】[0031]

【課題を解決するための手段】図1は本発明の原理ブロ
ック図で、この図1において、2はスイッチであり、こ
のスイッチ2は、参照画面判定部7からの信号を受け
て、複数の画像(過去におけるもの)の中から、1つの
画像を選択するようにスイッチングして、動き補償予測
部3に出力するものである。
FIG. 1 is a block diagram showing the principle of the present invention. In FIG. 1, reference numeral 2 denotes a switch. Switching is performed so as to select one image from images (past ones), and the selected image is output to the motion compensation prediction unit 3.

【0032】3は動き補償予測部であり、この動き補償
予測部3は、2眼以上の多眼式立体映像についての動き
補償を行なうものであり、現在の画像出力と過去の画像
出力とが入力されている。4はブロックマッチング部で
あり、このブロックマッチング部4は現在の画像出力を
入力画面とし、過去の画像出力を参照画面としてブロッ
クマッチングを行なうことにより、動き補償ベクトルを
決定するようになっている。さらに、動き補償ベクトル
からグローバル動き補償ベクトルパラメータを除いた局
所的な動き補償ベクトルをも求めるものである。
Reference numeral 3 denotes a motion compensation prediction unit, which performs motion compensation for multi-view stereoscopic video of two or more eyes, and outputs a current image output and a past image output. Has been entered. Reference numeral 4 denotes a block matching unit. The block matching unit 4 determines a motion compensation vector by performing block matching using a current image output as an input screen and a past image output as a reference screen. Further, a local motion compensation vector obtained by removing the global motion compensation vector parameter from the motion compensation vector is obtained.

【0033】5はグローバルベクトル検出部であり、こ
のグローバルベクトル検出部5は、ブロックマッチング
部4において検出された動きベクトルをもとにして、グ
ローバル動き補償ベクトルパラメータを計算するもので
ある。6はアンカバードバックグラウンド予測部であ
り、このアンカバードバックグラウンド予測部6は、グ
ローバルベクトル検出部5において検出されたグローバ
ルベクトルパラメータに基づいて、アンカバードバック
グラウンド領域を検出するものである。
Reference numeral 5 denotes a global vector detector, which calculates global motion compensation vector parameters based on the motion vectors detected by the block matching unit 4. Reference numeral 6 denotes an uncovered background prediction unit. The uncovered background prediction unit 6 detects an uncovered background area based on the global vector parameters detected by the global vector detection unit 5.

【0034】具体的には、このアンカバードバックグラ
ウンド予測部6は、画面を拡大状態から小さくしていく
場合は、グローバルベクトル検出部5において検出した
グローバル動き補償ベクトルパラメータのズームパラメ
ータを用いて、画面の周辺部をアンカバードバックグラ
ウンド領域として検出するようになっている。また、こ
のアンカバードバックグラウンド予測部6は、画面を移
動させる場合は、グローバルベクトル検出部5において
検出したグローバル動き補償ベクトルパラメータの、パ
ンパラメータを用いて、動いた方の画面の周辺部をアン
カバードバックグラウンド領域として検出するようにな
っている。
More specifically, the uncovered background prediction unit 6 uses the zoom parameter of the global motion compensation vector parameter detected by the global vector detection unit 5 when reducing the screen from the enlarged state. The periphery of the screen is detected as an uncovered background area. When moving the screen, the uncovered background prediction unit 6 uses the pan parameters of the global motion compensation vector parameters detected by the global vector detection unit 5 to unwrap the peripheral part of the moving screen. Detected as a covered background area.

【0035】さらに、このアンカバードバックグラウン
ド予測部6は、ブロックマッチング部4で求めた局所的
な動き補償ベクトルを用い、現在処理しようとしている
ブロックの局所的な動き補償ベクトルが周囲のブロック
の局所的な動き補償ベクトルと比較して、異なる場合、
例えば、その差が第1しきい値を越える個数が第2しき
い値を越えた場合に、現在処理しようとしている当該ブ
ロックを、アンカバードバックグラウンド領域として検
出することも可能である。
Further, the uncovered background prediction unit 6 uses the local motion compensation vector obtained by the block matching unit 4, and calculates the local motion compensation vector of the block currently being processed by the local motion compensation vector of the surrounding block. Compared with a typical motion compensation vector,
For example, when the number of the differences exceeding the first threshold exceeds the second threshold, it is possible to detect the current block to be processed as an uncovered background area.

【0036】7は参照画面判定部であり、この参照画面
判定部7は、アンカバードバックグラウンド予測部6で
検出したアンカバードバックグラウンド領域について他
カメラからの過去の出力を用いる際に、処理をしようと
しているブロックの位置を参照して、どのカメラからの
過去の出力を用いるかを決定するようになっている。ま
た、この参照画面判定部7は、アンカバードバックグラ
ウンド予測部6にて検出したアンカバードバックグラウ
ンド領域について、他カメラからの過去の出力を用いる
際に、処理をしようとしているブロックのグローバル動
き補償ベクトルを参照して、どのカメラからの過去の出
力を用いるかを決定するように構成することも可能であ
る(以上、請求項1〜7)。
Reference numeral 7 denotes a reference screen determination unit. The reference screen determination unit 7 performs processing when using the past output from another camera for the uncovered background area detected by the uncovered background prediction unit 6. By referring to the position of the block to be tried, a camera from which the past output is used is determined. Also, the reference screen determination unit 7 performs global motion compensation on a block to be processed when using a past output from another camera for the uncovered background area detected by the uncovered background prediction unit 6. It is also possible to configure so as to determine which camera from which past output is to be used by referring to the vector (claims 1 to 7 above).

【0037】[0037]

【作用】上述の本発明の多眼式立体映像の動き補償予測
方法では、2眼以上の多眼式立体映像についての動き補
償予測を行なうに際して、まず該当カメラからの現在の
出力と過去の出力から、ブロックマッチング部4とグロ
ーバル動き補償ベクトル検出部5とにより、動き補償ベ
クトルとグローバル動き補償ベクトルパラメータとを計
算する。
In the motion compensation prediction method for a multi-view stereoscopic video of the present invention described above, when performing motion compensation prediction for a multi-view stereoscopic video of two or more eyes, first, the current output from the corresponding camera and the past output are output. , The block matching unit 4 and the global motion compensation vector detection unit 5 calculate a motion compensation vector and a global motion compensation vector parameter.

【0038】さらに、ブロックマッチング部4により動
き補償ベクトルからグローバル動き補償ベクトルパラメ
ータを除いた局所的な動き補償ベクトルを求めた上で、
アンカバードバックグラウンド予測部6において、グロ
ーバル動き補償ベクトルパラメータを用いて、アンカバ
ードバックグラウンド領域を検出する。そして、参照画
面判定部7と動き補償予測部3とにより、このアンカバ
ードバックグラウンド領域について他カメラからの過去
の出力を用いて、動き補償予測を行なう(請求項1)。
Further, a local motion compensation vector obtained by removing the global motion compensation vector parameter from the motion compensation vector by the block matching unit 4 is obtained.
The uncovered background prediction unit 6 detects an uncovered background area using the global motion compensation vector parameter. Then, the reference screen determination unit 7 and the motion compensation prediction unit 3 perform the motion compensation prediction on the uncovered background area using the past output from another camera (claim 1).

【0039】このとき、アンカバードバックグラウンド
予測部6においては、グローバル動き補償ベクトルパラ
メータを用いて、アンカバードバックグラウンド領域を
検出するに際し、画面を拡大状態から小さくしていく場
合は、グローバル動き補償ベクトルパラメータのズーム
パラメータを用いて、画面の周辺部をアンカバードバッ
クグラウンド領域として検出する(請求項2)。
At this time, when detecting the uncovered background area using the global motion compensation vector parameter, the uncovered background prediction unit 6 uses the global motion compensation A peripheral portion of the screen is detected as an uncovered background area using the zoom parameter of the vector parameter (claim 2).

【0040】また、アンカバードバックグラウンド予測
部6においては、グローバル動き補償ベクトルパラメー
タを用いて、アンカバードバックグラウンド領域を検出
するに際し、画面を移動させる場合は、グローバル動き
補償ベクトルパラメータのパンパラメータを用いて、動
いた方の画面の周辺部をアンカバードバックグラウンド
領域として検出する(請求項3)。
The uncovered background prediction unit 6 uses the global motion compensation vector parameter to detect the uncovered background area and, when moving the screen, sets the pan parameter of the global motion compensation vector parameter. Then, the peripheral part of the moving screen is detected as an uncovered background area (claim 3).

【0041】なお、このアンカバードバックグラウンド
予測部6は、ブロックマッチング部4で求めた局所的な
動き補償ベクトルを用い、現在処理しようとしているブ
ロックの局所的な動き補償ベクトルが周囲のブロックの
局所的な動き補償ベクトルと比較して、異なる場合、例
えば、その差が第1しきい値を越える個数が第2しきい
値を越えた場合に、現在処理しようとしている当該ブロ
ックを、アンカバードバックグラウンド領域として検出
する(請求項4,5)。
The uncovered background prediction unit 6 uses the local motion compensation vector obtained by the block matching unit 4, and calculates the local motion compensation vector of the block currently being processed by the local motion compensation vector of the surrounding block. If the difference exceeds the first threshold, for example, if the difference exceeds the second threshold, the current block to be processed is uncovered back. It is detected as a ground area (claims 4 and 5).

【0042】また、参照画面判定部7では、アンカバー
ドバックグラウンド予測部6で検出したアンカバードバ
ックグラウンド領域について他カメラからの過去の出力
を用いる際に、処理をしようとしているブロックの位置
を参照して、どのカメラからの過去の出力を用いるかを
決定する(請求項6)。さらに、この参照画面判定部7
は、アンカバードバックグラウンド予測部6にて検出し
たアンカバードバックグラウンド領域について、他カメ
ラからの過去の出力を用いる際に、処理をしようとして
いるブロックのグローバル動き補償ベクトルを参照し
て、どのカメラからの過去の出力を用いるかを決定する
ことも可能である(請求項7)。
The reference screen determination unit 7 refers to the position of the block to be processed when using the past output from another camera for the uncovered background area detected by the uncovered background prediction unit 6. Then, it is determined which camera uses the past output (claim 6). Further, the reference screen determination unit 7
When the past output from another camera is used for the uncovered background area detected by the uncovered background prediction unit 6, reference is made to the global motion compensation vector of the block to be processed. It is also possible to determine whether to use the past output from.

【0043】[0043]

【実施例】以下、図面を参照して本発明の実施例を説明
する。 (a)第1実施例の説明 図2は本発明の第1実施例を示すブロック図で、この図
2において、12はスイッチであり、このスイッチ12
は、参照画面判定部17からの信号を受けて、n個のカ
メラ出力(又はローカルデコード画面;以下、単にカメ
ラ出力というときはこのローカルデコード画面の場合を
も含む。)1a−1〜1a−nの中で、カメラ出力1a
−kのカメラ出力を選択してスイッチングし、動き補償
予測部30に出力するものである。
Embodiments of the present invention will be described below with reference to the drawings. (A) Description of First Embodiment FIG. 2 is a block diagram showing a first embodiment of the present invention. In FIG. 2, reference numeral 12 denotes a switch.
Receives a signal from the reference screen determination unit 17 and outputs n camera outputs (or a local decode screen; hereinafter, when simply referred to as a camera output, includes the case of this local decode screen) 1a-1 to 1a-. n, camera output 1a
The camera output of −k is selected, switched, and output to the motion compensation prediction unit 30.

【0044】動き補償予測部30は、2眼以上の多眼式
立体映像についての動き補償を行なうものであり、カメ
ラ出力1a−1〜1a−nがスイッチ12によるスイッ
チングにより入力されるようになっている。この動き補
償予測部30は、前述の、図22で示した従来の動き補
償方法を示すブロック図と同様の機能を有するものであ
り、ブロックマッチング部31と可変遅延部32と第1
演算部33と符号化部34と可変長符号化部(VLC)
35とローカルデコード部36と第2演算部37とメモ
リ38とをそなえて構成されており、それぞれ、図22
におけるブロックマッチング部及びベクトル検出部10
1,可変遅延部102,第1演算部103,符号化部1
04,可変長符号化部(VLC)105とローカルデコ
ード部106と第2演算部107とメモリ108とに対
応して同様の機能を有しているものである。
The motion compensation predicting section 30 performs motion compensation for a multi-view stereoscopic image of two or more eyes, and the camera outputs 1a-1 to 1a-n are input by switching by the switch 12. ing. The motion compensation prediction unit 30 has the same function as that of the above-described block diagram showing the conventional motion compensation method shown in FIG. 22, and includes a block matching unit 31, a variable delay unit 32, and a first
Operation unit 33, encoding unit 34, and variable length encoding unit (VLC)
35, a local decoding unit 36, a second arithmetic unit 37, and a memory 38.
Block matching unit and vector detection unit 10
1, variable delay unit 102, first operation unit 103, encoding unit 1
04, which has similar functions corresponding to the variable length coding unit (VLC) 105, the local decoding unit 106, the second arithmetic unit 107, and the memory 108.

【0045】また、図2における14はブロックマッチ
ング部であり、このブロックマッチング部14は、カメ
ラ出力1a−kを入力画面とし、カメラ出力1a−1〜
1a−nを参照画面としてブロックマッチングを行なう
ことにより、動きベクトルを各ブロック毎にとり、この
中から動き補償ベクトルを決定するものである。さら
に、この動き補償ベクトルからグローバル動き補償ベク
トルパラメータを除いた局所的な動き補償ベクトルをも
求めるようになっている。
In FIG. 2, reference numeral 14 denotes a block matching unit. The block matching unit 14 uses the camera outputs 1a-k as input screens, and outputs the camera outputs 1a-1 to 1a-1.
By performing block matching using 1a-n as a reference screen, a motion vector is obtained for each block, and a motion compensation vector is determined from the motion vectors. Further, a local motion compensation vector obtained by removing the global motion compensation vector parameter from the motion compensation vector is also obtained.

【0046】例えば、現画面k(i,j)に対し、参照
画面k′(i+a,j+b)を用いて予測を行なおうと
する場合、動きベクトルVは、V(a,b)となる。な
お、このブロックマッチング部14についても図20に
示した従来のブロックマッチング部と同様の機能を有す
るものである。ところで、このブロックマッチング部1
4で出力する動き補償ベクトル及び局所的な動き補償ベ
クトルは、グローバルベクトル検出部15に出力され
る。
For example, when the prediction is to be performed on the current screen k (i, j) using the reference screen k '(i + a, j + b), the motion vector V is V (a, b). The block matching section 14 has the same function as the conventional block matching section shown in FIG. By the way, this block matching unit 1
The motion compensation vector and the local motion compensation vector output in 4 are output to the global vector detection unit 15.

【0047】15はグローバルベクトル検出部であり、
このグローバルベクトル検出部15は、ブロックマッチ
ング部14において検出された動きベクトルをもとにし
て、グローバル動き補償ベクトルパラメータを計算し、
1画面全体のグローバルベクトルを検出するものであ
る。このグローバル動き補償ベクトルパラメータは、水
平方向と垂直方向のパンとズームの3つのパラメータに
よって構成されている。例えば、ズームパラメータ,パ
ンパラメータの水平方向Ph,垂直方向Pvとすると、
動きベクトルVは、グローバルベクトルのみで、V(i
z+Ph,jz+Pv)と表すことができる。従って、
ズームインの時はzは負の値をとり、ズームアウトの時
はzは正の値をとる。
Reference numeral 15 denotes a global vector detection unit.
The global vector detection unit 15 calculates a global motion compensation vector parameter based on the motion vector detected by the block matching unit 14,
This is to detect a global vector of one entire screen. This global motion compensation vector parameter is composed of three parameters of pan and zoom in the horizontal and vertical directions. For example, assuming that the horizontal direction Ph and the vertical direction Pv of the zoom parameter and the pan parameter are:
The motion vector V is a global vector only, and V (i
z + Ph, jz + Pv). Therefore,
When zooming in, z takes a negative value, and when zooming out, z takes a positive value.

【0048】アンカバードバックグラウンド予測部16
は、グローバルベクトル検出部15において検出された
3つのグローバル動き補償ベクトルパラメータに基づい
て、アンカバードバックグラウンド領域を検出するもの
である。ここで、アンカバードバックグラウンド領域と
は、参照画面において隠れていた、つまり、画面の範囲
ではなかった領域が、入力画面において現れる領域をい
う。
Uncovered background predictor 16
Is to detect an uncovered background area based on three global motion compensation vector parameters detected by the global vector detection unit 15. Here, the uncovered background area refers to an area that is hidden on the reference screen, that is, an area that is not the area of the screen but appears on the input screen.

【0049】そして、このアンカバードバックグラウン
ド予測部16は、画面を拡大状態から小さくしていく場
合、グローバルベクトル検出部15において検出したグ
ローバル動き補償ベクトルパラメータのズームパラメー
タを用いて、画面の周辺部をアンカバードバックグラウ
ンド領域として検出するようになっている。また、この
アンカバードバックグラウンド予測部16は、画面を移
動させる場合、グローバルベクトル検出部15において
検出したグローバル動き補償ベクトルパラメータのパン
パラメータを用いて、動いた方の画面の周辺部をアンカ
バードバックグラウンド領域として検出するようになっ
ている。
When the screen is reduced from the enlarged state, the uncovered background prediction unit 16 uses the zoom parameter of the global motion compensation vector parameter detected by the global vector detection unit 15 to determine the peripheral portion of the screen. As an uncovered background area. When the screen is moved, the uncovered background prediction unit 16 uses the pan parameter of the global motion compensation vector parameter detected by the global vector detection unit 15 to uncover the peripheral portion of the moving screen. It is designed to be detected as a ground area.

【0050】なお、このアンカバードバックグラウンド
予測部16は、局所的な動きに対応する為に、ブロック
マッチング部14で求めた局所的な動き補償ベクトルに
ついても、グローバル動き補償ベクトルパラメータと共
に用いる。そして、現在処理しようとしているブロック
の局所的な動き補償ベクトルが周囲のブロックの局所的
な動き補償ベクトルと比較して、異なる場合、例えば、
その差が第1しきい値を越える個数が第2しきい値を越
えた場合に、現在処理しようとしている当該ブロック
を、アンカバードバックグラウンド領域として検出する
ようにもなっている。
The uncovered background prediction unit 16 uses the local motion compensation vector obtained by the block matching unit 14 together with the global motion compensation vector parameter in order to cope with local motion. Then, when the local motion compensation vector of the block currently being processed is different from the local motion compensation vector of the surrounding block, for example,
When the number of the differences exceeding the first threshold exceeds the second threshold, the current block to be processed is detected as an uncovered background area.

【0051】参照画面判定部17は、アンカバードバッ
クグラウンド予測部16で検出したアンカバードバック
グラウンド領域について他カメラからの過去の出力を用
いる際に、ブロックマッチング部14から直接信号を入
力することにより、処理をしようとしているブロックの
位置を参照して、どのカメラからの過去の出力を用いる
かを決定するようになっている。
The reference screen determination unit 17 inputs a signal directly from the block matching unit 14 when using the past output from another camera for the uncovered background area detected by the uncovered background prediction unit 16. The position of the block to be processed is referred to to determine which camera uses the past output.

【0052】上述の構成により、2眼以上の多眼式立体
映像についての動き補償予測を行なうに際して、まず該
当カメラからの現在の出力と過去の出力から、ブロック
マッチング部14とグローバル動き補償ベクトル検出部
15とにより、動き補償ベクトルとグローバル動き補償
ベクトルパラメータとを計算する。さらに、ブロックマ
ッチング部14により動き補償ベクトルからグローバル
動き補償ベクトルパラメータを除いた局所的な動き補償
ベクトルを求めた上で、アンカバードバックグラウンド
予測部16において、グローバル動き補償ベクトルパラ
メータを用いて、アンカバードバックグラウンド領域を
検出する。
With the above configuration, when performing motion compensation prediction for a multi-view stereoscopic image of two or more eyes, first, the block matching unit 14 and the global motion compensation vector detection are performed based on the current output and the past output from the corresponding camera. The unit 15 calculates a motion compensation vector and a global motion compensation vector parameter. Further, the local motion compensation vector obtained by removing the global motion compensation vector parameter from the motion compensation vector by the block matching unit 14 is obtained, and the uncovered background prediction unit 16 uses the global motion compensation vector parameter to perform Detect covered background areas.

【0053】そして、参照画面判定部17と動き補償予
測部30とにより、このアンカバードバックグラウンド
領域について他カメラからの過去の出力を用いて、動き
補償予測を行なう。このとき、アンカバードバックグラ
ウンド予測部16においては、グローバル動き補償ベク
トルパラメータを用いて、アンカバードバックグラウン
ド領域を検出するに際し、画面を拡大状態から小さくし
ていく場合は、グローバル動き補償ベクトルパラメータ
のズームパラメータを用いて、画面の周辺部をアンカバ
ードバックグラウンド領域として検出する。
Then, the reference screen determination unit 17 and the motion compensation prediction unit 30 perform motion compensation prediction for the uncovered background area using the past output from another camera. At this time, when detecting the uncovered background area using the global motion compensation vector parameter, the uncovered background prediction unit 16 uses the global motion compensation vector parameter Using the zoom parameter, the periphery of the screen is detected as an uncovered background area.

【0054】ここで、このアンカバードバックグラウン
ド予測部16によるズームパラメータに注目したアンカ
バードバックグラウンド予測方法については図3に示す
フローチャートに従って行なわれる。すなわち、まず、
ステップA1で、グローバル動き補償ベクトルパラメー
タとして、ズームパラメータをzとし、画像の中心点を
座標(0,0)とした場合のx軸方向の大きさの最大値
A、y軸方向の大きさの最大値Bとする。
Here, the uncovered background prediction method by the uncovered background prediction unit 16 paying attention to the zoom parameter is performed according to the flowchart shown in FIG. That is, first,
In step A1, the zoom parameter is z as a global motion compensation vector parameter, and the maximum value A in the x-axis direction when the center point of the image is coordinates (0, 0), and the maximum value in the y-axis direction is The maximum value is B.

【0055】そして、ステップA2で、ズームパラメー
タzの正負を調べる。ここで、ズームパラメータzが負
である場合は、ズームインなるため、ステップA3で、
アンカバードバックグラウンドは無いと判断される。ま
た、ズームパラメータzが正である場合は、ステップA
4で、画像の外枠から、x軸方向にAz,y軸方向にB
zだけ内側の領域がアンカバードバックグラウンドとな
る。
Then, in step A2, the sign of the zoom parameter z is checked. Here, if the zoom parameter z is negative, zoom-in is performed, so in step A3,
It is determined that there is no uncovered background. If the zoom parameter z is positive, step A
In step 4, from the outer frame of the image, Az in the x-axis direction and Bz in the y-axis direction
The area inside by z is the uncovered background.

【0056】従ってアンカバードバックグラウンド領域
は、ステップA5で、全体として次式(1−1)〜(1
−4)に示すような領域をとる。 A−u≦x≦A ,−B≦y≦B (1−
1) −A≦x≦−A+u,−B≦y≦B (1−2) −A≦x≦A ,−B≦y≦B+V (1−3) −A≦x≦A ,B−V≦y≦B (1−4) また、アンカバードバックグラウンド予測部16におい
ては、グローバル動き補償ベクトルパラメータを用い
て、アンカバードバックグラウンド領域を検出するに際
し、画面を移動させる場合は、グローバル動き補償ベク
トルパラメータのパンパラメータを用いて、動いた方の
画面の周辺部をアンカバードバックグラウンド領域とし
て検出する。
Therefore, the uncovered background area is determined in step A5 as a whole by the following equations (1-1) to (1).
-4) The area shown in FIG. Au ≦ x ≦ A, −B ≦ y ≦ B (1-
1) -A≤x≤-A + u, -B≤y≤B (1-2) -A≤x≤A, -B≤y≤B + V (1-3) -A≤x≤A, BV≤ y ≦ B (1-4) The uncovered background prediction unit 16 uses a global motion compensation vector parameter to detect the uncovered background area, and if the screen is moved, the global motion compensation vector Using the pan parameter, the peripheral part of the moving screen is detected as an uncovered background area.

【0057】今、例えば動きベクトルVは、ズームパラ
メータをz、パンパラメータの水平成分をPh、垂直成
分をPvとしてグローバルベクトルのみで表すと、V
(iz+Ph,jz+Pv)となる。従ってPhが正の
値の場合はカメラが右へ、負の値の場合はカメラが左
へ、Pvが正の値の場合はカメラが上へ、負の値の場合
はカメラが下へ動いていることを示す。
Now, for example, the motion vector V can be expressed by a global vector only, where the zoom parameter is z, the horizontal component of the pan parameter is Ph, and the vertical component is Pv.
(Iz + Ph, jz + Pv). Therefore, when Ph is a positive value, the camera moves to the right, when the value is negative, the camera moves to the left, when Pv is a positive value, the camera moves up, and when Pv is a negative value, the camera moves down. To indicate that

【0058】次に、このアンカバードバックグラウンド
予測部16によるパンパラメータに注目したアンカバー
ドバックグラウンド領域の予測は、図4のフローチャー
トに示すような過程により行なわれる。すなわち、この
図4において、ステップB1で、パンパラメータの水平
成分をPh、垂直成分をPv、画像の中心点を座標
(0,0)とした場合のx軸方向の大きさの最大値を
A、y軸方向の大きさの最大値をBと設定する。
Next, the prediction of the uncovered background area by the uncovered background prediction unit 16 paying attention to the pan parameter is performed according to the process shown in the flowchart of FIG. That is, in FIG. 4, in step B1, the horizontal component of the pan parameter is Ph, the vertical component is Pv, and the maximum value in the x-axis direction when the center point of the image is coordinates (0, 0) is A. , The maximum value in the y-axis direction is set as B.

【0059】そして、ステップB2で、パンパラメータ
の垂直成分Pvの正負を調べる。ここで、パンパラメー
タの垂直成分Pvが正の値をとる場合は、カメラが上に
進んでいる場合となるため、ステップB3で、アンカバ
ードバックグラウンドは画像の上側にPvの幅で出現す
る。つまり、アンカバードバックグラウンド領域は、式
(2−1)に示すとおりである。
Then, in step B2, the sign of the vertical component Pv of the pan parameter is checked. Here, when the vertical component Pv of the pan parameter takes a positive value, it means that the camera is moving upward, and in step B3, the uncovered background appears with the width of Pv above the image. That is, the uncovered background area is as shown in Expression (2-1).

【0060】 −A≦x≦A ,B−Pv≦y≦B (2−1) また、パンパラメータの垂直成分Pvが負の値をとる場
合は、カメラが下に進んでいる場合となるため、ステッ
プB4で、アンカバードバックグラウンドは画像の下側
にPvの幅で出現する。つまり、アンカバードバックグ
ラウンド領域は、式(2−2)に示すとおりである。
−A ≦ x ≦ A, B−Pv ≦ y ≦ B (2-1) Also, when the vertical component Pv of the pan parameter takes a negative value, it means that the camera is moving downward. In step B4, the uncovered background appears with a width of Pv below the image. That is, the uncovered background area is as shown in Expression (2-2).

【0061】 −A≦x≦A ,−B≦y≦B+Pv (2−2) 次に、ステップB5で、パンパラメータの水平成分Ph
の正負を調べる。ここで、パンパラメータの水平成分P
hが正の値をとる場合は、カメラが右に進んでいる場合
となるため、ステップB6で、アンカバードバックグラ
ウンドは画像の右側にPhの幅で出現する。つまり、ア
ンカバードバックグラウンド領域は、式(2−3)に示
すとおりである。
-A≤x≤A, -B≤y≤B + Pv (2-2) Next, in step B5, the horizontal component Ph of the pan parameter
Check the sign of. Here, the horizontal component P of the pan parameter
If h is a positive value, it means that the camera is moving to the right, and in step B6, the uncovered background appears on the right side of the image with a width of Ph. That is, the uncovered background area is as shown in Expression (2-3).

【0062】 A−Ph≦x≦A ,−B≦y≦B (2−3) また、パンパラメータの水平成分Phが負の値をとる場
合は、カメラが左に進んでいる場合だから、ステップB
7で、アンカバードバックグラウンドは画像の左側にP
hの幅で出現する。つまり、アンカバードバックグラウ
ンド領域は、式(2−4)に示すとおりである。
A−Ph ≦ x ≦ A, −B ≦ y ≦ B (2-3) When the horizontal component Ph of the pan parameter takes a negative value, it means that the camera is moving to the left. B
7, the uncovered background is P on the left side of the image
Appears with a width of h. That is, the uncovered background area is as shown in Expression (2-4).

【0063】 −A≦x≦−A+Ph,−B≦y≦B (2−4) さらに、このアンカバードバックグラウンド予測部16
は、ブロックマッチング部14で求めた局所的な動き補
償ベクトルを用い、現在処理しようとしているブロック
の局所的な動き補償ベクトルが周囲のブロックの局所的
な動き補償ベクトルと比較して、異なる場合、例えば、
その差が第1しきい値を越える個数が第2しきい値を越
えた場合に、現在処理しようとしている当該ブロック
を、アンカバードバックグラウンド領域として検出す
る。
-A≤x≤-A + Ph, -B≤y≤B (2-4) Further, the uncovered background prediction unit 16
Uses the local motion compensation vector obtained by the block matching unit 14, and if the local motion compensation vector of the block currently being processed is different from the local motion compensation vector of the surrounding block, For example,
When the number of the differences exceeding the first threshold exceeds the second threshold, the current block to be processed is detected as an uncovered background area.

【0064】この場合、アンカバードバックグラウンド
予測部16では、グローバルベクトルとともに局所的な
動き補償ベクトルを用いることによって、アンカバード
バックグラウンド領域を予測するものであるが、ここ
で、局所的な動きとは、例えば静止した人物が手だけを
振っている場合等である。そして、このアンカバードバ
ックグラウンド領域の予測は、図5のフローチャートに
示すような過程に従って行なわれる。
In this case, the uncovered background prediction section 16 predicts the uncovered background area by using the local motion compensation vector together with the global vector. Is a case where a stationary person is waving only his hand, for example. The prediction of the uncovered background area is performed according to the process shown in the flowchart of FIG.

【0065】すなわち、まずステップC1で、初期設定
として、処理しようとしている局所的な動き補償ベクト
ルV(vx,vy)、その周囲のベクトルをV1(vx
1,vy1)〜V8(vx8,vy8)として設定し、
また、しきい値をTH1(第1しきい値),TH2(第
2しきい値)として設定する。そして、ステップC2
で、Vn(n=1〜8)について、VとVnとのx方
向、y方向それぞれの絶対値差分を計算し、それぞれU
xn,Uynとする。
That is, first, in step C1, as an initial setting, a local motion compensation vector V (vx, vy) to be processed and its surrounding vectors are represented by V1 (vx
1, vy1) to V8 (vx8, vy8),
The thresholds are set as TH1 (first threshold) and TH2 (second threshold). Then, step C2
Then, for Vn (n = 1 to 8), the absolute value differences between V and Vn in the x and y directions are calculated, and
xn, Uyn.

【0066】つぎに、ステップC3とステップC4で、
それぞれ下記に示すカウント数とnの値の初期設定を行
なう。その後、ステップC5〜ステップC8で、n=1
〜8においてUxn<TH1かつUyn<TH1となる
数をカウントする。そして、ステップC9で、このカウ
ント数としきい値TH2との大小関係を調べる。
Next, in steps C3 and C4,
Initial settings of the count number and the value of n shown below are respectively performed. Thereafter, in steps C5 to C8, n = 1
The number that satisfies Uxn <TH1 and Uyn <TH1 in 88 is counted. Then, in step C9, a magnitude relationship between the count number and the threshold value TH2 is checked.

【0067】ここで、カウント数がしきい値TH2より
小さい場合は、ステップC10で、当該ブロックはアン
カバードバックグラウンド領域であると判断し、そうで
ない場合は、ステップC11で、当該ブロックはアンカ
バードバックグラウンド領域でないと判断する。ただ
し、局所的な動きを示す場合でも、ある動き補償ベクト
ルが首位のベクトルと極端に異なる場合は、アンカバー
ドバックグラウンドによるミスマッチの可能性が高いと
いうことが考えられる。例えば、しきい値TH1を2〜
3、TH2を1とすると、ベクトルの方向が2〜3画素
以内のずれであれば類似のベクトルとして、その個数
が、1つもない場合はアンカバードバックグラウンドに
よるミスマッチの可能性が大きいということが判断され
る。
If the counted number is smaller than the threshold value TH2, it is determined in step C10 that the block is an uncovered background area. If not, the block is uncovered in step C11. Judge as not the background area. However, even when a local motion is indicated, if a certain motion compensation vector is extremely different from the leading vector, it is conceivable that there is a high possibility of a mismatch due to the uncovered background. For example, if the threshold value TH1 is 2
3, assuming that TH2 is 1, if the vector direction is shifted within 2 to 3 pixels, it is regarded as a similar vector. If there is no vector, the possibility of mismatch due to the uncovered background is large. Is determined.

【0068】そして、その後は上記において、アンカバ
ードバックグラウンド領域と予測された領域の和集合を
とり、局所的なアンカバードバックグラウンドをも含む
ブロックを全てアンカバードバックグラウンド領域とし
て予測するのである。すなわち、この場合は、図6に示
すようなフローチャートにより、アンカバードバックグ
ラウンド領域の予測が行われる。
Then, in the above, the union of the uncovered background area and the predicted area is obtained, and all blocks including the local uncovered background are predicted as the uncovered background area. That is, in this case, the prediction of the uncovered background area is performed according to the flowchart shown in FIG.

【0069】まず図6におけるステップD1で、初期設
定として、各要素の値が全て0の配列B1 〜B3 ,B0
を設定する。これらの配列は1ビットの配列であって、
各要素は画面中の画素の数と対応している。ここで、ス
テップD2で、ズームパラメータを用いてアンカバード
バックグラウンド領域と判定された画素を「1」にした
配列をB1 とする。次に、ステップD3で、パンパラメ
ータを用いてアンカバードバックグラウンド領域と判定
された画素を「1」にした配列をB2 とする。さらに、
ステップD4で、局所的な動きに注目してアンカバード
バックグラウンド領域と判定された画素を「1」にした
配列をB3 とする。
First, in step D1 in FIG. 6, as an initial setting, arrays B 1 to B 3 and B 0 in which the values of all elements are all 0 are set.
Set. These arrays are 1-bit arrays,
Each element corresponds to the number of pixels on the screen. Here, in step D2, the sequence in which the pixels which are determined to the uncovered background area to "1" and B 1 using a zoom parameter. Then, at step D3, the sequence in which the pixels which are determined to the uncovered background area to "1" and B 2 with the pan parameter. further,
In step D4, the sequence in which the pixels which are determined to the uncovered background area focuses on local motion to "1" and B 3.

【0070】その後、ステップD5で、配列B1 〜B3
を画素毎に論理和を取ったものを、配列B0 とし、ステ
ップD6で、配列B0 をブロックに仕切る。このブロッ
ク中において「1」の画素がしきい値TH以上ならばア
ンカバードブロックと予測されるのである。上述の作用
を具体的な例で示したものが、図7及び図8である。ま
ず図7において、画面の画素数をもつ1ビットの配列を
0 とする(簡単のため8×8の配列とする)。B0
各画素の初期状態は全て0である〔図7の(1)参
照〕。
Thereafter, in step D5, the arrays B 1 to B 3
Is obtained by performing an OR operation on each pixel, and the array B 0 is obtained. In step D6, the array B 0 is partitioned into blocks. If the pixel “1” in this block is equal to or larger than the threshold value TH, it is predicted as an uncovered block. FIGS. 7 and 8 show specific examples of the above operation. First, in FIG. 7, (an array of 8 × 8 for simplicity) 1 the sequence of bits and B 0 having the number of pixels the screen. The initial state of each pixel of B 0 is all 0 (see (1) in FIG. 7).

【0071】そして、ズームパラメータに注目してアン
カバードと判定された画素を「1」にした配列をB
1 〔図7の(2)参照〕,パンパラメータに注目してア
ンカバードと判定された画素を「1」にした配列をB2
〔図7の(3)参照〕,局所的な動きに注目してアンカ
バードと判定された画素を「1」にした配列をB3 とす
る〔図8の(1)参照〕。
The array in which the pixel determined to be uncovered by paying attention to the zoom parameter is set to “1” is represented by B
1 [Refer to (2) in FIG. 7], an array in which the pixel determined to be uncovered by paying attention to the pan parameter is set to “1” is represented by B 2
[See (3) in FIG. 7], local interest and a pixel determined to uncovered by the motion and B 3 of the sequences as the "1" [(1) in FIG. 8 refer to Fig.

【0072】さらに、配列B1 ,B2 ,B3 に対して画
素単位で論理和をとり配列B0 とし〔図8の(2)参
照〕、次に配列B0 をブロック毎に区切り、ブロックの
中のアンカバード画素の個数がしきい値THを越えた場
合アンカバードブロックとするのである〔図8の(3)
参照〕。なお、上述した図7における(1)〜(3)
は、それぞれ図6におけるステップD1〜ステップD3
に相当している過程であり、図8における(1)〜
(3)は、それぞれ図6におけるステップD4〜ステッ
プD6に相当している過程である。
[0072] In addition, the sequence B 1, B 2, SEQ B 0 ORed pixels relative to B 3 [see (2) in FIG. 8], then separate the sequence B 0 for each block, the block When the number of uncovered pixels in the set exceeds the threshold value TH, the block is determined to be an uncovered block [(3) in FIG.
reference〕. Note that (1) to (3) in FIG.
Correspond to steps D1 to D3 in FIG.
This is a process corresponding to (1) to (1) in FIG.
(3) is a process corresponding to step D4 to step D6 in FIG.

【0073】そして、アンカバードバックグラウンド領
域が上記のように予測された場合は、参照画面判定部1
7では、参照画面を過去の画面において存在しなかった
領域が画像の周辺部を取り囲むように現れる。このよう
に、スイッチ12と動き補償予測部30とブロックマッ
チング部14とグローバルベクトル検出部15とアンカ
バードバックグラウンド予測部16と参照画面判定部1
7とをそなえることにより、アンカバードバックグラウ
ンド領域を確実に予測することができるのである。
When the uncovered background area is predicted as described above, the reference screen determination unit 1
In FIG. 7, an area where the reference screen did not exist in the past screen appears so as to surround the periphery of the image. Thus, the switch 12, the motion compensation prediction unit 30, the block matching unit 14, the global vector detection unit 15, the uncovered background prediction unit 16, and the reference screen determination unit 1
By providing the value of 7, the uncovered background area can be reliably predicted.

【0074】その後は、参照画面判定部17において、
アンカバードバックグラウンド予測部16で検出したア
ンカバードバックグラウンド領域について他カメラから
の過去の出力を用いる際に、処理をしようとしているブ
ロックの位置を参照して、どのカメラからの過去の出力
を用いるかを決定することが行なわれる。このように、
この実施例における参照画面判定部17では、検出した
グローバル動き補償ベクトル等を用いずに、アンカバー
ドブロックの位置だけで参照画面の判定を行なうが、こ
のために、この参照画面判定部17、は図9に示すよう
に、比較部51−1〜51−6,ROM52,第3演算
部54,乗算部55及び符号反転部56をそなえて構成
されている。
Thereafter, in the reference screen determination section 17,
When using the past output from another camera for the uncovered background area detected by the uncovered background prediction unit 16, refer to the position of the block to be processed and use the past output from any camera. A determination is made. in this way,
The reference screen determination unit 17 in this embodiment determines the reference screen only at the position of the uncovered block without using the detected global motion compensation vector or the like. Therefore, the reference screen determination unit 17 As shown in FIG. 9, the configuration includes comparison units 51-1 to 51-6, a ROM 52, a third calculation unit 54, a multiplication unit 55, and a sign inversion unit 56.

【0075】ここで、比較部51−1〜51−6は、ア
ンカバード判定結果によるアンカバードかどうかの判定
及び、現在処理しようとしているブロックの左上の座標
位置について判別するものであり、この判別結果は1ビ
ットの情報としてROM52に入力しているものであ
る。ROM52は、比較部51−1〜51−6からの、
現在処理しようとしているブロックの左上の座標判別情
報とカメラ位置を表す情報とをそれぞれ入力し、この入
力に応じてスイッチ12にスイッチング情報を出力する
ものである。
Here, the comparison units 51-1 to 51-6 determine whether or not the block is uncovered based on the uncovered determination result, and determine the upper left coordinate position of the block currently being processed. The result is input to the ROM 52 as 1-bit information. The ROM 52 stores data from the comparing units 51-1 to 51-6.
The upper left coordinate discrimination information and the information indicating the camera position of the block to be processed are input, and the switching information is output to the switch 12 in response to the input.

【0076】また、第3演算部54は、ブロックの左上
の座標(i,j)における、「i」と「j」の絶対値の
和をとることにより、この和を比較器51−2にて
「0」と比較し、当該座標が原点に位置しているかどう
かを判定するためのものである。乗算部55は、座標
(i,j)のx座標「i」と「B/A」との乗算値を計
算することにより、この乗算値とy座標「j」との大小
を、比較器51−3にて比較させるためのものである。
The third arithmetic unit 54 calculates the sum of the absolute values of “i” and “j” at the upper left coordinates (i, j) of the block, and outputs the sum to the comparator 51-2. Is compared with “0” to determine whether the coordinates are located at the origin. The multiplication unit 55 calculates a multiplication value of the x coordinate “i” of the coordinate (i, j) and “B / A”, and determines the magnitude of the multiplication value and the y coordinate “j”. -3 for comparison.

【0077】符号反転部56は、乗算部55の出力の符
号を反転させることにより、この値とy座標「j」との
大小を、比較器51−4にて比較させるためのものであ
る。従って、この参照画面判定部17での参照画面判定
は、図10,図11に示すフローチャートに従って行な
われる。まず、図10におけるステップE1で、画面の
中心の座標を原点(0,0)とした座標系を考え、処理
しようとしているブロックの左上の座標は(i,j)と
する。また、x軸方向の画面の最大値をA,y軸方向の
画面の最大値をBとする。
The sign inverting section 56 inverts the sign of the output of the multiplying section 55 so that the comparator 51-4 compares the magnitude of this value with the y coordinate "j". Therefore, the reference screen determination by the reference screen determination unit 17 is performed according to the flowcharts shown in FIGS. First, in step E1 in FIG. 10, a coordinate system in which the coordinates of the center of the screen is the origin (0, 0) is considered, and the upper left coordinate of the block to be processed is (i, j). The maximum value of the screen in the x-axis direction is A, and the maximum value of the screen in the y-axis direction is B.

【0078】次に、ステップE2で、比較器51−1で
のアンカバードブロックかどうかの判定と、比較器51
−2での処理を使用としているブロックの左上の座標
(i,j)が原点に位置しているがどうかの判定を行な
う。ここで、アンカバードブロックでなければ、あるい
は、(i,j)が(0,0)の場合、ステップE3で、
参照画面は、同じカメラの過去の画面の同位置を中心と
してブロックマッチングを行なう。
Next, at step E2, the comparator 51-1 determines whether or not the block is an uncovered block.
It is determined whether the upper left coordinates (i, j) of the block using the process of -2 are located at the origin. Here, if it is not an uncovered block, or if (i, j) is (0, 0), in step E3,
The reference screen performs block matching centering on the same position in the past screen of the same camera.

【0079】また、上記の場合に該当しない場合は、ス
テップE4で、カメラが右端であるか否かを調べ、右端
ならば、ステップE3で、参照画面は、同じカメラの過
去の画面の同位置を中心としてブロックマッチングを行
なう。そして、ステップE4において、カメラが右端で
ない場合は、ステップE5で、iが正で、かつjがB×
i/A以下かつ、jが−B×i/A以上となるかを判断
する。つまり、座標(i,j)が、図12における
(a)の領域にあるかどうかを判断する。
If the above case does not apply, it is checked in step E4 whether or not the camera is at the right end. If it is the right end, in step E3, the reference screen is the same position as the previous screen of the same camera. Block matching is performed around. If the camera is not at the right end in step E4, in step E5, i is positive and j is B ×
It is determined whether or not j is equal to or less than i / A and j is equal to or more than -B × i / A. That is, it is determined whether or not the coordinates (i, j) are in the area (a) in FIG.

【0080】i及びjがこれらの条件に該当する場合
は、ステップE6で、参照画面は処理しようとしている
カメラの真右側(あるいは真右端)に位置するカメラの
過去の画面の同位置を中心とし、ブロックマッチングを
行なう。i及びjがこれらの条件に該当しない場合は、
ステップE7で、カメラが左端であるか否かを調べる。
ここで、カメラが左端にある場合は、ステップE3で、
参照画面は、同じカメラの過去の画面の同位置を中心と
して、ブロックマッチングを行なう。
If i and j satisfy these conditions, in step E6, the reference screen is centered on the same position in the past screen of the camera located on the right side (or right end) of the camera to be processed. Perform block matching. If i and j do not meet these conditions,
In step E7, it is checked whether the camera is at the left end.
Here, when the camera is at the left end, in step E3,
The reference screen performs block matching centering on the same position of the past screen of the same camera.

【0081】ステップE7で、カメラが左端にない場合
は、図11におけるステップE8で、iが負で、かつj
がB×i/A以上かつ、jが−B×i/A以下となるか
を判断する。つまり、座標(i,j)が、図12におけ
る(b)の領域にあるかどうかを判断する。i及びjが
これらの条件に該当する場合は、ステップE9で、参照
画面は処理しようとしているカメラの真左側(あるいは
真左端)に位置するカメラの過去の画面の同位置を中心
とし、ブロックマッチングを行なう。
If the camera is not at the left end in step E7, in step E8 in FIG. 11, i is negative and j
Is equal to or greater than B × i / A and j is equal to or less than −B × i / A. That is, it is determined whether or not the coordinates (i, j) are in the area (b) in FIG. If i and j correspond to these conditions, in step E9, the reference screen is centered on the same position of the past screen of the camera located on the right side (or the left end) of the camera to be processed, and the block matching is performed. Perform

【0082】ステップE8で、i及びjがこれらの条件
に該当しない場合は、ステップE10で、カメラが上端
であるか否かを調べる。ここで、カメラが上端にある場
合は、ステップE3で、参照画面は、同じカメラの過去
の画面の同位置を中心として、ブロックマッチングを行
なう。また、カメラが上端にない場合は、ステップE1
1で、jが正で、かつjがB×i/A以上かつ、jが−
B×i/A以上となるかを判断する。つまり、座標
(i,j)が、図12における(c)の領域にあるかど
うかを判断する。
If i and j do not satisfy these conditions in step E8, it is checked in step E10 whether or not the camera is at the upper end. Here, if the camera is at the upper end, in step E3, the reference screen performs block matching centering on the same position in the past screen of the same camera. If the camera is not at the upper end, step E1
1, j is positive, j is B × i / A or more, and j is −
It is determined whether it becomes B × i / A or more. That is, it is determined whether or not the coordinates (i, j) are in the area (c) in FIG.

【0083】i及びjがこれらの条件に該当する場合
は、ステップE12で、参照画面は処理しようとしてい
るカメラの真上側(あるいは真上端)に位置するカメラ
の過去の画面の同位置を中心とし、ブロックマッチング
を行なう。i及びjがこれらの条件に該当しない場合
は、ステップE13で、カメラが下端であるか否かを調
べる。ここで、カメラが下側にある場合は、ステップE
3で、参照画面は、同じカメラの過去の画面の同位置を
中心として、ブロックマッチングを行なう。
If i and j satisfy these conditions, in step E12, the reference screen is centered on the same position in the past screen of the camera located directly above (or directly above) the camera to be processed. Perform block matching. If i and j do not satisfy these conditions, it is checked in step E13 whether or not the camera is at the lower end. Here, if the camera is on the lower side, step E
In step 3, the reference screen performs block matching centering on the same position in the past screen of the same camera.

【0084】また、カメラが下側にない場合は、ブロッ
クの左上の座標(i,j)が、図12の(d)の位置に
あるので、ステップE14で、参照画面は処理しようと
しているカメラの真下側(真下端)に位置するカメラの
過去の画面の同位置を中心とし、ブロックマッチングを
行なう。上記のブロックマッチングは、動き補償予測部
30によって行なわれるが、この動き補償予測部30で
のブロックマッチングは、従来のものと同様に行なわれ
る。
If the camera is not on the lower side, the coordinates (i, j) at the upper left of the block are at the position shown in FIG. 12D, and the reference screen is processed by the camera to be processed in step E14. Block matching is performed centering on the same position in the past screen of the camera located immediately below (immediately lower end). The above-described block matching is performed by the motion compensation prediction unit 30, and the block matching in the motion compensation prediction unit 30 is performed in the same manner as the conventional one.

【0085】このように、予測されたアンカバードバッ
クグラウンド領域(位置情報)のみを用いることによ
り、他カメラの過去の画面を動き補償を行なう参照画面
の判定を行なうことができ、この動き補償における参照
画面は、より入力画面に近いものとなる。従って、予測
誤差が減少して符号化効率の向上を図ることができる。
また、いずれも過去の画像を用いているため、現在の画
像を用いるよりも各画像間の遅延等が生じにくい利点が
ある。
As described above, by using only the predicted uncovered background area (position information), it is possible to determine a reference screen for performing motion compensation on a past screen of another camera. The reference screen is closer to the input screen. Therefore, the prediction error can be reduced and the coding efficiency can be improved.
In addition, since all use past images, there is an advantage that delays between the images are less likely to occur than using the current images.

【0086】(b)第2実施例の説明 図13は、本発明の第2実施例を示すブロック図である
が、この図13に示す装置は、スイッチ12,ブロック
マッチング部14,グローバルベクトル検出部15,ア
ンカバードバックグラウンド予測部16,参照画面判定
部17′及び動き補償予測部30をそなえて構成されて
いる。
(B) Description of the Second Embodiment FIG. 13 is a block diagram showing a second embodiment of the present invention. The device shown in FIG. 13 includes a switch 12, a block matching unit 14, a global vector detector. It comprises a unit 15, an uncovered background prediction unit 16, a reference screen determination unit 17 ', and a motion compensation prediction unit 30.

【0087】ここで、スイッチ12,ブロックマッチン
グ部14,グローバルベクトル検出部15,アンカバー
ドバックグラウンド予測部16及び動き補償予測部30
は前述の第1実施例のものと同様のものであるので、そ
の詳細な説明は省略する。この第2実施例において、前
述の第1実施例と異なるのは、参照画面判定部17′で
あるが、この参照画面判定部17′は、は、アンカバー
ドバックグラウンド予測部16にて検出したアンカバー
ドバックグラウンド領域について、他カメラからの過去
の出力を用いる際に、処理をしようとしているブロック
のグローバル動き補償ベクトル等とアンカバードブロッ
クの位置を参照して、どのカメラからの過去の出力を用
いるかを決定するものである。
Here, the switch 12, the block matching unit 14, the global vector detection unit 15, the uncovered background prediction unit 16, and the motion compensation prediction unit 30
Is similar to that of the first embodiment described above, and a detailed description thereof will be omitted. In the second embodiment, the difference from the first embodiment is a reference screen determination unit 17 ′, which is detected by the uncovered background prediction unit 16. When using the past output from another camera for the uncovered background area, refer to the global motion compensation vector etc. of the block to be processed and the position of the uncovered block to determine the past output from any camera. Decide whether to use.

【0088】このため、ブロックマッチング部14で出
力する動き補償ベクトル及び局所的な動き補償ベクトル
は、グローバルベクトル検出部15に出力されるほか、
参照画面判定部17′へも出力されており、更にグロー
バル動き補償ベクトルパラメータは、アンカバードバッ
クグラウンド予測部16のほかに、参照画面判定部1
7′へも入力されている。
For this reason, the motion compensation vector and the local motion compensation vector output from the block matching unit 14 are output to the global vector detection unit 15,
The global motion compensation vector parameters are also output to the reference screen determination unit 17 ′.
7 'is also input.

【0089】つまり、この参照画面判定部17′での参
照画面判定方法は、グローバル動き補償ベクトルが向い
ている方向のカメラの出力を使う場合は、カメラが回り
込んでアンカバードとなった領域を映す場合が多いこと
を利用したものであるということができる。ところで、
参照画面判定部17′は、上記のような機能を発揮する
ため、図14に示すように、比較部61−1〜61−
5,ROM62,グローバル動き補償ベクトル計算部6
4−1,第1演算部64−2及び符号反転部65−1,
65−2をそなえて構成されている。
In other words, the reference screen determining method in the reference screen determining unit 17 'is such that when the output of the camera in the direction to which the global motion compensation vector is directed is used, the area where the camera wraps around and becomes uncovered is used. It can be said that it is based on the fact that it is often reflected. by the way,
As shown in FIG. 14, the reference screen determination unit 17 'performs the functions as described above.
5, ROM 62, global motion compensation vector calculator 6
4-1, the first operation unit 64-2 and the sign inversion unit 65-1,
65-2.

【0090】ここで、比較部61−1〜61−5は、ア
ンカバード判定結果によるアンカバードかどうかの判別
及び、グローバル動き補償ベクトル等の方向を判別をす
るものであり、この判別結果は、1ビットの情報として
ROM62に入力しているものである。ROM62は、
比較部61−1〜61−5からのグローバル動き補償ベ
クトルに関する判別情報とカメラ位置情報とをそれぞれ
入力し、これらの入力に応じてスイッチ12にスイッチ
ング情報を出力するものである。
Here, the comparing sections 61-1 to 61-5 determine whether or not the data is uncovered based on the uncovered determination result and determine the direction of the global motion compensation vector and the like. This is input to the ROM 62 as 1-bit information. ROM 62 is
The determination information and the camera position information relating to the global motion compensation vector from the comparison units 61-1 to 61-5 are input, and the switching information is output to the switch 12 according to these inputs.

【0091】グローバル動き補償ベクトル計算部64−
1は、処理しようとしているブロックにおける、左上の
座標(i,j)とグローバル動き補償ベクトルパラメー
タ(Ph,Pv,z)とを用いることにより、そのブロ
ックにおけるグローバル動き補償ベクトル(Ux,U
y)を計算するものである。第1乗算部64−2はグロ
ーバル動き補償ベクトルのx成分Uxに対し定数「1/
4」を乗算するものである。また、第2乗算部64−3
は、第1乗算部64−2の出力に対して定数「3」乗算
して出力するものである。
Global motion compensation vector calculator 64-
1 uses the upper left coordinates (i, j) and the global motion compensation vector parameters (Ph, Pv, z) of the block to be processed to obtain the global motion compensation vector (Ux, U
y). The first multiplying unit 64-2 calculates a constant “1/1” for the x component Ux of the global motion compensation vector.
4 ". Also, the second multiplying unit 64-3
Is obtained by multiplying the output of the first multiplier 64-2 by a constant “3” and outputting the result.

【0092】符号反転部65−1及び符号反転部65−
2は、それぞれ、第2乗算部64−3の出力及び第1乗
算部64−2の出力の符号を反転させて出力させるもの
である。上述の構成により、本発明の第2実施例にかか
る多眼式立体映像の動き補償予測方法では、2眼以上の
多眼式立体映像についての動き補償予測を行なうに際し
て、まず該当カメラからの現在の出力と過去の出力か
ら、ブロックマッチング部14とグローバル動き補償ベ
クトル検出部15とにより、動き補償ベクトルとグロー
バル動き補償ベクトルパラメータとを計算する。
Sign inverting section 65-1 and sign inverting section 65-
Numeral 2 indicates that the sign of the output of the second multiplier 64-3 and the sign of the output of the first multiplier 64-2 are inverted and output. With the above configuration, in the motion compensation prediction method for a multi-view stereoscopic video according to the second embodiment of the present invention, when performing motion compensation prediction for a multi-view stereoscopic video of two or more eyes, first, the current And the past output, the block matching unit 14 and the global motion compensation vector detection unit 15 calculate a motion compensation vector and a global motion compensation vector parameter.

【0093】さらに、ブロックマッチング部14により
動き補償ベクトルからグローバル動き補償ベクトルパラ
メータを除いた局所的な動き補償ベクトルを求めた上
で、アンカバードバックグラウンド予測部16におい
て、グローバル動き補償ベクトルパラメータを用いて、
アンカバードバックグラウンド領域を検出する。そし
て、参照画面判定部17′と動き補償予測部13とによ
り、このアンカバードバックグラウンド領域について他
カメラからの過去の出力を用いて、動き補償予測を行な
う。
Further, a local motion compensation vector obtained by removing the global motion compensation vector parameter from the motion compensation vector is obtained by the block matching unit 14, and the uncovered background prediction unit 16 uses the global motion compensation vector parameter. hand,
Detect uncovered background areas. Then, the reference screen determination unit 17 'and the motion compensation prediction unit 13 perform motion compensation prediction on the uncovered background area using the past output from another camera.

【0094】このとき、アンカバードバックグラウンド
予測部16においては、グローバル動き補償ベクトルパ
ラメータを用いて、アンカバードバックグラウンド領域
を検出するに際し、画面を拡大状態から小さくしていく
場合は、グローバル動き補償ベクトルパラメータのズー
ムパラメータを用いて、画面の周辺部をアンカバードバ
ックグラウンド領域として検出する。このときの詳細な
フローチャートは図3に示すものと同じである。
At this time, when detecting the uncovered background area using the global motion compensation vector parameter, the uncovered background prediction unit 16 uses global motion compensation to reduce the screen size from the enlarged state. The peripheral part of the screen is detected as an uncovered background area using the zoom parameter of the vector parameter. The detailed flowchart at this time is the same as that shown in FIG.

【0095】また、アンカバードバックグラウンド予測
部16においては、グローバル動き補償ベクトルパラメ
ータを用いて、アンカバードバックグラウンド領域を検
出するに際し、画面を移動させる場合は、グローバル動
き補償ベクトルパラメータのパンパラメータを用いて、
動いた方の画面の周辺部をアンカバードバックグラウン
ド領域として検出する。このときの詳細なフローチャー
トは、図4に示すものと同じである。
When detecting the uncovered background area using the global motion compensation vector parameter, the uncovered background prediction unit 16 sets the pan parameter of the global motion compensation vector parameter to move the screen. make use of,
The peripheral part of the moving screen is detected as an uncovered background area. The detailed flowchart at this time is the same as that shown in FIG.

【0096】なお、このアンカバードバックグラウンド
予測部16は、ブロックマッチング部14で求めた局所
的な動き補償ベクトルを用い、現在処理しようとしてい
るブロックの局所的な動き補償ベクトルが周囲のブロッ
クの局所的な動き補償ベクトルと比較して、異なる場
合、例えば、その差が第1しきい値を越える個数が第2
しきい値を越えた場合に、現在処理しようとしている当
該ブロックを、アンカバードバックグラウンド領域とし
て検出する。このときの詳細なフローチャートは、図5
に示すものと同一である。
The uncovered background prediction unit 16 uses the local motion compensation vector obtained by the block matching unit 14 and calculates the local motion compensation vector of the block currently being processed by the local motion compensation vector of the surrounding block. If the difference exceeds the first threshold value, for example,
When the threshold value is exceeded, the current block to be processed is detected as an uncovered background area. The detailed flowchart at this time is shown in FIG.
Are the same as those shown in FIG.

【0097】その後、このアンカバードバックグラウン
ド予測部16では、上記ズームパラメータを用いたアン
カバードバックグラウンド領域とパンパラメータを用い
た当該領域と局所的な動き補償ベクトルを用いて検出し
た当該領域との論理和をとり、これをアンカバードバッ
クグラウンド領域として検出する。このときの詳細なフ
ローチャートは、図6に示すものと同一である。
Thereafter, the uncovered background prediction section 16 calculates the uncovered background area using the zoom parameter, the area using the pan parameter, and the area detected using the local motion compensation vector. The logical sum is calculated and detected as an uncovered background area. The detailed flowchart at this time is the same as that shown in FIG.

【0098】さらに、参照画面判定部17′で、アンカ
バードバックグラウンド予測部16にて 検出したアン
カバードバックグラウンド領域について、他カメラから
の過去の出力を用いる際に、処理をしようとしているブ
ロックのグローバル動き補償ベクトルと、現在処理しよ
うとしているベクトルの位置を参照して、どのカメラか
らの過去の出力を用いるかを決定することが行なわれ
る。
Further, the reference screen determination unit 17 'uses the past output from another camera for the uncovered background area detected by the uncovered background prediction unit 16 when processing the block to be processed. With reference to the global motion compensation vector and the position of the vector currently being processed, it is determined which camera to use the past output from.

【0099】そして、この参照画面判定部17′で行な
われる参照画面判定方法では、図15,図16,図17
に示すフローチャートに従って動作する。まず図15に
おけるステップF1において、初期設定として、画面の
中心の座標を原点(0,0)とし、x軸方向の画面の最
大値をA、y軸方向の画面の最大値をBとする座標系を
設定する。
In the reference screen determination method performed by the reference screen determination unit 17 ', the reference screen determination method shown in FIGS.
It operates according to the flowchart shown in FIG. First, in step F1 in FIG. 15, the coordinates of the center of the screen are set to the origin (0, 0), the maximum value of the screen in the x-axis direction is A, and the maximum value of the screen in the y-axis direction is B as an initial setting. Set the system.

【0100】また、処理しようとしているブロックの左
上の座標を(i,j)とする。そして、元の動き補償ベ
クトルを(Vecx,Vecy)、グローバル動き補償
パラメータを(Ph,Pv,Z)とし、元の動き補償ベ
クトルからグローバル動き補償の成分を除いた局所的な
動き補償ベクトル(Vx,Vy)とする。ここで、図1
3における参照画面判定部17′での参照画面の判定時
には、アンカバードバックグラウンド予測部16による
アンカバードバックグラウンドの予測は、すでに完了し
ている。
[0100] The upper left coordinate of the block to be processed is (i, j). Then, the original motion compensation vector is (Vecx, Vecy), the global motion compensation parameter is (Ph, Pv, Z), and the local motion compensation vector (Vx , Vy). Here, FIG.
When the reference screen is determined by the reference screen determination unit 17 ′ in 3, the prediction of the uncovered background by the uncovered background prediction unit 16 has already been completed.

【0101】このため、ステップF2で、処理しようと
しているブロックが、アンカバードバックグラウンドか
どうかを図14における比較部61−1により判別す
る。ここで、アンカバードバックグラウンドでない場合
は、ステップF3で、参照画面は、同じカメラの過去の
画面の同位置を中心として、ブロックマッチングを行な
う。
Therefore, in step F2, the comparison unit 61-1 in FIG. 14 determines whether the block to be processed is an uncovered background. If the background is not the uncovered background, in step F3, the reference screen performs block matching centering on the same position in the past screen of the same camera.

【0102】また、当該ブロックがアンカバードバック
グラウンドである場合は、ステップF4で、ブロックに
おけるグローバル動き補償ベクトル(Ux,Uy)を計
算する。計算方法としては、グローバル動き補償パラメ
ータ(Ph,Pv,Z)とブロックの座標(i,j)を
用いて計算する。なお、このグローバル動き補償ベクト
ル(Ux,Uy)の計算方法として、元の動き補償ベク
トルから局所的な動き補償ベクトルを引き算して算出す
る方法もある(ステップF4′)。
If the block has an uncovered background, the global motion compensation vector (Ux, Uy) in the block is calculated in step F4. The calculation is performed using the global motion compensation parameters (Ph, Pv, Z) and the coordinates (i, j) of the block. As a method of calculating the global motion compensation vector (Ux, Uy), there is also a method of subtracting the local motion compensation vector from the original motion compensation vector to calculate (step F4 ').

【0103】次に、ステップF5で、カメラが右端でな
いか否かを調べる。ここで右端であるならば、ステップ
F3で、参照画面は、同じカメラの過去の画面の同位置
を中心として、ブロックマッチングを行なう。また、右
端でなければ、ステップF6で、Uyが−Ux/4以上
でかつUx/4以下かどうかを判別する。つまり、動き
補償ベクトルのy成分Uyが、図18における(a)の
領域にあるかどうかを判別する。
Next, in step F5, it is checked whether or not the camera is not at the right end. If it is the right end, in step F3, the reference screen performs block matching centering on the same position in the past screen of the same camera. If it is not the right end, it is determined in step F6 whether Uy is equal to or more than -Ux / 4 and equal to or less than Ux / 4. That is, it is determined whether or not the y component Uy of the motion compensation vector is in the area (a) in FIG.

【0104】ここで、Uyが当該領域にある場合は、ス
テップF7で、参照画面は処理しようとしているカメラ
の真右側(あるいは真右端)に位置するカメラの過去の
画面の同位置を中心とし、ブロックマッチングを行な
う。上記の場合のいずれにも該当しない場合は、ステッ
プF8で、カメラが右上端でないか否かを調べる。ここ
で、右上端ならば、ステップF3で、参照画面は、同じ
カメラの過去の画面の同位置を中心として、ブロックマ
ッチングを行なう。
If Uy is in the area, in step F7, the reference screen is centered on the same position on the past screen of the camera located on the right side (or right end) of the camera to be processed. Perform block matching. If none of the above cases applies, it is checked in step F8 whether the camera is not at the upper right end. Here, if it is the upper right end, in step F3, the reference screen performs block matching centering on the same position of the past screen of the same camera.

【0105】また、カメラが右上端でない場合は、ステ
ップF9で、UyがUx/4以上Ux×3/4以下であ
るがどうかを判断する。つまり、動き補償ベクトルのy
成分Uyが、図18における(b)の領域にあるかどう
かを判別する。ここで、Uyが当該領域にある場合は、
ステップF10で、参照画面は処理しようとしているカ
メラの右上側(あるいは右上端)に位置するカメラの過
去の画面の同位置を中心とし、ブロックマッチングを行
なう。
If the camera is not located at the upper right end, it is determined in step F9 whether Uy is not less than Ux / 4 and not more than Ux × 3/4. That is, y of the motion compensation vector
It is determined whether or not the component Uy is in the area (b) in FIG. Here, when Uy is in the area,
In step F10, the reference screen performs block matching centering on the same position of the past screen of the camera located on the upper right side (or upper right end) of the camera to be processed.

【0106】上記の場合に該当しないときは、図16に
おけるステップF11で、カメラが上端でないか否かを
調べる。ここで、上端であるならば、ステップF3で、
参照画面は、同じカメラの過去の画面の同位置を中心と
して、ブロックマッチングを行なう。また、カメラが上
端にない場合は、ステップF12で、UyがUx×3/
4以上かつ−Ux×3/4以上の範囲に該当するかどう
かを判別する。つまり、動き補償ベクトルのy成分Uy
が、図18における(c)の領域にあるかどうかを判別
する。
If the above case does not apply, it is checked in step F11 in FIG. 16 whether the camera is not at the upper end. Here, if it is the upper end, in step F3,
The reference screen performs block matching centering on the same position of the past screen of the same camera. If the camera is not at the upper end, in step F12, Uy is Ux × 3 /
It is determined whether the value falls within the range of 4 or more and −Ux × 3/4 or more. That is, the y component Uy of the motion compensation vector
Is located in the area (c) in FIG.

【0107】ここで、Uyが当該領域にある場合は、ス
テップF13で、参照画面は処理しようとしているカメ
ラの上側(あるいは上端)に位置するカメラの過去の画
面の同位置を中心とし、ブロックマッチングを行なう。
また、Uyが上記の範囲に該当しない場合は、ステップ
F14で、カメラが左上端でないか否かを調べる。ここ
で、カメラが左上端にあるならば、ステップF3で、参
照画面は同じカメラの過去の画面の同位置を中心とし
て、ブロックマッチングを行なう。
Here, if Uy is in the area, in step F13, the reference screen is centered on the same position of the past screen of the camera located above (or at the upper end of) the camera to be processed, and is subjected to block matching. Perform
If Uy does not fall within the above range, it is checked in step F14 whether the camera is not at the upper left corner. Here, if the camera is at the upper left corner, in step F3, the reference screen performs block matching centering on the same position of the past screen of the same camera.

【0108】しかし、カメラが左上端に無い場合は、ス
テップF15で、Uyが−Ux/4以上かつUx×3/
4以上の範囲にあるかどうかを判別する。つまり、動き
補償ベクトルのy成分Uyが、図18における(d)の
領域にあるかどうかを判別する。ここで、Uyが当該領
域にある場合は、ステップF16で、参照画面は処理し
ようとしているカメラの左上側(あるいは左上端)に位
置するカメラの過去の画面の同位置を中心とし、ブロッ
クマッチングを行なう。
However, if the camera is not at the upper left corner, Uy is equal to or more than -Ux / 4 and Ux × 3 /
It is determined whether it is within the range of four or more. That is, it is determined whether or not the y component Uy of the motion compensation vector is in the area (d) in FIG. Here, if Uy is in the area, in step F16, the reference screen is centered on the same position on the past screen of the camera located on the upper left (or upper left) of the camera to be processed, and block matching is performed. Do.

【0109】Uyが上記の範囲に該当しない場合は、ス
テップF17で、カメラが左端でないか否かを調べる。
ここで、カメラが左端にあるならば、ステップF3で、
参照画面は同じカメラの過去の画面の同位置を中心とし
て、ブロックマッチングを行なう。しかし、カメラが左
端に無い場合は、図17におけるステップF18で、U
yがUx/4以上−Ux/4以下の範囲にあるかどうか
を判別する。つまり、動き補償ベクトルのy成分Uy
が、図18における(e)の領域にあるかどうかを判別
する。
If Uy does not fall within the above range, it is checked in step F17 whether the camera is not at the left end.
Here, if the camera is at the left end, in step F3,
The reference screen performs block matching centering on the same position in the past screen of the same camera. However, when the camera is not at the left end, in step F18 in FIG.
It is determined whether or not y is in the range from Ux / 4 to -Ux / 4. That is, the y component Uy of the motion compensation vector
Is in the area (e) in FIG.

【0110】ここで、Uyが前記の範囲にある場合は、
ステップF19で、参照画面は処理しようとしているカ
メラの左側(あるいは左端)に位置するカメラの過去の
画面の同位置を中心とし、ブロックマッチングを行な
う。Uyが上記の範囲に該当しない場合は、ステップF
20で、カメラが左下端にあるかどうかを判別する。こ
こで、カメラが左下端にある場合は、ステップF3で、
参照画面は同じカメラの過去の画面の同位置を中心とし
て、ブロックマッチングを行なう。
Here, when Uy is in the above range,
In step F19, the reference screen performs block matching centering on the same position in the past screen of the camera located on the left side (or left end) of the camera to be processed. If Uy does not fall within the above range, step F
At 20, it is determined whether the camera is at the lower left corner. Here, if the camera is at the lower left corner, in step F3,
The reference screen performs block matching centering on the same position in the past screen of the same camera.

【0111】しかし、カメラが左下端にない場合は、ス
テップF21で、UyがUx×3/4以上Ux/4以下
の範囲にあるかどうかを判別する。つまり、動き補償ベ
クトルのy成分Uyが、図18における(f)の領域に
あるかどうかを判別する。ここで、Uyが前記の範囲に
ある場合は、ステップF22で、参照画面は処理しよう
としているカメラの左下側(あるいは左下端)に位置す
るカメラの過去の画面の同位置を中心とし、ブロックマ
ッチングを行なう。
However, if the camera is not at the lower left corner, it is determined in step F21 whether or not Uy is in the range from Ux × 3/4 to Ux / 4. That is, it is determined whether or not the y component Uy of the motion compensation vector is in the area (f) in FIG. Here, if Uy is within the above range, in step F22, the reference screen is centered on the same position of the past screen of the camera located on the lower left side (or lower left end) of the camera to be processed, and block matching is performed. Perform

【0112】Uyが上記の範囲に該当しない場合は、ス
テップF23で、カメラが下端にあるかどうかを判別す
る。ここで、カメラが下端にある場合は、ステップF3
で、参照画面は同じカメラの過去の画面の同位置を中心
として、ブロックマッチングを行なう。ところが、カメ
ラが下端にない場合は、ステップF24で、Uyが−U
x×3/4以下かつUx×3/4以下の範囲にあるかど
うかを判別する。つまり、動き補償ベクトルのy成分U
yが、図18における(g)の領域にあるかどうかを判
別する。
If Uy does not fall within the above range, it is determined in step F23 whether or not the camera is at the lower end. Here, if the camera is at the lower end, step F3
Then, the reference screen performs block matching centering on the same position of the past screen of the same camera. However, if the camera is not at the lower end, in step F24, Uy is −U
It is determined whether it is within the range of xx 3/4 or less and Ux 3/4 or less. That is, the y component U of the motion compensation vector
It is determined whether or not y is in the area (g) in FIG.

【0113】そして、Uyが前記の範囲にある場合は、
ステップF25で、参照画面は処理しようとしているカ
メラの下側(あるいは下端)に位置するカメラの過去の
画面の同位置を中心とし、ブロックマッチングを行な
う。Uyが上記の範囲にない場合は、ステップF26
で、カメラが右下端にあるかどうかを判別する。ここ
で、カメラが右下端にある場合は、ステップF3で、参
照画面は同じカメラの過去の画面の同位置を中心とし
て、ブロックマッチングを行なう。
When Uy is within the above range,
In step F25, the reference screen performs block matching centering on the same position of the past screen of the camera positioned below (or at the lower end of) the camera to be processed. If Uy is not within the above range, step F26
To determine whether the camera is at the lower right corner. If the camera is located at the lower right corner, block matching is performed on the reference screen at the same position in the past screen of the same camera in step F3.

【0114】しかし、カメラが右下端にない場合は、ス
テップF27で、参照画面は処理しようとしているカメ
ラの右下側(あるいは下端)に位置するカメラの過去の
画面の同位置を中心とし、ブロックマッチングを行な
う。このように、スイッチ12と動き補償予測部30と
ブロックマッチング部14とグローバルベクトル検出部
15とアンカバードバックグラウンド予測部16と参照
画面判定部17′とをそなえることにより、アンカバー
ドバックグラウンド領域を確実に予測することができる
ほか、予測されたアンカバードバックグラウンド領域
と、検出されたグローバル動き補償ベクトル等を用いる
ことにより、他カメラの過去の画面を動き補償を行なう
参照画面の判定を行なうことができ、この動き補償にお
ける参照画面は、より入力画面に近いものとなる。従っ
て、予測誤差が減少して符号化効率の向上を図ることが
できる。また、いずれも過去の画像を用いているため、
現在の画像を用いるよりも各画像間の遅延等が生じにく
い利点がある。
However, if the camera is not at the lower right corner, in step F27, the reference screen is centered on the same position of the past screen of the camera located at the lower right side (or lower end) of the camera to be processed, and Perform matching. As described above, by including the switch 12, the motion compensation prediction unit 30, the block matching unit 14, the global vector detection unit 15, the uncovered background prediction unit 16, and the reference screen determination unit 17 ', the uncovered background area can be reduced. In addition to being able to make reliable predictions, it is also possible to determine a reference screen for performing motion compensation on a past screen of another camera by using a predicted uncovered background area and a detected global motion compensation vector. The reference screen in this motion compensation is closer to the input screen. Therefore, the prediction error can be reduced and the coding efficiency can be improved. In addition, since all use past images,
There is an advantage that delay between images is less likely to occur than using the current image.

【0115】(c)その他 上記の各実施例では、ズームパラメータ,パンパラメー
タ,局所的な動きに注目して、アンカバードバックグラ
ウンド領域を総合的に検出したが、用途によっては、ズ
ームパラメータ,パンパラメータ,局所的な動きのいず
れか一又は一部の組み合わせに着目してアンカガードバ
ックグラウンド領域を検出することもできる。
(C) Others In the above embodiments, the uncovered background area is comprehensively detected by focusing on the zoom parameter, the pan parameter, and the local movement. The anchor guard background area can be detected by focusing on one or a combination of one of the parameter and the local motion.

【0116】[0116]

【発明の効果】以上詳述したように、本発明の多眼式立
体映像の動き補償予測方法によれば、2眼以上の多眼式
立体映像についての動き補償予測を行なうに際して、ま
ず該当カメラからの現在の出力と過去の出力から、動き
補償ベクトルとグローバル動き補償ベクトルパラメータ
とを計算し、該動き補償ベクトルから該グローバル動き
補償ベクトルパラメータを除いた局所的な動き補償ベク
トルを求めた上で、グローバル動き補償ベクトルパラメ
ータを用いて、アンカバードバックグラウンド領域を検
出してから、アンカバードバックグラウンド領域につい
て他カメラからの過去の出力を用いて、動き補償予測を
行なうことにより、予測誤差が減少して符号化効率の向
上を図ることができ、更には、各画像間の遅延等が生じ
にくい利点がある。
As described above in detail, according to the motion compensation prediction method for a multi-view stereoscopic video of the present invention, when performing motion compensation prediction for a multi-view stereoscopic video of two or more eyes, first, the corresponding camera is used. From the current output and the past output from, a motion compensation vector and a global motion compensation vector parameter are calculated, and a local motion compensation vector obtained by removing the global motion compensation vector parameter from the motion compensation vector is obtained. Reduces the prediction error by detecting the uncovered background area using the global motion compensation vector parameter, and then performing motion compensation prediction using the past output from another camera for the uncovered background area. In addition, encoding efficiency can be improved, and furthermore, there is an advantage that delay between images is hardly generated.

【0117】また、グローバル動き補償ベクトルパラメ
ータを用いて、アンカバードバックグラウンド領域を検
出するに際し、画面を拡大状態から小さくしていく場合
は、グローバル動き補償ベクトルパラメータのズームパ
ラメータを用いて、画面の周辺部をアンカバードバック
グラウンド領域として検出することにより、画面を拡大
状態から小さくしていく場合においても、正確な動き補
償を行なうことがき、従って符号化効率の向上、ひいて
は各画像間の遅延を減少させることができる等の利点が
ある。
When detecting the uncovered background area by using the global motion compensation vector parameter and reducing the size of the screen from the enlarged state, the zoom parameter of the global motion compensation vector parameter is used to reduce the screen size. By detecting the surrounding area as an uncovered background area, accurate motion compensation can be performed even when the screen is reduced from the enlarged state, and therefore, the encoding efficiency is improved, and the delay between each image is reduced. There are advantages such as reduction.

【0118】そして、グローバル動き補償ベクトルパラ
メータを用いて、アンカバードバックグラウンド領域を
検出するに際し、画面を移動させる場合は、グローバル
動き補償ベクトルパラメータのパンパラメータを用い
て、動いた方の画面の周辺部をアンカバードバックグラ
ウンド領域として検出することにより、画面を移動させ
る場合においても、正確な動き補償を行なうことがき、
従って符号化効率の向上、更には、各画像間の遅延を減
少させることができる等の利点がある。
When detecting the uncovered background area by using the global motion compensation vector parameter, when moving the screen, the pan parameter of the global motion compensation vector parameter is used to move the screen. By detecting the part as an uncovered background area, even when moving the screen, accurate motion compensation can be performed,
Therefore, there are advantages such as an improvement in coding efficiency and a reduction in delay between images.

【0119】さらに、グローバル動き補償ベクトルパラ
メータを用いて、アンカバードバックグラウンド領域を
検出するに際し、局所的な動き補償ベクトルを用い、現
在処理しようとしているブロックの局所的な動き補償ベ
クトルが周囲のブロックの局所的な動き補償ベクトルと
比較して、異なる場合に、現在処理しようとしている当
該ブロックを、アンカバードバックグラウンド領域とし
て検出することにより、符号化の効率向上に資すること
ができる。
Further, when detecting an uncovered background area using the global motion compensation vector parameter, a local motion compensation vector is used, and the local motion compensation vector of the block currently being processed is changed to the surrounding block. If the current block is different from the local motion compensation vector, the current block to be processed is detected as an uncovered background area, thereby contributing to an improvement in coding efficiency.

【0120】そして、グローバル動き補償ベクトルパラ
メータを用いて、アンカバードバックグラウンド領域を
検出するに際し、局所的な動き補償ベクトルを用い、現
在処理しようとしているブロックの局所的な動き補償ベ
クトルが周囲のブロックの局所的な動き補償ベクトルと
比較して、その差が第1しきい値を越える個数が第2し
きい値を越えた場合に、現在処理しようとしている当該
ブロックを、アンカバードバックグラウンド領域として
検出することにより、予測誤差が減少して符号化効率の
向上を図ることができる。また、各画像間の遅延等が生
じにくい利点がある。
When detecting the uncovered background area using the global motion compensation vector parameter, the local motion compensation vector is used to detect the local motion compensation vector of the block currently being processed. When the number of the difference exceeding the first threshold exceeds the second threshold as compared with the local motion compensation vector of, the current block to be processed is regarded as an uncovered background area. By performing the detection, the prediction error can be reduced and the coding efficiency can be improved. In addition, there is an advantage that delay between images is less likely to occur.

【0121】ところで、アンカバードバックグラウンド
領域について他カメラからの過去の出力を用いる際に、
処理をしようとしているブロックの位置を参照して、ど
のカメラからの過去の出力を用いるかを決定することに
より、より動き補償における参照画面が、入力画面に近
いものとなり、その結果、予測誤差が減少して符号化効
率の向上を図ることができる。
By the way, when using the past output from another camera for the uncovered background area,
By referring to the position of the block to be processed and determining which camera uses the past output, the reference screen in motion compensation becomes closer to the input screen, and as a result, the prediction error is reduced. The coding efficiency can be reduced and the coding efficiency can be improved.

【0122】また、アンカバードバックグラウンド領域
について他カメラからの過去の出力を用いる際に、処理
をしようとしているブロックのグローバル動き補償ベク
トルを参照して、どのカメラからの過去の出力を用いる
かを決定することにより予測誤差が減少して符号化効率
の向上を図ることができる利点がある。
When the past output from another camera is used for the uncovered background area, reference is made to the global motion compensation vector of the block to be processed to determine which camera uses the past output. The determination has the advantage that the prediction error can be reduced and the coding efficiency can be improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理ブロック図である。FIG. 1 is a principle block diagram of the present invention.

【図2】本発明の第1実施例を示すブロック図である。FIG. 2 is a block diagram showing a first embodiment of the present invention.

【図3】ズームパラメータを用いてアンカバードバック
グラウンド領域を検出する要領を説明するためのフロー
チャートである。
FIG. 3 is a flowchart illustrating a procedure for detecting an uncovered background area using a zoom parameter.

【図4】パンパラメータを用いてアンカバードバックグ
ラウンド領域を検出する要領を説明するためのフローチ
ャートである。
FIG. 4 is a flowchart illustrating a procedure for detecting an uncovered background area using a pan parameter.

【図5】局所的な動きに注目してアンカバードバックグ
ラウンド領域を検出する要領を説明するためのフローチ
ャートである。
FIG. 5 is a flowchart illustrating a procedure for detecting an uncovered background area by focusing on local motion.

【図6】アンカバードバックグラウンド領域の検出要領
を説明するためのフローチャートである。
FIG. 6 is a flowchart illustrating a procedure for detecting an uncovered background area.

【図7】アンカバードバックグラウンド領域の検出要領
を具体的に説明するための図である。
FIG. 7 is a diagram for specifically explaining a detection procedure of an uncovered background area.

【図8】アンカバードバックグラウンド領域の検出要領
を具体的に説明するための図である。
FIG. 8 is a diagram for specifically explaining a detection procedure of an uncovered background area.

【図9】本発明の第1実施例にかかる参照画面判定部を
示すブロック図である。
FIG. 9 is a block diagram illustrating a reference screen determination unit according to the first example of the present invention.

【図10】本発明の第1実施例にかかる参照画面判定要
領を説明するためのフローチャートである。
FIG. 10 is a flowchart for explaining a reference screen determination procedure according to the first embodiment of the present invention.

【図11】本発明の第1実施例にかかる参照画面判定要
領を説明するためのフローチャートである。
FIG. 11 is a flowchart illustrating a reference screen determination procedure according to the first embodiment of the present invention.

【図12】本発明の第1実施例にかかる参照画面を説明
する図である。
FIG. 12 is a diagram illustrating a reference screen according to the first embodiment of the present invention.

【図13】本発明の第2実施例を示すブロック図であ
る。
FIG. 13 is a block diagram showing a second embodiment of the present invention.

【図14】本発明の第2実施例にかかる参照画面判定部
を示すブロック図である。
FIG. 14 is a block diagram illustrating a reference screen determination unit according to a second example of the present invention.

【図15】本発明の第2実施例にかかる参照画面判定要
領を説明するためのフローチャートである。
FIG. 15 is a flowchart illustrating a reference screen determination procedure according to a second embodiment of the present invention.

【図16】本発明の第2実施例にかかる参照画面判定要
領を説明するためのフローチャートである。
FIG. 16 is a flowchart illustrating a reference screen determination procedure according to the second embodiment of the present invention.

【図17】本発明の第2実施例にかかる参照画面判定要
領を説明するためのフローチャートである。
FIG. 17 is a flowchart illustrating a reference screen determination procedure according to the second embodiment of the present invention.

【図18】本発明の第2実施例にかかる参照画面を説明
する図である。
FIG. 18 is a diagram illustrating a reference screen according to a second embodiment of the present invention.

【図19】多眼式立体映像システムを示す図である。FIG. 19 is a diagram showing a multi-view stereoscopic video system.

【図20】多眼式(5眼×5眼)のカメラの出力例を示
す図である。
FIG. 20 is a diagram illustrating an output example of a multi-view (5 × 5) camera.

【図21】ホログラフィック・ステレオグラムを示す図
である。
FIG. 21 is a diagram showing a holographic stereogram.

【図22】従来の動き補償方法を示すブロック図であ
る。
FIG. 22 is a block diagram showing a conventional motion compensation method.

【図23】従来の動き補償方法にかかるブロックマッチ
ングを示す図である。
FIG. 23 is a diagram showing block matching according to a conventional motion compensation method.

【図24】従来の視差補償方法を示すブロック図であ
る。
FIG. 24 is a block diagram illustrating a conventional parallax compensation method.

【図25】従来のブロックマッチングと視差補償ベクト
ルの検出を説明するためのフローチャートである。
FIG. 25 is a flowchart for explaining conventional block matching and detection of a disparity compensation vector.

【符号の説明】[Explanation of symbols]

1a−1〜1a−n カメラ出力 1−1〜1−n カメラ出力 2,12 スイッチ 3,30 動き補償予測部 4,14,31,212 ブロックマッチング部 5,15 グローバルベクトル検出部 6,16 アンカバードバックグラウンド予測部 7,17,17′ 参照画面判定部 32,202,214 可変遅延部 33,203 第1演算部 34,204,216,218a,218b 符号化部 35,205,217,220 可変長符号化部 36,206 ローカルデコード部 37,207 第2演算部 38,208 メモリ 51−1〜51−6,61−1〜61−5 比較部 52,62 ROM 53,63 スイッチ 54 第3演算部 55 乗算部 56,65−1,65−2 符号反転部 64−1 グローバル動き補償ベクトル計算部 64−2 第1乗算部 64−3 第2乗算部 101 被写体 102 カメラ 103 符号化器 104 マルチプレクス器 105 デマルチプレクス器 106 復号器 107 ディスプレイ 108 画像サイズ変換部 109 位相計算部 110 ホログラフィック出力系 201 ブロックマッチング及びベクトル検出部 209 2乗誤差算出部 209−1,215 減算部 209−2 2乗計算部 209−3 加算部 209−4,211−2,211−5 遅れ要素 210 ベクトル変換部 211 ベクトル検出部 211−1 比較部 211−3,211−4 セレクタ 213 視差補償ベクトル検出部 1a-1 to 1a-n Camera output 1-1 to 1-n Camera output 2,12 Switch 3,30 Motion compensation prediction unit 4,14,31,212 Block matching unit 5,15 Global vector detection unit 6,16 Covered background prediction unit 7, 17, 17 'Reference screen determination unit 32, 202, 214 Variable delay unit 33, 203 First operation unit 34, 204, 216, 218a, 218b Encoding unit 35, 205, 217, 220 Variable Long encoding unit 36, 206 Local decoding unit 37, 207 Second operation unit 38, 208 Memory 51-1 to 51-6, 61-1 to 61-5 Comparison unit 52, 62 ROM 53, 63 Switch 54 Third operation Unit 55 multiplication unit 56, 65-1, 65-2 sign inversion unit 64-1 global motion compensation vector calculation unit 64-2 first Calculation unit 64-3 Second multiplication unit 101 Subject 102 Camera 103 Encoder 104 Multiplexer 105 Demultiplexer 106 Decoder 107 Display 108 Image size conversion unit 109 Phase calculation unit 110 Holographic output system 201 Block matching and vector Detector 209 Square error calculator 209-1, 215 Subtractor 209-2 Square calculator 209-3 Adder 209-4, 211-2, 211-5 Delay element 210 Vector converter 211 Vector detector 211- 1 comparison unit 211-3, 211-4 selector 213 disparity compensation vector detection unit

フロントページの続き (72)発明者 松田 喜一 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (58)調査した分野(Int.Cl.7,DB名) H04N 13/00 - 15/00 Continuation of the front page (72) Inventor Kiichi Matsuda 1015 Kamikodanaka, Nakahara-ku, Kawasaki-shi, Kanagawa Prefecture Within Fujitsu Limited (58) Field surveyed (Int. Cl. 7 , DB name) H04N 13/00-15/00

Claims (7)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 2眼以上の多眼式立体映像についての動
き補償予測を行なうに際して、 まず該当カメラからの現在の出力と過去の出力から、動
き補償ベクトルとグローバル動き補償ベクトルパラメー
タとを計算し、該動き補償ベクトルから該グローバル動
き補償ベクトルパラメータを除いた局所的な動き補償ベ
クトルを求めた上で、 該グローバル動き補償ベクトルパラメータを用いて、ア
ンカバードバックグラウンド領域を検出してから、 該アンカバードバックグラウンド領域について他カメラ
からの過去の出力を用いて、動き補償予測を行なうこと
を特徴とする、多眼式立体映像の動き補償予測方法。
When performing motion compensation prediction for a multi-view stereoscopic image of two or more eyes, first, a motion compensation vector and a global motion compensation vector parameter are calculated from a current output and a past output from a corresponding camera. Calculating a local motion compensation vector by removing the global motion compensation vector parameter from the motion compensation vector, and detecting an uncovered background area using the global motion compensation vector parameter. A motion compensation prediction method for a multi-view stereoscopic video, wherein motion compensation prediction is performed using a past output from another camera for a covered background area.
【請求項2】 該グローバル動き補償ベクトルパラメー
タを用いて、アンカバードバックグラウンド領域を検出
するに際し、 画面を拡大状態から小さくしていく場合は、該グローバ
ル動き補償ベクトルパラメータのズームパラメータを用
いて、画面の周辺部を該アンカバードバックグラウンド
領域として検出することを特徴とする請求項1記載の多
眼式立体映像の動き補償予測方法。
2. When detecting an uncovered background area using the global motion compensation vector parameter, when the screen is reduced from an enlarged state, the zoom parameter of the global motion compensation vector parameter is used. 2. The method according to claim 1, wherein a peripheral portion of a screen is detected as the uncovered background area.
【請求項3】 該グローバル動き補償ベクトルパラメー
タを用いて、アンカバードバックグラウンド領域を検出
するに際し、 画面を移動させる場合は、該グローバル動き補償ベクト
ルパラメータのパンパラメータを用いて、動いた方の画
面の周辺部を該アンカバードバックグラウンド領域とし
て検出することを特徴とする請求項1記載の多眼式立体
映像の動き補償予測方法。
3. When the screen is moved to detect an uncovered background area using the global motion compensation vector parameter, the moving picture is moved using the pan parameter of the global motion compensation vector parameter. 2. The method according to claim 1, wherein a peripheral portion of the image is detected as the uncovered background area.
【請求項4】 該グローバル動き補償ベクトルパラメー
タを用いて、アンカバードバックグラウンド領域を検出
するに際し、 局所的な動き補償ベクトルを用い、現在処理しようとし
ているブロックの局所的な動き補償ベクトルが周囲のブ
ロックの局所的な動き補償ベクトルと比較して、異なる
場合に、現在処理しようとしている当該ブロックを、該
アンカバードバックグラウンド領域として検出すること
を特徴とする請求項1記載の多眼式立体映像の動き補償
予測方法。
4. When detecting an uncovered background area using the global motion compensation vector parameter, a local motion compensation vector is used, and a local motion compensation vector of a block to be currently processed is set to a surrounding motion compensation vector. 2. The multi-view stereoscopic video according to claim 1, wherein, when the block is different from the local motion compensation vector of the block, the block currently being processed is detected as the uncovered background area. Motion compensation prediction method.
【請求項5】 該グローバル動き補償ベクトルパラメー
タを用いて、アンカバードバックグラウンド領域を検出
するに際し、 局所的な動き補償ベクトルを用い、現在処理しようとし
ているブロックの局所的な動き補償ベクトルが周囲のブ
ロックの局所的な動き補償ベクトルと比較して、その差
が第1しきい値を越える個数が第2しきい値を越えた場
合に、現在処理しようとしている当該ブロックを、該ア
ンカバードバックグラウンド領域として検出することを
特徴とする請求項4記載の多眼式立体映像の動き補償予
測方法。
5. When detecting an uncovered background area using the global motion compensation vector parameter, a local motion compensation vector is used, and a local motion compensation vector of a block to be currently processed is set to a surrounding motion compensation vector. Compared with the local motion compensation vector of the block, if the number of the differences exceeding the first threshold exceeds the second threshold, the current block to be processed is replaced with the uncovered background. 5. The method according to claim 4, wherein the detection is performed as an area.
【請求項6】 該アンカバードバックグラウンド領域に
ついて他カメラからの過去の出力を用いる際に、処理を
しようとしているブロックの位置を参照して、どのカメ
ラからの過去の出力を用いるかを決定することを特徴と
する請求項1記載の多眼式立体映像の動き補償予測方
法。
6. When a past output from another camera is used for the uncovered background area, it is determined which camera to use the past output with reference to the position of a block to be processed. 2. The method of claim 1, wherein the multi-view stereoscopic video is motion compensated and predicted.
【請求項7】 該アンカバードバックグラウンド領域に
ついて他カメラからの過去の出力を用いる際に、処理を
しようとしているブロックのグローバル動き補償ベクト
ルを参照して、どのカメラからの過去の出力を用いるか
を決定することを特徴とする請求項1記載の多眼式立体
映像の動き補償予測方法。
7. When the past output from another camera is used for the uncovered background area, the past output from which camera is used by referring to the global motion compensation vector of the block to be processed. The method of claim 1, further comprising: determining a motion compensation prediction of the multi-view stereoscopic video.
JP26174892A 1992-09-30 1992-09-30 Motion compensation prediction method for multi-view stereoscopic video Expired - Fee Related JP3080487B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26174892A JP3080487B2 (en) 1992-09-30 1992-09-30 Motion compensation prediction method for multi-view stereoscopic video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26174892A JP3080487B2 (en) 1992-09-30 1992-09-30 Motion compensation prediction method for multi-view stereoscopic video

Publications (2)

Publication Number Publication Date
JPH06113338A JPH06113338A (en) 1994-04-22
JP3080487B2 true JP3080487B2 (en) 2000-08-28

Family

ID=17366165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26174892A Expired - Fee Related JP3080487B2 (en) 1992-09-30 1992-09-30 Motion compensation prediction method for multi-view stereoscopic video

Country Status (1)

Country Link
JP (1) JP3080487B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4596227B2 (en) 2001-06-27 2010-12-08 ソニー株式会社 COMMUNICATION DEVICE AND METHOD, COMMUNICATION SYSTEM, RECORDING MEDIUM, AND PROGRAM
JP4840630B2 (en) 2001-06-27 2011-12-21 ソニー株式会社 Image processing apparatus and method, recording medium, and program
JP4088819B2 (en) * 2002-02-08 2008-05-21 ソニー株式会社 Image processing apparatus and method, recording medium, and program
JP4075418B2 (en) * 2002-03-15 2008-04-16 ソニー株式会社 Image processing apparatus, image processing method, printed material manufacturing apparatus, printed material manufacturing method, and printed material manufacturing system
JP4239894B2 (en) * 2004-05-11 2009-03-18 日本ビクター株式会社 Image encoding apparatus and image decoding apparatus
KR100926607B1 (en) * 2005-01-07 2009-11-11 후지쯔 가부시끼가이샤 Compression/encoding device, decompression/decoding device
EP1843597A4 (en) * 2005-01-07 2010-07-14 Fujitsu Ltd Compression/encoding device, decompression/decoding device
KR100926608B1 (en) * 2005-01-07 2009-11-11 후지쯔 가부시끼가이샤 Compression/encoding device, decompression/decoding device
EP1843598A4 (en) * 2005-01-07 2010-03-10 Fujitsu Ltd Compression/encoding device, decompression/decoding device
KR20080066522A (en) * 2007-01-11 2008-07-16 삼성전자주식회사 Method and apparatus for encoding and decoding multi-view image
JP2010004465A (en) * 2008-06-23 2010-01-07 Fujinon Corp Stereoscopic image photographing system

Also Published As

Publication number Publication date
JPH06113338A (en) 1994-04-22

Similar Documents

Publication Publication Date Title
US6163337A (en) Multi-view point image transmission method and multi-view point image display method
KR100350191B1 (en) How to convert 2D image to 3D image
US9118842B2 (en) Producing focused videos from single captured video
US5751378A (en) Scene change detector for digital video
JP5414947B2 (en) Stereo camera
US9525858B2 (en) Depth or disparity map upscaling
JP3080487B2 (en) Motion compensation prediction method for multi-view stereoscopic video
US5596370A (en) Boundary matching motion estimation apparatus
JPH1032840A (en) Multi-viewpoint image transmission and display method
CN111225135B (en) Image sensor, imaging device, electronic apparatus, image processing system, and signal processing method
JP5347987B2 (en) Video processing device
JP2002300607A (en) Encoding unit and decoding unit
JPH06269025A (en) Coding system for multi-eye stereoscopic video image
KR100737808B1 (en) Method for efficiently compressing 2d multi-view images
JP3309324B2 (en) Image data pre-processing filter device
Meuel et al. Stereo mosaicking and 3D-video for singleview HDTV aerial sequences using a low bit rate ROI coding framework
WO2012046369A1 (en) Image capturing device, disparity adjustment method, semiconductor integrated circuit, and digital camera
JPH08307867A (en) Method and apparatus for fragmenting picture frame
WO2011158562A1 (en) Multi-viewpoint image encoding device
JP3580450B2 (en) Stereoscopic device and stereoscopic method
JP7417388B2 (en) Encoding device, decoding device, and program
JP2004242000A (en) Encoding device and method, and decoding device and method
JP2002300600A (en) Stereoscopic image encoder and stereoscopic image decoder
EP0923250A1 (en) Method and apparatus for adaptively encoding a binary shape signal
JPH02100591A (en) Parallax compensating method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000606

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090623

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100623

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110623

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120623

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees