JP2000165909A - Method and device for image compressing processing - Google Patents

Method and device for image compressing processing

Info

Publication number
JP2000165909A
JP2000165909A JP33557298A JP33557298A JP2000165909A JP 2000165909 A JP2000165909 A JP 2000165909A JP 33557298 A JP33557298 A JP 33557298A JP 33557298 A JP33557298 A JP 33557298A JP 2000165909 A JP2000165909 A JP 2000165909A
Authority
JP
Japan
Prior art keywords
image
eye image
prediction
data
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP33557298A
Other languages
Japanese (ja)
Inventor
Ten Urano
天 浦野
Mayumi Niwa
真裕美 丹羽
Akimi Kunihazama
亜輝臣 国狭
Osamu Ota
修 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP33557298A priority Critical patent/JP2000165909A/en
Publication of JP2000165909A publication Critical patent/JP2000165909A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To efficiently predict a motion. SOLUTION: Concerning the block of a current position, which is a processing object, in a right eye image, the object block of a reference left eye image is obtained. There is a parallax between right and left eye images. In the parallel style of arranging two cameras parallel, for example, an object watched in the right eye image looks moving to the left side in the left eye image without fail. Then, the search range of the correspondent block is limited to the left side of the correspondent position.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、右目画像及び左目
画像を含む3D(三次元)画像の画像圧縮処理、特に画
像間の対応付けについての改善に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image compression process for a 3D (three-dimensional) image including a right-eye image and a left-eye image, and more particularly to an improvement in association between images.

【0002】[0002]

【従来の技術】連続的な画像からなる動画像処理では、
短い時間間隔で画像が得られる。このため、時間的に近
い画像間にはかなりの相関がある。従って、時間的に近
い画像データについては、これを差分データにすること
で、データ量の削減が図れる。さらに、経時的な画像の
変化は、画像中における移動として、現れる場合が多
い。そこで、動きベクトルを用いて画像間の対応付けを
行い、差分データとした場合の効率を上げている。
2. Description of the Related Art In moving image processing consisting of continuous images,
Images are obtained at short time intervals. Therefore, there is considerable correlation between images that are close in time. Therefore, for image data that is close in time, the amount of data can be reduced by using this as difference data. Further, changes in an image over time often appear as movements in the image. Therefore, the correspondence between the images is performed using the motion vector, and the efficiency when the difference data is obtained is improved.

【0003】例えば、注目画像について、所定の大きさ
のブロックを設定し、隣接する画像において最も似てい
るブロックを探し、対応する両ブロック間で差分データ
をとる。また、両ブロック間の対応を動きベクトルとし
てデータ化する。
For example, a block of a predetermined size is set for an image of interest, the most similar block is searched for in an adjacent image, and difference data is obtained between the corresponding blocks. The correspondence between the two blocks is converted into data as a motion vector.

【0004】このように、動きベクトルを利用すること
によって、画像の圧縮処理の効率化を図ることができ
る。このため、動きベクトルを用いる動き補償処理は、
MPEGなどの動画像の圧縮処理に広く利用されてい
る。
As described above, by using the motion vector, the efficiency of the image compression processing can be improved. Therefore, the motion compensation process using the motion vector
It is widely used for compression processing of moving images such as MPEG.

【0005】また、3Dディスプレイなども普及しつつ
あり、3D動画像も広く取り扱われるようになってきて
いる。この3D画像は、通常視差を有する2つのカメラ
で撮影した右目画像と左目画像を用いて作成する。そし
て、このような3D画像においても、上述と同様の動き
ベクトルを利用した画像処理が行われている。
[0005] Further, 3D displays and the like are becoming widespread, and 3D moving images are also widely handled. This 3D image is created using a right-eye image and a left-eye image captured by two cameras having normal parallax. Then, even in such a 3D image, image processing using the same motion vector as described above is performed.

【0006】[0006]

【発明が解決しようとする課題】ここで、従来は、3D
画像における動き補償について、特別な考慮は払われて
いない。そこで、動きベクトルの検出が十分効率的に行
われていなかった。
Here, conventionally, 3D
No special consideration is given to motion compensation in the image. Therefore, the detection of the motion vector has not been performed sufficiently efficiently.

【0007】本発明は、上記課題に鑑みなされたもので
あり、3D画像についてより効率的に画像圧縮処理を行
うことを目的とする。
The present invention has been made in view of the above problems, and has as its object to perform image compression processing more efficiently on 3D images.

【0008】[0008]

【課題を解決するための手段】本発明は、右目画像及び
左目画像を含む3D画像を圧縮する画像圧縮処理方法及
びその装置であって、右目画像と左目画像との間におけ
る対応部分を求める際に、右目画像及び左目画像の視差
に基づく方向を考慮して、対応部分を求めるためのサー
チ範囲を決定することを特徴とする。
SUMMARY OF THE INVENTION The present invention provides an image compression processing method and apparatus for compressing a 3D image including a right-eye image and a left-eye image, and a method for determining a corresponding portion between the right-eye image and the left-eye image. In addition, a search range for finding a corresponding portion is determined in consideration of a direction based on a parallax between a right-eye image and a left-eye image.

【0009】このように、本発明では、右目画像及び左
目画像の視差に基づく方向を考慮して、対応部分を求め
るためのサーチ範囲を決定する。右目画像と左目画像に
おける画像には、その視線に基づく一定の関係が存在す
る。例えば、平行式による立体化または交差式であって
奥行きを持たせる立体化の場合には、右目画像中にある
対象物は、左目画像において、必ず左方向に移動した位
置にある。そこで、対応部分の検出の際にサーチを行う
対象範囲を限定することができ、効率的なサーチを行う
ことができる。
As described above, in the present invention, a search range for determining a corresponding portion is determined in consideration of directions based on parallax between a right-eye image and a left-eye image. The images in the right-eye image and the left-eye image have a certain relationship based on the line of sight. For example, in the case of three-dimensionalization using a parallel type or a three-dimensional type using an intersection type to give depth, the object in the right-eye image is always located at the position moved leftward in the left-eye image. Therefore, it is possible to limit the search target range when detecting the corresponding portion, and it is possible to perform an efficient search.

【0010】例えば、右目画像の所定の部分(ブロッ
ク)について、左目画像において対応ブロックをサーチ
する場合に、サーチ範囲を直接対応する位置の左側に限
定することで、サーチ範囲を小さくして効率的なサーチ
を行うことができる。また、サーチ範囲が小さくなるこ
とで、対応部分を示す動きベクトルの変化幅(ダイナミ
ックレンジ)も小さくなる。そこで、動きベクトルを符
号化する際に使用するテーブルを小さなものにできる。
For example, when searching for a corresponding block in the left-eye image for a predetermined portion (block) of the right-eye image, the search range is limited to the left side of the directly corresponding position, thereby making the search range small and efficient. Search can be performed. Also, as the search range becomes smaller, the change width (dynamic range) of the motion vector indicating the corresponding portion also becomes smaller. Therefore, the table used when encoding the motion vector can be made small.

【0011】また、右目画像と左目画像との間における
対応部分を求めた場合には、この対応部分に基づいて動
きベクトルを求め、求めた動きベクトルを画像圧縮の際
に利用することが好適である。このようにして、動きベ
クトルを利用して高効率の画像圧縮を達成することがで
きる。
When a corresponding portion between the right-eye image and the left-eye image is obtained, it is preferable to obtain a motion vector based on the corresponding portion and use the obtained motion vector in image compression. is there. In this way, highly efficient image compression can be achieved using motion vectors.

【0012】また、求めたサーチ範囲内において、画素
毎の対応で求めた原点を始点として原点から徐々に遠く
なるようにサーチを行うことが好適である。サーチをソ
フトウェアで行う場合、このようなサーチ順序でサーチ
を行うことでサーチの時間を短縮することができ、処理
スピードの向上を図ることができる。
In addition, it is preferable that the search is performed such that the origin is set as the starting point and the distance is gradually increased from the origin within the obtained search range. When the search is performed by software, the search time can be shortened by performing the search in such a search order, and the processing speed can be improved.

【0013】[0013]

【発明の実施の形態】以下、本発明の実施の形態(以下
実施形態という)について、図面に基づいて説明する。
Embodiments of the present invention (hereinafter referred to as embodiments) will be described below with reference to the drawings.

【0014】図1には、本発明に係る画像圧縮処理装置
の全体構成を示すブロック図である。
FIG. 1 is a block diagram showing the overall configuration of an image compression processing apparatus according to the present invention.

【0015】1つのカメラからの基本レイヤについての
画像信号であるビデオ1入力(例えば左目画像について
の左チャネル)は、まずA/D変換器10に入力され、
ここでデジタルデータに変換される。次に、フォーマッ
ト変換部12に入力され、ここで以降のデジタル画像デ
ータ処理に適合するようにデータフォーマットを変換す
る。フォーマット変換を受けた画像データは、画面並び
替え部14に入力され、画面(フレーム)の種類に応じ
た並び替えが行われる。すなわち、MPEGにおいて
は、フレームによって、フレーム内符号化を行うIピク
チャ、順方向予測(先行するフレームからの予測)符号
化を行うPピクチャ、Iピクチャ及びPピクチャの間に
挿入され双方向の予測符号化が行われるBピクチャがあ
るため、Bピクチャの符号化を参照するI、Pピクチャ
に比べ遅らせる並び替えを行う。
A video 1 input (eg, a left channel for a left eye image), which is an image signal for the base layer, from one camera is first input to the A / D converter 10.
Here, it is converted into digital data. Next, the data is input to the format converter 12, where the data format is converted so as to be compatible with the subsequent digital image data processing. The image data that has been subjected to the format conversion is input to the screen rearranging unit 14 and rearranged according to the type of screen (frame). That is, in MPEG, depending on a frame, an I picture for intra-frame coding, a P picture for forward prediction (prediction from a preceding frame), and a bi-directional prediction inserted between I and P pictures. Since there is a B picture to be coded, rearrangement is performed to delay the B picture compared to the I and P pictures that refer to the coding.

【0016】並び替えられた画像データは、減算器16
に入力され、ここで先行する画像との差分が算出され
る。この差分は、参照するフレームの画像とのマクロブ
ロック毎の比較に基づく対応マクロブロックとの間で行
われる。得られた差分データは、DCT(離散コサイン
変換)部18において離散コサイン変換され、量子化器
20で所定ビットに量子化され、可変長符号化部22で
可変長符号化され、バッファ24に一時記憶された後、
符号化データとして出力される。バッファ24はその空
き容量情報をレート制御部26を介し量子化器20に提
供し、量子化器20が量子化ビット数を空き容量情報に
基づいて制御する。
The rearranged image data is supplied to a subtractor 16.
, Where the difference from the preceding image is calculated. This difference is made between the reference macroblock and the corresponding macroblock based on a comparison for each macroblock with the image of the reference frame. The obtained difference data is subjected to a discrete cosine transform in a DCT (discrete cosine transform) unit 18, quantized to predetermined bits by a quantizer 20, variable-length coded by a variable-length coding unit 22, and temporarily stored in a buffer 24. After being memorized,
Output as encoded data. The buffer 24 provides the free space information to the quantizer 20 via the rate control unit 26, and the quantizer 20 controls the number of quantization bits based on the free space information.

【0017】また、量子化器20の出力は、逆量子化器
28、逆DCT部30により、離散コサイン変換及び量
子化される前のデータに戻される。そして、このデータ
が加算器32を介しビデオメモリ34に供給される。こ
の加算器32には、逆DCT部30の出力が差分データ
である場合に、画像データを加算するものであり、加算
器32の出力は、画像データになる。そして、復号化さ
れた画像データがビデオメモリ34に供給、記憶され
る。
The output of the quantizer 20 is returned by the inverse quantizer 28 and the inverse DCT unit 30 to data before being subjected to discrete cosine transform and quantization. Then, this data is supplied to the video memory 34 via the adder 32. The adder 32 adds image data when the output of the inverse DCT unit 30 is difference data, and the output of the adder 32 is image data. Then, the decoded image data is supplied to the video memory 34 and stored.

【0018】ビデオメモリ34のデータは動き補償予測
部36に供給される。この動き補償予測部36には、画
面並び替え部14からの現在の画像データも供給されて
おり、ここにおいてマクロブロック毎の比較が行われ、
動きベクトルが算出される。ここで、動き予測を行った
方がよい場合もあるがフレーム内符号化を行った方がよ
い場合もある。そこで、動き補償予測部36は、この予
測モードについての判断も行う。そして、動きベクトル
及び予測モードについてのデータを可変長符号化部22
に供給する。可変長符号化部22は、この供給された動
きベクトル及び予測モードについても符号化する。
The data in the video memory 34 is supplied to a motion compensation prediction unit 36. The current image data from the screen rearranging unit 14 is also supplied to the motion compensation prediction unit 36, where the comparison is performed for each macroblock,
A motion vector is calculated. Here, in some cases, it is better to perform motion prediction, but in other cases, it is better to perform intra-frame coding. Therefore, the motion compensation prediction unit 36 also determines this prediction mode. Then, the data on the motion vector and the prediction mode is
To supply. The variable length encoding unit 22 also encodes the supplied motion vector and prediction mode.

【0019】動き補償予測部36の出力は、スイッチ3
8を介し、加算器32に供給されるようになっており、
逆DCT部30からの出力が差分データの際に、加算器
32に供給される。なお、Bピクチャの場合には、双方
向予測の可能性もあり、これに応じてスイッチ38が制
御される。動き補償予測部36の出力である1フレーム
分の動き補償予測を含んだ画像データは、減算器16に
供給される。従って、この加算器32において、動き補
償予測を含んだ画像データの再構成が行われる。なお、
入力データがIピクチャの場合などフレーム内符号化が
行われる場合には、スイッチ40を介し、この加算器3
2をバイパスするため、差分データとはならない。この
際には、スイッチ38は開状態となり、加算器32では
逆DCT部30からの出力がそのまま処理される。
The output of the motion compensation prediction unit 36 is
8, and is supplied to the adder 32.
When the output from the inverse DCT unit 30 is difference data, it is supplied to the adder 32. In the case of a B picture, there is a possibility of bidirectional prediction, and the switch 38 is controlled accordingly. Image data including one frame of motion compensation prediction output from the motion compensation prediction unit 36 is supplied to the subtractor 16. Therefore, in the adder 32, reconstruction of the image data including the motion compensation prediction is performed. In addition,
When intra-frame encoding is performed, such as when the input data is an I picture, the adder 3
No. 2 is bypassed, so it does not become difference data. At this time, the switch 38 is opened, and the adder 32 processes the output from the inverse DCT unit 30 as it is.

【0020】他のカメラからの拡張レイヤについての出
力であるビデオ2入力は、同様にA/D変換器50、フ
ォーマット変換部52の処理を受ける。そして、ビデオ
1入力とのタイミングを調整用の遅延用バッファ53を
介し、画面並び替えを行わずそのまま減算器54に供給
される。減算器54の出力は、DCT部56、量子化器
58、可変長符号化部60、バッファ62を介し、符号
化データとして出力される。また、量子化器58の出力
は、逆量子化器64、逆DCT部66、加算器68、ビ
デオメモリ70を介し、動き補償予測部72に供給され
る。この動き補償予測部72には、フォーマット変換部
52からの画像データも供給されており、ここで動き予
測が行われる。予測結果の動きベクトル、予測モードは
可変長符号化部60に供給される。また、予測に基づく
画像データは減算器54に供給される。さらに、予測に
基づく画像データはスイッチ74を介し加算器68に供
給され、差分データに加算することでビデオメモリ70
に記憶されるデータを画像データにしている。また、減
算器54をバイパスするスイッチ76も設けられてい
る。そして、動き補償予測部72には、基本レイヤにお
けるビデオメモリ34からの画像データが供給されてお
り、動き補償予測部72は、基本レイヤの画像データも
利用して予測を行う。なお、レート制御部78は、バッ
ファ62のメモリ残量に応じて量子化器58における量
子化ビット数を制御する。
A video 2 input, which is an output of an enhancement layer from another camera, is similarly processed by an A / D converter 50 and a format converter 52. Then, the timing with the video 1 input is directly supplied to the subtracter 54 via the delay buffer 53 for adjustment without rearranging the screens. The output of the subtractor 54 is output as coded data via a DCT unit 56, a quantizer 58, a variable length coding unit 60, and a buffer 62. The output of the quantizer 58 is supplied to a motion compensation prediction unit 72 via an inverse quantizer 64, an inverse DCT unit 66, an adder 68, and a video memory 70. The motion compensation prediction unit 72 is also supplied with the image data from the format conversion unit 52, where the motion prediction is performed. The motion vector and the prediction mode of the prediction result are supplied to the variable length coding unit 60. The image data based on the prediction is supplied to the subtractor 54. Further, the image data based on the prediction is supplied to an adder 68 via a switch 74, and is added to the difference data so that the video memory 70
Is stored as image data. A switch 76 that bypasses the subtractor 54 is also provided. The motion compensation prediction unit 72 is supplied with image data from the video memory 34 in the base layer, and the motion compensation prediction unit 72 performs prediction using the image data in the base layer. Note that the rate control unit 78 controls the number of quantization bits in the quantizer 58 according to the remaining memory capacity of the buffer 62.

【0021】図2には、基本レイヤの動き補償予測部3
6の構成が示されている。このように、カレント(現在
の)入力は、2つのベクトル検出部110、112に入
力される。ベクトル検出部110は、先行するフレーム
を参照する順方向の予測(前方)を行い、ベクトル検出
部112は、後続のフレームを参照する逆方向の予測
(後方)を行う。ベクトル検出部110は、ベクトル情
報及びこの評価値を予測モード判定部114に供給す
る。ここで評価値は、対応ブロック間の画素毎の差分の
絶対値和を示すものである。そして、予測モード判定部
114は、ベクトル評価値に基づいて、予測モードを決
定する。
FIG. 2 shows a motion compensation prediction unit 3 of the base layer.
6 is shown. As described above, the current (current) input is input to the two vector detection units 110 and 112. The vector detection unit 110 performs forward prediction (forward) with reference to a preceding frame, and the vector detection unit 112 performs backward prediction (back) with reference to a subsequent frame. The vector detection unit 110 supplies the vector information and the evaluation value to the prediction mode determination unit 114. Here, the evaluation value indicates the absolute value sum of the difference between the corresponding blocks for each pixel. Then, the prediction mode determination unit 114 determines a prediction mode based on the vector evaluation value.

【0022】ベクトル検出部110、112からは、カ
レント入力と参照入力から得られた対応ブロックの差分
データである予測データが出力される。この予測データ
は、加算器116を介し、また直接セレクタ118に供
給される。そして、セレクタ118は、予測モード判定
部114において決定された予測モードに基づいて、ベ
クトル検出部110からの前方予測データ、ベクトル検
出部112からの後方予測データ、加算器116からの
双方向予測データのいずれかを選択し、出力する。な
お、加算器116からの双方向予測データは、評価値算
出部119に供給され、ここにおいて、双方向予測の評
価値が算出され、これが予測モード判定部114に供給
される。そこで、予測モード判定部114が3つの予測
についての判定が行える。
The vector detectors 110 and 112 output prediction data which is difference data of the corresponding block obtained from the current input and the reference input. This prediction data is supplied to the selector 118 via the adder 116 and directly. Then, based on the prediction mode determined by the prediction mode determination unit 114, the selector 118 performs forward prediction data from the vector detection unit 110, backward prediction data from the vector detection unit 112, and bidirectional prediction data from the adder 116. Select and output. Note that the bidirectional prediction data from the adder 116 is supplied to the evaluation value calculation unit 119, where the evaluation value of bidirectional prediction is calculated, and this is supplied to the prediction mode determination unit 114. Therefore, the prediction mode determination unit 114 can determine three predictions.

【0023】図3には、参照レイヤの動き補償予測部7
2の構成が示されている。このように、動き補償予測部
72は、3つのベクトル検出部120、122、124
を有している。これは、参照入力として、(i)直近の
基本レイヤ、(ii)直後の基本レイヤ、(iii)直
近の拡張レイヤの3つのフレームの画像データが入力さ
れてくるからである。3つのベクトル検出部120、1
22、124が、それぞれベクトル情報、ベクトル評価
値及び予測データを得る。そして、ベクトル評価値が予
測モード判定部126に送られ、ここで予測モードが決
定される。
FIG. 3 shows the motion compensation prediction unit 7 of the reference layer.
2 is shown. As described above, the motion compensation prediction unit 72 includes the three vector detection units 120, 122, and 124.
have. This is because image data of three frames of (i) the nearest base layer, (ii) the base layer immediately after, and (iii) the closest enhancement layer are input as reference inputs. Three vector detectors 120, 1
22 and 124 obtain vector information, vector evaluation values and prediction data, respectively. Then, the vector evaluation value is sent to the prediction mode determination unit 126, where the prediction mode is determined.

【0024】ベクトル検出部120、122、124か
らの予測データは、3つの加算器128、130、13
2において2つずつの加算が行われた後、セレクタ13
4に供給される。また、ベクトル検出部120、12
2、124からの予測データは、そのままセレクタ13
4に供給される。そして、セレクタ134が、予測モー
ド判定部126の判定結果に従い6つの入力信号の内1
つを選択する。このようにして、上述したような3つの
内の1つまたは3つの内の2つを選択する予測データが
得られる。
The prediction data from the vector detectors 120, 122, and 124 are supplied to three adders 128, 130, and 13 respectively.
After the addition is performed two by two in the selector 2, the selector 13
4 is supplied. Also, the vector detection units 120 and 12
The prediction data from 2 and 124 are supplied to selector 13
4 is supplied. Then, the selector 134 outputs one of the six input signals according to the determination result of the prediction mode determination unit 126.
Choose one. In this way, prediction data for selecting one of the three or two of the three as described above is obtained.

【0025】なお、加算器128、130、132の出
力は、評価値算出部129、131、133に供給さ
れ、ここで双方向予測の評価値が算出され、各々の評価
値が予測モード判定部126に供給される。そこで、予
測モード判定部126が予測モードを決定することがで
きる。
The outputs of the adders 128, 130, and 132 are supplied to evaluation value calculation units 129, 131, and 133, where the evaluation values of bidirectional prediction are calculated. 126. Therefore, the prediction mode determination unit 126 can determine the prediction mode.

【0026】図4に、動き補償予測部36、72におけ
る参照フレームを示す。このように、基本レイヤの予測
は、従来のものと同様で、Iピクチャは予測無し、Pピ
クチャは順方向予測、Bピクチャは双方向予測である。
一方、拡張レイヤにおいては、基本レイヤの画像データ
も参照する。すなわち、動き補償予測部72には、
(i)直近の基本レイヤa、(ii)直後の基本レイヤ
b、(iii)直近の拡張レイヤc、の3つのフレーム
の画像データが供給される。そして、Pピクチャであれ
ば、3方向の予測のうちどれか1つを選択し、Bピクチ
ャであれば3方向の予測の内2つを選択して予測を行
う。
FIG. 4 shows reference frames in the motion compensation prediction units 36 and 72. As described above, the prediction of the base layer is the same as that of the related art. The I picture has no prediction, the P picture has forward prediction, and the B picture has bidirectional prediction.
On the other hand, in the enhancement layer, image data of the base layer is also referred to. That is, the motion compensation prediction unit 72 includes:
Three frames of image data are supplied: (i) the closest base layer a, (ii) the base layer immediately after, and (iii) the closest enhancement layer c. If the picture is a P picture, one of the three directions is selected, and if the picture is a B picture, two of the three directions are selected for prediction.

【0027】「動きベクトルの検出」上述のように、参
照レイヤの画像データを処理する動き補償予測部72に
おいては、基本レイヤの画像データを利用して動きベク
トルを検出する。ここで、基本レイヤと参照レイヤは、
左目画像と右目画像に対応する。従って、両画像間に
は、カメラ位置に基づく視差がある。
[Detection of Motion Vector] As described above, the motion compensation prediction unit 72 that processes the image data of the reference layer detects the motion vector using the image data of the base layer. Here, the base layer and the reference layer are
It corresponds to a left-eye image and a right-eye image. Therefore, there is a parallax between the two images based on the camera position.

【0028】ここで、図5に示すように、カメラの配置
には、平行式があり、この平行式は2つのカメラの視野
方向を平行にするものである。
Here, as shown in FIG. 5, there is a parallel type of camera arrangement, and this parallel type makes the viewing directions of the two cameras parallel.

【0029】また、3D画像には、 (A)スクリーンに対し、奥行きを持たせようとする立
体化 (B)スクリーンから飛び出しているように見せる立体
化 の2種類がある。
Also, there are two types of 3D images: (A) three-dimensionalization for giving depth to the screen, and (B) three-dimensionality for making the screen appear to protrude from the screen.

【0030】そして、平行式では、その撮影時のイメー
ジでは、図6に示すように、奥行きと関係なく、左目画
像における対象物は、右目画像においては左方向に移動
して位置する。また、複数の対象物があり、奥行きに相
違がある場合には、手前の対象物ほど左右画像における
差が大きい。
In the parallel type, as shown in FIG. 6, the object in the left-eye image moves leftward in the right-eye image regardless of the depth in the image at the time of shooting. Further, when there are a plurality of objects and there is a difference in the depth, the difference between the left and right images is larger for the nearer object.

【0031】一方、スクリーンに投影した場合には、奥
行きを持たせようとする立体化と、飛び出させる立体化
では、スクリーンに投影すべき対象物の位置は変化す
る。すなわち、奥行きを持たせる立体化の場合、左目で
見る左目画像の投影における対象物は、右目で見る右目
画像の対象物に比べ左側にずれる。飛び出させる立体化
の場合、反対に、左目で見る左目画像の投影における対
象物は、右目で見る右目画像の対象物に比べ右側にずれ
る。
On the other hand, when the image is projected on the screen, the position of the object to be projected on the screen changes depending on whether the object is to be provided with depth or to be protruded. That is, in the case of three-dimensionalization having depth, the target in the projection of the left-eye image viewed by the left eye is shifted to the left as compared to the target of the right-eye image viewed by the right eye. On the other hand, in the case of three-dimensional projection in which the object is projected, the object in the projection of the left-eye image viewed by the left eye is shifted to the right side as compared with the object of the right-eye image viewed by the right eye.

【0032】本実施形態では、この情報を動きベクトル
の検出に利用する。すなわち、奥行きを持たせる立体化
の場合には、右目画像の対象物は、左目画像において、
必ず左方向に移動した位置にある。そこで、図8に示す
ように、動きベクトルの検出の際に比較を行うサーチ対
象範囲を限定する。すなわち、右目画像がカレントの画
像であり、これに対し参照される左目画像において、対
応ブロックをサーチする時に、サーチ範囲を画面上の同
一位置から左側の所定範囲に限定する。
In this embodiment, this information is used for detecting a motion vector. That is, in the case of three-dimensionalization having depth, the object of the right-eye image is
Be sure to be in the position to the left. Therefore, as shown in FIG. 8, the search target range for comparison when detecting a motion vector is limited. That is, the right-eye image is the current image, and when searching for the corresponding block in the left-eye image referred thereto, the search range is limited to a predetermined range on the left side from the same position on the screen.

【0033】例えば、従来は、対象となっている右目画
像における1つのマクロブロックに対し、左目画像の同
一位置を中心に左右に±31画素、上下に±16画素移
動させ、対応ブロックを求め動きベクトルを求めてい
た。これに対し、本実施形態では、左側部分のみをサー
チの対象とする。すなわち、0〜31の範囲のみに限定
する。これによって、サーチ範囲を小さくして、サーチ
の時間の短縮を図ることができる。また、サーチの精度
は変わりはない。
For example, conventionally, one macroblock in the target right-eye image is moved ± 31 pixels left and right and ± 16 pixels up and down around the same position of the left-eye image to find a corresponding block. Wanted a vector. On the other hand, in the present embodiment, only the left portion is to be searched. That is, the range is limited to only the range of 0 to 31. Thus, the search range can be reduced, and the search time can be reduced. Also, the accuracy of the search remains the same.

【0034】また、サーチ範囲を限定するのではなく、
単に左側に移動することで、サーチの精度を向上するこ
とができる。また、右側が若干残るようにサーチ範囲を
左側に移動してもよいし、右側が若干残るようにサーチ
範囲を縮めてもよい。
Also, instead of limiting the search range,
Simply moving to the left can improve search accuracy. Further, the search range may be moved to the left so that the right side slightly remains, or the search range may be reduced so that the right side slightly remains.

【0035】通常の場合、この(A)、(B)のいずれ
かの方式の立体化が採用され、両方が採用されること
は、稀である。そこで、立体化の方法に応じて、移動方
向を決定すればよい。すなわち、(A)であれば、上述
のように、サーチ範囲を左に移動し、(B)であればサ
ーチ範囲を反対に右に移動すればよい。
In the normal case, one of the three-dimensional methods (A) and (B) is adopted, and it is rare that both are adopted. Therefore, the moving direction may be determined according to the three-dimensional method. That is, in the case of (A), the search range is moved to the left as described above, and in the case of (B), the search range is moved to the right.

【0036】「動きベクトルデータの符号化」上述のよ
うに、マクロブロックの動きベクトルについても符号化
を行う。本実施形態では、サーチ範囲を限定すること
で、動きベクトルについてもその大きさが限定される。
従って、これを利用して、符号の効率化を図る。
"Encoding of motion vector data" As described above, encoding is also performed on a motion vector of a macroblock. In the present embodiment, the size of the motion vector is also limited by limiting the search range.
Therefore, this is used to improve the efficiency of the code.

【0037】符号化対象となるマクロブロック(MB)
の動きベクトル(MV)の符号化に当たっては、直前の
マクロブロックの動きベクトルMV’との差分値ΔMV
=(MV−MV’)をテーブルに従い符号化する。
Macroblock (MB) to be encoded
In coding the motion vector (MV), the difference value ΔMV from the motion vector MV ′ of the immediately preceding macroblock is used.
= (MV−MV ′) according to the table.

【0038】また、符号化の際には、動きベクトルの検
出範囲をフレーム毎に定めておき、その情報も符号化す
る。例えば、検出範囲を−16〜+15画素とした場
合、動きベクトルは、テーブルにおいて−16〜+15
に対しそれぞれ割り付けた符号に変換される。ここで、
動きベクトルの値が0に近いほど符号長が短くなるよう
に割り付けてある。このとき、ΔMVの範囲は、−31
〜+31となる。これについても、同様にテーブルを用
いて符号化するが、−16→−1、0、+1→15と、
+15→+31、−、−31→−17とにそれぞれ同一
の符号を割り付ける。このようにデータの大小によっ
て、同一符号を利用することによって、符号を効果的に
利用できる。
At the time of encoding, the detection range of the motion vector is determined for each frame, and the information is also encoded. For example, if the detection range is -16 to +15 pixels, the motion vector is -16 to +15 in the table.
Are converted to the codes respectively assigned. here,
The code length is assigned such that the closer the value of the motion vector is to 0, the shorter the code length becomes. At this time, the range of ΔMV is −31
To +31. This is also encoded using a table in the same manner, but -16 → -1, 0, + 1 → 15,
The same code is assigned to + 15 → + 31, −, −31 → −17. In this way, by using the same code according to the size of the data, the code can be used effectively.

【0039】本実施形態では、サーチ範囲が例えば0〜
31画素に限定される。そこで、ベクトル値に常に−1
6のオフセットを加えることにより、ΔMVを−16〜
+15の範囲の値として取り扱うことができる。従っ
て、上述の−16〜+15のテーブルのみを用いて、符
号化が行える。また、符号化が大小いずれのテーブルを
利用したものかを再生時に判定する必要もない。
In this embodiment, the search range is, for example, 0 to
Limited to 31 pixels. Therefore, the vector value is always -1.
By adding an offset of 6, the ΔMV becomes -16 to
It can be handled as a value in the range of +15. Therefore, encoding can be performed using only the above-mentioned table of -16 to +15. Further, it is not necessary to determine at the time of reproduction whether the encoding uses the large or small table.

【0040】また、テーブル自体を変更し、効率的なも
のとすることができる。例えば、レンジが0〜15であ
れば、ベクトル差分値は−15〜+15で変換する。表
1のようにベクトル差分値0〜15に所定の符号を割付
け、かつ−15〜−1に1〜15と同一の符号をそれぞ
れ割り付けることで、テーブルを小さくすることができ
る。また、データ数が少ないため、割り付ける符号のビ
ット数も小さくてよく、平均符号長を短くすることがで
きる。
Further, the table itself can be changed to make it more efficient. For example, if the range is 0 to 15, the vector difference value is converted from -15 to +15. By allocating predetermined codes to the vector difference values 0 to 15 and allocating the same codes to 1 to 15 to -15 to -1 as shown in Table 1, the table can be made smaller. Further, since the number of data is small, the number of bits of the code to be allocated may be small, and the average code length can be shortened.

【0041】[0041]

【表1】 このように、本実施形態では、サーチ範囲を限定するこ
とができるため、動きベクトルの変動幅を小さくでき
る。そこで、符号化における割当ビット数を小さくした
り、割当のためのテーブルを小さくすることができる。
[Table 1] As described above, in the present embodiment, since the search range can be limited, the fluctuation range of the motion vector can be reduced. Therefore, it is possible to reduce the number of bits to be allocated in encoding and to reduce the size of the table for allocation.

【0042】「サーチ順序」上述のような動き補償予測
部72は、ハードウェアで構成することができる。この
場合、ハードウェアは予め定められた探索を行うために
用意する。そこで、一定時間内の処理量は、ハードウェ
アに制約されるが、制約の範囲内であれば、サーチ順序
の影響はない。
"Search Order" The motion compensation prediction unit 72 as described above can be constituted by hardware. In this case, hardware is prepared to perform a predetermined search. Therefore, the processing amount within a certain time is restricted by hardware, but the search order is not affected if the processing amount is within the range of the restriction.

【0043】一方、サーチをソフトウェアにより行う場
合、最適ベクトルを早く検出できるか否かで、全体の処
理スピードが変わってくる。そこで、適切な動きベクト
ルが検出されたときに直ちに検索を終えることで、処理
スピードの向上を図ることができる。
On the other hand, when the search is performed by software, the overall processing speed changes depending on whether the optimum vector can be detected quickly. Therefore, by ending the search immediately when an appropriate motion vector is detected, the processing speed can be improved.

【0044】そこで、本実施形態における動き補償予測
器72においては、図9に示すように、原点を出発点と
して、サーチ範囲内において、原点から徐々に遠くなる
ようにサーチを行うとよい。特に、図9(a),(b)
に示すように、一方側に偏った渦巻き型になる。また、
図9(c)に示すように、原点からの距離に応じてエリ
アを分け、エリア毎に順にサーチすることも好適であ
る。
Therefore, in the motion compensation predictor 72 according to the present embodiment, as shown in FIG. 9, a search may be performed starting from the origin and gradually becoming farther from the origin within the search range. In particular, FIGS. 9A and 9B
As shown in the figure, the spiral type is biased to one side. Also,
As shown in FIG. 9C, it is also preferable to divide the area according to the distance from the origin and to search in order for each area.

【0045】[0045]

【発明の効果】以上説明したように、本発明では、右目
画像及び左目画像の視差に基づく方向を考慮して、対応
部分を求めるためのサーチ範囲を決定する。そこで、対
応部分の検出の際にサーチを行う対象範囲を限定するこ
とができ、効率的なサーチを行うことができる。
As described above, in the present invention, a search range for finding a corresponding portion is determined in consideration of the direction based on the parallax between the right-eye image and the left-eye image. Therefore, it is possible to limit the search target range when detecting the corresponding portion, and it is possible to perform an efficient search.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明に係る画像圧縮処理装置の全体構成を
示すブロック図である。
FIG. 1 is a block diagram showing an overall configuration of an image compression processing device according to the present invention.

【図2】 動き補償予測部36の構成を示すブロック図
である。
FIG. 2 is a block diagram showing a configuration of a motion compensation prediction unit 36.

【図3】 動き補償予測部72の構成を示すブロック図
である。
FIG. 3 is a block diagram illustrating a configuration of a motion compensation prediction unit 72.

【図4】 動き予測における参照フレームを示す図であ
る。
FIG. 4 is a diagram showing a reference frame in motion prediction.

【図5】 立体化の説明図である。FIG. 5 is an explanatory diagram of three-dimensionalization.

【図6】 撮影時の画像中の対象物の移動を示す説明図
である。
FIG. 6 is an explanatory diagram showing movement of an object in an image at the time of shooting.

【図7】 投影時の画像における対象物の移動を示す説
明図である。
FIG. 7 is an explanatory diagram showing movement of a target in an image at the time of projection.

【図8】 サーチ範囲を示す図である。FIG. 8 is a diagram showing a search range.

【図9】 サーチ順序を示す図である。FIG. 9 is a diagram showing a search order.

【符号の説明】[Explanation of symbols]

10,50 A/D変換器、12,52 フォーマット
変換部、14 画面並び替え部、16,54 減算器、
18,56 DCT部、20,58 量子化器、22,
60 可変長符号化部、24,62 バッファ、26,
78 レート制御部、28,64 逆量子化器、30,
66 逆DCT部、32,68 加算器、34,70
ビデオメモリ、36,72 動き補償予測部。
10, 50 A / D converter, 12, 52 format converter, 14 screen rearranging unit, 16, 54 subtractor,
18, 56 DCT unit, 20, 58 quantizer, 22,
60 variable length coding unit, 24, 62 buffers, 26,
78 rate controller, 28, 64 inverse quantizer, 30,
66 inverse DCT unit, 32, 68 adder, 34, 70
Video memory, 36, 72 Motion compensation prediction unit.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 国狭 亜輝臣 大阪府守口市京阪本通2丁目5番5号 三 洋電機株式会社内 (72)発明者 太田 修 大阪府守口市京阪本通2丁目5番5号 三 洋電機株式会社内 Fターム(参考) 5C059 KK15 MA02 MA03 MA05 MA23 NN01 NN03 NN08 NN11 NN34 PP04 UA02 UA34 5C061 AA29 AB04 AB08 AB24  ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Akiomi Kunisaka 2-5-2-5 Keihanhondori, Moriguchi-shi, Osaka Sanyo Electric Co., Ltd. (72) Osamu Ota 2-chome Keihanhondori, Moriguchi-shi, Osaka No.5-5 Sanyo Electric Co., Ltd. F term (reference) 5C059 KK15 MA02 MA03 MA05 MA23 NN01 NN03 NN08 NN11 NN34 PP04 UA02 UA34 5C061 AA29 AB04 AB08 AB24

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 右目画像及び左目画像を含む三次元画像
を圧縮する画像圧縮処理方法であって、 右目画像と左目画像との間における対応部分を求める際
に、右目画像及び左目画像の視差に基づく方向を考慮し
て、対応部分を求めるためのサーチ範囲を決定すること
を特徴とする画像圧縮処理方法。
An image compression processing method for compressing a three-dimensional image including a right-eye image and a left-eye image, the method comprising: determining a corresponding portion between the right-eye image and the left-eye image; An image compression processing method comprising: determining a search range for obtaining a corresponding portion in consideration of a direction based on the search range.
【請求項2】 右目画像及び左目画像を含む三次元画像
を圧縮する画像圧縮処理装置であって、 右目画像と左目画像との間における対応部分を求める際
に、右目画像及び左目画像の視差に基づく方向を考慮し
て、対応部分を求めるためのサーチ範囲を決定すること
を特徴とする画像圧縮処理装置。
2. An image compression processing apparatus for compressing a three-dimensional image including a right-eye image and a left-eye image, wherein a parallax between the right-eye image and the left-eye image is determined when a corresponding portion between the right-eye image and the left-eye image is obtained. An image compression processing apparatus for determining a search range for obtaining a corresponding part in consideration of a direction based on the search result.
【請求項3】 請求項2に記載の装置において、 右目画像と左目画像との間における対応部分を求めた場
合には、この対応部分に基づいて動きベクトルを求め、
求めた動きベクトルを画像圧縮の際に利用することを特
徴とする画像圧縮処理装置。
3. The apparatus according to claim 2, wherein when a corresponding portion between the right-eye image and the left-eye image is obtained, a motion vector is obtained based on the corresponding portion.
An image compression processing device characterized in that the obtained motion vector is used at the time of image compression.
【請求項4】 請求項2または3に記載の装置におい
て、 求めたサーチ範囲内において、画素毎の対応で求めた原
点を始点として原点から徐々に遠くなるようにサーチを
行うことを特徴とする画像圧縮処理装置。
4. The apparatus according to claim 2, wherein a search is performed within the determined search range, starting from the origin determined for each pixel as a starting point and gradually moving away from the origin. Image compression processing device.
JP33557298A 1998-11-26 1998-11-26 Method and device for image compressing processing Withdrawn JP2000165909A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33557298A JP2000165909A (en) 1998-11-26 1998-11-26 Method and device for image compressing processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33557298A JP2000165909A (en) 1998-11-26 1998-11-26 Method and device for image compressing processing

Publications (1)

Publication Number Publication Date
JP2000165909A true JP2000165909A (en) 2000-06-16

Family

ID=18290091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33557298A Withdrawn JP2000165909A (en) 1998-11-26 1998-11-26 Method and device for image compressing processing

Country Status (1)

Country Link
JP (1) JP2000165909A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008167267A (en) * 2006-12-28 2008-07-17 Mitsubishi Electric Corp Stereo image encoding apparatus, stereo image encoding method and stereo image encoding program
JP2008211502A (en) * 2007-02-26 2008-09-11 Fujifilm Corp Image encoding device, image decoding device, image encoding method, image decoding method, imaging apparatus, and control method and program of imaging apparatus
JP2012257198A (en) * 2011-05-17 2012-12-27 Canon Inc Stereoscopic image encoding apparatus, method therefor, and image pickup apparatus having stereoscopic image encoding apparatus
JP2013162396A (en) * 2012-02-07 2013-08-19 Nippon Telegr & Teleph Corp <Ntt> Image encoder, image encoding method and image encoding program
JP2013183200A (en) * 2012-02-29 2013-09-12 Oki Electric Ind Co Ltd Motion compensation control apparatus, motion compensation control program, and encoder

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008167267A (en) * 2006-12-28 2008-07-17 Mitsubishi Electric Corp Stereo image encoding apparatus, stereo image encoding method and stereo image encoding program
JP4660463B2 (en) * 2006-12-28 2011-03-30 三菱電機株式会社 Stereo image encoding device
JP2008211502A (en) * 2007-02-26 2008-09-11 Fujifilm Corp Image encoding device, image decoding device, image encoding method, image decoding method, imaging apparatus, and control method and program of imaging apparatus
JP2012257198A (en) * 2011-05-17 2012-12-27 Canon Inc Stereoscopic image encoding apparatus, method therefor, and image pickup apparatus having stereoscopic image encoding apparatus
US8983217B2 (en) 2011-05-17 2015-03-17 Canon Kabushiki Kaisha Stereo image encoding apparatus, its method, and image pickup apparatus having stereo image encoding apparatus
JP2013162396A (en) * 2012-02-07 2013-08-19 Nippon Telegr & Teleph Corp <Ntt> Image encoder, image encoding method and image encoding program
JP2013183200A (en) * 2012-02-29 2013-09-12 Oki Electric Ind Co Ltd Motion compensation control apparatus, motion compensation control program, and encoder

Similar Documents

Publication Publication Date Title
EP1779662B1 (en) Method and device for motion estimation and compensation for panorama image
US5731850A (en) Hybrid hierarchial/full-search MPEG encoder motion estimation
JP5059766B2 (en) Disparity vector prediction method, and method and apparatus for encoding and decoding a multi-view video using the method
KR101227601B1 (en) Method for interpolating disparity vector and method and apparatus for encoding and decoding multi-view video
JP4755093B2 (en) Image encoding method and image encoding apparatus
JP5197591B2 (en) VIDEO ENCODING METHOD AND DECODING METHOD, DEVICE THEREOF, THEIR PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
US20070071107A1 (en) Method of estimating disparity vector using camera parameters, apparatus for encoding and decoding multi-view picture using the disparity vector estimation method, and computer-readable recording medium storing a program for executing the method
US20070092007A1 (en) Methods and systems for video data processing employing frame/field region predictions in motion estimation
JP4280353B2 (en) Encoding apparatus, image processing apparatus, encoding method, and recording medium
KR20010041095A (en) Motion vector extrapolation for transcoding video sequences
JP2004056823A (en) Motion vector encoding/decoding method and apparatus
JPH07162869A (en) Moving image encoder
CN105103556A (en) Method and apparatus for bi-prediction of illumination compensation
EP1280356A2 (en) Apparatus and method for compressing multiplexed video signals
US20070047642A1 (en) Video data compression
JP2010232734A (en) Image encoding apparatus, and image encoding method
US20110129012A1 (en) Video Data Compression
JP4518599B2 (en) 3: 2 pulldown detection and optimized video compression encoder in motion estimation phase
JP3426668B2 (en) Video coding method
JP4874578B2 (en) Image encoding device
JP2000165909A (en) Method and device for image compressing processing
JPH07240944A (en) Stereoscopic image encoder
JP2004521547A (en) Video encoder and recording device
KR102113948B1 (en) Method, device and system for method of encoding a sequence of frames in a video stream
JP2008072608A (en) Apparatus and method for encoding image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050609

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20070730