JP2007074042A - Moving picture processing apparatus and method - Google Patents

Moving picture processing apparatus and method Download PDF

Info

Publication number
JP2007074042A
JP2007074042A JP2005255758A JP2005255758A JP2007074042A JP 2007074042 A JP2007074042 A JP 2007074042A JP 2005255758 A JP2005255758 A JP 2005255758A JP 2005255758 A JP2005255758 A JP 2005255758A JP 2007074042 A JP2007074042 A JP 2007074042A
Authority
JP
Japan
Prior art keywords
amount
motion
image
frame
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005255758A
Other languages
Japanese (ja)
Inventor
Takanori Yano
隆則 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2005255758A priority Critical patent/JP2007074042A/en
Publication of JP2007074042A publication Critical patent/JP2007074042A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving picture processing apparatus and a moving picture processing method capable of improving motion amount estimate accuracy by adjusting a frame image on the basis of a motion amount in a three-dimensional display. <P>SOLUTION: The moving picture processing method for consecutively reproducing right eye and left eye image data for reproducing a three-dimensional image in the unit of a frame executes: a correlation calculation processing for calculating the correlation between two image data in the unit of the frame; a motion amount estimate processing (S11) that estimates a motion amount to be small when a degree of the depth of the three-dimensional image is smaller than a presetting value on the basis of the calculated correlation value; and an interleave reproduction processing (S12) that thins frame image data and reproduces the resulting image when the motion amount estimate processing estimates that the motion amount is small. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、三次元画像再現のための右眼用と左眼用の画像データをフレーム単位で連続的に再生する動画像処理装置に関わり、特に、三次元画像表示用データの再生画像の奥行き方向の動き量を推定し、その動き量に基づいてフレーム補正をする動画像処理装置及び動画像処理方法に関するものである。   The present invention relates to a moving image processing apparatus that continuously reproduces right-eye and left-eye image data for three-dimensional image reproduction in units of frames, and in particular, the depth of a reproduced image of three-dimensional image display data. The present invention relates to a moving image processing apparatus and a moving image processing method for estimating a motion amount in a direction and performing frame correction based on the motion amount.

一般的に、三次元立体像表示においては、視野の異なる右眼用と左眼用の画像データを別々に用意して再現することで三次元表示処理がなされている。右眼用と左眼用の画像データ間の違い(相関)が奥行きとして再現され、二つの画像間の相関の大きさが奥行きの度合いを表し、この奥行き度合いの推定値を用いることで動き量の推定精度を向上するようにしたものがある。
動き量を推定する方式としては、特許文献1乃至4等が提案されている。
特許文献1に開示されている動画像処理装置では、フレーム間における被写体の画像データの差分を求め、求めた差分データに基づいて移動速度を求める演算処理を行うようにしている。このため、処理するデータ量が多く、演算に時間を要すると共に、多くのメモリを必要としていた。
また特許文献2には、入力画像の周波数成分により構成される水平方向の櫛状部分を検出して検出程度を表す量を出力し、入力画像に対し垂直高域通過フィルタリングを行い符号化する技術が開示されている。
特許文献3には、インターレースのくし型により、画像が動いているか否かを判定し、ブロックノンインターレースデータ(フレームデータ)とブロックインターレースデータ(フィールドデータ)の何れか一方のデータを選択して符号化を行う技術が開示されている。
特許文献4には、離散ウェーブレット変換で変換された係数を基にフレーム間での画像の動きを検出し、この検出した画像の動きを用いて符号化された画像データの量を低減する技術が開示されている。
特許文献5には、異なる点から被写体を見た場合に得られる視差量を光学的に高精度に検出し、被写体の正確な奥行き情報を得ることのできる視差画像撮像装置が開示されている。
特公平04−77517号公報 特開2002−271789公報 特開2002−64830公報 特開2001−309381公報 特開2001−16612公報
Generally, in 3D stereoscopic image display, 3D display processing is performed by separately preparing and reproducing image data for the right eye and left eye having different fields of view. The difference (correlation) between the image data for the right eye and the left eye is reproduced as the depth, and the magnitude of the correlation between the two images represents the degree of the depth. There is one that improves the estimation accuracy of.
As methods for estimating the amount of motion, Patent Documents 1 to 4 and the like have been proposed.
In the moving image processing apparatus disclosed in Patent Document 1, a difference in image data of a subject between frames is obtained, and an arithmetic process for obtaining a moving speed is performed based on the obtained difference data. For this reason, the amount of data to be processed is large, time is required for calculation, and a large amount of memory is required.
Japanese Patent Application Laid-Open No. 2004-259542 discloses a technique for detecting a horizontal comb-shaped portion constituted by frequency components of an input image, outputting an amount representing the degree of detection, and performing encoding by performing vertical high-pass filtering on the input image. Is disclosed.
In Patent Document 3, it is determined whether or not an image is moving by using an interlace comb, and one of block non-interlace data (frame data) and block interlace data (field data) is selected and encoded. A technique for performing the conversion is disclosed.
Patent Document 4 discloses a technique for detecting image motion between frames based on coefficients converted by discrete wavelet transform and reducing the amount of image data encoded using the detected image motion. It is disclosed.
Patent Document 5 discloses a parallax image imaging device capable of optically detecting a parallax amount obtained when viewing a subject from different points and obtaining accurate depth information of the subject.
Japanese Patent Publication No. 04-77517 JP 2002-271789 A JP 2002-64830 A JP 2001-309281 A JP 2001-16612 A

しかしながら、動画像再生では符号量が大きいために転送時にフレーム符号データの駒落ちが起こる場合がある。そこで、動画像の符号化処理の過程で、Motion−JPEG2000のようにフレーム間で独立に符号化されるような場合に、動き量がない場合にフレーム間引きとか符号量削減処理とかの編集をすることが提案されているが、動き量が高精度に推定できないと編集に起因する画質劣化を招くおそれがあった。
そこで、上記したような点を鑑みてなされたものであり、三次元動画像表示で動き量に基づいてフレーム画像を調整することで動き量推定精度を向上することができる動画像処理装置及び動画像処理方法を提供することを目的とする。
However, in moving image reproduction, since the code amount is large, frame code data may be dropped during transfer. Therefore, in the process of encoding a moving image, editing is performed such as frame decimation or code amount reduction processing when there is no motion amount when encoding is performed independently between frames as in Motion-JPEG2000. However, if the amount of motion cannot be estimated with high accuracy, the image quality may be deteriorated due to editing.
Therefore, a moving image processing apparatus and a moving image that are made in view of the above points and that can improve the motion amount estimation accuracy by adjusting the frame image based on the motion amount in the three-dimensional moving image display. An object is to provide an image processing method.

上記目的を達成するため、請求項1に記載の発明は、三次元画像再現のための右眼用と左眼用の二つの画像データをフレーム単位で連続的に再生する動画像処理装置において、前記フレーム単位の二つの画像データ間の相関を算出する相関算出手段と、該相関算出手段により算出された相関値により三次元画像の奥行き度合いが予め設定された設定値よりも小さい場合に動き量が小さいと推定する動き量推定手段と、該動き量推定手段により動き量が小さいと推定された場合に前記フレーム単位の画像データを間引いて再生する間引き再生手段と、を備えたことを特徴とする。
請求項2に記載の発明は、三次元画像再現のための右眼用と左眼用の画像データをフレーム単位で連続的に再生する動画像処理装置において、画像の縦横方向の動きを推定する動き量推定手段と、奥行き方向の動き量が小さく、かつ、縦横方向動き量が予め設定された動き量基準値より小さい場合に前記フレーム単位の画像データを間引いて再生する間引き再生手段と、を備えたことを特徴とする。
請求項3に記載の発明は、三次元画像再現のための右眼用と左眼用の二つの画像データをフレーム単位で連続的に再生する動画像処理装置において、フレーム画像データを符号化する符号化手段と、前記フレーム単位の二つの画像データ間の相関を算出する相関算出手段と、該相関算出手段により算出された相関値により三次元画像の奥行き度合いが予め設定された設定値よりも小さい場合に動き量が小さいと推定する動き量推定手段と、前記動き量が小さいと推定された場合に前記フレーム画像データを符号化した符号データの符号量を削減するフレーム符号量削減手段と、を備えたことを特徴とする。
In order to achieve the above object, the invention described in claim 1 is a moving image processing apparatus that continuously reproduces two image data for right eye and left eye for three-dimensional image reproduction on a frame basis. A correlation calculating means for calculating a correlation between the two pieces of image data in frame units, and a motion amount when a depth degree of the three-dimensional image is smaller than a preset set value by the correlation value calculated by the correlation calculating means. A motion amount estimating means for estimating that the amount of motion is small, and a thinning reproduction means for thinning and reproducing the frame-unit image data when the motion amount is estimated to be small by the motion amount estimating means. To do.
According to a second aspect of the present invention, in a moving image processing apparatus that continuously reproduces image data for the right eye and left eye for reproducing a three-dimensional image in units of frames, the motion in the vertical and horizontal directions of the image is estimated. A motion amount estimating means; and a thinning reproduction means for thinning and reproducing the frame-unit image data when the motion amount in the depth direction is small and the motion amount in the vertical and horizontal directions is smaller than a preset motion amount reference value. It is characterized by having.
The invention according to claim 3 encodes frame image data in a moving image processing apparatus that continuously reproduces two image data for right eye and left eye for 3D image reproduction in units of frames. An encoding means, a correlation calculating means for calculating a correlation between the two image data in units of frames, and a depth value of the three-dimensional image by a correlation value calculated by the correlation calculating means than a preset setting value A motion amount estimation means for estimating that the motion amount is small when the motion amount is small, and a frame code amount reduction means for reducing the code amount of the code data obtained by encoding the frame image data when the motion amount is estimated to be small; It is provided with.

請求項4に記載の発明は、三次元画像再現のための右眼用と左眼用の画像データをフレーム単位で連続的に再生する動画像処理装置において、前記フレーム単位の画像データを符号化する符号化手段と、画像の縦横方向の動きを推定する動き量推定手段と、奥行き方向の動き量が小さく、かつ、縦横方向動き量が予め設定された動き量基準値より小さい場合に前記フレーム単位の画像データを符号化した符号データの符号量を削減するフレーム符号量削減手段と、を備えたことを特徴とする。
請求項5に記載の発明は、請求項2または4記載の動画像処理装置において、処理速度要求を入力する処理速度要求入力手段をさらに備え、前記動き量推定手段は、前記処理速度要求が高速要求の場合には、奥行き方向の動き量で動き量を推定するか、あるいは、画像の縦横方向の動きを推定する縦横方向動き量で動き量を推定し、そうでない場合には、奥行き方向の動き量と、画像の縦横方向の動きを推定する縦横方向動き量とにより動き量を推定することを特徴とする。
請求項6に記載の発明は、請求項1乃至4の何れか1項に記載の動画像処理装置において、フレーム補正精度要求を入力するフレーム補正精度要求入力手段をさらに備え、前記動き量推定手段は、前記フレーム補正精度要求が高い場合には、奥行き方向の動き量で動き量を推定するか、あるいは、画像の縦横方向の動きを推定する縦横方向動き量で動き量を推定し、そうでない場合には、奥行き方向の動き量と、画像の縦横方向の動きを推定する縦横方向動き量とにより動き量を推定することを特徴とする。
According to a fourth aspect of the present invention, there is provided a moving image processing apparatus that continuously reproduces right-eye and left-eye image data for three-dimensional image reproduction in units of frames, and encodes the image data in units of frames. Encoding means, motion amount estimation means for estimating the vertical and horizontal motion of the image, and the frame when the motion amount in the depth direction is small and the vertical and horizontal motion amount is smaller than a preset motion amount reference value. Frame code amount reduction means for reducing the code amount of the code data obtained by encoding the unit image data.
According to a fifth aspect of the present invention, in the moving image processing apparatus according to the second or fourth aspect of the present invention, the moving image processing apparatus further includes processing speed request input means for inputting a processing speed request, wherein the motion amount estimating means In the case of a request, the amount of motion is estimated by the amount of motion in the depth direction, or the amount of motion is estimated by the amount of vertical and horizontal direction motion that estimates the vertical and horizontal direction motion of the image. The amount of motion is estimated from the amount of motion and the amount of motion in the vertical and horizontal directions for estimating the vertical and horizontal motion of the image.
The invention according to claim 6 is the moving image processing apparatus according to any one of claims 1 to 4, further comprising a frame correction accuracy request input means for inputting a frame correction accuracy request, wherein the motion amount estimation means. If the frame correction accuracy requirement is high, the amount of motion is estimated by the amount of motion in the depth direction, or the amount of motion is estimated by the amount of vertical and horizontal motion that estimates the vertical and horizontal motion of the image, otherwise In this case, the amount of motion is estimated from the amount of motion in the depth direction and the amount of motion in the vertical and horizontal directions for estimating the vertical and horizontal motion of the image.

請求項7に記載の発明は、請求項1乃至6の何れか1項に記載の動画像処理装置において、画像領域毎に動き量を推定する領域毎動き量推定手段と、前記画像領域毎に符号量を削減する符号量削減手段と、を備えたことを特徴とする。
請求項8記載の発明は、請求項1乃至7の何れか1項に記載の動画像処理装置において、前記相関の算出は画像データの一部の領域であることを特徴とする。
請求項9に記載の発明は、請求項1乃至8の何れか1項に記載の動画像処理装置において、前記フレーム符号データはMotion−JPEG2000規格に基づいて符号化されることを特徴とする。
請求項10に記載の発明は、請求項9記載の動画像処理装置において、画像データを符号化したフレーム符号データを保存するデータ保存手段と、フレーム画像データの符号化後に符号化された符号データに対してフレーム符号データを再構成する再構成手段と、を備えたことを特徴とする。
請求項11に記載の発明は、請求項9記載の動画像処理装置において、画像データをウェーブレット変換するウェーブレット変換の過程で得られたサブ・バンド単位の符号データの符号量を算出するサブ・バンド符号量算出手段と、サブ・バンド1LH中の符号量またはサブ・バンド1HL中の符号量とで前記縦横方向動き量を推定する動き量推定手段と、を備えたことを特徴とする。
請求項12に記載の発明は、請求項1乃至11の何れか1項に記載の動画像処理装置において、フレーム画像データがインターレース画像であり、インターレース画像データを奇数フィールドの画像データと偶数フィールドの画像データに分割するフィールド分割手段と、あるインターレース画像の奇数フィールドの画像データと前記インターレース画像の一つ前のインターレース画像の偶数フィールドの画像データのフィールドデータを使用して動き量を推定する動き量手段と、を備えたことを特徴とする。
請求項13に記載の発明は、請求項12に記載の動画像処理装置において、一つのインターレース画像信号が分解されて生成された奇数及び偶数のフィールド間の動き量を計算する動き量計算手段と、前記奇数及び偶数のフィールド間の動き量に基づいて前記動き量を判定する判定手段と、を備えたことを特徴とする。
According to a seventh aspect of the present invention, in the moving image processing apparatus according to any one of the first to sixth aspects, a motion amount estimation unit for each region that estimates a motion amount for each image region, and for each image region And a code amount reducing means for reducing the code amount.
The invention according to claim 8 is the moving image processing apparatus according to any one of claims 1 to 7, wherein the calculation of the correlation is a partial region of the image data.
According to a ninth aspect of the present invention, in the moving image processing apparatus according to any one of the first to eighth aspects, the frame code data is encoded based on the Motion-JPEG2000 standard.
According to a tenth aspect of the present invention, in the moving image processing apparatus according to the ninth aspect, the data storing means for storing the frame code data obtained by encoding the image data, and the code data encoded after the encoding of the frame image data Reconstructing means for reconstructing the frame code data.
According to the eleventh aspect of the present invention, in the moving image processing apparatus according to the ninth aspect, the sub-band for calculating the code amount of the sub-band unit code data obtained in the wavelet transform process for wavelet transforming the image data. A code amount calculating unit; and a motion amount estimating unit configured to estimate the vertical and horizontal direction motion amount using a code amount in the sub-band 1LH or a code amount in the sub-band 1HL.
According to a twelfth aspect of the present invention, in the moving image processing apparatus according to any one of the first to eleventh aspects, the frame image data is an interlaced image, and the interlaced image data is divided into odd-numbered field image data and even-numbered field data. Field dividing means for dividing into image data, and an amount of motion for estimating an amount of motion using field data of odd field image data of an interlaced image and image data of even field of an interlaced image immediately before the interlaced image Means.
According to a thirteenth aspect of the present invention, in the moving image processing apparatus according to the twelfth aspect, there is provided a motion amount calculating means for calculating a motion amount between odd and even fields generated by decomposing one interlaced image signal. Determining means for determining the amount of motion based on the amount of motion between the odd and even fields.

請求項14に記載の発明は、三次元画像再現のための右眼用と左眼用の画像データをフレーム単位で連続的に再生する動画像処理方法において、前記フレーム単位の二つの画像データ間の相関を算出する相関算出ステップと、算出された相関値により三次元画像の奥行き度合いが、予め設定された設定値よりも小さい場合に動き量が小さいと推定する動き量推定ステップと、該動き量推定ステップにより動き量が小さいと推定された場合に前記フレーム画像データを間引いて再生する間引き再生ステップと、を備えたことを特徴とする。
請求項15に記載の発明は、三次元画像再現のための右眼用と左眼用の画像データをフレーム単位で連続的に再生する動画像処理方法において、画像の縦横方向の動きを推定する動き量推定ステップと、奥行き方向の動き量が小さく、かつ、縦横方向動き量が予め設定された動き量基準値より小さい場合に前記フレーム画像データを間引いて再生する間引き再生ステップと、を備えたことを特徴とする。
請求項16に記載の発明は、三次元画像再現のための右眼用と左眼用の画像データをフレーム単位で連続的に再生する動画像処理方法において、フレーム画像データを符号化する符号化ステップと、前記フレーム単位の二つの画像データ間の相関を算出する相関算出ステップと、算出された相関値により三次元画像の奥行き度合いが予め設定された設定値よりも小さい場合に動き量が小さいと推定する動き量推定ステップと、前記動き量が小さいと推定された場合に前記フレーム画像データを符号化した符号データの符号量を削減するフレーム符号量削減ステップと、を備えたことを特徴とする。
請求項17に記載の発明は、三次元画像再現のための右眼用と左眼用の画像データをフレーム単位で連続的に再生する動画像処理方法において、フレーム画像データを符号化する符号化ステップと、画像の縦横方向の動きを推定する動き量推定ステップと、奥行き方向の動き量が小さく、かつ、縦横方向動き量が予め設定された動き量基準値より小さい場合に前記フレーム画像データを符号化した符号データの符号量を削減するフレーム符号量削減ステップと、を備えたことを特徴とする。
According to a fourteenth aspect of the present invention, there is provided a moving image processing method for continuously reproducing right-eye and left-eye image data for three-dimensional image reproduction in units of frames, between the two image data in units of frames. A correlation calculation step for calculating the correlation of the three-dimensional image, a motion amount estimation step for estimating that the motion amount is small when the depth degree of the three-dimensional image is smaller than a preset setting value based on the calculated correlation value, A thinning reproduction step of thinning and reproducing the frame image data when the amount of motion is estimated to be small by the amount estimation step.
According to a fifteenth aspect of the present invention, there is provided a moving image processing method for continuously reproducing right-eye and left-eye image data for three-dimensional image reproduction in units of frames, and estimating vertical and horizontal movements of the image. A motion amount estimation step; and a thinning reproduction step for thinning and reproducing the frame image data when the motion amount in the depth direction is small and the vertical and horizontal motion amounts are smaller than a preset motion amount reference value. It is characterized by that.
According to a sixteenth aspect of the present invention, there is provided an encoding method for encoding frame image data in a moving image processing method for continuously reproducing right-eye and left-eye image data for 3D image reproduction in units of frames. A step of calculating the correlation between the two image data in units of frames, and the amount of motion is small when the depth of the three-dimensional image is smaller than a preset value based on the calculated correlation value And a frame code amount reduction step for reducing a code amount of code data obtained by encoding the frame image data when the motion amount is estimated to be small. To do.
According to a seventeenth aspect of the present invention, there is provided an encoding method for encoding frame image data in a moving image processing method for continuously reproducing right-eye and left-eye image data for three-dimensional image reproduction in units of frames. Step, a motion amount estimation step for estimating the vertical and horizontal motion of the image, and the frame image data when the motion amount in the depth direction is small and the vertical and horizontal motion amount is smaller than a preset motion amount reference value. And a frame code amount reduction step for reducing the code amount of the encoded code data.

本発明によれば、三次元画像再現のための右眼用と左眼用の画像データをフレーム単位で連続的に再生する動画像処理装置において、動き量を高精度に推定することで、奥行き方向を含めた動画像の動き量が小さい場合にフレーム間引きしたり、フレーム画像を編集したりして符号量を削減することで、編集に起因する画質劣化を防止することができる。   According to the present invention, in a moving image processing apparatus that continuously reproduces image data for right and left eyes for three-dimensional image reproduction in units of frames, the amount of motion is estimated with high accuracy, By reducing the code amount by thinning out the frame or editing the frame image when the moving amount of the moving image including the direction is small, it is possible to prevent image quality deterioration due to editing.

以下、図面を参照しながら本発明の実施形態を説明する。
先ず、奥行き動き量によるフレーム間引き制御について説明する。
図1は、本発明の第1の実施形態の動画像処理装置の奥行き動き量によるフレーム補正をする処理ブロックの構成を示した図である。なお、本実施形態では、三次元画像再現のための右眼用と左眼用の画像データをフレーム単位で連続的に再生する動画像処理装置の構成を例に挙げて説明する。
この図1に示す動画像処理装置は、奥行き動き量によるフレーム補正をする処理ブロックの構成を示した図である。フレーム毎の右眼用と左眼用の画像データが入力される三次元画像入力部101、画像奥行き算出部102、動き量評価部103、フレーム(符号データ)編集部104、画像データ保存部105、評価基準動き量保存部106、フレーム毎奥行き保存部107、フレーム動き量評価結果保存部108、フレーム動き量変化評価結果保存部109により構成されている。
このように構成される動画像処理装置では、フレーム毎に画像の奥行きを算出する画像奥行き算出部102においてフレーム単位で、右眼用と左眼用の二つの画像データ間の相関を算出し、算出した相関値により三次元画像の奥行き度合いを推定する。動き量評価部103では、画像奥行き算出部102において推定された奥行き度合いが予め設定された設定値よりも小さいかどうかを判断する。動き量が小さいと判断した場合に、フレーム符号データ編集部104においてフレーム補正を指令する。フレーム符号データ編集部104では、動き量が小さいと判断したフレーム画像データを間引いたりするようにしている。
即ち、本実施形態においては、三次元画像入力部101にて、右眼用と左眼用の画像データを入力し、続いて画像奥行き算出部102にてフレーム毎に画像データの奥行き量を推定する。続いて動き量評価部103において評価基準動き量保存部106に保存された基準動き量と、画像奥行き算出部102において推定されたフレームの奥行き動き量とを比較し、フレーム動き量評価結果をフレーム動き量評価結果保存部108に保存する。そして、直前に保存されたフレームの動き量評価結果と新たなフレームの動き量の評価結果とを比較し、フレーム動き量変化評価結果をフレーム動き量変化評価結果保存部109に保存する。フレーム符号データ編集部104においては、フレーム動き量変化評価結果を用いてフレーム符号データをフレーム単位で編集する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
First, the frame thinning control based on the depth motion amount will be described.
FIG. 1 is a diagram illustrating a configuration of a processing block that performs frame correction based on a depth motion amount of the moving image processing apparatus according to the first embodiment of the present invention. In the present embodiment, the configuration of a moving image processing apparatus that continuously reproduces image data for right eye and left eye for 3D image reproduction in units of frames will be described as an example.
The moving image processing apparatus shown in FIG. 1 is a diagram illustrating a configuration of a processing block that performs frame correction based on a depth motion amount. Three-dimensional image input unit 101 to which image data for right eye and left eye for each frame is input, image depth calculation unit 102, motion amount evaluation unit 103, frame (code data) editing unit 104, and image data storage unit 105 , An evaluation reference motion amount storage unit 106, a frame-by-frame depth storage unit 107, a frame motion amount evaluation result storage unit 108, and a frame motion amount change evaluation result storage unit 109.
In the moving image processing apparatus configured as described above, the image depth calculation unit 102 that calculates the image depth for each frame calculates a correlation between the two image data for the right eye and the left eye for each frame, The degree of depth of the three-dimensional image is estimated based on the calculated correlation value. The motion amount evaluation unit 103 determines whether the depth degree estimated by the image depth calculation unit 102 is smaller than a preset setting value. When it is determined that the amount of motion is small, the frame code data editing unit 104 commands frame correction. The frame code data editing unit 104 thins out frame image data determined to have a small amount of motion.
That is, in the present embodiment, right-eye and left-eye image data is input by the 3D image input unit 101, and then the depth amount of the image data is estimated for each frame by the image depth calculation unit 102. To do. Subsequently, the reference motion amount stored in the evaluation reference motion amount storage unit 106 in the motion amount evaluation unit 103 is compared with the depth motion amount of the frame estimated in the image depth calculation unit 102, and the frame motion amount evaluation result is displayed as a frame. The result is stored in the motion amount evaluation result storage unit 108. Then, the motion amount evaluation result of the frame stored immediately before is compared with the evaluation result of the motion amount of the new frame, and the frame motion amount change evaluation result is stored in the frame motion amount change evaluation result storage unit 109. The frame code data editing unit 104 edits the frame code data in units of frames using the frame motion amount change evaluation result.

図2は、奥行き方向の動き量をフレーム毎に推定する画像奥行き算出部102の構成を示したブロック図である。
この図2に示す画像奥行き算出部102は、領域毎に画像を抽出する領域毎画像抽出部41、画像領域毎に奥行きを算出する画像領域毎奥行き算出部42、フレーム奥行き算出部43、画像データ保存部44、画像領域データ保存部45、領域毎奥行き保存部46により構成される。
また画像領域毎奥行き算出部42は、領域毎画像抽出部51、ライン毎画像データ抽出部52、相関算出部53、奥行き算出部54、ライン毎画像データ保存部55、相関データ保存部56により構成されている。
画像奥行き算出部102は、三次元画像入力部101で三次元画像データを読み込み、領域毎画像抽出部41で画像領域の画像データを算出する。画像領域毎奥行き算出部42では、画像領域毎に三次元画像入力部101にて画像領域の画像データを読み込み、ライン毎画像データ抽出部52でライン毎に画像データをライン単位で読み込み、相関算出部53においてライン単位で相関値を算出する。そして、奥行き算出部54で領域毎の奥行きデータを算出する。なお、典型的には奥行きデータは相関値の逆数に比例する。
フレーム奥行き算出部43は、保存されたライン単位の相関値を使用して、相関値の逆数を画像のライン毎に集計し、ライン毎の平均値を算出して画像全体の奥行き度合いを算出する。フレーム奥行き保存部107には該フレームの画像データを再生した場合の奥行き情報が保存される。
このように構成される動作画像処理装置においては、フレーム補正を施し、処理負担の軽減、あるいは、フレーム符号データの保存量を節約するために、三次元画像の奥行き動き量が少ない場合にフレーム間引きをするようにしている。このため、前述したように、動き量として奥行き動き量を評価するところに特徴がある。
FIG. 2 is a block diagram illustrating a configuration of the image depth calculation unit 102 that estimates the amount of motion in the depth direction for each frame.
The image depth calculation unit 102 shown in FIG. 2 includes an image extraction unit 41 for extracting an image for each region, a depth calculation unit 42 for each image region for calculating a depth for each image region, a frame depth calculation unit 43, and image data. The storage unit 44, the image region data storage unit 45, and the depth storage unit 46 for each region are configured.
The image area depth calculation unit 42 includes an area image extraction unit 51, a line image data extraction unit 52, a correlation calculation unit 53, a depth calculation unit 54, a line image data storage unit 55, and a correlation data storage unit 56. Has been.
The image depth calculation unit 102 reads the three-dimensional image data with the three-dimensional image input unit 101, and calculates the image data of the image region with the image extraction unit 41 for each region. In the depth calculation unit 42 for each image region, the image data of the image region is read by the three-dimensional image input unit 101 for each image region, the image data is read for each line by the image data extraction unit 52 for each line, and correlation calculation is performed. The unit 53 calculates a correlation value for each line. Then, the depth calculation unit 54 calculates depth data for each region. Note that the depth data is typically proportional to the reciprocal of the correlation value.
The frame depth calculation unit 43 uses the stored correlation values in units of lines, totals the reciprocals of the correlation values for each line of the image, calculates the average value for each line, and calculates the depth degree of the entire image. . The frame depth storage unit 107 stores depth information when image data of the frame is reproduced.
In the operation image processing apparatus configured as described above, frame correction is performed to reduce the processing burden or to save the amount of frame code data. I try to do it. For this reason, as described above, the depth motion amount is evaluated as the motion amount.

図3は第1の実施形態の動画像処理装置における奥行き動き量によるフレーム間引き制御の処理を示したフローチャートである。
この場合は、先ず、三次元画像データである右眼用と左眼用の画像データをライン毎に入力し(S1)、夫々の画像データのライン毎の相関値を算出する(S2)。次に、前記相関値の逆数を画像のライン毎の奥行き度合いとし(S3)、前記相関値の逆数を画像のライン毎に集計してライン毎の平均値を算出して領域の奥行き度合いとする(S4)。
次に、ステップS5において、領域内の全ての画像に対して上記ステップS1〜S4の処理を行った否か判断し、領域内の全ての画像に対して行っていなければ(S5でN)、ステップS1に戻って処理を繰り返し行う。
一方、ステップS5において領域内の全ての画像に対して上記ステップS1〜S4の処理が行われたと判断した場合は(S5でY)、続くステップS6において全領域に対して行ったか否かの判断を行い、全領域に対して領域毎に行っていなければ(S6でN)、領域を変更した後(S7)、ステップS1に戻って再度処理を行う。
そして、全領域に対して領域毎に行ったと判断した場合(S6でY)、ステップS8に進み、必要であればフレーム画像の奥行き度合いの平均値と予め定めた閾値とを比較して、そのフレーム画像の奥行き(度合い)評価値を決定する(S8)。例えば、ある第1閾値より小さければ→奥行き評価値=小と判定し、ある第1閾値より大きければ→奥行き評価値=大と判定し、それ以外であれば→奥行き評価値=中と判定する。
次に、フレーム画像データの奥行き評価値を保存し(S9)、フレーム画像データの奥行き評価値と比較して奥行き変化の大小/奥行き方向の増加減少を識別する(S10)。
例えば、N=|該画像フレームの奥行き値評価値−前画像フレームの奥行き評価値|であり、Nがある第1閾値より小さければ→奥行き変化=小と判定、Nがある第2閾値より大きければ→奥行き変化=大と判定、それ以外であれば→奥行き変化=中と判定する。
次に、ステップS11において、フレーム画像データの動き量(奥行き方向の動き量)の変化が、予め設定した変化量より小さいか否かの判別を行い、奥行き変化が小さければ(S11でY)、そのフレーム画像データを削除(フレーム間引き)して(S12)、ステップS13に進む。
一方、ステップS11に否定結果が得られたときは(S11でN)、ステップS12においてフレーム画像データを削除することなくステップS13に進む。
ステップS13においては、全てのフレームの処理が終わったか否かの判断を行い全てのフレームの処理が終わっていなければ、ステップS1に戻る。一方、全てのフレーム処理が終わっていれば処理を終了する。
FIG. 3 is a flowchart showing the frame thinning control process based on the depth motion amount in the moving image processing apparatus according to the first embodiment.
In this case, first, image data for right eye and left eye, which is three-dimensional image data, is input for each line (S1), and a correlation value for each line of the respective image data is calculated (S2). Next, the reciprocal of the correlation value is set as a depth degree for each line of the image (S3), and the reciprocal of the correlation value is totaled for each line of the image to calculate an average value for each line to obtain a depth degree of the region. (S4).
Next, in step S5, it is determined whether or not the processing in steps S1 to S4 has been performed on all the images in the region. If not performed on all the images in the region (N in S5), Returning to step S1, the process is repeated.
On the other hand, if it is determined in step S5 that the processing in steps S1 to S4 has been performed on all the images in the region (Y in S5), it is determined whether or not the processing has been performed on the entire region in subsequent step S6. If the process is not performed for each area (N in S6), the area is changed (S7), and the process returns to step S1 to perform the process again.
If it is determined that the process has been performed for each region (Y in S6), the process proceeds to step S8, and if necessary, the average value of the depth degree of the frame image is compared with a predetermined threshold value. A depth (degree) evaluation value of the frame image is determined (S8). For example, if it is smaller than a certain first threshold, it is determined that the depth evaluation value is small, if it is larger than a certain first threshold, it is determined that the depth evaluation value is large, and otherwise, it is determined that the depth evaluation value is medium. .
Next, the depth evaluation value of the frame image data is stored (S9), and the magnitude of the depth change / increase / decrease in the depth direction is identified as compared with the depth evaluation value of the frame image data (S10).
For example, if N = | depth value evaluation value of the image frame−depth evaluation value of the previous image frame |, and N is smaller than a certain first threshold, it is determined that the depth change = small, and N is larger than a certain second threshold. → Depth change = large, otherwise it is determined → Depth change = medium.
Next, in step S11, it is determined whether or not the change in the amount of motion of the frame image data (the amount of motion in the depth direction) is smaller than a preset amount of change. If the depth change is small (Y in S11), The frame image data is deleted (frame thinning) (S12), and the process proceeds to step S13.
On the other hand, when a negative result is obtained in step S11 (N in S11), the process proceeds to step S13 without deleting the frame image data in step S12.
In step S13, it is determined whether or not all the frames have been processed. If all the frames have not been processed, the process returns to step S1. On the other hand, if all the frame processes have been completed, the process ends.

このように第1の実施形態の動画像処理装置では、右眼用と左眼用の二つの画像データ間の相関を算出し、算出した相関値により三次元画像の奥行き度合いを推定する。そして奥行き度合いが予め設定された設定値よりも小さいか否かの判定を行い、動き量が小さいと判定した場合にフレーム補正、この場合はフレーム画像データを間引いて再生するようにしている。なお、上記したフレーム間引き制御の処理において、動き量を算出する際に、奥行き方向の動き量だけでなく、二次元平面方向の動きを評価することによって該動き量を評価することもできる。
ここで、本実施形態の動画像処理装置では、三次元画像データを再生した場合の奥行き方向の動きによって動き量を推定するようにしている。奥行き方向の動き量を推定するのに右眼用と左眼用の二つの画像データの相関を用いる。
本実施形態における右眼用と左眼用の二つの画像データの相関の計算は、以下の式に従って算出する。
S(y)は、ある画像y番目のライン(yは0〜ly-1の範囲内の数値とする)の相関値である。

Figure 2007074042
ここで、画素の(x,y)は座標値であり、I(x,y)は画像Iの座標(x,y)の値であり、J(x,y)は画像Jの座標(x,y)の値である。画像は、xの最大値がlx-1、yの最大値がly-1よりなる。
なお、相関値は必ずしも上記に示すような算出式(式1)により求めなくてもよく、画像データ間のデータ値の近さが算出できればよく、例えば、あるy番目のラインの相関S(y)は、以下の式2により求めてよい。その場合はより簡潔になる。
相関値S(y)は、
Figure 2007074042
As described above, in the moving image processing apparatus according to the first embodiment, the correlation between the two image data for the right eye and the left eye is calculated, and the depth degree of the three-dimensional image is estimated based on the calculated correlation value. Then, it is determined whether or not the depth degree is smaller than a preset setting value. When it is determined that the amount of motion is small, frame correction is performed. In this case, frame image data is thinned out and reproduced. In the above-described frame thinning control process, when calculating the amount of motion, the amount of motion can be evaluated by evaluating not only the amount of motion in the depth direction but also the motion in the two-dimensional plane direction.
Here, in the moving image processing apparatus of the present embodiment, the amount of motion is estimated based on the movement in the depth direction when 3D image data is reproduced. The correlation between two image data for the right eye and the left eye is used to estimate the amount of motion in the depth direction.
In the present embodiment, the correlation between the two image data for the right eye and the left eye is calculated according to the following equation.
S (y) is a correlation value of a y-th line of an image (y is a numerical value in the range of 0 to ly-1).
Figure 2007074042
Here, (x, y) of the pixel is a coordinate value, I (x, y) is a value of the coordinate (x, y) of the image I, and J (x, y) is a coordinate of the image J (x , Y). In the image, the maximum value of x is 1x-1, and the maximum value of y is ly-1.
Note that the correlation value does not necessarily have to be obtained by the calculation formula (formula 1) as described above, and it is only necessary to calculate the closeness of the data value between the image data. For example, the correlation S (y of a certain y-th line) ) May be obtained by the following equation 2. In that case it becomes more concise.
The correlation value S (y) is
Figure 2007074042

また、奥行き度合いの算出は次のような関係式により推定する。
奥行き度合いの算出式は、
相関値<S→奥行き度合い=大
相関値>S→奥行き度合い=小 ・・・式3
上記図3に示した例では、画像領域毎の奥行きを算出し、その平均値を画像全体の奥行きとして推定した。また相関値は予め与えられた値Sと比較して小さかった場合に奥行き度合いが大きいと推定し、相関値が予め与えられた値Sより大きかった場合に奥行き度合いが小さいと推定した。
また奥行き方向の動き量は、奥行き度合いの時間変化、すなわち、フレーム単位の奥行き度合いの変化によって推定する。
ところで、上記した第1の実施形態の動画像処理装置においては、奥行き方向だけの動き量の推定について言及したが、現実には二次元平面上の動きもある。
そこで、次に第2の実施形態として奥行き方向だけでなく二次元平面方向の動きを含めて動き量を推定することで、三次元方向の動き量の推定精度を向上することができる動画像処理装置について説明する。即ち、動き量の算出の場合に、奥行き方向の動き量だけでなく、二次元平面方向の動きを評価することによって動き量を推定する動画像処理装置を説明する。
Further, the depth degree is estimated by the following relational expression.
The formula for calculating the depth is
Correlation value <S → depth degree = large Correlation value> S → depth degree = small Expression 3
In the example shown in FIG. 3, the depth for each image region is calculated, and the average value is estimated as the depth of the entire image. Further, when the correlation value is smaller than the predetermined value S, the depth degree is estimated to be large, and when the correlation value is larger than the predetermined value S, the depth degree is estimated to be small.
Also, the amount of motion in the depth direction is estimated from a change in depth with time, that is, a change in depth in units of frames.
By the way, in the moving image processing apparatus of the first embodiment described above, the estimation of the motion amount only in the depth direction is mentioned, but in reality there is also a motion on a two-dimensional plane.
Therefore, in the second embodiment, the moving image processing that can improve the estimation accuracy of the motion amount in the three-dimensional direction by estimating the motion amount including the motion in the two-dimensional plane direction as well as the depth direction. The apparatus will be described. That is, a moving image processing apparatus that estimates the amount of motion by evaluating not only the amount of motion in the depth direction but also the motion in the two-dimensional plane direction when calculating the amount of motion will be described.

図4は、第2の実施形態に係る動画像処理装置の奥行き度合い算出部と、周辺部の構成を示した図である。なお、図2と同一部位には同一符号を付して説明は省略する。
この図に示す奥行き度合い算出部102は、領域毎画像抽出部41、画像領域毎奥行き算出部42、フレーム奥行き算出部43、画像データ保存部44、画像領域データ保存部45、領域毎奥行き保存部46、画面内動き量算出部81、フレーム奥行き方向動き量算出部82により構成される。
この場合は、画面内動き量算出部81は、三次元動画像データを分析して二次元平面方向の動きを推定する。例えば、三次元動画像データを符号化処理部のウェーブレット変換処理部でウェーブレット変換し、1LHサブ・バンド成分の符号量と、1HLサブ・バンド成分の符号量とで二次元平面方向の動き量を推定する。
奥行き方向の動き量だけでなく、二次元平面方向の動きを評価することによって動き量の推定精度を向上させている。勿論、動き量の推定の方法を処理速度要求によって切り替えても構わない。例えば、高速な処理が要求されている場合には、奥行き方向の動きだけ、あるいは、二次元平面方向の動きだけで動き量を推定し、そうでない場合に、奥行き方向と二次元平面方向の動きで動き量を推定するようにしても良い。
FIG. 4 is a diagram illustrating a configuration of a depth degree calculation unit and a peripheral unit of the moving image processing apparatus according to the second embodiment. In addition, the same code | symbol is attached | subjected to the same site | part as FIG. 2, and description is abbreviate | omitted.
The depth degree calculation unit 102 shown in this figure includes an image extraction unit 41 for each region, a depth calculation unit 42 for each image region, a frame depth calculation unit 43, an image data storage unit 44, an image region data storage unit 45, and a depth storage unit for each region. 46, an intra-screen motion amount calculation unit 81, and a frame depth direction motion amount calculation unit 82.
In this case, the in-screen motion amount calculation unit 81 analyzes the 3D moving image data and estimates the motion in the 2D plane direction. For example, wavelet transform is performed on the three-dimensional moving image data by the wavelet transform processing unit of the encoding processing unit, and the motion amount in the two-dimensional plane direction is determined by the code amount of the 1LH sub-band component and the code amount of the 1HL sub-band component. presume.
The estimation accuracy of the motion amount is improved by evaluating not only the motion amount in the depth direction but also the motion in the two-dimensional plane direction. Of course, the motion amount estimation method may be switched depending on the processing speed request. For example, when high-speed processing is required, the amount of motion is estimated only by movement in the depth direction or only by movement in the two-dimensional plane direction. Otherwise, movement in the depth direction and two-dimensional plane direction is estimated. It is also possible to estimate the amount of motion.

図5は、奥行き動き量によるフレーム間引き処理の概念説明図である。
本実施形態では、三次元表示における奥行き方向の動きが小さいときに該フレームを削除して(フレーム間引きして)、処理負担を軽減、あるいは、フレー符号データの保存量を節約している。即ち、本実施形態においては、画像データを編集するのではなく、符号データを編集するところに特徴がある。MPEGなどのフレーム間差分による動画像データの符号化では、符号レベルでフレーム単位に独立に符号化されていないので、フレームを間引くことを簡単に実現することはできない。これに対して、本実施形態では、Motion−JPEG2000符号化によりフレーム間独立で符号化することによって符号レベルでのフレームデータを削減することを容易に実現することができる。
尚、奥行き方向の動き量推定については、本出願人が先に出願した特願2005−202358にて詳述している。
次に、本発明の奥行き動き量によるフレーム符号量削減制御方式について説明する。
なお、その場合の動画像処理装置の構成は、図2に示した動画像処理装置により実現できるため、図示は省略するが、フレーム符号データ編集部104の動き量が小さいと判断されたフレーム画像データを間引いて再生する機能を備えている点に特徴がある。
FIG. 5 is a conceptual explanatory diagram of the frame thinning process based on the depth motion amount.
In this embodiment, when the movement in the depth direction in the three-dimensional display is small, the frame is deleted (thinning out the frames) to reduce the processing load or save the storage amount of the frame code data. That is, the present embodiment is characterized in that the code data is edited instead of the image data. In the encoding of moving image data by inter-frame difference such as MPEG, it is not possible to easily realize thinning out frames because the encoding is not performed independently for each frame at the code level. On the other hand, in the present embodiment, it is possible to easily reduce the frame data at the code level by encoding independently between frames by Motion-JPEG2000 encoding.
The depth direction motion amount estimation is described in detail in Japanese Patent Application No. 2005-202358 filed earlier by the present applicant.
Next, the frame code amount reduction control method based on the depth motion amount of the present invention will be described.
Note that the configuration of the moving image processing apparatus in that case can be realized by the moving image processing apparatus shown in FIG. 2, and is not shown in the figure, but the frame image determined that the amount of motion of the frame code data editing unit 104 is small. A feature is that it has a function to thin out and reproduce data.

図6は、第3の実施形態の動画像処理装置における奥行き動き量によるフレーム符号量の削減処理を示したフローチャートである。なお、図3と同一処理には同一符号を付して詳細な説明は省略する。
この場合も、先ず、三次元画像データである右眼用と左眼用の画像データをライン毎に入力し(S1)、夫々の画像データのライン毎の相関値を算出する(S2)。次に、前記相関値の逆数を画像のライン毎の奥行き度合いとし(S3)、前記相関値の逆数を画像のライン毎に集計してライン毎の平均値を算出して領域の奥行き度合いとする(S4)。
次に、ステップS5において、領域内の全ての画像に対して上記ステップS1〜S4の処理を行った否か判断し、領域内の全ての画像に対して行っていなければ(S5でN)、ステップS1に戻って処理を繰り返し行う。
一方、ステップS5において領域内の全ての画像に対して上記ステップS1〜S4の処理が行われたと判断した場合は(S5でY)、続くステップS6において全領域に対して行ったか否かの判断を行い、全領域に対して領域毎に行っていなければ(S6でN)、領域を変更した後(S7)、ステップS1に戻って再度処理を行う。
そして、全領域に対して領域毎に行ったと判断した場合(S6でY)、ステップS8に進み、必要であればフレーム画像の奥行き度合いの平均値と予め定めた閾値とを比較して、そのフレーム画像の奥行き(度合い)評価値を決定する(S8)。
次に、フレーム画像データの奥行き評価値を保存し(S9)、フレーム画像データの奥行き評価値と比較して奥行き変化の大小/奥行き方向の増加減少を識別する(S10)。
次に、ステップS21において、フレーム画像データの動き量(奥行き方向の動き量)の変化が、予め設定した変化量より小さいか否かの判別を行い、奥行き変化が小さければ(S11でY)、そのフレーム画像データの符号量を削減して(S21)、ステップS13に進む。
一方、ステップS11に否定結果が得られたときは(S11でN)、ステップS21においてフレーム画像データを削除することなくステップS13に進む。
ステップS13においては、全てのフレームの処理が終わったか否かの判断を行い全てのフレームの処理が終わっていなければ、ステップS1に戻る。一方、全てのフレーム処理が終わっていれば処理を終了する。
FIG. 6 is a flowchart illustrating a frame code amount reduction process based on the depth motion amount in the moving image processing apparatus according to the third embodiment. The same processes as those in FIG. 3 are denoted by the same reference numerals, and detailed description thereof is omitted.
Also in this case, first, image data for right eye and left eye, which is three-dimensional image data, is input for each line (S1), and a correlation value for each line of each image data is calculated (S2). Next, the reciprocal of the correlation value is set as a depth degree for each line of the image (S3), and the reciprocal of the correlation value is totaled for each line of the image to calculate an average value for each line to obtain a depth degree of the region. (S4).
Next, in step S5, it is determined whether or not the processing in steps S1 to S4 has been performed on all the images in the region. If not performed on all the images in the region (N in S5), Returning to step S1, the process is repeated.
On the other hand, if it is determined in step S5 that the processing in steps S1 to S4 has been performed on all the images in the region (Y in S5), it is determined whether or not the processing has been performed on the entire region in subsequent step S6. If the process is not performed for each area (N in S6), the area is changed (S7), and the process returns to step S1 to perform the process again.
If it is determined that the process has been performed for each region (Y in S6), the process proceeds to step S8, and if necessary, the average value of the depth degree of the frame image is compared with a predetermined threshold value. A depth (degree) evaluation value of the frame image is determined (S8).
Next, the depth evaluation value of the frame image data is stored (S9), and the magnitude of the depth change / increase / decrease in the depth direction is identified as compared with the depth evaluation value of the frame image data (S10).
Next, in step S21, it is determined whether or not the change in the amount of motion of the frame image data (the amount of motion in the depth direction) is smaller than a preset amount of change. If the depth change is small (Y in S11), The code amount of the frame image data is reduced (S21), and the process proceeds to step S13.
On the other hand, when a negative result is obtained in step S11 (N in S11), the process proceeds to step S13 without deleting the frame image data in step S21.
In step S13, it is determined whether or not all the frames have been processed. If all the frames have not been processed, the process returns to step S1. On the other hand, if all the frame processes have been completed, the process ends.

図7は奥行き動き量によるフレーム符号量を削減する処理の概念説明図である。
第3の実施形態では、三次元表示における奥行き方向の動きが小さいときにフレーム符号量を削除して、処理負担を軽減、あるいは、フレーム符号データの保存量を節約している。
第3の実施形態においては、画像データを編集するのではなく、符号データを編集するところに特徴がある。その場合、MPEGなどのフレーム間差分による動画像データの符号化では、符号レベルでフレーム単位に独立に符号化されていないので、フレーム符号データの編集を簡単に実現することはできない。そこで、本実施形態では、Motion−JPEG2000符号化によりフレーム間独立で符号化することによって符号レベルでのフレーム符号量を削減することを容易に実現できる。
次に、領域毎に奥行き方向の動き量推定方法について説明する。
本実施形態の動画像処理装置では、一部の画像領域を調べて動き量を推定し、該動き量に基づいてフレーム補正することもできる。一部の画像領域を調べるだけであるので処理効率を高めることができる。
本実施形態では、前述した動き量推定のための相関値の算出は、例えば、(式1)あるいは(式2)において、先頭ラインからいくつかのライン(yn)までのラインについてΣ(y=0〜yn)S(y)を算出して、画像全体の相関値として推定する。
ここで、一部の画像領域は、推定精度が重要とあるような関心領域であったり、あるいは、処理効率を優先し先に読み込んだ画像領域の画像データの相関を計算するのであっても構わない。全ての画像データを分析しないで済ますことは、処理効率を向上させるという大きな効果がある。
FIG. 7 is a conceptual explanatory diagram of a process of reducing the frame code amount based on the depth motion amount.
In the third embodiment, when the motion in the depth direction in the three-dimensional display is small, the frame code amount is deleted to reduce the processing burden or save the storage amount of the frame code data.
The third embodiment is characterized in that the code data is edited instead of the image data. In this case, in the encoding of moving image data using inter-frame differences such as MPEG, it is not possible to easily edit the frame code data because it is not encoded independently for each frame at the code level. Therefore, in the present embodiment, it is possible to easily reduce the frame code amount at the code level by encoding independently between frames by Motion-JPEG2000 encoding.
Next, a motion amount estimation method in the depth direction for each region will be described.
In the moving image processing apparatus of the present embodiment, a motion amount is estimated by examining a part of an image area, and frame correction can be performed based on the motion amount. Since only a part of the image area is examined, the processing efficiency can be improved.
In the present embodiment, the above-described calculation of the correlation value for motion amount estimation is performed, for example, in (Expression 1) or (Expression 2) with respect to a line from the first line to several lines (yn) by Σ (y = 0 to yn) S (y) is calculated and estimated as the correlation value of the entire image.
Here, a part of the image regions may be a region of interest where the estimation accuracy is important, or the correlation between the image data of the image regions read in advance may be calculated giving priority to the processing efficiency. Absent. Not having to analyze all the image data has a great effect of improving the processing efficiency.

図8は、第4の実施形態の画像処理装置における画像属性毎に奥行き度合いを算出する算出処理ブロックの構成を示した図である。なお、図2と同一部位には同一符号を付して説明は省略する。
図8に示す動画像処理装置は、三次元画像入力部101、画像データ保存部12、属性毎領域抽出部13、属性画像領域データ保存部14、画像属性毎奥行き算出部15、奥行きデータ保存部16により構成される。
さらに画像属性毎奥行き算出部15は、画像属性毎画像抽出部21、ライン毎画像データ抽出部22、相関算出部23、奥行き算出部24、ライン毎画像データ保存部25、相関データ保存部26により構成されている。
三次元画像入力部101では右眼用と左眼用の三次元画像データを読み込み、属性毎領域抽出部13では右眼用と左眼用夫々の画像属性毎に領域抽出を行う。画像属性毎奥行き算出部15では、画像属性毎画像抽出部21にて属性領域の画像データを読み込み、ライン毎画像データ抽出部22で画像データをライン単位で読み込み、相関算出部23で、ライン単位で相関値を算出する。そして、奥行き算出部23で奥行きデータを算出する。相関が算出されたらライン単位の相関値を相関データ保存部26に保存する。
奥行き算出部24では、属性領域の画像データが保存されたライン単位の相関値を用いて奥行き度合いを算出する。また、奥行き算出部24では保存されたライン単位の相関値を用いて相関値の逆数を画像のライン毎に集計し、ライン毎の平均値を算出し、画像全体の奥行き度合いを算出する。奥行きデータ保存部16には画像属性領域毎に算出された奥行き情報が保存される。
FIG. 8 is a diagram illustrating a configuration of a calculation processing block that calculates a depth degree for each image attribute in the image processing apparatus according to the fourth embodiment. In addition, the same code | symbol is attached | subjected to the same site | part as FIG. 2, and description is abbreviate | omitted.
The moving image processing apparatus shown in FIG. 8 includes a three-dimensional image input unit 101, an image data storage unit 12, an attribute region extraction unit 13, an attribute image region data storage unit 14, an image attribute depth calculation unit 15, and a depth data storage unit. 16.
Further, the image attribute depth calculation unit 15 includes an image attribute image extraction unit 21, a line image data extraction unit 22, a correlation calculation unit 23, a depth calculation unit 24, a line image data storage unit 25, and a correlation data storage unit 26. It is configured.
The three-dimensional image input unit 101 reads right-eye and left-eye three-dimensional image data, and the attribute-specific region extraction unit 13 performs region extraction for each of the right-eye and left-eye image attributes. In the image attribute depth calculation unit 15, the image attribute image extraction unit 21 reads the image data of the attribute area, the line image data extraction unit 22 reads the image data in units of lines, and the correlation calculation unit 23 performs line units. To calculate the correlation value. The depth calculation unit 23 calculates depth data. When the correlation is calculated, the correlation value for each line is stored in the correlation data storage unit 26.
The depth calculation unit 24 calculates the degree of depth using the correlation value for each line in which the image data of the attribute area is stored. In addition, the depth calculation unit 24 uses the stored correlation values in units of lines to total the reciprocal of the correlation values for each line of the image, calculates an average value for each line, and calculates the depth degree of the entire image. The depth data storage unit 16 stores depth information calculated for each image attribute area.

図9は、上記した三次元画像領域毎に奥行きを算出する原理図である。
右眼用と左眼用の二つの画像データに属性毎の領域データに対して相関算出部23において相関算出処理を施す。この場合は、相関算出部23において右眼用と左眼用の二つの画像データの同じ領域の画像データ同士の相関を算出している。従って、画像属性毎の領域の算出は右眼用と左眼用の二つの画像データの中で一つの画像データに対してだけ画像属性の領域を算出すればよい。
図10は第4の実施形態として画像属性毎に奥行き度合いを算出する算出処理を示したフローチャートである。
この場合は、右眼用と左眼用の三次元画像データを入力し(S41)、右眼用と左眼用どちらかの三次元画像データを分析し属性毎の領域を算出する(S42)。
次に、右眼用と左眼用の三次元画像データのライン毎に入力し(S43)、夫々の画像データをライン毎に相関値を算出する(S44)。そして、相関値の逆数を画像のライン毎の奥行き度合いとし(S45)、相関値の逆数を画像のライン毎に集計しライン毎の平均値を算出して該領域の奥行き度合いとする(S46)。
そして続くステップS47において、領域内の全ての画像を行ったかどうかの判断を行い、領域内の全ての画像に対して行っていなければ(S47でN)、ステップS43に戻って処理を行う。
一方、ステップS47において領域内の全ての画像に行ったと判断した場合は(S47でY)、続くステップS48において全領域に対して行った否かの判断を行い、全領域に対して領域毎に行っていなければ(S48でN)、領域を変更した後(S49)、ステップS43に戻って再度処理を行う。一方、全領域に対して領域毎に行っていれば(S48でY)、処理を終了する。
FIG. 9 is a principle diagram for calculating the depth for each three-dimensional image region described above.
The correlation calculation unit 23 performs correlation calculation processing on the area data for each attribute of the two image data for the right eye and the left eye. In this case, the correlation calculation unit 23 calculates the correlation between the image data in the same region of the two image data for the right eye and the left eye. Therefore, the region for each image attribute may be calculated by calculating the image attribute region for only one image data out of the two image data for the right eye and the left eye.
FIG. 10 is a flowchart showing a calculation process for calculating the depth degree for each image attribute as the fourth embodiment.
In this case, right-eye and left-eye 3D image data is input (S41), and right-eye or left-eye 3D image data is analyzed to calculate a region for each attribute (S42). .
Next, it inputs for every line of the three-dimensional image data for right eyes and left eyes (S43), and calculates a correlation value for each line of each image data (S44). Then, the reciprocal of the correlation value is set as the depth degree for each line of the image (S45), the reciprocal of the correlation value is totaled for each line of the image, and the average value for each line is calculated to obtain the depth degree of the area (S46). .
In subsequent step S47, it is determined whether or not all the images in the region have been performed. If not performed for all the images in the region (N in S47), the process returns to step S43 for processing.
On the other hand, if it is determined in step S47 that the image has been applied to all the images in the region (Y in S47), it is determined in step S48 whether or not the operation has been performed on all regions, and the entire region is determined for each region. If not (N in S48), after changing the area (S49), the process returns to step S43 to perform the process again. On the other hand, if the process is performed for each region with respect to all regions (Y in S48), the process is terminated.

次に、JPEG2000における符号レベルでのフレーム補正について説明する。
先に説明したように、フレーム画像データが、Motion−JPEG2000(ISO/IEC 15444−1)規格に基づき符号化あるいは復号化されていると、Motion−JPEG2000では、フレーム単位に独立して扱えるため、本発明の方式を容易に適応することができ有効である。特に、符号レベルで動画像のフレームを一部削減するとか、符号量を削減することができ有効である。
また、符号化は、JPEG2000で符号化されていると、後述するような、動き量を推定する場合にウェーブレット係数符号データを分析することによって、フレーム単位で容易に実施できる。
MotionJPEG2000という規格は、上記JPEG2000形式で符号化された静止画像を連続して再生するものである。そこで、まず、簡潔に「JPEG2000アルゴリズム」について説明する。
Next, frame correction at a code level in JPEG 2000 will be described.
As described above, when frame image data is encoded or decoded based on the Motion-JPEG2000 (ISO / IEC 15444-1) standard, Motion-JPEG2000 can handle each frame independently. The method of the present invention can be easily applied and is effective. In particular, it is effective to reduce a part of a frame of a moving image at a code level or to reduce a code amount.
Also, when encoding is performed with JPEG2000, the encoding can be easily performed in units of frames by analyzing wavelet coefficient code data when estimating the amount of motion as described later.
The standard called Motion JPEG 2000 is for continuously reproducing still images encoded in the JPEG 2000 format. First, the “JPEG2000 algorithm” will be briefly described.

JPEG2000(ISO/IEC 15444−1)規格の符号化は、おおよそ以下の手順でなされる。
(1)インターレース画像のフレームデータを、Y、Cr、Cbの色成分毎のデータに変換する。
各色成分の色データに対して
(2)2次元離散ウェーブレット変換を施す。
(3)得られるウェーブレット係数に、JPEG2000に規定のスカラ量子化処理を施す。
(4)スカラ量子化されたデータに対しJPEG2000に規定のエントロピー符号化処理(いわゆる係数モデリングによる算術符号化処理)を施す。
全ての色データに対して(2)〜(4)の処理を施した後、
(5)JPEG2000で規定する符号列を生成する。
復号化処理はこの逆の手順である。
勿論、これらの処理は、ハードウェア回路により実現しても良い。処理の高速化が図られる。なお、JPEG2000に準拠する符号化処理を全てハードウェア回路で実現する動画像処理装置は、既に存在する。
Encoding according to the JPEG2000 (ISO / IEC 15444-1) standard is performed in the following procedure.
(1) The frame data of the interlaced image is converted into data for each color component of Y, Cr, and Cb.
(2) Two-dimensional discrete wavelet transform is performed on the color data of each color component.
(3) The obtained wavelet coefficient is subjected to a scalar quantization process specified in JPEG2000.
(4) The entropy encoding process (arithmetic encoding process based on so-called coefficient modeling) defined in JPEG2000 is performed on the scalar quantized data.
After performing the processing (2) to (4) on all color data,
(5) A code string defined by JPEG2000 is generated.
The decoding process is the reverse procedure.
Of course, these processes may be realized by a hardware circuit. The processing speed can be increased. Note that there is already a moving image processing apparatus that implements all the encoding processing compliant with JPEG2000 with a hardware circuit.

図11はJPEG2000の基本となる階層符号化アルゴリズムを説明するための図であり、色空間変換・逆変換部110、2次元ウェーブレット変換・逆変換部111、量子化・逆量子化部112、エントロピー符号化・復号化部113、タグ処理部114により構成されている。JPEGアルゴリズムと比較して、最も大きく異なる点の一つは変換方法である。JPEGでは離散コサイン変換(DCT:Discrete Cosine Transform)を、階層符号化圧縮伸長アルゴリズムでは離散ウェーブレット変換(DWT:Discrete Wavelet Transform)を各々用いている。
DWTはDCTに比べて、高圧縮領域における画質が良いという長所が、JPEGの後継アルゴリズムであるJPEG2000で採用された大きな理由の一つとなっている。
また、他の大きな相違点は、後者では、最終段に符号形成をおこなうために、タグ処理部114と呼ばれる機能ブロックが追加されていることである。この部分で、圧縮動作時には圧縮データがコード・ストリームとして生成され、伸長動作時には伸長に必要なコード・ストリームの解釈が行われる。そして、コード・ストリームによって、JPEG2000は様々な便利な機能を実現できるようになった。例えば、図15に示したようにブロック・ベースでのDWTにおけるオクターブ分割に対応した任意の階層(デコンポジション・レベル)で、静止画像の圧縮伸長動作を自由に停止させることができるようになる。
なお、原画像の入出力部分には、色空間変換部が接続されることが多い。例えば、原色系のR(赤)/G(緑)/B(青)の各コンポーネントからなるRGB表色系や、補色系のY(黄)/M(マゼンタ)/C(シアン)の各コンポーネントからなるYMC表色系から、YUVあるいはYCbCr表色系への変換又は逆の変換を行う部分がこれに相当する。
FIG. 11 is a diagram for explaining a hierarchical encoding algorithm that is the basis of JPEG 2000. The color space transform / inverse transform unit 110, the two-dimensional wavelet transform / inverse transform unit 111, the quantization / inverse quantization unit 112, and the entropy. The encoding / decoding unit 113 and the tag processing unit 114 are configured. One of the biggest differences compared to the JPEG algorithm is the conversion method. Discrete cosine transform (DCT) is used in JPEG, and discrete wavelet transform (DWT) is used in the hierarchical coding compression / decompression algorithm.
The advantage that DWT has better image quality in the high compression region than DCT is one of the major reasons adopted in JPEG2000, which is the successor algorithm of JPEG.
Another major difference is that, in the latter case, a function block called a tag processing unit 114 is added in order to perform code formation at the final stage. In this part, compressed data is generated as a code stream during the compression operation, and a code stream necessary for decompression is interpreted during the decompression operation. And with the code stream, JPEG2000 can realize various convenient functions. For example, as shown in FIG. 15, the compression / decompression operation of a still image can be freely stopped at an arbitrary hierarchy (decomposition level) corresponding to octave division in block-based DWT.
A color space conversion unit is often connected to the input / output portion of the original image. For example, the RGB color system composed of R (red) / G (green) / B (blue) components of the primary color system and the Y (yellow) / M (magenta) / C (cyan) components of the complementary color system This corresponds to the part that performs conversion from the YMC color system consisting of the above to the YUV or YCbCr color system or the reverse conversion.

以下、JPEG2000アルゴリズムについて、少し詳しく説明する。
カラー画像は、一般に図12に示すように、原画像の各コンポーネント(ここではRGB原色系)が、矩形をした領域(タイル)によって分割される。そして、個々のタイル、例えば、R00,R01,…,R15/G00,G01,…,G15/B00,B01,…,B15が、圧縮伸長プロセスを実行する際の基本単位となる。従って、圧縮伸長動作は、コンポーネント毎、そしてタイル毎に、独立に行なわれる。
符号化時には、各コンポーネントの各タイル120のデータが、図11の色空間変換部110に入力され、色空間変換を施されたのち、2次元ウェーブレット変換部111で2次元ウェーブレット変換(順変換)が適用されて周波数帯に空間分割される。
図13には、デコンポジション・レベル数が3の場合の各デコンポジション・レベルにおけるサブ・バンドを示している。即ち、原画像のタイル分割によって得られたタイル原画像(0LL)(デコンポジション・レベル0)に対して、2次元ウェーブレット変換を施し、デコンポジション・レベル1に示すサブ・バンド(1LL,1HL,1LH,1HH)を分離する。そして引き続き、この階層における低周波成分1LLに対して、2次元ウェーブレット変換を施し、デコンポジション・レベル2に示すサブ・バンド(2LL,2HL,2LH,2HH)を分離する。順次同様に、低周波成分2LLに対しても、2次元ウェーブレット変換を施し、デコンポジション・レベル3に示すサブ・バンド(3LL,3HL,3LH,3HH)を分離する。
Hereinafter, the JPEG2000 algorithm will be described in detail.
In general, as shown in FIG. 12, in a color image, each component (in this case, the RGB primary color system) of the original image is divided by a rectangular area (tile). Each tile, for example, R00, R01, ..., R15 / G00, G01, ..., G15 / B00, B01, ..., B15, is a basic unit for executing the compression / decompression process. Therefore, the compression / decompression operation is performed independently for each component and for each tile.
At the time of encoding, the data of each tile 120 of each component is input to the color space conversion unit 110 in FIG. 11 and subjected to color space conversion, and then the two-dimensional wavelet conversion unit 111 performs two-dimensional wavelet conversion (forward conversion). Is applied and spatially divided into frequency bands.
FIG. 13 shows sub-bands at each decomposition level when the number of decomposition levels is three. That is, the tile original image (0LL) (decomposition level 0) obtained by the tile division of the original image is subjected to two-dimensional wavelet transform, and sub-bands (1LL, 1HL, 1LH, 1HH). Subsequently, the low-frequency component 1LL in this hierarchy is subjected to two-dimensional wavelet transform to separate sub-bands (2LL, 2HL, 2LH, 2HH) shown in the decomposition level 2. Similarly, the low-frequency component 2LL is also subjected to two-dimensional wavelet transform to separate the sub-bands (3LL, 3HL, 3LH, 3HH) shown in the decomposition level 3.

さらに図15では、各デコンポジション・レベルにおいて符号化の対象となるサブ・バンドを、グレーで表してある。
例えば、デコンポジション・レベル数を3とした時、グレーで示したサブ・バンド(3HL,3LH,3HH,2HL,2LH,2HH,1HL,1LH,1HH)が符号化対象となり、3LLサブ・バンドは符号化されない。
次いで、指定した符号化の順番で符号化の対象となるビットが定められ、図11の量子化部112で対象ビット周辺のビットからコンテキストが生成される。
量子化の処理が終わったウェーブレット係数は、個々のサブ・バンド毎に、「プレシンクト」と呼ばれる重複しない矩形に分割される。これは、インプリメンテーションでメモリを効率的に使うために導入されたものである。図15に示したように一つのプレシンクトは、空間的に一致した3つの矩形領域からなっている。更に、個々のプレシンクトは、重複しない矩形の「コード・ブロック」に分けられる。これは、エントロピー・コーディングを行う際の基本単位となる。
エントロピー符号化部113(図11参照)では、コンテキストと対象ビットから確率推定によって、各コンポーネントのタイルに対する符号化を行う。こうして、原画像の全てのコンポーネントについて、タイル単位で符号化処理が行われる。
Further, in FIG. 15, the sub-bands to be encoded at each decomposition level are represented in gray.
For example, when the number of decomposition levels is 3, the sub-bands shown in gray (3HL, 3LH, 3HH, 2HL, 2LH, 2HH, 1HL, 1LH, 1HH) are to be encoded, and the 3LL sub-band is Not encoded.
Next, the bits to be encoded are determined in the specified encoding order, and the context is generated from the bits around the target bits in the quantization unit 112 in FIG.
The wavelet coefficients that have undergone the quantization process are divided into non-overlapping rectangles called “precincts” for each sub-band. This was introduced to use memory efficiently in implementation. As shown in FIG. 15, one precinct consists of three rectangular regions that are spatially matched. Further, each precinct is divided into non-overlapping rectangular “code blocks”. This is the basic unit for entropy coding.
The entropy encoding unit 113 (see FIG. 11) performs encoding on the tile of each component by probability estimation from the context and the target bit. In this way, encoding processing is performed in tile units for all components of the original image.

エントロピー符号化部113で形成される符号データの最小単位は、パケットと呼ばれる。パケットは、プログレッシブ順にシーケンス化され、これが画像ヘッダセグメントのなかの1つで示される。パケットは、あるプログレッシブ順データ、例えば、それぞれ、領域、解像度、レイヤ、および色成分によって配列される。即ち、JPEG2000規格では、画質(レイヤ(L))、解像度(R)、コンポーネント(C)、位置(プレシンクト(P))という4つの画像の要素の優先順位を変更することによって、以下に示す5通りのプログレッションが定義されている。
(1)LRCP プログレッション:プレシンクト、コンポーネント、解像度レベル、レイヤの順序に復号されるため、レイヤのインデックスが進む毎に画像全面の画質が改善されることになり、画質のプログレッションが実現出来る。レイヤプログレッションとも呼ばれる。
(2)RLCP プログレッション:プレシンクト、コンポーネント、レイヤ、解像度レベルの順序に復号されるため、解像度のプログレッションが実現出来る。
RPCL プログレッション:レイヤ、コンポーネント、プレシンクト、解像度レベルの順序に復号されるため、RLCP 同様、解像度のプログレッションであるが、特定位置の優先度を高くすることが出来る。
(3)PCRL プログレッション:レイヤ、解像度レベル、コンポーネント、プレシンクトの順序に復号されるため、特定部分の復号が優先されるようになり空間位置のプログレッションが実現出来る。
(4)CPRL プログレッション:レイヤ、解像度レベル、プレシンクト、コンポーネントの順序に復号されるため、例えばカラー画像のプログレッシブ復号の際に最初にグレーの画像を再現するようなコンポーネントのプログレッションが実現出来る。
このようにJPEG2000規格では、画像は領域(タイルまたはプレシンクトといった画像構成要素)、解像度、階層(レイヤ)、色成分に分割され、夫々が独立してパケットとして符号化される。これらのパケットはデコードすることなしに、コード・ストリームから識別され抽出され得るところに特徴がある。
The minimum unit of code data formed by the entropy encoding unit 113 is called a packet. The packets are sequenced in progressive order, which is indicated by one of the image header segments. The packets are arranged by some progressive order data, eg, region, resolution, layer, and color component, respectively. That is, in the JPEG2000 standard, by changing the priority order of the four image elements of image quality (layer (L)), resolution (R), component (C), and position (precinct (P)), the following 5 Street progression is defined.
(1) LRCP progression: Since decoding is performed in the order of precinct, component, resolution level, and layer, the image quality of the entire image is improved each time the layer index is advanced, and the progression of image quality can be realized. Also called layer progression.
(2) RLCP progression: Since the decoding is performed in the order of precinct, component, layer, and resolution level, the progression of resolution can be realized.
RPCL progression: Since decoding is performed in the order of layer, component, precinct, and resolution level, it is a progression of resolution as in RLCP, but the priority of a specific position can be increased.
(3) PCRL progression: Since decoding is performed in the order of layer, resolution level, component, and precinct, decoding of a specific part is prioritized, and progression of spatial position can be realized.
(4) CPRL Progression: Since decoding is performed in the order of layer, resolution level, precinct, and component, for example, when a color image is progressively decoded, a component progression that first reproduces a gray image can be realized.
As described above, in the JPEG2000 standard, an image is divided into regions (image constituent elements such as tiles or precincts), resolutions, hierarchies (layers), and color components, and each is independently encoded as a packet. These packets are characterized in that they can be identified and extracted from the code stream without decoding.

最後にタグ処理部(符号列形成部)は、エントロピコーダ部からの全符号化データを1本のコード・ストリームに結合するとともに、それにタグを付加する処理を行う。
図14には、コード・ストリームの構造を簡単に示した。コード・ストリームの先頭と各タイルを構成する部分タイルの先頭にはヘッダと呼ばれるタグ情報が付加され、その後に、各タイルの符号化データが続く。そして、コード・ストリームの終端には、再びタグが置かれる。
一方、復号化時には、符号化時とは逆に、各コンポーネントの各タイルのコード・ストリームから画像データを生成する。
図11を用いて簡単に説明する。この場合、タグ処理部114は、外部より入力したコード・ストリームに付加されたタグ情報を解釈し、コード・ストリームを各コンポーネントの各タイルのコード・ストリームに分解し、その各コンポーネントの各タイルのコード・ストリーム毎に復号化処理が行われる。
コード・ストリーム内のタグ情報に基づく順番で復号化の対象となるビットの位置が定められると共に、逆量子化部112でその対象ビット位置の周辺ビット(既に復号化を終えている)の並びからコンテキストが生成される。
エントロピー復号化部113で、このコンテキストとコード・ストリームから確率推定によって復号化を行い、対象ビットを生成し、それを対象ビットの位置に書き込む。このようにして復号化されたデータは周波数帯域毎に空間分割されているため、これを2次元ウェーブレット逆変換部111で2次元ウェーブレット逆変換を行うことにより、画像データの各コンポーネントの各タイルが復元される。復元されたデータは色空間逆変換部によって元の表色系のデータに変換される。
このように、JPEG2000の符号データは、5通りのプログレッションをもつパケット単位で階層構成をもつため、階層単位で該階層を構成するパケットを削除することで符号量を減らすことを簡単に行うことができるのである。
Motion−JPEG2000という規格は、上記JPEG2000形式で符号化された静止画像を連続して再生するものである。Motion−JPEG2000のようにフレーム間独立に符号化されているので、フレーム画像が符号化されたフレーム符号を削除することは簡単に実現することができるのである。
Motion−JPEG2000の符号化による符号データ形成後に、符号レベルでフレーム符号データを削除することや、符号データを簡単に編集することができる。
Finally, the tag processing unit (code string forming unit) combines all the encoded data from the entropy coder unit into one code stream and performs processing for adding a tag thereto.
FIG. 14 simply shows the structure of the code stream. Tag information called a header is added to the head of the code stream and the head of the partial tiles constituting each tile, followed by the encoded data of each tile. A tag is again placed at the end of the code stream.
On the other hand, at the time of decoding, contrary to the time of encoding, image data is generated from the code stream of each tile of each component.
This will be briefly described with reference to FIG. In this case, the tag processing unit 114 interprets tag information added to the code stream input from the outside, decomposes the code stream into code streams of each tile of each component, and each tile of each component. Decoding processing is performed for each code stream.
The positions of the bits to be decoded are determined in the order based on the tag information in the code stream, and the inverse quantization unit 112 determines from the sequence of the peripheral bits (that has already been decoded) at the target bit position. A context is created.
The entropy decoding unit 113 performs decoding by probability estimation from the context and the code stream, generates a target bit, and writes it in the position of the target bit. Since the data decoded in this way is spatially divided for each frequency band, the two-dimensional wavelet inverse transform unit 111 performs two-dimensional wavelet inverse transform on each of the tiles of each component of the image data. Restored. The restored data is converted into original color system data by the color space inverse conversion unit.
As described above, since the JPEG 2000 code data has a hierarchical structure in units of packets having five kinds of progression, it is possible to easily reduce the code amount by deleting the packets constituting the hierarchy in units of layers. It can be done.
The standard called Motion-JPEG2000 is to continuously reproduce still images encoded in the JPEG2000 format. Since it is encoded independently between frames as in Motion-JPEG2000, deleting a frame code obtained by encoding a frame image can be easily realized.
After the code data is formed by the Motion-JPEG2000 encoding, the frame code data can be deleted at the code level, or the code data can be easily edited.

次に、二次元平面方向の動き量の推定方法について説明する。
本実施形態では、二次元平面方向の動き量を効率的に判定する複数個の手段を提供する。二次元平面方向の動きが普通以上にあるか否かの判定をする最低限の機能を提供する。
二次元平面方向の動き量の判定とは、画像の物体の移動速度が高速であるか低速であるかを判定するものである。典型的な、二次元平面方向の動き量の推定方式は、フレーム間差分による動き量判定である。二次元平面方向の動き量を判定する手段としては、フレーム間の画像データの差分を用いる。典型的には、前後のフレームの画像データを画素単位で順次比較していってもよい。あるいは、後述するインターレース動画像の再生においては、フレームをフィールドに分解し、フィールド単位で比較してもよい。インターレース画像信号が分解して生成された前後のフィールド間の動き量に基づいて動き量を判定してもよい。フレーム全体のデータよりも少ない量のデータを比較することにより、より効率的である。また、一つおきのデータ間の比較であることから精度も十分にある。
フレーム内の周波数領域のデータ量を比較することにより簡易に二次元平面方向の動き量を推定してもよい。
一般の撮影では殆どの被写体は横方向に移動するという経験則に従い、フレーム内での被写体の横方向の移動速度(高速/低速)を検出し動き量を判定することができる。前者のフレーム間の画像データの差分を用いて判定するよりも、より少ない量のデータを用いて、簡単な演算処理により、上記物体の移動速度(高速/低速)を検出することができる。
Next, a method for estimating the amount of motion in the two-dimensional plane direction will be described.
In this embodiment, a plurality of means for efficiently determining the amount of motion in the two-dimensional plane direction are provided. A minimum function for determining whether or not the movement in the two-dimensional plane direction is more than normal is provided.
The determination of the amount of motion in the two-dimensional plane direction is to determine whether the moving speed of the object in the image is high or low. A typical estimation method of the motion amount in the two-dimensional plane direction is a motion amount determination based on a difference between frames. As a means for determining the amount of motion in the two-dimensional plane direction, a difference in image data between frames is used. Typically, the image data of the previous and subsequent frames may be sequentially compared in units of pixels. Alternatively, in the reproduction of an interlaced moving image to be described later, a frame may be decomposed into fields and compared in units of fields. The amount of motion may be determined based on the amount of motion between fields before and after the interlaced image signal is generated by decomposing. It is more efficient by comparing a smaller amount of data than the entire frame data. Moreover, since it is a comparison between every other data, there is sufficient accuracy.
The amount of motion in the two-dimensional plane direction may be easily estimated by comparing the amount of data in the frequency domain within the frame.
According to an empirical rule that most subjects move in the horizontal direction in general shooting, the amount of movement can be determined by detecting the horizontal movement speed (high speed / low speed) of the subject in the frame. The moving speed (high speed / low speed) of the object can be detected by a simple calculation process using a smaller amount of data than the determination using the difference in image data between the former frames.

ここで、櫛形成分の分析による二次元平面方向の動き量判定について説明する。
図16(a)は、ビデオカメラ等により撮影されるインターレース画像データで構成されるフレームデータについて説明するための図である。夫々の画像データは右眼用と左眼用の三次元画像データである。
このように、撮影の開始時間t0と共にフレーム0の画像のインターレース形式によるスキャンを行いフレーム画像が形成され、さらに、一定時間経過後、例えば、1/60秒後にフレーム1の画像のインターレース形式によるスキャンを行いフレーム画像が形成される。インターレース形式のスキャンは後述するように走査ラインを複数回にわけて行う。そして終了時間tnまでの間に一定時間単位、例えば1/60秒単位で合計n枚のフレームの画像をインターレース形式で形成する。一般に、フレームデータにおいては、奇数フィールドと偶数フィールドの撮影時間の差がある。
図16(b)は、インターレース形式のフレームデータのフィールドデータについて説明するための図である。
図16(b)に示すように、インターレース形式の画像は、1画素のライン(実線で示す走査ライン)をスキャンした後、直ぐ下の画素のライン(点線で示す走査ライン)を飛ばして2画素下のライン(実線で示す走査ライン)をスキャンする。次に、前回スキャンしなかった画素ライン(点線で示す走査ライン)のスキャンを上から行う。このように、あるラインをスキャンしてから直ぐ下の画素のラインをスキャンするのに一定時間、例えば、1/120秒経過している。そのため後述するように、スキャンして読み込まれたインターレース形式のある一つのフレームデータにはスキャン時間の異なる画像が形成されるのである。
図16(b)に示すように、インターレース形式のフレームデータはスキャン時間の異なるフィールドデータに分解することができる。奇数フィールドデータが、奇数走査ラインでスキャンされたデータ(実線で示す走査ライン)であり、偶数フィールドデータが、偶数走査ラインでスキャンされたデータ(点線で示す走査ライン)である。
逆に、奇数フィールドデータ、偶数フィールドデータを合成すれば、一つのフレームデータが生成されることは言うまでもない。すなわち、奇数フィールドデータ及び偶数フィールドデータの画像データをスキャンしたライン毎(上記の例では1画素単位の走査ライン毎)に、交互に並べる(スキャンしていないラインのデータを補充する)ことでフレームデータを形成することができる。この時、前述したように、フレームデータにおいては、奇数フィールドと偶数フィールドのスキャン時間に差があるため、被写体に動きがある場合は、完全に連続的なデータが形成されない。
Here, the determination of the amount of movement in the two-dimensional plane direction by analyzing the comb formation will be described.
FIG. 16A is a diagram for describing frame data composed of interlaced image data captured by a video camera or the like. Each image data is three-dimensional image data for right eye and left eye.
In this way, the frame 0 image is scanned in the interlace format together with the shooting start time t0, and a frame image is formed. After a certain time elapses, for example, 1/60 seconds later, the frame 1 image is scanned in the interlace format. To form a frame image. Interlaced scanning is performed by dividing the scanning line into a plurality of times as will be described later. Then, a total of n frames of images are formed in an interlaced format in a fixed time unit, for example, 1/60 second unit until the end time tn. In general, in frame data, there is a difference in shooting time between an odd field and an even field.
FIG. 16B is a diagram for explaining field data of interlaced frame data.
As shown in FIG. 16B, an interlaced image is obtained by scanning a pixel line (scanning line indicated by a solid line) and then skipping a pixel line immediately below (scanning line indicated by a dotted line) to obtain two pixels. The lower line (scan line indicated by a solid line) is scanned. Next, scanning of pixel lines (scan lines indicated by dotted lines) that were not scanned last time is performed from above. As described above, a certain time, for example, 1/120 second has elapsed since the line of the pixel immediately below after scanning a certain line. Therefore, as will be described later, images having different scan times are formed in one frame data of an interlace format scanned and read.
As shown in FIG. 16B, interlaced frame data can be decomposed into field data having different scan times. The odd field data is data scanned by odd scan lines (scan lines indicated by solid lines), and the even field data is data scanned by even scan lines (scan lines indicated by dotted lines).
Conversely, it goes without saying that one frame data is generated by combining odd field data and even field data. In other words, the image data of the odd field data and the even field data is alternately arranged (supplemented with the data of the unscanned line) for each scanned line (in the above example, for each scanning line of one pixel unit). Data can be formed. At this time, as described above, in the frame data, there is a difference in the scan time between the odd field and the even field, so that when the subject is moving, completely continuous data is not formed.

このようにフレーム画像データがインターレース画像であっても、ライン単位では、右眼用と左眼用の三次元画像データは互いに同じ時刻で同じところを見たときのデータであるので、フィールド分割されたフィールドデータであっても、合成されたフレームデータであっても、右眼用と左眼用の三次元画像データ間での相関を使用して奥行き方向の動き量を推定することも可能なのである。
フレームデータをフィールドデータへ分解して生成された、奇数フィールドデータ内、偶数フィールドデータ内では夫々被写体(画像)はほぼ連続であるが、被写体が高速に動いた場合は、奇数フィールドデータ内の被写体(画像)と偶数フィールドデータ内の被写体(画像)において互いにずれが生ずる。一般に、フレームデータにおいては、奇数フィールドと偶数フィールドの撮影時間の差により横方向の動きが大きい(横方向の動作が速い)ほど、図18で示すように櫛形形状が顕著に現れることになる。横方向の動きが大きい場合にフレームを新たに追加することにより、上述したように簡易な演算で判定できる。
Thus, even if the frame image data is an interlaced image, the right-eye and left-eye three-dimensional image data is data when the same place is viewed at the same time in line units. It is possible to estimate the amount of motion in the depth direction using the correlation between the right-eye and left-eye 3D image data, whether it is field data or synthesized frame data. is there.
In the odd field data and even field data generated by decomposing the frame data into field data, the subject (image) is almost continuous, but if the subject moves at high speed, the subject in the odd field data There is a shift between the (image) and the subject (image) in the even field data. In general, in the frame data, as the movement in the horizontal direction is larger (the movement in the horizontal direction is faster) due to the difference in the shooting time between the odd field and the even field, the comb shape appears more remarkably as shown in FIG. By adding a new frame when the movement in the lateral direction is large, it can be determined by a simple calculation as described above.

先に説明したように、被写体が高速に動いた場合は、奇数フィールドデータ内の被写体(画像)と偶数フィールドデータ内の被写体(画像)が互いにスキャン時間の異なるためにずれることから、高速に横方向に動いた場合、その分だけくし型部分の発生量が増えるのである。
そこで、二次元平面方向の動き量を櫛形成分の量により推定することができる。
即ち、一つのインターレース画像信号が分解されて生成された奇数及び偶数のフィールド間の動き量をくし型の量を計算することによって求める。櫛形成分の量により動き量を推定する機能を提供することにより、一つのフレーム内におけるフィールド間の動きを推定できるので、複数のフレームを調べることなく効率的に画像(フレーム)の動きを推定できる。櫛形ノイズの影響を軽減したなめらかなフレームの追加ができる。
さて、図18に示すくし型のずれの量Lは、被写体のインターレース画像内での移動速度に比例して長くなる。ここで、ノンインターレス画像の画像データを2次元離散ウェーブレット変換して得られる1LHのサブ・バンドの係数値は、横のエッジ成分の合計、即ち、被写体のインターレース画像内での移動速度に比例して増加する。また、1HLのサブ・バンドの係数値は、縦のエッジ成分の合計に比例して係数値が増加するが、一般の撮影では殆どの被写体は横方向に移動するという経験則に従い、被写体の移動速度によって殆ど変化しないものであるとみなせる。そこで、フレーム間の動き量を判断する、より簡易な方法として、1LHのサブ・バンドの係数値の上記特性を利用して、インターレース画像内での被写体の移動速度を判定する。すなわち、ウェーブレット変換手段により得られるウェーブレット係数の内、前記サブ・バンドの係数値に基づいて、前記フレーム間の動き量を判定する。ウェーブレット符号化である場合に1LHサブ・バンド成分の係数値により簡易に動き量が推定できるのである。周波数領域データ比較により二次元平面方向の動き量を判定することができるのである。
As described above, when the subject moves at a high speed, the subject (image) in the odd field data and the subject (image) in the even field data are shifted due to different scan times. If it moves in the direction, the amount of comb-shaped parts will increase accordingly.
Therefore, the amount of movement in the two-dimensional plane direction can be estimated from the amount of comb formation.
That is, the amount of motion between odd and even fields generated by decomposing one interlaced image signal is obtained by calculating a comb type amount. By providing a function that estimates the amount of motion based on the amount of comb formation, it is possible to estimate the motion between fields within one frame, so that the motion of an image (frame) can be estimated efficiently without examining multiple frames. . A smooth frame that reduces the effects of comb noise can be added.
Now, the comb shift amount L shown in FIG. 18 becomes longer in proportion to the moving speed of the subject in the interlaced image. Here, the 1LH sub-band coefficient value obtained by two-dimensional discrete wavelet transform of image data of a non-interlaced image is proportional to the sum of horizontal edge components, that is, the moving speed of the subject in the interlaced image. Then increase. Also, the coefficient value of the 1HL sub-band increases in proportion to the sum of the vertical edge components, but the subject movement follows the empirical rule that most subjects move in the horizontal direction in general shooting. It can be considered that it hardly changes depending on the speed. Therefore, as a simpler method for determining the amount of motion between frames, the moving speed of the subject in the interlaced image is determined using the above characteristics of the coefficient value of the 1 LH sub-band. That is, the amount of motion between the frames is determined based on the coefficient value of the sub-band among the wavelet coefficients obtained by the wavelet transform unit. In the case of wavelet coding, the amount of motion can be easily estimated from the coefficient value of the 1LH sub-band component. The amount of motion in the two-dimensional plane direction can be determined by comparing the frequency domain data.

ところで、インターレース画像内での被写体の移動速度の判定は、サブブロック(JPEG2000規格のコード・ブロック)でもよい。サブ・バンド単位で被写体の移動速度を判定する場合に比べ、サブ・バンドよりも小さな、例えば、32×32画素マトリクスよりなるサブブロック単位での判断結果に基づいて総合的にフレーム内の被写体の移動速度について判定を行うことで、静止画(風景)の中を比較的小さな被写体だけが高速で移動する場合を、正しく認識することができる。即ち、フレームをウェーブレット変換によりサブ・バンドに分割し、さらにサブブロックに分割し、任意のサブブロックの係数値を用いてフレーム間の動き量を判定する。より細かな単位の周波数領域データ比較による動き量を判定することができるのである。
そこで、次に符号量による二次元平面方向の動き量判定について説明する。
上記に示したことは、係数値でなく符号量によっても判断することができる。即ち、前述したことと同様な考え方から、インターレース画像のフレーム画像データを2次元離散ウェーブレット変換により得られるウェーブレット係数の内、特に1LHのサブ・バンドの符号量が、撮像するフレーム内での被写体の横方向の移動速度に応じて増加するのに対し、1HLのサブ・バンドの符号量は、ほぼ一定の値を示すことに着目し、当該特性を利用してフレーム内での被写体の横方向の動き量を判定することができる。
サブ・バンド1LH中の符号量とサブ・バンド1HL中の符号量とを比較する、またはサブ・バンド1LH中の所定のサブブロックの符号量とサブ・バンド1HL中の所定のサブブロックの符号量とを比較することで、前記比較結果に基づいてフレーム間の動き量を判定する。
このとき、サブ・バンド1LH中の符号量とサブ・バンド1HL中の符号量とをサブ・バンドの領域単位で予め決められた順に順次比較し、あるいは、サブ・バンド1LH中の所定のサブブロックの符号量とサブ・バンド1HL中の所定のサブブロックの符号量とをサブブロック単位で予め決められた順に順次比較し、その比較結果に基づいてフレーム間の動き量を判定し、動き量が予め設定された設定値よりある一定値を超えたら動きは大きいと判断し以後の比較を止めることで効率的に動き量を判定することもできる。
By the way, the determination of the moving speed of the subject in the interlaced image may be performed by a sub-block (JPEG 2000 standard code block). Compared to the case where the moving speed of the subject is determined in units of sub-bands, for example, based on the determination result in units of sub-blocks that are smaller than the sub-band, for example, a 32 × 32 pixel matrix, By determining the moving speed, it is possible to correctly recognize a case where only a relatively small subject moves at high speed in a still image (landscape). That is, the frame is divided into sub-bands by wavelet transform, and further divided into sub-blocks, and the amount of motion between frames is determined using coefficient values of arbitrary sub-blocks. The amount of motion can be determined by comparing frequency domain data in finer units.
Therefore, the determination of the amount of motion in the two-dimensional plane direction based on the code amount will be described next.
What has been described above can be determined not by the coefficient value but also by the code amount. That is, from the same idea as described above, the code amount of the sub-band of 1 LH among the wavelet coefficients obtained by performing the two-dimensional discrete wavelet transform on the frame image data of the interlaced image, particularly the subject in the frame to be imaged. Focusing on the fact that the code amount of the 1 HL sub-band shows a substantially constant value, while increasing in accordance with the moving speed in the horizontal direction, the horizontal direction of the subject in the frame is utilized using this characteristic. The amount of movement can be determined.
The code amount in sub-band 1LH is compared with the code amount in sub-band 1HL, or the code amount of a predetermined sub-block in sub-band 1LH and the code amount of a predetermined sub-block in sub-band 1HL And the amount of motion between frames is determined based on the comparison result.
At this time, the code amount in the sub-band 1LH and the code amount in the sub-band 1HL are sequentially compared in a predetermined order in units of sub-band regions, or a predetermined sub-block in the sub-band 1LH And the code amount of a predetermined sub-block in sub-band 1HL are sequentially compared in a predetermined order in units of sub-blocks, and the amount of motion between frames is determined based on the comparison result. It is also possible to efficiently determine the amount of movement by determining that the movement is large when a certain value exceeds a preset value, and stopping the subsequent comparison.

図17は、本発明の第5の実施形態における二次元平面方向の動き量を推定する処理を示したフローチャートである。
この場合は、まず、2次元離散ウェーブレット変換により得られるウェーブレット係数から1LHの係数の絶対値の和であるsum1LHを求める(S51)。次に、1HLの係数の絶対値の和であるsum1HLを求める(S52)。そして、sum1LH/sum1HLの値をフレーム内における被写体の移動速度を表す数値speedとして求める(S53)。上記speedは、フレーム内における被写体の移動速度に略比例して変化すると考えることができる。というのは、上述したように、1LHの係数の値が画像の横方向のエッジ量の増加、即ち、フレーム内での被写体の移動速度の上昇に比例して増えるのに対して、1HLの係数の値が画像の縦方向のエッジ量に比例する値を取り、経験上、被写体は殆どの場合横方向にしか移動しないため、比較的安定した値をとるためである。
次に、ステップS53において求めた係数speedが実験的に定められるしきい値Vth1よりも大きいか否かの判定を行い大きい場合(S53でY)、フレーム内での被写体の移動速度が高速であると判定する。一方、係数speedがしきい値Vth1よりも小さい場合(S53でN)、フレーム内での被写体の移動速度が低速であると判定することができる。
FIG. 17 is a flowchart showing processing for estimating a motion amount in the two-dimensional plane direction according to the fifth embodiment of the present invention.
In this case, first, sum1LH, which is the sum of absolute values of 1LH coefficients, is obtained from the wavelet coefficients obtained by the two-dimensional discrete wavelet transform (S51). Next, sum1HL, which is the sum of absolute values of 1HL coefficients, is obtained (S52). Then, the sum1LH / sum1HL value is obtained as a numerical speed representing the moving speed of the subject in the frame (S53). The speed can be considered to change substantially in proportion to the moving speed of the subject in the frame. This is because, as described above, the value of the 1LH coefficient increases in proportion to the increase in the edge amount in the horizontal direction of the image, that is, the increase in the moving speed of the subject within the frame, whereas the coefficient of 1HL. This value is a value that is proportional to the amount of edge in the vertical direction of the image, and from experience, the subject moves only in the horizontal direction in most cases, and thus takes a relatively stable value.
Next, it is determined whether or not the coefficient speed obtained in step S53 is larger than the experimentally determined threshold value Vth1, and if it is large (Y in S53), the moving speed of the subject within the frame is high. Is determined. On the other hand, when the coefficient speed is smaller than the threshold value Vth1 (N in S53), it can be determined that the moving speed of the subject within the frame is low.

本発明の第1の実施形態の動画像処理装置の奥行き動き量によるフレーム補正をする処理ブロックの構成を示した図である。It is the figure which showed the structure of the process block which performs the flame | frame correction | amendment by the amount of depth movements of the moving image processing apparatus of the 1st Embodiment of this invention. 奥行き方向の動き量を推定するフレーム毎の画像奥行き算出部102の構成を示したブロック図である。It is the block diagram which showed the structure of the image depth calculation part 102 for every flame | frame which estimates the motion amount of a depth direction. 第1の実施形態の動画像処理装置における奥行き動き量によるフレーム間引き制御の処理を示したフローチャートである。It is the flowchart which showed the process of the frame thinning-out control by the depth motion amount in the moving image processing apparatus of 1st Embodiment. 第2の実施形態に係る動画像処理装置の奥行き度合い算出部と、周辺部の構成を示した図である。It is the figure which showed the structure of the depth degree calculation part of a moving image processing device which concerns on 2nd Embodiment, and a peripheral part. 奥行き動き量によるフレーム間引き処理の概念説明図である。It is a conceptual explanatory view of the frame thinning process based on the depth motion amount. 第3の実施形態の動画像処理装置における奥行き動き量によるフレーム符号量の削減処理を示したフローチャートである。It is the flowchart which showed the reduction process of the frame code amount by the depth motion amount in the moving image processing device of 3rd Embodiment. 奥行き動き量によるフレーム符号量を削減する処理の概念説明図である。It is a conceptual explanatory drawing of the process which reduces the frame code amount by a depth motion amount. 第4の実施形態の画像処理装置における画像属性毎に奥行き度合いを算出する算出処理ブロックの構成を示した図である。It is the figure which showed the structure of the calculation process block which calculates the depth degree for every image attribute in the image processing apparatus of 4th Embodiment. 三次元画像領域毎に奥行きを算出する原理図である。It is a principle figure which calculates depth for every three-dimensional image field. 第4の実施形態として画像属性毎に奥行き度合いを算出する算出処理を示したフローチャートである。It is the flowchart which showed the calculation process which calculates the depth degree for every image attribute as 4th Embodiment. JPEG2000の基本となる階層符号化アルゴリズムを説明するための図である。It is a figure for demonstrating the hierarchical encoding algorithm used as the foundation of JPEG2000. タイル分割の基本を説明するための図である。It is a figure for demonstrating the basis of tile division | segmentation. デコンポジション・レベルとサブ・バンドを説明するための図である。It is a figure for demonstrating a decomposition level and a sub band. コード・ストリームの構造を説明するための図である。It is a figure for demonstrating the structure of a code stream. プレシンクトとコード・ブロックを説明するための図である。It is a figure for demonstrating a precinct and a code block. (a)はフレームデータについての説明図、(b)はインターレース形式のフレームデータのフィールドデータについての説明図である。(A) is explanatory drawing about frame data, (b) is explanatory drawing about the field data of the frame data of an interlace format. 第5の実施形態における二次元平面方向の動き量を推定する処理を示したフローチャートである。It is the flowchart which showed the process which estimates the motion amount of the two-dimensional plane direction in 5th Embodiment. (a)〜(d)は被写体が高速に動いた場合に奇数フィールドと偶数フィールドとの間で発生するずれを説明するための図。(A)-(d) is a figure for demonstrating the shift | offset | difference which arises between an odd field and an even field when a to-be-photographed object moves at high speed.

符号の説明Explanation of symbols

101…三次元画像入力部、102…画像奥行き算出部、103…動き量評価部、104…フレーム符号データ編集部、105…画像データ保存部、106…評価基準動き量保存部、107…フレーム毎奥行き保存部、108…フレーム動き量評価結果保存部、109…フレーム動き量変化評価結果保存部、110…色空間変換・逆変換部、111…2次元ウェーブレット変換・逆変換部、112…量子化・逆量子化部、113…エントロピー符号化・復号化部、114…タグ処理部、12…画像データ保存部、13…属性毎領域抽出部、14…属性画像領域データ保存部、15…画像属性毎奥行き算出部、16…奥行きデータ保存部、21…画像属性毎画像抽出部、22…ライン毎画像データ抽出部、23…相関算出部、24…奥行き算出部、25…ライン毎画像データ保存部、26…相関データ保存部、3…相関算出部、41…領域毎画像抽出部、42…画像領域毎奥行き算出部、43…フレーム奥行き算出部、44…画像データ保存部、45…画像領域データ保存部、46…領域毎奥行き保存部、51…領域毎画像抽出部、52…ライン毎画像データ抽出部、53…相関算出部、54…奥行き算出部、55…ライン毎画像データ保存部、56…相関データ保存部、81…画面内動き量算出部   DESCRIPTION OF SYMBOLS 101 ... Three-dimensional image input part, 102 ... Image depth calculation part, 103 ... Motion amount evaluation part, 104 ... Frame code data edit part, 105 ... Image data storage part, 106 ... Evaluation reference | standard motion amount storage part, 107 ... Every frame Depth storage unit 108 ... Frame motion amount evaluation result storage unit 109 ... Frame motion amount change evaluation result storage unit 110 ... Color space conversion / inverse conversion unit 111 ... Two-dimensional wavelet transform / inverse conversion unit 112 ... Quantization Inverse quantization unit 113 113 entropy encoding / decoding unit 114 tag processing unit 12 image data storage unit 13 attribute region extraction unit 14 attribute image region data storage unit 15 image attribute Depth calculation unit, 16 ... Depth data storage unit, 21 ... Image extraction unit for each image attribute, 22 ... Image data extraction unit for each line, 23 ... Correlation calculation unit, 24 ... Depth calculation 25 ... Image data storage unit for each line, 26 ... Correlation data storage unit, 3 ... Correlation calculation unit, 41 ... Image extraction unit for each region, 42 ... Depth calculation unit for each image region, 43 ... Frame depth calculation unit, 44 ... Image Data storage unit 45 ... Image region data storage unit 46 ... Depth storage unit for each region 51 ... Image extraction unit for each region 52 ... Image data extraction unit for each line 53 ... Correlation calculation unit 54 ... Depth calculation unit 55 ... Image data storage unit for each line, 56 ... Correlation data storage unit, 81 ... In-screen motion amount calculation unit

Claims (17)

三次元画像再現のための右眼用と左眼用の二つの画像データをフレーム単位で連続的に再生する動画像処理装置において、前記フレーム単位の二つの画像データ間の相関を算出する相関算出手段と、該相関算出手段により算出された相関値により三次元画像の奥行き度合いが予め設定された設定値よりも小さい場合に動き量が小さいと推定する動き量推定手段と、該動き量推定手段により動き量が小さいと推定された場合に前記フレーム単位の画像データを間引いて再生する間引き再生手段と、を備えたことを特徴とする動画像処理装置。   Correlation calculation for calculating a correlation between two pieces of image data in units of frames in a moving image processing apparatus that continuously reproduces two pieces of image data for right eyes and left eyes for three-dimensional image reproduction in units of frames Means, a motion amount estimating means for estimating that the amount of motion is small when the depth degree of the three-dimensional image is smaller than a preset setting value based on the correlation value calculated by the correlation calculating means, and the motion amount estimating means And a thinning reproduction means for thinning and reproducing the frame-unit image data when it is estimated that the amount of motion is small. 三次元画像再現のための右眼用と左眼用の画像データをフレーム単位で連続的に再生する動画像処理装置において、画像の縦横方向の動きを推定する動き量推定手段と、奥行き方向の動き量が小さく、かつ、縦横方向動き量が予め設定された動き量基準値より小さい場合に前記フレーム単位の画像データを間引いて再生する間引き再生手段と、を備えたことを特徴とする動画像処理装置。   In a moving image processing apparatus that continuously reproduces right-eye and left-eye image data for three-dimensional image reproduction in units of frames, a motion amount estimation unit that estimates the vertical and horizontal movements of an image, A moving image comprising: thinning reproduction means for thinning and reproducing the frame-unit image data when the movement amount is small and the vertical and horizontal movement amounts are smaller than a preset movement amount reference value Processing equipment. 三次元画像再現のための右眼用と左眼用の二つの画像データをフレーム単位で連続的に再生する動画像処理装置において、フレーム画像データを符号化する符号化手段と、前記フレーム単位の二つの画像データ間の相関を算出する相関算出手段と、該相関算出手段により算出された相関値により三次元画像の奥行き度合いが予め設定された設定値よりも小さい場合に動き量が小さいと推定する動き量推定手段と、前記動き量が小さいと推定された場合に前記フレーム画像データを符号化した符号データの符号量を削減するフレーム符号量削減手段と、を備えたことを特徴とする動画像処理装置。   In a moving image processing apparatus that continuously reproduces two image data for right eye and left eye for three-dimensional image reproduction in units of frames, encoding means for encoding frame image data, A correlation calculating unit that calculates a correlation between two image data, and a motion amount is estimated to be small when the depth degree of the three-dimensional image is smaller than a preset value based on the correlation value calculated by the correlation calculating unit And a frame code amount reducing means for reducing a code amount of code data obtained by encoding the frame image data when the motion amount is estimated to be small. Image processing device. 三次元画像再現のための右眼用と左眼用の画像データをフレーム単位で連続的に再生する動画像処理装置において、前記フレーム単位の画像データを符号化する符号化手段と、画像の縦横方向の動きを推定する動き量推定手段と、奥行き方向の動き量が小さく、かつ、縦横方向動き量が予め設定された動き量基準値より小さい場合に前記フレーム単位の画像データを符号化した符号データの符号量を削減するフレーム符号量削減手段と、を備えたことを特徴とする動画像処理装置。   In a moving image processing apparatus that continuously reproduces right-eye and left-eye image data for three-dimensional image reproduction in units of frames, encoding means for encoding the image data in units of frames, A motion amount estimating means for estimating the motion in the direction, and a code that encodes the image data for each frame when the motion amount in the depth direction is small and the motion amount in the vertical and horizontal directions is smaller than a preset motion amount reference value. And a frame code amount reduction means for reducing the code amount of the data. 請求項2または4記載の動画像処理装置において、処理速度要求を入力する処理速度要求入力手段をさらに備え、前記動き量推定手段は、前記処理速度要求が高速要求の場合には、奥行き方向の動き量で動き量を推定するか、あるいは、画像の縦横方向の動きを推定する縦横方向動き量で動き量を推定し、そうでない場合には、奥行き方向の動き量と、画像の縦横方向の動きを推定する縦横方向動き量とにより動き量を推定することを特徴とする動画像処理装置。   5. The moving image processing apparatus according to claim 2, further comprising processing speed request input means for inputting a processing speed request, wherein the motion amount estimation means is arranged in the depth direction when the processing speed request is a high speed request. Estimate the amount of motion with the amount of motion, or estimate the amount of motion with the amount of vertical and horizontal motion that estimates the vertical and horizontal motion of the image. Otherwise, the amount of motion in the depth direction and the vertical and horizontal direction of the image A moving image processing apparatus that estimates a motion amount from a vertical and horizontal motion amount for estimating a motion. 請求項1乃至4の何れか1項に記載の動画像処理装置において、フレーム補正精度要求を入力するフレーム補正精度要求入力手段をさらに備え、前記動き量推定手段は、前記フレーム補正精度要求が高い場合には、奥行き方向の動き量で動き量を推定するか、あるいは、画像の縦横方向の動きを推定する縦横方向動き量で動き量を推定し、そうでない場合には、奥行き方向の動き量と、画像の縦横方向の動きを推定する縦横方向動き量とにより動き量を推定することを特徴とする動画像処理装置。   5. The moving image processing apparatus according to claim 1, further comprising a frame correction accuracy request input unit configured to input a frame correction accuracy request, wherein the motion amount estimation unit has a high frame correction accuracy request. In this case, the amount of motion is estimated by the amount of motion in the depth direction, or the amount of motion is estimated by the amount of motion in the vertical and horizontal directions that estimates the vertical and horizontal motion of the image. Otherwise, the amount of motion in the depth direction And an amount of motion estimated from the amount of motion in the vertical and horizontal directions for estimating the vertical and horizontal motion of the image. 請求項1乃至6の何れか1項に記載の動画像処理装置において、画像領域毎に動き量を推定する領域毎動き量推定手段と、前記画像領域毎に符号量を削減する符号量削減手段と、を備えたことを特徴とする動画像処理装置。   7. The moving image processing apparatus according to claim 1, wherein a motion amount estimation unit for each region for estimating a motion amount for each image region, and a code amount reduction unit for reducing a code amount for each of the image regions. And a moving image processing apparatus. 請求項1乃至7の何れか1項に記載の動画像処理装置において、前記相関の算出は画像データの一部の領域であることを特徴とする動画像処理装置。   8. The moving image processing apparatus according to claim 1, wherein the calculation of the correlation is a partial area of the image data. 請求項1乃至8の何れか1項に記載の動画像処理装置において、前記フレーム符号データはMotion−JPEG2000規格に基づいて符号化されることを特徴とする動画像処理装置。   9. The moving image processing apparatus according to claim 1, wherein the frame code data is encoded based on the Motion-JPEG2000 standard. 請求項9記載の動画像処理装置において、画像データを符号化したフレーム符号データを保存するデータ保存手段と、フレーム画像データの符号化後に符号化された符号データに対してフレーム符号データを再構成する再構成手段と、を備えたことを特徴とする動画像処理装置。   10. The moving image processing apparatus according to claim 9, wherein data storage means for storing frame code data obtained by encoding image data, and frame code data are reconstructed with respect to code data encoded after encoding of frame image data A moving image processing apparatus. 請求項9記載の動画像処理装置において、画像データをウェーブレット変換するウェーブレット変換の過程で得られたサブ・バンド単位の符号データの符号量を算出するサブ・バンド符号量算出手段と、サブ・バンド1LH中の符号量またはサブ・バンド1HL中の符号量とで前記縦横方向動き量を推定する動き量推定手段と、を備えたことを特徴とする動画像処理装置。   10. The moving image processing apparatus according to claim 9, wherein sub-band code amount calculation means for calculating a code amount of code data in sub-band units obtained in the process of wavelet transform for wavelet transforming image data, and sub-band A moving image processing apparatus comprising: a motion amount estimating unit that estimates the amount of motion in the vertical and horizontal directions based on a code amount in 1LH or a code amount in sub-band 1HL. 請求項1乃至11の何れか1項に記載の動画像処理装置において、フレーム画像データがインターレース画像であり、インターレース画像データを奇数フィールドの画像データと偶数フィールドの画像データに分割するフィールド分割手段と、あるインターレース画像の奇数フィールドの画像データと前記インターレース画像の一つ前のインターレース画像の偶数フィールドの画像データのフィールドデータを使用して動き量を推定する動き量手段と、を備えたことを特徴とする動画像処理装置。   12. The moving image processing apparatus according to claim 1, wherein the frame image data is an interlaced image, and the field dividing unit divides the interlaced image data into odd field image data and even field image data. And a motion amount means for estimating a motion amount using field data of an odd field of an interlaced image and field data of an even field of an interlaced image immediately preceding the interlaced image. A moving image processing apparatus. 請求項12に記載の動画像処理装置において、一つのインターレース画像信号が分解されて生成された奇数及び偶数のフィールド間の動き量を計算する動き量計算手段と、前記奇数及び偶数のフィールド間の動き量に基づいて前記動き量を判定する判定手段と、を備えたことを特徴とする動画像処理装置。   13. The moving image processing apparatus according to claim 12, wherein a motion amount calculating means for calculating a motion amount between odd and even fields generated by decomposing one interlaced image signal, and between the odd and even fields. A moving image processing apparatus comprising: determination means for determining the amount of movement based on the amount of movement. 三次元画像再現のための右眼用と左眼用の画像データをフレーム単位で連続的に再生する動画像処理方法において、前記フレーム単位の二つの画像データ間の相関を算出する相関算出ステップと、算出された相関値により三次元画像の奥行き度合いが、予め設定された設定値よりも小さい場合に動き量が小さいと推定する動き量推定ステップと、該動き量推定ステップにより動き量が小さいと推定された場合に前記フレーム画像データを間引いて再生する間引き再生ステップと、を備えたことを特徴とする動画像処理方法。   In a moving image processing method for continuously reproducing right-eye and left-eye image data for three-dimensional image reproduction in units of frames, a correlation calculation step of calculating a correlation between the two image data in units of frames; A motion amount estimation step for estimating that the motion amount is small when the depth degree of the three-dimensional image is smaller than a preset setting value based on the calculated correlation value, and a motion amount is small by the motion amount estimation step. A moving picture processing method comprising: a thinning reproduction step of thinning and reproducing the frame image data when estimated. 三次元画像再現のための右眼用と左眼用の画像データをフレーム単位で連続的に再生する動画像処理方法において、画像の縦横方向の動きを推定する動き量推定ステップと、奥行き方向の動き量が小さく、かつ、縦横方向動き量が予め設定された動き量基準値より小さい場合に前記フレーム画像データを間引いて再生する間引き再生ステップと、を備えたことを特徴とする動画像処理方法。   In a moving image processing method for continuously reproducing right-eye and left-eye image data for three-dimensional image reproduction in units of frames, a motion amount estimation step for estimating vertical and horizontal motion of an image, A moving picture processing method comprising: a thinning reproduction step for thinning and reproducing the frame image data when the movement quantity is small and the vertical and horizontal movement quantity is smaller than a preset movement quantity reference value . 三次元画像再現のための右眼用と左眼用の画像データをフレーム単位で連続的に再生する動画像処理方法において、フレーム画像データを符号化する符号化ステップと、前記フレーム単位の二つの画像データ間の相関を算出する相関算出ステップと、算出された相関値により三次元画像の奥行き度合いが予め設定された設定値よりも小さい場合に動き量が小さいと推定する動き量推定ステップと、前記動き量が小さいと推定された場合に前記フレーム画像データを符号化した符号データの符号量を削減するフレーム符号量削減ステップと、を備えたことを特徴とする動画像処理方法。   In a moving image processing method for continuously reproducing right-eye and left-eye image data for three-dimensional image reproduction in units of frames, an encoding step for encoding frame image data; A correlation calculating step for calculating a correlation between the image data, a motion amount estimating step for estimating that the amount of motion is small when the depth degree of the three-dimensional image is smaller than a preset setting value based on the calculated correlation value; And a frame code amount reduction step of reducing a code amount of code data obtained by encoding the frame image data when the motion amount is estimated to be small. 三次元画像再現のための右眼用と左眼用の画像データをフレーム単位で連続的に再生する動画像処理方法において、フレーム画像データを符号化する符号化ステップと、画像の縦横方向の動きを推定する動き量推定ステップと、奥行き方向の動き量が小さく、かつ、縦横方向動き量が予め設定された動き量基準値より小さい場合に前記フレーム画像データを符号化した符号データの符号量を削減するフレーム符号量削減ステップと、を備えたことを特徴とする動画像処理方法。   In a moving image processing method for continuously reproducing right-eye and left-eye image data for three-dimensional image reproduction in units of frames, an encoding step for encoding frame image data, and vertical and horizontal movements of the image A motion amount estimation step for estimating the amount of code data obtained by encoding the frame image data when the motion amount in the depth direction is small and the motion amount in the vertical and horizontal directions is smaller than a preset motion amount reference value. A moving image processing method comprising: a frame code amount reduction step for reduction.
JP2005255758A 2005-09-02 2005-09-02 Moving picture processing apparatus and method Pending JP2007074042A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005255758A JP2007074042A (en) 2005-09-02 2005-09-02 Moving picture processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005255758A JP2007074042A (en) 2005-09-02 2005-09-02 Moving picture processing apparatus and method

Publications (1)

Publication Number Publication Date
JP2007074042A true JP2007074042A (en) 2007-03-22

Family

ID=37935158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005255758A Pending JP2007074042A (en) 2005-09-02 2005-09-02 Moving picture processing apparatus and method

Country Status (1)

Country Link
JP (1) JP2007074042A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009169334A (en) * 2008-01-21 2009-07-30 Sony Corp Image processing apparatus and method, program, and recording medium
CN106686388A (en) * 2015-11-05 2017-05-17 安讯士有限公司 Method and apparatus for controlling degree of compression of digital image
US9661227B2 (en) 2012-05-15 2017-05-23 Samsung Electronics Co., Ltd. Method, circuit and system for stabilizing digital image

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009169334A (en) * 2008-01-21 2009-07-30 Sony Corp Image processing apparatus and method, program, and recording medium
US9661227B2 (en) 2012-05-15 2017-05-23 Samsung Electronics Co., Ltd. Method, circuit and system for stabilizing digital image
CN106686388A (en) * 2015-11-05 2017-05-17 安讯士有限公司 Method and apparatus for controlling degree of compression of digital image
JP2017123641A (en) * 2015-11-05 2017-07-13 アクシス アーベー Method and apparatus for controlling degree of compression of digital image

Similar Documents

Publication Publication Date Title
KR100971833B1 (en) Image coding method and apparatus
JP4751116B2 (en) Image processing apparatus and image processing method
JP4898513B2 (en) Client / server system
JP2007142614A (en) Image processing apparatus and method, program, and information recording medium
US7310447B2 (en) Image processing apparatus, image processing method, and storage medium
JP4637672B2 (en) Encoding processing apparatus and method
JP4229323B2 (en) Encoding apparatus, encoding method, and program
JP4792250B2 (en) Moving image processing apparatus and moving image processing method
JP2007074042A (en) Moving picture processing apparatus and method
JP2006238022A (en) Image processor, image processing method, program, and information recording medium
JP3942088B2 (en) Image processing apparatus and image processing method
JP2006129248A (en) Image encoding and decoding method and apparatus thereof
JP4749508B2 (en) Image decoding method
JP4375662B2 (en) Image processing apparatus, image processing method, program, information recording medium, and imaging apparatus
JP4247089B2 (en) Non-interlaced image processing apparatus and processing method
JP3897253B2 (en) Image processing method, image processing apparatus, imaging apparatus, program, and recording medium
JP4077706B2 (en) Interlaced image processing apparatus and processing method
JP4247088B2 (en) Non-interlaced image processing apparatus and processing method
JP4667424B2 (en) Image decoding device
JP4667423B2 (en) Image decoding device
JP2005136596A (en) System and method for processing motion picture, program and information recording medium
JP2007189622A (en) Moving image encoding method and device, decoding method and device, moving image processing program and computer readable recording medium
JP2007020216A (en) Encoding apparatus, encoding method, filtering apparatus and filtering method
Chiang et al. Enhanced Temporal Consistency for Global Patch Allocation in Video-based Point Cloud Compression
JP4396932B2 (en) Moving image processing apparatus, program, and information recording medium