JP4637672B2 - Encoding processing apparatus and method - Google Patents

Encoding processing apparatus and method Download PDF

Info

Publication number
JP4637672B2
JP4637672B2 JP2005212852A JP2005212852A JP4637672B2 JP 4637672 B2 JP4637672 B2 JP 4637672B2 JP 2005212852 A JP2005212852 A JP 2005212852A JP 2005212852 A JP2005212852 A JP 2005212852A JP 4637672 B2 JP4637672 B2 JP 4637672B2
Authority
JP
Japan
Prior art keywords
image data
image
encoding
encoding processing
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005212852A
Other languages
Japanese (ja)
Other versions
JP2007036368A (en
Inventor
隆則 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2005212852A priority Critical patent/JP4637672B2/en
Publication of JP2007036368A publication Critical patent/JP2007036368A/en
Application granted granted Critical
Publication of JP4637672B2 publication Critical patent/JP4637672B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Description

本発明は、三次元画像表示用データの奥行き度合いを推定あるいは調整する符号化処理装置、及び符号化処理方法に関する。   The present invention relates to an encoding processing apparatus and an encoding processing method for estimating or adjusting the depth degree of 3D image display data.

近年、奥行きを有する三次元動画像の再生を行う画像処理装置の開発が行われている。
三次元画像表示用の右眼用と左眼用の画像データがある。両眼立体視可能な典型的な三次元画像表示は、各々異なる視点位置からの画像からなる左右両眼用の画像を観察者の左右眼に分離して提示することにより両眼視差を与えて立体的に観察可能とする。すなわち、左右眼用の2視点からの画像データからなる両眼立体視用画像データを入力として受け取り表示することで両眼立体視用の画像データが表示されるである。
このような画像を基に任意の視点からの2次元の画像を生成する方法として、特許文献1、2には画像観察時に自然に見える2次元画像を生成する方法が提案されている。
また特許文献3には、右眼用と左眼用の立体動画像を、合成器を用いて1水平走査線毎に合成してフレーム画像を形成し、その合成されたフレーム画像をMPEG(Moving Picture Image Coding Experts Group)方式のエンコーダを用いて符号化する技術が開示されている。
また特許文献4には、第1及び第2読取手段のそれぞれから順次出力されるライン単位の画像データを交互に出力することで両面合成画像データを出力し、さらに両面合成画像データを圧縮符号化する。符号化両面合成画像データを所定の算術復号化方式で復号化して両面合成画像データとしてライン単位で出力し、両面合成画像データを1ライン毎に交互に分離することで第1の片面画像データ及び第2の片面画像データをそれぞれ得る技術が開示されている。
また特許文献5に異なる点から被写体を見た場合に得られる視差量を光学的に高精度に検出し、被写体の正確な奥行き情報を得ることのできる視差画像撮像装置が開示されている。
特開2002−324249公報 特開2002−56407公報 特開平8−70475号公報 特開平11−55530号公報 特開2001−16612公報
In recent years, development of an image processing apparatus that reproduces a three-dimensional moving image having a depth has been performed.
There are right-eye and left-eye image data for three-dimensional image display. A typical three-dimensional image display capable of binocular stereoscopic viewing provides binocular parallax by separately presenting left and right binocular images consisting of images from different viewpoint positions to the left and right eyes of the observer. It is possible to observe three-dimensionally. That is, binocular stereoscopic image data is displayed by receiving and displaying binocular stereoscopic image data including image data from two viewpoints for the left and right eyes.
As a method of generating a two-dimensional image from an arbitrary viewpoint based on such an image, Patent Documents 1 and 2 propose a method of generating a two-dimensional image that looks natural during image observation.
In Patent Document 3, a right-eye and left-eye three-dimensional moving image is synthesized for each horizontal scanning line by using a synthesizer to form a frame image, and the synthesized frame image is converted into MPEG (Moving A technique for encoding using a picture image coding experts group) encoder is disclosed.
Patent Document 4 also outputs double-sided composite image data by alternately outputting line-by-line image data sequentially output from each of the first and second reading means, and further compression-encodes the double-sided composite image data. To do. The encoded double-side composite image data is decoded by a predetermined arithmetic decoding method and output as double-side composite image data in units of lines, and the double-side composite image data is alternately separated for each line, whereby the first single-side image data and A technique for obtaining second single-sided image data is disclosed.
Further, Patent Document 5 discloses a parallax image imaging device that can optically detect a parallax amount obtained when a subject is viewed from different points and obtain accurate depth information of the subject.
JP 2002-324249 A JP 2002-56407 A JP-A-8-70475 Japanese Patent Laid-Open No. 11-55530 JP 2001-16612 A

ところで、上記したような三次元画像表示用の右眼用と左眼用の画像データは夫々同じ対象を表示(出力)したものであり、一般的には互いに相関が高いので符号化時の圧縮率を高めることができる。
しかしながら、立体画像は右眼動画像と左眼動画像の差が大きいほど立体感があるが、立体感が大きく再現されている場合は、一般に、互いの相関は低く互いにマージしても符号化する効果は大きくない。また、動きが激しいような場合などにおいては、両眼で見る対象が変化していくため両者の画像データ間の相関が必ずしも高くならないことが知られている。
そこで、本発明はこのような点を鑑みてなされたものであり、三次元画像表示用データの符号化率の向上を図ることができる符号化処理装置と符号化処理方法を提供する。また、立体画像の奥行き再生を考慮した符号量制御を実現できる符号化処理装置と符号化処理方法を提供することを目的とする。
By the way, the right eye image data and the left eye image data for displaying a three-dimensional image as described above display (output) the same object, and generally have high correlation with each other, so compression at the time of encoding is performed. The rate can be increased.
However, a stereoscopic image has a stereoscopic effect as the difference between the right-eye moving image and the left-eye moving image increases. However, if the stereoscopic effect is reproduced greatly, the correlation is generally low and encoding is performed even if they are merged with each other. The effect to do is not great. Further, it is known that, for example, when the movement is intense, the object viewed with both eyes changes, so that the correlation between both image data does not necessarily increase.
Therefore, the present invention has been made in view of such points, and provides an encoding processing device and an encoding processing method capable of improving the encoding rate of 3D image display data. It is another object of the present invention to provide an encoding processing device and an encoding processing method that can realize code amount control in consideration of depth reproduction of a stereoscopic image.

上記目的を達成するため、請求項1に記載の発明は、三次元画像を再生するための符号化処理を行う符号化処理装置であって、右眼用と左眼用の画像データを入力する画像データ入力手段と、入力された右眼用と左眼用の画像データから奥行き度合いを算出する奥行き度合い算出手段と、入力された右眼用と左眼用の画像データをライン単位で交互に重ねあわせて合成する画像データ合成手段と、入力された画像データを符号化する符号化手段と、前記奥行き度合い算出手段の算出結果に基づいて、前記画像データ合成手段により合成した合成画像データを符号化対象にするか、前記右眼用と左眼用の画像データを符号化対象にするか選択する画像データ選択手段と、を備えることを特徴とする。
請求項2に記載の発明は、請求項1記載の符号化処理装置において、前記奥行き度合い算出手段は、入力された2つの画像データ間の相関を算出する相関算出手段を備え、前記相関算出手段の算出結果に基づいて奥行き度合いを算出することを特徴とする。
請求項3に記載の発明は、請求項2に記載の符号化処理装置において、前記相関算出手段は画像データの一部の領域を用いて相関を算出することを特徴とする
In order to achieve the above object, an invention according to claim 1 is an encoding processing device that performs encoding processing for reproducing a three-dimensional image, and inputs image data for right eye and left eye. Image data input means, depth degree calculation means for calculating the depth degree from the input right eye and left eye image data, and input right eye and left eye image data alternately in line units Based on the calculation result of the depth data calculating means, the image data synthesizing means for superimposing and synthesizing the input image data, and the synthesized image data synthesized by the image data synthesizing means is encoded based on the calculation result of the depth degree calculating means. And image data selection means for selecting whether the image data for the right eye and the left eye is to be encoded.
According to a second aspect of the present invention, in the encoding processing apparatus according to the first aspect, the depth degree calculating means includes a correlation calculating means for calculating a correlation between two input image data, and the correlation calculating means. The depth degree is calculated based on the calculation result.
According to a third aspect of the present invention, in the encoding processing apparatus according to the second aspect, the correlation calculating means calculates a correlation using a partial region of the image data .

請求項4に記載の発明は、請求項1乃至請求項の何れか1項に記載の符号化処理装置において、前記画像データ合成手段は、二個以上の画像データをライン単位で交互に重ねあわせて合成することを特徴とする。
請求項に記載の発明は、請求項1乃至請求項の何れか1項に記載の符号化処理装置において、前記相関算出手段における相関は画像データの水平方向のライン毎または垂直方向のライン毎に算出されることを特徴とする。
請求項に記載の発明は、請求項5に記載の符号化処理装置において、前記相関算出手段では、入力される画像データの水平方向又は垂直方向が選択されることを特徴とする。
請求項に記載の発明は、請求項1乃至請求項の何れか1項に記載の符号化処理装置において、前記符号化手段により符号化した符号データがJPEG2000規格に基づき符号化されたデータであることを特徴とする。
According to a fourth aspect of the present invention, in the encoding processing apparatus according to any one of the first to third aspects, the image data synthesizing unit alternately superimposes two or more pieces of image data in line units. It is characterized by combining them together.
According to a fifth aspect of the present invention, in the encoding processing device according to any one of the first to fourth aspects, the correlation in the correlation calculation means is a horizontal line or a vertical line of the image data. It is calculated every time.
According to a sixth aspect of the present invention, in the encoding processing apparatus according to the fifth aspect, the correlation calculating unit selects a horizontal direction or a vertical direction of input image data.
A seventh aspect of the present invention provides the encoding processing apparatus according to any one of the first to sixth aspects, wherein the encoded data encoded by the encoding means is encoded based on the JPEG2000 standard. It is characterized by being.

請求項に記載の発明は、請求項に記載の符号化処理装置において、画像データを符号化したフレーム符号データを保存するデータ保存手段と、フレーム画像データの符号化後に符号化された符号データに対してフレーム符号データを再構成する再構成手段と、を備えることを特徴とする。
請求項に記載の発明は、請求項7に記載の符号化処理装置において、画像データの合成が色の要素単位であることを特徴とする。
請求項10に記載の発明は、請求項7に記載の符号化処理装置において、画像データの合成がタイル単位であることを特徴とする。
請求項11に記載の発明は、三次元画像を再生するための符号化処理を行う符号化処理方法であって、右眼用と左眼用の画像データを入力する画像データ入力ステップと、入力された右眼用と左眼用の画像データから奥行き度合いを算出する奥行き度合い算出ステップと、入力された右眼用と左眼用の画像データをライン単位で交互に重ねあわせて合成する画像データ合成ステップと、入力された画像データを符号化する符号化ステップと、奥行き度合いの算出結果に基づいて、合成した合成画像データを符号化対象にするか、前記右眼用と左眼用の画像データを符号化対象にするか選択する画像データ選択ステップと、を備えることを特徴とする
According to an eighth aspect of the present invention, in the encoding processing device according to the seventh aspect , the data storage means for storing the frame code data obtained by encoding the image data, and the code encoded after encoding the frame image data Reconstructing means for reconstructing frame code data from the data.
According to a ninth aspect of the present invention, in the encoding processing device according to the seventh aspect, the composition of the image data is in units of color elements.
According to a tenth aspect of the present invention, in the encoding processing device according to the seventh aspect, the composition of the image data is in units of tiles.
The invention according to claim 11 is an encoding processing method for performing an encoding process for reproducing a three-dimensional image, an image data input step for inputting image data for the right eye and the left eye, and an input Depth degree calculating step for calculating the degree of depth from the right-eye and left-eye image data, and the input image data for the right eye and the left eye that are alternately overlapped and combined in line units Based on the synthesis step, the encoding step for encoding the input image data, and the calculation result of the depth degree, the synthesized image data is to be encoded, or the right eye image and the left eye image And an image data selection step for selecting whether the data is to be encoded .

請求項1、請求項11に記載の本発明によれば、符号化効率の高い符号化をすることで符号化効率の高めることができる。選択的に視差をもつ右眼用と左眼用の画像データをまとめて符号化することで符号化効率を高めることができる。
請求項2に記載の本発明によれば、簡易に三次元画像の奥行きの度合いを算出できる。
請求項3に記載の本発明によれば、画像の部分領域を調べるだけで、簡易に全体の奥行き傾向を推定する手段を提供する
請求項に記載の本発明によれば、二個以上の画像データをライン単位で交互に重ねあわせるようにすることで画像データを容易に合成することができる。
請求項に記載の本発明によれば、通常水平ライン毎だけでなく垂直ライン毎に撮影またはスキャンされた画像データを効率的に処理することが可能になる。
According to the first and eleventh aspects of the present invention, encoding efficiency can be increased by performing encoding with high encoding efficiency. Encoding efficiency can be improved by encoding the image data for the right eye and the left eye which selectively have parallax together.
According to the second aspect of the present invention, the degree of depth of a three-dimensional image can be easily calculated.
According to the third aspect of the present invention, there is provided means for simply estimating the overall depth tendency by simply examining a partial region of an image .
According to the fourth aspect of the present invention, it is possible to easily synthesize image data by alternately superimposing two or more pieces of image data in line units.
According to the fifth aspect of the present invention, it is possible to efficiently process image data captured or scanned not only for each horizontal line but also for each vertical line.

請求項に記載の本発明によれば、画像データの読み込みの順番に合うように選択的に処理ライン方向を選択することで、画像データの読み込みの順番が予め定まってないような場合においても効率的に処理することが可能になる。
請求項に記載の本発明によれば、JPEG2000規格に基づく符号化をすることで、標準化されているため汎用的である。
請求項に記載の本発明によれば、パーサにおいて符号列レベルの編集が容易に実施できる。符号レベルと対応画像空間上での領域対応がなされているため、符号レベルの領域処理も容易に実施できる。符号データの編集によりフレーム再生を制御することができる。画像データがマージしてある場合には、右眼用と左眼用の画像データをまとめて符号データを制御することができ、効率的な符号データ編集が可能になる。
請求項に記載の本発明によれば、色の要素ごとは互いに相関が高く、マージした画像データを符号化した時の圧縮率を高まることが期待できる。
請求項10に記載の本発明によれば、画像データのマージをタイル単位としたことで、例えば大きな画像をタイル単位に分割せずにマージした場合に画像データを保存する記憶容量が大きくなる場合において、画像データを記憶する記憶容量を減らすのに有効となる。
According to the sixth aspect of the present invention, even when the order of reading the image data is not determined in advance by selectively selecting the processing line direction so as to match the order of reading the image data. It becomes possible to process efficiently.
According to the present invention as set forth in claim 7 , since it is standardized by encoding based on the JPEG2000 standard, it is general purpose.
According to the present invention described in claim 8 , the code string level editing can be easily performed in the parser. Since the code level corresponds to the area on the corresponding image space, the code level area processing can be easily performed. Frame reproduction can be controlled by editing the code data. When the image data is merged, the code data can be controlled by combining the image data for the right eye and the left eye, and efficient code data editing can be performed.
According to the ninth aspect of the present invention, the color elements are highly correlated with each other, and it can be expected that the compression rate when the merged image data is encoded is increased.
According to the tenth aspect of the present invention, when the merging of image data is performed in units of tiles, for example, when a large image is merged without being divided into units of tiles, the storage capacity for storing the image data increases. This is effective in reducing the storage capacity for storing image data.

右眼用と左眼用の二つの画像データからなる三次元画像データを符号化対象として符号化を行う場合は、二つの画像データを合成(マージ)して符号化する方式と、ライン毎に画像データを順次読み込んでいきながら順次符号化する方式がある。前者の方式においては、二つの画像データを合成した新たな画像データを生成し、画像データを一度に全て読み込んで符号化するので、記憶容量は多く必要とするが符号化制御は単純である。画像データを一度に全て読み込んで符号化する一般的な符号化方式で実現される。
一方、後者は画像データをライン毎に生成していくため、記憶容量は少なくてすむが符号化制御はやや複雑となる。そこで、本発明では符号化する画像データを選択的に選んで符号化するようにした。
先ず、本発明の第1の実施形態として選択的に右眼用の画像データと左眼用の画像データをライン毎にマージ(合成)した画像を符号化する場合について説明する。
図1は、第1の実施形態としての符号化処理装置の構成を示したブロック図である。
この図1に示す符号化処理装置は、三次元画像入力部(画像データ入力手段)1、画像奥行き算出部(奥行き度合い算出手段)2、三次元(3D)画像データ選択部(画像データ選択手段)3、三次元(3D)画像データ合成部(画像データ合成手段)4、符号化処理部(符号化手段)5、奥行き度合い保存部6、画像データ保存部7により構成されている。
三次元画像入力部1は、三次元画像データとして右眼用と左眼用の画像データを読み込み、画像奥行き算出部2では奥行き度合いを算出する。三次元(3D)画像データ選択部3では算出された奥行き度合いに応じて符号化対象としてマージした画像データとするか夫々独立の画像データにするかを選択する。3D画像データ合成部4では、画像データをマージして新たな画像データを生成する。符号化処理部5では、3D画像データ合成部4または3D画像データ選択部3からの画像データを符号化する。
奥行き度合い保存部6では画像の奥行きデータを保存し、画像データ保存部7では画像データを保存する。
When encoding three-dimensional image data consisting of two image data for the right eye and left eye for encoding, a method for combining and merging the two image data, and for each line There is a method of encoding sequentially while reading image data sequentially. In the former method, new image data obtained by synthesizing two image data is generated, and the image data is read and encoded all at once. Therefore, a large storage capacity is required, but the encoding control is simple. This is realized by a general encoding method in which image data is read and encoded all at once.
On the other hand, since the latter generates image data for each line, the storage capacity is small, but encoding control is somewhat complicated. Therefore, in the present invention, the image data to be encoded is selectively selected and encoded.
First, a case where an image obtained by selectively merging (synthesizing) image data for the right eye and image data for the left eye for each line will be described as a first embodiment of the present invention.
FIG. 1 is a block diagram illustrating a configuration of an encoding processing apparatus according to the first embodiment.
The encoding processing apparatus shown in FIG. 1 includes a three-dimensional image input unit (image data input unit) 1, an image depth calculation unit (depth degree calculation unit) 2, a three-dimensional (3D) image data selection unit (image data selection unit). 3) a three-dimensional (3D) image data synthesis unit (image data synthesis unit) 4, an encoding processing unit (encoding unit) 5, a depth degree storage unit 6, and an image data storage unit 7.
The three-dimensional image input unit 1 reads right-eye and left-eye image data as three-dimensional image data, and the image depth calculation unit 2 calculates the depth degree. The three-dimensional (3D) image data selection unit 3 selects whether the image data is merged as an encoding target or independent image data according to the calculated depth degree. The 3D image data composition unit 4 merges the image data to generate new image data. The encoding processing unit 5 encodes the image data from the 3D image data synthesis unit 4 or the 3D image data selection unit 3.
The depth degree storage unit 6 stores image depth data, and the image data storage unit 7 stores image data.

図2は、右眼用と左眼用の画像データを夫々合成(マージ)した画像データの生成について説明するための図である。
二つの画像データを合成して符号化する場合は、二つの画像データをライン毎に交互に重ねあわせて新たな画像データを生成するようにしている。三次元立体像表示を行うための右眼用と左眼用の画像データに見られるように互いに同じようなデータの場合は、画像間の相関が高くライン毎に交互に画像データを合成した合成画像は符号化における圧縮率を高くすることが期待できる。
三次元画像表示用の右眼用と左眼用の画像データのように、複数のデータを合成したデータを符号化することで符号化時の圧縮率を向上することが期待できる。
なお、三次元画像表示用の画像データは、静止画像データに限らず、連続した動画像データであっても構わない。その場合は、図3に示すように右眼用画像データと左眼用画像データを合成して、符号化、復号化、符号データ編集・領域編集などを行った後、右眼用画像データと左眼用画像データに分解すればよい。
また、画像データの合成において圧縮率が高くなるように相関を高めるために合成方法を変更しても構わない。
図4は右眼用画像データと左眼用画像データを合成する場合に列をずらして合成する処理について説明するための図である。この例は、互いに左右方向をずらして併合データを生成する例になっている。これは、三次元立体表示用のデータにおいては、右眼用と左眼用の画像データのように視差のために同じ対象を表す画像の左右の位置が互いにに少しずれているような場合や、データが後述する連続データの符号化において左右方向に連続データが少し動いたような場合に有効となる。
特に、三次元画像データの場合は、近くの対象を撮影した場合に、視差のずれが大きいことから焦点距離に応じて、左右方向にずらす機能を持たせることもできる。例えば、焦点距離が短いときにずらす補正量を大きくするという制御をすることで、合成後の画像データの圧縮率を高めることが期待できる。
画像奥行き算出部2では、右眼用画像データと左眼用画像データ間の相関に基づいて奥行きを算出する。
FIG. 2 is a diagram for explaining generation of image data obtained by combining (merging) the right-eye image data and the left-eye image data.
When two image data are combined and encoded, new image data is generated by alternately superimposing the two image data for each line. In the case of data similar to each other as seen in the right-eye and left-eye image data for displaying a three-dimensional stereoscopic image, the combination of image data is alternately synthesized for each line with high correlation between images. An image can be expected to have a high compression rate in encoding.
It is expected that the compression rate at the time of encoding can be improved by encoding data obtained by combining a plurality of data, such as right-eye and left-eye image data for displaying a three-dimensional image.
Note that the image data for displaying the three-dimensional image is not limited to still image data, and may be continuous moving image data. In that case, as shown in FIG. 3, the right-eye image data and the left-eye image data are combined, encoded, decoded, encoded data editing / region editing, etc. What is necessary is just to decompose | disassemble into the image data for left eyes.
Further, the synthesis method may be changed in order to increase the correlation so that the compression rate is increased in the synthesis of the image data.
FIG. 4 is a diagram for explaining processing for synthesizing the right-eye image data and the left-eye image data by shifting the columns. In this example, merged data is generated by shifting the horizontal direction from each other. This is because, in 3D stereoscopic display data, the right and left positions of images representing the same object are slightly shifted from each other due to parallax, such as right-eye and left-eye image data. This is effective when the continuous data moves slightly in the left-right direction in the encoding of continuous data, which will be described later.
In particular, in the case of three-dimensional image data, when a nearby object is photographed, a parallax shift is large, so that a function of shifting in the left-right direction according to the focal length can be provided. For example, it can be expected that the compression rate of the combined image data is increased by increasing the correction amount to be shifted when the focal length is short.
The image depth calculation unit 2 calculates the depth based on the correlation between the right-eye image data and the left-eye image data.

図5は、本実施形態の選択的に右眼用画像データと左眼用画像データをライン毎にマージした画像データを符号化する処理の原理図である。
画像奥行き算出部2に設けられている相関算出部2aにおいて右眼用画像データと左眼用画像データの部分画像データ間の相関を算出する。3D画像データ選択部3では相関算出部2aにおいて算出した相関値に基づいて、例えば相関が高い場合は右眼用画像データと左眼用画像データと別々に符号化し、相関が低い場合は右眼用画像データと左眼用画像データとをマージした画像データを符号化する。
相関算出部2aにおける相関値の計算は、例えば、入力画像データをライン単位で読み込み、ライン単位で相関値を算出する。この時、直接ライン単位で三次元(右眼用と左眼用)画像データを読み込み、ライン単位で相関値を算出しても構わない。相関値が算出されたら画像奥行き算出部2においてライン単位の相関値を使用して奥行き度合いを算出する。例えば、相関値の逆数を奥行き度合いとする。画像全体の奥行き度合いは、画像のライン毎に集計しライン毎の平均値として算出する。
FIG. 5 is a principle diagram of a process for encoding image data obtained by selectively merging right-eye image data and left-eye image data for each line according to the present embodiment.
The correlation calculation unit 2a provided in the image depth calculation unit 2 calculates the correlation between the partial image data of the right-eye image data and the left-eye image data. In the 3D image data selection unit 3, for example, when the correlation is high, the right eye image data and the left eye image data are separately encoded based on the correlation value calculated by the correlation calculation unit 2a, and when the correlation is low, the right eye The image data obtained by merging the image data for the left eye and the image data for the left eye is encoded.
In the calculation of the correlation value in the correlation calculation unit 2a, for example, input image data is read in line units, and the correlation value is calculated in line units. At this time, three-dimensional (right eye and left eye) image data may be directly read in line units, and correlation values may be calculated in line units. When the correlation value is calculated, the image depth calculation unit 2 calculates the degree of depth using the correlation value for each line. For example, the reciprocal of the correlation value is the depth degree. The depth degree of the entire image is calculated for each line of the image and calculated as an average value for each line.

右眼用画像データと左眼用画像データの相関値の計算は、より具体的には、以下の(式1)に従って算出する。
S(y)は、ある画像y番目のライン(yは0〜ly−1の範囲内の数値とする)の相関値である。

Figure 0004637672

ここで、画素の(x,y)は座標値であり、I(x,y)は画像Iの座標(x,y)の値であり、J(x,y)は画像Jの座標(x,y)の値である。画像は、xの最大値がlx−1、yの最大値がly−1よりなる。
なお、相関値は必ずしも上記に示すような算出式(式1)により求めなくてもよく、画像データ間のデータ値の近さが算出できればよく、例えば、あるy番目のラインの相関S(y)は、以下の式2により求めてよい。その場合はより簡潔になる。
相関値S(y)は、
Figure 0004637672
More specifically, the correlation value between the image data for the right eye and the image data for the left eye is calculated according to the following (Equation 1).
S (y) is a correlation value of a y-th line (y is a numerical value within a range of 0 to ly-1) of an image.
Figure 0004637672

Here, (x, y) of the pixel is a coordinate value, I (x, y) is a value of the coordinate (x, y) of the image I, and J (x, y) is a coordinate of the image J (x , Y). In the image, the maximum value of x is 1x-1, and the maximum value of y is ly-1.
Note that the correlation value does not necessarily have to be obtained by the calculation formula (formula 1) as described above, and it is only necessary to calculate the closeness of the data value between the image data. For example, the correlation S (y of a certain y-th line) ) May be obtained by the following equation 2. In that case it becomes more concise.
The correlation value S (y) is
Figure 0004637672

また、奥行き度合いの算出は次のような関係式により推定する。
奥行き度合いの算出式は、
相関値<S→奥行き度合い=大
相関値>S→奥行き度合い=小 ・・・式3
本実施形態では、画像領域毎の奥行きを算出し、その平均値を画像全体の奥行きとして推定した。また相関値は、予め与えられた値Sと比較して小さかった場合に奥行き度合いが大きいと推定し、相関値が予め与えられた値Sより大きかった場合に奥行き度合いが小さいと推定した。
また一部の画像領域を調べて奥行き度合いを推定することもできる。一部の画像領域を調べるだけであるので処理効率を高めることができる。
本実施形態では、前述した奥行き度合い推定のための相関値の算出は、例えば、(式1)あるいは(式2)において、先頭ラインからいくつかのライン(yn)までのラインについて、

Figure 0004637672
を算出して、画像全体の相関値として推定してもよい。
ここで、一部の画像領域は、推定精度が重要とあるような関心領域であったり、あるいは、処理効率を優先し、先に読み込んだ画像領域の画像データの相関を計算するのであっても構わない。全ての画像データを分析しないで済ますことは、処理効率を向上させるという大きな効果がある。 Further, the depth degree is estimated by the following relational expression.
The formula for calculating the depth is
Correlation value <S → depth degree = large Correlation value> S → depth degree = small Expression 3
In this embodiment, the depth for each image area is calculated, and the average value is estimated as the depth of the entire image. Further, when the correlation value is smaller than the predetermined value S, it is estimated that the depth degree is large, and when the correlation value is larger than the predetermined value S, the depth degree is estimated to be small.
It is also possible to estimate the depth degree by examining a part of the image area. Since only a part of the image area is examined, the processing efficiency can be improved.
In the present embodiment, the calculation of the correlation value for the depth degree estimation described above is performed for, for example, the lines from the first line to several lines (yn) in (Expression 1) or (Expression 2).
Figure 0004637672
May be calculated and estimated as the correlation value of the entire image.
Here, some image regions are regions of interest where estimation accuracy is important, or even if the correlation between the image data of the previously read image regions is calculated with priority given to processing efficiency. I do not care. Not having to analyze all the image data has a great effect of improving the processing efficiency.

図6は第1の実施形態の符号化処理装置において選択的に右眼用と左眼用の画像データをライン毎にマージする処理を示したフローチャートである。
この場合は、先ず、三次元画像データである右眼用と左眼用の画像データを入力する(S1)。次の意、右眼用と左眼用の画像データの一部または全部の領域の相関値を算出し、続くステップS3において奥行き度合いを判断するようにしている。
ここで、ステップS3において相関値が予め設定されている閾値より小さい場合(S3でY)、右眼用と左眼用の画像データをマージする(S4)。そしてマージした画像データを符号化した後(S5)、符号化したデータを復号化して(S6)、マージされた画像データを分解して元の右眼用と左眼用の画像データに戻して(S7)、右眼用と左眼用の画像データを使用して三次元画像を再生する(S8)。
一方、ステップS3において、相関値値が予め設定されている閾値より大きい場合(S3でN)、右眼用と左眼用の画像データを夫々符号化した後(S9)、符号化したデータを夫々復号化して(S10)、ステップS8において、右眼用と左眼用の画像データを使用して三次元画像を再生するようにしている。
FIG. 6 is a flowchart showing a process of selectively merging the image data for the right eye and the left eye for each line in the encoding processing apparatus according to the first embodiment.
In this case, first, image data for right eye and left eye, which is three-dimensional image data, is input (S1). Next, the correlation value of part or all of the image data for the right eye and the left eye is calculated, and the depth degree is determined in the subsequent step S3.
Here, if the correlation value is smaller than the preset threshold value in step S3 (Y in S3), the right eye image data and the left eye image data are merged (S4). After the merged image data is encoded (S5), the encoded data is decoded (S6), and the merged image data is decomposed and returned to the original image data for the right eye and the left eye. (S7) A three-dimensional image is reproduced using the right-eye and left-eye image data (S8).
On the other hand, if the correlation value is larger than the preset threshold value in step S3 (N in S3), after encoding the image data for the right eye and the left eye (S9), the encoded data is Each is decoded (S10), and in step S8, the three-dimensional image is reproduced using the image data for the right eye and the left eye.

上記ステップS3における奥行き度合いの判断は、例えば、画像データが輝度情報と色差情報と分割されて構成されているときに、同じ輝度情報同士のデータ間で相関を比較する。画像データは同じ性質をもつ類似なデータであることが前提である。そこで、奥行き度合いの判断では、相関ではなく一般的な類似度を使用することもできる。
例えば、類似度として画像データの分布(濃度)ヒストグラムが互いに近いかどうかによって判別する。類似度判定は、入力処理部で入力された二つの画像データを用いて、上記例のように直接的に、画素単位に比較するのでも構わないし、画像の特徴(特徴を表す分布)で比較しても構わない。例えば、色分布などの特徴量(平均、分散などの統計的特徴)を互いに比較するのでも構わない。また、特定領域であっても全体であっても構わない。画素単位に比較する場合は、判定対象の画像データの二値画像データを生成し互いに比較するのでも構わない。また、使用者が画像データを比較して指定するのでも構わない。
類似度が近い場合は、マージして符号化するが、そうでない場合は、マージしないで符号化する。そして、ステップS6、S10の復号化処理においてかかる判定結果を反映させる。尚、類似度が近いかどうかの判定基準は、合成して符号化することによって個別に符号化するよりも圧縮率を上げることができるかどうかの推測によって決める。
このように第1の実施形態に係る符号化処理装置においては、三次元画像データとして視野の異なる二つの画像データ(右眼用と左眼用画像データ)間の相関(類似度)を調べ、相関が高い場合だけ、右眼用と左眼用の画像データをライン単位で互いにマージすることで符号化率を高めることできる。
The determination of the depth degree in step S3 is performed by, for example, comparing the correlation between data of the same luminance information when the image data is divided into luminance information and color difference information. It is assumed that the image data is similar data having the same properties. Therefore, in the determination of the depth degree, a general similarity can be used instead of the correlation.
For example, the similarity is determined based on whether the distribution (density) histograms of image data are close to each other. The similarity determination may be performed by comparing two image data input by the input processing unit directly in pixel units as in the above example, or by comparing with image characteristics (distribution representing characteristics). It doesn't matter. For example, feature amounts such as color distribution (statistical features such as average and variance) may be compared with each other. Further, it may be a specific area or the entire area. When comparing pixel by pixel, binary image data of image data to be determined may be generated and compared with each other. Further, the user may specify the image data by comparing them.
If the similarity is close, the encoding is performed by merging. If not, the encoding is performed without merging. Then, the determination result is reflected in the decoding process of steps S6 and S10. Note that the criterion for determining whether or not the similarity is close is determined by estimating whether or not the compression rate can be increased by combining and encoding, rather than individually encoding.
Thus, in the encoding processing device according to the first embodiment, the correlation (similarity) between two image data (right eye image data and left eye image data) having different fields of view as three-dimensional image data is examined, Only when the correlation is high, the coding rate can be increased by merging the image data for the right eye and the left eye with each other in line units.

次に、本発明の第2の実施形態として奥行きを考慮した画像データ編集による符号量の調整について説明する
図7は第2の実施形態の符号化処理装置として残符号量を考慮して奥行き調整処理を行うブロックの構成を示した図である。なお、図1と同一部位には同一符号を付す。
この図7に示す符号化処理装置は、三次元画像入力部(画像データ入力手段)1、画像奥行き算出部(奥行き算出手段)2、画像編集部(画像データ編集手段)11、符号化処理部(符号化手段)5、奥行き度合い保存部6、画像データ保存部(画像データ保存手段)7、残符号量算出部(残符号量算出手段)12、残符号量保存部13により構成されている。
三次元画像入力部1から三次元画像データである右眼用と左眼用の画像データを入力し、画像奥行き算出部2で入力された画像データを再生した場合の奥行き度合いを算出し、この奥行き度合いと残符号量保存部13の残符号量に基づいて画像編集部11で画像データの編集を行うようにしている。
残符号量は、画像データ保存部7に保存可能な記憶容量である。残符号量は残符号量算出部12において、画像データ保存部7の記憶容量を測定することで算出することができる。符号化処理部5では、画像編集部11において編集後の画像データを符号化する。このとき、三次元画像データである右眼用と左眼用の画像データは、前述したようにマージされていることもあるし、そうでないこともある。
このように構成される第2の実施形態に係る符号化処理装置は、画像編集部11では奥行き情報と残符号量に基づいて画像データの編集を決定するようにした点に特徴がある。
Next, adjustment of code amount by image data editing considering depth will be described as a second embodiment of the present invention. FIG. 7 illustrates depth adjustment in consideration of remaining code amount as an encoding processing apparatus of the second embodiment. It is the figure which showed the structure of the block which processes. In addition, the same code | symbol is attached | subjected to the same site | part as FIG.
7 includes a three-dimensional image input unit (image data input unit) 1, an image depth calculation unit (depth calculation unit) 2, an image editing unit (image data editing unit) 11, an encoding processing unit. (Encoding unit) 5, depth degree storage unit 6, image data storage unit (image data storage unit) 7, remaining code amount calculation unit (remaining code amount calculation unit) 12, and remaining code amount storage unit 13. .
The right-eye and left-eye image data, which is three-dimensional image data, is input from the three-dimensional image input unit 1, and the depth degree when the image data input by the image depth calculation unit 2 is reproduced is calculated. The image editing unit 11 edits the image data based on the depth degree and the remaining code amount of the remaining code amount storage unit 13.
The remaining code amount is a storage capacity that can be stored in the image data storage unit 7. The remaining code amount can be calculated by measuring the storage capacity of the image data storage unit 7 in the remaining code amount calculation unit 12. In the encoding processing unit 5, the image editing unit 11 encodes the edited image data. At this time, the image data for the right eye and the left eye, which are three-dimensional image data, may or may not be merged as described above.
The coding processing apparatus according to the second embodiment configured as described above is characterized in that the image editing unit 11 determines editing of image data based on the depth information and the remaining code amount.

図8は、残符号量を考慮した奥行きを調整する原理図である。
画像奥行き算出部2の相関算出部2aで三次元画像である右眼用と左眼用の画像データ部分画像データの相関値を算出し、この三次元画像再生時の奥行き度合いを示す相関値と残符号量に基づいて、画像データの部分画像を編集して新しい画像データを構成して符号化する。本実施形態では右眼用と左眼用の画像データは別々に符号化しているが、両者はマージして新しい画像データを構成して符号化しても良い。また、本実施形態では画像編集部11において部分領域の右眼用の画像データと左眼用の画像データとが同じになるように編集し、簡易に三次元表示画像の奥行きをなくす調整をしている。
このように第2の実施形態では、符号量を調整するのに再生画像の奥行き度合いを考慮しているところに特徴がある。
このように画像データを編集することで奥行きを調整することは可能である。三次元再生画像の奥行きは、一般には左眼用画像データの描画内容の位置を対応する右眼用画像データの描画内容に対して、描画位置を調整することで奥行きを調整することができる。典型的には、描画対象の描画位置を同じにする(同一の描画内容にする)ことで奥行きをなくすことができる。
図9は、奥符号量の制約に基づいて再生画像の奥行きを調整する処理を示したフローチャートである。
この場合は、三次元画像である右眼用と左眼用の画像データを入力し(S21)、残符号量に余裕があるか否かの判別を行い(S22)、残符号量に余裕がない場合は(S22でN)、画像属性毎に画像データの奥行き度合いを算出して(S23)、奥行き度合いを下げるように画像データを編集する(S24)。例えば、右眼用と左眼用の画像データが同じになるように編集する。この後、符号化処理(S25)、復号化処理(S26)を行い、再生処理(S27)を行うようにしている。
なお、図9に示した処理フローでは、ステップS22において、残符号容量に余裕が無いと判断した場合は、ステップS23において画像属性毎に画像データの奥行き度合いを算出し、ステップS24において、奥行き度合いを下げるように画像データを補正しているが、ステップS22において、残符号容量に余裕が無いと判断した場合に右眼用画像データと左眼用画像データをマージする処理を行うようにしても良い、その場合は、マージ処理を行った後、ステップS23以降の処理を行うようにすればよい。
ここで、画像属性毎に奥行き調整処理を行う場合について説明しておく。
FIG. 8 is a principle diagram for adjusting the depth in consideration of the remaining code amount.
The correlation calculation unit 2a of the image depth calculation unit 2 calculates a correlation value between the right-eye and left-eye image data partial image data, which is a three-dimensional image, and a correlation value indicating a depth degree at the time of reproducing the three-dimensional image Based on the remaining code amount, the partial image of the image data is edited to construct new image data and encode it. In the present embodiment, the right-eye image data and the left-eye image data are encoded separately, but they may be merged to form new image data and encoded. In the present embodiment, the image editing unit 11 edits the partial region so that the right eye image data and the left eye image data are the same, and easily adjusts the depth of the three-dimensional display image to be eliminated. ing.
As described above, the second embodiment is characterized in that the depth of the reproduced image is taken into account when adjusting the code amount.
Thus, it is possible to adjust the depth by editing the image data. In general, the depth of the three-dimensional reproduction image can be adjusted by adjusting the drawing position with respect to the drawing content of the right-eye image data corresponding to the position of the drawing content of the left-eye image data. Typically, the depth can be eliminated by making the drawing positions to be drawn the same (the same drawing content).
FIG. 9 is a flowchart showing a process for adjusting the depth of the reproduced image based on the restriction on the depth code amount.
In this case, the right-eye image data and the left-eye image data which are three-dimensional images are input (S21), and it is determined whether or not there is a margin in the remaining code amount (S22). If not (N in S22), the depth degree of the image data is calculated for each image attribute (S23), and the image data is edited so as to reduce the depth degree (S24). For example, editing is performed so that the image data for the right eye and the left eye are the same. Thereafter, encoding processing (S25) and decoding processing (S26) are performed, and reproduction processing (S27) is performed.
In the processing flow shown in FIG. 9, when it is determined in step S22 that there is no remaining code capacity, the depth degree of the image data is calculated for each image attribute in step S23, and the depth degree is determined in step S24. However, if it is determined in step S22 that the remaining code capacity is not sufficient, the right eye image data and the left eye image data may be merged. In that case, after the merge process, the processes after step S23 may be performed.
Here, a case where depth adjustment processing is performed for each image attribute will be described.

図10は画像属性毎の奥行き調整処理ブロック構成図である。
この図10に示す奥行き調整処理ブロックは、三次元画像入力部21、画像データ保存部22、属性毎領域抽出部23、画像属性領域データ保存部24、画像属性毎奥行き算出部25、画像属性毎奥行きデータ保存部26、画像属性毎奥行き評価部27、画像属性毎画像データ編集部28により構成されている。
三次元画像入力部21から三次元画像データを入力し、画像データ保存部22に画像データを保存し、属性毎領域抽出部23にて画像属性領域情報を抽出する。画像属性毎奥行き算出部25は、図11に示すように、画像属性毎画像抽出部31、ライン毎画像データ抽出部32、相関算出部33、奥行き算出部34、ライン毎画像データ保存部35、相関データ保存部36により構成され、画像属性毎画像抽出部31にて属性領域の画像データを読み込み、ライン毎画像データ抽出部32で画像データをライン単位で読み込み、相関算出部33で、ライン単位で相関値を算出する。そして、奥行き算出部34で奥行きデータを算出する。相関が算出されたらライン単位の相関値を相関データ保存部36に保存する。奥行き算出部34では、属性領域の画像データが保存されたライン単位の相関値を用いて奥行き度合いを算出する。また、奥行き算出部34では保存されたライン単位の相関値を用いて相関値の逆数を画像のライン毎に集計し、ライン毎の平均値を算出し、画像全体の奥行き度合いを算出するようにしている。
このようにして画像属性毎奥行き算出部25において算出した画像属性毎の奥行き情報は画像属性毎奥行きデータ保存部26に保存される。画像属性毎奥行き評価部27は、画像属性の奥行きの有無、あるいは、奥行きのレベルを、基準値を使用して評価する。例えば、奥行きレベルとして、大/中/小の判定を行う。
FIG. 10 is a block diagram of the depth adjustment processing for each image attribute.
The depth adjustment processing block shown in FIG. 10 includes a three-dimensional image input unit 21, an image data storage unit 22, an attribute-specific region extraction unit 23, an image attribute region data storage unit 24, an image attribute-specific depth calculation unit 25, and an image attribute-specific block. A depth data storage unit 26, a depth evaluation unit 27 for each image attribute, and an image data editing unit 28 for each image attribute are configured.
Three-dimensional image data is input from the three-dimensional image input unit 21, the image data is stored in the image data storage unit 22, and the image attribute region information is extracted by the attribute region extraction unit 23. As shown in FIG. 11, the image attribute depth calculation unit 25 includes an image attribute image extraction unit 31, a line image data extraction unit 32, a correlation calculation unit 33, a depth calculation unit 34, a line image data storage unit 35, The correlation data storage unit 36 is configured to read the image data of the attribute area by the image extraction unit 31 for each image attribute, read the image data for each line by the image data extraction unit 32 for each line, and read the image data for each line by the correlation calculation unit 33. To calculate the correlation value. The depth calculation unit 34 calculates depth data. When the correlation is calculated, the correlation value for each line is stored in the correlation data storage unit 36. The depth calculation unit 34 calculates the depth degree using the correlation value for each line in which the image data of the attribute area is stored. Further, the depth calculation unit 34 uses the stored correlation values in units of lines to total the reciprocal of the correlation values for each line of the image, calculates an average value for each line, and calculates the depth degree of the entire image. ing.
The depth information for each image attribute calculated by the depth calculation unit 25 for each image attribute in this way is stored in the depth data storage unit 26 for each image attribute. The depth evaluation unit 27 for each image attribute evaluates the presence / absence of the depth of the image attribute or the depth level using the reference value. For example, large / medium / small is determined as the depth level.

図12は、画像領域毎の奥行き調整の原理図である。
右眼用と左眼用画像データの画像属性の特定領域の三次元画像データを抽出し、画像属性毎奥行き算出部25内の相関算出部33で部分領域の画像データ間の相関を計算する。
そして、画像属性毎画像データ編集部28において相関算出部33で求めた相関値を用いて画像データを編集する。
画像属性毎画像データ編集部28における編集は、一方の画像データの画像属性領域に対して編集を施すようにする。簡易に三次元表示画像の奥行きを自動的に調整する手段を提供する。典型的な編集としては、領域別に右眼用の画像データと左眼用の画像データを同じにする編集を施し、簡易に三次元表示画像の奥行きをなくすように調整する調整手段を設けるようにする。つまり、三次元画像表示を二次元画像表示に簡易に変換する調整手段を備えるようにする。また文字を認識するのに奥行きがある場合には、視差量が大きいため目の疲労が生じる。そこで、文字画像領域が含まれている場合は、文字画像領域の奥行きが少なくなるように好適には無くすように調整する調整手段を備えるようにすると、視差量をなくすことができ有効である。
図13は画像属性毎に奥行き調整する処理を示したフローチャートである。
この場合、画像属性毎に画像データの奥行き度合いを算出する算出処理を行った後(S31)、画像属性が文字である画像領域に対して奥行き度合いを算出する(S32)。そして、前記奥行き度合いが「0」でない場合、右眼用と左眼用の画像データを同じにして(S33)、処理を終えるようにする。
なお、この図13に示す処理フローにおいては、文字画像領域の奥行きをなくす処理について記述しているが、画像属性領域の画像データに対する編集としては、文字属性領域の編集に限定されるわけではない。また、この処理フローでは画像属性領域としているが画像領域でも構わない。注目領域などのある特定の画像領域の画像データの奥行き度合いは残し、残りの領域は奥行きをなくすように画像データを調整しても構わない。
FIG. 12 is a principle diagram of depth adjustment for each image area.
The three-dimensional image data of the specific region of the image attribute of the right eye image data and the left eye image data is extracted, and the correlation between the image data of the partial regions is calculated by the correlation calculation unit 33 in the depth calculation unit 25 for each image attribute.
Then, the image data editing unit 28 edits the image data using the correlation value obtained by the correlation calculation unit 33.
In the editing by the image data editing unit 28 for each image attribute, the image attribute area of one image data is edited. Means for automatically adjusting the depth of a three-dimensional display image is provided. As typical editing, editing is performed so that the image data for the right eye and the image data for the left eye are the same for each region, and adjustment means for easily adjusting the depth of the three-dimensional display image is provided. To do. That is, an adjustment unit that easily converts a three-dimensional image display into a two-dimensional image display is provided. In addition, when there is a depth in recognizing characters, eye fatigue occurs due to the large amount of parallax. Therefore, when a character image area is included, it is effective to provide an adjustment unit that adjusts the character image area so that the depth of the character image area is preferably reduced so that the amount of parallax can be eliminated.
FIG. 13 is a flowchart showing processing for adjusting the depth for each image attribute.
In this case, after performing a calculation process for calculating the depth degree of the image data for each image attribute (S31), the depth degree is calculated for the image area whose image attribute is a character (S32). If the depth degree is not “0”, the right eye image data and the left eye image data are made the same (S33), and the process is terminated.
Note that the processing flow shown in FIG. 13 describes the processing for eliminating the depth of the character image area, but editing the image data in the image attribute area is not limited to editing the character attribute area. . In this processing flow, the image attribute area is used, but it may be an image area. The image data may be adjusted so that the depth degree of the image data of a specific image region such as a region of interest remains, and the remaining region has no depth.

ここで、図14に示すフローチャートを用いて、図13に示したステップS31において実行する奥行き度合いを算出する算出処理について説明しておく。
この場合は、三次元画像データである右眼用と左眼用の画像データを入力し(S41)、右眼用と左眼用どちらかの三次元画像データを分析し属性毎の領域を算出する(S42)。
次に、右眼用と左眼用の画像データのライン毎に入力し(S43)、夫々の画像データをライン毎に相関値を算出する(S44)。そして、相関値の逆数を画像のライン毎の奥行き度合いとし(S45)、相関値の逆数を画像のライン毎に集計しライン毎の平均値を算出して該領域の奥行き度合いとする(S46)。そして続くステップS47において、領域内の全ての画像を行ったかどうかの判断を行い、領域内の全ての画像に対して行っていなければ(S47でN)、ステップS43に戻って処理を行う。
一方、ステップS47において領域内の全ての画像に行ったと判断した場合は(S47でY)、続くステップS48において全領域に対して行った否かの判断を行い、全領域に対して領域毎に行っていなければ(S48でN)、領域を変更した後(S49)、ステップS43に戻って再度処理を行う。一方、全領域に対して領域毎に行っていれば(S48でY)、処理を終了する。
このように第2の実施形態に係る符号化処理装置においては、右眼用と左眼用の画像データ間の相関が再生時の奥行き度合いの大きさと反比例の関係にあることに着目して、残符号量と奥行き度合いに基づいて入力画像データを編集して符号量制御することで、三次元画像の再生画質を考慮した符号量制御を行うようにしている。例えば、部分的に右眼用と左眼用の二つの画像データが同じになるように画像データを一部修正することで符号化における圧縮率の向上を図ることができる。
Here, a calculation process for calculating the depth degree executed in step S31 shown in FIG. 13 will be described using the flowchart shown in FIG.
In this case, right-eye and left-eye image data that is three-dimensional image data is input (S41), and either right-eye or left-eye three-dimensional image data is analyzed to calculate a region for each attribute. (S42).
Next, input is performed for each line of image data for the right eye and for the left eye (S43), and a correlation value is calculated for each line of image data (S44). Then, the reciprocal of the correlation value is set as the depth degree for each line of the image (S45), the reciprocal of the correlation value is totaled for each line of the image, and the average value for each line is calculated to obtain the depth degree of the area (S46). . In subsequent step S47, it is determined whether or not all the images in the region have been performed. If not performed for all the images in the region (N in S47), the process returns to step S43 for processing.
On the other hand, if it is determined in step S47 that the image has been applied to all the images in the region (Y in S47), it is determined in step S48 whether or not the operation has been performed for all the regions, and for all regions, If not (N in S48), after changing the area (S49), the process returns to step S43 to perform the process again. On the other hand, if the process is performed for each region with respect to all regions (Y in S48), the process is terminated.
In this way, in the encoding processing device according to the second embodiment, focusing on the fact that the correlation between the image data for the right eye and the left eye is inversely proportional to the depth degree during reproduction, By editing the input image data and controlling the code amount based on the remaining code amount and the depth degree, the code amount control considering the reproduction image quality of the three-dimensional image is performed. For example, it is possible to improve the compression rate in encoding by partially modifying the image data so that the two image data for the right eye and the left eye are partially the same.

次に、本発明の第3の実施形態としてライン方向を決めて右眼用と左眼用の画像データをライン毎にマージして合成する場合について説明する。
本発明の符号化処理装置の基本的な構成は、画像データをライン単位で読み込み、ライン単位奥行き度合いを評価して選択的にライン単位でマージして、マージした画像データに対して符号化する。本実施形態の符号化処理装置における画像データの読み込み、奥行き度合いの算出と評価、あるいは符号データのマージは全て画像データをライン単位で処理をする。そのため、夫々のライン単位の画像データが、画像データの読み込み方向と一致していることが望ましい。例えば、ライン単位で読み込みながらライン単位でマージした画像データを合成すれば、処理は効率化できる。
そこで、本実施形態においては、画像データの読み込み方向(水平方向または垂直方向)とその後工程の画像データのライン単位の処理のラインの方向が一致する構成し、処理効率を上げるようにすることも可能である。
図15は、画像データを読み込む方向(水平方向または垂直方向)について説明するための図である。撮影またはスキャンされた画像データをそのままの順番で読み込んで処理できると処理を効率的に進めることができる。全ての画像データを読み込んでから処理をするとなると、画像データを一時保存するためのメモリを必要とするからである。
本実施形態では、水平ライン毎だけでなく垂直ライン毎に右眼用と左眼用の画像データを読み込んで、ライン単位の互いの相関を算出することで、画像データの読み込み(撮影またはスキャン)の順番に合わせた効率的な処理を実現することができる。
なお、入力される画像データの順番に処理できるように、読み込み方向が、水平方向と垂直方向が選択的にできるように構成してもよい。画像データの読み込みの順番に合うように選択的に処理ライン方向を選択することで、画像データの読み込みの順番が予め定まってないような場合においても効率的に処理することができる。
Next, a case where the line direction is determined and the image data for the right eye and the left eye are merged and combined for each line will be described as a third embodiment of the present invention.
The basic configuration of the encoding processing apparatus of the present invention reads image data in units of lines, evaluates the degree of depth in units of lines, selectively merges in units of lines, and encodes the merged image data. . In the image processing apparatus of this embodiment, reading of image data, calculation and evaluation of the degree of depth, or merging of code data all process image data in units of lines. For this reason, it is desirable that the image data of each line unit matches the reading direction of the image data. For example, if image data merged in units of lines while being read in units of lines is synthesized, the processing can be made efficient.
Therefore, in the present embodiment, the reading direction (horizontal direction or vertical direction) of the image data and the direction of the line of processing in units of line of the image data in the subsequent process are configured to increase the processing efficiency. Is possible.
FIG. 15 is a diagram for describing a direction (horizontal direction or vertical direction) in which image data is read. If the captured or scanned image data can be read and processed in the same order, the processing can be performed efficiently. This is because if processing is performed after all image data has been read, a memory for temporarily storing the image data is required.
In the present embodiment, image data is read (captured or scanned) by reading image data for the right eye and the left eye for each vertical line as well as for each horizontal line and calculating the correlation between the lines. It is possible to realize efficient processing according to the order.
It should be noted that the reading direction may be configured so that the horizontal direction and the vertical direction can be selectively selected so that the input image data can be processed in order. By selectively selecting the processing line direction so as to match the reading order of the image data, it is possible to efficiently process even when the reading order of the image data is not determined in advance.

次に、本発明の第4の実施形態として符号レベルでの奥行きの編集について説明する。
図16は、合成する画像データがタイル単位である場合を示した図である。
右眼用と左眼用の画像データが予めブロック(タイル)単位で分割され、ブロック単位の画像データ毎に独立に符号化されるような場合にあっては、マージする画像データもブロック(タイル)単位であることを示している。特に大きな画像をタイル単位に分割せずにマージした場合の画像データの容量が大きい場合には、画像データ保存する記憶容量が大きくなるため、ブロック単位で分割してマージすることが有効となる。
図17は、合成する画像データがコンポーネント(色の要素)単位である場合を示した図である。
図17においては右眼用と左眼用の画像データが夫々3つのコンポーネントからなる画像データで構成されている。色の要素ごと(例えば、RGB三要素毎)の合成でないと画像データ間の相関が低いからである。即ち、色の要素ごとは互いに相関が高く、マージした画像データを符号化した時の圧縮率を高まることが期待できる。逆に異なるコンポーネント間の画像データ同士は、相関が高くなることは期待できない。なお、本実施形態ではコンポーネントの数は3つとしているが、複数個からなっていればよく4つであっても構わない。
Next, depth editing at a code level will be described as a fourth embodiment of the present invention.
FIG. 16 is a diagram illustrating a case where image data to be combined is in units of tiles.
When the image data for the right eye and the left eye is divided in advance in units of blocks (tiles) and encoded independently for each block of image data, the image data to be merged is also in blocks (tiles). ) Is a unit. In particular, when a large image is merged without being divided into tile units, the image data capacity is large. Therefore, since the storage capacity for storing the image data is large, it is effective to divide and merge in block units.
FIG. 17 is a diagram illustrating a case where image data to be combined is in units of components (color elements).
In FIG. 17, the image data for the right eye and the image for the left eye are each composed of image data composed of three components. This is because the correlation between the image data is low unless the composition is performed for each color element (for example, every three RGB elements). That is, the color elements are highly correlated with each other, and it can be expected that the compression rate when the merged image data is encoded is increased. Conversely, image data between different components cannot be expected to have a high correlation. In the present embodiment, the number of components is three. However, the number of components may be four as long as it is composed of a plurality of components.

図18は、第5の実施形態に係る符号列編集による奥行き度合い調整の原理図である。
二つの画像データを合成する場合に、合成する画像データが互いに分離されているように画像データがブロック(タイル)分割されていて、夫々のブロック(タイル)毎に独立に符号化され、独立したブロック毎に独立した符号データが生成され、符号データレベルで編集する。
係る符号化は前述したJPEG2000(ISO/IEC 15444−1)で符号化されている場合には、符号レベルでの編集を容易に進めることができる。本実施形態では、合成された画像データを符号化する方式は、別々に独立に符号化するのと比較して、両者のデータがまとまっていることから、領域部分的な符号量制御が容易であるというところにも着目した。
JPEG2000規格の符号化によれば、符号レベルでの編集が容易に実現できる。符号レベルと対応画像空間上での領域対応がなされているため、符号レベルの領域処理も容易に実施できるのである。例えば、前記領域とそれ以外の領域とで異なる圧縮率により前記符号化する。特に、注目領域とそうでない領域とで異なる圧縮率で符号化する。
以下、JPEG2000規格に基づき符号化について説明する。
JPEG2000規格の符号化は、おおよそ以下の手順でなされる。
先ず、インターレース画像のフレームデータを、Y,Cr,Cbの色成分毎のデータに変換する。次に各色成分の色データに対して、次元離散ウェーブレット変換を施す。これにより得られるウェーブレット係数にJPEG2000に規定のスカラ量子化処理を施す。次に、スカラ量子化されたデータに対しJPEG2000に規定のエントロピー符号化処理(いわゆる係数モデリングによる算術符号化処理)を施す。そして全ての色データに対して上記のような処理を施した後、JPEG2000で規定する符号列を生成するようにしている。
また、復号化処理はこの逆の手順である。
勿論、これらの処理は、ハードウェア回路により実現しても良い。処理の高速化が図られる。なお、JPEG2000に準拠する符号化処理を全てハードウェア回路で実現する画像処理装置は、既に存在する。
FIG. 18 is a principle diagram of depth degree adjustment by code string editing according to the fifth embodiment.
When combining two pieces of image data, the image data is divided into blocks (tiles) so that the image data to be combined is separated from each other, and each block (tile) is independently encoded and independent. Independent code data is generated for each block and edited at the code data level.
When such encoding is encoded by JPEG2000 (ISO / IEC 15444-1) described above, editing at the code level can be easily advanced. In the present embodiment, the method for encoding the synthesized image data is easier to control the code amount of the partial area because the data of both is collected as compared with the case of encoding separately and independently. We also paid attention to where it is.
According to the encoding of the JPEG2000 standard, editing at the code level can be easily realized. Since the code level corresponds to the area in the corresponding image space, the code level area processing can be easily performed. For example, the encoding is performed with different compression rates in the area and other areas. In particular, encoding is performed at different compression rates for the attention area and the other areas.
Hereinafter, encoding will be described based on the JPEG2000 standard.
The encoding of the JPEG2000 standard is performed in the following procedure.
First, frame data of an interlaced image is converted into data for each color component of Y, Cr, and Cb. Next, dimensional discrete wavelet transform is performed on the color data of each color component. The wavelet coefficients obtained in this way are subjected to scalar quantization processing prescribed in JPEG2000. Next, the entropy encoding process (arithmetic encoding process by so-called coefficient modeling) prescribed in JPEG2000 is performed on the scalar quantized data. After all the color data is processed as described above, a code string defined by JPEG2000 is generated.
The decoding process is the reverse procedure.
Of course, these processes may be realized by a hardware circuit. The processing speed can be increased. Note that there is already an image processing apparatus that implements all the encoding processing compliant with JPEG2000 with a hardware circuit.

図19はJPEG2000の基本となる階層符号化アルゴリズムを説明するための図であり、色空間変換・逆変換部110、2次元ウェーブレット変換・逆変換部111、量子化・逆量子化部112、エントロピー符号化・復号化部113、タグ処理部114により構成されている。JPEGアルゴリズムと比較して、最も大きく異なる点の一つは変換方法である。JPEGでは離散コサイン変換(DCT:Discrete Cosine Transform)を、階層符号化圧縮伸長アルゴリズムでは離散ウェーブレット変換(DWT:Discrete Wavelet Transform)を各々用いている。
DWTはDCTに比べて、高圧縮領域における画質が良いという長所が、JPEGの後継アルゴリズムであるJPEG2000で採用された大きな理由の一つとなっている。
また、他の大きな相違点は、後者では、最終段に符号形成をおこなうために、タグ処理部114と呼ばれる機能ブロックが追加されていることである。この部分で、圧縮動作時には圧縮データがコード・ストリームとして生成され、伸長動作時には伸長に必要なコード・ストリームの解釈が行われる。そして、コード・ストリームによって、JPEG2000は様々な便利な機能を実現できるようになった。例えば、図23に示したようにブロック・ベースでのDWTにおけるオクターブ分割に対応した任意の階層(デコンポジション・レベル)で、静止画像の圧縮伸長動作を自由に停止させることができるようになる。
なお、原画像の入出力部分には、色空間変換部が接続されることが多い。例えば、原色系のR(赤)/G(緑)/B(青)の各コンポーネントからなるRGB表色系や、補色系のY(黄)/M(マゼンタ)/C(シアン)の各コンポーネントからなるYMC表色系から、YUVあるいはYCbCr表色系への変換又は逆の変換を行う部分がこれに相当する。
以下、JPEG2000アルゴリズムについて、少し詳しく説明する。
カラー画像は、一般に図20に示すように、原画像の各コンポーネント(ここではRGB原色系)が、矩形をした領域(タイル)によって分割される。そして、個々のタイル、例えば、R00,R01,…,R15/G00,G01,…,G15/B00,B01,…,B15が、圧縮伸長プロセスを実行する際の基本単位となる。従って、圧縮伸長動作は、コンポーネント毎、そしてタイル毎に、独立に行なわれる。
符号化時には、各コンポーネントの各タイル120のデータが、図19の色空間変換部110に入力され、色空間変換を施されたのち、2次元ウェーブレット変換部111で2次元ウェーブレット変換(順変換)が適用されて周波数帯に空間分割される。
FIG. 19 is a diagram for explaining a hierarchical encoding algorithm that is the basis of JPEG 2000. The color space transform / inverse transform unit 110, the two-dimensional wavelet transform / inverse transform unit 111, the quantization / inverse quantization unit 112, and the entropy The encoding / decoding unit 113 and the tag processing unit 114 are configured. One of the biggest differences compared to the JPEG algorithm is the conversion method. Discrete cosine transform (DCT) is used in JPEG, and discrete wavelet transform (DWT) is used in the hierarchical coding compression / decompression algorithm.
The advantage that DWT has better image quality in the high compression region than DCT is one of the major reasons adopted in JPEG2000, which is the successor algorithm of JPEG.
Another major difference is that, in the latter case, a function block called a tag processing unit 114 is added in order to perform code formation at the final stage. In this part, compressed data is generated as a code stream during the compression operation, and a code stream necessary for decompression is interpreted during the decompression operation. And with the code stream, JPEG2000 can realize various convenient functions. For example, as shown in FIG. 23, the compression / decompression operation of a still image can be freely stopped at an arbitrary hierarchy (decomposition level) corresponding to octave division in block-based DWT.
A color space conversion unit is often connected to the input / output portion of the original image. For example, the RGB color system composed of R (red) / G (green) / B (blue) components of the primary color system and the Y (yellow) / M (magenta) / C (cyan) components of the complementary color system This corresponds to the part that performs conversion from the YMC color system consisting of the above to the YUV or YCbCr color system or the reverse conversion.
Hereinafter, the JPEG2000 algorithm will be described in detail.
As shown in FIG. 20, in general, each color image component (in this case, the RGB primary color system) is divided into rectangular regions (tiles). Each tile, for example, R00, R01, ..., R15 / G00, G01, ..., G15 / B00, B01, ..., B15, is a basic unit for executing the compression / decompression process. Therefore, the compression / decompression operation is performed independently for each component and for each tile.
At the time of encoding, the data of each tile 120 of each component is input to the color space conversion unit 110 in FIG. 19 and subjected to color space conversion, and then the two-dimensional wavelet conversion unit 111 performs two-dimensional wavelet conversion (forward conversion). Is applied and spatially divided into frequency bands.

図21には、デコンポジション・レベル数が3の場合の各デコンポジション・レベルにおけるサブ・バンドを示している。即ち、原画像のタイル分割によって得られたタイル原画像(0LL)(デコンポジション・レベル0)に対して、2次元ウェーブレット変換を施し、デコンポジション・レベル1に示すサブ・バンド(1LL,1HL,1LH,1HH)を分離する。そして引き続き、この階層における低周波成分1LLに対して、2次元ウェーブレット変換を施し、デコンポジション・レベル2に示すサブ・バンド(2LL,2HL,2LH,2HH)を分離する。順次同様に、低周波成分2LLに対しても、2次元ウェーブレット変換を施し、デコンポジション・レベル3に示すサブ・バンド(3LL,3HL,3LH,3HH)を分離する。
さらに図23では、各デコンポジション・レベルにおいて符号化の対象となるサブ・バンドを、グレーで表してある。
例えば、デコンポジション・レベル数を3とした時、グレーで示したサブ・バンド(3HL,3LH,3HH,2HL,2LH,2HH,1HL,1LH,1HH)が符号化対象となり、3LLサブ・バンドは符号化されない。
次いで、指定した符号化の順番で符号化の対象となるビットが定められ、図19の量子化部112で対象ビット周辺のビットからコンテキストが生成される。
量子化の処理が終わったウェーブレット係数は、個々のサブ・バンド毎に、「プレシンクト」と呼ばれる重複しない矩形に分割される。これは、インプリメンテーションでメモリを効率的に使うために導入されたものである。図23に示したように一つのプレシンクトは、空間的に一致した3つの矩形領域からなっている。更に、個々のプレシンクトは、重複しない矩形の「コード・ブロック」に分けられる。これは、エントロピー・コーディングを行う際の基本単位となる。
FIG. 21 shows sub-bands at each composition level when the number of composition levels is three. That is, the tile original image (0LL) (decomposition level 0) obtained by the tile division of the original image is subjected to two-dimensional wavelet transform, and sub-bands (1LL, 1HL, 1LH, 1HH). Subsequently, the low-frequency component 1LL in this hierarchy is subjected to two-dimensional wavelet transform to separate sub-bands (2LL, 2HL, 2LH, 2HH) shown in the decomposition level 2. Similarly, the low-frequency component 2LL is also subjected to two-dimensional wavelet transform to separate the sub-bands (3LL, 3HL, 3LH, 3HH) shown in the decomposition level 3.
Further, in FIG. 23, the sub-bands to be encoded at each decomposition level are represented in gray.
For example, when the number of decomposition levels is 3, the sub-bands shown in gray (3HL, 3LH, 3HH, 2HL, 2LH, 2HH, 1HL, 1LH, 1HH) are to be encoded, and the 3LL sub-band is Not encoded.
Next, the bits to be encoded are determined in the designated encoding order, and the context is generated from the bits around the target bits in the quantization unit 112 in FIG.
The wavelet coefficients that have undergone the quantization process are divided into non-overlapping rectangles called “precincts” for each sub-band. This was introduced to use memory efficiently in implementation. As shown in FIG. 23, one precinct is composed of three rectangular regions that are spatially matched. Further, each precinct is divided into non-overlapping rectangular “code blocks”. This is the basic unit for entropy coding.

エントロピー符号化部113(図19参照)では、コンテキストと対象ビットから確率推定によって、各コンポーネントのタイルに対する符号化を行う。こうして、原画像の全てのコンポーネントについて、タイル単位で符号化処理が行われる。
エントロピー符号化部113で形成される符号データの最小単位は、パケットと呼ばれる。パケットは、プログレッシブ順にシーケンス化され、これが画像ヘッダセグメントのなかの1つで示される。パケットは、あるプログレッシブ順データ、例えば、それぞれ、領域、解像度、レイヤ、および色成分によって配列される。即ち、JPEG2000規格では、画質(レイヤ(L))、解像度(R)、コンポーネント(C)、位置(プレシンクト(P))という4つの画像の要素の優先順位を変更することによって、以下に示す5通りのプログレッションが定義されている。
(1)LRCP プログレッション:プレシンクト、コンポーネント、解像度レベル、レイヤの順序に復号されるため、レイヤのインデックスが進む毎に画像全面の画質が改善されることになり、画質のプログレッションが実現出来る。レイヤプログレッションとも呼ばれる。
(2)RLCP プログレッション:プレシンクト、コンポーネント、レイヤ、解像度レベルの順序に復号されるため、解像度のプログレッションが実現出来る。
RPCL プログレッション:レイヤ、コンポーネント、プレシンクト、解像度レベルの順序に復号されるため、RLCP同様、解像度のプログレッションであるが、特定位置の優先度を高くすることが出来る。
(3)PCRL プログレッション:レイヤ、解像度レベル、コンポーネント、プレシンクトの順序に復号されるため、特定部分の復号が優先されるようになり空間位置のプログレッションが実現出来る。
(4)CPRL プログレッション:レイヤ、解像度レベル、プレシンクト、コンポーネントの順序に復号されるため、例えばカラー画像のプログレッシブ復号の際に最初にグレーの画像を再現するようなコンポーネントのプログレッションが実現出来る。
このようにJPEG2000規格では、画像は領域(タイルまたはプレシンクトといった画像構成要素)、解像度、階層(レイヤ)、色成分に分割され、夫々が独立してパケットとして符号化される。これらのパケットはデコードすることなしに、コード・ストリームから識別され抽出され得るところに特徴がある。
最後にタグ処理部(符号列形成部)は、エントロピコーダ部からの全符号化データを1本のコード・ストリームに結合するとともに、それにタグを付加する処理を行う。
The entropy encoding unit 113 (see FIG. 19) performs encoding on tiles of each component by probability estimation from the context and the target bit. In this way, encoding processing is performed in tile units for all components of the original image.
The minimum unit of code data formed by the entropy encoding unit 113 is called a packet. The packets are sequenced in progressive order, which is indicated by one of the image header segments. The packets are arranged by some progressive order data, eg, region, resolution, layer, and color component, respectively. That is, in the JPEG2000 standard, by changing the priority order of the four image elements of image quality (layer (L)), resolution (R), component (C), and position (precinct (P)), the following 5 Street progression is defined.
(1) LRCP progression: Since decoding is performed in the order of precinct, component, resolution level, and layer, the image quality of the entire image is improved each time the layer index is advanced, and the progression of image quality can be realized. Also called layer progression.
(2) RLCP progression: Since the decoding is performed in the order of precinct, component, layer, and resolution level, the progression of resolution can be realized.
RPCL progression: Since decoding is performed in the order of layer, component, precinct, and resolution level, it is a progression of resolution as in RLCP, but the priority of a specific position can be increased.
(3) PCRL progression: Since decoding is performed in the order of layer, resolution level, component, and precinct, decoding of a specific part is prioritized, and progression of spatial position can be realized.
(4) CPRL Progression: Since decoding is performed in the order of layer, resolution level, precinct, and component, for example, when a color image is progressively decoded, a component progression that first reproduces a gray image can be realized.
As described above, in the JPEG2000 standard, an image is divided into regions (image constituent elements such as tiles or precincts), resolutions, hierarchies (layers), and color components, and each is independently encoded as a packet. These packets are characterized in that they can be identified and extracted from the code stream without decoding.
Finally, the tag processing unit (code string forming unit) combines all the encoded data from the entropy coder unit into one code stream and performs processing for adding a tag thereto.

図22には、コード・ストリームの構造を簡単に示した。コード・ストリームの先頭と各タイルを構成する部分タイルの先頭にはヘッダと呼ばれるタグ情報が付加され、その後に、各タイルの符号化データが続く。そして、コード・ストリームの終端には、再びタグが置かれる。
一方、復号化時には、符号化時とは逆に、各コンポーネントの各タイルのコード・ストリームから画像データを生成する。
図19を用いて簡単に説明する。この場合、タグ処理部114は、外部より入力したコード・ストリームに付加されたタグ情報を解釈し、コード・ストリームを各コンポーネントの各タイルのコード・ストリームに分解し、その各コンポーネントの各タイルのコード・ストリーム毎に復号化処理が行われる。
コード・ストリーム内のタグ情報に基づく順番で復号化の対象となるビットの位置が定められるとともに、逆量子化部112でその対象ビット位置の周辺ビット(既に復号化を終えている)の並びからコンテキストが生成される。
エントロピー復号化部113で、このコンテキストとコード・ストリームから確率推定によって復号化を行い、対象ビットを生成し、それを対象ビットの位置に書き込む。このようにして復号化されたデータは周波数帯域毎に空間分割されているため、これを2次元ウェーブレット逆変換部111で2次元ウェーブレット逆変換を行うことにより、画像データの各コンポーネントの各タイルが復元される。復元されたデータは色空間逆変換部によって元の表色系のデータに変換される。
このように、JPEG2000の符号データは、5通りのプログレッションをもつパケット単位で階層構成をもつため、階層単位で該階層を構成するパケットを削除するなどの符号データの編集処理を容易に実施することができる。
FIG. 22 simply shows the structure of the code stream. Tag information called a header is added to the head of the code stream and the head of the partial tiles constituting each tile, followed by the encoded data of each tile. A tag is again placed at the end of the code stream.
On the other hand, at the time of decoding, contrary to the time of encoding, image data is generated from the code stream of each tile of each component.
This will be briefly described with reference to FIG. In this case, the tag processing unit 114 interprets tag information added to the code stream input from the outside, decomposes the code stream into code streams of each tile of each component, and each tile of each component. Decoding processing is performed for each code stream.
The position of the bit to be decoded is determined in the order based on the tag information in the code stream, and the inverse quantization unit 112 determines from the sequence of the peripheral bits (that has already been decoded) at the target bit position. A context is created.
The entropy decoding unit 113 performs decoding by probability estimation from the context and the code stream, generates a target bit, and writes it in the position of the target bit. Since the data decoded in this way is spatially divided for each frequency band, the two-dimensional wavelet inverse transform unit 111 performs two-dimensional wavelet inverse transform on each of the tiles of each component of the image data. Restored. The restored data is converted into original color system data by the color space inverse conversion unit.
As described above, since JPEG2000 code data has a hierarchical structure in units of packets having five types of progression, code data editing processing such as deletion of packets constituting the hierarchy in units of layers can be easily performed. Can do.

本発明の第1の実施形態としての符号化処理装置の構成を示したブロック図である。It is the block diagram which showed the structure of the encoding processing apparatus as the 1st Embodiment of this invention. 右眼用と左眼用の画像データを夫々合成(マージ)した画像データの生成について説明するための図である。It is a figure for demonstrating the production | generation of the image data which each synthesize | combined (merged) the image data for right eyes and left eyes. 動画像データにおけるマージについて説明するための図である。It is a figure for demonstrating the merge in moving image data. 右眼用画像データと左眼用画像データを合成する場合に列をずらして合成する処理について説明するための図である。It is a figure for demonstrating the process which shifts a row | line | column and synthesize | combines, when synthesize | combining image data for right eyes and image data for left eyes. 選択的に右眼用画像データと左眼用画像データをライン毎にマージした画像データを符号化する処理の原理図である。FIG. 4 is a principle diagram of a process for selectively encoding image data obtained by merging right-eye image data and left-eye image data for each line. 第1の実施形態の符号化処理装置において選択的に右眼用と左眼用の画像データをライン毎にマージする処理を示したフローチャートである。It is the flowchart which showed the process which merges the image data for right eyes and left eyes selectively for every line in the encoding processing apparatus of 1st Embodiment. 第2の実施形態の符号化処理装置として残符号量を考慮して奥行き調整処理を行うブロックの構成を示した図である。It is the figure which showed the structure of the block which performs depth adjustment processing in consideration of the amount of remaining codes as an encoding processing apparatus of 2nd Embodiment. 残符号量を考慮した奥行きを調整する原理図である。It is a principle figure which adjusts the depth which considered the amount of remaining codes. 奥符号量の制約に基づいて再生画像の奥行きを調整する処理を示したフローチャートである。It is the flowchart which showed the process which adjusts the depth of a reproduction | regeneration image based on the restrictions of the back code amount. 画像属性毎の奥行き調整処理ブロック構成図である。It is a block diagram of a depth adjustment process for each image attribute. 画像属性毎に奥行き度合いを算出する算出処理ブロックの構成を示した図である。It is the figure which showed the structure of the calculation process block which calculates the depth degree for every image attribute. 画像領域毎の奥行き調整の原理図である。It is a principle figure of the depth adjustment for every image area. 画像属性毎に奥行き調整する処理を示したフローチャートである。It is the flowchart which showed the process which adjusts depth for every image attribute. 画像属性毎に奥行き度合いを算出する算出処理を示したフローチャートである。It is the flowchart which showed the calculation process which calculates the depth degree for every image attribute. 画像データを読み込む方向(水平方向または垂直方向)について説明するための図である。It is a figure for demonstrating the direction (horizontal direction or vertical direction) which reads image data. 合成する画像データがタイル単位である場合を示した図である。It is the figure which showed the case where the image data to synthesize | combine is a tile unit. 合成する画像データがコンポーネント(色の要素)単位である場合を示した図である。It is the figure which showed the case where the image data to synthesize | combine is a component (element of color) unit. 第5の実施形態に係る符号列編集による奥行き度合い調整の原理図である。It is a principle figure of the depth degree adjustment by code sequence editing concerning a 5th embodiment. JPEG2000の基本となる階層符号化アルゴリズムを説明するための図である。It is a figure for demonstrating the hierarchical encoding algorithm used as the foundation of JPEG2000. タイル分割の基本を説明するための図である。It is a figure for demonstrating the basis of tile division | segmentation. デコンポジション・レベルとサブ・バンドを説明するための図である。It is a figure for demonstrating a decomposition level and a sub band. コード・ストリームの構造を説明するための図である。It is a figure for demonstrating the structure of a code stream. プレシンクトとコード・ブロックを説明するための図である。It is a figure for demonstrating a precinct and a code block.

符号の説明Explanation of symbols

1…三次元画像入力部、2…画像奥行き算出部、3…3D画像データ選択部、2a…相関算出部、4…3D画像データ合成部、5…符号化処理部、6…保存部、7…画像データ保存部、11…画像編集部、12…残符号量算出部、13…残符号量保存部、21…三次元画像入力部、22…画像データ保存部、23…属性毎領域抽出部、24…画像属性領域データ保存部、25…画像属性毎奥行き算出部、26…画像属性毎奥行きデータ保存部、27…画像属性毎奥行き評価部、28…画像属性毎画像データ編集部、31…画像属性毎画像抽出部、32…ライン毎画像データ抽出部、33…相関算出部、34…算出部、35…ライン毎画像データ保存部、36…相関データ保存部、110…色空間変換・逆変換部、111…2次元ウェーブレット変換・逆変換部、112…量子化・逆量子化部、113…エントロピー符号化・復号化部、114…タグ処理部   DESCRIPTION OF SYMBOLS 1 ... Three-dimensional image input part, 2 ... Image depth calculation part, 3 ... 3D image data selection part, 2a ... Correlation calculation part, 4 ... 3D image data synthesis part, 5 ... Coding process part, 6 ... Storage part, 7 ... Image data storage unit, 11 ... Image editing unit, 12 ... Remaining code amount calculation unit, 13 ... Remaining code amount storage unit, 21 ... Three-dimensional image input unit, 22 ... Image data storage unit, 23 ... Region extraction unit for each attribute 24 ... Image attribute area data storage unit, 25 ... Depth calculation unit for each image attribute, 26 ... Depth data storage unit for each image attribute, 27 ... Depth evaluation unit for each image attribute, 28 ... Image data editing unit for each image attribute, 31 ... Image extraction unit for each image attribute, 32 ... Image data extraction unit for each line, 33 ... Correlation calculation unit, 34 ... Calculation unit, 35 ... Image data storage unit for each line, 36 ... Correlation data storage unit, 110 ... Color space conversion / reverse Conversion unit, 111 ... 2D wavelet Transform and inverse transform unit, 112 ... quantization and inverse quantization unit, 113 ... entropy encoding and decoding unit, 114 ... tag processing unit

Claims (11)

三次元画像を再生するための符号化処理を行う符号化処理装置であって、右眼用と左眼用の画像データを入力する画像データ入力手段と、入力された右眼用と左眼用の画像データから奥行き度合いを算出する奥行き度合い算出手段と、入力された右眼用と左眼用の画像データをライン単位で交互に重ねあわせて合成する画像データ合成手段と、入力された画像データを符号化する符号化手段と、前記奥行き度合い算出手段の算出結果に基づいて、前記画像データ合成手段により合成した合成画像データを符号化対象にするか、前記右眼用と左眼用の画像データを符号化対象にするか選択する画像データ選択手段と、を備えることを特徴とする符号化処理装置。   An encoding processing apparatus for performing encoding processing for reproducing a three-dimensional image, image data input means for inputting image data for right eye and left eye, and input for right eye and left eye Depth degree calculating means for calculating the depth degree from the image data, image data synthesizing means for alternately superimposing the inputted right eye and left eye image data in line units, and inputted image data Based on the calculation result of the encoding means for encoding and the depth degree calculation means, the synthesized image data synthesized by the image data synthesizing means is to be encoded, or the images for the right eye and the left eye An encoding processing apparatus comprising: image data selection means for selecting whether data is to be encoded. 請求項1記載の符号化処理装置において、前記奥行き度合い算出手段は、入力された2つの画像データ間の相関を算出する相関算出手段を備え、前記相関算出手段の算出結果に基づいて奥行き度合いを算出することを特徴とする符号化処理装置。   The encoding processing apparatus according to claim 1, wherein the depth degree calculating unit includes a correlation calculating unit that calculates a correlation between two input image data, and the depth degree is calculated based on a calculation result of the correlation calculating unit. An encoding processing apparatus characterized by calculating. 請求項2に記載の符号化処理装置において、前記相関算出手段は画像データの一部の領域を用いて相関を算出することを特徴とする符号化処理装置。   The encoding processing apparatus according to claim 2, wherein the correlation calculating unit calculates a correlation using a partial region of the image data. 請求項1乃至請求項3の何れか1項に記載の符号化処理装置において、前記画像データ合成手段は、二個以上の画像データをライン単位で交互に重ねあわせて合成することを特徴とする符号化処理装置。The encoding processing apparatus according to any one of claims 1 to 3, wherein the image data synthesizing unit synthesizes two or more pieces of image data which are alternately overlapped in line units. Encoding processing device. 請求項1乃至請求項4の何れか1項に記載の符号化処理装置において、前記相関算出手段における相関は画像データの水平方向のライン毎または垂直方向のライン毎に算出されることを特徴とする符号化処理装置。5. The encoding processing apparatus according to claim 1, wherein the correlation in the correlation calculation unit is calculated for each horizontal line or each vertical line of the image data. Encoding processing device. 請求項5に記載の符号化処理装置において、前記相関算出手段では、入力される画像データの水平方向又は垂直方向が選択されることを特徴とする符号化処理装置。6. The encoding processing apparatus according to claim 5, wherein the correlation calculating unit selects a horizontal direction or a vertical direction of input image data. 請求項1乃至請求項6の何れか1項に記載の符号化処理装置において、前記符号化手段により符号化した符号データがJPEG2000規格に基づき符号化されたデータであることを特徴とする符号化処理装置。The encoding processing apparatus according to any one of claims 1 to 6, wherein the encoded data encoded by the encoding means is encoded according to the JPEG2000 standard. Processing equipment. 請求項7に記載の符号化処理装置において、画像データを符号化したフレーム符号データを保存するデータ保存手段と、フレーム画像データの符号化後に符号化された符号データに対してフレーム符号データを再構成する再構成手段と、を備えることを特徴とする符号化処理装置。8. The encoding processing apparatus according to claim 7, further comprising: a data storage unit that stores frame code data obtained by encoding image data; and frame code data that is encoded after the frame image data is encoded. An encoding processing apparatus comprising: a reconfiguring unit configured. 請求項7に記載の符号化処理装置において、画像データの合成が色の要素単位であることを特徴とする符号化処理装置。8. The encoding processing apparatus according to claim 7, wherein the composition of the image data is in units of color elements. 請求項7に記載の符号化処理装置において、画像データの合成がタイル単位であることを特徴とする符号化処理装置。8. The encoding processing apparatus according to claim 7, wherein the synthesis of the image data is in units of tiles. 三次元画像を再生するための符号化処理を行う符号化処理方法であって、右眼用と左眼用の画像データを入力する画像データ入力ステップと、入力された右眼用と左眼用の画像データから奥行き度合いを算出する奥行き度合い算出ステップと、入力された右眼用と左眼用の画像データをライン単位で交互に重ねあわせて合成する画像データ合成ステップと、入力された画像データを符号化する符号化ステップと、奥行き度合いの算出結果に基づいて、合成した合成画像データを符号化対象にするか、前記右眼用と左眼用の画像データを符号化対象にするか選択する画像データ選択ステップと、を備えることを特徴とする符号化処理方法。An encoding processing method for performing encoding processing for reproducing a three-dimensional image, an image data input step for inputting image data for right eye and left eye, and input for right eye and left eye A depth degree calculating step for calculating a depth degree from the image data, an image data combining step for combining the input right eye image data and left eye image data alternately in line units, and input image data Based on the encoding step for encoding and the calculation result of the depth degree, it is selected whether to synthesize the synthesized image data or to encode the right-eye image data and the left-eye image data. And an image data selection step.
JP2005212852A 2005-07-22 2005-07-22 Encoding processing apparatus and method Expired - Fee Related JP4637672B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005212852A JP4637672B2 (en) 2005-07-22 2005-07-22 Encoding processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005212852A JP4637672B2 (en) 2005-07-22 2005-07-22 Encoding processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2007036368A JP2007036368A (en) 2007-02-08
JP4637672B2 true JP4637672B2 (en) 2011-02-23

Family

ID=37795122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005212852A Expired - Fee Related JP4637672B2 (en) 2005-07-22 2005-07-22 Encoding processing apparatus and method

Country Status (1)

Country Link
JP (1) JP4637672B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SI3758380T1 (en) 2007-04-12 2021-04-30 Dolby International AB Apollo Building, 3E Tiling in video encoding and decoding
CN102100070A (en) * 2008-07-20 2011-06-15 杜比实验室特许公司 Encoder optimization of stereoscopic video delivery systems
TW201116041A (en) * 2009-06-29 2011-05-01 Sony Corp Three-dimensional image data transmission device, three-dimensional image data transmission method, three-dimensional image data reception device, three-dimensional image data reception method, image data transmission device, and image data reception
CN102065296B (en) * 2011-01-06 2012-09-05 宁波大学 Three-dimensional video coding method
JP5127973B1 (en) * 2011-10-21 2013-01-23 株式会社東芝 Video processing device, video processing method, and video display device
JP2015502102A (en) * 2011-11-28 2015-01-19 トムソン ライセンシングThomson Licensing Processing device for generating 3D content version and related device for content acquisition

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000004437A (en) * 1998-06-16 2000-01-07 Victor Co Of Japan Ltd Picture coder
JP2004135107A (en) * 2002-10-11 2004-04-30 Hitachi Ltd Image processing apparatus and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000004437A (en) * 1998-06-16 2000-01-07 Victor Co Of Japan Ltd Picture coder
JP2004135107A (en) * 2002-10-11 2004-04-30 Hitachi Ltd Image processing apparatus and method

Also Published As

Publication number Publication date
JP2007036368A (en) 2007-02-08

Similar Documents

Publication Publication Date Title
JP4751116B2 (en) Image processing apparatus and image processing method
US8953898B2 (en) Image processing apparatus and method
Martinian et al. Extensions of H. 264/AVC for multiview video compression
CN101690249B (en) Method and system for encoding a 3D video signal, method and system for decoder for a 3D video signal
JP5575908B2 (en) Depth map generation technique for converting 2D video data to 3D video data
JP5660361B2 (en) Image processing apparatus and method, and program
US20080205791A1 (en) Methods and systems for use in 3d video generation, storage and compression
JP4637672B2 (en) Encoding processing apparatus and method
US20150341614A1 (en) Stereoscopic video encoding device, stereoscopic video decoding device, stereoscopic video encoding method, stereoscopic video decoding method, stereoscopic video encoding program, and stereoscopic video decoding program
TW202006422A (en) Methods for full parallax compressed light field 3D imaging systems
Wang et al. Curved wavelet transform for image coding
JP4898513B2 (en) Client / server system
JP2005295504A (en) Moving image encoder, decoder, control method, computer program and computer readable memory medium
US20070110163A1 (en) Image processing apparatus and image processing method
JP2010206362A (en) Video processing apparatus, video processing method, and program for executing the same on computer
WO2014157386A1 (en) Video encoding device and video decoding device
KR20000059799A (en) Device and method for motion compensation coding using wavelet coding
US20200304773A1 (en) Depth codec for 3d-video recording and streaming applications
JP7344988B2 (en) Methods, apparatus, and computer program products for volumetric video encoding and decoding
CN108111833A (en) For the method, apparatus and system of stereo video coding-decoding
JP2005086351A (en) Coding device, coding method, program and information record medium
JP4792250B2 (en) Moving image processing apparatus and moving image processing method
JP2007074042A (en) Moving picture processing apparatus and method
JP4315928B2 (en) Image processing apparatus and image processing method
JP2016192669A (en) Image processing system and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100831

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101116

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101124

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees