JP5998862B2 - Moving image processing device - Google Patents

Moving image processing device Download PDF

Info

Publication number
JP5998862B2
JP5998862B2 JP2012247056A JP2012247056A JP5998862B2 JP 5998862 B2 JP5998862 B2 JP 5998862B2 JP 2012247056 A JP2012247056 A JP 2012247056A JP 2012247056 A JP2012247056 A JP 2012247056A JP 5998862 B2 JP5998862 B2 JP 5998862B2
Authority
JP
Japan
Prior art keywords
image
divided
data
unit
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012247056A
Other languages
Japanese (ja)
Other versions
JP2014096690A (en
Inventor
大塚 竜志
竜志 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Socionext Inc
Original Assignee
Socionext Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Socionext Inc filed Critical Socionext Inc
Priority to JP2012247056A priority Critical patent/JP5998862B2/en
Priority to US14/038,042 priority patent/US9749648B2/en
Publication of JP2014096690A publication Critical patent/JP2014096690A/en
Application granted granted Critical
Publication of JP5998862B2 publication Critical patent/JP5998862B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors

Description

本発明は,動画像処理装置に関する。   The present invention relates to a moving image processing apparatus.

動画像処理装置は,映像を構成する動画像データをエンコードしてデータ圧縮し,その圧縮されたストリームデータをデコードして元の動画像データを生成する。動画圧縮として普及しているMPEG2, MPEG4, H.264等では,エンコーダが,映像を構成する動画像データを,時間的に過去の画像や未来の画像との相関に基づく動きベクトルのデータと,動きベクトルで生成した画像と本来の画像との差分画像,もしくは動きベクトルでは生成できない相関のない画像についてDCT処理,量子化処理,圧縮処理したデータとに変換する。そして,その圧縮されたストリームデータが伝送媒体を介して伝送されたり,記憶媒体に記憶されたりする。また,デコーダが,ストリームデータをデコードして元の動画像データを生成する。   The moving image processing apparatus encodes moving image data constituting a video and compresses the data, and decodes the compressed stream data to generate original moving image data. In MPEG2, MPEG4, H.264, etc., which are widely used as video compression, the encoder uses the motion vector data based on the correlation with the past image and the future image in time. A difference image between an image generated with a motion vector and an original image, or an uncorrelated image that cannot be generated with a motion vector is converted into data subjected to DCT processing, quantization processing, and compression processing. The compressed stream data is transmitted via a transmission medium or stored in a storage medium. The decoder decodes the stream data and generates original moving image data.

ハイビジョンの動画像のエンコード,デコード技術は,地上波デジタル放送やBSデジタル放送などで既に普及している。ハイビジョン画像は,2K1K(1920 x 1080)の解像度を有し,既に普及しているエンコーダやデコーダも,この解像度の動画像データを処理する。   High-definition video encoding and decoding technologies are already widely used in terrestrial digital broadcasting and BS digital broadcasting. High-definition images have a resolution of 2K1K (1920 x 1080), and encoders and decoders that have already been widely used also process moving image data of this resolution.

一方で,次世代の高解像度の動画像データとして,2K1Kのハイビジョン画像の解像度を4倍または16倍にした4K2K,8K4Kの解像度を有する動画フォーマットが提案され,開発が進められている。   On the other hand, as next-generation high-resolution moving image data, video formats having 4K2K and 8K4K resolutions in which the resolution of 2K1K high-definition images is four times or sixteen times have been proposed and are being developed.

このような4K2K,8K4Kの超高解像度画像の動画像データを,高価な専用のエンコーダやデコーダではなく,既存のハイビジョン動画像用のエンコーダやデコーダを複数設け,画面を2K1Kの解像度の領域に分割して,各エンコーダやデコーダが分担して処理することが提案されている。このような構成にすることで,コストパフォーマンスの高い動画像処理装置を実現できる。例えば,以下の特許文献などに記載されている。   For such 4K2K and 8K4K ultra-high resolution video data, instead of expensive dedicated encoders and decoders, multiple existing high-definition video encoders and decoders are provided to divide the screen into 2K1K resolution areas. Thus, it has been proposed that each encoder and decoder share the processing. With such a configuration, a moving image processing apparatus with high cost performance can be realized. For example, it is described in the following patent documents.

特開2007-67499号公報Japanese Unexamined Patent Publication No. 2007-67499 特開平11-196299号公報JP 11-196299 A 特開2007-108447号公報JP 2007-108447 特開2009-294273号公報JP 2009-294273 A

しかしながら,1つの画面を複数の画像領域に分割して,複数のエンコーダやデコーダが複数の分割画像それぞれを処理すると,分割された2K1Kの分割画像の周辺領域の画質が劣化する。さらに,各エンコーダが分割画像毎にその画像内容に応じてエンコードするため,デコードされた分割画像の境界線の両側の画質が異なる。したがって,デコーダが分割画像のデコード画像を合成すると,それらの境界線が目立ってしまい,合成画像の画質低下を招いてしまう。   However, if one screen is divided into a plurality of image areas and a plurality of encoders and decoders process each of the plurality of divided images, the image quality of the peripheral area of the divided 2K1K divided image deteriorates. Furthermore, since each encoder encodes each divided image according to the image content, the image quality on both sides of the boundary line of the decoded divided image is different. Therefore, when the decoder synthesizes the decoded images of the divided images, the boundary lines thereof become conspicuous and the quality of the synthesized image is degraded.

特許文献1では,1つの画面をオーバーラップ領域を含めて複数の画像領域に分割して,複数のエンコーダでエンコードし,複数のデコーダでデコードすることが提案されている。そして,デコーダは,デコードされた分割画像の画質が低下する周辺領域のうちオーバーラップ領域を廃棄して,合成画像における境界線の画質の低下を回避している。   Patent Document 1 proposes that one screen is divided into a plurality of image regions including an overlap region, encoded by a plurality of encoders, and decoded by a plurality of decoders. Then, the decoder discards the overlap area in the peripheral area where the image quality of the decoded divided image is degraded, and avoids the degradation of the image quality of the boundary line in the composite image.

しかし,隣接する分割画像でのエンコード処理がそれぞれの画像に起因して異なることにより,デコードされた隣接分割画像の境界部での画質が異なり,合成画像の境界部が不自然になる。つまり,一方の分割画像の画像品質が高くても,他方の分割画像の画像品質が低い場合は,合成画像の境界部の不自然さが現れる。   However, since the encoding process in the adjacent divided images is different depending on each image, the image quality at the boundary portion of the decoded adjacent divided image is different, and the boundary portion of the synthesized image becomes unnatural. In other words, if the image quality of one divided image is high but the image quality of the other divided image is low, the unnaturalness of the boundary portion of the composite image appears.

そこで,本発明の目的は,隣接する分割画像の境界部分の画質の低下を抑制した動画像処理装置を提供することにある。   Accordingly, an object of the present invention is to provide a moving image processing apparatus that suppresses deterioration in image quality at the boundary portion between adjacent divided images.

そこで,動画像処理装置の第1の側面は,動画像の画像を互いにオーバーラップ領域を有するように分割した複数の分割画像を,それぞれエンコードしてエンコード分割画像データを生成する複数のエンコーダを有するエンコーダユニットと,
前記エンコーダユニットから入力されるデータから前記複数のエンコード分割画像データをそれぞれデコードすると共に動きベクトルの情報をそれぞれ抽出する複数のデコーダと,前記複数のデコーダがそれぞれデコードして生成した複数のデコード分割画像を前記オーバーラップ領域にてブレンドして前記動画像の画像を出力する合成部とを有するデコーダユニットとを有し,
前記合成部は,前記複数のデコーダからそれぞれ出力される前記動きベクトルの情報に基づいて,前記オーバーラップ領域のブレンド率を決める。
Therefore, the first aspect of the moving image processing apparatus includes a plurality of encoders that generate encoded divided image data by encoding a plurality of divided images obtained by dividing a moving image so as to have overlapping regions. An encoder unit,
A plurality of decoders that respectively decode the plurality of encoded divided image data from the data input from the encoder unit and extract motion vector information, and a plurality of decoded divided images generated by the plurality of decoders respectively decoding A decoder unit having a synthesizing unit for blending in the overlap region and outputting an image of the moving image,
The synthesizing unit determines a blend ratio of the overlap region based on the motion vector information output from each of the plurality of decoders.

第1の側面によれば,合成画像の境界線での画質の低下を改善することができる。   According to the first aspect, it is possible to improve the deterioration of the image quality at the boundary line of the composite image.

動画像処理装置の構成図である。It is a block diagram of a moving image processing apparatus. エンコーダの構成例を示す図である。It is a figure which shows the structural example of an encoder. デコーダの構成例を示す図である。It is a figure which shows the structural example of a decoder. 境界部で画質が異なる第1の原因を説明する図である。It is a figure explaining the 1st cause from which a picture quality differs in a boundary part. 境界部で画質が異なる第2の原因を説明する図である。It is a figure explaining the 2nd cause from which a picture quality differs in a boundary part. 本実施の形態におけるエンコードとデコード処理を説明する図である。It is a figure explaining the encoding and decoding process in this Embodiment. 本実施の形態におけるエンコードとデコード処理を説明する図である。It is a figure explaining the encoding and decoding process in this Embodiment. 本実施の形態におけるオーバーラップ領域でのブレンド率の例を示す図である。It is a figure which shows the example of the blend rate in the overlap area | region in this Embodiment. 図8のブレンド率の設定を説明する図である。It is a figure explaining the setting of the blend rate of FIG. 本実施の形態におけるエンコーダユニットでの画像合成処理を説明する図である。It is a figure explaining the image composition process in the encoder unit in this Embodiment. 本実施の形態におけるエンコーダユニットでの画像合成処理を説明する図である。It is a figure explaining the image composition process in the encoder unit in this Embodiment. ブレンド率の可変制御の例を示す図である。It is a figure which shows the example of the variable control of a blend rate. 本実施の形態における動画像処理装置の構成図である。It is a block diagram of the moving image processing apparatus in this Embodiment. 画像合成部24の構成例を示す図である。3 is a diagram illustrating a configuration example of an image composition unit 24. FIG. 第2の実施の形態における動画像処理装置の構成図である。It is a block diagram of the moving image processing apparatus in 2nd Embodiment. 第2の実施の形態におけるビットレートとオーバーラップ幅OLWとの関係を示す図である。It is a figure which shows the relationship between the bit rate and overlap width OLW in 2nd Embodiment.

図1は,動画像処理装置の構成図である。動画像を構成する入力画像の解像度は例えば4K2Kと,ハイビジョン画像(2K1K)の4倍の解像度を有する。そこで,図1の動画像処理装置は,入力画像データを4つの分割画像A,B,C,Dのデータに分割する画像分割部10と,各分割画像データをそれぞれエンコードする4つのエンコーダを有するエンコーダ群12と,エンコードされたストリームデータを合成するストリーム合成部14とを含むエンコーダユニットENを有する。   FIG. 1 is a configuration diagram of a moving image processing apparatus. The resolution of the input image constituting the moving image is, for example, 4K2K, which is four times the resolution of the high-definition image (2K1K). Therefore, the moving image processing apparatus of FIG. 1 includes an image dividing unit 10 that divides input image data into four divided images A, B, C, and D, and four encoders that respectively encode the divided image data. The encoder unit EN includes an encoder group 12 and a stream synthesizing unit 14 that synthesizes the encoded stream data.

さらに,図1の動画像処理装置は,エンコーダユニットENが生成したストリームデータ16を入力し,分割画像A,B,C,Dのストリームデータに分離するストリーム分離部20と,各分割画像のストリームをデコードして分割画像A,B,C,Dのデータを生成する4つのデコーダを含むデコーダ群22と,分割画像データを合成して4K2Kの出力画像を出力する画像合成部24とを含むデコーダユニットを有する。   Further, the moving image processing apparatus of FIG. 1 receives the stream data 16 generated by the encoder unit EN and separates it into stream data of divided images A, B, C, and D, and a stream of each divided image. Including a decoder group 22 including four decoders that generate divided image data A, B, C, and D and an image composition unit 24 that combines the divided image data and outputs a 4K2K output image Have a unit.

上記のエンコーダ群12の4つのエンコーダとデコーダ群22の4つのデコーダに,既にハイビジョン画像用に普及しているものを利用することで,動画像処理装置を低コストで構成することができる。   By using the four encoders of the encoder group 12 and the four decoders of the decoder group 22 that are already widely used for high-definition images, the moving image processing apparatus can be configured at low cost.

図2は,エンコーダの構成例を示す図である。このエンコーダは,MPEG2などの規格に対応する構成を有する。まず,動画像を構成する現在のフレームの現画像データP1が入力され,メモリ制御部121を介してフレームメモリ122に保存される。また,フレームメモリ122内には,例えば以前のフレームの参照画像データP2が保存されている。そして,エンコーダは,現在フレームの現画像データP1について,例えば16×16画素のマクロブロックの単位でエンコード処理を行う。   FIG. 2 is a diagram illustrating a configuration example of the encoder. This encoder has a configuration corresponding to a standard such as MPEG2. First, current image data P1 of a current frame constituting a moving image is input and stored in the frame memory 122 via the memory control unit 121. In the frame memory 122, for example, reference image data P2 of the previous frame is stored. Then, the encoder performs an encoding process on the current image data P1 of the current frame, for example, in units of macroblocks of 16 × 16 pixels.

まず,動き予測部123が,現画像データP1内のマクロブロックの画像について参照画像データP2内の対応する画像を探索し,検出した場合にその動きベクトルMVを出力する。さらに,動き補償部124が,参照画像データP2と動きベクトルMVとから動き補償フレームの画像データP3を生成する。   First, the motion prediction unit 123 searches for a corresponding image in the reference image data P2 for a macroblock image in the current image data P1, and outputs a motion vector MV when it detects it. Further, the motion compensation unit 124 generates the image data P3 of the motion compensation frame from the reference image data P2 and the motion vector MV.

次に,差分算出部125が,動き補償フレームの画像データP3と現在フレームの現画像データP1との差分を算出し,予測誤差画像データP4を生成する。この予測誤差画像データP4は,参照画像と動きベクトルMVとで再現可能な画像データP3と,現画像データP1との差分の画像データである。   Next, the difference calculation unit 125 calculates a difference between the image data P3 of the motion compensation frame and the current image data P1 of the current frame, and generates prediction error image data P4. This prediction error image data P4 is image data of the difference between the image data P3 that can be reproduced by the reference image and the motion vector MV and the current image data P1.

セレクタ126は,動きベクトルMVが検出された場合は予測誤差画像データP4を,検出されない場合は現画像データP1を選択する。したがって,セレクタ126の出力画像データP5は,予測誤差画像データP4または現画像データP1の画素データであり,16×16画素の空間領域データである。   The selector 126 selects the prediction error image data P4 when the motion vector MV is detected, and the current image data P1 when it is not detected. Therefore, the output image data P5 of the selector 126 is the pixel data of the prediction error image data P4 or the current image data P1, and is 16 × 16 pixel spatial region data.

次に,直交変換部127が,例えば8×8画素のブロック単位でDCT処理を行い,空間領域データP5を周波数領域データP6に変換する。周波数領域データP6は,直流成分と低周波から高周波までの周波数成分の係数で構成され,8×8=16個の係数データである。   Next, the orthogonal transform unit 127 performs DCT processing in units of blocks of 8 × 8 pixels, for example, and transforms the spatial domain data P5 into frequency domain data P6. The frequency domain data P6 is composed of a DC component and coefficients of frequency components from low frequency to high frequency, and is 8 × 8 = 16 coefficient data.

そして,量子化部128は,周波数領域データP6を8×8の除算マトリクスで除算し,更に16画素に共通の単一のQ値で除算する。量子化マトリクスは,直流成分や低周波成分に対する値を小さくし,高周波成分に対する値を大きくしたものであり,1つのフレーム内で不変である。除算マトリクスで除算されると,直流成分や低周波成分のデータ量はあまり減少せず,一方高周波成分のデータ量は大きく減少する。一方,Q値は,1つのフレーム内でマクロブロック毎に(またはDCT処理単位であるブロック毎に)可変制御され,量子化,符号化後のストリームデータが一定のビットレート以内になるよう制御される。   Then, the quantization unit 128 divides the frequency domain data P6 by an 8 × 8 division matrix, and further divides by a single Q value common to 16 pixels. The quantization matrix is obtained by reducing the value for the DC component and the low-frequency component and increasing the value for the high-frequency component, and is invariant within one frame. When divided by the division matrix, the data amount of the direct current component and the low frequency component does not decrease so much, while the data amount of the high frequency component greatly decreases. On the other hand, the Q value is variably controlled for each macroblock (or for each block that is a DCT processing unit) within one frame, and the stream data after quantization and encoding is controlled to be within a certain bit rate. The

符号化部129は,量子化データP7と動きベクトルMVのデータとを例えばランレングス符号化によりデータ圧縮し,ストリームデータを出力する。これにより,ストリームデータは,動きベクトルMVが検出された場合は,動きベクトルMVと予測誤差データP4を直交変換及び量子化したデータP7とを圧縮したデータになり,一方,動きベクトルMVが検出されない場合は,現画像データP1を直交変換及び量子化したデータP7を圧縮したデータになる。   The encoding unit 129 compresses the quantized data P7 and the motion vector MV data, for example, by run-length encoding, and outputs stream data. As a result, when the motion vector MV is detected, the stream data becomes data obtained by compressing the motion vector MV and the data P7 obtained by orthogonally transforming and quantizing the prediction error data P4, while the motion vector MV is not detected. In this case, the data P7 is obtained by compressing the data P7 obtained by orthogonal transform and quantizing the current image data P1.

したがって,動きベクトルMVが検出された場合のほうが,空間領域データP5のデータ量が少なく,ストリームデータを一定のビットレート以内にするという制約下においても,量子化率に対応するQ値を小さくできるので,デコード後の画像が高画質になる傾向が高い。一方,動きベクトルMVが検出されない場合は,空間領域データP5のデータ量が多く,上記制約下ではQ値を大きくせざるをえず,デコード後の画像の低画質になる傾向が高い。   Therefore, when the motion vector MV is detected, the data amount of the spatial domain data P5 is small, and the Q value corresponding to the quantization rate can be reduced even under the constraint that the stream data is within a certain bit rate. Therefore, the image after decoding tends to have high image quality. On the other hand, when the motion vector MV is not detected, the data amount of the spatial domain data P5 is large, and the Q value has to be increased under the above-mentioned restrictions, and the image quality after decoding tends to be low.

図2のエンコーダは,更に,Q値と除算マトリクスの値を乗算する逆量子化部130と,周波数領域データを空間領域データに逆変換する逆直交変換部131と,その出力の空間領域データP8に動き補償フレームの画像データP3とを加算する差分加算部132と,セレクタ133とを有し,これらの回路によりローカルデコード処理を行う。セレクタ133は,動きベクトルMVが検出された場合は,差分加算部132の出力データを選択し,動きベクトルが検出されなかった場合は,空間領域データP8を選択して,ローカルデコード画像,即ち,後のエンコード処理で参照画像として利用される画像データP9を出力する。このセレクタ133の出力画像データP9が参照画像データとしてフレームメモリ122に保存される。   The encoder of FIG. 2 further includes an inverse quantization unit 130 that multiplies the Q value and the value of the division matrix, an inverse orthogonal transform unit 131 that inversely converts frequency domain data into spatial domain data, and spatial domain data P8 output from the inverse orthogonal transform unit 131. Are provided with a difference adding unit 132 for adding the image data P3 of the motion compensation frame and a selector 133, and these circuits perform local decoding processing. When the motion vector MV is detected, the selector 133 selects the output data of the difference adding unit 132. When the motion vector is not detected, the selector 133 selects the spatial region data P8 and selects the local decoded image, that is, Image data P9 used as a reference image in the subsequent encoding process is output. The output image data P9 of the selector 133 is stored in the frame memory 122 as reference image data.

図3は,デコーダの構成例を示す図である。デコーダもマクロブロックの単位で処理を行う。まず,復号部221がストリームデータを入力し,ランレングス復号化して動きベクトルMVと,図2の予測誤差データP4,または,動きベクトルがない場合の元の画像データP1に対応するデータP17とを出力する。そして,動き補償部222が,フレームメモリ228内に保存されていた参照画像データP2と動きベクトルMVとから動き補償フレームの画像データP13を生成する。また,逆量子化部223がデータP17に対してエンコーダから受信したQ値の乗算と,固定値の除算マトリクスの乗算を行い,逆直交変換部224が逆DCT変換して周波数領域データを空間周波数データP18に変換する。   FIG. 3 is a diagram illustrating a configuration example of a decoder. The decoder also performs processing in units of macroblocks. First, the decoding unit 221 inputs stream data and performs run-length decoding to obtain a motion vector MV and the prediction error data P4 in FIG. 2 or data P17 corresponding to the original image data P1 when there is no motion vector. Output. Then, the motion compensation unit 222 generates motion compensation frame image data P13 from the reference image data P2 and the motion vector MV stored in the frame memory 228. In addition, the inverse quantization unit 223 multiplies the data P17 by the Q value received from the encoder and the fixed value division matrix, and the inverse orthogonal transform unit 224 performs inverse DCT transform to convert the frequency domain data into a spatial frequency. Convert to data P18.

さらに,差分加算部225は,動き補償フレームの画像データP13と予測誤差データである空間周波数データP18とを加算する。セレクタ226は,動きベクトルMVが検出されていた場合は,差分加算部225が出力した画像データを選択し,動きベクトルMVが検出されていない場合は,空間周波数データP18を選択し,デコード画像データP19を出力する。このデコードされた画像データP19は,メモリ制御部227によりフレームメモリ228に保存されるとともに,エンコードされた画像出力として出力される。   Further, the difference adding unit 225 adds the image data P13 of the motion compensation frame and the spatial frequency data P18 that is prediction error data. The selector 226 selects the image data output from the difference adding unit 225 when the motion vector MV is detected, and selects the spatial frequency data P18 when the motion vector MV is not detected, and decodes the image data. P19 is output. The decoded image data P19 is stored in the frame memory 228 by the memory control unit 227 and output as an encoded image output.

次に,超高解像度の画像を分割した分割画像毎にエンコード,デコードした場合の画質低下について説明する。   Next, a description will be given of image quality degradation when encoding and decoding are performed for each divided image obtained by dividing an ultra-high resolution image.

分割画像では,映像をボカしたり逆にエッジを強調したりするなどのフィルタ処理を行なった場合,分割境界にて画素が途切れるために,適切にフィルタ処理できない。これにより画質が劣化する。このような原因に加えて,第1に,隣接する分割画像の境界部の画像は,量子化処理のQ値が隣接する分割画像で異なることに起因して,境界線の両側で画質が異なる。第2に,隣接する分割画像の境界線の両側で動きベクトルが検出される場合と検出されない場合が発生すると,動きベクトルが検出された側の画質は高く,動きベクトルが検出されてない側の画質は低くなる。   In a divided image, when filtering such as blurring the image or conversely enhancing an edge is performed, the pixels are cut off at the division boundary, and thus cannot be appropriately filtered. This degrades the image quality. In addition to this cause, first, the image of the boundary part of adjacent divided images has different image quality on both sides of the boundary line due to the difference in the Q value of quantization processing between adjacent divided images. . Second, when motion vectors are detected or not detected on both sides of the boundary line between adjacent divided images, the image quality on the side where the motion vector is detected is high, and the side on which no motion vector is detected is detected. Image quality is low.

図4は,境界部で画質が異なる第1の原因を説明する図である。図4には,4K2Kの超高解像度の画像を4等分して4つの分割画像A,B,C,Dが示されている。そして,分割画像A,Bの境界線上に静止物体30がある。この場合,分割画像A,Bをエンコードすると,いずれの分割画像でも動きベクトルが検出されず,共にイントラ予測によるエンコード処理(直交変換,量子化処理,符号化処理)されるか,静止物体30以外の画像に対して動きベクトルが検出されて,予測誤差画像についてイントラ予測によるエンコード処理される。   FIG. 4 is a diagram for explaining a first cause that the image quality is different at the boundary. FIG. 4 shows four divided images A, B, C, and D by dividing a 4K2K ultra-high resolution image into four equal parts. The stationary object 30 is on the boundary line between the divided images A and B. In this case, when the divided images A and B are encoded, no motion vector is detected in any of the divided images, and both are encoded by intra prediction (orthogonal transformation, quantization processing, encoding processing) or other than the stationary object 30. A motion vector is detected for each of the images, and the prediction error image is encoded by intra prediction.

この場合,分割画像A,B内の異なる画像に対して直交変換されることで,異なる周波数領域データが生成される。そのため,そのあとの量子化処理で分割画像A,Bの境界の両側領域の周波数領域データに対する量子化処理でのQ値が異なることがある。その結果,Q値が小さい場合は高画質になり,Q値が大きい場合は低画質になる。例えば,分割画像Aでは境界に近い右下部分の高周波成分の係数のデータ量が少なくQ値を小さくできるため高画質になる一方で,分割画像Bでは境界に近い左下部分の低中周波数成分の係数のデータ量が多くQ値を大きくできるため低画質になる。   In this case, different frequency domain data is generated by orthogonally transforming different images in the divided images A and B. Therefore, the Q value in the quantization process for the frequency domain data on both sides of the boundary between the divided images A and B may be different in the subsequent quantization process. As a result, when the Q value is small, the image quality is high, and when the Q value is large, the image quality is low. For example, in the divided image A, the data amount of the coefficient of the high-frequency component in the lower right part close to the boundary is small and the Q value can be reduced, while in the divided image B, the low middle frequency component in the lower left part close to the boundary is high. Since the data amount of the coefficient is large and the Q value can be increased, the image quality becomes low.

その結果,デコードされた分割画像において,境界の両側では高画質の領域と低画質の領域が存在することになり,合成画像において境界が目立つことが予想される。   As a result, in the decoded divided image, a high-quality area and a low-quality area exist on both sides of the boundary, and the boundary is expected to be conspicuous in the composite image.

このように,MPEG2などの動画像圧縮(エンコード)処理では,動き予測の効率を除くと(つまり両分割画像A,Bにおいて動き予測の効率が同等の場合),エンコードしたことによる画質は,直交変換後の量子化処理での除算マトリクスの係数とQ値が支配的である。除算マトリクスの係数は,通常1つのフレーム内で固定であるが,ストリームデータのビットレートを一定値内に抑えるためにQ値は画像の種類に起因して可変制御される。そのため,両分割画像A,Bにおいて動き補償に差がない場合でも,境界の両側で画質が異なることが生じる。   In this way, in moving image compression (encoding) processing such as MPEG2, if the efficiency of motion prediction is excluded (that is, when the efficiency of motion prediction is the same for both divided images A and B), the encoded image quality is orthogonal. The coefficient and Q value of the division matrix in the quantization processing after conversion are dominant. The coefficient of the division matrix is usually fixed within one frame, but the Q value is variably controlled depending on the type of image in order to keep the bit rate of the stream data within a constant value. For this reason, even when there is no difference in motion compensation between the two divided images A and B, the image quality is different on both sides of the boundary.

図5は,境界部で画質が異なる第2の原因を説明する図である。図5には,4K2Kの超高解像度の画像を4等分した4つの分割画像A,B,C,Dが示されている。そして,分割画像A,Bの境界線上に分割画像AからBの方向に移動する物体30がある。つまり,時刻tでは物体30は分割画像A内にのみ存在し,次のフレーム時刻t+1では物体30は両分割画像A,Bの境界領域に移動している。   FIG. 5 is a diagram for explaining a second cause in which the image quality is different at the boundary. FIG. 5 shows four divided images A, B, C, and D obtained by dividing a 4K2K ultra-high resolution image into four equal parts. Then, there is an object 30 that moves in the direction from the divided image A to B on the boundary line between the divided images A and B. That is, the object 30 exists only in the divided image A at time t, and the object 30 moves to the boundary region between the divided images A and B at the next frame time t + 1.

この場合,時刻t+1での分割画像A,Bをエンコードすると,分割画像Aでは境界領域のマクロブロックで動きベクトルが検出され,分割画像Bでは時刻t+1で初めて物体30が現れたため動きベクトルが検出されない。その結果,動き予測の効率が悪い(動きベクトルが検出されない)分割画像Bの境界領域は,動き予測の効率が良い分割領域Aの境界領域と比べて,量子化処理前のデータ量が多くなる。   In this case, when the divided images A and B at time t + 1 are encoded, a motion vector is detected in the macroblock in the boundary area in the divided image A, and a motion vector is not detected in the divided image B because the object 30 first appears at time t + 1. . As a result, the boundary area of the divided image B with poor motion prediction efficiency (no motion vector is detected) has a larger amount of data before quantization than the boundary area of the divided area A with high motion prediction efficiency. .

そのため,量子化後のデータ量を分割領域A,B間で同等にするために,分割画像BでのQ値が分割画像AでのQ値よりも大きく制御され,分割画像Bの境界付近は低画質,分割画像Aの境界付近は高画質になることが予想される。   Therefore, in order to make the amount of data after quantization equal between the divided areas A and B, the Q value in the divided image B is controlled to be larger than the Q value in the divided image A, and the vicinity of the boundary of the divided image B is It is expected that the image quality is low near the boundary of the low-quality image and divided image A.

特許文献1では,境界付近でオーバーラップ領域を設け,デコード画像データからオーバーラップ領域のデータを破棄している。しかし,いくら破棄しても合成した時の境界付近での画質の違いをなくすことは不可能であり,画質低下の抑制効果は限定的である。   In Patent Document 1, an overlap region is provided near the boundary, and the data of the overlap region is discarded from the decoded image data. However, no matter how much it is discarded, it is impossible to eliminate the difference in image quality in the vicinity of the boundary when the images are combined, and the effect of suppressing the deterioration in image quality is limited.

図6,図7は,本実施の形態におけるエンコードとデコード処理を説明する図である。この処理によれば,エンコード処理では,例えば4K2Kの超高解像度画像である入力画像を,境界線をまたぐオーバーラップ領域OLを有するように,4つの分割画像A,B,C,Dに分割される。そして,4つの分割画像が,4つのエンコーダによりそれぞれエンコードされる。   6 and 7 are diagrams for explaining the encoding and decoding processing in the present embodiment. According to this process, in the encoding process, for example, an input image that is a 4K2K ultra-high resolution image is divided into four divided images A, B, C, and D so as to have an overlap region OL that crosses the boundary line. The Then, the four divided images are encoded by the four encoders.

次に,デコード処理では,エンコードされたストリームデータが4つの分割画像のストリームに分離され,4つのデコーダによりそれぞれデコードされる。そして,オーバーラップ領域OL以外は,各分割画像のデコード出力画像データ(画素データ)がそのまま合成画像の画像データになる。一方,オーバーラップ領域OLについては,次のように3つの領域に区分して,それぞれのブレンド率で両分割画像のデコード出力画像データをブレンド処理する。   Next, in the decoding process, the encoded stream data is separated into four divided image streams and decoded by four decoders. Then, except for the overlap region OL, the decoded output image data (pixel data) of each divided image becomes the image data of the composite image as it is. On the other hand, the overlap region OL is divided into three regions as follows, and the decoded output image data of both divided images is blended at each blend rate.

すなわち,デコードされた出力画像Aのオーバーラップ領域OLを,周辺から内部に向かって,ブレンド率ゼロの領域A3と,ブレンド率がゼロから最大値に徐々に上昇する領域A2と,ブレンド率最大の領域A1とに分類する。他のデコード出力画像B,C,Dも同様に分類する。   In other words, the overlap area OL of the decoded output image A is changed from the periphery to the inside, the area A3 where the blend rate is zero, the area A2 where the blend rate gradually increases from zero to the maximum value, and the maximum blend rate. Classify with area A1. Other decoded output images B, C, and D are classified in the same manner.

そして,分割画像A,Bのオーバーラップ領域では,領域A1,B3がブレンド率100%,0%でブレンド処理され,領域A2,B2が0%から100%へ(または100%から0%へ)徐々に変化するブレンド率でブレンド処理され,領域A3,B1がブレンド率0%,100%でブレンド処理される。そして,ブレンド処理された結果,合成した出力画像の境界付近では,画質の違いによる不自然な画像が改善される。   In the overlapping areas of the divided images A and B, the areas A1 and B3 are blended at a blend rate of 100% and 0%, and the areas A2 and B2 are changed from 0% to 100% (or from 100% to 0%). Blend processing is performed at a gradually changing blend rate, and regions A3 and B1 are blended at a blend rate of 0% and 100%. As a result of the blending process, an unnatural image due to the difference in image quality is improved near the boundary of the synthesized output image.

図8は,本実施の形態におけるオーバーラップ領域でのブレンド率の例を示す図である。図8中,実線で示したブレンド率αa1,αb1について説明する。分割画像Aの画素のブレンド率は,右端の周辺から左側の内部に向かって,ブレンド率0%の領域A3と,ブレンド率が0%から100%に徐々に変化する領域A2と,ブレンド率が最大の100%の領域A3に分けられる。分割画像Bの画素のブレンド率も,左右逆ではあるが,分割画像Aと同様である。   FIG. 8 is a diagram showing an example of the blend ratio in the overlap region in the present embodiment. The blend ratios αa1 and αb1 indicated by solid lines in FIG. 8 will be described. The blend ratio of the pixels of the divided image A is as follows: the area A3 where the blend ratio is 0%, the area A2 where the blend ratio gradually changes from 0% to 100%, It is divided into the maximum 100% area A3. The blend ratio of the pixels of the divided image B is also the same as that of the divided image A although it is reversed left and right.

そして,分割画像A,Bを合成する場合に,オーバーラップ領域OLでは,領域A1とB3の同じ位置の画素の階調値がブレンド率αa1=100%,αb1=0%でブレンドされる。このブレンドの演算は,例えば分割画像A,Bの同じ位置の画素の階調値PA,PBに,次の演算を行ってブレンド処理後の画素の階調値PABを求める演算である。
PAB=PA*αa1+PB*αb1
このブレンド率αa1=100%,αb1=0%により,領域B3の画素データは実質的に破棄され,領域A1の画素データがそのまま採用される。領域B3は分割画像Bの周辺領域であり画素の不連続により画質が低下しているからである。一方,領域A1は分割画像Aの内部領域であり画素は連続していて画質は低下していないからである。
When the divided images A and B are combined, in the overlap region OL, the gradation values of the pixels at the same position in the regions A1 and B3 are blended at a blend rate αa1 = 100% and αb1 = 0%. This blending operation is, for example, an operation for obtaining the gradation value PAB of the pixel after the blending process by performing the following operation on the gradation values PA and PB of the pixels at the same position in the divided images A and B.
PAB = PA * αa1 + PB * αb1
With this blend ratio αa1 = 100% and αb1 = 0%, the pixel data in the region B3 is substantially discarded, and the pixel data in the region A1 is adopted as it is. This is because the region B3 is a peripheral region of the divided image B, and the image quality is deteriorated due to discontinuity of pixels. On the other hand, the area A1 is an internal area of the divided image A, and the pixels are continuous and the image quality is not deteriorated.

さらに,オーバーラップ領域OLでは,領域A2,B2の同じ位置の画素の階調値がブレンド率αa1(0%-100%と変化),αb1(100%-0%と変化)で上記の演算式によりブレンドされる。これにより,たとえデコード出力画像の分割画像A,Bの間で画質が異なっていても,それによる合成画像の境界付近の画質差による不自然さを改善することができる。   Furthermore, in the overlap region OL, the gradation values of the pixels at the same positions in the regions A2 and B2 are blended ratios αa1 (changed from 0% to 100%) and αb1 (changed from 100% to 0%). Blended. Thereby, even if the image quality differs between the divided images A and B of the decoded output image, it is possible to improve the unnaturalness due to the image quality difference near the boundary of the composite image.

そして,オーバーラップ領域OLでは,領域A3,B1の同じ位置の画素の階調値がブレンド率αa1=0%,αb1=100%でブレンドされる。このブレンド率により,領域A3の画素データは実施の形態的に破棄され,領域B1の画素データがそのまま採用される。   In the overlap region OL, the gradation values of the pixels at the same positions in the regions A3 and B1 are blended with the blend ratios αa1 = 0% and αb1 = 100%. Due to this blend ratio, the pixel data of the area A3 is discarded in the embodiment, and the pixel data of the area B1 is adopted as it is.

上記の画素データが破棄される領域A3,B3の広さは,例えば,最低でも1マイクロブロック分の16画素に設定するのが好ましい。この領域A3,B3を広くとればそれだけ低画質の画素データが破棄されて望ましいが,逆に,その分オーバーラップ領域が広がり,エンコーダとデコーダの解像度の制約から,合成画像の周辺画素が適切にエンコード及びデコードされないことになる。   The area A3, B3 where the pixel data is discarded is preferably set to, for example, at least 16 pixels for one micro block. If these areas A3 and B3 are widened, it is desirable that the pixel data with low image quality is discarded as much as possible, but conversely, the overlap area is expanded accordingly, and the peripheral pixels of the composite image are appropriately set due to the resolution restrictions of the encoder and decoder. It will not be encoded and decoded.

本実施の形態では,上記のブレンド率は,オーバーラップ領域OLにおける分割画像A,Bの動き予測の効率に応じて最適な値に制御される。すなわち,ブレンド領域A2,B2において隣接するエンコード分割画像の隣接側より高いブレンド率の領域が,オーバーラップ領域内のブレンド領域A2,B2での動き予測の効率がより高い(動きベクトルがより多い)分割画像側のほうが,動き予測の効率がより低い(動きベクトルがより少ない)分割画像側よりも,広く設定される。   In the present embodiment, the blend ratio is controlled to an optimum value according to the efficiency of motion prediction of the divided images A and B in the overlap region OL. That is, in the blend regions A2 and B2, the region with a higher blend rate than the adjacent side of the adjacent encoded divided images has higher motion prediction efficiency in the blend regions A2 and B2 in the overlap region (more motion vectors) The divided image side is set wider than the divided image side where the motion prediction efficiency is lower (the motion vector is smaller).

言い換えると,ブレンド領域A2,B2における動き予測の効率が左右の分割画像で同等の場合に比較して,動き予測の効率がより高い(動きベクトルがより多い)分割画像側のブレンド率がより高く設定され,動き予測の効率がより低い(動きベクトルがより少ない)分割画像側のブレンド率がより低く設定されるように可変制御する。   In other words, compared to the case where the motion prediction efficiency in the blended regions A2 and B2 is the same for the left and right divided images, the motion prediction efficiency is higher (the number of motion vectors is higher) and the blend ratio on the divided image side is higher. It is set and variably controlled so that the blend rate on the divided image side is set lower, with the motion prediction efficiency being lower (the motion vector being smaller).

図8には,動き予測の効率が,分割画像A側のほうが分割画像Bよりも高い場合におけるブレンド率αa2,αb2が,破線で示されている。ブレンド領域A2,B2における動き予測の効率が同等の場合は,ブレンド率αa1,αb1が設定される。つまり,分割画像A,B間でブレンド率が隣接側より高い領域は,分割画像A側のほうが広く設定され,分割画像B側のほうが狭く設定されている。   In FIG. 8, the blending rates αa2 and αb2 when the efficiency of motion prediction is higher on the divided image A side than on the divided image B are indicated by broken lines. When the motion prediction efficiencies in the blend regions A2 and B2 are equal, blend rates αa1 and αb1 are set. That is, the region where the blend ratio between the divided images A and B is higher than the adjacent side is set wider on the divided image A side and narrower on the divided image B side.

別の言い方では,実線のブレンド率αa1,αb1に比較して,分割画像A側のブレンド率αa2がより高く設定され,分割画像B側のブレンド率αb2がより低く設定されている。   In other words, the blend rate αa2 on the divided image A side is set higher and the blend rate αb2 on the divided image B side is set lower than the blend rates αa1 and αb1 of the solid lines.

図5に示した例のように,分割画像Aから境界に向かう物体が存在する場合,分割画像Aでは動きベクトルが検出され,動き予測の効率が高くなり,デコード出力画像の高画質が期待できる。それに対して,分割画像Bでは動きベクトルが検出されず,動き予測の効率が低くなり,デコード出力画像の画質低下が予想される。   As in the example shown in FIG. 5, when there is an object from the divided image A toward the boundary, a motion vector is detected in the divided image A, the motion prediction efficiency is increased, and a high image quality of the decoded output image can be expected. . On the other hand, in the divided image B, no motion vector is detected, the efficiency of motion prediction becomes low, and the image quality of the decoded output image is expected to deteriorate.

そこで,図8では,ブレンド率100%の領域A1を右側(分割画像B側)に拡げ,分割画像Aの境界付近の領域A2を狭くしている。それに伴い,分割画像B内のブレンド率0%の領域B3も右側に拡げ,領域B2も狭くしている。これにより,分割領域Aについて,境界付近での実線のブレンド率αa1と破線のブレンド率αa2とを比較すると,
αa1<αa2
になっている。逆に,分割領域Bについて,境界付近での実線のブレンド率αb1と破線のブレンド率αb2とを比較すると,
αb1>αb2
になっている。
Therefore, in FIG. 8, the region A1 with a blend rate of 100% is expanded to the right (the divided image B side), and the region A2 near the boundary of the divided image A is narrowed. Accordingly, the area B3 with a blend rate of 0% in the divided image B is expanded to the right side, and the area B2 is also narrowed. As a result, for the divided region A, when the blend rate αa1 of the solid line near the boundary and the blend rate αa2 of the broken line are compared,
αa1 <αa2
It has become. On the other hand, for the divided region B, when the blend rate αb1 of the solid line near the boundary and the blend rate αb2 of the broken line are compared,
αb1> αb2
It has become.

図9は,図8のブレンド率の設定を説明する図である。図9には,(A)動きベクトル情報から左右の分割画像において動きが少ないと判断された場合(動き予測の効率が同等の場合)と,(B)動きベクトル情報から画面上の物体が左から右に動いている場合(動き予測の効率が左側のほうが右側よりも高い場合)とにおける,左右の分割画像A,B及びC,Dにおける領域A1,A2,A3,B1,B2,B3,C1,C2,C3,D1,D2,D3が,それぞれ示されている。   FIG. 9 is a diagram for explaining the setting of the blend ratio in FIG. In FIG. 9, (A) the motion vector information determines that there is little motion in the left and right divided images (when the motion prediction efficiency is the same), and (B) the motion vector information indicates that the object on the left Region A1, A2, A3, B1, B2, B3 in left and right divided images A, B, and C, D when moving from right to right (when the efficiency of motion prediction is higher on the left side than on the right side) C1, C2, C3, D1, D2, and D3 are shown, respectively.

(A)動き予測が同等の場合は,例えば分割画像A,Bについていえば,領域の広さがA1=B1,A2=B2,A3=B3に設定されている。したがって,分割画像A,B間のオーバーラップ領域での隣接側より高いブレンド率を有する領域(分割画像Aでは領域A1と領域A2の一部,分割画像Bでは領域B1と領域B2の一部)が,隣接側と比較して,同等の広さに設定されている。   (A) When the motion prediction is the same, for example, for the divided images A and B, the area sizes are set to A1 = B1, A2 = B2, and A3 = B3. Therefore, a region having a higher blend ratio than the adjacent side in the overlapping region between the divided images A and B (part of the regions A1 and A2 in the divided image A, part of the regions B1 and B2 in the divided image B) However, it is set to the same size as the adjacent side.

(B)分割画像Aのほうが分割画像Bよりも動き予測の効率が高い(左から右方向に移動する場合の動きベクトルの数が多い)場合は,A1>B1,A3<B3と設定されている。したがって,分割画像A,B間のオーバーラップ領域での隣接側より高いブレンド率を有する領域,(分割画像Aでは領域A1と領域A2の一部,分割画像Bでは領域B1と領域B2の一部)が,隣接側と比較して,より広く設定されている。   (B) If divided image A is more efficient in motion prediction than divided image B (the number of motion vectors when moving from left to right), A1> B1 and A3 <B3 are set. Yes. Therefore, a region having a higher blend ratio than the adjacent side in the overlap region between the divided images A and B (partial region A1 and region A2 in the divided image A, partial region B1 and region B2 in the divided image B ) Is set wider than the adjacent side.

図10,図11は,本実施の形態におけるエンコーダユニットでの画像合成処理を説明する図である。図10には,時刻tの画像と時刻t+1の画像とが示されている。時刻tでは,分割画像A内には左から右に移動する物体30が存在し,分割画像B内には物体30は存在しない。一方,時刻t+1においては,左から右に移動する物体30は,両分割領域A,B間のオーバーラップ領域OL内に移動している。   10 and 11 are diagrams for explaining image composition processing in the encoder unit according to the present embodiment. FIG. 10 shows an image at time t and an image at time t + 1. At time t, there is an object 30 that moves from left to right in the divided image A, and there is no object 30 in the divided image B. On the other hand, at time t + 1, the object 30 moving from left to right moves into the overlap area OL between the two divided areas A and B.

このような場合,時刻t+1での分割画像Aにおいては,物体30について動きベクトルが生成されるが,時刻t+1での分割画像Bにおいては,時刻tでは物体30が分割画像B内に存在していなかったため,物体30について動きベクトルは生成されない。したがって,時刻t+1の画像では,分割画像Aでは,時刻tの参照画像内の物体30に対する動きベクトルでエンコードされ物体30はインター予測でエンコードされるので,動き予測の効率が高い。一方,分割画像Bでは,時刻tの参照画像内に物体30が存在せず,動きベクトルが生成されず物体30はイントラ予測でエンコードされるので,動き予測の効率が低い。   In such a case, a motion vector is generated for the object 30 in the divided image A at time t + 1, but in the divided image B at time t + 1, the object 30 exists in the divided image B at time t. Since there was no motion vector, no motion vector is generated for the object 30. Therefore, in the image at time t + 1, in the divided image A, since the object 30 is encoded by the motion vector for the object 30 in the reference image at time t and the object 30 is encoded by inter prediction, the efficiency of motion prediction is high. On the other hand, in the divided image B, the object 30 does not exist in the reference image at time t, and no motion vector is generated, and the object 30 is encoded by intra prediction, so that the motion prediction efficiency is low.

図11において,時刻t+1において,物体30は,分割画像A,Bのオーバーラップ領域OL内に左から右に移動している。エンコーダユニットは,マイクロブロックMBの単位で動きベクトルの探索を行う。図11の例において,分割画像A側では,MBライン1,2,3で物体30に対する動きベクトル(図中矢印)が検出されている。ただし,MBライン0,4の全てのマクロブロックMBや,MBライン1,2,3内の物体30が存在しないマクロブロックMBでは,例えば背景画像のまま変化していないので,0の動きベクトル(動きなし)が検出されている。   In FIG. 11, at time t + 1, the object 30 moves from left to right in the overlap region OL of the divided images A and B. The encoder unit searches for motion vectors in units of micro blocks MB. In the example of FIG. 11, on the divided image A side, motion vectors (arrows in the figure) for the object 30 are detected by MB lines 1, 2, and 3. However, in all the macroblocks MB of MB lines 0 and 4 and the macroblock MB in which the object 30 in the MB lines 1, 2 and 3 does not exist, for example, the background image remains unchanged, and therefore a motion vector of 0 No motion) is detected.

一方,分割画像B側では,物体30の動きによる動きベクトルは検出されない。そして,物体30が存在しないマクロブロックMBでは,前述と同様に,背景画像のまま変化していないので,0の動きベクトル(動きなし)が検出されて,物体30のみ存在するマクロブロックMB(MBライン2の2つのMB)では,0の動きベクトルも検出されずイントラ予測(I)のみとなり,物体30が一部の領域に存在するマクロブロックMB(0’)では,0の動きベクトルと物体30の領域内のイントラ予測が併存する。   On the other hand, on the divided image B side, a motion vector due to the motion of the object 30 is not detected. Then, in the macroblock MB in which the object 30 does not exist, since the background image remains unchanged as described above, a zero motion vector (no motion) is detected, and the macroblock MB (MB) in which only the object 30 exists. In 2 MB) of line 2, no motion vector of 0 is detected and only intra prediction (I) is performed. In macroblock MB (0 ′) in which object 30 exists in a partial area, motion vector of 0 and object There are 30 intra predictions in the region.

このように,オーバーラップ領域OLにおいて,左右の分割画像A,Bにおける動き補償の比較(動きベクトルの比較)は,動きベクトルを探索する単位であるマクロブロックMBの行単位で行われることが望ましい。つまり,同じマクロブロックMB行内の複数のマクロブロックMBそれぞれについて,左右の分割画像A,B内の同じ位置のマクロブロックMB同士で,左から右方向の動きベクトル,または動きベクトルの左から右方向の成分について,比較する。そして,比較結果の合計に応じてブレンド率を調整することも,マクロブロックMBの行単位で行われる。なお,上下の分割画像A,C間のオーバーラップ領域OLについては,マクロブロックMBの列単位で行われる。   In this way, in the overlap region OL, it is desirable that the motion compensation comparison (motion vector comparison) in the left and right divided images A and B is performed in units of rows of the macroblock MB, which is a unit for searching for motion vectors. . That is, for each of a plurality of macroblocks MB in the same macroblock MB row, the left and right motion vectors or the left and right motion vectors from the left and right of the macroblocks MB at the same position in the left and right divided images A and B Compare the components. Then, the blend rate is adjusted in accordance with the total of the comparison results in units of rows of the macroblock MB. Note that the overlap region OL between the upper and lower divided images A and C is performed in units of columns of the macroblock MB.

図11に示された分割画像A,Bのブレンド率にあるとおり,MBライン0,4では,左右の分割画像A,B共に左から右方向に対する動きベクトルが検出されていない。したがって,横幅が4MBのオーバーラップ領域OLにおいて,真ん中の2MBにおいてブレンド率が100%から0%へ,または0%から100%に変化している。   As shown in the blend ratio of the divided images A and B shown in FIG. 11, in the MB lines 0 and 4, no motion vector in the left to right direction is detected in the left and right divided images A and B. Therefore, in the overlap region OL having a lateral width of 4 MB, the blend rate changes from 100% to 0% or from 0% to 100% in the middle 2 MB.

それに対して,MBライン1,2,3では,左側の分割画像Aでは左から右方向に対する動きベクトルが検出され,右側の分割画像Bでは検出されていない。したがって,オーバーラップ領域OLにおいて,分割画像A側では左側の2つのMBでブレンド率が100%に設定され,その右側の1つのMBでブレンド率が100%から0%に減少し,最左端の1つのMBでブレンド率が0%に設定されている。一方,分割画像B側では,オーバーラップ領域OL内において,最左端の1つのMBだけブレンド率が100%に設定され,その右側の1つのMBでブレンド率が100%から0%に減少し,最右端の2つのMBでブレンド率が0%に設定されている。   On the other hand, in MB lines 1, 2, and 3, a motion vector from the left to the right is detected in the left divided image A, but not detected in the right divided image B. Therefore, in the overlap area OL, on the divided image A side, the blend rate is set to 100% with the two MBs on the left side, and the blend rate is reduced from 100% to 0% with the one MB on the right side. The blend rate is set to 0% for one MB. On the other hand, on the divided image B side, the blend rate is set to 100% for the leftmost one MB in the overlap region OL, and the blend rate is reduced from 100% to 0% with one MB on the right side. The blend rate is set to 0% in the two rightmost MBs.

このように,マクロブロックMBの行単位で,左右の分割画像A,Bにおける動き補償の効率の違いに応じて,ブレンド率が可変制御される。MBライン1,2,3における分割画像A側のブレンド率がB側より高い領域は,MBライン0,4と比較すると,より広く設定されている。別の言い方をすると,MBライン1,2,3における分割画像A側のブレンド率がB側より高い領域は,分割画像B側のブレンド率がA側より高い領域よりも広く設定されている。   In this way, the blend rate is variably controlled according to the difference in the efficiency of motion compensation between the left and right divided images A and B for each row of the macroblock MB. A region where the blend ratio on the divided image A side in the MB lines 1, 2 and 3 is higher than that on the B side is set wider than that in the MB lines 0 and 4. In other words, the region where the blend rate on the divided image A side in the MB lines 1, 2 and 3 is higher than that on the B side is set wider than the region where the blend rate on the divided image B side is higher than that on the A side.

図12は,ブレンド率の可変制御の例を示す図である。図12には,分割画像AとBの各領域A1,B3,A2,B2,A3,B1におけるブレンド率の例が示されている。図12中,左端に示したブレンド率100%,50%,0%は,分割画像Aに対するブレンド率であり,右端に示したブレンド率100%,50%,0%は,分割画像Bに対するブレンド率である。   FIG. 12 is a diagram illustrating an example of variable control of the blend ratio. FIG. 12 shows an example of blend ratios in the regions A1, B3, A2, B2, A3, and B1 of the divided images A and B. In FIG. 12, the blend rates 100%, 50%, and 0% shown at the left end are the blend rates for the divided image A, and the blend rates 100%, 50%, and 0% shown at the right end are the blend rates for the divided image B. Rate.

図12(1)の例は,図11のMBライン0,4のブレンド率と同じである。すなわち,分割画像A内の分割画像Bより高いブレンド率を有する領域は,分割画像B内の同じ領域と同じ広さである。図12(2)の例は,図11のMBライン1,2,3のブレンド率と同じである。すなわち,分割画像Aにおいてブレンド率100%から低下する境界(A1とA2の境界)を矢印の如く右側に移動させている。これにより,分割画像A内の分割画像Bより高いブレンド率を有する領域は,分割画像B内の同じ領域よりも広がっている。   The example of FIG. 12A is the same as the blend rate of MB lines 0 and 4 in FIG. That is, the area having a higher blend rate than the divided image B in the divided image A is the same area as the same area in the divided image B. The example of FIG. 12 (2) is the same as the blend rate of the MB lines 1, 2, and 3 in FIG. That is, the boundary (the boundary between A1 and A2) that decreases from 100% in the divided image A is moved to the right as indicated by the arrow. As a result, a region having a higher blend rate than the divided image B in the divided image A is wider than the same region in the divided image B.

図12(2)の例の変形例として,(3)(4)が示されている。図12(3)の例では,分割画像A内のブレンド率が低下する領域A2とブレンド率0%の領域A3との境界を矢印の如く右側に移動させている。ただし,この例では,(1)における分割画像Aの低画質の領域A3がブレンドされることになる。また,図12(4)の例では,分割画像A内の領域A1,A2の境界と領域A2,A3の境界を共に矢印の如く右側に移動させている。図12(2)(3)(4)のいずれの例でも,分割画像A内の分割画像Bよりもブレンド率が高い領域の面積が,分割画像B内の同じ領域の面積よりも広くなっている。   As a modification of the example of FIG. 12 (2), (3) and (4) are shown. In the example of FIG. 12 (3), the boundary between the area A2 where the blend rate in the divided image A decreases and the area A3 where the blend rate is 0% is moved to the right as shown by the arrow. However, in this example, the low-quality area A3 of the divided image A in (1) is blended. In the example of FIG. 12 (4), the boundaries of the areas A1 and A2 and the boundaries of the areas A2 and A3 in the divided image A are both moved to the right as indicated by arrows. 12 (2), (3), and (4), the area of the region having a higher blend ratio than the divided image B in the divided image A is larger than the area of the same region in the divided image B. Yes.

図13は,本実施の形態における動画像処理装置の構成図である。エンコードユニットENは,例えば4K2Kの入力画像を2K1Kのオーバーラップ領域を含んだ分割画像に分割する画像分割部10と,分割画像A,B,C,Dをそれぞれエンコードする4つのエンコーダを有するエンコーダ群12と,エンコード分割画像データを合成してストリームデータを出力するストリーム合成部14と,入力される設定情報に基づいてエンコーダ群12などを制御する制御部16とを有する。エンコーダ群12内のエンコーダの構成は,図2で説明した通りである。   FIG. 13 is a configuration diagram of the moving image processing apparatus according to the present embodiment. The encoding unit EN includes, for example, an image dividing unit 10 that divides a 4K2K input image into divided images including a 2K1K overlap area, and an encoder group that includes four encoders that respectively encode the divided images A, B, C, and D. 12, a stream synthesizing unit 14 that synthesizes the encoded divided image data and outputs stream data, and a control unit 16 that controls the encoder group 12 and the like based on input setting information. The configuration of the encoder in the encoder group 12 is as described in FIG.

設定情報には,ストリームデータの単位時間あたりのビット数である全体ビットレートが含まれている。そして,制御部16は,入力された全体ビットレートから求められる各エンコーダでのビットレートBRを各エンコーダに設定する。図2で説明したとおり,各エンコーダは,設定されたビットレートBR以内になるように,量子化処理でのQ値を制御する。Q値は,通常マクロブロックMB毎に可変制御される。また,量子化対象のデータ量と,設定されたビットレートBRとに基づいて,Q値が制御される。例えば,データ量が同じ場合には,ビットレートBRが大きければQ値は小さく制御可能であり,その場合,画質は高くできるが,ビットレートBRが小さければQ値は大きく制御しなければならず,その場合,画質は低くなってしまう。   The setting information includes an overall bit rate that is the number of bits per unit time of the stream data. And the control part 16 sets the bit rate BR in each encoder calculated | required from the input whole bit rate to each encoder. As described with reference to FIG. 2, each encoder controls the Q value in the quantization process so that it is within the set bit rate BR. The Q value is normally variably controlled for each macroblock MB. Further, the Q value is controlled based on the amount of data to be quantized and the set bit rate BR. For example, if the data amount is the same, the Q value can be controlled to be small if the bit rate BR is large. In this case, the image quality can be increased, but the Q value must be controlled to be large if the bit rate BR is small. In that case, the image quality will be low.

ストリームデータには,前述のとおり,Iピクチャ,Pピクチャ,Qピクチャの属性データに加えて,動きベクトル,予測誤差画像データの量子化データ,Q値などを圧縮したビットストリームが含まれる。   As described above, the stream data includes a bit stream obtained by compressing motion vectors, quantized data of prediction error image data, Q values, and the like in addition to attribute data of I picture, P picture, and Q picture.

一方,デコードユニットDEは,ストリームデータを分割画像A,B,C,Dのデータに分離するストリーム分離部20と,分離されたストリームデータをそれぞれデコードする4つのデコーダを含むデコーダ群22と,デコード分割画像を合成する画像合成部24と,デコーダ全体を制御する制御部25とを有する。   On the other hand, the decoding unit DE includes a stream separating unit 20 that separates stream data into data of divided images A, B, C, and D, a decoder group 22 including four decoders that respectively decode the separated stream data, and a decoding unit An image composition unit 24 that synthesizes the divided images and a control unit 25 that controls the entire decoder are included.

本実施の形態では,制御部25からのVSYNCとVCLK信号に同期して各デコーダおよび画像合成部は同期して動作し, 各デコーダで生成されたデコード分割画像を合成する画像制御部24は,各デコーダから入力される動きベクトルMVの情報に基づいて,デコード分割画像のオーバーラップ領域のブレンド率を可変設定して,合成処理を行う。   In the present embodiment, the decoders and the image synthesis unit operate in synchronization with the VSYNC and VCLK signals from the control unit 25, and the image control unit 24 for synthesizing the decoded divided images generated by the decoders includes: Based on the information of the motion vector MV input from each decoder, the blending rate of the overlap area of the decoded divided image is variably set and the synthesis process is performed.

図14は,画像合成部24の構成例を示す図である。画像合成部24は,合成画像における同じ画素に対応する両分割画像の画素データを,ブレンド率αに基づいて合成する合成ユニット24iを有する。分割画像A,B,C,Dを合成する合成ユニット24iは,同じ画素に対応する分割画像の画素データAi,Bi,Ci,Diをそれぞれのブレンド率αai,αbi,αci, αdiで乗算する乗算器(*)と,乗算結果を加算して合成画素データXiを出力する加算器(+)とを有する。 さらに,画像合成部24は,合成制御部240を有する。合成制御部240は,VSYNCとVCLK信号入力によりデコーダ部DEと同期して動作し,画面内の画素位置を認識し,画素位置および分割画像A,B,C,Dそれぞれの動きベクトルMVa,MVb,MVc,Mvbからブレンド比率αai, αbi, αci, αdiを決定する。例えばA,B境界の合成処理対象の2つの分割画像のオーバーラップ領域内において,マクロブロックMBの行単位デコーダ部からのMVa,MVbで,両分割画像A,Bでの動きベクトルの左側から右側へ向かう(または右側から左側へ向かう)物体に対応する動きベクトル成分を比較し,比較結果に応じてブレンド率αai,αbiを制御する。   FIG. 14 is a diagram illustrating a configuration example of the image composition unit 24. The image synthesis unit 24 includes a synthesis unit 24i that synthesizes pixel data of both divided images corresponding to the same pixel in the synthesized image based on the blend rate α. The synthesis unit 24i that synthesizes the divided images A, B, C, and D multiplies the pixel data Ai, Bi, Ci, and Di of the divided images corresponding to the same pixel by the respective blend rates αai, αbi, αci, and αdi. And an adder (+) for adding the multiplication results and outputting the combined pixel data Xi. Further, the image composition unit 24 includes a composition control unit 240. The synthesizing control unit 240 operates in synchronization with the decoder unit DE by inputting VSYNC and VCLK signals, recognizes the pixel position in the screen, and moves the motion vectors MVA, MVb of the pixel position and the divided images A, B, C, D respectively. Then, blend ratios αai, αbi, αci and αdi are determined from MVc and Mvb. For example, within the overlap region of two divided images to be synthesized at the A and B boundaries, MVA and MVb from the row unit decoder unit of the macroblock MB, and the left and right motion vectors of both divided images A and B The motion vector components corresponding to the object heading (or from the right side to the left side) are compared, and the blending ratios αai and αbi are controlled according to the comparison result.

動きベクトルの比較の方法は,例えば,オーバーラップ領域内の各MB行にK個のマクロブロックMBが含まれている場合は,両分割画像A,B内の互いに対応するマクロブロックMB毎に左側から右側へ向かう(または右側から左側に向かう)物体に対応する動きベクトル成分を比較し,K個の比較結果の合計で,両分割画像A,Bのうち動き補償の効率が高いほうの分割画像を決定する。   The motion vector comparison method is, for example, when K macroblocks MB are included in each MB row in the overlap region, and the left side for each corresponding macroblock MB in both divided images A and B. Compare the motion vector components corresponding to the object from right to left (or from right to left), and the total of the K comparison results is the divided image with the higher motion compensation efficiency of both divided images A and B To decide.

そして,比較結果に応じたブレンド率の制御方法は,動き補償の効率が同等であれば,両分割画像において,隣接側よりブレンド率が高い領域を,両者で同等の広さとし,動き補償の効率が異なれば,隣接側よりブレンド率が高い領域については,動き補償の効率が高いほうをより広くするといった方法にする。   The control method of the blend rate according to the comparison result is that, if the efficiency of motion compensation is the same, the area where the blend rate is higher than the adjacent side in both divided images is made the same size on both sides, and the motion compensation efficiency is increased. If the difference is different, for the region where the blend ratio is higher than that of the adjacent side, the method in which the motion compensation efficiency is higher is made wider.

上記の実施の形態では,動き補償の効率が高いほうの分割画像に対して隣接側より高いブレンド率の領域を広くした。ただし,変形例として,動き補償の効率を比較することに加えて,またはそれに代えて,量子化処理時のQ値が小さいほうの分割画像に対して,隣接側より高いブレンド率の領域を広くするようにしても良い。   In the above embodiment, the region of the higher blend rate than the adjacent side is widened for the divided image having the higher motion compensation efficiency. However, as a modification, in addition to or instead of comparing the efficiency of motion compensation, a region with a higher blend rate than the adjacent side is broadened for a divided image having a smaller Q value during quantization processing. You may make it do.

すなわち,量子化処理は,動き補償で生成できない予測誤差画像データ(原画像と動き補償画像との差分画像データ)に対して行われる。そして,ビットレートなどに基づいて,量子化処理時の除数であるQ値がマクロブロック毎に可変設定される。一般に,Q値が大きくなると画質が低下し,Q値が小さくなると画質が高くなる。しかも,このQ値は,ストリームデータに含められてエンコーダ側からデコーダ側に伝えられる。   That is, the quantization process is performed on prediction error image data (difference image data between an original image and a motion compensated image) that cannot be generated by motion compensation. Based on the bit rate and the like, a Q value that is a divisor at the time of quantization processing is variably set for each macroblock. In general, when the Q value increases, the image quality decreases, and when the Q value decreases, the image quality increases. Moreover, this Q value is included in the stream data and transmitted from the encoder side to the decoder side.

そこで,デコーダユニット内の画像合成部24は,オーバーラップ領域内のマクロブロックMBの行毎に,Q値に基づいて両分割画像のデコード画像の画質の良否を判定し,画質が良い側に対してブレンド率の高い領域を増やすよう制御することが好ましい。特に,両分割画像の動き補償の効率が同程度の場合には,オーバーラップ領域でのQ値に基づいてブレンド率を可変制御することで,より高い画質のデコード画像を合成画像に反映することができ,合成画像の画質を向上させることができる。   Therefore, the image composition unit 24 in the decoder unit determines the quality of the decoded image quality of both divided images based on the Q value for each row of the macroblock MB in the overlap region, Therefore, it is preferable to control so as to increase the region having a high blend ratio. In particular, when the motion compensation efficiency of both divided images is comparable, the decoded image with higher image quality can be reflected in the composite image by variably controlling the blend rate based on the Q value in the overlap region. And the image quality of the composite image can be improved.

[第2の実施の形態]
図15は,第2の実施の形態における動画像処理装置の構成図である。図15において,図13と異なる構成は,(1)エンコーダユニットENの制御部16に入力される全体のビットレートの情報に応じて,制御部16が分離画像のオーバーラップ領域幅OLWを設定し,画像分割部10に設定することと,(2)ストリーム合成部14がこの設定されたオーバーラップ領域幅OLWをストリームデータに含めて出力することと,(3)デコーダユニットDEでは,画像合成部24が,このオーバーラップ幅OLWに応じてデコード分割画像を合成することである。画像合成部24は,さらに,オーバーラップ幅OLWに応じて合成のためのブレンド率αを制御する。
[Second Embodiment]
FIG. 15 is a configuration diagram of a moving image processing apparatus according to the second embodiment. 15 differs from FIG. 13 in that (1) the control unit 16 sets the overlap area width OLW of the separated image according to the information on the entire bit rate input to the control unit 16 of the encoder unit EN. , Setting in the image dividing unit 10, (2) the stream synthesizing unit 14 including the set overlap area width OLW in the stream data, and (3) in the decoder unit DE, the image synthesizing unit 24 is to synthesize the decoded divided image in accordance with the overlap width OLW. The image composition unit 24 further controls the blend rate α for composition according to the overlap width OLW.

図16は,第2の実施の形態におけるビットレートとオーバーラップ幅OLWとの関係を示す図である。エンコーダユニットENにはストリームデータに対する全体ビットレートが設定される。全体ビットレートは,単位時間当たりのストリームデータのデータ量であり,全体ビットレートがより高い場合は,量子化処理におけるQ値をより小さく設定できるので,デコードされた画像の劣化が少ないことが期待され,分割画像の境界線が目立ちにくい。逆に,全体ビットレートがより低い場合は,Q値をより大きく設定してビットレートに収まるようにしなければならないので,デコードされた画像の劣化が多くなり,分割画像の境界線が目立ちやすくなる。   FIG. 16 is a diagram illustrating the relationship between the bit rate and the overlap width OLW in the second embodiment. In the encoder unit EN, the overall bit rate for the stream data is set. The overall bit rate is the amount of stream data per unit time. If the overall bit rate is higher, the Q value in the quantization process can be set smaller, so it is expected that the decoded image will be less degraded. Therefore, the boundary line of the divided image is not noticeable. Conversely, if the overall bit rate is lower, the Q value must be set higher so that it fits within the bit rate, resulting in more degradation of the decoded image and making the borders of the split image more noticeable .

そこで,全体ビットレートがより高い場合は,オーバーラップ領域の幅OLWを狭くし,より低い場合は,広くするのが望ましい。つまり,エンコーダユニットEN内の制御部16は,設定される全体ビットレートに応じて,オーバーラップ領域の幅OLWを可変制御する。   Therefore, it is desirable that the width OLW of the overlap region is narrowed when the overall bit rate is higher and wider when it is lower. That is, the control unit 16 in the encoder unit EN variably controls the width OLW of the overlap area according to the set overall bit rate.

全体ビットレートが低く画質の低下が予想される場合は,特に,両側のデコード分割画像の画質が低下して,画質差が大きくなりやすい。この傾向は,静止画像よりも動画像のほうが顕著である。すなわち,動画像において図10に示すように動いている物体が分割画像間をまたぐ場合は,分割画像A側では動き補償が行われ,予測誤差画像のデータ量が少なく,一方,分割画像B側では動き補償が行われず,予測誤差画像のデータ量が多くなる。このように,量子化処理対象の予測誤差画像のデータ量に差がある場合に,全体ビットレートが低いと,予測誤差画像のデータ量が多い分割画像B側での画質劣化が,予測誤差画像のデータ量が少ない分割画像A側よりも著しくなる。   When the overall bit rate is low and the image quality is expected to deteriorate, the image quality of the decoded divided images on both sides deteriorates, and the image quality difference tends to increase. This tendency is more pronounced for moving images than for still images. That is, in the moving image, as shown in FIG. 10, when the moving object straddles between the divided images, motion compensation is performed on the divided image A side, and the data amount of the prediction error image is small, while the divided image B side No motion compensation is performed, and the data amount of the prediction error image increases. In this way, when there is a difference in the data amount of the prediction error image to be quantized, if the overall bit rate is low, the image quality degradation on the divided image B side where the data amount of the prediction error image is large is reduced. The amount of data is significantly smaller than that of the divided image A side.

そのような場合には,特に,オーバーラップ領域の幅OLWをより広く設定することで,画質劣化が激しい分割画像B側の影響を抑制することができ好ましい。第1の実施の形態では,動き補償の効率に基づいてブレンド率を変更制御しているが,ブレンドできるのはオーバーラップ領域に限られている。したがって,オーバーラップ領域を超えて画質が劣化している場合は,ブレンド率を変更するだけでは画質劣化抑制には不十分である。   In such a case, it is particularly preferable to set the overlap region width OLW wider to suppress the influence on the divided image B side where the image quality is severely deteriorated. In the first embodiment, the blend rate is changed and controlled based on the efficiency of motion compensation, but the blending is limited to the overlap region. Therefore, when the image quality is degraded beyond the overlap region, changing the blend rate is not sufficient to suppress the degradation of the image quality.

そこで,第2の実施の形態では,エンコードユニット側で,設定された全体ビットレートに応じて,オーバーラップ領域の幅を可変制御することで,上記の画質劣化をより適切に抑制できるようにする。たとえば,全体ビットレートがより高い場合は,オーバーラップ領域を最低のブレンド率0%の領域A3を1マイクロブロックMBだけとし,ブレンド領域A2を1マイクロブロックMBだけとして,オーバーラップ領域の幅を2MBと設定するのが好ましい。   Therefore, in the second embodiment, the above-described image quality deterioration can be more appropriately suppressed by variably controlling the width of the overlap area according to the set overall bit rate on the encoding unit side. . For example, when the overall bit rate is higher, the overlap area is set to the minimum blend rate 0% area A3 as 1 micro block MB, the blend area A2 as 1 micro block MB, and the overlap area width is set to 2 MB. It is preferable to do this.

以上の通り,本実施の形態によれば,デコード分割画像を合成する時のブレンド率を,両分割画像の動き補償の効率に基づいて,より高い効率を持つ分割画像における高いブレンド率の領域を,反対側の分割画像よりも広くする。それにより,動き補償の効率に基づいて両デコード分割画像の画質に差が生じても,ブレンド率を最適に選択することで,合成画像の境界部分での画質低下を抑制することができる。   As described above, according to the present embodiment, the blend ratio when combining the decoded divided images is determined based on the motion compensation efficiency of both divided images. , Make it wider than the split image on the opposite side. As a result, even if there is a difference in image quality between both decoded divided images based on the efficiency of motion compensation, it is possible to suppress deterioration in image quality at the boundary portion of the composite image by optimally selecting the blend rate.

以上の実施の形態をまとめると,次の付記のとおりである。   The above embodiment is summarized as follows.

(付記1)
動画像の画像を互いにオーバーラップ領域を有するように分割した複数の分割画像を,それぞれエンコードしてエンコード分割画像データを生成する複数のエンコーダを有するエンコーダユニットと,
前記エンコーダユニットから入力されるデータから前記複数のエンコード分割画像データをそれぞれデコードすると共に動きベクトルの情報をそれぞれ抽出する複数のデコーダと,前記複数のデコーダがそれぞれデコードして生成した複数のデコード分割画像を前記オーバーラップ領域にてブレンドして前記動画像の画像を出力する合成部とを有するデコーダユニットとを有し,
前記合成部は,前記複数のデコーダからそれぞれ出力される前記動きベクトルの情報に基づいて,前記オーバーラップ領域のブレンド率を決めることを特徴とする動画像処理装置。
(Appendix 1)
An encoder unit having a plurality of encoders for encoding encoded divided image data by encoding a plurality of divided images obtained by dividing a moving image so as to have overlapping regions;
A plurality of decoders that respectively decode the plurality of encoded divided image data from the data input from the encoder unit and extract motion vector information, and a plurality of decoded divided images generated by the plurality of decoders respectively decoding A decoder unit having a synthesizing unit for blending in the overlap region and outputting an image of the moving image,
The moving image processing apparatus, wherein the synthesizing unit determines a blend ratio of the overlap region based on information on the motion vector output from each of the plurality of decoders.

(付記2)
付記1において,
前記ブレンド率は,前記オーバーラップ領域での前記動きベクトルの数が多いほど高いことを特徴とする動画像処理装置。
(Appendix 2)
In Appendix 1,
The moving image processing apparatus according to claim 1, wherein the blend ratio is higher as the number of motion vectors in the overlap region is larger.

(付記3)
付記2において,前記ブレンド率を決定する動きベクトルは,前記オーバーラップ領域からいずれかの分割画像に側に出て行く方向の成分を有する動きベクトルである動画像処理装置。
(Appendix 3)
The moving image processing apparatus according to Supplementary Note 2, wherein the motion vector that determines the blend ratio is a motion vector having a component in a direction going out from the overlap region to one of the divided images.

(付記4)
付記1,2,3のいずれかにおいて,
前記合成部は,前記隣接するエンコード分割画像データにおける前記オーバーラップ領域での動き予測の効率が同等の場合に比較して,当該動き予測の効率がより高い分割画像側のブレンド率がより高く,より低い分割画像側のブレンド率がより低く設定される動画像処理装置。
(Appendix 4)
In any one of Supplementary Notes 1, 2, and 3,
The synthesizing unit has a higher blend ratio on the divided image side where the efficiency of the motion prediction is higher than that in the case where the efficiency of motion prediction in the overlap region in the adjacent encoded divided image data is equal, A moving image processing apparatus in which a blend ratio on a lower divided image side is set lower.

(付記5)
付記1または2において,
前記デコード分割領域のオーバーラップ領域は,前記デコード分割画像の周辺から内部に向かって,ブレンド率ゼロの第1の領域と,ブレンド率が徐々に上昇する第2の領域と,ブレンド率最大の第3の領域とを有する動画像処理装置。
(Appendix 5)
In Appendix 1 or 2,
From the periphery of the decoded divided image to the inside, the overlap region of the decoded divided region includes a first region where the blend rate is zero, a second region where the blend rate gradually increases, and the first region where the blend rate is maximum. A moving image processing apparatus having three regions.

(付記6)
付記5において,
前記第3の領域は,隣接する分割画像側より動きベクトルが少ない場合に比較して,多い場合のほうが広い動画像処理装置。
(Appendix 6)
In Appendix 5,
The third region is a moving image processing apparatus in which the third region is wider when the number of motion vectors is larger than when the number of motion vectors is smaller than that of the adjacent divided images.

(付記7)
付記6において,
前記第2の領域は,隣接する分割画像側より動きベクトルが少ない場合に比較して,多い場合のほうが狭い動画像処理装置。
(Appendix 7)
In Appendix 6,
The moving image processing apparatus in which the second region is narrower when the number of motion vectors is larger than when the number of motion vectors is smaller than that of the adjacent divided image side.

(付記8)
付記1または2において
前記合成部は,前記オーバーラップ領域内の前記動きベクトルの探索単位であるマクロブロックの行または列毎に,前記ブレンド率を設定する動画像処理装置。
(Appendix 8)
In Supplementary Note 1 or 2, The synthesizing unit is a moving image processing apparatus that sets the blend rate for each row or column of a macroblock that is a search unit of the motion vector in the overlap region.

(付記9)
付記1または2において,
前記エンコーダユニットは,前記動画像の画像を分割する分割部を有し,
前記分割部は,前記エンコード分割画像データについて設定されたビットレートが第1のビットレートの場合よりも当該第1のビットレートより高い第2のビットレートの場合に,前記オーバーラップ領域を狭くする動画像処理装置。
(Appendix 9)
In Appendix 1 or 2,
The encoder unit has a dividing unit that divides the moving image.
The dividing unit narrows the overlap region when the bit rate set for the encoded divided image data is a second bit rate higher than the first bit rate than the first bit rate. A moving image processing apparatus.

(付記10)
付記1または2において,
前記エンコーダは,量子化対象データをQ値で除算して量子化する量子化処理部を有し,
前記デコーダは,逆量子化対象データを前記Qで乗算して逆量子化する逆量子化部を有し,
前記合成部は,前記オーバーラップ領域内の隣接分割画像側よりも高いブレンド率の領域が,前記オーバーラップ領域での前記Q値がより小さい分割画像側のほうが,より大きい分割画像側よりも広く設定される動画像処理装置。
(Appendix 10)
In Appendix 1 or 2,
The encoder includes a quantization processing unit that quantizes data to be quantized by dividing by Q value,
The decoder includes an inverse quantization unit that performs inverse quantization by multiplying the inverse quantization target data by the Q,
The synthesizing unit is configured such that a region having a higher blend ratio than the adjacent divided image side in the overlap region is wider on the divided image side where the Q value in the overlap region is smaller than on the larger divided image side. The moving image processing apparatus to be set.

(付記11)
動画像の画像を互いにオーバーラップ領域を有するように分割した複数の分割画像を,それぞれエンコードして生成された複数のエンコード分割画像データを入力し,前記複数のエンコード分割画像データをそれぞれデコードすると共に動きベクトルの情報をそれぞれ抽出する複数のデコーダと,
前記複数のデコーダがそれぞれデコードして生成した複数のデコード分割画像を前記オーバーラップ領域にてブレンドして前記動画像の画像を出力する合成部とを有し,
前記合成部は,前記複数のデコーダからそれぞれ出力される前記動きベクトルの情報に基づいて,前記オーバーラップ領域のブレンド率を決めることを特徴とする動画像処理装置。
(Appendix 11)
A plurality of encoded divided image data generated by encoding a plurality of divided images obtained by dividing a moving image so as to have overlapping regions are input, and the plurality of encoded divided image data are respectively decoded. A plurality of decoders for extracting motion vector information,
A synthesis unit that blends a plurality of decoded divided images generated by each of the plurality of decoders in the overlap region and outputs an image of the moving image;
The moving image processing apparatus, wherein the synthesizing unit determines a blend ratio of the overlap region based on information on the motion vector output from each of the plurality of decoders.

(付記12)
付記11において,
前記ブレンド率は,前記オーバーラップ領域での前記動きベクトルの数が多いほど高い動画像処理装置。
(Appendix 12)
In Appendix 11,
The moving image processing apparatus is such that the blend rate is higher as the number of motion vectors in the overlap region is larger.

(付記13)
付記12において,前記ブレンド率を決定する動きベクトルは,前記オーバーラップ領域からいずれかの分割画像に側に出て行く方向の成分を有する動きベクトルである動画像処理装置。
(Appendix 13)
The moving image processing apparatus according to attachment 12, wherein the motion vector for determining the blend ratio is a motion vector having a component in a direction going out from the overlap region to one of the divided images.

EN:エンコーダユニット
10:画像分割部
12:エンコーダ群
14:ストリーム合成部
DE:デコーダユニット
20:ストリーム分離部
22:デコーダ群
24:画像合成部
MV:動きベクトル
Q:Q値
EN: Encoder unit 10: Image division unit 12: Encoder group 14: Stream composition unit
DE: Decoder unit 20: Stream separation unit 22: Decoder group 24: Image composition unit
MV: motion vector
Q: Q value

Claims (8)

動画像の画像を互いにオーバーラップ領域を有するように分割した複数の分割画像を,それぞれエンコードしてエンコード分割画像データを生成する複数のエンコーダを有するエンコーダユニットと,
前記エンコーダユニットから入力されるデータから前記複数のエンコード分割画像データをそれぞれデコードすると共に動きベクトルの情報をそれぞれ抽出する複数のデコーダと,前記複数のデコーダがそれぞれデコードして生成した複数のデコード分割画像を前記オーバーラップ領域にて,前記オーバーラップ領域での前記動きベクトルの数が多いほうの前記デコード分割画像をより高いブレンド率でブレンドして前記動画像の画像を出力する合成部とを有するデコーダユニットとを有する動画像処理装置。
An encoder unit having a plurality of encoders for encoding encoded divided image data by encoding a plurality of divided images obtained by dividing a moving image so as to have overlapping regions;
A plurality of decoders that respectively decode the plurality of encoded divided image data from the data input from the encoder unit and extract motion vector information, and a plurality of decoded divided images generated by the plurality of decoders respectively decoding And a synthesizing unit that outputs the image of the moving image by blending the decoded divided image having the larger number of motion vectors in the overlap region with a higher blend ratio. A moving image processing apparatus.
請求項において,前記ブレンド率を決定する動きベクトルは,前記オーバーラップ領域からいずれかの分割画像に側に出て行く方向の成分を有する動きベクトルであることを特徴とする動画像処理装置。 2. The moving image processing apparatus according to claim 1 , wherein the motion vector for determining the blend ratio is a motion vector having a component in a direction going out from the overlap region to any one of the divided images. 請求項において,
前記オーバーラップ領域は,前記デコード分割画像の周辺から内部に向かって,ブレンド率ゼロの第1の領域と,ブレンド率が徐々に上昇する第2の領域と,ブレンド率最大の第3の領域とを有することを特徴とする動画像処理装置。
In claim 1 ,
The overlap region includes a first region where the blend rate is zero, a second region where the blend rate gradually increases, and a third region where the blend rate is maximum, from the periphery to the inside of the decoded divided image. A moving image processing apparatus comprising:
請求項において,
前記第3の領域は,隣接する分割画像側より動きベクトルが少ない場合に比較して,多い場合のほうが広いことを特徴とする動画像処理装置。
In claim 3 ,
The moving image processing apparatus according to claim 1, wherein the third region is wider when the number of motion vectors is larger than when the number of motion vectors is smaller than that of adjacent divided images.
請求項において
前記合成部は,前記オーバーラップ領域内の前記動きベクトルの探索単位であるマクロブロックの行または列毎に,前記ブレンド率を設定することを特徴とする動画像処理装置。
The moving image processing apparatus according to claim 1 , wherein the synthesis unit sets the blend rate for each row or column of a macroblock that is a search unit for the motion vector in the overlap region.
請求項において,
前記エンコーダユニットは,前記動画像の画像を分割する分割部を有し,
前記分割部は,前記エンコード分割画像データについて設定されたビットレートが第1のビットレートの場合よりも当該第1のビットレートより高い第2のビットレートの場合に,前記オーバーラップ領域を狭くすることを特徴とする動画像処理装置。
In claim 1 ,
The encoder unit has a dividing unit that divides the moving image.
The dividing unit narrows the overlap region when the bit rate set for the encoded divided image data is a second bit rate higher than the first bit rate than the first bit rate. A moving image processing apparatus.
請求項において,
前記エンコーダは,量子化対象データをQ値で除算して量子化する量子化処理部を有し,
前記デコーダは,逆量子化対象データを前記Qで乗算して逆量子化する逆量子化部を有し,
前記合成部は,前記オーバーラップ領域内の隣接分割画像側よりも高いブレンド率の領域が,前記オーバーラップ領域での前記Q値がより小さい分割画像側のほうが,より大きい分割画像側よりも広く設定されることを特徴とする動画像処理装置。
In claim 1 ,
The encoder includes a quantization processing unit that quantizes data to be quantized by dividing by Q value,
The decoder includes an inverse quantization unit that performs inverse quantization by multiplying the inverse quantization target data by the Q value ,
The synthesizing unit is configured such that a region having a higher blend ratio than the adjacent divided image side in the overlap region is wider on the divided image side where the Q value in the overlap region is smaller than on the larger divided image side. A moving image processing apparatus characterized by being set.
動画像の画像を互いにオーバーラップ領域を有するように分割した複数の分割画像を,それぞれエンコードして生成された複数のエンコード分割画像データを入力し,前記複数のエンコード分割画像データをそれぞれデコードすると共に動きベクトルの情報をそれぞれ抽出する複数のデコーダと,
前記複数のデコーダがそれぞれデコードして生成した複数のデコード分割画像を前記オーバーラップ領域にて,前記オーバーラップ領域での前記動きベクトルの数が多いほうの前記デコード分割画像をより高いブレンド率でブレンドして前記動画像の画像を出力する合成部とを有する動画像処理装置。
A plurality of encoded divided image data generated by encoding a plurality of divided images obtained by dividing a moving image so as to have overlapping regions are input, and the plurality of encoded divided image data are respectively decoded. A plurality of decoders for extracting motion vector information,
A plurality of decoded divided images generated by decoding by each of the plurality of decoders are blended in the overlap region, and the decoded divided image having a larger number of motion vectors in the overlap region is blended at a higher blend rate. to the moving image processing apparatus and a combining unit for outputting an image of the moving image.
JP2012247056A 2012-11-09 2012-11-09 Moving image processing device Active JP5998862B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012247056A JP5998862B2 (en) 2012-11-09 2012-11-09 Moving image processing device
US14/038,042 US9749648B2 (en) 2012-11-09 2013-09-26 Moving image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012247056A JP5998862B2 (en) 2012-11-09 2012-11-09 Moving image processing device

Publications (2)

Publication Number Publication Date
JP2014096690A JP2014096690A (en) 2014-05-22
JP5998862B2 true JP5998862B2 (en) 2016-09-28

Family

ID=50681672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012247056A Active JP5998862B2 (en) 2012-11-09 2012-11-09 Moving image processing device

Country Status (2)

Country Link
US (1) US9749648B2 (en)
JP (1) JP5998862B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9813730B2 (en) * 2013-12-06 2017-11-07 Mediatek Inc. Method and apparatus for fine-grained motion boundary processing
JP6736248B2 (en) * 2014-07-23 2020-08-05 キヤノン株式会社 Image processing device
JP2017033402A (en) * 2015-08-04 2017-02-09 株式会社デンソー Vehicle-mounted display control device and vehicle-mounted display control method
US10341561B2 (en) * 2015-09-11 2019-07-02 Facebook, Inc. Distributed image stabilization
JP6489227B2 (en) * 2015-09-25 2019-03-27 日本電気株式会社 Video encoding apparatus and video encoding method
US10944974B2 (en) 2017-01-11 2021-03-09 Raytheon Company Method for encoding and processing raw UHD video via an existing HD video architecture
US11190724B2 (en) * 2017-03-10 2021-11-30 Raytheon Company Adaptive bitrate streaming of UHD image data
US11049219B2 (en) 2017-06-06 2021-06-29 Gopro, Inc. Methods and apparatus for multi-encoder processing of high resolution content
KR101990491B1 (en) * 2017-08-03 2019-06-20 (주)아이피티브이코리아 Method and system for stiching ultra high resolution image
JP6951917B2 (en) * 2017-09-15 2021-10-20 株式会社ソニー・インタラクティブエンタテインメント Imaging device
EP3618442B1 (en) * 2018-08-27 2020-09-30 Axis AB An image capturing device, a method and computer program product for forming an encoded image
KR102178110B1 (en) * 2019-03-22 2020-11-12 주식회사 엘지유플러스 Method of transmitting image in a wireless access system
US11228781B2 (en) 2019-06-26 2022-01-18 Gopro, Inc. Methods and apparatus for maximizing codec bandwidth in video applications
JP2021057767A (en) * 2019-09-30 2021-04-08 株式会社ソニー・インタラクティブエンタテインメント Image data transfer device and image data transfer method
US11481863B2 (en) 2019-10-23 2022-10-25 Gopro, Inc. Methods and apparatus for hardware accelerated image processing for spherical projections

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02226984A (en) * 1989-02-28 1990-09-10 Toshiba Corp Picture data processor
JPH0846961A (en) * 1994-08-03 1996-02-16 Nippon Telegr & Teleph Corp <Ntt> Method for encoding and decoding picture
JPH11196299A (en) 1997-12-26 1999-07-21 Minolta Co Ltd Image pickup device
US6720997B1 (en) 1997-12-26 2004-04-13 Minolta Co., Ltd. Image generating apparatus
JP2007067499A (en) 2005-08-29 2007-03-15 Olympus Corp Image processor
JP4760288B2 (en) 2005-10-13 2011-08-31 ソニー株式会社 Image display system, display device, image resynthesis device, image resynthesis method, and program
JP4389883B2 (en) * 2006-01-30 2009-12-24 ソニー株式会社 Encoding apparatus, encoding method, encoding method program, and recording medium recording the encoding method program
JP4973031B2 (en) * 2006-07-03 2012-07-11 ソニー株式会社 Noise suppression method, noise suppression method program, recording medium recording noise suppression method program, and noise suppression device
JP2008259122A (en) * 2007-04-09 2008-10-23 Matsushita Electric Ind Co Ltd Image processing device and image processing method
JP4814380B2 (en) * 2008-02-04 2011-11-16 パナソニック株式会社 Imaging apparatus, integrated circuit, and imaging method
JP2009294273A (en) 2008-06-03 2009-12-17 Hitachi Ltd Super resolution display device
US8938127B2 (en) * 2012-09-18 2015-01-20 Nvidia Corporation Hybrid encoding/decoding for remote gaming

Also Published As

Publication number Publication date
US9749648B2 (en) 2017-08-29
US20140133568A1 (en) 2014-05-15
JP2014096690A (en) 2014-05-22

Similar Documents

Publication Publication Date Title
JP5998862B2 (en) Moving image processing device
CN106454358B (en) Image processing apparatus and image processing method
EP2524505B1 (en) Edge enhancement for temporal scaling with metadata
JP5680674B2 (en) Method and system for reference processing in image and video codecs
US9571856B2 (en) Conversion operations in scalable video encoding and decoding
CN106791877B (en) Image processing apparatus and image processing method
US20120076203A1 (en) Video encoding device, video decoding device, video encoding method, and video decoding method
US10531094B2 (en) Image processing device and moving image transmission method
US20140247890A1 (en) Encoding device, encoding method, decoding device, and decoding method
US10542265B2 (en) Self-adaptive prediction method for multi-layer codec
US9992503B2 (en) Scalable video coding with enhanced base layer
US9357213B2 (en) High-density quality-adaptive multi-rate transcoder systems and methods
WO2011039931A1 (en) Image encoding device, image decoding device, image encoding method and image decoding method
US8681877B2 (en) Decoding apparatus, decoding control apparatus, decoding method, and program
US8331447B2 (en) Apparatus for decoding video compression coded data
US9100650B2 (en) Video encoding method, decoding method, and apparatus
US9001892B2 (en) Moving image encoder and moving image decoder
JPH10112857A (en) Method and device for coding and decoding image signal
WO2011062010A1 (en) Video encoding and decoding device
WO2009046601A1 (en) Method for motion compensation
JP2000036961A (en) Image coder, image coding method and image decoder
Boyce et al. COST AND COMPLEXITY OF FULL-RESOLUTION HDTV DECODER COMPONENTS

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150610

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160815

R150 Certificate of patent or registration of utility model

Ref document number: 5998862

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150