JP2008199252A - Motion picture decoding device - Google Patents
Motion picture decoding device Download PDFInfo
- Publication number
- JP2008199252A JP2008199252A JP2007031606A JP2007031606A JP2008199252A JP 2008199252 A JP2008199252 A JP 2008199252A JP 2007031606 A JP2007031606 A JP 2007031606A JP 2007031606 A JP2007031606 A JP 2007031606A JP 2008199252 A JP2008199252 A JP 2008199252A
- Authority
- JP
- Japan
- Prior art keywords
- type
- reference area
- unit
- image
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
この発明は、動画像データを復号する際に、画像フレームのエラーを修復するエラーコンシールメント機能を備える画像復号装置に関する。 The present invention relates to an image decoding apparatus having an error concealment function that repairs an error in an image frame when decoding moving image data.
近年、携帯電話機やPDA(Personal Digital Assistant)等の携帯端末の中には、地上ディジタル放送のワンセグメント放送を受信する機能を備えた端末が多くなっている。地上ディジタル放送のワンセグメント放送では動画像の符号化方式としてITUT H.264方式が採用されている。このため、上記携帯端末には上記ITUT H.264方式に対応する動画像復号装置が設けられている。 In recent years, mobile terminals such as mobile phones and PDAs (Personal Digital Assistants) are increasingly equipped with terminals having a function of receiving one-segment broadcasting of terrestrial digital broadcasting. In the one-segment broadcasting of terrestrial digital broadcasting, the ITUT H.264 method is adopted as a moving image encoding method. For this reason, the mobile terminal is provided with a moving picture decoding apparatus corresponding to the ITUT H.264 system.
ところで、携帯端末の動画像復号装置では、例えば無線伝送路においてビットストリーム中にエラーが混入すると、可変長復号の同期が回復するまで画像の復号が不可能になり、視覚的に大きな劣化を生じる。そこで、エラーが混入したことにより失われた領域を、フレームメモリに蓄えられた既に復号済みの画像信号を用いて補間するエラーコンシールメント処理が行われる。 By the way, in a moving picture decoding apparatus of a mobile terminal, for example, if an error is mixed in a bit stream in a wireless transmission path, it becomes impossible to decode an image until the synchronization of variable-length decoding is restored, resulting in a large visual deterioration. . Therefore, an error concealment process is performed in which an area lost due to an error is interpolated using an already decoded image signal stored in the frame memory.
エラーコンシールメントには大別して、フレーム間の相関を利用する時間的コンシールメントと、フレーム内の相関を利用する空間的コンシールメントと、前述2つを組み合わせた時空間的コンシールメントがある。一般的には符号化の基準単位であるマクロブロック(MB)ごとにエラーの有無を特定して補間処理を行うが、補間処理方法を適応的に切り替えることでより画質改善効果の高いエラーコンシールメントが可能となる。 The error concealment is roughly classified into a temporal concealment that uses a correlation between frames, a spatial concealment that uses a correlation within a frame, and a spatiotemporal concealment that combines the above two. In general, interpolation processing is performed by specifying the presence or absence of an error for each macroblock (MB), which is a reference unit of encoding, but error concealment with a higher image quality improvement effect by adaptively switching the interpolation processing method. Is possible.
このうち空間的コンシールメントについては,欠落したマクロブロックに隣接する参照領域を“Smoothness”、“Edge”、“Texture”と呼ばれる3つの類型に分類し、その分類結果から欠落したマクロブロックの特徴を推定して補間処理の内容を切り替える手法がある。ここで、“Smoothness”とは空のように画素値がほぼ一様な領域であり、図15(a)〜(c)にその一例を示す。“Edge”はエッジパターンが含まれる領域であり、図16(a)〜(c)にその一例を示す。“Texture”は幾何学的模様や花壇のように画素値のばらつきが大きい領域であり、図17(a)〜(c)にその一例を示す。 Among these, for spatial concealment, the reference area adjacent to the missing macroblock is classified into three types called “Smoothness”, “Edge”, and “Texture”, and the characteristics of the missing macroblock are identified from the classification results. There is a method of estimating and switching the content of interpolation processing. Here, “Smoothness” is an area where pixel values are almost uniform, such as the sky, and examples thereof are shown in FIGS. “Edge” is an area including an edge pattern, and an example thereof is shown in FIGS. “Texture” is a region having a large variation in pixel values, such as a geometric pattern or a flower bed, and examples thereof are shown in FIGS.
ところで、欠落マクロブロックに隣接する参照領域を上記3つの類型に分類する手法としては、従来より例えばエッジパターンを表す勾配の情報を指標の1つとして用いるものが知られている(例えば、非特許文献1を参照。)。
ところが、上記非特許文献1に記載された手法では、欠落マクロブロックの分類に用いるすべての参照領域に対しエッジパターンを検出するための勾配計算が行われる。勾配の計算は、一般的にSobel FilterやPrewitt Filterなどのフィルタを勾配算出領域の各画素に対して適用することにより行われる。このため、領域内すべての画素に対して勾配計算を行うことになり、演算量が膨大になる。この勾配の情報は、参照領域の類型が“Edge”の場合には当該勾配情報が補間処理に用いられるため無駄にはならない。しかし、参照領域の類型が“Smoothness”又は“Texture”の場合には、上記勾配の情報は補間処理に使われないため無駄な演算となる。この演算処理は、コンシールメント処理を行う際の無視できないオーバヘッドとなり、特に携帯電話機やPDA(Prsonal Digital Assistant)等の携帯端末のように画像処理能力に限りのある機器にあっては非常に大きな問題となる。
However, in the method described in
この発明は上記事情に着目してなされたもので、その目的とするところは、補間対象ブロックに隣接する参照領域の類型を分類する際の演算量を削減してコンシールメント処理のオーバヘッドの軽減を図った画像復号装置を提供することにある。 The present invention has been made paying attention to the above circumstances, and its object is to reduce the amount of calculation when classifying the reference area type adjacent to the interpolation target block, thereby reducing the overhead of concealment processing. The object is to provide an image decoding apparatus.
上記目的を達成するためにこの発明の第1の観点は、ブロックごとに符号化された画像データを復号処理して復号画像データを出力する画像復号装置において、上記復号画像データ中から上記復号処理により正しく復号がなされなかった欠落画素を含む修復対象ブロックを特定して、この特定された修復対象ブロックに隣接しかつ上記復号処理により正しく復号がなされた参照領域を選択する。そして、上記選択された参照領域ごとに当該参照領域内における画素値の分散状況を表す特徴量を統計的手法を用いて検出し、この検出された画素値の分散状況を表す特徴量に基づいて、上記参照領域の画像の類型が、画素値が一様に分布した第1の類型であるか、画素値のばらつきの多い第2の類型であるか、或いはエッジパターンを含む第3の類型であるかを第1の判定手段により判定する。そして、この第1の判定手段による参照領域の類型の判定結果に基づいて、上記修復対象ブロックの類型が第1の類型、第2の類型及び第3の類型のいずれであるかを推定し、この推定結果に基づいて上記第1、第2及び第3の類型に対応付けて予め用意された複数の補間処理手段の中から補間処理手段を選択して、上記欠落画素を含む修復対象ブロックの補間処理を行うように構成したものである。 In order to achieve the above object, according to a first aspect of the present invention, there is provided an image decoding apparatus that decodes image data encoded for each block and outputs decoded image data. The restoration target block including the missing pixel that has not been correctly decoded by the above is specified, and a reference area that is adjacent to the specified restoration target block and that has been correctly decoded by the decoding process is selected. Then, for each of the selected reference regions, a feature amount that represents the dispersion state of the pixel values in the reference region is detected using a statistical method, and based on the feature amount that represents the dispersion state of the detected pixel values. The image type of the reference area is a first type in which pixel values are uniformly distributed, a second type with a large variation in pixel values, or a third type including an edge pattern. Whether or not there is is determined by the first determination means. And based on the determination result of the type of the reference region by the first determination means, it is estimated whether the type of the block to be repaired is the first type, the second type, or the third type, Based on the estimation result, an interpolation processing unit is selected from a plurality of interpolation processing units prepared in advance in association with the first, second, and third types, and the restoration target block including the missing pixel is selected. An interpolation process is performed.
また、この発明の第2の観点は、上記第1の判定手段により上記参照領域の画像の類型が判定されなかった場合に、上記参照領域における画素値の勾配を表す特徴量を算出する。そして、この算出された画素値の勾配を表す特徴量に基づいて、上記参照領域の画像の類型が上記第1の類型であるか、上記第2の類型であるか、或いは上記第3の類型であるかを第2の判定手段により判定するように構成したものである。 According to a second aspect of the present invention, when the image type of the reference area is not determined by the first determination unit, a feature amount representing a gradient of pixel values in the reference area is calculated. Then, based on the calculated feature value representing the gradient of the pixel value, the image type of the reference region is the first type, the second type, or the third type. Is determined by the second determination means.
したがって、この発明の第1の観点によれば、参照領域の画像の類型を判定する際に、当該参照領域内における画素値の分散状況を表す特徴量が統計的手法を用いて検出され、この検出された画素値の分散状況の特徴量に基づいて画像の類型が判定される。このため、常に参照領域における画素値の勾配を表す特徴量を算出してこの勾配を表す特徴量をもとに画像の類型を判定する場合に比べ、参照領域の画像の類型を判定する場合に必要な演算量が削減され、コンシールメント処理のオーバヘッドが軽減される。 Therefore, according to the first aspect of the present invention, when determining the type of the image of the reference area, a feature value representing the dispersion state of the pixel values in the reference area is detected using a statistical method. The type of the image is determined based on the feature value of the dispersion state of the detected pixel value. For this reason, compared to the case where the feature amount representing the gradient of the pixel value in the reference region is always calculated and the image type is determined based on the feature amount representing the gradient, the image type of the reference region is determined. The amount of computation required is reduced, and the overhead of concealment processing is reduced.
また、この発明の第2の観点によれば、第1の判定手段により参照領域の画像の類型が判定されなかった場合に限り、当該参照領域における画素値の勾配を表す特徴量が算出され、この算出された画素値の勾配を表す特徴量に基づいて上記参照領域の画像類型の再判定が行われる。このため、演算量を少量に抑えつつ、画素値の分散状況を表す特徴量からでは正確な類型判定が行えない場合でも画素値の勾配を表す特徴量をもとに正確な類型判定を行うことが可能となる。 Further, according to the second aspect of the present invention, only when the type of the image of the reference area is not determined by the first determination unit, the feature amount representing the gradient of the pixel value in the reference area is calculated, Re-determination of the image type of the reference area is performed based on the calculated feature value representing the gradient of the pixel value. Therefore, it is possible to perform accurate type determination based on the feature value representing the gradient of the pixel value even when the type value cannot be accurately determined from the feature value representing the dispersion state of the pixel value while suppressing the calculation amount to a small amount. Is possible.
すなわち、この発明によれば、補間対象ブロックに隣接する領域の類型を分類する際の演算量を削減してコンシールメント処理のオーバヘッドの軽減を図ることが可能な画像復号装置を提供することができる。 That is, according to the present invention, it is possible to provide an image decoding apparatus that can reduce the amount of calculation when classifying the type of the region adjacent to the interpolation target block and reduce the overhead of concealment processing. .
(第1の実施形態)
この発明の第1の実施形態は、この発明に係わる動画像復号装置を携帯電話機等の携帯端末に設けたもので、地上ディジタル放送の1セグメント放送(以後をワンセグ放送と称する)により受信した符号化動画像データストリームの欠落マクロブロックを当該マクロブロックに隣接する参照領域をもとに補間する際に、当該参照領域の類型を先ず画素の分布状況を統計的手法を用いて算出して判定し、この判定の結果類型が“Edge”の可能性がある場合にのみ画素値の勾配を表す特徴量を算出してその算出結果をもとに類型を再判定するように構成したものである。
(First embodiment)
In the first embodiment of the present invention, a moving picture decoding apparatus according to the present invention is provided in a portable terminal such as a cellular phone, and a code received by one-segment broadcasting of terrestrial digital broadcasting (hereinafter referred to as one-segment broadcasting). When interpolating missing macroblocks in a converted video data stream based on a reference area adjacent to the macroblock, the type of the reference area is first determined by calculating the pixel distribution using a statistical method. The feature amount representing the gradient of the pixel value is calculated only when there is a possibility that the type of determination is “Edge”, and the type is re-determined based on the calculation result.
図1は、この発明の第1の実施形態に係わる画像復号装置を備えた携帯端末の構成を示すブロック図である。
この実施形態に係わる携帯端末は、無線ユニット1と、ベースバンドユニット2と、ユーザインタフェースユニット3と、記憶ユニット4と、ディジタル放送受信ユニット5と、電源ユニット6とから構成される。
FIG. 1 is a block diagram showing a configuration of a portable terminal provided with an image decoding apparatus according to the first embodiment of the present invention.
The portable terminal according to this embodiment includes a
同図において、先ず通話モードが設定されている状態では、ユーザインタフェースユニット3のマイクロホン32から出力されたユーザの送話音声信号がベースバンドユニット2のエンコーダ23に入力される。また、カメラ(CAM)31から出力されたビデオ信号もエンコーダ23に入力される。エンコーダ23は、上記送話音声信号をCELP(Code Excited Liner Predictive coding)所定の符号化方式で符号化すると共に、上記ビデオ信号を例えばMPEG-4(Moving Picture Coding Experts Group-4)方式に従い符号化し、この符号化されたオーディオデータ及びビデオデータをそれぞれパケット化したのち多重化して送信マルチメディアデータを出力する。この送信マルチメディアデータは、制御モジュール21においてさらに宛先情報などの種々制御情報が多重化されたのち、無線ユニット1の送信回路(TX)15に供給される。
In the figure, first, in a state where the call mode is set, the user's transmitted voice signal output from the
送信回路15は、変調器、周波数変換器及び送信電力増幅器を備える。上記送信データは、変調器でディジタル変調されたのち、周波数変換器により周波数シンセサイザ14から発生された送信局部発振信号とミキシングされて無線周波信号に周波数変換される。変調方式としては、QPSK(Quadriphase Phase Shift Keying)方式やQAM(Quadrature Amplitude Modulation)方式等のディジタル変調方式と、拡散符号を使用するスペクトラム拡散方式が用いられる。そして、この変調された送信無線周波信号は、送信電力増幅器で所定の送信レベルに増幅されたのち、アンテナ共用器(DUP)12を介してアンテナ11に供給され、このアンテナ11から図示しない基地局に向け送信される。
The
これに対し、基地局から無線チャネルを介して到来した無線周波信号は、アンテナ11で受信されたのちアンテナ共用器12を介して受信回路(RX)13に入力される。受信回路13は、高周波増幅器、周波数変換器及び復調器を備える。そして、上記無線周波信号を低雑音増幅器で低雑音増幅したのち、周波数変換器において周波数シンセサイザ(SYN)14から発生された受信局部発振信号とミキシングして受信中間周波信号又は受信ベースバンド信号に周波数変換し、その出力信号を復調器でディジタル復調する。復調方式としては、例えば直交復調方式と、拡散符号を使用したスペクトラム逆拡散方式が用いられる。なお、上記周波数シンセサイザ14から発生される受信局部発振信号周波数は、ベースバンドユニット2に設けられた制御モジュール21から指示される。
In contrast, a radio frequency signal arriving from a base station via a radio channel is received by an
上記復調器から出力された受信パケットデータはベースバンドユニット2に入力される。そして、このベースバンドユニット2内において、制御モジュール21を介してデコーダ22に入力される。デコーダ22は、上記受信パケットデータをオーディオパケットとビデオパケットに分離したのち、オーディオパケットをデパケットしたのちオーディオデータに復号する。この復号されたオーディオフレームは、アナログ信号に変換されたのちユーザインタフェースユニット3のスピーカ35から受話音声として拡声出力される。またデコーダ22は、上記入力されたビデオパケットをデパケットしたのち、例えばMPEG4方式に従いビデオフレームに復号する。この復号されたビデオフレームはユーザインタフェースユニット3の表示デバイス34で表示される。表示デバイス34は、例えばLCD(Liquid Crystal Display)33からなる。
The received packet data output from the demodulator is input to the
一方、ディジタル放送視聴モードが設定されている状態において、図示しない放送局から送信された放送信号は、アンテナ51を介してディジタル放送受信ユニット5で受信復調される。そして、上記受信復調された受信放送データは、ベースバンドユニット2の制御モジュール21においてヘッダの解析等が行われたのち、デコーダ22に入力される。デコーダ22は、上記入力された受信放送データをオーディオパケットとビデオパケットに分離する。そして、オーディオパケットをデパケットしたのちオーディオフレームに復号し、またビデオパケットをデパケットしたのち画像フレームに復号する。
On the other hand, in a state where the digital broadcast viewing mode is set, a broadcast signal transmitted from a broadcast station (not shown) is received and demodulated by the digital
例えば、地上波ディジタル放送のワンセグ放送では、オーディオデータはMPEG2 AAC方式で符号化され、ビデオデータはITUT H.264方式で符号化されている。このため、上記デコーダ22は、上記オーディオパケット及びビデオパケットをこれらの符号化方式に対応する復号方式により復号する。上記復号されたオーディオ信号はユーザインタフェースユニット3のスピーカ35から拡声出力され、ビデオ信号は表示デバイス34に供給されて表示される。
For example, in one-segment broadcasting of terrestrial digital broadcasting, audio data is encoded by the MPEG2 AAC format, and video data is encoded by the ITUT H.264 format. For this reason, the
なお、電源ユニット6には、リチウムイオン電池等のバッテリ61と、このバッテリ61を商用電源出力(AC100V)をもとに充電するための充電回路62と、電圧生成回路(PS)63とが設けられている。電圧生成回路63は、例えばDC/DCコンバータからなり、バッテリ61の出力電圧をもとに所定の電源電圧Vccを生成する。
The
ところで、上記デコーダ22は例えばCPU(Central Processing Unit)又はDSP(Digital Signal Processor)を用いて構成され、この発明に係わる機能として次のような機能を備えている。図2はその機能構成を示すブロック図である。すなわち、デコーダ22は、復号部100と、欠落領域情報メモリ200と、コンシールメント部300と、復号化ピクチャバッファ400とを備えている。
By the way, the
このうち復号部100は、復号器と、エラー検出部110と、切替制御部120とを備えている。復号器は、入力されたビデオデータのビットストリームを可変長符号テーブルに従いマクロブロック単位で可変長復号し、復号されたピクチャデータを符号化ピクチャバッファ400へ出力する。
Among these, the
エラー検出部110は、上記復号器で復号処理されるビデオデータのビットストリームにシンタックス上の誤りが混入していた場合に、これを検出する。そして、この検出結果に応じ、マクロブロックごとに正常に復号されたか否かを表すフラグ情報StatusFragを生成して、このフラグ情報StatusFragを1画像フレーム分ずつ欠落領域情報メモリ200に記憶させる。
切替制御部120は、上記復号器により1フレーム分の復号処理が終了し、次のピクチャ境界が検出された時点で、コンシールメント部300に対し上記復号処理が終了した修復対象フレームに対するコンシールメント処理を指示するための通知を行う。
The error detection unit 110 detects a syntax error mixed in the bit stream of the video data decoded by the decoder. Then, in accordance with the detection result, flag information StatusFrag indicating whether or not each macroblock has been normally decoded is generated, and the flag information StatusFrag is stored in the missing
When the decoding process for one frame is completed by the decoder and the next picture boundary is detected, the switching
コンシールメント部300は、コンシールメント制御部310と、周辺領域情報取得部320と、周辺領域バッファ330と、勾配情報算出部240と、勾配選択部350と、しきい値設定部360と、境界座標算出部370と、補間画素値算出部380とを備えている。
The
コンシールメント制御部310は、コンシールメント部300内各部の動作を統括的に制御するもので、上記切替制御部120からコンシールメント処理を指示するための通知を受け取ると、上記コンシールメント部300内の各部に、修復対象フレーム内の欠落領域に対するコンシールメント処理を行わせる。またそれと共に、修復対象フレームのすべての欠落マクロブロックに対する補間処理が終了すると、切替制御部120を介して復号部100に対しコンシールメント処理の終了を通知し、復号部100に次の画像フレームの復号処理を開始させる。なお、このとき切替制御部120は欠落領域情報メモリ200に記憶された修復対象フレームに対応するフラグ情報をクリアする。
The
周辺領域情報取得部320は、上記欠落領域情報メモリ200に記憶されたフラグ情報StatusFlagを参照し、修復対象マクロブロックに隣接するマクロブロックの中から、正しく復号がなされたマクロブロックを修復に利用することが可能な参照領域として選択する。例えば、いま図9(a)に示すごとく修復対象マクロブロックをXとすると、その上下左右に隣接する4個のマクロブロックA〜Dが修復に利用可能か否かを、当該隣接マクロブロックA〜Dのフラグ情報StatusFlagをもとに判定する。図9(b)の例では、隣接マクロブロックA〜Dのフラグ情報StatusFlagはそれぞれ1,1,0,1になっているため、隣接マクロブロックA,B,Dが修復に利用可能な参照領域と判定される。
The peripheral area
周辺領域バッファ330は、周辺領域情報取得部320により修復に利用可能と判定された隣接マクロブロックの画素情報を、復号化ピクチャバッファ400から取得して保存する。そして、境界座標検出部370から境界画素の座標値を受け取り、この受け取った境界画素の座標値をもとに、上記保存された隣接マクロブロックの画素情報のうち当該座標値に対応する画素情報を読み出して補間画素値算出部380へ出力する。
The
欠落領域分類部340は、上記周辺領域バッファ330から隣接マクロブロックの画素情報を読み出して、この読み出した隣接マクロブロックの類型を分類し、この分類結果をもとに補間対象マクロブロックの類型が“Smoothness”、“Edge”、“Texture”のいずれであるかを推定するもので、次のように構成される。図3はその構成を示すブロック図である。
The missing
すなわち、欠落領域分類部340は、統計情報算出部341と、勾配情報算出部342と、周辺領域解析部343と、欠落領域分類決定部344とを備え、さらに切替部345を備えている。
統計情報算出部341は、上記周辺領域バッファ330から予め設定した解析領域サイズ分の画素情報を読み出し、この読み出した画像情報をもとに画素値の分布情報を表す特徴量を統計的な手法により算出し、その算出結果を表す統計情報を切替部345を介して周辺領域解析部343に通知する。勾配情報算出部342は、上記周辺領域バッファ330から予め設定した解析領域サイズ分の画素情報を読み出し、この読み出した画像情報をもとに画素値の勾配を表す特徴量を算出し、その算出結果を表す勾配情報を切替部345を介して周辺領域解析部343に通知する。なお、ここでは、ある参照領域内の画像情報を解析する際、統計情報および勾配情報の算出に用いる参照領域の画素情報としては輝度信号を用いる。しかし、輝度情報と色差情報には相関があるため、起動情報の代わりに色差信号を用いることも可能である。
In other words, the missing
The statistical
周辺領域解析部343は、上記統計情報算出部341および勾配情報算出部342により算出された情報をそれぞれ、予め設定された統計情報用のしきい値および勾配情報用のしきい値と比較して類型が“Smoothness”、“Edge”、“Texture”のいずれであるかを判定する。またそれと共に、上記統計情報の算出結果および勾配情報の算出結果を欠落領域分類決定部344に通知する。
The peripheral
欠落領域分類部344は、上記周辺領域解析部343による参照領域の類型の判定結果をもとに、補間対象マクロブロックの類型が“Smoothness”、“Edge”、“Texture”のいずれであるかを推定する。推定方法としては、例えば参照領域の類型の判定結果を多数決処理する方法が用いられる。
The missing
切替部345は、隣接マクロブロックの類型を分類する際に、先ず上記統計情報算出部341を選択して統計情報の算出を行わせる。そして、周辺領域解析部343が上記統計情報をもとに各参照領域の類型を判定できなかった場合にのみ、勾配情報算出部342を選択して上記勾配情報の算出処理を行わせる。
When classifying the types of adjacent macroblocks, the
欠落領域補間処理部350は、補間対象マクロブロックを、上記周辺領域バッファ330から読み出した参照領域における上記補間対象マクロブロックとの境界画素の画素情報を用いて補間する。この補間処理に際しては、上記欠落領域分類部340による補間対象マクロブロックの類型の推定結果を参照する。
The missing area
図4は、この欠落領域補間処理部350の構成を示すブロック図である。すなわち、欠落領域補間処理部350は、Smoothness補間処理部351と、Edge補間処理部352と、Texture補間処理部353とを備え、さらにこれらの補間処理部351,352,353の入力側及び出力側に一対の切替部354,355を備えている。この切替部354,355は、上記欠落領域分類部340により推定された補間対象マクロブロックの類型の推定結果に応じて、上記Smoothness補間処理部351、Edge補間処理部352及びTexture補間処理部353を択一的に切り替える。上記Smoothness補間処理部351、Edge補間処理部352及びTexture補間処理部353により補正された画素情報(輝度値又は色差値)は復号化ピクチャバッファ400に供給され、該当する補間対象領域の位置に格納される。
FIG. 4 is a block diagram showing a configuration of the missing area
復号化ピクチャバッファ400は、画像フレームごとに、上記復号部100により正常に復号された領域の画素値と、上記コンシールメント部300の欠落領域補間処理部350により算出された欠落画素の画素値を記憶する。そして、上記コンシールメント部300によりすべての欠落画素値の補間処理が終了した画像フレームを読み出して表示デバイス34に供給する。
The decoded
次に、以上のように構成されたデコーダ22によるコンシールメント処理の手順と内容を説明する。図5はこのコンシールメント処理の手順と処理内容の概要を示すフローチャート、図6は同処理内容の具体例を示すフローチャートである。
制御モジュール21からビデオデータのビットストリームが入力されると、復号部100では上記入力されたビデオデータのビットストリームがそのマクロブロックごとに復号され、この復号されたピクチャデータが復号化ピクチャバッファ400に送られて一時蓄積される。
Next, the procedure and contents of concealment processing by the
When a bit stream of video data is input from the control module 21, the
またこの復号処理と並行して、上記復号処理されるビデオデータのビットストリームにシンタックス上の誤りが混入しているか否かがマクロブロックごとにエラー検出部110により判定される(ステップS41)。そして、この誤りの有無の判定結果を表すフラグ情報が欠落領域情報メモリ200に記憶される。例えば、正常に復号されたマクロブロックについてはStatusFlag=1に設定され、復号不可能だったマクロブロックについてはStatusFrag=0に設定されて、これらがフレーム単位で欠落領域情報メモリ200に記憶される。図8に、欠落領域情報メモリ200におけるフラグ情報StatusFragの記憶結果の一例を示す。
そして、1フレーム分のビデオデータの復号処理が終了すると、切替制御部120からコンシールメント制御部310対し、上記復号処理が終了したフレームに対するコンシールメント処理を指示する通知が送られる。
In parallel with this decoding process, the error detection unit 110 determines whether or not an error in the syntax is mixed in the bit stream of the video data to be decoded (step S41). Then, flag information representing the determination result of the presence or absence of this error is stored in the missing
When the decoding process of video data for one frame is completed, the switching
さて、上記コンシールメント処理の指示が通知されると、コンシールメント部300では次のようにコンシールメント処理が行われる。
すなわち、先ず欠落画素を含むマクロブロックXについて、隣接マクロブロックが周辺領域情報取得部320により選択される。例えば、欠落マクロブロックXの周辺には図7に示すように8個のマクロブロックA〜Hがあり、このうちから先ず例えば図9(a)に示すように欠落マクロブロックXの上下及び左右に隣接する4個の隣接マクロブロックA〜Dが選択される。次に、欠落領域情報メモリ200に記憶されたフラグ情報StatusFlagを参照し、例えば図9(b)に示すように上記4つの隣接マクロブロックA〜Dの中から欠落画素を含まないマクロブロックA,B,Dが参照マクロブロックとして選択される。そして、この選択された参照マクロブロックA,B,D内の各画素の画素値が上記復号化ピクチャバッファ400から選択的に読み出され、この読み出された参照マクロブロックA,B,Dの各画素値が周辺領域バッファ330に格納される。
When the concealment processing instruction is notified, the
That is, for the macroblock X including the missing pixel, the neighboring macroblock is first selected by the peripheral area
なお、復号化ピクチャバッファ400から画素値を取得する参照マクロブロックの領域サイズは、必ずしも補間処理単位の領域サイズと等しくする必要はなく、後述する特徴ベクトル1及び2を検出するために必要な画素数分だけを取得すればよい。取得する参照領域のサイズと補間処理単位の領域サイズ(16×16画素)に含まれる画素数が等しくない場合の例を、図9(c)に示す。この例では、16×8画素または8×16画素の領域を参照領域とする場合を示している。要するに、取得する参照領域の画素数サイズは参照領域の特徴ベクトルの検出精度と確保可能なバッファサイズによって任意に決定することができる。
Note that the area size of the reference macroblock for obtaining the pixel value from the decoded
次に、コンシールメント部300はステップS42に移行し、欠落領域分離部340により、上記選択された参照マクロブロック(参照領域)の類型を分類する処理を行う。この参照領域の分類処理は、ステップS421による第1の分類処理と、ステップS422による第2の分類処理と、ステップS423による分類処理の終了判定処理とから構成され、先ず第1の分類処理が行われる。
Next, the
すなわち、この第1の分類処理S421において欠落領域分離部340は、先ず周辺領域バッファ330から参照領域の一つを選択する。そして、この選択した参照領域を構成する画素の輝度値の分布状況を表す特徴量ベクトル1を算出し、この特徴量ベクトル1をもとに上記選択した参照領域の分類を行う。
That is, in the first classification process S421, the missing
例えば、図6に示すように先ずステップS51において、上記選択した参照領域に含まれる画素の輝度値に関してその度数分布を調べ、度数の最大値deg_maxを検出する。そして、上記参照領域内の画素数Nに対する上記検出された度数の最大値deg_maxの割合を表すdeg_max_rateを算出する。またそれと共に、上記選択した参照領域に含まれる画素の輝度値の最大値及び最小値をそれぞれ検出し、この検出した最大値と最小値との差を表すrangeを算出する。 For example, as shown in FIG. 6, first, in step S51, the frequency distribution of the luminance values of the pixels included in the selected reference area is examined to detect the maximum value deg_max. Then, deg_max_rate representing the ratio of the detected maximum value deg_max to the number N of pixels in the reference region is calculated. At the same time, the maximum value and the minimum value of the luminance values of the pixels included in the selected reference area are respectively detected, and a range representing the difference between the detected maximum value and minimum value is calculated.
次に欠落領域分離部340は、上記算出された輝度値の最大値と最小値との差rangeを予め設定したしきい値Th_rとステップS52により比較する。そして、この比較の結果range<Th_rだった場合には、上記選択した参照領域は“Smoothness”であるとステップS4213で判定し、まだ選択されていない次の参照領域の分類処理に移行する。これに対し、上記比較の結果range>=Th_rだった場合には、上記算出された度数の最大値deg_maxの割合を表すdeg_max_rateを、予め設定されたしきい値Th_dとステップS53で比較する。そしてこの比較の結果、deg_max_rate<Th_dだった場合には、上記参照領域は“Texture”であるとステップS4214で判定し、未選択の次の参照領域の分類処理に移行する。なお、上記しきい値Th_rおよびTh_dは、画像ごとに最適な値が異なるため、実験的に求めた値に設定される。
Next, the missing
なお、以上の分類処理では、明らかにTextureである領域を分類する指標として“range”を用いた。しかし、仮に1画素でも離れた値を取るような場合には、意図する指標とはならないため、分散を用いる方がより精度良く分類を行える。ただし、分散を用いた場合は処理量が増える。さらに、第1の分類処理においては、明らかに“Smoothness”である領域を先に分類した後に、明らかに“Texture”である領域を分類した。しかしそれに限らず、先に明らかに“Texture”である領域を分類した後に、明らかに“Smoothness”である領域を分類するという構成も考えられる。 In the above classification process, “range” is used as an index for classifying a region that is clearly Texture. However, if even a single pixel is taken away, it is not an intended index, and classification can be performed with higher accuracy by using variance. However, the amount of processing increases when dispersion is used. Further, in the first classification process, after clearly classifying the area that is clearly “Smoothness”, the area that is clearly “Texture” is classified. However, the present invention is not limited to this, and a configuration in which an area that is clearly “Texture” is classified first, and then an area that is clearly “Smoothness” is classified.
一方、上記ステップS53による比較の結果、deg_max_rate>=Th_dだったとする。この場合、欠落領域分離部340は第2の分類処理S422に移行する。この第2の分離処理S422では、上記選択された参照領域に存在する画素について勾配を表す特徴量ベクトル2を算出し、この算出された特徴量ベクトル2と、先にステップS4211で算出された特徴量ベクトル1とに基づいて、上記選択された参照領域の類型を分類する処理が行われる。
On the other hand, it is assumed that deg_max_rate> = Th_d as a result of the comparison in step S53. In this case, the missing
例えば、図6に示すように先ずステップS54において、上記特徴ベクトル2として上記選択した参照領域に含まれる画素の勾配ベクトルを算出する。この勾配ベクトルの算出は、例えばSobel FilterやPrewitt Filter等のフィルタ演算を上記参照領域の各画素に対して適用することにより行われる。次に、ステップS55において、上記算出された勾配ベクトルと、先にステップS51で算出されたrangeとをもとに分類条件を設定する。そして、この分類条件に基づいて、ステップS4223、S4224、S4225により上記選択した参照領域の類型を判定する。
For example, as shown in FIG. 6, first, in step S54, a gradient vector of pixels included in the selected reference region is calculated as the
以上のようにステップS422による第2の分類処理が終了すると、欠落領域分離部340はすべての参照領域についての分類処理が終了したか否かをステップS423で判定する。そして、まだ分類処理が行われていない参照領域が残っている場合には、第1の分類処理S421に戻って上記述べた手順で分類処理を実行する。
As described above, when the second classification process in step S422 is completed, the missing
一方、すべての参照領域に対する分類処理が終了すると、欠落領域分離部340はステップS423からステップS43に移行し、ここで上記各参照領域についての分類結果に基づいて補間対象の欠落マクロブロックの類型の推定処理を行う。例えば、図9(a)における参照領域A,B,Dがそれぞれ“Smoothness”、“Texture”、“Smoothness”と判定された場合には、補間対象マクロブロックを“Smoothness”と推定する。
On the other hand, when the classification process for all the reference regions is completed, the missing
そうして欠落マクロブロックの類型が推定されると、コンシールメント部300はステップS44,S46,S48からそれぞれステップS45,S47,S49に移行し、これらのステップS45,S47,S49においてそれぞれ“Smoothness”、“Edge”、“Texture”に対応した補間処理を実行する。
When the type of the missing macroblock is estimated, the
例えば、欠落マクロブロックの類型が“Smoothness”と推定された場合には、Linear Interpolationを用いた補間処理が行われる。このLinear Interpolationを用いた補間処理は、例えば図10に示すように補間しようとしている欠落画素p(i,j)から隣接する上下左右の境界に向け垂線d1,d2,d3,d4を引き、その交点の4つの境界の画素値p1(i1,j1),p2(i2,j2),p3(i3,j3),p4(i4,j4)を距離で重み付けして捕間する画素値を決定する。なお、このLinear Interpolationを用いた補間処理については、Viktor Varsa et al., “Non-normative error concealment algorithms”, ITU-Telecommunications Standardization Section, 14th Meeting: Santa Barbara, CA, USA, 21-24 September, VCEG-N62(Proposal), 2001に詳しく述べられている。 For example, when the type of the missing macroblock is estimated as “Smoothness”, an interpolation process using Linear Interpolation is performed. In this interpolation process using Linear Interpolation, for example, as shown in FIG. 10, perpendicular lines d1, d2, d3, and d4 are drawn from the missing pixel p (i, j) to be interpolated toward the adjacent vertical and horizontal boundaries. The pixel values p1 (i1, j1), p2 (i2, j2), p3 (i3, j3), and p4 (i4, j4) at the four boundaries of the intersection are weighted by distances to determine the pixel values to be captured. As for interpolation processing using this Linear Interpolation, Viktor Varsa et al., “Non-normative error concealment algorithms”, ITU-Telecommunications Standardization Section, 14 th Meeting: Santa Barbara, CA, USA, 21-24 September, It is described in detail in VCEG-N62 (Proposal), 2001.
一方、欠落マクロブロックの類型が“Edge”と推定された場合には、例えばDirectional Interpolationを用いた補間処理が行われる。このDirectional Interpolationを用いた補間処理は、欠落マクロブロックに隣接する参照領域から当該欠落マクロブロックに含まれるであろうエッジパターンを表す勾配ベクトルを算出する。そして、この算出された勾配ベクトルの方向を考慮して、例えば図11に示すように境界の画素値p1(i1,j1),p2(i2,j2)を距離d1,d2で重み付けすることにより、捕間する画素値p(i,j)を決定する。 On the other hand, when the type of the missing macroblock is estimated to be “Edge”, for example, interpolation processing using Directional Interpolation is performed. In the interpolation processing using Directional Interpolation, a gradient vector representing an edge pattern that will be included in the missing macroblock is calculated from a reference area adjacent to the missing macroblock. Then, in consideration of the direction of the calculated gradient vector, for example, as shown in FIG. 11, the pixel values p1 (i1, j1) and p2 (i2, j2) at the boundary are weighted by the distances d1 and d2, The pixel value p (i, j) to be captured is determined.
なお、本実施形態では、先に述べた第2の分類処理S422において既に勾配ベクトルが算出されたいるので、この算出済の勾配ベクトルを利用して上記補間画素値の計算を行うことが可能である。上記Directional Interpolationを用いた補間処理については、O. Nemethova, A. Al Moghrabi, M. Rupp, “Flexible Error Concealment for H.264 Based on Directional Interpolation”, Proc. of the 2005 International Conference on Wireless Networks Communications and Mobile Computing, Maui, Hawaii, USA, June, 2005.に詳しく述べられている。 In this embodiment, since the gradient vector is already calculated in the second classification process S422 described above, the interpolation pixel value can be calculated using the calculated gradient vector. is there. For interpolation processing using Directional Interpolation, see O. Nemethova, A. Al Moghrabi, M. Rupp, “Flexible Error Concealment for H.264 Based on Directional Interpolation”, Proc. Of the 2005 International Conference on Wireless Networks Communications and It is described in detail in Mobile Computing, Maui, Hawaii, USA, June, 2005.
さらに、欠落マクロブロックの類型が“Texture”と推定された場合には、例えばSearching the best match blockを用いた補間処理が行われる。この補間処理は、欠落マクロブロックの周辺から用意したコスト関数の値が最小になるようなマクロブロックを探索することにより類似性の高いと考えられるマクロブロックを特定する。そして、この特定したマクロブロックの画素値をコピーすることにより補間値を求めるものである。なお、このSearching the best match blockを用いた補間処理については、Zhang Rongfu, et. al, “Content-Adaptive Spatial Error Concealment for Video Communication”, IEEE Transactions on Consumer Electronics, Vol. 50, No. 1, pp.335-340, Feb. 2004.に詳しく述べられている。 Further, when the type of the missing macroblock is estimated as “Texture”, for example, an interpolation process using Searching the best match block is performed. In this interpolation process, a macroblock that is considered to be highly similar is identified by searching for a macroblock that minimizes the value of the cost function prepared from the periphery of the missing macroblock. Then, the interpolation value is obtained by copying the pixel value of the specified macroblock. For interpolation processing using this Searching the best match block, see Zhang Rongfu, et. Al, “Content-Adaptive Spatial Error Concealment for Video Communication”, IEEE Transactions on Consumer Electronics, Vol. 50, No. 1, pp. .335-340, Feb. 2004.
上記欠落領域補間処理部350により算出された欠落画素P(i,j) の補間画素値は、復号化ピクチャバッファ400に保持されているピクチャフレーム中の該当する画素位置に書き込まれる。以後同様に、欠落画素P(i,j) が含まれるすべてのマクロブロックについてコンシールメント部300によりコンシールメント処理が行われ、これにより欠落画素P(i,j) の補間画素値が算出されて、ピクチャフレーム中の該当する画素位置に書き込まれる。
The interpolated pixel value of the missing pixel P (i, j) calculated by the missing region
以上詳述したように第1の実施形態では、コンシールメント部300において、欠落マクロブロックに隣接する参照領域の類型を分類する際に、先ず第1の分類処理S421により、参照領域を構成する画素の輝度値の分布状況を表す特徴ベクトル1を求めて、この特徴ベクトル1をもとに“Smoothness”又は“Texture”であるかどうかを判定する。そして、この第1の分類処理により上記参照領域の類型を分類できなかった場合に限り第2の分類処理S422に移行し、この第2の分類処理S422により上記参照領域に存在する画素について勾配を表す特徴量ベクトル2を算出し、この算出された特徴量ベクトル2と上記特徴量ベクトル1とに基づいて上記参照領域の類型が“Smoothness”、“Edge”、“Texture”のいずれであるかを判定するようにしている。
As described above in detail, in the first embodiment, when the type of the reference area adjacent to the missing macroblock is classified in the
具体的には、上記第1の分類処理において、上記参照領域内の画素数Nに対する度数の最大値deg_maxの割合を表すdeg_max_rateを算出すると共に、上記参照領域に含まれる画素の輝度値の最大値と最小値との差を表すrangeを算出する。そして、上記rangeをしきい値Th_rと比較することにより上記参照領域が“Smoothness”であるかどうかを判定すると共に、上記deg_max_rateをしきい値Th_dと比較することにより上記参照領域が“Texture”であるかどうかを判定するようにしている。 Specifically, in the first classification process, deg_max_rate representing the ratio of the maximum frequency deg_max to the number N of pixels in the reference region is calculated, and the maximum value of the luminance value of the pixels included in the reference region is calculated. The range representing the difference between the value and the minimum value is calculated. Then, it is determined whether the reference area is “Smoothness” by comparing the range with a threshold value Th_r, and the reference area is “Texture” by comparing the deg_max_rate with a threshold value Th_d. Judgment is made whether there is.
したがって、第1の分類処理S421において明らかに“Smoothness”又は“Texture”であると判定された場合には、演算量の多い勾配ベクトルの算出処理が不要となる。このため、常に参照領域における画素値の勾配を表す特徴量を算出してこの勾配を表す特徴量をもとに画像の類型を判定する場合に比べ、参照領域の画像の類型を判定する場合に必要な演算量を削減して、コンシールメント処理のオーバヘッドを軽減することができる。この効果は、パーソナル・コンピュータやテレビジョン受信機に比べてデコーダの処理能力が低い携帯端末にあっては、画像データストリームの復号処理を円滑に行う上できわめて有効である。 Therefore, when it is clearly determined as “Smoothness” or “Texture” in the first classification processing S421, the calculation processing of the gradient vector with a large amount of calculation becomes unnecessary. For this reason, compared to the case where the feature amount representing the gradient of the pixel value in the reference region is always calculated and the image type is determined based on the feature amount representing the gradient, the image type of the reference region is determined. It is possible to reduce the necessary calculation amount and reduce the overhead of concealment processing. This effect is extremely effective in smoothly performing the decoding process of the image data stream in a portable terminal whose processing capability of the decoder is lower than that of a personal computer or a television receiver.
また、第1の分類処理S421により参照領域の画像の類型が判定できなかった場合には、第2の分類処理S422により画素値の勾配ベクトルに基づく類型判定が行われる。このため、画素値の分布状況を表す特徴量からでは正確な類型判定が行えない場合でも、画素値の勾配を表す特徴量をもとに正確な分類を行うことが可能となる。 If the type of the image of the reference area cannot be determined in the first classification process S421, the type determination based on the gradient vector of the pixel value is performed in the second classification process S422. For this reason, even when accurate type determination cannot be performed from the feature value representing the distribution of pixel values, accurate classification can be performed based on the feature value representing the gradient of the pixel value.
(第2の実施形態)
この発明の第2の実施形態は、欠落マクロブロックに隣接する参照領域の類型を分類する際に、第1の分類処理により参照領域を構成する画素の輝度値の分布状況を表す特徴ベクトル1を算出して、この特徴ベクトル1をもとに“Smoothness”であるか“Texture”であるかを判定し、“Smoothness”及び“Texture”のいずれでもない場合には“Edge”と見なすようにしたものである。
(Second Embodiment)
In the second embodiment of the present invention, when the type of the reference area adjacent to the missing macroblock is classified, the
図12は、この発明の第2の実施形態に係わる参照領域の分類処理手順とその処理内容を示すフローチャートである。なお、デコーダの構成については前記第1の実施形態において図2乃至図4を用いて説明した構成と同一であるため、第2の実施形態においても前記図2乃至図4を延用して説明を行う。 FIG. 12 is a flowchart showing the reference area classification processing procedure and its processing contents according to the second embodiment of the present invention. Since the configuration of the decoder is the same as that described with reference to FIGS. 2 to 4 in the first embodiment, the description of FIGS. 2 to 4 is also extended in the second embodiment. I do.
欠落領域分離部340は、先ず第1の分類処理S111に移行し、ステップS1111において、周辺領域バッファ330から選択した参照領域について画素の輝度値の度数分布を調べ、度数の最大値deg_maxを検出する。そして、上記参照領域内の画素数Nに対する上記検出された度数の最大値deg_maxの割合を表すdeg_max_rateを算出する。またそれと共に欠落領域分離部340は、上記選択した参照領域に含まれる画素の輝度値の最大値及び最小値をそれぞれ検出し、この検出した最大値と最小値との差を表すrangeを算出する。
The missing
次に欠落領域分離部340は、上記算出された輝度値の最大値と最小値との差rangeを予め設定したしきい値Th_rとステップS1112により比較する。そして、この比較の結果range<Th_rだった場合には、上記選択した参照領域は“Smoothness”であるとステップS1114で判定する。そして、まだ選択されていない参照領域がある場合には、次の参照領域の分類処理に移行する。これに対し、上記比較の結果range>=Th_rだった場合には、上記算出された度数の最大値deg_maxの割合を表すdeg_max_rateを、予め設定されたしきい値Th_dとステップS1113で比較する。そしてこの比較の結果、deg_max_rate<Th_dだった場合には、上記参照領域は“Texture”であるとステップS1115で判定し、まだ選択されていない次の参照領域の分類処理に移行する。
Next, the missing
一方、上記上記ステップS53による比較の結果、deg_max_rate>=Th_dだったとする。この場合、欠落領域分離部340は第2の分類処理S112に移行し、ステップS1121により上記参照領域を“Edge”と見なす。そして、まだ選択されていない参照領域がある場合には、次の参照領域の分類処理に移行する。
なお、上記参照領域の分類結果を用いた補間対象の欠落マクロブロックの分類処理、及びこの分類結果に基づく欠落ブロック中の欠落画素の補間処理の手順とその内容は、前記第1の実施形態と同じである。
On the other hand, it is assumed that deg_max_rate> = Th_d as a result of the comparison in step S53. In this case, the missing
It should be noted that the procedure and content of the classification process of the missing macroblock to be interpolated using the classification result of the reference region and the interpolation process of the missing pixel in the missing block based on the classification result are the same as those in the first embodiment. The same.
以下に、上記図12に示した分類処理手順と内容による評価結果の具体例を示す。
いま、しきい値Th_r,Th_dを図12に例示したように実験的に求めた値Th_r=32及びTh_d=0.3に設定し、かつ参照領域のサイズを16x8(8x16)画素に設定すると共に、度数分布を求める際の横軸(輝度値)の目盛を8に設定する。そして、この分類条件の下で、図13に示すように画像サイズがQCIF(Quarter Common Intermediate Format)で、かつビットレートが128kbpsの欠落マクロブロックを有し、当該欠落マクロブロックに対しその上下左右に隣接する参照領域について分類を行ったとする。
Below, the specific example of the evaluation result by the classification | category process procedure and content shown in the said FIG. 12 is shown.
Now, the threshold values Th_r and Th_d are set to values Th_r = 32 and Th_d = 0.3 obtained experimentally as illustrated in FIG. 12, and the size of the reference area is set to 16 × 8 (8 × 16) pixels. The scale of the horizontal axis (luminance value) when obtaining the frequency distribution is set to 8. Under this classification condition, as shown in FIG. 13, there are missing macroblocks having an image size of QCIF (Quarter Common Intermediate Format) and a bit rate of 128 kbps. Assume that classification is performed for adjacent reference regions.
このときの分類結果を図14に示す。同図において、各項目は左から順にマクロブロックアドレス(左上隅のアドレスがMbX=0、MbY=0)、参照領域の位置(上;upper、下;lower、左;left、右;right)、分類に用いた条件(図12に例示した条件)、分類結果、主観による対象領域の分類(○印は分類結果と主観による分類が一致していることを示す)を示している。 The classification result at this time is shown in FIG. In the figure, each item has a macroblock address (upper left corner address is MbX = 0, MbY = 0), a reference area position (upper: upper, lower: lower, left: left, right: right), The conditions used for the classification (conditions illustrated in FIG. 12), the classification results, and the classification of the target area by the subjectivity (the circles indicate that the classification result and the classification by the subjectivity match).
この評価結果では、分類対象となる35個の参照領域のうち、8個の領域が第1の分類処理S111を行ったことにより主観による分類と同じ結果が得られており、約23%の勾配算出に関する演算量削減が図れている。なお、主観による分類結果とは異なる領域が一部存在したが、これは複数のエッジパターンが存在するなどrange及びdeg_max_rateだけでは元々分類が困難な領域である。この複数のエッジパターンが存在する参照領域については、第1の実施形態の図6に示したように、第2の分類処理S422により勾配情報を併用して分類することで、高精度の分類が可能となる。また、分類対象の参照領域サイズを同一とした場合、画像サイズが大きくなるにつれて1つの領域に含まれる画素値の相関が高くなると考えられる。このため、“Smoothness”、“Edge”、“Texture”の分類を行いやすくなる。 In this evaluation result, the same result as the subjective classification is obtained by performing the first classification processing S111 on eight of the 35 reference areas to be classified, and the gradient is about 23%. The amount of calculation related to calculation is reduced. There are some areas that differ from the subjective classification results, but this is an area that is originally difficult to classify only with range and deg_max_rate, such as the presence of multiple edge patterns. As shown in FIG. 6 of the first embodiment, the reference region in which the plurality of edge patterns exist is classified by using the gradient information together in the second classification process S422, so that high-accuracy classification can be performed. It becomes possible. Further, when the reference region sizes to be classified are the same, it is considered that the correlation between pixel values included in one region increases as the image size increases. This makes it easy to classify “Smoothness”, “Edge”, and “Texture”.
以上のように第2の実施形態では、第1の分類処理S111において参照領域が“Edge”と見なされた場合に限り参照領域における画素の勾配ベクトルを算出する処理が行われる。したがって、参照領域の勾配ベクトルの算出処理が行われる機会がさらに少なくなり、これによりデコーダの演算処理負担をさらに軽減して復号処理を一層円滑に行えるようになる。 As described above, in the second embodiment, the process of calculating the gradient vector of the pixel in the reference area is performed only when the reference area is regarded as “Edge” in the first classification process S111. Therefore, the opportunity for calculating the gradient vector of the reference region is further reduced, thereby further reducing the calculation processing burden of the decoder and performing the decoding process more smoothly.
(その他の実施形態)
前記実施形態ではデコーダ22内にコンシールメント部300を設けた場合を例にとって説明したが、コンシールメント部300の機能を実現するアプリケーション・プログラムを制御モジュール21のCPUに実行させるように構成してもよい。また、コンシールメント部300内の機能を分割して一部をデコーダ22に実行させ、他部を制御モジュール21に実行させるように構成してもよい。
(Other embodiments)
In the above embodiment, the case where the
さらに、前記実施形態では画像符号化方式としてITUT H.264方式を採用した場合を例にとって説明したが、画像データをブロック単位で符号化する符号化方式であれば、如何なる符号化方式を採用した画像データに対してもこの発明は適用可能である。また、この種の符号化方式により符号化された画像データであれば、動画像に限らず静止画像に対してもこの発明は適用可能である。 Furthermore, in the above-described embodiment, the case where the ITUT H.264 method is adopted as an image coding method has been described as an example. However, any coding method may be used as long as the image data is coded in block units. The present invention can also be applied to image data. Further, the present invention is applicable not only to moving images but also to still images as long as the image data is encoded using this type of encoding method.
さらに、前記実施形態では地上ディジタル放送のワンセグ放送により受信した画像データを復号する場合を例にとって説明した。しかし、それに限らず、ウエブ上のコンテンツサーバからダウンロードした画像コンテンツデータや、メモリカードや高精細DVD等の記録媒体に記録された画像コンテンツデータを復号する場合にも、この発明は同様に適用可能である。 Further, in the above embodiment, the case where image data received by one-segment broadcasting of terrestrial digital broadcasting is decoded has been described as an example. However, the present invention is not limited thereto, and the present invention can be similarly applied to the case of decoding image content data downloaded from a content server on the web or image content data recorded on a recording medium such as a memory card or a high-definition DVD. It is.
要するにこの発明は、上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、各実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。 In short, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in each embodiment. Furthermore, you may combine suitably the component covering different embodiment.
1…無線ユニット、2…ベースバンドユニット、3…ユーザインタフェースユニット、4…記憶ユニット、5…ディジタル放送受信ユニット、11…移動通信用アンテナ、12…アンテナ共用器(DUP)、13…受信回路(RX)、14…シンセサイザ(SYN)、15…送信回路(TX)、21…制御モジュール、22…デコーダ、23…エンコーダ、31…カメラ(CAM)、32…マイクロホン、33…入力デバイス、34…表示デバイス、35…スピーカ、100…復号部、110…エラー検出部、120…切替制御部、200…欠落領域情報メモリ、300…コンシールメント部、310…コンシールメント制御部、320…周辺領域情報取得部、330…周辺領域バッファ、340…欠落領域分類部、341…統計情報算出部、342…勾配情報算出部、343…周辺領域解析部、344…欠落領域分類決定部、345…切替部、350…欠落領域補間処理部、351…Smoothness領域補間処理部、352…Edge領域補間処理部、353…Texture領域補間処理部、354、355…切替部、400…復号化ピクチャバッファ。
DESCRIPTION OF
Claims (3)
前記復号画像データ中から前記復号処理により正しく復号がなされなかった欠落画素を含む修復対象ブロックを特定する手段と、
前記特定された修復対象ブロックに隣接しかつ前記復号処理により正しく復号がなされた参照領域を選択する手段と、
前記選択された参照領域ごとに当該参照領域内における画素値の分散状況の特徴量を統計的手法を用いて検出する検出手段と、
前記検出された画素値の分散状況の特徴量に基づいて、前記参照領域の画像の類型が、画素値が一様に分布した第1の類型であるか、画素値のばらつきの多い第2の類型であるか、或いはエッジパターンを含む第3の類型であるかを判定する第1の判定手段と、
前記参照領域の類型の判定結果に基づいて、前記修復対象ブロックの類型が前記第1の類型、第2の類型及び第3の類型のいずれであるかを推定する手段と、
前記修復対象ブロックについての類型の推定結果に基づいて、前記第1、第2及び第3の類型に対応付けて予め用意された複数の補間処理手段の中から前記推定された類型に対応する補間処理手段を選択する手段と、
前記選択された補間処理手段に基づいて、前記欠落画素を含む修復対象ブロックに対し補間処理を行う手段と
を具備することを特徴とする画像復号装置。 In an image decoding apparatus that decodes image data encoded for each block and outputs decoded image data,
Means for identifying a block to be repaired that includes a missing pixel that has not been correctly decoded by the decoding process from the decoded image data;
Means for selecting a reference area adjacent to the identified block to be repaired and correctly decoded by the decoding process;
Detecting means for detecting, for each selected reference area, a feature value of a dispersion state of pixel values in the reference area using a statistical method;
Based on the feature value of the dispersion state of the detected pixel values, the type of the image of the reference area is the first type in which the pixel values are uniformly distributed, or the second type having a large variation in pixel values. First determination means for determining whether the pattern is a type or a third type including an edge pattern;
Means for estimating whether the type of the block to be repaired is the first type, the second type, or the third type based on the determination result of the type of the reference region;
Interpolation corresponding to the estimated type from among a plurality of interpolation processing means prepared in advance in association with the first, second and third types based on the type estimation result for the block to be repaired Means for selecting a processing means;
An image decoding apparatus, comprising: means for performing interpolation processing on the restoration target block including the missing pixel based on the selected interpolation processing means.
前記参照領域に含まれる画素値の度数分布を求めて度数の最大値を算出し、前記参照領域内の画素数に対する前記算出された度数の最大値の割合を算出する手段と、
前記参照領域に含まれる画素値の最大値と最小値との差を算出する手段と
を備え、
前記第1の判定手段は、
前記算出された画素値の最大値と最小値との差を予め設定された第1のしきい値と比較して、当該差が第1のしきい値未満のとき前記参照領域の画像の類型を前記第1の類型と判定する第1の比較手段と、
前記第1の比較手段による比較の結果前記差が第1のしきい値以上のとき、前記算出された度数の最大値の割合を予め設定された第2のしきい値と比較して、当該度数の最大値の割合が予め設定された第2のしきい値未満のとき前記参照領域の画像の類型を前記第2の類型と判定し、それ以外のとき前記参照領域の画像の類型を前記第3の類型と判定する第2の比較手段と
を備えることを特徴とする請求項1記載の画像復号装置。 The detection means includes
Means for calculating a frequency distribution of pixel values included in the reference area, calculating a maximum value of the frequency, and calculating a ratio of the calculated maximum value of the frequency to the number of pixels in the reference area;
Means for calculating a difference between a maximum value and a minimum value of pixel values included in the reference region;
The first determination means includes
The difference between the maximum value and the minimum value of the calculated pixel values is compared with a preset first threshold value, and when the difference is less than the first threshold value, the image type of the reference region First comparing means for determining the first type as
As a result of the comparison by the first comparison means, when the difference is equal to or greater than a first threshold value, the ratio of the calculated maximum value of the frequency is compared with a preset second threshold value, When the ratio of the maximum value of frequency is less than a preset second threshold, the type of the image in the reference area is determined as the second type, and in other cases, the type of the image in the reference area is The image decoding apparatus according to claim 1, further comprising: a second comparison unit that determines the third type.
前記算出された画素値の勾配を表す特徴量に基づいて、前記参照領域の画像の類型が、前記第1の類型であるか、前記第2の類型であるか、或いは前記第3の類型であるかを判定する第2の判定手段と
を、さらに具備することを特徴とする請求項1記載の画像復号装置。 A gradient calculating unit that calculates a feature amount representing a gradient of a pixel value in the reference region when the image type of the reference region is not determined by the first determining unit;
Based on the calculated feature value representing the gradient of the pixel value, the image type of the reference region is the first type, the second type, or the third type. The image decoding apparatus according to claim 1, further comprising second determination means for determining whether or not there is any.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007031606A JP2008199252A (en) | 2007-02-13 | 2007-02-13 | Motion picture decoding device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007031606A JP2008199252A (en) | 2007-02-13 | 2007-02-13 | Motion picture decoding device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008199252A true JP2008199252A (en) | 2008-08-28 |
Family
ID=39757816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007031606A Pending JP2008199252A (en) | 2007-02-13 | 2007-02-13 | Motion picture decoding device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008199252A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115278228A (en) * | 2015-11-11 | 2022-11-01 | 三星电子株式会社 | Method for decoding video and method for encoding video |
-
2007
- 2007-02-13 JP JP2007031606A patent/JP2008199252A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115278228A (en) * | 2015-11-11 | 2022-11-01 | 三星电子株式会社 | Method for decoding video and method for encoding video |
US12003761B2 (en) | 2015-11-11 | 2024-06-04 | Samsung Electronics Co., Ltd. | Method and apparatus for decoding video, and method and apparatus for encoding video |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11172201B2 (en) | Encoder, decoder, encoding method, and decoding method | |
US20200137388A1 (en) | Encoder, decoder, encoding method, and decoding method | |
US9549199B2 (en) | Method, apparatus, and computer program product for providing motion estimator for video encoding | |
EP4395317A2 (en) | Encoding device and encoding method | |
EP3644606B1 (en) | Encoding device and encoding method | |
US20190158829A1 (en) | Encoder, decoder, encoding method, and decoding method | |
US20100290716A1 (en) | Image processing apparatus and image processing method | |
US20190281298A1 (en) | Encoder, encoding method, decoder, and decoding method | |
US11895299B2 (en) | Encoder, encoding method, decoder, and decoding method | |
US11800093B2 (en) | Encoder, encoding method, decoder, and decoding method | |
US12120349B2 (en) | Encoder, decoder, encoding method, and decoding method | |
US11303891B2 (en) | Encoder, decoder, encoding method, and decoding method | |
JP2010136292A (en) | Image processing apparatus | |
US20200099939A1 (en) | Encoder, encoding method, decoder, and decoding method | |
JP2009273048A (en) | Image processing apparatus | |
US11070837B2 (en) | Encoding method, decoding method, encoder, and decoder | |
US20200195955A1 (en) | Encoder, decoder, encoding method, and decoding method | |
JP2006174280A (en) | Image processing apparatus, image processing method and program thereof | |
JP2008199252A (en) | Motion picture decoding device | |
US11012703B2 (en) | Encoder, decoder, encoding method, and decoding method | |
JP2005341093A (en) | Contents adaptating apparatus, contents adaptation system, and contents adaptation method | |
US11375214B2 (en) | Encoder, decoder, encoding method, and decoding method | |
US11044476B2 (en) | Encoder, decoder, encoding method, decoding method, and recording medium | |
JP2008199251A (en) | Image decoding device | |
JP2013120983A (en) | Image processing apparatus, image processing method, and program |