JP2008199252A - Motion picture decoding device - Google Patents

Motion picture decoding device Download PDF

Info

Publication number
JP2008199252A
JP2008199252A JP2007031606A JP2007031606A JP2008199252A JP 2008199252 A JP2008199252 A JP 2008199252A JP 2007031606 A JP2007031606 A JP 2007031606A JP 2007031606 A JP2007031606 A JP 2007031606A JP 2008199252 A JP2008199252 A JP 2008199252A
Authority
JP
Japan
Prior art keywords
type
reference area
unit
image
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007031606A
Other languages
Japanese (ja)
Inventor
Yuutai Nakamura
勇太 中村
Hiroshi Mori
弘史 森
Tatsunori Saito
龍則 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007031606A priority Critical patent/JP2008199252A/en
Publication of JP2008199252A publication Critical patent/JP2008199252A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce an overhead of concealment processing by decreasing the operational amount when the type of an area adjacent to an area to be interpolated is classified. <P>SOLUTION: When the type of a reference area adjacent to a missing macroblock is classified, first classification processing S421 is performed first to find a feature vector 1 representing a distribution state of luminance values of pixels constituting the reference area and then to decide "Smoothness" or "Texture" based upon the feature vector 1. Then only when the type of the reference area can not be classified through the first classification processing, second classification processing S422 is carried out to calculate a feature quantity vector 2 representing a gradient of pixels present in the reference area and to decide to which the type of the reference area belongs among "Smoothness", "Edge", or "Texture" based upon the calculated feature quantity vector 2 and feature quantity vector 1. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、動画像データを復号する際に、画像フレームのエラーを修復するエラーコンシールメント機能を備える画像復号装置に関する。   The present invention relates to an image decoding apparatus having an error concealment function that repairs an error in an image frame when decoding moving image data.

近年、携帯電話機やPDA(Personal Digital Assistant)等の携帯端末の中には、地上ディジタル放送のワンセグメント放送を受信する機能を備えた端末が多くなっている。地上ディジタル放送のワンセグメント放送では動画像の符号化方式としてITUT H.264方式が採用されている。このため、上記携帯端末には上記ITUT H.264方式に対応する動画像復号装置が設けられている。   In recent years, mobile terminals such as mobile phones and PDAs (Personal Digital Assistants) are increasingly equipped with terminals having a function of receiving one-segment broadcasting of terrestrial digital broadcasting. In the one-segment broadcasting of terrestrial digital broadcasting, the ITUT H.264 method is adopted as a moving image encoding method. For this reason, the mobile terminal is provided with a moving picture decoding apparatus corresponding to the ITUT H.264 system.

ところで、携帯端末の動画像復号装置では、例えば無線伝送路においてビットストリーム中にエラーが混入すると、可変長復号の同期が回復するまで画像の復号が不可能になり、視覚的に大きな劣化を生じる。そこで、エラーが混入したことにより失われた領域を、フレームメモリに蓄えられた既に復号済みの画像信号を用いて補間するエラーコンシールメント処理が行われる。   By the way, in a moving picture decoding apparatus of a mobile terminal, for example, if an error is mixed in a bit stream in a wireless transmission path, it becomes impossible to decode an image until the synchronization of variable-length decoding is restored, resulting in a large visual deterioration. . Therefore, an error concealment process is performed in which an area lost due to an error is interpolated using an already decoded image signal stored in the frame memory.

エラーコンシールメントには大別して、フレーム間の相関を利用する時間的コンシールメントと、フレーム内の相関を利用する空間的コンシールメントと、前述2つを組み合わせた時空間的コンシールメントがある。一般的には符号化の基準単位であるマクロブロック(MB)ごとにエラーの有無を特定して補間処理を行うが、補間処理方法を適応的に切り替えることでより画質改善効果の高いエラーコンシールメントが可能となる。   The error concealment is roughly classified into a temporal concealment that uses a correlation between frames, a spatial concealment that uses a correlation within a frame, and a spatiotemporal concealment that combines the above two. In general, interpolation processing is performed by specifying the presence or absence of an error for each macroblock (MB), which is a reference unit of encoding, but error concealment with a higher image quality improvement effect by adaptively switching the interpolation processing method. Is possible.

このうち空間的コンシールメントについては,欠落したマクロブロックに隣接する参照領域を“Smoothness”、“Edge”、“Texture”と呼ばれる3つの類型に分類し、その分類結果から欠落したマクロブロックの特徴を推定して補間処理の内容を切り替える手法がある。ここで、“Smoothness”とは空のように画素値がほぼ一様な領域であり、図15(a)〜(c)にその一例を示す。“Edge”はエッジパターンが含まれる領域であり、図16(a)〜(c)にその一例を示す。“Texture”は幾何学的模様や花壇のように画素値のばらつきが大きい領域であり、図17(a)〜(c)にその一例を示す。   Among these, for spatial concealment, the reference area adjacent to the missing macroblock is classified into three types called “Smoothness”, “Edge”, and “Texture”, and the characteristics of the missing macroblock are identified from the classification results. There is a method of estimating and switching the content of interpolation processing. Here, “Smoothness” is an area where pixel values are almost uniform, such as the sky, and examples thereof are shown in FIGS. “Edge” is an area including an edge pattern, and an example thereof is shown in FIGS. “Texture” is a region having a large variation in pixel values, such as a geometric pattern or a flower bed, and examples thereof are shown in FIGS.

ところで、欠落マクロブロックに隣接する参照領域を上記3つの類型に分類する手法としては、従来より例えばエッジパターンを表す勾配の情報を指標の1つとして用いるものが知られている(例えば、非特許文献1を参照。)。
Zhang Rongfu, et. al, “Content-Adaptive Spatial Error Concealment for Video Communication”, IEEE Transactions on Consumer Electronics, Vol. 50, No. 1, pp.335-340, Feb. 2004. 特にFig.2のcontent estimation and classification。
By the way, as a method of classifying the reference region adjacent to the missing macroblock into the above three types, conventionally, for example, a method using gradient information representing an edge pattern as one of indices (for example, non-patent) is known. See reference 1.)
Zhang Rongfu, et. Al, “Content-Adaptive Spatial Error Concealment for Video Communication”, IEEE Transactions on Consumer Electronics, Vol. 50, No. 1, pp.335-340, Feb. 2004. and classification.

ところが、上記非特許文献1に記載された手法では、欠落マクロブロックの分類に用いるすべての参照領域に対しエッジパターンを検出するための勾配計算が行われる。勾配の計算は、一般的にSobel FilterやPrewitt Filterなどのフィルタを勾配算出領域の各画素に対して適用することにより行われる。このため、領域内すべての画素に対して勾配計算を行うことになり、演算量が膨大になる。この勾配の情報は、参照領域の類型が“Edge”の場合には当該勾配情報が補間処理に用いられるため無駄にはならない。しかし、参照領域の類型が“Smoothness”又は“Texture”の場合には、上記勾配の情報は補間処理に使われないため無駄な演算となる。この演算処理は、コンシールメント処理を行う際の無視できないオーバヘッドとなり、特に携帯電話機やPDA(Prsonal Digital Assistant)等の携帯端末のように画像処理能力に限りのある機器にあっては非常に大きな問題となる。   However, in the method described in Non-Patent Document 1, gradient calculation for detecting edge patterns is performed for all reference regions used for classification of missing macroblocks. The calculation of the gradient is generally performed by applying a filter such as Sobel Filter or Prewitt Filter to each pixel in the gradient calculation region. For this reason, gradient calculation is performed for all the pixels in the region, and the amount of calculation becomes enormous. The gradient information is not wasted when the type of the reference area is “Edge” because the gradient information is used for the interpolation process. However, when the type of the reference area is “Smoothness” or “Texture”, the gradient information is not used for the interpolation process, which is a wasteful calculation. This arithmetic processing is a non-negligible overhead when performing concealment processing, and is a very big problem especially for devices with limited image processing capability such as mobile phones and PDAs (Prsonal Digital Assistant). It becomes.

この発明は上記事情に着目してなされたもので、その目的とするところは、補間対象ブロックに隣接する参照領域の類型を分類する際の演算量を削減してコンシールメント処理のオーバヘッドの軽減を図った画像復号装置を提供することにある。   The present invention has been made paying attention to the above circumstances, and its object is to reduce the amount of calculation when classifying the reference area type adjacent to the interpolation target block, thereby reducing the overhead of concealment processing. The object is to provide an image decoding apparatus.

上記目的を達成するためにこの発明の第1の観点は、ブロックごとに符号化された画像データを復号処理して復号画像データを出力する画像復号装置において、上記復号画像データ中から上記復号処理により正しく復号がなされなかった欠落画素を含む修復対象ブロックを特定して、この特定された修復対象ブロックに隣接しかつ上記復号処理により正しく復号がなされた参照領域を選択する。そして、上記選択された参照領域ごとに当該参照領域内における画素値の分散状況を表す特徴量を統計的手法を用いて検出し、この検出された画素値の分散状況を表す特徴量に基づいて、上記参照領域の画像の類型が、画素値が一様に分布した第1の類型であるか、画素値のばらつきの多い第2の類型であるか、或いはエッジパターンを含む第3の類型であるかを第1の判定手段により判定する。そして、この第1の判定手段による参照領域の類型の判定結果に基づいて、上記修復対象ブロックの類型が第1の類型、第2の類型及び第3の類型のいずれであるかを推定し、この推定結果に基づいて上記第1、第2及び第3の類型に対応付けて予め用意された複数の補間処理手段の中から補間処理手段を選択して、上記欠落画素を含む修復対象ブロックの補間処理を行うように構成したものである。   In order to achieve the above object, according to a first aspect of the present invention, there is provided an image decoding apparatus that decodes image data encoded for each block and outputs decoded image data. The restoration target block including the missing pixel that has not been correctly decoded by the above is specified, and a reference area that is adjacent to the specified restoration target block and that has been correctly decoded by the decoding process is selected. Then, for each of the selected reference regions, a feature amount that represents the dispersion state of the pixel values in the reference region is detected using a statistical method, and based on the feature amount that represents the dispersion state of the detected pixel values. The image type of the reference area is a first type in which pixel values are uniformly distributed, a second type with a large variation in pixel values, or a third type including an edge pattern. Whether or not there is is determined by the first determination means. And based on the determination result of the type of the reference region by the first determination means, it is estimated whether the type of the block to be repaired is the first type, the second type, or the third type, Based on the estimation result, an interpolation processing unit is selected from a plurality of interpolation processing units prepared in advance in association with the first, second, and third types, and the restoration target block including the missing pixel is selected. An interpolation process is performed.

また、この発明の第2の観点は、上記第1の判定手段により上記参照領域の画像の類型が判定されなかった場合に、上記参照領域における画素値の勾配を表す特徴量を算出する。そして、この算出された画素値の勾配を表す特徴量に基づいて、上記参照領域の画像の類型が上記第1の類型であるか、上記第2の類型であるか、或いは上記第3の類型であるかを第2の判定手段により判定するように構成したものである。   According to a second aspect of the present invention, when the image type of the reference area is not determined by the first determination unit, a feature amount representing a gradient of pixel values in the reference area is calculated. Then, based on the calculated feature value representing the gradient of the pixel value, the image type of the reference region is the first type, the second type, or the third type. Is determined by the second determination means.

したがって、この発明の第1の観点によれば、参照領域の画像の類型を判定する際に、当該参照領域内における画素値の分散状況を表す特徴量が統計的手法を用いて検出され、この検出された画素値の分散状況の特徴量に基づいて画像の類型が判定される。このため、常に参照領域における画素値の勾配を表す特徴量を算出してこの勾配を表す特徴量をもとに画像の類型を判定する場合に比べ、参照領域の画像の類型を判定する場合に必要な演算量が削減され、コンシールメント処理のオーバヘッドが軽減される。   Therefore, according to the first aspect of the present invention, when determining the type of the image of the reference area, a feature value representing the dispersion state of the pixel values in the reference area is detected using a statistical method. The type of the image is determined based on the feature value of the dispersion state of the detected pixel value. For this reason, compared to the case where the feature amount representing the gradient of the pixel value in the reference region is always calculated and the image type is determined based on the feature amount representing the gradient, the image type of the reference region is determined. The amount of computation required is reduced, and the overhead of concealment processing is reduced.

また、この発明の第2の観点によれば、第1の判定手段により参照領域の画像の類型が判定されなかった場合に限り、当該参照領域における画素値の勾配を表す特徴量が算出され、この算出された画素値の勾配を表す特徴量に基づいて上記参照領域の画像類型の再判定が行われる。このため、演算量を少量に抑えつつ、画素値の分散状況を表す特徴量からでは正確な類型判定が行えない場合でも画素値の勾配を表す特徴量をもとに正確な類型判定を行うことが可能となる。   Further, according to the second aspect of the present invention, only when the type of the image of the reference area is not determined by the first determination unit, the feature amount representing the gradient of the pixel value in the reference area is calculated, Re-determination of the image type of the reference area is performed based on the calculated feature value representing the gradient of the pixel value. Therefore, it is possible to perform accurate type determination based on the feature value representing the gradient of the pixel value even when the type value cannot be accurately determined from the feature value representing the dispersion state of the pixel value while suppressing the calculation amount to a small amount. Is possible.

すなわち、この発明によれば、補間対象ブロックに隣接する領域の類型を分類する際の演算量を削減してコンシールメント処理のオーバヘッドの軽減を図ることが可能な画像復号装置を提供することができる。   That is, according to the present invention, it is possible to provide an image decoding apparatus that can reduce the amount of calculation when classifying the type of the region adjacent to the interpolation target block and reduce the overhead of concealment processing. .

(第1の実施形態)
この発明の第1の実施形態は、この発明に係わる動画像復号装置を携帯電話機等の携帯端末に設けたもので、地上ディジタル放送の1セグメント放送(以後をワンセグ放送と称する)により受信した符号化動画像データストリームの欠落マクロブロックを当該マクロブロックに隣接する参照領域をもとに補間する際に、当該参照領域の類型を先ず画素の分布状況を統計的手法を用いて算出して判定し、この判定の結果類型が“Edge”の可能性がある場合にのみ画素値の勾配を表す特徴量を算出してその算出結果をもとに類型を再判定するように構成したものである。
(First embodiment)
In the first embodiment of the present invention, a moving picture decoding apparatus according to the present invention is provided in a portable terminal such as a cellular phone, and a code received by one-segment broadcasting of terrestrial digital broadcasting (hereinafter referred to as one-segment broadcasting). When interpolating missing macroblocks in a converted video data stream based on a reference area adjacent to the macroblock, the type of the reference area is first determined by calculating the pixel distribution using a statistical method. The feature amount representing the gradient of the pixel value is calculated only when there is a possibility that the type of determination is “Edge”, and the type is re-determined based on the calculation result.

図1は、この発明の第1の実施形態に係わる画像復号装置を備えた携帯端末の構成を示すブロック図である。
この実施形態に係わる携帯端末は、無線ユニット1と、ベースバンドユニット2と、ユーザインタフェースユニット3と、記憶ユニット4と、ディジタル放送受信ユニット5と、電源ユニット6とから構成される。
FIG. 1 is a block diagram showing a configuration of a portable terminal provided with an image decoding apparatus according to the first embodiment of the present invention.
The portable terminal according to this embodiment includes a wireless unit 1, a baseband unit 2, a user interface unit 3, a storage unit 4, a digital broadcast receiving unit 5, and a power supply unit 6.

同図において、先ず通話モードが設定されている状態では、ユーザインタフェースユニット3のマイクロホン32から出力されたユーザの送話音声信号がベースバンドユニット2のエンコーダ23に入力される。また、カメラ(CAM)31から出力されたビデオ信号もエンコーダ23に入力される。エンコーダ23は、上記送話音声信号をCELP(Code Excited Liner Predictive coding)所定の符号化方式で符号化すると共に、上記ビデオ信号を例えばMPEG-4(Moving Picture Coding Experts Group-4)方式に従い符号化し、この符号化されたオーディオデータ及びビデオデータをそれぞれパケット化したのち多重化して送信マルチメディアデータを出力する。この送信マルチメディアデータは、制御モジュール21においてさらに宛先情報などの種々制御情報が多重化されたのち、無線ユニット1の送信回路(TX)15に供給される。   In the figure, first, in a state where the call mode is set, the user's transmitted voice signal output from the microphone 32 of the user interface unit 3 is input to the encoder 23 of the baseband unit 2. A video signal output from the camera (CAM) 31 is also input to the encoder 23. The encoder 23 encodes the transmitted voice signal by a predetermined coding scheme of CELP (Code Excited Linear Predictive coding) and encodes the video signal in accordance with, for example, MPEG-4 (Moving Picture Coding Experts Group-4) scheme. The encoded audio data and video data are respectively packetized and multiplexed to output transmission multimedia data. The transmission multimedia data is supplied to the transmission circuit (TX) 15 of the wireless unit 1 after the control module 21 further multiplexes various control information such as destination information.

送信回路15は、変調器、周波数変換器及び送信電力増幅器を備える。上記送信データは、変調器でディジタル変調されたのち、周波数変換器により周波数シンセサイザ14から発生された送信局部発振信号とミキシングされて無線周波信号に周波数変換される。変調方式としては、QPSK(Quadriphase Phase Shift Keying)方式やQAM(Quadrature Amplitude Modulation)方式等のディジタル変調方式と、拡散符号を使用するスペクトラム拡散方式が用いられる。そして、この変調された送信無線周波信号は、送信電力増幅器で所定の送信レベルに増幅されたのち、アンテナ共用器(DUP)12を介してアンテナ11に供給され、このアンテナ11から図示しない基地局に向け送信される。   The transmission circuit 15 includes a modulator, a frequency converter, and a transmission power amplifier. The transmission data is digitally modulated by a modulator, and then mixed with a transmission local oscillation signal generated from the frequency synthesizer 14 by a frequency converter and frequency-converted to a radio frequency signal. As a modulation method, a digital modulation method such as a QPSK (Quadriphase Phase Shift Keying) method or a QAM (Quadrature Amplitude Modulation) method and a spread spectrum method using a spread code are used. The modulated transmission radio frequency signal is amplified to a predetermined transmission level by a transmission power amplifier, and then supplied to the antenna 11 via the antenna duplexer (DUP) 12, from which a base station (not shown) is supplied. Sent to.

これに対し、基地局から無線チャネルを介して到来した無線周波信号は、アンテナ11で受信されたのちアンテナ共用器12を介して受信回路(RX)13に入力される。受信回路13は、高周波増幅器、周波数変換器及び復調器を備える。そして、上記無線周波信号を低雑音増幅器で低雑音増幅したのち、周波数変換器において周波数シンセサイザ(SYN)14から発生された受信局部発振信号とミキシングして受信中間周波信号又は受信ベースバンド信号に周波数変換し、その出力信号を復調器でディジタル復調する。復調方式としては、例えば直交復調方式と、拡散符号を使用したスペクトラム逆拡散方式が用いられる。なお、上記周波数シンセサイザ14から発生される受信局部発振信号周波数は、ベースバンドユニット2に設けられた制御モジュール21から指示される。   In contrast, a radio frequency signal arriving from a base station via a radio channel is received by an antenna 11 and then input to a receiving circuit (RX) 13 via an antenna duplexer 12. The reception circuit 13 includes a high frequency amplifier, a frequency converter, and a demodulator. The radio frequency signal is amplified with a low noise amplifier and then mixed with a reception local oscillation signal generated from a frequency synthesizer (SYN) 14 in a frequency converter to generate a reception intermediate frequency signal or a reception baseband signal. The output signal is digitally demodulated by a demodulator. As a demodulation method, for example, an orthogonal demodulation method and a spectrum despreading method using a spread code are used. The reception local oscillation signal frequency generated from the frequency synthesizer 14 is instructed from the control module 21 provided in the baseband unit 2.

上記復調器から出力された受信パケットデータはベースバンドユニット2に入力される。そして、このベースバンドユニット2内において、制御モジュール21を介してデコーダ22に入力される。デコーダ22は、上記受信パケットデータをオーディオパケットとビデオパケットに分離したのち、オーディオパケットをデパケットしたのちオーディオデータに復号する。この復号されたオーディオフレームは、アナログ信号に変換されたのちユーザインタフェースユニット3のスピーカ35から受話音声として拡声出力される。またデコーダ22は、上記入力されたビデオパケットをデパケットしたのち、例えばMPEG4方式に従いビデオフレームに復号する。この復号されたビデオフレームはユーザインタフェースユニット3の表示デバイス34で表示される。表示デバイス34は、例えばLCD(Liquid Crystal Display)33からなる。   The received packet data output from the demodulator is input to the baseband unit 2. In the baseband unit 2, the signal is input to the decoder 22 via the control module 21. The decoder 22 separates the received packet data into audio packets and video packets, then depackets the audio packets and then decodes them into audio data. The decoded audio frame is converted into an analog signal and then output as a received voice from the speaker 35 of the user interface unit 3. The decoder 22 depackets the input video packet and then decodes it into a video frame in accordance with, for example, the MPEG4 system. The decoded video frame is displayed on the display device 34 of the user interface unit 3. The display device 34 includes, for example, an LCD (Liquid Crystal Display) 33.

一方、ディジタル放送視聴モードが設定されている状態において、図示しない放送局から送信された放送信号は、アンテナ51を介してディジタル放送受信ユニット5で受信復調される。そして、上記受信復調された受信放送データは、ベースバンドユニット2の制御モジュール21においてヘッダの解析等が行われたのち、デコーダ22に入力される。デコーダ22は、上記入力された受信放送データをオーディオパケットとビデオパケットに分離する。そして、オーディオパケットをデパケットしたのちオーディオフレームに復号し、またビデオパケットをデパケットしたのち画像フレームに復号する。   On the other hand, in a state where the digital broadcast viewing mode is set, a broadcast signal transmitted from a broadcast station (not shown) is received and demodulated by the digital broadcast receiving unit 5 via the antenna 51. The received and demodulated received broadcast data is analyzed by the control module 21 of the baseband unit 2 and then input to the decoder 22. The decoder 22 separates the input received broadcast data into audio packets and video packets. The audio packet is depacked and then decoded into an audio frame, and the video packet is depacketed and then decoded into an image frame.

例えば、地上波ディジタル放送のワンセグ放送では、オーディオデータはMPEG2 AAC方式で符号化され、ビデオデータはITUT H.264方式で符号化されている。このため、上記デコーダ22は、上記オーディオパケット及びビデオパケットをこれらの符号化方式に対応する復号方式により復号する。上記復号されたオーディオ信号はユーザインタフェースユニット3のスピーカ35から拡声出力され、ビデオ信号は表示デバイス34に供給されて表示される。   For example, in one-segment broadcasting of terrestrial digital broadcasting, audio data is encoded by the MPEG2 AAC format, and video data is encoded by the ITUT H.264 format. For this reason, the decoder 22 decodes the audio packet and the video packet by a decoding method corresponding to these encoding methods. The decoded audio signal is loudly output from the speaker 35 of the user interface unit 3, and the video signal is supplied to the display device 34 and displayed.

なお、電源ユニット6には、リチウムイオン電池等のバッテリ61と、このバッテリ61を商用電源出力(AC100V)をもとに充電するための充電回路62と、電圧生成回路(PS)63とが設けられている。電圧生成回路63は、例えばDC/DCコンバータからなり、バッテリ61の出力電圧をもとに所定の電源電圧Vccを生成する。   The power supply unit 6 includes a battery 61 such as a lithium ion battery, a charging circuit 62 for charging the battery 61 based on a commercial power output (AC 100 V), and a voltage generation circuit (PS) 63. It has been. The voltage generation circuit 63 is composed of, for example, a DC / DC converter, and generates a predetermined power supply voltage Vcc based on the output voltage of the battery 61.

ところで、上記デコーダ22は例えばCPU(Central Processing Unit)又はDSP(Digital Signal Processor)を用いて構成され、この発明に係わる機能として次のような機能を備えている。図2はその機能構成を示すブロック図である。すなわち、デコーダ22は、復号部100と、欠落領域情報メモリ200と、コンシールメント部300と、復号化ピクチャバッファ400とを備えている。   By the way, the decoder 22 is configured using, for example, a CPU (Central Processing Unit) or a DSP (Digital Signal Processor), and has the following functions as functions according to the present invention. FIG. 2 is a block diagram showing the functional configuration. That is, the decoder 22 includes a decoding unit 100, a missing area information memory 200, a concealment unit 300, and a decoded picture buffer 400.

このうち復号部100は、復号器と、エラー検出部110と、切替制御部120とを備えている。復号器は、入力されたビデオデータのビットストリームを可変長符号テーブルに従いマクロブロック単位で可変長復号し、復号されたピクチャデータを符号化ピクチャバッファ400へ出力する。   Among these, the decoding unit 100 includes a decoder, an error detection unit 110, and a switching control unit 120. The decoder performs variable-length decoding on the input video data bit stream in units of macroblocks according to the variable-length code table, and outputs the decoded picture data to the encoded picture buffer 400.

エラー検出部110は、上記復号器で復号処理されるビデオデータのビットストリームにシンタックス上の誤りが混入していた場合に、これを検出する。そして、この検出結果に応じ、マクロブロックごとに正常に復号されたか否かを表すフラグ情報StatusFragを生成して、このフラグ情報StatusFragを1画像フレーム分ずつ欠落領域情報メモリ200に記憶させる。
切替制御部120は、上記復号器により1フレーム分の復号処理が終了し、次のピクチャ境界が検出された時点で、コンシールメント部300に対し上記復号処理が終了した修復対象フレームに対するコンシールメント処理を指示するための通知を行う。
The error detection unit 110 detects a syntax error mixed in the bit stream of the video data decoded by the decoder. Then, in accordance with the detection result, flag information StatusFrag indicating whether or not each macroblock has been normally decoded is generated, and the flag information StatusFrag is stored in the missing area information memory 200 for each image frame.
When the decoding process for one frame is completed by the decoder and the next picture boundary is detected, the switching control unit 120 performs a concealment process on the restoration target frame for which the decoding process has been completed. Notification to instruct

コンシールメント部300は、コンシールメント制御部310と、周辺領域情報取得部320と、周辺領域バッファ330と、勾配情報算出部240と、勾配選択部350と、しきい値設定部360と、境界座標算出部370と、補間画素値算出部380とを備えている。   The concealment unit 300 includes a concealment control unit 310, a peripheral region information acquisition unit 320, a peripheral region buffer 330, a gradient information calculation unit 240, a gradient selection unit 350, a threshold setting unit 360, boundary coordinates. A calculation unit 370 and an interpolation pixel value calculation unit 380 are provided.

コンシールメント制御部310は、コンシールメント部300内各部の動作を統括的に制御するもので、上記切替制御部120からコンシールメント処理を指示するための通知を受け取ると、上記コンシールメント部300内の各部に、修復対象フレーム内の欠落領域に対するコンシールメント処理を行わせる。またそれと共に、修復対象フレームのすべての欠落マクロブロックに対する補間処理が終了すると、切替制御部120を介して復号部100に対しコンシールメント処理の終了を通知し、復号部100に次の画像フレームの復号処理を開始させる。なお、このとき切替制御部120は欠落領域情報メモリ200に記憶された修復対象フレームに対応するフラグ情報をクリアする。   The concealment control unit 310 comprehensively controls the operation of each part in the concealment unit 300. Upon receiving a notification for instructing the concealment process from the switching control unit 120, the concealment control unit 310 Each part is caused to perform a concealment process on a missing region in the repair target frame. At the same time, when the interpolation process for all missing macroblocks in the repair target frame is completed, the decoding unit 100 is notified of the end of the concealment process via the switching control unit 120, and the decoding unit 100 is notified of the next image frame. The decryption process is started. At this time, the switching control unit 120 clears the flag information corresponding to the restoration target frame stored in the missing area information memory 200.

周辺領域情報取得部320は、上記欠落領域情報メモリ200に記憶されたフラグ情報StatusFlagを参照し、修復対象マクロブロックに隣接するマクロブロックの中から、正しく復号がなされたマクロブロックを修復に利用することが可能な参照領域として選択する。例えば、いま図9(a)に示すごとく修復対象マクロブロックをXとすると、その上下左右に隣接する4個のマクロブロックA〜Dが修復に利用可能か否かを、当該隣接マクロブロックA〜Dのフラグ情報StatusFlagをもとに判定する。図9(b)の例では、隣接マクロブロックA〜Dのフラグ情報StatusFlagはそれぞれ1,1,0,1になっているため、隣接マクロブロックA,B,Dが修復に利用可能な参照領域と判定される。   The peripheral area information acquisition unit 320 refers to the flag information StatusFlag stored in the missing area information memory 200 and uses a macroblock that has been correctly decoded from among the macroblocks adjacent to the macroblock to be repaired. Select as possible reference area. For example, assuming that the restoration target macroblock is X as shown in FIG. 9 (a), whether or not four macroblocks A to D adjacent to the top, bottom, left and right are usable for restoration is determined. The determination is based on the D flag information StatusFlag. In the example of FIG. 9B, the flag information StatusFlag of the adjacent macroblocks A to D is 1, 1, 0, and 1, respectively, so that the reference areas that can be used by the adjacent macroblocks A, B, and D for restoration are used. It is determined.

周辺領域バッファ330は、周辺領域情報取得部320により修復に利用可能と判定された隣接マクロブロックの画素情報を、復号化ピクチャバッファ400から取得して保存する。そして、境界座標検出部370から境界画素の座標値を受け取り、この受け取った境界画素の座標値をもとに、上記保存された隣接マクロブロックの画素情報のうち当該座標値に対応する画素情報を読み出して補間画素値算出部380へ出力する。   The peripheral area buffer 330 acquires pixel information of adjacent macroblocks determined to be usable for restoration by the peripheral area information acquisition unit 320 from the decoded picture buffer 400 and stores them. Then, the coordinate value of the boundary pixel is received from the boundary coordinate detection unit 370, and based on the received coordinate value of the boundary pixel, the pixel information corresponding to the coordinate value is stored in the pixel information of the stored adjacent macroblock. Read out and output to the interpolation pixel value calculation unit 380.

欠落領域分類部340は、上記周辺領域バッファ330から隣接マクロブロックの画素情報を読み出して、この読み出した隣接マクロブロックの類型を分類し、この分類結果をもとに補間対象マクロブロックの類型が“Smoothness”、“Edge”、“Texture”のいずれであるかを推定するもので、次のように構成される。図3はその構成を示すブロック図である。   The missing area classification unit 340 reads the pixel information of the adjacent macroblock from the peripheral area buffer 330, classifies the type of the read adjacent macroblock, and the type of the macroblock to be interpolated is “ Estimate whether it is “Smoothness”, “Edge”, or “Texture”, and is configured as follows. FIG. 3 is a block diagram showing the configuration.

すなわち、欠落領域分類部340は、統計情報算出部341と、勾配情報算出部342と、周辺領域解析部343と、欠落領域分類決定部344とを備え、さらに切替部345を備えている。
統計情報算出部341は、上記周辺領域バッファ330から予め設定した解析領域サイズ分の画素情報を読み出し、この読み出した画像情報をもとに画素値の分布情報を表す特徴量を統計的な手法により算出し、その算出結果を表す統計情報を切替部345を介して周辺領域解析部343に通知する。勾配情報算出部342は、上記周辺領域バッファ330から予め設定した解析領域サイズ分の画素情報を読み出し、この読み出した画像情報をもとに画素値の勾配を表す特徴量を算出し、その算出結果を表す勾配情報を切替部345を介して周辺領域解析部343に通知する。なお、ここでは、ある参照領域内の画像情報を解析する際、統計情報および勾配情報の算出に用いる参照領域の画素情報としては輝度信号を用いる。しかし、輝度情報と色差情報には相関があるため、起動情報の代わりに色差信号を用いることも可能である。
In other words, the missing region classification unit 340 includes a statistical information calculation unit 341, a gradient information calculation unit 342, a peripheral region analysis unit 343, and a missing region classification determination unit 344, and further includes a switching unit 345.
The statistical information calculation unit 341 reads pixel information corresponding to a preset analysis region size from the peripheral region buffer 330, and based on the read image information, calculates a feature amount representing pixel value distribution information by a statistical method. The statistical information representing the calculation result is notified to the peripheral region analysis unit 343 via the switching unit 345. The gradient information calculation unit 342 reads pixel information corresponding to a preset analysis region size from the peripheral region buffer 330, calculates a feature value representing the gradient of the pixel value based on the read image information, and the calculation result Is transmitted to the peripheral region analysis unit 343 via the switching unit 345. Here, when analyzing image information in a certain reference area, a luminance signal is used as pixel information of the reference area used for calculating statistical information and gradient information. However, since there is a correlation between the luminance information and the color difference information, a color difference signal can be used instead of the activation information.

周辺領域解析部343は、上記統計情報算出部341および勾配情報算出部342により算出された情報をそれぞれ、予め設定された統計情報用のしきい値および勾配情報用のしきい値と比較して類型が“Smoothness”、“Edge”、“Texture”のいずれであるかを判定する。またそれと共に、上記統計情報の算出結果および勾配情報の算出結果を欠落領域分類決定部344に通知する。   The peripheral region analysis unit 343 compares the information calculated by the statistical information calculation unit 341 and the gradient information calculation unit 342 with a threshold value for statistical information and a threshold value for gradient information, which are set in advance, respectively. It is determined whether the type is “Smoothness”, “Edge”, or “Texture”. At the same time, the calculation result of the statistical information and the calculation result of the gradient information are notified to the missing region classification determination unit 344.

欠落領域分類部344は、上記周辺領域解析部343による参照領域の類型の判定結果をもとに、補間対象マクロブロックの類型が“Smoothness”、“Edge”、“Texture”のいずれであるかを推定する。推定方法としては、例えば参照領域の類型の判定結果を多数決処理する方法が用いられる。   The missing region classification unit 344 determines whether the type of the macro block to be interpolated is “Smoothness”, “Edge”, or “Texture” based on the determination result of the reference region type by the peripheral region analysis unit 343. presume. As the estimation method, for example, a method is used in which a majority decision process is performed on the reference region type determination result.

切替部345は、隣接マクロブロックの類型を分類する際に、先ず上記統計情報算出部341を選択して統計情報の算出を行わせる。そして、周辺領域解析部343が上記統計情報をもとに各参照領域の類型を判定できなかった場合にのみ、勾配情報算出部342を選択して上記勾配情報の算出処理を行わせる。   When classifying the types of adjacent macroblocks, the switching unit 345 first selects the statistical information calculation unit 341 and causes the calculation of statistical information. Then, only when the peripheral region analysis unit 343 cannot determine the type of each reference region based on the statistical information, the gradient information calculation unit 342 is selected to perform the calculation processing of the gradient information.

欠落領域補間処理部350は、補間対象マクロブロックを、上記周辺領域バッファ330から読み出した参照領域における上記補間対象マクロブロックとの境界画素の画素情報を用いて補間する。この補間処理に際しては、上記欠落領域分類部340による補間対象マクロブロックの類型の推定結果を参照する。   The missing area interpolation processing unit 350 interpolates the interpolation target macroblock using the pixel information of the boundary pixels with the interpolation target macroblock in the reference area read from the peripheral area buffer 330. In this interpolation processing, the type estimation result of the macro block to be interpolated by the missing area classification unit 340 is referred to.

図4は、この欠落領域補間処理部350の構成を示すブロック図である。すなわち、欠落領域補間処理部350は、Smoothness補間処理部351と、Edge補間処理部352と、Texture補間処理部353とを備え、さらにこれらの補間処理部351,352,353の入力側及び出力側に一対の切替部354,355を備えている。この切替部354,355は、上記欠落領域分類部340により推定された補間対象マクロブロックの類型の推定結果に応じて、上記Smoothness補間処理部351、Edge補間処理部352及びTexture補間処理部353を択一的に切り替える。上記Smoothness補間処理部351、Edge補間処理部352及びTexture補間処理部353により補正された画素情報(輝度値又は色差値)は復号化ピクチャバッファ400に供給され、該当する補間対象領域の位置に格納される。   FIG. 4 is a block diagram showing a configuration of the missing area interpolation processing unit 350. That is, the missing region interpolation processing unit 350 includes a Smoothness interpolation processing unit 351, an Edge interpolation processing unit 352, and a Texture interpolation processing unit 353, and further, an input side and an output side of these interpolation processing units 351, 352, and 353 Are provided with a pair of switching sections 354 and 355. The switching units 354 and 355 switch the Smoothness interpolation processing unit 351, the Edge interpolation processing unit 352, and the Texture interpolation processing unit 353 according to the estimation result of the type of the interpolation target macroblock estimated by the missing region classification unit 340. Switch alternatively. Pixel information (luminance value or color difference value) corrected by the Smoothness interpolation processing unit 351, Edge interpolation processing unit 352, and Texture interpolation processing unit 353 is supplied to the decoded picture buffer 400 and stored in the position of the corresponding interpolation target region. Is done.

復号化ピクチャバッファ400は、画像フレームごとに、上記復号部100により正常に復号された領域の画素値と、上記コンシールメント部300の欠落領域補間処理部350により算出された欠落画素の画素値を記憶する。そして、上記コンシールメント部300によりすべての欠落画素値の補間処理が終了した画像フレームを読み出して表示デバイス34に供給する。   The decoded picture buffer 400 obtains, for each image frame, the pixel value of the region normally decoded by the decoding unit 100 and the pixel value of the missing pixel calculated by the missing region interpolation processing unit 350 of the concealment unit 300. Remember. The concealment unit 300 reads out an image frame for which all missing pixel values have been interpolated, and supplies the read image frame to the display device 34.

次に、以上のように構成されたデコーダ22によるコンシールメント処理の手順と内容を説明する。図5はこのコンシールメント処理の手順と処理内容の概要を示すフローチャート、図6は同処理内容の具体例を示すフローチャートである。
制御モジュール21からビデオデータのビットストリームが入力されると、復号部100では上記入力されたビデオデータのビットストリームがそのマクロブロックごとに復号され、この復号されたピクチャデータが復号化ピクチャバッファ400に送られて一時蓄積される。
Next, the procedure and contents of concealment processing by the decoder 22 configured as described above will be described. FIG. 5 is a flowchart showing an outline of the procedure and contents of the concealment process, and FIG. 6 is a flowchart showing a specific example of the process contents.
When a bit stream of video data is input from the control module 21, the decoding unit 100 decodes the input video data bit stream for each macroblock, and the decoded picture data is stored in the decoded picture buffer 400. It is sent and temporarily stored.

またこの復号処理と並行して、上記復号処理されるビデオデータのビットストリームにシンタックス上の誤りが混入しているか否かがマクロブロックごとにエラー検出部110により判定される(ステップS41)。そして、この誤りの有無の判定結果を表すフラグ情報が欠落領域情報メモリ200に記憶される。例えば、正常に復号されたマクロブロックについてはStatusFlag=1に設定され、復号不可能だったマクロブロックについてはStatusFrag=0に設定されて、これらがフレーム単位で欠落領域情報メモリ200に記憶される。図8に、欠落領域情報メモリ200におけるフラグ情報StatusFragの記憶結果の一例を示す。
そして、1フレーム分のビデオデータの復号処理が終了すると、切替制御部120からコンシールメント制御部310対し、上記復号処理が終了したフレームに対するコンシールメント処理を指示する通知が送られる。
In parallel with this decoding process, the error detection unit 110 determines whether or not an error in the syntax is mixed in the bit stream of the video data to be decoded (step S41). Then, flag information representing the determination result of the presence or absence of this error is stored in the missing area information memory 200. For example, StatusFlag = 1 is set for a macroblock that is normally decoded, and StatusFrag = 0 is set for a macroblock that cannot be decoded, and these are stored in the missing area information memory 200 in units of frames. FIG. 8 shows an example of the storage result of the flag information StatusFrag in the missing area information memory 200.
When the decoding process of video data for one frame is completed, the switching control unit 120 sends a notification instructing the concealment process for the frame for which the decoding process has been completed to the concealment control unit 310.

さて、上記コンシールメント処理の指示が通知されると、コンシールメント部300では次のようにコンシールメント処理が行われる。
すなわち、先ず欠落画素を含むマクロブロックXについて、隣接マクロブロックが周辺領域情報取得部320により選択される。例えば、欠落マクロブロックXの周辺には図7に示すように8個のマクロブロックA〜Hがあり、このうちから先ず例えば図9(a)に示すように欠落マクロブロックXの上下及び左右に隣接する4個の隣接マクロブロックA〜Dが選択される。次に、欠落領域情報メモリ200に記憶されたフラグ情報StatusFlagを参照し、例えば図9(b)に示すように上記4つの隣接マクロブロックA〜Dの中から欠落画素を含まないマクロブロックA,B,Dが参照マクロブロックとして選択される。そして、この選択された参照マクロブロックA,B,D内の各画素の画素値が上記復号化ピクチャバッファ400から選択的に読み出され、この読み出された参照マクロブロックA,B,Dの各画素値が周辺領域バッファ330に格納される。
When the concealment processing instruction is notified, the concealment unit 300 performs the concealment processing as follows.
That is, for the macroblock X including the missing pixel, the neighboring macroblock is first selected by the peripheral area information acquisition unit 320. For example, there are eight macroblocks A to H around the missing macroblock X as shown in FIG. 7, and from among these, first, for example, as shown in FIG. Four adjacent macroblocks A to D are selected. Next, referring to the flag information StatusFlag stored in the missing area information memory 200, for example, as shown in FIG. 9B, a macroblock A, which does not contain a missing pixel from the above four adjacent macroblocks A to D, B and D are selected as reference macroblocks. Then, pixel values of the respective pixels in the selected reference macroblocks A, B, and D are selectively read out from the decoded picture buffer 400, and the read reference macroblocks A, B, and D are read out. Each pixel value is stored in the peripheral area buffer 330.

なお、復号化ピクチャバッファ400から画素値を取得する参照マクロブロックの領域サイズは、必ずしも補間処理単位の領域サイズと等しくする必要はなく、後述する特徴ベクトル1及び2を検出するために必要な画素数分だけを取得すればよい。取得する参照領域のサイズと補間処理単位の領域サイズ(16×16画素)に含まれる画素数が等しくない場合の例を、図9(c)に示す。この例では、16×8画素または8×16画素の領域を参照領域とする場合を示している。要するに、取得する参照領域の画素数サイズは参照領域の特徴ベクトルの検出精度と確保可能なバッファサイズによって任意に決定することができる。   Note that the area size of the reference macroblock for obtaining the pixel value from the decoded picture buffer 400 is not necessarily equal to the area size of the interpolation processing unit, and is a pixel necessary for detecting feature vectors 1 and 2 described later. You only need to get a few minutes. FIG. 9C shows an example in which the size of the reference area to be acquired and the number of pixels included in the area size (16 × 16 pixels) of the interpolation processing unit are not equal. In this example, a case where an area of 16 × 8 pixels or 8 × 16 pixels is used as a reference area is shown. In short, the size of the number of pixels of the reference area to be acquired can be arbitrarily determined according to the detection accuracy of the feature vector of the reference area and the buffer size that can be secured.

次に、コンシールメント部300はステップS42に移行し、欠落領域分離部340により、上記選択された参照マクロブロック(参照領域)の類型を分類する処理を行う。この参照領域の分類処理は、ステップS421による第1の分類処理と、ステップS422による第2の分類処理と、ステップS423による分類処理の終了判定処理とから構成され、先ず第1の分類処理が行われる。   Next, the concealment unit 300 proceeds to step S42, and the missing region separation unit 340 performs a process of classifying the type of the selected reference macroblock (reference region). This reference area classification process includes a first classification process in step S421, a second classification process in step S422, and an end determination process in step S423. First, the first classification process is performed. Is called.

すなわち、この第1の分類処理S421において欠落領域分離部340は、先ず周辺領域バッファ330から参照領域の一つを選択する。そして、この選択した参照領域を構成する画素の輝度値の分布状況を表す特徴量ベクトル1を算出し、この特徴量ベクトル1をもとに上記選択した参照領域の分類を行う。   That is, in the first classification process S421, the missing region separation unit 340 first selects one of the reference regions from the peripheral region buffer 330. Then, the feature quantity vector 1 representing the distribution state of the luminance values of the pixels constituting the selected reference area is calculated, and the selected reference area is classified based on the feature quantity vector 1.

例えば、図6に示すように先ずステップS51において、上記選択した参照領域に含まれる画素の輝度値に関してその度数分布を調べ、度数の最大値deg_maxを検出する。そして、上記参照領域内の画素数Nに対する上記検出された度数の最大値deg_maxの割合を表すdeg_max_rateを算出する。またそれと共に、上記選択した参照領域に含まれる画素の輝度値の最大値及び最小値をそれぞれ検出し、この検出した最大値と最小値との差を表すrangeを算出する。   For example, as shown in FIG. 6, first, in step S51, the frequency distribution of the luminance values of the pixels included in the selected reference area is examined to detect the maximum value deg_max. Then, deg_max_rate representing the ratio of the detected maximum value deg_max to the number N of pixels in the reference region is calculated. At the same time, the maximum value and the minimum value of the luminance values of the pixels included in the selected reference area are respectively detected, and a range representing the difference between the detected maximum value and minimum value is calculated.

次に欠落領域分離部340は、上記算出された輝度値の最大値と最小値との差rangeを予め設定したしきい値Th_rとステップS52により比較する。そして、この比較の結果range<Th_rだった場合には、上記選択した参照領域は“Smoothness”であるとステップS4213で判定し、まだ選択されていない次の参照領域の分類処理に移行する。これに対し、上記比較の結果range>=Th_rだった場合には、上記算出された度数の最大値deg_maxの割合を表すdeg_max_rateを、予め設定されたしきい値Th_dとステップS53で比較する。そしてこの比較の結果、deg_max_rate<Th_dだった場合には、上記参照領域は“Texture”であるとステップS4214で判定し、未選択の次の参照領域の分類処理に移行する。なお、上記しきい値Th_rおよびTh_dは、画像ごとに最適な値が異なるため、実験的に求めた値に設定される。   Next, the missing region separation unit 340 compares the difference range between the calculated maximum value and the minimum value of the calculated brightness value with a preset threshold value Th_r in step S52. If the result of this comparison is range <Th_r, it is determined in step S4213 that the selected reference area is “Smoothness”, and the process proceeds to classification processing for the next reference area that has not yet been selected. On the other hand, if the result of the comparison is range> = Th_r, deg_max_rate representing the ratio of the calculated maximum value deg_max is compared with a preset threshold value Th_d in step S53. If the result of this comparison is deg_max_rate <Th_d, it is determined in step S4214 that the reference area is “Texture”, and the process proceeds to the classification process for the next unselected reference area. The threshold values Th_r and Th_d are set to values obtained experimentally because optimum values differ for each image.

なお、以上の分類処理では、明らかにTextureである領域を分類する指標として“range”を用いた。しかし、仮に1画素でも離れた値を取るような場合には、意図する指標とはならないため、分散を用いる方がより精度良く分類を行える。ただし、分散を用いた場合は処理量が増える。さらに、第1の分類処理においては、明らかに“Smoothness”である領域を先に分類した後に、明らかに“Texture”である領域を分類した。しかしそれに限らず、先に明らかに“Texture”である領域を分類した後に、明らかに“Smoothness”である領域を分類するという構成も考えられる。   In the above classification process, “range” is used as an index for classifying a region that is clearly Texture. However, if even a single pixel is taken away, it is not an intended index, and classification can be performed with higher accuracy by using variance. However, the amount of processing increases when dispersion is used. Further, in the first classification process, after clearly classifying the area that is clearly “Smoothness”, the area that is clearly “Texture” is classified. However, the present invention is not limited to this, and a configuration in which an area that is clearly “Texture” is classified first, and then an area that is clearly “Smoothness” is classified.

一方、上記ステップS53による比較の結果、deg_max_rate>=Th_dだったとする。この場合、欠落領域分離部340は第2の分類処理S422に移行する。この第2の分離処理S422では、上記選択された参照領域に存在する画素について勾配を表す特徴量ベクトル2を算出し、この算出された特徴量ベクトル2と、先にステップS4211で算出された特徴量ベクトル1とに基づいて、上記選択された参照領域の類型を分類する処理が行われる。   On the other hand, it is assumed that deg_max_rate> = Th_d as a result of the comparison in step S53. In this case, the missing area separation unit 340 proceeds to the second classification process S422. In the second separation process S422, a feature quantity vector 2 representing a gradient is calculated for the pixels existing in the selected reference region, and the calculated feature quantity vector 2 and the feature previously calculated in step S4211 are calculated. Based on the quantity vector 1, a process for classifying the type of the selected reference area is performed.

例えば、図6に示すように先ずステップS54において、上記特徴ベクトル2として上記選択した参照領域に含まれる画素の勾配ベクトルを算出する。この勾配ベクトルの算出は、例えばSobel FilterやPrewitt Filter等のフィルタ演算を上記参照領域の各画素に対して適用することにより行われる。次に、ステップS55において、上記算出された勾配ベクトルと、先にステップS51で算出されたrangeとをもとに分類条件を設定する。そして、この分類条件に基づいて、ステップS4223、S4224、S4225により上記選択した参照領域の類型を判定する。   For example, as shown in FIG. 6, first, in step S54, a gradient vector of pixels included in the selected reference region is calculated as the feature vector 2. The calculation of the gradient vector is performed by applying a filter operation such as Sobel Filter or Prewitt Filter to each pixel in the reference region. Next, in step S55, classification conditions are set based on the calculated gradient vector and the range previously calculated in step S51. Based on this classification condition, the type of the selected reference area is determined in steps S4223, S4224, and S4225.

以上のようにステップS422による第2の分類処理が終了すると、欠落領域分離部340はすべての参照領域についての分類処理が終了したか否かをステップS423で判定する。そして、まだ分類処理が行われていない参照領域が残っている場合には、第1の分類処理S421に戻って上記述べた手順で分類処理を実行する。   As described above, when the second classification process in step S422 is completed, the missing area separation unit 340 determines in step S423 whether the classification process for all reference areas has been completed. If there remains a reference area that has not yet been classified, the process returns to the first classification process S421 to execute the classification process according to the procedure described above.

一方、すべての参照領域に対する分類処理が終了すると、欠落領域分離部340はステップS423からステップS43に移行し、ここで上記各参照領域についての分類結果に基づいて補間対象の欠落マクロブロックの類型の推定処理を行う。例えば、図9(a)における参照領域A,B,Dがそれぞれ“Smoothness”、“Texture”、“Smoothness”と判定された場合には、補間対象マクロブロックを“Smoothness”と推定する。   On the other hand, when the classification process for all the reference regions is completed, the missing region separation unit 340 proceeds from step S423 to step S43, where the type of the missing macroblock to be interpolated is based on the classification result for each reference region. Perform estimation processing. For example, when the reference areas A, B, and D in FIG. 9A are determined to be “Smoothness”, “Texture”, and “Smoothness”, respectively, the interpolation target macroblock is estimated as “Smoothness”.

そうして欠落マクロブロックの類型が推定されると、コンシールメント部300はステップS44,S46,S48からそれぞれステップS45,S47,S49に移行し、これらのステップS45,S47,S49においてそれぞれ“Smoothness”、“Edge”、“Texture”に対応した補間処理を実行する。   When the type of the missing macroblock is estimated, the concealment unit 300 moves from steps S44, S46, and S48 to steps S45, S47, and S49, respectively. In these steps S45, S47, and S49, “Smoothness” is obtained. , “Edge” and “Texture” are executed.

例えば、欠落マクロブロックの類型が“Smoothness”と推定された場合には、Linear Interpolationを用いた補間処理が行われる。このLinear Interpolationを用いた補間処理は、例えば図10に示すように補間しようとしている欠落画素p(i,j)から隣接する上下左右の境界に向け垂線d1,d2,d3,d4を引き、その交点の4つの境界の画素値p1(i1,j1),p2(i2,j2),p3(i3,j3),p4(i4,j4)を距離で重み付けして捕間する画素値を決定する。なお、このLinear Interpolationを用いた補間処理については、Viktor Varsa et al., “Non-normative error concealment algorithms”, ITU-Telecommunications Standardization Section, 14th Meeting: Santa Barbara, CA, USA, 21-24 September, VCEG-N62(Proposal), 2001に詳しく述べられている。 For example, when the type of the missing macroblock is estimated as “Smoothness”, an interpolation process using Linear Interpolation is performed. In this interpolation process using Linear Interpolation, for example, as shown in FIG. 10, perpendicular lines d1, d2, d3, and d4 are drawn from the missing pixel p (i, j) to be interpolated toward the adjacent vertical and horizontal boundaries. The pixel values p1 (i1, j1), p2 (i2, j2), p3 (i3, j3), and p4 (i4, j4) at the four boundaries of the intersection are weighted by distances to determine the pixel values to be captured. As for interpolation processing using this Linear Interpolation, Viktor Varsa et al., “Non-normative error concealment algorithms”, ITU-Telecommunications Standardization Section, 14 th Meeting: Santa Barbara, CA, USA, 21-24 September, It is described in detail in VCEG-N62 (Proposal), 2001.

一方、欠落マクロブロックの類型が“Edge”と推定された場合には、例えばDirectional Interpolationを用いた補間処理が行われる。このDirectional Interpolationを用いた補間処理は、欠落マクロブロックに隣接する参照領域から当該欠落マクロブロックに含まれるであろうエッジパターンを表す勾配ベクトルを算出する。そして、この算出された勾配ベクトルの方向を考慮して、例えば図11に示すように境界の画素値p1(i1,j1),p2(i2,j2)を距離d1,d2で重み付けすることにより、捕間する画素値p(i,j)を決定する。   On the other hand, when the type of the missing macroblock is estimated to be “Edge”, for example, interpolation processing using Directional Interpolation is performed. In the interpolation processing using Directional Interpolation, a gradient vector representing an edge pattern that will be included in the missing macroblock is calculated from a reference area adjacent to the missing macroblock. Then, in consideration of the direction of the calculated gradient vector, for example, as shown in FIG. 11, the pixel values p1 (i1, j1) and p2 (i2, j2) at the boundary are weighted by the distances d1 and d2, The pixel value p (i, j) to be captured is determined.

なお、本実施形態では、先に述べた第2の分類処理S422において既に勾配ベクトルが算出されたいるので、この算出済の勾配ベクトルを利用して上記補間画素値の計算を行うことが可能である。上記Directional Interpolationを用いた補間処理については、O. Nemethova, A. Al Moghrabi, M. Rupp, “Flexible Error Concealment for H.264 Based on Directional Interpolation”, Proc. of the 2005 International Conference on Wireless Networks Communications and Mobile Computing, Maui, Hawaii, USA, June, 2005.に詳しく述べられている。   In this embodiment, since the gradient vector is already calculated in the second classification process S422 described above, the interpolation pixel value can be calculated using the calculated gradient vector. is there. For interpolation processing using Directional Interpolation, see O. Nemethova, A. Al Moghrabi, M. Rupp, “Flexible Error Concealment for H.264 Based on Directional Interpolation”, Proc. Of the 2005 International Conference on Wireless Networks Communications and It is described in detail in Mobile Computing, Maui, Hawaii, USA, June, 2005.

さらに、欠落マクロブロックの類型が“Texture”と推定された場合には、例えばSearching the best match blockを用いた補間処理が行われる。この補間処理は、欠落マクロブロックの周辺から用意したコスト関数の値が最小になるようなマクロブロックを探索することにより類似性の高いと考えられるマクロブロックを特定する。そして、この特定したマクロブロックの画素値をコピーすることにより補間値を求めるものである。なお、このSearching the best match blockを用いた補間処理については、Zhang Rongfu, et. al, “Content-Adaptive Spatial Error Concealment for Video Communication”, IEEE Transactions on Consumer Electronics, Vol. 50, No. 1, pp.335-340, Feb. 2004.に詳しく述べられている。   Further, when the type of the missing macroblock is estimated as “Texture”, for example, an interpolation process using Searching the best match block is performed. In this interpolation process, a macroblock that is considered to be highly similar is identified by searching for a macroblock that minimizes the value of the cost function prepared from the periphery of the missing macroblock. Then, the interpolation value is obtained by copying the pixel value of the specified macroblock. For interpolation processing using this Searching the best match block, see Zhang Rongfu, et. Al, “Content-Adaptive Spatial Error Concealment for Video Communication”, IEEE Transactions on Consumer Electronics, Vol. 50, No. 1, pp. .335-340, Feb. 2004.

上記欠落領域補間処理部350により算出された欠落画素P(i,j) の補間画素値は、復号化ピクチャバッファ400に保持されているピクチャフレーム中の該当する画素位置に書き込まれる。以後同様に、欠落画素P(i,j) が含まれるすべてのマクロブロックについてコンシールメント部300によりコンシールメント処理が行われ、これにより欠落画素P(i,j) の補間画素値が算出されて、ピクチャフレーム中の該当する画素位置に書き込まれる。   The interpolated pixel value of the missing pixel P (i, j) calculated by the missing region interpolation processing unit 350 is written at the corresponding pixel position in the picture frame held in the decoded picture buffer 400. Thereafter, similarly, the concealment processing is performed by the concealment unit 300 for all the macroblocks including the missing pixel P (i, j), whereby the interpolation pixel value of the missing pixel P (i, j) is calculated. , And written in the corresponding pixel position in the picture frame.

以上詳述したように第1の実施形態では、コンシールメント部300において、欠落マクロブロックに隣接する参照領域の類型を分類する際に、先ず第1の分類処理S421により、参照領域を構成する画素の輝度値の分布状況を表す特徴ベクトル1を求めて、この特徴ベクトル1をもとに“Smoothness”又は“Texture”であるかどうかを判定する。そして、この第1の分類処理により上記参照領域の類型を分類できなかった場合に限り第2の分類処理S422に移行し、この第2の分類処理S422により上記参照領域に存在する画素について勾配を表す特徴量ベクトル2を算出し、この算出された特徴量ベクトル2と上記特徴量ベクトル1とに基づいて上記参照領域の類型が“Smoothness”、“Edge”、“Texture”のいずれであるかを判定するようにしている。   As described above in detail, in the first embodiment, when the type of the reference area adjacent to the missing macroblock is classified in the concealment unit 300, first, the pixels constituting the reference area by the first classification processing S421. A feature vector 1 representing the distribution state of the luminance value of is obtained, and it is determined based on the feature vector 1 whether it is “Smoothness” or “Texture”. Then, only when the type of the reference area cannot be classified by the first classification process, the process proceeds to the second classification process S422, and the gradient of the pixels existing in the reference area is determined by the second classification process S422. A feature quantity vector 2 to be expressed is calculated, and based on the calculated feature quantity vector 2 and the feature quantity vector 1, whether the type of the reference region is “Smoothness”, “Edge”, or “Texture” Judgment is made.

具体的には、上記第1の分類処理において、上記参照領域内の画素数Nに対する度数の最大値deg_maxの割合を表すdeg_max_rateを算出すると共に、上記参照領域に含まれる画素の輝度値の最大値と最小値との差を表すrangeを算出する。そして、上記rangeをしきい値Th_rと比較することにより上記参照領域が“Smoothness”であるかどうかを判定すると共に、上記deg_max_rateをしきい値Th_dと比較することにより上記参照領域が“Texture”であるかどうかを判定するようにしている。   Specifically, in the first classification process, deg_max_rate representing the ratio of the maximum frequency deg_max to the number N of pixels in the reference region is calculated, and the maximum value of the luminance value of the pixels included in the reference region is calculated. The range representing the difference between the value and the minimum value is calculated. Then, it is determined whether the reference area is “Smoothness” by comparing the range with a threshold value Th_r, and the reference area is “Texture” by comparing the deg_max_rate with a threshold value Th_d. Judgment is made whether there is.

したがって、第1の分類処理S421において明らかに“Smoothness”又は“Texture”であると判定された場合には、演算量の多い勾配ベクトルの算出処理が不要となる。このため、常に参照領域における画素値の勾配を表す特徴量を算出してこの勾配を表す特徴量をもとに画像の類型を判定する場合に比べ、参照領域の画像の類型を判定する場合に必要な演算量を削減して、コンシールメント処理のオーバヘッドを軽減することができる。この効果は、パーソナル・コンピュータやテレビジョン受信機に比べてデコーダの処理能力が低い携帯端末にあっては、画像データストリームの復号処理を円滑に行う上できわめて有効である。   Therefore, when it is clearly determined as “Smoothness” or “Texture” in the first classification processing S421, the calculation processing of the gradient vector with a large amount of calculation becomes unnecessary. For this reason, compared to the case where the feature amount representing the gradient of the pixel value in the reference region is always calculated and the image type is determined based on the feature amount representing the gradient, the image type of the reference region is determined. It is possible to reduce the necessary calculation amount and reduce the overhead of concealment processing. This effect is extremely effective in smoothly performing the decoding process of the image data stream in a portable terminal whose processing capability of the decoder is lower than that of a personal computer or a television receiver.

また、第1の分類処理S421により参照領域の画像の類型が判定できなかった場合には、第2の分類処理S422により画素値の勾配ベクトルに基づく類型判定が行われる。このため、画素値の分布状況を表す特徴量からでは正確な類型判定が行えない場合でも、画素値の勾配を表す特徴量をもとに正確な分類を行うことが可能となる。   If the type of the image of the reference area cannot be determined in the first classification process S421, the type determination based on the gradient vector of the pixel value is performed in the second classification process S422. For this reason, even when accurate type determination cannot be performed from the feature value representing the distribution of pixel values, accurate classification can be performed based on the feature value representing the gradient of the pixel value.

(第2の実施形態)
この発明の第2の実施形態は、欠落マクロブロックに隣接する参照領域の類型を分類する際に、第1の分類処理により参照領域を構成する画素の輝度値の分布状況を表す特徴ベクトル1を算出して、この特徴ベクトル1をもとに“Smoothness”であるか“Texture”であるかを判定し、“Smoothness”及び“Texture”のいずれでもない場合には“Edge”と見なすようにしたものである。
(Second Embodiment)
In the second embodiment of the present invention, when the type of the reference area adjacent to the missing macroblock is classified, the feature vector 1 representing the distribution state of the luminance values of the pixels constituting the reference area is obtained by the first classification process. Based on this feature vector 1, it is determined whether it is “Smoothness” or “Texture”. If it is neither “Smoothness” nor “Texture”, it is regarded as “Edge”. Is.

図12は、この発明の第2の実施形態に係わる参照領域の分類処理手順とその処理内容を示すフローチャートである。なお、デコーダの構成については前記第1の実施形態において図2乃至図4を用いて説明した構成と同一であるため、第2の実施形態においても前記図2乃至図4を延用して説明を行う。   FIG. 12 is a flowchart showing the reference area classification processing procedure and its processing contents according to the second embodiment of the present invention. Since the configuration of the decoder is the same as that described with reference to FIGS. 2 to 4 in the first embodiment, the description of FIGS. 2 to 4 is also extended in the second embodiment. I do.

欠落領域分離部340は、先ず第1の分類処理S111に移行し、ステップS1111において、周辺領域バッファ330から選択した参照領域について画素の輝度値の度数分布を調べ、度数の最大値deg_maxを検出する。そして、上記参照領域内の画素数Nに対する上記検出された度数の最大値deg_maxの割合を表すdeg_max_rateを算出する。またそれと共に欠落領域分離部340は、上記選択した参照領域に含まれる画素の輝度値の最大値及び最小値をそれぞれ検出し、この検出した最大値と最小値との差を表すrangeを算出する。   The missing area separation unit 340 first proceeds to the first classification process S111, and in step S1111, the frequency distribution of the luminance value of the pixel is examined for the reference area selected from the peripheral area buffer 330, and the maximum value deg_max is detected. . Then, deg_max_rate representing the ratio of the detected maximum value deg_max to the number N of pixels in the reference region is calculated. At the same time, the missing region separation unit 340 detects the maximum value and the minimum value of the luminance values of the pixels included in the selected reference region, and calculates a range representing the difference between the detected maximum value and minimum value. .

次に欠落領域分離部340は、上記算出された輝度値の最大値と最小値との差rangeを予め設定したしきい値Th_rとステップS1112により比較する。そして、この比較の結果range<Th_rだった場合には、上記選択した参照領域は“Smoothness”であるとステップS1114で判定する。そして、まだ選択されていない参照領域がある場合には、次の参照領域の分類処理に移行する。これに対し、上記比較の結果range>=Th_rだった場合には、上記算出された度数の最大値deg_maxの割合を表すdeg_max_rateを、予め設定されたしきい値Th_dとステップS1113で比較する。そしてこの比較の結果、deg_max_rate<Th_dだった場合には、上記参照領域は“Texture”であるとステップS1115で判定し、まだ選択されていない次の参照領域の分類処理に移行する。   Next, the missing region separation unit 340 compares the difference range between the calculated maximum value and the minimum value of the calculated brightness value with a preset threshold value Th_r in step S1112. If the result of this comparison is range <Th_r, it is determined in step S1114 that the selected reference area is “Smoothness”. If there is a reference area that has not yet been selected, the process proceeds to the next reference area classification process. On the other hand, if the result of the comparison is range> = Th_r, deg_max_rate representing the ratio of the calculated maximum value deg_max is compared with a preset threshold Th_d in step S1113. If the result of this comparison is deg_max_rate <Th_d, it is determined in step S1115 that the reference area is “Texture”, and the process proceeds to classification processing for the next reference area that has not yet been selected.

一方、上記上記ステップS53による比較の結果、deg_max_rate>=Th_dだったとする。この場合、欠落領域分離部340は第2の分類処理S112に移行し、ステップS1121により上記参照領域を“Edge”と見なす。そして、まだ選択されていない参照領域がある場合には、次の参照領域の分類処理に移行する。
なお、上記参照領域の分類結果を用いた補間対象の欠落マクロブロックの分類処理、及びこの分類結果に基づく欠落ブロック中の欠落画素の補間処理の手順とその内容は、前記第1の実施形態と同じである。
On the other hand, it is assumed that deg_max_rate> = Th_d as a result of the comparison in step S53. In this case, the missing area separation unit 340 proceeds to the second classification process S112, and regards the reference area as “Edge” in step S1121. If there is a reference area that has not yet been selected, the process proceeds to the next reference area classification process.
It should be noted that the procedure and content of the classification process of the missing macroblock to be interpolated using the classification result of the reference region and the interpolation process of the missing pixel in the missing block based on the classification result are the same as those in the first embodiment. The same.

以下に、上記図12に示した分類処理手順と内容による評価結果の具体例を示す。
いま、しきい値Th_r,Th_dを図12に例示したように実験的に求めた値Th_r=32及びTh_d=0.3に設定し、かつ参照領域のサイズを16x8(8x16)画素に設定すると共に、度数分布を求める際の横軸(輝度値)の目盛を8に設定する。そして、この分類条件の下で、図13に示すように画像サイズがQCIF(Quarter Common Intermediate Format)で、かつビットレートが128kbpsの欠落マクロブロックを有し、当該欠落マクロブロックに対しその上下左右に隣接する参照領域について分類を行ったとする。
Below, the specific example of the evaluation result by the classification | category process procedure and content shown in the said FIG. 12 is shown.
Now, the threshold values Th_r and Th_d are set to values Th_r = 32 and Th_d = 0.3 obtained experimentally as illustrated in FIG. 12, and the size of the reference area is set to 16 × 8 (8 × 16) pixels. The scale of the horizontal axis (luminance value) when obtaining the frequency distribution is set to 8. Under this classification condition, as shown in FIG. 13, there are missing macroblocks having an image size of QCIF (Quarter Common Intermediate Format) and a bit rate of 128 kbps. Assume that classification is performed for adjacent reference regions.

このときの分類結果を図14に示す。同図において、各項目は左から順にマクロブロックアドレス(左上隅のアドレスがMbX=0、MbY=0)、参照領域の位置(上;upper、下;lower、左;left、右;right)、分類に用いた条件(図12に例示した条件)、分類結果、主観による対象領域の分類(○印は分類結果と主観による分類が一致していることを示す)を示している。   The classification result at this time is shown in FIG. In the figure, each item has a macroblock address (upper left corner address is MbX = 0, MbY = 0), a reference area position (upper: upper, lower: lower, left: left, right: right), The conditions used for the classification (conditions illustrated in FIG. 12), the classification results, and the classification of the target area by the subjectivity (the circles indicate that the classification result and the classification by the subjectivity match).

この評価結果では、分類対象となる35個の参照領域のうち、8個の領域が第1の分類処理S111を行ったことにより主観による分類と同じ結果が得られており、約23%の勾配算出に関する演算量削減が図れている。なお、主観による分類結果とは異なる領域が一部存在したが、これは複数のエッジパターンが存在するなどrange及びdeg_max_rateだけでは元々分類が困難な領域である。この複数のエッジパターンが存在する参照領域については、第1の実施形態の図6に示したように、第2の分類処理S422により勾配情報を併用して分類することで、高精度の分類が可能となる。また、分類対象の参照領域サイズを同一とした場合、画像サイズが大きくなるにつれて1つの領域に含まれる画素値の相関が高くなると考えられる。このため、“Smoothness”、“Edge”、“Texture”の分類を行いやすくなる。   In this evaluation result, the same result as the subjective classification is obtained by performing the first classification processing S111 on eight of the 35 reference areas to be classified, and the gradient is about 23%. The amount of calculation related to calculation is reduced. There are some areas that differ from the subjective classification results, but this is an area that is originally difficult to classify only with range and deg_max_rate, such as the presence of multiple edge patterns. As shown in FIG. 6 of the first embodiment, the reference region in which the plurality of edge patterns exist is classified by using the gradient information together in the second classification process S422, so that high-accuracy classification can be performed. It becomes possible. Further, when the reference region sizes to be classified are the same, it is considered that the correlation between pixel values included in one region increases as the image size increases. This makes it easy to classify “Smoothness”, “Edge”, and “Texture”.

以上のように第2の実施形態では、第1の分類処理S111において参照領域が“Edge”と見なされた場合に限り参照領域における画素の勾配ベクトルを算出する処理が行われる。したがって、参照領域の勾配ベクトルの算出処理が行われる機会がさらに少なくなり、これによりデコーダの演算処理負担をさらに軽減して復号処理を一層円滑に行えるようになる。   As described above, in the second embodiment, the process of calculating the gradient vector of the pixel in the reference area is performed only when the reference area is regarded as “Edge” in the first classification process S111. Therefore, the opportunity for calculating the gradient vector of the reference region is further reduced, thereby further reducing the calculation processing burden of the decoder and performing the decoding process more smoothly.

(その他の実施形態)
前記実施形態ではデコーダ22内にコンシールメント部300を設けた場合を例にとって説明したが、コンシールメント部300の機能を実現するアプリケーション・プログラムを制御モジュール21のCPUに実行させるように構成してもよい。また、コンシールメント部300内の機能を分割して一部をデコーダ22に実行させ、他部を制御モジュール21に実行させるように構成してもよい。
(Other embodiments)
In the above embodiment, the case where the concealment unit 300 is provided in the decoder 22 has been described as an example. However, the application program for realizing the function of the concealment unit 300 may be executed by the CPU of the control module 21. Good. Further, the functions in the concealment unit 300 may be divided so that a part is executed by the decoder 22 and the other part is executed by the control module 21.

さらに、前記実施形態では画像符号化方式としてITUT H.264方式を採用した場合を例にとって説明したが、画像データをブロック単位で符号化する符号化方式であれば、如何なる符号化方式を採用した画像データに対してもこの発明は適用可能である。また、この種の符号化方式により符号化された画像データであれば、動画像に限らず静止画像に対してもこの発明は適用可能である。   Furthermore, in the above-described embodiment, the case where the ITUT H.264 method is adopted as an image coding method has been described as an example. However, any coding method may be used as long as the image data is coded in block units. The present invention can also be applied to image data. Further, the present invention is applicable not only to moving images but also to still images as long as the image data is encoded using this type of encoding method.

さらに、前記実施形態では地上ディジタル放送のワンセグ放送により受信した画像データを復号する場合を例にとって説明した。しかし、それに限らず、ウエブ上のコンテンツサーバからダウンロードした画像コンテンツデータや、メモリカードや高精細DVD等の記録媒体に記録された画像コンテンツデータを復号する場合にも、この発明は同様に適用可能である。   Further, in the above embodiment, the case where image data received by one-segment broadcasting of terrestrial digital broadcasting is decoded has been described as an example. However, the present invention is not limited thereto, and the present invention can be similarly applied to the case of decoding image content data downloaded from a content server on the web or image content data recorded on a recording medium such as a memory card or a high-definition DVD. It is.

要するにこの発明は、上記各実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、各実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。   In short, the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in each embodiment. Furthermore, you may combine suitably the component covering different embodiment.

この発明の第1の実施形態に係わる動画像復号装置を備えた携帯端末の構成を示すブロック図である。It is a block diagram which shows the structure of the portable terminal provided with the moving image decoding apparatus concerning 1st Embodiment of this invention. 図1に示した携帯端末のデコーダの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the decoder of the portable terminal shown in FIG. 図2に示したデコーダのコンシールメント部における欠落領域分離部の機能構成を示すブロック図である。FIG. 3 is a block diagram showing a functional configuration of a missing region separation unit in the concealment unit of the decoder shown in FIG. 2. 図2に示したデコーダのコンシールメント部における欠落領域補間処理部の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the missing area interpolation process part in the concealment part of the decoder shown in FIG. 図2に示したデコーダに設けられたコンシールメント部による参照領域分類処理の手順と内容を示すフローチャートである。It is a flowchart which shows the procedure and content of the reference area classification | category process by the concealment part provided in the decoder shown in FIG. 図5に示した参照領域分類処理の内容をさらに具体的に示すフローチャートである。6 is a flowchart showing more specifically the content of the reference area classification process shown in FIG. 5. 欠落したマクロブロックとその参照領域との関係を示す図である。It is a figure which shows the relationship between the missing macroblock and its reference area. 図2に示したデコーダに設けられた欠落領域情報バッファに記憶されるフラグ情報の一例を示す図である。FIG. 3 is a diagram showing an example of flag information stored in a missing area information buffer provided in the decoder shown in FIG. 2. 欠落したマクロブロックと当該マクロブロックを修復するために用いる参照領域から選択されたマクロブロックとの位置関係の一例を示す図である。It is a figure which shows an example of the positional relationship of the missing macroblock and the macroblock selected from the reference area used in order to repair the said macroblock. “Smoothness”と判定された隣接マクロブロックに基づく補間処理の一例を示す図である。It is a figure which shows an example of the interpolation process based on the adjacent macroblock determined as "Smoothness". “Edge”と判定された隣接マクロブロックに基づく補間処理の一例を示す図である。It is a figure which shows an example of the interpolation process based on the adjacent macroblock determined as "Edge". この発明の第2の実施形態に係わる動画像復号装置による参照領域分類処理の手順と内容を示すフローチャートである。It is a flowchart which shows the procedure and content of the reference area classification | category process by the moving image decoding apparatus concerning 2nd Embodiment of this invention. 図12に示した参照領域分類処理を具体的に説明するための画像の一例を示す図である。It is a figure which shows an example of the image for demonstrating the reference area classification | category process shown in FIG. 図13に示した画像の部類結果を表す情報の一例を示す図である。It is a figure which shows an example of the information showing the classification result of the image shown in FIG. “Smoothness”と判定されるマクロブロックの一例を示す図である。It is a figure which shows an example of the macroblock determined as "Smoothness". “Edge”と判定されるマクロブロックの一例を示す図である。It is a figure which shows an example of the macroblock determined as "Edge". “Texture”と判定されるマクロブロックの一例を示す図である。It is a figure which shows an example of the macroblock determined as "Texture".

符号の説明Explanation of symbols

1…無線ユニット、2…ベースバンドユニット、3…ユーザインタフェースユニット、4…記憶ユニット、5…ディジタル放送受信ユニット、11…移動通信用アンテナ、12…アンテナ共用器(DUP)、13…受信回路(RX)、14…シンセサイザ(SYN)、15…送信回路(TX)、21…制御モジュール、22…デコーダ、23…エンコーダ、31…カメラ(CAM)、32…マイクロホン、33…入力デバイス、34…表示デバイス、35…スピーカ、100…復号部、110…エラー検出部、120…切替制御部、200…欠落領域情報メモリ、300…コンシールメント部、310…コンシールメント制御部、320…周辺領域情報取得部、330…周辺領域バッファ、340…欠落領域分類部、341…統計情報算出部、342…勾配情報算出部、343…周辺領域解析部、344…欠落領域分類決定部、345…切替部、350…欠落領域補間処理部、351…Smoothness領域補間処理部、352…Edge領域補間処理部、353…Texture領域補間処理部、354、355…切替部、400…復号化ピクチャバッファ。   DESCRIPTION OF SYMBOLS 1 ... Wireless unit, 2 ... Baseband unit, 3 ... User interface unit, 4 ... Memory | storage unit, 5 ... Digital broadcast receiving unit, 11 ... Mobile communication antenna, 12 ... Antenna duplexer (DUP), 13 ... Reception circuit ( RX), 14 ... synthesizer (SYN), 15 ... transmission circuit (TX), 21 ... control module, 22 ... decoder, 23 ... encoder, 31 ... camera (CAM), 32 ... microphone, 33 ... input device, 34 ... display Device 35 ... Speaker 100 ... Decoding unit 110 Error detection unit 120 Switch control unit 200 Missing region information memory 300 Concealment unit 310 Concealment control unit 320 Peripheral region information acquisition unit , 330 ... Peripheral area buffer, 340 ... Missing area classification part, 341 ... Statistical information calculation part 342 ... Gradient information calculation unit, 343 ... Peripheral region analysis unit, 344 ... Missing region classification determination unit, 345 ... Switching unit, 350 ... Missing region interpolation processing unit, 351 ... Smoothness region interpolation processing unit, 352 ... Edge region interpolation processing unit 353 ... Texture region interpolation processing unit, 354, 355 ... switching unit, 400 ... decoded picture buffer.

Claims (3)

ブロックごとに符号化された画像データを復号処理して復号画像データを出力する画像復号装置において、
前記復号画像データ中から前記復号処理により正しく復号がなされなかった欠落画素を含む修復対象ブロックを特定する手段と、
前記特定された修復対象ブロックに隣接しかつ前記復号処理により正しく復号がなされた参照領域を選択する手段と、
前記選択された参照領域ごとに当該参照領域内における画素値の分散状況の特徴量を統計的手法を用いて検出する検出手段と、
前記検出された画素値の分散状況の特徴量に基づいて、前記参照領域の画像の類型が、画素値が一様に分布した第1の類型であるか、画素値のばらつきの多い第2の類型であるか、或いはエッジパターンを含む第3の類型であるかを判定する第1の判定手段と、
前記参照領域の類型の判定結果に基づいて、前記修復対象ブロックの類型が前記第1の類型、第2の類型及び第3の類型のいずれであるかを推定する手段と、
前記修復対象ブロックについての類型の推定結果に基づいて、前記第1、第2及び第3の類型に対応付けて予め用意された複数の補間処理手段の中から前記推定された類型に対応する補間処理手段を選択する手段と、
前記選択された補間処理手段に基づいて、前記欠落画素を含む修復対象ブロックに対し補間処理を行う手段と
を具備することを特徴とする画像復号装置。
In an image decoding apparatus that decodes image data encoded for each block and outputs decoded image data,
Means for identifying a block to be repaired that includes a missing pixel that has not been correctly decoded by the decoding process from the decoded image data;
Means for selecting a reference area adjacent to the identified block to be repaired and correctly decoded by the decoding process;
Detecting means for detecting, for each selected reference area, a feature value of a dispersion state of pixel values in the reference area using a statistical method;
Based on the feature value of the dispersion state of the detected pixel values, the type of the image of the reference area is the first type in which the pixel values are uniformly distributed, or the second type having a large variation in pixel values. First determination means for determining whether the pattern is a type or a third type including an edge pattern;
Means for estimating whether the type of the block to be repaired is the first type, the second type, or the third type based on the determination result of the type of the reference region;
Interpolation corresponding to the estimated type from among a plurality of interpolation processing means prepared in advance in association with the first, second and third types based on the type estimation result for the block to be repaired Means for selecting a processing means;
An image decoding apparatus, comprising: means for performing interpolation processing on the restoration target block including the missing pixel based on the selected interpolation processing means.
前記検出手段は、
前記参照領域に含まれる画素値の度数分布を求めて度数の最大値を算出し、前記参照領域内の画素数に対する前記算出された度数の最大値の割合を算出する手段と、
前記参照領域に含まれる画素値の最大値と最小値との差を算出する手段と
を備え、
前記第1の判定手段は、
前記算出された画素値の最大値と最小値との差を予め設定された第1のしきい値と比較して、当該差が第1のしきい値未満のとき前記参照領域の画像の類型を前記第1の類型と判定する第1の比較手段と、
前記第1の比較手段による比較の結果前記差が第1のしきい値以上のとき、前記算出された度数の最大値の割合を予め設定された第2のしきい値と比較して、当該度数の最大値の割合が予め設定された第2のしきい値未満のとき前記参照領域の画像の類型を前記第2の類型と判定し、それ以外のとき前記参照領域の画像の類型を前記第3の類型と判定する第2の比較手段と
を備えることを特徴とする請求項1記載の画像復号装置。
The detection means includes
Means for calculating a frequency distribution of pixel values included in the reference area, calculating a maximum value of the frequency, and calculating a ratio of the calculated maximum value of the frequency to the number of pixels in the reference area;
Means for calculating a difference between a maximum value and a minimum value of pixel values included in the reference region;
The first determination means includes
The difference between the maximum value and the minimum value of the calculated pixel values is compared with a preset first threshold value, and when the difference is less than the first threshold value, the image type of the reference region First comparing means for determining the first type as
As a result of the comparison by the first comparison means, when the difference is equal to or greater than a first threshold value, the ratio of the calculated maximum value of the frequency is compared with a preset second threshold value, When the ratio of the maximum value of frequency is less than a preset second threshold, the type of the image in the reference area is determined as the second type, and in other cases, the type of the image in the reference area is The image decoding apparatus according to claim 1, further comprising: a second comparison unit that determines the third type.
前記第1の判定手段により前記参照領域の画像の類型が判定されなかった場合に、前記参照領域における画素値の勾配を表す特徴量を算出する勾配算出手段と、
前記算出された画素値の勾配を表す特徴量に基づいて、前記参照領域の画像の類型が、前記第1の類型であるか、前記第2の類型であるか、或いは前記第3の類型であるかを判定する第2の判定手段と
を、さらに具備することを特徴とする請求項1記載の画像復号装置。
A gradient calculating unit that calculates a feature amount representing a gradient of a pixel value in the reference region when the image type of the reference region is not determined by the first determining unit;
Based on the calculated feature value representing the gradient of the pixel value, the image type of the reference region is the first type, the second type, or the third type. The image decoding apparatus according to claim 1, further comprising second determination means for determining whether or not there is any.
JP2007031606A 2007-02-13 2007-02-13 Motion picture decoding device Pending JP2008199252A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007031606A JP2008199252A (en) 2007-02-13 2007-02-13 Motion picture decoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007031606A JP2008199252A (en) 2007-02-13 2007-02-13 Motion picture decoding device

Publications (1)

Publication Number Publication Date
JP2008199252A true JP2008199252A (en) 2008-08-28

Family

ID=39757816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007031606A Pending JP2008199252A (en) 2007-02-13 2007-02-13 Motion picture decoding device

Country Status (1)

Country Link
JP (1) JP2008199252A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115278228A (en) * 2015-11-11 2022-11-01 三星电子株式会社 Method for decoding video and method for encoding video

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115278228A (en) * 2015-11-11 2022-11-01 三星电子株式会社 Method for decoding video and method for encoding video
US12003761B2 (en) 2015-11-11 2024-06-04 Samsung Electronics Co., Ltd. Method and apparatus for decoding video, and method and apparatus for encoding video

Similar Documents

Publication Publication Date Title
US11172201B2 (en) Encoder, decoder, encoding method, and decoding method
US20200137388A1 (en) Encoder, decoder, encoding method, and decoding method
US9549199B2 (en) Method, apparatus, and computer program product for providing motion estimator for video encoding
EP4395317A2 (en) Encoding device and encoding method
EP3644606B1 (en) Encoding device and encoding method
US20190158829A1 (en) Encoder, decoder, encoding method, and decoding method
US20100290716A1 (en) Image processing apparatus and image processing method
US20190281298A1 (en) Encoder, encoding method, decoder, and decoding method
US11895299B2 (en) Encoder, encoding method, decoder, and decoding method
US11800093B2 (en) Encoder, encoding method, decoder, and decoding method
US12120349B2 (en) Encoder, decoder, encoding method, and decoding method
US11303891B2 (en) Encoder, decoder, encoding method, and decoding method
JP2010136292A (en) Image processing apparatus
US20200099939A1 (en) Encoder, encoding method, decoder, and decoding method
JP2009273048A (en) Image processing apparatus
US11070837B2 (en) Encoding method, decoding method, encoder, and decoder
US20200195955A1 (en) Encoder, decoder, encoding method, and decoding method
JP2006174280A (en) Image processing apparatus, image processing method and program thereof
JP2008199252A (en) Motion picture decoding device
US11012703B2 (en) Encoder, decoder, encoding method, and decoding method
JP2005341093A (en) Contents adaptating apparatus, contents adaptation system, and contents adaptation method
US11375214B2 (en) Encoder, decoder, encoding method, and decoding method
US11044476B2 (en) Encoder, decoder, encoding method, decoding method, and recording medium
JP2008199251A (en) Image decoding device
JP2013120983A (en) Image processing apparatus, image processing method, and program