JP4672734B2 - Digital broadcast reception signal processing apparatus, signal processing method, signal processing program, and digital broadcast reception apparatus - Google Patents

Digital broadcast reception signal processing apparatus, signal processing method, signal processing program, and digital broadcast reception apparatus Download PDF

Info

Publication number
JP4672734B2
JP4672734B2 JP2007547967A JP2007547967A JP4672734B2 JP 4672734 B2 JP4672734 B2 JP 4672734B2 JP 2007547967 A JP2007547967 A JP 2007547967A JP 2007547967 A JP2007547967 A JP 2007547967A JP 4672734 B2 JP4672734 B2 JP 4672734B2
Authority
JP
Japan
Prior art keywords
image
unit
signal processing
encoded
syntax element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007547967A
Other languages
Japanese (ja)
Other versions
JPWO2007063890A1 (en
Inventor
淑貴 田中
研司 水戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Publication of JPWO2007063890A1 publication Critical patent/JPWO2007063890A1/en
Application granted granted Critical
Publication of JP4672734B2 publication Critical patent/JP4672734B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving MPEG packets from an IP network
    • H04N21/4382Demodulation or channel decoding, e.g. QPSK demodulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/164Feedback from the receiver or from the transmission channel
    • H04N19/166Feedback from the receiver or from the transmission channel concerning the amount of transmission errors, e.g. bit error rate [BER]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • H04N19/895Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder in combination with error concealment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/65Arrangements characterised by transmission systems for broadcast
    • H04H20/67Common-wave systems, i.e. using separate transmitters operating on substantially the same frequency

Description

本発明は、複数のデジタル放送の受信信号を処理する技術に関し、特に、サイマルキャストで送信された複数のデジタル放送の受信信号を処理する技術に関する。   The present invention relates to a technique for processing a plurality of digital broadcast reception signals, and particularly to a technique for processing a plurality of digital broadcast reception signals transmitted by simulcast.

日本の地上デジタル放送は、ISDB−T(Integrated Services Digital Broadcasting Terrestrial)規格で規定され、OFDM(直交周波数分割多重;Orthogonal Frequency Division Multiplexing)変調や階層伝送方式を採用している。ISDB−T規格によれば、図1に概略的に示すように、1チャネルの伝送帯域幅(約5.6MHz)が13個のサブバンドすなわちOFDMセグメントS1〜S13に分割されており、これらOFDMセグメントS1〜S13をさらに最大3個のグループすなわち階層に分割することができる。階層毎に、キャリア変調方式や内符号の符号化率、時間インターリーブ長などの異なる伝送特性を設定することができ、また、階層毎に、異なる放送番組を送信することが可能である。たとえば、12個のOFDMセグメントS1〜S6,S8〜S13を用いて固定受信機向けの高品質のハイビジョン放送(High Definition Television)を提供したり、12個のOFDMセグメントS1〜S6,S8〜S13を3個の階層に分割して階層毎に固定受信機向けの標準テレビ放送(Standard Definition Television)を提供したり、中央に配置された1セグメントS7のみを用いて移動体向けデジタル放送(簡易動画放送)を提供したりすることができる。圧縮符号化/復号化規格として、固定受信機向けデジタル放送ではMPEG−2(Moving Picture Experts Group phase 2)規格が採用され、移動体向けデジタル放送ではH.264(MPEG4 AVC)規格が採用されている。   Japanese terrestrial digital broadcasting is defined by the ISDB-T (Integrated Services Digital Broadcasting Terrestrial) standard, and employs OFDM (Orthogonal Frequency Division Multiplexing) modulation and hierarchical transmission schemes. According to the ISDB-T standard, as schematically shown in FIG. 1, the transmission bandwidth of one channel (about 5.6 MHz) is divided into 13 subbands, that is, OFDM segments S1 to S13. Segments S1-S13 can be further divided into a maximum of three groups or hierarchies. Different transmission characteristics such as carrier modulation scheme, inner code coding rate, and time interleave length can be set for each layer, and different broadcast programs can be transmitted for each layer. For example, 12 OFDM segments S1 to S6, S8 to S13 are used to provide high quality high definition television (High Definition Television) for fixed receivers, or 12 OFDM segments S1 to S6 and S8 to S13 are provided. Divided into three layers to provide standard definition television (Standard Definition Television) for fixed receivers for each layer, or digital broadcasting for mobiles (simple video broadcasting using only one segment S7 arranged in the center) ). As a compression encoding / decoding standard, MPEG-2 (Moving Picture Experts Group phase 2) standard is adopted for digital broadcasting for fixed receivers, and H.264 is used for digital broadcasting for mobiles. H.264 (MPEG4 AVC) standard is adopted.

地上デジタル放送が本格的に開始される当初には、放送事業者が、同一内容の番組を固定受信機向けデジタル放送と移動体向けデジタル放送との双方で同時に提供するという、いわゆるサイマルキャスト(サイマル放送)が予定されている。そこで、車両などの移動体において、サイマルキャストを利用して極力高品質のデジタル放送を受信する技術がいくつか提案されている。たとえば、特許文献1(特開2004−312361号公報)および特許文献2(特開2004−166173号公報)では、受信品質に応じて、移動体向けのデジタル放送と固定受信機向けデジタル放送との間で受信放送を自動的に切り換える受信装置が開示されている。   At the beginning of full-scale digital terrestrial broadcasting, so-called simulcast (simultaneous broadcasting), in which broadcasters provide programs with the same content on both fixed receiver digital broadcasting and mobile digital broadcasting simultaneously. Broadcasting) is scheduled. Thus, several techniques have been proposed for receiving high-quality digital broadcasting as much as possible using a simulcast in a moving body such as a vehicle. For example, in Patent Document 1 (Japanese Patent Application Laid-Open No. 2004-312361) and Patent Document 2 (Japanese Patent Application Laid-Open No. 2004-166173), depending on reception quality, digital broadcasting for a mobile unit and digital broadcasting for a fixed receiver are used. A receiving device that automatically switches between receiving broadcasts is disclosed.

しかしながら、前記特許文献1,2に開示される受信装置では、移動体向けのデジタル放送と固定受信機向けのデジタル放送との一方から他方へ受信放送が切り換えられたときに、表示映像の画質が突然変化するので、視覚的に不自然な映像が表示され、放送番組を試聴する者に違和感を与えるという問題がある。たとえば、固定受信機向けデジタル放送の高解像度映像から移動体向けのデジタル放送の低解像度映像へ切り替わったとき、字幕、人物の顔画像または空間周波数の高い模様などの画像情報が突然識別できなくなり得る。
特開2004−312361号公報 特開2004−166173号公報
However, in the receiving apparatuses disclosed in Patent Documents 1 and 2, when the received broadcast is switched from one of the digital broadcast for the mobile body and the digital broadcast for the fixed receiver to the other, the image quality of the display video is Since it changes suddenly, there is a problem that visually unnatural images are displayed, which gives a sense of discomfort to those who listen to broadcast programs. For example, when switching from a high-resolution video of a digital broadcast for a fixed receiver to a low-resolution video of a digital broadcast for a moving body, image information such as subtitles, a human face image, or a pattern with a high spatial frequency may suddenly become unidentifiable. .
Japanese Patent Laid-Open No. 2004-312361 JP 2004-166173 A

上記に鑑みて本発明の目的は、サイマルキャストで提供されている複数のデジタル放送の受信信号から極力高品質或いは極力視覚的に自然な表示映像を生成し得る信号処理装置、信号処理方法および信号処理プログラム並びにデジタル放送受信装置を提供することである。   In view of the above, an object of the present invention is to provide a signal processing device, a signal processing method, and a signal that can generate a display image that is as high-quality or visually natural as possible from a plurality of digital broadcast reception signals provided by simulcast. It is to provide a processing program and a digital broadcast receiving apparatus.

本発明の一態様による信号処理装置は、サイマルキャストされた第1のデジタル放送と第2のデジタル放送との双方の受信信号からそれぞれ生成された第1および第2の符号化ビットストリームを処理する信号処理装置であって、前記第1の符号化ビットストリームのエラーを検出するエラー監視部と、前記第1の符号化ビットストリームを解析して第1のシンタックス要素を取得するとともに、前記第1の符号化ビットストリームのフレーム内符号化画像を復号化して復号画像を再生し且つ前記第1の符号化ビットストリームの予測符号化画像を復号化して第1の差分画像を再生する第1逆変換処理部と、復号画像を参照して前記第1のシンタックス要素を用いた第1の動き補償予測を実行することにより前記第1の差分画像に加算すべき第1の予測画像を生成する第1動き補償部と、前記第2の符号化ビットストリームを解析して第2のシンタックス要素を取得するとともに、前記第2の符号化ビットストリームのフレーム内符号化画像を復号化して復号画像を再生し且つ前記第2の符号化ビットストリームの予測符号化画像を復号化して第2の差分画像を再生する第2逆変換処理部と、前記第2のシンタックス要素を、前記第1の符号化ビットストリームの画像フォーマットに適合したシンタックス要素へ変換するシンタックス要素変換部と、復号画像を参照して当該変換されたシンタックス要素を用いた第2の動き補償予測を実行することにより前記第2の差分画像に加算すべき第2の予測画像を生成する第2動き補償部と、前記エラーが検出されないとき、前記第1の差分画像に前記第1の予測画像を加算して再生した第1の復号画像を出力させる一方、前記エラーが検出されたときは、前記第2の差分画像に前記第2の予測画像を加算して再生した第2の復号画像を前記第1の復号画像に代えて出力させる出力制御部と、を備えたものである。   A signal processing apparatus according to an aspect of the present invention processes first and second encoded bit streams respectively generated from reception signals of both a first digital broadcast and a second digital broadcast that have been simulcast. An error monitoring unit that detects an error in the first encoded bitstream, obtains a first syntax element by analyzing the first encoded bitstream, and A first inverse in which an intra-frame encoded image of one encoded bit stream is decoded to reproduce a decoded image, and a predicted encoded image of the first encoded bit stream is decoded to reproduce a first difference image It should be added to the first difference image by executing the first motion compensated prediction using the first syntax element with reference to the transformation processing unit and the decoded image A first motion compensation unit that generates one predicted image; and a second syntax element obtained by analyzing the second encoded bitstream, and intra-frame encoding of the second encoded bitstream A second inverse transform processing unit that decodes an image to reproduce a decoded image and decodes a predicted encoded image of the second encoded bitstream to reproduce a second difference image; and the second syntax A syntax element conversion unit that converts the element into a syntax element suitable for the image format of the first encoded bitstream, and a second motion using the converted syntax element with reference to the decoded image A second motion compensator that generates a second predicted image to be added to the second difference image by executing compensated prediction; and when the error is not detected, the first difference When the error is detected, the second predicted image is added to the second difference image while the first decoded image reproduced by adding the first predicted image to the image is output. And an output control unit that outputs the reproduced second decoded image instead of the first decoded image.

本発明の一態様によるデジタル放送受信装置は、サイマルキャストされた第1のデジタル放送と第2のデジタル放送との双方の受信信号を処理するデジタル放送受信装置であって、前記第1および第2のデジタル放送の受信信号からそれぞれ第1および第2の符号化ビットストリームを生成する復調回路と、前記信号処理装置と、を備えたものである。   A digital broadcast receiving apparatus according to an aspect of the present invention is a digital broadcast receiving apparatus that processes reception signals of both a first digital broadcast and a second digital broadcast that have been simulcast. A demodulating circuit for generating first and second encoded bit streams from the received signal of the digital broadcasting, and the signal processing device.

本発明の一態様による信号処理方法は、サイマルキャストされた第1のデジタル放送と第2のデジタル放送との双方の受信信号からそれぞれ生成された第1および第2の符号化ビットストリームを処理する信号処理方法であって、(a)前記第1の符号化ビットストリームのエラーを検出するステップと、(b)前記第1の符号化ビットストリームを解析して第1のシンタックス要素を取得するステップと、(c)前記第1の符号化ビットストリームのフレーム内符号化画像を復号化して復号画像を再生し、且つ前記第1の符号化ビットストリームの予測符号化画像を復号化して第1の差分画像を再生するステップと、(d)復号画像を参照して前記第1のシンタックス要素を用いた第1の動き補償予測を実行することにより前記第1の差分画像に加算すべき第1の予測画像を生成するステップと、(e)前記第2の符号化ビットストリームを解析して第2のシンタックス要素を取得するステップと、(f)前記第2の符号化ビットストリームのフレーム内符号化画像を復号化して復号画像を再生し、且つ前記第2の符号化ビットストリームの予測符号化画像を復号化して第2の差分画像を再生するステップと、(g)復号画像を参照して当該変換されたシンタックス要素を用いた第2の動き補償予測を実行することにより前記第2の差分画像に加算すべき第2の予測画像を生成するステップと、(h)前記エラーが検出されないとき、前記第1の差分画像に前記第1の予測画像を加算して再生した第1の復号画像を出力させる一方、前記エラーが検出されたときは、前記第2の差分画像に前記第2の予測画像を加算して再生した第2の復号画像を前記第1の復号画像に代えて出力させるステップと、を備えたものである。   A signal processing method according to an aspect of the present invention processes first and second encoded bit streams respectively generated from reception signals of both a first digital broadcast and a second digital broadcast that have been simulcast. A signal processing method comprising: (a) detecting an error in the first encoded bitstream; and (b) analyzing the first encoded bitstream to obtain a first syntax element. And (c) decoding an intra-frame encoded image of the first encoded bitstream to reproduce a decoded image, and decoding a predictive encoded image of the first encoded bitstream to obtain a first And (d) performing the first motion compensated prediction using the first syntax element with reference to the decoded image, thereby reproducing the first difference image. Generating a first predicted image to be added to the image; (e) analyzing the second encoded bitstream to obtain a second syntax element; and (f) the second Decoding an intra-frame encoded image of the encoded bitstream to reproduce a decoded image, and decoding a predictive encoded image of the second encoded bitstream to reproduce a second difference image; g) generating a second predicted image to be added to the second difference image by executing a second motion compensated prediction using the transformed syntax element with reference to the decoded image; (H) When the error is not detected, the first decoded image reproduced by adding the first predicted image to the first difference image is output. On the other hand, when the error is detected, the first difference image is output. Difference of two A step of outputting in place the second decoded image reproduced by adding the second predictive image to the image on the first decoded image, those having a.

本発明の一態様による信号処理プログラムは、サイマルキャストされた高品質な第1のデジタル放送と低品質な第2のデジタル放送との双方の受信信号からそれぞれ生成された第1および第2の符号化ビットストリームの処理をプロセッサに実行させる信号処理プログラムであって、前記処理は、前記第1の符号化ビットストリームのエラーを検出するエラー検出処理と、前記第1の符号化ビットストリームを解析して第1のシンタックス要素を取得する第1解析処理と、前記第1の符号化ビットストリームのフレーム内符号化画像を復号化して復号画像を再生し、且つ前記第1の符号化ビットストリームの予測符号化画像を復号化して第1の差分画像を再生する第1逆変換処理と、復号画像を参照して前記第1のシンタックス要素を用いた第1の動き補償予測を実行することにより前記第1の差分画像に加算すべき第1の予測画像を生成する第1動き補償処理と、前記第2の符号化ビットストリームを解析して第2のシンタックス要素を取得する第2解析処理と、前記第2の符号化ビットストリームのフレーム内符号化画像を復号化して復号画像を再生し、且つ前記第2の符号化ビットストリームの予測符号化画像を復号化して第2の差分画像を再生する第2逆変換処理と、復号画像を参照して当該変換されたシンタックス要素を用いた第2の動き補償予測を実行することにより前記第2の差分画像に加算すべき第2の予測画像を生成する第2動き補償処理と、前記エラーが検出されないとき、前記第1の差分画像に前記第1の予測画像を加算して再生した第1の復号画像を出力させる一方、前記エラーが検出されたときは、前記第2の差分画像に前記第2の予測画像を加算して再生した第2の復号画像を前記第1の復号画像に代えて出力させる出力制御処理と、を備えたものである。   A signal processing program according to an aspect of the present invention includes first and second codes generated from received signals of both a high-quality first digital broadcast and a low-quality second digital broadcast that are simulcast, respectively. A signal processing program for causing a processor to execute processing of a coded bitstream, wherein the processing analyzes an error detection process for detecting an error in the first coded bitstream, and analyzes the first coded bitstream A first analysis process for obtaining a first syntax element, decoding an intra-frame encoded image of the first encoded bitstream to reproduce a decoded image, and the first encoded bitstream A first inverse transform process for decoding a predictive encoded image and reproducing a first difference image, and using the first syntax element with reference to the decoded image A first motion compensation process for generating a first predicted image to be added to the first difference image by executing a first motion compensation prediction; and a second motion analysis by analyzing the second encoded bitstream A second analysis process for obtaining a syntax element; an intra-frame encoded image of the second encoded bitstream; a decoded image is reproduced; and a predicted encoded image of the second encoded bitstream The second inverse transform process for reproducing the second difference image and the second motion compensated prediction using the transformed syntax element with reference to the decoded image and executing the second motion compensation prediction A second motion compensation process for generating a second predicted image to be added to the difference image, and a first reproduced by adding the first predicted image to the first difference image and reproducing when the error is not detected Output decoded image On the other hand, when the error is detected, output control is performed to output the second decoded image reproduced by adding the second predicted image to the second differential image instead of the first decoded image. Processing.

図1は、13個のOFDMセグメントを示す図である。FIG. 1 is a diagram illustrating 13 OFDM segments. 図2は、本発明に係る第1実施例のデジタル放送受信装置の概略構成を示す機能ブロック図である。FIG. 2 is a functional block diagram showing a schematic configuration of the digital broadcast receiving apparatus according to the first embodiment of the present invention. 図3は、第1デコーダおよび第2デコーダの各構成例を概略的に示す機能ブロック図である。FIG. 3 is a functional block diagram schematically showing configuration examples of the first decoder and the second decoder. 図4は、ベクトル情報変換処理の一例を説明するための図である。FIG. 4 is a diagram for explaining an example of vector information conversion processing. 図5は、ベクトル情報変換処理の他の例を説明するための図である。FIG. 5 is a diagram for explaining another example of the vector information conversion process. 図6は、本発明に係る第2実施例のデジタル放送受信装置の概略構成を示す機能ブロック図である。FIG. 6 is a functional block diagram showing a schematic configuration of the digital broadcast receiving apparatus according to the second embodiment of the present invention. 図7は、第2実施例のデコーダ・ブロックの概略構成を示す機能ブロック図である。FIG. 7 is a functional block diagram showing a schematic configuration of the decoder block of the second embodiment.

符号の説明Explanation of symbols

1A,1B デジタル放送受信装置
2 受信回路(フロントエンド)
3A,3B 信号処理回路
10 アンテナ
11 チューナ
12 復調回路
20 エラー監視部
21 デマルチプレキサ(DMUX)
22 第1デコーダ
23 第2デコーダ
24 信号出力部
25 画像変換部
26 シンタックス要素変換部
27 制御部
28 入力部
29 デコーダ・ブロック
1A, 1B Digital broadcast receiver 2 Receiver circuit (front end)
3A, 3B Signal processing circuit 10 Antenna 11 Tuner 12 Demodulation circuit 20 Error monitoring unit 21 Demultiplexer (DMUX)
22 first decoder 23 second decoder 24 signal output unit 25 image conversion unit 26 syntax element conversion unit 27 control unit 28 input unit 29 decoder block

発明を実施するための形態BEST MODE FOR CARRYING OUT THE INVENTION

本出願は、日本国特許出願第2005−349352号を優先権主張の基礎とするものであり、当該基礎出願の内容は本願に援用されるものとする。   This application uses Japanese Patent Application No. 2005-349352 as the basis of the priority claim, and the contents of the basic application are incorporated in the present application.

以下、本発明に係る種々の実施例について説明する。   Hereinafter, various embodiments according to the present invention will be described.

第1実施例First embodiment

図2は、本発明に係る第1実施例のデジタル放送受信装置1Aの概略構成を示す機能ブロック図である。このデジタル放送受信装置1Aは、アンテナ10と受信回路(フロントエンド)2と信号処理回路3Aとで構成されている。受信回路2は、チューナ11と復調回路12とを有する。信号処理回路3Aは、エラー監視部20、デマルチプレキサ(DMUX)21、第1デコーダ22、第2デコーダ23、信号出力部24、画像変換部25、シンタックス要素変換部26、制御部27および入力部28を有している。制御部(出力制御部)27は、エラー監視部20、第1デコーダ22、第2デコーダ23および信号出力部24の動作を個別に制御することができる。   FIG. 2 is a functional block diagram showing a schematic configuration of the digital broadcast receiving apparatus 1A according to the first embodiment of the present invention. The digital broadcast receiving apparatus 1A includes an antenna 10, a receiving circuit (front end) 2, and a signal processing circuit 3A. The reception circuit 2 includes a tuner 11 and a demodulation circuit 12. The signal processing circuit 3A includes an error monitoring unit 20, a demultiplexer (DMUX) 21, a first decoder 22, a second decoder 23, a signal output unit 24, an image conversion unit 25, a syntax element conversion unit 26, a control unit 27, and An input unit 28 is provided. The control unit (output control unit) 27 can individually control the operations of the error monitoring unit 20, the first decoder 22, the second decoder 23, and the signal output unit 24.

図2を参照すると、チューナ11は、制御部27の指示に応じてアンテナ10で受信すべき放送局を選局し、放送波の受信信号を周波数変換してOFDM(Orthogonal Frequency Division Multiplexing)信号を生成する。復調回路12は、チューナ11からのOFDM信号にFFT(高速フーリエ変換)を施してOFDM復調信号を生成し、さらにこのOFDM復調信号に対してデインターリーブ、デマッピングおよび誤り訂正などの復号化処理を施してトランスポートストリームTSを生成する。なお、チューナ11は、地上波デジタル放送、衛星デジタル放送および有線デジタル放送のうちの1つまたは複数の放送を受信する機能を有していればよいが、これらのデジタル放送に限らず、インターネットなどのコンピュータ・ネットワークを介して送信されたデジタル放送を受信する機能を有してもよい。   Referring to FIG. 2, the tuner 11 selects a broadcast station to be received by the antenna 10 in accordance with an instruction from the control unit 27, converts the frequency of the received broadcast wave signal, and generates an OFDM (Orthogonal Frequency Division Multiplexing) signal. Generate. The demodulation circuit 12 performs an FFT (Fast Fourier Transform) on the OFDM signal from the tuner 11 to generate an OFDM demodulated signal, and further performs decoding processing such as deinterleaving, demapping, and error correction on the OFDM demodulated signal. To generate a transport stream TS. The tuner 11 may have a function of receiving one or a plurality of broadcasts among terrestrial digital broadcasts, satellite digital broadcasts, and cable digital broadcasts. It may have a function of receiving a digital broadcast transmitted via the computer network.

デマルチプレキサ21は、エラー監視部20を介して復調回路12から供給されるトランスポートストリームTSを階層分割し、トランスポートストリームTSから、固定受信機向けデジタル放送のビデオ用のエレメンタリストリームES1と、移動体向けデジタル放送のビデオ用のエレメンタリストリームES2とを分離する。分離された一方のエレメンタリストリームES1は第1デコーダ22に供給され、他方のエレメンタリストリームES2は第2デコーダ23に供給される。本実施例では、一方のエレメンタリストリームES1は、高品質の圧縮符号ビット列であり、他方のエレメンタリストリームES2は、比較的低品質の圧縮符号ビット列である。日本の地上波デジタル放送の場合、エレメンタリストリームES1はMPEG−2(Moving Picture Coding Experts Group phase 2)規格(MPEG-2 standard)に準拠し、エレメンタリストリームES2はH.264規格に準拠している。なお、エラー監視部20と制御部27とが分離しているが、エラー監視部20と制御部27とで本発明の「エラー監視部」が構成され得る。   The demultiplexer 21 hierarchically divides the transport stream TS supplied from the demodulation circuit 12 via the error monitoring unit 20, and from the transport stream TS, an elementary stream ES1 for video of digital broadcasting for fixed receivers The video elementary stream ES2 for digital broadcasting for mobiles is separated. One separated elementary stream ES1 is supplied to the first decoder 22, and the other elementary stream ES2 is supplied to the second decoder. In the present embodiment, one elementary stream ES1 is a high-quality compression code bit string, and the other elementary stream ES2 is a relatively low-quality compression code bit string. In the case of Japanese terrestrial digital broadcasting, elementary stream ES1 conforms to the MPEG-2 (Moving Picture Coding Experts Group phase 2) standard (MPEG-2 standard). H.264 standard. Although the error monitoring unit 20 and the control unit 27 are separated, the error monitoring unit 20 and the control unit 27 can constitute the “error monitoring unit” of the present invention.

エラー監視部20は、復調回路12からのトランスポートストリームTSを常時監視し、トランスポートストリームTSにおける訂正不可能なビットエラーを検出し、このビットエラーの発生位置とビットエラーレートとを表すエラー情報を制御部27に供給する。制御部27は、エラー監視部20からのエラー情報に基づいて、エレメンタリストリームES1についてのビットエラーレートBerが許容値(閾値)を超えればエラーが存在すると判定し、ビットエラーレートが前記許容値以下であればエラーが存在しないと判定することができる。許容値は、ユーザーが入力部28を操作することにより適宜設定できる。なお、本実施例では、制御部27がビットエラーレートBerに基づいてエラーの有無を判定することを好ましい例とするが、これに限定されるものではない。たとえば、受信回路2がデジタル放送の受信信号のC/N比(搬送波電力対ノイズ電力比)を検出する場合には、制御部27は、このC/N比が所望値未満であればエラーが発生したと判定することも可能である。   The error monitoring unit 20 constantly monitors the transport stream TS from the demodulation circuit 12, detects an uncorrectable bit error in the transport stream TS, and indicates error information indicating the occurrence position of this bit error and the bit error rate. Is supplied to the control unit 27. Based on the error information from the error monitoring unit 20, the control unit 27 determines that an error exists if the bit error rate Ber for the elementary stream ES1 exceeds an allowable value (threshold), and the bit error rate is the allowable value. If it is below, it can be determined that there is no error. The allowable value can be appropriately set by the user operating the input unit 28. In this embodiment, it is preferable that the control unit 27 determines the presence / absence of an error based on the bit error rate Ber, but the present invention is not limited to this. For example, when the receiving circuit 2 detects the C / N ratio (carrier power to noise power ratio) of the received signal of digital broadcasting, the control unit 27 gives an error if the C / N ratio is less than a desired value. It is also possible to determine that it has occurred.

第1デコーダ22は、エントロピー復号化の際にエレメンタリストリーム(第1の符号化ビットストリーム)ES1を解析することで、当該エレメンタリストリームES1のシンタックス(規則)を示すパラメータ群すなわちシンタックス要素(syntax elements)を取得する。MPEG−2やH.264などの圧縮符号化/復号化規格では、符号化または多重化されたビット列(ビットストリーム)の構造を記述し解読するためのシンタックス(規則)が規定されている。第2デコーダ23も、エントロピー復号化の際にエレメンタリストリーム(第2の符号化ビットストリーム)ES2を解析することで、当該エレメンタリストリームES2のシンタックス要素を得る。このようなシンタックス要素としては、動きベクトル、量子化パラメータ、マクロブロックタイプおよび参照フレーム番号(reference frame index)などが挙げられる。   The first decoder 22 analyzes the elementary stream (first encoded bit stream) ES1 at the time of entropy decoding, and thereby a parameter group indicating the syntax (rule) of the elementary stream ES1, that is, a syntax element Get (syntax elements). MPEG-2 and H.264 A compression coding / decoding standard such as H.264 defines a syntax (rule) for describing and decoding a structure of a coded or multiplexed bit string (bit stream). The second decoder 23 also analyzes the elementary stream (second encoded bit stream) ES2 at the time of entropy decoding, thereby obtaining the syntax element of the elementary stream ES2. Examples of such syntax elements include a motion vector, a quantization parameter, a macroblock type, and a reference frame index.

シンタックス要素変換部26は、第2デコーダ23で取得されたシンタックス要素を、エレメンタリストリームES1の画像フォーマットに適合したパラメータ群からなるシンタックス要素に変換し、当該変換されたシンタックス要素を第1デコーダ22に与える。一方、第2デコーダ23は、動き補償予測モード(フレーム間予測モード)で動作するとき、動き補償予測を実行することにより予測画像を生成するとともに、この予測画像に加算すべき差分画像を生成する。画像変換部25は、この第2デコーダ23から供給された差分画像に基づいて補間や解像度変換等により差分画像を生成し第1デコーダ22に与えることができる。   The syntax element conversion unit 26 converts the syntax element acquired by the second decoder 23 into a syntax element including a parameter group suitable for the image format of the elementary stream ES1, and converts the converted syntax element. This is given to the first decoder 22. On the other hand, when the second decoder 23 operates in the motion compensation prediction mode (interframe prediction mode), the second decoder 23 generates a prediction image by executing motion compensation prediction and also generates a difference image to be added to the prediction image. . The image conversion unit 25 can generate a difference image by interpolation, resolution conversion, or the like based on the difference image supplied from the second decoder 23 and provide the difference image to the first decoder 22.

図3は、第1デコーダ22および第2デコーダ23の各構成例を概略的に示す機能ブロック図である。図3の例では、制御部27がエラーを検出しないとき、第1デコーダ22は、通常のMPEG−2規格に基づいた復号化を実行し、制御部27がエラーを検出したときは、第1デコーダ22は、シンタックス要素変換部26からの当該変換されたシンタックス要素と画像変換部25からの差分画像とを用いてH.264規格に基づいた復号化を実行し得る。   FIG. 3 is a functional block diagram schematically showing each configuration example of the first decoder 22 and the second decoder 23. In the example of FIG. 3, when the control unit 27 does not detect an error, the first decoder 22 performs decoding based on the normal MPEG-2 standard, and when the control unit 27 detects an error, the first decoder 22 The decoder 22 uses the converted syntax element from the syntax element conversion unit 26 and the difference image from the image conversion unit 25 to perform H.264 decoding. Decryption based on the H.264 standard may be performed.

図3に示される通り、第1デコーダ22は、一般的なMPEG−2デコーダの構成として、エントロピー復号化部(ED)30,逆量子化部(IQ)31,逆直交変換部(IOT)32,第1動き補償部(MC1)34A,フレームバッファメモリ35および加算器36を有する。ハイブリッド動き補償部34は、第1動き補償部34Aと第2動き補償部34Bとからなる。なお、エントロピー復号化部30,逆量子化部31および逆直交変換部32によって本発明の「第1逆変換処理部」が構成され得る。   As shown in FIG. 3, the first decoder 22 has an entropy decoding unit (ED) 30, an inverse quantization unit (IQ) 31, and an inverse orthogonal transform unit (IOT) 32 as a general MPEG-2 decoder configuration. , A first motion compensation unit (MC1) 34A, a frame buffer memory 35, and an adder 36. The hybrid motion compensation unit 34 includes a first motion compensation unit 34A and a second motion compensation unit 34B. The entropy decoding unit 30, the inverse quantization unit 31, and the inverse orthogonal transform unit 32 may constitute the “first inverse transform processing unit” of the present invention.

第1デコーダ22がMPEG−2デコーダとして動作する間、第1スイッチ33Aは、制御信号SW1に応じて、エントロピー復号化部30とハイブリッド動き補償部34との間を接続する一方、第2スイッチ33Bは、制御信号SW1に応じて、逆直交変換部32と加算器36との間を接続する。   While the first decoder 22 operates as an MPEG-2 decoder, the first switch 33A connects between the entropy decoding unit 30 and the hybrid motion compensation unit 34 according to the control signal SW1, while the second switch 33B. Connects between the inverse orthogonal transform unit 32 and the adder 36 in accordance with the control signal SW1.

さらに、第1デコーダ22は、H.264規格に準じた構成として、第2動き補償部(MC2)34B、イントラ予測部(IP)37および第3スイッチ38を有する。ハイブリッド動き補償部34は、制御部27がエラーを検出しないときに制御信号SW1に応じて、MPEG−2規格に基づいた動き補償予測を実行する第1動き補償部34Aと、制御部27がエラーを検出したときに制御信号SW1に応じて、H.264規格に基づいた動き補償予測を実行する第2動き補償部34Bとからなるものである。制御部27がエラーを検出しないとき、第3スイッチ38は、制御部27からの制御信号SW2に応じてハイブリッド動き補償部34と加算器36との間を常時接続する一方、制御部27がエラーを検出したときは、第3スイッチ38は、H.264規格に準じた動作モードに応じて、加算器36をイントラ予測部37とハイブリッド動き補償部34とのいずれか一方に選択的に接続することが可能になる。制御部27がエラーを検出したとき、エントロピー復号化部30は、シンタックス要素に基づいて、第1デコーダ22の動作モードを、H.264規格に基づいた動き補償予測モードとイントラ予測モードとのいずれにすべきかを判断し、第3スイッチ38は、エントロピー復号化部30から供給される動作モードの切替情報(図示せず)に応じて、ハイブリッド動き補償部34とイントラ予測部37との間を切り替える。   Further, the first decoder 22 is connected to the H.264 decoder. As a configuration conforming to the H.264 standard, a second motion compensation unit (MC2) 34B, an intra prediction unit (IP) 37, and a third switch 38 are provided. The hybrid motion compensation unit 34 includes a first motion compensation unit 34A that performs motion compensation prediction based on the MPEG-2 standard in response to the control signal SW1 when the control unit 27 does not detect an error. In response to the control signal SW1 when H. is detected. The second motion compensation unit 34B executes motion compensation prediction based on the H.264 standard. When the control unit 27 does not detect an error, the third switch 38 always connects the hybrid motion compensation unit 34 and the adder 36 according to the control signal SW2 from the control unit 27, while the control unit 27 detects an error. When the third switch 38 detects H.E. It is possible to selectively connect the adder 36 to either the intra prediction unit 37 or the hybrid motion compensation unit 34 according to the operation mode conforming to the H.264 standard. When the control unit 27 detects an error, the entropy decoding unit 30 changes the operation mode of the first decoder 22 based on the syntax element to H.264. The third switch 38 determines whether the motion compensation prediction mode or the intra prediction mode based on the H.264 standard should be selected, and the third switch 38 responds to switching information (not shown) of the operation mode supplied from the entropy decoding unit 30. Thus, the hybrid motion compensation unit 34 and the intra prediction unit 37 are switched.

一方、図3に示される通り、第2デコーダ23は、H.264デコーダの構成として、エントロピー復号化部(ED)40、逆量子化部(IQ)41、逆直交変換部(IOT)42、動き補償部(MC)43、イントラ予測部(IP)44、スイッチ45、フレームバッファメモリ46、加算器47およびデブロッキングフィルタ48を有する。なお、エントロピー復号化部40,逆量子化部41および逆直交変換部42によって本発明の「第2逆変換処理部」が構成され得る。   On the other hand, as shown in FIG. As the configuration of the H.264 decoder, an entropy decoding unit (ED) 40, an inverse quantization unit (IQ) 41, an inverse orthogonal transform unit (IOT) 42, a motion compensation unit (MC) 43, an intra prediction unit (IP) 44, a switch 45, a frame buffer memory 46, an adder 47, and a deblocking filter 48. The entropy decoding unit 40, the inverse quantization unit 41, and the inverse orthogonal transform unit 42 can constitute the “second inverse transform processing unit” of the present invention.

図2を参照すると、信号出力部24は、第1デコーダ22からの復号画像信号DO1と第2デコーダ23からの復号画像信号DO2とのいずれか一方を、制御部27からの指示に応じて選択し、選択した信号を出力画像信号CSとして出力することができる。   Referring to FIG. 2, the signal output unit 24 selects one of the decoded image signal DO1 from the first decoder 22 and the decoded image signal DO2 from the second decoder 23 in accordance with an instruction from the control unit 27. The selected signal can be output as the output image signal CS.

以上の構成を有するデジタル放送受信装置1Aの動作を以下に説明する。2つのデジタル放送がサイマルキャストされているか否かについては、たとえばEPG(電子番組表)情報を取得し、この情報に基づいて制御部27が判定することができる。制御部27は、サイマルキャストされたデジタル放送が受信されていないと判定したとき、信号出力部24に対して復号画像信号DO1またはDO2のいずれか一方を選択的に出力画像信号CSとして出力させることができる。或いは、ユーザーによる入力部28の操作に応じて、制御部27は、信号出力部24に対して復号画像信号DO1またはDO2のいずれか一方を選択的に出力画像信号CSとして出力させることも可能である。   The operation of the digital broadcast receiving apparatus 1A having the above configuration will be described below. Whether or not the two digital broadcasts are simulcast can be determined by, for example, obtaining EPG (electronic program guide) information and determining the control unit 27 based on this information. When the control unit 27 determines that the simulcast digital broadcast is not received, the control unit 27 causes the signal output unit 24 to selectively output one of the decoded image signal DO1 and DO2 as the output image signal CS. Can do. Alternatively, the control unit 27 can cause the signal output unit 24 to selectively output one of the decoded image signals DO1 and DO2 as the output image signal CS according to the operation of the input unit 28 by the user. is there.

以下に説明する動作は、デジタル放送受信装置1Aが、サイマルキャストされた固定受信機向けデジタル放送と移動体向けデジタル放送とを同時に受信していることを前提とする。先ず、制御部27がエラーを検出しないときの第1デコーダ22と第2デコーダ23の各動作について以下に説明する。このとき、第1デコーダ22の第1スイッチ33Aは、ハイブリッド動き補償部34とエントロピー復号化部40との間を接続し、第2スイッチ33Bは、加算器36と逆直交変換部32との間を接続する。   The operation described below is based on the premise that the digital broadcast receiving apparatus 1A is receiving simultaneous broadcast digital broadcasts for fixed receivers and mobile broadcasts simultaneously. First, each operation of the first decoder 22 and the second decoder 23 when the control unit 27 does not detect an error will be described below. At this time, the first switch 33A of the first decoder 22 connects between the hybrid motion compensation unit 34 and the entropy decoding unit 40, and the second switch 33B connects between the adder 36 and the inverse orthogonal transform unit 32. Connect.

第1デコーダ22は、エレメンタリストリームES1をマクロブロック毎に復号化する。たとえば4:2:0信号の場合、マクロブロックは、16×16画素の輝度信号(Y)と、この輝度信号の空間的な位置に対応する2種類の8×8画素の色差信号(Cb,Cr)とで構成される。エントロピー復号化部30は、エレメンタリストリームES1に対して、たとえば可変長復号化(Variable Length Decoding)などのエントロピー復号化を施して量子化係数を生成するとともにエレメンタリストリームES1を解析してシンタックス要素を取得する。逆量子化部31は、シンタックス要素の1つである量子化パラメータに従って量子化係数を逆量子化してDCT(Discrete Cosine Transform)の変換係数を生成し、さらに逆直交変換部32は、これら変換係数を逆直交変換(たとえば、逆DCT変換)して画像信号を生成し、この画像信号を第2スイッチ33Bを介して加算器36に供給する。   The first decoder 22 decodes the elementary stream ES1 for each macroblock. For example, in the case of a 4: 2: 0 signal, the macroblock has a luminance signal (Y) of 16 × 16 pixels and two kinds of color difference signals (Cb, 8 × 8 pixels) corresponding to spatial positions of the luminance signals. Cr). The entropy decoding unit 30 performs entropy decoding such as variable length decoding on the elementary stream ES1 to generate a quantized coefficient, and analyzes the elementary stream ES1 to generate syntax. Get the element. The inverse quantization unit 31 generates a transform coefficient of DCT (Discrete Cosine Transform) by inversely quantizing the quantization coefficient in accordance with a quantization parameter which is one of syntax elements, and the inverse orthogonal transform unit 32 further converts these transforms. The coefficients are subjected to inverse orthogonal transform (for example, inverse DCT transform) to generate an image signal, and this image signal is supplied to the adder 36 via the second switch 33B.

エントロピー復号化部30の出力がイントラ符号化画像(フレーム内符号化画像;intra-frame coded images)のとき、第1デコーダ22はイントラモードで動作する。このとき、第3スイッチ38はハイブリッド動き補償部34に接続されているが、ハイブリッド動き補償部34はデータを出力しない。したがって、加算器36は、第2スイッチ33Bからの画像信号をそのまま復号画像信号DO1として外部に出力する。また、加算器36の出力である復号画像はフレームバッファメモリ35に蓄積される。   When the output of the entropy decoding unit 30 is an intra-coded image (intra-frame coded image), the first decoder 22 operates in the intra mode. At this time, the third switch 38 is connected to the hybrid motion compensation unit 34, but the hybrid motion compensation unit 34 does not output data. Therefore, the adder 36 outputs the image signal from the second switch 33B as it is to the outside as the decoded image signal DO1. The decoded image that is the output of the adder 36 is accumulated in the frame buffer memory 35.

一方、エントロピー復号化部30の出力が動き補償予測による予測符号化画像(フレーム間符号化画像;inter-frame coded images)の場合、第1デコーダ22は動き補償予測モードで動作する。このとき、第1動き補償部34Aには、エントロピー復号化部30から第1スイッチ33Aを介して動きベクトル情報が入力される。第1動き補償部34Aは、フレームバッファメモリ35から参照画像を読み出し、この参照画像から1/2画素精度(ハーフペル精度)で動きベクトルで指定される領域の予測画像を生成し、その予測画像を第3スイッチ38を介して加算器36に与える。なお、予測画像としては、(1)時間的に前の参照画像から順方向に予測された画像、または(2)時間的に前後両方の2枚の参照画像から予測(内挿)された画像、があり得る。そして、加算器36は、逆直交変換部32から第2スイッチ33Bを介して入力された差分画像に予測画像を加算することで復号画像を再生する。この再生された復号画像は、復号画像信号DO1として外部に出力されると同時にフレームバッファメモリ35に蓄積される。   On the other hand, when the output of the entropy decoding unit 30 is a prediction encoded image (inter-frame coded image) by motion compensation prediction, the first decoder 22 operates in the motion compensation prediction mode. At this time, motion vector information is input from the entropy decoding unit 30 to the first motion compensation unit 34A via the first switch 33A. The first motion compensation unit 34A reads a reference image from the frame buffer memory 35, generates a predicted image of a region specified by a motion vector with 1/2 pixel accuracy (half-pel accuracy) from the reference image, and converts the predicted image into The signal is supplied to the adder 36 through the third switch 38. In addition, as a predicted image, (1) an image predicted in the forward direction from the previous reference image in time, or (2) an image predicted (interpolated) from two reference images in both the front and rear in time. There can be. The adder 36 reproduces the decoded image by adding the predicted image to the difference image input from the inverse orthogonal transform unit 32 via the second switch 33B. The reproduced decoded image is output to the outside as the decoded image signal DO1 and is simultaneously stored in the frame buffer memory 35.

第2デコーダ23は、エレメンタリストリームES2をマクロブロック毎に復号化する。マクロブロックのサイズとしては、たとえば、16×16画素,16×8画素,8×16画素または8×8画素の4種類のサイズが指定され、サブブロックのサイズとして8×8画素,8×4画素,4×8画素,4×4画素の4種類のサイズが指定されることもあり得る。エントロピー復号化部40は、エレメンタリストリームES2に対して、可変長復号化(Variable Length Decoding)などのエントロピー符号化を施して量子化係数を生成するとともにエレメンタリストリームES2を解析してシンタックス要素を取得する。逆量子化部41は、シンタックス要素の1つである量子化パラメータに従って量子化係数を逆量子化してDCTの変換係数を生成し、さらに逆直交変換部42は、これら変換係数を整数精度で逆直交変換して画像信号を生成し、この画像信号を加算器47と画像変換部25とに供給する。   The second decoder 23 decodes the elementary stream ES2 for each macroblock. As the size of the macroblock, for example, four types of sizes of 16 × 16 pixels, 16 × 8 pixels, 8 × 16 pixels, or 8 × 8 pixels are designated, and the size of the subblock is 8 × 8 pixels, 8 × 4. Four types of sizes of pixels, 4 × 8 pixels, and 4 × 4 pixels may be designated. The entropy decoding unit 40 performs entropy coding such as variable length decoding on the elementary stream ES2 to generate a quantized coefficient, and analyzes the elementary stream ES2 to generate a syntax element. To get. The inverse quantization unit 41 inversely quantizes the quantization coefficient according to a quantization parameter which is one of syntax elements to generate DCT transform coefficients, and the inverse orthogonal transform unit 42 further converts these transform coefficients with integer precision. The image signal is generated by inverse orthogonal transformation, and the image signal is supplied to the adder 47 and the image conversion unit 25.

エントロピー復号化部40の出力がイントラ符号化画像(フレーム内符号化画像)のとき、第2デコーダ23は、H.264規格に基づいたイントラモードで動作する。このとき、スイッチ45は動き補償部43に接続されているが、動き補償部43はデータを出力しない。したがって、加算器47は、逆直交変換部42からの画像信号をそのままデブロッキングフィルタ48に与える。また、加算器47の出力は、イントラ予測部44にも与えられる。デブロッキングフィルタ48は、加算器47の出力に対して、いわゆるブロックノイズ(マクロブロック間の境界付近に生ずる歪み)の発生を抑制する目的でフィルタリングを施し、その結果得たフィルタ信号を復号画像信号DO2として外部に出力する。また、そのフィルタ信号は、参照画像として利用されるべくフレームバッファメモリ46に蓄積される。   When the output of the entropy decoding unit 40 is an intra-encoded image (an intra-frame encoded image), the second decoder 23 It operates in an intra mode based on the H.264 standard. At this time, the switch 45 is connected to the motion compensation unit 43, but the motion compensation unit 43 does not output data. Therefore, the adder 47 supplies the image signal from the inverse orthogonal transform unit 42 to the deblocking filter 48 as it is. The output of the adder 47 is also given to the intra prediction unit 44. The deblocking filter 48 filters the output of the adder 47 for the purpose of suppressing the occurrence of so-called block noise (distortion that occurs near the boundary between macroblocks), and the resulting filter signal is a decoded image signal. Output to the outside as DO2. The filter signal is stored in the frame buffer memory 46 to be used as a reference image.

一方、エントロピー復号化部40の出力が動き補償予測による予測符号化画像(フレーム間符号化画像)のとき、第2デコーダ23は動き補償予測モードで動作する。このとき、スイッチ45は動き補償部43と接続する。この動き補償部43には、エントロピー復号化部40から動きベクトル情報が入力される。動き補償部43は、フレームバッファメモリ46から参照画像を読み出し、この参照画像から動きベクトルで指定される領域の予測画像を1/4画素精度(クォーターペル精度)で生成し、その予測画像信号をスイッチ45を介して加算器47に与える。なお、参照画像は、上記第1デコーダ22と同様の(1)〜(2)の参照画像の他に、最大3フレーム前の画像を参照画像とすることがあり得る。そして、加算器47は、動き補償部43からスイッチ45を介して入力された予測画像信号に差分画像信号を加算し、その加算信号をデブロッキングフィルタ48に与える。デブロッキングフィルタ48は、フィルタ信号を復号画像信号DO2として外部に出力するとともにフレームバッファメモリ35にも与える。   On the other hand, when the output of the entropy decoding unit 40 is a prediction encoded image (interframe encoded image) by motion compensation prediction, the second decoder 23 operates in the motion compensation prediction mode. At this time, the switch 45 is connected to the motion compensation unit 43. The motion compensation unit 43 receives motion vector information from the entropy decoding unit 40. The motion compensation unit 43 reads the reference image from the frame buffer memory 46, generates a predicted image of the area specified by the motion vector from the reference image with ¼ pixel accuracy (quarter-pel accuracy), and outputs the predicted image signal. The signal is supplied to the adder 47 through the switch 45. In addition to the reference images (1) and (2) that are the same as those of the first decoder 22, the reference image may be an image three frames before the reference image. Then, the adder 47 adds the difference image signal to the prediction image signal input from the motion compensation unit 43 via the switch 45, and gives the addition signal to the deblocking filter 48. The deblocking filter 48 outputs the filter signal to the outside as a decoded image signal DO2 and also supplies it to the frame buffer memory 35.

他方、エントロピー復号化部40の出力がイントラ予測による予測符号化画像の場合、第2デコーダ23はイントラ予測モードで動作する。このとき、スイッチ45はイントラ予測部44と接続する。H.264規格のイントラ予測では、同一フレーム内で、カレントマクロブロックに対して隣接する画素から予測画像が補間により生成される。このイントラ予測部44は、シンタックス要素で指定されている予測パターンに応じて予測画像を生成し、その予測画像をスイッチ45を介して加算器47に与える。そして、加算器47は、イントラ予測部44からスイッチ45を介して入力された予測画像信号に差分画像信号を加算し、その加算信号をデブロッキングフィルタ48に与える。   On the other hand, when the output of the entropy decoding unit 40 is a prediction encoded image by intra prediction, the second decoder 23 operates in the intra prediction mode. At this time, the switch 45 is connected to the intra prediction unit 44. H. In the intra prediction of the H.264 standard, a predicted image is generated by interpolation from pixels adjacent to the current macroblock in the same frame. The intra prediction unit 44 generates a prediction image according to the prediction pattern specified by the syntax element, and provides the prediction image to the adder 47 via the switch 45. The adder 47 adds the difference image signal to the prediction image signal input from the intra prediction unit 44 via the switch 45, and gives the addition signal to the deblocking filter 48.

次に、制御部27がエラーを検出したときの信号処理回路3Aの動作について以下に説明する。図3を参照すると、このとき、第1デコーダ22の第1スイッチ33Aは、制御信号SW1に応じてシンタックス要素変換部26と第2動き補償部34Bとの間を接続し、同時に、第2スイッチ33Bは、制御信号SW1に応じて画像変換部25と加算器36との間を接続する。また、第1動き補償部34Aの代わりに第2動き補償部34Bが動作する。これにより、第2動き補償部34Bは、動き補償予測モードのときに、エントロピー復号化部30からのシンタックス要素の代わりにシンタックス要素変換部26からのシンタックス要素を用いて、フレームバッファメモリ35より読み出した高品質の参照画像から予測画像を生成する。さらに、イントラ予測部37は、イントラ予測モードのときには、シンタックス要素変換部26から供給されたシンタックス要素が指定する予測パターンに従った予測画像を生成する。   Next, the operation of the signal processing circuit 3A when the control unit 27 detects an error will be described below. Referring to FIG. 3, at this time, the first switch 33A of the first decoder 22 connects between the syntax element conversion unit 26 and the second motion compensation unit 34B according to the control signal SW1, and at the same time, the second switch The switch 33B connects between the image conversion unit 25 and the adder 36 in accordance with the control signal SW1. Further, the second motion compensation unit 34B operates instead of the first motion compensation unit 34A. As a result, the second motion compensation unit 34B uses the syntax element from the syntax element conversion unit 26 instead of the syntax element from the entropy decoding unit 30 in the motion compensation prediction mode, so that the frame buffer memory A prediction image is generated from the high-quality reference image read out from 35. Furthermore, the intra prediction unit 37 generates a prediction image according to the prediction pattern specified by the syntax element supplied from the syntax element conversion unit 26 in the intra prediction mode.

動き補償予測モードのとき、第3スイッチ38はハイブリッド動き補償部34と接続し、第2動き補償部34Bが動作する。この第2動き補償部34Bには、シンタックス要素変換部26から第1スイッチ33Aを介して動きベクトル情報が入力される。第2動き補償部34Bは、フレームバッファメモリ35から、指定された高解像度の参照画像を読み出し、この参照画像から動きベクトルで指定される領域の予測画像を生成し、その予測画像を第3スイッチ38を介して加算器36に供給する。画像変換部25は、その予測画像に加算すべき差分画像を第2スイッチ33Bを介して加算器36に供給する。加算器36は、第2スイッチ33Bからの差分画像信号を予測画像信号に加算し、その加算信号を復号画像信号DO1として外部に出力する。   In the motion compensation prediction mode, the third switch 38 is connected to the hybrid motion compensation unit 34, and the second motion compensation unit 34B operates. Motion vector information is input to the second motion compensation unit 34B from the syntax element conversion unit 26 via the first switch 33A. The second motion compensation unit 34B reads the designated high-resolution reference image from the frame buffer memory 35, generates a predicted image of the region specified by the motion vector from the reference image, and outputs the predicted image to the third switch. The signal is supplied to the adder 36 through the control unit 38. The image conversion unit 25 supplies the difference image to be added to the predicted image to the adder 36 via the second switch 33B. The adder 36 adds the difference image signal from the second switch 33B to the prediction image signal, and outputs the addition signal to the outside as the decoded image signal DO1.

ここで、画像変換部25は、逆直交変換部42からの差分画像に基づいて、エレメンタリストリームES1の画像フォーマットに適合した差分画像を生成する。たとえば、日本の地上デジタル放送では、1セグメントを用いた移動体向けデジタル放送と12セグメントを用いたハイビジョン放送とがサイマルキャストされている場合、ハイビジョン放送の解像度(1920×1080画素)は移動体向けデジタル放送の解像度(320×180画素)よりも大きい。画像変換部25に入力される差分画像のマクロブロックサイズがH.264規格に準拠した4×4画素の場合、画像変換部25は、両デジタル放送の解像度の比率に応じて24×24画素のマクロブロックサイズを持つ差分画像を生成することができる。   Here, based on the difference image from the inverse orthogonal transform unit 42, the image conversion unit 25 generates a difference image that conforms to the image format of the elementary stream ES1. For example, in Japanese terrestrial digital broadcasting, when digital broadcasting for mobiles using 1 segment and high-definition broadcasting using 12 segments are simulcast, the resolution of high-definition broadcasting (1920 × 1080 pixels) is for mobiles. It is larger than the resolution of digital broadcasting (320 × 180 pixels). The macroblock size of the difference image input to the image conversion unit 25 is H.264. In the case of 4 × 4 pixels compliant with the H.264 standard, the image conversion unit 25 can generate a difference image having a macroblock size of 24 × 24 pixels according to the resolution ratio of both digital broadcasts.

また、H.264規格では、動き補償予測の際に1/4画素精度で予測画像を生成できるが、第1デコーダ22のフレームバッファメモリ35に蓄積されている復号画像は、第2デコーダ23のフレームバッファメモリ46に蓄積されている復号画像と比べると高い解像度を持つので、第2動き補償部34Bは、1/2画素精度またはこれよりも低い精度で動き補償予測を実行してもよい。たとえば日本の地上デジタル放送の場合、前述の通り、ハイビジョン放送の解像度(1920×1080画素)は移動体向けデジタル放送の解像度(320×180画素)よりも大きい。それゆえ1/4画素精度よりも低い精度で動き補償予測を実行しても高品質の復号画像を再生できる。   H. In the H.264 standard, a prediction image can be generated with a 1/4 pixel accuracy in motion compensation prediction, but the decoded image stored in the frame buffer memory 35 of the first decoder 22 is the frame buffer memory 46 of the second decoder 23. Therefore, the second motion compensation unit 34B may execute the motion compensation prediction with the accuracy of ½ pixel or lower than that. For example, in the case of Japanese terrestrial digital broadcasting, as described above, the resolution of high-definition broadcasting (1920 × 1080 pixels) is larger than the resolution of digital broadcasting for mobiles (320 × 180 pixels). Therefore, a high-quality decoded image can be reproduced even if motion compensation prediction is executed with an accuracy lower than the 1/4 pixel accuracy.

シンタックス要素の1つである動きベクトルは、シンタックス要素変換部26で生成される。図4は、第2動き補償部34Bで使用される動きベクトルMV1の生成方法を示す図である。第2デコーダ23のエントロピー復号化部40は、符号化マクロブロックmb1に関して、当該符号化マクロブロックmb1の予測法を指定するマクロブロックタイプ(macroblock type)の情報とともに動きベクトルmv1の情報をシンタックス要素変換部26に与えている。シンタックス要素変換部26は、動きベクトルmv1を、第1デコーダ22で処理されるべき符号化マクロブロックMB1のフォーマットに合わせて変換することにより、動きベクトルMV1を生成する。たとえば、符号化マクロブロックmb1の属する画像H1は、符号化マクロブロックMB1の属する画像M1と解像度(水平解像度および垂直解像度)が異なるので、画像M1の解像度に適合するように動きベクトルmv1を動きベクトルMV1に変換すればよい。   A motion vector that is one of the syntax elements is generated by the syntax element conversion unit 26. FIG. 4 is a diagram illustrating a method of generating the motion vector MV1 used in the second motion compensation unit 34B. The entropy decoding unit 40 of the second decoder 23 uses the syntax element of the information of the motion vector mb1 as well as the information of the macroblock type that specifies the prediction method of the encoded macroblock mb1 for the encoded macroblock mb1. This is given to the conversion unit 26. The syntax element conversion unit 26 generates the motion vector MV1 by converting the motion vector mv1 in accordance with the format of the encoded macroblock MB1 to be processed by the first decoder 22. For example, the image H1 to which the encoded macro block mb1 belongs has a resolution (horizontal resolution and vertical resolution) that is different from that of the image M1 to which the encoded macro block MB1 belongs. What is necessary is just to convert into MV1.

また、H.264規格とMPEG−2規格との間でのフレームレートの違いにより、画像M1に同期した対応する画像H1が存在しない場合がある。より具体的には、たとえば、図5に示すように、MPEG−2規格の連続する画像M1,M2,M3のうち、画像M1,M3に同期した対応するH.264規格の画像H1,H2は存在しても、画像M2に同期したH.264規格の画像が存在しない場合である。かかる場合、シンタックス要素変換部26は、時間的に前後の画像H1,H2の動きベクトルmv1,mv3から動きベクトルmv2を補間により生成し、さらに、この動きベクトルmv2を、画像M2に属する符号化マクロブロックMB2のフォーマットに合わせて変換して動きベクトルMV2を生成することができる。このとき、シンタックス要素変換部26は、動きベクトルに限らず、マクロブロックタイプなどの他のシンタックス要素も補間する。   H. Due to the difference in the frame rate between the H.264 standard and the MPEG-2 standard, there may be no corresponding image H1 synchronized with the image M1. More specifically, for example, as shown in FIG. 5, among the continuous images M1, M2, and M3 of the MPEG-2 standard, the corresponding H.P. H.264 standard images H1 and H2 exist, but H.264 synchronized with the image M2. This is a case where no H.264 standard image exists. In such a case, the syntax element conversion unit 26 generates a motion vector mv2 by interpolation from the motion vectors mv1 and mv3 of the previous and subsequent images H1 and H2, and further encodes the motion vector mv2 belonging to the image M2. The motion vector MV2 can be generated by conversion according to the format of the macroblock MB2. At this time, the syntax element conversion unit 26 interpolates not only the motion vector but also other syntax elements such as a macroblock type.

次に、イントラ予測モード(intra-frame prediction mode)のときには、第2動き補償部34Bの代わりにイントラ予測部37が動作し、第3スイッチ38はイントラ予測部37と接続する。このイントラ予測部37には、符号化に使用した予測パターン(予測モード)を示すシンタックス要素がシンタックス要素変換部26から与えられる。イントラ予測部37は、シンタックス要素で指定される予測パターンに応じて予測画像を生成し、その予測画像信号を第3スイッチ38を介して加算器36に与える。そして、加算器36は、第3スイッチ38からの予測画像信号に、画像変換部25から第2スイッチ33Bを介して与えられた差分画像信号を加算し、その加算信号を復号画像信号DO1として出力する。なお、第1デコーダ22は、第2デコーダ23のデブロッキングフィルタ48に相当するフィルタを有してもよい。   Next, in the intra-frame prediction mode, the intra prediction unit 37 operates instead of the second motion compensation unit 34B, and the third switch 38 is connected to the intra prediction unit 37. A syntax element indicating the prediction pattern (prediction mode) used for encoding is given to the intra prediction unit 37 from the syntax element conversion unit 26. The intra prediction unit 37 generates a prediction image according to the prediction pattern specified by the syntax element, and provides the prediction image signal to the adder 36 via the third switch 38. Then, the adder 36 adds the difference image signal given from the image conversion unit 25 via the second switch 33B to the prediction image signal from the third switch 38, and outputs the addition signal as a decoded image signal DO1. To do. Note that the first decoder 22 may include a filter corresponding to the deblocking filter 48 of the second decoder 23.

ここで、イントラ予測部37は、エレメンタリストリームES1の画像フォーマットに合わせてH.264規格に準じたイントラ予測を実行する。H.264規格によれば、イントラ予測によって、4×4画素または16×16画素のブロック単位で予測画像が生成され得る。たとえば日本の地上デジタル放送の場合、前述の如く、ハイビジョン放送の解像度(1920×1080画素)は移動体向けデジタル放送の解像度(320×180画素)よりも大きい。それゆえイントラ予測部37は、両デジタル放送間の解像度の比率に応じて24×24画素のブロックサイズの予測画像を生成することができる。   Here, the intra prediction unit 37 matches the image format of the elementary stream ES1 with the H.264 format. Intra prediction according to the H.264 standard is executed. H. According to the H.264 standard, a prediction image can be generated in block units of 4 × 4 pixels or 16 × 16 pixels by intra prediction. For example, in the case of Japanese terrestrial digital broadcasting, as described above, the resolution of high-definition broadcasting (1920 × 1080 pixels) is larger than the resolution of digital broadcasting for mobiles (320 × 180 pixels). Therefore, the intra prediction unit 37 can generate a prediction image having a block size of 24 × 24 pixels according to the resolution ratio between the two digital broadcasts.

次に、イントラモードのとき、ハイブリッド動き補償部34およびイントラ予測部37は動作せず、ハイブリッド動き補償部34はデータを出力しない。このとき、画像変換部25が、第2デコーダ23の逆直交変換部42から供給される画像信号を、エレメンタリストリームES1の画像フォーマットに合わせて解像度変換し、当該変換した画像信号を第2スイッチ33Bおよび加算器36を介して外部へ出力することができる。   Next, in the intra mode, the hybrid motion compensation unit 34 and the intra prediction unit 37 do not operate, and the hybrid motion compensation unit 34 does not output data. At this time, the image conversion unit 25 converts the resolution of the image signal supplied from the inverse orthogonal transform unit 42 of the second decoder 23 in accordance with the image format of the elementary stream ES1, and the converted image signal is converted to the second switch. 33B and the adder 36 can be output to the outside.

上記の通り、第1実施例のデジタル放送受信装置1Aは、サイマルキャストされた2つのデジタル放送のうちの一方のエレメンタリストリームES1に関してエラーが発生しても、他方のデジタル放送のエレメンタリストリームES2から取得されたシンタックス要素を当該一方のエレメンタリストリームES1の画像フォーマットに合わせて変換し、さらに当該変換されたシンタックス要素を用いて動き補償予測またはイントラ予測を実行することにより予測画像を生成できる。それゆえ、極力視覚的に自然な映像を提供することが可能である。   As described above, the digital broadcast receiving apparatus 1A according to the first embodiment is capable of providing an elementary stream ES2 of the other digital broadcast even if an error occurs with respect to the elementary stream ES1 of the two digital broadcasts that have been simulcast. Is generated in accordance with the image format of the one elementary stream ES1, and a predicted image is generated by performing motion compensation prediction or intra prediction using the converted syntax element. it can. Therefore, it is possible to provide a visually natural image as much as possible.

また、高品質のデジタル放送と低品質のデジタル放送とがサイマルキャストされている場合に、高品質のデジタル放送についてエラーが発生しても、第2動き補償部34Bは、フレームバッファメモリ35に格納されている高品質の復号画像を参照し、当該変換されたシンタックス要素を用いて動き補償予測を実行することにより高品質の予測画像を生成できる。これと並行して、画像変換部25は、第2デコーダ23の逆直交変換部42から供給された差分画像に基づいて、予測画像に加算すべき差分画像を生成する。したがって、極力高品質且つ視覚的に自然な映像を提供することが可能である。   In addition, when the high-quality digital broadcast and the low-quality digital broadcast are simulcast, even if an error occurs in the high-quality digital broadcast, the second motion compensation unit 34B stores it in the frame buffer memory 35. A high-quality predicted image can be generated by referring to the high-quality decoded image and executing motion compensation prediction using the converted syntax element. In parallel with this, the image conversion unit 25 generates a difference image to be added to the predicted image based on the difference image supplied from the inverse orthogonal transform unit 42 of the second decoder 23. Therefore, it is possible to provide a high-quality and visually natural image as much as possible.

たとえば、車両やPDA(Personal Digital Assistant;携帯情報端末)などの移動体においては、固定受信機向けデジタル放送の受信状況が悪化しても、移動体向けデジタル放送は受信可能である場合が多いことが予想される。かかる場合にも、本実施例のデジタル放送受信装置1Aは、極力高品質且つ視覚的に自然な映像を提供できる。   For example, in mobile objects such as vehicles and PDAs (Personal Digital Assistants), digital broadcasts for mobile objects can often be received even if the reception status of digital broadcasts for fixed receivers deteriorates. Is expected. Even in such a case, the digital broadcast receiving apparatus 1A according to the present embodiment can provide a high-quality and visually natural video as much as possible.

第2実施例Second embodiment

次に、本発明に係る第2実施例について説明する。図6は、第2実施例のデジタル放送受信装置1Bの概略構成を示す機能ブロック図である。図7は、このデジタル放送受信装置1Bのデコーダ・ブロック29の概略構成を示す機能ブロック図である。なお、図2と図6との間、および図3と図7との間で同一符号を付された構成要素は、略同じ機能および同じ構成を有するものとしてその詳細な説明を省略する。   Next, a second embodiment according to the present invention will be described. FIG. 6 is a functional block diagram showing a schematic configuration of the digital broadcast receiving apparatus 1B of the second embodiment. FIG. 7 is a functional block diagram showing a schematic configuration of the decoder block 29 of the digital broadcast receiving apparatus 1B. It should be noted that the components denoted by the same reference numerals between FIG. 2 and FIG. 6 and between FIG. 3 and FIG. 7 have substantially the same function and the same configuration and will not be described in detail.

図6を参照すると、デジタル放送受信装置1Bは、アンテナ10と受信回路(フロントエンド)2と信号処理回路3Bとで構成されている。受信回路2は、チューナ11と復調回路12とを有する。信号処理回路3Bは、エラー監視部20、デマルチプレキサ(DMUX)21、デコーダ・ブロック29、制御部(出力制御部)27および入力部28を有している。制御部27は、エラー監視部20およびデコーダ・ブロック29の動作を個別に制御することができる。上記第1実施例と同様に本第2実施例でも、デマルチプレキサ21が出力する一方のエレメンタリストリームES1は、固定受信機向けデジタル放送の高品質の圧縮符号ビット列であり、他方のエレメンタリストリームES2は、移動体向けデジタル放送の比較的低品質の圧縮符号ビット列であるとするが、これに限定されるものではない。   Referring to FIG. 6, the digital broadcast receiving apparatus 1B includes an antenna 10, a receiving circuit (front end) 2, and a signal processing circuit 3B. The reception circuit 2 includes a tuner 11 and a demodulation circuit 12. The signal processing circuit 3B includes an error monitoring unit 20, a demultiplexer (DMUX) 21, a decoder block 29, a control unit (output control unit) 27, and an input unit 28. The control unit 27 can individually control the operations of the error monitoring unit 20 and the decoder block 29. Similarly to the first embodiment, in the second embodiment, one elementary stream ES1 output from the demultiplexer 21 is a high-quality compressed code bit string of digital broadcasting for a fixed receiver, and the other elementary stream ES1. The stream ES2 is a compression code bit string of relatively low quality for mobile digital broadcasting, but is not limited to this.

図7を参照すると、デコーダ・ブロック29は、第1デコーダ22B、第2デコーダ23B、フレームバッファメモリ46および信号切替部50を含む。第1デコーダ22Bは、一般的なMPEG−2デコーダの構成として、エントロピー復号化部(ED)30,逆量子化部(IQ)31,逆直交変換部(IOT)32,第1動き補償部(MC)34Aおよび加算器36を有している。これら構成要素30〜32,36の各動作は、図3に示した対応する構成要素のそれと同じである。図7に示した第1動き補償部34Aは、図3に示した第1動き補償部34Aと同じ動作を行い、エントロピー復号化部30で取得されたシンタックス要素を用いた動き補償予測を実行することにより予測画像を生成する。なお、エントロピー復号化部30、逆量子化部31および逆直交変換部32によって本発明の「第1逆変換処理部」が構成され得る。   Referring to FIG. 7, the decoder block 29 includes a first decoder 22B, a second decoder 23B, a frame buffer memory 46, and a signal switching unit 50. The first decoder 22B includes, as a general MPEG-2 decoder, an entropy decoding unit (ED) 30, an inverse quantization unit (IQ) 31, an inverse orthogonal transform unit (IOT) 32, a first motion compensation unit ( MC) 34A and an adder 36. The operations of these components 30 to 32, 36 are the same as those of the corresponding components shown in FIG. The first motion compensation unit 34A illustrated in FIG. 7 performs the same operation as the first motion compensation unit 34A illustrated in FIG. 3, and performs motion compensation prediction using the syntax element acquired by the entropy decoding unit 30. By doing so, a predicted image is generated. The entropy decoding unit 30, the inverse quantization unit 31, and the inverse orthogonal transform unit 32 may constitute the “first inverse transform processing unit” of the present invention.

一方、第2デコーダ23Bは、H.264規格に準じた構成として、エントロピー復号化部(ED)40,逆量子化部(IQ)41,逆直交変換部(IOT)42,第2動き補償部(MC)43B,イントラ予測部(IP)44B,スイッチ45B,加算器47Bおよびデブロッキングフィルタ48を有している。なお、エントロピー復号化部40,逆量子化部41および逆直交変換部42によって本発明の「第2逆変換処理部」が構成され得る。   On the other hand, the second decoder 23B is an H.264 decoder. As a configuration conforming to the H.264 standard, an entropy decoding unit (ED) 40, an inverse quantization unit (IQ) 41, an inverse orthogonal transform unit (IOT) 42, a second motion compensation unit (MC) 43B, an intra prediction unit (IP ) 44B, switch 45B, adder 47B, and deblocking filter 48. The entropy decoding unit 40, the inverse quantization unit 41, and the inverse orthogonal transform unit 42 can constitute the “second inverse transform processing unit” of the present invention.

第2動き補償部43Bは、上記第1実施例(図3)の第2動き補償部34Bと同じ構成および同じ機能を有し、イントラ予測部44Bは、上記第1実施例(図3)のイントラ予測部37と同じ構成および同じ機能を有する。第2デコーダ23Bは、さらに、逆直交変換部42の出力画像の解像度をエレメンタリストリームES1の解像度に適合するように変換する画像変換部25を有し、エントロピー復号化部40で取得されたシンタックス要素をエレメンタリストリームES1の解像度に適合するように変換するシンタックス要素変換部26を有する。図7に示されたこれら画像変換部25およびシンタックス要素変換部26も、それぞれ、上記第1実施例(図3)の画像変換部25およびシンタックス要素変換部26と略同じ構成および同じ機能を有するものである。   The second motion compensation unit 43B has the same configuration and the same function as the second motion compensation unit 34B of the first embodiment (FIG. 3), and the intra prediction unit 44B is the same as that of the first embodiment (FIG. 3). It has the same configuration and the same function as the intra prediction unit 37. The second decoder 23B further includes an image conversion unit 25 that converts the resolution of the output image of the inverse orthogonal transform unit 42 so as to match the resolution of the elementary stream ES1, and the second decoder 23B includes the thin decoder acquired by the entropy decoding unit 40. It has a syntax element conversion unit 26 that converts the tax elements so as to conform to the resolution of the elementary stream ES1. The image conversion unit 25 and the syntax element conversion unit 26 shown in FIG. 7 are also substantially the same in configuration and function as the image conversion unit 25 and the syntax element conversion unit 26 in the first embodiment (FIG. 3), respectively. It is what has.

第1デコーダ22Bの第1動き補償部34Aと第2デコーダ23Bの動き補償部43Bは、それぞれ、同じフレームバッファメモリ46を参照し、動き補償予測の際にこのフレームバッファメモリ46から参照画像を読み出す。   The first motion compensation unit 34A of the first decoder 22B and the motion compensation unit 43B of the second decoder 23B each refer to the same frame buffer memory 46, and read the reference image from the frame buffer memory 46 at the time of motion compensation prediction. .

信号切替部50は、切替制御信号SWに応じて、第1デコーダ22Bから供給された復号画像信号DO1と、第2デコーダ23Bから供給された復号画像信号DO2とのいずれか一方を選択し、選択した信号を出力画像信号CSとして外部機器(図示せず)に供給する。後述する通り、制御部27がエラーを検出しないとき、信号切替部50は復号画像信号DO1を選択し、制御部27がエラーを検出したときは、信号切替部50は復号画像信号DO2を選択する。   The signal switching unit 50 selects and selects one of the decoded image signal DO1 supplied from the first decoder 22B and the decoded image signal DO2 supplied from the second decoder 23B according to the switching control signal SW. The signal is supplied as an output image signal CS to an external device (not shown). As will be described later, when the control unit 27 does not detect an error, the signal switching unit 50 selects the decoded image signal DO1, and when the control unit 27 detects an error, the signal switching unit 50 selects the decoded image signal DO2. .

以上の構成を有するデジタル放送受信装置1Bの動作を以下に説明する。以下に説明する動作は、デジタル放送受信装置1Bがサイマルキャストされた固定受信機向けデジタル放送と移動体向けデジタル放送とを同時に受信していることを前提とする。   The operation of the digital broadcast receiving apparatus 1B having the above configuration will be described below. The operation described below is based on the premise that the digital broadcast receiving apparatus 1B is receiving simultaneous broadcast digital broadcasts for fixed receivers and mobile broadcasts simultaneously.

先ず、制御部27がエラーを検出しないときのデコーダ・ブロック29の動作について以下に概説する。このとき、第1デコーダ22Bでは、エントロピー復号化部30は、エレメンタリストリームES1を解析してシンタックス要素を取得し、これらシンタックス要素を動き補償部34と逆量子化部31とに供給する。同時に、エントロピー復号化部30は、エレメンタリストリームES1にエントロピー復号化を施して量子化係数を生成する。逆量子化部31は、シンタックス要素の1つである量子化パラメータに従って量子化係数を逆量子化してDCTの変換係数を生成し、さらに逆直交変換部32は、これら変換係数を逆直交変換(たとえば、逆DCT変換)して画像信号を生成し、この画像信号を加算器36に供給する。   First, the operation of the decoder block 29 when the control unit 27 does not detect an error will be outlined below. At this time, in the first decoder 22B, the entropy decoding unit 30 analyzes the elementary stream ES1 to acquire syntax elements, and supplies the syntax elements to the motion compensation unit 34 and the inverse quantization unit 31. . At the same time, the entropy decoding unit 30 performs entropy decoding on the elementary stream ES1 to generate a quantized coefficient. The inverse quantization unit 31 inversely quantizes the quantization coefficient in accordance with a quantization parameter that is one of syntax elements to generate DCT transform coefficients, and the inverse orthogonal transform unit 32 performs inverse orthogonal transform on these transform coefficients. An image signal is generated by (for example, inverse DCT conversion), and this image signal is supplied to the adder 36.

第1デコーダ22Bがイントラ符号化画像を復号化するイントラモードで動作するとき、第1動き補償部34Aはデータを出力しない。したがって、加算器36は、逆直交変換部32からの画像信号をそのまま復号画像信号DO1として信号切替部50に与える。信号切替部50は、切替制御信号SWに応じて、復号画像信号DO1を出力画像信号CSとして選択する。この復号画像信号DO1は、信号切替部50から外部機器に供給されると同時にフレームバッファメモリ46に蓄積されることとなる。   When the first decoder 22B operates in an intra mode for decoding an intra-coded image, the first motion compensation unit 34A does not output data. Therefore, the adder 36 gives the image signal from the inverse orthogonal transform unit 32 to the signal switching unit 50 as it is as the decoded image signal DO1. The signal switching unit 50 selects the decoded image signal DO1 as the output image signal CS according to the switching control signal SW. The decoded image signal DO1 is supplied from the signal switching unit 50 to the external device and stored in the frame buffer memory 46 at the same time.

一方、第1デコーダ22Bが予測符号化画像を復号化する動き補償予測モードで動作するとき、第1動き補償部34Aは、フレームバッファメモリ46に蓄積されている復号画像を参照し、その参照画像から、1/2画素精度で動きベクトルで指定される領域の予測画像を生成し、その予測画像を加算器36に与える。加算器36は、逆直交変換部32からの差分画像に予測画像を加算することで復号画像を再生する。この再生された復号画像は、復号画像信号DO1として信号切替部50に与えられる。復号画像信号DO1は、信号切替部50から外部機器(図示せず)に供給されると同時にフレームバッファメモリ46に蓄積される。   On the other hand, when the first decoder 22B operates in the motion compensated prediction mode for decoding the prediction encoded image, the first motion compensation unit 34A refers to the decoded image stored in the frame buffer memory 46, and the reference image Then, a predicted image of the area specified by the motion vector is generated with a 1/2 pixel accuracy, and the predicted image is given to the adder 36. The adder 36 reproduces the decoded image by adding the predicted image to the difference image from the inverse orthogonal transform unit 32. The reproduced decoded image is given to the signal switching unit 50 as a decoded image signal DO1. The decoded image signal DO1 is supplied from the signal switching unit 50 to an external device (not shown) and simultaneously stored in the frame buffer memory 46.

次に、制御部27がエラーを検出したときのデコーダ・ブロック29の動作を以下に説明する。このとき、第2デコーダ23Bでは、エントロピー復号化部40がエレメンタリストリームES2に対して、可変長復号化(Variable Length Decoding)などのエントロピー符号化を施して量子化係数を生成すると同時にエレメンタリストリームES2を解析してシンタックス要素を取得する。これらシンタックス要素は、シンタックス要素変換部26と逆量子化部41とに供給される。逆量子化部41は、シンタックス要素の1つである量子化パラメータに従って量子化係数を逆量子化してDCTの変換係数を生成し、さらに逆直交変換部42は、これら変換係数を整数精度で逆直交変換して復号画像または差分画像を再生し、この復号画像または差分画像を画像変換部25に与える。   Next, the operation of the decoder block 29 when the control unit 27 detects an error will be described below. At this time, in the second decoder 23B, the entropy decoding unit 40 performs entropy coding such as variable length decoding on the elementary stream ES2 to generate a quantized coefficient and simultaneously the elementary stream ES2. ES2 is analyzed to obtain syntax elements. These syntax elements are supplied to the syntax element conversion unit 26 and the inverse quantization unit 41. The inverse quantization unit 41 inversely quantizes the quantization coefficient according to a quantization parameter that is one of syntax elements to generate DCT transform coefficients, and the inverse orthogonal transform unit 42 further converts these transform coefficients with integer precision. The decoded image or difference image is reproduced by inverse orthogonal transformation, and the decoded image or difference image is given to the image conversion unit 25.

画像変換部25は、逆直交変換部32からの画像に基づいて、エレメンタリストリームES1の画像フォーマットに適合した画像を生成する。たとえば日本の地上デジタル放送の場合、上述の通り、ハイビジョン放送の解像度(1920×1080画素)は移動体向けデジタル放送の解像度(320×180画素)よりも大きい。かかる場合、画像変換部25は、たとえば4×4画素のブロックサイズを持つ画像を、ハイビジョン放送の解像度に合わせて24×24画素のブロックサイズを持つ画像に変換することができる。   Based on the image from the inverse orthogonal transform unit 32, the image transform unit 25 generates an image that conforms to the image format of the elementary stream ES1. For example, in the case of Japanese terrestrial digital broadcasting, as described above, the resolution of high-definition broadcasting (1920 × 1080 pixels) is larger than the resolution of digital broadcasting for mobiles (320 × 180 pixels). In such a case, the image conversion unit 25 can convert, for example, an image having a block size of 4 × 4 pixels into an image having a block size of 24 × 24 pixels in accordance with the resolution of high-definition broadcasting.

第2デコーダ23Bがイントラ符号化画像を復号化するイントラモードで動作するとき、加算器47Bは、画像変換部25からの復号画像をそのままデブロッキングフィルタ48に与える。デブロッキングフィルタ48は、加算器47Bからの復号画像信号にフィルタリングを施し、そのフィルタ信号を復号画像信号DO2として信号切替部50に与える。信号切替部50は、復号画像信号DO2を出力画像信号CSとして選択する。この出力画像信号CSは、信号切替部50から外部機器(図示せず)に供給されると同時にフレームバッファメモリ46に蓄積される。   When the second decoder 23B operates in an intra mode for decoding an intra-coded image, the adder 47B provides the decoded image from the image conversion unit 25 to the deblocking filter 48 as it is. The deblocking filter 48 performs filtering on the decoded image signal from the adder 47B, and supplies the filtered signal to the signal switching unit 50 as a decoded image signal DO2. The signal switching unit 50 selects the decoded image signal DO2 as the output image signal CS. The output image signal CS is supplied from the signal switching unit 50 to an external device (not shown) and simultaneously stored in the frame buffer memory 46.

一方、第2デコーダ23Bが動き補償予測モードで動作するとき、スイッチ45Bは第2動き補償部43Bと接続する。このとき、第2動き補償部43Bは、シンタックス要素変換部26で変換されたシンタックス要素(動きベクトル情報)を用いて、フレームバッファメモリ46を参照して第1デコーダ22Bが復号化した参照画像を読み出し、当該参照画像から、動きベクトルで指定される領域の予測画像を生成し、その予測画像をスイッチ45Bを介して加算器47Bに与える。加算器47Bは、画像変換部25からの差分画像に前記予測画像を加算して復号画像を生成する。この復号画像は、デブロッキングフィルタ48でフィルタリングされた後に信号切替部50に与えられる。信号切替部50は、デブロッキングフィルタ48からの復号画像信号DO2を出力画像信号CSとして選択し、当該出力画像信号CSは、外部機器(図示せず)に供給されると同時にフレームバッファメモリ46に蓄積される。   On the other hand, when the second decoder 23B operates in the motion compensation prediction mode, the switch 45B is connected to the second motion compensation unit 43B. At this time, the second motion compensation unit 43B uses the syntax element (motion vector information) converted by the syntax element conversion unit 26 to refer to the frame buffer memory 46 and the reference decoded by the first decoder 22B. An image is read out, a predicted image of a region specified by a motion vector is generated from the reference image, and the predicted image is given to the adder 47B via the switch 45B. The adder 47B adds the predicted image to the difference image from the image conversion unit 25 to generate a decoded image. This decoded image is provided to the signal switching unit 50 after being filtered by the deblocking filter 48. The signal switching unit 50 selects the decoded image signal DO2 from the deblocking filter 48 as the output image signal CS, and the output image signal CS is supplied to an external device (not shown) and simultaneously sent to the frame buffer memory 46. Accumulated.

他方、第2デコーダ23Bがイントラ予測モードで動作するときには、スイッチ45Bはイントラ予測部44Bと接続する。このとき、イントラ予測部44Bは、シンタックス要素変換部26で変換されたシンタックス要素(予測モードを示す情報)を用いてイントラ予測を実行して予測画像を生成し、その予測画像をスイッチ45Bを介して加算器47Bに与える。加算器47Bは、画像変換部25からの差分画像に前記予測画像を加算して復号画像を生成する。この復号画像は、デブロッキングフィルタ48でフィルタリングされた後に信号切替部50に与えられる。信号切替部50は、デブロッキングフィルタ48からの復号画像信号DO2を出力画像信号CSとして選択し、当該出力画像信号CSは、外部機器(図示せず)に供給されると同時にフレームバッファメモリ46に蓄積される。   On the other hand, when the second decoder 23B operates in the intra prediction mode, the switch 45B is connected to the intra prediction unit 44B. At this time, the intra prediction unit 44B performs intra prediction using the syntax element (information indicating the prediction mode) converted by the syntax element conversion unit 26 to generate a prediction image, and the prediction image is switched to the switch 45B. To the adder 47B. The adder 47B adds the predicted image to the difference image from the image conversion unit 25 to generate a decoded image. This decoded image is provided to the signal switching unit 50 after being filtered by the deblocking filter 48. The signal switching unit 50 selects the decoded image signal DO2 from the deblocking filter 48 as the output image signal CS, and the output image signal CS is supplied to an external device (not shown) and simultaneously sent to the frame buffer memory 46. Accumulated.

上記の通り、第2実施例のデジタル放送受信装置1Bは、上記第1実施例と同様に、サイマルキャストされた2つのデジタル放送のうちの一方のエレメンタリストリームES1に関してエラーが発生しても、他方のデジタル放送のエレメンタリストリームES2から取得されたシンタックス要素を当該一方のエレメンタリストリームES1の画像フォーマットに合わせて変換し、さらに当該変換されたシンタックス要素を用いて動き補償予測またはイントラ予測を実行することにより予測画像を生成できる。それゆえ、極力視覚的に自然な映像を提供することが可能である。   As described above, the digital broadcast receiving device 1B of the second embodiment, like the first embodiment, even if an error occurs with respect to one elementary stream ES1 of two simulcast digital broadcasts, The syntax element acquired from the elementary stream ES2 of the other digital broadcasting is converted in accordance with the image format of the one elementary stream ES1, and motion compensation prediction or intra prediction is performed using the converted syntax element. By executing this, a predicted image can be generated. Therefore, it is possible to provide a visually natural image as much as possible.

また、高品質のデジタル放送と低品質のデジタル放送とがサイマルキャストされている場合に、高品質のデジタル放送についてエラーが発生しても、第2動き補償部43Bは、第1デコーダ22Bで復号化されてフレームバッファメモリ46に蓄積された高品質の復号画像を参照し、当該変換されたシンタックス要素を用いて動き補償予測を実行することにより高品質の予測画像を生成できる。並行して、画像変換部25は、逆直交変換部42から供給された差分画像に基づいて、予測画像に加算すべき差分画像を生成する。したがって、極力高品質且つ視覚的に自然な映像を提供することが可能である。   In addition, when the high-quality digital broadcast and the low-quality digital broadcast are simulcast, even if an error occurs with respect to the high-quality digital broadcast, the second motion compensation unit 43B decodes with the first decoder 22B. A high-quality prediction image can be generated by referring to the high-quality decoded image stored in the frame buffer memory 46 and executing motion compensation prediction using the converted syntax element. In parallel, the image conversion unit 25 generates a difference image to be added to the predicted image based on the difference image supplied from the inverse orthogonal transform unit 42. Therefore, it is possible to provide a high-quality and visually natural image as much as possible.

以上、本発明に係る種々の実施例について説明した。上記第1実施例および第2実施例の信号処理回路3A,3Bの構成の全部または一部は、ハードウェアで実現されてもよいし、或いは、不揮発性メモリまたは光ディスクなどの記録媒体に記録されたプログラム(またはプログラムコード)で実現されてもよい。このようなプログラム(またはプログラムコード)は、CPUなどのプロセッサに信号処理回路3A,3Bの処理の全部または一部を実行させ得るものである。   The various embodiments according to the present invention have been described above. All or part of the configuration of the signal processing circuits 3A and 3B in the first and second embodiments may be realized by hardware, or may be recorded on a recording medium such as a nonvolatile memory or an optical disk. It may be realized by another program (or program code). Such a program (or program code) can cause a processor such as a CPU to execute all or part of the processing of the signal processing circuits 3A and 3B.

Claims (14)

サイマルキャストされた第1のデジタル放送と第2のデジタル放送との双方の受信信号からそれぞれ生成された第1および第2の符号化ビットストリームを処理する信号処理装置であって、
前記第1の符号化ビットストリームのエラーを検出するエラー監視部と、
前記第1の符号化ビットストリームを解析して第1のシンタックス要素を取得するとともに、前記第1の符号化ビットストリームのフレーム内符号化画像を復号化して復号画像を再生し且つ前記第1の符号化ビットストリームの予測符号化画像を復号化して第1の差分画像を再生する第1逆変換処理部と、
復号画像を参照して前記第1のシンタックス要素を用いた第1の動き補償予測を実行することにより前記第1の差分画像に加算すべき第1の予測画像を生成する第1動き補償部と、
前記第2の符号化ビットストリームを解析して第2のシンタックス要素を取得するとともに、前記第2の符号化ビットストリームのフレーム内符号化画像を復号化して復号画像を再生し且つ前記第2の符号化ビットストリームの予測符号化画像を復号化して第2の差分画像を再生する第2逆変換処理部と、
前記第2のシンタックス要素を、前記第1の符号化ビットストリームの画像フォーマットに適合したシンタックス要素へ変換するシンタックス要素変換部と、
復号画像を参照して当該変換されたシンタックス要素を用いた第2の動き補償予測を実行することにより前記第2の差分画像に加算すべき第2の予測画像を生成する第2動き補償部と、
前記エラーが検出されないとき、前記第1の差分画像に前記第1の予測画像を加算して再生した第1の復号画像を出力させる一方、前記エラーが検出されたときは、前記第2の差分画像に前記第2の予測画像を加算して再生した第2の復号画像を前記第1の復号画像に代えて出力させる出力制御部と、
を備えることを特徴とする信号処理装置。
A signal processing apparatus for processing first and second encoded bit streams respectively generated from reception signals of both a first digital broadcast and a second digital broadcast that are simulcast,
An error monitoring unit for detecting an error in the first encoded bitstream;
The first encoded bitstream is analyzed to obtain a first syntax element, an intra-frame encoded image of the first encoded bitstream is decoded to reproduce a decoded image, and the first A first inverse transform processing unit that decodes a predictive encoded image of the encoded bitstream and reproduces a first differential image;
A first motion compensation unit that generates a first predicted image to be added to the first difference image by executing a first motion compensated prediction using the first syntax element with reference to a decoded image When,
The second encoded bitstream is analyzed to obtain a second syntax element, and an intra-frame encoded image of the second encoded bitstream is decoded to reproduce a decoded image, and the second A second inverse transform processing unit that decodes a predictive encoded image of the encoded bitstream and reproduces a second differential image;
A syntax element conversion unit that converts the second syntax element into a syntax element suitable for an image format of the first encoded bitstream;
A second motion compensation unit that generates a second predicted image to be added to the second difference image by executing a second motion compensated prediction using the converted syntax element with reference to the decoded image When,
When the error is not detected, the first decoded image that is reproduced by adding the first prediction image to the first difference image is output, and when the error is detected, the second difference is output. An output control unit that outputs a second decoded image reproduced by adding the second predicted image to an image instead of the first decoded image;
A signal processing apparatus comprising:
請求項1記載の信号処理装置であって、前記第1逆変換処理部で前記フレーム内符号化画像から再生された復号画像と前記第1の復号画像とを記憶するバッファメモリをさらに備え、
前記第2動き補償部は、前記バッファメモリに記憶されている復号画像を参照して前記第2の動き補償予測を実行することを特徴とする信号処理装置。
The signal processing apparatus according to claim 1, further comprising a buffer memory that stores the decoded image reproduced from the intra-frame encoded image by the first inverse transform processing unit and the first decoded image,
The signal processing apparatus, wherein the second motion compensation unit performs the second motion compensation prediction with reference to a decoded image stored in the buffer memory.
請求項1または2記載の信号処理装置であって、前記第2の差分画像を、前記第1の符号化ビットストリームの画像フォーマットに適合した差分画像に変換する画像変換部をさらに備え、
前記第2の再生画像は、前記画像変換部で変換された差分画像に前記第2の予測画像を加算することにより生成されることを特徴とする信号処理装置。
The signal processing device according to claim 1, further comprising an image conversion unit that converts the second difference image into a difference image that conforms to an image format of the first encoded bitstream,
The signal processing apparatus, wherein the second reproduced image is generated by adding the second predicted image to the difference image converted by the image conversion unit.
請求項1から3のうちのいずれか1項に記載の信号処理装置であって、前記シンタックス要素変換部は、前記第2のシンタックス要素を用いて、前記第2の動き補償予測に使用されるべきシンタックス要素を補間することを特徴とする信号処理装置。  4. The signal processing apparatus according to claim 1, wherein the syntax element conversion unit is used for the second motion compensation prediction using the second syntax element. 5. A signal processing apparatus characterized by interpolating syntax elements to be performed. 請求項1から4のうちのいずれか1項に記載の信号処理装置であって、前記シンタックス要素変換部は、少なくとも動きベクトル情報を前記シンタックス要素の1つとして変換することを特徴とする信号処理装置。  5. The signal processing apparatus according to claim 1, wherein the syntax element conversion unit converts at least motion vector information as one of the syntax elements. 6. Signal processing device. 請求項1から5のうちのいずれか1項に記載の信号処理装置であって、
前記第1逆変換処理部は、前記第1の符号化ビットストリームにエントロピー復号化を施す第1エントロピー復号化部と、前記第1エントロピー復号化部の出力に逆量子化を施す第1逆量子化部と、前記第1逆量子化部の出力に逆直交変換を施す第1逆直交変換部とからなり、
前記第2逆変換処理部は、前記第2の符号化ビットストリームにエントロピー復号化を施す第2エントロピー復号化部と、前記第2エントロピー復号化部の出力に逆量子化を施す第2逆量子化部と、前記第2逆量子化部の出力に逆直交変換を施す第2逆直交変換部とからなり、
前記第1のシンタックス要素は、前記第1エントロピー復号化部により取得され、前記第2のシンタックス要素は、前記第2エントロピー復号化部により取得されることを特徴とする信号処理装置。
The signal processing device according to any one of claims 1 to 5,
The first inverse transform processing unit includes: a first entropy decoding unit that performs entropy decoding on the first encoded bit stream; and a first inverse quantum that performs inverse quantization on an output of the first entropy decoding unit. And a first inverse orthogonal transform unit that performs inverse orthogonal transform on the output of the first inverse quantization unit,
The second inverse transform processing unit includes a second entropy decoding unit that performs entropy decoding on the second encoded bitstream, and a second inverse quantum that performs inverse quantization on an output of the second entropy decoding unit. And a second inverse orthogonal transform unit that performs inverse orthogonal transform on the output of the second inverse quantization unit,
The signal processing apparatus, wherein the first syntax element is acquired by the first entropy decoding unit, and the second syntax element is acquired by the second entropy decoding unit.
請求項1から6のうちのいずれか1項に記載の信号処理装置であって、前記変換されたシンタックス要素を用いたフレーム内予測を実行することにより前記第2の差分画像に加算すべき第3の予測画像を生成するイントラ予測部をさらに備え、
前記出力制御部は、前記エラーが検出されたとき、前記第1の復号画像に代えて、前記第2の差分画像に前記第3の予測画像を加算して再生した復号画像を出力させることを特徴とする信号処理装置。
7. The signal processing apparatus according to claim 1, wherein the signal processing apparatus adds to the second difference image by performing intra-frame prediction using the converted syntax element. 8. An intra prediction unit that generates a third predicted image;
When the error is detected, the output control unit outputs a decoded image reproduced by adding the third predicted image to the second difference image instead of the first decoded image. A characteristic signal processing apparatus.
請求項1から7のうちのいずれか1項に記載の信号処理装置であって、前記エラー監視部は、前記第1の符号化ビットストリームのビットエラーレートを測定し、当該測定値が許容値を超えたときに前記エラーを検出することを特徴とする信号処理装置。  8. The signal processing apparatus according to claim 1, wherein the error monitoring unit measures a bit error rate of the first encoded bit stream, and the measured value is an allowable value. 9. A signal processing device that detects the error when the value exceeds the threshold. 請求項1から8のうちのいずれか1項に記載の信号処理装置であって、前記第1逆変換処理部および前記第1動き補償部は、それぞれ、第1の符号化規格に基づいた処理を実行し、前記第2逆変換処理部および前記第2動き補償部は、それぞれ、前記第1の符号化規格とは異なる第2の符号化規格に基づいた処理を実行することを特徴とする信号処理装置。  9. The signal processing apparatus according to claim 1, wherein each of the first inverse transform processing unit and the first motion compensation unit is a process based on a first coding standard. And the second inverse transform processing unit and the second motion compensation unit each perform processing based on a second coding standard different from the first coding standard. Signal processing device. 請求項9記載の信号処理装置であって、前記第1の符号化規格はMPEG−2規格であり、前記第2の符号化規格はH.264規格であることを特徴とする信号処理装置。  10. The signal processing apparatus according to claim 9, wherein the first encoding standard is the MPEG-2 standard, and the second encoding standard is H.264. H.264 standard signal processing apparatus. 請求項1から8のうちのいずれか1項に記載の信号処理装置であって、前記第1のデジタル放送の品質は前記第2のデジタル放送よりも高品質であることを特徴とする信号処理装置。  9. The signal processing apparatus according to claim 1, wherein the quality of the first digital broadcast is higher than that of the second digital broadcast. apparatus. サイマルキャストされた第1のデジタル放送と第2のデジタル放送との双方の受信信号を処理するデジタル放送受信装置であって、
前記第1および第2のデジタル放送の受信信号からそれぞれ第1および第2の符号化ビットストリームを生成する復調回路と、
請求項1から11のうちのいずれか1項に記載の信号処理装置と、を備えることを特徴とするデジタル放送受信装置。
A digital broadcast receiving apparatus that processes reception signals of both the first digital broadcast and the second digital broadcast that are simulcast,
Demodulating circuits for generating first and second encoded bit streams from the received signals of the first and second digital broadcasts, respectively;
A digital broadcast receiving apparatus comprising: the signal processing apparatus according to claim 1.
サイマルキャストされた第1のデジタル放送と第2のデジタル放送との双方の受信信号からそれぞれ生成された第1および第2の符号化ビットストリームを処理する信号処理方法であって、
(a)前記第1の符号化ビットストリームのエラーを検出するステップと、
(b)前記第1の符号化ビットストリームを解析して第1のシンタックス要素を取得するステップと、
(c)前記第1の符号化ビットストリームのフレーム内符号化画像を復号化して復号画像を再生し、且つ前記第1の符号化ビットストリームの予測符号化画像を復号化して第1の差分画像を再生するステップと、
(d)復号画像を参照して前記第1のシンタックス要素を用いた第1の動き補償予測を実行することにより前記第1の差分画像に加算すべき第1の予測画像を生成するステップと、
(e)前記第2の符号化ビットストリームを解析して第2のシンタックス要素を取得するステップと、
(f)前記第2の符号化ビットストリームのフレーム内符号化画像を復号化して復号画像を再生し、且つ前記第2の符号化ビットストリームの予測符号化画像を復号化して第2の差分画像を再生するステップと、
(g)復号画像を参照して当該変換されたシンタックス要素を用いた第2の動き補償予測を実行することにより前記第2の差分画像に加算すべき第2の予測画像を生成するステップと、
(h)前記エラーが検出されないとき、前記第1の差分画像に前記第1の予測画像を加算して再生した第1の復号画像を出力させる一方、前記エラーが検出されたときは、前記第2の差分画像に前記第2の予測画像を加算して再生した第2の復号画像を前記第1の復号画像に代えて出力させるステップと、
を備えることを特徴とする信号処理方法。
A signal processing method for processing first and second encoded bit streams respectively generated from reception signals of both a first digital broadcast and a second digital broadcast that are simulcast,
(A) detecting an error in the first encoded bitstream;
(B) analyzing the first encoded bitstream to obtain a first syntax element;
(C) Decoding an intra-frame encoded image of the first encoded bitstream to reproduce a decoded image, and decoding a predictive encoded image of the first encoded bitstream to generate a first difference image Step to play,
(D) generating a first predicted image to be added to the first difference image by executing a first motion compensated prediction using the first syntax element with reference to a decoded image; ,
(E) analyzing the second encoded bitstream to obtain a second syntax element;
(F) Decoding an intra-frame encoded image of the second encoded bit stream to reproduce a decoded image, and decoding a predictive encoded image of the second encoded bit stream to generate a second difference image Step to play,
(G) generating a second predicted image to be added to the second difference image by executing a second motion compensated prediction using the converted syntax element with reference to the decoded image; ,
(H) When the error is not detected, the first decoded image reproduced by adding the first predicted image to the first difference image is output. On the other hand, when the error is detected, the first difference image is output. A second decoded image that is reproduced by adding the second predicted image to the difference image of 2 and is output instead of the first decoded image;
A signal processing method comprising:
サイマルキャストされた高品質な第1のデジタル放送と低品質な第2のデジタル放送との双方の受信信号からそれぞれ生成された第1および第2の符号化ビットストリームの処理をプロセッサに実行させる信号処理プログラムであって、前記処理は、
前記第1の符号化ビットストリームのエラーを検出するエラー検出処理と、
前記第1の符号化ビットストリームを解析して第1のシンタックス要素を取得する第1解析処理と、
前記第1の符号化ビットストリームのフレーム内符号化画像を復号化して復号画像を再生し、且つ前記第1の符号化ビットストリームの予測符号化画像を復号化して第1の差分画像を再生する第1逆変換処理と、
復号画像を参照して前記第1のシンタックス要素を用いた第1の動き補償予測を実行することにより前記第1の差分画像に加算すべき第1の予測画像を生成する第1動き補償処理と、
前記第2の符号化ビットストリームを解析して第2のシンタックス要素を取得する第2解析処理と、
前記第2の符号化ビットストリームのフレーム内符号化画像を復号化して復号画像を再生し、且つ前記第2の符号化ビットストリームの予測符号化画像を復号化して第2の差分画像を再生する第2逆変換処理と、
復号画像を参照して当該変換されたシンタックス要素を用いた第2の動き補償予測を実行することにより前記第2の差分画像に加算すべき第2の予測画像を生成する第2動き補償処理と、
前記エラーが検出されないとき、前記第1の差分画像に前記第1の予測画像を加算して再生した第1の復号画像を出力させる一方、前記エラーが検出されたときは、前記第2の差分画像に前記第2の予測画像を加算して再生した第2の復号画像を前記第1の復号画像に代えて出力させる出力制御処理と、
を備えることを特徴とする信号処理プログラム。
A signal for causing the processor to process the first and second encoded bit streams respectively generated from the received signals of the simulcast high-quality first digital broadcast and the low-quality second digital broadcast. A processing program, wherein the processing is
An error detection process for detecting an error in the first encoded bitstream;
A first analysis process of analyzing the first encoded bitstream to obtain a first syntax element;
Decode the intra-frame encoded image of the first encoded bitstream to reproduce the decoded image, and decode the predictive encoded image of the first encoded bitstream to reproduce the first difference image A first inverse transformation process;
First motion compensation processing for generating a first predicted image to be added to the first difference image by executing first motion compensated prediction using the first syntax element with reference to a decoded image When,
A second analysis process of analyzing the second encoded bitstream to obtain a second syntax element;
Decode the intra-frame encoded image of the second encoded bitstream to reproduce the decoded image, and decode the predictive encoded image of the second encoded bitstream to reproduce the second difference image A second inverse transformation process;
Second motion compensation processing for generating a second predicted image to be added to the second difference image by executing second motion compensated prediction using the converted syntax element with reference to the decoded image When,
When the error is not detected, the first decoded image that is reproduced by adding the first predicted image to the first difference image is output, and when the error is detected, the second difference is output. An output control process for outputting a second decoded image reproduced by adding the second predicted image to an image instead of the first decoded image;
A signal processing program comprising:
JP2007547967A 2005-12-02 2006-11-29 Digital broadcast reception signal processing apparatus, signal processing method, signal processing program, and digital broadcast reception apparatus Expired - Fee Related JP4672734B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005349352 2005-12-02
JP2005349352 2005-12-02
PCT/JP2006/323799 WO2007063890A1 (en) 2005-12-02 2006-11-29 Digital broadcast reception signal processing device, signal processing method, signal processing program, and digital broadcast receiver

Publications (2)

Publication Number Publication Date
JPWO2007063890A1 JPWO2007063890A1 (en) 2009-05-07
JP4672734B2 true JP4672734B2 (en) 2011-04-20

Family

ID=38092223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007547967A Expired - Fee Related JP4672734B2 (en) 2005-12-02 2006-11-29 Digital broadcast reception signal processing apparatus, signal processing method, signal processing program, and digital broadcast reception apparatus

Country Status (2)

Country Link
JP (1) JP4672734B2 (en)
WO (1) WO2007063890A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080316995A1 (en) * 2007-06-20 2008-12-25 Motorola, Inc. Broadcast channel signal and apparatus for managing the transmission and receipt of broadcast channel information
JP2009100424A (en) * 2007-10-19 2009-05-07 Fujitsu Ltd Receiving device and reception method
JP5200504B2 (en) * 2007-11-20 2013-06-05 株式会社Jvcケンウッド Digital broadcast receiving apparatus and computer program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1093981A (en) * 1996-07-17 1998-04-10 Sony Corp Image encoder and image encoding method, image decoder and image decoding method, transmitting method and recording medium
JP2003134064A (en) * 2001-10-26 2003-05-09 Hitachi Ltd Digital broadcast complementing method and digital broadcast reception system
JP2003274303A (en) * 2002-03-18 2003-09-26 Sony Corp Digital broadcast receiving device, onboard device, guiding method for digital broadcast reception, program for the guiding method for digital broadcast reception, and recording medium where the program for the guiding method for digital broadcast reception is recorded
JP2005260606A (en) * 2004-03-11 2005-09-22 Fujitsu Ten Ltd Digital broadcast receiver
JP2005311435A (en) * 2004-04-16 2005-11-04 Denso Corp Broadcast receiver for moving object and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1093981A (en) * 1996-07-17 1998-04-10 Sony Corp Image encoder and image encoding method, image decoder and image decoding method, transmitting method and recording medium
JP2003134064A (en) * 2001-10-26 2003-05-09 Hitachi Ltd Digital broadcast complementing method and digital broadcast reception system
JP2003274303A (en) * 2002-03-18 2003-09-26 Sony Corp Digital broadcast receiving device, onboard device, guiding method for digital broadcast reception, program for the guiding method for digital broadcast reception, and recording medium where the program for the guiding method for digital broadcast reception is recorded
JP2005260606A (en) * 2004-03-11 2005-09-22 Fujitsu Ten Ltd Digital broadcast receiver
JP2005311435A (en) * 2004-04-16 2005-11-04 Denso Corp Broadcast receiver for moving object and program

Also Published As

Publication number Publication date
JPWO2007063890A1 (en) 2009-05-07
WO2007063890A1 (en) 2007-06-07

Similar Documents

Publication Publication Date Title
US11328452B2 (en) Image processing device and method
KR101055738B1 (en) Method and apparatus for encoding/decoding video signal using prediction information of intra-mode macro blocks of base layer
US7146056B2 (en) Efficient spatial scalable compression schemes
US9277235B2 (en) Image processing apparatus and method
RU2409005C2 (en) Method of scalable coding and decoding of video signal
US10321136B2 (en) Image processing apparatus and method
RU2668056C1 (en) Image processing device and image processing method
JP2005506815A5 (en)
US20060133475A1 (en) Video coding
WO2013001939A1 (en) Image processing device and image processing method
US20130182770A1 (en) Image processing device, and image processing method
JP2009100424A (en) Receiving device and reception method
JP2007053554A (en) Device and method for encoding, device and method for decoding, and program
JP4672734B2 (en) Digital broadcast reception signal processing apparatus, signal processing method, signal processing program, and digital broadcast reception apparatus
JP2009081579A (en) Motion picture decoding apparatus and motion picture decoding method
KR20060016770A (en) Television receiver and image processing method
JP2009182776A (en) Coder, decoder, moving image coding method, and moving image decoding method
JP2008193444A (en) Information processor
KR20090076022A (en) Apparatus for generating a thumb-nail and multi-codec decoder apparatus including the same
JP2011142698A (en) Device and method for encoding, device and method for decoding, and program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110119

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees