JPWO2007058113A1 - Digital broadcast receiving signal processing apparatus, signal processing method, signal processing program, and digital broadcast receiving apparatus - Google Patents

Digital broadcast receiving signal processing apparatus, signal processing method, signal processing program, and digital broadcast receiving apparatus Download PDF

Info

Publication number
JPWO2007058113A1
JPWO2007058113A1 JP2007545214A JP2007545214A JPWO2007058113A1 JP WO2007058113 A1 JPWO2007058113 A1 JP WO2007058113A1 JP 2007545214 A JP2007545214 A JP 2007545214A JP 2007545214 A JP2007545214 A JP 2007545214A JP WO2007058113 A1 JPWO2007058113 A1 JP WO2007058113A1
Authority
JP
Japan
Prior art keywords
signal
digital broadcast
decoded image
image signal
signal processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007545214A
Other languages
Japanese (ja)
Other versions
JP4740955B2 (en
Inventor
研司 水戸
研司 水戸
淑貴 田中
淑貴 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Priority to JP2007545214A priority Critical patent/JP4740955B2/en
Publication of JPWO2007058113A1 publication Critical patent/JPWO2007058113A1/en
Application granted granted Critical
Publication of JP4740955B2 publication Critical patent/JP4740955B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder

Abstract

サイマルキャストで提供されている複数のデジタル放送の受信信号から極力高品質且つ極力自然な表示映像を生成し得る信号処理装置が開示される。この信号処理装置は、第1デコーダ、第2デコーダおよび信号出力部を有する。第1デコーダは、受信信号の復号化過程で所定数の画素からなる画素ブロック単位でエラーを検出する。信号出力部は、前記エラーが検出されないときは、第1デコーダから供給された復号画像信号の画素ブロックを出力する一方、前記エラーが検出されたときは、第2デコーダから供給された第2の復号画像信号中の画素ブロックを出力することにより出力画像信号を生成する。A signal processing apparatus capable of generating a display image that is as high as possible and as natural as possible from a plurality of digital broadcast reception signals provided by simulcast is disclosed. The signal processing apparatus includes a first decoder, a second decoder, and a signal output unit. The first decoder detects an error in units of a pixel block including a predetermined number of pixels in the decoding process of the received signal. When the error is not detected, the signal output unit outputs the pixel block of the decoded image signal supplied from the first decoder, and when the error is detected, the signal output unit outputs the second block supplied from the second decoder. An output image signal is generated by outputting a pixel block in the decoded image signal.

Description

本発明は、複数のデジタル放送の受信信号を処理する技術に関し、特に、サイマルキャストで送信された2種類のデジタル放送の受信信号を処理する技術に関する。   The present invention relates to a technique for processing a plurality of digital broadcast reception signals, and particularly to a technique for processing two types of digital broadcast reception signals transmitted by simulcast.

日本の地上デジタル放送は、ISDB−T(Integrated Services Digital Broadcasting Terrestrial)規格で規定され、OFDM(直交周波数分割多重;Orthogonal Frequency Division Multiplexing)変調や階層伝送方式を採用している。ISDB−T規格によれば、図1に概略的に示すように、1チャネルの伝送帯域幅(約5.6MHz)が13個のサブバンドすなわちOFDMセグメントS1〜S13に分割されており、これらOFDMセグメントS1〜S13をさらに最大3個のグループすなわち階層に分割することができる。階層毎に、キャリア変調方式や内符号の符号化率、時間インターリーブ長などの異なる伝送特性を設定することができ、また、階層毎に、異なる放送番組を送信することが可能である。たとえば、12個のOFDMセグメントS1〜S6,S8〜S13を用いて固定受信機向けの高品質のハイビジョン放送(High Definition Television)を提供したり、12個のOFDMセグメントS1〜S6,S8〜S13を3個の階層に分割して階層毎に固定受信機向けの標準テレビ放送(Standard Definition Television)を提供したり、中央に配置された1セグメントS7のみを用いて移動体向けデジタル放送(簡易動画放送)を提供したりすることができる。固定受信機向けデジタル放送では、画像圧縮方式としてMPEG2(Moving Picture Experts Group phase 2)が採用され、移動体向けのデジタル放送では、画像圧縮方式としてH.264(MPEG4 AVC)が採用されている。Japanese terrestrial digital broadcasting is defined by the ISDB-T (Integrated Services Digital Broadcasting Terrestrial) standard, and employs OFDM (Orthogonal Frequency Division Multiplexing) modulation and hierarchical transmission schemes. According to the ISDB-T standard, as schematically shown in FIG. 1, the transmission bandwidth of one channel (about 5.6 MHz) is divided into 13 subbands, that is, OFDM segments S 1 to S 13 , These OFDM segments S 1 to S 13 can be further divided into a maximum of three groups or layers. Different transmission characteristics such as carrier modulation scheme, inner code coding rate, and time interleave length can be set for each layer, and different broadcast programs can be transmitted for each layer. For example, 12 OFDM segments S 1 to S 6 and S 8 to S 13 are used to provide high-quality high-definition television (High Definition Television) for fixed receivers, or 12 OFDM segments S 1 to S 6 , S 8 to S 13 are divided into three layers to provide a standard definition television for a fixed receiver for each layer, or using only one segment S 7 arranged in the center. Digital broadcasting (simple video broadcasting) for mobiles can be provided. In digital broadcasting for fixed receivers, MPEG2 (Moving Picture Experts Group phase 2) is adopted as an image compression method, and in digital broadcasting for mobiles, H.264 is used as an image compression method. H.264 (MPEG4 AVC) is employed.

地上デジタル放送が本格的に開始される当初には、放送事業者が、同一内容の番組を固定受信機向けデジタル放送と移動体向けデジタル放送との双方で同時に提供するという、いわゆるサイマルキャスト(サイマル放送)が予定されている。そこで、車両などの移動体において、サイマルキャストを利用して極力高品質のデジタル放送を受信する技術がいくつか提案されている。たとえば、特許文献1(特開2004−312361号公報)および特許文献2(特開2004−166173号公報)では、受信品質に応じて、移動体向けのデジタル放送と固定受信機向けデジタル放送との間で受信放送を自動的に切り換える受信装置が開示されている。   At the beginning of full-scale digital terrestrial broadcasting, so-called simulcast (simultaneous broadcasting), in which broadcasters provide programs with the same content on both fixed receiver digital broadcasting and mobile digital broadcasting simultaneously. Broadcasting) is scheduled. Thus, several techniques have been proposed for receiving high-quality digital broadcasting as much as possible using a simulcast in a moving body such as a vehicle. For example, in Patent Document 1 (Japanese Patent Application Laid-Open No. 2004-312361) and Patent Document 2 (Japanese Patent Application Laid-Open No. 2004-166173), depending on reception quality, digital broadcasting for a mobile unit and digital broadcasting for a fixed receiver are used. A receiving device that automatically switches between receiving broadcasts is disclosed.

しかしながら、前記特許文献1,2の受信装置では、移動体向けのデジタル放送と固定受信機向けのデジタル放送との一方から他方へ受信放送が切り換えられたときに、画像フレームの画質が突然変化するので、不自然な映像が表示され、放送番組を試聴する者に違和感を与えるという問題がある。   However, in the receiving apparatuses of Patent Documents 1 and 2, the image quality of the image frame suddenly changes when the reception broadcast is switched from one of the digital broadcast for the mobile body and the digital broadcast for the fixed receiver to the other. Therefore, there is a problem that an unnatural image is displayed, and it gives a strange feeling to those who listen to the broadcast program.

また、移動体向けのデジタル放送と固定受信機向けのデジタル放送とがサイマルキャストで提供されても、両放送の内容が時間的に正確に同期しているとは限らない。かかる場合、受信放送が移動体向けのデジタル放送から固定受信機向けのデジタル放送に切り換えられたときに、不自然な映像が表示され、放送番組を視聴する者に違和感を与え得る。
特開2004−312361号公報 特開2004−166173号公報
Moreover, even if the digital broadcast for mobile units and the digital broadcast for fixed receivers are provided by simulcast, the contents of both broadcasts are not always synchronized accurately in time. In such a case, when the received broadcast is switched from the digital broadcast for the mobile body to the digital broadcast for the fixed receiver, an unnatural image is displayed, which may give a strange feeling to the viewer of the broadcast program.
Japanese Patent Laid-Open No. 2004-312361 JP 2004-166173 A

上記に鑑みて本発明の目的は、サイマルキャストで提供されている複数のデジタル放送の受信信号から極力高品質且つ極力自然な表示映像を生成し得るデジタル放送受信用の信号処理装置、信号処理方法および信号処理プログラム並びにデジタル放送受信装置を提供することである。   In view of the above, an object of the present invention is to provide a signal processing apparatus and a signal processing method for receiving digital broadcasts that can generate a display image that is as high as possible and as natural as possible from a plurality of digital broadcast reception signals provided by simulcast. And a signal processing program and a digital broadcast receiving apparatus.

本発明の一態様による信号処理装置は、サイマルキャストで送信された第1のデジタル放送および第2のデジタル放送の双方の受信信号を処理するデジタル放送受信用の信号処理装置である。この信号処理装置は、第1の符号化規格に従って前記第1のデジタル放送の受信信号を復号化して第1の復号画像信号を生成する第1デコーダと、前記第1の符号化規格とは異なる第2の符号化規格に従って前記第2のデジタル放送の受信信号を復号化して第2の復号画像信号を生成する第2デコーダと、前記第1の復号画像信号と前記第2の復号画像信号とに基づいて出力画像信号を生成しこれを出力する信号出力部と、を備え、前記第1デコーダは、前記受信信号の復号化過程で所定数の画素からなる画素ブロック単位でエラーを検出し、前記信号出力部は、前記エラーが検出されないときは、前記第1の復号画像信号の画素ブロックを出力する一方、前記エラーが検出されたときは、当該エラーが検出された画素ブロックに代えて、前記第2の復号画像信号中の対応する画素ブロックを出力することにより前記出力画像信号を生成するものである。   A signal processing apparatus according to an aspect of the present invention is a signal processing apparatus for receiving digital broadcasts that processes both first digital broadcast and second digital broadcast reception signals transmitted by simulcast. The signal processing apparatus is different from the first coding standard, and a first decoder that decodes the received signal of the first digital broadcast according to a first coding standard to generate a first decoded image signal. A second decoder for decoding a received signal of the second digital broadcast in accordance with a second encoding standard to generate a second decoded image signal; the first decoded image signal; and the second decoded image signal; A signal output unit that generates an output image signal based on the output signal and outputs the output image signal, wherein the first decoder detects an error in a unit of a pixel block including a predetermined number of pixels in the decoding process of the received signal, When the error is not detected, the signal output unit outputs a pixel block of the first decoded image signal.When the error is detected, the signal output unit replaces the pixel block in which the error is detected. in front And it generates the output image signal by outputting a corresponding pixel block in the second decoded image signal.

本発明の一態様によるデジタル放送受信装置は、サイマルキャストで送信された第1のデジタル放送および第2のデジタル放送を受信するデジタル放送受信装置である。このデジタル放送受信装置は、前記第1および第2のデジタル放送の受信信号を供給する受信回路と、第1の符号化規格に従って前記第1のデジタル放送の受信信号を復号化して第1の復号画像信号を生成する第1デコーダと、前記第1の符号化規格とは異なる第2の符号化規格に従って前記第2のデジタル放送の受信信号を復号化して第2の復号画像信号を生成する第2デコーダと、前記第1の復号画像信号と前記第2の復号画像信号とに基づいて出力画像信号を生成しこれを出力する信号出力部と、を備え、前記第1デコーダは、前記受信信号の復号化過程で所定数の画素からなる画素ブロック単位でエラーを検出し、前記信号出力部は、前記エラーが検出されないときは、前記第1の復号画像信号の画素ブロックを出力する一方、前記エラーが検出されたときは、当該エラーが検出された画素ブロックに代えて、前記第2の復号画像信号中の対応する画素ブロックを出力することにより前記出力画像信号を生成するものである。   A digital broadcast receiving apparatus according to an aspect of the present invention is a digital broadcast receiving apparatus that receives a first digital broadcast and a second digital broadcast transmitted by simulcast. The digital broadcast receiving apparatus includes: a reception circuit that supplies reception signals of the first and second digital broadcasts; and a first decoding by decoding the reception signals of the first digital broadcast according to a first encoding standard. A first decoder for generating an image signal; and a second decoding image signal for generating a second decoded image signal by decoding the received signal of the second digital broadcast according to a second encoding standard different from the first encoding standard. 2 decoder, and a signal output unit that generates an output image signal based on the first decoded image signal and the second decoded image signal and outputs the output image signal, and the first decoder includes the received signal In the decoding process, an error is detected in units of a pixel block including a predetermined number of pixels, and when the error is not detected, the signal output unit outputs a pixel block of the first decoded image signal, while When error is detected, instead of the pixel block in which the error is detected, and generates the output image signal by outputting a corresponding pixel block in the second decoded image signal.

本発明の一態様による信号処理方法は、サイマルキャストで送信された第1のデジタル放送および第2のデジタル放送の双方の受信信号を処理するデジタル放送受信用の信号処理方法である。この信号処理方法は、(a)第1の符号化規格に従って前記第1のデジタル放送の受信信号を復号化して第1の復号画像信号を生成するステップと、(b)前記第1の符号化規格とは異なる第2の符号化規格に従って前記第2のデジタル放送の受信信号を復号化して第2の復号画像信号を生成するステップと、(c)前記ステップ(a)の復号化過程で所定数の画素からなる画素ブロック単位でエラーを検出するステップと、(d)前記エラーが検出されないときは、前記第1の復号画像信号の画素ブロックを出力する一方、前記エラーが検出されたときは、当該エラーが検出された画素ブロックに代えて、前記第2の復号画像信号中の対応する画素ブロックを出力することにより出力画像信号を生成するステップと、を備えたものである。   A signal processing method according to an aspect of the present invention is a signal processing method for digital broadcast reception that processes reception signals of both a first digital broadcast and a second digital broadcast transmitted by simulcast. The signal processing method includes: (a) decoding a reception signal of the first digital broadcast according to a first encoding standard to generate a first decoded image signal; and (b) the first encoding. Decoding a received signal of the second digital broadcast according to a second encoding standard different from the standard to generate a second decoded image signal; and (c) predetermined in the decoding process of the step (a) A step of detecting an error in a pixel block unit consisting of a number of pixels; and (d) when the error is not detected, the pixel block of the first decoded image signal is output, while when the error is detected And generating a output image signal by outputting a corresponding pixel block in the second decoded image signal instead of the pixel block in which the error is detected.

本発明の一態様による信号処理プログラムは、サイマルキャストで送信された第1のデジタル放送および第2のデジタル放送の双方の受信信号の処理をプロセッサに実行させるデジタル放送受信用の信号処理プログラムである。この信号処理プログラムは、前記処理は、(a)第1の符号化規格に従って前記第1のデジタル放送の受信信号を復号化して第1の復号画像信号を生成する第1復号化処理と、(b)前記第1の符号化規格とは異なる第2の符号化規格に従って前記第2のデジタル放送の受信信号を復号化して第2の復号画像信号を生成する第2復号化処理と、(c)前記第2復号化処理の過程で所定数の画素からなる画素ブロック単位でエラーを検出するエラー検出処理と、(d)前記エラーが検出されないときは、前記第1の復号画像信号の画素ブロックを出力する一方、前記エラーが検出されたときは、当該エラーが検出された画素ブロックに代えて、前記第2の復号画像信号中の対応する画素ブロックを出力することにより出力画像信号を生成する信号出力処理と、を含むものである。   A signal processing program according to an aspect of the present invention is a signal processing program for receiving a digital broadcast that causes a processor to process the received signals of both the first digital broadcast and the second digital broadcast transmitted by simulcast. . The signal processing program includes: (a) a first decoding process for decoding a received signal of the first digital broadcast according to a first encoding standard to generate a first decoded image signal; b) a second decoding process for decoding a received signal of the second digital broadcast according to a second encoding standard different from the first encoding standard to generate a second decoded image signal; ) An error detection process for detecting an error in a unit of a pixel block composed of a predetermined number of pixels in the second decoding process; and (d) a pixel block of the first decoded image signal when the error is not detected When the error is detected, an output image signal is generated by outputting a corresponding pixel block in the second decoded image signal instead of the pixel block in which the error is detected. Trust And output process, is intended to include.

図1は、13個のOFDMセグメントを示す図である。FIG. 1 is a diagram illustrating 13 OFDM segments. 図2は、本発明に係る実施例のデジタル放送受信装置の構成を概略的に示す機能ブロック図である。FIG. 2 is a functional block diagram schematically showing the configuration of the digital broadcast receiving apparatus according to the embodiment of the present invention. 図3は、遅延検出部の概略構成の一例を示す機能ブロック図である。FIG. 3 is a functional block diagram illustrating an example of a schematic configuration of the delay detection unit. 図4は、遅延検出部の概略構成の他の例を示す機能ブロック図である。FIG. 4 is a functional block diagram illustrating another example of the schematic configuration of the delay detection unit. 図5は、遅延量検出処理を説明するためのフローチャートである。FIG. 5 is a flowchart for explaining the delay amount detection processing. 図6は、遅延量検出処理を説明するためのフローチャートである。FIG. 6 is a flowchart for explaining the delay amount detection processing. 図7は、遅延量検出処理を説明するための図である。FIG. 7 is a diagram for explaining the delay amount detection processing. 図8は、信号出力部の概略構成を示す機能ブロック図である。FIG. 8 is a functional block diagram illustrating a schematic configuration of the signal output unit. 図9は、出力画像を模式的に示す図である。FIG. 9 is a diagram schematically showing an output image. 図10は、動き検出処理を説明するためのフローチャートである。FIG. 10 is a flowchart for explaining the motion detection process.

符号の説明Explanation of symbols

1 デジタル放送受信装置
2 受信回路(フロントエンド)
3 信号処理回路
10 アンテナ
11 チューナ
12 復調回路
13 第1デコーダ
14 第1遅延部
15 第2デコーダ
16 第2遅延部
17 遅延検出部
18 信号出力部
19 動き検出部
1 Digital broadcast receiver 2 Receiver circuit (front end)
3 Signal Processing Circuit 10 Antenna 11 Tuner 12 Demodulation Circuit 13 First Decoder 14 First Delay Unit 15 Second Decoder 16 Second Delay Unit 17 Delay Detection Unit 18 Signal Output Unit 19 Motion Detection Unit

発明を実施するための形態BEST MODE FOR CARRYING OUT THE INVENTION

本出願は、日本国特許出願第2005−335651号を優先権主張の基礎とするものであり、当該基礎出願の内容は本願に援用されるものとする。   This application uses Japanese Patent Application No. 2005-335651 as a basis for claiming priority, and the content of the basic application is incorporated herein.

以下、本発明に係る種々の実施例について説明する。   Hereinafter, various embodiments according to the present invention will be described.

図2は、本発明に係る実施例のデジタル放送受信装置1の構成を概略的に示す機能ブロック図である。このデジタル放送受信装置1は、アンテナ10と受信回路(フロントエンド)2と信号処理回路3とで構成されている。受信回路2は、チューナ11と復調回路12とを有する。信号処理回路3は、デマルチプレキサ(DMUX)、第1デコーダ13、第2デコーダ15、遅延部14,15、遅延検出部17および信号出力部18を有している。   FIG. 2 is a functional block diagram schematically showing the configuration of the digital broadcast receiver 1 according to the embodiment of the present invention. The digital broadcast receiving apparatus 1 includes an antenna 10, a receiving circuit (front end) 2, and a signal processing circuit 3. The reception circuit 2 includes a tuner 11 and a demodulation circuit 12. The signal processing circuit 3 includes a demultiplexer (DMUX), a first decoder 13, a second decoder 15, delay units 14 and 15, a delay detection unit 17, and a signal output unit 18.

図2を参照すると、チューナ11は、アンテナ10で受信すべき放送波を選局し、受信した放送波を周波数変換してOFDM信号を生成する。復調回路12は、チューナ11からのOFDM信号にFFT(高速フーリエ変換)を施してOFDM復調信号を生成し、さらにこのOFDM復調信号に対してデインターリーブ、デマッピングおよび誤り訂正などの復号化処理を施して、トランスポートストリームTSを生成する。デマルチプレキサ(DMUX)は、トランスポートストリームTSから、第1エレメンタリストリームES1,第2エレメンタリストリームES2およびTSエラー情報TSeを分離し、第1エレメンタリストリームES1を第1デコーダ13に供給し、第2エレメンタリストリームES2を第2デコーダ15に供給する。第1エレメンタリストリームES1はMPEG2規格に準拠したビット列であり、第2エレメンタリストリームES2はH.264規格に準拠したビット列である。   Referring to FIG. 2, the tuner 11 selects a broadcast wave to be received by the antenna 10 and frequency-converts the received broadcast wave to generate an OFDM signal. The demodulation circuit 12 performs an FFT (Fast Fourier Transform) on the OFDM signal from the tuner 11 to generate an OFDM demodulated signal, and further performs decoding processing such as deinterleaving, demapping, and error correction on the OFDM demodulated signal. To generate a transport stream TS. The demultiplexer (DMUX) separates the first elementary stream ES1, the second elementary stream ES2, and the TS error information TSe from the transport stream TS, and supplies the first elementary stream ES1 to the first decoder 13. The second elementary stream ES2 is supplied to the second decoder 15. The first elementary stream ES1 is a bit string compliant with the MPEG2 standard, and the second elementary stream ES2 is H.264. It is a bit string compliant with the H.264 standard.

また、復調回路12は、誤り訂正処理の過程で、訂正不可能なエラーをTSパケット単位で検出し、このエラーの発生位置を示すTSエラー情報TSeをトランスポートストリームTSに含めてデマルチプレキサ(DMUX)に供給する。   Further, the demodulation circuit 12 detects an uncorrectable error in units of TS packets in the course of error correction processing, includes TS error information TSe indicating the position where this error occurs in the transport stream TS, and demultiplexer ( DMUX).

第1デコーダ13は、第1エレメンタリストリームES1をMPEG2の符号化規格に従って復号化して復号画像信号DS1を生成する。ここで、第1デコーダ13は、TSエラー情報TSeを用いてマクロブロックエラー情報MBeを生成し、この情報MBeを信号出力部18に供給する。マクロブロックエラー情報MBeは、各マクロブロックについてエラーの有無を示す情報である。マクロブロックは、通常、16×16個または8×8個の画素で構成されている。本発明の画素ブロックは、マクロブロック自体、或いはマクロブロックをさらに分割して得られるサブブロックでもよい。第1デコーダ13は、スキップマクロブロック(skipped macroblock)の有無を示すデータや動きベクトルを含む動き量情報MV1を動き検出部19に供給している。   The first decoder 13 decodes the first elementary stream ES1 according to the MPEG2 coding standard to generate a decoded image signal DS1. Here, the first decoder 13 generates macroblock error information MBe using the TS error information TSe, and supplies this information MBe to the signal output unit 18. The macro block error information MBe is information indicating the presence / absence of an error for each macro block. A macroblock is usually composed of 16 × 16 or 8 × 8 pixels. The pixel block of the present invention may be the macroblock itself or a subblock obtained by further dividing the macroblock. The first decoder 13 supplies the motion detection unit 19 with motion amount information MV1 including data indicating the presence or absence of a skipped macroblock and a motion vector.

他方、第2デコーダ15は、第2エレメンタリストリームES2をH.264の符号化規格に従って復号化して復号画像信号DS2を生成する。また、第2デコーダ15は、スキップマクロブロックの有無を示すデータや動きベクトルを含む動き量情報MV2を動き検出部19に供給している。   On the other hand, the second decoder 15 converts the second elementary stream ES2 to H.264. The decoded image signal DS2 is generated by decoding according to the H.264 coding standard. In addition, the second decoder 15 supplies the motion detection unit 19 with motion amount information MV2 including data indicating the presence or absence of a skip macroblock and a motion vector.

さらに、第1デコーダ13と第2デコーダ15は、それぞれ、復号画像信号DS1と復号画像信号DS2のフレームレート、画像サイズ(水平解像度および垂直解像度)、およびパンスキャン(PANSCAN)の指定フラグなどの画像パラメータPA1,PA2を、遅延検出部17と信号出力部18とに供給している。   Further, the first decoder 13 and the second decoder 15 are images such as a frame rate of the decoded image signal DS1 and the decoded image signal DS2, an image size (horizontal resolution and vertical resolution), and a pan scan (PANSCAN) designation flag, respectively. The parameters PA1 and PA2 are supplied to the delay detection unit 17 and the signal output unit 18.

第1遅延部14は、遅延検出部17から供給される第1遅延量DV1だけ、第1デコーダ13からの復号画像信号DS1を遅延させて遅延画像信号LS1を生成し、この信号LS1を信号出力部18に供給する。他方、第2遅延部16は、遅延検出部17から供給される第1遅延量DV2だけ、第2デコーダ15からの復号画像信号DS2を遅延させて遅延画像信号LS2を生成し、この信号LS2を信号出力部18に供給する。信号出力部18は、マクロブロックエラー情報MBeに応じて、遅延画像信号LS1と遅延画像信号LS2とに基づいて出力画像信号CSを生成する。この信号出力部18の構成については後述する。   The first delay unit 14 delays the decoded image signal DS1 from the first decoder 13 by the first delay amount DV1 supplied from the delay detection unit 17 to generate a delayed image signal LS1, and outputs the signal LS1 as a signal. Supply to unit 18. On the other hand, the second delay unit 16 delays the decoded image signal DS2 from the second decoder 15 by the first delay amount DV2 supplied from the delay detection unit 17 to generate a delayed image signal LS2, and this signal LS2 is generated. The signal output unit 18 is supplied. The signal output unit 18 generates an output image signal CS based on the delayed image signal LS1 and the delayed image signal LS2 in accordance with the macroblock error information MBe. The configuration of the signal output unit 18 will be described later.

動き検出部19は、復号画像信号DS1が表す画像(以下、MPEG画像と呼ぶ。)の動き量と、復号画像信号DS2が表す画像(以下、H.264画像と呼ぶ。)の動き量とを検出し、その検出結果MDを遅延検出部17に供給する。遅延検出部17は、その検出結果MDを用いて、復号画像信号DS1と復号画像信号DS2との間の同期ずれを検出し、その同期ずれを補償するための第1遅延量DV1と第2遅延量DV2とを生成する。これら動き検出部19と遅延検出部17の各構成については後述する。   The motion detection unit 19 calculates the motion amount of an image (hereinafter referred to as an MPEG image) represented by the decoded image signal DS1 and the motion amount of an image (hereinafter referred to as an H.264 image) represented by the decoded image signal DS2. The detection result MD is supplied to the delay detection unit 17. The delay detection unit 17 detects a synchronization shift between the decoded image signal DS1 and the decoded image signal DS2 using the detection result MD, and a first delay amount DV1 and a second delay for compensating for the synchronization shift. The quantity DV2 is generated. Each configuration of the motion detector 19 and the delay detector 17 will be described later.

図3は、遅延検出部17の概略構成の一例を示す機能ブロック図である。図3を参照すると、遅延検出部17は、画像サイズ検出部20,ダウンコンバータ(解像度変換部)21,第1画像抽出部22,第2画像抽出部23,一致検出部24,フレームレート検出部25および遅延量テーブル26を有している。   FIG. 3 is a functional block diagram illustrating an example of a schematic configuration of the delay detection unit 17. Referring to FIG. 3, the delay detection unit 17 includes an image size detection unit 20, a down converter (resolution conversion unit) 21, a first image extraction unit 22, a second image extraction unit 23, a coincidence detection unit 24, and a frame rate detection unit. 25 and a delay amount table 26.

画像サイズ検出部20は、画像パラメータPA1,PA2からMPEG画像の画像サイズ(垂直解像度および水平解像度)とH.264画像の画像サイズとを検出し、これら画像サイズの比率である変換比率DRをダウンコンバータ21に与える。ダウンコンバータ21は、変換比率DRの倍率で復号画像信号DS1の解像度を変換して、すなわち復号画像信号DS1を間引いて変換画像信号DC1を生成する。この結果、変換画像信号DC1の画像サイズは復号画像信号DS2のそれに一致する。たとえば、MPEG画像の高解像度1920×1080が、H.264画像の解像度320×180に変換される。   The image size detection unit 20 calculates the image size (vertical resolution and horizontal resolution) of the MPEG image from the image parameters PA1 and PA2, and H.264. The image size of the H.264 image is detected, and a conversion ratio DR that is a ratio of these image sizes is given to the down converter 21. The down-converter 21 converts the resolution of the decoded image signal DS1 at the magnification of the conversion ratio DR, that is, generates the converted image signal DC1 by thinning out the decoded image signal DS1. As a result, the image size of the converted image signal DC1 matches that of the decoded image signal DS2. For example, the high resolution 1920 × 1080 of an MPEG image is H.264. The resolution of the H.264 image is converted to 320 × 180.

また、画像サイズ検出部20は、画像パラメータPA1,PA2から、MPEG画像のアスペクト比とH.264画像のアスペクト比とを示す情報ARを取得して、この情報ARを一致検出部24に供給する。   Further, the image size detection unit 20 calculates the MPEG image aspect ratio and the H.264 from the image parameters PA1 and PA2. Information AR indicating the aspect ratio of the H.264 image is acquired, and this information AR is supplied to the coincidence detection unit 24.

一方、フレームレート検出部25は、画像パラメータPA1,PA2からMPEG画像のフレームレート(=fs1)とH.264画像のフレームレート(=fs2)とを取得し、H.264画像のフレームレートに対するMPEG画像のフレームレートの比率(=fs1/fs2)であるフレームレート比FRを算出する。このフレームレート比FRのデータは、第1画像抽出部22および一致検出部24にそれぞれ供給される。たとえば、MPEG画像のフレームレートが60fps(フレーム毎秒)または30fpsであり、H.264画像のフレームレートが15fpsである場合、フレームレート比FRは、4または2の整数となる。   On the other hand, the frame rate detection unit 25 calculates the frame rate (= fs1) of the MPEG image from the image parameters PA1 and PA2 and H.264. H.264 image frame rate (= fs2). A frame rate ratio FR which is a ratio of the frame rate of the MPEG image to the frame rate of the H.264 image (= fs1 / fs2) is calculated. The data of the frame rate ratio FR is supplied to the first image extraction unit 22 and the coincidence detection unit 24, respectively. For example, the frame rate of an MPEG image is 60 fps (frames per second) or 30 fps. When the frame rate of the H.264 image is 15 fps, the frame rate ratio FR is an integer of 4 or 2.

第1画像抽出部22は、変換画像信号DC1を構成する一連の画像フレームの中から、フレームレート比FRに応じた数の基準フレームを抽出し、単数または複数の基準フレームSD1を一致検出部24に供給する。他方、第2画像抽出部23は、遅延量テーブル26から供給された遅延情報TBを用いて、復号画像信号DS1を構成する一連の画像フレームの中から複数の基準フレームを抽出し、これら基準フレームSD2を一致検出部24に与える。   The first image extraction unit 22 extracts a number of reference frames corresponding to the frame rate ratio FR from a series of image frames constituting the converted image signal DC1, and matches one or a plurality of reference frames SD1 with the coincidence detection unit 24. To supply. On the other hand, the second image extraction unit 23 uses the delay information TB supplied from the delay amount table 26 to extract a plurality of reference frames from a series of image frames constituting the decoded image signal DS1, and these reference frames SD2 is given to the coincidence detector 24.

ところで、同一チャネルを使用してサイマルキャストされる固定受信機向けのデジタル放送と移動体向けのデジタル放送とは時間的に互いに同期しているとは限らず、両放送間の同期ずれは、デジタル放送を送信する放送局のシステム毎に異なり、当該システムに固有のものである。遅延量テーブル26には、そのような各放送局で発生する同期ずれに相当する遅延時間のデータが格納されている。また、遅延量テーブル26には、現在選局されているチャネルを示す受信チャネル情報CHが制御回路(図示せず)から供給されており、遅延量テーブル26は、受信チャネル情報CHに対応する遅延時間のデータTBを第2画像抽出部23に供給している。   By the way, digital broadcasts for fixed receivers and simulcasts that are simulcast using the same channel are not always synchronized in time with each other, and the synchronization gap between the two broadcasts is digital. It differs depending on the system of the broadcasting station that transmits the broadcast, and is unique to the system. The delay amount table 26 stores data of delay time corresponding to such synchronization loss occurring in each broadcasting station. The delay amount table 26 is supplied with reception channel information CH indicating the currently selected channel from a control circuit (not shown), and the delay amount table 26 is a delay corresponding to the reception channel information CH. Time data TB is supplied to the second image extraction unit 23.

一致検出部24は、基準フレームSD1,SD2を比較してこれら基準フレームSD1,SD2間の情報量の差が最小になる基準フレームの組み合わせを検索する。この検索の結果得られた2枚の基準フレームが表す画像は略一致すると判断される。たとえば、基準フレームSD1の数が2枚であり、基準フレームSD2の数が3枚であれば、2×3(=6)通りの組み合わせが存在するので、これら6通りの組み合わせの中から、基準フレーム間の情報量の差が最小となる組み合わせを検索することとなる。また、一致検出部24は、検索の結果得られた基準フレーム間の時間差に基づいて遅延量DV1,DV2を算出する。一致検出部24は、動き検出部19による検出結果MDに応じて、MPEG画像とH.264画像の双方に動きがあるか否かを判断することができる。一致検出部24は、MPEG画像とH.264画像の双方に動きが殆ど無い場合には、基準フレームの一致精度が低くなるので検索処理を中断する機能を有する。   The coincidence detection unit 24 compares the reference frames SD1 and SD2, and searches for a combination of reference frames that minimizes the difference in information amount between the reference frames SD1 and SD2. It is determined that the images represented by the two reference frames obtained as a result of this search are substantially the same. For example, if the number of reference frames SD1 is 2 and the number of reference frames SD2 is 3, there are 2 × 3 (= 6) combinations. A combination that minimizes the difference in the amount of information between frames is searched. In addition, the coincidence detection unit 24 calculates delay amounts DV1 and DV2 based on the time difference between the reference frames obtained as a result of the search. The coincidence detection unit 24 selects the MPEG image and the H.264 according to the detection result MD by the motion detection unit 19. It can be determined whether or not there is movement in both of the H.264 images. The coincidence detection unit 24 is configured to detect MPEG images and H.264. When there is almost no motion in both of the H.264 images, the matching accuracy of the reference frame is lowered, so that the search process is interrupted.

図4は、遅延検出部17の概略構成の他の例を示す機能ブロック図である。図3に示した遅延検出部17では、ダウンコンバータ21によってMPEG画像の解像度がH.264画像のそれに変換されたが、図4に示す遅延検出部17では、アップコンバータ27によってH.264画像の解像度がMPEG画像のそれに変換される。このため、第1画像抽出部22Aは、復号画像信号DS1を構成する一連の画像フレームの中から基準フレームSD1を抽出し、第2画像抽出部23Bは、アップコンバータ27から供給される変換画像信号DC1を構成する一連の画像フレームの中から基準フレームSD2を抽出している。また、一致検出部24Aは、MPEG画像の高解像度を持つ基準フレームSD1,SD2を用いて検索処理を実行する。その他の構成は、図3に示した遅延検出部17の構成と同じである。   FIG. 4 is a functional block diagram illustrating another example of the schematic configuration of the delay detection unit 17. In the delay detection unit 17 shown in FIG. The delay detection unit 17 shown in FIG. The resolution of the H.264 image is converted to that of the MPEG image. For this reason, the first image extraction unit 22A extracts the reference frame SD1 from a series of image frames constituting the decoded image signal DS1, and the second image extraction unit 23B converts the converted image signal supplied from the upconverter 27. A reference frame SD2 is extracted from a series of image frames constituting the DC1. Further, the coincidence detection unit 24A executes the search process using the reference frames SD1 and SD2 having high resolution of the MPEG image. The other configuration is the same as that of the delay detection unit 17 shown in FIG.

次に、主に遅延検出部17(図3)による遅延量検出処理について、図5および図6のフローチャートを参照しつつ以下に説明する。図5と図6のフローチャートは、接続子C1,C2を介して相互に接続されている。   Next, the delay amount detection processing mainly by the delay detection unit 17 (FIG. 3) will be described below with reference to the flowcharts of FIGS. The flowcharts of FIGS. 5 and 6 are connected to each other via connectors C1 and C2.

図5を参照すると、ステップS1では、制御回路(図示せず)がサイマル放送が受信されているか否かを判定し、サイマル放送が受信されていなければ、遅延量検出処理を終了させる。たとえば、制御回路(図示せず)が復調回路12で分離されたデータ用のトランスポートストリームを復号化してEPG(電子番組表)情報を取得し、このEPG情報に基づいてサイマル放送を受信しているか否かを判定することができる。サイマル放送が受信されている場合、画像サイズ検出部20は、画像パラメータPA1,PA2からMPEG画像の画像サイズとH.264画像の画像サイズとを取得し、これら画像サイズの比率を算出する(ステップS2)。画像サイズ検出部20は、この画像サイズの比率である変換比率DRをダウンコンバータ21に供給し、ダウンコンバータ21は、変換比率DRに応じた倍率でMPEG画像(復号画像信号DS1)の解像度をH.264画像の解像度に変換して変換画像信号DC1を生成する(ステップS3)。   Referring to FIG. 5, in step S <b> 1, a control circuit (not shown) determines whether or not simulcast is received. If simulcast is not received, the delay amount detection process is terminated. For example, a control circuit (not shown) decodes the data transport stream separated by the demodulation circuit 12 to acquire EPG (electronic program guide) information, and receives a simulcast based on the EPG information. It can be determined whether or not. When the simulcast is received, the image size detection unit 20 calculates the MPEG image size and H.264 from the image parameters PA1 and PA2. The image size of the H.264 image is acquired, and the ratio of these image sizes is calculated (step S2). The image size detection unit 20 supplies the conversion ratio DR, which is the ratio of the image sizes, to the down converter 21, and the down converter 21 sets the resolution of the MPEG image (decoded image signal DS1) to H at a magnification according to the conversion ratio DR. . The converted image signal DC1 is generated by converting to the resolution of the H.264 image (step S3).

さらに、画像サイズ検出部20は、画像パラメータPA1,PA2からMPEG画像のアスペクト比とH.264画像のアスペクト比とを取得し(ステップS4)、これらアスペクト比ARのデータを一致検出部24に与える。一致検出部24は、これらアスペクト比が同一か否かを判定し(ステップS5)、アスペクト比が同一でなければ、遅延量検出処理を終了させる。   Furthermore, the image size detection unit 20 calculates the MPEG image aspect ratio and H.264 from the image parameters PA1 and PA2. The aspect ratio of the H.264 image is acquired (step S4), and the data of the aspect ratio AR is given to the coincidence detection unit 24. The coincidence detection unit 24 determines whether or not these aspect ratios are the same (step S5). If the aspect ratios are not the same, the delay amount detection process is terminated.

MPEG画像のアスペクト比とH.264画像のアスペクト比とが同一であると判定されたとき(ステップS5)、フレームレート検出部25は、画像パラメータPA1,PA2からMPEG画像のフレームレートとH.264画像のフレームレートとを検出する(ステップS6)。フレームレート検出部25は、さらに、H.264画像のフレームレートが固定レートであるか否かを判定する(ステップS7)。H.264画像のフレームレートが可変レートであれば、遅延量検出処理は終了する。   MPEG image aspect ratio and H.264 When it is determined that the aspect ratio of the H.264 image is the same (step S5), the frame rate detection unit 25 determines the MPEG image frame rate and the H.264 image from the image parameters PA1 and PA2. The frame rate of the H.264 image is detected (step S6). The frame rate detection unit 25 further includes It is determined whether or not the frame rate of the H.264 image is a fixed rate (step S7). H. If the frame rate of the H.264 image is a variable rate, the delay amount detection process ends.

H.264画像のフレームレートが固定レートであると判定したとき(ステップS7)、フレームレート検出部25は、MPEG画像のフレームレートとH.264画像のフレームレートとの比率FRを算出し(ステップS8)、このフレームレート比FRは、第1画像抽出部22と一致検出部24とに供給される。一致検出部24は、フレームレート比FRが整数比であるか否かを判定し(ステップS9)、フレームレート比FRが整数比でなければ、遅延量検出処理を終了させる。   H. When it is determined that the frame rate of the H.264 image is a fixed rate (step S7), the frame rate detection unit 25 calculates the frame rate of the MPEG image and the H.264 image. A ratio FR to the frame rate of the H.264 image is calculated (step S8), and this frame rate ratio FR is supplied to the first image extraction unit 22 and the coincidence detection unit 24. The coincidence detection unit 24 determines whether or not the frame rate ratio FR is an integer ratio (step S9). If the frame rate ratio FR is not an integer ratio, the delay amount detection process is terminated.

続くステップS10(図6)では、動き検出部19(図2)は、第1デコーダ13から供給された動き量情報MV1または復号画像信号DS1に基づいて、MPEG画像の動き量を検出する。次いで、動き検出部19は、MPEG画像の動き量が所定範囲外にあるか否か、すなわち、遅延量を検出するために十分な動きがMPEG画像にあるか否かを判定する(ステップS11)。MPEG画像の動き量が所定範囲外に無いとき、動き検出部19はステップS10に処理を戻す。一方、MPEG画像の動き量が所定範囲を超えているとき、動き検出部19は、さらに、第2デコーダ15から供給された動き量情報MV2または復号画像信号DS2に基づいて、H.264画像の動き量を検出する(ステップS12)。次いで、動き検出部19は、H.264画像の動き量が所定範囲外にあるか否か、すなわち、遅延量を検出するために十分な動きがH.264画像にあるか否かを判定する(ステップS13)。動き検出部19は、H.264画像の動き量が所定範囲外に無いときはステップS10に処理を戻し、H.264画像の動き量が所定範囲を超えているときには次のステップS14に処理を移行させる。動き検出部19による検出結果MDは、一致検出部24(図3)に供給される。   In subsequent step S10 (FIG. 6), the motion detector 19 (FIG. 2) detects the motion amount of the MPEG image based on the motion amount information MV1 or the decoded image signal DS1 supplied from the first decoder 13. Next, the motion detection unit 19 determines whether or not the motion amount of the MPEG image is outside the predetermined range, that is, whether or not there is sufficient motion in the MPEG image to detect the delay amount (step S11). . When the motion amount of the MPEG image is not outside the predetermined range, the motion detection unit 19 returns the process to step S10. On the other hand, when the motion amount of the MPEG image exceeds the predetermined range, the motion detection unit 19 further determines the H.264 based on the motion amount information MV2 or the decoded image signal DS2 supplied from the second decoder 15. The amount of motion of the H.264 image is detected (step S12). Next, the motion detection unit 19 performs H.264. H.264 image motion amount is outside the predetermined range, that is, motion sufficient to detect the delay amount is H.264. It is determined whether or not the image is in the H.264 image (step S13). The motion detection unit 19 is an H.264. If the amount of motion of the H.264 image is not outside the predetermined range, the process returns to step S10, When the motion amount of the H.264 image exceeds the predetermined range, the process proceeds to the next step S14. The detection result MD by the motion detector 19 is supplied to the coincidence detector 24 (FIG. 3).

このように動き検出部19は、正確な遅延量を検出すべく、MPEG画像とH.264画像の双方の動き量を監視して双方の動き量が一定範囲を超えた場合に次のステップS14に処理を移行させているが、かかる場合に限定されるものではない。MPEG画像とH.264画像のいずれか一方のみの動き量を監視して当該一方の動き量が所定範囲を超えた場合に次のステップS14に処理を移行させることも可能である。   In this way, the motion detection unit 19 detects MPEG images and H.264 in order to detect an accurate delay amount. When both motion amounts of the H.264 image are monitored and both motion amounts exceed a certain range, the processing is shifted to the next step S14. However, the present invention is not limited to this case. MPEG images and H.264 It is also possible to monitor the amount of motion of only one of the H.264 images and shift the processing to the next step S14 when the amount of motion of the one exceeds a predetermined range.

続くステップS14では、第1画像抽出部22は、MPEG画像からM枚(Mは正整数)の基準フレームSD1を抽出し、これら基準フレームSD1を一致検出部24に与える。基準フレームSD1の枚数Mは、MPEG画像とH.264画像とのフレームレート比FRに基づいて決定される。たとえば、フレームレート比FRが「2」の場合、2×k枚(kは正整数)の基準フレームSD1を抽出することが可能である。   In subsequent step S <b> 14, the first image extraction unit 22 extracts M (M is a positive integer) reference frames SD <b> 1 from the MPEG image, and provides these reference frames SD <b> 1 to the coincidence detection unit 24. The number M of the reference frames SD1 includes MPEG images and H.264. It is determined based on the frame rate ratio FR with the H.264 image. For example, when the frame rate ratio FR is “2”, 2 × k (k is a positive integer) reference frames SD1 can be extracted.

次に、第2画像抽出部23は、H.264画像から基準フレームSD2を抽出するために、選局されている放送局に固有の遅延量Δtを示す遅延情報TBを遅延量テーブル26から取得する(ステップS15)。続けて、第2画像抽出部23は、カレント時間t0から遅延量Δtだけ遅延させた時間t1を中心にした長さTを持つ時間窓(サンプリング窓)を設定する(ステップS16)。図7を参照しつつ時間窓について説明する。図7には、MPEG画像を構成する一連の画像フレームM0,M1,M2,…と、H.264画像を構成する一連の画像フレームH0,H1,H2,…とが示されている。これらMPEG画像とH.264画像とは互いに同期していない。また、カレント時間t0付近に、MPEG画像を構成する2枚の基準フレームM5,M6がサンプリングされている。このとき、長さTの時間窓が、カレント時間t0から遅延量Δtだけ遅延した時間t1を中心にして設定されることとなる。Next, the second image extraction unit 23 performs H.264. In order to extract the reference frame SD2 from the H.264 image, delay information TB indicating the delay amount Δt specific to the selected broadcast station is acquired from the delay amount table 26 (step S15). Subsequently, the second image extraction unit 23 sets a time window (sampling window) having a length T around the time t 1 delayed by the delay amount Δt from the current time t 0 (step S16). The time window will be described with reference to FIG. FIG. 7 shows a series of image frames M0, M1, M2,. A series of image frames H0, H1, H2,... Constituting a H.264 image are shown. These MPEG images and H.264 H.264 images are not synchronized with each other. Further, in the vicinity of the current time t 0, the reference frame M5, M6 of two sheets constituting the MPEG image is sampled. At this time, the time window of length T is set around a time t 1 delayed by a delay amount Δt from the current time t 0 .

次に、第2画像抽出部23は、時間窓に含まれるN枚(Nは正整数)の画像フレームを基準フレームとして抽出し、これら基準フレームを一致検出部24に供給する(ステップS17)。図7の例では、長さTの時間窓に含まれる3枚の基準フレームH1,H2,H3が抽出されることとなる。   Next, the second image extraction unit 23 extracts N (N is a positive integer) image frames included in the time window as reference frames, and supplies these reference frames to the coincidence detection unit 24 (step S17). In the example of FIG. 7, three reference frames H1, H2, and H3 included in the time window of length T are extracted.

次に、一致検出部24は、第1画像抽出部22からの基準フレームSD1と、第2画像抽出部23からの基準フレームSD2との差が最小になる組み合わせを検索する(ステップS18)。図7の例では、MPEG画像の基準フレームMxとH.264画像の基準フレームHxとの組み合わせ(Mx,Hx)は、(M5,H1)、(M5,H2)、(M5,H3)、(M6,H1)、(M6,H2)、(M6,H3)の6通り存在する。これら組み合わせのうち、基準フレーム間の情報量の差が最小になる組み合わせが検索される。具体的には、たとえば、各組み合わせについて基準フレーム間の輝度差を画素毎に算出し、これら輝度差の総和を算出して、総和が最小になる組み合わせを検索すればよい。或いは、基準フレーム間の相関が最大になる組み合わせを検索することも可能である。   Next, the coincidence detection unit 24 searches for a combination that minimizes the difference between the reference frame SD1 from the first image extraction unit 22 and the reference frame SD2 from the second image extraction unit 23 (step S18). In the example of FIG. The combinations (Mx, Hx) of the H.264 image with the reference frame Hx are (M5, H1), (M5, H2), (M5, H3), (M6, H1), (M6, H2), (M6, H3). 6). Of these combinations, the combination that minimizes the difference in the amount of information between the reference frames is searched. Specifically, for example, the luminance difference between the reference frames for each combination may be calculated for each pixel, and the sum of these luminance differences may be calculated to search for a combination that minimizes the sum. Alternatively, it is possible to search for a combination that maximizes the correlation between the reference frames.

さらに、一致検出部24は、検索が成功したか否かを判定する(ステップS19)。たとえば、前記輝度差の総和が予め定めた閾値を超えているか、または前記相関が予め定めた閾値未満であれば、基準フレーム間の一致度は低く検索に失敗したと判定することができる。検索が成功しないとき、一致検出部24は、基準フレームの枚数Nを増やすために時間窓の長さTを拡大し(ステップS21)、この後、ステップS17に処理を戻す。他方、検索が成功したとき、一致検出部24は、検索の結果得た組み合わせの2枚の基準フレームが一致すると判定し、これら基準フレーム間の時間差に基づいて遅延量DV1,DV2を算出する(ステップS20)。図7の例では、2枚の基準フレームM5,H2の組み合わせが検索された場合、基準フレームM5,H2間の時間差が得られる。遅延量DV1,DV2は、基準フレーム間の時間差を補償するように適宜設定されればよい。以上で、遅延算出処理は終了する。   Furthermore, the coincidence detection unit 24 determines whether the search is successful (step S19). For example, if the sum of the luminance differences exceeds a predetermined threshold value or the correlation is less than a predetermined threshold value, it is possible to determine that the matching between the reference frames is low and the search has failed. When the search is not successful, the coincidence detection unit 24 enlarges the time window length T in order to increase the number N of reference frames (step S21), and then returns the process to step S17. On the other hand, when the search is successful, the match detection unit 24 determines that the two reference frames of the combination obtained as a result of the search match, and calculates the delay amounts DV1 and DV2 based on the time difference between these reference frames ( Step S20). In the example of FIG. 7, when a combination of two reference frames M5 and H2 is searched, a time difference between the reference frames M5 and H2 is obtained. The delay amounts DV1 and DV2 may be set as appropriate so as to compensate for the time difference between the reference frames. Thus, the delay calculation process ends.

なお、一致検出部24は、基準フレーム間の全画素について輝度差や相関を算出することで基準フレーム間の差を得る処理を実行しているが、この処理の代わりに、一致精度を向上させるべく、基準フレームの画像の上下端または左右端にある端部画像領域を除いた中央領域内の画素のみについて輝度差や相関を算出してもよい。   Note that the coincidence detection unit 24 performs a process of obtaining a difference between the reference frames by calculating a luminance difference or correlation for all the pixels between the reference frames. Instead of this process, the coincidence accuracy is improved. Accordingly, the luminance difference or correlation may be calculated only for the pixels in the central region excluding the edge image regions at the upper and lower ends or the left and right ends of the image of the reference frame.

上記のように算出された遅延量DV1,DV2は、それぞれ、第1遅延部14と第2遅延部16とに供給される。第1遅延部14は、MPEG画像のタイムスタンプの値に第1遅延量DV1を加算し、その加算値のタイミングで遅延画像信号LS1を信号出力部18に供給する。同様に、第2遅延部16は、H.264画像のタイムスタンプの値に第2遅延量DV2を加算し、その加算値によるタイミングで遅延画像信号LS2を信号出力部18に供給することとなる。タイムスタンプとしては、MPEG2規格とH.264規格でそれぞれ規定されるPTS(Presentation Time Stamp)を使用できる。   The delay amounts DV1 and DV2 calculated as described above are supplied to the first delay unit 14 and the second delay unit 16, respectively. The first delay unit 14 adds the first delay amount DV1 to the time stamp value of the MPEG image, and supplies the delayed image signal LS1 to the signal output unit 18 at the timing of the added value. Similarly, the second delay unit 16 is connected to the H.264. The second delay amount DV2 is added to the time stamp value of the H.264 image, and the delayed image signal LS2 is supplied to the signal output unit 18 at the timing based on the added value. The time stamp includes MPEG2 standard and H.264 standard. PTS (Presentation Time Stamp) respectively defined by the H.264 standard can be used.

図2に示したように、遅延量DV1,DV2に応じて、遅延部14,16はそれぞれ復号画像信号DS1,DS2を遅延させており、遅延部14,16はデコーダ13,15よりも後段に配置されているが、かかる配置に限定する必要はない。たとえば、第1デコーダ13よりも前段に遅延部14を配置してエレメンタリストリームES1が復号化される時間を調整してもよいし、第2デコーダ15よりも前段に遅延部16を配置してエレメンタリストリームES2が復号化される時間を調整してもよい。或いは、信号処理回路3から遅延部14,16を取り除き、遅延検出部17がデコーダ13,15にそれぞれ復号化する時間を調整させる構成を採用してもよい。   As shown in FIG. 2, the delay units 14 and 16 delay the decoded image signals DS1 and DS2 according to the delay amounts DV1 and DV2, respectively, and the delay units 14 and 16 are arranged at a later stage than the decoders 13 and 15. Although arranged, it is not necessary to limit to such an arrangement. For example, the delay unit 14 may be arranged before the first decoder 13 to adjust the time for decoding the elementary stream ES1, or the delay unit 16 may be arranged before the second decoder 15. The time during which the elementary stream ES2 is decoded may be adjusted. Alternatively, a configuration may be adopted in which the delay units 14 and 16 are removed from the signal processing circuit 3 and the delay detection unit 17 adjusts the decoding times of the decoders 13 and 15 respectively.

なお、サイマルキャストされている固定受信機向けデジタル放送と移動体向けデジタル放送との同時受信を開始する際に遅延量DV1,DV2が一度算出されれば、その後、原則として遅延検出部17は遅延量DV1,DV2の算出処理を行う必要がない。ただし、復号画像信号DS1,DS2間の同期ずれが変動し得る受信環境下では、定期的に遅延量DV1,DV2を算出してもよい。   Note that if the delay amounts DV1 and DV2 are calculated once when simultaneous reception of the digital broadcast for fixed receivers and the digital broadcast for mobile objects that are simulcast is started, in principle, the delay detection unit 17 then delays. There is no need to calculate the amounts DV1 and DV2. However, the delay amounts DV1 and DV2 may be calculated periodically in a reception environment where the synchronization shift between the decoded image signals DS1 and DS2 may fluctuate.

図8は、信号出力部18の概略構成を示す機能ブロック図である。この信号出力部18は、アップコンバータ30,フレーム補間部31,画像分割部32および画素ブロック選択部33を有している。これらアップコンバータ(解像度変換部)30,フレーム補間部31および画像分割部32には、それぞれ、第1デコーダ13と第2デコーダ15から画像パラメータPA1,PA2が供給されている。   FIG. 8 is a functional block diagram showing a schematic configuration of the signal output unit 18. The signal output unit 18 includes an up converter 30, a frame interpolation unit 31, an image division unit 32, and a pixel block selection unit 33. Image parameters PA1 and PA2 are supplied from the first decoder 13 and the second decoder 15 to the up-converter (resolution conversion unit) 30, the frame interpolation unit 31, and the image division unit 32, respectively.

アップコンバータ30は、遅延画像信号LS2の解像度を遅延画像信号LS1の解像度に変換して遅延画像信号LS2の画像サイズを遅延画像信号LS1の画像サイズに一致させる画素補間ブロックである。フレーム補間部31は、アップコンバータ30の出力をフレーム補間し、遅延画像信号LS2のフレームレートを遅延画像信号LS1のフレームレートに変換するフレームレート変換ブロックである。そして、画像分割部32は、フレーム補間部31の出力をマクロブロックに分割して画素ブロック選択部33に供給する。   The up-converter 30 is a pixel interpolation block that converts the resolution of the delayed image signal LS2 to the resolution of the delayed image signal LS1, and matches the image size of the delayed image signal LS2 with the image size of the delayed image signal LS1. The frame interpolation unit 31 is a frame rate conversion block that interpolates the output of the up-converter 30 and converts the frame rate of the delayed image signal LS2 to the frame rate of the delayed image signal LS1. Then, the image division unit 32 divides the output of the frame interpolation unit 31 into macro blocks and supplies the macro blocks to the pixel block selection unit 33.

画素ブロック選択部33は、マクロブロックエラー情報MBeに応じて、画像分割部32の出力信号と遅延画像信号LS1とのいずれか一方をマクロブロック単位で選択し、選択した信号を出力画像信号CSとして供給する。具体的には、画素ブロック選択部33は、遅延画像信号LS1のマクロブロックにエラーが発生していないときは、遅延画像信号LS1のマクロブロックを選択して出力する一方、遅延画像信号LS1のマクロブロックにエラーが発生しているときは、当該エラーが起きているマクロブロックに代えて、画像分割部32の出力信号中の対応するマクロブロックを選択して出力する。   The pixel block selection unit 33 selects one of the output signal of the image division unit 32 and the delayed image signal LS1 in units of macro blocks according to the macro block error information MBe, and the selected signal is used as the output image signal CS. Supply. Specifically, the pixel block selection unit 33 selects and outputs the macro block of the delayed image signal LS1 when no error has occurred in the macro block of the delayed image signal LS1, while the macro of the delayed image signal LS1. When an error has occurred in a block, a corresponding macro block in the output signal of the image dividing unit 32 is selected and output instead of the macro block in which the error has occurred.

このように、エラーが起きているマクロブロックのみを、画像分割部32の出力信号中の対応するマクロブロックで置き換えるので、極力高品質且つ極力自然な出力画像信号CSを得ることが可能になる。エラーが発生した場合、図9に示すように、出力画像信号CSが表すピクチャ40は、固定受信機向け放送の高品質の第1マクロブロック群41,41,41と、移動体向け放送の低品質のマクロブロック群42a,42bとで構成され、エラーが全く起きない場合のピクチャは、固定受信機向け放送の高品質のマクロブロックのみで構成されるので、極力高画質且つ自然で視覚的に良好な表示映像を供給することが可能となる。   In this way, since only the macro block in which an error has occurred is replaced with the corresponding macro block in the output signal of the image dividing unit 32, it is possible to obtain an output image signal CS that is as high as possible and as natural as possible. When an error occurs, as shown in FIG. 9, the picture 40 represented by the output image signal CS is a high-quality first macroblock group 41, 41, 41 for broadcasting for a fixed receiver, and low for broadcasting for a mobile unit. Since the picture is composed of high-quality macroblock groups 42a and 42b and no error occurs at all, the picture is composed of only high-quality macroblocks for broadcasting to a fixed receiver. It is possible to supply a good display image.

また、遅延検出部17は、MPEG画像とH.264画像間の同期ずれを検出し、この同期ずれを補償するための遅延量DV1,DV2を遅延部14,16に供給するので、遅延部14,16は、互いに同期したMPEG画像とH.264画像とを信号出力部18に供給することができる。   Further, the delay detection unit 17 performs MPEG image and H.264 transmission. 264 images are detected, and delay amounts DV1 and DV2 for compensating for the synchronization error are supplied to the delay units 14 and 16, so that the delay units 14 and 16 are synchronized with each other. H.264 images can be supplied to the signal output unit 18.

さらに、動き検出部19(図2)は、MPEG画像とH.264画像に、遅延量を算出し得る程度に十分な動きがあるか否かを検出し、その検出結果MDを一致検出部24に供給している。一致検出部24は、検出結果MDが肯定的なときに限り、遅延量DV1,DV2を生成するので、誤った遅延量DV1,DV2の発生を確実に回避することが可能である。   Further, the motion detection unit 19 (FIG. 2) is configured to detect MPEG images and H.264. It is detected whether or not the H.264 image has enough motion to calculate the delay amount, and the detection result MD is supplied to the coincidence detection unit 24. Since the coincidence detection unit 24 generates the delay amounts DV1 and DV2 only when the detection result MD is positive, it is possible to reliably avoid the generation of the erroneous delay amounts DV1 and DV2.

次に、動き検出部19(図2)で検出される動き量の具体的な算出法の例をいくつか以下に説明する。第1の算出法は、時間的に連続する複数枚の画像フレーム間の輝度差の和を動き量として算出する方法である。具体的には、時間的に連続する3枚の画像フレームP0,P1,P2を監視している場合に、動き検出部19は、画像フレームP0,P1間の輝度差の総和DB1と、画像フレームP1,P2間の輝度差の総和DB2とを動き量として算出する。動き検出部19は、動き量DB1が所定の閾値TH1以上で、且つ、動き量DB1が所定の閾値TH2以上である場合に限り、動き量DB1,DB2が所定範囲外にあり、画像に動きがあると判定すること(ステップS11,S13;図6)が可能である。Next, some examples of specific methods for calculating the amount of motion detected by the motion detector 19 (FIG. 2) will be described below. The first calculation method is a method of calculating a sum of luminance differences between a plurality of temporally continuous image frames as a motion amount. Specifically, when three image frames P 0 , P 1 , and P 2 that are temporally continuous are monitored, the motion detection unit 19 calculates the sum of luminance differences between the image frames P 0 and P 1. DB1 and the sum DB2 of luminance differences between the image frames P 1 and P 2 are calculated as motion amounts. Only when the motion amount DB1 is greater than or equal to the predetermined threshold value TH1 and the motion amount DB1 is greater than or equal to the predetermined threshold value TH2, the motion detection unit 19 has the motion amounts DB1 and DB2 outside the predetermined range, and the motion is It is possible to determine that there is (steps S11 and S13; FIG. 6).

動き量の第2の算出法は、スキップマクロブロックの数を利用する方法である。MPEG2規格およびH.264規格によれば、たとえばPピクチャの符号化の過程で、符号化すべき現在の画像(カレント画像)のマクロブロックが、当該カレント画像よりも時間的に前の画像のマクロブロックと同一であり、動きベクトルがゼロの場合、当該マクロブロックは符号化されず、スキップされる。このようなスキップマクロブロックの情報は、第1デコーダ13および第2デコーダ15で取得される。このため、動き検出部19は、第1デコーダ13および第2デコーダ15より供給される画像パラメータPA1,PA2からスキップマクロブロックの情報を取得し、スキップマクロブロックの数を動き量として算出することができる。動き検出部19は、たとえば1画像フレーム内のスキップマクロブロックの数が所定の閾値よりも小さい場合には、動き量が所定範囲外にあり、画像に動きがあると判定すること(ステップS11,S13;図6)が可能である。   The second calculation method of the motion amount is a method using the number of skip macroblocks. MPEG2 standard and H.264 standard. According to the H.264 standard, for example, in the process of encoding a P picture, the macroblock of the current image (current image) to be encoded is the same as the macroblock of the image temporally prior to the current image, If the motion vector is zero, the macroblock is not encoded and is skipped. Such skip macroblock information is acquired by the first decoder 13 and the second decoder 15. For this reason, the motion detection unit 19 can acquire information on skip macroblocks from the image parameters PA1 and PA2 supplied from the first decoder 13 and the second decoder 15, and calculate the number of skip macroblocks as a motion amount. it can. For example, when the number of skip macroblocks in one image frame is smaller than a predetermined threshold, the motion detection unit 19 determines that the motion amount is out of the predetermined range and the image has motion (step S11, S13; FIG. 6) is possible.

動き量の第3の算出法は、動きベクトルを利用する方法である。この第3の算出法を図10のフローチャートを参照しつつ以下に説明する。動き検出部19は、画像パラメータPA1,PA2から動きベクトル情報を取得できる。図10を参照すると、ステップS30では、動き検出部19は、1画像フレーム内において、動きベクトルのノルムが閾値VTHを超えたマクロブロックを検索する。ノルムが閾値を超えたマクロブロックが発見できない場合は、動き検出部19は、検索が失敗したと判定し(ステップS31)、さらに画像の動き量が所定範囲内にあると判定して(ステップS37)、動き検出処理を終了させる。他方、動き検出部19は、ノルムが閾値を超えたマクロブロックを発見した場合、検索が成功したと判定し(ステップS31)、検索されたマクロブロックを中心にした局所領域を設定する(ステップS32)。この局所領域は、数個〜数百個のマクロブロックを含む領域に設定すればよい。さらに、動き検出部19は、局所領域内のマクロブロックのうち、動きベクトルのノルムが閾値VTHを超えているマクロブロックの数を計数する(ステップS33)。動き検出部19は、その計数値が設定値以上か否かを判定する(ステップS34)。The third calculation method of the motion amount is a method using a motion vector. This third calculation method will be described below with reference to the flowchart of FIG. The motion detector 19 can acquire motion vector information from the image parameters PA1 and PA2. Referring to FIG. 10, in step S30, the motion detection unit 19 searches for a macro block in which the norm of the motion vector exceeds the threshold value V TH in one image frame. If a macroblock whose norm exceeds the threshold cannot be found, the motion detection unit 19 determines that the search has failed (step S31), and further determines that the motion amount of the image is within a predetermined range (step S37). ), The motion detection process is terminated. On the other hand, when the macro detecting unit 19 finds a macroblock whose norm exceeds the threshold, the motion detecting unit 19 determines that the search is successful (step S31), and sets a local region centered on the searched macroblock (step S32). ). This local area may be set to an area including several to several hundred macroblocks. Furthermore, the motion detection unit 19 counts the number of macroblocks whose motion vector norm exceeds the threshold value V TH among the macroblocks in the local region (step S33). The motion detection unit 19 determines whether or not the count value is greater than or equal to the set value (step S34).

その計数値が設定値以上であると判定したとき(ステップS34)、動き検出部19は、局所領域内に移動オブジェクト(たとえば、変化しない背景の中を移動する物体の画像)が存在すると判断して次のステップS35に処理を移行させる。一方、その計数値が設定値未満であると判定したとき(ステップS34)、動き検出部19は、局所領域内に移動オブジェクトが存在しないと判断し、さらに画像の動き量が所定範囲内にあると判定して(ステップS37)、動き検出処理を終了させる。   When it is determined that the count value is equal to or greater than the set value (step S34), the motion detection unit 19 determines that there is a moving object (for example, an image of an object moving in a background that does not change) in the local region. Then, the process proceeds to the next step S35. On the other hand, when it is determined that the count value is less than the set value (step S34), the motion detection unit 19 determines that there is no moving object in the local region, and the amount of motion of the image is within a predetermined range. Is determined (step S37), and the motion detection process is terminated.

ステップS35では、動き検出部19は、局所領域内の全てのマクロブロックの動きベクトルの角度が所定の角度範囲内(たとえば、約±15度の範囲内)に収まるか否かを判定する。全マクロブロックの動きベクトルの角度が所定の角度範囲内になければ、動き検出部19は、画像の動き量が所定範囲内にあると判定して(ステップS37)、動き検出処理を終了させる。他方、全てのマクロブロックの動きベクトルの角度が所定の角度範囲内にあれば、動き検出部19は、移動オブジェクトは略一方向へ移動していると判断し、さらに、画像の動き量が所定範囲を超えていると判定して(ステップS36)、動き検出処理を終了させる。   In step S35, the motion detection unit 19 determines whether or not the angles of the motion vectors of all macroblocks in the local region are within a predetermined angle range (for example, within a range of about ± 15 degrees). If the angles of the motion vectors of all the macroblocks are not within the predetermined angle range, the motion detection unit 19 determines that the image motion amount is within the predetermined range (step S37), and ends the motion detection process. On the other hand, if the angles of the motion vectors of all the macroblocks are within a predetermined angle range, the motion detection unit 19 determines that the moving object has moved in approximately one direction, and the amount of motion of the image is predetermined. It is determined that the range is exceeded (step S36), and the motion detection process is terminated.

なお、上記ステップS18(図6)の検索処理において、一致検出部24は、上記ステップS32で設定された局所領域のみについて基準フレーム間の情報量の差が最小になる組み合わせを検索してもよい。これにより、局所領域以外の領域については基準フレーム間の差を算出しなくて済むので、処理速度の向上が可能になる。   In the search process in step S18 (FIG. 6), the match detection unit 24 may search for a combination that minimizes the difference in information amount between reference frames for only the local region set in step S32. . As a result, it is not necessary to calculate the difference between the reference frames for regions other than the local region, so that the processing speed can be improved.

以上、本発明に係る種々の実施例について説明した。上記信号処理回路3の構成は、ハードウェアで実現されてもよいし、或いは、光ディスクなどの記録媒体に記録されたプログラムまたはプログラムコードで実現されてもよい。そのようなプログラムまたはプログラムコードは、CPUなどのプロセッサに上記信号処理回路3の機能の全部または一部の処理を実行させるものである。   The various embodiments according to the present invention have been described above. The configuration of the signal processing circuit 3 may be realized by hardware, or may be realized by a program or program code recorded on a recording medium such as an optical disk. Such a program or program code causes a processor such as a CPU to execute all or a part of the functions of the signal processing circuit 3.

Claims (13)

サイマルキャストで送信された第1のデジタル放送および第2のデジタル放送の双方の受信信号を処理するデジタル放送受信用の信号処理装置であって、
第1の符号化規格に従って前記第1のデジタル放送の受信信号を復号化して第1の復号画像信号を生成する第1デコーダと、
前記第1の符号化規格とは異なる第2の符号化規格に従って前記第2のデジタル放送の受信信号を復号化して第2の復号画像信号を生成する第2デコーダと、
前記第1の復号画像信号と前記第2の復号画像信号とに基づいて出力画像信号を生成しこれを出力する信号出力部と、を備え、
前記第1デコーダは、前記受信信号の復号化過程で所定数の画素からなる画素ブロック単位でエラーを検出し、
前記信号出力部は、前記エラーが検出されないときは、前記第1の復号画像信号の画素ブロックを出力する一方、前記エラーが検出されたときは、当該エラーが検出された画素ブロックに代えて、前記第2の復号画像信号中の対応する画素ブロックを出力することにより前記出力画像信号を生成することを特徴とする信号処理装置。
A signal processing apparatus for digital broadcast reception that processes both first digital broadcast and second digital broadcast received signals transmitted by simulcast,
A first decoder for decoding a received signal of the first digital broadcast according to a first encoding standard to generate a first decoded image signal;
A second decoder for decoding the received signal of the second digital broadcast according to a second encoding standard different from the first encoding standard to generate a second decoded image signal;
A signal output unit that generates an output image signal based on the first decoded image signal and the second decoded image signal and outputs the output image signal;
The first decoder detects an error in a pixel block unit including a predetermined number of pixels in a decoding process of the received signal,
When the error is not detected, the signal output unit outputs a pixel block of the first decoded image signal.When the error is detected, the signal output unit replaces the pixel block in which the error is detected. The signal processing apparatus, wherein the output image signal is generated by outputting a corresponding pixel block in the second decoded image signal.
請求項1記載の信号処理装置であって、前記第1のデジタル放送は、前記第2のデジタル放送よりも高品質のデジタル放送であることを特徴とする信号処理装置。   2. The signal processing apparatus according to claim 1, wherein the first digital broadcast is a higher quality digital broadcast than the second digital broadcast. 請求項1または2記載の信号処理装置であって、前記信号出力部は、前記第2の復号画像信号の解像度を前記第1の復号画像信号の解像度に変換する解像度変換部を含むことを特徴とする信号処理装置。   3. The signal processing apparatus according to claim 1, wherein the signal output unit includes a resolution conversion unit that converts the resolution of the second decoded image signal into the resolution of the first decoded image signal. A signal processing device. 請求項1から3のうちのいずれか1項に記載の信号処理装置であって、前記信号出力部は、前記第2の復号画像信号の画像フレームを補間して前記第2の復号画像信号のフレームレートを前記第1の復号画像信号のフレームレートに変換するフレーム補間部を含むことを特徴とする信号処理装置。   4. The signal processing device according to claim 1, wherein the signal output unit interpolates an image frame of the second decoded image signal and outputs the second decoded image signal. 5. A signal processing apparatus comprising: a frame interpolation unit that converts a frame rate into a frame rate of the first decoded image signal. 請求項1から4のうちのいずれか1項に記載の信号処理装置であって、
前記第1の復号画像信号と前記第2の復号画像信号との間の同期ずれに相当する遅延量を検出する遅延検出部と、
前記遅延量に応じて前記第1および第2の復号画像信号の少なくとも一方を遅延させて前記第1および第2の復号画像信号を互いに同期させる遅延部と、をさらに備えることを特徴とする信号処理装置。
The signal processing device according to any one of claims 1 to 4,
A delay detection unit that detects a delay amount corresponding to a synchronization shift between the first decoded image signal and the second decoded image signal;
And a delay unit that delays at least one of the first and second decoded image signals in accordance with the delay amount to synchronize the first and second decoded image signals with each other. Processing equipment.
請求項5記載の信号処理装置であって、前記第1および第2の復号画像信号の少なくとも一方が表す画像の動き量が所定範囲外にあるか否かを検出する動き検出部をさらに備え、
前記遅延検出部は、前記動き検出部によって前記動き量が所定範囲外にあると検出されたときに限り前記遅延量を検出することを特徴とする信号処理装置。
The signal processing apparatus according to claim 5, further comprising a motion detection unit that detects whether or not a motion amount of an image represented by at least one of the first and second decoded image signals is outside a predetermined range,
The signal processing apparatus according to claim 1, wherein the delay detection unit detects the delay amount only when the motion detection unit detects that the motion amount is outside a predetermined range.
請求項5または6記載の信号処理装置であって、
前記遅延検出部は、
前記第1の復号画像信号の解像度を前記第2の復号画像信号の解像度に変換する解像度変換部と、
前記解像度変換部で解像度変換された第1の復号画像信号を構成する一連の画像フレームから第1の基準フレームを抽出し、且つ前記第2の復号画像信号を構成する一連の画像フレームから第2の基準フレームを抽出する画像抽出部と、
前記第1および第2の基準フレーム間の差が最小になる2枚の基準フレームの組み合わせを検索し、当該検索された基準フレーム間の時間差に基づいて前記遅延量を算出する一致検出部と、
を含むことを特徴とする信号処理装置。
The signal processing device according to claim 5 or 6, comprising:
The delay detection unit
A resolution converter that converts the resolution of the first decoded image signal to the resolution of the second decoded image signal;
A first reference frame is extracted from a series of image frames constituting the first decoded image signal whose resolution has been converted by the resolution converter, and a second one is extracted from the series of image frames constituting the second decoded image signal. An image extraction unit for extracting a reference frame of
A match detection unit that searches for a combination of two reference frames that minimizes a difference between the first and second reference frames, and calculates the delay amount based on a time difference between the searched reference frames;
A signal processing apparatus comprising:
請求項5または6記載の信号処理装置であって、
前記遅延検出部は、
前記第1の復号画像信号の解像度を前記第2の復号画像信号の解像度に変換する解像度変換部と、
前記第1の復号画像信号を構成する一連の画像フレームから第1の基準フレームを抽出し、且つ前記解像度変換部で解像度変換された第2の復号画像信号を構成する一連の画像フレームから第2の基準フレームを抽出する画像抽出部と、
前記第1および第2の基準フレーム間の差が最小になる2枚の基準フレームの組み合わせを検索し、当該検索された基準フレーム間の時間差に基づいて前記遅延量を算出する一致検出部と、
を含むことを特徴とする信号処理装置。
The signal processing device according to claim 5 or 6, comprising:
The delay detection unit
A resolution converter that converts the resolution of the first decoded image signal to the resolution of the second decoded image signal;
A first reference frame is extracted from a series of image frames constituting the first decoded image signal, and second from a series of image frames constituting the second decoded image signal subjected to resolution conversion by the resolution converter. An image extraction unit for extracting a reference frame of
A match detection unit that searches for a combination of two reference frames that minimizes a difference between the first and second reference frames, and calculates the delay amount based on a time difference between the searched reference frames;
A signal processing apparatus comprising:
請求項7または8記載の信号処理装置であって、前記画像抽出部は、予め設定された時間窓内の画像フレームを前記第2の基準フレームとして抽出しており、前記基準フレームの組み合わせの検索に失敗したとき、前記画像抽出部は、前記時間窓を拡大して前記第2の基準フレームを抽出することを特徴とする信号処理装置。   9. The signal processing apparatus according to claim 7, wherein the image extraction unit extracts an image frame within a preset time window as the second reference frame, and searches for a combination of the reference frames. The signal extraction device is characterized in that the image extraction unit expands the time window and extracts the second reference frame when it fails. 請求項1から9のうちのいずれか1項に記載の信号処理装置であって、前記第1のデジタル放送は固定受信機向けのデジタル放送であり、前記第2のデジタル放送は移動体向けのデジタル放送であることを特徴とする信号処理装置。   10. The signal processing apparatus according to claim 1, wherein the first digital broadcast is a digital broadcast for a fixed receiver, and the second digital broadcast is for a mobile unit. A signal processing apparatus characterized by being a digital broadcast. サイマルキャストで送信された第1のデジタル放送および第2のデジタル放送を受信するデジタル放送受信装置であって、
前記第1および第2のデジタル放送の受信信号を供給する受信回路と、
請求項1から10のうちのいずれか1項に記載の信号処理装置と、
を備えることを特徴とするデジタル放送受信装置。
A digital broadcast receiver for receiving a first digital broadcast and a second digital broadcast transmitted by simulcast,
A receiving circuit for supplying reception signals of the first and second digital broadcasts;
A signal processing device according to any one of claims 1 to 10,
A digital broadcast receiving apparatus comprising:
サイマルキャストで送信された第1のデジタル放送および第2のデジタル放送の双方の受信信号を処理するデジタル放送受信用の信号処理方法であって、
(a)第1の符号化規格に従って前記第1のデジタル放送の受信信号を復号化して第1の復号画像信号を生成するステップと、
(b)前記第1の符号化規格とは異なる第2の符号化規格に従って前記第2のデジタル放送の受信信号を復号化して第2の復号画像信号を生成するステップと、
(c)前記ステップ(a)の復号化過程で所定数の画素からなる画素ブロック単位でエラーを検出するステップと、
(d)前記エラーが検出されないときは、前記第1の復号画像信号の画素ブロックを出力する一方、前記エラーが検出されたときは、当該エラーが検出された画素ブロックに代えて、前記第2の復号画像信号中の対応する画素ブロックを出力することにより出力画像信号を生成するステップと、
を備えることを特徴とする信号処理方法。
A signal processing method for digital broadcast reception for processing received signals of both the first digital broadcast and the second digital broadcast transmitted by simulcast,
(A) decoding a reception signal of the first digital broadcast according to a first encoding standard to generate a first decoded image signal;
(B) decoding a received signal of the second digital broadcast according to a second encoding standard different from the first encoding standard to generate a second decoded image signal;
(C) detecting an error in units of a pixel block including a predetermined number of pixels in the decoding process of the step (a);
(D) When the error is not detected, the pixel block of the first decoded image signal is output. On the other hand, when the error is detected, the second block is used instead of the pixel block in which the error is detected. Generating an output image signal by outputting a corresponding pixel block in the decoded image signal;
A signal processing method comprising:
サイマルキャストで送信された第1のデジタル放送および第2のデジタル放送の双方の受信信号の処理をプロセッサに実行させるデジタル放送受信用の信号処理プログラムであって、前記処理は、
(a)第1の符号化規格に従って前記第1のデジタル放送の受信信号を復号化して第1の復号画像信号を生成する第1復号化処理と、
(b)前記第1の符号化規格とは異なる第2の符号化規格に従って前記第2のデジタル放送の受信信号を復号化して第2の復号画像信号を生成する第2復号化処理と、
(c)前記第2復号化処理の過程で所定数の画素からなる画素ブロック単位でエラーを検出するエラー検出処理と、
(d)前記エラーが検出されないときは、前記第1の復号画像信号の画素ブロックを出力する一方、前記エラーが検出されたときは、当該エラーが検出された画素ブロックに代えて、前記第2の復号画像信号中の対応する画素ブロックを出力することにより出力画像信号を生成する信号出力処理と、
を含むことを特徴とする信号処理プログラム。
A signal processing program for digital broadcast reception that causes a processor to execute processing of received signals of both the first digital broadcast and the second digital broadcast transmitted by simulcast,
(A) a first decoding process for decoding a received signal of the first digital broadcast according to a first encoding standard to generate a first decoded image signal;
(B) a second decoding process for generating a second decoded image signal by decoding the received signal of the second digital broadcast in accordance with a second encoding standard different from the first encoding standard;
(C) an error detection process for detecting an error in a pixel block unit including a predetermined number of pixels in the course of the second decoding process;
(D) When the error is not detected, the pixel block of the first decoded image signal is output. On the other hand, when the error is detected, the second block is used instead of the pixel block in which the error is detected. A signal output process for generating an output image signal by outputting a corresponding pixel block in the decoded image signal;
A signal processing program comprising:
JP2007545214A 2005-11-21 2006-11-09 Digital broadcast receiving signal processing apparatus, signal processing method, signal processing program, and digital broadcast receiving apparatus Expired - Fee Related JP4740955B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007545214A JP4740955B2 (en) 2005-11-21 2006-11-09 Digital broadcast receiving signal processing apparatus, signal processing method, signal processing program, and digital broadcast receiving apparatus

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005335651 2005-11-21
JP2005335651 2005-11-21
JP2007545214A JP4740955B2 (en) 2005-11-21 2006-11-09 Digital broadcast receiving signal processing apparatus, signal processing method, signal processing program, and digital broadcast receiving apparatus
PCT/JP2006/322366 WO2007058113A1 (en) 2005-11-21 2006-11-09 Signal processing device for receiving digital broadcast, signal processing method and signal processing program, and digital broadcast receiver

Publications (2)

Publication Number Publication Date
JPWO2007058113A1 true JPWO2007058113A1 (en) 2009-04-30
JP4740955B2 JP4740955B2 (en) 2011-08-03

Family

ID=38048500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007545214A Expired - Fee Related JP4740955B2 (en) 2005-11-21 2006-11-09 Digital broadcast receiving signal processing apparatus, signal processing method, signal processing program, and digital broadcast receiving apparatus

Country Status (2)

Country Link
JP (1) JP4740955B2 (en)
WO (1) WO2007058113A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009100424A (en) * 2007-10-19 2009-05-07 Fujitsu Ltd Receiving device and reception method
JP5853372B2 (en) * 2011-01-26 2016-02-09 富士通株式会社 Image processing apparatus and image processing method
JP5994367B2 (en) * 2012-04-27 2016-09-21 富士通株式会社 Moving picture coding apparatus and moving picture coding method
US9900576B2 (en) * 2013-03-18 2018-02-20 Qualcomm Incorporated Simplifications on disparity vector derivation and motion vector prediction in 3D video coding

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003134064A (en) * 2001-10-26 2003-05-09 Hitachi Ltd Digital broadcast complementing method and digital broadcast reception system
JP2003274303A (en) * 2002-03-18 2003-09-26 Sony Corp Digital broadcast receiving device, onboard device, guiding method for digital broadcast reception, program for the guiding method for digital broadcast reception, and recording medium where the program for the guiding method for digital broadcast reception is recorded
JP2005260606A (en) * 2004-03-11 2005-09-22 Fujitsu Ten Ltd Digital broadcast receiver
JP2005311435A (en) * 2004-04-16 2005-11-04 Denso Corp Broadcast receiver for moving object and program

Also Published As

Publication number Publication date
WO2007058113A1 (en) 2007-05-24
JP4740955B2 (en) 2011-08-03

Similar Documents

Publication Publication Date Title
JP4615958B2 (en) Digital broadcast sending device, receiving device, and digital broadcasting system
KR101015390B1 (en) Robust mode staggercasting without artifacts
KR100707641B1 (en) Decoder apparatus
US20070126936A1 (en) Digital broadcasting receiving apparatus and receiving method
JP2007306363A (en) Digital broadcast receiver
JPH0879641A (en) Television receiver
US10812854B2 (en) Image processing device, image processing method, reception device, and transmission device
US20090103603A1 (en) Simulcast reproducing method
JP4740955B2 (en) Digital broadcast receiving signal processing apparatus, signal processing method, signal processing program, and digital broadcast receiving apparatus
JPH0898105A (en) Television receiver
JP2010278790A (en) Digital data receiver and program
JP7128036B2 (en) VIDEO SIGNAL RECEIVER AND VIDEO SIGNAL RECEIVING METHOD
JP4505020B2 (en) Interpolator
KR100442286B1 (en) Apparatus and method for compensating error of color appearance in Digital Broadcast Receiver
WO2009122668A1 (en) Digital broadcast transmission/reception device
WO2007037424A1 (en) Receiver apparatus
JP2008244781A (en) Ip retransmission system of terrestrial digital broadcast, and seamless switchover control method therefor in mottled composition
JP2010258732A (en) Video processing device, video processing method and video processing program
KR100309878B1 (en) Input format converter of digital tv
KR102228599B1 (en) Transmitter and receiver for providing seamless switching of isdb transport stream
JP2005184457A (en) Method and apparatus for displaying video image
JP5161514B2 (en) Digital broadcast receiving apparatus and digital broadcast receiving method
JP4970059B2 (en) Digital broadcast receiver
Hobson Format and Standards Conversion
JP2010251897A (en) Broadcast signal receiver, broadcast signal receiving method, and broadcast signal receiving program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110426

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110502

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees