JP2008172335A - Digital broadcast receiver - Google Patents

Digital broadcast receiver Download PDF

Info

Publication number
JP2008172335A
JP2008172335A JP2007001540A JP2007001540A JP2008172335A JP 2008172335 A JP2008172335 A JP 2008172335A JP 2007001540 A JP2007001540 A JP 2007001540A JP 2007001540 A JP2007001540 A JP 2007001540A JP 2008172335 A JP2008172335 A JP 2008172335A
Authority
JP
Japan
Prior art keywords
video
audio
layer
data
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007001540A
Other languages
Japanese (ja)
Other versions
JP4970059B2 (en
Inventor
Masahiro Abukawa
雅浩 虻川
Shinji Akatsu
慎二 赤津
Yasuaki Takimoto
康明 瀧本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2007001540A priority Critical patent/JP4970059B2/en
Publication of JP2008172335A publication Critical patent/JP2008172335A/en
Application granted granted Critical
Publication of JP4970059B2 publication Critical patent/JP4970059B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To allow a user to easily view a program by using a frame excellent in videos and/or a sound of a hierarchy and a synthetic frame for complementing decode errors among the hierarchies to one another. <P>SOLUTION: The receiver comprises: a stream separating means for separating video and/or sound data and control information including a time of day information from a data stream; an encoding system extracting means for extracting from control information encoding the system control information of the video or sound data; a data error detecting means for extracting a data error position of a video or sound data in each hierarchy; an identical data position extracting means for extracting an identical data position for making corresponding video and a sound among the hierarchies synchronous with each other on the basis of the time of the day information; and a mutually complementary synthesizing means for complementing video or a sound frame data at the data error position by frames of mutual hierarchies on the basis of the identical data position and generating data where video or a sound continues. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、同一時間帯に同一番組を複数の階層を用いてサイマル放送するデジタル放送において、受信状態や受信状況に係わらず常に映像や音声の良好なフレームを用いて再生を行うようにするデジタル放送受信装置に関するものである。   The present invention is a digital broadcasting that simulcasts the same program using a plurality of hierarchies in the same time zone, and always reproduces using a good frame of video or audio regardless of the reception state or reception state. The present invention relates to a broadcast receiving apparatus.

2003年12月1日に、わが国の地上波デジタル放送が開始された。このデジタル放送の方式では、図3に示すように、1チャネル分として5.6MHzの周波数帯域幅が、例えば1つの放送局に割り当てられている。この帯域幅を13等分(1つ約429kHz。これが「セグメント」と呼ばれる単位。)する。放送局は、この13個のセグメントの数を組み合わせて階層化することにより、1から3番組の放送を行えるように決められている。なお、地上波デジタルテレビ放送システムでは変調方式としてOFDM(Orthogonal Frequency Division Multiplexing:直交周波数分割多重変調方式)が採用されており、セグメント単位がOFDMにより変調された信号となる。また、セグメント単位のデータは自由に変えることができ、上記13個のうち、例えば12個のセグメントからなる階層を形成して1つのハイビジョン映像番組と携帯端末向け番組を放送し、また、4個ずつのセグメントからなる階層を用いて、3つの異なる標準画質の番組と携帯端末向け番組を放送するなどの幾つかのサービス形態が可能となる。
また、地上波デジタル放送の他のサービス形態として、上記セグメント数の異なる階層を複数用いて同一時間帯に同一番組を放送するサイマル放送が行われている。このサイマル放送は、家庭等の固定受信向け、自動車等の移動体受信向け、あるいは携帯電話受信向けに同じ番組サービスを提供するためのものである。
On December 1, 2003, digital terrestrial broadcasting in Japan started. In this digital broadcasting system, as shown in FIG. 3, a frequency bandwidth of 5.6 MHz is allocated to one broadcasting station, for example, for one channel. This bandwidth is divided into 13 equal parts (about 429 kHz, which is a unit called “segment”). The broadcasting station is determined to be able to broadcast 1 to 3 programs by combining the number of the 13 segments into a hierarchy. In the terrestrial digital television broadcasting system, OFDM (Orthogonal Frequency Division Multiplexing) is adopted as a modulation method, and a segment unit is a signal modulated by OFDM. In addition, the data in segment units can be freely changed. Among the above 13 pieces, for example, a hierarchy consisting of 12 segments is formed to broadcast one high-definition video program and a program for mobile terminals, and 4 pieces. Several service forms are possible, such as broadcasting three different standard definition programs and programs for mobile terminals using a hierarchy of segments.
As another service form of terrestrial digital broadcasting, simultaneous broadcasting is performed in which the same program is broadcast in the same time zone using a plurality of layers having different numbers of segments. This simulcast is for providing the same program service for fixed reception at home, etc., for mobile reception such as automobiles, or for mobile phone reception.

ところで、特に、自動車等の移動体に搭載されたデジタル放送受信装置の場合は、移動により各放送局の中継局からの放送波を受信することが多いため、受信方向の変化、建造物や高所等の影響、あるいは電波塔や中継局からの距離変化など、受信位置により放送波の電界強度が劣化する。また、電波塔や中継局に対する移動による遠近動作がある場合、ドップラ効果に起因して、放送のキャリア波における直接波の周波数と建造物等による反射波の周波数とが異なり、フェージング(周波数干渉)を引き起こす。そのため、受信信号の電界強度が変化したり、複数の周波数の変化により、デジタル放送受信装置がキャリア波を適切に選択できなくなり、画質や音質の低下を招くことになる。また、移動体の場合、天候の悪化や高速走行等によっても、放送波の電界強度が変化する。そのため、移動体のデジタル放送受信装置では、映像や音声が途切れたりあるいは映像や音声が乱れたりする場合がある。このように映像や音声の障害が発生すると、ユーザは不快感を覚え、他のチャンネルに切り替えることを余儀なくされる。また、複数階層を用いたサイマル放送が実施されている場合には、受信状態を良くすることができる他の階層への変更を手動操作で行わなければならないという煩わしさが生じる。   By the way, especially in the case of a digital broadcast receiving device mounted on a moving body such as an automobile, a broadcast wave from a relay station of each broadcasting station is often received due to movement. The electric field strength of the broadcast wave deteriorates depending on the reception position, such as the influence of the location or the like, or the distance change from the radio tower or the relay station. In addition, when there is a near-field operation due to movement with respect to a radio tower or relay station, due to the Doppler effect, the frequency of the direct wave in the broadcast carrier wave differs from the frequency of the reflected wave from the building, etc., and fading (frequency interference) cause. For this reason, the digital broadcast receiving apparatus cannot properly select a carrier wave due to a change in the electric field strength of the received signal or a change in a plurality of frequencies, leading to a reduction in image quality and sound quality. In the case of a mobile object, the electric field intensity of the broadcast wave changes due to bad weather or high speed running. Therefore, in a mobile digital broadcast receiving apparatus, video and audio may be interrupted or video and audio may be disturbed. Thus, when a video or audio failure occurs, the user feels uncomfortable and is forced to switch to another channel. In addition, when simultaneous broadcasting using a plurality of hierarchies is being performed, there is a trouble that a change to other hierarchies that can improve the reception state must be performed manually.

上述したような問題に対して、デジタル放送の複数階層を用いたサイマル放送の各階層を受信できるようにしたデジタル放送受信装置において、映像や音声が途切れそうな受信状態の階層で出力している場合でも、受信状態の最適な階層に手動または自動的に切り替えて出力できるようする技術が提案されている(例えば特許文献1参照)。この技術では、自動的に切り替える構成においては、各放送局の階層毎の放送方式を保持するデータベースを備え、受信するデジタル放送信号の電界強度の検出および/もしくは階層の再生状態の検出を行い、検出した電界強度および/もしくは再生状態に応じて受信状態を良好にする階層を決定し、上記データベースを参照して、決定した階層の放送方式を取り出し、その放送方式に基づいた階層の出力に切り替えるようにしている。また、そのため、検出した電界強度の基準および再生状態の基準を設定する設定画面提供手段を備えている。   In response to the problems described above, in a digital broadcast receiving apparatus that can receive each layer of simulcast using multiple layers of digital broadcast, video and audio are output in a reception state that seems to be interrupted. Even in such a case, a technique has been proposed in which output can be manually or automatically switched to an optimum hierarchy of reception states (see, for example, Patent Document 1). In this technique, in the configuration for automatic switching, a database that holds the broadcasting system for each layer of each broadcasting station is provided, and the detection of the electric field strength of the received digital broadcast signal and / or the reproduction state of the layer is performed, The hierarchy that improves the reception state is determined according to the detected electric field strength and / or the reproduction state, the broadcast system of the determined hierarchy is extracted with reference to the database, and the output is switched to the output of the hierarchy based on the broadcast system I am doing so. For this reason, setting screen providing means for setting the detected electric field strength reference and the reproduction state reference is provided.

特開2003−274302号公報JP 2003-274302 A

従来のデジタル放送受信装置は、以上のような方法により受信状態の階層を切り替えるようにしているが、次のような問題がある。
自動車のような移動体に搭載したデジタル放送受信装置では、マルチパスフェージングなど激しく電界強度が変動する場合、階層が頻繁に切り替わってしまうという問題ある。また、電界強度や再生状態によって階層ごと切替えるため、映像だけが途切れ、音声は十分に聞き取れる場合であっても、テレビジョン放送の場合、映像と音声を一緒に切替えてしまうという問題がある。さらに、階層間の切り替えタイミングによって、画像再生と音声再生が前後して結合してしまい、頻繁に再生する階層が切替る場合には、前後していることが認識できない状態になるという問題がある。さらにまた、再生状態に問題がある場合に階層を切替えるだけであるため、切替え後の各階層の映像あるいは音声データにエラーがあっても、そのエラー再生を回避できないという問題がある。
The conventional digital broadcast receiving apparatus switches the hierarchy of the reception state by the above method, but has the following problems.
In a digital broadcast receiving apparatus mounted on a mobile body such as an automobile, there is a problem that the hierarchy is frequently switched when the electric field strength fluctuates violently such as multipath fading. In addition, since switching is performed for each layer depending on the electric field strength and the reproduction state, there is a problem that even if only the video is interrupted and the audio is sufficiently heard, the video and the audio are switched together in the case of television broadcasting. Furthermore, image playback and audio playback are combined before and after depending on the switching timing between hierarchies, and there is a problem that when the hierarchies to be played back frequently are switched, it is not possible to recognize that they are moving back and forth. . Furthermore, since there is a problem in the reproduction state, only the hierarchy is switched. Therefore, even if there is an error in the video or audio data of each hierarchy after the switching, there is a problem that the error reproduction cannot be avoided.

この発明は、上記問題点を解決するためになされたもので、サイマル放送を行っている階層の映像および/もしくは音声の良好なフレームと、階層同士でデコードエラーを相互補完する合成フレームを使用することにより、受信状態や番組を視聴しやすくするデジタル放送受信装置を得ることを目的とする。   The present invention has been made to solve the above-mentioned problems, and uses a frame of video and / or audio having a good level for simultaneous broadcasting and a composite frame for mutually complementing decoding errors between layers. Accordingly, an object of the present invention is to obtain a digital broadcast receiving apparatus that makes it easy to view a reception state and a program.

この発明に係るデジタル放送受信装置は、伝送周波数帯域を構成するセグメントを組み合わせた少なくとも2つの階層を使用し、それぞれの階層にテレビジョン放送または音声放送の同じ番組の映像データおよび/もしくは音声データを多重させて階層伝送を行うサイマル放送を受信し、復調、復号して各階層の映像および/もしくは音声のフレームデータを生成するデジタル放送受信装置であって、受信信号から各階層の変調方式および伝送レートを設定した伝送方式制御情報を抽出する伝送方式制御情報抽出手段と、復調したデータストリームから映像データおよび/もしくは音声データ、並びに時刻情報を含む制御情報を分離するストリーム分離手段と、該ストリーム分離手段で分離された制御情報から、映像データおよび/もしくは音声データの符号化方式制御情報を抽出する符号化方式抽出手段と、ストリーム分離手段で分離された各階層の映像データまたは音声データのデータエラー位置を抽出するデータエラー検出手段と、ストリーム分離手段で分離された時刻情報に基づいて、階層間の対応する映像および/もしくは音声を同期させる同一データ位置を抽出する同一データ位置抽出手段と、当該同一データ位置抽出手段で抽出された同一データ位置に基づいて、データエラー検出手段で検出されたデータエラー位置の映像および/もしくは音声のフレームデータを互いの階層のフレームで補完して、映像および/もしくは音声の連続するデータを生成する相互補完合成手段とを備えたものである。   The digital broadcast receiving apparatus according to the present invention uses at least two layers in which segments constituting a transmission frequency band are combined, and video data and / or audio data of the same program of television broadcasting or audio broadcasting is stored in each layer. A digital broadcast receiving apparatus that receives a simulcast that multiplexes and performs hierarchical transmission, demodulates and decodes to generate video and / or audio frame data of each layer, and modulates and transmits each layer from a received signal Transmission method control information extracting means for extracting transmission method control information in which a rate is set; stream separating means for separating control information including video data and / or audio data and time information from the demodulated data stream; and the stream separation From control information separated by means, video data and / or An encoding method extracting means for extracting voice data encoding method control information; a data error detecting means for extracting a data error position of video data or audio data of each layer separated by the stream separating means; and a stream separating means. Based on the separated time information, the same data position extracting means for extracting the same data position for synchronizing the corresponding video and / or audio between layers, and the same data position extracted by the same data position extracting means A complementary complementary combining means for generating video and / or audio continuous data by complementing video and / or audio frame data at the data error position detected by the data error detection means with frames of each other's hierarchy. It is equipped with.

この発明によれば、フレームバッファから再生するために出力される映像や音声のフレームデータとしては、エラーが少なく解像度がよい階層のフレームデータを用いるか、あるいは2つの階層間でエラー箇所をエラーの少ない階層のフレームで相互補完した合成フレームデータを用いることになるため、電波の受信状態の監視手段や階層切替え手段を用いずに映像や音声の再生エラーを少なくすることができ、不快感の少ない映像や音声の再生を可能にする。   According to the present invention, as frame data of video or audio output for reproduction from the frame buffer, frame data having a layer with few errors and a good resolution is used, or an error portion is detected as an error between two layers. Since composite frame data complemented with frames of a few layers is used, video and audio playback errors can be reduced without using radio wave reception status monitoring means and hierarchy switching means, and there is less discomfort Enable playback of video and audio.

実施の形態1.
図1はこの発明の実施の形態1によるデジタル放送受信装置の機能構成を示すブロック図である。このデジタル放送受信装置は、伝送周波数帯域を構成するセグメントを組み合わせた少なくとも2階層を使用し、それぞれの階層に同じ番組の映像および音声データを多重させて階層伝送を行うサイマル放送を受信し、各階層の映像および音声データを復調、復号して、映像および/もしくは音声のフレームデータを、一方の階層のフレームのエラーの多い部分を他の階層のエラーの少ない部分で補完し合うことで合成し再生するものである。なお、図1の構成はテレビジョン放送についての例を示したものであるが、この発明はデジタルの音声放送に対しても適用できるものである。
図において、チューナ10は、デジタル放送の電波を受信し、サイマル放送を行っている階層1と階層2を含む受信信号を生成する手段である。伝送方式制御情報抽出手段11は、受信信号に多重されたTMCC(Transmission and Multiplexing Configuration Control)信号より、階層数および各階層の変調方式および伝送レートを設定した伝送方式制御情報を抽出する手段である。階層1復調手段12は、伝送方式制御情報に含まれた階層1の変調方式に基づいて放送波の階層1を復調し、階層1のデータストリーム、すなわちMPEG2−TS(Moving Picture Expert Group 2 − Transport Stream:以下、単にTSとする。)成分を得ると共に、階層1のTSに対して誤り訂正処理を行う手段である。階層2復調手段13は、階層1復調手段12と同様、放送波の階層2を復調して階層2のTSを得ると共に、階層2のTSに対して誤り訂正処理を行う手段である。ストリーム分離手段14は、復調された階層1と階層2のTSのヘッダに含まれるPID(Packet ID)番号によってフィルタリング処理することにより、各階層の映像、音声のTSパケット(映像データ、音声データ)、セクション情報、時刻情報(PCR;Program Clock Reference)などのTSパケットに分離する手段である。また、この発明におけるストリーム分離手段14は、分離された時刻情報に基づいて、階層1および階層2間の対応する映像、音声を同期させる同一データ位置を抽出する同一データ位置抽出手段を含んでいる。
Embodiment 1 FIG.
1 is a block diagram showing a functional configuration of a digital broadcast receiving apparatus according to Embodiment 1 of the present invention. This digital broadcast receiving apparatus uses at least two hierarchies combining segments constituting a transmission frequency band, receives a simulcast that performs hierarchical transmission by multiplexing video and audio data of the same program on each hierarchies, Video and / or audio frame data is demodulated and decoded to synthesize video and / or audio frame data by complementing the error-prone portion of one layer frame with the error-reducing portion of the other layer. It is something to regenerate. Although the configuration of FIG. 1 shows an example of television broadcasting, the present invention can also be applied to digital audio broadcasting.
In the figure, a tuner 10 is means for receiving a radio wave of digital broadcasting and generating a reception signal including layer 1 and layer 2 performing simulcast. The transmission scheme control information extracting means 11 is a means for extracting transmission scheme control information in which the number of layers, the modulation scheme and transmission rate of each layer are set, from a TMCC (Transmission and Multiplexing Configuration Control) signal multiplexed on the received signal. . The layer 1 demodulation means 12 demodulates the layer 1 of the broadcast wave based on the layer 1 modulation method included in the transmission method control information, and generates a layer 1 data stream, that is, MPEG2-TS (Moving Picture Expert Group 2-Transport Stream: Hereinafter, simply referred to as TS.) A means for obtaining a component and performing error correction processing on a TS in layer 1. Similar to the hierarchy 1 demodulation means 12, the hierarchy 2 demodulation means 13 is a means for demodulating the broadcast wave hierarchy 2 to obtain a hierarchy 2 TS and performing error correction processing on the hierarchy 2 TS. The stream separation unit 14 performs filtering processing using the PID (Packet ID) numbers included in the demodulated layer 1 and layer 2 TS headers, thereby causing video and audio TS packets (video data and audio data) of each layer to be filtered. , Section information, time information (PCR; Program Clock Reference) and the like. Further, the stream separating means 14 in the present invention includes the same data position extracting means for extracting the same data position for synchronizing the corresponding video and audio between the hierarchy 1 and the hierarchy 2 based on the separated time information. .

符号化方式抽出手段15は、ストリーム分離手段14から受け取ったTSのヘッダに含まれるストリーム識別子から、また後述のセクション構成手段16からのセクション情報に含まれるストリーム識別子から符号化方式制御情報を抽出する手段である。セクション構成手段16は、分配されたセクション情報に係るTSパケットからPAT(Program Association Table)、PMT(Program Map Table)等のセクション情報を組み立てる手段である。映像フレームサイズ検出手段17は、セクション構成手段16、後記階層1映像デコード手段20および後記階層2映像デコード手段21で取得したシーケンスヘッダ情報から階層1と階層2に含まれる映像のフレームサイズを検出する手段である。音声サンプリング周波数検出手段241は、セクション構成手段16、後記階層1音声デコード手段24および後記階層2音声デコード手段25で取得した音声ESヘッダ情報からなる音声デコード制御情報から、階層1と階層2に含まれる音声のサンプリング周波数を検出する手段である。   The encoding method extraction unit 15 extracts the encoding method control information from the stream identifier included in the header of the TS received from the stream separation unit 14 and from the stream identifier included in the section information from the section configuration unit 16 described later. Means. The section configuration means 16 is means for assembling section information such as PAT (Program Association Table), PMT (Program Map Table), etc. from the TS packets related to the distributed section information. The video frame size detection means 17 detects the frame size of the video included in the hierarchy 1 and the hierarchy 2 from the sequence header information acquired by the section construction means 16, the later-described hierarchy 1 video decoding means 20 and the later-described hierarchy 2 video decoding means 21. Means. The audio sampling frequency detection means 241 is included in the hierarchy 1 and the hierarchy 2 from the audio decoding control information composed of the audio ES header information acquired by the section configuration means 16, the postscript hierarchy 1 audio decoding means 24 and the postscript hierarchy 2 audio decoding means 25. This is means for detecting the sampling frequency of the sound to be recorded.

映像データエラー検出手段18は、ストリーム分離手段14により分離された各階層の映像データのデータエラー位置を抽出する手段で、階層1映像デコード手段20、階層2映像デコード手段21、階層1映像デコードエラーフレーム検出手段22および階層2映像デコードエラーフレーム検出手段23から構成されている。
階層1映像デコード手段20は、階層1映像のTSパケットからPES(Packetized Elementary Stream)、ES(Elementary Stream)を生成した後、符号化方式抽出手段15で取得した符号化方式制御情報に合わせてESをデコードして階層1の映像フレームデータを生成し、また、セクション構成手段16から取得した階層1映像の制御データと階層1映像のTSに含まれるヘッダ情報との比較や、デコード時に発生する各種エラーの検出を行って、それらの結果をデータエラー位置情報を含む映像デコードエラー情報として得る手段である。階層2映像デコード手段21は、階層2映像のTSパケットに対して階層1映像デコード手段20と同様な処理を行い、階層2の映像フレームデータ、およびデータエラー位置情報を含む映像デコードエラー情報を得る手段である。階層1映像デコードエラーフレーム検出手段22は、デコード後の階層1の映像フレームデータをバッファリングし、映像デコードエラー情報に基づいてエラー箇所があるフレームを検出する手段である。階層2映像デコードエラーフレーム検出手段23は、デコード後の階層2の映像フレームデータに対して、階層1映像デコードエラーフレーム検出手段22と同様な処理を行う手段である。
The video data error detecting means 18 is a means for extracting the data error position of the video data of each layer separated by the stream separating means 14. The layer 1 video decoding means 20, the hierarchy 2 video decoding means 21, and the hierarchy 1 video decoding error The frame detection means 22 and the layer 2 video decoding error frame detection means 23 are configured.
The layer 1 video decoding unit 20 generates a PES (Packetized Elementary Stream) and ES (Elementary Stream) from the TS packet of the layer 1 video, and then performs ES according to the encoding method control information acquired by the encoding method extraction unit 15. Is generated to generate video frame data of layer 1, and the comparison between the control data of layer 1 video acquired from the section construction means 16 and the header information included in the TS of layer 1 video, It is means for detecting errors and obtaining the results as video decoding error information including data error position information. The layer 2 video decoding unit 21 performs the same processing as the layer 1 video decoding unit 20 on the TS packet of layer 2 video, and obtains video decoding error information including the layer 2 video frame data and data error position information. Means. The layer 1 video decoding error frame detection unit 22 is a unit that buffers the decoded frame 1 video frame data and detects a frame having an error part based on the video decoding error information. The layer 2 video decoding error frame detection unit 23 is a unit that performs the same processing as the layer 1 video decoding error frame detection unit 22 on the decoded layer 2 video frame data.

音声データエラー検出手段19は、ストリーム分離手段14により分離された各階層の音声データのデータエラー位置を抽出する手段で、階層1音声デコード手段24、階層2音声デコード手段25、階層1音声デコードエラーフレーム検出手段26および階層2音声デコードエラーフレーム検出手段27から構成されている。
階層1音声デコード手段24は、階層1音声のTSパケットからPES、ESを生成した後、符号化方式抽出手段15で取得した符号化方式制御情報に合わせてESをデコードして音声フレームデータを生成し、また、セクション構成手段16から取得した階層1音声の制御データと音声用TSデータに含まれるヘッダ情報との比較や、デコード時に発生するデコードエラーの検出を行って、データエラー位置情報を含む音声デコードエラー情報として得る手段である。階層2音声デコード手段25は、階層2音声のTSパケットに対して、階層1音声デコード手段24と同様と同様な処理を行い、階層2の音声フレームデータ、およびデータエラー位置情報を含む音声デコードエラー情報を得る手段である。階層1音声デコードエラーフレーム検出手段26は、デコード後の階層1の音声フレームデータをバッファリングし、音声デコードエラー情報に基づいてエラー箇所があるフレームを検出する手段である。階層2音声デコードエラーフレーム検出手段27は、デコード後の階層2の音声フレームデータに対して階層1音声デコードエラーフレーム検出手段26と同様な処理を行う手段である。
The audio data error detecting means 19 is a means for extracting the data error position of the audio data of each layer separated by the stream separating means 14, and is a hierarchy 1 audio decoding means 24, a hierarchy 2 audio decoding means 25, a hierarchy 1 audio decoding error. The frame detection unit 26 and the layer 2 audio decoding error frame detection unit 27 are configured.
The layer 1 audio decoding unit 24 generates PES and ES from the TS packet of layer 1 audio, and then decodes the ES according to the encoding method control information acquired by the encoding method extraction unit 15 to generate audio frame data In addition, the comparison between the control data of the layer 1 audio acquired from the section configuration means 16 and the header information included in the audio TS data, and the detection of a decoding error occurring at the time of decoding, the data error position information is included. This is means for obtaining audio decoding error information. The layer 2 audio decoding unit 25 performs the same processing as the layer 1 audio decoding unit 24 on the TS packet of the layer 2 audio, and performs an audio decoding error including layer 2 audio frame data and data error position information. It is a means to obtain information. The layer 1 audio decoding error frame detecting means 26 is a means for buffering the decoded frame 1 audio frame data and detecting a frame having an error portion based on the audio decoding error information. The layer 2 audio decoding error frame detection unit 27 is a unit that performs the same processing as the layer 1 audio decoding error frame detection unit 26 on the decoded layer 2 audio frame data.

映像出力サイズ決定手段28は、条件として与えられる出力映像サイズと映像フレームサイズ検出手段17で検出された階層1と階層2の映像のフレームサイズに基づいて、当該階層1と階層2の映像のフレームサイズに対するスケーリング値(拡大比または縮小比)をそれぞれ決定する手段である。階層1映像サイズスケーリング手段29は、映像出力サイズ決定手段28で決定された階層1の映像のフレームスケーリング値に基づいて、階層1映像デコードエラーフレーム検出手段22の出力であるデコード後の階層1の映像フレームデータのフレームサイズをスケーリングする手段である。階層2映像サイズスケーリング手段30は、デコード後の階層2の映像フレームデータに対して、階層1映像サイズスケーリング手段29と同様な処理によりフレームサイズをスケーリングする手段である。   Based on the output video size given as a condition and the frame size of the layer 1 and layer 2 video detected by the video frame size detection unit 17, the video output size determination unit 28 It is a means for determining a scaling value (enlargement ratio or reduction ratio) for each size. The layer 1 video size scaling unit 29 is based on the frame scaling value of the layer 1 video determined by the video output size determination unit 28 and is the output of the decoded layer 1 which is the output of the layer 1 video decoding error frame detection unit 22. It is a means for scaling the frame size of video frame data. The layer 2 video size scaling unit 30 is a unit that scales the frame size of the decoded video frame data of layer 2 by the same processing as the layer 1 video size scaling unit 29.

音声サンプリング周波数決定手段242は、条件として与えられる出力音声サンプリング周波数と音声サンプリング周波数検出手段241で検出された各階層の音声サンプリング周波数に基づいて、各階層に含まれた音声のサンプリング周波数の変換値(拡大比または縮小比)をそれぞれ決定する手段である。階層1音声サンプリング周波数変換手段261は、音声サンプリング周波数決定手段242で決定された階層1の音声のサンプリング周波数変換値に基づいて、階層1音声デコードエラーフレーム検出手段22の出力であるデコード後の階層1の音声フレームデータのサンプリング周波数を変換する手段である。階層2音声サンプリング周波数変換手段271は、デコード後の階層2の音声フレームデータに対して、階層1音声サンプリング周波数変換手段261と同様な処理によりサンプリング周波数を変換する手段である。   The audio sampling frequency determining unit 242 converts the conversion value of the sampling frequency of the audio included in each layer based on the output audio sampling frequency given as a condition and the audio sampling frequency of each layer detected by the audio sampling frequency detecting unit 241. This is a means for determining (enlargement ratio or reduction ratio). The layer 1 audio sampling frequency conversion unit 261 is a decoded layer that is an output of the layer 1 audio decoding error frame detection unit 22 based on the sampling frequency conversion value of the layer 1 audio determined by the audio sampling frequency determination unit 242. This is means for converting the sampling frequency of one audio frame data. The layer 2 audio sampling frequency converting means 271 is a means for converting the sampling frequency of the decoded layer 2 audio frame data by the same processing as the layer 1 audio sampling frequency converting means 261.

映像相互補完合成手段31は、映像データエラー検出手段18で検出されたデータエラー位置の映像フレームデータを、同一データ位置抽出手段で抽出された同一データ位置に基づいた互いの階層のフレームで補完して映像の連続するデータを生成する手段で、映像書込み順序決定手段32、映像フレームバッファ33および映像書込み手段321から構成されている。
映像フレームバッファ33は、再生するための映像フレームデータを一時保持する手段である。映像書込み順序決定手段32は、後述する方法で、伝送方式制御情報抽出手段11から取得した伝送方式制御情報に基づいて階層1と階層2のうちエラー耐性の強い変調方式の階層を判定すると共に、階層1映像サイズスケーリング手段29および階層2映像サイズスケーリング手段30から取得した、各階層の映像のフレームサイズ値から解像度の高い階層の映像を判定し、これらの判定結果に基づいて映像フレームバッファ33に書き込む階層と書き込む順序を決定する手段である。映像書込み手段321は、映像書込み順序決定手段32で決定した書込み順序に従って、映像フレームバッファ33に対して、後述する方法で、エラー耐性が大きく、かつ映像解像度が大きい階層の映像フレームデータを書き込むか、あるいは一方の階層の映像フレームデータのエラー箇所を補完するように他方の階層の映像フレームデータを重ね書きする手段である。
The video mutual complement synthesizing means 31 complements the video frame data at the data error position detected by the video data error detecting means 18 with the frames of the respective layers based on the same data position extracted by the same data position extracting means. This means for generating continuous video data comprises a video writing order determining means 32, a video frame buffer 33 and a video writing means 321.
The video frame buffer 33 is means for temporarily storing video frame data for reproduction. The video writing order determination unit 32 determines the layer of the modulation scheme having a strong error resistance out of the layer 1 and the layer 2 based on the transmission scheme control information acquired from the transmission scheme control information extraction unit 11 by a method described later. A high-resolution video is determined from the frame size value of each hierarchical video acquired from the hierarchical 1 video size scaling unit 29 and the hierarchical 2 video size scaling unit 30, and is stored in the video frame buffer 33 based on these determination results. It is a means for determining the writing hierarchy and the writing order. Whether the video writing means 321 writes video frame data of a hierarchy having high error tolerance and high video resolution to the video frame buffer 33 according to the writing order determined by the video writing order determining means 32 by a method described later. Or means for overwriting the video frame data of the other layer so as to complement the error part of the video frame data of one layer.

音声相互補完合成手段34は、音声データエラー検出手段19で検出されたデータエラー位置の音声フレームデータを、同一データ位置抽出手段で抽出された同一データ位置に基づいた互いの階層のフレームで補完して音声の連続するデータを生成する手段で、音声書込み順序決定手段35、音声フレームバッファ36および音声書込み手段351から構成されている。
音声フレームバッファ36は、再生するための音声フレームデータを一時保持する手段である。音声書込み順序決定手段35は、後述する方法で、伝送方式制御情報抽出手段11から取得した伝送方式制御情報に基づいてエラー耐性の強い方式の階層判定を行うと共に、階層1音声サンプリング周波数変換手段261および階層2音声サンプリング周波数変換手段271から取得したデコード後の各階層の音声サンプリング周波数値に基づいて音声解像度の同一性判定を行い、これらの判定結果に基づいて、音声フレームバッファ36に書き込む階層と書込み順序を決定する手段である。音声書込み手段351は、音声書込み順序決定手段35で決定された書込み順序に従って、音声フレームバッファ36に対して、後述するように、エラー耐性が強い階層の映像フレームデータを書き込むか、あるいは一方の階層の音声フレームデータのエラー箇所を補完するように他方の階層の音声フレームデータを重ね書きする手段である。
The speech mutual complement synthesizing unit 34 complements the audio frame data at the data error position detected by the audio data error detecting unit 19 with the frames of the mutual hierarchies based on the same data position extracted by the same data position extracting unit. This means generates voice continuous data, and is composed of a voice writing order determination means 35, a voice frame buffer 36 and a voice writing means 351.
The audio frame buffer 36 is means for temporarily storing audio frame data for reproduction. The voice writing order determination unit 35 performs a hierarchy determination of a scheme having a high error tolerance based on the transmission scheme control information acquired from the transmission scheme control information extraction unit 11 and a layer 1 voice sampling frequency conversion unit 261 by a method described later. In addition, the audio resolution is determined based on the audio sampling frequency value of each layer after decoding obtained from the layer 2 audio sampling frequency conversion means 271, and based on these determination results, the layer to be written to the audio frame buffer 36 It is means for determining the writing order. The audio writing means 351 writes the video frame data of a layer having high error tolerance into the audio frame buffer 36 according to the writing order determined by the audio writing order determination unit 35, as described later, or one of the hierarchies. This is means for overwriting the audio frame data of the other layer so as to complement the error portion of the audio frame data.

次に、動作について説明する。なお、ここで、両階層の映像および音声の対応するフレーム間は同期が取られているものとする。
まず、チューナ10により、デジタル放送の電波を受信し、サイマル放送を行っている階層1と階層2を含む受信信号を生成する。伝送方式制御情報抽出手段11では、その受信信号に多重された階層数および各階層の変調方式情報を抽出して伝送方式制御情報として階層1復調手段12と階層2復調手段13へ出力する。また、その受信信号は階層1復調手段12と階層2復調手段13へ与えられる。階層1復調手段12では、伝送方式制御情報抽出手段11で抽出した伝送方式制御情報に含まれる階層1の変調方式に基づいて復調し階層1のTSを生成すると共に、生成した階層1のTSに対して誤り訂正処理を行う。この処理では、誤り訂正後の出力データと共に、誤り訂正しきれなかったデータについては、TSヘッダのエラービットを立て、後段のストリーム分離手段14へ出力する。一方、階層2についても、階層2復調手段13において、階層1と同様な処理を行い、誤り訂正した階層2のTSをストリーム分離手段14に出力する。ストリーム分離手段14では、復調された階層1と階層2のTSのヘッダに含まれるPID(Packet ID)番号によって、階層1と階層2の各TSに対してフィルタリング処理を行い、各階層の映像、音声のTSパケットおよびセクション情報などのTSパケットに分離する。この場合、階層1映像のPIDをもつTSパケットは階層1映像デコード手段20へ、階層2映像のPIDをもつTSパケットは階層2映像デコード手段21へ、階層1音声のPIDを持つTSパケットは階層1音声デコード手段24へ、階層2音声のPIDを持つTSパケットは階層2音声デコード手段25へ、セクションを構成するPIDを持つTSパケットはセクション構成手段16へ、また、TSヘッダに含まれる符号化方式制御情報については符号化方式抽出手段15へ分配して出力される。また、ストリーム分離手段14に含まれる同一データ位置抽出手段により、ストリーム分離手段14で分離された時刻情報に基づいて、階層1と階層2の間の対応する映像同士、音声同士を同期させる同一データ位置を抽出する。この同一データ位置情報に基づいて以下のデータの処理が同期をとって行われる。
Next, the operation will be described. Here, it is assumed that the frames corresponding to the video and audio in both layers are synchronized.
First, the tuner 10 receives a radio wave of digital broadcasting and generates a reception signal including a hierarchy 1 and a hierarchy 2 that perform a simulcast. The transmission method control information extracting unit 11 extracts the number of layers multiplexed in the received signal and the modulation method information of each layer, and outputs the extracted information to the layer 1 demodulating unit 12 and the layer 2 demodulating unit 13 as transmission method control information. The received signal is given to the hierarchy 1 demodulation means 12 and the hierarchy 2 demodulation means 13. The layer 1 demodulating means 12 demodulates based on the modulation method of the layer 1 included in the transmission method control information extracted by the transmission method control information extracting unit 11 and generates a layer 1 TS. An error correction process is performed for this. In this processing, the error bit of the TS header is set for the data that has not been error corrected together with the output data after error correction, and is output to the stream separation means 14 at the subsequent stage. On the other hand, for layer 2, the layer 2 demodulator 13 performs the same processing as layer 1 and outputs the error-corrected layer 2 TS to the stream separator 14. The stream separation means 14 performs filtering on each TS of the layer 1 and layer 2 by the PID (Packet ID) number included in the demodulated layer 1 and layer 2 TS headers, Separated into voice TS packets and TS packets such as section information. In this case, a TS packet having a PID of layer 1 video is sent to the layer 1 video decoding unit 20, a TS packet having a PID of layer 2 video is sent to the layer 2 video decoding unit 21, and a TS packet having a PID of layer 1 audio is layered. The TS packet having the PID of the layer 2 speech is sent to the 1 speech decoding unit 24, the TS packet having the PID constituting the section is sent to the section construction unit 16 and the encoding included in the TS header The system control information is distributed and output to the encoding system extraction means 15. In addition, the same data that synchronizes the corresponding video and audio between layer 1 and layer 2 based on the time information separated by the stream separation unit 14 by the same data position extraction unit included in the stream separation unit 14 Extract position. Based on this same data position information, the following data processing is performed in synchronization.

セクションを構成するPIDを持つTSパケットを受信したセクション構成手段16では、そのデータからPAT、PMT等のセクション情報を構成し、その情報のうち、階層1映像、階層2映像、階層1音声および階層2音声に関わる制御情報およびコンテンツ情報を、それぞれ対応する符号化方式抽出手段15、映像フレームサイズ検出手段17、階層1映像デコード手段20、階層2映像デコード手段21、音声サンプリング周波数検出手段241、階層1音声デコード手段24、階層2音声デコード手段25へ出力する。符号化方式抽出手段15では、セクション構成手段16で組立てたセクション情報から、また、前記ストリーム分離手段14から受信したTSヘッダに含まれるに含まれるストリーム識別子から符号化方式の情報を抽出し、両情報を合わせて符号化方式制御情報を構成して、セクション構成手段16を経由して、階層1映像デコード手段20、階層2映像デコード手段21、階層1音声デコード手段24および階層2音声デコード手段25へそれぞれ送信する。   The section construction means 16 that has received a TS packet having a PID that constitutes a section constructs section information such as PAT, PMT, etc. from the data, and among these information, layer 1 video, layer 2 video, layer 1 audio, and layer Control information and content information related to two audio signals are respectively associated with encoding method extraction means 15, video frame size detection means 17, layer 1 video decoding unit 20, layer 2 video decoding unit 21, audio sampling frequency detection unit 241, layer The data is output to the 1 audio decoding means 24 and the hierarchy 2 audio decoding means 25. The encoding method extraction means 15 extracts the encoding method information from the section information assembled by the section configuration means 16 and from the stream identifier included in the TS header received from the stream separation means 14. The coding method control information is configured by combining the information, and via the section configuration unit 16, the layer 1 video decoding unit 20, the layer 2 video decoding unit 21, the layer 1 audio decoding unit 24, and the layer 2 audio decoding unit 25. To each.

階層1映像デコード手段20では、ストリーム分離手段14から与えられた階層1映像のTSパケットから映像のPESを生成し、このPESからデコード時間DTS(Decoding Time Stamp)や表示時間PTS(Presentation Time Stamp)などのヘッダ情報を取得する。次に、映像のPESから映像のESを生成して、シーケンスヘッダ情報からなる映像デコード制御情報を抽出する。さらに、生成された映像のESを符号化方式抽出手段15で取得した符号化方式制御情報に合わせてデコードして階層1の映像フレームデータを得る。この時、セクション構成手段16から取得した階層1映像の制御データと階層1映像のTSに含まれるヘッダ情報との比較や、デコード時の発生するシーケンス毎、ピクチャ毎、スライス毎、マクロブロック毎のエラー検出を行って、それらの結果を、データエラー位置情報を含む映像デコードエラー情報として得る。階層2映像デコード手段21でも、階層1映像デコード手段20と同様な処理を行い、階層2の映像フレームデータおよび映像デコードエラー情報を生成する。また同様に、階層1音声デコード手段24および階層2音声デコード手段25でも、それぞれに対応した階層の音声フレームデータおよび音声デコードエラー情報を生成する。   The layer 1 video decoding means 20 generates a video PES from the TS packet of the layer 1 video given from the stream separation means 14, and from this PES, a decoding time DTS (Decoding Time Stamp) and a display time PTS (Presentation Time Stamp). Get header information. Next, a video ES is generated from the video PES, and video decoding control information including sequence header information is extracted. Further, the generated video ES is decoded in accordance with the encoding method control information acquired by the encoding method extraction unit 15 to obtain the video frame data of the first layer. At this time, the comparison between the control data of the layer 1 video acquired from the section construction unit 16 and the header information included in the TS of the layer 1 video, the sequence generated at the time of decoding, the picture, the slice, and the macroblock Error detection is performed, and those results are obtained as video decoding error information including data error position information. The layer 2 video decoding unit 21 also performs the same processing as the layer 1 video decoding unit 20 to generate layer 2 video frame data and video decoding error information. Similarly, the layer 1 audio decoding unit 24 and the layer 2 audio decoding unit 25 also generate audio frame data and audio decoding error information corresponding to each layer.

階層1映像デコード手段20および階層2映像デコード手段21の場合は、デコード中に抽出されたシーケンスヘッダ情報からなる映像デコード制御情報から、映像フレームサイズ情報を抽出して映像フレームサイズ検出手段17へ送る。また、映像デコードエラー情報を、デコードエラーを含むデコード後の映像フレームデータと共に、階層1映像デコードエラーフレーム検出手段22および階層2映像デコードエラーフレーム検出手段23へ送る。階層1映像デコードエラーフレーム検出手段22では、デコード後の階層1の映像フレームデータをバッファリングし、階層1の映像デコードエラー情報に基づいて、この階層1の映像フレームデータからエラー箇所があるフレームを検出し、映像デコードエラー情報、デコード後の映像フレームデータと共に階層1映像サイズスケーリング手段29へ出力する。階層2映像デコードエラーフレーム検出手段23でも、階層1映像デコードエラーフレーム検出手段22と同様の動作を階層2の映像フレームデータに対して行う。   In the case of the layer 1 video decoding unit 20 and the layer 2 video decoding unit 21, the video frame size information is extracted from the video decoding control information including the sequence header information extracted during decoding and is sent to the video frame size detection unit 17. . The video decoding error information is sent to the layer 1 video decoding error frame detection unit 22 and the layer 2 video decoding error frame detection unit 23 together with the decoded video frame data including the decoding error. The layer 1 video decoding error frame detection means 22 buffers the decoded frame 1 video frame data and, based on the layer 1 video decoding error information, identifies a frame having an error portion from the layer 1 video frame data. It is detected and output to the layer 1 video size scaling means 29 together with the video decoding error information and the decoded video frame data. The layer 2 video decoding error frame detection unit 23 performs the same operation as the layer 1 video decoding error frame detection unit 22 on the layer 2 video frame data.

一方、映像フレームサイズ検出手段17では、セクション構成手段16で組立てたセクション情報のうち、映像フレームサイズに関わる情報を取得し、また階層1映像デコード手段20および階層2映像デコード手段21から得たシーケンスヘッダ情報に含まれる映像フレームサイズ情報を合わせて、各階層の映像フレームサイズを検出し映像出力サイズ決定手段28へ送る。映像出力サイズ決定手段28では、条件として与えられる出力映像サイズと映像フレームサイズ検出手段17で検出された階層1と階層2の映像のフレームサイズに基づいて、当該階層1と階層2の映像のフレームサイズに対するスケーリング値をそれぞれ算出する。この場合、条件として与えられる出力映像サイズとしては、予め決められた映像出力サイズ、接続されたディスプレイから取得した表示できる映像出力サイズ、または出力する機器から得られる出力映像サイズなどが用いられる。また、階層1と階層2の映像のフレームサイズに対するスケーリング値は、これらの出力映像サイズと各階層の映像のフレームサイズに対して、例えば最小公倍数をとるような予め決められた算出式を用い算出される。映像出力サイズ決定手段28で決定された階層1と階層2の映像のフレームサイズに対するスケーリング値は、対応する階層1映像サイズスケーリング手段29および階層2映像サイズスケーリング手段30へ与えられる。
階層1映像サイズスケーリング手段29では、映像出力サイズ決定手段28から取得したスケーリング値に基づいて、階層1映像デコードエラーフレーム検出手段22からのデコード後の階層1の映像フレームデータを階層1の映像出力サイズとなるようにスケーリングし、階層1の映像デコードエラー情報と共に一時保持する。階層2映像サイズスケーリング手段30においても、階層1映像サイズスケーリング手段29と同様な処理を行い、デコード後の階層2の映像フレームデータを階層2の映像出力サイズとなるようにスケーリングし、階層2の映像デコードエラー情報と共に一時保持する。
On the other hand, the video frame size detection means 17 obtains information related to the video frame size from the section information assembled by the section construction means 16, and the sequence obtained from the hierarchy 1 video decoding means 20 and the hierarchy 2 video decoding means 21. Together with the video frame size information included in the header information, the video frame size of each layer is detected and sent to the video output size determining means 28. In the video output size determining means 28, based on the output video size given as a condition and the frame size of the video of the hierarchy 1 and hierarchy 2 detected by the video frame size detection means 17, the video frames of the hierarchy 1 and hierarchy 2 are concerned. A scaling value for each size is calculated. In this case, as an output video size given as a condition, a predetermined video output size, a video output size that can be displayed acquired from a connected display, an output video size obtained from an output device, or the like is used. Further, the scaling value for the frame size of the video of the hierarchy 1 and the video of the hierarchy 2 is calculated using a predetermined calculation formula that takes the least common multiple for the output video size and the frame size of the video of each hierarchy, for example. Is done. The scaling values for the frame sizes of the layer 1 and layer 2 images determined by the image output size determining unit 28 are given to the corresponding layer 1 image size scaling unit 29 and the layer 2 image size scaling unit 30.
The layer 1 video size scaling unit 29 outputs the decoded layer 1 video frame data from the layer 1 video decoding error frame detection unit 22 based on the scaling value acquired from the video output size determination unit 28 to the layer 1 video output. Scaled to the size and temporarily stored together with the video decoding error information of layer 1. The layer 2 video size scaling unit 30 also performs the same processing as the layer 1 video size scaling unit 29, scales the decoded video frame data of layer 2 to the video output size of layer 2, and Temporarily stored with video decoding error information.

次に、図2に示すフローにより、映像書込み順序決定手段32による書込み順序決定動作と映像書込み手段321による書込み動作について説明する。
まず、映像書込み順序決定手段32では、伝送方式制御情報抽出手段11から取得した伝送方式制御情報から階層毎の変調方式を抽出する(ステップST1)。次に、いずれの階層の変調方式が、エラー耐性が強いかを判定する(ステップST2)。階層1の方が階層2よりエラー耐性が強い変調方式である場合、階層1映像サイズスケーリング手段29および階層2映像サイズスケーリング手段30から取得した各階層のデコード後の映像フレームサイズの映像解像度について、いずれの階層の方がよいかを判定する(ステップST3)。一方、ステップST2において、階層2の方が階層1よりエラー耐性が強い変調方式である場合においても、同様に、階層1映像サイズスケーリング手段29および階層2映像サイズスケーリング手段30から取得した各階層のデコード後の映像フレームサイズの映像解像度について、いずれの階層の方がよいかを判定する(ステップST4)。
Next, the writing order determination operation by the video writing order determination unit 32 and the writing operation by the video writing unit 321 will be described with reference to the flow shown in FIG.
First, the video writing order determining unit 32 extracts the modulation scheme for each layer from the transmission scheme control information acquired from the transmission scheme control information extracting unit 11 (step ST1). Next, it is determined which modulation scheme of the layer has high error tolerance (step ST2). When layer 1 is a modulation scheme with higher error tolerance than layer 2, the video resolution of the decoded video frame size of each layer obtained from layer 1 video size scaling unit 29 and layer 2 video size scaling unit 30 is as follows: It is determined which layer is better (step ST3). On the other hand, in step ST 2, even when the layer 2 is a modulation scheme having higher error tolerance than the layer 1, each layer acquired from the layer 1 video size scaling unit 29 and the layer 2 video size scaling unit 30 is similarly obtained. It is determined which layer is better for the video resolution of the decoded video frame size (step ST4).

上記ステップST3において、階層1の方が階層2より映像解像度がよい場合、映像書込み順序決定手段32では、フレームバッファ書込み順序を階層1のみと決定する(ステップST5)。映像書込み手段321では、この決定順序に従って階層1映像サイズスケーリング手段29からスケーリングされたフレームサイズのエラー箇所を含む階層1の映像フレームデータを取得してそのデータのみをそのまま書き込む(ステップST6)。一方、ステップST3において、階層2の方が階層1よりも映像解像度がよい場合、映像書込み順序決定手段32では、フレームバッファ書込み順序を階層1、階層2の順と決定する(ステップST7)。映像書込み手段321では、この決定順序に従って、最初に階層1映像サイズスケーリング手段29からスケーリングされたフレームサイズのエラー箇所を含む階層1の映像フレームデータを取得してそのまま書き込んだ後(ステップST8)、続いて階層2映像サイズスケーリング手段30から取得したスケーリングされたフレームサイズの階層2の映像フレームデータを、エラー箇所をマスクして、最初に書き込んだ同一位置へ書き込む(ステップST9)。したがって、このステップST8、ST9の場合、最終的に書き込まれた映像フレームデータとしては、階層2の映像フレームデータのマスクした箇所を、先に書き込んだ階層1の映像フレームデータの部分で置き換えたものとなり、異なる階層のデータで合成したフレームになる。   In the above step ST3, when the video resolution is higher in the hierarchy 1 than in the hierarchy 2, the video writing order determining means 32 determines that the frame buffer writing order is only the hierarchy 1 (step ST5). The video writing means 321 acquires the video frame data of the hierarchy 1 including the error portion of the scaled frame size from the hierarchy 1 video size scaling means 29 according to this determination order, and writes only the data as it is (step ST6). On the other hand, in step ST3, when the video resolution of layer 2 is better than that of layer 1, the video writing order determination unit 32 determines the frame buffer writing order as the order of layer 1 and layer 2 (step ST7). In the video writing unit 321, first, after acquiring the frame 1 video frame data including the error portion of the scaled frame size from the layer 1 video size scaling unit 29 in accordance with this determination order, it is written as it is (step ST 8). Subsequently, the scaled frame size layer 2 video frame data obtained from the layer 2 video size scaling means 30 is written in the same position where it was first written with the error location masked (step ST9). Therefore, in the case of these steps ST8 and ST9, as the finally written video frame data, the masked portion of the layer 2 video frame data is replaced with the previously written layer 1 video frame data portion. Thus, the frame is composed of data of different layers.

また、ステップST4において、階層1の方が階層2より映像解像度がよい場合、映像書込み順序決定手段32では、フレームバッファ書込み順序を階層2、階層1の順と決定する(ステップST10)。この決定順序に従って、映像書込み手段321では、階層2映像サイズスケーリング手段30からスケーリングされたフレームサイズのエラー箇所を含む階層2の映像フレームデータを取得してそのまま映像フレームバッファへ書き込んだ後(ステップST11)、続いて階層1映像サイズスケーリング手段29から取得したスケーリングされたフレームサイズの階層1の映像フレームデータを、エラー箇所をマスクして、最初に書き込んだ同一位置へ書き込む(ステップST12)。したがって、このステップST11、ST12の場合、最終的に書き込まれた映像フレームデータとしては、階層1の映像フレームデータのマスクした箇所に、先に書き込んだ階層2の映像フレームデータの部分で置き換えたものとなり、異なる階層のデータで合成したフレームになる。
一方、ステップST4において、階層2の方が階層1より映像解像度がよい場合、映像書込み順序決定手段32では、フレームバッファ書込み順序を階層2のみと決定する(ステップST13)。映像書込み手段321では、この決定順序に従って、階層2映像サイズスケーリング手段30からスケーリングされたフレームサイズのエラー箇所を含む階層2の映像フレームデータを取得してそのデータのみをそのまま書き込む(ステップST14)。
Further, in step ST4, when the video resolution of layer 1 is better than that of layer 2, the video writing order determining unit 32 determines the frame buffer writing order as the order of layer 2 and layer 1 (step ST10). In accordance with this determination order, the video writing unit 321 acquires the video frame data of the layer 2 including the error portion of the scaled frame size from the layer 2 video size scaling unit 30 and directly writes it into the video frame buffer (step ST11). Then, the scaled frame size video frame data obtained from the level 1 video size scaling means 29 is written in the same position where the error was first masked (step ST12). Therefore, in the case of these steps ST11 and ST12, the finally written video frame data is the one that has been replaced with the portion of the video frame data of the layer 2 that was previously written in place of the mask of the video frame data of the layer 1 Thus, the frame is composed of data of different layers.
On the other hand, in step ST4, when the video resolution of layer 2 is better than that of layer 1, the video writing order determination unit 32 determines that the frame buffer writing order is only layer 2 (step ST13). In accordance with this determination order, the video writing unit 321 acquires the video frame data of the layer 2 including the error portion of the scaled frame size from the layer 2 video size scaling unit 30, and writes only the data as it is (step ST14).

以上の映像書込み順序決定手段32で決定される書込み順序を整理すると、エラー耐性の強い変調方式の階層と映像解像度の高い階層が同じと判定された場合には、当該同じ階層の映像フレームデータのみの書き込みとし、エラー耐性の強い変調方式の階層と映像解像度の高い階層が異なると判定された場合には、最初にエラー耐性の強い変調方式の方の階層の映像フレームデータを書き込み、続いて映像解像度の高い方の階層の映像フレームデータを書き込むものとすることになる。
また、映像書込み手段321の書込み動作を整理すると、エラー耐性の強い変調方式の階層と映像解像度の高い階層が同じと判定された場合には、当該同じ階層の映像フレームデータのみをそのまま書き込み、一方、エラー耐性の強い変調方式の階層と映像解像度の高い階層が異なると判定された場合には、最初に書き込むエラー耐性の強い変調方式の方の階層の映像フレームデータはそのまま映像フレームバッファ33に書き込み、次に書き込む映像解像度の高い方の階層の映像フレームデータはデコードエラーの発生箇所をマスクして、最初に書き込んだ映像フレームバッファ33の同一位置に書き込むことになる。
When the writing order determined by the video writing order determination means 32 is arranged, if it is determined that the layer of the modulation scheme having high error resistance and the layer having a high video resolution are the same, only the video frame data of the same layer is used. When it is determined that the error-resistant modulation method layer and the video resolution layer are different from each other, the video frame data of the error-resistant modulation method layer is written first, followed by the video. The video frame data of the higher resolution layer is to be written.
Further, when the writing operation of the video writing means 321 is arranged, when it is determined that the layer of the modulation scheme having high error resistance and the layer of high video resolution are the same, only the video frame data of the same layer is written as it is. When it is determined that the hierarchy of the modulation scheme having high error tolerance and the hierarchy of high video resolution are different, the video frame data of the hierarchy of the modulation scheme having high error tolerance to be written first is written in the video frame buffer 33 as it is. Then, the video frame data of the higher layer of the video resolution to be written next is written in the same position of the video frame buffer 33 written first by masking the position where the decoding error occurs.

一方、音声の方の動作において、階層1音声デコード手段24では、ストリーム分離手段14から与えられた階層1音声のTSパケットから音声のPESを生成し、このPESからデコード時間DTSや表示時間PTSなどのヘッダ情報を取得する。次に、音声のPESから音声のESを生成して、音声ESヘッダ情報から音声サンプリング周波数を抽出する。さらに、生成された音声のESを、符号化方式抽出手段15で取得した符号化方式制御情報に合わせてデコードして階層1の音声フレームデータを得る。この時、セクション構成手段16から取得した階層1音声の制御データと階層1音声のTSに含まれるヘッダ情報との比較や、デコード時に発生するデコードエラーの検出を行って、それらの結果として、データエラー位置情報を含む音声デコードエラー情報として得る。階層2音声デコード手段25でも階層1音声デコード手段24と同様な処理を行い、階層2の音声フレームデータ、およびデータエラー位置情報を含む音声デコードエラー情報を得る。   On the other hand, in the operation of audio, the layer 1 audio decoding unit 24 generates an audio PES from the TS packet of layer 1 audio given from the stream separation unit 14, and the decoding time DTS, display time PTS, etc. from this PES Get the header information. Next, an audio ES is generated from the audio PES, and an audio sampling frequency is extracted from the audio ES header information. Further, the generated speech ES is decoded in accordance with the encoding method control information acquired by the encoding method extraction unit 15 to obtain the audio frame data of the first layer. At this time, the control data of the layer 1 sound acquired from the section construction unit 16 and the header information included in the TS of the layer 1 sound are compared, and a decoding error that occurs at the time of decoding is detected. As a result, the data Obtained as audio decoding error information including error position information. The layer 2 audio decoding unit 25 performs the same processing as the layer 1 audio decoding unit 24, and obtains audio decoding error information including layer 2 audio frame data and data error position information.

階層1音声デコード手段24および階層2音声デコード手段25の場合は、デコード中の音声ESヘッダ情報からなる音声デコード制御情報から、階層1と階層2に含まれる音声サンプリング周波数を抽出して音声サンプリング周波数検出手段241へ送る。また、音声デコードエラー情報を、デコードエラーを含むデコード後の音声フレームデータと共に、階層1音声デコードエラーフレーム検出手段26および階層2音声デコードエラーフレーム検出手段27へ送る。階層1音声デコードエラーフレーム検出手段26では、デコード後の階層1の音声フレームデータをバッファリングし、階層1の音声デコードエラー情報に基づいて、この階層1の音声フレームデータからエラー箇所があるフレームを検出し、音声デコードエラー情報、デコード後の音声フレームデータと共に階層1音声サンプリング周波数変換手段261へ出力する。階層2音声デコードエラーフレーム検出手段27でも、階層1音声デコードエラーフレーム検出手段26と同様の動作を階層2の音声フレームデータに対して行う。   In the case of the hierarchy 1 audio decoding means 24 and the hierarchy 2 audio decoding means 25, the audio sampling frequency included in the hierarchy 1 and the hierarchy 2 is extracted from the audio decoding control information consisting of the audio ES header information being decoded. This is sent to the detecting means 241. Also, the audio decoding error information is sent to the layer 1 audio decoding error frame detecting unit 26 and the layer 2 audio decoding error frame detecting unit 27 together with the decoded audio frame data including the decoding error. The layer 1 audio decoding error frame detecting means 26 buffers the decoded frame 1 audio frame data, and based on the layer 1 audio decoding error information, extracts a frame having an error portion from the layer 1 audio frame data. Detected and output to the layer 1 audio sampling frequency converting means 261 together with audio decoding error information and decoded audio frame data. The layer 2 audio decoding error frame detection unit 27 performs the same operation as the layer 1 audio decoding error frame detection unit 26 on the layer 2 audio frame data.

一方、音声サンプリング周波数検出手段241では、セクション構成手段16で組立てたセクション情報のうち、音声サンプリング周波数に関わる情報を取得し、また階層1音声デコード手段24および階層2音声デコード手段25から得た音声ESヘッダ情報からなる音声デコード制御情報から、各階層の音声サンプリング周波数を検出し、音声サンプリング周波数決定手段242へ送る。音声サンプリング周波数決定手段242では、条件として与えられる出力音声サンプリング周波数と音声サンプリング周波数検出手段241で検出された各階層の音声サンプリング周波数に基づいて、各階層に含まれた音声のサンプリング周波数に対する変換値(拡大比または縮小比)をそれぞれ決定する。この場合、条件として与えられる出力音声サンプリング周波数としては、予め決められた音声出力サンプリング周波数、または他手段により入力指定された音声出力サンプリング周波数が用いられる。また、階層1と階層2の音声のサンプリング周波数に対する変換値は、これらの音声出力サンプリング周波数と階層1と階層2の音声のサンプリング周波数に対して、例えば最小公倍数をとるような予め決められた算出式を用い算出される。音声サンプリング周波数決定手段242で決定された階層1と階層2の音声のサンプリング周波数の変換値は、対応する階層1音声サンプリング周波数変換手段261および階層2音声サンプリング周波数変換手段271へ与えられる。
階層1音声サンプリング周波数変換手段261では、音声出力サンプリング周波数決定手段242から取得した変換値に基づいて、階層1音声デコードエラーフレーム検出手段26からのデコード後の階層1の音声フレームデータを階層1の音声出力サイズとなるように変換し、階層1の音声デコードエラー情報と共に一時保持する。階層2音声サンプリング周波数変換手段271においても、階層1音声サンプリング周波数変換手段261と同様な処理を行い、デコード後の階層2の音声フレームデータを階層2の音声出力サンプリング周波数となるように変換し、階層2の音声デコードエラー情報と共に一時保持する。
On the other hand, the audio sampling frequency detection unit 241 acquires information related to the audio sampling frequency from the section information assembled by the section configuration unit 16, and the audio obtained from the layer 1 audio decoding unit 24 and the layer 2 audio decoding unit 25. The audio sampling frequency of each layer is detected from the audio decoding control information made up of ES header information and sent to the audio sampling frequency determining means 242. The audio sampling frequency determining unit 242 converts the converted value for the sampling frequency of the audio included in each layer based on the output audio sampling frequency given as a condition and the audio sampling frequency of each layer detected by the audio sampling frequency detecting unit 241. (Enlargement ratio or reduction ratio) is determined respectively. In this case, as an output audio sampling frequency given as a condition, a predetermined audio output sampling frequency or an audio output sampling frequency designated by other means is used. In addition, the conversion value for the sampling frequencies of the audio of layer 1 and layer 2 is calculated in advance so as to take, for example, the least common multiple of the audio output sampling frequency and the sampling frequency of audio of layer 1 and layer 2 Calculated using the formula. The conversion values of the sampling frequencies of the hierarchy 1 and hierarchy 2 determined by the audio sampling frequency determination means 242 are given to the corresponding hierarchy 1 audio sampling frequency conversion means 261 and hierarchy 2 audio sampling frequency conversion means 271.
The layer 1 audio sampling frequency conversion unit 261 converts the decoded layer 1 audio frame data from the layer 1 audio decoding error frame detection unit 26 based on the converted value acquired from the audio output sampling frequency determination unit 242 to the layer 1 The audio output size is converted and temporarily stored together with the audio decoding error information of layer 1. The layer 2 audio sampling frequency conversion unit 271 also performs the same processing as the layer 1 audio sampling frequency conversion unit 261 to convert the decoded layer 2 audio frame data to the layer 2 audio output sampling frequency, Temporarily held together with layer 2 audio decoding error information.

次に、映像の場合と同様、図2に示すフローにより、音声書込み順序決定手段35による書込み順序決定動作と音声書込み手段351による書込み動作について説明する。
音声書込み順序決定手段35では、まず、伝送方式制御情報抽出手段11から取得した伝送方式制御情報から階層毎の変調方式を抽出する(ステップST1)。次に、いずれの階層の変調方式が、エラー耐性が強いかを判定する(ステップST2)。階層1の方が階層2よりエラー耐性が強い変調方式である場合、階層1音声デコードエラーフレーム検出手段26および階層2音声デコードエラーフレーム検出手段27から取得した各階層のデコード後の音声フレームサンプリング周波数の音声解像度について、いずれの階層の方がよいかを判定する(ステップST3)。一方、ステップST2において、階層2の方がエラー耐性が強い場合、同様に、階層1音声デコードエラーフレーム検出手段26および階層2音声デコードエラーフレーム検出手段27から取得した各階層のデコード後の音声フレームのサンプリング周波数の音声解像度について、いずれの階層の方がよいかを判定する(ステップST4)。
Next, as in the case of video, the writing order determination operation by the voice writing order determination unit 35 and the writing operation by the voice writing unit 351 will be described with reference to the flow shown in FIG.
The voice writing order determining means 35 first extracts the modulation scheme for each layer from the transmission scheme control information acquired from the transmission scheme control information extracting section 11 (step ST1). Next, it is determined which modulation scheme of the layer has high error tolerance (step ST2). When the layer 1 is a modulation scheme having higher error tolerance than the layer 2, the decoded audio frame sampling frequency of each layer obtained from the layer 1 audio decoding error frame detecting unit 26 and the layer 2 audio decoding error frame detecting unit 27 For which audio resolution, which layer is better is determined (step ST3). On the other hand, in step ST2, if layer 2 has stronger error tolerance, similarly, the decoded audio frame of each layer obtained from layer 1 audio decoding error frame detection unit 26 and layer 2 audio decoding error frame detection unit 27 It is determined which layer is better for the audio resolution of the sampling frequency (step ST4).

上記ステップST3において、階層1の方が階層2より音声解像度がよい場合、音声書込み順序決定手段35では、フレームバッファ書込み順序を階層1のみと決定する(ステップST5)。音声書込み手段351では、この決定順序に従って、階層1音声サンプリング周波数変換手段261から変換されたサンプリング周波数のエラー箇所を含む階層1の音声フレームデータを取得して、そのデータのみをそのまま音声フレームバッファ36に書き込む(ステップST6)。一方、ステップST3において、階層2の方が階層1よりも音声解像度がよい場合、音声書込み順序決定手段35では、フレームバッファ書込み順序を階層1、階層2の順と決定する(ステップST7)。音声書込み手段351では、この決定順序に従って、最初に階層1音声サンプリング周波数変換手段261から変換されたサンプリング周波数のエラー箇所を含む階層1の音声フレームデータを取得して、そのまま書き込んだ後(ステップST8)、続いて階層2音声サンプリング周波数変換手段271から取得した階層2の変換されたサンプリング周波数の音声フレームデータを、エラー箇所をマスクして、最初に書き込んだ同一位置へ書き込む(ステップST9)。したがって、このステップST8、ST9の場合、最終的に書き込まれた音声フレームデータとしては、階層2の音声フレームデータのマスクした箇所を、先に書き込んだ階層1の音声フレームデータの部分で置き換えたものとなり、異なる階層のデータで合成したフレームになる。   In step ST3, when the audio resolution of layer 1 is better than that of layer 2, the audio writing order determination unit 35 determines that the frame buffer writing order is only layer 1 (step ST5). In accordance with this determination order, the audio writing unit 351 acquires the audio frame data of the layer 1 including the sampling frequency error portion converted from the layer 1 audio sampling frequency conversion unit 261, and only the data is directly used as the audio frame buffer 36. (Step ST6). On the other hand, in step ST3, when the audio resolution of layer 2 is better than that of layer 1, the audio writing order determination unit 35 determines the frame buffer writing order as the order of layer 1 and layer 2 (step ST7). In accordance with this determination order, the voice writing unit 351 first acquires the layer 1 speech frame data including the sampling frequency error portion converted from the layer 1 speech sampling frequency conversion unit 261 and writes it as it is (step ST8). Then, the audio frame data of the sampling frequency converted in the layer 2 acquired from the layer 2 audio sampling frequency conversion means 271 is written in the same position where the error was first written, masking the error part (step ST9). Therefore, in the case of these steps ST8 and ST9, as the audio frame data finally written, the masked portion of the layer 2 audio frame data is replaced with the previously written layer 1 audio frame data part. Thus, the frame is composed of data of different layers.

また、ステップST4において、階層1の方が階層2より音声解像度がよい場合、音声書込み順序決定手段35では、フレームバッファ書込み順序を階層2、階層1の順と決定する(ステップST10)。音声書込み手段351では、この決定順序に従って、最初に階層2音声サンプリング周波数変換手段271から変換されたサンプリング周波数のエラー箇所を含む階層2の音声フレームデータを取得してそのまま書き込んだ後(ステップST11)、続いて階層1音声サンプリング周波数変換手段261から取得した階層1の変換されたサンプリング周波数の音声フレームデータを、エラー箇所をマスクして、最初に書き込んだ同一位置へ書き込む(ステップST12)。したがって、このステップST11、ST12の場合、最終的に書き込まれた音声フレームデータデータとしては、階層1の音声フレームデータのマスクした箇所に、先に書き込んだ階層2の音声フレームデータの部分で置き換えたものとなり、異なる階層のデータで合成したフレームになる。
一方、ステップST4において、階層2の方が階層1より音声解像度がよい場合、音声書込み順序決定手段35では、フレームバッファ書込み順序を階層2のみと決定する(ステップST13)。音声書込み手段351では、この決定順序に従って、階層2音声サンプリング周波数変換手段271から変換されたサンプリング周波数のエラー箇所を含む階層2の音声フレームデータを取得して、そのデータのみをそのまま書き込む(ステップST14)。
In step ST4, when the audio resolution of layer 1 is better than that of layer 2, the audio writing order determining means 35 determines the frame buffer writing order as the order of layer 2 and layer 1 (step ST10). In accordance with this determination order, the voice writing unit 351 first acquires and writes the layer 2 speech frame data including the sampling frequency error portion converted from the layer 2 speech sampling frequency conversion unit 271 as it is (step ST11). Subsequently, the audio frame data of the sampling frequency converted from the layer 1 acquired from the layer 1 audio sampling frequency conversion means 261 is written in the same position where the error was first written by masking the error part (step ST12). Therefore, in the case of these steps ST11 and ST12, the audio frame data data finally written is replaced with the portion of the audio frame data of the layer 2 previously written in the masked portion of the audio frame data of the layer 1 It becomes a frame composed of data of different layers.
On the other hand, in step ST4, when the audio resolution of layer 2 is better than that of layer 1, the audio writing order determination unit 35 determines that the frame buffer writing order is only layer 2 (step ST13). In accordance with this determination order, the voice writing unit 351 acquires layer 2 audio frame data including the sampling frequency error portion converted from the layer 2 audio sampling frequency conversion unit 271 and writes only the data as it is (step ST14). ).

以上の音声書込み順序決定手段35で決定される書込み順序を整理すると、エラー耐性の強い変調方式の階層と音声解像度の高い階層が同じと判定された場合には、当該同じ階層の音声フレームデータのみの書き込みとし、エラー耐性の強い変調方式の階層と音声解像度の高い階層が異なると判定された場合には、最初にエラー耐性の強い変調方式の方の階層の音声フレームデータを書き込み、続いて音声解像度の高い方の階層の音声フレームデータを書き込むものとすることになる。
また、音声書込み手段351の書込み動作を整理すると、エラー耐性の強い変調方式の階層と音声解像度の高い階層が同じと判定された場合には、当該同じ階層の音声フレームデータのみをそのまま書き込み、一方、エラー耐性の強い変調方式の階層と音声解像度の高い階層が異なると判定された場合には、最初に書き込むエラー耐性の強い変調方式の方の階層の音声フレームデータはそのまま音声フレームバッファ36に書き込み、次に書き込む音声解像度の高い方の階層の音声フレームデータはデコードエラーの発生箇所をマスクして、最初に書き込んだ音声フレームバッファ36の同一位置に書き込むことになる。
When the writing order determined by the voice writing order determination means 35 is arranged, if it is determined that the hierarchy of the modulation scheme having high error resistance and the hierarchy having a high voice resolution are the same, only the voice frame data of the same hierarchy is used. If it is determined that the layer of the modulation scheme with higher error tolerance and the layer with higher audio resolution are different, the audio frame data of the layer with the modulation scheme with higher error tolerance is written first, and then the audio The audio frame data of the higher resolution layer is to be written.
Further, when the writing operation of the voice writing means 351 is arranged, when it is determined that the layer of the modulation scheme having high error resistance and the layer of high voice resolution are the same, only the voice frame data of the same layer is written as it is. If it is determined that the layer of the modulation scheme having high error resistance and the layer having high audio resolution are different, the audio frame data of the layer of the modulation scheme having high error resistance to be written first is written in the audio frame buffer 36 as it is. Then, the audio frame data of the higher layer of the audio resolution to be written next is written at the same position of the audio frame buffer 36 that was written first, masking the location where the decoding error occurs.

以上のように、この実施の形態1によれば、受信信号から各階層の変調方式を設定した伝送方式制御情報を抽出し、デコード時に得られる映像デコードエラー情報に基づいてエラー箇所があるフレームを検出し、抽出した伝送方式制御情報に基づいて、2つの階層のうちエラー耐性の強い変調方式の階層を判定すると共に、デコード後の映像フレームサイズの映像解像度の高い階層を判定し、その判定結果において、エラー耐性の強い変調方式の階層と映像解像度の高い階層が同じと判定された場合には、当該同じ階層の映像フレームデータのみの書き込みとし、エラー耐性の強い変調方式の階層と映像解像度の高い階層が異なると判定された場合には、最初にエラー耐性の強い変調方式の方の階層の映像フレームデータを書き込み、続いて映像解像度の高い方の階層の映像フレームデータを書き込むように階層と書込み順序を決定し、映像フレームバッファへの書込みにおいては、エラー耐性の強い変調方式の階層と映像解像度の高い階層が同じと判定された場合には、当該同じ階層の映像フレームデータのみをそのまま書き込み、一方、エラー耐性の強い変調方式の階層と映像解像度の高い階層が異なると判定された場合には、最初に書き込むエラー耐性の強い変調方式の方の階層の映像フレームデータはそのまま書き込み、次に書き込む映像解像度の高い方の階層の映像フレームデータはデコードエラーの発生箇所をマスクして、最初に書き込んだ同一位置に書き込むようにしている。また、音声に関しても同様な処理を行っている。したがって、フレームバッファから再生するために出力される映像および音声のフレームデータとしては、エラーが少なく解像度がよい階層のフレームデータを用いるか、あるいは2つの階層間でエラー箇所をエラーの少ない階層のフレームで相互補完した合成フレームデータを用いることになるため、電波の受信状態の監視手段や階層切替え手段を用いずに映像や音声の再生エラーを少なくすることができ、視聴しやすい映像および音声の再生を可能にする。
また、各階層のデコード後の映像フレームデータをスケーリングして、同一のサイズにしているため、階層によって映像のフレームサイズが異なっている場合にもこの発明を適用でき、映像フレームバッファへの書込み動作を容易にすることができる。
また、各階層のデコード後の音声フレームデータのサンプリング周波数を変換して、同一周波数にしているため、階層によって音声のサンプリング周波数が異なっている場合にもこの発明を適用でき、音声フレームバッファへの書込み動作を容易にすることができる。
また、階層毎の映像、音声データは各階層の符号化方式制御情報を取得してデコードしているので、符号化方式がそれぞれ異なっていても適用可能である。
As described above, according to the first embodiment, the transmission scheme control information in which the modulation scheme of each layer is set is extracted from the received signal, and the frame having the error portion is based on the video decoding error information obtained at the time of decoding. Based on the detected and extracted transmission method control information, the layer of the modulation method having strong error resistance is determined from the two layers, and the layer having the high video resolution of the decoded video frame size is determined. In this case, if it is determined that the error-resistant modulation method layer and the video resolution layer are the same, only the video frame data of the same layer is written, and the error-resistant modulation method layer and the video resolution If it is determined that the higher layer is different, first write the video frame data of the higher error-resistant modulation scheme, then The hierarchy and the order of writing are determined so that the video frame data of the higher image resolution layer is written, and when writing to the video frame buffer, it is determined that the layer of the modulation scheme having high error resistance and the layer of the higher video resolution are the same. If it is determined that only the video frame data of the same layer is written as it is, and it is determined that the layer of the modulation scheme having high error tolerance and the layer of high video resolution are different, the error tolerance to be written first is The video frame data of the higher modulation layer is written as it is, and the video frame data of the higher video resolution layer to be written next is masked at the location where the decoding error occurred and written at the same position where it was written first. ing. The same processing is performed for voice. Therefore, as video and audio frame data output for reproduction from the frame buffer, frame data having a layer with few errors and a good resolution is used, or a frame having a layer with few errors is used for an error portion between two layers. Since the combined frame data complemented with each other is used, video and audio playback errors can be reduced without using radio wave reception status monitoring means and hierarchy switching means. Enable.
In addition, since the decoded video frame data of each layer is scaled to have the same size, the present invention can be applied even when the video frame size differs depending on the layer, and the write operation to the video frame buffer is performed. Can be made easier.
In addition, since the sampling frequency of the decoded audio frame data of each layer is converted to the same frequency, the present invention can be applied even when the audio sampling frequency differs depending on the layer, The write operation can be facilitated.
In addition, since the video and audio data for each layer are obtained by decoding the encoding method control information of each layer, the present invention can be applied even if the encoding methods are different.

この発明の実施の形態1によるデジタル放送受信装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the digital broadcast receiver by Embodiment 1 of this invention. この発明の実施の形態1に係る映像と音声のフレームバッファ書込み順序決定手段の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the frame buffer writing order determination means of the image | video and audio | voice which concerns on Embodiment 1 of this invention. 地上波デジタル放送の周波数帯域幅、セグメント、階層の構成を表す説明図である。It is explanatory drawing showing the structure of the frequency bandwidth, segment, and hierarchy of terrestrial digital broadcasting.

符号の説明Explanation of symbols

10 チューナ、11 伝送方式制御情報抽出手段、12 階層1復調手段、13 階層2復調手段、14 ストリーム分離手段(同一データ位置抽出手段を含む)、15 符号化方式抽出手段、16 セクション構成手段、17 映像フレームサイズ検出手段、20 階層1映像デコード手段、21 階層2映像デコード手段、22 階層1映像デコードエラーフレーム検出手段、23 階層2映像デコードエラーフレーム検出手段、24 階層1音声デコード手段、25 階層2音声デコード手段、26 階層1音声デコードエラーフレーム検出手段、27 階層2音声デコードエラーフレーム検出手段、28 映像出力サイズ決定手段、29 階層1映像サイズスケーリング手段、30 階層2映像サイズスケーリング手段、32 映像書込み順序決定手段、33 映像フレームバッファ、35 音声書込み順序決定手段、36 音声フレームバッファ、241 音声サンプリング周波数検出手段、242 音声サンプリング周波数決定手段、261 階層1音声サンプリング周波数変換手段、271 階層2音声サンプリング周波数変換手段、321 映像書込み手段、351 音声書込み手段。   10 tuner, 11 transmission method control information extracting means, 12 layer 1 demodulating means, 13 layer 2 demodulating means, 14 stream separating means (including identical data position extracting means), 15 encoding method extracting means, 16 section constituting means, 17 Video layer size detecting means, 20 layer 1 video decoding means, 21 layer 2 video decoding means, 22 layer 1 video decoding error frame detecting means, 23 layer 2 video decoding error frame detecting means, 24 layer 1 audio decoding means, 25 layer 2 Audio decoding means, 26 layer 1 audio decoding error frame detecting means, 27 layer 2 audio decoding error frame detecting means, 28 video output size determining means, 29 layer 1 video size scaling means, 30 layer 2 video size scaling means, 32 video writing Order decision Determining means, 33 video frame buffer, 35 audio writing order determining means, 36 audio frame buffer, 241 audio sampling frequency detecting means, 242 audio sampling frequency determining means, 261 layer 1 audio sampling frequency converting means, 271 layer 2 audio sampling frequency conversion Means, 321 video writing means, 351 audio writing means.

Claims (10)

伝送周波数帯域を構成するセグメントを組み合わせた少なくとも2つの階層を使用し、それぞれの階層にテレビジョン放送または音声放送の同じ番組の映像データおよび/もしくは音声データを多重させて階層伝送を行うサイマル放送を受信し、復調、復号して各階層の映像および/もしくは音声のフレームデータを生成するデジタル放送受信装置であって、
受信信号から各階層の変調方式および伝送レートを設定した伝送方式制御情報を抽出する伝送方式制御情報抽出手段と、
復調したデータストリームから映像データおよび/もしくは音声データ、並びに時刻情報を含む制御情報を分離するストリーム分離手段と、
該ストリーム分離手段で分離された制御情報から、映像データおよび/もしくは音声データの符号化方式制御情報を抽出する符号化方式抽出手段と、
前記ストリーム分離手段で分離された各階層の映像データまたは音声データのデータエラー位置を抽出するデータエラー検出手段と、
前記ストリーム分離手段で分離された時刻情報に基づいて、階層間の対応する映像および/もしくは音声を同期させる同一データ位置を抽出する同一データ位置抽出手段と、
当該同一データ位置抽出手段で抽出された同一データ位置に基づいて、前記データエラー検出手段で検出されたデータエラー位置の映像および/もしくは音声のフレームデータを互いの階層のフレームで補完して、映像および/もしくは音声の連続するデータを生成する相互補完合成手段とを備えたことを特徴とするデジタル放送受信装置。
Use simulcast that uses at least two hierarchies that combine segments that make up the transmission frequency band and multiplexes video data and / or audio data of the same program of television broadcast or audio broadcast to each hierarchy and performs hierarchical transmission A digital broadcast receiver that receives, demodulates, and decodes to generate video and / or audio frame data of each layer,
Transmission method control information extracting means for extracting transmission method control information in which the modulation method and transmission rate of each layer are set from the received signal;
Stream separating means for separating control information including video data and / or audio data and time information from the demodulated data stream;
Encoding method extraction means for extracting video data and / or audio data encoding method control information from the control information separated by the stream separation means;
Data error detection means for extracting data error positions of video data or audio data of each layer separated by the stream separation means;
Based on the time information separated by the stream separation means, the same data position extracting means for extracting the same data position for synchronizing the corresponding video and / or audio between layers,
Based on the same data position extracted by the same data position extraction means, the video and / or audio frame data at the data error position detected by the data error detection means is complemented with the frames of the respective layers, and the video And / or a complementary complement synthesizing unit for generating continuous data of voice.
データエラー検出手段は、
符号化方式抽出手段で抽出された符号化方式制御情報に基づいて、ストリーム分離手段で分離された映像データをデコードして映像フレームデータを生成する映像デコード手段と、各階層の映像データのデータエラー位置を抽出する映像データエラー検出手段とを有し、
相互補完合成手段は、前記映像データエラー検出手段で検出した各階層の映像のデータエラー位置の映像フレームデータを、同一データ位置に基づいた互いの階層のフレームで相互補完して、1つの映像の連続するデータとして生成する映像相互補完合成手段としたことを特徴とする請求項1記載のデジタル放送受信装置。
Data error detection means
Video decoding means for generating video frame data by decoding the video data separated by the stream separation means based on the coding method control information extracted by the coding method extraction means, and a data error in the video data of each layer Video data error detection means for extracting the position,
The mutually complementary synthesizing means mutually complements the video frame data at the data error position of the video of each hierarchy detected by the video data error detecting means with the frames of the mutual hierarchies based on the same data position. 2. The digital broadcast receiving apparatus according to claim 1, wherein the video complementary complement synthesizing means is generated as continuous data.
映像データエラー検出手段は、映像デコード手段が各階層の映像データのデコード中に得る映像デコードエラー情報に基づいて、エラー箇所があるフレームを検出する階層ごとの映像デコードエラーフレーム検出手段を有し、
映像デコード手段のデコード中に抽出された映像デコード制御情報からデコード後の映像フレームサイズを検出する映像フレームサイズ検出手段と、
条件として与えられる出力映像サイズと前記映像フレームサイズ検出手段で取得した階層ごとの映像フレームサイズに基づいて、各階層の映像のフレームサイズ対するスケーリング値をそれぞれ決定する映像出力サイズ決定手段と、
当該映像出力サイズ決定手段で決定された各階層の映像のフレームスケーリング値に基づいて、前記映像デコードエラーフレーム検出手段から出力されるデコード後の映像フレームデータのフレームサイズをスケーリングする階層ごとの映像サイズスケーリング手段を備えたことを特徴とする請求項2記載のデジタル放送受信装置。
The video data error detection means has video decode error frame detection means for each layer for detecting a frame having an error location based on video decode error information obtained by the video decode means during decoding of the video data of each layer,
Video frame size detecting means for detecting the decoded video frame size from the video decoding control information extracted during the decoding of the video decoding means;
Video output size determining means for determining a scaling value for the frame size of the video of each layer, based on the output video size given as a condition and the video frame size of each layer acquired by the video frame size detecting unit;
Video size for each layer that scales the frame size of the decoded video frame data output from the video decoding error frame detection unit based on the frame scaling value of the video of each layer determined by the video output size determination unit 3. The digital broadcast receiving apparatus according to claim 2, further comprising a scaling unit.
映像相互補完合成手段は、
映像サイズスケーリング手段でスケーリングされた映像フレームデータを一時保存する映像フレームバッファと、
伝送方式制御情報抽出手段から取得した伝送方式制御情報に基づいて、各階層の変調方式に対し階層間のエラー耐性の強弱の判定と、映像フレームサイズ検出手段で検出した各階層の映像フレームサイズを取得し、階層間で映像フレームサイズの大小の判定を行い、前記映像フレームバッファに対する各階層の映像データの書込み可否および書込む順序を決定する映像書込み順序決定手段と、
当該映像書込み順序決定手段で決定した書き込み順序に従って、前記映像フレームバッファに書き込む映像書込み手段を有したことを特徴とする請求項3記載のデジタル放送受信装置。
Video mutual complement synthesis means
A video frame buffer for temporarily storing video frame data scaled by the video size scaling means;
Based on the transmission method control information acquired from the transmission method control information extraction means, the level of error tolerance between layers for the modulation method of each layer is determined, and the video frame size of each layer detected by the video frame size detection means is determined. Video writing order determining means for obtaining, determining the size of the video frame size between layers, and determining whether or not to write video data of each layer to the video frame buffer and the order of writing;
4. The digital broadcast receiving apparatus according to claim 3, further comprising video writing means for writing to the video frame buffer in accordance with the writing order determined by the video writing order determining means.
映像デコード手段、映像デコードエラーフレーム検出手段、映像サイズスケーリング手段または映像書き込み手段は、映像書込み順序決定手段で決定した書込み順序に従って各階層の映像フレームデータを出力する際、映像フレームバッファに書き込む最初の階層の映像フレームデータはそのまま出力し、2番目以降に書き込む階層の映像フレームデータはデコードエラーが発生した箇所のみマスクして出力し、
その際、前記映像書き込み手段は、前記映像フレームバッファに対し、階層間の映像フレームデータを同一データ位置へ出力するようにしたことを特徴とする請求項4記載のデジタル放送受信装置。
The video decoding means, the video decoding error frame detecting means, the video size scaling means or the video writing means is the first to write to the video frame buffer when outputting the video frame data of each layer according to the writing order determined by the video writing order determining means. The video frame data of the hierarchy is output as it is, and the video frame data of the hierarchy to be written after the second is masked and output only where the decoding error has occurred,
5. The digital broadcast receiving apparatus according to claim 4, wherein the video writing means outputs video frame data between layers to the same data position to the video frame buffer.
データエラー検出手段は、符号化方式抽出手段で抽出された符号化方式制御情報に基づいて、ストリーム分離手段から分離された音声データをデコードして音声フレームデータを生成する音声デコード手段と、各階層の音声データのデータエラー位置を抽出する音声データエラー検出手段とを有し、
相互補完合成手段は、前記音声データエラー検出手段で検出した各階層の音声のデータエラー位置の音声フレームデータを、同一データ位置に基づいた互いの階層のフレームで相互補完して、1つの音声の連続するデータを生成する音声相互補完合成手段としたことを特徴とする請求項1記載のデジタル放送受信装置。
The data error detection means includes: audio decoding means for decoding the audio data separated from the stream separation means based on the encoding method control information extracted by the encoding method extraction means, and generating audio frame data; Voice data error detection means for extracting the data error position of the voice data of
The mutual complement synthesizing unit mutually complements the audio frame data of the audio data error position of each layer detected by the audio data error detection unit with the frames of the respective layers based on the same data position, and 2. A digital broadcast receiving apparatus according to claim 1, wherein said digital broadcast receiving and synthesizing means generates continuous data.
音声データエラー検出手段は、音声デコード手段で各階層の音声データのデコード中に得られる音声デコードエラー情報に基づいてエラー箇所があるフレームを検出する階層ごとの音声デコードエラーフレーム検出手段を有し、
前記音声デコード手段のデコード中に抽出された音声デコード制御情報からデコード後の音声サンプリング周波数を抽出する音声サンプリング周波数検出手段と、
条件として与えられる出力音声サンプリング周波数と前記音声サンプリング周波数検出手段が各階層から得たサンプリング周波数に基づいて、各階層に含まれた音声のサンプリング周波数に対する変換値をそれぞれ決定する音声サンプリング周波数決定手段と、
当該音声サンプリング周波数決定手段で決定されたサンプリング周波数に基づいて、各階層の音声フレームデータをサンプリングする階層ごとの音声サンプリング周波数変換手段を備えたことを特徴とする請求項6記載のデジタル放送受信装置。
The audio data error detection means has audio decode error frame detection means for each layer for detecting a frame having an error location based on audio decode error information obtained during decoding of the audio data of each layer by the audio decode means,
Audio sampling frequency detection means for extracting the audio sampling frequency after decoding from the audio decoding control information extracted during decoding by the audio decoding means;
Audio sampling frequency determining means for determining a conversion value for the sampling frequency of the audio included in each layer, based on the output audio sampling frequency given as a condition and the sampling frequency obtained from each layer by the audio sampling frequency detecting unit; ,
7. The digital broadcast receiving apparatus according to claim 6, further comprising audio sampling frequency conversion means for each layer that samples audio frame data of each layer based on the sampling frequency determined by the audio sampling frequency determining means. .
音声相互補完合成手段は、
階層ごとの音声サンプリング周波数変換手段で変換した音声フレームデータを一時保持する音声フレームバッファと、
伝送方式制御情報抽出手段から取得した伝送方式制御情報に基づいて、2つの階層のうちエラー耐性の強い変調方式の階層を判定すると共に、デコード後の音声フレームのサンプリング周波数の高い階層を判定し、これらの判定結果に基づいて、前記音声フレームバッファに書き込む音声フレームデータの階層と書込み順序を決定する音声書込み順序決定手段と、
当該音声書込み順序決定手段の決定順序に従って、前記音声フレームバッファに対して、エラー耐性が強く、かつ音声サンプリング周波数が高い階層の音声フレームデータを書き込むか、そうでない場合には一方の階層の音声フレームデータのエラー箇所を補完するように他方の階層の音声フレームデータを重ね書きする音声書込み手段を有することを特徴とする請求項7記載のデジタル放送受信装置。
Speech mutual complement synthesis means
An audio frame buffer for temporarily storing audio frame data converted by the audio sampling frequency conversion means for each layer;
Based on the transmission method control information acquired from the transmission method control information extraction means, determine the layer of the modulation method having a strong error resistance out of the two layers, determine the layer having a high sampling frequency of the decoded audio frame, Based on these determination results, voice writing order determining means for determining the hierarchy and writing order of the voice frame data to be written to the voice frame buffer;
According to the determination order of the audio writing order determining means, audio frame data of a layer having a high error tolerance and a high audio sampling frequency is written to the audio frame buffer, or if not, an audio frame of one layer 8. The digital broadcast receiving apparatus according to claim 7, further comprising audio writing means for overwriting the audio frame data of the other layer so as to complement an error portion of the data.
音声書込み順序決定手段は、伝送方式制御情報抽出手段から取得した伝送方式制御情報に基づいて、各階層の変調方式に対し階層間のエラー耐性の強弱の判定と、音声サンプリング周波数検出手段で検出した各階層の音声サンプリング周波数を取得し、階層間で音声サンプリング周波数の高低の判定を行い、音声フレームバッファに対する各階層の音声データの書込み可否および書込む順序を決定し、
音声書込み手段は、前記音声書込み順序決定手段で決定した書き込み順序に従って前記音声フレームバッファに書き込むようにしたことを特徴とする請求項8記載のデジタル放送受信装置。
The voice writing order determination means is determined by the voice sampling frequency detection means and the determination of the strength of error tolerance between the hierarchies for the modulation scheme of each layer, based on the transmission scheme control information acquired from the transmission scheme control information extraction means, and the voice sampling frequency detection means Obtain the audio sampling frequency of each layer, determine whether the audio sampling frequency is high or low between layers, determine whether or not to write audio data of each layer to the audio frame buffer and the order of writing,
9. The digital broadcast receiving apparatus according to claim 8, wherein the voice writing means writes to the voice frame buffer according to the writing order determined by the voice writing order determination means.
音声デコード手段、音声デコードエラーフレーム検出手段、音声サンプリング周波数変換手段または音声書き込み手段は、音声書込み順序決定手段で決定した書込み順序に従って各階層の音声デフレームデータを出力する際、音声フレームバッファに書き込む最初の階層の音声フレームデータはそのまま出力し、2番目以降に書き込む階層の音声フレームデータはデコードエラーが発生した箇所のみマスクして出力し、
その際、前記音声書き込み手段は、前記音声フレームバッファに対し、階層間の音声フレームデータを同一位置に出力するようにしたことを特徴とする請求項9記載のデジタル放送受信装置。
The audio decoding means, the audio decoding error frame detecting means, the audio sampling frequency converting means or the audio writing means writes the audio deframe data of each layer in the audio frame buffer when outputting the audio deframe data according to the writing order determined by the audio writing order determining means. The audio frame data of the first layer is output as it is, and the audio frame data of the layer to be written after the second is masked and output only at the location where the decoding error occurs,
10. The digital broadcast receiving apparatus according to claim 9, wherein the audio writing means outputs audio frame data between hierarchies to the audio frame buffer at the same position.
JP2007001540A 2007-01-09 2007-01-09 Digital broadcast receiver Expired - Fee Related JP4970059B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007001540A JP4970059B2 (en) 2007-01-09 2007-01-09 Digital broadcast receiver

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007001540A JP4970059B2 (en) 2007-01-09 2007-01-09 Digital broadcast receiver

Publications (2)

Publication Number Publication Date
JP2008172335A true JP2008172335A (en) 2008-07-24
JP4970059B2 JP4970059B2 (en) 2012-07-04

Family

ID=39700044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007001540A Expired - Fee Related JP4970059B2 (en) 2007-01-09 2007-01-09 Digital broadcast receiver

Country Status (1)

Country Link
JP (1) JP4970059B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115264A (en) * 2004-10-15 2006-04-27 Xanavi Informatics Corp Transmission device of digital broadcasting, reception device, and digital broadcasting system
WO2007000874A1 (en) * 2005-06-27 2007-01-04 Pioneer Corporation Interpolating apparatus
JP2007028034A (en) * 2005-07-14 2007-02-01 Nippon Telegr & Teleph Corp <Ntt> Scalable encoding method and device, scalable decoding method and device and these program and their recording media

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006115264A (en) * 2004-10-15 2006-04-27 Xanavi Informatics Corp Transmission device of digital broadcasting, reception device, and digital broadcasting system
WO2007000874A1 (en) * 2005-06-27 2007-01-04 Pioneer Corporation Interpolating apparatus
JP2007028034A (en) * 2005-07-14 2007-02-01 Nippon Telegr & Teleph Corp <Ntt> Scalable encoding method and device, scalable decoding method and device and these program and their recording media

Also Published As

Publication number Publication date
JP4970059B2 (en) 2012-07-04

Similar Documents

Publication Publication Date Title
JP4615958B2 (en) Digital broadcast sending device, receiving device, and digital broadcasting system
JP4894858B2 (en) Receiving machine
JP4632825B2 (en) Digital data receiver
US20080198930A1 (en) Image information transmission system, image information transmitting apparatus, image information receiving apparatus, image information transmission method, image information transmitting method, and image information receiving method
JP2007104085A (en) Digital broadcast method and apparatus employing communication line
JP4891595B2 (en) Mobile television receiver
US20070126936A1 (en) Digital broadcasting receiving apparatus and receiving method
JP2007306363A (en) Digital broadcast receiver
JP4505020B2 (en) Interpolator
JP4583212B2 (en) Digital data receiver
JP5075383B2 (en) Subtitle transmission apparatus and subtitle transmission method
JP4970059B2 (en) Digital broadcast receiver
WO2007037424A1 (en) Receiver apparatus
JP4937646B2 (en) Digital broadcast receiver
WO2007058113A1 (en) Signal processing device for receiving digital broadcast, signal processing method and signal processing program, and digital broadcast receiver
JP2006270250A (en) Digital data receiver
JP5394248B2 (en) Digital broadcast receiver
JP4413099B2 (en) Digital broadcast receiver
US20080019402A1 (en) Apparatus and method for pid conversion in very high frequency digital radio broadcasting receiver
JP4606214B2 (en) Digital data receiver
JP4557764B2 (en) Digital data receiver
JP2008306659A (en) Digital broadcast receiver
JP2004140506A (en) Providing method, receiver, and transmitter for broadcast program
JP4926265B2 (en) Digital data receiver
KR101206001B1 (en) Apparatus and Method for Multiple Demultiplex

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120327

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120404

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4970059

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees