JP6953238B2 - Receiver, receiving method and program - Google Patents

Receiver, receiving method and program Download PDF

Info

Publication number
JP6953238B2
JP6953238B2 JP2017167840A JP2017167840A JP6953238B2 JP 6953238 B2 JP6953238 B2 JP 6953238B2 JP 2017167840 A JP2017167840 A JP 2017167840A JP 2017167840 A JP2017167840 A JP 2017167840A JP 6953238 B2 JP6953238 B2 JP 6953238B2
Authority
JP
Japan
Prior art keywords
data
time
unit
multiplexing
additional content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017167840A
Other languages
Japanese (ja)
Other versions
JP2019047292A (en
Inventor
智夫 西垣
智夫 西垣
鈴木 秀樹
秀樹 鈴木
岡本 訓一
訓一 岡本
嘉靖 小笠原
嘉靖 小笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2017167840A priority Critical patent/JP6953238B2/en
Publication of JP2019047292A publication Critical patent/JP2019047292A/en
Application granted granted Critical
Publication of JP6953238B2 publication Critical patent/JP6953238B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、受信装置、受信方法及びプログラムに関する。 The present invention relates to a receiving device, a receiving method and a program.

日本の高度広帯域衛星放送などで採用されたMMT(MPEG Media Transport)方式は、映像・音声・マルチメディアデータなどを放送、通信などの伝送経路に関わらず、伝送するための多重化方式である。MMT方式は、従来のMPEG−2システム(Moving Picture Expert Group−2 Systems)よりも放送と通信との協調に好都合である。MMT方式を採用することで、視聴者にとってより便利なサービスを提供することが可能となった。例えば、マルチメディアサービスをHTML5(Hyper Text Modeling Language)コンテンツとして多重化して提供することができる。マルチメディアサービスでは、視聴者は所望の形態でコンテンツを表示させることや、通信を介して種々の形態のコンテンツをより多くの選択肢から選択することができる。 The MMT (MPEG Media Transport) method adopted in Japan's advanced broadband satellite broadcasting is a multiplexing method for transmitting video, audio, multimedia data, etc. regardless of the transmission path such as broadcasting and communication. The MMT method is more convenient for cooperation between broadcasting and communication than the conventional MPEG-2 system (Moving Picture Expert Group-2 Systems). By adopting the MMT method, it has become possible to provide more convenient services for viewers. For example, the multimedia service can be multiplexed and provided as HTML5 (HyperText Modeling Language) content. In the multimedia service, the viewer can display the content in a desired form and can select various forms of the content from more options via communication.

現状では、MMT方式は普及途上であり、MMTに対応した製品やシステムの開発は始まったばかりである。特にテレビジョン受信装置の構成システムの中核をなすLSI(Large Scale Integrated Circuit)、受信信号からMMTの解析を行い、各種のサービスに要するマルチメディアデータを抽出し、処理する能力を備えるものは少ない。このようなLSIは、SoC(System on Chip)と呼ばれる。現在普及しているSoCでは、MPEG−2システムで規定されたMPEG−2 TS(Transport Stream)方式に対応したSoCが主流である。 At present, the MMT method is in the process of becoming widespread, and the development of products and systems compatible with MMT has just begun. In particular, there are few LSIs (Large Scale Integrated Circuits) that form the core of the configuration system of a television receiver, and those that have the ability to analyze MMT from received signals and extract and process multimedia data required for various services. Such an LSI is called a SoC (System on Chip). In the currently popular SoC, the SoC corresponding to the MPEG-2 TS (Transport Stream) system defined by the MPEG-2 system is the mainstream.

また、従来のMPEG−2 TS方式を用いて提供される既存の放送サービスは、当面の間継続することに決められている。そのため、受信装置に備えられるSoCは、MPEG−2 TS方式に対応することが求められる。このような状況に鑑みて、例えば、MMT方式で多重化された多重化データを、MPEG−2 TS方式で多重化された多重化データに変換する受信装置が提案されている(特許文献1)。 In addition, existing broadcasting services provided using the conventional MPEG-2 TS system have been decided to continue for the time being. Therefore, the SoC provided in the receiving device is required to support the MPEG-2 TS system. In view of such a situation, for example, a receiving device that converts the multiplexed data multiplexed by the MMT method into the multiplexed data multiplexed by the MPEG-2 TS method has been proposed (Patent Document 1). ..

特開2017−73761号公報JP-A-2017-73761

しかしながら、従来のMPEG−2 TS方式で多重化された多重化データを録画もしくはコンテンツを再生する際、映像や音声に多重化されるデータの互換性が確保されないことがある。例えば、MMT方式の多重化データから分離された字幕データのMPEG−2 TS方式の字幕ES(Elementary Stream)データへの変換前後での文字コードの互換性は完全ではない。そのため、従来の方式では字幕が再現されないことがある。 However, when recording the multiplexed data multiplexed by the conventional MPEG-2 TS method or playing back the content, the compatibility of the data multiplexed with the video or audio may not be ensured. For example, the character code compatibility before and after conversion of subtitle data separated from MMT-type multiplexed data into MPEG-2 TS-type subtitle ES (Emergent Stream) data is not perfect. Therefore, the subtitles may not be reproduced by the conventional method.

他方、MPEG−2 TS方式では、TTML(Timed Text Markup Language)で記述された字幕データを多重化、伝送する手段が規格化されている。但し、MPEG−2 TS方式で多重化された多重化データからのコンテンツの録画再生の際、字幕データと、映像データや音声データなどとの同期方法については、明確に規定されていない。例えば、MPEG−2 TS方式で多重化された多重化データでは、NTP(Network Time Protocol)に基づく時刻の同期をとることができない。従って、TTML字幕データに記述された表示開始時刻において他のデータと同期再生できないことがある。 On the other hand, in the MPEG-2 TS system, a means for multiplexing and transmitting subtitle data described in TTML (Timed Text Markup Language) is standardized. However, when recording and reproducing content from multiplexed data multiplexed by the MPEG-2 TS method, the method of synchronizing the subtitle data with the video data, audio data, and the like is not clearly defined. For example, in the multiplexed data multiplexed by the MPEG-2 TS method, it is not possible to synchronize the time based on NTP (Network Time Protocol). Therefore, it may not be possible to synchronize playback with other data at the display start time described in the TTML subtitle data.

本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ及び前記音声データならびに映像データに付加される付加コンテンツデータを分離する分離部と、前記音声データ及び前記映像データを前記第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する多重化部と、前記第2多重化データと前記付加コンテンツデータをそれぞれ出力する出力部と、前記第2多重化方式に対応する分離方式で前記第2多重化データから前記音声データと前記映像データを分離し、前記付加コンテンツデータに基づく付加コンテンツと少なくとも前記映像データが示す映像もしくは前記音声データが示す音声のいずれかを重畳する受信処理部と、を備え、前記分離部は、前記第1多重化データから基準時刻を示す基準時刻情報をさらに分離し、前記受信処理部は、システム時刻と前記基準時刻との時間差を検出し、前記付加コンテンツの提示時刻を前記時間差で補正した時刻に、前記付加コンテンツを提示する受信装置である。 The present invention has been made to solve the above problems, and one aspect of the present invention is from the first multiplexing data multiplexed by the first multiplexing method to audio data which is a component of a broadcasting service. A separation unit that separates the video data, the audio data, and additional content data added to the video data, and the audio data and the video data are multiplexed by a second multiplexing method different from the first multiplexing method. The multiplexing unit that generates the second multiplexing data, the output unit that outputs the second multiplexing data and the additional content data, respectively, and the second multiplexing data in a separation method corresponding to the second multiplexing method. wherein the voice data is separated video data, and a reception processing unit for superimposing one of the speech indicated by a picture or the audio data and the additional content based on the added contents data indicating at least the video data from the The separation unit further separates the reference time information indicating the reference time from the first multiplexed data, the reception processing unit detects the time difference between the system time and the reference time, and sets the presentation time of the additional content as described above. It is a receiving device that presents the additional content at a time corrected by a time difference.

本発明の実施形態によれば、従来の第2多重化方式を採用した機器であっても第1多重化方式で多重化された受信信号に基づく多様な放送サービスを提供することができる。 According to the embodiment of the present invention, even a device adopting the conventional second multiplexing method can provide various broadcasting services based on the received signal multiplexed by the first multiplexing method.

第1の実施形態に係る受信装置の機能構成例を示す概略ブロック図である。It is a schematic block diagram which shows the functional structure example of the receiving apparatus which concerns on 1st Embodiment. 第1の実施形態に係る受信処理部の機能構成例を示す概略ブロック図である。It is a schematic block diagram which shows the functional structure example of the reception processing part which concerns on 1st Embodiment. 第2の実施形態に係る同期処理の例を説明するための説明図である。It is explanatory drawing for demonstrating the example of the synchronization process which concerns on 2nd Embodiment. 第3の実施形態に係る同期処理の例を説明するための説明図である。It is explanatory drawing for demonstrating the example of the synchronization process which concerns on 3rd Embodiment.

以下、本発明の実施形態について、図面を参照して説明する。
[第1の実施形態]
まず、本発明の第1の実施形態に係る受信装置1の概要について説明する。
図1は、本実施形態に係る受信装置1の機能構成例を示す概略ブロック図である。
受信装置1は、放送受信部12と、復調部14と、変換処理部20と、受信処理部30と、を含んで構成される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
First, an outline of the receiving device 1 according to the first embodiment of the present invention will be described.
FIG. 1 is a schematic block diagram showing a functional configuration example of the receiving device 1 according to the present embodiment.
The receiving device 1 includes a broadcast receiving unit 12, a demodulation unit 14, a conversion processing unit 20, and a receiving processing unit 30.

放送受信部12は、送信装置(図示せず)から放送伝送路を介して伝送された放送信号を儒受信信号として受信する。放送伝送路は、放送信号を不特定多数の受信装置に一方的かつ一斉に送信する伝送路である。放送伝送路は、所定の周波数帯域の放送波である。放送伝送路には、その一部にネットワーク、専用回線など、有線又は無線の通信回線が含まれてもよい。放送受信部12は、動作制御部(図示せず)から入力される制御信号で指示される放送チャンネルに対応する周波数帯域の放送信号を受信する。動作制御部は、例えば、ユーザの操作に応じて遠隔制御装置(リモコン)から入力される操作信号を制御信号として放送受信部12に出力する。動作制御部は、変換処理部20、受信処理部30のいずれかに設けられてもよいし、そのいずれとの独立に設けされてもよい。
受信信号は、IF(Intermediate Frequency)信号であってもよい。放送受信部12は、例えば、チューナである。放送受信部12は、受信した放送信号を基底帯域(ベースバンド)の放送信号にダウンコンバートして得られる放送信号を復調部14に出力する。
The broadcast receiving unit 12 receives a broadcast signal transmitted from a transmitting device (not shown) via a broadcast transmission line as a 儒 reception signal. A broadcast transmission line is a transmission line that unilaterally and simultaneously transmits broadcast signals to an unspecified number of receiving devices. The broadcast transmission line is a broadcast wave in a predetermined frequency band. The broadcast transmission line may include a wired or wireless communication line such as a network or a dedicated line as a part thereof. The broadcast receiving unit 12 receives a broadcast signal in the frequency band corresponding to the broadcast channel indicated by the control signal input from the operation control unit (not shown). The operation control unit outputs, for example, an operation signal input from the remote control device (remote controller) to the broadcast receiving unit 12 as a control signal in response to the user's operation. The operation control unit may be provided in either the conversion processing unit 20 or the reception processing unit 30, or may be provided independently of any of them.
The received signal may be an IF (Intermediate Frequency) signal. The broadcast receiving unit 12 is, for example, a tuner. The broadcast receiving unit 12 down-converts the received broadcast signal into a broadcast signal in the baseband, and outputs a broadcast signal obtained by down-converting the received broadcast signal to the demodulation unit 14.

復調部14は、放送受信部12から入力される放送信号を所定の復調方式を用いて復調し、所定の多重化方式で多重化された多重化データに変換する。復調方式は、送信装置において用いられた変調方式(例えば、8PSK:8 Phase Shift Keying(八相位相変調)、APSK:Amplitude and Phase Shift Keying(振幅位相変調))に対応する復調方式であればよい。多重化データは、例えば、TLV(Type−length−value)ストリームである。TLVストリームは、TLV/MMT方式により多重化された一連のTLVパケットからなるデータストリームである。TLV/MMT方式による多重化処理は、MMT方式による多重化と、TLV方式による多重化を含む。なお、TLV方式、MMT方式は、トランスポート方式(伝送方式)とみなされることもある。復調部14は、生成した多重化データを変換処理部20に出力する。復調部14は、例えば、復調器である。 The demodulation unit 14 demodulates the broadcast signal input from the broadcast receiving unit 12 using a predetermined demodulation method, and converts it into multiplexed data multiplexed by a predetermined multiplexing method. The demodulation method may be any demodulation method corresponding to the modulation method used in the transmission device (for example, 8PSK: 8 Phase Shift Keying (8-phase phase modulation), APSK: Amplitude and Phase Shift Keying (amplitude phase modulation)). .. The multiplexed data is, for example, a TLV (Type-length-value) stream. The TLV stream is a data stream composed of a series of TLV packets multiplexed by the TLV / MMT method. The multiplexing process by the TLV / MMT method includes the multiplexing by the MMT method and the multiplexing by the TLV method. The TLV method and the MMT method may be regarded as a transport method (transmission method). The demodulation unit 14 outputs the generated multiplexed data to the conversion processing unit 20. The demodulation unit 14 is, for example, a demodulator.

変換処理部20は、復調部14から入力される多重化データを放送サービスの構成要素である音声データ、映像データ、付加コンテンツデータ及び放送に係る付加データに分離する。付加コンテンツデータは、放送サービスで提供される音声ならびに映像に付加される付加コンテンツに係るデータである。付加コンテンツは、音声ならび映像以外のコンテンツである。付加コンテンツデータには、例えば、映像に重畳させる文字を示す文字データ、マルチメディアデータ、等のいずれか又はこれらの組み合わせが含まれる。付加データには、受信処理に係る制御情報と基準時刻を示す基準時刻情報が含まれる。変換処理部20は、入力された多重化データの多重化に用いた第1多重化方式とは別個の多重化方式である第2多重化方式(例えば、MPEG−2 TS方式)で、分離した音声データと映像データとを多重化して第2多重化データを生成する。 The conversion processing unit 20 separates the multiplexed data input from the demodulation unit 14 into audio data, video data, additional content data, and additional data related to broadcasting, which are components of the broadcasting service. The additional content data is data related to the additional content added to the audio and video provided by the broadcasting service. The additional content is content other than audio and video. The additional content data includes, for example, character data indicating characters to be superimposed on the video, multimedia data, or a combination thereof. The additional data includes control information related to reception processing and reference time information indicating a reference time. The conversion processing unit 20 is separated by a second multiplexing method (for example, MPEG-2 TS method), which is a multiplexing method separate from the first multiplexing method used for multiplexing the input multiplexed data. The second multiplexed data is generated by multiplexing the audio data and the video data.

以下の説明では、変換処理部20に復調部14から入力される多重化データを第1多重化データと呼び、第2多重化データと区別する。変換処理部20は、生成した第2多重化データ及び付加コンテンツデータを受信処理部30に出力する。
変換処理部20は、CPU(Central Processing Unit)等の汎用もしくは専用の演算デバイスを含んで構成されてもよい。演算デバイスは、所定の制御プログラムに記述された命令で指示される処理を実行することにより、その機能を実現してもよい。
In the following description, the multiplexed data input from the demodulation unit 14 to the conversion processing unit 20 is referred to as the first multiplexed data, and is distinguished from the second multiplexed data. The conversion processing unit 20 outputs the generated second multiplexed data and additional content data to the reception processing unit 30.
The conversion processing unit 20 may be configured to include a general-purpose or dedicated arithmetic device such as a CPU (Central Processing Unit). The arithmetic device may realize its function by executing the process instructed by the instruction described in the predetermined control program.

受信処理部30は、変換処理部20から入力される第2多重化データから第2多重化方式に対応する分離方式で音声データと映像データを分離する。受信処理部30は、分離した音声データを所定の音声復号方式(例えば、MPEG−4 AUDIO)で音声信号に復号する。受信処理部30は、分離した映像データを所定の映像復号方式(例えば、HEVC:High Efficiency Video Coding)で映像信号に復号する。 The reception processing unit 30 separates the audio data and the video data from the second multiplexing data input from the conversion processing unit 20 by a separation method corresponding to the second multiplexing method. The reception processing unit 30 decodes the separated voice data into a voice signal by a predetermined voice decoding method (for example, MPEG-4 AUDIO). The reception processing unit 30 decodes the separated video data into a video signal by a predetermined video decoding method (for example, HEVC: High Efficiency Video Coding).

また、受信処理部30は、変換処理部20から入力される付加コンテンツデータに基づいて付加コンテンツを構成する。構成される付加コンテンツに視覚情報が含まれる場合には、受信処理部30は、その視覚情報を映像データに合成し、合成した映像データを表示部(図示せず)に出力する。視覚情報は、視認可能とする情報、例えば、動画像、静止画像、文字、記号、図形などが含まれる。構成される付加コンテンツに聴覚情報が含まれる場合には、受信処理部30は、その聴覚情報を音声データに合成し、合成した音声データを再生部(図示せず)に出力する。聴覚情報は、受聴可能とする情報、例えば、発話音声、動作音、効果音、音楽などが含まれる。
受信処理部30は、例えば、専用の演算デバイスを含んで構成される集積回路、いわゆるSoCである。
Further, the reception processing unit 30 configures the additional content based on the additional content data input from the conversion processing unit 20. When the constituent additional content includes visual information, the reception processing unit 30 synthesizes the visual information with the video data and outputs the combined video data to a display unit (not shown). The visual information includes information that makes it visible, such as moving images, still images, characters, symbols, and figures. When the constituent additional content includes auditory information, the reception processing unit 30 synthesizes the auditory information into audio data and outputs the synthesized audio data to a reproduction unit (not shown). Auditory information includes information that can be heard, such as spoken voice, operating sound, sound effect, and music.
The reception processing unit 30 is, for example, an integrated circuit including a dedicated arithmetic device, a so-called SoC.

次に、変換処理部20の機能構成について説明する。
変換処理部20は、入力部202と、復号部204と、デスクランブル部206と、ローカル暗号化部208と、TLV記憶部210と、ローカル復号部212と、変換部214と、分離部220と、解析部222と、多重化部230と、SI管理部232と、NTP管理部234と、TTML管理部236と、HTML管理部238と、出力部240と、入出力部242と、を含んで構成される。
Next, the functional configuration of the conversion processing unit 20 will be described.
The conversion processing unit 20 includes an input unit 202, a decryption unit 204, a descramble unit 206, a local encryption unit 208, an HTML storage unit 210, a local decryption unit 212, a conversion unit 214, and a separation unit 220. , The analysis unit 222, the multiplexing unit 230, the SI management unit 232, the NTP management unit 234, the NTP management unit 236, the HTML management unit 238, the output unit 240, and the input / output unit 242. It is composed.

入力部202には、復調部14から第1多重化データが入力され、入力された第1多重化データを復号部204に出力する。入力部202は、例えば、データ入力インタフェースである。 The first multiplexing data is input to the input unit 202 from the demodulation unit 14, and the input first multiplexing data is output to the decoding unit 204. The input unit 202 is, for example, a data input interface.

復号部204には、入力部202から第1多重化データが入力される。入力部202から入力される多重化データは、所定の暗号化方式(例えば、AES:Advanced Encryption Standard)暗号化され、さらに誤り訂正符号が付加されている。誤り訂正符号は、例えば、BCH(Bose Chaudhuri Hocquenghem)符号とLDPC(Low Density Parity Check)符号である。復号部204は、付加された誤り訂正符号を用いて暗号化された第1多重化データについて誤り訂正処理を行う。復号部204は、誤り訂正処理を行って得られた第1多重化データについて復号処理を行い、暗号化されていない第1多重化データに変換する。復号処理に用いられる復号方式は、暗号化に用いられる暗号化方式に対応する方式であればよい。復号部204は、変換した第1多重化データをデスクランブル部206に出力する。 The first multiplexed data is input to the decoding unit 204 from the input unit 202. The multiplexed data input from the input unit 202 is encrypted by a predetermined encryption method (for example, AES: Advanced Encryption Standard), and an error correction code is further added. The error correction code is, for example, a BCH (Bose Chain Hocquengem) code and an LDPC (Low Density Parity Check) code. The decoding unit 204 performs error correction processing on the first multiplexed data encrypted using the added error correction code. The decoding unit 204 performs decoding processing on the first multiplexed data obtained by performing error correction processing, and converts it into unencrypted first multiplexing data. The decryption method used for the decryption process may be any method corresponding to the encryption method used for the encryption. The decoding unit 204 outputs the converted first multiplexed data to the descramble unit 206.

デスクランブル部206には、復号部204から第1多重化データが入力される。デスクランブル部206に入力される第1多重化データは、スクランブルされた多重化データである。デスクランブル部206は、デスクランブル(スクランブルを解除)するための鍵情報を用いて第1多重化データをデスクランブルし、デスクランブルした多重化データをローカル暗号化部208又は変換部214に出力する。より具体的には、デスクランブル部206は、予め設定された識別情報を用いて個別情報(EMM:Entitlement Management Message)の暗号化を解除し、加入者ごとの契約情報や共通情報(ECM:Entitlement Control Message)の暗号化を解除(復号)するためのワーク鍵を生成する。デスクランブル部206は、生成したワーク鍵を用いて、第1多重化データを構成する付加データに含まれる共通情報(ECM)の暗号化を解除し、暗号化が解除されたデスクランブル鍵を抽出する。デスクランブル部206は、抽出したデスクランブル鍵を用いて多重化データをデスクランブルする。デスクランブル部206は、デスクランブルした多重化データを変換部214に出力する。 The first multiplexed data is input from the decoding unit 204 to the descramble unit 206. The first multiplexed data input to the descramble unit 206 is scrambled multiplexed data. The descramble unit 206 descrambles the first multiplexed data using the key information for descramble (descrambling), and outputs the descrambled multiplexed data to the local encryption unit 208 or the conversion unit 214. .. More specifically, the descramble unit 206 decrypts the individual information (EMM: Enterprise Management Message) using the preset identification information, and the contract information and common information (ECM: Enterprise) for each subscriber are decrypted. Generates a work key for decrypting (decrypting) the Control Message). The descramble unit 206 decrypts the common information (ECM) included in the additional data constituting the first multiplexed data by using the generated work key, and extracts the decrypted descramble key. do. The descramble unit 206 descrambles the multiplexed data using the extracted descramble key. The descramble unit 206 outputs the descrambled multiplexed data to the conversion unit 214.

なお、受信装置1の動作を制御する動作制御部(図示せず)から入力される制御信号により録画が指示される場合には、デスクランブル部206は、デスクランブルした第1多重化データをローカル暗号化部208に出力してもよい。 When recording is instructed by a control signal input from an operation control unit (not shown) that controls the operation of the receiving device 1, the descramble unit 206 locally scrambles the descrambled first multiplexed data. It may be output to the encryption unit 208.

ローカル暗号化部208は、デスクランブル部206から入力される第1多重化データを所定の暗号化方式で暗号化して暗号化された第1多重化データを生成し、生成した第1多重化データをTLV記憶部210に記憶する。
従って、TLV記憶部210には、暗号化されたTLVストリームが記憶される。TLV記憶部210は、例えば、HDD(Hard Disk Drive)などの記憶媒体を含んで構成される。
The local encryption unit 208 encrypts the first multiplexed data input from the descramble unit 206 by a predetermined encryption method to generate the encrypted first multiplexed data, and the generated first multiplexed data. Is stored in the TLV storage unit 210.
Therefore, the encrypted TLV stream is stored in the TLV storage unit 210. The TLV storage unit 210 includes, for example, a storage medium such as an HDD (Hard Disk Drive).

ローカル復号部212は、動作制御部(図示せず)から入力される制御信号で指示される区間のTLVストリームを順次読み出し、読み出したTLVストリームをなす第1多重化データを復号する。ローカル復号部212が用いる復号方式は、ローカル暗号化部208が暗号化に用いた暗号化方式に対応する復号方式であればよい。ローカル復号部212は、復号した暗号化データを変換部214に出力する。 The local decoding unit 212 sequentially reads the TLV stream in the section indicated by the control signal input from the operation control unit (not shown), and decodes the first multiplexed data forming the read TLV stream. The decryption method used by the local decryption unit 212 may be any decryption method corresponding to the encryption method used by the local encryption unit 208 for encryption. The local decryption unit 212 outputs the decrypted encrypted data to the conversion unit 214.

変換部214は、デスクランブル部206又はローカル復号部212から入力される第1多重化データの形式をTLVストリームからMMTPパケットに変換し、形式を変換した第1多重化データを分離部220に出力する。ここで、変換部214は、TLVストリームを構成する各TLVパケットからIP(Internet Protocol)パケットを抽出する。変換部214は、抽出したIPパケットからさらにMMTP(MMT Protocol)パケットとNTP(Network Time Protocol)形式の時刻情報を格納したIPパケット(以下、NTPパケット)を抽出する。MMTPパケットには、MMT方式により多重化される種々の細分化されたデータが格納される。NTPパケットには、基準時刻を示す時刻情報である基準時刻情報が格納される。基準時刻は、例えば、協定世界時(UTC:Coordinated Universal Time)を基準とする所定時間毎の送信時刻が用いられる。NTPパケットでは、基準時刻情報は、その時刻のタイムスタンプで表される。変換部214は、抽出したMMTPパケットとNTPパケットを分離部220に順次出力する。 The conversion unit 214 converts the format of the first multiplexed data input from the descramble unit 206 or the local decoding unit 212 from the TLV stream into an MMTP packet, and outputs the converted first multiplexed data to the separation unit 220. do. Here, the conversion unit 214 extracts an IP (Internet Protocol) packet from each TLV packet constituting the TLV stream. The conversion unit 214 further extracts an MMTP (MMT Protocol) packet and an IP packet (hereinafter, NTP packet) storing time information in the NTP (Network Time Protocol) format from the extracted IP packet. The MMTP packet stores various subdivided data multiplexed by the MMT method. The NTP packet stores reference time information, which is time information indicating a reference time. As the reference time, for example, a transmission time for each predetermined time based on Coordinated Universal Time (UTC) is used. In the NTP packet, the reference time information is represented by the time stamp of that time. The conversion unit 214 sequentially outputs the extracted MMTP packet and the NTP packet to the separation unit 220.

分離部220は、変換部214から入力される第1多重化データから放送サービスの構成要素(アセット)となる音声を示す音声データ、映像を示す映像データ、付加コンテンツを示す付加コンテンツデータ及び制御情報を分離する。付加コンテンツは、音声ならび映像以外のコンテンツである。付加コンテンツデータには、例えば、映像に重畳させる文字を示す文字データ、マルチメディアデータ、等のいずれか又はこれらの組み合わせが含まれる。文字データは、放送サービスで提供される音声や映像に関連する内容を示す文字列を示すデータ(字幕)であってもよいし、それらの音声や映像とは独立な内容を示す文字列を示すデータ(文字スーパー、非同期字幕)であってもよい。 The separation unit 220 includes audio data indicating audio, video data indicating video, additional content data indicating additional content, and control information that are components (assets) of the broadcasting service from the first multiplexing data input from the conversion unit 214. To separate. The additional content is content other than audio and video. The additional content data includes, for example, character data indicating characters to be superimposed on the video, multimedia data, or a combination thereof. The character data may be data (subtitles) indicating a character string indicating the content related to the audio or video provided by the broadcasting service, or indicates a character string indicating the content independent of the audio or video. It may be data (character super, asynchronous subtitles).

文字データは、例えば、TTML(Timed Text Markup Language)で記述されたデータである。TTMLは、マークアップ言語の一つであり、テキストの表示タイミングや表示位置を指定できることを特徴とする。マルチメディアデータは、複数の表現メディアから構成される1セットの表現メディア(マルチメディア)を提示するためのデータである。個々の表現メディアは、例えば、動画、静止画、図形、音声、文字などである。マルチメディアデータは、必ずしも一部又は全部の表現メディアを示すデータが含まれていなくてもよい。マルチメディアデータは、表現メディアの所在を示す情報(ネットワーク上のアドレスなど)が含まれてもよい。マルチメディアデータは、例えば、HTML5(HyperText Markup Language)で記述されたアプリケーションとして提供される。HTML5は、マークアップ言語の一つであり、映像や音声の再生、停止などを指定できることを特徴とする。 The character data is, for example, data described in TTML (Timed Text Markup Language). TTML is one of the markup languages, and is characterized in that the display timing and display position of text can be specified. The multimedia data is data for presenting a set of expression media (multimedia) composed of a plurality of expression media. The individual expression media are, for example, moving images, still images, figures, sounds, characters, and the like. The multimedia data does not necessarily have to include data indicating a part or all of the expression media. The multimedia data may include information indicating the location of the expression media (such as an address on the network). The multimedia data is provided, for example, as an application described in HTML5 (HyperText Markup Language). HTML5 is one of the markup languages, and is characterized in that it is possible to specify playback, stop, and the like of video and audio.

付加データとして、放送の受信に関する制御情報と基準時刻情報が含まれる。制御情報には、メディアトランスポート方式であるMMTに関するMMT−SI(System Information)が含まれる。MMT−SIには、その要素情報として各種のテーブル、記述子が含まれる。MMT−SIには、本実施形態に関連するテーブルとして、上述のEMM、ECMの他、MPT(MMT Package Table、MMTパッケージテーブル)、MH−EIT(MH−Event Information Table、MH−イベント情報テーブル、MH−SDT(MH−Service Description Table、MH−サービス記述テーブル)、MH−TOT(MH−Time Offset Table、MH−タイムオフセットテーブル)、MH−AIT(MH−Application Information Table、アプリケーション情報テーブル)などが含まれる。MPTは、アセットのリストなどパッケージを構成する構成情報を示す。MH−EITは、番組(イベント)の名称、放送時間、タイトル、出演者、ジャンルなど、各番組に関する番組情報を示す。MH−SDTは、編成チャンネルの名称、放送事業者の名称など、各チャンネルに関するチャンネル情報を示す。MH−TOTは、現在日付と現在時刻を示す時刻情報を示す。但し、MH−TOTで示される現在時刻は、日本標準時を基準とする時刻(JST時刻)であり、受信装置1からの設定画面、案内画面その他の各種の表示に用いられる。以下では、MH−TOTで示される時刻情報をシステム時刻情報、その時刻をシステム時刻と呼び、NTP形式の基準時刻情報、基準時刻とそれぞれ区別する。MH−AITは、アプリケーションの実行、停止に制御情報及び実行に要する付加情報(アプリケーション制御情報)を示す。アプリケーション制御情報が存在する場合、その存在を示す情報がMPTに記述される。 As additional data, control information regarding broadcast reception and reference time information are included. The control information includes MMT-SI (System Information) related to MMT, which is a media transport method. The MMT-SI includes various tables and descriptors as its element information. In addition to the above-mentioned EMM and ECM, the MMT-SI includes MPT (MMT Package Table, MMT Package Table), MH-EIT (MH-Event Information Table, MH-Event Information Table, etc.) as tables related to the present embodiment. MH-SDT (MH-Service Description Table, MH-Service Description Table), MH-TOT (MH-Time Office Table, MH-Time Offset Table), MH-AIT (MH-Application Information Table, etc.) Included. MPT indicates configuration information that constitutes a package such as a list of assets. MH-EIT indicates program information related to each program such as a program (event) name, broadcast time, title, performers, and genre. MH-SDT indicates channel information related to each channel such as the name of the organization channel and the name of the broadcaster. MH-TOT indicates the current date and time information indicating the current time. However, it is indicated by MH-TOT. The current time is a time (JST time) based on Japanese standard time, and is used for a setting screen, a guidance screen, and various other displays from the receiving device 1. In the following, the time information indicated by MH-TOT is used as a system. Time information and that time are called system time, and are distinguished from NTP format reference time information and reference time. MH-AIT provides control information for executing and stopping applications and additional information (application control information) required for execution. If application control information exists, the information indicating its existence is described in the MPT.

また、MMT−SIには、本実施形態に関連する記述子として、MH−データ符号化方式記述子(MH−Data_Component_Descriptor)が含まれる。MH−データ符号化方式記述子には、付加識別情報(additional_data_component_info)が記述される。付加識別情報には、参照開始時刻(reference_start_time)が記述される。参照開始時刻は、文字情報の提示開始時刻であって、NTP形式で指定された時刻である。具体的には、参照開始時刻は、字幕や文字スーパーをTTMLで記述されたTTML文書内のタイムコードの起点となるUTC時刻で指定される。 Further, the MMT-SI includes an MH-data coding method descriptor (MH-Data_Component_Descriptor) as a descriptor related to the present embodiment. Additional identification information (additional_data_component_info) is described in the MH-data encoding method descriptor. The reference start time (reference_start_time) is described in the additional identification information. The reference start time is the presentation start time of the character information and is the time specified in the NTP format. Specifically, the reference start time is specified by the UTC time, which is the starting point of the time code in the TTML document in which the subtitles and the character super are described in TTML.

分離部220は、分離した音声データと映像データを多重化部230に出力し、制御情報としてMMT−SIを解析部222に出力する。また、分離部220は、基準時刻情報をNTP管理部234に、文字データをTTML管理部236に、マルチメディアデータをHTML管理部238にそれぞれ出力する。 The separation unit 220 outputs the separated audio data and video data to the multiplexing unit 230, and outputs MMT-SI as control information to the analysis unit 222. Further, the separation unit 220 outputs the reference time information to the NTP management unit 234, the character data to the TTML management unit 236, and the multimedia data to the HTML management unit 238.

解析部222は、分離部220から入力された制御情報を解析し、構成情報を示すMPT、番組情報を示すMH−EIT、チャネル情報を示すMH−SDT、システム時刻情報を示すMH−TOT及びアプリケーション制御情報を示すMH−AITを抽出する。また、解析部222は、制御情報から、文字データの提示に係る参照開始時刻を示す付加識別情報を抽出する。解析部222は、抽出した各種情報をSI管理部232に記憶する。以下、MMT−SIから抽出した情報をSI情報と総称する。 The analysis unit 222 analyzes the control information input from the separation unit 220, and analyzes the MPT indicating the configuration information, the MH-EIT indicating the program information, the MH-SDT indicating the channel information, the MH-TOT indicating the system time information, and the application. MH-AIT showing control information is extracted. Further, the analysis unit 222 extracts additional identification information indicating the reference start time related to the presentation of the character data from the control information. The analysis unit 222 stores the extracted various information in the SI management unit 232. Hereinafter, the information extracted from MMT-SI is collectively referred to as SI information.

解析部222は、分離部から入力される基準時刻情報が示す基準時刻に同期した所定のクロック周波数(例えば、27MHz)のクロック信号(STC:System Time Clock)を生成する。クロック信号は、変換処理部20の各構成要素間の処理を同期(クロック同期)させるために用いられる。解析部222は、生成したクロック信号を所定の分周率(例えば、2700分の1)で分周して、所定時間(例えば、0.1ms)毎の基準時刻を示す基準時刻情報を再構成する。解析部222は、再構成した基準時刻情報をMPEG−2 TS方式で規定されたPCR(Program Clock Reference)として多重化部230に出力する。解析部222は、構成情報を示すMPTを解析し、放送される音声を示す音声データと映像を示す映像データを構成要素として示すPMT(Program Map Table)に変換する。PMTは、MPEG−2 TS形式の構成情報を示す情報テーブルである。解析部222は、システム時刻情報を示すMH−TOTをMPEG−2 TS形式のシステム時刻情報を示すTOTに変換する。解析部222は、構成情報を示すPMTとシステム時刻情報を示すTOTを多重化部230に出力する。 The analysis unit 222 generates a clock signal (STC: System Time Clock) having a predetermined clock frequency (for example, 27 MHz) synchronized with the reference time indicated by the reference time information input from the separation unit. The clock signal is used to synchronize the processing between each component of the conversion processing unit 20 (clock synchronization). The analysis unit 222 divides the generated clock signal at a predetermined frequency division rate (for example, 1/2700) and reconstructs the reference time information indicating the reference time for each predetermined time (for example, 0.1 ms). do. The analysis unit 222 outputs the reconstructed reference time information to the multiplexing unit 230 as PCR (Program Lock Reference) defined by the MPEG-2 TS method. The analysis unit 222 analyzes the MPT indicating the component information and converts the audio data indicating the broadcast audio and the video data indicating the video into a PMT (Program Map Table) indicating the components. The PMT is an information table showing configuration information in the MPEG-2 TS format. The analysis unit 222 converts the MH-TOT indicating the system time information into the TOT indicating the system time information in the MPEG-2 TS format. The analysis unit 222 outputs the PMT indicating the configuration information and the TOT indicating the system time information to the multiplexing unit 230.

多重化部230は、分離部220から入力される音声データと映像データのうち、解析部222から入力される構成情報を示すPMTで指定される音声データと映像データを特定する。多重化部230は、特定した音声データの形式と映像データの形式をMPEG−2 TS方式で規定された形式であるエレメンタリストリーム(ES:Elementary Stream)に変換する。また、多重化部230は、解析部222から入力される構成情報を示すPMTとシステム時刻情報を示すTOTを含む制御情報を構成する。構成される制御情報のデータ形式は、MPEG−2 TS方式で規定された形式となる。多重化部230は、形式を変換した音声データ、映像データ、解析部222から入力されるPCR及び制御信号を多重化し、MPEG−2 TS方式に規定された形式の第2多重化データを生成する。PCRは、第2多重化データをなすTSに所定時間(例えば、0.1ms)間隔で含まれる。多重化部230は、生成した第2多重化データを出力部240に出力する。 Of the audio data and video data input from the separation unit 220, the multiplexing unit 230 identifies the audio data and video data designated by the PMT indicating the configuration information input from the analysis unit 222. The multiplexing unit 230 converts the specified audio data format and video data format into an elementary stream (ES: Elementary Stream), which is a format defined by the MPEG-2 TS system. Further, the multiplexing unit 230 constitutes control information including a PMT indicating the configuration information input from the analysis unit 222 and a TOT indicating the system time information. The data format of the control information to be configured is the format specified by the MPEG-2 TS method. The multiplexing unit 230 multiplexes the converted audio data, video data, PCR and control signals input from the analysis unit 222, and generates the second multiplexing data in the format specified in the MPEG-2 TS system. .. The PCR is included in the TS forming the second multiplexed data at predetermined time (eg, 0.1 ms) intervals. The multiplexing unit 230 outputs the generated second multiplexing data to the output unit 240.

SI管理部232は、解析部222から入力されるSI情報を順次記憶する。SI管理部232は、そのSI情報の送信装置からの送信時刻を示す基準時刻情報と対応付けて記憶してもよい。なお、入出力部242を介して情報要求信号が受信処理部30から入力される場合には、SI管理部232は、その応答として情報要求信号で指定されるSI情報を受信処理部30に入出力部242を介して出力してもよい。 The SI management unit 232 sequentially stores SI information input from the analysis unit 222. The SI management unit 232 may store the SI information in association with the reference time information indicating the transmission time from the transmission device. When the information request signal is input from the reception processing unit 30 via the input / output unit 242, the SI management unit 232 inputs the SI information specified by the information request signal into the reception processing unit 30 as a response. It may be output via the output unit 242.

NTP管理部234は、分離部220から入力される基準時刻情報を順次記憶する。NTP管理部234は、新たに入力される基準時刻情報を受信処理部30に入出力部242を介して出力する。 The NTP management unit 234 sequentially stores the reference time information input from the separation unit 220. The NTP management unit 234 outputs the newly input reference time information to the reception processing unit 30 via the input / output unit 242.

TTML管理部236は、分離部220から入力される文字データを順次記憶する。TTML管理部236は、新たに入力される文字データを入出力部242に出力する。なお、入出力部242を介して情報要求信号が受信処理部30から入力される場合には、TTML管理部236は、その応答として情報要求信号で指定される文字データを受信処理部30に入出力部242を介して出力してもよい。 The TTML management unit 236 sequentially stores the character data input from the separation unit 220. The TTML management unit 236 outputs the newly input character data to the input / output unit 242. When the information request signal is input from the reception processing unit 30 via the input / output unit 242, the TTML management unit 236 inputs the character data specified by the information request signal into the reception processing unit 30 as a response. It may be output via the output unit 242.

HTML管理部238は、分離部220から入力されるマルチメディアデータを順次記憶する。HTML管理部238は、新たに入力されるマルチメディアデータを入出力部242に出力する。なお、入出力部242を介して情報要求信号が受信処理部30から入力される場合には、HTML管理部238は、その応答として情報要求信号で指定されるマルチメディアデータを受信処理部30に入出力部242を介して出力してもよい。
なお、SI管理部232、NTP管理部234、TTML管理部236及びHTML管理部238は、それぞれリレーショナルデータベースとして構成されてもよい。
The HTML management unit 238 sequentially stores multimedia data input from the separation unit 220. The HTML management unit 238 outputs the newly input multimedia data to the input / output unit 242. When the information request signal is input from the reception processing unit 30 via the input / output unit 242, the HTML management unit 238 sends the multimedia data specified by the information request signal to the reception processing unit 30 as a response. It may be output via the input / output unit 242.
The SI management unit 232, the NTP management unit 234, the TTML management unit 236, and the HTML management unit 238 may be configured as relational databases, respectively.

出力部240は、多重化部230から入力される多重化データを受信処理部30に出力する。出力部240は、例えば、出力インタフェースである。
入出力部242は、SI管理部232、NTP管理部234、TTML管理部236及びHTML管理部238から入力される各種のデータを受信処理部30に出力する。また、入出力部242は、受信処理部30から情報要求信号が入力される場合には、出力先の構成部(例えば、TTML管理部236)に入力される情報要求信号を出力する。入出力部242は、例えば、入出力インタフェースである。
The output unit 240 outputs the multiplexing data input from the multiplexing unit 230 to the reception processing unit 30. The output unit 240 is, for example, an output interface.
The input / output unit 242 outputs various data input from the SI management unit 232, the NTP management unit 234, the TTML management unit 236, and the HTML management unit 238 to the reception processing unit 30. Further, when the information request signal is input from the reception processing unit 30, the input / output unit 242 outputs the information request signal input to the output destination component unit (for example, the TTML management unit 236). The input / output unit 242 is, for example, an input / output interface.

次に、受信処理部30の機能構成について図2を用いて説明する。
図2は、本実施形態に係る受信処理部30の機能構成例を示す概略ブロック図である。図2では、変換処理部20を示す。但し、入力部202、復号部204、デスクランブル部206、ローカル暗号化部208、TLV記憶部210、ローカル復号部212、及び変換部214の図示が省略されている。
Next, the functional configuration of the reception processing unit 30 will be described with reference to FIG.
FIG. 2 is a schematic block diagram showing a functional configuration example of the reception processing unit 30 according to the present embodiment. FIG. 2 shows the conversion processing unit 20. However, the illustration of the input unit 202, the decryption unit 204, the descramble unit 206, the local encryption unit 208, the TLV storage unit 210, the local decryption unit 212, and the conversion unit 214 is omitted.

受信処理部30は、入力部320と、入出力部322と、通信部324と、分離部330と、映像復号部332と、映像合成部334と、音声復号部336と、音声ミキシング部338と、同期処理部340と、付加コンテンツ処理部342と、を含んで構成される。 The reception processing unit 30 includes an input unit 320, an input / output unit 322, a communication unit 324, a separation unit 330, a video decoding unit 332, a video compositing unit 334, an audio decoding unit 336, and an audio mixing unit 338. , A synchronization processing unit 340, and an additional content processing unit 342.

入力部320は、変換処理部20から入力される第2多重化データを分離部330に出力する。入力部320は、例えば、入力インタフェースである。
入出力部322は、変換処理部20から入力される各種のデータを同期処理部340又は付加コンテンツ処理部342に出力する。また、入出力部322は、付加コンテンツ処理部342から入力される情報要求信号を変換処理部20に出力する。入出力部322は、例えば、入出力インタフェースである。
通信部324は、付加コンテンツ処理部342とネットワークに接続された機器との間で各種のデータを送受信する。ネットワークは、有線であっても無線であってもよい。通信部324は、例えば、通信インタフェースである。
The input unit 320 outputs the second multiplexed data input from the conversion processing unit 20 to the separation unit 330. The input unit 320 is, for example, an input interface.
The input / output unit 322 outputs various data input from the conversion processing unit 20 to the synchronization processing unit 340 or the additional content processing unit 342. Further, the input / output unit 322 outputs the information request signal input from the additional content processing unit 342 to the conversion processing unit 20. The input / output unit 322 is, for example, an input / output interface.
The communication unit 324 transmits and receives various data between the additional content processing unit 342 and the device connected to the network. The network may be wired or wireless. The communication unit 324 is, for example, a communication interface.

分離部330は、入力部320から入力される第2多重化データから音声データ、映像データ及び制御情報を分離する。分離部330は、分離した音声データ、映像データをそれぞれ音声復号部336、映像復号部332に出力する。分離部330は、分離した制御情報からシステム時刻情報を抽出し、抽出したシステム時刻情報を示すTOTを同期処理部340に出力する。受信処理部30は、TOTで表されるシステム時刻を基準として放送されるコンテンツやそのコンテンツに関連する各種の関連情報を提示する。関連情報には、例えば、番組予約に係る予約情報、現在時刻を示す現在時刻表などが含まれる。 The separation unit 330 separates audio data, video data, and control information from the second multiplexed data input from the input unit 320. The separation unit 330 outputs the separated audio data and video data to the audio decoding unit 336 and the video decoding unit 332, respectively. The separation unit 330 extracts system time information from the separated control information, and outputs a TOT indicating the extracted system time information to the synchronization processing unit 340. The reception processing unit 30 presents the content to be broadcast based on the system time represented by the TOT and various related information related to the content. The related information includes, for example, reservation information related to program reservation, a current timetable showing the current time, and the like.

映像復号部332は、分離部330から入力された映像データを所定の映像復号方式を用いて復号する。映像復号部332に入力される映像データは、その映像復号方式に対応する映像符号化方式で符号化されている。映像復号部332は、復号した映像データを映像合成部334に出力する。 The video decoding unit 332 decodes the video data input from the separation unit 330 using a predetermined video decoding method. The video data input to the video decoding unit 332 is encoded by a video coding method corresponding to the video decoding method. The video decoding unit 332 outputs the decoded video data to the video compositing unit 334.

映像合成部334は、映像復号部332から入力された映像データに付加コンテンツ処理部342から入力される視覚情報を合成し、視覚情報が重畳された映像データを生成する。映像合成部334は、生成した映像データを表示部(図示せず)に出力する。 The video synthesizing unit 334 synthesizes the visual information input from the additional content processing unit 342 with the video data input from the video decoding unit 332, and generates the video data on which the visual information is superimposed. The video compositing unit 334 outputs the generated video data to a display unit (not shown).

音声復号部336は、分離部330から入力された音声データを所定の音声復号方式を用いて復号する。音声復号部336に入力される音声データは、その音声復号方式に対応する音声符号化方式で符号化されている。音声復号部336は、復号した音声データを音声ミキシング部338に出力する。 The voice decoding unit 336 decodes the voice data input from the separation unit 330 using a predetermined voice decoding method. The voice data input to the voice decoding unit 336 is encoded by a voice coding method corresponding to the voice decoding method. The audio decoding unit 336 outputs the decoded audio data to the audio mixing unit 338.

音声ミキシング部338は、音声復号部336から入力された音声データに付加コンテンツ処理部342から入力される聴覚情報を合成し、聴覚情報が重畳された音声データを生成する。音声ミキシング部338は、生成した音声データを再生部(図示せず)に出力する。 The audio mixing unit 338 synthesizes the auditory information input from the additional content processing unit 342 with the audio data input from the audio decoding unit 336, and generates audio data on which the auditory information is superimposed. The audio mixing unit 338 outputs the generated audio data to a reproduction unit (not shown).

同期処理部340は、付加コンテンツの提示制御時刻を、変換処理部20から入力される基準時刻情報が示す基準時刻から分離部330から入力されるシステム時刻情報が示すシステム時刻の時間差で補正させる。提示制御時刻は、提示開始時刻と提示終了時刻の総称である。より具体的には、同期処理部340は、TOT基準のシステム時刻からNTP基準の基準時刻の時間差を算出し、算出した時間差を示す時間差情報を付加コンテンツ処理部342に出力する。同期処理部340の機能は、上述の演算デバイスが、所定のスクリプト言語(例えば、ECMA−262:European Computer Manufacturers Association−262)で記述された命令で指示される処理を実行することにより実現される。 The synchronization processing unit 340 corrects the presentation control time of the additional content by the time difference between the reference time indicated by the reference time information input from the conversion processing unit 20 and the system time indicated by the system time information input from the separation unit 330. The presentation control time is a general term for the presentation start time and the presentation end time. More specifically, the synchronization processing unit 340 calculates the time difference of the NTP-based reference time from the TOT-based system time, and outputs the time difference information indicating the calculated time difference to the additional content processing unit 342. The function of the synchronization processing unit 340 is realized by the above-mentioned arithmetic device executing the processing instructed by the instruction described in a predetermined script language (for example, ECMA-262: European Computer Manufacturers Association-262). ..

付加コンテンツ処理部342は、所定のアプリケーションプログラム(以下、アプリケーション)を実行して付加コンテンツを取得する。取得された付加コンテンツに視覚情報が含まれる場合には、付加コンテンツ処理部342は、その視覚情報を映像合成部334に出力する。取得された付加コンテンツに聴覚情報が含まれる場合には、付加コンテンツ処理部342は、その聴覚情報を音声ミキシング部338に出力する。アプリケーションは、例えば、HTML5で記述され、付加コンテンツその他の情報の提示に係る各種の命令が記述される。アプリケーションを実行するとは、そのアプリケーションに記述された命令で指示される処理を行うことを指す。付加コンテンツ処理部342は、例えば、ブラウザである。 The additional content processing unit 342 executes a predetermined application program (hereinafter, application) to acquire the additional content. When the acquired additional content includes visual information, the additional content processing unit 342 outputs the visual information to the video compositing unit 334. When the acquired additional content includes auditory information, the additional content processing unit 342 outputs the auditory information to the audio mixing unit 338. The application is described in, for example, HTML5, and various commands related to the presentation of additional contents and other information are described. To execute an application means to perform a process instructed by an instruction described in the application. The additional content processing unit 342 is, for example, a browser.

付加コンテンツ処理部342が実行する所定のアプリケーションは、受信処理部30の記憶部(図示せず)に予め記憶されたアプリケーションであってもよいし、放送信号により伝送される放送アプリケーションであってもよい。既設定のアプリケーションとして、例えば、字幕表示アプリケーション、番組表表示アプリケーション、などがある。放送アプリケーションには、HTML管理部238に記憶されるマルチメディアデータなどがある。 The predetermined application executed by the additional content processing unit 342 may be an application stored in advance in a storage unit (not shown) of the reception processing unit 30, or a broadcasting application transmitted by a broadcasting signal. good. As the preset application, for example, there are a subtitle display application, a program guide display application, and the like. Broadcast applications include multimedia data stored in the HTML management unit 238.

ここで、字幕表示アプリケーションの実行について説明する。字幕表示アプリケーションの実行を開始する時点は、例えば、付加コンテンツ処理部342が、サービスの構成要素として文字データを構成要素として含む構成情報の受信を開始した時点である。構成情報は、上述したようにSI管理部232から送信される最新のSI情報に含まれる。字幕表示アプリケーションを実行するとき、付加コンテンツ処理部342は、次の処理を行う。付加コンテンツ処理部342は、その時点での最新の文字データの要求を示す情報要求信号を生成し、生成した情報要求信号をTTML管理部236に出力する。付加コンテンツ処理部342は、情報要求信号の応答としてTTML管理部236から文字データを受信する。付加コンテンツ処理部342は、受信したSI情報からMH−データ符号化方式記述子に記述された参照開始時刻(reference_start_time)を特定する。そして、付加コンテンツ処理部342は、特定した参照開始時刻に同期処理部340から入力された時間差情報が示す時間差を加算し、参照開始時刻からその時間差だけシフトした時刻を補正参照開始時刻として算出する。算出される補正参照開始時刻は、TOT基準の時刻スケールに合わせた字幕の表示時刻に相当する。付加コンテンツ処理部342は、現在時刻が補正参照開始時刻になったとき文字データが示す文字列からなる字幕を映像合成部334に出力する。ここで、基準時刻に基づく補正参照開始時刻は、システム時刻に基づく参照開始時刻に相当する。従って、表示部には、システム時刻に基づく参照開始時刻に字幕と放送される映像とが同期して表示される。 Here, the execution of the subtitle display application will be described. The time when the execution of the subtitle display application is started is, for example, the time when the additional content processing unit 342 starts receiving the component information including the character data as the component of the service. The configuration information is included in the latest SI information transmitted from the SI management unit 232 as described above. When executing the subtitle display application, the additional content processing unit 342 performs the following processing. The additional content processing unit 342 generates an information request signal indicating the request for the latest character data at that time, and outputs the generated information request signal to the TTML management unit 236. The additional content processing unit 342 receives character data from the TTML management unit 236 as a response to the information request signal. The additional content processing unit 342 specifies the reference start time (reference_start_time) described in the MH-data coding method descriptor from the received SI information. Then, the additional content processing unit 342 adds the time difference indicated by the time difference information input from the synchronization processing unit 340 to the specified reference start time, and calculates the time shifted by the time difference from the reference start time as the correction reference start time. .. The calculated correction reference start time corresponds to the display time of the subtitles according to the TOT-based time scale. The additional content processing unit 342 outputs a subtitle composed of a character string indicated by the character data to the video synthesis unit 334 when the current time reaches the correction reference start time. Here, the correction reference start time based on the reference time corresponds to the reference start time based on the system time. Therefore, the subtitles and the broadcast video are displayed synchronously on the display unit at the reference start time based on the system time.

なお、補正参照開始時刻を算出する処理は、付加コンテンツ処理部342が行うのではなく、変換処理部20が実行してもよい。その場合、変換処理部20の解析部222は、MMT−SIから分離されたMH−TOTが示すTOT基準のシステム時刻から分離部220から入力される基準時刻情報が示すNTP基準の基準時刻の時間差を算出する。解析部222は、算出した時間差にMPTから抽出される参照開始時刻(reference_start_time)を加えて補正参照開始時刻を算出する。解析部222は、この参照開始時刻の適用対象の文字データと対応付けて、算出した補正参照開始時刻を示す補正参照開始時刻情報をTTML管理部236に出力する。解析部222は、MPTを参照して、その参照開始時刻が記述されたMH−データ符号化方式記述子を含むアセット記述子領域に対応するアセットを、適用対象の文字データを特定することができる。
付加コンテンツ処理部342は、字幕表示アプリケーションを実行するとき、その時点での最新の文字データの要求を示す情報要求信号を生成し、生成した情報要求信号をTTML管理部236に出力する。付加コンテンツ処理部342は、情報要求信号の応答としてTTML管理部236から文字データを補正参照開始時刻情報と対応付けて受信する。付加コンテンツ処理部342は、TOT基準の現在時刻が補正参照開始時刻情報が示す補正参照開始時刻に達したとき、受信した文字データが示す文字列からなる字幕を映像合成部334に出力する。よって、この手法によっても表示部には、システム時刻に基づく参照開始時刻に字幕と放送される映像とが同期して表示される。
The process of calculating the correction reference start time may not be performed by the additional content processing unit 342, but may be executed by the conversion processing unit 20. In that case, the analysis unit 222 of the conversion processing unit 20 has a time difference between the system time of the TOT reference indicated by the MH-TOT separated from the MMT-SI and the reference time of the NTP reference indicated by the reference time information input from the separation unit 220. Is calculated. The analysis unit 222 calculates the correction reference start time by adding the reference start time (reference_start_time) extracted from the MPT to the calculated time difference. The analysis unit 222 outputs the correction reference start time information indicating the calculated correction reference start time to the TTML management unit 236 in association with the character data to which the reference start time is applied. The analysis unit 222 can refer to the MPT and specify the character data to be applied to the asset corresponding to the asset descriptor area including the MH-data encoding method descriptor in which the reference start time is described. ..
When the subtitle display application is executed, the additional content processing unit 342 generates an information request signal indicating a request for the latest character data at that time, and outputs the generated information request signal to the TTML management unit 236. The additional content processing unit 342 receives character data from the TTML management unit 236 in association with the correction reference start time information as a response to the information request signal. When the current time of the TOT reference reaches the correction reference start time indicated by the correction reference start time information, the additional content processing unit 342 outputs a subtitle composed of the character string indicated by the received character data to the video synthesis unit 334. Therefore, even with this method, the subtitles and the broadcast video are displayed in synchronization on the display unit at the reference start time based on the system time.

次に、番組表表示アプリケーションの実行について説明する。番組表表示アプリケーションの実行を開始する時点は、例えば、付加コンテンツ処理部342に動作制御部(図示せず)から番組表表示を指示する制御信号が入力されるときである。番組表表示アプリケーションを実行するとき、付加コンテンツ処理部342は、次の処理を行う。付加コンテンツ処理部342は、その時点で最新のチャンネル情報と番組情報を示す情報要求信号を生成し、生成した情報要求信号をSI管理部232に出力する。付加コンテンツ処理部342は、SI管理部232から情報要求信号の応答として、チャンネル情報と番組情報を受信する。付加コンテンツ処理部342は、チャンネル情報が示すチャンネル毎に放送事業者名、チャンネル番号、番組毎の番組情報を放送時間の順に配列して番組表情報を生成する。付加コンテンツ処理部342は、生成した番組表情報を映像合成部334に出力する。これにより、表示部には番組表情報が表示される。なお、現時刻が放送時間内であるいずれかの番組情報が指示される場合には、動作制御部は、その番組のチャンネルを選局してもよい。より具体的には、動作制御部は、その番組が放送される放送チャンネルを指示する動作制御信号を放送受信部12に出力する。また、いずれかの番組情報に係る番組の録画が指示されるときには、動作制御部は、その番組の録画予約を行ってもよい。より具体的には、デスクランブル部206は、動作制御部からの動作制御信号の指示に応じて、その番組の番組開始時刻に第1多重化データをローカル暗号化部208に出力し、TLV記憶部210に記録させる。また、デスクランブル部206は、番組終了時刻に第1多重化データのローカル暗号化部208への出力を停止して、TLV記憶部210への記録を停止させる。TLV記憶部210に記録した第1多重化データによる録画再生は、基準時刻を基準として実行されるため、本実施形態では録画開始に係る番組開始時刻、録画終了に係る番組終了時刻の補正は行わなくてもよい。 Next, the execution of the program guide display application will be described. The time when the execution of the program guide display application is started is, for example, when a control signal instructing the program guide display is input from the operation control unit (not shown) to the additional content processing unit 342. When executing the program guide display application, the additional content processing unit 342 performs the following processing. The additional content processing unit 342 generates an information request signal indicating the latest channel information and program information at that time, and outputs the generated information request signal to the SI management unit 232. The additional content processing unit 342 receives channel information and program information from the SI management unit 232 as a response to the information request signal. The additional content processing unit 342 generates program guide information by arranging the broadcaster name, the channel number, and the program information for each program in the order of the broadcast time for each channel indicated by the channel information. The additional content processing unit 342 outputs the generated program guide information to the video compositing unit 334. As a result, the program guide information is displayed on the display unit. When any program information whose current time is within the broadcast time is instructed, the operation control unit may select a channel of the program. More specifically, the operation control unit outputs an operation control signal indicating the broadcast channel on which the program is broadcast to the broadcast receiving unit 12. Further, when the recording of a program related to any of the program information is instructed, the operation control unit may make a recording reservation for the program. More specifically, the descramble unit 206 outputs the first multiplexed data to the local encryption unit 208 at the program start time of the program in response to the instruction of the operation control signal from the operation control unit, and stores the TLV. Record in section 210. Further, the descramble unit 206 stops the output of the first multiplexed data to the local encryption unit 208 at the program end time, and stops the recording in the TLV storage unit 210. Since recording / playback using the first multiplexed data recorded in the TLV storage unit 210 is executed with reference to the reference time, in the present embodiment, the program start time related to the recording start and the program end time related to the recording end are corrected. It does not have to be.

次に、放送アプリケーションの実行について説明する。付加コンテンツ処理部342は、SI管理部232から受信した最新のアプリケーション制御情報に基づいて放送アプリケーションとしてHTML管理部238に記憶されるマルチメディアデータを取得する。そこで、付加コンテンツ処理部342は、アプリケーション制御情報に記述されている取得先情報としてHTML管理部238を特定し、HTML管理部238にそのマルチメディアデータを示す情報要求信号を出力する。付加コンテンツ処理部342には、その応答としてHTML管理部238から出力されるマルチメディアデータが入力される。そのために、解析部222は、アプリケーション制御情報に実行対象のアプリケーションとしてマルチメディアデータが指定されている場合には、その所在を示す情報としてHTML管理部238のアドレスをアプリケーション制御情報に記述する。そして、解析部222は、そのアプリケーション制御情報をSI管理部232に出力する。 Next, the execution of the broadcasting application will be described. The additional content processing unit 342 acquires multimedia data stored in the HTML management unit 238 as a broadcasting application based on the latest application control information received from the SI management unit 232. Therefore, the additional content processing unit 342 identifies the HTML management unit 238 as the acquisition destination information described in the application control information, and outputs an information request signal indicating the multimedia data to the HTML management unit 238. The multimedia data output from the HTML management unit 238 is input to the additional content processing unit 342 as a response. Therefore, when multimedia data is specified as the application to be executed in the application control information, the analysis unit 222 describes the address of the HTML management unit 238 in the application control information as information indicating the location of the multimedia data. Then, the analysis unit 222 outputs the application control information to the SI management unit 232.

付加コンテンツ処理部342は、アプリケーション制御情報に記述されている各種の命令に基づいて取得したアプリケーションの実行を制御する。かかる命令には、起動指示、終了などの情報が含まれる。それらの命令には、その命令を実行する実行時刻(即ち、アプリケーションの起動時刻、終了時刻、コンテンツの提示時刻など)が指定されることがある。指定される実行時刻が基準時刻に基づく時刻である場合には、付加コンテンツ処理部342は、実行時刻に上述の時間差を加算し、実行時刻からその時間差だけシフトした時刻を補正実行時刻として算出する。付加コンテンツ処理部342は、補正実行時刻になったとき、その命令で指示される処理を実行する。例えば、付加コンテンツ処理部342は、アプリケーションに記述される命令で指示される処理として、そのアプリケーションに含まれる要素コンテンツを抽出もしくはアプリケーションに関連付けられた要素コンテンツを取得する。そして、付加コンテンツ処理部342は、その提示時刻に時間差を加算して補正提示時刻を算出する。取得した要素コンテンツに視覚情報が含まれる場合、付加コンテンツ処理部342は、現在時刻が補正提示時刻になったとき、その視覚情報を映像合成部334に出力する。従って、表示部には、システム時刻に基づく提示時刻に視覚情報と放送される映像とが同期して表示される。取得した付加コンテンツに聴覚情報が含まれる場合、付加コンテンツ処理部342は、現在時刻が補正提示時刻になったとき、その聴覚情報を音声ミキシング部338に出力する。よって、表示部には、システム時刻に基づく提示時刻に聴覚情報と放送される音声とが同期して再生される。 The additional content processing unit 342 controls the execution of the acquired application based on various instructions described in the application control information. Such an instruction includes information such as a start instruction and an end. These instructions may specify an execution time for executing the instruction (that is, an application start time, end time, content presentation time, and the like). When the specified execution time is a time based on the reference time, the additional content processing unit 342 adds the above-mentioned time difference to the execution time, and calculates the time shifted by the time difference from the execution time as the correction execution time. .. When the correction execution time comes, the additional content processing unit 342 executes the process instructed by the command. For example, the additional content processing unit 342 extracts the element content included in the application or acquires the element content associated with the application as the process instructed by the instruction described in the application. Then, the additional content processing unit 342 calculates the corrected presentation time by adding the time difference to the presentation time. When the acquired element content includes visual information, the additional content processing unit 342 outputs the visual information to the video composition unit 334 when the current time reaches the correction presentation time. Therefore, the visual information and the broadcast image are displayed synchronously on the display unit at the presentation time based on the system time. When the acquired additional content includes auditory information, the additional content processing unit 342 outputs the auditory information to the audio mixing unit 338 when the current time reaches the correction presentation time. Therefore, on the display unit, the auditory information and the broadcast sound are reproduced in synchronization with the presentation time based on the system time.

なお、マルチメディアデータにより提示される付加コンテンツの構成要素となる要素コンテンツがネットワークに接続されている機器(例えば、ウェブサーバ)に格納されていることがある。その場合には、マルチメディアデータに要素コンテンツの取得先情報としてその機器のアドレスが記述される。付加コンテンツ処理部342は、マルチメディアデータに記述された取得先情報で指定される機器に要素コンテンツを示す情報要求信号を、通信部324を介して送信する。付加コンテンツ処理部342は、情報要求信号の応答として取得先情報で指定される機器から送信される要素コンテンツを受信する。 In addition, element content that is a component of additional content presented by multimedia data may be stored in a device (for example, a web server) connected to a network. In that case, the address of the device is described in the multimedia data as the acquisition destination information of the element content. The additional content processing unit 342 transmits an information request signal indicating the element content to the device specified by the acquisition destination information described in the multimedia data via the communication unit 324. The additional content processing unit 342 receives the element content transmitted from the device specified in the acquisition destination information as a response to the information request signal.

以上に説明したように、本実施形態に係る受信装置1は、第1多重化方式(例えば、TLV/MMT方式)で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ及び前記音声データならびに映像データに付加される付加コンテンツデータを分離する分離部220を備える。また、受信装置1は、音声データ及び映像データを第1多重化方式とは第2多重化方式(例えば、MPEG−2 TS方式)で多重化して第2多重化データを生成する多重化部230と、第2多重化データと付加コンテンツデータをそれぞれ出力する出力部として出力部240と入出力部242を備える。
また、受信装置1は、第2多重化方式に対応する分離方式で第2多重化データから音声データと映像データを分離し、付加コンテンツデータに基づく付加コンテンツと少なくとも映像データが示す映像もしくは音声データが示す音声のいずれかを重畳する受信処理部30を備える。
ここで、付加コンテンツは、例えば、文字、マルチメディアデータで提供される放送サービスに関連するマルチメディアコンテンツ、などである。
As described above, the receiving device 1 according to the present embodiment is from the first multiplexed data multiplexed by the first multiplexing method (for example, the TLV / MMT method) to the audio data which is a component of the broadcasting service. , The separation unit 220 for separating the video data, the audio data, and the additional content data added to the video data. Further, the receiving device 1 is a multiplexing unit 230 that generates the second multiplexing data by multiplexing the audio data and the video data by a second multiplexing method (for example, MPEG-2 TS method) as the first multiplexing method. The output unit 240 and the input / output unit 242 are provided as output units for outputting the second multiplexed data and the additional content data, respectively.
Further, the receiving device 1 separates the audio data and the video data from the second multiplexing data by a separation method corresponding to the second multiplexing method, and the additional content based on the additional content data and at least the video or audio data indicated by the video data. A reception processing unit 30 for superimposing any of the voices indicated by is provided.
Here, the additional content is, for example, characters, multimedia content related to a broadcasting service provided by multimedia data, and the like.

この構成により、第1多重化データから分離された付加コンテンツデータは、第2多重化方式に基づく第2多重化データと独立に提供される。そのため、受信処理部が第2多重化方式に基づく第2多重化データから音声、映像を提供する機能に加え、第2多重化データとは独立に第2多重化方式に対応していない付加コンテンツを提供することができる。そのため、音声や映像以外の多様な放送サービスの提供が可能となる。 With this configuration, the additional content data separated from the first multiplexing data is provided independently of the second multiplexing data based on the second multiplexing method. Therefore, in addition to the function that the reception processing unit provides audio and video from the second multiplexing data based on the second multiplexing method, additional content that does not support the second multiplexing method independently of the second multiplexing data. Can be provided. Therefore, it is possible to provide various broadcasting services other than audio and video.

また、分離部220は、第1多重化データから基準時刻を示す基準時刻情報を分離し、受信処理部30は、システム時刻と基準時刻との時間差を検出し、付加コンテンツの提示時刻を検出した時間差で補正した時刻である補正提示時刻に付加コンテンツを出力する。
この構成により、第1多重化データで基準時刻を基準とする付加コンテンツの提示時刻が、補正提示時刻としてシステム時刻を基準とする提示時刻に補正される。そのため、付加コンテンツが提示されるタイミングが、システム時刻を基準として提示される音声もしくは映像のタイミングとを同期することができる。
Further, the separation unit 220 separates the reference time information indicating the reference time from the first multiplexed data, and the reception processing unit 30 detects the time difference between the system time and the reference time and detects the presentation time of the additional content. The additional content is output at the correction presentation time, which is the time corrected by the time difference.
With this configuration, the presentation time of the additional content based on the reference time in the first multiplexed data is corrected to the presentation time based on the system time as the correction presentation time. Therefore, the timing at which the additional content is presented can be synchronized with the timing of the audio or video presented with reference to the system time.

[第2の実施形態]
次に、本発明の第2の実施形態について説明する。以下の説明では、第1の実施形態の差異を主とする。第1の実施形態と同一の構成については同一の符号を付してその説明を援用する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the following description, the differences of the first embodiment will be mainly used. The same components as those in the first embodiment are designated by the same reference numerals and the description thereof will be incorporated.

まず、本実施形態に係る受信装置1の概略構成について図2を用いて説明する。受信装置1において、解析部222は、第1多重化データから分離される制御情報からシステム時刻情報及び基準時刻情報の他、付加識別情報が示す参照開始時刻を特定する。解析部222は、基準時刻情報が示す基準時刻からシステム時刻情報が示すシステム時刻の時間差を算出し、算出した時間差を参照開始時刻に加算して補正参照開始時刻1を算出する。解析部222は、サービスの構成要素として音声データ及び映像データを示す情報に、さらに文字データの提示時刻として補正参照開始時刻1を示す提示時刻情報を含む構成情報を生成する。解析部222は、生成した構成情報を多重化部230に出力する。従って、多重化部230が生成する第2多重化データには、提示時刻情報も多重化される。補正参照開始時刻1は、受信された時点におけるシステム時刻を基準とする参照開始時刻となる。受信装置1は、多重化部230により生成されたMPEG−2 TS形式の第2多重化データを記憶(録画)するTS記憶部250(図3)を備える。記憶される第2多重化データには、その時点のシステム時刻(録画時刻)を示すシステム時刻情報が含まれる。 First, the schematic configuration of the receiving device 1 according to the present embodiment will be described with reference to FIG. In the receiving device 1, the analysis unit 222 specifies the reference start time indicated by the additional identification information in addition to the system time information and the reference time information from the control information separated from the first multiplexed data. The analysis unit 222 calculates the time difference of the system time indicated by the system time information from the reference time indicated by the reference time information, and adds the calculated time difference to the reference start time to calculate the correction reference start time 1. The analysis unit 222 generates configuration information including information indicating audio data and video data as a component of the service, and presentation time information indicating a correction reference start time 1 as a presentation time of character data. The analysis unit 222 outputs the generated configuration information to the multiplexing unit 230. Therefore, the presentation time information is also multiplexed in the second multiplexing data generated by the multiplexing unit 230. The correction reference start time 1 is a reference start time based on the system time at the time of reception. The receiving device 1 includes a TS storage unit 250 (FIG. 3) that stores (records) the second multiplexing data in the MPEG-2 TS format generated by the multiplexing unit 230. The stored second multiplexed data includes system time information indicating the system time (recording time) at that time.

TS記憶部250は、動作制御部(図示せず)から再生を指示する動作制御信号が入力されるとき、動作制御信号で指示された第2多重化データを読み出し、分離部330に出力する。分離部330は、第2多重化データからシステム時刻情報の他、提示時刻情報を分離し、分離したシステム時刻情報と提示時刻情報を同期処理部340に出力する。
同期処理部340は、その時点におけるシステム時刻を基準とする現在時刻から分離部330から入力されたシステム時刻情報が示す録画時刻の時間差を算出する。同期処理部340は、分離部330から入力された提示時刻情報が示す補正参照開始時刻1に算出した時間差を加算し、さらに補正された補正参照開始時刻2を算出する。補正参照開始時刻2は、その時点におけるシステム時刻を基準とする参照開始時刻となる。同期処理部340は、補正参照開始時刻2を示す提示時刻情報を付加コンテンツ処理部342に出力する。
When an operation control signal instructing reproduction is input from the operation control unit (not shown), the TS storage unit 250 reads out the second multiplexed data instructed by the operation control signal and outputs it to the separation unit 330. The separation unit 330 separates the presentation time information in addition to the system time information from the second multiplexed data, and outputs the separated system time information and the presentation time information to the synchronization processing unit 340.
The synchronization processing unit 340 calculates the time difference of the recording time indicated by the system time information input from the separation unit 330 from the current time based on the system time at that time. The synchronization processing unit 340 adds the calculated time difference to the correction reference start time 1 indicated by the presentation time information input from the separation unit 330, and further calculates the corrected correction reference start time 2. The correction reference start time 2 is a reference start time based on the system time at that time. The synchronization processing unit 340 outputs the presentation time information indicating the correction reference start time 2 to the additional content processing unit 342.

付加コンテンツ処理部342は、分離部330が取得する第2多重化データと同時刻に記憶された文字データをTTML管理部236から読み出す。ここで、付加コンテンツ処理部342は、その文字データを指示する情報要求信号をTTML管理部236に出力し、その応答として指示された文字データが入力される。付加コンテンツ処理部342は、入力された文字データが示す文字列からなる字幕データを、基準時刻を基準とする現在時刻が同期処理部340から入力される提示時刻情報が示す補正参照開始時刻2になったときに映像合成部334に出力する。従って、録画再生される映像と字幕とがシステム時刻を基準として同期して再生される。 The additional content processing unit 342 reads the character data stored at the same time as the second multiplexed data acquired by the separation unit 330 from the TTML management unit 236. Here, the additional content processing unit 342 outputs an information request signal instructing the character data to the TTML management unit 236, and the character data instructed as a response is input. The additional content processing unit 342 sets the subtitle data consisting of the character string indicated by the input character data to the correction reference start time 2 indicated by the presentation time information input from the synchronization processing unit 340 with the current time based on the reference time. When it becomes, it is output to the image composition unit 334. Therefore, the recorded / reproduced video and the subtitles are reproduced in synchronization with respect to the system time.

次に、本実施形態に係る同期処理の例について説明する。
図3は、本実施形態に係る同期処理の例を説明するための説明図である。
変換処理部20(図2)は、クロック生成部224を備え、受信処理部30(図2)は、クロック生成部344を備える。
Next, an example of the synchronous processing according to the present embodiment will be described.
FIG. 3 is an explanatory diagram for explaining an example of the synchronization process according to the present embodiment.
The conversion processing unit 20 (FIG. 2) includes a clock generation unit 224, and the reception processing unit 30 (FIG. 2) includes a clock generation unit 344.

変換処理部20において、解析部222は、第1多重化データから分離された制御情報を示すMMT−SIからシステム時刻情報を示すMH−TOT及び構成情報を示すMPTを分離する。(R02:MMT解析)また、解析部222には、分離部220から分離されたNTP形式の基準時刻情報が入力される。
解析部222は、第1多重化データから分離されたMPTからMH−データ符号化方式記述子に記述された付加識別情報から参照開始時刻(reference_start_time)を抽出する。(R04)
In the conversion processing unit 20, the analysis unit 222 separates the MH-TOT indicating the system time information and the MPT indicating the configuration information from the MMT-SI indicating the control information separated from the first multiplexed data. (R02: MMT analysis) Further, the reference time information in the NTP format separated from the separation unit 220 is input to the analysis unit 222.
The analysis unit 222 extracts the reference start time (reference_start_time) from the additional identification information described in the MH-data coding method descriptor from the MPT separated from the first multiplexed data. (R04)

解析部222は、分離したシステム時刻情報MH−TOTを基準とする現在時刻としてシステム時刻を計時し、計時したシステム時刻を示すシステム時刻情報を生成する(R06)。
解析部222は、基準時刻情報が示す現在時刻である基準時刻からシステム時刻の時間差を算出する。(R08)
解析部222は、算出した時間差を参照開始時刻に加算して補正参照開始時刻1を算出する。(R10)
解析部222は、算出した補正参照開始時刻1が参照開始時刻(reference_start_time)として多重化した構成情報を示すPMTを生成し、生成したPMTを多重化部230(図2)に出力する。(R12)
The analysis unit 222 measures the system time as the current time based on the separated system time information MH-TOT, and generates system time information indicating the timed system time (R06).
The analysis unit 222 calculates the time difference of the system time from the reference time which is the current time indicated by the reference time information. (R08)
The analysis unit 222 adds the calculated time difference to the reference start time to calculate the correction reference start time 1. (R10)
The analysis unit 222 generates a PMT indicating the configuration information in which the calculated correction reference start time 1 is multiplexed as the reference start time (reference_start_time), and outputs the generated PMT to the multiplexing unit 230 (FIG. 2). (R12)

解析部222は、NTP形式の基準時刻情報の周波数(例えば、1Hz)を逓倍し所定の周波数(例えば、10Hz)で基準時刻を示す基準時刻情報に変換する。(R20:周波数変換)
解析部222は、変換した基準時刻情報をMPEG−2 TS方式に規定の形式の基準時刻情報を示すPCRとして再構成する。解析部222は、再構成したPCRを多重化部230(図2)とクロック生成部224に出力する。(R22)
The analysis unit 222 multiplies the frequency (for example, 1 Hz) of the reference time information in the NTP format and converts it into the reference time information indicating the reference time at a predetermined frequency (for example, 10 Hz). (R20: Frequency conversion)
The analysis unit 222 reconstructs the converted reference time information as PCR indicating the reference time information in the format specified in the MPEG-2 TS method. The analysis unit 222 outputs the reconstructed PCR to the multiplexing unit 230 (FIG. 2) and the clock generation unit 224. (R22)

多重化部230(図2)は、分離部220(図2)から入力された音声データ、映像データ、PCR及びPMTを含む制御情報をMPEG−2 TSで規定された多重化方式で多重化して第2多重化データを生成する。(R24:TS化)
多重化部230は、動作制御部(図示せず)から録画を指示する動作制御信号が入力されるとき、生成した第2多重化データをTS記憶部250に記憶する。録画が指示されないとき、多重化部230は、生成した第2多重化データを受信処理部30の分離部330に出力する。なお、動作制御部(図示せず)から再生を指示する動作制御信号が入力されるとき、TS記憶部250は、動作制御信号で指示される区間の第2多重化データを受信処理部30の分離部330に出力する。
The multiplexing unit 230 (FIG. 2) multiplexes control information including audio data, video data, PCR and PMT input from the separating unit 220 (FIG. 2) by the multiplexing method specified by MPEG-2 TS. Generate the second multiplexed data. (R24: TS conversion)
The multiplexing unit 230 stores the generated second multiplexing data in the TS storage unit 250 when an operation control signal instructing recording is input from the operation control unit (not shown). When recording is not instructed, the multiplexing unit 230 outputs the generated second multiplexing data to the separation unit 330 of the reception processing unit 30. When an operation control signal instructing reproduction is input from the operation control unit (not shown), the TS storage unit 250 receives the second multiplexed data of the section instructed by the operation control signal in the operation processing unit 30. Output to the separation unit 330.

クロック生成部224は、比較器、発振器及びSTCカウンタを備える。比較器、発振器及びSTCカウンタは、PLL(Phase Locked Loop)回路を形成する。
比較器は、解析部222からPCRが入力されるタイミングで、STCカウンタから入力されるカウンタパルスがラッチされ、PCRとカウンタパルスとの位相を比較する。比較器は、位相差を示す比較誤差信号を発振器に出力する。(R26)
The clock generator 224 includes a comparator, an oscillator, and an STC counter. The comparator, oscillator and STC counter form a PLL (Phase Locked Loop) circuit.
The comparator latches the counter pulse input from the STC counter at the timing when the PCR is input from the analysis unit 222, and compares the phases of the PCR and the counter pulse. The comparator outputs a comparison error signal indicating the phase difference to the oscillator. (R26)

発振器は、比較器から入力される比較誤差信号に基づいて所定のクロック周波数(例えば、27MHz)のクロック信号を生成する。比較誤差信号によりクロック周波数が一定に制御される。発振器は、生成したクロック信号をSTCカウンタに出力する。(R28)
STCカウンタは、発振器から入力されるクロック信号を所定の分周率で分周し、クロックパルスを生成する。STCカウンタは、生成したクロックパルスを比較器に出力する。(R30)
The oscillator generates a clock signal having a predetermined clock frequency (for example, 27 MHz) based on the comparison error signal input from the comparator. The clock frequency is controlled to be constant by the comparison error signal. The oscillator outputs the generated clock signal to the STC counter. (R28)
The STC counter divides the clock signal input from the oscillator by a predetermined frequency division factor to generate a clock pulse. The STC counter outputs the generated clock pulse to the comparator. (R30)

受信処理部30において、分離部330は、変換処理部20又はTS記憶部250から入力される第2多重化データをなすTSを解析し、音声データ、映像データ、基準時刻情報を示すPCR及び制御情報に分離する。分離部330は、分離したPCRと制御情報を同期処理部340に出力する。(P02:TS解析)
同期処理部340は、分離部330から入力される制御情報のうちPMTから補正参照開始時刻1を示す参照開始時刻(reference_start_time)を抽出する。(P04)
In the reception processing unit 30, the separation unit 330 analyzes the TS forming the second multiplexed data input from the conversion processing unit 20 or the TS storage unit 250, and performs PCR and control showing audio data, video data, and reference time information. Separate into information. The separation unit 330 outputs the separated PCR and control information to the synchronization processing unit 340. (P02: TS analysis)
The synchronization processing unit 340 extracts the reference start time (reference_start_time) indicating the correction reference start time 1 from the PMT from the control information input from the separation unit 330. (P04)

同期処理部340の切替器は、録画再生を指示する動作制御信号が入力されず、通常再生(ライブ)時において、分離部330から入力される制御情報に含まれるシステム時刻情報を示すTOTを自部が備えるタイマに供給する。タイマに供給されるシステム時刻情報が示す時刻は、システム時刻を基準とする現在時刻となる。他方、同期処理部340の切替器は、録画再生を指示する動作制御信号が入力されるとき(録画再生時)、分離部330から入力される制御情報に含まれるシステム時刻情報を示すTOTを自部が備える減算器に供給する。減算器に供給されるシステム時刻情報が示す時刻は、システム時刻を基準とする録画時刻となる。(P06)
タイマは、入力されるシステム時刻情報が示す時刻を基準とする現在時刻を逐次に計時し、計時した現在時刻を示すシステム時刻情報を減算部に出力する。(P08)タイマには、少なくともシステム時刻情報が少なくとも1回入力されればよい。タイマは、録画時などシステム時刻情報が入力されなくなった後でも現在時刻の計時、出力を継続する。
The switch of the synchronization processing unit 340 does not input the operation control signal instructing recording / playback, and has a TOT indicating the system time information included in the control information input from the separation unit 330 during normal playback (live). It is supplied to the timer provided in the unit. The time indicated by the system time information supplied to the timer is the current time based on the system time. On the other hand, the switch of the synchronization processing unit 340 itself has a TOT indicating system time information included in the control information input from the separation unit 330 when an operation control signal instructing recording / playback is input (during recording / playback). It is supplied to the subtractor provided in the unit. The time indicated by the system time information supplied to the subtractor is the recording time based on the system time. (P06)
The timer sequentially clocks the current time based on the time indicated by the input system time information, and outputs the system time information indicating the measured current time to the subtraction unit. (P08) System time information may be input to the timer at least once. The timer continues to measure and output the current time even after the system time information is no longer input, such as during recording.

同期処理部340の減算器は、切替器から録画時刻を示すシステム時刻情報と、タイマから現在時刻を示すシステム時刻情報とが入力されるとき、その録画時刻から現在時刻を減算して、録画時刻から現在時刻の時間差を算出し、算出した時間差を示す時間差情報を加算器に出力する。(P10)但し、同期処理部340の減算器は、タイマからシステム時刻情報が入力されない場合には、時間差情報を出力しない。
同期処理部340の加算器は、参照開始時刻(reference_start_time)として記述された補正参照開始時刻1に減算器から入力される時間差情報が示す時間差を加算して補正参照開始時刻2を算出する。加算器は、算出した補正参照開始時刻2を記述した参照開始時刻(reference_start_time)を提示時刻情報として付加コンテンツ処理部342(図2)に出力する。(P12)なお、減算器から時間差情報が入力されない場合には、加算器は、自器に入力される参照開始時刻(reference_start_time)をそのまま提示時刻情報として付加コンテンツ処理部342に出力する。
When the system time information indicating the recording time and the system time information indicating the current time are input from the switch, the subtractor of the synchronization processing unit 340 subtracts the current time from the recording time to record the recording time. The time difference of the current time is calculated from, and the time difference information indicating the calculated time difference is output to the adder. (P10) However, the subtractor of the synchronization processing unit 340 does not output the time difference information when the system time information is not input from the timer.
The adder of the synchronization processing unit 340 calculates the correction reference start time 2 by adding the time difference indicated by the time difference information input from the subtractor to the correction reference start time 1 described as the reference start time (reference_start_time). The adder outputs the reference start time (reference_start_time) describing the calculated correction reference start time 2 to the additional content processing unit 342 (FIG. 2) as the presentation time information. (P12) When the time difference information is not input from the subtractor, the adder outputs the reference start time (reference_start_time) input to the adder as it is to the additional content processing unit 342 as the presentation time information.

受信処理部30のクロック生成部344は、変換処理部20のクロック生成部224と同様に、比較器、発振器及びSTCカウンタを備え、PLL回路を形成する。この構成により、クロック生成部344は、分離部330から入力されるPCRに同期したクロック信号を生成する。クロック生成部344が生成したクロック信号は、受信処理部30の各構成要素間の処理を同期(クロック同期)させるために用いられる。従って、変換処理部20と受信処理部30との間では、基準時刻を基準として相互の動作が同期する。 The clock generation unit 344 of the reception processing unit 30 includes a comparator, an oscillator, and an STC counter, and forms a PLL circuit, similarly to the clock generation unit 224 of the conversion processing unit 20. With this configuration, the clock generation unit 344 generates a clock signal synchronized with the PCR input from the separation unit 330. The clock signal generated by the clock generation unit 344 is used to synchronize the processing between the components of the reception processing unit 30 (clock synchronization). Therefore, the conversion processing unit 20 and the reception processing unit 30 synchronize their mutual operations with reference to the reference time.

従って、本実施形態に係る受信装置1は、録画再生時において、録画時に指示された提示時刻を、その時点におけるシステム時刻を基準とする時刻として補正された時刻に字幕を表示することができる。また、受信装置1は、通常再生時において、受信時に指示された提示時刻を、その時点におけるシステム時刻を基準とする時刻として補正された時刻に字幕を表示することができる。どちらの場合も、MPEG−2 TS方式で多重化された第2多重化データでシステム時刻を基準として提供される映像と、第2多重化データとは並行して基準時刻を基準として提供される字幕とが同期する。また、字幕の表示に係る参照開始時刻を示す提示時刻情報は、MMT方式、MPEG−2 TS方式で共通の形式であるため、提示時刻情報の変更に係る処理量や付加コンテンツの提示にかかる処理量が過大にならずに済む。 Therefore, the receiving device 1 according to the present embodiment can display the subtitles at the time when the presentation time instructed at the time of recording is corrected as the time based on the system time at that time during recording / playback. In addition, the receiving device 1 can display subtitles at a time corrected by using the presentation time instructed at the time of reception as a time based on the system time at that time during normal playback. In both cases, the video provided with reference to the system time in the second multiplexed data multiplexed by the MPEG-2 TS method and the second multiplexed data are provided in parallel with reference to the reference time. Synchronize with the subtitles. Further, since the presentation time information indicating the reference start time related to the display of the subtitle is in a format common to the MMT method and the MPEG-2 TS method, the processing amount related to the change of the presentation time information and the processing related to the presentation of the additional content. The amount does not become excessive.

以上に説明したように、本実施形態に係る受信装置1は、第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ、音声データならびに映像データに付加される付加コンテンツに関する付加コンテンツデータ、基準時刻を示す基準時刻情報、システム時刻を示すシステム時刻情報及び付加コンテンツの提示時刻を示す提示時刻情報を分離する分離部220を備える。また、受信装置1は、解析部222、多重化部230及び出力部として出力部240ならびに入出力部242を備える。解析部222は、提示時刻を、基準時刻とシステム時刻との時間差で補正した補正提示時刻を算出する。多重化部230は、音声データ、映像データ及び補正提示時刻を示す補正提示時刻情報を第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する。出力部240は、第2多重化データを出力し、入出力部242は、付加コンテンツデータを出力する。
また、受信装置1は、第2多重化方式に対応する分離方式で第2多重化データから音声データ、映像データ及び補正提示時刻情報を分離し、補正提示時刻情報が示す補正提示時刻に付加コンテンツデータに関する付加コンテンツを出力する受信処理部30を備える。
As described above, the receiving device 1 according to the present embodiment has audio data, video data, audio data, and video which are components of the broadcasting service from the first multiplexing data multiplexed by the first multiplexing method. A separation unit 220 is provided for separating additional content data relating to additional content added to the data, reference time information indicating a reference time, system time information indicating the system time, and presentation time information indicating the presentation time of the additional content. Further, the receiving device 1 includes an analysis unit 222, a multiplexing unit 230, an output unit 240 as an output unit, and an input / output unit 242. The analysis unit 222 calculates the corrected presentation time obtained by correcting the presentation time by the time difference between the reference time and the system time. The multiplexing unit 230 multiplexes the audio data, the video data, and the correction presentation time information indicating the correction presentation time by a second multiplexing method different from the first multiplexing method to generate the second multiplexing data. The output unit 240 outputs the second multiplexed data, and the input / output unit 242 outputs the additional content data.
Further, the receiving device 1 separates the audio data, the video data, and the correction presentation time information from the second multiplexing data by a separation method corresponding to the second multiplexing method, and adds content to the correction presentation time indicated by the correction presentation time information. A reception processing unit 30 for outputting additional contents related to data is provided.

この構成によれば、提示時刻が第1多重化方式、第2多重化方式の制御情報において指定可能である付加コンテンツについて、基準時刻を基準とする提示時刻がシステム時刻を基準とする補正提示時刻が第2多重化方式の制御情報で指定される。そのため、付加コンテンツを提示する時刻である補正提示時刻を、音声もしくは映像が提示されるシステム時刻を基準とするタイミングと同期させることができる。また、受信処理部30において提示時刻情報を補正する必要がないため、受信処理部30の仕様や設定の変更を軽減することができる。 According to this configuration, for the additional content whose presentation time can be specified in the control information of the first multiplexing method and the second multiplexing method, the presentation time based on the reference time is the corrected presentation time based on the system time. Is specified in the control information of the second multiplexing method. Therefore, the corrected presentation time, which is the time for presenting the additional content, can be synchronized with the timing based on the system time at which the audio or video is presented. Further, since it is not necessary for the reception processing unit 30 to correct the presentation time information, it is possible to reduce changes in the specifications and settings of the reception processing unit 30.

また、受信装置1は、多重化部230が生成した第2多重化データを記憶するTS記憶部250と、付加コンテンツデータを記憶する記憶部としてTTML管理部236とHTML管理部238を備える。受信処理部30は、記憶部から第2多重化データと付加コンテンツデータが入力されるとき、第2多重化データを記憶した時刻と現在時刻との時間差である第2時間差を算出し、補正提示時刻を第2時間差で第2補正提示時刻を算出する。そして、受信処理部30は、第2補正提示時刻において、記憶部から入力される付加コンテンツデータに関する付加コンテンツを出力する。
この構成によれば、第2多重化データに係る音声もしくは映像と付加コンテンツデータに係る付加コンテンツを録画再生するとき、記憶時(録画時)のシステム時刻を基準とする補正提示時刻に録画時の時刻と現在時刻との時間差で補正した第2補正提示時刻を算出する。第2補正提示時刻は、録画再生時のシステム時刻を基準とする提示時刻に対応するその時点におけるシステム時刻を基準とする現在時刻に相当する。そのため、録画再生される付加コンテンツを提示する時刻である第2補正提示時刻を、録画再生に係る音声もしくは映像が提示されるタイミングと同期させることができる。
Further, the receiving device 1 includes a TS storage unit 250 that stores the second multiplexed data generated by the multiplexing unit 230, and a TTML management unit 236 and an HTML management unit 238 as storage units that store additional content data. When the second multiplexed data and the additional content data are input from the storage unit, the reception processing unit 30 calculates the second time difference, which is the time difference between the time when the second multiplexed data is stored and the current time, and presents the correction. The second correction presentation time is calculated by setting the time by the second time difference. Then, the reception processing unit 30 outputs the additional content related to the additional content data input from the storage unit at the second correction presentation time.
According to this configuration, when recording and playing back the audio or video related to the second multiplexed data and the additional content related to the additional content data, when recording at the correction presentation time based on the system time at the time of storage (recording). The second correction presentation time corrected by the time difference between the time and the current time is calculated. The second correction presentation time corresponds to the current time based on the system time at that time corresponding to the presentation time based on the system time at the time of recording / playback. Therefore, the second correction presentation time, which is the time for presenting the additional content to be recorded and reproduced, can be synchronized with the timing at which the audio or video related to the recording and reproduction is presented.

[第3の実施形態]
次に、本発明の第3の実施形態について説明する。以下の説明では、第2の実施形態の差異を主とする。上述の実施形態と同一の構成については同一の符号を付してその説明を援用する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. In the following description, the differences of the second embodiment will be mainly used. The same components as those in the above-described embodiment are designated by the same reference numerals and the description thereof will be incorporated.

第2の実施形態では、解析部222は、基準時刻からシステム時刻の時間差を参照開始時刻に加算して補正参照開始時刻1を算出し、補正参照開始時刻1を示す提示時刻情報を第2多重化データに多重化していた。
これに対し、本実施形態では、解析部222は、第1多重化データの制御情報から抽出された参照開始時刻をそのまま多重化した第2多重化データを生成する。受信装置1はさらに時間差情報記憶部252を備える。録画を指示する動作制御信号が入力されるとき、解析部222は、基準時刻からシステム時刻の時間差を示す時間差情報を第2多重化データと対応付けて時間差情報記憶部252に記憶する。また、通常再生が設定されているとき、解析部222は、第2多重化データに対応付けて時間差情報を受信処理部30に出力する。
In the second embodiment, the analysis unit 222 adds the time difference of the system time from the reference time to the reference start time to calculate the correction reference start time 1, and secondly multiplexes the presentation time information indicating the correction reference start time 1. It was multiplexed into the converted data.
On the other hand, in the present embodiment, the analysis unit 222 generates the second multiplexed data in which the reference start time extracted from the control information of the first multiplexed data is multiplexed as it is. The receiving device 1 further includes a time difference information storage unit 252. When the operation control signal instructing recording is input, the analysis unit 222 stores the time difference information indicating the time difference between the reference time and the system time in the time difference information storage unit 252 in association with the second multiplexed data. Further, when the normal reproduction is set, the analysis unit 222 outputs the time difference information to the reception processing unit 30 in association with the second multiplexed data.

また、第2の実施形態では、同期処理部340は、現在時刻から録画時刻の時間差を算出し、分離部330(図2)から入力された提示時刻情報が示す補正参照開始時刻1に算出した時間差を加算して得られる補正参照開始時刻2を示す提示時刻情報を生成していた。
これに対し、本実施形態では、同期処理部340は、現在時刻から録画時刻の時間差を算出し、分離部330から入力された提示時刻情報が示す参照開始時刻に算出した時間差を加算して得られる補正参照開始時刻3を算出する。他方、同期処理部340は、録画再生を指示する動作制御信号が入力されるとき、動作制御信号で指示された区間の第2多重化データと対応付けて記憶された時間差情報を時間差情報記憶部252から記憶する。また、録画再生を指示する動作制御信号が入力されず、通常再生が設定されるとき、同期処理部340には分離部330に入力される第2多重化データと対応付けて時間差情報が入力される。同期処理部340は、取得した時間差情報が示す時間差を補正参照開始時刻3に加算して、補正参照開始時刻3からさらにその時間差がシフトした時刻である補正参照開始時刻4を算出する。同期処理部340は、補正参照開始時刻4を示す提示時刻情報を付加コンテンツ処理部342に出力する。
Further, in the second embodiment, the synchronization processing unit 340 calculates the time difference of the recording time from the current time, and calculates it at the correction reference start time 1 indicated by the presentation time information input from the separation unit 330 (FIG. 2). The presentation time information indicating the correction reference start time 2 obtained by adding the time difference was generated.
On the other hand, in the present embodiment, the synchronization processing unit 340 calculates the time difference of the recording time from the current time, and adds the calculated time difference to the reference start time indicated by the presentation time information input from the separation unit 330. The correction reference start time 3 is calculated. On the other hand, when the operation control signal instructing recording / playback is input, the synchronization processing unit 340 stores the time difference information stored in association with the second multiplexed data of the section instructed by the operation control signal in the time difference information storage unit. Remember from 252. Further, when the operation control signal instructing the recording / playback is not input and the normal playback is set, the time difference information is input to the synchronization processing unit 340 in association with the second multiplexed data input to the separation unit 330. NS. The synchronization processing unit 340 adds the time difference indicated by the acquired time difference information to the correction reference start time 3, and calculates the correction reference start time 4, which is the time when the time difference is further shifted from the correction reference start time 3. The synchronization processing unit 340 outputs the presentation time information indicating the correction reference start time 4 to the additional content processing unit 342.

付加コンテンツ処理部342は、分離部330に入力される第2多重化データと同時刻に記憶された文字データを取得し、取得した文字データが示す文字列からなる字幕データを、基準時刻を基準とする現在時刻が同期処理部340から入力される提示時刻情報が示す補正参照開始時刻4になったときに映像合成部334に出力する。かかる構成によっても、録画再生される映像と字幕とがシステム時刻を基準として同期して再生される。 The additional content processing unit 342 acquires character data stored at the same time as the second multiplexed data input to the separation unit 330, and uses the subtitle data consisting of the character string indicated by the acquired character data as a reference time. When the current time to be determined reaches the correction reference start time 4 indicated by the presentation time information input from the synchronization processing unit 340, the data is output to the image composition unit 334. Even with such a configuration, the recorded / reproduced video and the subtitles are reproduced in synchronization with respect to the system time.

次に、本実施形態に係る同期処理の例について説明する。
図4は、本実施形態に係る同期処理の例を説明するための説明図である。
本実施形態でも変換処理部20(図2)は、クロック生成部224を備え、受信処理部30(図2)は、クロック生成部344を備える。
Next, an example of the synchronous processing according to the present embodiment will be described.
FIG. 4 is an explanatory diagram for explaining an example of the synchronization process according to the present embodiment.
Also in this embodiment, the conversion processing unit 20 (FIG. 2) includes a clock generation unit 224, and the reception processing unit 30 (FIG. 2) includes a clock generation unit 344.

但し、解析部222が実行する処理ブロックR04、R06、R08、R10、R12、R20及びR22のうち、処理ブロックR10及びR12が省略されている。
ここで、解析部222は、第1多重化データから分離された参照開始時刻(reference_start_time)を示す提示時刻情報が示す時刻を補正せずにそのままPMTに多重化する。そして、多重化部230は、そのPMTを多重化して第2多重化データを生成する。(R24:TS化)
However, among the processing blocks R04, R06, R08, R10, R12, R20 and R22 executed by the analysis unit 222, the processing blocks R10 and R12 are omitted.
Here, the analysis unit 222 multiplexes the PMT as it is without correcting the time indicated by the presentation time information indicating the reference start time (reference_start_time) separated from the first multiplexed data. Then, the multiplexing unit 230 multiplexes the PMT to generate the second multiplexing data. (R24: TS conversion)

録画を指示する動作制御信号が入力される場合には、解析部222は、処理ブロックR08で算出した時間差を示す時間差情報(NPT_Diff)を、第2多重化データと対応付けて時間差情報記憶部252に記憶する。動作制御信号が入力されず、通常再生が設定される場合には、解析部222は、処理ブロックR08で算出した時間差を示す時間差情報(NPT_Diff)を、第2多重化データと対応付けて受信処理部30に出力する。 When the operation control signal instructing recording is input, the analysis unit 222 associates the time difference information (NPT_Diff) indicating the time difference calculated by the processing block R08 with the second multiplexed data, and the time difference information storage unit 252. Remember in. When the operation control signal is not input and normal playback is set, the analysis unit 222 receives the time difference information (NPT_Diff) indicating the time difference calculated by the processing block R08 in association with the second multiplexed data. Output to unit 30.

また、同期処理部340が実行する処理ブロックとして、処理ブロックP04、P06、P08、P10及びP12の他、処理ブロックP14が追加されている。
録画再生を指示する動作制御信号が入力される場合には、同期処理部340は、動作制御信号で指示される区間の第2多重化データに対応する時間差情報を時間差情報記憶部252から読み出す。
動作制御信号が入力されず、通常再生が設定される場合には、同期処理部340には、分離部330(図2)に入力される第2多重化データに対応する時間差情報が入力される。
同期処理部340は、処理ブロックP12から出力される参照開始時刻として記述される補正参照開始時刻3に取得した時間差情報が示す時間差を加算して補正参照開始時刻4を算出する。(P14)同期処理部340は、参照した補正参照開始時刻4を記述した参照開始時刻を提示時間情報として付加コンテンツ処理部342に出力する。
Further, as the processing block executed by the synchronous processing unit 340, the processing block P14 is added in addition to the processing blocks P04, P06, P08, P10 and P12.
When the operation control signal instructing the recording / reproduction is input, the synchronization processing unit 340 reads the time difference information corresponding to the second multiplexed data of the section instructed by the operation control signal from the time difference information storage unit 252.
When the operation control signal is not input and normal playback is set, the time difference information corresponding to the second multiplexed data input to the separation unit 330 (FIG. 2) is input to the synchronization processing unit 340. ..
The synchronization processing unit 340 calculates the correction reference start time 4 by adding the time difference indicated by the acquired time difference information to the correction reference start time 3 described as the reference start time output from the processing block P12. (P14) The synchronization processing unit 340 outputs the reference start time describing the referenced correction reference start time 4 to the additional content processing unit 342 as presentation time information.

従って、本実施形態に係る受信装置1は、録画再生時には、録画時に指示された提示時刻を、その時点におけるシステム時刻を基準とする時刻に補正された補正参照開始時刻4に字幕を表示することができる。また、受信装置1は、通常再生時には、受信時に指示された提示時刻を、システム時刻を基準とする時刻に補正された補正参照開始時刻4に字幕を表示することができる。また、本実施形態では、変換処理部20は、字幕の表示に係る参照開始時刻に相当する提示時刻情報を都度、変更する必要がない。そのため、提示時刻情報の変更に係る処理量が過大にならずに済む。 Therefore, the receiving device 1 according to the present embodiment displays the subtitles at the correction reference start time 4 in which the presentation time instructed at the time of recording is corrected to the time based on the system time at that time during recording / playback. Can be done. Further, during normal reproduction, the receiving device 1 can display subtitles at the correction reference start time 4 in which the presentation time instructed at the time of reception is corrected to a time based on the system time. Further, in the present embodiment, the conversion processing unit 20 does not need to change the presentation time information corresponding to the reference start time related to the display of the subtitle each time. Therefore, the amount of processing related to the change of the presentation time information does not become excessive.

以上に説明したように、本実施形態に係る受信装置1は、第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ、音声データならびに記映像データに付加される付加コンテンツに関する付加コンテンツデータ、基準時刻を示す基準時刻情報、システム時刻を示すシステム時刻情報及び付加コンテンツの提示時刻を示す提示時刻情報を分離する分離部330を備える。また、受信装置1は、解析部222、多重化部230及び出力部として出力部240ならびに入出力部242もしくはTS記憶部250ならびに時間差情報記憶部252を備える。
また、受信装置1は、第2多重化方式に対応する分離方式で第2多重化データから音声データ、映像データ及び提示時刻情報を分離し、提示時刻情報が示す提示時刻を時間差情報が示す時間差で補正して補正提示時刻を算出し、補正提示時刻において付加コンテンツデータに関する付加コンテンツを出力する受信処理部30を備える。
As described above, the receiving device 1 according to the present embodiment includes audio data, video data, audio data, and description, which are components of the broadcasting service from the first multiplexing data multiplexed by the first multiplexing method. The separation unit 330 separates the additional content data related to the additional content added to the video data, the reference time information indicating the reference time, the system time information indicating the system time, and the presentation time information indicating the presentation time of the additional content. Further, the receiving device 1 includes an analysis unit 222, a multiplexing unit 230, an output unit 240 as an output unit, an input / output unit 242 or a TS storage unit 250, and a time difference information storage unit 252.
Further, the receiving device 1 separates the audio data, the video data, and the presentation time information from the second multiplexing data by a separation method corresponding to the second multiplexing method, and the time difference information indicates the presentation time indicated by the presentation time information. A reception processing unit 30 is provided which calculates the correction presentation time by correcting with the above and outputs the additional content related to the additional content data at the correction presentation time.

この構成によれば、提示時刻が第1多重化方式、第2多重化方式の制御情報において指定可能である付加コンテンツについて、第2多重化方式の制御情報で伝達された基準時刻を、基準時刻とシステム時刻との時間差で補正した補正提示時刻が得られる。受信処理部30は、システム時刻を基準とする補正提示時刻に付加コンテンツを提示させることができる。そのため、付加コンテンツを提示する時刻である補正提示時刻を音声もしくは映像が提示されるシステム時刻を基準とするタイミングと同期させることができる。また、第1多重化方式の制御情報に含まれる提示時刻情報を補正する必要がないため、補正に係る処理量の増加や設定が回避される。 According to this configuration, for the additional content whose presentation time can be specified in the control information of the first multiplexing method and the second multiplexing method, the reference time transmitted by the control information of the second multiplexing method is set as the reference time. The correction presentation time corrected by the time difference between the time and the system time can be obtained. The reception processing unit 30 can have the additional content presented at the corrected presentation time based on the system time. Therefore, the corrected presentation time, which is the time when the additional content is presented, can be synchronized with the timing based on the system time when the audio or video is presented. Further, since it is not necessary to correct the presentation time information included in the control information of the first multiplexing method, it is possible to avoid an increase or setting of the processing amount related to the correction.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成は上述の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。上述の実施形態において説明した各構成は、任意に組み合わせることができる。 Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to the above-described embodiments, and includes designs and the like within a range that does not deviate from the gist of the present invention. The configurations described in the above embodiments can be arbitrarily combined.

例えば、第2、第3実施形態は、主に付加コンテンツデータが文字データであり、提示時刻情報に相当する時刻が参照開始時刻である場合を例にしたが、これには限られない。付加コンテンツデータは、マルチメディアデータであってもよい。その場合には、提示時刻情報に相当する時刻として、アプリケーション制御情報もしくはアプリケーションに記述された各種の実行時刻(例えば、起動時刻、終了時刻、提示時刻など)が適用されればよい。但し、番組表表示アプリケーションに係る放送時間は、上述した提示時刻情報として補正の対象としなくてもよい。
また、文字データのうち、文字スーパーは、放送される映像や音声と同期させる必要がない、そのため、参照開始時刻が文字スーパーの提示時刻を示す場合には、上述した提示時刻情報として補正の対象としなくてもよい。
付加コンテンツは、文字や映像等の視覚情報に限られず、音声、音楽、効果音等の聴覚情報もしくは視覚情報と聴覚情報の組み合わせであってもよい。
For example, in the second and third embodiments, the case where the additional content data is mainly character data and the time corresponding to the presentation time information is the reference start time is taken as an example, but the present invention is not limited to this. The additional content data may be multimedia data. In that case, various execution times (for example, start time, end time, presentation time, etc.) described in the application control information or the application may be applied as the time corresponding to the presentation time information. However, the broadcast time related to the program guide display application does not have to be corrected as the above-mentioned presentation time information.
Further, among the character data, the character super is not required to be synchronized with the broadcast video or audio. Therefore, when the reference start time indicates the presentation time of the character super, it is subject to correction as the above-mentioned presentation time information. It does not have to be.
The additional content is not limited to visual information such as characters and images, but may be auditory information such as voice, music, and sound effects, or a combination of visual information and auditory information.

また、受信装置1の一部の構成が省略されてもよいし、他の構成が追加されてもよい。例えば、受信装置1において、放送受信部12、復調部14、表示部(図示せず)及び再生部(図示せず)のいずれか又はそれらの任意の組み合わせが省略されてもよい。受信装置1は、受信処理部30、表示部及び再生部を省略して変換装置として構成されてもよい。この変換装置からは、さらに放送受信部12と復調部14が省略されてもよい。
また、変換処理部20において、ローカル暗号化部208、TLV記憶部210、及びローカル復号部212が省略されてもよい。
Further, a part of the configuration of the receiving device 1 may be omitted, or another configuration may be added. For example, in the receiving device 1, any one of the broadcast receiving unit 12, the demodulating unit 14, the display unit (not shown) and the reproducing unit (not shown), or any combination thereof may be omitted. The receiving device 1 may be configured as a conversion device by omitting the receiving processing unit 30, the display unit and the reproducing unit. The broadcast receiving unit 12 and the demodulating unit 14 may be further omitted from this conversion device.
Further, in the conversion processing unit 20, the local encryption unit 208, the TLV storage unit 210, and the local decryption unit 212 may be omitted.

第2、第3の実施形態において、TS記憶部250は、変換処理部20、受信処理部30とは独立の構成であってもよいし、変換処理部20又は受信処理部30の一部として構成されてもよい。
また、第3の実施形態において、時間差情報記憶部252は、変換処理部20、受信処理部30とは独立の構成であってもよいし、変換処理部20又は受信処理部30の一部として構成されてもよい。TS記憶部250は、時間差情報記憶部252と一体に構成されてもよいし、別体であってもよい。
In the second and third embodiments, the TS storage unit 250 may have a configuration independent of the conversion processing unit 20 and the reception processing unit 30, or may be a part of the conversion processing unit 20 or the reception processing unit 30. It may be configured.
Further, in the third embodiment, the time difference information storage unit 252 may have a configuration independent of the conversion processing unit 20 and the reception processing unit 30, or may be a part of the conversion processing unit 20 or the reception processing unit 30. It may be configured. The TS storage unit 250 may be integrally configured with the time difference information storage unit 252, or may be a separate body.

なお、上述した発明は、次の態様でも実施することができる。
(1)第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ及び前記音声データならびに映像データに付加される付加コンテンツデータを分離する分離部と、前記音声データ及び前記映像データを前記第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する多重化部と、前記第2多重化データと前記付加コンテンツデータをそれぞれ出力する出力部と、を備える受信装置。
The invention described above can also be carried out in the following aspects.
(1) Separation unit that separates audio data, video data, and additional content data added to the audio data and video data, which are components of the broadcasting service, from the first multiplexing data multiplexed by the first multiplexing method. A multiplexing unit that generates the second multiplexing data by multiplexing the audio data and the video data by a second multiplexing method different from the first multiplexing method, the second multiplexing data, and the above. A receiving device including an output unit for outputting additional content data.

(2)前記第2多重化方式に対応する分離方式で前記第2多重化データから前記音声データと前記映像データを分離し、前記付加コンテンツデータに基づく付加コンテンツと少なくとも前記映像データが示す映像もしくは前記音声データが示す音声のいずれかを重畳する受信処理部を備える(1)の受信装置。 (2) The audio data and the video data are separated from the second multiplexing data by a separation method corresponding to the second multiplexing method, and the additional content based on the additional content data and at least the video indicated by the video data or The receiving device of (1) including a receiving processing unit that superimposes any of the voices indicated by the voice data.

(3)前記分離部は、前記第1多重化データから基準時刻を示す基準時刻情報をさらに分離し、前記受信処理部は、システム時刻と前記基準時刻との時間差を検出し、前記付加コンテンツの提示時刻を前記時間差で補正した時刻に、前記付加コンテンツを提示する(2)の受信装置。 (3) The separation unit further separates the reference time information indicating the reference time from the first multiplexed data, and the reception processing unit detects the time difference between the system time and the reference time to obtain the additional content. The receiving device of (2) that presents the additional content at a time obtained by correcting the presentation time by the time difference.

(4)前記分離部は、前記第1多重化データから放送チャンネルに関するチャンネル情報と、前記放送チャンネルで放送される番組に関する番組情報をさらに分離し、前記受信処理部は、前記放送チャンネル毎の番組情報を示す番組表情報を前記映像を合成する(2)又は(3)の受信装置。 (4) The separation unit further separates the channel information related to the broadcast channel and the program information related to the program broadcast on the broadcast channel from the first multiplexing data, and the reception processing unit further separates the program for each broadcast channel. The receiving device according to (2) or (3), which synthesizes the video with the program guide information indicating the information.

(5)前記付加コンテンツデータは、前記放送サービスに関連するコンテンツを再生するためのマルチメディアデータを含む(1)から(4)のいずれかの受信装置。 (5) The receiving device according to any one of (1) to (4), wherein the additional content data includes multimedia data for reproducing content related to the broadcasting service.

(6)前記付加コンテンツデータは、文字を示す文字データを含む(1)から(5)のいずれかの受信装置。 (6) The receiving device according to any one of (1) to (5), wherein the additional content data includes character data indicating characters.

(7)前記第1多重化方式は、Type−length−value/MPEG Media Transport方式であり、前記第2多重化方式は、MPEG−2 Transport Stream方式である(1)から(6)のいずれかの受信装置。 (7) The first multiplexing method is a Type-length-value / MPEG Media Transport method, and the second multiplexing method is an MPEG-2 Transport Stream method, which is any one of (1) to (6). Receiver.

(8)受信装置における受信方法であって、前記受信装置が、第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ及び前記音声データならびに映像データに付加される付加コンテンツデータを分離する分離ステップと、前記音声データ及び前記映像データを前記第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する多重化ステップと、前記第2多重化データと前記付加コンテンツデータをそれぞれ出力する出力ステップと、を有する受信方法。 (8) A receiving method in a receiving device, wherein the receiving device uses the first multiplexing data multiplexed by the first multiplexing method to obtain audio data, video data, and the audio data which are components of a broadcasting service. A separation step for separating the additional content data added to the video data, and multiplexing of the audio data and the video data by a second multiplexing method different from the first multiplexing method to generate the second multiplexing data. A receiving method including a multiplexing step for outputting the second multiplexing data and an output step for outputting the additional content data, respectively.

(9)受信装置のコンピュータに、第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ及び前記音声データならびに映像データに付加される付加コンテンツデータを分離する分離手順、前記音声データ及び前記映像データを前記第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する多重化手順、前記第2多重化データと前記付加コンテンツデータをそれぞれ出力する出力手順、を実行させるためのプログラム。 (9) Audio data, video data, and additional content added to the audio data and video data, which are components of the broadcasting service, from the first multiplexing data multiplexed by the first multiplexing method on the computer of the receiving device. Separation procedure for separating data, multiplexing procedure for generating second multiplexing data by multiplexing the audio data and the video data by a second multiplexing method different from the first multiplexing method, the second multiplexing. A program for executing an output procedure for outputting the conversion data and the additional content data, respectively.

また、上述の変換処理部20、受信処理部30の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより変換処理部20及び受信処理部30を実現してもよい。当該プログラムは、上述の実施形態において説明したアプリケーションプログラムとは別個のプログラムであるが、その一部の機能が当該アプリケーションプログラムに基づいて実現されてもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。 Further, a program for realizing the functions of the conversion processing unit 20 and the reception processing unit 30 described above is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into the computer system and executed. As a result, the conversion processing unit 20 and the reception processing unit 30 may be realized. Although the program is a program separate from the application program described in the above-described embodiment, some functions thereof may be realized based on the application program. Here, "loading and executing a program recorded on a recording medium into a computer system" includes installing the program in the computer system. The term "computer system" as used herein includes hardware such as an OS and peripheral devices. Further, the "computer system" may include a plurality of computer devices connected via a network including a communication line such as the Internet, WAN, LAN, and a dedicated line.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部または外部に設けられた記録媒体も含まれる。配信サーバの記録媒体に記憶されるプログラムのコードは、端末装置で実行可能な形式のプログラムのコードと異なるものでもよい。すなわち、配信サーバからダウンロードされて端末装置で実行可能な形でインストールができるものであれば、配信サーバで記憶される形式は問わない。 Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, or a storage device such as a hard disk built in a computer system. As described above, the recording medium in which the program is stored may be a non-transient recording medium such as a CD-ROM. The recording medium also includes an internal or external recording medium that can be accessed from the distribution server to distribute the program. The code of the program stored in the recording medium of the distribution server may be different from the code of the program in a format that can be executed by the terminal device. That is, the format stored in the distribution server does not matter as long as it can be downloaded from the distribution server and installed in a form that can be executed by the terminal device.

なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に端末装置で一体化する構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えば、RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 The program may be divided into a plurality of parts, downloaded at different timings, and then integrated with the terminal device, or the distribution server for distributing each of the divided programs may be different. Furthermore, a "computer-readable recording medium" is a volatile memory (for example, RAM) inside a computer system that serves as a server or client when a program is transmitted via a network, and holds the program for a certain period of time. It shall also include those that are. Further, the above program may be for realizing a part of the above-mentioned functions. Further, it may be a so-called difference file (difference program) that can realize the above-mentioned function in combination with a program already recorded in the computer system.

1…受信装置、12…放送受信部、14…復調部、20…変換処理部、30…受信処理部、202…入力部、204…復号部、206…デスクランブル部、208…ローカル暗号化部、210…TLV記憶部、212…ローカル復号部、214…変換部、220…分離部、222…解析部、230…多重化部、232…SI管理部、234…NTP管理部、236…TTML管理部、238…HTML管理部、240…出力部、242…入出力部、250…TS記憶部、252…時間差情報記憶部、320…入力部、322…入出力部、324…通信部、330…分離部、332…映像復号部、334…映像合成部、336…音声復号部、338…音声ミキシング部、340…同期処理部、342…付加コンテンツ処理部 1 ... Receiver, 12 ... Broadcast receiver, 14 ... Demodulation unit, 20 ... Conversion processing unit, 30 ... Reception processing unit, 202 ... Input unit, 204 ... Decryption unit, 206 ... Desk rumble unit, 208 ... Local encryption unit , 210 ... TLV storage unit, 212 ... local decoding unit, 214 ... conversion unit, 220 ... separation unit, 222 ... analysis unit, 230 ... multiplexing unit, 232 ... SI management unit, 234 ... NTP management unit, 236 ... TTML management Unit, 238 ... HTML management unit, 240 ... output unit, 242 ... input / output unit, 250 ... TS storage unit, 252 ... time difference information storage unit, 320 ... input unit, 322 ... input / output unit, 324 ... communication unit, 330 ... Separation unit, 332 ... Video decoding unit, 334 ... Video synthesis unit, 336 ... Audio decoding unit, 338 ... Audio mixing unit, 340 ... Synchronous processing unit, 342 ... Additional content processing unit

Claims (7)

第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ及び前記音声データならびに映像データに付加される付加コンテンツデータを分離する分離部と、
前記音声データ及び前記映像データを前記第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する多重化部と、
前記第2多重化データと前記付加コンテンツデータをそれぞれ出力する出力部と、
前記第2多重化方式に対応する分離方式で前記第2多重化データから前記音声データと前記映像データを分離し、
前記付加コンテンツデータに基づく付加コンテンツと少なくとも前記映像データが示す映像もしくは前記音声データが示す音声のいずれかを重畳する受信処理部と、
を備え
前記分離部は、
前記第1多重化データから基準時刻を示す基準時刻情報をさらに分離し、
前記受信処理部は、
システム時刻と前記基準時刻との時間差を検出し、
前記付加コンテンツの提示時刻を前記時間差で補正した時刻に、前記付加コンテンツを提示する
信装置。
A separation unit that separates audio data, video data, and additional content data added to the audio data and video data, which are components of the broadcasting service, from the first multiplexing data multiplexed by the first multiplexing method.
A multiplexing unit that generates the second multiplexing data by multiplexing the audio data and the video data by a second multiplexing method different from the first multiplexing method.
An output unit that outputs the second multiplexed data and the additional content data, respectively.
The audio data and the video data are separated from the second multiplexing data by a separation method corresponding to the second multiplexing method.
A reception processing unit that superimposes the additional content based on the additional content data and at least either the video indicated by the video data or the audio indicated by the audio data.
Equipped with a,
The separation part
The reference time information indicating the reference time is further separated from the first multiplexed data, and the reference time information is further separated.
The reception processing unit
Detects the time difference between the system time and the reference time,
The additional content is presented at a time obtained by correcting the presentation time of the additional content by the time difference.
RECEIVER.
前記分離部は、
前記第1多重化データから放送チャンネルに関するチャンネル情報と、前記放送チャンネルで放送される番組に関する番組情報をさらに分離し、
前記受信処理部は、
前記放送チャンネル毎の番組情報を示す番組表情報と前記映像を合成する
請求項に記載の受信装置。
The separation part
The channel information related to the broadcast channel and the program information related to the program broadcast on the broadcast channel are further separated from the first multiplexed data.
The reception processing unit
The receiving device according to claim 1 , wherein the program guide information indicating the program information for each broadcast channel and the video are combined.
前記付加コンテンツデータは、前記放送サービスに関連するコンテンツを再生するためのマルチメディアデータを含む
請求項1または請求項2に記載の受信装置。
The receiving device according to claim 1 or 2 , wherein the additional content data includes multimedia data for reproducing content related to the broadcasting service.
前記付加コンテンツデータは、文字を示す文字データを含む
請求項1から請求項のいずれか一項に記載の受信装置。
The receiving device according to any one of claims 1 to 3 , wherein the additional content data includes character data indicating characters.
前記第1多重化方式は、Type−length−value/MPEG Media Transport方式であり、
前記第2多重化方式は、MPEG−2 Transport Stream方式である
請求項1から請求項のいずれか一項に記載の受信装置。
The first multiplexing method is a Type-length-value / MPEG Media Transport method.
The receiving device according to any one of claims 1 to 4 , wherein the second multiplexing method is an MPEG-2 Transport Stream method.
受信装置における受信方法であって、
前記受信装置が、
第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ及び前記音声データならびに映像データに付加される付加コンテンツデータを分離する分離ステップと、
前記音声データ及び前記映像データを前記第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する多重化ステップと、
前記第2多重化データと前記付加コンテンツデータをそれぞれ出力する出力ステップと、
前記第2多重化方式に対応する分離方式で前記第2多重化データから前記音声データと前記映像データを分離し、
前記付加コンテンツデータに基づく付加コンテンツと少なくとも前記映像データが示す映像もしくは前記音声データが示す音声のいずれかを重畳する受信処理ステップと、
実行し、
前記分離ステップは、
前記第1多重化データから基準時刻を示す基準時刻情報をさらに分離し、
前記受信処理ステップは、
システム時刻と前記基準時刻との時間差を検出し、
前記付加コンテンツの提示時刻を前記時間差で補正した時刻に、前記付加コンテンツを提示する
受信方法。
It is a receiving method in the receiving device.
The receiving device
A separation step for separating audio data, video data, and additional content data added to the audio data and video data, which are components of the broadcasting service, from the first multiplexing data multiplexed by the first multiplexing method.
A multiplexing step of generating the second multiplexing data by multiplexing the audio data and the video data by a second multiplexing method different from the first multiplexing method.
An output step for outputting the second multiplexed data and the additional content data, respectively.
The audio data and the video data are separated from the second multiplexing data by a separation method corresponding to the second multiplexing method.
A reception processing step of superimposing the additional content based on the additional content data and at least either the video indicated by the video data or the audio indicated by the audio data.
The execution,
The separation step
The reference time information indicating the reference time is further separated from the first multiplexed data, and the reference time information is further separated.
The reception processing step
Detects the time difference between the system time and the reference time,
A receiving method for presenting the additional content at a time obtained by correcting the presentation time of the additional content by the time difference.
受信装置のコンピュータに、
第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ及び前記音声データならびに映像データに付加される付加コンテンツデータを分離する分離手順、
前記音声データ及び前記映像データを前記第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する多重化手順、
前記第2多重化データと前記付加コンテンツデータをそれぞれ出力する出力手順、
前記第2多重化方式に対応する分離方式で前記第2多重化データから前記音声データと前記映像データを分離し、
前記付加コンテンツデータに基づく付加コンテンツと少なくとも前記映像データが示す映像もしくは前記音声データが示す音声のいずれかを重畳する受信処理手順、
を実行させるためのプログラムであって、
前記分離手順は、
前記第1多重化データから基準時刻を示す基準時刻情報をさらに分離し、
前記受信処理手順は、
システム時刻と前記基準時刻との時間差を検出し、
前記付加コンテンツの提示時刻を前記時間差で補正した時刻に、前記付加コンテンツを提示する
プログラム。
To the computer of the receiving device
A separation procedure for separating audio data, video data, and additional content data added to the audio data and video data, which are components of the broadcasting service, from the first multiplexing data multiplexed by the first multiplexing method.
A multiplexing procedure for generating second multiplexing data by multiplexing the audio data and the video data by a second multiplexing method different from the first multiplexing method.
Output procedure for outputting the second multiplexed data and the additional content data, respectively.
The audio data and the video data are separated from the second multiplexing data by a separation method corresponding to the second multiplexing method.
A reception processing procedure that superimposes the additional content based on the additional content data and at least either the video indicated by the video data or the audio indicated by the audio data.
A program for executing,
The separation procedure
The reference time information indicating the reference time is further separated from the first multiplexed data, and the reference time information is further separated.
The reception processing procedure is
Detects the time difference between the system time and the reference time,
A program for presenting the additional content at a time obtained by correcting the presentation time of the additional content by the time difference.
JP2017167840A 2017-08-31 2017-08-31 Receiver, receiving method and program Active JP6953238B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017167840A JP6953238B2 (en) 2017-08-31 2017-08-31 Receiver, receiving method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017167840A JP6953238B2 (en) 2017-08-31 2017-08-31 Receiver, receiving method and program

Publications (2)

Publication Number Publication Date
JP2019047292A JP2019047292A (en) 2019-03-22
JP6953238B2 true JP6953238B2 (en) 2021-10-27

Family

ID=65814780

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017167840A Active JP6953238B2 (en) 2017-08-31 2017-08-31 Receiver, receiving method and program

Country Status (1)

Country Link
JP (1) JP6953238B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX2013014347A (en) * 2011-06-15 2014-01-31 Sony Corp Receiver device, terminal device, control method, program, and communication system.
US20150113558A1 (en) * 2012-03-14 2015-04-23 Panasonic Corporation Receiver apparatus, broadcast/communication-cooperation system, and broadcast/communication-cooperation method
JP6302274B2 (en) * 2014-02-07 2018-03-28 日本放送協会 Transmitting apparatus and receiving apparatus
JP2017034343A (en) * 2015-07-29 2017-02-09 日立マクセル株式会社 Broadcast receiver
JP6986671B2 (en) * 2015-10-07 2021-12-22 パナソニックIpマネジメント株式会社 Receiver and receiving method

Also Published As

Publication number Publication date
JP2019047292A (en) 2019-03-22

Similar Documents

Publication Publication Date Title
JP5903924B2 (en) Receiving apparatus and subtitle processing method
CN1328724C (en) System and method for time synchronization between multimedia content and segment metadata
WO2014188960A1 (en) Transmission device, transmission method, reception device and reception method
JP4248703B2 (en) Stream multiplexing device, data broadcasting device
JP2004297628A (en) Stream switching apparatus and apparatus for providing contents thereto
JP2002112237A (en) Digital broadcast receiver
JP2018182677A (en) Information processing apparatus, information processing method, program, and recording medium manufacturing method
US7434248B2 (en) Broadcast system and apparatus, sync information replacing apparatus and method, program, and recording medium recording the program
JP6953238B2 (en) Receiver, receiving method and program
JP6836971B2 (en) Receiver, receiver method and program
JP7477116B2 (en) Apparatus and method for distributing broadcast services over a communication network
JP4689231B2 (en) Transport stream switching device
EP3280147A1 (en) Method and apparatus for transmitting and receiving broadcast signal
JP2013115630A (en) Reproduction apparatus, reproduction method, and program
JP4197078B2 (en) Video / audio partial reproduction method and receiver in storage type digital broadcasting
JP4242525B2 (en) Video / audio partial playback method and receiver in digital broadcasting
US20120131620A1 (en) Control apparatus and control method
JP2004088366A (en) Digital broadcast receiver and digital broadcast system
JP5870718B2 (en) Receiving device, receiving method and program
JP6515741B2 (en) Content transmission system, transmission apparatus, transmission method, transmission program
JP2023119869A (en) Reception device, broadcasting system, reception method, and program
JP6596363B2 (en) Time mapping information generation apparatus, synchronized playback system, time mapping information generation method, and time mapping information generation program
JP4260534B2 (en) Recording / reproducing apparatus and method for digital broadcasting
JP2014060625A (en) Video signal transmission method, video signal receiver, and video signal reception method
JP2019186732A (en) Recorder and playback method of recorded information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210929

R150 Certificate of patent or registration of utility model

Ref document number: 6953238

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150