JP6836971B2 - Receiver, receiver method and program - Google Patents
Receiver, receiver method and program Download PDFInfo
- Publication number
- JP6836971B2 JP6836971B2 JP2017167841A JP2017167841A JP6836971B2 JP 6836971 B2 JP6836971 B2 JP 6836971B2 JP 2017167841 A JP2017167841 A JP 2017167841A JP 2017167841 A JP2017167841 A JP 2017167841A JP 6836971 B2 JP6836971 B2 JP 6836971B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- time
- multiplexing
- unit
- additional content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、受信装置、受信方法及びプログラムに関する。 The present invention relates to a receiving device, a receiving method and a program.
日本の高度広帯域衛星放送などで採用されたMMT(MPEG Media Transport)方式は、映像・音声・マルチメディアデータなどを放送、通信などの伝送経路に関わらず、伝送するための多重化方式である。MMT方式は、従来のMPEG−2システム(Moving Picture Expert Group−2 Systems)よりも放送と通信との協調に好都合である。MMT方式を採用することで、視聴者にとってより便利なサービスを提供することが可能となった。例えば、マルチメディアサービスをHTML5(Hyper Text Modeling Language)コンテンツとして多重化して提供することができる。マルチメディアサービスでは、視聴者は所望の形態でコンテンツを表示させることや、通信を介して種々の形態のコンテンツをより多くの選択肢から選択することができる。 The MMT (MPEG Media Transport) method adopted in Japan's advanced broadband satellite broadcasting is a multiplexing method for transmitting video, audio, multimedia data, etc. regardless of the transmission path such as broadcasting and communication. The MMT method is more convenient for cooperation between broadcasting and communication than the conventional MPEG-2 system (Moving Picture Expert Group-2 Systems). By adopting the MMT method, it has become possible to provide more convenient services for viewers. For example, the multimedia service can be multiplexed and provided as HTML5 (HyperText Modeling Language) content. In the multimedia service, the viewer can display the content in a desired form and can select various forms of the content from more options via communication.
現状では、MMT方式は普及途上であり、MMTに対応した製品やシステムの開発は始まったばかりである。特にテレビジョン受信装置の構成システムの中核をなすLSI(Large Scale Integrated Circuit)、受信信号からMMTの解析を行い、各種のサービスに要するマルチメディアデータを抽出し、処理する能力を備えるものは少ない。このようなLSIは、SoC(System on Chip)と呼ばれる。現在普及しているSoCでは、MPEG−2システムで規定されたMPEG−2 TS(Transport Stream)方式に対応したSoCが主流である。 At present, the MMT method is in the process of becoming widespread, and the development of products and systems compatible with MMT has just begun. In particular, few LSIs (Large Scale Integrated Circuits), which form the core of the configuration system of a television receiver, have the ability to analyze MMT from received signals and extract and process multimedia data required for various services. Such an LSI is called a SoC (System on Chip). In the currently popular SoC, the SoC corresponding to the MPEG-2 TS (Transport Stream) system defined by the MPEG-2 system is the mainstream.
また、従来のMPEG−2 TS方式を用いて提供される既存の放送サービスは、当面の間継続することに決められている。そのため、受信装置に備えられるSoCは、MPEG−2 TS方式に対応することが求められる。このような状況に鑑みて、例えば、MMT方式で多重化された多重化データを、MPEG−2 TS方式で多重化された多重化データに変換する受信装置が提案されている(特許文献1)。 In addition, existing broadcasting services provided using the conventional MPEG-2 TS system have been decided to continue for the time being. Therefore, the SoC provided in the receiving device is required to support the MPEG-2 TS system. In view of such a situation, for example, a receiving device that converts the multiplexed data multiplexed by the MMT method into the multiplexed data multiplexed by the MPEG-2 TS method has been proposed (Patent Document 1). ..
しかしながら、従来のMPEG−2 TS方式で多重化された多重化データを録画もしくはコンテンツを再生する際、映像や音声に多重化されるデータの互換性が確保されないことがある。例えば、MMT方式の多重化データから分離された字幕データのMPEG−2 TS方式の字幕ES(Elementary Stream)データへの変換前後での文字コードの互換性は完全ではない。そのため、従来の方式では字幕が再現されないことがある。 However, when recording the multiplexed data multiplexed by the conventional MPEG-2 TS method or playing back the content, the compatibility of the data multiplexed with the video or audio may not be ensured. For example, the compatibility of character codes before and after conversion of subtitle data separated from MMT-type multiplexed data into MPEG-2 TS-type subtitle ES (Emergent Stream) data is not perfect. Therefore, the subtitles may not be reproduced by the conventional method.
他方、MPEG−2 TS方式では、TTML(Timed Text Markup Language)で記述された字幕データを多重化、伝送する手段が規格化されている。但し、MPEG−2 TS方式で多重化された多重化データからのコンテンツの録画再生の際、字幕データと、映像データや音声データなどとの同期方法については、明確に規定されていない。例えば、MPEG−2 TS方式で多重化された多重化データでは、NTP(Network Time Protocol)に基づく時刻の同期をとることができない。従って、TTML字幕データに記述された表示開始時刻において他のデータと同期再生できないことがある。 On the other hand, in the MPEG-2 TS system, a means for multiplexing and transmitting subtitle data described in TTML (Timed Text Markup Language) is standardized. However, when recording and reproducing content from multiplexed data multiplexed by the MPEG-2 TS method, the method of synchronizing the subtitle data with the video data, audio data, and the like is not clearly defined. For example, in the multiplexed data multiplexed by the MPEG-2 TS method, it is not possible to synchronize the time based on NTP (Network Time Protocol). Therefore, it may not be possible to synchronize playback with other data at the display start time described in the TTML subtitle data.
本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ、前記音声データならびに前記映像データに付加される付加コンテンツに関する付加コンテンツデータ、基準時刻を示す基準時刻情報、システム時刻を示すシステム時刻情報及び前記付加コンテンツの提示時刻を示す提示時刻情報を分離する分離部と、前記提示時刻を、前記基準時刻と前記システム時刻との時間差で補正した補正提示時刻を算出する解析部と、前記音声データ、前記映像データ及び前記補正提示時刻を示す補正提示時刻情報を前記第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する多重化部と、前記第2多重化データと前記付加コンテンツデータをそれぞれ出力する出力部と、を備える受信装置である。 The present invention has been made to solve the above problems, and one aspect of the present invention is from the first multiplexing data multiplexed by the first multiplexing method to audio data which is a component of a broadcasting service. Separates video data, additional content data related to the audio data and additional content added to the video data, reference time information indicating the reference time, system time information indicating the system time, and presentation time information indicating the presentation time of the additional content. The separation unit, the analysis unit that calculates the correction presentation time obtained by correcting the presentation time by the time difference between the reference time and the system time, and the correction presentation time indicating the audio data, the video data, and the correction presentation time. A multiplexing unit that multiplies information by a second multiplexing method different from the first multiplexing method to generate second multiplexing data, and an output that outputs the second multiplexing data and the additional content data, respectively. It is a receiving device including a unit.
本発明の実施形態によれば、従来の第2多重化方式を採用した機器において、第1多重化方式で多重化された受信信号に基づく付加コンテンツと、映像もしくは音声を同期させることができる。 According to the embodiment of the present invention, in the device adopting the conventional second multiplexing method, the video or audio can be synchronized with the additional content based on the received signal multiplexed by the first multiplexing method.
以下、本発明の実施形態について、図面を参照して説明する。
[第1の実施形態]
まず、本発明の第1の実施形態に係る受信装置1の概要について説明する。
図1は、本実施形態に係る受信装置1の機能構成例を示す概略ブロック図である。
受信装置1は、放送受信部12と、復調部14と、変換処理部20と、受信処理部30と、を含んで構成される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
First, an outline of the
FIG. 1 is a schematic block diagram showing a functional configuration example of the
The
放送受信部12は、送信装置(図示せず)から放送伝送路を介して伝送された放送信号を儒受信信号として受信する。放送伝送路は、放送信号を不特定多数の受信装置に一方的かつ一斉に送信する伝送路である。放送伝送路は、所定の周波数帯域の放送波である。放送伝送路には、その一部にネットワーク、専用回線など、有線又は無線の通信回線が含まれてもよい。放送受信部12は、動作制御部(図示せず)から入力される制御信号で指示される放送チャンネルに対応する周波数帯域の放送信号を受信する。動作制御部は、例えば、ユーザの操作に応じて遠隔制御装置(リモコン)から入力される操作信号を制御信号として放送受信部12に出力する。動作制御部は、変換処理部20、受信処理部30のいずれかに設けられてもよいし、そのいずれとの独立に設けされてもよい。
受信信号は、IF(Intermediate Frequency)信号であってもよい。放送受信部12は、例えば、チューナである。放送受信部12は、受信した放送信号を基底帯域(ベースバンド)の放送信号にダウンコンバートして得られる放送信号を復調部14に出力する。
The
The received signal may be an IF (Intermediate Frequency) signal. The
復調部14は、放送受信部12から入力される放送信号を所定の復調方式を用いて復調し、所定の多重化方式で多重化された多重化データに変換する。復調方式は、送信装置において用いられた変調方式(例えば、8PSK:8 Phase Shift Keying(八相位相変調)、APSK:Amplitude and Phase Shift Keying(振幅位相変調))に対応する復調方式であればよい。多重化データは、例えば、TLV(Type−length−value)ストリームである。TLVストリームは、TLV/MMT方式により多重化された一連のTLVパケットからなるデータストリームである。TLV/MMT方式による多重化処理は、MMT方式による多重化と、TLV方式による多重化を含む。なお、TLV方式、MMT方式は、トランスポート方式(伝送方式)とみなされることもある。復調部14は、生成した多重化データを変換処理部20に出力する。復調部14は、例えば、復調器である。
The
変換処理部20は、復調部14から入力される多重化データを放送サービスの構成要素である音声データ、映像データ、付加コンテンツデータ及び放送に係る付加データに分離する。付加コンテンツデータは、放送サービスで提供される音声ならびに映像に付加される付加コンテンツに係るデータである。付加コンテンツは、音声ならび映像以外のコンテンツである。付加コンテンツデータには、例えば、映像に重畳させる文字を示す文字データ、マルチメディアデータ、等のいずれか又はこれらの組み合わせが含まれる。付加データには、受信処理に係る制御情報と基準時刻を示す基準時刻情報が含まれる。変換処理部20は、入力された多重化データの多重化に用いた第1多重化方式とは別個の多重化方式である第2多重化方式(例えば、MPEG−2 TS方式)で、分離した音声データと映像データとを多重化して第2多重化データを生成する。
The
以下の説明では、変換処理部20に復調部14から入力される多重化データを第1多重化データと呼び、第2多重化データと区別する。変換処理部20は、生成した第2多重化データ及び付加コンテンツデータを受信処理部30に出力する。
変換処理部20は、CPU(Central Processing Unit)等の汎用もしくは専用の演算デバイスを含んで構成されてもよい。演算デバイスは、所定の制御プログラムに記述された命令で指示される処理を実行することにより、その機能を実現してもよい。
In the following description, the multiplexed data input from the
The
受信処理部30は、変換処理部20から入力される第2多重化データから第2多重化方式に対応する分離方式で音声データと映像データを分離する。受信処理部30は、分離した音声データを所定の音声復号方式(例えば、MPEG−4 AUDIO)で音声信号に復号する。受信処理部30は、分離した映像データを所定の映像復号方式(例えば、HEVC:High Efficiency Video Coding)で映像信号に復号する。
The
また、受信処理部30は、変換処理部20から入力される付加コンテンツデータに基づいて付加コンテンツを構成する。構成される付加コンテンツに視覚情報が含まれる場合には、受信処理部30は、その視覚情報を映像データに合成し、合成した映像データを表示部(図示せず)に出力する。視覚情報は、視認可能とする情報、例えば、動画像、静止画像、文字、記号、図形などが含まれる。構成される付加コンテンツに聴覚情報が含まれる場合には、受信処理部30は、その聴覚情報を音声データに合成し、合成した音声データを再生部(図示せず)に出力する。聴覚情報は、受聴可能とする情報、例えば、発話音声、動作音、効果音、音楽などが含まれる。
受信処理部30は、例えば、専用の演算デバイスを含んで構成される集積回路、いわゆるSoCである。
Further, the
The
次に、変換処理部20の機能構成について説明する。
変換処理部20は、入力部202と、復号部204と、デスクランブル部206と、ローカル暗号化部208と、TLV記憶部210と、ローカル復号部212と、変換部214と、分離部220と、解析部222と、多重化部230と、SI管理部232と、NTP管理部234と、TTML管理部236と、HTML管理部238と、出力部240と、入出力部242と、を含んで構成される。
Next, the functional configuration of the
The
入力部202には、復調部14から第1多重化データが入力され、入力された第1多重化データを復号部204に出力する。入力部202は、例えば、データ入力インタフェースである。
The first multiplexing data is input to the
復号部204には、入力部202から第1多重化データが入力される。入力部202から入力される多重化データは、所定の暗号化方式(例えば、AES:Advanced Encryption Standard)暗号化され、さらに誤り訂正符号が付加されている。誤り訂正符号は、例えば、BCH(Bose Chaudhuri Hocquenghem)符号とLDPC(Low Density Parity Check)符号である。復号部204は、付加された誤り訂正符号を用いて暗号化された第1多重化データについて誤り訂正処理を行う。復号部204は、誤り訂正処理を行って得られた第1多重化データについて復号処理を行い、暗号化されていない第1多重化データに変換する。復号処理に用いられる復号方式は、暗号化に用いられる暗号化方式に対応する方式であればよい。復号部204は、変換した第1多重化データをデスクランブル部206に出力する。
The first multiplexed data is input to the
デスクランブル部206には、復号部204から第1多重化データが入力される。デスクランブル部206に入力される第1多重化データは、スクランブルされた多重化データである。デスクランブル部206は、デスクランブル(スクランブルを解除)するための鍵情報を用いて第1多重化データをデスクランブルし、デスクランブルした多重化データをローカル暗号化部208又は変換部214に出力する。より具体的には、デスクランブル部206は、予め設定された識別情報を用いて個別情報(EMM:Entitlement Management Message)の暗号化を解除し、加入者ごとの契約情報や共通情報(ECM:Entitlement Control Message)の暗号化を解除(復号)するためのワーク鍵を生成する。デスクランブル部206は、生成したワーク鍵を用いて、第1多重化データを構成する付加データに含まれる共通情報(ECM)の暗号化を解除し、暗号化が解除されたデスクランブル鍵を抽出する。デスクランブル部206は、抽出したデスクランブル鍵を用いて多重化データをデスクランブルする。デスクランブル部206は、デスクランブルした多重化データを変換部214に出力する。
The first multiplexed data is input from the
なお、受信装置1の動作を制御する動作制御部(図示せず)から入力される制御信号により録画が指示される場合には、デスクランブル部206は、デスクランブルした第1多重化データをローカル暗号化部208に出力してもよい。
When recording is instructed by a control signal input from an operation control unit (not shown) that controls the operation of the receiving
ローカル暗号化部208は、デスクランブル部206から入力される第1多重化データを所定の暗号化方式で暗号化して暗号化された第1多重化データを生成し、生成した第1多重化データをTLV記憶部210に記憶する。
従って、TLV記憶部210には、暗号化されたTLVストリームが記憶される。TLV記憶部210は、例えば、HDD(Hard Disk Drive)などの記憶媒体を含んで構成される。
The
Therefore, the encrypted TLV stream is stored in the
ローカル復号部212は、動作制御部(図示せず)から入力される制御信号で指示される区間のTLVストリームを順次読み出し、読み出したTLVストリームをなす第1多重化データを復号する。ローカル復号部212が用いる復号方式は、ローカル暗号化部208が暗号化に用いた暗号化方式に対応する復号方式であればよい。ローカル復号部212は、復号した暗号化データを変換部214に出力する。
The
変換部214は、デスクランブル部206又はローカル復号部212から入力される第1多重化データの形式をTLVストリームからMMTPパケットに変換し、形式を変換した第1多重化データを分離部220に出力する。ここで、変換部214は、TLVストリームを構成する各TLVパケットからIP(Internet Protocol)パケットを抽出する。変換部214は、抽出したIPパケットからさらにMMTP(MMT Protocol)パケットとNTP(Network Time Protocol)形式の時刻情報を格納したIPパケット(以下、NTPパケット)を抽出する。MMTPパケットには、MMT方式により多重化される種々の細分化されたデータが格納される。NTPパケットには、基準時刻を示す時刻情報である基準時刻情報が格納される。基準時刻は、例えば、協定世界時(UTC:Coordinated Universal Time)を基準とする所定時間毎の送信時刻が用いられる。NTPパケットでは、基準時刻情報は、その時刻のタイムスタンプで表される。変換部214は、抽出したMMTPパケットとNTPパケットを分離部220に順次出力する。
The
分離部220は、変換部214から入力される第1多重化データから放送サービスの構成要素(アセット)となる音声を示す音声データ、映像を示す映像データ、付加コンテンツを示す付加コンテンツデータ及び制御情報を分離する。付加コンテンツは、音声ならび映像以外のコンテンツである。付加コンテンツデータには、例えば、映像に重畳させる文字を示す文字データ、マルチメディアデータ、等のいずれか又はこれらの組み合わせが含まれる。文字データは、放送サービスで提供される音声や映像に関連する内容を示す文字列を示すデータ(字幕)であってもよいし、それらの音声や映像とは独立な内容を示す文字列を示すデータ(文字スーパー、非同期字幕)であってもよい。
From the first multiplexed data input from the
文字データは、例えば、TTML(Timed Text Markup Language)で記述されたデータである。TTMLは、マークアップ言語の一つであり、テキストの表示タイミングや表示位置を指定できることを特徴とする。マルチメディアデータは、複数の表現メディアから構成される1セットの表現メディア(マルチメディア)を提示するためのデータである。個々の表現メディアは、例えば、動画、静止画、図形、音声、文字などである。マルチメディアデータは、必ずしも一部又は全部の表現メディアを示すデータが含まれていなくてもよい。マルチメディアデータは、表現メディアの所在を示す情報(ネットワーク上のアドレスなど)が含まれてもよい。マルチメディアデータは、例えば、HTML5(HyperText Markup Language)で記述されたアプリケーションとして提供される。HTML5は、マークアップ言語の一つであり、映像や音声の再生、停止などを指定できることを特徴とする。 The character data is, for example, data described in TTML (Timed Text Markup Language). TTML is one of the markup languages, and is characterized in that the display timing and display position of text can be specified. The multimedia data is data for presenting a set of expression media (multimedia) composed of a plurality of expression media. The individual expression media are, for example, moving images, still images, figures, sounds, characters, and the like. The multimedia data does not necessarily have to include data indicating a part or all of the expression media. The multimedia data may include information indicating the location of the expression media (such as an address on the network). The multimedia data is provided, for example, as an application described in HTML5 (HyperText Markup Language). HTML5 is one of the markup languages, and is characterized in that it is possible to specify playback, stop, and the like of video and audio.
付加データとして、放送の受信に関する制御情報と基準時刻情報が含まれる。制御情報には、メディアトランスポート方式であるMMTに関するMMT−SI(System Information)が含まれる。MMT−SIには、その要素情報として各種のテーブル、記述子が含まれる。MMT−SIには、本実施形態に関連するテーブルとして、上述のEMM、ECMの他、MPT(MMT Package Table、MMTパッケージテーブル)、MH−EIT(MH−Event Information Table、MH−イベント情報テーブル、MH−SDT(MH−Service Description Table、MH−サービス記述テーブル)、MH−TOT(MH−Time Offset Table、MH−タイムオフセットテーブル)、MH−AIT(MH−Application Information Table、アプリケーション情報テーブル)などが含まれる。MPTは、アセットのリストなどパッケージを構成する構成情報を示す。MH−EITは、番組(イベント)の名称、放送時間、タイトル、出演者、ジャンルなど、各番組に関する番組情報を示す。MH−SDTは、編成チャンネルの名称、放送事業者の名称など、各チャンネルに関するチャンネル情報を示す。MH−TOTは、現在日付と現在時刻を示す時刻情報を示す。但し、MH−TOTで示される現在時刻は、日本標準時を基準とする時刻(JST時刻)であり、受信装置1からの設定画面、案内画面その他の各種の表示に用いられる。以下では、MH−TOTで示される時刻情報をシステム時刻情報、その時刻をシステム時刻と呼び、NTP形式の基準時刻情報、基準時刻とそれぞれ区別する。MH−AITは、アプリケーションの実行、停止に制御情報及び実行に要する付加情報(アプリケーション制御情報)を示す。アプリケーション制御情報が存在する場合、その存在を示す情報がMPTに記述される。
As additional data, control information regarding broadcast reception and reference time information are included. The control information includes MMT-SI (System Information) related to MMT, which is a media transport system. The MMT-SI includes various tables and descriptors as its element information. In addition to the above-mentioned EMM and ECM, MPT (MMT Package Table, MMT package table), MH-EIT (MH-Event Information Table, MH-event information table, etc.) are included in the MMT-SI as tables related to the present embodiment. MH-SDT (MH-Service Description Table, MH-Service Description Table), MH-TOT (MH-Time Office Table, MH-Time Offset Table), MH-AIT (MH-Application Information Table, Application Information Table, etc.) Included. MPT indicates configuration information that constitutes a package such as a list of assets. MH-EIT indicates program information related to each program such as a program (event) name, broadcast time, title, performers, and genre. MH-SDT indicates channel information related to each channel such as the name of the organization channel and the name of the broadcaster. MH-TOT indicates the current date and time information indicating the current time. However, it is indicated by MH-TOT. The current time is a time (JST time) based on Japanese standard time, and is used for a setting screen, a guidance screen, and various other displays from the receiving
また、MMT−SIには、本実施形態に関連する記述子として、MH−データ符号化方式記述子(MH−Data_Component_Descriptor)が含まれる。MH−データ符号化方式記述子には、付加識別情報(additional_data_component_info)が記述される。付加識別情報には、参照開始時刻(reference_start_time)が記述される。参照開始時刻は、文字情報の提示開始時刻であって、NTP形式で指定された時刻である。具体的には、参照開始時刻は、字幕や文字スーパーをTTMLで記述されたTTML文書内のタイムコードの起点となるUTC時刻で指定される。 Further, the MMT-SI includes an MH-data encoding scheme descriptor (MH-Data_Component_Descriptor) as a descriptor related to the present embodiment. Additional identification information (additional_data_component_info) is described in the MH-data encoding method descriptor. The reference start time (reference_start_time) is described in the additional identification information. The reference start time is the presentation start time of the character information and is the time specified in the NTP format. Specifically, the reference start time is specified by the UTC time, which is the starting point of the time code in the TTML document in which the subtitles and character supermarkets are described in TTML.
分離部220は、分離した音声データと映像データを多重化部230に出力し、制御情報としてMMT−SIを解析部222に出力する。また、分離部220は、基準時刻情報をNTP管理部234に、文字データをTTML管理部236に、マルチメディアデータをHTML管理部238にそれぞれ出力する。
The
解析部222は、分離部220から入力された制御情報を解析し、構成情報を示すMPT、番組情報を示すMH−EIT、チャネル情報を示すMH−SDT、システム時刻情報を示すMH−TOT及びアプリケーション制御情報を示すMH−AITを抽出する。また、解析部222は、制御情報から、文字データの提示に係る参照開始時刻を示す付加識別情報を抽出する。解析部222は、抽出した各種情報をSI管理部232に記憶する。以下、MMT−SIから抽出した情報をSI情報と総称する。
The
解析部222は、分離部から入力される基準時刻情報が示す基準時刻に同期した所定のクロック周波数(例えば、27MHz)のクロック信号(STC:System Time Clock)を生成する。クロック信号は、変換処理部20の各構成要素間の処理を同期(クロック同期)させるために用いられる。解析部222は、生成したクロック信号を所定の分周率(例えば、2700分の1)で分周して、所定時間(例えば、0.1ms)毎の基準時刻を示す基準時刻情報を再構成する。解析部222は、再構成した基準時刻情報をMPEG−2 TS方式で規定されたPCR(Program Clock Reference)として多重化部230に出力する。解析部222は、構成情報を示すMPTを解析し、放送される音声を示す音声データと映像を示す映像データを構成要素として示すPMT(Program Map Table)に変換する。PMTは、MPEG−2 TS形式の構成情報を示す情報テーブルである。解析部222は、システム時刻情報を示すMH−TOTをMPEG−2 TS形式のシステム時刻情報を示すTOTに変換する。解析部222は、構成情報を示すPMTとシステム時刻情報を示すTOTを多重化部230に出力する。
The
多重化部230は、分離部220から入力される音声データと映像データのうち、解析部222から入力される構成情報を示すPMTで指定される音声データと映像データを特定する。多重化部230は、特定した音声データの形式と映像データの形式をMPEG−2 TS方式で規定された形式であるエレメンタリストリーム(ES:Elementary Stream)に変換する。また、多重化部230は、解析部222から入力される構成情報を示すPMTとシステム時刻情報を示すTOTを含む制御情報を構成する。構成される制御情報のデータ形式は、MPEG−2 TS方式で規定された形式となる。多重化部230は、形式を変換した音声データ、映像データ、解析部222から入力されるPCR及び制御信号を多重化し、MPEG−2 TS方式に規定された形式の第2多重化データを生成する。PCRは、第2多重化データをなすTSに所定時間(例えば、0.1ms)間隔で含まれる。多重化部230は、生成した第2多重化データを出力部240に出力する。
Of the audio data and video data input from the
SI管理部232は、解析部222から入力されるSI情報を順次記憶する。SI管理部232は、そのSI情報の送信装置からの送信時刻を示す基準時刻情報と対応付けて記憶してもよい。なお、入出力部242を介して情報要求信号が受信処理部30から入力される場合には、SI管理部232は、その応答として情報要求信号で指定されるSI情報を受信処理部30に入出力部242を介して出力してもよい。
The
NTP管理部234は、分離部220から入力される基準時刻情報を順次記憶する。NTP管理部234は、新たに入力される基準時刻情報を受信処理部30に入出力部242を介して出力する。
The
TTML管理部236は、分離部220から入力される文字データを順次記憶する。TTML管理部236は、新たに入力される文字データを入出力部242に出力する。なお、入出力部242を介して情報要求信号が受信処理部30から入力される場合には、TTML管理部236は、その応答として情報要求信号で指定される文字データを受信処理部30に入出力部242を介して出力してもよい。
The
HTML管理部238は、分離部220から入力されるマルチメディアデータを順次記憶する。HTML管理部238は、新たに入力されるマルチメディアデータを入出力部242に出力する。なお、入出力部242を介して情報要求信号が受信処理部30から入力される場合には、HTML管理部238は、その応答として情報要求信号で指定されるマルチメディアデータを受信処理部30に入出力部242を介して出力してもよい。
なお、SI管理部232、NTP管理部234、TTML管理部236及びHTML管理部238は、それぞれリレーショナルデータベースとして構成されてもよい。
The
The
出力部240は、多重化部230から入力される多重化データを受信処理部30に出力する。出力部240は、例えば、出力インタフェースである。
入出力部242は、SI管理部232、NTP管理部234、TTML管理部236及びHTML管理部238から入力される各種のデータを受信処理部30に出力する。また、入出力部242は、受信処理部30から情報要求信号が入力される場合には、出力先の構成部(例えば、TTML管理部236)に入力される情報要求信号を出力する。入出力部242は、例えば、入出力インタフェースである。
The
The input /
次に、受信処理部30の機能構成について図2を用いて説明する。
図2は、本実施形態に係る受信処理部30の機能構成例を示す概略ブロック図である。図2では、変換処理部20を示す。但し、入力部202、復号部204、デスクランブル部206、ローカル暗号化部208、TLV記憶部210、ローカル復号部212、及び変換部214の図示が省略されている。
Next, the functional configuration of the
FIG. 2 is a schematic block diagram showing a functional configuration example of the
受信処理部30は、入力部320と、入出力部322と、通信部324と、分離部330と、映像復号部332と、映像合成部334と、音声復号部336と、音声ミキシング部338と、同期処理部340と、付加コンテンツ処理部342と、を含んで構成される。
The
入力部320は、変換処理部20から入力される第2多重化データを分離部330に出力する。入力部320は、例えば、入力インタフェースである。
入出力部322は、変換処理部20から入力される各種のデータを同期処理部340又は付加コンテンツ処理部342に出力する。また、入出力部322は、付加コンテンツ処理部342から入力される情報要求信号を変換処理部20に出力する。入出力部322は、例えば、入出力インタフェースである。
通信部324は、付加コンテンツ処理部342とネットワークに接続された機器との間で各種のデータを送受信する。ネットワークは、有線であっても無線であってもよい。通信部324は、例えば、通信インタフェースである。
The
The input /
The
分離部330は、入力部320から入力される第2多重化データから音声データ、映像データ及び制御情報を分離する。分離部330は、分離した音声データ、映像データをそれぞれ音声復号部336、映像復号部332に出力する。分離部330は、分離した制御情報からシステム時刻情報を抽出し、抽出したシステム時刻情報を示すTOTを同期処理部340に出力する。受信処理部30は、TOTで表されるシステム時刻を基準として放送されるコンテンツやそのコンテンツに関連する各種の関連情報を提示する。関連情報には、例えば、番組予約に係る予約情報、現在時刻を示す現在時刻表などが含まれる。
The
映像復号部332は、分離部330から入力された映像データを所定の映像復号方式を用いて復号する。映像復号部332に入力される映像データは、その映像復号方式に対応する映像符号化方式で符号化されている。映像復号部332は、復号した映像データを映像合成部334に出力する。
The
映像合成部334は、映像復号部332から入力された映像データに付加コンテンツ処理部342から入力される視覚情報を合成し、視覚情報が重畳された映像データを生成する。映像合成部334は、生成した映像データを表示部(図示せず)に出力する。
The
音声復号部336は、分離部330から入力された音声データを所定の音声復号方式を用いて復号する。音声復号部336に入力される音声データは、その音声復号方式に対応する音声符号化方式で符号化されている。音声復号部336は、復号した音声データを音声ミキシング部338に出力する。
The
音声ミキシング部338は、音声復号部336から入力された音声データに付加コンテンツ処理部342から入力される聴覚情報を合成し、聴覚情報が重畳された音声データを生成する。音声ミキシング部338は、生成した音声データを再生部(図示せず)に出力する。
The
同期処理部340は、付加コンテンツの提示制御時刻を、変換処理部20から入力される基準時刻情報が示す基準時刻から分離部330から入力されるシステム時刻情報が示すシステム時刻の時間差で補正させる。提示制御時刻は、提示開始時刻と提示終了時刻の総称である。より具体的には、同期処理部340は、TOT基準のシステム時刻からNTP基準の基準時刻の時間差を算出し、算出した時間差を示す時間差情報を付加コンテンツ処理部342に出力する。同期処理部340の機能は、上述の演算デバイスが、所定のスクリプト言語(例えば、ECMA−262:European Computer Manufacturers Association−262)で記述された命令で指示される処理を実行することにより実現される。
The
付加コンテンツ処理部342は、所定のアプリケーションプログラム(以下、アプリケーション)を実行して付加コンテンツを取得する。取得された付加コンテンツに視覚情報が含まれる場合には、付加コンテンツ処理部342は、その視覚情報を映像合成部334に出力する。取得された付加コンテンツに聴覚情報が含まれる場合には、付加コンテンツ処理部342は、その聴覚情報を音声ミキシング部338に出力する。アプリケーションは、例えば、HTML5で記述され、付加コンテンツその他の情報の提示に係る各種の命令が記述される。アプリケーションを実行するとは、そのアプリケーションに記述された命令で指示される処理を行うことを指す。付加コンテンツ処理部342は、例えば、ブラウザである。
The additional
付加コンテンツ処理部342が実行する所定のアプリケーションは、受信処理部30の記憶部(図示せず)に予め記憶されたアプリケーションであってもよいし、放送信号により伝送される放送アプリケーションであってもよい。既設定のアプリケーションとして、例えば、字幕表示アプリケーション、番組表表示アプリケーション、などがある。放送アプリケーションには、HTML管理部238に記憶されるマルチメディアデータなどがある。
The predetermined application executed by the additional
ここで、字幕表示アプリケーションの実行について説明する。字幕表示アプリケーションの実行を開始する時点は、例えば、付加コンテンツ処理部342が、サービスの構成要素として文字データを構成要素として含む構成情報の受信を開始した時点である。構成情報は、上述したようにSI管理部232から送信される最新のSI情報に含まれる。字幕表示アプリケーションを実行するとき、付加コンテンツ処理部342は、次の処理を行う。付加コンテンツ処理部342は、その時点での最新の文字データの要求を示す情報要求信号を生成し、生成した情報要求信号をTTML管理部236に出力する。付加コンテンツ処理部342は、情報要求信号の応答としてTTML管理部236から文字データを受信する。付加コンテンツ処理部342は、受信したSI情報からMH−データ符号化方式記述子に記述された参照開始時刻(reference_start_time)を特定する。そして、付加コンテンツ処理部342は、特定した参照開始時刻に同期処理部340から入力された時間差情報が示す時間差を加算し、参照開始時刻からその時間差だけシフトした時刻を補正参照開始時刻として算出する。算出される補正参照開始時刻は、TOT基準の時刻スケールに合わせた字幕の表示時刻に相当する。付加コンテンツ処理部342は、現在時刻が補正参照開始時刻になったとき文字データが示す文字列からなる字幕を映像合成部334に出力する。ここで、基準時刻に基づく補正参照開始時刻は、システム時刻に基づく参照開始時刻に相当する。従って、表示部には、システム時刻に基づく参照開始時刻に字幕と放送される映像とが同期して表示される。
Here, the execution of the subtitle display application will be described. The time when the execution of the subtitle display application is started is, for example, the time when the additional
なお、補正参照開始時刻を算出する処理は、付加コンテンツ処理部342が行うのではなく、変換処理部20が実行してもよい。その場合、変換処理部20の解析部222は、MMT−SIから分離されたMH−TOTが示すTOT基準のシステム時刻から分離部220から入力される基準時刻情報が示すNTP基準の基準時刻の時間差を算出する。解析部222は、算出した時間差にMPTから抽出される参照開始時刻(reference_start_time)を加えて補正参照開始時刻を算出する。解析部222は、この参照開始時刻の適用対象の文字データと対応付けて、算出した補正参照開始時刻を示す補正参照開始時刻情報をTTML管理部236に出力する。解析部222は、MPTを参照して、その参照開始時刻が記述されたMH−データ符号化方式記述子を含むアセット記述子領域に対応するアセットを、適用対象の文字データを特定することができる。
付加コンテンツ処理部342は、字幕表示アプリケーションを実行するとき、その時点での最新の文字データの要求を示す情報要求信号を生成し、生成した情報要求信号をTTML管理部236に出力する。付加コンテンツ処理部342は、情報要求信号の応答としてTTML管理部236から文字データを補正参照開始時刻情報と対応付けて受信する。付加コンテンツ処理部342は、TOT基準の現在時刻が補正参照開始時刻情報が示す補正参照開始時刻に達したとき、受信した文字データが示す文字列からなる字幕を映像合成部334に出力する。よって、この手法によっても表示部には、システム時刻に基づく参照開始時刻に字幕と放送される映像とが同期して表示される。
The process of calculating the correction reference start time may not be performed by the additional
When the subtitle display application is executed, the additional
次に、番組表表示アプリケーションの実行について説明する。番組表表示アプリケーションの実行を開始する時点は、例えば、付加コンテンツ処理部342に動作制御部(図示せず)から番組表表示を指示する制御信号が入力されるときである。番組表表示アプリケーションを実行するとき、付加コンテンツ処理部342は、次の処理を行う。付加コンテンツ処理部342は、その時点で最新のチャンネル情報と番組情報を示す情報要求信号を生成し、生成した情報要求信号をSI管理部232に出力する。付加コンテンツ処理部342は、SI管理部232から情報要求信号の応答として、チャンネル情報と番組情報を受信する。付加コンテンツ処理部342は、チャンネル情報が示すチャンネル毎に放送事業者名、チャンネル番号、番組毎の番組情報を放送時間の順に配列して番組表情報を生成する。付加コンテンツ処理部342は、生成した番組表情報を映像合成部334に出力する。これにより、表示部には番組表情報が表示される。なお、現時刻が放送時間内であるいずれかの番組情報が指示される場合には、動作制御部は、その番組のチャンネルを選局してもよい。より具体的には、動作制御部は、その番組が放送される放送チャンネルを指示する動作制御信号を放送受信部12に出力する。また、いずれかの番組情報に係る番組の録画が指示されるときには、動作制御部は、その番組の録画予約を行ってもよい。より具体的には、デスクランブル部206は、動作制御部からの動作制御信号の指示に応じて、その番組の番組開始時刻に第1多重化データをローカル暗号化部208に出力し、TLV記憶部210に記録させる。また、デスクランブル部206は、番組終了時刻に第1多重化データのローカル暗号化部208への出力を停止して、TLV記憶部210への記録を停止させる。本実施形態では録画開始に係る番組開始時刻、録画終了に係る番組終了時刻の補正は行わなくてもよい。
Next, the execution of the program guide display application will be described. The time when the execution of the program guide display application is started is, for example, when a control signal instructing the program guide display is input from the operation control unit (not shown) to the additional
次に、放送アプリケーションの実行について説明する。付加コンテンツ処理部342は、SI管理部232から受信した最新のアプリケーション制御情報に基づいて放送アプリケーションとしてHTML管理部238に記憶されるマルチメディアデータを取得する。そこで、付加コンテンツ処理部342は、アプリケーション制御情報に記述されている取得先情報としてHTML管理部238を特定し、HTML管理部238にそのマルチメディアデータを示す情報要求信号を出力する。付加コンテンツ処理部342には、その応答としてHTML管理部238から出力されるマルチメディアデータが入力される。そのために、解析部222は、アプリケーション制御情報に実行対象のアプリケーションとしてマルチメディアデータが指定されている場合には、その所在を示す情報としてHTML管理部238のアドレスをアプリケーション制御情報に記述する。そして、解析部222は、そのアプリケーション制御情報をSI管理部232に出力する。
Next, the execution of the broadcasting application will be described. The additional
付加コンテンツ処理部342は、アプリケーション制御情報に記述されている各種の命令に基づいて取得したアプリケーションの実行を制御する。かかる命令には、起動指示、終了などの情報が含まれる。それらの命令には、その命令を実行する実行時刻(即ち、アプリケーションの起動時刻、終了時刻、コンテンツの提示時刻など)が指定されることがある。指定される実行時刻が基準時刻に基づく時刻である場合には、付加コンテンツ処理部342は、実行時刻に上述の時間差を加算し、実行時刻からその時間差だけシフトした時刻を補正実行時刻として算出する。付加コンテンツ処理部342は、補正実行時刻になったとき、その命令で指示される処理を実行する。例えば、付加コンテンツ処理部342は、アプリケーションに記述される命令で指示される処理として、そのアプリケーションに含まれる要素コンテンツを抽出もしくはアプリケーションに関連付けられた要素コンテンツを取得する。そして、付加コンテンツ処理部342は、その提示時刻に時間差を加算して補正提示時刻を算出する。取得した要素コンテンツに視覚情報が含まれる場合、付加コンテンツ処理部342は、現在時刻が補正提示時刻になったとき、その視覚情報を映像合成部334に出力する。従って、表示部には、システム時刻に基づく提示時刻に視覚情報と放送される映像とが同期して表示される。取得した付加コンテンツに聴覚情報が含まれる場合、付加コンテンツ処理部342は、現在時刻が補正提示時刻になったとき、その聴覚情報を音声ミキシング部338に出力する。よって、表示部には、システム時刻に基づく提示時刻に聴覚情報と放送される音声とが同期して再生される。
The additional
なお、マルチメディアデータにより提示される付加コンテンツの構成要素となる要素コンテンツがネットワークに接続されている機器(例えば、ウェブサーバ)に格納されていることがある。その場合には、マルチメディアデータに要素コンテンツの取得先情報としてその機器のアドレスが記述される。付加コンテンツ処理部342は、マルチメディアデータに記述された取得先情報で指定される機器に要素コンテンツを示す情報要求信号を、通信部324を介して送信する。付加コンテンツ処理部342は、情報要求信号の応答として取得先情報で指定される機器から送信される要素コンテンツを受信する。
In addition, element content that is a component of additional content presented by multimedia data may be stored in a device (for example, a web server) connected to the network. In that case, the address of the device is described in the multimedia data as the acquisition destination information of the element content. The additional
以上に説明したように、本実施形態に係る受信装置1は、第1多重化方式(例えば、TLV/MMT方式)で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ及び前記音声データならびに映像データに付加される付加コンテンツデータを分離する分離部220を備える。また、受信装置1は、音声データ及び映像データを第1多重化方式とは第2多重化方式(例えば、MPEG−2 TS方式)で多重化して第2多重化データを生成する多重化部230と、第2多重化データと付加コンテンツデータをそれぞれ出力する出力部として出力部240と入出力部242を備える。
また、受信装置1は、第2多重化方式に対応する分離方式で第2多重化データから音声データと映像データを分離し、付加コンテンツデータに基づく付加コンテンツと少なくとも映像データが示す映像もしくは音声データが示す音声のいずれかを重畳する受信処理部30を備える。
ここで、付加コンテンツは、例えば、文字、マルチメディアデータで提供される放送サービスに関連するマルチメディアコンテンツ、などである。
As described above, the receiving
Further, the receiving
Here, the additional content is, for example, characters, multimedia content related to a broadcasting service provided by multimedia data, and the like.
この構成により、第1多重化データから分離された付加コンテンツデータは、第2多重化方式に基づく第2多重化データと独立に提供される。そのため、受信処理部が第2多重化方式に基づく第2多重化データから音声、映像を提供する機能に加え、第2多重化データとは独立に第2多重化方式に対応していない付加コンテンツを提供することができる。そのため、音声や映像以外の多様な放送サービスの提供が可能となる。 With this configuration, the additional content data separated from the first multiplexing data is provided independently of the second multiplexing data based on the second multiplexing method. Therefore, in addition to the function that the reception processing unit provides audio and video from the second multiplexing data based on the second multiplexing method, additional content that does not support the second multiplexing method independently of the second multiplexing data. Can be provided. Therefore, it is possible to provide various broadcasting services other than audio and video.
また、分離部220は、第1多重化データから基準時刻を示す基準時刻情報を分離し、受信処理部30は、システム時刻と基準時刻との時間差を検出し、付加コンテンツの提示時刻を検出した時間差で補正した時刻である補正提示時刻に付加コンテンツを出力する。
この構成により、第1多重化データで基準時刻を基準とする付加コンテンツの提示時刻が、補正提示時刻としてシステム時刻を基準とする提示時刻に補正される。そのため、付加コンテンツが提示されるタイミングが、システム時刻を基準として提示される音声もしくは映像のタイミングとを同期することができる。
Further, the
With this configuration, the presentation time of the additional content based on the reference time in the first multiplexed data is corrected to the presentation time based on the system time as the correction presentation time. Therefore, the timing at which the additional content is presented can be synchronized with the timing of the audio or video presented with reference to the system time.
[第2の実施形態]
次に、本発明の第2の実施形態について説明する。以下の説明では、第1の実施形態の差異を主とする。第1の実施形態と同一の構成については同一の符号を付してその説明を援用する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the following description, the differences of the first embodiment will be mainly used. The same components as those in the first embodiment are designated by the same reference numerals and the description thereof will be incorporated.
まず、本実施形態に係る受信装置1の概略構成について図2を用いて説明する。受信装置1において、解析部222は、第1多重化データから分離される制御情報からシステム時刻情報及び基準時刻情報の他、付加識別情報が示す参照開始時刻を特定する。解析部222は、基準時刻情報が示す基準時刻からシステム時刻情報が示すシステム時刻の時間差を算出し、算出した時間差を参照開始時刻に加算して補正参照開始時刻1を算出する。解析部222は、サービスの構成要素として音声データ及び映像データを示す情報に、さらに文字データの提示時刻として補正参照開始時刻1を示す提示時刻情報を含む構成情報を生成する。解析部222は、生成した構成情報を多重化部230に出力する。従って、多重化部230が生成する第2多重化データには、提示時刻情報も多重化される。補正参照開始時刻1は、受信された時点におけるシステム時刻を基準とする参照開始時刻となる。受信装置1は、多重化部230により生成されたMPEG−2 TS形式の第2多重化データを記憶(録画)するTS記憶部250(図3)を備える。記憶される第2多重化データには、その時点のシステム時刻(録画時刻)を示すシステム時刻情報が含まれる。
First, a schematic configuration of the receiving
TS記憶部250は、動作制御部(図示せず)から再生を指示する動作制御信号が入力されるとき、動作制御信号で指示された第2多重化データを読み出し、分離部330に出力する。分離部330は、第2多重化データからシステム時刻情報の他、提示時刻情報を分離し、分離したシステム時刻情報と提示時刻情報を同期処理部340に出力する。
同期処理部340は、その時点におけるシステム時刻を基準とする現在時刻から分離部330から入力されたシステム時刻情報が示す録画時刻の時間差を算出する。同期処理部340は、分離部330から入力された提示時刻情報が示す補正参照開始時刻1に算出した時間差を加算し、さらに補正された補正参照開始時刻2を算出する。補正参照開始時刻2は、その時点におけるシステム時刻を基準とする参照開始時刻となる。同期処理部340は、補正参照開始時刻2を示す提示時刻情報を付加コンテンツ処理部342に出力する。
When an operation control signal instructing reproduction is input from the operation control unit (not shown), the
The
付加コンテンツ処理部342は、分離部330が取得する第2多重化データと同時刻に記憶された文字データをTTML管理部236から読み出す。ここで、付加コンテンツ処理部342は、その文字データを指示する情報要求信号をTTML管理部236に出力し、その応答として指示された文字データが入力される。付加コンテンツ処理部342は、入力された文字データが示す文字列からなる字幕データを、基準時刻を基準とする現在時刻が同期処理部340から入力される提示時刻情報が示す補正参照開始時刻2になったときに映像合成部334に出力する。従って、録画再生される映像と字幕とがシステム時刻を基準として同期して再生される。
The additional
次に、本実施形態に係る同期処理の例について説明する。
図3は、本実施形態に係る同期処理の例を説明するための説明図である。
変換処理部20(図2)は、クロック生成部224を備え、受信処理部30(図2)は、クロック生成部344を備える。
Next, an example of the synchronous processing according to the present embodiment will be described.
FIG. 3 is an explanatory diagram for explaining an example of the synchronization process according to the present embodiment.
The conversion processing unit 20 (FIG. 2) includes a
変換処理部20において、解析部222は、第1多重化データから分離された制御情報を示すMMT−SIからシステム時刻情報を示すMH−TOT及び構成情報を示すMPTを分離する。(R02:MMT解析)また、解析部222には、分離部220から分離されたNTP形式の基準時刻情報が入力される。
解析部222は、第1多重化データから分離されたMPTからMH−データ符号化方式記述子に記述された付加識別情報から参照開始時刻(reference_start_time)を抽出する。(R04)
In the
The
解析部222は、分離したシステム時刻情報MH−TOTを基準とする現在時刻としてシステム時刻を計時し、計時したシステム時刻を示すシステム時刻情報を生成する(R06)。
解析部222は、基準時刻情報が示す現在時刻である基準時刻からシステム時刻の時間差を算出する。(R08)
解析部222は、算出した時間差を参照開始時刻に加算して補正参照開始時刻1を算出する。(R10)
解析部222は、算出した補正参照開始時刻1が参照開始時刻(reference_start_time)として多重化した構成情報を示すPMTを生成し、生成したPMTを多重化部230(図2)に出力する。(R12)
The
The
The
The
解析部222は、NTP形式の基準時刻情報の周波数(例えば、1Hz)を逓倍し所定の周波数(例えば、10Hz)で基準時刻を示す基準時刻情報に変換する。(R20:周波数変換)
解析部222は、変換した基準時刻情報をMPEG−2 TS方式に規定の形式の基準時刻情報を示すPCRとして再構成する。解析部222は、再構成したPCRを多重化部230(図2)とクロック生成部224に出力する。(R22)
The
The
多重化部230(図2)は、分離部220(図2)から入力された音声データ、映像データ、PCR及びPMTを含む制御情報をMPEG−2 TSで規定された多重化方式で多重化して第2多重化データを生成する。(R24:TS化)
多重化部230は、動作制御部(図示せず)から録画を指示する動作制御信号が入力されるとき、生成した第2多重化データをTS記憶部250に記憶する。録画が指示されないとき、多重化部230は、生成した第2多重化データを受信処理部30の分離部330に出力する。なお、動作制御部(図示せず)から再生を指示する動作制御信号が入力されるとき、TS記憶部250は、動作制御信号で指示される区間の第2多重化データを受信処理部30の分離部330に出力する。
The multiplexing unit 230 (FIG. 2) multiplexes control information including audio data, video data, PCR and PMT input from the separating unit 220 (FIG. 2) by the multiplexing method specified by MPEG-2 TS. Generate the second multiplexed data. (R24: TS conversion)
The
クロック生成部224は、比較器、発振器及びSTCカウンタを備える。比較器、発振器及びSTCカウンタは、PLL(Phase Locked Loop)回路を形成する。
比較器は、解析部222からPCRが入力されるタイミングで、STCカウンタから入力されるカウンタパルスがラッチされ、PCRとカウンタパルスとの位相を比較する。比較器は、位相差を示す比較誤差信号を発振器に出力する。(R26)
The
The comparator latches the counter pulse input from the STC counter at the timing when PCR is input from the
発振器は、比較器から入力される比較誤差信号に基づいて所定のクロック周波数(例えば、27MHz)のクロック信号を生成する。比較誤差信号によりクロック周波数が一定に制御される。発振器は、生成したクロック信号をSTCカウンタに出力する。(R28)
STCカウンタは、発振器から入力されるクロック信号を所定の分周率で分周し、クロックパルスを生成する。STCカウンタは、生成したクロックパルスを比較器に出力する。(R30)
The oscillator generates a clock signal having a predetermined clock frequency (for example, 27 MHz) based on the comparison error signal input from the comparator. The clock frequency is controlled to be constant by the comparison error signal. The oscillator outputs the generated clock signal to the STC counter. (R28)
The STC counter divides the clock signal input from the oscillator by a predetermined frequency division factor to generate a clock pulse. The STC counter outputs the generated clock pulse to the comparator. (R30)
受信処理部30において、分離部330は、変換処理部20又はTS記憶部250から入力される第2多重化データをなすTSを解析し、音声データ、映像データ、基準時刻情報を示すPCR及び制御情報に分離する。分離部330は、分離したPCRと制御情報を同期処理部340に出力する。(P02:TS解析)
同期処理部340は、分離部330から入力される制御情報のうちPMTから補正参照開始時刻1を示す参照開始時刻(reference_start_time)を抽出する。(P04)
In the
The
同期処理部340の切替器は、録画再生を指示する動作制御信号が入力されず、通常再生(ライブ)時において、分離部330から入力される制御情報に含まれるシステム時刻情報を示すTOTを自部が備えるタイマに供給する。タイマに供給されるシステム時刻情報が示す時刻は、システム時刻を基準とする現在時刻となる。他方、同期処理部340の切替器は、録画再生を指示する動作制御信号が入力されるとき(録画再生時)、分離部330から入力される制御情報に含まれるシステム時刻情報を示すTOTを自部が備える減算器に供給する。減算器に供給されるシステム時刻情報が示す時刻は、システム時刻を基準とする録画時刻となる。(P06)
タイマは、入力されるシステム時刻情報が示す時刻を基準とする現在時刻を逐次に計時し、計時した現在時刻を示すシステム時刻情報を減算部に出力する。(P08)タイマには、少なくともシステム時刻情報が少なくとも1回入力されればよい。タイマは、録画時などシステム時刻情報が入力されなくなった後でも現在時刻の計時、出力を継続する。
The switch of the
The timer sequentially clocks the current time based on the time indicated by the input system time information, and outputs the system time information indicating the measured current time to the subtraction unit. (P08) System time information may be input to the timer at least once. The timer continues to measure and output the current time even after the system time information is no longer input, such as during recording.
同期処理部340の減算器は、切替器から録画時刻を示すシステム時刻情報と、タイマから現在時刻を示すシステム時刻情報とが入力されるとき、その録画時刻から現在時刻を減算して、録画時刻から現在時刻の時間差を算出し、算出した時間差を示す時間差情報を加算器に出力する。(P10)但し、同期処理部340の減算器は、タイマからシステム時刻情報が入力されない場合には、時間差情報を出力しない。
同期処理部340の加算器は、参照開始時刻(reference_start_time)として記述された補正参照開始時刻1に減算器から入力される時間差情報が示す時間差を加算して補正参照開始時刻2を算出する。加算器は、算出した補正参照開始時刻2を記述した参照開始時刻(reference_start_time)を提示時刻情報として付加コンテンツ処理部342(図2)に出力する。(P12)なお、減算器から時間差情報が入力されない場合には、加算器は、自器に入力される参照開始時刻(reference_start_time)をそのまま提示時刻情報として付加コンテンツ処理部342に出力する。
When the system time information indicating the recording time and the system time information indicating the current time are input from the switch, the subtractor of the
The adder of the
受信処理部30のクロック生成部344は、変換処理部20のクロック生成部224と同様に、比較器、発振器及びSTCカウンタを備え、PLL回路を形成する。この構成により、クロック生成部344は、分離部330から入力されるPCRに同期したクロック信号を生成する。クロック生成部344が生成したクロック信号は、受信処理部30の各構成要素間の処理を同期(クロック同期)させるために用いられる。従って、変換処理部20と受信処理部30との間では、基準時刻を基準として相互の動作が同期する。
The
従って、本実施形態に係る受信装置1は、録画再生時において、録画時に指示された提示時刻を、その時点におけるシステム時刻を基準とする時刻として補正された時刻に字幕を表示することができる。また、受信装置1は、通常再生時において、受信時に指示された提示時刻を、その時点におけるシステム時刻を基準とする時刻として補正された時刻に字幕を表示することができる。どちらの場合も、MPEG−2 TS方式で多重化された第2多重化データでシステム時刻を基準として提供される映像と、第2多重化データとは並行して基準時刻を基準として提供される字幕とが同期する。また、字幕の表示に係る参照開始時刻を示す提示時刻情報は、MMT方式、MPEG−2 TS方式で共通の形式であるため、提示時刻情報の変更に係る処理量や付加コンテンツの提示にかかる処理量が過大にならずに済む。
Therefore, the receiving
以上に説明したように、本実施形態に係る受信装置1は、第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ、音声データならびに映像データに付加される付加コンテンツに関する付加コンテンツデータ、基準時刻を示す基準時刻情報、システム時刻を示すシステム時刻情報及び付加コンテンツの提示時刻を示す提示時刻情報を分離する分離部220を備える。また、受信装置1は、解析部222、多重化部230及び出力部として出力部240ならびに入出力部242を備える。解析部222は、提示時刻を、基準時刻とシステム時刻との時間差で補正した補正提示時刻を算出する。多重化部230は、音声データ、映像データ及び補正提示時刻を示す補正提示時刻情報を第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する。出力部240は、第2多重化データを出力し、入出力部242は、付加コンテンツデータを出力する。
また、受信装置1は、第2多重化方式に対応する分離方式で第2多重化データから音声データ、映像データ及び補正提示時刻情報を分離し、補正提示時刻情報が示す補正提示時刻に付加コンテンツデータに関する付加コンテンツを出力する受信処理部30を備える。
As described above, the receiving
Further, the receiving
この構成によれば、提示時刻が第1多重化方式、第2多重化方式の制御情報において指定可能である付加コンテンツについて、基準時刻を基準とする提示時刻がシステム時刻を基準とする補正提示時刻が第2多重化方式の制御情報で指定される。そのため、付加コンテンツを提示する時刻である補正提示時刻を、音声もしくは映像が提示されるシステム時刻を基準とするタイミングと同期させることができる。また、受信処理部30において提示時刻情報を補正する必要がないため、受信処理部30の仕様や設定の変更を軽減することができる。
According to this configuration, for the additional content whose presentation time can be specified in the control information of the first multiplexing method and the second multiplexing method, the presentation time based on the reference time is the corrected presentation time based on the system time. Is specified in the control information of the second multiplexing method. Therefore, the corrected presentation time, which is the time for presenting the additional content, can be synchronized with the timing based on the system time at which the audio or video is presented. Further, since it is not necessary for the
また、受信装置1は、多重化部230が生成した第2多重化データを記憶するTS記憶部250と、付加コンテンツデータを記憶する記憶部としてTTML管理部236とHTML管理部238を備える。受信処理部30は、記憶部から第2多重化データと付加コンテンツデータが入力されるとき、第2多重化データを記憶した時刻と現在時刻との時間差である第2時間差を算出し、補正提示時刻を第2時間差で第2補正提示時刻を算出する。そして、受信処理部30は、第2補正提示時刻において、記憶部から入力される付加コンテンツデータに関する付加コンテンツを出力する。
この構成によれば、第2多重化データに係る音声もしくは映像と付加コンテンツデータに係る付加コンテンツを録画再生するとき、記憶時(録画時)のシステム時刻を基準とする補正提示時刻に録画時の時刻と現在時刻との時間差で補正した第2補正提示時刻を算出する。第2補正提示時刻は、録画再生時のシステム時刻を基準とする提示時刻に対応するその時点におけるシステム時刻を基準とする現在時刻に相当する。そのため、録画再生される付加コンテンツを提示する時刻である第2補正提示時刻を、録画再生に係る音声もしくは映像が提示されるタイミングと同期させることができる。
Further, the receiving
According to this configuration, when recording and playing back the audio or video related to the second multiplexed data and the additional content related to the additional content data, when recording at the correction presentation time based on the system time at the time of storage (recording). The second correction presentation time corrected by the time difference between the time and the current time is calculated. The second correction presentation time corresponds to the current time based on the system time at that time corresponding to the presentation time based on the system time at the time of recording / playback. Therefore, the second correction presentation time, which is the time for presenting the additional content to be recorded and reproduced, can be synchronized with the timing at which the audio or video related to the recording and reproduction is presented.
[第3の実施形態]
次に、本発明の第3の実施形態について説明する。以下の説明では、第2の実施形態の差異を主とする。上述の実施形態と同一の構成については同一の符号を付してその説明を援用する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. In the following description, the differences of the second embodiment will be mainly used. The same components as those in the above-described embodiment are designated by the same reference numerals and the description thereof will be incorporated.
第2の実施形態では、解析部222は、基準時刻からシステム時刻の時間差を参照開始時刻に加算して補正参照開始時刻1を算出し、補正参照開始時刻1を示す提示時刻情報を第2多重化データに多重化していた。
これに対し、本実施形態では、解析部222は、第1多重化データの制御情報から抽出された参照開始時刻をそのまま多重化した第2多重化データを生成する。受信装置1はさらに時間差情報記憶部252を備える。録画を指示する動作制御信号が入力されるとき、解析部222は、基準時刻からシステム時刻の時間差を示す時間差情報を第2多重化データと対応付けて時間差情報記憶部252に記憶する。また、通常再生が設定されているとき、解析部222は、第2多重化データに対応付けて時間差情報を受信処理部30に出力する。
In the second embodiment, the
On the other hand, in the present embodiment, the
また、第2の実施形態では、同期処理部340は、現在時刻から録画時刻の時間差を算出し、分離部330(図2)から入力された提示時刻情報が示す補正参照開始時刻1に算出した時間差を加算して得られる補正参照開始時刻2を示す提示時刻情報を生成していた。
これに対し、本実施形態では、同期処理部340は、現在時刻から録画時刻の時間差を算出し、分離部330から入力された提示時刻情報が示す参照開始時刻に算出した時間差を加算して得られる補正参照開始時刻3を算出する。他方、同期処理部340は、録画再生を指示する動作制御信号が入力されるとき、動作制御信号で指示された区間の第2多重化データと対応付けて記憶された時間差情報を時間差情報記憶部252から記憶する。また、録画再生を指示する動作制御信号が入力されず、通常再生が設定されるとき、同期処理部340には分離部330に入力される第2多重化データと対応付けて時間差情報が入力される。同期処理部340は、取得した時間差情報が示す時間差を補正参照開始時刻3に加算して、補正参照開始時刻3からさらにその時間差がシフトした時刻である補正参照開始時刻4を算出する。同期処理部340は、補正参照開始時刻4を示す提示時刻情報を付加コンテンツ処理部342に出力する。
Further, in the second embodiment, the
On the other hand, in the present embodiment, the
付加コンテンツ処理部342は、分離部330に入力される第2多重化データと同時刻に記憶された文字データを取得し、取得した文字データが示す文字列からなる字幕データを、基準時刻を基準とする現在時刻が同期処理部340から入力される提示時刻情報が示す補正参照開始時刻4になったときに映像合成部334に出力する。かかる構成によっても、録画再生される映像と字幕とがシステム時刻を基準として同期して再生される。
The additional
次に、本実施形態に係る同期処理の例について説明する。
図4は、本実施形態に係る同期処理の例を説明するための説明図である。
本実施形態でも変換処理部20(図2)は、クロック生成部224を備え、受信処理部30(図2)は、クロック生成部344を備える。
Next, an example of the synchronous processing according to the present embodiment will be described.
FIG. 4 is an explanatory diagram for explaining an example of the synchronization process according to the present embodiment.
Also in this embodiment, the conversion processing unit 20 (FIG. 2) includes a
但し、解析部222が実行する処理ブロックR04、R06、R08、R10、R12、R20及びR22のうち、処理ブロックR10及びR12が省略されている。
ここで、解析部222は、第1多重化データから分離された参照開始時刻(reference_start_time)を示す提示時刻情報が示す時刻を補正せずにそのままPMTに多重化する。そして、多重化部230は、そのPMTを多重化して第2多重化データを生成する。(R24:TS化)
However, among the processing blocks R04, R06, R08, R10, R12, R20 and R22 executed by the
Here, the
録画を指示する動作制御信号が入力される場合には、解析部222は、処理ブロックR08で算出した時間差を示す時間差情報(NPT_Diff)を、第2多重化データと対応付けて時間差情報記憶部252に記憶する。動作制御信号が入力されず、通常再生が設定される場合には、解析部222は、処理ブロックR08で算出した時間差を示す時間差情報(NPT_Diff)を、第2多重化データと対応付けて受信処理部30に出力する。
When the operation control signal instructing recording is input, the
また、同期処理部340が実行する処理ブロックとして、処理ブロックP04、P06、P08、P10及びP12の他、処理ブロックP14が追加されている。
録画再生を指示する動作制御信号が入力される場合には、同期処理部340は、動作制御信号で指示される区間の第2多重化データに対応する時間差情報を時間差情報記憶部252から読み出す。
動作制御信号が入力されず、通常再生が設定される場合には、同期処理部340には、分離部330(図2)に入力される第2多重化データに対応する時間差情報が入力される。
同期処理部340は、処理ブロックP12から出力される参照開始時刻として記述される補正参照開始時刻3に取得した時間差情報が示す時間差を加算して補正参照開始時刻4を算出する。(P14)同期処理部340は、参照した補正参照開始時刻4を記述した参照開始時刻を提示時間情報として付加コンテンツ処理部342に出力する。
Further, as the processing block executed by the
When the operation control signal instructing the recording / reproduction is input, the
When the operation control signal is not input and normal playback is set, the time difference information corresponding to the second multiplexed data input to the separation unit 330 (FIG. 2) is input to the
The
従って、本実施形態に係る受信装置1は、録画再生時には、録画時に指示された提示時刻を、その時点におけるシステム時刻を基準とする時刻に補正された補正参照開始時刻4に字幕を表示することができる。また、受信装置1は、通常再生時には、受信時に指示された提示時刻を、システム時刻を基準とする時刻に補正された補正参照開始時刻4に字幕を表示することができる。また、本実施形態では、変換処理部20は、字幕の表示に係る参照開始時刻に相当する提示時刻情報を都度、変更する必要がない。そのため、提示時刻情報の変更に係る処理量が過大にならずに済む。
Therefore, the receiving
以上に説明したように、本実施形態に係る受信装置1は、第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ、音声データならびに記映像データに付加される付加コンテンツに関する付加コンテンツデータ、基準時刻を示す基準時刻情報、システム時刻を示すシステム時刻情報及び付加コンテンツの提示時刻を示す提示時刻情報を分離する分離部330を備える。また、受信装置1は、解析部222、多重化部230及び出力部として出力部240ならびに入出力部242もしくはTS記憶部250ならびに時間差情報記憶部252を備える。
また、受信装置1は、第2多重化方式に対応する分離方式で第2多重化データから音声データ、映像データ及び提示時刻情報を分離し、提示時刻情報が示す提示時刻を時間差情報が示す時間差で補正して補正提示時刻を算出し、補正提示時刻において付加コンテンツデータに関する付加コンテンツを出力する受信処理部30を備える。
As described above, the receiving
Further, the receiving
この構成によれば、提示時刻が第1多重化方式、第2多重化方式の制御情報において指定可能である付加コンテンツについて、第2多重化方式の制御情報で伝達された基準時刻を、基準時刻とシステム時刻との時間差で補正した補正提示時刻が得られる。受信処理部30は、システム時刻を基準とする補正提示時刻に付加コンテンツを提示させることができる。そのため、付加コンテンツを提示する時刻である補正提示時刻を音声もしくは映像が提示されるシステム時刻を基準とするタイミングと同期させることができる。また、第1多重化方式の制御情報に含まれる提示時刻情報を補正する必要がないため、補正に係る処理量の増加や設定が回避される。
According to this configuration, for the additional content whose presentation time can be specified in the control information of the first multiplexing method and the second multiplexing method, the reference time transmitted by the control information of the second multiplexing method is set as the reference time. The correction presentation time corrected by the time difference between the time and the system time can be obtained. The
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成は上述の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。上述の実施形態において説明した各構成は、任意に組み合わせることができる。 Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to the above-described embodiments, and includes designs and the like within a range that does not deviate from the gist of the present invention. The configurations described in the above embodiments can be arbitrarily combined.
例えば、第2、第3実施形態は、主に付加コンテンツデータが文字データであり、提示時刻情報に相当する時刻が参照開始時刻である場合を例にしたが、これには限られない。付加コンテンツデータは、マルチメディアデータであってもよい。その場合には、提示時刻情報に相当する時刻として、アプリケーション制御情報もしくはアプリケーションに記述された各種の実行時刻(例えば、起動時刻、終了時刻、提示時刻など)が適用されればよい。但し、番組表表示アプリケーションに係る放送時間は、上述した提示時刻情報として補正の対象としなくてもよい。
また、文字データのうち、文字スーパーは、放送される映像や音声と同期させる必要がない、そのため、参照開始時刻が文字スーパーの提示時刻を示す場合には、上述した提示時刻情報として補正の対象としなくてもよい。
付加コンテンツは、文字や映像等の視覚情報に限られず、音声、音楽、効果音等の聴覚情報もしくは視覚情報と聴覚情報の組み合わせであってもよい。
For example, in the second and third embodiments, the case where the additional content data is mainly character data and the time corresponding to the presentation time information is the reference start time is taken as an example, but the present invention is not limited to this. The additional content data may be multimedia data. In that case, various execution times (for example, start time, end time, presentation time, etc.) described in the application control information or the application may be applied as the time corresponding to the presentation time information. However, the broadcast time related to the program guide display application does not have to be corrected as the above-mentioned presentation time information.
Further, among the character data, the character supermarket does not need to be synchronized with the broadcast video or audio. Therefore, when the reference start time indicates the presentation time of the character supermarket, it is subject to correction as the above-mentioned presentation time information. It does not have to be.
The additional content is not limited to visual information such as characters and images, but may be auditory information such as voice, music, and sound effects, or a combination of visual information and auditory information.
また、受信装置1の一部の構成が省略されてもよいし、他の構成が追加されてもよい。例えば、受信装置1において、放送受信部12、復調部14、表示部(図示せず)及び再生部(図示せず)のいずれか又はそれらの任意の組み合わせが省略されてもよい。受信装置1は、受信処理部30、表示部及び再生部を省略して変換装置として構成されてもよい。この変換装置からは、さらに放送受信部12と復調部14が省略されてもよい。
また、変換処理部20において、ローカル暗号化部208、TLV記憶部210、及びローカル復号部212が省略されてもよい。
Further, a part of the configuration of the receiving
Further, in the
第2、第3の実施形態において、TS記憶部250は、変換処理部20、受信処理部30とは独立の構成であってもよいし、変換処理部20又は受信処理部30の一部として構成されてもよい。
また、第3の実施形態において、時間差情報記憶部252は、変換処理部20、受信処理部30とは独立の構成であってもよいし、変換処理部20又は受信処理部30の一部として構成されてもよい。TS記憶部250は、時間差情報記憶部252と一体に構成されてもよいし、別体であってもよい。
In the second and third embodiments, the
Further, in the third embodiment, the time difference
なお、上述した発明は、次の態様でも実施することができる。
(1)第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ、前記音声データならびに前記映像データに付加される付加コンテンツに関する付加コンテンツデータ、基準時刻を示す基準時刻情報、システム時刻を示すシステム時刻情報及び前記付加コンテンツの提示時刻を示す提示時刻情報を分離する分離部と、前記提示時刻を、前記基準時刻と前記システム時刻との時間差で補正した補正提示時刻を算出する解析部と、前記音声データ、前記映像データ及び前記補正提示時刻を示す補正提示時刻情報を前記第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する多重化部と、前記第2多重化データと前記付加コンテンツデータをそれぞれ出力する出力部と、を備える受信装置。
The invention described above can also be carried out in the following aspects.
(1) From the first multiplexing data multiplexed by the first multiplexing method, audio data, video data, the audio data, and additional content data related to the additional content added to the video data, which are components of the broadcasting service. A separation unit that separates the reference time information indicating the reference time, the system time information indicating the system time, and the presentation time information indicating the presentation time of the additional content, and the presentation time by the time difference between the reference time and the system time. The analysis unit that calculates the corrected correction presentation time and the correction presentation time information indicating the voice data, the video data, and the correction presentation time are multiplexed by a second multiplexing method different from the first multiplexing method. A receiving device including a multiplexing unit that generates the second multiplexing data and an output unit that outputs the second multiplexing data and the additional content data, respectively.
(2)前記第2多重化方式に対応する分離方式で前記第2多重化データから前記音声データ、前記映像データ及び前記補正提示時刻情報を分離し、前記補正提示時刻情報が示す補正提示時刻に前記付加コンテンツデータに関する付加コンテンツを出力する受信処理部を備える(1)の受信装置。 (2) The audio data, the video data, and the correction presentation time information are separated from the second multiplexing data by a separation method corresponding to the second multiplexing method, and the correction presentation time indicated by the correction presentation time information is set. The receiving device of (1) including a receiving processing unit for outputting additional content related to the additional content data.
(3)第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ、前記音声データならびに前記映像データに付加される付加コンテンツに関する付加コンテンツデータ、基準時刻を示す基準時刻情報、システム時刻を示すシステム時刻情報及び前記付加コンテンツの提示時刻を示す提示時刻情報を分離する分離部と、前記基準時刻と前記システム時刻との時間差を算出する解析部と、前記音声データ、前記映像データ及び前記提示時刻情報を前記第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する多重化部と、前記第2多重化データ、前記付加コンテンツデータ及び前記時間差を示す時間差情報をそれぞれ出力する出力部と、を備える受信装置。 (3) From the first multiplexing data multiplexed by the first multiplexing method, audio data, video data, the audio data, and additional content data related to the additional content added to the video data, which are components of the broadcasting service. A separation unit that separates the reference time information indicating the reference time, the system time information indicating the system time, and the presentation time information indicating the presentation time of the additional content, and an analysis unit that calculates the time difference between the reference time and the system time. , The audio data, the video data, and the presentation time information are multiplexed by a second multiplexing method different from the first multiplexing method to generate second multiplexing data, and the second multiplexing. A receiving device including an output unit for outputting data, additional content data, and time difference information indicating the time difference.
(4)前記第2多重化方式に対応する分離方式で前記第2多重化データから前記音声データ、前記映像データ及び前記提示時刻情報を分離し、前記提示時刻情報が示す提示時刻を前記時間差情報が示す時間差で補正して補正提示時刻を算出し、前記補正提示時刻に前記付加コンテンツデータに関する付加コンテンツを出力する受信処理部を備える(3)の受信装置。 (4) The audio data, the video data, and the presentation time information are separated from the second multiplexing data by a separation method corresponding to the second multiplexing method, and the presentation time indicated by the presentation time information is the time difference information. The receiving device according to (3), further comprising a reception processing unit that calculates the corrected presentation time by correcting with the time difference indicated by the above and outputs the additional content related to the additional content data at the corrected presentation time.
(5)前記第2多重化データと前記付加コンテンツデータを記憶する記憶部を備え、前記受信処理部は、前記記憶部から前記第2多重化データと前記付加コンテンツデータが入力されるとき、前記第2多重化データを記憶した時刻と現在時刻との時間差である第2時間差を算出し、前記補正提示時刻を前記第2時間差で補正して第2補正提示時刻を算出し、前記第2補正提示時刻に、前記記憶部から入力される前記付加コンテンツデータに関する付加コンテンツを出力する(2)又は(4)の受信装置。 (5) A storage unit for storing the second multiplexed data and the additional content data is provided, and the reception processing unit receives the second multiplexed data and the additional content data when the second multiplexed data and the additional content data are input from the storage unit. The second time difference, which is the time difference between the time when the second multiplexed data is stored and the current time, is calculated, the correction presentation time is corrected by the second time difference, the second correction presentation time is calculated, and the second correction presentation time is calculated. The receiving device of (2) or (4) that outputs additional content related to the additional content data input from the storage unit at the presentation time.
(6)前記解析部は、前記基準時刻に同期する基準時刻情報を生成し、前記多重化部は、前記基準時刻情報をさらに多重化して前記第2多重化データを生成し、前記受信処理部は、前記第2多重化データから分離した前記基準時刻情報に基づいてクロック同期を行う(2)、(4)及び(5)のいずれかの受信装置。 (6) The analysis unit generates reference time information synchronized with the reference time, and the multiplexing unit further multiplexes the reference time information to generate the second multiplexed data, and the reception processing unit. Is a receiving device according to any one of (2), (4) and (5), which performs clock synchronization based on the reference time information separated from the second multiplexed data.
(7)前記付加コンテンツデータは、文字を示す文字データを含む(1)から(6)のいずれかの受信装置。 (7) The receiving device according to any one of (1) to (6), wherein the additional content data includes character data indicating characters.
(8)前記第1多重化方式は、Type−length−value/MPEG Media Transport方式であり、前記第2多重化方式は、MPEG−2 Transport Stream方式である(1)から(7)のいずれかの受信装置。 (8) The first multiplexing method is a Type-length-value / MPEG Media Transport method, and the second multiplexing method is an MPEG-2 Transport Stream method, which is any one of (1) to (7). Receiver.
(9)受信装置における受信方法であって、前記受信装置が第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ、前記音声データならびに前記映像データに付加される付加コンテンツに関する付加コンテンツデータ、基準時刻を示す基準時刻情報、システム時刻を示すシステム時刻情報及び前記付加コンテンツの提示時刻を示す提示時刻情報を分離する分離ステップと、前記提示時刻を、前記基準時刻と前記システム時刻との時間差で補正した補正提示時刻を算出する解析ステップと、前記音声データ、前記映像データ及び前記補正提示時刻を示す補正提示時刻情報を前記第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する多重化ステップと、前記第2多重化データと前記付加コンテンツデータをそれぞれ出力する出力ステップと、を有する受信方法。 (9) A receiving method in a receiving device, from the first multiplexing data in which the receiving device is multiplexed by the first multiplexing method to audio data, video data, audio data, and the above, which are components of a broadcasting service. A separation step for separating additional content data related to the additional content added to the video data, reference time information indicating the reference time, system time information indicating the system time, and presentation time information indicating the presentation time of the additional content, and the presentation time. The analysis step of calculating the correction presentation time corrected by the time difference between the reference time and the system time, and the correction presentation time information indicating the voice data, the video data, and the correction presentation time are combined with the first multiplexing method. A receiving method including a multiplexing step of generating second multiplexing data by multiplexing with a second multiplexing method different from the above, and an output step of outputting the second multiplexing data and the additional content data, respectively.
(10)受信装置における受信方法であって、前記受信装置が第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ、前記音声データならびに前記映像データに付加される付加コンテンツに関する付加コンテンツデータ、基準時刻を示す基準時刻情報、システム時刻を示すシステム時刻情報及び前記付加コンテンツの提示時刻を示す提示時刻情報を分離する分離ステップと、前記基準時刻と前記システム時刻との時間差を算出する解析ステップと、前記音声データ、前記映像データ及び前記提示時刻情報を前記第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する多重化ステップと、前記第2多重化データ、前記付加コンテンツデータ及び前記時間差を示す時間差情報をそれぞれ出力する出力ステップと、を有する受信方法。 (10) A receiving method in a receiving device, from the first multiplexing data in which the receiving device is multiplexed by the first multiplexing method to audio data, video data, audio data, and the above, which are components of a broadcasting service. A separation step for separating additional content data related to additional content added to the video data, reference time information indicating a reference time, system time information indicating the system time, and presentation time information indicating the presentation time of the additional content, and the reference time. And the analysis step of calculating the time difference between the system time and the system time, and the audio data, the video data, and the presentation time information are multiplexed by a second multiplexing method different from the first multiplexing method to perform the second multiplexing. A receiving method including a multiplexing step for generating data and an output step for outputting the second multiplexing data, the additional content data, and time difference information indicating the time difference, respectively.
(11)受信装置のコンピュータに、第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ、前記音声データならびに前記映像データに付加される付加コンテンツに関する付加コンテンツデータ、基準時刻を示す基準時刻情報、システム時刻を示すシステム時刻情報及び前記付加コンテンツの提示時刻を示す提示時刻情報を分離する分離手順と、前記提示時刻を、前記基準時刻と前記システム時刻との時間差で補正した補正提示時刻を算出する解析手順と、前記音声データ、前記映像データ及び前記補正提示時刻を示す補正提示時刻情報を前記第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する多重化手順と、前記第2多重化データと前記付加コンテンツデータをそれぞれ出力する出力手順と、を実行させるためのプログラム。 (11) Addition to the computer of the receiving device from the first multiplexing data multiplexed by the first multiplexing method to audio data, video data, audio data, and video data which are components of the broadcasting service. The separation procedure for separating the additional content data related to the content, the reference time information indicating the reference time, the system time information indicating the system time, and the presentation time information indicating the presentation time of the additional content, and the presentation time are the reference time and the above. The analysis procedure for calculating the correction presentation time corrected by the time difference from the system time, and the correction presentation time information indicating the voice data, the video data, and the correction presentation time are secondly multiplexed, which is different from the first multiplexing method. A program for executing a multiplexing procedure for generating second multiplexed data by multiplexing by a conversion method, and an output procedure for outputting the second multiplexed data and the additional content data, respectively.
(12)受信装置のコンピュータに、第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ、前記音声データならびに前記映像データに付加される付加コンテンツに関する付加コンテンツデータ、基準時刻を示す基準時刻情報、システム時刻を示すシステム時刻情報及び前記付加コンテンツの提示時刻を示す提示時刻情報を分離する分離手順と、前記基準時刻と前記システム時刻との時間差を算出する解析手順と、前記音声データ、前記映像データ及び前記提示時刻情報を前記第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する多重化手順と、前記第2多重化データ、前記付加コンテンツデータ及び前記時間差を示す時間差情報をそれぞれ出力する出力手順と、を実行させるためのプログラム。 (12) Addition to the computer of the receiving device from the first multiplexing data multiplexed by the first multiplexing method to audio data, video data, audio data, and video data which are components of the broadcasting service. The separation procedure for separating the additional content data related to the content, the reference time information indicating the reference time, the system time information indicating the system time, and the presentation time information indicating the presentation time of the additional content, and the time difference between the reference time and the system time. And an analysis procedure for generating the second multiplexing data by multiplexing the audio data, the video data, and the presentation time information by a second multiplexing method different from the first multiplexing method. A program for executing the second multiplexing data, the additional content data, and an output procedure for outputting the time difference information indicating the time difference, respectively.
また、上述の変換処理部20、受信処理部30の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより変換処理部20及び受信処理部30を実現してもよい。当該プログラムは、上述の実施形態において説明したアプリケーションプログラムとは別個のプログラムであるが、その一部の機能が当該アプリケーションプログラムに基づいて実現されてもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。
Further, a program for realizing the functions of the
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部または外部に設けられた記録媒体も含まれる。配信サーバの記録媒体に記憶されるプログラムのコードは、端末装置で実行可能な形式のプログラムのコードと異なるものでもよい。すなわち、配信サーバからダウンロードされて端末装置で実行可能な形でインストールができるものであれば、配信サーバで記憶される形式は問わない。 Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, or a storage device such as a hard disk built in a computer system. As described above, the recording medium in which the program is stored may be a non-transient recording medium such as a CD-ROM. The recording medium also includes an internal or external recording medium that can be accessed from the distribution server to distribute the program. The code of the program stored in the recording medium of the distribution server may be different from the code of the program in a format that can be executed by the terminal device. That is, the format stored in the distribution server does not matter as long as it can be downloaded from the distribution server and installed in a form that can be executed by the terminal device.
なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に端末装置で一体化する構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えば、RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 The program may be divided into a plurality of parts, downloaded at different timings, and then integrated with the terminal device, or the distribution server for distributing each of the divided programs may be different. Furthermore, a "computer-readable recording medium" is a volatile memory (for example, RAM) inside a computer system that serves as a server or client when a program is transmitted via a network, and holds the program for a certain period of time. It shall also include those that are. Further, the above program may be for realizing a part of the above-mentioned functions. Further, a so-called difference file (difference program) may be used, which can realize the above-mentioned functions in combination with a program already recorded in the computer system.
1…受信装置、12…放送受信部、14…復調部、20…変換処理部、30…受信処理部、202…入力部、204…復号部、206…デスクランブル部、208…ローカル暗号化部、210…TLV記憶部、212…ローカル復号部、214…変換部、220…分離部、222…解析部、230…多重化部、232…SI管理部、234…NTP管理部、236…TTML管理部、238…HTML管理部、240…出力部、242…入出力部、250…TS記憶部、252…時間差情報記憶部、320…入力部、322…入出力部、324…通信部、330…分離部、332…映像復号部、334…映像合成部、336…音声復号部、338…音声ミキシング部、340…同期処理部、342…付加コンテンツ処理部 1 ... Receiver, 12 ... Broadcast receiver, 14 ... Demodulation unit, 20 ... Conversion processing unit, 30 ... Reception processing unit, 202 ... Input unit, 204 ... Decryption unit, 206 ... Desk rumble unit, 208 ... Local encryption unit , 210 ... TLV storage unit, 212 ... local decoding unit, 214 ... conversion unit, 220 ... separation unit, 222 ... analysis unit, 230 ... multiplexing unit, 232 ... SI management unit, 234 ... NTP management unit, 236 ... TTML management Unit, 238 ... HTML management unit, 240 ... output unit, 242 ... input / output unit, 250 ... TS storage unit, 252 ... time difference information storage unit, 320 ... input unit, 322 ... input / output unit, 324 ... communication unit, 330 ... Separation unit, 332 ... Video decoding unit, 334 ... Video synthesis unit, 336 ... Audio decoding unit, 338 ... Audio mixing unit, 340 ... Synchronous processing unit, 342 ... Additional content processing unit
Claims (12)
前記提示時刻を、前記基準時刻と前記システム時刻との時間差で補正した補正提示時刻を算出する解析部と、
前記音声データ、前記映像データ及び前記補正提示時刻を示す補正提示時刻情報を前記第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する多重化部と、
前記第2多重化データと前記付加コンテンツデータをそれぞれ出力する出力部と、
を備える受信装置。 From the first multiplexing data multiplexed by the first multiplexing method, audio data and video data which are components of the broadcasting service, additional content data related to the audio data and additional content added to the video data, and a reference time are obtained. A separation unit that separates the reference time information to be shown, the system time information to show the system time, and the presentation time information to show the presentation time of the additional content.
An analysis unit that calculates a corrected presentation time obtained by correcting the presentation time by the time difference between the reference time and the system time.
With a multiplexing unit that generates the second multiplexing data by multiplexing the audio data, the video data, and the correction presentation time information indicating the correction presentation time by a second multiplexing method different from the first multiplexing method. ,
An output unit that outputs the second multiplexed data and the additional content data, respectively.
A receiver equipped with.
前記補正提示時刻情報が示す補正提示時刻に前記付加コンテンツデータに関する付加コンテンツを出力する受信処理部を備える
請求項1に記載の受信装置。 The audio data, the video data, and the correction presentation time information are separated from the second multiplexing data by a separation method corresponding to the second multiplexing method.
The receiving device according to claim 1, further comprising a receiving processing unit that outputs additional content related to the additional content data at the corrected presentation time indicated by the corrected presentation time information.
前記基準時刻と前記システム時刻との時間差を算出する解析部と、
前記音声データ、前記映像データ及び前記提示時刻情報を前記第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する多重化部と、
前記第2多重化データ、前記付加コンテンツデータ及び前記時間差を示す時間差情報をそれぞれ出力する出力部と、
を備える受信装置。 From the first multiplexing data multiplexed by the first multiplexing method, audio data and video data which are components of the broadcasting service, additional content data related to the audio data and additional content added to the video data, and a reference time are obtained. A separation unit that separates the reference time information to be shown, the system time information to show the system time, and the presentation time information to show the presentation time of the additional content.
An analysis unit that calculates the time difference between the reference time and the system time,
A multiplexing unit that generates the second multiplexing data by multiplexing the audio data, the video data, and the presentation time information by a second multiplexing method different from the first multiplexing method.
An output unit that outputs the second multiplexed data, the additional content data, and time difference information indicating the time difference, respectively.
A receiver equipped with.
前記提示時刻情報が示す提示時刻を前記時間差情報が示す時間差で補正して補正提示時刻を算出し、
前記補正提示時刻に前記付加コンテンツデータに関する付加コンテンツを出力する受信処理部を備える
請求項3に記載の受信装置。 The audio data, the video data, and the presentation time information are separated from the second multiplexing data by a separation method corresponding to the second multiplexing method.
The corrected presentation time is calculated by correcting the presentation time indicated by the presentation time information with the time difference indicated by the time difference information.
The receiving device according to claim 3, further comprising a receiving processing unit that outputs additional content related to the additional content data at the corrected presentation time.
前記受信処理部は、
前記記憶部から前記第2多重化データと前記付加コンテンツデータが入力されるとき、
前記第2多重化データを記憶した時刻と現在時刻との時間差である第2時間差を算出し、
前記補正提示時刻を前記第2時間差で補正して第2補正提示時刻を算出し、
前記第2補正提示時刻に、前記記憶部から入力される前記付加コンテンツデータに関する付加コンテンツを出力する
請求項2又は請求項4に記載の受信装置。 A storage unit for storing the second multiplexed data and the additional content data is provided.
The reception processing unit
When the second multiplexed data and the additional content data are input from the storage unit,
The second time difference, which is the time difference between the time when the second multiplexed data is stored and the current time, is calculated.
The second correction presentation time is calculated by correcting the correction presentation time with the second time difference.
The receiving device according to claim 2 or 4, wherein the additional content related to the additional content data input from the storage unit is output at the second correction presentation time.
前記基準時刻に同期する基準時刻情報を生成し、
前記多重化部は、
前記基準時刻情報をさらに多重化して前記第2多重化データを生成し、
前記受信処理部は、
前記第2多重化データから分離した前記基準時刻情報に基づいてクロック同期を行う
請求項2、請求項4及び請求項5のいずれか一項に記載の受信装置。 The analysis unit
Generates reference time information that synchronizes with the reference time,
The multiplexing unit is
The reference time information is further multiplexed to generate the second multiplexed data.
The reception processing unit
The receiving device according to any one of claims 2, 4, and 5, which performs clock synchronization based on the reference time information separated from the second multiplexed data.
請求項1から請求項6のいずれか一項に記載の受信装置。 The receiving device according to any one of claims 1 to 6, wherein the additional content data includes character data indicating characters.
前記第2多重化方式は、MPEG−2 Transport Stream方式である
請求項1から請求項7のいずれか一項に記載の受信装置。 The first multiplexing method is a Type-length-value / MPEG Media Transport method.
The receiving device according to any one of claims 1 to 7, wherein the second multiplexing method is an MPEG-2 Transport Stream method.
前記受信装置が
第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ、前記音声データならびに前記映像データに付加される付加コンテンツに関する付加コンテンツデータ、基準時刻を示す基準時刻情報、システム時刻を示すシステム時刻情報及び前記付加コンテンツの提示時刻を示す提示時刻情報を分離する分離ステップと、
前記提示時刻を、前記基準時刻と前記システム時刻との時間差で補正した補正提示時刻を算出する解析ステップと、
前記音声データ、前記映像データ及び前記補正提示時刻を示す補正提示時刻情報を前記第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する多重化ステップと、
前記第2多重化データと前記付加コンテンツデータをそれぞれ出力する出力ステップと、
を有する受信方法。 It is a receiving method in the receiving device.
From the first multiplexing data in which the receiving device is multiplexed by the first multiplexing method, audio data, video data, audio data, and additional content data to be added to the video data, which are components of the broadcasting service. , A separation step that separates the reference time information indicating the reference time, the system time information indicating the system time, and the presentation time information indicating the presentation time of the additional content.
An analysis step of calculating a corrected presentation time obtained by correcting the presentation time by the time difference between the reference time and the system time, and
A multiplexing step of generating the second multiplexing data by multiplexing the audio data, the video data, and the correction presentation time information indicating the correction presentation time by a second multiplexing method different from the first multiplexing method. ,
An output step for outputting the second multiplexed data and the additional content data, respectively.
Receiving method having.
前記受信装置が
第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ、前記音声データならびに前記映像データに付加される付加コンテンツに関する付加コンテンツデータ、基準時刻を示す基準時刻情報、システム時刻を示すシステム時刻情報及び前記付加コンテンツの提示時刻を示す提示時刻情報を分離する分離ステップと、
前記基準時刻と前記システム時刻との時間差を算出する解析ステップと、
前記音声データ、前記映像データ及び前記提示時刻情報を前記第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する多重化ステップと、
前記第2多重化データ、前記付加コンテンツデータ及び前記時間差を示す時間差情報をそれぞれ出力する出力ステップと、
を有する受信方法。 It is a receiving method in the receiving device.
From the first multiplexing data in which the receiving device is multiplexed by the first multiplexing method, audio data, video data, audio data, and additional content data to be added to the video data, which are components of the broadcasting service. , A separation step that separates the reference time information indicating the reference time, the system time information indicating the system time, and the presentation time information indicating the presentation time of the additional content.
An analysis step for calculating the time difference between the reference time and the system time,
A multiplexing step of generating the second multiplexing data by multiplexing the audio data, the video data, and the presentation time information by a second multiplexing method different from the first multiplexing method.
An output step for outputting the second multiplexed data, the additional content data, and the time difference information indicating the time difference, respectively.
Receiving method having.
第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ、前記音声データならびに前記映像データに付加される付加コンテンツに関する付加コンテンツデータ、基準時刻を示す基準時刻情報、システム時刻を示すシステム時刻情報及び前記付加コンテンツの提示時刻を示す提示時刻情報を分離する分離手順と、
前記提示時刻を、前記基準時刻と前記システム時刻との時間差で補正した補正提示時刻を算出する解析手順と、
前記音声データ、前記映像データ及び前記補正提示時刻を示す補正提示時刻情報を前記第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する多重化手順と、
前記第2多重化データと前記付加コンテンツデータをそれぞれ出力する出力手順と、
を実行させるためのプログラム。 From the first multiplexing data multiplexed by the first multiplexing method to the computer of the receiving device, audio data, video data, the audio data which are components of the broadcasting service, and additional content related to the additional content added to the video data. A separation procedure for separating data, reference time information indicating a reference time, system time information indicating a system time, and presentation time information indicating the presentation time of the additional content, and a separation procedure.
An analysis procedure for calculating a corrected presentation time obtained by correcting the presentation time by the time difference between the reference time and the system time, and
A multiplexing procedure for generating second multiplexing data by multiplexing the audio data, the video data, and the correction presentation time information indicating the correction presentation time by a second multiplexing method different from the first multiplexing method. ,
An output procedure for outputting the second multiplexed data and the additional content data, respectively.
A program to execute.
第1多重化方式で多重化された第1多重化データから放送サービスの構成要素である音声データ、映像データ、前記音声データならびに前記映像データに付加される付加コンテンツに関する付加コンテンツデータ、基準時刻を示す基準時刻情報、システム時刻を示すシステム時刻情報及び前記付加コンテンツの提示時刻を示す提示時刻情報を分離する分離手順と、
前記基準時刻と前記システム時刻との時間差を算出する解析手順と、
前記音声データ、前記映像データ及び前記提示時刻情報を前記第1多重化方式とは別の第2多重化方式で多重化して第2多重化データを生成する多重化手順と、
前記第2多重化データ、前記付加コンテンツデータ及び前記時間差を示す時間差情報をそれぞれ出力する出力手順と、
を実行させるためのプログラム。 From the first multiplexing data multiplexed by the first multiplexing method to the computer of the receiving device, audio data, video data, the audio data which are components of the broadcasting service, and additional content related to the additional content added to the video data. A separation procedure for separating data, reference time information indicating a reference time, system time information indicating a system time, and presentation time information indicating the presentation time of the additional content, and a separation procedure.
An analysis procedure for calculating the time difference between the reference time and the system time, and
A multiplexing procedure for generating second multiplexing data by multiplexing the audio data, the video data, and the presentation time information by a second multiplexing method different from the first multiplexing method.
An output procedure for outputting the second multiplexed data, the additional content data, and time difference information indicating the time difference, respectively.
A program to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017167841A JP6836971B2 (en) | 2017-08-31 | 2017-08-31 | Receiver, receiver method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017167841A JP6836971B2 (en) | 2017-08-31 | 2017-08-31 | Receiver, receiver method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019047293A JP2019047293A (en) | 2019-03-22 |
JP6836971B2 true JP6836971B2 (en) | 2021-03-03 |
Family
ID=65814769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017167841A Active JP6836971B2 (en) | 2017-08-31 | 2017-08-31 | Receiver, receiver method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6836971B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007300324A (en) * | 2006-04-28 | 2007-11-15 | Sharp Corp | Digital broadcast receiving, recording and reproducing device |
JP6222781B2 (en) * | 2015-03-19 | 2017-11-01 | マクセルホールディングス株式会社 | Control method |
JP6986671B2 (en) * | 2015-10-07 | 2021-12-22 | パナソニックIpマネジメント株式会社 | Receiver and receiving method |
-
2017
- 2017-08-31 JP JP2017167841A patent/JP6836971B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019047293A (en) | 2019-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5903924B2 (en) | Receiving apparatus and subtitle processing method | |
CN1328724C (en) | System and method for time synchronization between multimedia content and segment metadata | |
WO2014188960A1 (en) | Transmission device, transmission method, reception device and reception method | |
JP4248703B2 (en) | Stream multiplexing device, data broadcasting device | |
JP2004297628A (en) | Stream switching apparatus and apparatus for providing contents thereto | |
JP2002112237A (en) | Digital broadcast receiver | |
JP2018182677A (en) | Information processing apparatus, information processing method, program, and recording medium manufacturing method | |
US7434248B2 (en) | Broadcast system and apparatus, sync information replacing apparatus and method, program, and recording medium recording the program | |
US20140119542A1 (en) | Information processing device, information processing method, and information processing program product | |
JP6836971B2 (en) | Receiver, receiver method and program | |
JP6953238B2 (en) | Receiver, receiving method and program | |
JP7477116B2 (en) | Apparatus and method for distributing broadcast services over a communication network | |
JP4689231B2 (en) | Transport stream switching device | |
JP2013115630A (en) | Reproduction apparatus, reproduction method, and program | |
JP4197078B2 (en) | Video / audio partial reproduction method and receiver in storage type digital broadcasting | |
US20120131620A1 (en) | Control apparatus and control method | |
JP4242525B2 (en) | Video / audio partial playback method and receiver in digital broadcasting | |
JP2004088366A (en) | Digital broadcast receiver and digital broadcast system | |
JP5870718B2 (en) | Receiving device, receiving method and program | |
JP6515741B2 (en) | Content transmission system, transmission apparatus, transmission method, transmission program | |
JP2023119869A (en) | Reception device, broadcasting system, reception method, and program | |
JP4260534B2 (en) | Recording / reproducing apparatus and method for digital broadcasting | |
JP6596363B2 (en) | Time mapping information generation apparatus, synchronized playback system, time mapping information generation method, and time mapping information generation program | |
JP2014060625A (en) | Video signal transmission method, video signal receiver, and video signal reception method | |
JP2010193209A (en) | Digital broadcast receiver |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200325 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6836971 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |