JP2017011325A - 受信装置、送信装置、及び、データ処理方法 - Google Patents

受信装置、送信装置、及び、データ処理方法 Download PDF

Info

Publication number
JP2017011325A
JP2017011325A JP2015121335A JP2015121335A JP2017011325A JP 2017011325 A JP2017011325 A JP 2017011325A JP 2015121335 A JP2015121335 A JP 2015121335A JP 2015121335 A JP2015121335 A JP 2015121335A JP 2017011325 A JP2017011325 A JP 2017011325A
Authority
JP
Japan
Prior art keywords
ttml
file
information
mode
subtitle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015121335A
Other languages
English (en)
Other versions
JP6610019B2 (ja
Inventor
北里 直久
Naohisa Kitazato
直久 北里
山岸 靖明
Yasuaki Yamagishi
靖明 山岸
武敏 山根
Taketoshi Yamane
武敏 山根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2015121335A priority Critical patent/JP6610019B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to KR1020177032108A priority patent/KR20180018490A/ko
Priority to MX2017016011A priority patent/MX2017016011A/es
Priority to CA2980851A priority patent/CA2980851A1/en
Priority to EP16730509.3A priority patent/EP3311583B1/en
Priority to US15/564,056 priority patent/US11622088B2/en
Priority to PCT/JP2016/002684 priority patent/WO2016203726A1/en
Publication of JP2017011325A publication Critical patent/JP2017011325A/ja
Application granted granted Critical
Publication of JP6610019B2 publication Critical patent/JP6610019B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/087Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
    • H04N7/088Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital
    • H04N7/0884Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection
    • H04N7/0885Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection for the transmission of subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23611Insertion of stuffing data into a multiplex stream, e.g. to obtain a constant bitrate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Circuits Of Receivers In General (AREA)

Abstract

【課題】所望のタイミングで字幕を表示させることができるようにする。
【解決手段】受信装置は、デジタル放送の放送波で伝送される、字幕に関する字幕情報と、字幕の表示のタイミングを指定するための複数のモードのうちの特定のモードを選択するための選択情報を含む制御情報を取得し、制御情報に含まれる選択情報に基づいて、特定のモードに応じた表示のタイミングで、字幕情報に応じた字幕の表示を制御する。本技術は、例えば、ATSC3.0に対応したテレビ受像機に適用することができる。
【選択図】図1

Description

本技術は、受信装置、送信装置、及び、データ処理方法に関し、特に、所望のタイミングで字幕を表示させることができるようにした受信装置、送信装置、及び、データ処理方法に関する。
映像に対して字幕を重畳して表示するための方式として、表示タイミングや表示位置等を指定可能なマークアップ言語であるTTML(Timed Text Markup Language)が知られている(例えば、特許文献1参照)。TTMLは、W3C(World Wide Web Consortium)により標準化されている。
特開2012−169885号公報
ところで、TTML等を用いた字幕を表示するための技術方式は確立されておらず、所望のタイミングで字幕を表示させるための提案が要請されていた。
本技術はこのような状況に鑑みてなされたものであり、所望のタイミングで字幕を表示させることができるようにするものである。
本技術の第1の側面の受信装置は、デジタル放送の放送波を受信する受信部と、前記放送波で伝送される、字幕に関する字幕情報と、前記字幕の表示のタイミングを指定するための複数のモードのうちの特定のモードを選択するための選択情報を含む制御情報を取得する取得部と、前記制御情報に含まれる前記選択情報に基づいて、前記特定のモードに応じた表示のタイミングで、前記字幕情報に応じた前記字幕の表示を制御する制御部とを備える受信装置である。
本技術の第1の側面の受信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。また、本技術の第1の側面のデータ処理方法は、上述した本技術の第1の側面の受信装置に対応するデータ処理方法である。
本技術の第1の側面の受信装置及びデータ処理方法においては、デジタル放送の放送波で伝送される、字幕に関する字幕情報と、前記字幕の表示のタイミングを指定するための複数のモードのうちの特定のモードを選択するための選択情報を含む制御情報が取得され、前記制御情報に含まれる前記選択情報に基づいて、前記特定のモードに応じた表示のタイミングで、前記字幕情報に応じた前記字幕の表示が制御される。
本技術の第2の側面の送信装置は、字幕の表示のタイミングを指定するための複数のモードのうちの特定のモードを選択するための選択情報を含む制御情報を生成する生成部と、前記字幕に関する字幕情報とともに、前記制御情報を、デジタル放送の放送波で送信する送信部とを備える送信装置である。
本技術の第2の側面の送信装置は、独立した装置であってもよいし、1つの装置を構成している内部ブロックであってもよい。また、本技術の第2の側面のデータ処理方法は、上述した本技術の第2の側面の送信装置に対応するデータ処理方法である。
本技術の第2の側面の送信装置及びデータ処理方法においては、デジタル放送の放送波で字幕に関する字幕情報とともに伝送される、前記字幕の表示のタイミングを指定するための複数のモードのうちの特定のモードを選択するための選択情報を含む制御情報が生成される。
本技術の第1の側面及び第2の側面によれば、所望のタイミングで字幕を表示させることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した伝送システムの一実施の形態の構成を示す図である。 本実施例のプロトコルスタックを示す図である。 MPDファイルの構造を示す図である。 MPDファイルの記述例を示す図である。 多重化ストリームを表現する場合におけるAdaptationSet要素とRepresentation要素の関係を示す図である。 多重化ストリームを表現する場合におけるAdaptationSet要素と、Representation要素と、SubRepresentation要素の関係を示す図である。 AdaptationSet要素に含めることが可能な属性や要素の例を示す図である。 Representation要素に含めることが可能な属性や要素の例を示す図である。 MP4のファイルフォーマットを示す図である。 TTML処理モードの例を示す図である。 モード1での運用が行われる場合のMPDファイルの記述例を示す図である。 モード1での運用が行われる場合の字幕の表示タイミングの例を示す図である。 モード2−1での運用が行われる場合のMPDファイルの記述例を示す図である。 モード2−1での運用が行われる場合の字幕の表示タイミングの例を示す図である。 モード2−2での運用が行われる場合のMPDファイルの記述例を示す図である。 モード2−2での運用が行われる場合の字幕の表示タイミングの例を示す図である。 モード3での運用が行われる場合のMPDファイルの記述例を示す図である。 モード3での運用が行われる場合の字幕の表示タイミングの例を示す図である。 ATSCサーバの構成例を示す図である。 ATSCサーバの詳細な構成例を示す図である。 ATSCクライアントの詳細な構成例を示す図である。 ATSCクライアントのソフトウェア構成例を示す図である。 送信処理を説明するフローチャートである。 コンポーネント・シグナリング処理を説明するフローチャートである。 受信処理を説明するフローチャートである。 コンポーネント・シグナリング処理を説明するフローチャートである。 コンピュータの構成例を示す図である。
以下、図面を参照しながら本技術の実施の形態について説明する。なお、説明は以下の順序で行うものとする。
1.システムの構成
2.本技術の概要
3.具体的な運用例
(1)モード1:TTML Time Only
(2)モード2:Sample Time Only
(2−1)モード2−1:Sample Time Only
(2−2)モード2−2:Sample Time Only But Till Next
(3)モード3:Asap
4.各装置の構成
5.各装置で実行される処理の流れ
6.変形例
7.コンピュータの構成
<1.システムの構成>
図1は、本技術を適用した伝送システムの一実施の形態の構成を示す図である。なお、システムとは、複数の装置が論理的に集合した物をいう。
図1において、伝送システム1は、ATSCサーバ10とATSCクライアント20から構成される。この伝送システム1では、ATSC3.0等のデジタル放送の規格に準拠したデータ伝送が行われる。ATSC3.0は、現在策定中の次世代のATSC(Advanced Television Systems Committee)規格である。
ATSCサーバ10は、ATSC3.0等のデジタル放送の規格に対応した送信機であって、例えば、複数のサーバから構成される。ATSCサーバ10は、テレビ番組等のコンテンツを構成するビデオやオーディオ、字幕等(のコンポーネント)のストリームを、デジタル放送信号として、伝送路30を介して送信(伝送)する。
ATSCクライアント20は、ATSC3.0等のデジタル放送の規格に対応した受信機であって、例えば、テレビ受像機やセットトップボックスなどの固定受信機、あるいは、スマートフォンや携帯電話機、タブレット型コンピュータなどのモバイル受信機である。また、ATSCクライアント20は、例えば車載テレビなどの自動車に搭載される機器であってもよい。
ATSCクライアント20は、ATSCサーバ10から伝送路30を介して送信(伝送)されてくる、デジタル放送信号を受信して、ビデオやオーディオ、字幕等(のコンポーネント)のストリームを取得して処理し、テレビ番組等のコンテンツの映像や音声を出力する。
なお、図1において、伝送路30としては、例えば地上波のほか、衛星回線やケーブルテレビジョン網(有線回線)等を利用することができる。
<2.本技術の概要>
(プロトコルスタック)
ところで、ATSC3.0では、データ伝送に、TS(Transport Stream)パケットではなく、IP/UDPパケット、すなわち、UDP(User Datagram Protocol)パケットを含むIP(Internet Protocol)パケットを用いることが決定されている。
また、ATSC3.0においては、トランスポート・プロトコルとして、ROUTE(Real-Time Object Delivery over Unidirectional Transport)と、MMT(MPEG Media Transport)が併存し、いずれか一方のトランスポート・プロトコルを用いてビデオやオーディオ、字幕等(のコンポーネント)のストリームが伝送される。
ここで、ROUTEは、バイナリファイルを一方向でマルチキャスト転送するのに適したプロトコルであるFLUTE(File Delivery over Unidirectional Transport)を拡張したプロトコルである。また、MMTは、IP(Internet Protocol)上で用いられるトランスポート方式であり、制御情報によりIPアドレスやURL(Uniform Resource Locator)を設定することで、ビデオやオーディオ等のデータを参照することができる。
さらに、ATSC3.0においては、シグナリングとして、LLS(Link Layer Signaling)シグナリング情報と、SLS(Service Layer Signaling)シグナリング情報を規定することが想定されており、先行して取得されるLLSシグナリング情報に記述される情報に従い、サービスごとのSLSシグナリング情報が取得されることになる。
ここで、LLSシグナリング情報としては、例えば、SLT(Service List Table)等のメタデータが含まれる。SLTメタデータは、サービスの選局に必要な情報(選局情報)など、放送ネットワークにおけるストリームやサービスの構成を示す情報を含む。
また、SLSシグナリング情報としては、例えば、USD(User Service Description),LSID(LCT Session Instance Description),MPD(Media Presentation Description)等のメタデータが含まれる。USDメタデータは、他のメタデータの取得先などの情報を含む。LSIDメタデータは、ROUTEプロトコルの制御情報である。MPDメタデータは、コンポーネントのストリームの再生を管理するための制御情報である。なお、USD,LSID,MPD等のメタデータは、XML(Extensible Markup Language)等のマークアップ言語により記述される。また、MPDメタデータは、MPEG-DASH(Dynamic Adaptive Streaming over HTTP)の規格に準じている。MPDメタデータは、XML形式のファイルとして提供されるので、以下の説明では、MPDファイルと称して説明する。
図2は、本実施例のプロトコルスタックを示す図である。
図2において、最も下位の階層は、物理層(Physical Layer)とされる。この物理層に隣接する上位の階層は、レイヤ2の階層(Layer2)とされ、さらに、レイヤ2の階層に隣接する上位の階層は、IP層とされる。また、IP層に隣接する上位の階層はUDP層とされる。すなわち、UDPパケットを含むIPパケット(IP/UDPパケット)が、レイヤ2のGenericパケットのペイロードに配置され、カプセル化(encapsulation)される。また、物理層のフレーム(ATSC Physical Frame)は、プリアンブルとデータ部から構成されるが、データ部には、複数のGenericパケットをカプセル化して得られるBBフレームに対してエラー訂正用のパリティを付加した後に、インターリーブやマッピング等の物理層に関する処理が行われることで得られるデータがマッピングされる。
UDP層に隣接する上位の階層は、ROUTE,MMT,SLTとされる。すなわち、ROUTEセッションで伝送される、ビデオ、オーディオ、及び、字幕のストリームと、SLSシグナリング情報のストリームと、NRTコンテンツのストリームは、IP/UDPパケットに格納されて伝送される。なお、NRTコンテンツは、NRT(Non Real Time)放送で配信されるコンテンツであって、ATSCクライアント20のストレージに一旦蓄積された後で再生が行われる。また、NRTコンテンツ以外のファイル(例えばアプリケーションのファイル)がROUTEセッションで伝送されるようにしてもよい。
一方で、MMTセッションで伝送される、ビデオ、オーディオ、及び、字幕のストリームと、SLSシグナリング情報のストリームは、IP/UDPパケットに格納されて伝送される。また、SLTメタデータは、IP/UDPパケットに格納されて伝送される。
以上のようなプロトコルスタックが採用されているため、ATSCクライアント20は、ROUTEセッションで伝送されるコンポーネントのストリームにより提供されるサービス(チャンネル)の選局時には、SLTメタデータに含まれる選局情報に従い、ROUTEセッションで伝送されるSLSシグナリング情報を取得する(S1−1,S1−2)。そして、ATSCクライアント20は、USD,LSID,MPD等のメタデータに従い、選局されたサービスを提供するコンポーネントのストリームに接続する(S1−3)。これにより、ATSCクライアント20では、選局されたサービスに応じたコンテンツ(例えばテレビ番組)の映像や音声が出力される。
また、ATSCクライアント20は、MMTセッションで伝送されるコンポーネントのストリームにより提供されるサービスの選局時には、SLTメタデータに含まれる選局情報に従い、MMTセッションで伝送されるSLSシグナリング情報を取得する(S2−1,S2−2)。そして、ATSCクライアント20は、USD,LSID,MPD等のメタデータに従い、選局されたサービスを提供するコンポーネントのストリームに接続する(S2−3)。これにより、ATSCクライアント20では、選局されたサービスに応じたコンテンツ(例えばテレビ番組)の映像や音声が出力される。
(MPDファイルの構造)
次に、図3乃至図8を参照して、SLSシグナリング情報として伝送されるMPDファイルについて説明する。図3は、MPDファイルの構造を示す図である。また、MPDファイルは、図4の記述例で示すように、XML形式の階層構造で記述される。
ここで、図3に示すように、MPDファイルは、Period要素、AdaptationSet要素、Representation要素、及び、SubRepresentation要素が階層構造で記述されている。Period要素は、テレビ番組等のコンテンツの構成を記述する単位となる。また、AdaptationSet要素、Representation要素、又は、SubRepresentation要素は、ビデオやオーディオ、字幕等(のコンポーネント)のそれぞれのストリームごとに利用され、ぞれぞれのストリームの属性を記述できるようになっている。
具体的には、AdaptationSet要素は、各種のソースからエンコードされたストリームを表している。そして、当該ストリームを、例えばビットレート等のパラメトリックに応じて、ATSCクライアント20側で選択させるために、AdaptationSet要素内に、Representation要素を配置して、例えばビットレート等のパラメータが異なる複数の選択肢となるストリームを列挙している。通常、AdaptationSet要素やRepresentation要素は、ビデオやオーディオ、字幕のストリームなど、単一のストリームに対応させている。
また、AdaptationSet要素が、ビデオストリームやオーディオストリーム、字幕ストリームなどの複数のストリームが多重化されたストリームを表現する場合、AdaptationSet要素内に、Representation要素を配置して、例えばビットレート等のパラメータが異なる複数の選択肢となる多重化されたストリームを列挙する。すなわち、図5に示すように、時間間隔を表すPeriod要素ごとに、多重化されたストリームを表す複数のAdaptationSet要素が配置され、それらのAdaptationSet要素内に配置された複数のRepresentation要素により、例えばビットレートが異なる多重化されたストリームを複数列挙することができる。
また、この場合においては、Representation要素の配下にさらにSubRepresentation要素を配置することで、多重化されたストリームを構成する各コンポーネントのストリームの属性を記述することもできる。すなわち、図6に示すように、時間間隔を表すPeriod要素ごとに、多重化されたストリームを表す複数のAdaptationSet要素が配置され、それらのAdaptationSet要素内に、例えばビットレートが異なる多重化されたストリームを表す複数のRepresentation要素が配置され、さらに、それらのRepresentation要素内に配置されたSubRepresentation要素により、例えば、ビデオストリームやオーディオストリーム、字幕ストリームの属性を記述することができる。
なお、AdaptationSet要素は、ビデオストリームやオーディオストリーム等の単一のストリームの他、複数のストリームが多重化されたストリームに対応している。MPEG-DASHの規格においては、このようなAdaptationSet要素に含めることが可能な属性や要素として、図7の属性や要素が規定されている。また、Representation要素は、その上位要素(親要素)となるAdaptationSet要素の範囲内で、例えばビットレート等のパラメータが異なる複数の選択肢となるストリームを列挙している。MPEG-DASHの規格においては、このようなRepresentation要素に含めることが可能な属性や要素として、図8の属性や要素が規定されている。なお、図8の属性や要素は、SubRepresentation要素に含めるようにすることができる。
(MP4のファイルフォーマット)
ところで、トランスポート・プロトコルとして、ROUTEを用いる場合に、ストリーミングのファイルフォーマットに、MP4ファイルフォーマットを採用することが想定される。MP4ファイルフォーマットは、ISO/IEC 14496-12で規定されているISOベースメディアファイルフォーマット(ISO Base Media File Format)の派生フォーマットである。ISOベースメディアファイルフォーマットは、ボックス(Box)と称される木構造から構成される。
ここで、ROUTEセッションで伝送されるセグメントは、イニシャライゼイションセグメント(Initialization Segment)とメディアセグメント(Media Segment)から構成される。イニシャライゼイションセグメントは、データ圧縮方式等の初期化情報を含んでいる。また、メディアセグメントは、ビデオやオーディオ、字幕等(のコンポーネント)のストリームのデータを格納している。
図9は、MP4のファイルフォーマット形式からなるメディアセグメントの構造を示す図である。
メディアセグメントは、styp(segment type),sidx(segment index),ssix(subsegment index),moof(movie fragment),mdat(madia data)の各ボックス(Box)から構成される。stypボックスには、セグメント単位のファイルのファイルフォーマット仕様のバージョン情報が含まれる。sidxボックスには、セグメント内のインデックス情報が含まれる。ssixボックスには、セグメント内の各サブセグメント(レベル)ごとのインデックス情報が含まれる。ただし、図9においては、styp,sidx,ssixの各ボックスの図示を省略している。
moofボックスには、フラグメント化された(コンポーネントの)ストリームのデータの制御情報が含まれる。moofボックスには、mfhd(movie fragment header)ボックスが含まれる。また、mfhdボックスには、tfdt(track fragment decode time)ボックスと、trun(track fragment run)ボックスが含まれる。
tfdtボックスには、サンプルのデコード開始時間を表すBMDT(Base Media Decode Time)が含まれる。trunボックスには、サンプルの数を表すSampleCount、サンプルの継続時間を表すSampleDuration、及び、オフセット値を表すCompositionOffsetを示す情報が含まれる。
mdatボックスには、サンプル(Sample)として、フラグメント化された(コンポーネントの)ストリームのデータ(データ本体)が格納される。このサンプルは、(コンポーネントの)ストリームのデータが、処理される基本単位で格納される。
なお、以下の説明では、サンプルのうち、字幕を表示させるためのTTML形式のファイル(TTMLファイル)のサンプルを、TTMLサンプルとも称する。また、メディアセグメントのうち、mdatボックスにTTMLサンプルを含むメディアセグメントを、TTMLセグメントとも称する。さらに、以下の説明で、単にセグメント(Segment)と記述した場合には、メディアセグメントを意味するものとする。
(TTML処理モード)
また、トランスポート・プロトコルとして、ROUTEを用いる場合に、字幕(CC:Closed Caption)の表示に、TTML形式のTTMLファイルを利用することが想定される。しかしながら、TTMLファイルで指定される字幕を表示するための技術方式が確立されておらず、所望のタイミングで字幕を表示させるための提案が要請されていた。
そこで、本技術では、字幕の表示のタイミングを指定するためのTTML処理モードとして、複数のモードを規定して、ATSCサーバ10が、MPDファイルに、複数のモードのうちの特定のモードを選択するための選択情報を含めることで、ATSCクライアント20が、MPDファイルに含まれる選択情報に基づいて、特定のモードに応じた表示タイミングで、TTMLファイルで指定される字幕を表示することができるようにする。
図10は、TTML処理モードの例を示す図である。
TTML処理モードとしては、モード1、モード2、及び、モード3が規定されている。また、モード2には、モード2−1と、モード2−2の2種類が規定されている。
モード1は、TTMLファイルで指定される時間情報に応じたタイミングで字幕の表示を行うモードである。モード1が設定される場合、MPDファイルには、選択情報として、AdaptationSet要素のEssentialProperty要素又はSupplementalProperty要素のschemeIdUri属性の値に、"atsc:ttmlMode:ttmlTimeOnly"が指定される。
なお、TTMLファイルでは、body要素内のp要素により、字幕の文字列と、その字幕の表示開始時刻や表示終了時刻等の時間情報が指定される。
モード2は、TTMLファイルで指定される時間情報は無視して、MP4のファイルフォーマットで規定される時間情報に応じたタイミングで字幕の表示を行うモードである。
ここで、モード2のうち、モード2−1では、moofボックスに格納されるBMDTに応じた時間に字幕の表示を開始して、そのmoofボックスに格納されるSampleDurationに応じた時間の間だけ表示を継続させる。モード2−1が設定される場合、MPDファイルには、選択情報として、AdaptationSet要素のEssentialProperty要素又はSupplementalProperty要素のschemeIdUri属性の値に、"atsc:ttmlMode:sampleTimeOnly"が指定される。
また、モード2−2では、対象のTTMLサンプルを格納するmdatボックスに対応するmoofボックスに格納されるBMDTに応じた時間に字幕の表示を開始して、次のTTMLサンプルを格納するmdatボックスに対応するmoofボックスに格納されるBMDTに応じた時間まで表示を継続させる。モード2−2が設定される場合、MPDファイルには、選択情報として、AdaptationSet要素のEssentialProperty要素又はSupplementalProperty要素のschemeIdUri属性の値に、"atsc:ttmlMode:sampleTimeOnlyButTillNext"が指定される。
モード3は、TTMLファイルで指定される時間情報と、MP4のファイルフォーマットで規定される時間情報を無視して、字幕の表示を行うモードである。この場合、ATSCクライアント20では、ATSCサーバ10から伝送路30を介して伝送される、TTMLファイルが取得されたとき、即時に、そのTTMLファイルで指定される字幕が表示される。モード3が設定される場合、MPDファイルには、選択情報として、AdaptationSet要素のEssentialProperty要素又はSupplementalProperty要素のschemeIdUri属性の値に、"atsc:ttmlMode:asap"が指定される。
<3.具体的な運用例>
次に、TTML処理モードとして、モード1、モード2−1、モード2−2、及び、モード3が設定された場合の運用例について順に説明する。
(1)モード1:TTML Time Only
まず、TTML処理モードとして、モード1が設定された場合の運用例を、図11及び図12を参照して説明する。このモード1では、TTMLファイルに指定された時間情報のみを使用する。
(MPDファイルの記述例)
図11は、モード1での運用が行われる場合のMPDファイルの記述例を示す図である。
図11のMPDファイルにおいて、ルート要素であるMPD要素のPeriod要素の配下のAdaptationSet要素には、Role要素が配置され、schemeIdUri属性として、"urn:mpeg:dash:role:2011"が指定され、value属性として、字幕を表す"caption"が指定されている。
また、AdaptationSet要素には、EssentialProperty要素のschemeIdUri属性として、"atsc:ttmlMode:ttmlTimeOnly"が指定されている。すなわち、このEssentialProperty要素のschemeIdUri属性の属性値により、TTML処理モードとして、モード1が設定されていることになる。
(字幕表示タイミング例)
図12は、モード1での運用が行われる場合の字幕の表示タイミングの例を示す図である。
図12において、図12Aは、MPDファイルで指定される時間に関する情報を模式的に表し、図12Bは、セグメント(TTMLセグメント)の構造を模式的に表している。また、図12Cは、図12Bのセグメント(TTMLセグメント)のサンプル(TTMLサンプル)から得られるTTMLファイルの記述例を示している。なお、図12において、時間の方向は、図中の左側から右側の方向とされる。また、これらの関係は、後述する他のモードを説明する図でも同様とされる。
図12Aに示すように、MPDファイルには、ルート要素であるMPD要素のavailabilityStartTime属性に、UTC(Coordinated Universal Time)時刻に従ったストリーミング配信の開始時刻が指定される。また、MPDファイルには、Period要素として、Period(1),Period(2),・・・が指定され、それらのPeriod要素には、start属性として、各Period(期間)の開始時刻が指定される。
すなわち、MPDファイルでは、availabilityStartTime属性で指定される開始時刻(WallClock時間軸上の時刻)と、Period要素で指定される時刻(MPD時間軸上の時刻)との和により、各Periodの先頭の時刻が表される。例えば、availabilityStartTime属性で指定される開始時刻(MPD/@availabilityStartTime)と、Period(2)の開始時刻(MPD/Period(2)/@start)との和(MPD/@availabilityStartTime + MPD/Period(2)/@start)により、Period(2)の先頭の時刻が求められる。
図12Bには、Period(2)におけるセグメント(Segment)が模式的に示されている。このセグメントは、mdatボックスが、サンプル(sample)としてTTMLサンプルを格納したTTMLセグメントである。このTTMLセグメントのmdatボックスに格納されたTTMLサンプルから、TTMLファイルが得られることになる。なお、モード1においては、moofボックスに格納される時間情報(BMDTやSampleDuration等)は無視される。
図12Cには、TTMLファイルの記述例が示されている。TTMLファイルでは、head要素内のstyling要素やlayout要素などの要素により、字幕として表示される文字の色やフォント、表示位置などが指定される。また、TTMLファイルでは、body要素内のp要素により、字幕の文字列と、その字幕の表示開始時刻や表示終了時刻等の時間情報が指定される。
具体的には、図12CのTTMLファイルに記述された2つのp要素のうち、上段のp要素の開始タグと終了タグの間には、"text1"である文字列が記述されている。また、この上段のp要素には、表示開始時刻を設定するためのbegin属性として"t1"が指定され、表示終了時刻を設定するためのend属性として"t2"が指定されている。
また、図12CのTTMLファイルにおいて、下段のp要素の開始タグと終了タグの間には、"text2"である文字列が記述されている。また、この下段のp要素には、begin属性として"t2"が指定され、end属性として"t3"が指定されている。
ここで、この運用時に取得されるMPDファイル(図11)には、AdaptationSet要素のEssentialProperty要素のschemeIdUri属性として、"atsc:ttmlMode:ttmlTimeOnly"が指定されているので、TTML処理モードとして、モード1が設定されていることになる。モード1が設定された場合には、TTMLファイルに記述される時間情報に応じたタイミングで字幕の表示を行うことになるので、p要素のbegin属性とend属性の値に応じたタイミングで、字幕が表示されることになる。
具体的には、図12に示すように、availabilityStartTime属性で指定される開始時刻と、Period(2)の開始時刻との和(MPD/@availabilityStartTime + MPD/Period(2)/@start)に応じたPeriod(2)の先頭の時刻を基準として、時間t1を経過したとき、上段のp要素に指定された"text1"である字幕の表示が開始され、時間t2を経過するまで、"text1"である字幕の表示が継続され、時間t2を経過したとき、"text1"である字幕の表示が終了される。また、Period(2)の先頭の時刻を基準として、時間t2を経過したとき、下段のp要素に指定された"text2"である字幕の表示が開始され、時間t3を経過するまで、"text2"である字幕の表示が継続され、時間t3を経過したとき、"text2"である字幕の表示が終了される。
これにより、ATSCクライアント20においては、テレビ番組などのコンテンツが再生されている場合に、Period(2)の先頭の時刻を基準として、時間t1の経過後であって、時間t2の経過前となる場合には、"text1"である字幕が映像に重畳表示され、時間t2の経過後であって、時間t3の経過前となる場合には、"text2"である字幕が映像に重畳表示されることになる。
以上、TTML処理モードとして、モード1が設定された場合の運用例について説明した。このモード1は、TTMLファイルに指定された時間情報(p要素のbegin属性とend属性の値)を利用して、begin属性に設定される時間に応じて字幕の表示を開始して、end属性に設定される時間に応じて字幕の表示を終了させることで、所望のタイミングで字幕を表示させることができる。
例えば、ATSCサーバ10において、スタジオ収録等による、映像と音声と字幕のパッケージをコンテンツとして制作して、当該コンテンツを、伝送路30を介して、複数のATSCクライアント20に配信する場合に、TTMLファイルのp要素で指定される字幕を、当該コンテンツの先頭からの相対時間で、そのp要素のbegin属性とend属性が示す時間に応じたタイミングで表示させる運用が適当であると考えられる。このような運用を実現するためには、MPDファイルにおいて、TTML処理モードとして、モード1を設定することで、ATSCクライアント20では、TTMLファイルのp要素のbegin属性とend属性が示す時間に応じたタイミングで、字幕が表示されることになる。
(2)モード2:Sample Time Only
次に、TTML処理モードとして、モード2が設定された場合の運用例を、図13乃至図16を参照して説明する。このモード2では、TTMLファイルに指定された時間情報を無視して、MP4のファイルフォーマットで規定される時間情報(TTMLサンプルごとの時間情報)を使用する。ここでは、モード2として、モード2−1とモード2−2を順に説明する。
(2−1)モード2−1:Sample Time Only
(MPDファイルの記述例)
図13は、モード2−1での運用が行われる場合のMPDファイルの記述例を示す図である。
図13のMPDファイルにおいて、ルート要素であるMPD要素のPeriod要素の配下のAdaptationSet要素には、EssentialProperty要素のschemeIdUri属性として、"atsc:ttmlMode:sampleTimeOnly"が指定されている。すなわち、このEssentialProperty要素のschemeIdUri属性の属性値により、TTML処理モードとして、モード2−1が設定されていることになる。
(字幕表示タイミング例)
図14は、モード2−1での運用が行われる場合の字幕の表示タイミングの例を示す図である。
図14Aに示すように、MPDファイルには、MPD要素のavailabilityStartTime属性に、ストリーミング配信の開始時刻が指定される。また、MPDファイルには、Period要素として、Period(1),Period(2),・・・が指定され、それらのPeriod要素には、start属性として、各Period(期間)の開始時刻が指定される。ここでは、availabilityStartTime属性で指定される開始時刻と、Period(2)の開始時刻との和(MPD/@availabilityStartTime + MPD/Period(2)/@start)により、Period(2)の先頭の時刻が求められる。
図14Bには、Period(2)におけるTTMLセグメント(Segment)が模式的に示されている。このTTMLセグメントのmdatボックスに格納されたTTMLサンプル(sample)から、TTMLファイル(図14C)が得られるが、この運用時に取得されるMPDファイル(図13)には、EssentialProperty要素のschemeIdUri属性に、"atsc:ttmlMode:sampleTimeOnly"が指定され、TTML処理モードとして、モード2−1が設定されているので、TTMLファイルのp要素に指定された時間情報(begin属性の"t1"と、end属性の"t3")は無視される。
すなわち、モード2−1では、TTMLファイルに指定された時間情報を無視して、TTMLセグメントのmoofボックスに格納された時間情報(TTMLサンプルごとの時間情報)を用いることになる。ただし、ここでは、TTMLセグメントにおいて、1つのmoofボックス(に格納された時間情報)に対して、1つのTTMLサンプル(mdatボックスに格納されたTTMLサンプル)であることを前提としている。
具体的には、図14に示すように、MPDファイルのavailabilityStartTime属性で指定される開始時刻と、Period(2)の開始時刻との和(MPD/@availabilityStartTime + MPD/Period(2)/@start)に応じたPeriod(2)の先頭の時刻を基準として、moofボックス(moof/mfhd/tfdt)に格納されたBMDTに応じた時間(BMDT×ts)を経過したとき、TTMLファイルのp要素に指定された"text1"である字幕の表示が開始される。
ただし、BMDT(Base Media Decode Time)は、Period(2)の先頭の時刻から、TTMLサンプルのデコードを開始するまでの時間、すなわち、オフセットを表している。また、BMDTに乗算されるtsは、タイムスケール(timescale)を表しており、BMDTの値を、MPD時間軸上の値に変換するために用いられる。
そして、moofボックス(moof/mfhd/trun)に格納されたSampleDurationに応じた時間(SampleDuration×ts)の間は、"text1"である字幕の表示が継続され、SampleDurationに応じた時間を経過したとき、"text1"である字幕の表示が終了される。
ただし、SampleDurationは、TTMLサンプルの継続時間を表している。また、SampleDurationに乗算されるtsは、SampleDurationの値を、MPD時間軸上の値に変換するために用いられる。
これにより、ATSCクライアント20においては、テレビ番組などのコンテンツが再生されている場合に、Period(2)の先頭の時刻を基準として、moofボックスに格納されるBMDTに応じた時間の経過後であって、SampleDurationに応じた時間を経過するまでの間は、"text1"である字幕が映像に重畳表示されることになる。
以上、TTML処理モードとして、モード2−1が設定された場合の運用例について説明した。このモード2−1は、MP4のファイルフォーマットで規定される時間情報(TTMLサンプルごとのBMDTとSampleDuration)を利用して、TTMLサンプルのBMDTに応じた時間に字幕の表示を開始して、SampleDurationに応じた時間の間だけその字幕の表示を継続させることで、所望のタイミングで字幕を表示させることができる。
(2−2)モード2−2:Sample Time Only But Till Next
(MPDファイルの記述例)
図15は、モード2−2での運用が行われる場合のMPDファイルの記述例を示す図である。
図15のMPDファイルにおいて、ルート要素であるMPD要素のPeriod要素の配下のAdaptationSet要素には、EssentialProperty要素のschemeIdUri属性として、"atsc:ttmlMode:sampleTimeOnlyButTillNext"が指定されている。すなわち、このEssentialProperty要素のschemeIdUri属性の属性値により、TTML処理モードとして、モード2−2が設定されていることになる。
(字幕表示タイミング例)
図16は、モード2−2での運用が行われる場合の字幕の表示タイミングの例を示す図である。
図16Aに示すように、MPDファイルには、MPD要素のavailabilityStartTime属性に、ストリーミング配信の開始時刻が指定される。また、MPDファイルには、Period要素として、Period(1),Period(2),・・・が指定され、それらのPeriod要素には、start属性として、各Period(期間)の開始時刻が指定される。ここでは、availabilityStartTime属性で指定される開始時刻と、Period(2)の開始時刻との和(MPD/@availabilityStartTime + MPD/Period(2)/@start)により、Period(2)の先頭の時刻が求められる。
図16Bには、Period(2)におけるTTMLセグメント(Segment)が模式的に示されている。このTTMLセグメントのmdatボックスに格納されたTTMLサンプル(sample)から、TTMLファイル(図16C)が得られるが、この運用時に取得されるMPDファイル(図15)には、EssentialProperty要素のschemeIdUri属性に、"atsc:ttmlMode:sampleTimeOnlyButTillNext"が指定され、TTML処理モードとして、モード2−2が設定されているので、TTMLファイルのp要素に指定された時間情報(begin属性の"t1"と、end属性の"t3")は無視される。
すなわち、モード2−2では、TTMLファイルに指定された時間情報を無視して、TTMLセグメントのmoofボックスに格納された時間情報(TTMLサンプルごとの時間情報)を用いることになる。ただし、ここでは、TTMLセグメントにおいて、1つのmoofボックス(に格納された時間情報)に対して、1つのTTMLサンプル(mdatボックスに格納されたTTMLサンプル)であることを前提としている。
具体的には、図16に示すように、MPDファイルのavailabilityStartTime属性で指定される開始時刻と、Period(2)の開始時刻との和(MPD/@availabilityStartTime + MPD/Period(2)/@start)に応じたPeriod(2)の先頭の時刻を基準として、対象のTTMLサンプル(対象の字幕を指定するTTMLファイルのTTMLサンプル)を格納するmdatボックスに対応するmoofボックスに格納されるBMDTに応じた時間(BMDT×ts)を経過したとき、TTMLファイルのp要素に指定された"text1"である字幕の表示が開始される。
そして、次のTTMLサンプル(次の字幕を指定するTTMLファイルのTTMLサンプル)を格納するmdatボックスに対応するmoofボックスに格納されるBMDTに応じた時間(BMDT×ts)を経過するまでの間は、"text1"である字幕の表示が継続され、そのBMDTに応じた時間(BMDT×ts)が経過したとき、"text1"である字幕の表示が終了される。
これにより、ATSCクライアント20においては、テレビ番組などのコンテンツが再生されている場合に、Period(2)の先頭の時刻を基準として、対象のTTMLサンプルを含むTTMLセグメント(のmoofボックス)のBMDTに応じた時間の経過後であって、次のTTMLサンプルを含むTTMLセグメント(のmoofボックス)のBMDTに応じた時間を経過するまでの間は、"text1"である字幕が映像に重畳表示されることになる。
なお、図16には図示していないが、次のTTMLサンプル(次の字幕を指定するTTMLファイルのTTMLサンプル)が取得されたとき、"text1"である字幕の表示が終了されるとともに、次のTTMLサンプル(TTMLファイル)により指定される字幕(例えば、"text2")の表示が開始される。
以上、TTML処理モードとして、モード2−2が設定された場合の運用例について説明した。このモード2−2は、MP4のファイルフォーマットで規定される時間情報(TTMLサンプルごとのBMDT)を利用して、対象のTTMLサンプルのBMDTに応じた時間に字幕の表示を開始して、次のTTMLサンプルのBMDTに応じた時間までその字幕の表示を継続させることで、所望のタイミングで字幕を表示させることができる。なお、モード2−1とモード2−2は、字幕の表示を開始するタイミングを、BMDTに応じた時間で指定する点では共通しているが、表示している字幕を終了させるタイミングを、SampleDurationに応じた時間で指定するのか、あるいはBMDTに応じた時間で指定するのかという点では異なっている。
例えば、コンテンツ事業者等が、映像と音声のパッケージをコンテンツとして制作して、放送事業者等が、当該コンテンツに対して、字幕を後から追加する場合や、字幕の表示タイミングを設定する場合などには、TTMLファイルで字幕の表示タイミングを指定するよりも、MP4のファイルフォーマットで規定される時間情報(TTMLサンプルごとの時間情報)で字幕の表示タイミングを指定したほうが、運用上適当である場合が想定される。このような運用を実現するためには、MPDファイルにおいて、TTML処理モードとして、モード2−1又はモード2−2を設定することで、ATSCクライアント20では、MP4のファイルフォーマットで規定される時間情報(TTMLサンプルごとの時間情報)に応じたタイミングで、字幕が表示されることになる。
(3)モード3:Asap
次に、TTML処理モードとして、モード3が設定された場合の運用例を、図17及び図18を参照して説明する。このモード3では、TTMLファイルに指定された時間情報と、mp4のファイルフォーマットで規定される時間情報(TTMLサンプルごとの時間情報)を無視して、TTMLファイル(TTMLサンプル)を取得後、即時に、字幕を表示するための処理が行われる。
(MPDファイルの記述例)
図17は、モード3での運用が行われる場合のMPDファイルの記述例を示す図である。
図17のMPDファイルにおいて、ルート要素であるMPD要素のPeriod要素の配下のAdaptationSet要素には、EssentialProperty要素のschemeIdUri属性として、"atsc:ttmlMode:asap"が指定されている。すなわち、このEssentialProperty要素のschemeIdUri属性の属性値により、TTML処理モードとして、モード3が設定されていることになる。
(字幕表示タイミング例)
図18は、モード3での運用が行われる場合の字幕の表示タイミングの例を示す図である。
図18Aに示すように、MPDファイルには、MPD要素のavailabilityStartTime属性に、ストリーミング配信の開始時刻が指定される。また、MPDファイルには、Period要素として、Period(1),Period(2),・・・が指定され、それらのPeriod要素には、start属性として、各Period(期間)の開始時刻が指定される。
図18Bには、Period(2)のTTMLセグメント(Segment)が模式的に示されている。このTTMLセグメントのmdatボックスに格納されたTTMLサンプル(sample)から、TTMLファイル(図18C)が得られるが、この運用時に取得されるMPDファイル(図17)には、EssentialProperty要素のschemeIdUri属性に、"atsc:ttmlMode:asap"が指定され、TTML処理モードとして、モード3が設定されているので、TTMLファイルのp要素に指定された時間情報(begin属性の"t1"と、end属性の"t3")は無視される。また、TTML処理モードとして、モード3が設定されている場合には、当該TTMLセグメントのmoofボックスに格納される時間情報(BMDTやSampleDuration)も無視される。
すなわち、モード3では、TTMLファイルに指定された時間情報と、TTMLサンプルごとの時間情報を共に無視して、TTMLファイル(TTMLサンプル)を取得した後、即時に処理を行い、TTMLファイルで指定される字幕が表示されるようにする。
具体的には、図18に示すように、ATSCクライアント20では、TTMLセグメントが取得された場合に、そのTTMLセグメントのTTMLサンプルからTTMLファイルが得られた時点で、即時にそのTTMLファイルが処理され、p要素のbegin属性やend属性の値を無視して、そのp要素に指定された"text1"である字幕の表示が開始される。
そして、次のTTMLファイル(TTMLサンプル)を含むTTMLセグメントが取得されるまでの間は、"text1"である字幕の表示が継続され、次のTTMLファイル(TTMLサンプル)を含むTTMLセグメントが取得されたとき、"text1"である字幕の表示が終了される。
これにより、ATSCクライアント20においては、テレビ番組などのコンテンツが再生されている場合に、対象のTTMLファイルのTTMLサンプルを含むTTMLセグメントが取得されてから、次のTTMLファイルのTTMLサンプルを含むTTMLセグメントが取得されるまでの間は、対象のTTMLファイルのp属性に指定される"text1"である字幕が映像に重畳表示されることになる。
なお、図18には図示していないが、次のTTMLファイルが取得されたとき、"text1"である字幕の表示が終了されるとともに、次のTTMLファイルにより指定される字幕(例えば、"text2")の表示が開始される。
以上、TTML処理モードとして、モード3が設定された場合の運用例について説明した。このモード3は、TTMLファイルに指定された時間情報と、mp4のファイルフォーマットで規定される時間情報(TTMLサンプルごとの時間情報)を無視して、TTMLファイル(TTMLサンプル)を取得したとき、即時に、当該TTMLファイルに指定される字幕を表示させることで、所望のタイミングで字幕を表示させることができる。
例えば、ATSCサーバ10において、スポーツ中継などのライブ放送のコンテンツを、伝送路30を介して、複数のATSCクライアント20に配信する場合には、ライブ映像よりも字幕が遅れることが前提ではあるが、少しでもそのずれを少なくすることが要求されるため、字幕の表示時間を指定するのではなく、ベストエフォートで、ATSCクライアント20が、TTMLファイルを受信したら、即時に字幕を表示させる運用が適当であると考えられる。このような運用を実現するためには、MPDファイルにおいて、TTML処理モードとして、モード3を設定することで、ATSCクライアント20では、TTMLファイルが受信された後、即時に、字幕が表示されることになる。
<4.各装置の構成>
次に、図19乃至図22を参照して、図1の伝送システム1を構成する各装置の詳細な構成について説明する。
(ATSCサーバの構成)
図19は、図1のATSCサーバ10の構成例を示す図である。
図19において、ATSCサーバ10は、AVサーバ101、TTMLサーバ102、DASHサーバ103、及び、放送サーバ104から構成される。例えば、AVサーバ101、TTMLサーバ102、及び、DASHサーバ103は、コンテンツ事業者や放送事業者等の事業者により提供される。また、例えば、放送サーバ104は、放送事業者等の事業者により提供される。
AVサーバ101は、コンテンツを構成するビデオとオーディオ(のストリーム)のデータを取得して処理し、DASHサーバ103に提供する。
TTMLサーバ102は、コンテンツの映像に重畳される字幕情報としてのTTMLファイルを生成して処理し、DASHサーバ103に提供する。
DASHサーバ103は、MPDファイルを生成する。また、DASHサーバ103は、AVサーバ101から提供されるビデオとオーディオのデータと、TTMLサーバ102から供給されるTTMLファイルを処理して、セグメント(セグメントデータ)を生成する。DASHサーバ103は、MPDファイルとセグメントデータを、放送サーバ104に提供する。
放送サーバ104は、LLSシグナリング情報やSLSシグナリング情報等のシグナリング情報を生成する。また、放送サーバ104は、セグメントデータ(TTMLファイルを含む)やシグナリング情報(MPDファイルを含む)を、デジタル放送信号として、アンテナ105を介して送信する。
(ATSCサーバの詳細な構成)
図20は、図19のATSCサーバ10の詳細な構成例を示す図である。
図20において、ATSCサーバ10は、ビデオデータ取得部111、ビデオエンコーダ112、オーディオデータ取得部113、オーディオエンコーダ114、字幕生成部115、字幕エンコーダ116、シグナリング生成部117、シグナリング処理部118、セグメント処理部119、マルチプレクサ120、及び、送信部121から構成される。
ここで、ATSCサーバ10が有する機能を実現するための各ブロックは、図19のAVサーバ101乃至放送サーバ104のいずれかのサーバの構成に含まれるが、例えば、次のような構成を採用することができる。すなわち、図20において、ビデオデータ取得部111、ビデオエンコーダ112、オーディオデータ取得部113、及び、オーディオエンコーダ114は、AVサーバ101の構成に含まれる。
また、図20において、字幕生成部115、及び、字幕エンコーダ116は、TTMLサーバ102の構成に含まれる。図20において、シグナリング生成部117、シグナリング処理部118、及び、セグメント処理部119は、DASHサーバ103の構成に含まれる。さらに、図20において、シグナリング生成部117、シグナリング処理部118、マルチプレクサ120、及び、送信部121は、放送サーバ104の構成に含まれる。
ただし、図20に示した構成は一例であって、例えば、AVサーバ101とTTMLサーバ102の両方の機能を有する1台のサーバを構成したり、あるいは、DASHサーバ103と放送サーバ104の両方の機能を有する1台のサーバを構成したりするなど、各サーバを構成するブロックの組み合わせは任意であって、図20の構成以外の他の構成を採用することができる。
ビデオデータ取得部111は、外部のサーバ、カメラ、又は記録媒体等から、コンテンツのビデオデータを取得し、ビデオエンコーダ112に供給する。ビデオエンコーダ112は、ビデオデータ取得部111から供給されるビデオデータを、所定の符号化方式に準拠して符号化し、セグメント処理部119に供給する。
オーディオデータ取得部113は、外部のサーバ、マイクロフォン、又は記録媒体等から、コンテンツのオーディオデータを取得し、オーディオエンコーダ114に供給する。オーディオエンコーダ114は、オーディオデータ取得部113から供給されるオーディオデータを、所定の符号化方式に準拠して符号化し、セグメント処理部119に供給する。
字幕生成部115は、字幕データとして、TTML形式のTTMLファイルを生成し、字幕エンコーダ116に供給する。字幕エンコーダ116は、字幕生成部115から供給される字幕データを、所定の符号化方式に準拠して符号化し、セグメント処理部119に供給する。
シグナリング生成部117は、シグナリング情報を生成し、シグナリング処理部118に供給する。シグナリング処理部118は、シグナリング生成部117から供給されるシグナリング情報を処理し、マルチプレクサ120に供給する。ここでは、例えば、SLTメタデータ等のLLSシグナリング情報や、USDメタデータやLSIDメタデータ、MPDメタデータ(MPDファイル)等のSLSシグナリング情報が生成され、処理される。ただし、MPDファイルには、TTML処理モードを選択するための選択情報が含まれる。
セグメント処理部119は、ビデオエンコーダ112から供給されるビデオデータ、オーディオエンコーダ114から供給されるオーディオデータ、及び、字幕エンコーダ116から供給される字幕データに基づいて、MP4のファイルフォーマットに準拠したセグメント(セグメントデータ)を生成し、マルチプレクサ120に供給する。
マルチプレクサ120は、セグメント処理部119から供給されるセグメントデータと、シグナリング処理部118から供給されるシグナリング情報を多重化して、その結果得られる多重化ストリームを、送信部121に供給する。
送信部121は、マルチプレクサ120から供給される多重化ストリームを、アンテナ105を介して、デジタル放送の放送波(デジタル放送信号)として送信する。
ATSCサーバ10は、以上のように構成される。
(ATSCクライアントの詳細な構成)
図21は、図1のATSCクライアント20の詳細な構成例を示す図である。
図21において、ATSCクライアント20は、受信部212、デマルチプレクサ213、制御部214、メモリ215、入力部216、ビデオデコーダ217、ビデオ出力部218、オーディオデコーダ219、オーディオ出力部220、字幕デコーダ221、表示部222、及び、スピーカ223から構成される。なお、図21の構成では、表示部222とスピーカ223を含む構成を示しているが、表示部222とスピーカ223を含めない構成としてもよい。
受信部212は、アンテナ211を介して受信されたデジタル放送の放送波(デジタル放送信号)から、ユーザの選局操作に応じた信号を抽出して復調し、その結果得られる多重化ストリームを、デマルチプレクサ213に供給する。
デマルチプレクサ213は、受信部212から供給される多重化ストリームを、オーディオやビデオ、字幕のストリームと、シグナリング情報に分離する。デマルチプレクサ213は、ビデオデータをビデオデコーダ217に、オーディオデータをオーディオデコーダ219に、字幕データを字幕デコーダ221に、シグナリング情報を制御部214にそれぞれ供給する。なお、ビデオやオーディオ、字幕のデータは、MP4のファイルフォーマットに準拠したセグメント(セグメントデータ)とされる。
制御部214は、ATSCクライアント20の各部の動作を制御する。また、制御部214は、デマルチプレクサ213から供給されるシグナリング情報に基づいて、コンテンツを再生するために、各部の動作を制御する。
メモリ215は、NVRAM(Non Volatile RAM)等の不揮発性メモリであって、制御部214からの制御に従い、各種のデータを記録する。入力部216は、ユーザの操作に応じて、操作信号を制御部214に供給する。
ビデオデコーダ217は、デマルチプレクサ213から供給されるビデオデータを、所定の復号方式に準拠して復号し、ビデオ出力部218に供給する。ビデオ出力部218は、ビデオデコーダ217から供給されるビデオデータを、表示部222に出力する。これにより、表示部222には、ユーザの選局操作に応じたコンテンツの映像が表示される。
オーディオデコーダ219は、デマルチプレクサ213から供給されるオーディオデータを所定の復号方式に準拠して復号し、オーディオ出力部220に供給する。オーディオ出力部220は、オーディオデコーダ219から供給されるオーディオデータを、スピーカ223に出力する。これにより、スピーカ223からは、ユーザの選局操作に応じたコンテンツの音声が出力される。
字幕デコーダ221は、デマルチプレクサ213から供給される字幕データを所定の復号方式に準拠して復号し、ビデオ出力部218に供給する。ビデオ出力部218は、字幕デコーダ221から供給される字幕データに対応する字幕が、ビデオデコーダ217から供給されるビデオデータに対応する映像に重畳して表示されるようにする。これにより、表示部222には、ユーザの選局操作に応じたコンテンツの映像に重畳された字幕が表示される。
字幕デコーダ221は、MP4パーサ241及びTTMLパーサ242から構成される。MP4パーサ241は、デマルチプレクサ213からのセグメントデータ(TTMLセグメント)をパースし、その結果得られるTTMLファイルをTTMLパーサ242に供給する。TTMLパーサ242は、MP4パーサ241から供給されるTTMLファイルをパースし、その結果得られる字幕を表示するための情報を、ビデオ出力部218に供給する。
(ATSCクライアントのソフトウェア構成)
図22は、図21のATSCクライアント20のソフトウェア構成例を示す図である。
図22は、図21に示したATSCクライアント20の構成を、ソフトウェアの構成として表している。図22において、ATSCクライアント20は、放送クライアントミドルウェア251及びDASHクライアント252から構成される。
放送クライアントミドルウェア251は、ATSCサーバ10から送信されてくる、セグメントデータ(TTMLファイルを含む)やシグナリング情報(MPDファイルを含む)等の各種のデータを取得し、DASHクライアント252に提供するための処理を行う。
DASHクライアント252は、放送クライアントミドルウェア251から提供されるセグメントデータ(TTMLファイルを含む)やシグナリング情報(MPDファイルを含む)等の各種のデータを処理して、コンテンツを再生するための処理を行う。例えば、DASHクライアント252は、MPDファイルに基づいて、TTML処理モードに応じた表示のタイミングで、TTMLファイルに指定される字幕の表示を制御する。
ATSCクライアント20は、以上のように構成される。
<5.各装置で実行される処理の流れ>
次に、図23乃至図26のフローチャートを参照して、図1の伝送システム1を構成する各装置で実行される処理の流れを説明する。
(送信処理)
まず、図23のフローチャートを参照して、図1のATSCサーバ10により実行される送信処理について説明する。
ステップS101においては、コンポーネント・シグナリング処理が行われる。このコンポーネント・シグナリング処理では、AVサーバ101で処理されるビデオとオーディオ(のストリーム)のデータや、TTMLサーバ102で処理される字幕データ(TTMLファイル)、DASHサーバ103で処理されるシグナリング情報(MPDファイル)、放送サーバ104で処理されるシグナリング情報(SLTメタデータ、USDメタデータやLSIDメタデータ等)に対する各種の処理が行われ、コンポーネントのデータやシグナリング情報が送信可能とされる。
なお、ステップS101のコンポーネント・シグナリング処理の詳細な内容は、図24のフローチャートを参照して後述する。
ステップS102においては、放送サーバ104(の送信部121等)により送信処理が行われ、ステップS101の処理で処理されたビデオやオーディオ、字幕のコンポーネントのデータと、シグナリング情報が、デジタル放送信号として、アンテナ105を介して送信される。ステップS102の処理が終了すると、図23の送信処理は終了される。
以上、ATSCサーバ10により実行される送信処理について説明した。
(コンポーネント・シグナリング処理)
ここで、図24のフローチャートを参照して、図23のステップS101の処理に対応するコンポーネント・シグナリング処理の詳細な内容について説明する。なお、図24においては、説明の簡略化のため、AVサーバ101で行われる処理を省略して、TTMLサーバ102、DASHサーバ103、及び、放送サーバ104で行われる処理を中心に説明する。
ステップS111において、TTMLサーバ102(の字幕生成部115)は、TTMLファイルを生成する。
ステップS112において、TTMLサーバ102(の字幕エンコーダ116)は、ステップS111の処理で生成されたTTMLファイルを、MP4のファイルフォーマットに格納する。
ステップS113において、TTMLサーバ102は、MP4のファイルフォーマットに格納されたTTMLファイルのセグメント(TTMLセグメント)の生成を、DASHサーバ103に要求する。
なお、ここでは、AVサーバ101で行われる処理を省略しているが、AVサーバ101においても、ビデオとオーディオのデータが、MP4ファイルフォーマットに格納され、そのセグメントの生成要求が、DASHサーバ103になされることになる。
ステップS121において、DASHサーバ103は、TTMLサーバ102(とAVサーバ101)からのセグメントの生成要求を取得する。
ステップS122において、DASHサーバ103(のシグナリング生成部117)は、MPDファイルを生成する。ここで、MPDファイルには、TTML処理モードを選択するための選択情報として、AdaptationSet要素のEssentialProperty要素又はSupplementalProperty要素のschemeIdUri属性の値に、モード1、モード2−1、モード2−2、又はモード3を識別するための文字列が指定されることになる。
ステップS123において、DASHサーバ103(のセグメント処理部119)は、AVサーバ101からのビデオとオーディオ(のストリーム)のデータと、TTMLサーバ102からのTTMLファイルを用い、MP4のファイルフォーマットに準拠したセグメント(セグメントデータ)を生成する。
ステップS124において、DASHサーバ103は、ステップS122の処理で生成されたMPDファイルと、ステップS123の処理で生成されたセグメントデータを、放送サーバ104に転送する。
ステップS131において、放送サーバ104は、DASHサーバ103からのMPDファイルとセグメントデータを取得する。
ステップS132において、放送サーバ104(のシグナリング生成部117)は、LLSシグナリング情報やSLSシグナリング情報などのシグナリング情報を生成する。
そして、ステップS132の処理が終了すると、処理は、図23のステップS101の処理に戻り、それ以降の処理が実行される。すなわち、放送サーバ104(の送信部121等)では、上述したステップS102(図23)の処理が行われ、セグメントデータ(TTMLファイルを含む)やシグナリング情報(MPDファイルを含む)が、デジタル放送信号として送信される。
以上、ATSCサーバ10により実行されるコンポーネント・シグナリング処理について説明した。このコンポーネント・シグナリング処理では、ATSCクライアント20が、コンポーネントのデータやシグナリング情報を用いてコンテンツの再生を行うことができるように、各種の処理が行われる。また、ここでは、コンテンツの映像に、字幕を重畳表示させる場合には、TTML処理モードを選択するための選択情報を含むMPDファイルが生成され、TTMLファイルとともに送信されることになる。
(受信処理)
次に、図25のフローチャートを参照して、図1のATSCクライアント20により実行される受信処理について説明する。なお、図25の受信処理は、例えば、ユーザにより所望のサービスの選局操作が行われた場合に実行される。
ステップS201においては、受信部212等により受信処理が行われ、アンテナ211を介して、ATSCサーバ10から伝送路30を介して送信されてくるデジタル放送信号が受信される。
ステップS202においては、コンポーネント・シグナリング処理が行われる。このコンポーネント・シグナリング処理では、ステップS201の処理で受信されたデジタル放送信号から得られる、ビデオやオーディオ、字幕のコンポーネントのデータと、シグナリング情報に対する処理が行われ、ユーザの選局操作に応じたコンテンツが再生される。
なお、ステップS202のコンポーネント・シグナリング処理の詳細な内容は、図26のフローチャートを参照して後述する。ステップS202の処理が終了すると、図25の受信処理は終了される。
以上、ATSCクライアント20により実行される受信処理について説明した。
(コンポーネント・シグナリング処理)
ここで、図26のフローチャートを参照して、図25のステップS202の処理に対応するコンポーネント・シグナリング処理の詳細な内容について説明する。なお、図26においては、図22の放送クライアントミドルウェア251とDASHクライアント252で行われる処理を示している。
ステップS211において、放送クライアントミドルウェア251は、MPDファイルを取得する。また、ステップS212において、放送クライアントミドルウェア251は、セグメントデータを取得する。
ステップS213において、放送クライアントミドルウェア251は、ステップS211の処理で取得されたMPDファイルと、ステップS212の処理で取得されたセグメントデータを、DASHクライアント252に転送する。
ステップS221において、DASHクライアント252は、放送クライアントミドルウェア251から転送されてくるMPDファイルとセグメントデータを取得する。
ステップS222において、DASHクライアント252は、ステップS221の処理で取得されたMPDファイルをパースする。
ステップS223において、DASHクライアント252は、ステップS222の処理でのMPDファイルのパース結果に基づいて、ステップS221の処理で取得されるビデオとオーディオのセグメントデータのレンダリングを行う。これにより、コンテンツの映像が表示部222に表示され、その音声がスピーカ223から出力される。
ステップS224において、DASHクライアント252は、ステップS222の処理でのMPDファイルのパース結果に基づいて、字幕に対応するAdaptationSet要素のEssentialProperty要素のschemeIdUri属性の値(属性値)をチェックする。
ステップS224において、EssentialProperty要素のschemeIdUri属性の値として、"ttmlTimeOnly"が指定されていると判定された場合、TTML処理モードとして、モード1が設定されているので、処理は、ステップS225に進められ、ステップS225乃至S227の処理が実行される。
ステップS225において、DASHクライアント252は、ステップS221の処理で取得されるセグメントデータ(TTMLセグメント)をパースする。ただし、モード1では、MP4のファイルフォーマットで規定される時間情報、すなわち、moofボックスに格納されるBMDTやSampleDuration等の時間情報は無視される。
ステップS226において、DASHクライアント252は、ステップS225の処理でTTMLセグメントをパースすることで、mdatボックスに格納されるTTMLサンプルから得られるTTMLファイルをパースする。ここで、モード1では、TTMLファイルで指定される時間情報、すなわち、body要素内のp要素のbegin属性やend属性により指定される時間情報を尊重して、begin属性により指定される時間に字幕の表示を開始して、end属性により指定される時間にその字幕の表示を終了することになる。
ステップS227において、DASHクライアント252は、ステップS226の処理のTTMLファイルのパース結果に基づいて、レンダリング処理を行い、begin属性の表示開始時刻から、end属性の表示終了時刻までの間に、body要素内のp要素により指定される文字列としての字幕が表示されるようにする。
このように、TTML処理モードとして、モード1が設定されている場合、MP4のファイルフォーマットで規定される時間情報を無視して、TTMLファイルで指定される時間情報を尊重することで、所望のタイミングで字幕を表示させることができる。
また、ステップS224において、EssentialProperty要素のschemeIdUri属性の値として、"sampleTimeOnly"が指定されていると判定された場合、TTML処理モードとして、モード2−1が設定されているので、処理は、ステップS228に進められ、ステップS228乃至S230の処理が実行される。
ステップS228において、DASHクライアント252は、ステップS221の処理で取得されるセグメントデータ(TTMLセグメント)をパースする。ここで、モード2−1では、MP4のファイルフォーマットで規定される時間情報、すなわち、moofボックスに格納されるBMDTやSampleDuration等の時間情報を尊重して、BMDTに応じた時間に字幕の表示を開始して、そのmoofボックスに格納されるSampleDurationに応じた時間の間だけ表示を継続することになる。
ステップS229において、DASHクライアント252は、ステップS228の処理でTTMLセグメントをパースすることで、mdatボックスに格納されるTTMLサンプルから得られるTTMLファイルをパースする。ただし、モード2−1では、TTMLファイルで指定される時間情報、すなわち、p要素のbegin属性やend属性により指定される時間情報は無視される。
ステップS230において、DASHクライアント252は、ステップS228の処理とステップS229の処理のパース結果に基づいて、レンダリング処理を行い、BMDTに応じた時間から、SampleDurationに応じた時間まで間に、TTMLファイルのp要素により指定される文字列としての字幕が表示されるようにする。
さらに、ステップS224において、EssentialProperty要素のschemeIdUri属性の値として、"sampleTimeOnlyButTillNext"が指定されていると判定された場合、TTML処理モードとして、モード2−2が設定されているので、処理は、ステップS231に進められ、ステップS231乃至S233の処理が実行される。
ステップS231において、DASHクライアント252は、ステップS221の処理で取得されるセグメントデータ(TTMLセグメント)をパースする。ここで、モード2−2では、MP4のファイルフォーマットで規定される時間情報、すなわち、moofボックスに格納されるBMDTの時間情報を尊重して、対象のTTMLサンプルに対応するBMDTに応じた時間に字幕の表示を開始して、次のTTMLサンプルに対応するBMDTに応じた時間まで表示を継続することになる。
ステップS232において、DASHクライアント252は、ステップS231の処理でTTMLセグメントをパースすることで、mdatボックスに格納されるTTMLサンプルから得られるTTMLファイルをパースする。ただし、モード2−2では、TTMLファイルで指定される時間情報、すなわち、p要素のbegin属性やend属性により指定される時間情報は無視される。
ステップS233において、DASHクライアント252は、ステップS231の処理とステップS232の処理のパース結果に基づいて、レンダリング処理を行い、対象のTTMLサンプルに対応するBMDTに応じた時間から、次のTTMLサンプルに対応するBMDTに応じた時間までの間に、対象のTTMLサンプルから得られるTTMLファイルのp要素により指定される文字列としての字幕が表示されるようにする。
なお、次のTTMLサンプルに対応するBMDTに応じた時間を認識するためには、上述したステップS231の処理に戻り、TTMLセグメントをパースする必要がある。すなわち、ステップS231乃至S233の処理が繰り返し行われることで、次のTTMLサンプルに対応するBMDTに応じた時間が認識されるとともに、次のTTMLサンプルから得られるTTMLファイルに指定される字幕が表示されることになる。
このように、TTML処理モードとして、モード2(モード2−1,モード2−2)が設定されている場合、MP4のファイルフォーマットで規定される時間情報(TTMLサンプルごとの時間情報)を尊重して、TTMLファイルで指定される時間情報を無視することで、所望のタイミングで字幕を表示させることができる。
また、ステップS224において、EssentialProperty要素のschemeIdUri属性の値として、"asap"が指定されていると判定された場合、TTML処理モードとして、モード3が設定されているので、処理は、ステップS234に進められ、ステップS234乃至S236の処理が実行される。
ステップS234において、DASHクライアント252は、ステップS221の処理で取得されるセグメントデータ(TTMLセグメント)をパースする。ただし、モード3では、MP4のファイルフォーマットで規定される時間情報、すなわち、moofボックスに格納されるBMDTやSampleDuration等の時間情報は無視される。
ステップS235において、DASHクライアント252は、ステップS234の処理でTTMLセグメントをパースすることで、mdatボックスに格納されるTTMLサンプルから得られるTTMLファイルをパースする。ただし、モード3では、TTMLファイルで指定される時間情報、すなわち、p要素のbegin属性やend属性により指定される時間情報は無視される。
ステップS236において、DASHクライアント252は、ステップS235の処理のTTMLファイルのパース結果に基づいて、TTMLファイルのレンダリングを即時に行い、TTMLファイルのp要素により指定される文字列としての字幕が表示されるようにする。なお、このようにして表示された字幕は、次のTTMLファイル(TTMLサンプル)が取得されたときに、その表示が終了されることになる。
このように、TTML処理モードとして、モード3が設定されている場合、MP4のファイルフォーマットで規定される時間情報(TTMLサンプルごとの時間情報)と、TTMLファイルで指定される時間情報を無視して、即時に字幕が表示されるようにすることで、所望のタイミングで字幕を表示させることができる。
以上、ATSCクライアント20により実行されるコンポーネント・シグナリング処理について説明した。このコンポーネント・シグナリング処理では、ATSCサーバ10から送信されてくる、コンポーネントのデータやシグナリング情報を用い、コンテンツを再生するための処理が行われる。また、ここでは、コンテンツの映像に、字幕を重畳表示させる場合に、TTML処理モードを選択するための選択情報を含むMPDファイルが取得されるので、TTML処理モードに応じた表示タイミングで、TTMLファイルに指定される字幕が表示されることになる。
<6.変形例>
上述した説明としては、デジタル放送の規格として、米国等で採用されている方式であるATSC(例えばATSC3.0)を説明したが、本技術は、日本等が採用する方式であるISDB(Integrated Services Digital Broadcasting)や、欧州の各国等が採用する方式であるDVB(Digital Video Broadcasting)などに適用するようにしてもよい。
また、上述したSLTなどのシグナリング情報の名称は、一例であって、他の名称が用いられるようにしてもよい。仮に、シグナリング情報の名称として、他の名称が用いられた場合であっても、単に形式的に名称が変更になっただけであり、そのシグナリング情報の実質的な内容が異なるものではない。例えば、SLTは、FIT(Fast Information Table)などと称される場合がある。
また、上述した説明では、TTMLファイルやMPDファイルは、ATSCサーバ10によりデジタル放送信号で伝送されるものとして説明したが、それらのファイルが、インターネット上のサーバから配信されるようにしてもよい。例えば、放送経由で配信されるコンテンツの映像に対して、通信経由で配信されるTTMLファイルの字幕が重畳表示されるようにしてもよい。また、ビデオやオーディオ(のストリーム)のデータについても、インターネット上のサーバから、適応的にストリーミング配信されるようにしてもよい。ただし、このストリーミング配信は、MPEG-DASHの規格に準拠したものとなる。
さらに、上述した説明では、TTML処理モードを指定するために、MPDファイルにおいて、AdaptationSet要素のEssentialProperty要素又はSupplementalProperty要素のschemeIdUri属性の属性値を用いる場合を説明したが、それ以外の要素や属性を用いて、TTML処理モードが指定されるようにしてもよい。また、Representation要素又はSubRepresentation要素において、EssentialProperty要素又はSupplementalProperty要素のschemeIdUri属性の属性値により、TTML処理モードを指定するようにしてもよい。さらに、TTMLファイルの処理時にTTML処理モードが認識されていれば、MPDファイル以外のシグナリング情報などにより、TTML処理モードが指定されるようにしてもよい。
<7.コンピュータの構成>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。図27は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示す図である。
コンピュータ900において、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。バス904には、さらに、入出力インターフェース905が接続されている。入出力インターフェース905には、入力部906、出力部907、記録部908、通信部909、及び、ドライブ910が接続されている。
入力部906は、キーボード、マウス、マイクロフォンなどよりなる。出力部907は、ディスプレイ、スピーカなどよりなる。記録部908は、ハードディスクや不揮発性のメモリなどよりなる。通信部909は、ネットワークインターフェースなどよりなる。ドライブ910は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア911を駆動する。
以上のように構成されるコンピュータ900では、CPU901が、ROM902や記録部908に記録されているプログラムを、入出力インターフェース905及びバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ900(CPU901)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア911に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
コンピュータ900では、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インターフェース905を介して、記録部908にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部909で受信し、記録部908にインストールすることができる。その他、プログラムは、ROM902や記録部908に、あらかじめインストールしておくことができる。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
また、本技術は、以下のような構成をとることができる。
(1)
デジタル放送の放送波を受信する受信部と、
前記放送波で伝送される、字幕に関する字幕情報と、前記字幕の表示のタイミングを指定するための複数のモードのうちの特定のモードを選択するための選択情報を含む制御情報を取得する取得部と、
前記制御情報に含まれる前記選択情報に基づいて、前記特定のモードに応じた表示のタイミングで、前記字幕情報に応じた前記字幕の表示を制御する制御部と
を備える受信装置。
(2)
前記字幕情報は、TTML(Timed Text Markup Language)形式のTTMLファイルであって、そのデータは、MP4のファイルフォーマットに準拠しており、
前記制御情報は、XML(Extensible Markup Language)形式のMPD(Media Presentation Description)ファイルであり、
前記TTMLファイルと前記MPDファイルは、ROUTE(Real-Time Object Delivery over Unidirectional Transport)セッションで伝送される
(1)に記載の受信装置。
(3)
前記複数のモードは、前記TTMLファイルで指定される時間情報に応じたタイミングで前記字幕の表示を行う第1のモードを含み、
前記制御部は、前記特定のモードが前記第1のモードである場合、前記TTMLファイルで指定される時間情報に応じたタイミングで、前記TTMLファイルで指定される前記字幕を表示させる
(2)に記載の受信装置。
(4)
前記複数のモードは、前記MP4のファイルフォーマットで規定される時間情報に応じたタイミングで前記字幕の表示を行う第2のモードを含み、
前記制御部は、前記特定のモードが前記第2のモードである場合、前記MP4のファイルフォーマットで規定される時間情報に応じたタイミングで、前記TTMLファイルで指定される前記字幕を表示させる
(2)又は(3)に記載の受信装置。
(5)
前記制御部は、前記MP4のファイルフォーマットで規定されるmoofボックスに格納されるBMDT(BaseMediaDecodeTime)に応じた時間に前記字幕の表示を開始して、前記moofボックスに格納されるSampleDurationに応じた時間の間だけ表示を継続させる
(4)に記載の受信装置。
(6)
前記制御部は、前記MP4のファイルフォーマットで規定される、対象の字幕のデータを格納するmdatボックスに対応するmoofボックスに格納されるBMDTに応じた時間に前記字幕の表示を開始して、次の字幕のデータを格納するmdatボックスに対応するmoofボックスに格納されるBMDTに応じた時間まで表示を継続させる
(4)に記載の受信装置。
(7)
前記複数のモードは、前記TTMLファイルで指定される時間情報と、前記MP4のファイルフォーマットで規定される時間情報を無視して前記字幕の表示を行う第3のモードを含み、
前記制御部は、前記特定のモードが前記第3のモードである場合に、前記TTMLファイルを取得したとき、即時に、前記TTMLファイルで指定される前記字幕を表示させる
(2)乃至(4)のいずれかに記載の受信装置。
(8)
前記選択情報は、前記MPDファイルの拡張情報として指定される
(2)乃至(7)のいずれかに記載の受信装置。
(9)
前記選択情報は、MPD要素のPeriod要素に配置されるAdaptationSet要素において、EssentialProperty要素又はSupplementalProperty要素のschemeIdUri属性により指定される
(8)に記載の受信装置。
(10)
デジタル放送の放送波で伝送される、字幕に関する字幕情報と、前記字幕の表示のタイミングを指定するための複数のモードのうちの特定のモードを選択するための選択情報を含む制御情報を取得し、
前記制御情報に含まれる前記選択情報に基づいて、前記特定のモードに応じた表示のタイミングで、前記字幕情報に応じた前記字幕の表示を制御する
ステップを含むデータ処理方法。
(11)
字幕の表示のタイミングを指定するための複数のモードのうちの特定のモードを選択するための選択情報を含む制御情報を生成する生成部と、
前記字幕に関する字幕情報とともに、前記制御情報を、デジタル放送の放送波で送信する送信部と
を備える送信装置。
(12)
前記字幕情報は、TTML形式のTTMLファイルであって、そのデータは、MP4のファイルフォーマットに準拠しており、
前記制御情報は、XML形式のMPDファイルであり、
前記TTMLファイルと前記MPDファイルは、ROUTEセッションで伝送される
(11)に記載の送信装置。
(13)
前記複数のモードは、前記TTMLファイルで指定される時間情報に応じたタイミングで前記字幕の表示を行う第1のモードを含む
(12)に記載の送信装置。
(14)
前記複数のモードは、前記MP4のファイルフォーマットで規定される時間情報に応じたタイミングで前記字幕の表示を行う第2のモードを含む
(12)又は(13)に記載の送信装置。
(15)
前記第2のモードは、前記MP4のファイルフォーマットで規定されるmoofボックスに格納されるBMDTに応じた時間に前記字幕の表示を開始して、前記moofボックスに格納されるSampleDurationに応じた時間の間だけ表示を継続させるモードである
(14)に記載の送信装置。
(16)
前記第2のモードは、前記MP4のファイルフォーマットで規定される、対象の字幕のデータを格納するmdatボックスに対応するmoofボックスに格納されるBMDTに応じた時間に前記字幕の表示を開始して、次の字幕のデータを格納するmdatボックスに対応するmoofボックスに格納されるBMDTに応じた時間まで表示を継続させるモードである
(14)に記載の送信装置。
(17)
前記複数のモードは、前記TTMLファイルで指定される時間情報と、前記MP4のファイルフォーマットで規定される時間情報を無視して前記字幕の表示を行う第3のモードを含む
(12)乃至(14)のいずれかに記載の送信装置。
(18)
前記選択情報は、前記MPDファイルの拡張情報として指定される
(12)乃至(17)のいずれかに記載の送信装置。
(19)
前記選択情報は、MPD要素のPeriod要素に配置されるAdaptationSet要素において、EssentialProperty要素又はSupplementalProperty要素のschemeIdUri属性により指定される
(18)に記載の送信装置。
(20)
デジタル放送の放送波で字幕に関する字幕情報とともに伝送される、前記字幕の表示のタイミングを指定するための複数のモードのうちの特定のモードを選択するための選択情報を含む制御情報を生成する
ステップを含むデータ処理方法。
1 伝送システム, 10 ATSCサーバ, 20 ATSCクライアント, 30 伝送路, 101 AVサーバ, 102 TTMLサーバ, 103 DASHサーバ, 104 放送サーバ, 111 ビデオデータ取得部, 112 ビデオエンコーダ, 113 オーディオデータ取得部, 114 オーディオエンコーダ, 115 字幕生成部, 116 字幕エンコーダ, 117 シグナリング生成部, 118 シグナリング処理部, 119 セグメント処理部, 120 マルチプレクサ, 121 送信部, 212 受信部, 213 デマルチプレクサ, 214 制御部, 217 ビデオデコーダ, 218 ビデオ出力部, 219 オーディオデコーダ, 220 オーディオ出力部, 221 字幕デコーダ, 241 MP4パーサ, 242 TTMLパーサ, 251 放送クライアントミドルウェア, 252 DASHクライアント, 900 コンピュータ, 901 CPU

Claims (20)

  1. デジタル放送の放送波を受信する受信部と、
    前記放送波で伝送される、字幕に関する字幕情報と、前記字幕の表示のタイミングを指定するための複数のモードのうちの特定のモードを選択するための選択情報を含む制御情報を取得する取得部と、
    前記制御情報に含まれる前記選択情報に基づいて、前記特定のモードに応じた表示のタイミングで、前記字幕情報に応じた前記字幕の表示を制御する制御部と
    を備える受信装置。
  2. 前記字幕情報は、TTML(Timed Text Markup Language)形式のTTMLファイルであって、そのデータは、MP4のファイルフォーマットに準拠しており、
    前記制御情報は、XML(Extensible Markup Language)形式のMPD(Media Presentation Description)ファイルであり、
    前記TTMLファイルと前記MPDファイルは、ROUTE(Real-Time Object Delivery over Unidirectional Transport)セッションで伝送される
    請求項1に記載の受信装置。
  3. 前記複数のモードは、前記TTMLファイルで指定される時間情報に応じたタイミングで前記字幕の表示を行う第1のモードを含み、
    前記制御部は、前記特定のモードが前記第1のモードである場合、前記TTMLファイルで指定される時間情報に応じたタイミングで、前記TTMLファイルで指定される前記字幕を表示させる
    請求項2に記載の受信装置。
  4. 前記複数のモードは、前記MP4のファイルフォーマットで規定される時間情報に応じたタイミングで前記字幕の表示を行う第2のモードを含み、
    前記制御部は、前記特定のモードが前記第2のモードである場合、前記MP4のファイルフォーマットで規定される時間情報に応じたタイミングで、前記TTMLファイルで指定される前記字幕を表示させる
    請求項2に記載の受信装置。
  5. 前記制御部は、前記MP4のファイルフォーマットで規定されるmoofボックスに格納されるBMDT(BaseMediaDecodeTime)に応じた時間に前記字幕の表示を開始して、前記moofボックスに格納されるSampleDurationに応じた時間の間だけ表示を継続させる
    請求項4に記載の受信装置。
  6. 前記制御部は、前記MP4のファイルフォーマットで規定される、対象の字幕のデータを格納するmdatボックスに対応するmoofボックスに格納されるBMDTに応じた時間に前記字幕の表示を開始して、次の字幕のデータを格納するmdatボックスに対応するmoofボックスに格納されるBMDTに応じた時間まで表示を継続させる
    請求項4に記載の受信装置。
  7. 前記複数のモードは、前記TTMLファイルで指定される時間情報と、前記MP4のファイルフォーマットで規定される時間情報を無視して前記字幕の表示を行う第3のモードを含み、
    前記制御部は、前記特定のモードが前記第3のモードである場合に、前記TTMLファイルを取得したとき、即時に、前記TTMLファイルで指定される前記字幕を表示させる
    請求項2に記載の受信装置。
  8. 前記選択情報は、前記MPDファイルの拡張情報として指定される
    請求項2に記載の受信装置。
  9. 前記選択情報は、MPD要素のPeriod要素に配置されるAdaptationSet要素において、EssentialProperty要素又はSupplementalProperty要素のschemeIdUri属性により指定される
    請求項8に記載の受信装置。
  10. デジタル放送の放送波で伝送される、字幕に関する字幕情報と、前記字幕の表示のタイミングを指定するための複数のモードのうちの特定のモードを選択するための選択情報を含む制御情報を取得し、
    前記制御情報に含まれる前記選択情報に基づいて、前記特定のモードに応じた表示のタイミングで、前記字幕情報に応じた前記字幕の表示を制御する
    ステップを含むデータ処理方法。
  11. 字幕の表示のタイミングを指定するための複数のモードのうちの特定のモードを選択するための選択情報を含む制御情報を生成する生成部と、
    前記字幕に関する字幕情報とともに、前記制御情報を、デジタル放送の放送波で送信する送信部と
    を備える送信装置。
  12. 前記字幕情報は、TTML形式のTTMLファイルであって、そのデータは、MP4のファイルフォーマットに準拠しており、
    前記制御情報は、XML形式のMPDファイルであり、
    前記TTMLファイルと前記MPDファイルは、ROUTEセッションで伝送される
    請求項11に記載の送信装置。
  13. 前記複数のモードは、前記TTMLファイルで指定される時間情報に応じたタイミングで前記字幕の表示を行う第1のモードを含む
    請求項12に記載の送信装置。
  14. 前記複数のモードは、前記MP4のファイルフォーマットで規定される時間情報に応じたタイミングで前記字幕の表示を行う第2のモードを含む
    請求項12に記載の送信装置。
  15. 前記第2のモードは、前記MP4のファイルフォーマットで規定されるmoofボックスに格納されるBMDTに応じた時間に前記字幕の表示を開始して、前記moofボックスに格納されるSampleDurationに応じた時間の間だけ表示を継続させるモードである
    請求項14に記載の送信装置。
  16. 前記第2のモードは、前記MP4のファイルフォーマットで規定される、対象の字幕のデータを格納するmdatボックスに対応するmoofボックスに格納されるBMDTに応じた時間に前記字幕の表示を開始して、次の字幕のデータを格納するmdatボックスに対応するmoofボックスに格納されるBMDTに応じた時間まで表示を継続させるモードである
    請求項14に記載の送信装置。
  17. 前記複数のモードは、前記TTMLファイルで指定される時間情報と、前記MP4のファイルフォーマットで規定される時間情報を無視して前記字幕の表示を行う第3のモードを含む
    請求項12に記載の送信装置。
  18. 前記選択情報は、前記MPDファイルの拡張情報として指定される
    請求項12に記載の送信装置。
  19. 前記選択情報は、MPD要素のPeriod要素に配置されるAdaptationSet要素において、EssentialProperty要素又はSupplementalProperty要素のschemeIdUri属性により指定される
    請求項18に記載の送信装置。
  20. デジタル放送の放送波で字幕に関する字幕情報とともに伝送される、前記字幕の表示のタイミングを指定するための複数のモードのうちの特定のモードを選択するための選択情報を含む制御情報を生成するステップ
    を含むデータ処理方法。
JP2015121335A 2015-06-16 2015-06-16 受信装置、送信装置、及び、データ処理方法 Expired - Fee Related JP6610019B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2015121335A JP6610019B2 (ja) 2015-06-16 2015-06-16 受信装置、送信装置、及び、データ処理方法
MX2017016011A MX2017016011A (es) 2015-06-16 2016-06-02 Aparato de recepcion, aparato de transmision y metodo de procesamiento de datos.
CA2980851A CA2980851A1 (en) 2015-06-16 2016-06-02 Reception apparatus, transmission apparatus, and data processing method
EP16730509.3A EP3311583B1 (en) 2015-06-16 2016-06-02 Reception apparatus, transmission apparatus, and data processing method
KR1020177032108A KR20180018490A (ko) 2015-06-16 2016-06-02 수신 장치, 송신 장치, 및 데이터 처리 방법
US15/564,056 US11622088B2 (en) 2015-06-16 2016-06-02 Reception apparatus, transmission apparatus, and data processing method
PCT/JP2016/002684 WO2016203726A1 (en) 2015-06-16 2016-06-02 Reception apparatus, transmission apparatus, and data processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015121335A JP6610019B2 (ja) 2015-06-16 2015-06-16 受信装置、送信装置、及び、データ処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019197479A Division JP2020025325A (ja) 2019-10-30 2019-10-30 受信装置、送信装置、及び、データ処理方法

Publications (2)

Publication Number Publication Date
JP2017011325A true JP2017011325A (ja) 2017-01-12
JP6610019B2 JP6610019B2 (ja) 2019-11-27

Family

ID=56137484

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015121335A Expired - Fee Related JP6610019B2 (ja) 2015-06-16 2015-06-16 受信装置、送信装置、及び、データ処理方法

Country Status (7)

Country Link
US (1) US11622088B2 (ja)
EP (1) EP3311583B1 (ja)
JP (1) JP6610019B2 (ja)
KR (1) KR20180018490A (ja)
CA (1) CA2980851A1 (ja)
MX (1) MX2017016011A (ja)
WO (1) WO2016203726A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190068478A (ko) * 2017-12-08 2019-06-18 주식회사 에어코드 지상파 uhd 방송 서비스에서 폐쇄 자막 데이터 전송 시스템 및 방법

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106993227B (zh) * 2016-01-20 2020-01-21 腾讯科技(北京)有限公司 一种进行信息展示的方法和装置
KR101863904B1 (ko) * 2016-11-17 2018-06-01 주식회사 에어코드 지상파 uhd 방송 서비스에서 복수의 av 인코더의 시그널링을 통합하여 송출하는 방송 시스템 및 그 방법
KR20200135324A (ko) * 2018-03-26 2020-12-02 소니 주식회사 정보 처리 장치, 정보 처리 장치 및 프로그램
US12003825B1 (en) * 2022-09-21 2024-06-04 Amazon Technologies, Inc. Enhanced control of video subtitles

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013088986A1 (ja) * 2011-12-16 2013-06-20 ソニー株式会社 受信装置及びその制御方法、配信装置及び配信方法、プログラム、並びに配信システム
WO2014109321A1 (ja) * 2013-01-09 2014-07-17 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2015064383A1 (ja) * 2013-10-30 2015-05-07 ソニー株式会社 送信装置、送信方法、受信装置、及び、受信方法
WO2015065104A1 (en) * 2013-11-01 2015-05-07 Lg Electronics Inc. Apparatus for transmitting broadcast signals, apparatus for receiving broadcast signals, method for transmitting broadcast signals and method for receiving broadcast signals
JP5713141B1 (ja) * 2014-12-05 2015-05-07 ソニー株式会社 受信装置、およびデータ処理方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5713141B2 (ja) 1973-09-10 1982-03-15
JP5685969B2 (ja) 2011-02-15 2015-03-18 ソニー株式会社 表示制御方法、表示制御装置
US20130290508A1 (en) * 2012-04-25 2013-10-31 Jan Besehanic Methods and apparatus to measure exposure to streaming media
KR102023788B1 (ko) * 2011-07-29 2019-09-20 소니 주식회사 스트리밍 배신 장치 및 방법, 스트리밍 수신 장치 및 방법, 스트리밍 시스템, 프로그램과 기록 매체
US20130188922A1 (en) * 2012-01-23 2013-07-25 Research In Motion Limited Multimedia File Support for Media Capture Device Position and Location Timed Metadata
US8695048B1 (en) * 2012-10-15 2014-04-08 Wowza Media Systems, LLC Systems and methods of processing closed captioning for video on demand content
US9313544B2 (en) * 2013-02-14 2016-04-12 The Nielsen Company (Us), Llc Methods and apparatus to measure exposure to streaming media
US9503536B2 (en) * 2013-03-14 2016-11-22 The Nielsen Company (Us), Llc Methods and apparatus to monitor media presentations
US20140280888A1 (en) * 2013-03-15 2014-09-18 Francis Gavin McMillan Methods, Apparatus and Articles of Manufacture to Monitor Media Devices
US8782721B1 (en) * 2013-04-05 2014-07-15 Wowza Media Systems, LLC Closed captions for live streams
TWI630821B (zh) * 2013-07-19 2018-07-21 新力股份有限公司 File generation device, file generation method, file reproduction device, and file reproduction method
US9635398B2 (en) * 2013-11-01 2017-04-25 Adobe Systems Incorporated Real-time tracking collection for video experiences
US9748504B2 (en) * 2014-03-25 2017-08-29 Universal Display Corporation Organic electroluminescent materials and devices
JP6384119B2 (ja) * 2014-05-15 2018-09-05 ソニー株式会社 受信装置、および送信装置、並びにデータ処理方法
WO2016060410A1 (ko) * 2014-10-14 2016-04-21 엘지전자 주식회사 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법
US20180035153A1 (en) * 2015-03-01 2018-02-01 Lg Electronics Inc. Broadcasting signal transmission apparatus, broadcasting signal reception apparatus, broadcasting signal transmission method, and broadcasting signal reception method
US10595099B2 (en) * 2015-04-05 2020-03-17 Lg Electronics Inc. Method and device for transmitting and receiving broadcast signal for broadcast service on basis of XML subtitle
US10529383B2 (en) * 2015-04-09 2020-01-07 Avid Technology, Inc. Methods and systems for processing synchronous data tracks in a media editing system
US10477283B2 (en) * 2015-05-22 2019-11-12 Dish Technologies Llc Carrier-based active text enhancement
JP2017011503A (ja) * 2015-06-22 2017-01-12 ソニー株式会社 受信装置、送信装置、及び、データ処理方法
CN112019883B (zh) * 2015-07-06 2022-04-22 Lg电子株式会社 发送广播信号的方法和设备及接收广播信号的方法和设备
US10708611B2 (en) * 2015-09-04 2020-07-07 Sharp Kabushiki Kaisha Systems and methods for signaling of video parameters and information associated with caption services

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013088986A1 (ja) * 2011-12-16 2013-06-20 ソニー株式会社 受信装置及びその制御方法、配信装置及び配信方法、プログラム、並びに配信システム
WO2014109321A1 (ja) * 2013-01-09 2014-07-17 ソニー株式会社 送信装置、送信方法、受信装置および受信方法
WO2015064383A1 (ja) * 2013-10-30 2015-05-07 ソニー株式会社 送信装置、送信方法、受信装置、及び、受信方法
WO2015065104A1 (en) * 2013-11-01 2015-05-07 Lg Electronics Inc. Apparatus for transmitting broadcast signals, apparatus for receiving broadcast signals, method for transmitting broadcast signals and method for receiving broadcast signals
JP5713141B1 (ja) * 2014-12-05 2015-05-07 ソニー株式会社 受信装置、およびデータ処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190068478A (ko) * 2017-12-08 2019-06-18 주식회사 에어코드 지상파 uhd 방송 서비스에서 폐쇄 자막 데이터 전송 시스템 및 방법
KR102153717B1 (ko) * 2017-12-08 2020-09-08 주식회사 에어코드 지상파 uhd 방송 서비스에서 폐쇄 자막 데이터 전송 시스템 및 방법

Also Published As

Publication number Publication date
KR20180018490A (ko) 2018-02-21
US20180091769A1 (en) 2018-03-29
US11622088B2 (en) 2023-04-04
MX2017016011A (es) 2018-04-20
EP3311583A1 (en) 2018-04-25
CA2980851A1 (en) 2016-12-22
WO2016203726A1 (en) 2016-12-22
EP3311583B1 (en) 2022-03-30
JP6610019B2 (ja) 2019-11-27

Similar Documents

Publication Publication Date Title
JP6441521B2 (ja) 放送システムにおける制御メッセージ構成装置及び方法
US10693936B2 (en) Transporting coded audio data
US9854375B2 (en) Selection of coded next generation audio data for transport
JP6258856B2 (ja) 放送システムにおける制御メッセージ構成装置及び方法
JP6545804B2 (ja) オーバージエアブロードキャストメディアデータに関するセッション記述情報
JP6610019B2 (ja) 受信装置、送信装置、及び、データ処理方法
KR102499231B1 (ko) 수신 장치, 송신 장치 및 데이터 처리 방법
US10469919B2 (en) Broadcast signal transmission apparatus, broadcast signal reception apparatus, broadcast signal transmission method, and broadcast signal reception method
JP6359539B2 (ja) レンダリング時の制御
WO2017061272A1 (ja) 受信装置、送信装置、及び、データ処理方法
KR102461599B1 (ko) 수신 장치, 수신 방법, 송신 장치, 및, 송신 방법
WO2015115253A1 (ja) 受信装置、受信方法、送信装置、及び、送信方法
JP2020025325A (ja) 受信装置、送信装置、及び、データ処理方法
KR102319932B1 (ko) 수신 장치 및 수신 방법, 재생 장치 및 재생 방법, 공급 장치 및 공급 방법, 그리고 프로그램
KR102600762B1 (ko) Atsc 3.0 기반의 방송 콘텐츠 전송 장치 및 방법과, 방송 콘텐츠 수신 장치 및 방법
JPWO2017212932A1 (ja) 受信装置、送信装置、及び、データ処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191014

R151 Written notification of patent or utility model registration

Ref document number: 6610019

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees