JP6062363B2 - ストリーミング配信装置および方法、ストリーミング受信装置および方法、ストリーミングシステム、プログラム、並びに記録媒体 - Google Patents

ストリーミング配信装置および方法、ストリーミング受信装置および方法、ストリーミングシステム、プログラム、並びに記録媒体 Download PDF

Info

Publication number
JP6062363B2
JP6062363B2 JP2013526799A JP2013526799A JP6062363B2 JP 6062363 B2 JP6062363 B2 JP 6062363B2 JP 2013526799 A JP2013526799 A JP 2013526799A JP 2013526799 A JP2013526799 A JP 2013526799A JP 6062363 B2 JP6062363 B2 JP 6062363B2
Authority
JP
Japan
Prior art keywords
fragment
stored
ttml
document instance
movie
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013526799A
Other languages
English (en)
Other versions
JPWO2013018517A1 (ja
Inventor
山岸 靖明
靖明 山岸
北里 直久
直久 北里
義治 出葉
義治 出葉
高林 和彦
和彦 高林
平林 光浩
光浩 平林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Saturn Licensing LLC
Original Assignee
Saturn Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saturn Licensing LLC filed Critical Saturn Licensing LLC
Publication of JPWO2013018517A1 publication Critical patent/JPWO2013018517A1/ja
Application granted granted Critical
Publication of JP6062363B2 publication Critical patent/JP6062363B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2355Processing of additional data, e.g. scrambling of additional data or processing content descriptors involving reformatting operations of additional data, e.g. HTML pages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/087Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
    • H04N7/088Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital
    • H04N7/0884Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection
    • H04N7/0885Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection for the transmission of subtitles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Systems (AREA)
  • Information Transfer Between Computers (AREA)

Description

本技術は、ストリーミング配信装置および方法、ストリーミング受信装置および方法、ストリーミングシステム、プログラム、並びに記録媒体に関し、特に、ストリーミングにおけるサブタイトルの表示に係る処理負荷を軽減させることができるようにするストリーミング配信装置および方法、ストリーミング受信装置および方法、ストリーミングシステム、プログラム、並びに記録媒体に関する。
近年、IP(Internet Protocol)を用いて動画配信を行うIPTV等のインターネットストリーミングにおける標準化が行われている。例えば、HTTP(HyperText Transfer Protocol)ストリーミングによるVoD(Video On Demand)ストリーミングや、ライブストリーミングに適用される方式の標準化が行われている。このような標準化の作業において、コンテナレイヤにおいて採用するフォーマットとして、MP4ファイルフォーマットを用いることが検討されている。
HTTPストリーミングの構成要素として字幕(サブタイトル)がある場合、W3C(The World Wide Web Consortium)によって規定されたTTML(TimedText MarkUp Language)が多く利用されている。TTMLは、他の標準化団体でも採用が進んでおり、有力なフォーマットとして注目されている。
TTMLは、ドキュメントインスタンスという区分に従って、主に2つのタイプに分類される。1つは、「Initialization Document instance」と称されるドキュメントインスタンスであり、例えば、サブタイトルとして表示される文字の色、フォント、表示位置などを指定する記述によって構成されるインスタンスとされる。他の1つは、「Body Document instance」と称されるドキュメントインスタンスであり、実際にサブタイトルとして実際に表示される文字列などの記述によって構成されるインスタンスとされる。
TTMLを用いれば、例えば、「Initialization Document instance」に記述された文字の色、フォント、表示位置などに従って、「Body Document instance」に記述された文字列を次々と表示させることができる。
すなわち、ストリームを受信して表示する受信機においては、最初に「Initialization Document instance」を解析して、文字の色、フォント、表示位置などを特定しておき、その後、「Body Document instance」を解析して得られた文字列を表示させるようにすることができる。つまり、受信機において、文字の色、フォント、表示位置などの定義情報であるレンダリングコンテクストを都度、解析する必要がなくなるので、サブタイトルの表示に係る処理負荷を低減させることが可能となる。
また、2D番組と3D番組とが混在する編成形態において、効率的な帯域運用や、受信機側での効率的なチャネル切り替え処理を実現することが可能なストリーム受信装置も提案されている(例えば、特許文献1参照)。
特開2011−097227号公報
ところで、映画やドラマなどのコンテンツの場合と異なり、例えば、ニュースやスポーツ中継などのライブコンテンツの画像に挿入されるサブタイトルの場合、予めサブタイトルの文字列を確定させておくことができない。このため、放送(ストリーミング)中にサブタイトルの文字列を都度、挿入する処理が必要となる。このような場合、受信機にTTMLの「Initialization Document instance」を受信させてレンダリングコンテクストを解析させた後、「Body Document instance」を都度、受信させるようにすることが望ましい。
また、例えば、サブタイトルとして表示する文字列の内容(強調したい文や、驚きや困惑を表す感情表現文等)に応じて、レンダリングコンテクストを変更させたい場合もある。このような場合、TTMLの「Initialization Document instance」によって、複数種類のレンダリングコンテクストを予め定義しておき、その後、「Body Document instance」において使用するレンダリングコンテクストを指定することも可能である。
しかしながら、MP4ファイルフォーマットでは、TTMLインスタンスのタイプを区分して格納する方法が規定されていないため、受信機がTTMLのインスタンスのタイプを識別できない。このため、IPTV等のインターネットストリーミングにおいてサブタイトルを表示させる際には、レンダリングコンテクストの解析に係る処理負荷を軽減させることが期待されていた。
本技術はこのような状況に鑑みて開示するものであり、ストリーミングにおけるサブタイトルの表示に係る処理負荷を軽減させることができるようにするものである。
本技術の第1の側面は、ストリーミング配信されるコンテンツのデータが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成するコンテンツフラグメント生成部と、前記コンテンツに表示されるサブタイトルに係るTTML(TimedText MarkUp Language)ドキュメントインスタンスが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成するサブタイトルフラグメント生成部とを備え、前記サブタイトルフラグメント生成部は、前記フラグメントのヘッダ情報に、前記フラグメントに格納された前記TTMLドキュメントインスタンスが前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報を付加するストリーミング配信装置である。
前記サブタイトルフラグメント生成部は、前記サブタイトルに係るTTMLドキュメントインスタンスの記述内容を個々に識別する記述内容識別情報とともに、前記TTMLドキュメントインスタンスが記述されたサンプルを、前記フラグメントに格納するようにすることができる。
複数の前記フラグメントから成るムービーのヘッダ情報において、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報を付加するムービーヘッダ生成部をさらに備えるようにすることができる。
複数の前記フラグメントから成るムービーのヘッダ情報において、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報を付加するムービーヘッダ生成部をさらに備え、前記ムービーヘッダ生成部は、前記ムービーのヘッダ情報に、前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンス格納し、前記サブタイトルフラグメント生成部は、前記ムービーのヘッダ情報に、前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスが格納された場合、前記フラグメントのヘッダ情報に、前記インスタンス区分識別情報付加しないようにすることができる。
本発明の第1の側面は、コンテンツフラグメント生成部が、ストリーミング配信されるコンテンツのデータが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成し、サブタイトルフラグメント生成部が、前記コンテンツに表示されるサブタイトルに係るTTML(TimedText MarkUp Language)ドキュメントインスタンスが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成し、前記サブタイトルフラグメント生成部により、前記フラグメントのヘッダ情報に、前記フラグメントに格納された前記TTMLドキュメントインスタンスが前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報が付加されるストリーミング配信方法である。
本発明の第1の側面は、コンピュータを、ストリーミング配信されるコンテンツのデータが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成するコンテンツフラグメント生成部と、前記コンテンツに表示されるサブタイトルに係るTTML(TimedText MarkUp Language)ドキュメントインスタンスが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成するサブタイトルフラグメント生成部とを備え、前記サブタイトルフラグメント生成部は、前記フラグメントのヘッダ情報に、前記フラグメントに格納された前記TTMLドキュメントインスタンスが前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報を付加するストリーミング配信装置として機能させるプログラムである。
本発明の第1の側面においては、ストリーミング配信されるコンテンツのデータが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントが生成され、前記コンテンツに表示されるサブタイトルに係るTTML(TimedText MarkUp Language)ドキュメントインスタンスが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントが生成され、前記フラグメントのヘッダ情報に、前記フラグメントに格納された前記TTMLドキュメントインスタンスが前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報が付加される。
本発明の第2の側面は、MP4ファイルフォーマットにより規定されたフラグメントであって、複数のフラグメントから成るムービーのデータを受信するムービー受信部と、前記ムービーのヘッダ情報に付加された、前記ムービーにTTML(TimedText MarkUp Language)ドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報に基づいて、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれるか否かを判定するTTML判定部と、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれると判定された場合、前記フラグメントのヘッダ情報に含まれる、前記フラグメントに格納された前記TTMLドキュメントインスタンスがサブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報に基づいて、前記フラグメントに格納された前記TTMLドキュメントインスタンスをデコードするTTMLデコード部とを備えるストリーミング受信装置である。
前記TTMLデコード部は、前記フラグメントのヘッダ情報に含まれる前記インスタンス区分識別情報に基づいて、前記フラグメントに格納された前記TTMLドキュメントインスタンスが前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであると識別された場合、前記フラグメントに格納されたサンプルにおける前記サブタイトルに係るTTMLドキュメントインスタンスの記述内容を個々に識別する記述内容識別情報に基づいて、前記TTMLドキュメントインスタンスをデコードするか否かを判定し、前記フラグメントに格納された前記サブタイトルに係るレンダリングコンテクストを指定する前記TTMLドキュメントインスタンスをデコードするようにすることができる。
本発明の第3の側面は、MP4ファイルフォーマットにより規定されたフラグメントであって、複数のフラグメントから成るムービーのデータを受信するムービー受信部と、前記ムービーのヘッダ情報に付加された、前記ムービーにTTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報に基づいて、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれるか否かを判定するTTML判定部と、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれると判定された場合で、かつ、前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスが前記ムービーのヘッダ情報に格納されている場合、前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスをデコードするTTMLデコード部とを備えるストリーミング受信装置である
本発明の第2の側面は、ムービー受信部が、MP4ファイルフォーマットにより規定されたフラグメントであって、複数のフラグメントから成るムービーのデータを受信し、TTML判定部が、前記ムービーのヘッダ情報に付加された、前記ムービーにTTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報に基づいて、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれるか否かを判定し、TTMLデコード部が、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれると判定された場合、前記フラグメントのヘッダ情報に含まれる、前記フラグメントに格納された前記TTMLドキュメントインスタンスがサブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報に基づいて、前記フラグメントに格納された前記TTMLドキュメントインスタンスをデコードするストリーミング受信方法である。
本発明の第2の側面は、コンピュータを、MP4ファイルフォーマットにより規定されたフラグメントであって、複数のフラグメントから成るムービーのデータを受信するムービー受信部と、前記ムービーのヘッダ情報に付加された、前記ムービーにTTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報に基づいて、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれるか否かを判定するTTML判定部と、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれると判定された場合、前記フラグメントのヘッダ情報に含まれる、前記フラグメントに格納された前記TTMLドキュメントインスタンスがサブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報に基づいて、前記フラグメントに格納された前記TTMLドキュメントインスタンスをデコードするTTMLデコード部とを備えるストリーミング受信装置として機能させるプログラムである。
本発明の第2の側面においては、MP4ファイルフォーマットにより規定されたフラグメントであって、複数のフラグメントから成るムービーのデータが受信され、前記ムービーのヘッダ情報に付加された、前記ムービーにTTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報に基づいて、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれるか否かが判定され、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれると判定された場合、前記フラグメントのヘッダ情報に含まれる、前記フラグメントに格納された前記TTMLドキュメントインスタンスがサブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報に基づいて、前記フラグメントに格納された前記TTMLドキュメントインスタンスがデコードされる。
本発明の第3の側面においては、MP4ファイルフォーマットにより規定されたフラグメントであって、複数のフラグメントから成るムービーのデータが受信され、前記ムービーのヘッダ情報に付加された、前記ムービーにTTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報に基づいて、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれるか否かが判定され、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれると判定された場合で、かつ、前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスが前記ムービーのヘッダ情報に格納されている場合、前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスがデコードされる。
本発明の第の側面は、ストリーミング配信されるコンテンツのデータが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成するコンテンツフラグメント生成部と、前記コンテンツに表示されるサブタイトルに係るTTML(TimedText MarkUp Language)ドキュメントインスタンスが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成するサブタイトルフラグメント生成部とを備え、前記サブタイトルフラグメント生成部は、前記フラグメントのヘッダ情報に、前記フラグメントに格納された前記TTMLドキュメントインスタンスが前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報を付加するストリーミング配信装置と、MP4ファイルフォーマットにより規定されたフラグメントであって、複数のフラグメントから成るムービーのデータを受信するムービー受信部と、前記ムービーのヘッダ情報に付加された、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報に基づいて、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれるか否かを判定するTTML判定部と、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれると判定された場合、前記TTMLドキュメントインスタンスが格納されたフラグメントを抽出してデコードするTTMLデコード部とを備えるストリーミング受信装置とから成るストリーミングシステムである。
本発明の第の側面においては、ストリーミング配信されるコンテンツのデータが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントが生成され、前記コンテンツに表示されるサブタイトルに係るTTML(TimedText MarkUp Language)ドキュメントインスタンスが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントが生成され、前記フラグメントのヘッダ情報に、前記フラグメントに格納された前記TTMLドキュメントインスタンスが前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報が付加される。また、MP4ファイルフォーマットにより規定されたフラグメントであって、複数のフラグメントから成るムービーのデータが受信され、前記ムービーのヘッダ情報に付加された、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報に基づいて、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれるか否かが判定され、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれると判定された場合、前記TTMLドキュメントインスタンスが格納されたフラグメントが抽出されてデコードされる。
本技術によれば、ストリーミングにおけるサブタイトルの表示に係る処理負荷を軽減させることができる。
TTMLの構成を説明する図である。 MP4ファイルフォーマットにおける「BOX」の構成を示す図である。 「BOX」の階層構造を説明する図である。 MP4ファイルフォーマットを用いたストリーミングについて説明する図である。 「Movie」の構成を説明する図である。 「Movie」における「BOX」構造を説明する図である。 「Non-fragment Movie」の構成を説明する図である。 「Fragment Movie」の構成を説明する図である。 「moov」の「BOX」の構成を説明する図である。 「Initialization Document instance」の場合の「moof」の「BOX」の構成を説明する図である。 「Body Document instance」の場合の「moof」の「BOX」の構成を説明する図である。 TTMLのドキュメントインスタンスが格納される場合の「mdat」の「Sample」の記述形式を説明する図である。 本技術の一実施の形態に係るストリーミングシステムの構成例を示すブロック図である。 「Initialization Document instance」の記述例を示す図である。 「Body Document instance」の記述例を示す図である。 図15の「Body Document instance」に基づいて表示されるサブタイトルを示す図である。 「Body Document instance」の別の記述例を示す図である。 図17の「Body Document instance」に基づいて表示されるサブタイトルを示す図である。 サブタイトルの表示例を説明する図である。 ストリーミング配信処理の例を説明するフローチャートである。 サブタイトルデータ挿入処理の例を説明するフローチャートである。 コンテンツ再生処理の例を説明するフローチャートである。 TTデコード処理の例を説明するフローチャートである。 「moov」の「BOX」の別の構成を説明する図である。 図24に対応するサブタイトルの表示例を説明する図である。 パーソナルコンピュータの構成例を示すブロック図である。
以下、図面を参照して、ここで開示する技術の実施の形態について説明する。
最初にTTML(TimedText MarkUp Language)について説明する。TTMLは、W3C(The World Wide Web Consortium)によって規定されたマークアップ言語であり、テキストの表示位置(レイアウト)、表示のタイミングなどを指定することができる。
例えば、サーバからTTMLで記述された情報を伝送し、クライアントに解析させることにより、クライアントのディスプレイにおいて、指定された時刻に、指定された書体で、指定された領域に、所定の文字列を表示させることができる。このようにTTMLで記述された情報を用いれば、例えば、コンテンツの画像や音声と同期させてサブタイトルを表示させることも簡単に実現できる。
TTMLは、ドキュメントインスタンスと称されるテキストの集合体によって構成され、ドキュメントインスタンスは、主に2つのタイプに分類される。1つは、「Initialization Document instance」と称されるドキュメントインスタンスであり、例えば、サブタイトルとして表示される文字の色、フォント、表示位置などを指定する記述によって構成されるインスタンスとされる。他の1つは、「Body Document instance」と称されるドキュメントインスタンスであり、実際にサブタイトルとして実際に表示される文字列などの記述によって構成されるインスタンスとされる。
図1は、TTMLの構成を説明する図である。
同図に示されるインスタンス21が、「Initialization Document instance」とされる。このインスタンス21には、「head」、「styling」、「layout」、・・・というタグが記述されている。「styling」、「layout」のタグによって、サブタイトルとして表示される文字の色、フォント、表示位置などのレンダリングコンテクストが指定される。
また、この例では、「<region xml:id=”subtitleArea”style=”s1”・・・」という記述によって、「s1」というレンダリングコンテクストが定義されている。例えば、1つの「Initialization Document instance」の中で、「s1」、「s2」、・・・のように複数の種類のレンダリングコンテクストを定義することも可能である。
図1のインスタンス22は、「Body Document instance」とされる。このインスタンス22には、「body」、「div」、「p」、・・・というタグが記述されている。例えば、「<p xml:id=・・・>」という記述によって、サブタイトルの文字列、並びに、その文字列の表示開始時刻、および表示終了時刻が指定されている。
このように、TTMLは、インスタンス21とインスタンス22の組み合わせによってなる階層構造を有する記述とされる。図1のインスタンス22の図中左側に、インスタンス21とインスタンス22の組み合わせによってなる階層構造が示されている。
例えば、ストリームを受信して表示する受信機において、図1に示されるTTMLを受信させて解析させることにより、コンテンツの中の所定の時間帯に所定の文字列を表示させることが可能となる。すなわち、受信機のディスプレイにおいて、インスタンス22の「p」というタグによって指定された文字列、表示開始時刻、および表示終了時刻に基づいて、サブタイトルの表示が適宜変更されていく。同図の例では、インスタンス22の「p」というタグによって指定された文字列F1、文字列F2、・・・が時間の経過に伴って切り替えられて表示される。
なお、TTMLの詳細については、Timed Text Markup Language (TTML) 1.0などに開示されている。
次に、MP4ファイルフォーマットについて説明する。MPファイルフォーマットは、自由度が高いファイルフォーマットであり、「BOX」と称されるさまざまなサイズのデータが集まってMP4ファイルを構成するように規定されている。「BOX」にはいろいろな種類があり、自由に増やすこともできる。
MP4ファイルフォーマットにおける「BOX」の構成を図2に示す。同図において、「Box Size」、「Box Type」と表示されている領域には、当該「BOX」のサイズとタイプ(種類)が記述される。そして、「Box Data」と表示された領域には、例えば、エンコードされたビデオデータ、オーディオデータ、サブタイトルのデータなどが格納される。
また、MP4ファイルフォーマットにおいては、上述した「BOX」が階層構造を有するように規定されている。すなわち、図3に示されるように、上位の階層の「BOX」の領域「Box Data」の中に下位の階層の「BOX」を格納できるようになされている。
MP4ファイルフォーマットにおいては、例えば、オーディオデータのデコード単位、ビデオデータの1フレームなど、伝送されるコンテンツの単位データが「Sample(サンプル)」と称される。そして、複数の「Sample」によって「Chunk(チャンク)」が構成される。例えば、図4に示されるように、オーディオ(audio)の「Chunk」、ビデオ(video)の「Chunk」によってストリーミングが構成される。
MP4ファイルフォーマットにおいては、例えば、一連のビデオの「Chunk」の集合体、一連のオーディオの「Chunk」の集合体などを「Track(トラック)」と称する。そして、複数のトラックを統合したデータが「Movie(ムービー)」と称される。
図5は、「Movie」の構成を説明する図である。同図の例では、ビデオの「Track」と、オーディオの「Track」によって1つの「Movie」が構成されている。
「Movie」は、上述したように、「BOX」構造を有する。図6は、「Movie」における「BOX」構造を説明する図である。同図の例では、「Movie」の「BOX」の中に、「Moive Metadata box」と「Movie Data box」が格納されている。
「Moive Metadata box」は、「Movie Data box」の中に格納された各「Sample」の格納位置に係る情報(「adrs=1000」など)と、再生時刻や再生時間に係る情報(「Δt=10」など)が記述された「BOX」とされる。また、必要に応じてコーデックパラメータなども記述される。「Movie Data box」は、各「Sample」が格納された「BOX」とされる。なお、MP4ファイルフォーマットの規格では、「Moive Metadata box」は「moov」と称され、「Movie Data box」は「mdat」と称される。
図6に示されるような「Movie」を受信機で受信して解析することにより、時刻t0、時刻t10、時刻t20、・・・において、それぞれSample1、Sample2、Sample3、・・・が再生されるようにすることができる。
また、「Movie」は、大別すると2種類に分類される。1つは、「Non-fragment Movie」と称され、例えば、映画やドラマなどのコンテンツの伝送に適している。他の1つは「Fragmented Movie」と称され、ニュースやスポーツ中継などのライブコンテンツの伝送に適している。
図7は、「Non-fragment Movie」の構成を説明する図である。
同図に示されるように、「Non-fragment Movie」の先頭には、「File Type(ftyp)」と称される「BOX」が配置される。「File Type(ftyp)」は、ファイルタイプ、互換性情報などが格納された「BOX」とされる。
「ftyp」に続いて、上述した「moov」が配置され、また、上述した「mdat」が配置されている。上述したように、「moov」には、コーデックパラメータ、格納位置情報、再生時間情報などが記述されている。「moov」は、いわば「Movie」全体におけるヘッダ情報とされる。また、上述したように、「mdat」には、オーディオデータのデコード単位、ビデオデータの1フレームなどからなる「Sample」が格納されている。
「Non-fragment Movie」では、「moov」によって、「Movie」全体のレンダリングコンテクストが定義されるようになされている。すなわち、映画やドラマなどのコンテンツの場合、どのタイミングで、どの画像、どの音声、どの字幕が再生されるべきかが予め分かっているので、各「Sample」を受信する前に、「Movie」全体のレンダリングコンテクストを定義することができる。
ニュースやスポーツ中継などのライブコンテンツの場合、どのタイミングで、どの画像、どの音声、どの字幕が再生されるべきかを予め知ることができない。このため、ライブコンテンツの伝送には、「Fragmented Movie」が採用される。
図8は、「Fragmented Movie」の構成を説明する図である。
同図に示されるように、「Fragmented Movie」は、「Non-fragment Movie」の場合と同様に、「ftyp」と「moov」が配置されるが、その後は、「Fragment」と称される「BOX」が複数配置される。「Fragment」は、「Movie Fragment(moof)」と称される「BOX」と、「mdat」によって構成されている。
同図に示されるように、各「Fragment」のそれぞれに「moof」が設けられており、「moof」は、いわば「Fragment」のヘッダ情報とされる。「moof」には、当該「Fragment」に格納されている「mdat」の「Sample」に関しての格納位置情報、再生時間情報などが記述されている。すなわち、「Fragmented Movie」では、「Non-fragment Movie」の場合と異なり、各「Fragment」毎に、各「Fragment」のレンダリングコンテクストが定義されるようになされている。
なお、図8に示される「Movie Fragment RandomAccess(mfra)」は、「Fragmented Movie」の最後に挿入される「BOX」とされ、ランダムアクセス用情報などが格納される。
なお、図7と図8に示される例は、MP4ファイルフォーマットとしての「Movie」の構成を示したものであり、例えば、インターネットストリーミングなどが行われる際には、図7と図8を参照して上述したデータが所定の伝送フォーマットで配信されることになる。この伝送フォーマットにおいては、例えば、図8に示される「moov」が、「Fragment」間に挿入されて複数回繰り返して配信されるようになされている。
ところで、近年、IP(Internet Protocol)を用いて動画配信を行うIPTV等のインターネットストリーミングにおける標準化が行われている。例えば、HTTP(HyperText Transfer Protocol)ストリーミングによるVoD(Video On Demand)ストリーミングや、ライブストリーミングに適用される方式の標準化が行われている。このような標準化の作業において、コンテナレイヤにおいて採用するフォーマットとして、MP4ファイルフォーマットを用いることが検討されている。
また、ストリーミングの構成要素として字幕(サブタイトル)がある場合、TTMLが多く利用されており、ストリーミングの標準化においても注目されている。
例えば、ニュースやスポーツ中継などのライブコンテンツの画像にサブタイトルを挿入する場合、予めサブタイトルの文字列を確定させておくことができない。このため、放送(ストリーミング)中にサブタイトルの文字列を都度、挿入する処理が必要となる。このような場合、例えば、受信機にTTMLの「Initialization Document instance」を受信させてレンダリングコンテクストを解析させた後、「Body Document instance」を都度、受信させるようにすることが望ましい。
また、例えば、同一のコンテンツの中でも、サブタイトルとして表示する文字列の内容(強調したい文や、驚きや困惑を表す感情表現文等)に応じて、レンダリングコンテクストを変更させたい場合もある。このような場合、TTMLの「Initialization Document instance」によって、複数種類のレンダリングコンテクストを予め定義しておき、その後、「Body Document instance」において使用するレンダリングコンテクストを指定することも可能である。
しかしながら、MP4ファイルフォーマットでは、TTMLインスタンスのタイプを区分して格納する方法が規定されていないため、受信機がTTMLのインスタンスのタイプを識別できない。このため、従来、MP4ファイルフォーマットで送信されるIPTV等のインターネットストリーミングにおいては、例えば、サブタイトルとして表示させる文字列とともに、レンダリングコンテクストを都度解析させるようにせざるを得なかった。このような状況の中で、IPTV等のインターネットストリーミングにおいてサブタイトルを表示させる際には、レンダリングコンテクストの解析に係る処理負荷を軽減させることが期待されていた。
そこで、本技術では、次のようにして、MP4ファイルフォーマットを用いて、TTMLインスタンスのタイプを区分して格納できるようにする。
本技術では、「Fragmented Movie」として伝送されるコンテンツにおいて、サブタイトルを挿入する場合に適用されることを前提とする。そして、「Fragment」の中の「mdat」の「Sample」としてTTMLのドキュメントインスタンスが格納されて伝送されるようにする。すなわち、ストリーミングされるコンテンツに挿入されるサブタイトルを表示させるために、「Fragment」の中の「mdat」の「Sample」として、図1のインスタンス21、または、インスタンス22などが適宜格納されることになる。
まず、本技術では、「moov」の「BOX」に記述された情報に基づいて、TTMLで記述された情報が含まれるインターネットストリーミングであることを識別できるようにする。具体的には、「moov.trak.mdia.minf.stbl.stsd」にTTMLで記述された情報が含まれることを記述できるようにする。
図9は、「moov」の「BOX」の構成を説明する図である。上述したように、「BOX」では階層構造が採用されており、「moov」の「BOX」の下位の階層の「BOX」として「stsd」と称される「BOX」が設けられている(「moov.trak.mdia.minf.stbl.stsd」のように記述する)。「stsd」は、トラックデータ再生のためのヘッダ情報を格納するための「BOX」とされている。
本技術では、TTMLで記述された情報が含まれる場合、「stsd」の「sampleEntry」には、4CC(four_character_code)の「ttml」が記述されるようにする。なお、従来の標準では、オーディオデータであることを表す4CCの「MP4A」、ビデオデータであることを表す4CCの「MP4V」などが「stsd」に格納されることが規定されている。
また、TTMLで記述された情報が含まれる場合、「moov.trak.mdia.hdlr」の「HandlerType」には、「text」と記述されるようにする。
さらに、本技術では、「moof」の「BOX」に記述された情報に基づいて、当該「Fragment」の中の「mdat」の「Sample」として格納されているTTMLのドキュメントインスタンスが、「Initialization Document instance」であるのか、「Body Document instance」であるのかを識別できるようにする。
具体的には、「moof」の「BOX」の「traf」と称される「BOX」の下位の階層の「BOX」として、「ttsd」と称される「BOX」を新たに設けることとする。そして、「ttsd」の「initFlag」が「true」と記述されている場合、当該「Fragment」に格納されているTTMLドキュメントインスタンスが、「Initialization Document instance」であることを表すこととする。また、「ttsd」の「initFlag」が「false」と記述されている場合、当該「Fragment」に格納されているTTMLドキュメントインスタンスが、「Body Document instance」であることを表すこととする。
図10は、当該「Fragment」に格納されているTTMLのドキュメントインスタンスが、「Initialization Document instance」である場合の「moof」の「BOX」の構成を示す図である。同図に示されるように、「moof」の下位の階層に「traf」が存在し、さらのその下位の階層の「BOX」として「ttsd」が設けられている。そして、「ttsd」に格納される情報として「initFlag:“true”」と記述されている。
図11は、当該「Fragment」に格納されているTTMLドキュメントインスタンスが、「Body Document instance」である場合の「moof」の「BOX」の構成を示す図である。同図に示されるように、「moof」の下位の階層に「traf」が存在し、さらのその下位の階層の「BOX」として「ttsd」が設けられている。そして、「ttsd」に格納される情報として「initFlag:“false”」と記述されている。
さらに、本技術では、送信されてきたTTMLのドキュメントインスタンスの記述内容に変更(更新)があったか否かを、受信機が判定できるようにする。具体的には、TTMLのドキュメントインスタンスが格納される場合の「mdat」の「Sample」の記述形式を、例えば、図12に示されるように規定する。
本技術では、図12に示される「unsined id(16)document-id;」のフィールドを新たに設けることとする。「unsined id(16)document-id;」のフィールドに、当該「Sample」に記述されているTTMLのドキュメントインスタンスを識別するための識別子が記述される。この識別子は、例えば、個々のドキュメントインスタンスに付与されたIDやバージョンなどとされる。当然、ドキュメントインスタンスに変更があった場合、上記の識別子も変更されるので、例えば、受信機がドキュメントインスタンスに変更があったか否かを判定することが可能となる。
また、同図に示される「unsined int(16)text-length;」のフィールドには、「unsined int(8)text[text-length];」のフィールドに格納されるテキストのテキスト長が格納される。同図に示される「unsined int(8)text[text-length];」のフィールドに、TTMLのドキュメントインスタンスが格納されるようにする。
例えば、複数のチャンネルでコンテンツをストリーミング放送する場合、視聴者はいつどのチャンネルを選局するか分からないので、定期的にレンダリングコンテクストの定義情報(すなわち、「Initialization Document instance」)を送信する必要がある。この場合、受信した「Initialization Document instance」を都度構文解析させると、受信機の処理負荷が増大することになるので、一度構文解析した「Initialization Document instance」に基づいて、その後のレンダリングコンテクストが定義されるようにすることが望ましい。
しかしながら、「Initialization Document instance」の内容が更新された場合、レンダリングコンテクストが変更されることになるので、受信機では、新たに構文解析を行う必要がある。このため、上述したように、本技術では、送信されてきたTTMLドキュメントインスタンスの記述内容に変更(更新)があったか否かを、受信機が判定できるようになされている。
まとめると、本技術では、「moov」の「stsd」の「sampleEntry」に記述される新たな4CC(four_character_code)として、「ttml」を設けることとする。そして、「moov」の「stsd」の記述を参照することにより、「Fragment」にTTMLのドキュメントインスタンスが格納されていることを識別できるようにする。
また、本技術では、各「Fragment」の「moof」の下位の階層の「BOX」として「ttsd」を設ける。そして、「ttsd」に格納される情報として「initFlag:“true”」または「initFlag:“false”」が記述されることとし、当該「Fragment」に格納されているTTMLが、「Initialization Document instance」であるか、または、「Body Document instance」であるかを識別できるようにする。
さらに、本技術では、「mdat」の「Sample」において、「unsined id(16)document-id;」のフィールドを設ける。そして、このフィールドに格納された識別子に基づいて、TTMLドキュメントインスタンスの記述内容に変更(更新)があったか否かを識別できるようにする。
このようにすることで、MP4ファイルフォーマットを用いて、TTMLドキュメントインスタンスを伝送する際に、TTMLインスタンスのタイプを区分して格納でき、また、記述内容の更新を簡単に識別することができる。従って、本技術によれば、例えば、IPTV等のストリーミングにおけるサブタイトルの表示に係る処理負荷を軽減させることができる。
図13は、本技術の一実施の形態に係るストリーミングシステムの構成例を示すブロック図である。同図に示されるストリーミングシステム100は、TT(TimedText)サーバ121、IPTVサーバ122、およびIPTVクライアント123により構成されている。
同図のIPTVサーバ122は、例えば、コンテンツをストリーミング放送する送信機として構成され、IPTVクライアント123は、ストリーミング放送を受信する受信機として構成される。そして、TTサーバ121は、例えば、ストリーミング放送されるコンテンツに挿入されるサブタイトルに係るデータを生成する装置とされる。
TTサーバ121は、TT(TimedText)フラグメント生成部141、および、サンプル挿入部142を有する構成とされている。
TTフラグメント生成部141は、「moov」の「stsd」の「sampleEntry」に、4CCの「ttml」を記述し、「moov.trak.mdia.hdlr」の「HandlerType」には、「text」と記述する。(この処理は、後述の「Fragment」の生成よりは頻度が低い。)また、TTフラグメント生成部141は、図8を参照して上述したようなTTMLのドキュメントインスタンスが格納される「Fragment」のデータを生成する。この際、TTフラグメント生成部141は、「moof」の下位の階層の「BOX」として「ttsd」を設ける。そして、TTフラグメント生成部141は、生成されるドキュメントインスタンスのタイプに応じて「ttsd」に格納される情報として「initFlag:“true”」または「initFlag:“false”」を記述する。
例えば、当該「Fragment」に格納されているTTMLのドキュメントインスタンスが、「Initialization Document instance」である場合、「ttsd」に格納される情報として「initFlag:“true”」が記述される。また、例えば、当該「Fragment」に格納されているTTMLドキュメントインスタンスが、「Body Document instance」である場合、「ttsd」に格納される情報として「initFlag:“false”」が記述される。
サンプル挿入部142は、TTMLのドキュメントインスタンスを生成するとともに、TTフラグメント生成部141によって生成された「Fragment」の中の「mdat」の「Sample」としてTTMLのドキュメントインスタンスを挿入する。
この際、サンプル挿入部142は、図12を参照して上述したように、「unsined id(16)document-id;」のフィールドを設ける。そして、サンプル挿入部142は、「unsined id(16)document-id;」のフィールドに、当該「Sample」に記述されているTTMLのドキュメントインスタンスを識別するための識別子を記述する。なお、ドキュメントインスタンスに変更があった場合、上記の識別子も変更される。
また、NTP同期されたタイムスタンプ生成部151により生成されたタイムスタンプが、TTフラグメント生成部141、および、サンプル挿入部142に適宜供給されるようになされている。
IPTVサーバ122は、コンテンツサンプル生成部161、フラグメントマルチプレクサ162、およびフラグメント配信部163を有する構成とされている。
コンテンツサンプル生成部161は、例えば、コンテンツを構成する音声のデータ、画像のデータなどをエンコードして、オーディオデータ、ビデオデータなどを生成する。そして、コンテンツサンプル生成部161は、それらのオーディオデータ、ビデオデータなどに基づいて、「Sample」のデータを生成する。
フラグメントマルチプレクサ162は、コンテンツサンプル生成部161が生成した「Sample」のデータを、「mdat」の中に格納した「Fragment」を生成する。そして、フラグメントマルチプレクサ162は、TTサーバ121によって生成された「Fragment」と、自分が生成した「Fragment」を多重化する。すなわち、オーディオデータ、ビデオデータなどが格納された「Fragment」とTTMLのドキュメントインスタンスが格納された「Fragment」が多重化される。
フラグメント配信部163は、フラグメントマルチプレクサ162によって多重化された「Fragment」によって構成される「Fragmented Movie」を、ネットワークなどを介して配信する。これにより、コンテンツがストリーミング配信されることになる。
なお、NTP同期されたタイムスタンプ生成部151により生成されたタイムスタンプが、コンテンツサンプル生成部161、および、フラグメントマルチプレクサ162に適宜供給されるようになされている。
IPTVクライアント123は、計時部181、フラグメントデマルチプレクサ182、TT(TimedText)デコーダ183、コンテンツデコーダ184、および表示制御部185を有する構成とされている。
計時部181は、各部にNTP同期された時刻情報を供給する。
フラグメントデマルチプレクサ182は、IPTVサーバ122から送信された「Fragmented Movie」を、ネットワークなどを介して受信し、「Fragmented Movie」を構成する各「Fragment」を抽出する。そして、フラグメントデマルチプレクサ182は、「moov」の「stsd」の「sampleEntry」の記述を解析し、当該「Fragmented Movie」には、TTMLのドキュメントインスタンスが格納された「Fragment」が存在しているか否かを判定する。すなわち、「moov」の「stsd」の「sampleEntry」の記述が「ttml」であった場合、当該「Fragmented Movie」には、TTMLのドキュメントインスタンスが格納された「Fragment」が存在すると判定される。
TTMLのドキュメントインスタンスが格納された「Fragment」が存在すると判定された場合、フラグメントデマルチプレクサ182は、各「Fragment」の「moof」の「ttsd」をチェックして、当該「Fragment」にTTMLのドキュメントインスタンスが格納されているか否かを判定する。すなわち、「moof」の下位に「ttsd」が設けられている「Fragment」は、TTMLのドキュメントインスタンスが格納された「Fragment」と判定され、TTデコーダ183に供給される。一方、「moof」に「ttsd」が設けられていない「Fragment」は、TTMLのドキュメントインスタンスが格納されていない「Fragment」(オーディオデータ、ビデオデータなどの「Fragment」)と判定され、コンテンツデコーダ184に供給される。
TTデコーダ183は、TTMLのドキュメントインスタンスが格納された「Sample」のデータのデコードを行う機能ブロックとされる。なお、TTデコーダ183におけるデコードは、主に、TTMLドキュメントインスタンスの構文解析を意味するものである。
TTデコーダ183は、各「Fragment」の「moof」の「ttsd」の記述に基づいて、当該「Fragment」に格納されているTTMLのドキュメントインスタンスのタイプを判定する。すなわち、「ttsd」の記述が「initFlag:“true”」であった場合、当該「Fragment」には、「Initialization Document instance」が格納されていると判定される。一方、「ttsd」の記述が「initFlag:“false”」であった場合、当該「Fragment」には、「Body Document instance」が格納されていると判定される。
「Initialization Document instance」が格納されていると判定された場合、TTデコーダ183は、「Fragment」の中の「mdat」の「Sample」の「unsined id(16)document-id;」のフィールドに記述された識別子を記憶する。そして、TTデコーダ183は、「mdat」の「Sample」の中に格納された「Initialization Document instance」の記述を解析し、レンダリングコンテクストを設定する。
これ以降、TTデコーダ183は、「unsined id(16)document-id;」のフィールドに記述された識別子を、予め記憶している識別子と比較して、「Initialization Document instance」に変更があったか否かを判定する。そして、TTデコーダ183は、「Initialization Document instance」に変更があったと判定された場合にのみ、「mdat」の「Sample」の中に格納された「Initialization Document instance」の記述を解析し、レンダリングコンテクストを再度設定するようになされている。
また、「Body Document instance」が格納されていると判定された場合、TTデコーダ183は、「mdat」の「Sample」の中に格納された「Body Document instance」を解析し、サブタイトルの表示データを生成する。ここで生成されたサブタイトルの表示データは、表示時刻に係る情報とともに、表示制御部185に供給される。
コンテンツデコーダ184は、「mdat」の「Sample」の中に格納されたオーディオデータ、ビデオデータなどをデコードし、画像の表示データ、音声の出力データなどを生成する。ここで生成された画像の表示データ、音声の出力データなどは、表示時刻、出力時刻などに係る情報とともに表示制御部185に供給される。
表示制御部185は、表示時刻に係る情報などに基づいて、コンテンツの画像にサブタイトルを重畳して表示させるための画像信号を生成して、図示せぬディスプレイなどに供給する。また、表示制御部185は、出力時刻に係る情報などに基づいて、コンテンツの音声を出力させるための音声信号を生成し、図示せぬスピーカなどに供給する。
このようなストリーミングシステム100によって、例えば、次のようなサブタイトルの表示を制御することが可能となる。
例えば、TTサーバ121により、図14に示されるようなTTMLのドキュメントインスタンスを「Fragment」に格納し、IPTVサーバ122から配信する。図14は、「Initialization Document instance」の記述の一例とされる。
そして、TTサーバ121により、図15に示されるようなTTMLのドキュメントインスタンスを「Fragment」に格納し、IPTVサーバ122から配信する。図15は、「Body Document instance」の記述の一例とされる。
図14の記述に従って設定されたレンダリングコンテクストにおいて、図15の記述によって指定された文字列を表示させると、例えば、図16に示されるようなサブタイトルを表示させることができる。
その後、TTサーバ121により、図17に示されるようなTTMLのドキュメントインスタンスを「Fragment」に格納し、IPTVサーバ122から配信する。図17は、「Body Document instance」の記述の別の例とされる。
図14の記述に従って設定されたレンダリングコンテクストにおいて、図17の記述によって指定された文字列を表示させると、例えば、図18に示されるようなサブタイトルを表示させることができる。
なお、「Body Document instance」の「<p>」というタグにより指定された文字列が、サブタイトルの文字列とされる。「<p>」のタグ内に時間が指定されている場合にはその時間指定に合わせて文字列が表示され、時間指定がない場合、または、表示期間(duration)のみ指定されている場合には、当該「Sample」の「decodingTime」として特定される再生時刻に表示が開始されるように制御される。
すなわち、図19に示されるように、Fragment0、Fragment1、Fragment2の各「Fragment」の「mdat」の「Sample」として格納されたTTMLのドキュメントインスタンスが解析されてサブタイトルが表示される。
この例では、Fragment0のmdat0に図14に示される「Initialization Document instance」(Init instance)が格納されていたものとする。また、Fragment1のmdat1に図15に示される「Body Document instance」(Body instance1)が格納されていたものとする。さらに、Fragment2のmdat2に図17に示される「Body Document instance」(Body instance2)が格納されていたものとする。
図19の例では、Fragment0のmdat0のSample0に格納されたInit instanceに基づいてレンダリングコンテクストが設定されている。その後、時刻t1において、Fragment1のmdat1のSample1に格納されたBody instance1に基づいて、図16に示されるようなサブタイトルが表示されている。さらに、その後、時刻t2において、Fragment2のmdat2のSample2に格納されたBody instance2に基づいて、図18に示されるようなサブタイトルが表示されている。
なお、上述した時刻t1および時刻t2は、moov.trak.mdia.minf.stbl.stts、または、moof.traf.tfdtに記述されるそのmoofに対応する最初のmdatに格納される最初の「Sample」の「decoding time」に基づいて算出される。
すなわち、TTMLのドキュメントインスタンスの中に記述される文字列の表示時間を特定するために、そのドキュメントインスタンスが格納されるMP4ファイルの「Sample」の提示時刻が利用される。
次に、図20のフローチャートを参照して、図13のIPTVサーバ122によるストリーミング配信処理の例について説明する。この処理は、例えば、ライブコンテンツにサブタイトルを挿入して、「Fragmented Movie」としてネットワークなどを介して配信する場合に実行される。
ステップS21において、IPTVサーバ122は、コンテンツのデータを取得する。このとき、例えば、コンテンツを構成する音声のデータ、画像のデータなどが取得される。
ステップS22において、コンテンツサンプル生成部161は、例えば、コンテンツを構成する音声のデータ、画像のデータなどをエンコードして、オーディオデータ、ビデオデータなどを生成する。そして、コンテンツサンプル生成部161は、それらのオーディオデータ、ビデオデータなどに基づいて、「Sample」のデータを生成する。
ステップS23において、フラグメントマルチプレクサ162は、ステップS22で生成された「Sample」のデータを、「mdat」の中に格納した「Fragment」を生成する。
ステップS24において、TTサーバ121は、図21を参照して後述するサブタイトルデータ挿入処理を実行する。これにより、ストリーミング配信されるコンテンツのデータに、サブタイトルに関するデータが挿入される。
ここで、図21のフローチャートを参照して、図20のステップS24のサブタイトルデータ挿入処理の詳細な例について説明する。
ステップS41において、TTML文が生成される。
ステップS42において、TTフラグメント生成部141は、「moov」の「stsd」の「sampleEntry」に、4CCの「ttml」を記述し、「moov.trak.mdia.hdlr」の「HandlerType」には、「text」と記述する。(この処理は、後述の「Fragment」の生成よりは頻度が低い。)また、TTフラグメント生成部141は、TTMLのドキュメントインスタンスが格納される「Fragment」のデータを生成する。この際、TTフラグメント生成部141は、「moof」の下位の階層の「BOX」として「ttsd」を設ける。そして、TTフラグメント生成部141は、生成されるドキュメントインスタンスのタイプに応じて「ttsd」に格納される情報として「initFlag:“true”」または「initFlag:“false”」を記述する。
例えば、当該「Fragment」に格納されているTTMLのドキュメントインスタンスが、「Initialization Document instance」である場合、「ttsd」に格納される情報として「initFlag:“true”」が記述される。また、例えば、当該「Fragment」に格納されているTTMLドキュメントインスタンスが、「Body Document instance」である場合、「ttsd」に格納される情報として「initFlag:“false”」が記述される。
ステップS43において、サンプル挿入部142は、ステップS41で生成されたTTML文に基づいて、TTMLのドキュメントインスタンスを生成するとともに、ステップS42で生成された「Fragment」の中の「mdat」の「Sample」としてTTMLのドキュメントインスタンスを挿入する。
この際、サンプル挿入部142は、図12を参照して上述したように、「unsined id(16)document-id;」のフィールドを設ける。そして、サンプル挿入部142は、「unsined id(16)document-id;」のフィールドに、当該「Sample」に記述されているTTMLのドキュメントインスタンスのタイプを識別するための識別子を記述する。なお、ドキュメントインスタンスに変更があった場合、上記の識別子も変更される。
ステップS44において、サンプル挿入部142は、ステップS43の処理によりTTMLのドキュメントインスタンスが挿入された「Fragment」を出力する。これにより、IPTVサーバ122のフラグメントマルチプレクサ162に、当該「Fragment」が供給される。
なお、NTP同期されたタイムスタンプ生成部151により生成されたタイムスタンプが、TTフラグメント生成部141、および、サンプル挿入部142に適宜供給されるようになされている。
図20に戻って、ステップS24の処理の後、ステップS25において、フラグメントマルチプレクサ162は、図21のステップS41の処理で生成された「Fragment」と、ステップS23の処理で生成された「Fragment」を多重化する。すなわち、オーディオデータ、ビデオデータなどが格納された「Fragment」とTTMLのドキュメントインスタンスが格納された「Fragment」が多重化される。
ステップS26において、フラグメントマルチプレクサ162は、「Fragmented Movie」のデータを生成する。
ステップS27において、フラグメント配信部163は、ステップS26の処理で生成された「Fragmented Movie」を、ネットワークなどを介して配信する。
このようにして、ストリーミング配信処理が実行される。
次に、図22のフローチャートを参照して、図13のIPTVクライアント123によるコンテンツ再生処理の例について説明する。
ステップS61において、IPTVクライアント123のフラグメントデマルチプレクサ182は、図20のステップS27の処理で配信された「Fragmented Movie」を受信する。
ステップS62において、フラグメントデマルチプレクサ182は、ステップS61で受信した「Fragmented Movie」の「moov」の「stsd」の「sampleEntry」の記述を解析する。
ステップS63において、フラグメントデマルチプレクサ182は、ステップS61で受信した「Fragmented Movie」を構成する各「Fragment」を抽出する。
ステップS64において、フラグメントデマルチプレクサ182は、ステップS62の処理での解析結果に基づいて、当該「Fragmented Movie」には、TTMLのドキュメントインスタンスが格納された「Fragment」が存在しているか否かを判定する。このとき、「moov」の「stsd」の「sampleEntry」の記述が「ttml」であった場合、当該「Fragmented Movie」には、TTMLのドキュメントインスタンスが格納された「Fragment」が存在すると判定される。
ステップS64において、当該「Fragmented Movie」には、TTMLのドキュメントインスタンスが格納された「Fragment」が存在すると判定された場合、処理は、ステップS65に進む。
ステップS65において、フラグメントデマルチプレクサ182、およびTTデコーダ183は、図23のフローチャートを参照して後述するTTデコード処理を実行する。
ここで、図23のフローチャートを参照して図22のステップS65のTTデコード処理の詳細な例について説明する。
ステップS81において、フラグメントデマルチプレクサ182は、各「Fragment」の「moof」の「ttsd」をチェックする。
ステップS82において、フラグメントデマルチプレクサ182は、当該「Fragment」にTTMLのドキュメントインスタンスが格納されているか否かを判定する。このとき、「moof」の下位に「ttsd」が設けられている「Fragment」は、TTMLのドキュメントインスタンスが格納された「Fragment」と判定される。一方、「moof」に「ttsd」が設けられていない「Fragment」は、TTMLのドキュメントインスタンスが格納されていない「Fragment」(オーディオデータ、ビデオデータなどの「Fragment」)と判定される。
ステップS82において、当該「Fragment」にTTMLのドキュメントインスタンスが格納されていると判定された場合、処理は、ステップS83に進む。
ステップS83において、TTデコーダ183は、「Fragment」の「moof」の「ttsd」の記述に基づいて、当該「Fragment」に格納されているTTMLのドキュメントインスタンスのタイプを判定する。このとき、「ttsd」の記述が「initFlag:“true”」であった場合、当該「Fragment」には、「Initialization Document instance」が格納されていると判定される。一方、「ttsd」の記述が「initFlag:“false”」であった場合、当該「Fragment」には、「Body Document instance」が格納されていると判定される。
ステップS83の処理で「Initialization Document instance」が格納されていると判定された場合、処理は、ステップS84に進む。
ステップS84において、TTデコーダ183は、TTデコーダ183は、「unsined id(16)document-id;」のフィールドに記述された識別子を取得する。
ステップS85において、TTデコーダ183は、ステップS84で取得した識別子を予め記憶している識別子と比較して、「Initialization Document instance」に変更があったか否かを判定する。なお、「Initialization Document instance」が最初に受信されたときは、「Initialization Document instance」に変更があったと判定されることになる。
ステップS85において、「Initialization Document instance」に変更があったと判定された場合、処理は、ステップS86に進む。
ステップS86において、TTデコーダ183は、「Fragment」の中の「mdat」の「Sample」の「unsined id(16)document-id;」のフィールドに記述された識別子を記憶する。なお、例えば、複数のチャンネルでコンテンツがストリーミング放送されている場合、当該識別子は、チャンネルに対応付けられて記憶される。
ステップS87において、TTデコーダ183は、「mdat」の「Sample」の中に格納された「Initialization Document instance」の記述を解析(デコード)する。
ステップS88において、TTデコーダ183は、ステップS87での解析結果に基づいて、レンダリングコンテクストを設定する。
なお、ステップS85において、「Initialization Document instance」に変更がなかったと判定された場合、ステップS86乃至ステップS88の処理はスキップされる。
一方、ステップS83の処理で、「Body Document instance」が格納されていると判定された場合、処理は、ステップS89に進む。
ステップS89において、TTデコーダ183は、「mdat」の「Sample」の中に格納された「Body Document instance」を解析(デコード)する。
ステップS90において、TTデコーダ183は、ステップS89での解析結果に基づいて、サブタイトルの表示データを生成する。ここで生成されたサブタイトルの表示データは、表示時刻に係る情報とともに、表示制御部185に供給される。
また、ステップS82において、当該「Fragment」にTTMLのドキュメントインスタンスが格納されていないと判定された場合、処理は、図22のステップS66に進む。
このようにして、TTデコード処理が実行される。
図22の説明に戻る。ステップS64において、当該「Fragmented Movie」には、TTMLのドキュメントインスタンスが格納された「Fragment」が存在しないと判定された場合、処理は、ステップS66に進む。
ステップS66において、コンテンツデコーダ184は、「mdat」の「Sample」の中に格納されたオーディオデータ、ビデオデータなどをデコードする。
ステップS67において、コンテンツデコーダ184は、ステップS66の処理の結果得られた画像の表示データ、音声の出力データなどを出力する。ここで生成された画像の表示データ、音声の出力データなどは、表示時刻、出力時刻などに係る情報とともに表示制御部185に供給される。
ステップS68において、表示制御部185は、表示時刻に係る情報などに基づいて、コンテンツの画像にサブタイトルを重畳して表示させるための画像信号を生成して、図示せぬディスプレイなどに供給する。また、表示制御部185は、出力時刻に係る情報などに基づいて、コンテンツの音声を出力させるための音声信号を生成し、図示せぬスピーカなどに供給する。
すなわち、図22のステップS67の処理で生成された画像の表示データ、音声の出力データと、図23のステップS90の処理で生成されたサブタイトルの表示データが同期して表示または出力される。
ステップS69において、「Fragmented Movie」が終了したか否かが判定される。例えば、図8に示される「Movie Fragment RandomAccess(mfra)」が受信された場合、「Fragmented Movie」が終了したと判定される。また、例えば、ユーザが受信を停止するように指令した場合、「Fragmented Movie」が終了したと判定される。
ステップS69において、まだ、「Fragmented Movie」が終了していないと判定された場合、処理は、ステップS63に戻る。一方、ステップS69において、「Fragmented Movie」が終了したと判定された場合、処理は、終了する。
このようにして、コンテンツ再生処理が実行される。
ところで、以上においては、図9を参照して上述したように、TTMLで記述された情報が含まれる場合、「moov.trak.mdia.minf.stbl.stsd」の「sampleEntry」には、4CCの「ttml」が記述されるようにすると説明した。しかし、「moov.trak.mdia.minf.stbl.stsd」に、さらに「Initialization Document instance」が格納されるようにすることも可能である。
図24は、「Initialization Document instance」が格納されるようにした場合の「moov」の「BOX」の構成を説明する図である。同図に示されるように、「moov.trak.mdia.minf.stbl.stsd」の「sampleEntry」には、図9の場合と同様に、4CCの「ttml」が記述されているが、これに続いて「TTconfig{・・・」という記述がなされている。
そして、図24の「TTconfig{・・・」という記述において、「unsined id(16)document-id;」のフィールドが設けられている。これは、図12を参照して上述した場合と同様に、TTMLのドキュメントインスタンスを識別するための識別子が記述されるフィールドとされる。この識別子は、例えば、個々のドキュメントインスタンスに付与されたIDやバージョンなどとされる。当然、ドキュメントインスタンスに変更があった場合、上記の識別子も変更されるので、例えば、受信機がドキュメントインスタンスに変更があったか否かを判定することが可能となる。
また、図24に示される「unsined int(16)text-length;」のフィールドには、「unsined int(8)text[text-length];」のフィールドに格納されるテキストのテキスト長が格納される。図24に示される「unsined int(8)text[text-length];」のフィールドに、TTMLドキュメントインスタンスが格納されるようにする。図24の例の場合、「unsined int(8)text[text-length];」のフィールドには、「Initialization Document instance」のみが格納され、「Body Document instance」は格納されない。
さらに、図24に示されるように「moov」を構成する場合、「moof」の「traf」の下位の階層の「BOX」である「ttsd」に、「initFlag:“true”」または「initFlag:“false”」を記述する必要はない(記述してもよいが、無意味な情報となる)。すなわち、いまの場合、各「Fragment」の中の「mdat」の「Sample」として格納されるTTMLのドキュメントインスタンスは、「Body Document instance」のみとなる。従って、当該「Fragment」に格納されているTTMLドキュメントインスタンスが、「Initialization Document instance」であるか、「Body Document instance」を表す必要はない。
さらに、図24に示されるように「moov」を構成する場合、例えば、IPTVサーバ122のTTフラグメント生成部141が、「Fragmented Movie」のデータを生成する際に、「moov」の「stsd」の「sampleEntry」に、4CCの「ttml」を記述し、「moov.trak.mdia.hdlr」の「HandlerType」には、「text」と記述する。また、TTフラグメント生成部141は、「moov」の「stsd」に図24の「TTconfig{・・・」という記述を追加する。なお、このとき、「unsined int(8)text[text-length];」のフィールドには、「Initialization Document instance」が格納されることになる。
図24に示されるように「moov」を構成する場合、例えば、IPTVクライアント123のフラグメントデマルチプレクサ182が、「Fragmented Movie」の「moov」の「stsd」の「sampleEntry」の記述を解析し、当該「Fragmented Movie」には、TTMLのドキュメントインスタンスが格納された「Fragment」が存在しているか否かを判定する。ここで、TTMLのドキュメントインスタンスが格納された「Fragment」が存在していると判定された場合(すなわち、「stsd」の「sampleEntry」に、4CCの「ttml」が記述されていた場合)、「TTconfig{・・・」という記述がTTデコーダ183に供給される。
そして、TTデコーダ183は、「unsined id(16)document-id;」のフィールドに記述された識別子を取得し、予め記憶している識別子と比較して、「Initialization Document instance」に変更があったか否かを判定する。「Initialization Document instance」に変更があったと判定された場合、TTデコーダ183は、「unsined id(16)document-id;」のフィールドに記述された識別子を記憶する。なお、例えば、複数のチャンネルでコンテンツがストリーミング放送されている場合、当該識別子は、チャンネルに対応付けられて記憶される。
さらに、TTデコーダ183は、「unsined int(8)text[text-length];」のフィールドに格納されている「Initialization Document instance」の記述を解析(デコード)する。そして、解析結果に基づいて、レンダリングコンテクストが設定される。
図24に示されるように「moov」を構成する場合、図25に示されるように、Fragment1、Fragment2の各「Fragment」の「mdat」の「Sample」として格納されたTTMLのドキュメントインスタンスが解析されてサブタイトルが表示される。
この例では、Fragment1のmdat1に図15に示される「Body Document instance」(Body instance1)が格納されていたものとする。さらに、Fragment2のmdat2に図17に示される「Body Document instance」(Body instance2)が格納されていたものとする。
図25の例では、「moov」の「stsd」に格納された「Initialization Document instance(Init instance)」に基づいてレンダリングコンテクストが設定されている。その後、時刻t1において、Fragment1のmdat1のSample1に格納されたBody instance1に基づいて、図16に示されるようなサブタイトルが表示されている。さらに、その後、時刻t2において、Fragment2のmdat2のSample2に格納されたBody instance2に基づいて、図18に示されるようなサブタイトルが表示されている。
なお、上述した時刻t1および時刻t2は、moov.trak.mdia.minf.stbl.stts、または、moof.traf.tfdtに記述されるそのmoofに対応する最初のmdatに格納される最初の「Sample」の「decoding time」に基づいて算出される。
このように、「moov.trak.mdia.minf.stbl.stsd」に、さらに「Initialization Document instance」が格納されるようにしてもよい。
なお、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば図26に示されるような汎用のパーソナルコンピュータ700などに、ネットワークや記録媒体からインストールされる。
図26において、CPU(Central Processing Unit)701は、ROM(Read Only Memory)702に記憶されているプログラム、または記憶部708からRAM(Random Access Memory)703にロードされたプログラムに従って各種の処理を実行する。RAM703にはまた、CPU701が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU701、ROM702、およびRAM703は、バス704を介して相互に接続されている。このバス704にはまた、入出力インタフェース705も接続されている。
入出力インタフェース705には、キーボード、マウスなどよりなる入力部706、LCD(Liquid Crystal display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部707、ハードディスクなどより構成される記憶部708、モデム、LANカードなどのネットワークインタフェースカードなどより構成される通信部709が接続されている。通信部709は、インターネットを含むネットワークを介しての通信処理を行う。
入出力インタフェース705にはまた、必要に応じてドライブ710が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア711が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部708にインストールされる。
上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、インターネットなどのネットワークや、リムーバブルメディア711などからなる記録媒体からインストールされる。
なお、この記録媒体は、図26に示される、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フロッピディスク(登録商標)を含む)、光ディスク(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini-Disk)(登録商標)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア711により構成されるものだけでなく、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM702や、記憶部708に含まれるハードディスクなどで構成されるものも含む。
なお、本明細書において上述した一連の処理は、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
なお、本技術は以下のような構成も取ることができる。
(1) ストリーミング配信されるコンテンツのデータが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成するコンテンツフラグメント生成部と、
前記コンテンツに表示されるサブタイトルに係るTTML(TimedText MarkUp Language)ドキュメントインスタンスが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成するサブタイトルフラグメント生成部とを備え、
前記サブタイトルフラグメント生成部は、
前記フラグメントのヘッダ情報に、前記フラグメントに格納された前記TTMLドキュメントインスタンスが前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報を付加する
ストリーミング配信装置。
(2) 前記サブタイトルフラグメント生成部は、
前記サブタイトルに係るTTMLドキュメントインスタンスの記述内容を個々に識別する記述内容識別情報とともに、前記TTMLドキュメントインスタンスが記述されたサンプルを、前記フラグメントに格納する
(1)に記載のストリーミング配信装置。
(3) 複数の前記フラグメントから成るムービーのヘッダ情報において、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報を付加するムービーヘッダ生成部をさらに備える
(1)または(2)に記載のストリーミング配信装置。
(4) 複数の前記フラグメントから成るムービーのヘッダ情報において、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報を付加するムービーヘッダ生成部をさらに備え、
前記ムービーヘッダ生成部は、フラグメント区分識別情報に、前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスを格納し、
前記フラグメントのヘッダ情報に、前記インスタンス区分識別情報が付加されない
(1)または(2)に記載のストリーミング配信装置。
(5) コンテンツフラグメント生成部が、ストリーミング配信されるコンテンツのデータが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成し、
サブタイトルフラグメント生成部が、前記コンテンツに表示されるサブタイトルに係るTTML(TimedText MarkUp Language)ドキュメントインスタンスが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成し、
前記サブタイトルフラグメント生成部により、前記フラグメントのヘッダ情報に、前記フラグメントに格納された前記TTMLドキュメントインスタンスが前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報が付加される
ストリーミング配信方法。
(6) コンピュータを、
ストリーミング配信されるコンテンツのデータが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成するコンテンツフラグメント生成部と、
前記コンテンツに表示されるサブタイトルに係るTTML(TimedText MarkUp Language)ドキュメントインスタンスが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成するサブタイトルフラグメント生成部とを備え、
前記サブタイトルフラグメント生成部は、
前記フラグメントのヘッダ情報に、前記フラグメントに格納された前記TTMLドキュメントインスタンスが前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報を付加するストリーミング配信装置として機能させる
プログラム。
(7) (6)に記載のプログラムが記録されている記録媒体。
(8) MP4ファイルフォーマットにより規定されたフラグメントであって、複数のフラグメントから成るムービーのデータを受信するムービー受信部と、
前記ムービーのヘッダ情報に付加された、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報に基づいて、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれるか否かを判定するTTML判定部と、
前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれると判定された場合、前記TTMLドキュメントインスタンスが格納されたフラグメントを抽出してデコードするTTMLデコード部と
を備えるストリーミング受信装置。
(9) 前記TTMLデコード部は、
前記フラグメントのヘッダ情報に含まれる、前記フラグメントに格納された前記TTMLドキュメントインスタンスが前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報に基づいて、前記フラグメントに格納された前記TTMLドキュメントインスタンスの区分を識別してデコードする
(8)に記載のストリーミング受信装置。
(10) 前記TTMLデコード部は、
前記フラグメントのヘッダ情報に含まれる、前記フラグメントに格納された前記TTMLドキュメントインスタンスが前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報に基づいて、前記フラグメントに格納された前記TTMLドキュメントインスタンスの区分を識別し、
前記フラグメントに格納された前記TTMLドキュメントインスタンスが前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであると識別された場合、
前記フラグメントに格納されたサンプルにおける前記サブタイトルに係るTTMLドキュメントインスタンスの記述内容を個々に識別する記述内容識別情報に基づいて、前記TTMLドキュメントインスタンスをデコードするか否かを判定するデコード判定部を備える
(8)または(9)に記載のストリーミング受信装置。
(11) 前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれると判定された場合、
前記TTMLデコード部が、フラグメント区分識別情報に含まれる前記TTMLドキュメントインスタンスが前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスをデコードする
(8)または(9)に記載のストリーミング受信装置。
(12) ムービー受信部が、MP4ファイルフォーマットにより規定されたフラグメントであって、複数のフラグメントから成るムービーのデータを受信し、
TTML判定部が、前記ムービーのヘッダ情報に付加された、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報に基づいて、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれるか否かを判定し、
TTMLデコード部が、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれると判定された場合、前記TTMLドキュメントインスタンスが格納されたフラグメントを抽出してデコードする
ストリーミング受信方法。
(13) コンピュータを、
MP4ファイルフォーマットにより規定されたフラグメントであって、複数のフラグメントから成るムービーのデータを受信するムービー受信部と、
前記ムービーのヘッダ情報に付加された、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報に基づいて、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれるか否かを判定するTTML判定部と、
前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれると判定された場合、前記TTMLドキュメントインスタンスが格納されたフラグメントを抽出してデコードするTTMLデコード部とを備えるストリーミング受信装置として機能させる
プログラム。
(14) (13)に記載のプログラムが記録されている記録媒体。
(15) ストリーミング配信されるコンテンツのデータが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成するコンテンツフラグメント生成部と、
前記コンテンツに表示されるサブタイトルに係るTTML(TimedText MarkUp Language)ドキュメントインスタンスが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成するサブタイトルフラグメント生成部とを備え、
前記サブタイトルフラグメント生成部は、
前記フラグメントのヘッダ情報に、前記フラグメントに格納された前記TTMLドキュメントインスタンスが前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報を付加するストリーミング配信装置と、
MP4ファイルフォーマットにより規定されたフラグメントであって、複数のフラグメントから成るムービーのデータを受信するムービー受信部と、
前記ムービーのヘッダ情報に付加された、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報に基づいて、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれるか否かを判定するTTML判定部と、
前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれると判定された場合、前記TTMLドキュメントインスタンスが格納されたフラグメントを抽出してデコードするTTMLデコード部とを備えるストリーミング受信装置と
から成るストリーミングシステム。
100 ストリーミングシステム, 121 TTサーバ, 122 IPTVサーバ, 123 IPTVクライアント, 141 TTフラグメント生成部, 142 サンプル挿入部, 151 タイムスタンプ生成部, 161 コンテンツサンプル生成部, 162 フラグメントマルチプレクサ, 163 フラグメント配信部, 181 計時部, 182 フラグメントデマルチプレクサ, 183 TTデコーダ, 184 コンテンツデコーダ, 185 表示制御部

Claims (14)

  1. ストリーミング配信されるコンテンツのデータが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成するコンテンツフラグメント生成部と、
    前記コンテンツに表示されるサブタイトルに係るTTML(TimedText MarkUp Language)ドキュメントインスタンスが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成するサブタイトルフラグメント生成部とを備え、
    前記サブタイトルフラグメント生成部は、
    前記フラグメントのヘッダ情報に、前記フラグメントに格納された前記TTMLドキュメントインスタンスが前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報を付加する
    ストリーミング配信装置。
  2. 前記サブタイトルフラグメント生成部は、
    前記サブタイトルに係るTTMLドキュメントインスタンスの記述内容を個々に識別する記述内容識別情報とともに、前記TTMLドキュメントインスタンスが記述されたサンプルを、前記フラグメントに格納する
    請求項1に記載のストリーミング配信装置。
  3. 複数の前記フラグメントから成るムービーのヘッダ情報において、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報を付加するムービーヘッダ生成部をさらに備える
    請求項1に記載のストリーミング配信装置。
  4. 複数の前記フラグメントから成るムービーのヘッダ情報において、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報を付加するムービーヘッダ生成部をさらに備え、
    前記ムービーヘッダ生成部は、前記ムービーのヘッダ情報に、前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンス格納し、
    前記サブタイトルフラグメント生成部は、前記ムービーのヘッダ情報に、前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスが格納された場合、前記フラグメントのヘッダ情報に、前記インスタンス区分識別情報付加しない
    請求項1に記載のストリーミング配信装置。
  5. コンテンツフラグメント生成部が、ストリーミング配信されるコンテンツのデータが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成し、
    サブタイトルフラグメント生成部が、前記コンテンツに表示されるサブタイトルに係るTTML(TimedText MarkUp Language)ドキュメントインスタンスが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成し、
    前記サブタイトルフラグメント生成部により、前記フラグメントのヘッダ情報に、前記フラグメントに格納された前記TTMLドキュメントインスタンスが前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報が付加される
    ストリーミング配信方法。
  6. コンピュータを、
    ストリーミング配信されるコンテンツのデータが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成するコンテンツフラグメント生成部と、
    前記コンテンツに表示されるサブタイトルに係るTTML(TimedText MarkUp Language)ドキュメントインスタンスが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成するサブタイトルフラグメント生成部とを備え、
    前記サブタイトルフラグメント生成部は、
    前記フラグメントのヘッダ情報に、前記フラグメントに格納された前記TTMLドキュメントインスタンスが前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報を付加するストリーミング配信装置として機能させる
    プログラム。
  7. 請求項6に記載のプログラムが記録されている記録媒体。
  8. MP4ファイルフォーマットにより規定されたフラグメントであって、複数のフラグメントから成るムービーのデータを受信するムービー受信部と、
    前記ムービーのヘッダ情報に付加された、前記ムービーにTTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報に基づいて、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれるか否かを判定するTTML判定部と、
    前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれると判定された場合、前記フラグメントのヘッダ情報に含まれる、前記フラグメントに格納された前記TTMLドキュメントインスタンスがサブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報に基づいて、前記フラグメントに格納された前記TTMLドキュメントインスタンスをデコードするTTMLデコード部と
    を備えるストリーミング受信装置。
  9. 前記TTMLデコード部は、
    前記フラグメントのヘッダ情報に含まれる前記インスタンス区分識別情報に基づいて、前記フラグメントに格納された前記TTMLドキュメントインスタンスが前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであると識別された場合、
    前記フラグメントに格納されたサンプルにおける前記サブタイトルに係るTTMLドキュメントインスタンスの記述内容を個々に識別する記述内容識別情報に基づいて、前記TTMLドキュメントインスタンスをデコードするか否かを判定し、前記フラグメントに格納された前記サブタイトルに係るレンダリングコンテクストを指定する前記TTMLドキュメントインスタンスをデコードする
    請求項8に記載のストリーミング受信装置。
  10. MP4ファイルフォーマットにより規定されたフラグメントであって、複数のフラグメントから成るムービーのデータを受信するムービー受信部と、
    前記ムービーのヘッダ情報に付加された、前記ムービーにTTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報に基づいて、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれるか否かを判定するTTML判定部と、
    前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれると判定された場合で、かつ、前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスが前記ムービーのヘッダ情報に格納されている場合、前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスをデコードするTTMLデコード部と
    を備えるストリーミング受信装置。
  11. ムービー受信部が、MP4ファイルフォーマットにより規定されたフラグメントであって、複数のフラグメントから成るムービーのデータを受信し、
    TTML判定部が、前記ムービーのヘッダ情報に付加された、前記ムービーにTTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報に基づいて、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれるか否かを判定し、
    TTMLデコード部が、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれると判定された場合、前記フラグメントのヘッダ情報に含まれる、前記フラグメントに格納された前記TTMLドキュメントインスタンスがサブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報に基づいて、前記フラグメントに格納された前記TTMLドキュメントインスタンスをデコードする
    ストリーミング受信方法。
  12. コンピュータを、
    MP4ファイルフォーマットにより規定されたフラグメントであって、複数のフラグメントから成るムービーのデータを受信するムービー受信部と、
    前記ムービーのヘッダ情報に付加された、前記ムービーにTTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報に基づいて、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれるか否かを判定するTTML判定部と、
    前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれると判定された場合、前記フラグメントのヘッダ情報に含まれる、前記フラグメントに格納された前記TTMLドキュメントインスタンスがサブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報に基づいて、前記フラグメントに格納された前記TTMLドキュメントインスタンスをデコードするTTMLデコード部とを備えるストリーミング受信装置として機能させる
    プログラム。
  13. 請求項12に記載のプログラムが記録されている記録媒体。
  14. ストリーミング配信されるコンテンツのデータが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成するコンテンツフラグメント生成部と、
    前記コンテンツに表示されるサブタイトルに係るTTML(TimedText MarkUp Language)ドキュメントインスタンスが格納されたフラグメントであって、MP4ファイルフォーマットにより規定されたフラグメントを生成するサブタイトルフラグメント生成部とを備え、
    前記サブタイトルフラグメント生成部は、
    前記フラグメントのヘッダ情報に、前記フラグメントに格納された前記TTMLドキュメントインスタンスが前記サブタイトルに係るレンダリングコンテクストを指定するTTMLドキュメントインスタンスであるか否かを識別するインスタンス区分識別情報を付加するストリーミング配信装置と、
    MP4ファイルフォーマットにより規定されたフラグメントであって、複数のフラグメントから成るムービーのデータを受信するムービー受信部と、
    前記ムービーのヘッダ情報に付加された、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれることを表すフラグメント区分識別情報に基づいて、前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれるか否かを判定するTTML判定部と、
    前記ムービーに前記TTMLドキュメントインスタンスが格納されたフラグメントが含まれると判定された場合、前記TTMLドキュメントインスタンスが格納されたフラグメントを抽出してデコードするTTMLデコード部とを備えるストリーミング受信装置と
    から成るストリーミングシステム。
JP2013526799A 2011-07-29 2012-07-11 ストリーミング配信装置および方法、ストリーミング受信装置および方法、ストリーミングシステム、プログラム、並びに記録媒体 Expired - Fee Related JP6062363B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161513131P 2011-07-29 2011-07-29
US61/513131 2011-07-29
PCT/JP2012/067719 WO2013018517A1 (ja) 2011-07-29 2012-07-11 ストリーミング配信装置および方法、ストリーミング受信装置および方法、ストリーミングシステム、プログラム、並びに記録媒体

Publications (2)

Publication Number Publication Date
JPWO2013018517A1 JPWO2013018517A1 (ja) 2015-03-05
JP6062363B2 true JP6062363B2 (ja) 2017-01-18

Family

ID=47629048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013526799A Expired - Fee Related JP6062363B2 (ja) 2011-07-29 2012-07-11 ストリーミング配信装置および方法、ストリーミング受信装置および方法、ストリーミングシステム、プログラム、並びに記録媒体

Country Status (9)

Country Link
US (2) US9113178B2 (ja)
EP (1) EP2739047A4 (ja)
JP (1) JP6062363B2 (ja)
KR (1) KR102023788B1 (ja)
CN (1) CN103688532B (ja)
BR (1) BR112014001577A8 (ja)
IN (1) IN2014CN00513A (ja)
RU (1) RU2618373C2 (ja)
WO (1) WO2013018517A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112014013976A2 (pt) 2011-12-16 2017-06-13 Sony Corp dispositivos de recepção e de distribuição, programa, método para distribuição realizado por um dispositivo de distribuição, e, sistema de distribuição
CN104581341B (zh) 2013-10-24 2018-05-29 华为终端有限公司 一种字幕显示方法及字幕显示设备
JP6455974B2 (ja) * 2014-02-21 2019-01-23 日本放送協会 受信機
JP6399686B2 (ja) * 2014-02-21 2018-10-03 日本放送協会 受信機
WO2015126117A1 (ko) * 2014-02-23 2015-08-27 엘지전자 주식회사 방송 신호 송수신 방법 및 장치
JP6331670B2 (ja) * 2014-05-12 2018-05-30 ソニー株式会社 受信装置、および送信装置、並びにデータ処理方法
JP6384119B2 (ja) * 2014-05-15 2018-09-05 ソニー株式会社 受信装置、および送信装置、並びにデータ処理方法
KR20170007333A (ko) * 2014-07-11 2017-01-18 엘지전자 주식회사 방송 신호 송수신 방법 및 장치
CN106664448A (zh) 2014-07-11 2017-05-10 Lg 电子株式会社 用于发送和接收广播信号的方法和设备
WO2016017961A1 (ko) 2014-07-29 2016-02-04 엘지전자 주식회사 방송 신호 송수신 방법 및 장치
EP3236659B1 (en) * 2014-12-19 2020-11-04 Sony Corporation Transmission device, transmission method, reception device, and reception method
JP6610019B2 (ja) * 2015-06-16 2019-11-27 ソニー株式会社 受信装置、送信装置、及び、データ処理方法
US20180376173A1 (en) * 2015-07-16 2018-12-27 Sony Corporation Transmission device, transmission method, reception device, and reception method
EP3349470A4 (en) * 2015-09-09 2019-01-16 LG Electronics Inc. BROADCAST SIGNAL TRANSMITTING DEVICE, BROADCAST SIGNAL RECEIVING DEVICE, BROADCASTING SIGNAL TRANSMITTING METHOD, AND BROADCAST SIGNAL RECEIVING METHOD
US10230812B1 (en) * 2016-01-29 2019-03-12 Amazon Technologies, Inc. Dynamic allocation of subtitle packaging
CN105847724B (zh) * 2016-04-12 2018-12-07 深圳市极酷威视科技有限公司 一种视频录制断电保护方法及装置
EP3979654A1 (en) * 2016-07-26 2022-04-06 Sony Group Corporation Transmission device, transmission method, reception device, and reception method
CN106792071A (zh) * 2016-12-19 2017-05-31 北京小米移动软件有限公司 字幕处理方法及装置
US10176889B2 (en) * 2017-02-09 2019-01-08 International Business Machines Corporation Segmenting and interpreting a document, and relocating document fragments to corresponding sections
US10169325B2 (en) 2017-02-09 2019-01-01 International Business Machines Corporation Segmenting and interpreting a document, and relocating document fragments to corresponding sections
USD884708S1 (en) 2018-03-05 2020-05-19 Samsung Electronics Co., Ltd. Intelligent docking station
CN108449651B (zh) * 2018-05-24 2021-11-02 腾讯科技(深圳)有限公司 字幕添加方法、装置、设备及存储介质
CN110545466B (zh) * 2018-05-29 2021-07-06 北京字节跳动网络技术有限公司 基于网页的媒体文件的播放方法、装置及存储介质
CN111147896A (zh) * 2018-11-05 2020-05-12 中兴通讯股份有限公司 一种字幕数据处理方法、装置、设备和计算机存储介质

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPR063400A0 (en) * 2000-10-06 2000-11-02 Canon Kabushiki Kaisha Xml encoding scheme
CN100369480C (zh) * 2002-06-26 2008-02-13 松下电器产业株式会社 多路复用装置及逆多路复用装置
JP3836077B2 (ja) * 2002-11-14 2006-10-18 松下電器産業株式会社 伝送データ構造及びそれを伝送するための方法並びに装置
JP2005086362A (ja) * 2003-09-05 2005-03-31 Matsushita Electric Ind Co Ltd データ多重化方法、データ送信方法およびデータ受信方法
EP1530337B1 (en) * 2003-11-06 2006-09-06 Matsushita Electric Industrial Co., Ltd. Optimized transmission of text sample format descriptions for streaming timed text
KR20050078907A (ko) * 2004-02-03 2005-08-08 엘지전자 주식회사 고밀도 광디스크의 서브타이틀 재생방법과 기록재생장치
JP2006238147A (ja) * 2005-02-25 2006-09-07 Toshiba Corp コンテンツ再生装置、字幕再生方法及びプログラム
JP4356645B2 (ja) * 2005-04-28 2009-11-04 ソニー株式会社 字幕生成装置及び方法
KR101074585B1 (ko) * 2007-07-02 2011-10-17 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 미디어 데이터 컨테이너 및 메타데이터 컨테이너를 포함하는 파일을 읽고 저장하는 장치 및 방법
EP2191402A4 (en) * 2007-08-20 2014-05-21 Nokia Corp SEGMENTED METADATA AND INDEXES FOR MULTIMEDIA FLOW DATA
JP4561815B2 (ja) * 2007-11-26 2010-10-13 ソニー株式会社 ファイル記録装置、ファイル再生装置、ファイル編集装置、ファイル記録方法、ファイル再生方法、ファイル編集方法、ファイル記録方法のプログラム、ファイル再生方法のプログラム、ファイル編集方法のプログラム、ファイル記録方法のプログラムを記録した記録媒体、ファイル再生方法のプログラムを記録した記録媒体、ファイル編集方法のプログラムを記録した記録媒体
WO2009075495A1 (en) * 2007-12-10 2009-06-18 Samsung Electronics Co., Ltd. System and method for generating and reproducing image file including 2d image and 3d stereoscopic image
JP5585047B2 (ja) 2009-10-28 2014-09-10 ソニー株式会社 ストリーム受信装置、ストリーム受信方法、ストリーム送信装置、ストリーム送信方法及びコンピュータプログラム
KR20140008478A (ko) * 2010-07-19 2014-01-21 엘지전자 주식회사 미디어 파일 송수신 방법 및 그를 이용한 송수신 장치

Also Published As

Publication number Publication date
EP2739047A4 (en) 2015-03-25
CN103688532A (zh) 2014-03-26
RU2618373C2 (ru) 2017-05-03
CN103688532B (zh) 2018-05-04
IN2014CN00513A (ja) 2015-04-03
US20150304730A1 (en) 2015-10-22
BR112014001577A8 (pt) 2018-08-28
KR20140044861A (ko) 2014-04-15
WO2013018517A1 (ja) 2013-02-07
BR112014001577A2 (pt) 2017-02-21
US9113178B2 (en) 2015-08-18
RU2014102004A (ru) 2015-07-27
EP2739047A1 (en) 2014-06-04
JPWO2013018517A1 (ja) 2015-03-05
KR102023788B1 (ko) 2019-09-20
US20130185760A1 (en) 2013-07-18

Similar Documents

Publication Publication Date Title
JP6062363B2 (ja) ストリーミング配信装置および方法、ストリーミング受信装置および方法、ストリーミングシステム、プログラム、並びに記録媒体
JP6122781B2 (ja) 受信装置及びその制御方法、配信装置及び配信方法、プログラム、並びに配信システム
CN106471574B (zh) 信息处理装置和信息处理方法
KR101786050B1 (ko) 데이터 전송 방법 및 장치
KR101516325B1 (ko) Iso 기반 미디어 파일 포맷으로 mpeg-2전송스트림을 저장 및 재생하는 방법 및 장치
US9756364B2 (en) Streaming method and apparatus operating by inserting other content into main content
JP6576635B2 (ja) 送信装置、送信方法、受信装置および受信方法
JP7099510B2 (ja) 受信装置および受信方法
KR20160135301A (ko) 시청각 콘텐트 아이템 데이터 스트림들
TW201322767A (zh) 發送裝置、接收再生裝置、發送方法及接收再生方法
WO2017029990A1 (ja) 受信装置、送信装置、およびデータ処理方法
KR101324427B1 (ko) 장면 기술자를 이용하여 mpeg-2 전송스트림을 포함하는 콘텐츠 저작/재생 장치 및 방법
KR20110117568A (ko) 멀티미디어 전송 시스템에서 서비스 발견 정보를 송수신하는 방법 및 장치와 이를 위한 파일 구조
KR20130116157A (ko) 하이브리드 서비스를 제공하는 수신 장치 및 하이브리드 서비스 제공 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160510

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160720

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161214

R150 Certificate of patent or registration of utility model

Ref document number: 6062363

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees