JPWO2016047475A1 - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JPWO2016047475A1
JPWO2016047475A1 JP2016550108A JP2016550108A JPWO2016047475A1 JP WO2016047475 A1 JPWO2016047475 A1 JP WO2016047475A1 JP 2016550108 A JP2016550108 A JP 2016550108A JP 2016550108 A JP2016550108 A JP 2016550108A JP WO2016047475 A1 JPWO2016047475 A1 JP WO2016047475A1
Authority
JP
Japan
Prior art keywords
content
time
edit list
playback
playback start
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016550108A
Other languages
English (en)
Other versions
JP6624060B2 (ja
Inventor
平林 光浩
光浩 平林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2016047475A1 publication Critical patent/JPWO2016047475A1/ja
Application granted granted Critical
Publication of JP6624060B2 publication Critical patent/JP6624060B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26283Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for associating distribution time parameters to content, e.g. to generate electronic program guide data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4345Extraction or processing of SI, e.g. extracting service information from an MPEG stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6125Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6156Network physical structure; Signal processing specially adapted to the upstream path of the transmission network
    • H04N21/6175Network physical structure; Signal processing specially adapted to the upstream path of the transmission network involving transmission via Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

本開示は、MP4のFragmented Movie形式のファイルに含まれるコンテンツの再生開始時刻が、ムービータイムスケールの再生開始時刻より遅い場合に、エディットリストに基づいてコンテンツを再生することができるようにする情報処理装置および情報処理方法に関する。エディットリスト生成部は、コンテンツの再生開始時刻が、コンテンツのムービータイムスケールの再生開始時刻より遅い場合、コンテンツの再生開始位置と、その再生開始位置から再生するコンテンツの再生時間を対応付けるエディットリストに、コンテンツの再生開始位置としてコンテンツの先頭位置を登録するとともに、コンテンツの再生時間として所定値を登録する。本開示は、例えば、Fragmented MP4ファイルを生成するファイル生成装置等に適用することができる。

Description

本開示は、情報処理装置および情報処理方法に関し、特に、MP4のFragmented Movie形式のファイルに含まれるコンテンツの再生開始時刻が、ムービータイムスケールの再生開始時刻より遅い場合に、エディットリストに基づいてコンテンツを再生することができるようにした情報処理装置および情報処理方法に関する。
近年、インターネット上のストリーミングサービスの主流がOTT−V(Over The Top Video)となっている。この基盤技術として普及し始めているのがMPEG−DASH(Moving Picture Experts Group phase − Dynamic Adaptive Streaming over HTTP)である(例えば、非特許文献1参照)。
MPEG−DASHでは、配信サーバが1本の動画コンテンツ用に画面サイズと符号化速度が異なる符号化ストリーム群を用意し、再生端末が伝送路の状況に応じて最適な画面サイズと符号化速度の符号化ストリームを要求することにより、適応型のストリーミング配信が実現される。
MPEG-DASHにおいて、符号化ストリームは、MP4のFragmented Movie形式のファイルに格納される。また、MP4のFragmented Movie形式のファイルのmoovボックスは、対応するmdatボックスを有さず、moovボックスには、moofボックスが管理するmdatボックスに配置される符号化ストリームのエディットリストが記述される。エディットリストとは、動画コンテンツを構成する各コンテンツの符号化ストリームの再生開始位置と、その再生開始位置から再生する符号化ストリームの再生時間とを再生順に対応付けたリストである。
MPEG−DASH(Dynamic Adaptive Streaming over HTTP)(URL:http://mpeg.chiariglione.org/standards/mpeg−dash/media−presentation−description−and−segment−formats/text−isoiec−23009−12012−dam−1)
しかしながら、MP4のFragmented Movie形式のファイルのmoovボックスの生成時に、その後のmoofボックスによって管理されるmdatボックスに配置される符号化ストリームの再生時間を認識することができない場合がある。このような場合、エディットリストを生成することができず、再生装置は、エディットリストに基づいて動画コンテンツを再生することができない。
本開示は、このような状況に鑑みてなされたものであり、MP4のFragmented Movie形式のファイルに含まれるコンテンツの再生開始時刻が、ムービータイムスケールの再生開始時刻より遅い場合に、エディットリストに基づいてコンテンツを再生することができるようにするものである。
本開示の第1の側面の情報処理装置は、コンテンツの再生開始時刻が、前記コンテンツのムービータイムスケールの再生開始時刻より遅い場合、前記コンテンツの再生開始位置と、その再生開始位置から再生する前記コンテンツの再生時間を対応付けるエディットリストに、前記コンテンツの再生開始位置として前記コンテンツの先頭位置を登録するとともに、前記コンテンツの再生時間として所定値を登録するエディットリスト生成部と、前記エディットリスト生成部により生成された前記エディットリストと、前記コンテンツとを含むMP4のFragmented Movie形式のファイルを生成するファイル生成部とを備える情報処理装置である。
本開示の第1の側面の情報処理方法は、本開示の第1の側面の情報処理装置に対応する。
本開示の第1の側面においては、コンテンツの再生開始時刻が、前記コンテンツのムービータイムスケールの再生開始時刻より遅い場合、前記コンテンツの再生開始位置と、その再生開始位置から再生する前記コンテンツの再生時間を対応付けるエディットリストに、前記コンテンツの再生開始位置として前記コンテンツの先頭位置が登録されるとともに、前記コンテンツの再生時間として所定値が登録され、前記エディットリストと前記コンテンツとを含むMP4のFragmented Movie形式のファイルが生成される。
本開示の第2の側面の情報処理装置は、コンテンツの再生開始時刻が、前記コンテンツのムービータイムスケールの再生開始時刻より遅い場合に、前記コンテンツの再生開始位置として前記コンテンツの先頭位置が登録されるとともに、その再生開始位置から再生する前記コンテンツの再生時間として所定値が登録される、前記コンテンツの再生開始位置と前記コンテンツの再生時間を対応付けるエディットリストと、前記コンテンツとを含むMP4のFragmented Movie形式のファイルから、前記エディットリストを抽出する抽出部と、前記抽出部により抽出された前記エディットリストに基づいて、前記コンテンツの再生開始時刻が、前記コンテンツのムービータイムスケールの再生開始時刻より遅い場合、前記ムービータイムスケールの再生開始時刻に比べて、前記コンテンツの再生開始時刻と前記ムービータイムスケールの再生開始時刻の差分だけ遅い時刻から、前記コンテンツを再生する再生部とを備える情報処理装置である。
本開示の第2の側面の情報処理方法は、本開示の第2の側面の情報処理装置に対応する。
本開示の第2の側面においては、コンテンツの再生開始時刻が、前記コンテンツのムービータイムスケールの再生開始時刻より遅い場合に、前記コンテンツの再生開始位置として前記コンテンツの先頭位置が登録されるとともに、その再生開始位置から再生する前記コンテンツの再生時間として所定値が登録される、前記コンテンツの再生開始位置と前記コンテンツの再生時間を対応付けるエディットリストと、前記コンテンツとを含むMP4のFragmented Movie形式のファイルから、前記エディットリストが抽出され、抽出された前記エディットリストに基づいて、前記コンテンツの再生開始時刻が、前記コンテンツのムービータイムスケールの再生開始時刻より遅い場合、前記ムービータイムスケールの再生開始時刻に比べて、前記コンテンツの再生開始時刻と前記ムービータイムスケールの再生開始時刻の差分だけ遅い時刻から、前記コンテンツが再生される。
なお、第1及び第2の側面の情報処理装置は、コンピュータにプログラムを実行させることにより実現することができる。
また、第1および第2の側面の情報処理装置を実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
本開示の第1の側面によれば、エディットリストを生成することができる。特に、MP4のFragmented Movie形式のファイルに含まれるコンテンツの再生開始時刻が、ムービータイムスケールの再生開始時刻より遅い場合に、エディットリストを生成することができる。
本開示の第2の側面によれば、エディットリストに基づいてコンテンツを再生することができる。特に、MP4のFragmented Movie形式のファイルに含まれるコンテンツの再生開始時刻が、ムービータイムスケールの再生開始時刻より遅い場合に、エディットリストに基づいてコンテンツを再生することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示を適用した情報処理システムの第1実施の形態の概要を説明する図である。 Fragmented MP4ファイルの構成例を示す図である。 図2のmoovボックスの構成例を示す図である。 ムービーの構成例を示す図である。 エディットリストの構成例を示す図である。 図5のエディットリストに基づく再生を説明する図である。 メディアの再生開始時刻の例を示す図である。 Composition offset発生時のメディアの例を示す図である。 Composition offset発生時のエディットリストの例を示す図である。 Starting offset発生時のメディアの例を示す図である。 Starting offset発生時のFragmented Movie形式以外の形式のMP4ファイルのエディットリストの例を示す図である。 Starting offset発生時のFragmented MP4ファイルのエディットリストの第1の例を説明する図である。 Starting offset発生時のFragmented MP4ファイルのエディットリストの第1の例を示す図である。 Starting offset発生時のFragmented MP4ファイルのエディットリストの第2の例を説明する図である。 Starting offset発生時のFragmented MP4ファイルのエディットリストの第2の例を示す図である。 MP4ファイル生成部の構成例を示すブロック図である。 図16のファイル生成部のFragmented MP4ファイル生成処理を説明するフローチャートである。 ストリーミング再生部の構成例を示すブロック図である。 図18のストリーミング再生部の再生処理を説明するフローチャートである。 本開示を適用した情報処理システムの第2実施の形態のファイル生成部の構成例を示すブロック図である。 図20のファイル生成部のFragmented MP4ファイル生成処理を説明するフローチャートである。 本開示を適用した情報処理システムの第3実施の形態のファイル生成部の構成例を示すブロック図である。 図22のファイル生成部のFragmented MP4ファイル生成処理を説明するフローチャートである。 本開示を適用した情報処理システムの第4実施の形態のファイル生成部の構成例を示すブロック図である。 図24のファイル生成部のMP4ファイル生成処理を説明するフローチャートである。 コンピュータのハードウエアの構成例を示すブロック図である。
以下、本開示の前提および本開示を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1実施の形態:情報処理システム(図1乃至図19)
2.第2実施の形態:情報処理システム(図20および図21)
3.第3実施の形態:情報処理システム(図22および図23)
4.第4実施の形態:情報処理システム(図24および図25)
5.第5実施の形態:コンピュータ(図26)
<第1実施の形態>
(情報処理システムの第1実施の形態の概要)
図1は、本開示を適用した情報処理システムの第1実施の形態の概要を説明する図である。
図1の情報処理システム10は、ファイル生成装置11に接続するWebサーバ12と動画再生端末14とが、インターネット13を介して接続されることにより構成される。
情報処理システム10では、MPEG−DASHに準ずる方式で、Webサーバ12が、ファイル生成装置11により生成された動画コンテンツのMP4のFragmented Movie形式のファイル(以下、単にFragmented MP4ファイルという)を、動画再生端末14に配信する。
具体的には、ファイル生成装置11(情報処理装置)は、動画コンテンツの画像データや音声データ等のデータを、それぞれ、複数の符号化速度で符号化し、符号化ストリームを生成する。ファイル生成装置11は、符号化速度ごとに、生成された符号化ストリームを、セグメントと呼ばれる数秒から10秒程度の時間単位に分割する。ファイル生成装置11は、セグメント単位で、符号化ストリームとエディットリスト等を含むFragmented MP4ファイルを生成し、Webサーバ12にアップロードする。
なお、ここでは、符号化速度の異なる符号化ストリームが生成されるようにするが、符号化速度以外の条件(例えば、画像のサイズ等)の異なる符号化ストリームが生成されるようにしてもよい。また、2以上の条件の異なる符号化ストリームを生成することもできる。
ファイル生成装置11はまた、Fragmented MP4ファイル等を管理するMPD(Media Presentation Description)ファイルを生成する。ファイル生成装置11は、MPDファイルをWebサーバ12にアップロードする。
Webサーバ12は、ファイル生成装置11からアップロードされたFragmented MP4ファイルとMPDファイルを格納する。図1の例では、符号化速度の種類が3種類あり、3つの符号化速度それぞれについて、各セグメントのFragmented MP4ファイルが格納されている。Webサーバ12は、動画再生端末14からの要求に応じて、格納しているFragmented MP4ファイルやMPDファイルを動画再生端末14に送信する。
動画再生端末14(情報処理装置)は、ストリーミングデータの制御用ソフトウエア(以下、制御用ソフトウエアという)21、動画再生ソフトウエア22、HTTP(HyperText Transfer Protocol)アクセス用のクライアント・ソフトウエア(以下、アクセス用ソフトウエアという)23などを実行する。
制御用ソフトウエア21は、Webサーバ12からストリーミングするデータを制御するソフトウエアである。具体的には、制御用ソフトウエア21は、動画再生端末14にWebサーバ12からMPDファイルを取得させる。また、制御用ソフトウエア21は、MPDファイルと、動画再生ソフトウエア22により指定される再生対象の再生時刻等を表す再生対象情報とに基づいて、再生対象のFragmented MP4ファイルの送信要求を、アクセス用ソフトウエア23に指令する。
動画再生ソフトウエア22は、Webサーバ12から取得された符号化ストリームを再生するソフトウエアである。具体的には、動画再生ソフトウエア22は、再生対象情報を制御用ソフトウエア21に指定する。また、動画再生ソフトウエア22は、アクセス用ソフトウエア23から受信開始の通知を受信したとき、動画再生端末14により受信されたFragmented MP4ファイルに含まれるエディットリストに基づいて、Fragmented MP4ファイルに含まれる符号化ストリームを復号する。動画再生ソフトウエア22は、復号の結果得られる画像データおよび音声データを出力する。
アクセス用ソフトウエア23は、HTTPを用いたインターネット13を介したWebサーバ12との通信を制御するソフトウエアである。具体的には、アクセス用ソフトウエア23は、制御用ソフトウエア21の指令に応じて、再生対象のFragmented MP4ファイルの送信要求を、動画再生端末14に送信させる。また、アクセス用ソフトウエア23は、その送信要求に応じて、Webサーバ12から送信されてくるFragmented MP4ファイルの受信を動画再生端末14に開始させ、受信開始の通知を動画再生ソフトウエア22に供給する。
(Fragmented MP4ファイルの構成例)
図2は、Fragmented MP4ファイルの構成例を示す図である。
Fragmented MP4ファイルは、ボックス構造を有し、イニシャライゼーションセグメントと1以上のメディアセグメントにより構成される。
イニシャライゼーションセグメントは、Fragmented MP4ファイルを構成するボックスのうちのftypボックス(File Type Box)とmoovボックス(Movie Box)により構成される。
ftypボックスは、ファイルの先頭に配置されるボックスであり、ftypには、ファイルフォーマットの種別が4CharacterCodeで記述される。ここでは、ftypには、ファイルフォーマットとしてMPEG-DASHを表す4CharacterCodeとして、例えば「dash」が記述される。
moovボックスには、同時に再生される1以上のトラック(詳細は後述する)からなるムービーのメタデータ(Movie Metadata)が記述される。Fragmented MP4ファイルの形式は、Fragmented Movie形式であるため、moovボックスは、対応するmdatボックスを有さない。
メディアセグメントは、stypボックス(Segment File Type Box),sidxボックス(Segment index to Movie Fragments Box)、および1以上のMovie fragmentにより構成される。
stypボックスには、セグメントの形式が4CharacterCodeで記述される。ここでは、stypボックスには、セグメントの形式としてメディアセグメントを表す4CharacterCodeとして、例えば「msdh」が記述される。
sidxボックスには、1以上のMovie fragmentからなるサブセグメント(subsegment)のFragmented MP4ファイル内の位置を示す位置情報などが記述される。
Movie fragmentは、moofボックス(Movie Fragment Box)とmdatボックス(Media Data Box)により構成される。moofボックスには、mdatボックスに配置される符号化ストリームの時間管理情報とアドレス管理情報が記述される。mdatボックスには、任意の時間長の符号化ストリームがサンプル単位で配置される。サンプルとは、符号化ストリームの最小アクセス単位であり、例えば、1フレームに相当する。
上述したように、moovボックスに対応するmdatボックスは存在しないため、moofボックスに対応するmdatボックスに配置される先頭のサンプルの符号化ストリームが、Fragmented MP4ファイルの先頭のサンプルの符号化ストリームとなる。
(moovボックスの構成例)
図3は、図2のmoovボックスの構成例を示す図である。
図3に示すように、moovボックスには、mvhdボックス(Movie Header Box)が配置される。Movie Headerボックスには、ムービータイムスケールを設定するための情報、ムービーの画像データの拡大や縮小、回転などの情報、ムービーの再生速度の情報などが記述される。ムービータイムスケールとは、ムービーに共通の再生時間軸である。
Movieボックスにはまた、トラックごとにTrakボックス(Track Box)が配置される。トラックとは、動画コンテンツの符号化ストリームの管理単位であり、同一の種類(画像、音声など)のサンプル群である。Trakボックスには、対応するトラックの管理情報が記述される。
具体的には、Trakボックスには、tkhdボックス(Track Header Box)、edtsボックス(Edit Box)、およびmdiaボックス(Media Box)が配置される。tkhdボックスには、トラックが画像のサンプル群である場合、その画像の表示画面内の位置などを含む画面合成情報が記述される。また、tkhdボックスには、トラック間の関係を示す情報などのトラック情報も記述される。
edtsボックスには、トラックのエディットリストが記述される。エディットリストは、上述したように、コンテンツの符号化ストリームの再生開始位置と、その再生位置から再生する符号化ストリームの再生時間とを、再生順、即ちムービータイムスケールの再生開始時刻から順に対応付けたものである。即ち、エディットリストは、ムービー全体における各トラックの再生を制御する情報である。
なお、edtsボックスには、エディットリストが記述されないようにすることも可能である。この場合、ムービータイムスケールの再生開始時刻が、edtsボックスに対応するコンテンツの再生開始時刻である、即ち後述するメディアタイムスケールの再生開始時刻であるとして、コンテンツの再生が行われる。
mdiaボックスには、トラックの符号化ストリームであるメディア(Media)についての情報を記述する、mdhdボックス(Media Header Box)、hdlrボックス(Media Handler Box)、およびminfボックス(Media Information Box)が配置される。
mdhdボックスとhdlrボックスには、メディアのデータの種類を表す情報、メディア単位(トラック単位)の再生時間軸であるメディアタイムスケールを設定するための情報などが記述される。メディアが音声の符号化ストリームである場合、mdhdボックスとhdlrボックスには、音声の言語を表す情報も記述される。
minfボックスには、dinfボックス(Data Information Box)、stblボックス(Sample Table Box)が配置される。また、メディアが画像の符号化ストリームである場合、Media Informationボックスには、vmhdボックス(Video Media Header Box)も配置される。
dinfボックスには、メディアの格納場所と参照方法が記述される。stblボックスは、stsdボックス(Sample Description Box),sttsボックス(Time to Sample Box),stszボックス(Sample Size Box),stscボックス(Sample To Chunk Box)、およびstcoボックス(Chunk Offset Box)により構成される。
stsdボックスには、メディアに対して適用されるCodec Configuration情報を含む1以上のサンプルエントリが記述される。各サンプルエントリには、サンプルエントリに固有のIDが付され、そのIDはstscボックスにより参照される。Codec Configuration情報は、符号化方式などの符号化に関する情報である。
sttsボックスには、各サンプルのメディアのメディアタイムスケール上の時間長が記述される。具体的には、sttsボックスには、先頭のサンプルから順に、各時間長と、その時間長で連続するサンプル単位のメディアの数とを対応付けたテーブルが記述される。
stszボックスには、各サンプルのメディアのデータサイズが、先頭のサンプルから順に記述される。stscボックスには、メディアの各チャンクに含まれるサンプルの数と、そのチャンクのサンプルエントリのIDとが、先頭のチャンクから順に記述される。チャンクとは、メディアのアドレス管理単位である。
stcoボックスには、メディアの各チャンクのファイルオフセットが先頭のチャンクから順に記述される。
(ムービーの構成例)
図4は、ムービーの構成例を示す図である。
図4の例では、ムービー(Movie)は、画像(Video)のトラックと音声(Audio)のトラックにより構成される。画像のトラックは、複数のサンプル41により構成され、音声のトラックは、複数のサンプル42により構成される。
(エディットリストの説明)
図5は、エディットリストの構成例を示す図であり、図6は、図5のエディットリストに基づく再生を説明する図である。
図5に示すように、エディットリストには、Segment Duration、Media Time、およびMedia Rateが、エディットリスト情報として、ムービータイムスケールの再生開始時刻から順に対応付けられている。Media Timeとは、そのMedia Timeを含むedtsボックスに対応するメディアの再生開始位置を表す、メディアタイムスケール上の時刻である。Segment Durationとは、対応するMedia Timeが表す再生開始位置から再生するメディアのムービータイムスケール上の再生時間である。Media Rateは、再生するメディアの再生速度である。
なお、図5の例では、ムービータイムスケールにおいて1秒間は90000であり、メディアタイムスケールにおいて1秒間は30000である。
図5のエディットリストには、先頭のエディットリスト情報として、Segment Duration「90000(1sec)」、Media Time「-1(Empty)」、およびMedia Rate「1.0」が登録されている。ここで、Media Time「-1(Empty)」は、何も再生されないことを表す情報である。従って、図6に示すように、図5のエディットリストに対応するトラックとして、ムービータイムスケールの0秒から1秒までの間、何も再生されない。
図5のエディットリストには、2番目のエディットリスト情報として、Segment Duration「180000(2sec)」、Media Time「0(0sec)」、およびMedia Rate「1.0」が登録されている。従って、図6に示すように、ムービータイムスケールの1秒から3秒までの間、メディアタイムスケールの0秒から2秒間だけメディアが1倍速で再生される。
図5のエディットリストには、3番目のエディットリスト情報として、Segment Duration「90000(1sec)」、Media Time「90000(3sec)」、およびMedia Rate「1.0」が登録されている。従って、図6に示すように、ムービータイムスケールの3秒から4秒までの間、メディアタイムスケールの3秒から1秒間だけメディアが1倍速で再生される。
以上のように、図5のエディットリストによれば、ムービータイムスケールの再生開始時刻の1秒後から、メディアタイムスケールの0秒から2秒までのメディア、3秒から4秒までのメディアを、順次1倍速で再生することができる。
このように、エディットリストによれば、そのエディットリストに対応するメディアのムービータイムスケール上の再生開始時刻や再生順序を制御することができる。つまり、エディットリストにより、非破壊編集(Non-linear edit)を行うことができる。
(メディアの再生開始時刻の例)
図7は、メディアの再生開始時刻の例を示す図である。
メディアの再生開始時刻は、図7の上段に示すようにムービータイムスケールの再生開始時刻よりStarting offsetだけ遅い場合、中段に示すように同一である場合、および、下段に示すようにComposition offsetだけ早い場合がある。Starting offsetとComposition offsetは、メディアの再生開始時刻とムービータイムスケールの開始時刻の差分である。
図7の上段に示すように、メディアの再生開始時刻が、ムービータイムスケールの再生開始時刻よりStarting offsetだけ遅い場合、エディットリストには、Media Time「-1」を含むエディットリスト情報が、empty edit情報として登録される。また、MP4規格では、empty edit情報のみのエディットリストが禁止されているため、エディットリストには、empty edit情報以外のエディットリスト情報も登録される。
図7の中段に示すように、メディアの再生開始時刻と、ムービータイムスケールの再生開始時刻が同一である場合、エディットリストを生成する必要はない。
図7の下段に示すように、メディアの再生開始時刻が、ムービータイムスケールの再生開始時刻よりComposition offsetだけ早い場合、即ち、メディアの先頭が再生されない場合、エディットリストには、Media TimeとしてComposition offsetのメディアタイムスケール上の時間を含むエディットリスト情報が、Non-empty edit情報として登録される。
(Composition offset発生時のエディットリストの説明)
図8は、Composition offset発生時のメディアの例を示す図であり、図9は、図8に示したようにComposition offsetが発生したときのエディットリストの例を示す図である。
なお、図8および図9の例では、ムービータイムスケールにおいて1秒間は90000であり、メディアタイムスケールにおいて1秒間は30000である。また、メディアの再生速度は1倍速である。
図8に示すように、Composition offsetのメディアタイムスケール上の時間が3000(0.1sec)であり、メディアのムービータイムスケール上の時間が90000(10sec)である場合、Fragmented Movie形式以外の形式のMP4ファイルでは、図9のAに示すように、エディットリストを生成する必要がある。
即ち、図9のAに示すように、エディットリストには、Segment Durationとして、メディアのムービータイムスケール上の時間である「900000(10sec)」が登録され、Media Timeとして、Composition offsetのメディアタイムスケール上の時間である「3000(0.1sec)」が登録され、Media Rateとして「1.0」が登録される必要がある。
これに対して、Fragmented MP4ファイルでは、Non-empty edit情報のSegment Durationであることを表す情報として「0」が定義されている。従って、メディアの再生開始時刻が、ムービータイムスケールの再生開始時刻よりComposition offsetだけ早い場合、メディアのムービータイムスケール上の時間によらず、Non-empty edit情報のSegment Durationとして「0」を登録すればよい。
これにより、moovボックスの生成時に、moofボックスに対応するmdatボックスに配置されるメディアの時間長を認識できない場合であっても、Non-empty edit情報を登録することができる。
(Starting offset発生時のFragmented Movie形式以外の形式のMP4ファイルのエディットリストの説明)
図10は、Starting offset発生時のメディアの例を示す図であり、図11は、図10に示したようにStarting offsetが発生したときの、Fragmented Movie形式以外の形式のMP4ファイルのエディットリストの例を示す図である。
なお、図10および図11の例では、ムービータイムスケールにおいて1秒間は90000であり、メディアの再生速度は1倍速である。
図10に示すように、Starting offsetのムービータイムスケール上の時間が9000(0.1sec)であり、メディアのムービータイムスケール上の時間がTxである場合、Fragmented Movie形式以外の形式のMP4ファイルでは、図11に示すように、エディットリストを生成する必要がある。
即ち、図11に示すように、エディットリストには、まず、Media Timeとして、何も再生されないことを表す「-1(Empty)」を含み、Segment Durationとして、Starting offsetのムービータイムスケール上の時間である「9000(0.1sec)」を含み、Media Rateとして「1.0」を含むempty edit情報が登録される。
次に、エディットリストには、empty edit情報以外のエディットリスト情報も登録する必要があるため、メディアのムービータイムスケール上の時間である「Tx」をSegment Durationとして含むエディット情報が、invariable edit情報として登録される。invariable edit情報のMedia Timeは、メディアタイムスケールの再生開始時刻を表す「0」であり、Media Rateは、「1.0」である。
しかしながら、Fragmented MP4ファイルでは、moovボックスに対応するmdatボックスが存在せず、moovボックスの生成時に、moofボックスに対応するmdatボックスに配置されるメディアの時間長を認識できない場合が存在する。例えば、メディアがライブ映像の符号化ストリームである場合、メディアの時間長は撮影が終了するまでわからない。
また、Composition offsetが発生する場合には、メディアの時間長を認識する必要がないが、Starting offsetが発生する場合には、メディアの時間長を認識する必要があるため、エディットリストの生成処理が複雑になる。即ち、エディットリストの生成方法が、offsetの種類によって異なるため、エディットリストの生成処理が複雑になる。
従って、本開示では、Starting offset発生時のFragmented MP4ファイルのエディットリストを、Fragmented Movie形式以外の形式のMP4ファイルのエディットリストとは異なるように生成する。
(Starting offsetの発生時のFragmented MP4ファイルのエディットリストの第1の例の説明)
図12および図13は、図10に示したようにStarting offsetが発生したときの、Fragmented MP4ファイルのエディットリストの第1の例を説明する図である。
図12および図13に示すように、Fragmented MP4ファイルのエディットリストでは、図11のinvariable edit情報の代わりに、ダミーのエディットリスト情報として、例えば、Media Timeが「0」であるnon-empty edit情報が登録される。
即ち、図13に示すように、エディットリストには、図11の場合と同様にempty edit情報が登録される。しかしながら、empty edit情報以外のエディットリスト情報のSegment Durationとして、empty edit情報をエディットリストに登録するためのダミーのエディットリスト情報のSegment Durationであることを表す「0」が登録される。
また、Segment Duration「0」に対応して、Media Timeとして、メディアの先頭位置を表すメディアタイムスケール上の時刻、即ちメディアタイムスケールの再生開始時刻を表す「0」が登録され、Media Rateとして「1.0」が登録される。
(Starting offsetの発生時のFragmented MP4ファイルのエディットリストの第2の例の説明)
図14および図15は、図10に示したようにStarting offsetが発生したときの、Fragmented MP4ファイルのエディットリストの第2の例を説明する図である。
図14および図15に示すように、Fragmented MP4ファイルのエディットリストでは、図11のinvariable edit情報の代わりに、ダミーのエディットリスト情報として、例えば、Media Timeが、不定値であることを表す値「0xFFFFFFFF」であるundefined edit情報が、登録される。
即ち、図15に示すように、エディットリストには、図11の場合と同様にempty edit情報が登録される。しかしながら、empty edit情報以外のエディットリスト情報のSegment Durationとして、empty edit情報をエディットリストに登録するためのダミーのエディットリスト情報のSegment Durationであることを表す、全てのビットが1である値「0xFFFFFFFF」が登録される。
また、Segment Duration「0xFFFFFFFF」に対応して、Media Timeとして、メディアの先頭位置を表すメディアタイムスケール上の時刻、即ちメディアタイムスケールの再生開始時刻を表す「0」が登録され、Media Rateとして「1.0」が登録される。
以上のように、本開示では、empty edit情報以外のエディットリスト情報のSegment Durationとして、empty edit情報をエディットリストに登録するためのダミーのエディットリスト情報であることを表す値を登録する。
従って、moovボックスの生成時に、moofボックスに対応するmdatボックスに配置されるメディアの時間長を認識できない場合であっても、empty edit情報を登録することができる。また、メディアの時間長を認識せずにエディットリストを生成することができるので、オーサリング効率が改善される。
さらに、Starting offsetが発生する場合であっても、Composition offsetが発生する場合と同様に、メディアの時間長を認識する必要がない。また、エディットリストの生成処理が、moovボックス以外のボックスの影響を受けない。従って、エディットリストの生成処理は容易になる。
また、図12乃至図15で説明したエディットリストには、empty edit情報以外のエディットリスト情報が登録されているため、MP4規格に違反しない。
(MP4ファイル生成部の構成例)
図16は、図1のファイル生成装置11のうちのFragmented MP4ファイルを生成するMP4ファイル生成部の構成例を示すブロック図である。
図16のファイル生成部60は、符号化部61、エディットリスト生成部62、マルチプレクサ63、およびアップロード部64により構成される。
ファイル生成部60の符号化部61は、動画コンテンツの画像データや音声データ等のデータを取得する。符号化部61は、取得された各データを複数の符号化速度で符号化し、符号化ストリームを生成する。符号化部61は、符号化速度ごとに、符号化ストリームをセグメント単位に分割し、マルチプレクサ63に供給する。
また、符号化部61は、メディアごとに、例えば、セグメント単位の符号化ストリームの表示順で先頭のピクチャと、表示順で先頭のIピクチャの表示時刻の差分を、Composition offsetとして表すComposition offset情報を生成する。符号化部61は、生成された各メディアのComposition offset情報をエディットリスト生成部62に供給する。
エディットリスト生成部62は、メディアごとに、符号化部61から供給されるComposition offset情報と、ユーザ等により外部から入力されるセグメント単位のStarting offsetを表すStarting offset情報とに基づいて、エディットリストを生成する。
具体的には、エディットリスト生成部62は、メディアごとに、Composition offset情報に基づいて、エディットリストのMedia TimeにComposition offsetのメディアタイムスケール上の時間を登録し、Segment Durationに「0」を登録し、Media Rateにメディアの再生速度を登録する。また、エディットリスト生成部62は、メディアごとに、Starting offset情報に基づいて、エディットリストのMedia Timeに「0」を登録し、Segment Durationに「0」または「0xFFFFFFFF」を登録し、Media Rateにメディアの再生速度を登録する。エディットリスト生成部62は、生成された各メディアのエディットリストをマルチプレクサ63に供給する。
マルチプレクサ63(ファイル生成部)は、符号化速度ごとに、セグメント単位の符号化ストリームと、そのセグメントに対応する各メディアのエディットリストとを含むFragmented MP4ファイルを生成する。具体的には、マルチプレクサ63は、セグメント単位の符号化ストリームをmdatボックスに配置し、各メディアのエディットリストをmoovボックスに配置することにより、Fragmented MP4ファイルを生成する。マルチプレクサ63は、生成されたFragmented MP4ファイルをアップロード部64に供給する。
アップロード部64は、マルチプレクサ63から供給されるFragmented MP4ファイルを図1のWebサーバ12にアップロードする。
(ファイル生成部の処理の説明)
図17は、図16のファイル生成部60のFragmented MP4ファイル生成処理を説明するフローチャートである。
図17のステップS11において、ファイル生成部60の符号化部61は、動画コンテンツの画像データや音声データ等のデータを取得する。ステップS12において、エディットリスト生成部62は、ユーザ等により外部から入力されるStarting offset情報を取得する。
ステップS13において、符号化部61は、取得された各データを複数の符号化速度で符号化し、符号化ストリームを生成する。符号化部61は、符号化速度ごとに、符号化ストリームをセグメント単位に分割し、マルチプレクサ63に供給する。
ステップS14において、符号化部61は、メディアごとにComposition offset情報を生成し、エディットリスト生成部62に供給する。
ステップS15において、エディットリスト生成部62は、メディアごとに、取得されたStarting offset情報と、符号化部61から供給されるComposition offset情報とに基づいて、エディットリストを生成する。
ステップS16において、マルチプレクサ63は、符号化速度ごとに、セグメント単位の符号化ストリームと、そのセグメントに対応する各メディアのエディットリストとを含むFragmented MP4ファイルを生成する。マルチプレクサ63は、生成されたFragmented MP4ファイルをアップロード部64に供給する。
ステップS17において、アップロード部64は、マルチプレクサ63から供給されるFragmented MP4ファイルを図1のWebサーバ12にアップロードし、処理を終了する。
以上のように、ファイル生成装置11は、Starting offsetが発生する場合、エディットリストに、Media Timeとして「0」を登録するとともに、Segment Durationとして「0」または「0xFFFFFFFF」を登録する。従って、メディアの時間長が認識できない場合であってもエディットリストを生成することができる。その結果、動画再生端末14は、エディットリストに基づいて、ムービータイムスケールの再生開始時刻よりStarting offsetだけ遅い時刻から、メディアを再生することができる。
また、Composition offsetが発生する場合に、符号化部61は、メディアの時間長を認識し、エディットリスト生成部62に供給する必要がないため、符号化部61の処理効率が良い。また、Starting offsetが発生する場合に、ユーザが、メディアの時間長を認識し、エディットリスト生成部62に供給する必要がないため、オーサリング効率が良い。
(動画再生端末の機能的構成例)
図18は、図1の動画再生端末14が制御用ソフトウエア21、動画再生ソフトウエア22、およびアクセス用ソフトウエア23を実行することにより実現されるストリーミング再生部の構成例を示すブロック図である。
ストリーミング再生部80は、デマルチプレクサ81、復号化部82、オフセット情報生成部83、および再生部84により構成される。
ストリーミング再生部80のデマルチプレクサ81には、再生対象のFragmented MP4ファイルが入力される。このFragmented MP4ファイルは、動画再生端末14がWebサーバ12から取得したMPDファイルを解析することにより得られた、再生対象のFragmented MP4ファイルのURLに基づいて、Webサーバ12から取得されたものである。
デマルチプレクサ81(抽出部)は、Fragmented MP4ファイルのmoovボックスから各メディアのエディットリストを抽出して、オフセット情報生成部83に供給する。また、デマルチプレクサ81は、Fragmented MP4ファイルのmdatボックスに配置される符号化ストリームを抽出して、復号化部82に供給する。
復号化部82は、デマルチプレクサ81から供給される符号化ストリームを復号し、動画コンテンツの画像データや音声データ等のデータを生成する。復号化部82は、生成された画像データや音声データ等のデータを再生部84に供給する。
オフセット情報生成部83は、デマルチプレクサ81から供給されるエディットリストに基づいて、メディアごとに、Starting offset情報とComposition offset情報からなるオフセット情報を生成する。具体的には、オフセット情報生成部83は、メディアごとに、エディットリストに登録されている、Segment Durationが「0」であり、Media Timeが「0」ではないNon_empty edit情報に基づいて、Media Timeが表す時間をComposition offsetとして、オフセット情報を生成する。
また、オフセット情報生成部83は、メディアごとに、エディットリストに登録されているempty edit情報に基づいて、Segment Durationが表す時間をStarting offsetとして、オフセット情報を生成する。さらに、オフセット情報生成部83は、エディットリストに登録されている、Segment Durationが「0」または「0xFFFFFFFF」であり、Media Timeが「0」であるエディット情報を無視する。オフセット情報生成部83は、生成された各メディアのオフセット情報を再生部84に供給する。
再生部84は、メディアごとに、オフセット情報生成部83から供給されるオフセット情報に基づいて、復号化部82から供給されるデータを再生(出力)する。具体的には、再生部84は、メディアごとに、Starting offset情報に基づいて、ムービータイムスケールの開始時刻に比べてStarting offsetだけ遅い時刻から、データを再生(出力)する。なお、データの再生開始位置は、データの先頭から、Composition offset情報が表すComposition offsetだけ後の位置である。
再生部84により再生されたデータのうちの画像データは、図示せぬディスプレイ等の表示部に供給され、音声データは、図示せぬスピーカ等に供給される。
(ストリーミング再生部の処理の説明)
図19は、図18のストリーミング再生部80の再生処理を説明するフローチャートである。
図19のステップS31において、ストリーミング再生部80のデマルチプレクサ81は、Webサーバ12から再生対象のFragmented MP4ファイルを取得する。ステップS32において、デマルチプレクサ81は、Fragmented MP4ファイルから符号化ストリームと各メディアのエディットリストを抽出する。デマルチプレクサ81は、各メディアのエディットリストをオフセット情報生成部83に供給し、符号化ストリームを復号化部82に供給する。
ステップS33において、オフセット情報生成部83は、デマルチプレクサ81から供給されるエディットリストに基づいて、メディアごとにオフセット情報を生成し、再生部84に供給する。
ステップS34において、復号化部82は、デマルチプレクサ81から供給される符号化ストリームを復号し、動画コンテンツの画像データや音声データ等のデータを生成する。復号化部82は、生成された画像データや音声データ等のデータを再生部84に供給する。
ステップS35において、再生部84は、メディアごとに、オフセット情報生成部83から供給されるオフセット情報に基づいて、復号化部82から供給されるデータを再生する。そして、処理は終了する。
以上のように、動画再生端末14は、エディットリストに基づいて、Starting offsetが発生している場合、ムービータイムスケールの再生開始時刻に比べてStarting offsetだけ遅い時刻から、データを再生する。
<第2実施の形態>
(情報処理システムの第2実施の形態のファイル生成部の構成例)
本開示を適用した情報処理システムの第2実施の形態の構成は、ファイル生成装置11のファイル生成部を除いて、図1の情報処理システム10の構成と同一である。従って、以下では、ファイル生成部についてのみ説明する。
図20は、本開示を適用した情報処理システムの第2実施の形態のファイル生成部の構成例を示すブロック図である。
図20に示す構成のうち、図16の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図20のファイル生成部100の構成は、符号化部61、エディットリスト生成部62の代わりに、デマックサ101、エディットリスト生成部102が設けられる点が、図16のファイル生成部60の構成と異なる。ファイル生成部100には、動画コンテンツの符号化前のデータではなく、各符号化速度で符号化済みのセグメント単位のMPEG2(Moving Picture Experts Group phase 2)規格のTS(Transport Stream)ファイルが入力される。
ファイル生成部100のデマックサ101は、動画コンテンツの各トラックのTSファイルを取得する。デマックサ101は、各トラックのTSファイルからTSを抽出し、符号化ストリームとしてマルチプレクサ63に供給する。
また、デマックサ101は、動画コンテンツの各トラックのTSファイルに含まれる再生時刻等に基づいて、各トラックのStarting offset情報を決定する。デマックサ101は、各トラックのTSファイルの符号化方式等に基づいて、各トラックのComposition offset情報を決定する。デマックサ101は、トラックごとに、決定されたStarting offset情報とComposition offsetからなるオフセット情報を、エディットリスト生成部102に供給する。
エディットリスト生成部102は、デマックサ101から供給されるオフセット情報に基づいて、図16のエディットリスト生成部62と同様にエディットリストを生成し、マルチプレクサ63に供給する。
以上のように、ファイル生成部100は、入力された動画コンテンツの各トラックのTSファイルを再エンコードせずに、Fragmented MP4ファイルを生成する。
(ファイル生成部の処理の説明)
図21は、図20のファイル生成部100のFragmented MP4ファイル生成処理を説明するフローチャートである。
図21のステップS51において、ファイル生成部100のデマックサ101は、動画コンテンツの各トラックのTSファイルを取得する。
ステップS52において、デマックサ101は、各トラックのTSファイルからTSを抽出し、マルチプレクサ63に供給する。ステップS53において、デマックサ101は、各トラックのTSファイルに基づいてオフセット情報を生成し、エディットリスト生成部102に供給する。
ステップS54において、エディットリスト生成部102は、デマックサ101から供給されるオフセット情報に基づいてエディットリストを生成し、マルチプレクサ63に供給する。
ステップS55およびS56の処理は、図17のステップS16およびS17の処理と同様であるので、説明は省略する。
<第3実施の形態>
(情報処理システムの第3実施の形態のファイル生成部の構成例)
本開示を適用した情報処理システムの第3実施の形態の構成は、ファイル生成装置11のファイル生成部を除いて、図1の情報処理システム10の構成と同一である。従って、以下では、ファイル生成部についてのみ説明する。
図22は、本開示を適用した情報処理システムの第3実施の形態のファイル生成部の構成例を示すブロック図である。
図22に示す構成のうち、図20の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図22のファイル生成部120の構成は、編集処理部121が新たに設けられる点、および、デマックサ101の代わりにデマックサ122が設けられる点が、図20のファイル生成部100の構成と異なる。ファイル生成部120は、各符号化速度で符号化済みのセグメント単位のMPEG2規格のTSファイルをカット編集し、Fragmented MP4ファイルを生成する。
具体的には、ファイル生成部120の編集処理部121は、動画コンテンツの各トラックのTSファイルを取得する。編集処理部121は、ユーザ入力等に基づいて、動画コンテンツの前または後を削除するカット編集を行う。具体的には、編集処理部121は、カット編集後の動画コンテンツの再生開始時刻(PTS(Presentation Time Stamp))および再生終了時刻を表す編集時間情報を生成する。編集処理部121は、各トラックのTSファイルと編集時間情報をデマックサ122に供給する。
デマックサ122は、トラックごとに、編集処理部121から供給されるTSファイルに格納されるTSのうちの、編集時間情報が表す再生開始時刻から再生終了時刻までのTSを、カット編集後のTSとして抽出する。このとき、トラックごとに時間管理単位が異なるため、Starting offsetやComposition offsetが発生する。従って、デマックサ122は、各トラックのStarting offset情報とComposition offset情報を生成し、オフセット情報として、エディットリスト生成部102に供給する。また、デマックサ122は、カット編集後のTSを符号化ストリームとしてマルチプレクサ63に供給する。
以上のように、ファイル生成部120は、入力された動画コンテンツの各トラックのTSファイルを再エンコードせずにカット編集を行い、カット編集後の動画コンテンツのFragmented MP4ファイルを生成する。
(ファイル生成部の処理の説明)
図23は、図22のファイル生成部120のFragmented MP4ファイル生成処理を説明するフローチャートである。
図23のステップS71において、ファイル生成部120の編集処理部121は、動画コンテンツの各トラックのTSファイルを取得する。ステップS72において、編集処理部121は、ユーザ入力等に基づいて編集時間情報を生成することにより、カット編集を行う。編集処理部121は、各トラックのTSファイルと編集時間情報をデマックサ122に供給する。
ステップS73において、デマックサ122は、トラックごとに、編集時間情報に基づいて、編集処理部121から供給されるTSファイルに格納されるTSのうちの、カット編集後のTSを抽出する。デマックサ122は、カット編集後のTSを符号化ストリームとしてマルチプレクサ63に供給する。
ステップS74において、デマックサ122は、カット編集により発生した各トラックのStarting offset情報とComposition offset情報を、オフセット情報として生成し、エディットリスト生成部102に供給する。
ステップS75乃至S77の処理は、図21のステップS54乃至S56の処理と同様であるので、説明は省略する。
(情報処理システムの第4実施の形態のファイル生成部の構成例)
本開示を適用した情報処理システムの第4実施の形態の構成は、ファイル生成装置11のファイル生成部を除いて、図1の情報処理システム10の構成と同一である。従って、以下では、ファイル生成部についてのみ説明する。
図24は、本開示を適用した情報処理システムの第4実施の形態のファイル生成部の構成例を示すブロック図である。
図24に示す構成のうち、図22の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図24のファイル生成部140の構成は、編集処理部121、エディットリスト生成部102、マルチプレクサ63の代わりに、編集処理部141、エディットリスト生成部142、マルチプレクサ143が設けられる点、および、デマックサ122が設けられない点が、図22のファイル生成部120の構成と異なる。
ファイル生成部140には、動画コンテンツのFragmented MP4ファイルが入力され、ファイル生成部140は、Fragmented MP4ファイルに格納される非再生対象のトラックを再生対象として追加する。
具体的には、ファイル生成部140の編集処理部141は、動画コンテンツのFragmented MP4ファイルを取得し、マルチプレクサ143に供給する。また、編集処理部141は、ユーザ入力等に基づいて、Fragmented MP4ファイルに含まれる非再生対象のトラックを再生対象として追加する追加編集を行う。
即ち、編集処理部141は、再生対象として追加するトラックの符号化方式や再生開始時刻等に基づいて、オフセット情報を生成する。編集処理部141は、決定されたオフセット情報をエディットリスト生成部102に供給する。
エディットリスト生成部142は、編集処理部141から供給されるオフセット情報に基づいて、図16のエディットリスト生成部62と同様に、再生対象として追加するトラックのエディットリストを生成し、マルチプレクサ143に供給する。
マルチプレクサ143は、編集処理部141から供給されるFragmented MP4ファイルのmoovボックスに含まれる、再生対象として追加するトラックのエディットリストを、エディットリスト生成部142から供給されるエディットリストに置換する。マルチプレクサ143は、エディットリスト置換後のFragmented MP4ファイルをアップロード部64に供給する。
以上のように、ファイル生成部140は、再エンコードすることなく、追加編集を行うことができる。従って、例えば、画像と英語の音声のトラックのみを再生対象とするFragmented MP4ファイルから、画像、英語の音声、および日本語の音声を再生対象とするFragmented MP4ファイルを、容易に生成することができる。
(ファイル生成部の処理の説明)
図25は、図24のファイル生成部140のMP4ファイル生成処理を説明するフローチャートである。
図25のステップS91において、ファイル生成部140の編集処理部141は、動画コンテンツのFragmented MP4ファイルを取得し、マルチプレクサ143に供給する。ステップS92において、編集処理部141は、ユーザ入力等に基づいて、Fragmented MP4ファイルの追加編集を行い、再生対象として追加するトラックのオフセット情報を生成する。編集処理部141は、決定されたオフセット情報をエディットリスト生成部102に供給する。
ステップS93において、エディットリスト生成部142は、編集処理部141から供給されるオフセット情報に基づいて、再生対象として追加するトラックのエディットリストを生成し、マルチプレクサ143に供給する。
ステップS94において、マルチプレクサ143は、編集処理部141から供給されるFragmented MP4ファイルのmoovボックスに含まれる、再生対象として追加するトラックのエディットリストを、エディットリスト生成部142から供給されるエディットリストに更新する。マルチプレクサ143は、その結果得られるFragmented MP4ファイルをアップロード部64に供給する。
ステップS95において、アップロード部64は、マルチプレクサ143から供給されるFragmented MP4ファイルを図1のWebサーバ12にアップロードし、処理を終了する。
<第5実施の形態>
(本開示を適用したコンピュータの説明)
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図26は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータ200において、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、及びドライブ210が接続されている。
入力部206は、キーボード、マウス、マイクロフォンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記憶部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインタフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア211を駆動する。
以上のように構成されるコンピュータ200では、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ200(CPU201)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータ200では、プログラムは、リムーバブルメディア211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
なお、コンピュータ200が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
また、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、ダミーのエディットリスト情報を構成するMedia Timeは、「0」や「0xFFFFFFFF」以外の値であってもよい。
なお、本開示は、以下のような構成もとることができる。
(1)
コンテンツの再生開始時刻が、前記コンテンツのムービータイムスケールの再生開始時刻より遅い場合、前記コンテンツの再生開始位置と、その再生開始位置から再生する前記コンテンツの再生時間を対応付けるエディットリストに、前記コンテンツの再生開始位置として前記コンテンツの先頭位置を登録するとともに、前記コンテンツの再生時間として所定値を登録するエディットリスト生成部と、
前記エディットリスト生成部により生成された前記エディットリストと、前記コンテンツとを含むMP4のFragmented Movie形式のファイルを生成するファイル生成部と
を備える情報処理装置。
(2)
前記エディットリスト生成部は、前記コンテンツの再生開始時刻が、前記ムービータイムスケールの再生開始時刻より遅い場合、前記エディットリストに、前記コンテンツの再生開始位置として何も再生されないことを表す情報を登録するとともに、前記コンテンツの再生時間として、前記コンテンツの再生開始時刻と前記ムービータイムスケールの再生開始時刻の差分を登録する
ように構成された
前記(1)に記載の情報処理装置。
(3)
前記ファイル生成部は、前記エディットリストを前記ファイルのmoovボックスに配置する
ように構成された
前記(1)または(2)に記載の情報処理装置。
(4)
前記所定値は0である
ように構成された
前記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)
前記所定値の全てのビットは1である
ように構成された
前記(1)乃至(3)のいずれかに記載の情報処理装置。
(6)
情報処理装置が、
コンテンツの再生開始時刻が、前記コンテンツのムービータイムスケールの再生開始時刻より遅い場合、前記コンテンツの再生開始位置と、その再生開始位置から再生する前記コンテンツの再生時間を対応付けるエディットリストに、前記コンテンツの再生開始位置として前記コンテンツの先頭位置を登録するとともに、前記コンテンツの再生時間として所定値を登録するエディットリスト生成ステップと、
前記エディットリスト生成ステップの処理により生成された前記エディットリストと、前記コンテンツとを含むMP4のFragmented Movie形式のファイルを生成するファイル生成ステップと
を含む情報処理方法。
(7)
コンテンツの再生開始時刻が、前記コンテンツのムービータイムスケールの再生開始時刻より遅い場合に、前記コンテンツの再生開始位置として前記コンテンツの先頭位置が登録されるとともに、その再生開始位置から再生する前記コンテンツの再生時間として所定値が登録される、前記コンテンツの再生開始位置と前記コンテンツの再生時間を対応付けるエディットリストと、前記コンテンツとを含むMP4のFragmented Movie形式のファイルから、前記エディットリストを抽出する抽出部と、
前記抽出部により抽出された前記エディットリストに基づいて、前記コンテンツの再生開始時刻が、前記コンテンツのムービータイムスケールの再生開始時刻より遅い場合、前記ムービータイムスケールの再生開始時刻に比べて、前記コンテンツの再生開始時刻と前記ムービータイムスケールの再生開始時刻の差分だけ遅い時刻から、前記コンテンツを再生する再生部と
を備える情報処理装置。
(8)
前記エディットリストには、前記コンテンツの再生開始時刻が、前記コンテンツのムービータイムスケールの再生開始時刻より遅い場合、前記コンテンツの再生開始位置として何も再生されないことを表す情報が登録されるとともに、前記コンテンツの再生時間として前記差分が登録される
ように構成された
前記(7)に記載の情報処理装置。
(9)
前記エディットリストは、前記ファイルのmoovボックスに配置される
ように構成された
前記(7)または(8)に記載の情報処理装置。
(10)
前記所定値は0である
ように構成された
前記(7)乃至(9)のいずれかに記載の情報処理装置。
(11)
前記所定値の全てのビットは1である
ように構成された
前記(7)乃至(9)のいずれかに記載の情報処理装置。
(12)
情報処理装置が、
コンテンツの再生開始時刻が、前記コンテンツのムービータイムスケールの再生開始時刻より遅い場合に、前記コンテンツの再生開始位置として前記コンテンツの先頭位置が登録されるとともに、その再生開始位置から再生する前記コンテンツの再生時間として所定値が登録される、前記コンテンツの再生開始位置と前記コンテンツの再生時間を対応付けるエディットリストと、前記コンテンツとを含むMP4のFragmented Movie形式のファイルから、前記エディットリストを抽出する抽出ステップと、
前記抽出ステップの処理により抽出された前記エディットリストに基づいて、前記コンテンツの再生開始時刻が、前記コンテンツのムービータイムスケールの再生開始時刻より遅い場合、前記ムービータイムスケールの再生開始時刻に比べて、前記コンテンツの再生開始時刻と前記ムービータイムスケールの再生開始時刻の差分だけ遅い時刻から、前記コンテンツを再生する再生ステップと
を含む情報処理方法。
11 ファイル生成装置, 14 動画再生端末, 62 エディットリスト生成部, 63 マルチプレクサ63, 81 デマルチプレクサ, 84 再生部

Claims (12)

  1. コンテンツの再生開始時刻が、前記コンテンツのムービータイムスケールの再生開始時刻より遅い場合、前記コンテンツの再生開始位置と、その再生開始位置から再生する前記コンテンツの再生時間を対応付けるエディットリストに、前記コンテンツの再生開始位置として前記コンテンツの先頭位置を登録するとともに、前記コンテンツの再生時間として所定値を登録するエディットリスト生成部と、
    前記エディットリスト生成部により生成された前記エディットリストと、前記コンテンツとを含むMP4のFragmented Movie形式のファイルを生成するファイル生成部と
    を備える情報処理装置。
  2. 前記エディットリスト生成部は、前記コンテンツの再生開始時刻が、前記ムービータイムスケールの再生開始時刻より遅い場合、前記エディットリストに、前記コンテンツの再生開始位置として何も再生されないことを表す情報を登録するとともに、前記コンテンツの再生時間として、前記コンテンツの再生開始時刻と前記ムービータイムスケールの再生開始時刻の差分を登録する
    ように構成された
    請求項1に記載の情報処理装置。
  3. 前記ファイル生成部は、前記エディットリストを前記ファイルのmoovボックスに配置する
    ように構成された
    請求項1に記載の情報処理装置。
  4. 前記所定値は0である
    ように構成された
    請求項1に記載の情報処理装置。
  5. 前記所定値の全てのビットは1である
    ように構成された
    請求項1に記載の情報処理装置。
  6. 情報処理装置が、
    コンテンツの再生開始時刻が、前記コンテンツのムービータイムスケールの再生開始時刻より遅い場合、前記コンテンツの再生開始位置と、その再生開始位置から再生する前記コンテンツの再生時間を対応付けるエディットリストに、前記コンテンツの再生開始位置として前記コンテンツの先頭位置を登録するとともに、前記コンテンツの再生時間として所定値を登録するエディットリスト生成ステップと、
    前記エディットリスト生成ステップの処理により生成された前記エディットリストと、前記コンテンツとを含むMP4のFragmented Movie形式のファイルを生成するファイル生成ステップと
    を含む情報処理方法。
  7. コンテンツの再生開始時刻が、前記コンテンツのムービータイムスケールの再生開始時刻より遅い場合に、前記コンテンツの再生開始位置として前記コンテンツの先頭位置が登録されるとともに、その再生開始位置から再生する前記コンテンツの再生時間として所定値が登録される、前記コンテンツの再生開始位置と前記コンテンツの再生時間を対応付けるエディットリストと、前記コンテンツとを含むMP4のFragmented Movie形式のファイルから、前記エディットリストを抽出する抽出部と、
    前記抽出部により抽出された前記エディットリストに基づいて、前記コンテンツの再生開始時刻が、前記コンテンツのムービータイムスケールの再生開始時刻より遅い場合、前記ムービータイムスケールの再生開始時刻に比べて、前記コンテンツの再生開始時刻と前記ムービータイムスケールの再生開始時刻の差分だけ遅い時刻から、前記コンテンツを再生する再生部と
    を備える情報処理装置。
  8. 前記エディットリストには、前記コンテンツの再生開始時刻が、前記コンテンツのムービータイムスケールの再生開始時刻より遅い場合、前記コンテンツの再生開始位置として何も再生されないことを表す情報が登録されるとともに、前記コンテンツの再生時間として前記差分が登録される
    ように構成された
    請求項7に記載の情報処理装置。
  9. 前記エディットリストは、前記ファイルのmoovボックスに配置される
    ように構成された
    請求項7に記載の情報処理装置。
  10. 前記所定値は0である
    ように構成された
    請求項7に記載の情報処理装置。
  11. 前記所定値の全てのビットは1である
    ように構成された
    請求項7に記載の情報処理装置。
  12. 情報処理装置が、
    コンテンツの再生開始時刻が、前記コンテンツのムービータイムスケールの再生開始時刻より遅い場合に、前記コンテンツの再生開始位置として前記コンテンツの先頭位置が登録されるとともに、その再生開始位置から再生する前記コンテンツの再生時間として所定値が登録される、前記コンテンツの再生開始位置と前記コンテンツの再生時間を対応付けるエディットリストと、前記コンテンツとを含むMP4のFragmented Movie形式のファイルから、前記エディットリストを抽出する抽出ステップと、
    前記抽出ステップの処理により抽出された前記エディットリストに基づいて、前記コンテンツの再生開始時刻が、前記コンテンツのムービータイムスケールの再生開始時刻より遅い場合、前記ムービータイムスケールの再生開始時刻に比べて、前記コンテンツの再生開始時刻と前記ムービータイムスケールの再生開始時刻の差分だけ遅い時刻から、前記コンテンツを再生する再生ステップと
    を含む情報処理方法。
JP2016550108A 2014-09-26 2015-09-14 情報処理装置および情報処理方法 Active JP6624060B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014197017 2014-09-26
JP2014197017 2014-09-26
PCT/JP2015/075949 WO2016047475A1 (ja) 2014-09-26 2015-09-14 情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2016047475A1 true JPWO2016047475A1 (ja) 2017-07-06
JP6624060B2 JP6624060B2 (ja) 2019-12-25

Family

ID=55581002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016550108A Active JP6624060B2 (ja) 2014-09-26 2015-09-14 情報処理装置および情報処理方法

Country Status (12)

Country Link
US (1) US10484725B2 (ja)
EP (1) EP3171606B1 (ja)
JP (1) JP6624060B2 (ja)
KR (1) KR102391755B1 (ja)
CN (1) CN107079178B (ja)
AU (1) AU2015322832B2 (ja)
BR (1) BR112017005325A2 (ja)
CA (1) CA2959704A1 (ja)
MX (2) MX2017003568A (ja)
RU (1) RU2690163C2 (ja)
SG (1) SG11201702127YA (ja)
WO (1) WO2016047475A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110944225B (zh) * 2019-11-20 2022-10-04 武汉长江通信产业集团股份有限公司 一种基于html5的不同帧率音视频的同步方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007243907A (ja) * 2006-02-10 2007-09-20 Sony Corp 記録装置、記録方法、記録方法のプログラム、記録方法のプログラムを記録した記録媒体、再生装置、再生方法、再生方法のプログラム及び再生方法のプログラムを記録した記録媒体
US20080256431A1 (en) * 2007-04-13 2008-10-16 Arno Hornberger Apparatus and Method for Generating a Data File or for Reading a Data File
JP2008252590A (ja) * 2007-03-30 2008-10-16 Toshiba Corp 記録装置及び記録方法
JP2010124395A (ja) * 2008-11-21 2010-06-03 Toshiba Corp データ通信装置及びデータ通信方法
JP2011528868A (ja) * 2008-07-16 2011-11-24 ノキア コーポレイション トラックおよびトラックサブセットグループ化の方法および装置
US20120233345A1 (en) * 2010-09-10 2012-09-13 Nokia Corporation Method and apparatus for adaptive streaming
JP2013115439A (ja) * 2011-11-24 2013-06-10 Sharp Corp 再生装置、再生方法、制御プログラム、および記録媒体

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4691798B2 (ja) * 2001-01-15 2011-06-01 ソニー株式会社 記録装置および記録媒体
US8214655B2 (en) * 2002-03-29 2012-07-03 Kabushiki Kaisha Toshiba Data structure of multimedia file format, encrypting method and device thereof, and decrypting method and device thereof
US20040088310A1 (en) * 2002-10-18 2004-05-06 Hitachi, Ltd. Recording medium, recording apparatus, recording method, reproduction apparatus and reproduction method
JP2007005623A (ja) * 2005-06-24 2007-01-11 Fujifilm Holdings Corp 放射線撮像パネルを構成する光導電層および放射線撮像パネル
JP2007180899A (ja) * 2005-12-28 2007-07-12 Orion Denki Kk コンテンツ受信記録再生装置及びコンテンツ配信システム
US9432433B2 (en) 2006-06-09 2016-08-30 Qualcomm Incorporated Enhanced block-request streaming system using signaling or block creation
US8392174B2 (en) * 2006-08-07 2013-03-05 International Characters, Inc. Method and apparatus for lexical analysis using parallel bit streams
US7711718B2 (en) * 2007-04-03 2010-05-04 Nokia Corporation System and method for using multiple meta boxes in the ISO base media file format
US20080303832A1 (en) * 2007-06-11 2008-12-11 Samsung Electronics Co., Ltd. Method of generating two-dimensional/three-dimensional convertible stereoscopic image bitstream and method and apparatus for displaying the same
KR101507787B1 (ko) * 2008-03-31 2015-04-03 엘지전자 주식회사 단말기 및 이것의 인스턴트 메시징 서비스를 이용한 대화방법
JP2010193209A (ja) 2009-02-18 2010-09-02 Nippon Hoso Kyokai <Nhk> デジタル放送受信機
US9917874B2 (en) * 2009-09-22 2018-03-13 Qualcomm Incorporated Enhanced block-request streaming using block partitioning or request controls for improved client-side handling
KR20120079880A (ko) * 2011-01-06 2012-07-16 삼성전자주식회사 스트리밍 서비스 시스템에서 북마크 생성 장치 및 방법
JP5863254B2 (ja) 2011-02-24 2016-02-16 Necパーソナルコンピュータ株式会社 変換装置、情報配信装置、通信システム、制御方法及びプログラム
US20130170561A1 (en) * 2011-07-05 2013-07-04 Nokia Corporation Method and apparatus for video coding and decoding
US8898717B1 (en) * 2012-01-11 2014-11-25 Cisco Technology, Inc. System and method for obfuscating start-up delay in a linear media service environment
US9426196B2 (en) * 2013-01-04 2016-08-23 Qualcomm Incorporated Live timing for dynamic adaptive streaming over HTTP (DASH)

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007243907A (ja) * 2006-02-10 2007-09-20 Sony Corp 記録装置、記録方法、記録方法のプログラム、記録方法のプログラムを記録した記録媒体、再生装置、再生方法、再生方法のプログラム及び再生方法のプログラムを記録した記録媒体
JP2008252590A (ja) * 2007-03-30 2008-10-16 Toshiba Corp 記録装置及び記録方法
US20080256431A1 (en) * 2007-04-13 2008-10-16 Arno Hornberger Apparatus and Method for Generating a Data File or for Reading a Data File
JP2011528868A (ja) * 2008-07-16 2011-11-24 ノキア コーポレイション トラックおよびトラックサブセットグループ化の方法および装置
JP2010124395A (ja) * 2008-11-21 2010-06-03 Toshiba Corp データ通信装置及びデータ通信方法
US20120233345A1 (en) * 2010-09-10 2012-09-13 Nokia Corporation Method and apparatus for adaptive streaming
JP2013115439A (ja) * 2011-11-24 2013-06-10 Sharp Corp 再生装置、再生方法、制御プログラム、および記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Information technology - Coding of audio-visual objects - Part 12: ISO base media file format", INTERNATIONAL STANDARD ISO/IEC 14496-12 FOURTH EDITION CORRECTED VERSION, JPN6019024089, 15 September 2012 (2012-09-15), pages 12 - 14, ISSN: 0004062299 *

Also Published As

Publication number Publication date
KR20170063549A (ko) 2017-06-08
RU2017108888A3 (ja) 2018-12-06
RU2017108888A (ru) 2018-09-17
EP3171606B1 (en) 2022-03-23
JP6624060B2 (ja) 2019-12-25
CN107079178A (zh) 2017-08-18
CA2959704A1 (en) 2016-03-31
BR112017005325A2 (pt) 2017-12-12
AU2015322832B2 (en) 2019-05-16
US10484725B2 (en) 2019-11-19
EP3171606A1 (en) 2017-05-24
US20170289585A1 (en) 2017-10-05
AU2015322832A1 (en) 2017-03-09
WO2016047475A1 (ja) 2016-03-31
RU2690163C2 (ru) 2019-05-31
CN107079178B (zh) 2020-10-09
SG11201702127YA (en) 2017-04-27
KR102391755B1 (ko) 2022-04-28
EP3171606A4 (en) 2018-03-21
MX2017003568A (es) 2017-07-14
MX2019009900A (es) 2019-10-02

Similar Documents

Publication Publication Date Title
TWI729997B (zh) 傳輸經寫碼音訊資料
US20210326378A1 (en) Information processing apparatus and information processing method
US9954717B2 (en) Dynamic adaptive streaming over hypertext transfer protocol as hybrid multirate media description, delivery, and storage format
KR101786050B1 (ko) 데이터 전송 방법 및 장치
JP7238948B2 (ja) 情報処理装置および情報処理方法
TW201933878A (zh) 處理國際標準化組織基礎媒體檔案格式網頁資源追蹤之動態網頁內容
TW201703537A (zh) 媒體定時的網頁互動
KR102137858B1 (ko) 송신 장치, 송신 방법, 수신 장치, 수신 방법 및 프로그램
WO2004086765A1 (ja) データ送信装置
JP6501127B2 (ja) 情報処理装置および方法
JP6624060B2 (ja) 情報処理装置および情報処理方法
US9843615B2 (en) Signaling and handling of forensic marking for adaptive streaming
KR20080064399A (ko) Mp4 역다중화 장치 및 그의 동작 방법
WO2015105037A1 (ja) ファイル生成方法、ファイル生成装置および記録媒体
KR20130044368A (ko) 멀티미디어 데이터를 연속 재생 및 스트리밍 재생 둘 다의 용도로 사용하기 위한 방법, 시스템 및 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능 기억 매체, 그리고 연속 재생 또는 스트리밍 재생 중 하나에 대한 요청을 서비스하는 방법
KR20120058373A (ko) Svc 서버를 이용한 http 스트리밍 수신 비디오 전송 및 단말 재생 시스템

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180820

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191111

R151 Written notification of patent or utility model registration

Ref document number: 6624060

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151