JP2008199387A - 動画部分配信システム - Google Patents

動画部分配信システム Download PDF

Info

Publication number
JP2008199387A
JP2008199387A JP2007033733A JP2007033733A JP2008199387A JP 2008199387 A JP2008199387 A JP 2008199387A JP 2007033733 A JP2007033733 A JP 2007033733A JP 2007033733 A JP2007033733 A JP 2007033733A JP 2008199387 A JP2008199387 A JP 2008199387A
Authority
JP
Japan
Prior art keywords
moving image
information
data
atom
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007033733A
Other languages
English (en)
Inventor
Takeshi Nagata
健 永田
Masahiko Yamamoto
昌彦 山本
Kenji Matsumoto
松本  健志
Masashi Ozawa
誠志 小澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Software Engineering Co Ltd
Original Assignee
Hitachi Software Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Software Engineering Co Ltd filed Critical Hitachi Software Engineering Co Ltd
Priority to JP2007033733A priority Critical patent/JP2008199387A/ja
Publication of JP2008199387A publication Critical patent/JP2008199387A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】例えば携帯端末ユーザが希望する範囲だけの動画情報をサーバよりダウンロードできるようにすることで、不要な回線使用料金の発生および無線通信ネットワークへの不必要な負荷を軽減することを目的とする。
【解決手段】互いに無線通信を介してデータ通信可能な携帯端末とサーバで構成され、携帯端末でユーザが視聴したい動画の範囲を指定できるようにする。その動画範囲の指定に応じて、サーバでMP4ファイルフォーマットのATOM構造を利用して、動画データから指定された範囲の動画のみを切り出して部分動画データを作成し、その部分動画データをサーバから携帯端末へ送信する。携帯端末は、受信した部分動画データを再生し、ユーザが部分動画を視聴できるようにする。
【選択図】図2

Description

本発明は、例えば無線通信を介して動画データを送配信するシステムに関し、特にサーバから例えば携帯端末へMP4ファイルフォーマット形式の動画の一部分のみの配信を行うようなシステムに関する。
携帯電話やPDA(Personal Digital Assistant)のような携帯端末へ、ユーザが希望する動画像を無線通信を介して配信するサービスが、現在普及している。しかし、従来の技術で配信可能な動画範囲は、動画の最初から最後まで、または最初からユーザが受信を中止した位置までの範囲のみとなっており、ユーザが希望する範囲のみの配信が可能になっていない。
本発明に関連する公知技術文献としては、下記の特許文献1がある。該文献には、利用者が希望するダウンロード条件(時刻、料金等)に応じた配信サービスを受けることができる動画像配信システムが開示されている。
特開2004-080416号
従来の技術では、携帯端末へ無線通信を介してサーバから動画データをダウンロード再生する場合、動画データのすべてをダウンロードした後、あるいは動画データの先頭からダウンロードしつつ、先頭から最後まで、あるいは先頭からユーザが再生を停止したところまで、再生する方式になっている。しかし、この方式では、携帯端末ユーザが希望する以上の動画の情報を提供することになり、このためユーザの携帯端末の契約が従量制課金方式の場合はユーザが期待していない回線使用料金が生じ、また無線通信ネットワークへ必要以上に負荷をかける結果となっている。
上記特許文献1に記載の技術によれば、利用者が希望するダウンロード条件に応じた配信サービスが受けられるが、これはダウンロードする時刻などの条件を指定できるに過ぎないものであり、ユーザが希望する範囲の動画情報のみをダウンロードするものではない。
本発明は、例えば携帯端末ユーザが希望する範囲だけの動画情報をサーバよりダウンロードできるようにすることで、不要な回線使用料金の発生および無線通信ネットワークへの不必要な負荷を軽減することを目的とするものである。
上記の目的を達成するため、本発明は、動画データを配信する機能を備えるサーバと、該サーバと任意の通信手段を使用して接続可能で、かつ動画データの再生機能を備える端末装置とを有する動画部分配信システムであって、前記端末装置は、ユーザが再生を希望する動画データを選択する操作を受け付けて、該選択された動画データを特定する情報を含む選択動画指示情報を前記サーバに送信し、サーバから動画情報データが送信されてきたときには、該動画情報データに含まれる複数の再生開始可能位置情報と総再生時間情報から、ユーザが再生を希望する動画データの部分範囲を指定するための画面を生成して表示し、前記画面でユーザが指定した動画の部分範囲を特定する部分範囲情報をサーバに送信し、サーバから部分動画データが送信されてきたときには該部分動画データを再生するものとし、サーバは、端末装置から選択動画指示情報が送信されてきたときには、選択された動画データから複数の再生開始可能位置情報と総再生時間情報を含む動画情報データを生成して端末装置に送信し、端末装置から部分範囲情報が送信されてきたときには、選択された動画データからその部分範囲情報で指定された範囲の動画データを切り出し、部分動画データを生成し、生成した部分動画データを前記端末装置に送信するものとすることを特徴とするものである。
本発明は、無線通信を介して携帯型の端末に動画データを送配信するシステムに適用すると良い。携帯端末で動画データの配信を受けて再生する場合には、できるだけ不要な回線使用料金の発生および無線通信ネットワークへの不必要な負荷を軽減したいからである。
また、動画データは例えばMP4ファイルフォーマット形式とするのが良い。該フォーマットであれば、サーバは、該フォーマットの動画のATOM情報より、携帯端末側で選択可能な複数の動画の再生開始位置情報と総再生時間情報を簡単に読み取ることができるからである。また指定された範囲の動画の切り出しも、MP4ファイルフォーマット形式動画のATOM情報を利用して簡単に切り出せる。
本発明に係る動画部分配信システムによれば以下のような効果がある。
(1)例えば携帯端末利用者が無線通信などを介して接続されたサーバにある動画の一部分のみ見たい場合に、利用者が好みの動画範囲を選択し、その部分だけを見ることができるようになる。
(2)端末利用者が動画の一部分のデータだけの配信を受けて視聴できるので、利用者の回線使用料を引き下げることができる。
(3)端末利用者が動画の一部分のデータだけ配信を受けて視聴できるので、動画データすべてをダウンロードした場合に比べ、不要な通信回線への負荷を軽減する効果を得られる。
以下、本発明を適用したMP4動画部分配信システムの一実施形態について説明する。
図1は、本発明の実施形態の一例を示すシステム構成図である。本MP4動画部分配信システムは、動画データを受信し再生可能な携帯端末1−1と、この携帯端末1−1へ動画データを配信可能なサーバ1−2とを備える。携帯端末1−1は、無線回線で無線基地局1−3と接続される。この基地局1−3は、公衆回線である通信ネットワーク1−4を介してサーバ1−2と接続される。無線基地局1−3は、携帯端末1−1の無線通信を仲介する手段であり、携帯電話を例にすると、移動電話事業者の基地局に相当する。
サーバ1−2は、複数の動画データを格納した動画データ部1−5、動画データから動画再生開始可能位置等の動画情報を読み出す動画情報読出部1−6、動画データから動画の一部を切り出す動画切り出し部1−7、並びに、携帯端末1−1と無線通信を介してデータの送信および受信を行う送受信部1−8を備える。
サーバ1−2の動画データ部1−5には、MP4フォーマット形式の動画データが複数格納されている。本システムで想定しているMP4フォーマット形式の動画データは、例えば、参考文献1:「ISO/IEC 14496-14 Information technology - Coding of audio-visual objects -Part 14: MP4 File Format」や、参考文献2:「ISO/IEC14496-12 Information technology - Coding of audio-visual objects -Part 12: ISO base media file format」などで規定されている。特に、本実施形態で利用するMP4フォーマット形式の動画のデータ構造(以後、ATOM構造と呼ぶ)は、参考文献2で規定されている。
携帯端末1−1は、動画やユーザ操作用のインタフェース画面を表示する携帯端末画面1−9、サーバ1−2から受信した動画情報を編集する動画情報編集部1−10、動画を再生する動画再生部1−11、動画や情報を画面1−9に表示する画面表示部1−12、および、サーバ1−2と無線通信を介してデータを送受信する送受信部1−13を備える。
図2は、本実施形態のシステムにおける処理シーケンスの例を示す。携帯端末処理シーケンス2−2は、図1の携帯端末1−1の行う処理を示す。サーバ処理シーケンス2−3は、図1のサーバ1−2の行う処理を示す。ここで、携帯端末1−1は、あらかじめサーバ1−2から、サーバ1−2の動画データ部1−5に保持されている複数の動画の識別情報を取得しており、携帯端末ユーザ2−1が視聴を希望する動画を携帯端末1−1から選択可能になっているものとする。
図2のシーケンスは、携帯端末1−1を使用する携帯端末ユーザ2−1が、視聴を希望する動画データ部1−5内の動画に対し動画選択動作AC1を行った契機から処理が開始する。携帯端末処理2−2は、この動画選択動作AC1を受けると、サーバ1−2へ携帯端末ユーザ2−1が選択した動画の識別情報を持つ選択動画指示イベントEV1を送信する。
なお、図2の携帯端末処理シーケンス2−2とサーバ処理シーケンス2−3とは、無線通信を介してデータ送受信を行っている。実際には、携帯端末1−1とサーバ1−2の各送受信部1−8,1−13により各処理シーケンス2−2,2−3の間のデータ送受信を実現しているが、それらの動作については表記を省略し、本システムの主要部分だけを示している。
携帯端末処理2−2より送信された選択動画送信イベントEV1をサーバ1−2の送受信部1−8が受け取ると、サーバ処理2−3は、動画情報読出処理2−4を開始する。動画情報読出処理2−4は、動画のATOM情報から総再生時間と再生開始可能な位置情報を読出し、それらのデータを編集して図6の動画情報データを生成し、これを動画開始可能位置情報送信イベントEV2として携帯端末1−1へ送信する。
動画開始可能位置情報送信イベントEV2を受信した携帯端末処理2−2は、動画情報表示処理2−5を開始する。動画情報表示処理2−5は、サーバ1−2より受信した動画情報データ(図6)を元に、携帯端末ユーザ2−1が動画の再生開始位置から終了位置までを選択できるようにするための画面データを生成し、それを携帯端末の画面1−9へ表示する。携帯端末ユーザ2−1が、動画情報表示処理2−5によって表示された画面で、動画の再生開始位置から終了位置までを選択すると、携帯端末処理2−2は、ユーザ2−1が選択した動画の範囲情報に基づいて図6の動画範囲情報データを生成し、その動画範囲情報データを持った動画範囲情報送信イベントEV3をサーバ1−2へ送信する。
サーバ処理2−3は、動画範囲情報送信イベントEV3を受信すると、動画切り出し処理2−6を開始する。動画切り出し処理2−6は、携帯端末ユーザ2−1が指定した動画の再生開始位置と終了位置の範囲の動画データを切り出し、更にこの切り出した動画データの情報を持つATOM情報を擬似的ヘッダ11−1(図11で詳述する)として作成し、作成した擬似ヘッダ11−1と切り出した動画データ12−1とを合わせた部分動画データを、部分動画送信イベントEV4として、携帯端末1−1へ送信する。
部分動画送信イベントEV4を受信した携帯端末処理2−2は、受信した部分動画データを動画再生部1−11にて動画再生処理2−7を行う。これにより、携帯端末ユーザ2−1は、指定した範囲の部分動画を視聴することができる。
図3の動画情報読出処理フロー3−1は、図2のサーバ処理2−3の動画情報読出処理2−4の詳細な処理フローである。動画情報読出処理は、動画情報読出要求待ち3−2、動画ATOM情報読出3−3、送信情報作成3−4、およびサーバ送信部への通知3−5の各処理で構成されている。動画情報読出要求待ち処理3−2は、携帯端末処理2−2からの選択動画指示イベントEV1を待つ処理である。サーバ1−2の送受信部1−8が選択動画指示イベントEV1を受信すると、この動画情報読出要求待ち処理3−2の待ち状態を解除し、以降の処理3−3,3−4,3−5が動作する仕組みとなっている。
動画ATOM情報読出処理3−3では、まず動画データより動画の開始可能位置および総再生時間を取得して、図6の動画情報データを作成する。
図7に、本実施形態で前提とする動画データのATOM構造を示す。ここでは、Video(動画像)のみを持ち、Audio(音声)を持たない単純なMP4動画を仮定する。図7の7−1はMP4動画データのftyp atom部であり、ここに動画のファイルタイプ情報が格納されている。図7の7−2はMP4動画データのmoov atom部であり、この中に各種の動画情報が格納されている。図8の8−1に、moov atom部7−2の詳細な構造を示す。図7の7−3はMP4動画データのmdat(Video) atom部7−3であり、ここにVideoデータが格納されている。図9の9−1に、mdat(Video) atom部7−3の詳細な構造を示す。以後、ftyp atom部7−1とmoov atom部7−2とを合わせた部分を動画のヘッダと呼称する。
図8の8−1は、図7のmoov atom部7−2の詳細構造を表している。moov atom部8−1には、動画に関する情報8−2〜8−16が格納されている。8−2はmvhd atom部であり、動画のトラック毎に存在し、ここにはトラック内の共通情報が格納されている。この例ではVideoトラックのみの動画を仮定しているので、mvhd atom部8−2には、Videoトラックのサンプリング単位および総再生時間が格納されている。8−3はtrak atom部であり、Videoトラック情報が格納されている。本実施形態でのVideoトラック情報は、情報8−4〜8−16で構成されている。8−4はtkhd atom部であり、トラック内の共通情報として、トラック情報(この例ではVideo情報)の識別子(トラックID)、再生時間、および再生サイズが格納されている。8−5は、mdia atom部であり、動画メディア情報が格納されている。本実施形態での動画メディア情報は、情報8−6〜8−16で構成されている。8−6は、mdhd atom部であり、メディアの共通情報として、メディア(この例ではVideoメディア)のサンプリング単位および再生時間が格納されている。8−7は、hdlr atom部であり、メディアの取り扱いタイプが格納されている。本実施形態では、「Videoタイプ」を意味する定義情報が格納されることになる。
8−8は、minf atom部であり、メディア情報格納部である。本実施形態でのメディア情報格納部は、情報8−9〜8−16で構成される。8−9はdinf atom部であり、メディアデータ情報格納部である。ここには、メディアデータ(この例ではVideoデータ)の位置情報(URL情報等)が格納されている。8−10はstbl atom部であり、メディアを構成する個々のサンプルデータの時間情報および配置情報が格納されている。本実施形態でのstbl atom部は、情報8−11〜8−16で構成されている。ここでサンプルデータとは、メディアデータを構成するデータの一単位を意味し、Videoの場合、ひとつのフレームデータにあたる。以降、本実施形態では、サンプルとVideoフレーム(あるいは単なるフレーム)とは同じ意味を表す。
8−11は、stsd atom部であり、サンプルデータの共通情報として、フォーマットタイプ、クオリティ、解像度、およびエンコーダ名称等が格納されている。8−12はstts atom部であり、サンプル時間情報格納部である。サンプル時間情報格納部には、サンプルデータの時間情報として、総サンプル数および1サンプルの再生時間が格納されている。8−13はstsc atom部であり、チャンク情報として、総チャンク数と全チャンクのチャンク番号、および各チャンクのサンプル数等が格納されている。ここで、チャンクとは、複数のサンプルを一まとめにしたブロックを意味する。8−14はstsz atom部であり、サンプルサイズ情報として、総サンプル数および各サンプルのサイズが格納されている。8−15はstco atom部であり、チャンクのオフセット情報として、各チャンクのファイルの先頭からの絶対アドレスを表すオフセット情報、および総チャンク数が格納されている。ここで、絶対アドレスとは、ファイル先頭をゼロとした場合のファイル先頭からの相対位置情報を意味する。8−16はstss atom部であり、キーフレーム情報として、Videoメディアの全キーフレームの識別番号が格納されている。stss atom部は、Videoトラックの場合のみ存在する。ここで、キーフレームとは、フレームの適当な間隔毎にある非圧縮データのフレームを意味する。また、フレームの識別番号とは、先頭フレームを1としたフレーム毎の昇順の番号を意味する。
図9のmdat(Video)構造9−1は、図7のmdat(Video) atom7−3の詳細構造を表している。mdat(Video) atom9−1には、動画のメディアデータが格納され、本実施形態ではこの格納データはVideoデータのみである。mdat(Video)9−1には、チャンク(例えば、9−2,9−3)という単位でデータが格納されており、更にチャンクは複数のサンプル(例えば、9−4)という一定の再生時間を持ったデータで構成されている。図9の例では、チャンク9−2,9−3は、それぞれ16個のサンプルデータで構成されている。また、図9では、チャンク9−2,9−3の後にも複数のチャンクデータが続いているとする。ここで、Videoデータの場合、1サンプルはVideo映像の1フレームに当たるので、以後サンプルをフレームと呼称する。また、フレームにはデータが圧縮されずに格納されているものがあり、それをキーフレームと呼ぶ。図9の例では、9−4と9−5のフレームがキーフレームである。
図3に戻って、動画ATOM情報読出処理3−3では、以下の手順によって総再生時間および各開始可能時刻を得る。まず、moov atom7−2のtkhd atom8−4から総再生時間を得る。また、stss atom部8−16からVideoフレームの中のキーフレームの識別番号を、stts atom部8−12から1Videoフレームの再生時間を、それぞれ取得し、これら2つの値から、例えば(識別番号−1)×(1Videoフレームの再生時間)の計算式によって、各キーフレームの開始可能時刻を得ることができる。ここで、開始可能時刻とは、動画の先頭の開始時刻を0とした場合に、先頭から対応するキーフレームまでの再生にかかる時間を意味する。
図3の送信情報作成処理3−4では、上記3−3の手順によって得た総再生時間と各開始可能時刻を、図6の総再生時間6−2および開始可能時刻6−3に設定(求めた各キーフレームの開始可能時刻を図6の開始可能時刻1,2,…に順に設定する)して動画情報データを作成する。ここで、動画情報データのヘッダ6−1は、宛先IPアドレス等を含む既存の無線通信手段(例えば、cdmaOne、W−CDMA、CDMA2000などの規格で規定されている通信手段)における通信データのヘッダ情報を想定している。このヘッダ6−1の情報を用いて、携帯端末1−1とサーバ1−2との間の無線通信を正常に行うことができる。
図4の動画情報表示処理フロー4−1は、図2の携帯端末処理2−2の動画情報表示処理2−5の詳細な処理フローである。動画情報表示処理は、動画情報表示要求待ち処理4−2、動画情報編集処理4−3、および携帯端末画面表示処理4−4の各処理で構成されている。動画情報表示要求待ち処理4−2は、サーバ処理2−3からの動画開始可能位置情報送信イベントEV2を待つ処理である。携帯端末1−1の送受信部1−13が動画開始可能位置情報送信イベントEV2を受信すると、この動画情報表示要求待ち処理4−2の待ち状態を解除し、以降の処理4−3および4−4が動作する仕組みとなっている。
動画情報編集処理4−3では、受信した動画開始可能位置情報送信イベントEV2に含まれる図6の動画情報データの開始可能時刻から携帯端末ユーザ2−1が選択しやすい時刻を抽出する。この抽出は、開始可能時刻が適当な時間間隔毎のキーフレーム毎にあるため、動画ファイルによっては数ミリ秒間隔に開始可能時刻が有る場合があり、このような短い時間間隔の開始時間の選択肢は携帯端末ユーザ2−1にとっては必要でないと考えられるので、そのような場合に、例えば1秒またはそれ以上の間隔を空けて開始可能時刻を抽出する処理を想定している。携帯端末画面表示処理4−4では、動画情報編集処理4−3で抽出された動画の開始可能時刻を携帯端末1−1の画面1−9へ表示し、携帯端末ユーザ2−1が携帯端末を操作することで、希望する動画の再生開始時刻と再生時間を選択できるようにしている。
図2に戻って、携帯端末ユーザ2−1が希望する再生開始時刻と再生時間を選択(図2の動画範囲選択AC2)すると、携帯端末処理2−2は、選択された再生時間と再生開始時刻を図6の動画範囲情報データの再生時間6−5および開始時刻6−6として設定し、この動画範囲情報データを動画範囲情報送信イベントEV3としてサーバ処理2−3へ送信する。ここで図6の動画範囲情報データのヘッダ6−4は、動画情報データのヘッダ6−1と同じく、宛先IPアドレス等を含む既存の無線通信手段(例えば、cdmaOne、W−CDMA、CDMA2000などの規格で規定されている通信手段)における通信データのヘッダ情報を想定している。このヘッダ6−4の情報を用いて、携帯端末1−1とサーバ1−2との間の無線通信を正常に行うことができる。また、ユーザにより指示された再生時間が開始時刻から起算すると動画の総再生時間6−2を超えていた場合(計算式で表現すると、「開始時刻+再生時間」≧「総再生時間6−2」となる場合)は、動画の最後を超える再生時間の指定になるため、この場合は開始時刻から動画の最後までを再生するものとし、動画範囲情報データの再生時間6−5には、動画の最後まで再生する事を意味する値(例えば「再生時間6−5」=−1)を格納する。
図5の動画切り出し処理フロー5−1は、図2のサーバ処理2−3の動画切り出し処理2−6の詳細な処理フローである。動画切り出し処理は、動画切り出し要求待ち処理5−2、動画切り出し処理5−3、擬似ヘッダ領域確保処理5−4、擬似ヘッダ作成処理5−5、および擬似ヘッダと切出し動画の送信処理5−6の各処理で構成されており、この順番で処理動作するようになっている。
動画切り出し要求待ち処理5−2は、携帯端末処理2−2からの動画範囲情報送信イベントEV3を待つ処理である。サーバ1−2の送受信部1−8が動画範囲情報送信イベントEV3を受信すると、この動画切り出し要求待ち処理5−2の待ち状態を解除し、以降の動画切り出し処理5−3、擬似ヘッダ領域確保処理5−4、擬似ヘッダ作成処理5−5、および擬似ヘッダと切出動画の送信処理5−6が動作する仕組みとなっている。
動画切り出し処理5−3は、受信した動画範囲情報送信イベントEV3に含まれる図6の動画範囲情報データの再生時間6−5と開始時刻6−6を使用して、携帯端末1−1へ配信する動画データの先頭フレームと最終フレームを選択する処理である。
開始時刻6−6から部分動画の先頭となるフレームを選択する方法例は、次のようになる。開始時刻6−6の値を、stts atom部8−12の1フレームの再生時間の値で割った商がstss atom部8−16に格納されているキーフレームの識別番号に一致すれば、その識別子のキーフレームが部分動画の先頭フレームとなる。
また、再生時間6−5から部分動画の最終フレームを選択する方法例は、次のようになる。開始時刻6−6に再生時間6−5を加えた時間をstts atom部8−12の1フレームの再生時間の値で割った商が最終フレームの識別番号になる。
識別番号の判明したフレーム(サンプル)の動画ファイル先頭からの位置の算出方法例は、次のようになる。位置を求めたいフレームをFnとする。stsc atom部8−13には各チャンクのフレーム数が格納されているので、先頭のチャンクのフレーム数に続くチャンクのフレーム数をチャンク番号昇順に加算していき、加算した値が、Fnの識別番号の値を超えた場合、そのときに加算したチャンク内にFnが存在している。このFnを含むチャンクをCnとする。Cnまでの位置は、stco atom部8−15に格納されているチャンクのオフセット情報から得られる。またCnの先頭フレームからFnまでのオフセットは、stsz atom部8−14に各フレームのサイズがフレームの識別子順に格納されているので、このstsz atom情報より、Cnの先頭のフレームからFnのひとつ前のフレームまでの各フレームサイズを識別子を対応させることで取得し、取得したサイズを全て加算すれば求まる。以上から、Cnのオフセットと、Cn先頭フレームからFnまでのオフセットを足せば、動画ファイル先頭からのFnの位置が算出できる。この方法で部分動画の先頭フレームは算出できる。また最終フレームの位置も同様にして算出できる。
図10は、図5の動画切り出し処理5−3による動画データの切り出しの様子を示す。この動画データ10−1は、図9のmdata(Video) atomと同じVideoデータを表している。また、10−2〜10−3までの網掛けしてあるフレームは、上記で説明した図5の動画切り出し処理5−3の方法で切り出す先頭フレームから最終フレームまでのフレームを示している。図10の例は、Sample19のキーフレームから2つのチャンクにまたがってサンプルデータが切り出される事を表している。また、本MP4動画部分配信システムでは、元の動画データ(Videoデータ)から、この切り出される動画データの位置情報を使って切り出した動画データを配信するので、元動画とは別にVideoデータのメモリ領域をサーバ上に確保することはない。新たにサーバのメモリ上に確保する領域は、以下に説明する擬似ヘッダ11−1のみである。
図5の擬似ヘッダ領域確保処理5−4は、図10の網掛けフレーム10−2〜10−3で表される切り出し動画のみをVideoデータとする動画ファイルを携帯端末へ配信するため、切り出したVideoフレームのみをデータとする動画ファイルのヘッダ部分を元の動画とは別に作成する目的で、動画のヘッダ領域をサーバのメモリ上に確保する処理である。以後、このヘッダを擬似ヘッダと呼称する。擬似ヘッダのサイズは、図7のもともとの動画のftyp atom部7−1のサイズと、図12の切り出した動画である擬似動画データの情報を収めるmoov atom部11−1のサイズとを合わせたサイズとなる。ここで、部分動画の擬似ヘッダ11−1のmoov atom部11−3と元動画のmoov atom部8−1とでサイズが変わるatomは、チャンク毎のフレーム数を持つstsc atom部11−8、フレーム毎のサイズを持つstsz atom部11−9、チャンク毎のオフセット情報を持つstco atom部11−10、および、Videoデータが持つ全キーフレームの識別子を格納しているstss atom部11−11の4箇所である。擬似動画データ12−1のチャンク数2、フレーム数17に合わせてatomに格納されるデータ数が決まるため、これら4つのatomによってmoov atom部のサイズが変わる。図5の擬似ヘッダ領域確保処理5−4では、このヘッダサイズの変更を考慮して領域サイズを計算し、領域を確保する。
図5の擬似ヘッダ作成処理5−5は、擬似ヘッダ領域確保処理5−4で確保された擬似ヘッダデータの領域に、図10の切り出し動画データ(10−2から10−3までのフレーム)の情報を埋め込む処理である。但し、本実施形態のシステムの部分動画の配信は、図10の切り出された網掛け部分のmdata(Video) atom構造のまま配信せず、図12のように切り出した動画だけを持つ動画としてmdata(Video) atom構造を再構成して配信する。これにより、携帯端末処理2−2側には、切り出した部分動画のみの動画ファイルが配信されているようにしている。
図12の擬似動画データ構造12−1は、擬似ヘッダ作成処理5−5で擬似ヘッダを作成する際に想定する動画データ構造である。この擬似構造に従って、stsc atom部11−8の総チャンク数、各チャンクのチャンク番号、各チャンクのサンプル数、またstsc atom部11−10の各チャンクの総チャンク数、および各チャンクのファイル先頭からのオフセットを算出し、擬似ヘッダ11−1へ格納する。
図11は、擬似ヘッダ11−1の構造詳細を示す。11−2は擬似ヘッダのftyp atom部であり、部分動画(擬似動画データ)12−1のファイルタイプ情報が格納されており、図7のMP4動画データのftyp atom部7−1と同じ内容になる。11−3は擬似ヘッダのmoov atom部であり、部分動画10−2〜10−3の動画情報が格納されている。擬似ヘッダを構成するatomの種類は図8のmoov atom部8−1と全く同じであるが、情報が異なるatomがある。図11では、元の動画データである図7のmoov atom部7−2(図8)と異なる情報を持つatomは網掛け太字にしてあり、網掛け太字以外のatomは図8の元の動画のatomと同じ情報が格納されている。
11−4は擬似ヘッダのmvhd atom部であり、擬似動画データ12−1のトラック共通情報が格納されている。図8のmvhd atom部8−2とは総再生時間が異なり、擬似ヘッダのmvhd atom部11−4の総再生時間には、擬似動画データ12−1の総再生時間が格納されている。ここで、擬似動画データ12−1の総再生時間は、擬似動画データ12−1に含まれるフレーム数に、元の動画のstts atom部8−12の1フレームの再生時間を掛けた値(フレーム数×1フレームの再生時間)である。11−5は擬似ヘッダのtkhd atom部であり、擬似動画データ12−1のトラック内の共通情報が格納されている。図8のtkhd atom部8−4とは再生時間が異なり、擬似ヘッダのtkhd atom部11−5には、擬似動画データ12−1の再生時間が格納されている。11−6は擬似ヘッダのmdhd atom部であり、擬似動画データ12−1のメディアの共通情報が格納されている。図8のmdhd atom部8−6とは再生時間が異なり、擬似ヘッダのmdhd atom部11−6には、擬似動画データ12−1の再生時間が格納されている。
11−7は擬似ヘッダのstts atom部であり、擬似動画データ12−1のサンプル時間情報が格納されている。図8のstts atom部8−12とは総サンプル数が異なり、擬似ヘッダのstts atom部11−7には、擬似動画データ12−1の総サンプル数が格納されている。11−8は擬似ヘッダのstsc atom部であり、擬似動画データ12−1のチャンク情報格納部が格納されている。図8のstts atom部8−13とは総チャンク数、全チャンクのチャンク番号、および各チャンクのサンプル数が異なり、擬似ヘッダのstsc atom部11−8には、擬似動画データ12−1のサンプルに従って図5の擬似ヘッダ作成処理5−5にて再設定された全チャンク数、全チャンクのチャンク番号、および各チャンクのサンプル数が格納されている。図12の例では、全チャンクはChunk1’(12−2)とChunk2’(12−5)であり、それぞれチャンク番号は1,2であり、各チャンクのサンプル数は、Chunk1’が16、Chunk2’が1である。11−9は擬似ヘッダのstsz atom部であり、擬似動画データ12−1のサンプルサイズ情報が格納されている。図8のstsz atom部8−14とは情報が異なり、擬似ヘッダのstsz atom部11−9には、擬似動画データ12−1の各サンプルのサイズの情報が格納されている。
11−10は擬似ヘッダのstco atom部であり、擬似動画データ12−1の各チャンクのオフセット情報が格納されている。図8のstco atom部8−15とは異なり、擬似ヘッダのstco atom部11−10には、擬似動画データ12−1の総チャンク数、および各チャンクのファイル先頭からのオフセット情報が格納されている。ここで、各チャンクのファイル先頭からのオフセット情報は、次のようにして求める。Chunk1’の場合、Chunk1’は擬似ヘッダの次のatomになるため、Chunk1’のオフセットは図5の擬似ヘッダ領域確保処理5−4で求めた擬似ヘッダサイズに等しくなる。また、Chunk2’のオフセットは、Chunk1’に含まれる全フレームのサイズをstsz atom部11−9から取得し、それら全てを加算した値をChunk1’のオフセットに加えれば求まる。11−11は擬似ヘッダのstss atom部であり、部分動画10−2〜10−3のキーフレーム情報が格納されている。図8のstss atom部8−16とは情報が異なり、擬似ヘッダのstss atom部11−11には、図12のVideoフレームに含まれるキーフレーム番号が格納されている。この例では、図12のSample1’(12−4)がキーフレームとなり、擬似ヘッダのstss atom部11−11にはこのキーフレームの識別番号が格納される。
以上の方法で擬似ヘッダ11−1を作成し、擬似動画データ12−1と合わせて部分動画として、携帯端末1−1へ配信する。
図5の擬似ヘッダと切出動画の送信処理5−6は、動画切り出し処理5−3で切り出した擬似動画データ12−1と擬似ヘッダ作成処理5−5で作成した擬似ヘッダ11−1とを合わせて、サーバ1−2の送受信部1−8から部分動画送信イベントEV4として携帯端末処理2−2へ送信する処理である。この部分動画送信イベントEV4を、図2の携帯端末1−1の送受信部1−13が受信すると、携帯端末処理2−2の動画再生処理2−7が動作する。これにより、携帯端末1−1の動画再生部1−11が部分動画を再生して、携帯端末1−1の画面1−9から、携帯端末ユーザ2−1が指定した範囲の部分動画を視聴できる。
以上は図7に示されるVideoデータのみのMP4フォーマット動画の動画部分配信方法を説明したが、Videoデータの他にAudioデータがあるMP4フォーマット動画の場合の動画部分配信方法について以下に説明する。
図13はVideoデータとAudioデータ両方を含むMP4フォーマット動画のATOM構造例を示している。但し、動画の総再生時間はVideoデータの再生時間と同じとする。図13と図7の構成内容の相違点はmoov atom部13-2の内容と、Audio(音声)データに対応するmdata(Audio) atom部13-4が存在する事である。他のftyp atom部13-1とmdata(Video) atom部13-3の構成は、それぞれ図7、図9と同様である。図13のmoov atom部13-2と図7のmoov atom部7-2の間の相違点の詳細は図14で説明する。mdata(Audio) atom部13-4は、図9で示されるVideoデータのmdata(Video) atom部9-1と同様で、複数のチャンクを持ち、そのチャンク毎に複数の音声のサンプルデータを持つ構造となっている。
図14はmoov atom部13-2の詳細構造を示している。mvhd atom部14-2とVideo(動画像)データの情報を収めたtrak(Video) atom部14-3の構成内容は、それぞれ図8のmvhd atom部8-2とtrak atom部8-3と同様である。trak(Audio) atom部14-4は、mdata(Audio) atom部13-4のAudio(音声)データの情報を格納しており、Videoデータmdata(Video) atom部7-3の情報を収めたtrak atom部8-3との相違点は、キーフレームの識別子を格納しているstss atom部8-16が無い事である。それ以外のtrak(Audio) atom部14-4の構成はtrak atom部8-3と同様である。
Video/Audioデータ両方を含む場合と、Videoデータのみの場合のそれぞれのMP4フォーマット動画の部分配信処理方法の相違点は、図5の動画切り出し処理5-3、擬似ヘッダ領域確保処理5-4、及び擬似ヘッダ作成処理5-5の3つのみにある。以下この相違点を説明する。
図5の動画切り出し処理5-3での相違点は、Videoデータに対して切り出し処理を行った後に、Audioデータに対し、開始時間6-6に対応するAudio開始サンプルデータと、開始時間6-6と再生時間6-5を加えた終了時間に対応するAudio最終サンプルデータをmdata(Audio) atom部13-4から求める処理が追加される事である。この追加される処理方法は次の様になる。開始時間6-6と終了時間の値を、stts atom部14-13内の1サンプルデータの再生時間でそれぞれ割り、その2つの商を、Audio開始サンプルデータの識別番号とAudio最終サンプルデータの識別番号に対応させればよい。この2つのサンプルデータで挟まれ、かつ2つのサンプルデータを含むAudioサンプルデータが、部分動画の切り出しAudioデータとなる。また、終了時間がAudioデータの再生時間を超える場合は最後のAudioサンプルデータをAudio最終サンプルデータとすればよい。
図5の擬似ヘッダ領域確保処理5-4での相違点は、図11の擬似ヘッダのサイズを求めた後に、上記で切り出したAudioサンプルデータの情報を持った擬似trak(Audio) atom部のサイズを算出し、それを図11の擬似ヘッダのサイズに追加する事である。追加した合計サイズを、擬似ヘッダの領域サイズとして確保する事になる。切り出したAudioサンプルデータの情報を持ったtrak(Audio) atom部のサイズの求め方は、Audioデータの場合、trak(Audio) atom部14-4にstss atom部がない事を考慮する以外は、図5の擬似ヘッダ領域確保処理5-4でのtrak(Video) atom部のサイズを求める方法と同様である。
図5の擬似ヘッダ作成処理5-5での相違点は、図11の擬似ヘッダを作成した後に、切り出したAudioサンプルデータから擬似trak(Audio) atom部を作成し、図11の擬似ヘッダデータに追加する事である。切り出したAudioサンプルデータの擬似trak(Audio) atom部の作成方法は、Audioデータの場合、trak(Audio) atom部14-4にstss atom部がない事を考慮する以外は、図5の擬似ヘッダ作成処理5-5で説明した方法と同様である。
以上の3つの処理を行えば、他の処理についてはVideoデータのみのMP4フォーマット動画の部分動画配信と同様に処理を行う事によって、Video/Audioデータ両方を持つMP4フォーマット動画の部分動画配信を行うことができる。
本システムの実施形態例を示すシステム構成図である。 本実施形態のシステムにおける処理シーケンス図である。 サーバが実行する動画情報読出処理のフローチャートである。 携帯端末が実行する動画情報表示処理のフローチャートである。 サーバが実行する動画切出し処理のフローチャートである。 動画開始可能位置情報送信イベントで送信される動画情報データの構成例と動画範囲情報送信イベントで送信される動画範囲情報データの構成例を示す図である。 MP4フォーマット動画のATOM構造例を示す図である。 MP4フォーマット動画のmoov atom部の構造例を示す図である。 MP4フォーマット動画のmdat(Video) atom部の構造例を示す図である。 動画切り出し処理で切り出された動画データ(Videoフレーム)部分を示す図である。 擬似ヘッダ作成処理で作成される擬似ヘッダの構成を示す図である。 携帯端末へ配信する部分動画の擬似的な動画データ構造を示す図である。 Video/Audioデータ両方を含むMP4フォーマット動画のATOM構造例を示す図である。 Video/Audioデータ両方を含むMP4フォーマット動画のmoov atom部の構造例を示す図である。
符号の説明
1−1…携帯端末機器、1−2…サーバ、1−3…無線基地局、1−4…通信ネットワーク、1−5…動画データ部、1−6…動画情報読出部、1−7…動画切り出し部、1−8…サーバ送受信部、1−9…携帯端末の画面、1−10…動画編集部、1−11…動画再生部、1−12…画面表示部、1−13…携帯端末送受信部、2−1…携帯端末ユーザ、2−2…携帯端末処理、2−3…サーバ処理、2−4…動画情報読出処理、2−5…動画切り出し処理、2−6…動画情報表示処理、2−7…動画再生処理、AC1…携帯端末ユーザから携帯端末への動画選択動作、AC2…携帯端末ユーザから携帯端末への動画範囲選択動作、EV1…携帯端末からサーバへの選択動画指示イベント、EV2…サーバから携帯端末への動画開始可能位置情報送信イベント、EV3…携帯端末からサーバへの動画範囲情報送信イベント、EV4…サーバから携帯端末への部分動画送信イベント。

Claims (1)

  1. 動画データを配信する機能を備えるサーバと、該サーバと任意の通信手段を使用して接続可能で、かつ動画データの再生機能を備える端末装置とを有する動画部分配信システムであって、
    前記端末装置は、
    ユーザが再生を希望する動画データを選択する操作を受け付け、選択された動画データを特定する情報を含む選択動画指示情報を前記サーバに送信する手段と、
    前記サーバから送信される動画情報データを受信し、該動画情報データに含まれる複数の再生開始可能位置情報と総再生時間情報から、ユーザが再生を希望する動画データの部分範囲を指定するための画面を生成して表示する手段と、
    前記画面でユーザが指定した動画の部分範囲を特定する部分範囲情報を前記サーバに送信する手段と、
    前記サーバから送信される部分動画データを再生する手段と
    を備え、
    前記サーバは、
    前記端末装置から送信される選択動画指示情報を受信し、選択された動画データから複数の再生開始可能位置情報と総再生時間情報を含む動画情報データを生成し、前記端末装置に送信する手段と、
    前記端末装置から送信される部分範囲情報を受信し、選択された動画データからその部分範囲情報で指定された範囲の動画データを切り出し、部分動画データを生成する手段と、
    生成した部分動画データを前記端末装置に送信する手段と
    を備えることを特徴とする動画部分配信システム。
JP2007033733A 2007-02-14 2007-02-14 動画部分配信システム Pending JP2008199387A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007033733A JP2008199387A (ja) 2007-02-14 2007-02-14 動画部分配信システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007033733A JP2008199387A (ja) 2007-02-14 2007-02-14 動画部分配信システム

Publications (1)

Publication Number Publication Date
JP2008199387A true JP2008199387A (ja) 2008-08-28

Family

ID=39757934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007033733A Pending JP2008199387A (ja) 2007-02-14 2007-02-14 動画部分配信システム

Country Status (1)

Country Link
JP (1) JP2008199387A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100984521B1 (ko) 2008-10-16 2010-10-01 주식회사 케이티 동영상 컨텐츠 서비스를 제공하기 위한 시스템 및 그 방법
WO2015020069A1 (ja) * 2013-08-08 2015-02-12 国立大学法人電気通信大学 データ処理装置、データ処理方法、プログラム、記録媒体及びデータ処理システム
JP2021508429A (ja) * 2018-05-29 2021-03-04 北京字節跳動網絡技術有限公司Beijing Bytedance Network Technology Co., Ltd. メディアファイル変換方法、装置及び記憶媒体
JP2021508428A (ja) * 2018-05-29 2021-03-04 北京字節跳動網絡技術有限公司Beijing Bytedance Network Technology Co., Ltd. ウェブページに基づくメディアファイルの再生方法、装置及び記憶媒体

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100984521B1 (ko) 2008-10-16 2010-10-01 주식회사 케이티 동영상 컨텐츠 서비스를 제공하기 위한 시스템 및 그 방법
WO2015020069A1 (ja) * 2013-08-08 2015-02-12 国立大学法人電気通信大学 データ処理装置、データ処理方法、プログラム、記録媒体及びデータ処理システム
JPWO2015020069A1 (ja) * 2013-08-08 2017-03-02 国立大学法人電気通信大学 データ処理装置、データ処理方法、プログラム、記録媒体及びデータ処理システム
US10104142B2 (en) 2013-08-08 2018-10-16 The University Of Electro-Communications Data processing device, data processing method, program, recording medium, and data processing system
JP2021508429A (ja) * 2018-05-29 2021-03-04 北京字節跳動網絡技術有限公司Beijing Bytedance Network Technology Co., Ltd. メディアファイル変換方法、装置及び記憶媒体
JP2021508428A (ja) * 2018-05-29 2021-03-04 北京字節跳動網絡技術有限公司Beijing Bytedance Network Technology Co., Ltd. ウェブページに基づくメディアファイルの再生方法、装置及び記憶媒体
US11178452B2 (en) 2018-05-29 2021-11-16 Beijing Bytedance Network Technology Co., Ltd. Playing method, device and storage medium of webpage-based media file
JP7068489B2 (ja) 2018-05-29 2022-05-16 北京字節跳動網絡技術有限公司 メディアファイル変換方法、装置及び記憶媒体
JP7072668B2 (ja) 2018-05-29 2022-05-20 北京字節跳動網絡技術有限公司 ウェブページに基づくメディアファイルの再生方法、装置及び記憶媒体

Similar Documents

Publication Publication Date Title
TWI230553B (en) Video information recording apparatus and method, video information reproducing apparatus and method, recording medium, and program
KR100806467B1 (ko) 사용자 특정 정보를 이용한 미디어 콘텐츠 애노테이팅
US7925897B2 (en) System, method and apparatus for controlling the dissemination of digital works
KR101733793B1 (ko) 데이터 관리 방법 및 장치
KR101516325B1 (ko) Iso 기반 미디어 파일 포맷으로 mpeg-2전송스트림을 저장 및 재생하는 방법 및 장치
KR20100000335A (ko) 유저 인터페이스, 컨텐츠 내비게이션 방법 및 컨텐츠 재생장치와 저장 매체
JP2011072023A (ja) マルチメディアコンテンツの製作伝送方法及びそのシステム
US20140050457A1 (en) Information processing system, recording/playback apparatus, playback terminal, information processing method, and program
TW200934218A (en) Conveying auxiliary information in a multiplexed stream
CN100563319C (zh) 信息处理设备和方法
US20050025460A1 (en) Information-processing apparatus, information-processing method, program-recording medium, and program
JP2008199387A (ja) 動画部分配信システム
CN107925838A (zh) 信息处理装置、信息处理方法和程序
US20110069934A1 (en) Apparatus and method for providing object based audio file, and apparatus and method for playing back object based audio file
KR100986921B1 (ko) 시청 장치 및 콘텐츠 처리 방법
JP3976779B1 (ja) 音楽データに文字データを埋め込んだ複合音響信号を再生する文字データ再生装置
JP4436617B2 (ja) 逆多重化装置
US8819551B2 (en) Display device and method, and program
US8843961B2 (en) Multiple resolution audio and video systems, methods of production, delivery and uses thereof
EP2132931A1 (en) Method for constructing a file format and apparatus for processing a broadcasting signal including a file having the file format and method thereof
JP4846674B2 (ja) 静止画抽出装置及び静止画抽出プログラム
JP2007274556A (ja) コンテンツデータ送信装置
JP2012050029A (ja) 録画装置、及びその制御方法
JP2009130644A (ja) 通信装置、通信方法、プログラム、および記憶媒体
KR100959534B1 (ko) Maf 파일 포맷을 구성하는 방법 및 이를 이용한 비디오 신호의 디코딩 장치