JP2002149673A - データ処理装置およびデータ処理方法 - Google Patents
データ処理装置およびデータ処理方法Info
- Publication number
- JP2002149673A JP2002149673A JP2001159409A JP2001159409A JP2002149673A JP 2002149673 A JP2002149673 A JP 2002149673A JP 2001159409 A JP2001159409 A JP 2001159409A JP 2001159409 A JP2001159409 A JP 2001159409A JP 2002149673 A JP2002149673 A JP 2002149673A
- Authority
- JP
- Japan
- Prior art keywords
- media
- media segment
- description data
- data
- segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/74—Browsing; Visualisation therefor
- G06F16/743—Browsing; Visualisation therefor a collection of video files or sequences
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/48—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/04—Synchronising
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Library & Information Science (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management Or Editing Of Information On Record Carriers (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Transfer Between Computers (AREA)
Abstract
構造記述データから、この構造記述データに記述されて
いるメディアセグメントを、さまざまな制約を加えて再
生する表現記述データを生成すること。 【解決手段】 本発明は、メディアコンテンツの構成
を記述した構造記述データから、構造記述データに記述
されているメディアセグメントの再生順序、再生のタイ
ミング、および同期情報を表現する表現記述データを生
成することで、メディアセグメントをさまざまな制約を
加えて再生できるようにした。
Description
などの連続視聴覚情報であるメディアコンテンツの視
聴、再生、配送において、視聴者の嗜好や端末能力に合
わせた再生、配送を行うために、メディアコンテンツの
構成の記述から、再生を行う表現の記述への変換を行う
データ処理装置およびデータ処理方法に関するものであ
る。
イル単位に行われており、メディアコンテンツの再生、
配送はメディアコンテンツを格納するファイル単位で行
われている。
方式でデジタル化して複数のファイルに保存する場合
は、メディアコンテンツを再生する場合に復号処理が発
生する。そして、復号処理の処理量は、デジタル化の方
式により変わる。このため、メディアコンテンツを選ぶ
際には、メディアコンテンツを再生する端末の処理能力
に合わせたデジタル化方式でデジタル化されたメディア
コンテンツを選ぶ必要が生じる。この場合は、端末機器
の能力による表示メディアコンテンツの選択は、受け取
るユーザが、使用する端末の能力に合わせたメディアコ
ンテンツをファイル単位で選択して行っている。
おいて、特定シーンのみの再生を行う方法として、特開
平10−111872号公報に記載されたものが知られ
ている。図50に特開平10−111872号公報記載
の動画配信装置の構成図を示し、以下に説明する。
ン情報入力部3903からシーン情報格納部3904
に、シーン番号、開始/終了フレームのタイムコード、
シーンに関するキーワード、動画ファイル名を入力して
おく。そして、シーン検索部3905が、シーン情報入
力部3903から入力された検索条件を用いて、シーン
情報格納部3904に格納されているシーン情報を検索
する。そして、シーン検索部3905は、検索した所望
のシーンのシーン番号を抽出してシナリオとして、シナ
リオ格納部3907に格納する。
応じて、抽出されたシーンの順序変更や不要なシーンの
削除を行う。そして、動画転送部3909が、動画ファ
イル格納部3902に格納された動画データを、シナリ
オ編集部3908が編集したシナリオに格納されている
シーン番号順に、動画再生部3910に転送して再生す
る。なお、動画ファイル格納部3902には、動画ファ
イル入力部3901から動画が入力される。
の、コンテンツの再生をファイル単位で行う方法では、
ファイルの格納されたコンテンツをすべて再生しなくて
はならない。よって、コンテンツの要約であるあらすじ
を見ることは不可能である。また、コンテンツの一部の
みを抽出したハイライトシーンや、視聴者が見たい場面
を検索する場合においても、コンテンツの先頭から参照
しなければならないという課題がある。
方法によれば、シーンカットの再生順序を指定できるた
め、コンテンツの先頭から参照することは不要となる。
しかし、この方法は、シナリオとしてシーンの再生の順
番をもっているだけである。このため、シーンの再生の
順番を並べ替える以外のことはできない。よって、複数
メディアを対応させて再生するなどの、複雑な再生がで
きないという問題がある。
成を表現する構造記述データから、この構造記述データ
に記述されているメディアセグメントを、さまざまな制
約を加えて再生するための表現記述データを生成するこ
とである。
に、本発明は、メディアコンテンツの構成を記述した構
造記述データから、構造記述データに記述されているメ
ディアセグメントの再生順序、再生のタイミング、およ
び同期情報を表現する表現記述データを生成するように
した。
のメディアセグメントを選択してメディアセグメントの
再生順序、再生のタイミング、および同期情報を表現す
る表現記述データへ変換することにより、あらすじやハ
イライトシーン、視聴者の嗜好に合わせたシーン集の表
示形態を得ることができる。また、表現記述データが再
生順序、再生のタイミング、および同期情報を持つこと
により、複数のメディアを対応付けて再生することがで
きる。
ィアセグメントの代替データの集合を記憶し、メディア
セグメントおよび代替データの少なくとも一方の、再生
順序、再生のタイミング、および同期情報を表現する表
現記述データに変換するようにした。
るネットワークの容量や通信量、メディアコンテンツを
再生する端末の能力などに合わせて、メディアセグメン
トを再生するか代替データを再生するか切り替えられ
る。つまり、再生する端末の能力などに合わせたメディ
アを用いて、コンテンツの配送や再生が行える。
されているメディアセグメントを再生する際に、メディ
アセグメントあるいは代替データのどちらを再生するか
を選択するメディア選択部を設けている。
て、メディアセグメントあるいは代替データを選択しな
くても、メディア選択部により端末の能力に合わせてメ
ディアセグメントあるいは代替データを自動的に選択で
きる。
ディアセグメントの文脈内容に基づいたスコアをさらに
記述した。
のハイライトシーン集などを生成でき、これの再生や配
送を容易に行うことができる。また、スコアをキーワー
ドで示される観点に基づくものとすることにより、キー
ワードを指定することによって、ユーザの好みに合わせ
たシーンだけを再生、配送することができる。
タ処理装置は、連続視聴覚情報であるメディアコンテン
ツの全体あるいは前記メディアコンテンツの部分の構成
を、前記メディアコンテンツを区分けした区分であるメ
ディアセグメントの時間情報の集合によって表現する構
造記述データを入力し、入力した前記構造記述データに
記述されている前記メディアセグメントの時間情報を取
得する解析部と、解析した前記メディアセグメントの時
間情報を用いて前記構造記述データを前記メディアセグ
メントの、再生順序、再生のタイミング、および同期情
報を表現する表現記述データに変換し出力する変換部
と、を具備した構成を採る。
成に関する情報から、その再生に関する情報を生成する
ことができる。
るデータ処理装置において、前記構造記述データは、前
記メディアセグメントの代替データの集合を有し、前記
変換部は、前記構造記述データを前記メディアセグメン
トおよび前記代替データの少なくとも一方の、再生順
序、再生のタイミング、および同期情報を表現する表現
記述データに変換する。
関する情報から、表示メディアの選択を含んだ再生に関
する情報を生成できる。
るデータ処理装置において、前記構造記述データに表現
されている前記メディアセグメントを再生する際に、前
記メディアセグメントあるいは前記代替データのどちら
を再生するかを選択するメディア選択部を具備し、前記
変換部は、前記メディア選択部の選択に基づいて、前記
メディアセグメントもしくは前記代替データデータのど
ちらか一方の、再生順序、再生のタイミング、および同
期情報を表現する表現記述データを出力する。
関する情報から、表示メディアの選択を含んだ再生に関
する情報を生成できる。
3の態様のいずれかのデータ処理装置において、前記表
現記述データは、SMIL文書である。
格のものにできるので、表現記述データに汎用性を持た
せることができる。
置は、映像情報と音声情報とが同期した連続視聴覚情報
であるメディアコンテンツの構成を、前記メディアコン
テンツを区分けした区分であるメディアセグメントの集
合によって表現し、かつ前記メディアセグメントの時間
情報と前記メディアセグメントの文脈内容におけるスコ
アを記述した構造記述データと、前記構造記述データか
ら所定の前記メディアセグメントを選択するための選択
条件とを入力し、入力した前記構造記述データから前記
選択条件にあったスコアを持つ前記メディアセグメント
だけを選択する選択部と、前記選択部が選択した前記メ
ディアセグメントを、前記メディアセグメントの、再生
順序および再生のタイミングを表現する表現記述データ
に変換し出力する変換部と、を具備した構成を採る。
成に関する情報から、条件にあったメディアセグメント
だけを選び出し、選び出したメディアセグメントのみの
再生に関する情報を生成できる。
るデータ処理装置において、前記構造記述データは、前
記メディアセグメントの代替データの集合を有し、前記
変換部は、前記構造記述データを前記メディアセグメン
トおよび前記代替データの少なくとも一方の、再生順
序、再生のタイミング、および同期情報を表現する表現
記述データに変換する。
関する情報から、条件に合ったメディアセグメントだけ
を選び出し、選び出したメディアセグメントの表示メデ
ィアの選択を含んだ再生に関する情報を生成できる。
タ処理装置において、前記選択部は、前記選択したメデ
ィアセグメントを再生する際に、前記メディアセグメン
トあるいは前記代替データのどちらを再生するかの選択
を行う。
関する情報から、あらすじやハイライトシーンを構成す
るメディアセグメントだけを選び出し、選び出したメデ
ィアセグメントの再生に関する情報を生成できる。
7の態様のいずれかのデータ処理装置において、前記ス
コアは、メディアコンテンツの文脈内容に基づいた該当
メディアセグメントの重要度である。
関する情報から、視聴者の嗜好を反映したあらすじやハ
イライトシーンを構成するメディアセグメントだけを選
び出し、選び出したメディアセグメントのみの再生に関
する情報を生成できる。
8の態様のいずれかのデータ処理装置において、前記メ
ディアセグメントにはキーワードで表現される観点が付
与され、前記スコアは前記観点に基づいた該当メディア
セグメントの重要度である。
関する情報から、視聴者の嗜好を反映したあらすじやハ
イライトシーンを構成するメディアセグメントだけを選
び出し、選び出したメディアセグメントのみの再生に関
する情報を生成できる。
装置は、映像情報もしくは音声情報の少なくともどちら
か一方の連続視聴覚情報であるメディアコンテンツの構
成を、前記メディアコンテンツを区分けした区分である
メディアセグメントの集合によって表現し、かつ前記メ
ディアセグメントの時間情報と前記メディアセグメント
の文脈内容におけるスコアを記述した構造記述データ
と、前記構造記述データから所定の前記メディアセグメ
ントを選択するための選択条件とを入力し、入力した前
記構造記述データから前記選択条件にあったスコアを持
つ前記メディアセグメントだけを選択する選択部と、前
記選択部が選択した前記メディアセグメントを、前記メ
ディアセグメントの、再生順序、再生のタイミング、お
よび同期情報を表現する表現記述データに変換し出力す
る変換部と、を具備した構成を採る。
成に関する情報から、条件にあったメディアセグメント
だけを選び出し、選び出したメディアセグメントのみの
再生に関する情報を生成できる。
装置は、連続視聴覚情報であるメディアコンテンツの構
成を、前記メディアコンテンツを区分けした区分である
メディアセグメントの集合によって表現し、かつ前記メ
ディアセグメントの時間情報と前記メディアセグメント
の文脈内容におけるスコアを記述した構造記述データ
と、前記構造記述データから所定の前記メディアセグメ
ントを選択するための選択条件とを入力し、入力した前
記構造記述データから前記選択条件にあったスコアを持
つ前記メディアセグメントだけを選択する選択部と、前
記選択部が選択した前記メディアセグメントを、前記メ
ディアセグメントの、再生順序、再生のタイミング、お
よび同期情報を表現する表現記述データに変換し出力す
る変換部と、前記表現記述データと前記メディアコンテ
ンツを入力し、前記表現記述データの内容に応じて前記
メディアコンテンツを再生する再生部と、を具備した構
成を採る。
成に関する情報から、条件にあったメディアセグメント
だけを選び出し、選び出したメディアセグメントのみを
再生できる。
ライアントシステムは、第11の態様の、前記選択部お
よび前記変換部を有するサーバと、第11の態様の前記
再生部を有するクライアントと、前記サーバと前記クラ
イアントを接続するネットワークと、を具備し、前記サ
ーバと前記クライアントの間で前記表現記述データの通
信を行う。
ットワークの状態、再生端末の能力などに合わせた要約
と再生メディアの選択を行い、クライアント側で必要な
メディアセグメントのみの再生が行え、また再生メディ
アの通信においても必要なデータだけを受け取ればよ
い、という作用を有する。
ライアントシステムは、第11の態様の前記選択部を有
するサーバと、第11の態様の、前記変換部および前記
再生部を有するクライアントと、前記サーバと前記クラ
イアントを接続するネットワークと、を具備し、前記サ
ーバと前記クライアントの間で前記選択部が選択したメ
ディアセグメントだけを残した要約構造記述データの通
信を行う。
ットワークの状態、再生端末の能力などに合わせた要約
を行い、クライアント側で様々な条件にあった適切な再
生メディアの選択を行い、必要なメディアセグメントの
みの再生が行え、また再生メディアの通信においても必
要なデータだけを受け取ればよい、という作用を有す
る。
であるメディアコンテンツの全体あるいは前記メディア
コンテンツの部分の構成を、前記メディアコンテンツを
区分けした区分であるメディアセグメントの時間情報の
集合によって表現する構造記述データを入力し、入力し
た前記構造記述データに記述されている前記メディアセ
グメントの時間情報を取得し、解析した前記メディアセ
グメントの時間情報を用いて前記構造記述データを前記
メディアセグメントの、再生順序、再生のタイミング、
および同期情報を表現する表現記述データに変換し出力
することを特徴とするデータ処理方法である。
情報とが同期した連続視聴覚情報であるメディアコンテ
ンツの構成を、前記メディアコンテンツを区分けした区
分であるメディアセグメントの集合によって表現し、か
つ前記メディアセグメントの時間情報と前記メディアセ
グメントの文脈内容におけるスコアを記述した構造記述
データと、前記構造記述データから所定の前記メディア
セグメントを選択するための選択条件とを入力し、入力
した前記構造記述データから前記選択条件にあったスコ
アを持つ前記メディアセグメントだけを選択し、選択し
た前記メディアセグメントを、前記メディアセグメント
の、再生順序および再生のタイミングを表現する表現記
述データに変換し出力することを特徴とするデータ処理
方法である。
は音声情報の少なくともどちらか一方の連続視聴覚情報
であるメディアコンテンツの構成を、前記メディアコン
テンツを区分けした区分であるメディアセグメントの集
合によって表現し、かつ前記メディアセグメントの時間
情報と前記メディアセグメントの文脈内容におけるスコ
アを記述した構造記述データと、前記構造記述データか
ら所定の前記メディアセグメントを選択するための選択
条件とを入力し、入力した前記構造記述データから前記
選択条件にあったスコアを持つ前記メディアセグメント
だけを選択し、選択した前記メディアセグメントを、前
記メディアセグメントの、再生順序、再生のタイミン
グ、および同期情報を表現する表現記述データに変換し
出力することを特徴とするデータ処理方法である。
に、連続視聴覚情報であるメディアコンテンツの全体あ
るいは前記メディアコンテンツの部分の構成を、前記メ
ディアコンテンツを区分けした区分であるメディアセグ
メントの時間情報の集合によって表現する構造記述デー
タを入力させ、入力した前記構造記述データに記述され
ている前記メディアセグメントの時間情報を取得させ、
解析した前記メディアセグメントの時間情報を用いて前
記構造記述データを前記メディアセグメントの、再生順
序、前記メディアセグメントの再生のタイミング、およ
び前記メディアセグメントの同期情報を表現する表現記
述データに変換させ出力させることを特徴とするプログ
ラムである。
に、映像情報と音声情報とが同期した連続視聴覚情報で
あるメディアコンテンツの構成を、前記メディアコンテ
ンツを区分けした区分であるメディアセグメントの集合
によって表現し、かつ前記メディアセグメントの時間情
報と前記メディアセグメントの文脈内容におけるスコア
を記述した構造記述データと、前記構造記述データから
所定の前記メディアセグメントを選択するための選択条
件とを入力させ、入力した前記構造記述データから前記
選択条件にあったスコアを持つ前記メディアセグメント
だけを選択させ、選択した前記メディアセグメントを、
前記メディアセグメントの、再生順序および再生のタイ
ミングを表現する表現記述データに変換させ出力させる
ことを特徴とするプログラムである。
に、映像情報もしくは音声情報の少なくともどちらか一
方の連続視聴覚情報であるメディアコンテンツの構成
を、前記メディアコンテンツを区分けした区分であるメ
ディアセグメントの集合によって表現し、かつ前記メデ
ィアセグメントの時間情報と前記メディアセグメントの
文脈内容におけるスコアを記述した構造記述データと、
前記構造記述データから所定の前記メディアセグメント
を選択するための選択条件とを入力させ、入力した前記
構造記述データから前記選択条件にあったスコアを持つ
前記メディアセグメントだけを選択させ、選択した前記
メディアセグメントを、前記メディアセグメントの、再
生順序、再生のタイミング、および同期情報を表現する
表現記述データに変換させ出力させることを特徴とする
プログラムである。
ら第19の態様のいずれかに記載のプログラムを記憶し
たコンピュータ読み取り可能な記録媒体である。
態1について添付図面を参照して説明する。まず、本発
明の実施の形態1にかかるデータ処理システムの構成に
ついて、図1を用いて説明する。図1は、実施の形態1
にかかるデータ処理システムの概念図である。
は、メタデータのデータベース1001と、要約エンジ
ン1002と、記述コンバータ1003と、再生機10
04と、メディアコンテンツのデータベース1005
と、から構成される。また、図中、1006で記される
ものはメタデータである内容記述であり、1007で記
されるものは選択条件であり、1008で記されるもの
は要約結果である要約内容記述であり、1009で記さ
れるものは再生機1004に指示を与える再生方法記述
であり、1010で記されるものはメディアコンテンツ
データである。
ツのタイトルや作成日時などの書誌事項や内容やシーン
構成などの、メディアコンテンツの付加的な情報を表す
データである。データベース1001は、このようなメ
タデータのデータベースを表す。
001に格納されたメタデータの中から、メディアコン
テンツの内容や構成を表す構造記述データである内容記
述1006を入力する。そして、要約エンジン1002
は、入力した内容記述1006から、ユーザが入力した
選択条件1007に合ったシーンのみを選択する。さら
に、要約エンジン1002は、内容記述1006から選
択されたシーンに関するものだけを残し、それ以外を削
除した要約内容記述1008を生成し出力する。
008は、メディアコンテンツの内容や構成を表す構造
記述データであり、記述されているシーン数は異なる
が、記述フォーマットは同じである。
1008を入力し、要約内容記述1008に記述されて
いるシーンを再生するときの、再生順序、再生開始のタ
イミング、同期情報などのメディアの再生形態を記述し
た表現記述データである再生方法記述1009を生成
し、出力するものである。
と、再生方法記述1009に従って再生するデータであ
るメディアコンテンツデータ1010をメディアコンテ
ンツデータベース1005から入力する。そして、再生
機1004は、再生方法記述1009に記述されている
再生順序、再生開始のタイミング、同期情報などに従い
メディアコンテンツデータ1010の再生を行うもので
ある。
006は同じフォーマットであるため、記述コンバータ
1003は、内容記述1006に対する再生方法記述
(表現記述データ)も同様に生成することができる。
述1008に用いられている構造記述データについて、
図2(a)、図2(b)、および図3を用いて説明す
る。
述するための定義であるDocument Type Definition(DT
D)である。また、図2(b)は、MPEG1を例に動画と音
声が同期したメディアコンテンツに対する構造記述デー
タの例である。また、図3は、動画と音声がそれぞれ別
のメディアとなっているメディアコンテンツの構造記述
データの例である。
ピュータ上で表現する形態の一例として、Extensible M
arkup Language(XML)を用いている。
よって標準化されたデータ記述言語であり、1998年
2月10日にVer.1.0が勧告された。XML ver.1.0の仕様
書は、http://www.w3.org/TR/REC-xmlで得ることができ
る。
タをXMLで記述するための定義であるDocument Type Def
inition(DTD)の説明をする。
は、par要素とmediaObject要素で構成される。また、図
中202で示すように、contents要素は、キャラクタデ
ータで示されるtitle属性を持つようになっている。
ある。また、図中203に示すように、par要素は、複
数の子要素であるmediaObject要素から構成される。par
要素は、contents要素がaudioとvideo等の複数のmediaO
bject要素から構成される場合に、複数のmediaObject要
素を子要素として、同期させて再生することを表すもの
である。
ect要素は、メディアセグメントを表すsegment要素から
構成される。また、図中205に示すように、mediaObj
ect要素は、そのtype属性によってメディアのタイプを
指定される。この例では、メディアのタイプとして音声
情報であるaudio、動画情報であるvideo、静止画情報で
あるimage、音声および動画が同期した情報であるaudio
video、音声および静止画の情報であるaudioimageとい
ったメディアのタイプが指定される。また、type属性の
指定がない場合は、type属性は、デフォルトでaudiovid
eoに設定される。
ect要素は、format属性でMPEG1,MPEG2といったメディア
のフォーマットが指定される。また、図中207に示す
ように、mediaObject要素は、src属性でデータが保存さ
れている場所が指定される。src属性でUniform Resourc
e Locator (URL)を指定することにより、データが保存
されている場所を指定できる。
要素は、start属性およびend属性を有する。start属性
およびend属性は、segment要素の開始時間と、segment
要素の終了時間と、を示す。また、start属性およびend
属性は、mediaObject要素により指定されたメディア内
部での時間を示す。つまり、segment要素は、start属性
およびend属性により、mediaObject要素で指定されたメ
ディア内のどの部分に相当するかが指定される。
セグメントの時間情報を開始時間と終了時間との組によ
って指定しているが、開始時間と継続時間との組によっ
て表してもよい。
メディアコンテンツに対する構造記述データの例につい
て、図2(b)を用いて説明する。
ntents要素にMovie etcというタイトルが指定されてい
る。そして、mediaObject要素のタイプにはaudiovideo
が、フォーマットとしてMPEG1が、保存場所として HYPE
RLINK http://mserv.com/MPEG/movie0.mpg http://mser
v.com/MPEG/movie0.mpgが指定されている。また、media
Object要素は、時刻00:00:00から00:01:00の時間情報を
持つsegment要素と、時刻00:01:0から00:02:00の時間情
報を持つsegment要素と、時刻00:03:00から00:04:00の
時間情報を持つsegment要素と、時刻00:04:00から00:0
5:00の時間情報を持つsegment要素と、を有する。つま
り、mediaObject要素は、時刻00:02:00から00:03:00を
除いた記述になっている。
となっているメディアコンテンツの構造記述データの例
について図3を用いて説明する。
要素にMovie etcというタイトルが指定されている。そ
して、図3の例では、contents要素が、videoのタイプ
のmediaObject要素と、audioのタイプのmediaObject要
素から構成されている。よって、par要素により、タイ
プがvideoのmediaObject要素と、タイプがaudioのmedia
Object要素との同期がとられている。
ーマットとしてMPEG1が、保存場所として HYPERLINK ht
tp://mserv.com/MPEG/movie0.mpg http://mserv.com/MP
EG/movie0v.mpvが指定されている。
は、時刻00:00:00から00:01:00の時間情報を持つsegmen
t要素と、時刻00:01:0から00:02:00の時間情報を持つse
gment要素と、時刻00:03:00から00:04:00の時間情報を
持つsegment要素と、時刻00:04:00から00:05:00の時間
情報を持つsegment要素と、を有する。つまり、タイプ
がvideoのmediaObject要素は、時刻00:02:00から00:03:
00を除いた記述になっている。
は、フォーマットとしてMPEG1が、保存場所として HYPE
RLINK http://mserv.com/MPEG/movie0.mpg http://mser
v.com/MPEG/movie0a.mp2が指定されている。また、タイ
プがaudioのmediaObject要素は、時刻00:00:00から00:0
1:00の時間情報を持つsegment要素と、時刻00:01:0から
00:02:00の時間情報を持つsegment要素と、時刻00:03:0
0から00:04:00の時間情報を持つsegment要素と、時刻0
0:04:00から00:05:00の時間情報を持つsegment要素と、
を有する。つまり、タイプがaudioのmediaObject要素
は、時刻00:02:00から00:03:00を除いた記述になってい
る。
ら構成されている場合には、メディアセグメント間の再
生タイミングや同期を制御する必要がある。そこで、本
実施の形態では、記述コンバータ1003が、構造記述
データで記述された要約内容記述1008を、メディア
セグメントの再生順序、再生のタイミング、同期情報を
表現できる表現記述データで記述された再生方法記述1
009に変換している。
Synchronized Multimedia Integration Language (SMI
L)を用いている。SMILは、複数のメディアに対して、そ
れらの表現の時間的な挙動や表示スクリーン上でのレイ
アウトなどを記述を目的として、W3Cによって標準化さ
れた記述言語である。1998年6月15日にSMILのVe
r 1.0が勧告された。SMIL ver. 1.0の仕様書は、http:/
/www.w3.org/TR/REC-smilで得られる。
れたSMILを用いることで、既存あるいはこれから開発さ
れるSMIL処理プログラムが利用できるので、汎用性がま
す。
を、メディアセグメントの再生順序、再生タイミング、
同期情報等の再生の形態を表現する表現記述データに変
換する処理について図4を用いて説明する。図4は、実
施の形態1にかかる記述コンバータが、構造記述データ
をSMILへ変換する手順を示すフロー図である。
1)、ステップS402において、記述コンバータ10
03が構造記述データで記述された要約内容記述100
8に要素par要素があるか否かを調べる。そして、記述
コンバータ1003は、ステップS402においてpar
要素があると判断した場合には、ステップS406の処
理へ、par要素がないと判断した場合にはステップS4
03の処理へ移行する。
03において、構造記述データで記述された要約内容記
述1008のmediaObject要素の、type属性からメディ
アのタイプを、format属性からメディアのフォーマット
を、src属性からメディアデータのURLをそれぞれ取得す
る。次に、記述コンバータ1003は、ステップS40
4において、各segment要素の、start属性とend属性か
らメディアセグメントの時間情報を取得し、それを記憶
しておく。そして、記述コンバータ1003は、ステッ
プS405において、ステップS403およびステップ
S405で取得した、メディアのフォーマット、メディ
アデータのURL、メディアセグメントの時間情報からSMI
L文書で記述された再生方法記述1009を生成し、出
力する。
プS406でおいて、par要素中の先頭のmediaObject要
素を取得する。次に、記述コンバータ1003は、ステ
ップS407において、取得したmediaObject要素の、t
ype属性からメディアのタイプを、format属性からメディ
アのフォーマットを、src属性からメディアデータのURL
をそれぞれ取得する。そして、記述コンバータ1003
は、ステップS408において、各segment要素の、sta
rt属性とend属性からメディアセグメントの時間情報を
取得し、それを記憶しておく。
プS409で、par要素中にまだ調べていないmediaObje
ct要素があるかどうか調べる。そして、記述コンバータ
1003は、まだ調べていないmediaObject要素があれ
ば、ステップS410においてその先頭のものを取得
し、ステップS407の処理に移行する。一方、記述コ
ンバータ1003は、調べていないmediaObject要素が
なければステップS411の処理に移行する。
プS411において、記憶しておいたsegment要素の時
間情報を用いて、異なるmediaObject要素に属し、かつ
時間に重なりのあるsegment要素をグループ化する。そ
して、記述コンバータ1003は、ステップS412に
おいて、ステップS407およびステップS408で取
得したメディアのフォーマット、メディアデータのUR
L、メディアセグメントの時間情報からSMIL文書で記述
された再生方法記述1009を生成し、出力する。
1008にpar要素がない場合に、記述コンバータ10
03が要約内容記述1008からSMIL文書である再生方
法記述1009を出力する、ステップS405における
処理について、図5を用いて説明する。図5は、実施の
形態1にかかる記述コンバータが構造記述データである
要約内容記述からSMIL文書である再生方法記述を出力す
るフロー図である。
ヘッダを出力する(ステップS501)。
01と本体602で構成されたものである。ヘッダ60
1はhead要素で、本体602はbody要素で記述される。
すなわち、ヘッダ601は<head>と</head>とで囲まれ
た部分、本体602は<body>と</body>とで囲まれた部
分となる。
映像を画面上のどこに表示し、テキストをどこに表示す
るかなどといったレイアウトなどを記述することができ
る。なお、ヘッダは省略することが可能である。
と</seq>でメディアセグメント全体を囲う(ステップS
502)。これらはseq要素であり、<seq>と</seq>によ
り囲まれたメディアセグメントを、記述した順に処理、
すなわち再生あるいは表示することを表すものである。
と</seq>で囲んだメディアセグメント毎に、以下の処理
を行う。
audio要素、video要素、ref要素、img要素から対応する
要素を選択する(ステップS503)。なお、ref要素
とは、ソースのメディアを特定しない書き方として定義
されたものである。ref要素で指定したものは音声であ
っても、映像であっても、静止画であっても、映像と音
声が同期したものであってもよい。
プS503で選択した要素のclip-begin属性とclip-end
属性の値を次のように設定する。すなわち、対応する要
約内容記述1008のsegment要素の、start属性の値を
SMILのclip-begin属性の値に、end属性の値をclip-end
属性の値に設定する(ステップS504)。なお、clip
とは、時間的な区間のことをいう。
プS503で選択した要素のsrc属性の値を、対応する
要約内容記述1008のsegment要素の親要素であるmed
iaObject要素のsrc属性の値に設定する(ステップS5
05)。この後、ステップS503で選択した要素の記
述を出力する。
は、構造記述データである要約内容記述1008からSM
ILで記述された表現記述データである再生方法記述10
09を生成する。
(b)に示す構造記述データから出力したSMIL文書を示
す。図7は、実施の形態1にかかる記述コンバータが出
力したSMIL文書の例を示す図である。
p://mserv.com/MPEG/movie0.mpg http://mserv.com/MPE
G/movie0.mpgの時刻00:00:00から00:01:00の情報、 HYP
ERLINK http://mserv.com/MPEG/movie0.mpg http://mse
rv.com/MPEG/movie0.mpgの時刻00:01:0から00:02:00の
情報、 HYPERLINK http://mserv.com/MPEG/movie0.mpgh
ttp://mserv.com/MPEG/movie0.mpgの時刻00:03:00から0
0:04:00の情報を持つ情報、 HYPERLINK http://mserv.c
om/MPEG/movie0.mpg http://mserv.com/MPEG/movie0.mp
gの時刻00:04:00から00:05:00の情報の順に処理され
る。なお、図7に示す例では、ヘッダは省略されてい
る。
にまとめる処理を追加し、図8に示すSMIL文書を出力し
てもよい。
p://mserv.com/MPEG/movie0.mpg http://mserv.com/MPE
G/movie0.mpgの時刻00:00:00から00:02:00の情報を持つ
情報、 HYPERLINK http://mserv.com/MPEG/movie0.mpg
http://mserv.com/MPEG/movie0.mpgの時刻00:03:00から
00:05:00の情報の順に処理される。つまり、図8に示し
た文書は、図7に示した文書の例と同じ処理を行う。
1008にpar要素がある場合に、記述コンバータ10
03が要約内容記述1008からSMIL文書である再生方
法記述1009を出力する、ステップS412における
処理について、図9を用いて説明する。図9は、実施の
形態1にかかる記述コンバータが構造記述データである
要約内容記述からSMIL文書である再生方法記述を出力す
るフロー図である。
ヘッダを出力する(ステップS901)。次に、記述コ
ンバータ1003は、<seq>と</seq>でメディアセグメ
ント全体を囲う(ステップS902)。そして、記述コ
ンバータ1003は、メディアセグメントのグループ
を、時間の早いグループ順に、SMILの<par>と</par>で
囲う(ステップS903)。
diaObject要素に属するメディアセグメントが他にある
か判断し(ステップS904)、メディアセグメントが
他にある場合はそれらを<seq>と</seq>で囲う(ステッ
プS905)。そして、記述コンバータ1003は、<s
eq>と</seq>で囲んだメディアセグメント毎に、以下の
処理を行う。
のaudio要素、video要素、ref要素、img要素などから対
応する要素を選択する。次に、選択した要素のclip-big
en属性とclip-end属性の値を設定する(ステップS90
6)。これは、要約内容記述1008の、対応するsegm
ent要素のstart属性の値をSMILのclip-begin属性の値
に、end属性の値をclip-end属性の値に設定する(ステ
ップS907)。次に、選択した要素のsrc属性の値
を、対応する要約内容記述1008のsegment要素の親
要素であるmediaObject要素のsrc属性の値に設定する
(ステップS908)。次に、選択した要素の記述を出
力する。
diaObject属性に属するメディアセグメントがない場合
は<seq>と</seq>で囲わず、上記のメディアセグメント
毎に行った処理と同様の処理を行う。
は、構造記述データである要約内容記述1008が複数
のメディアで構成されている場合であっても、複数のメ
ディアを同期させて処理する表現記述データである再生
方法記述1009を生成する。
出力されるSMIL文書を示す。図10は、実施の形態1に
かかる記述コンバータが出力したSMIL文書の例を示す図
である。
HYPERLINK http://mserv.com/MPEG/movie0.mpg http://
mserv.com/MPEG/movie0v.mpvの時刻00:00:00から00:01:
00の情報とaudioである HYPERLINK http://mserv.com/M
PEG/movie0.mpg http://mserv.com/MPEG/movie0a.mp2の
時刻00:00:00から00:01:00の情報とを同期し、videoで
ある HYPERLINK http://mserv.com/MPEG/movie0.mpg ht
tp://mserv.com/MPEG/movie0v.mpvの時刻00:01:00から0
0:02:00の情報とaudioである HYPERLINK http://mserv.
com/MPEG/movie0.mpg http://mserv.com/MPEG/movie0a.
mp2の時刻00:01:00から00:02:00の情報を同期し、video
である HYPERLINK http://mserv.com/MPEG/movie0.mpg
http://mserv.com/MPEG/movie0v.mpvの時刻00:03:00か
ら00:04:00の情報とaudioである HYPERLINK http://mse
rv.com/MPEG/movie0.mpg http://mserv.com/MPEG/movie
0a.mp2の時刻00:03:00から00:04:00の情報を同期し、vi
deoである HYPERLINK http://mserv.com/MPEG/movie0.m
pg http://mserv.com/MPEG/movie0v.mpvの時刻00:04:00
から00:05:00の情報とaudioである HYPERLINK http://m
serv.com/MPEG/movie0.mpg http://mserv.com/MPEG/mov
ie0a.mp2の時刻00:04:00から00:05:00の情報とを同期
し、かつ同期した情報を記述した順番に処理するように
なっている。
したクリップをひとつにまとめる処理を追加したSMIL文
書を出力してもよい。
ップを同期させるために、あるクリップの再生開始時間
を他のクリップの再生開始時間と異ならせる必要が出て
くる場合がある。例えば、audioとvideoが別のメディア
オブジェクトとなっており、videoのクリップはその人
間が映っている範囲で、audioのクリップはその人間が
話している声だけの場合が考えられる。この場合は、vi
deoに含まれる人間の口の動きの映像に合わせて、audio
は人間が話し始めるところから再生する必要がある。
し、その時間がくれば再生を始めるようにする必要があ
る。SMILには、このような目的のために、audio要素、v
ideo要素、img要素、ref要素に、遅延情報を示すbegin
という属性が用意されている。そして、begin属性を用
いることで、クリップ毎に再生開始時間を異ならせるこ
とができる。
ならせたSMIL文書の例を示した図である。図12に示す
文書では、begin属性を用いることで、videoである HYP
ERLINK http://mserv.com/MPEG/movie0.mpg http://mse
rv.com/MPEG/movie0v.mpvの時刻00:00:00から00:01:00
の情報の再生時間に対して、audioである HYPERLINKhtt
p://mserv.com/MPEG/movie0.mpg http://mserv.com/MPE
G/movie0a.mp2の時刻00:00:10から00:000:40の情報を10
秒送らせて再生している。また、videoであるHYPERLINK
http://mserv.com/MPEG/movie0.mpg http://mserv.com
/MPEG/movie0v.mpvの時刻00:04:00から00:05:00の情報
に対して、audioである HYPERLINK http://mserv.com/M
PEG/movie0.mpg http://mserv.com/MPEG/movie0a.mp2の
時刻00:04:15から00:05:00の情報を15秒送らせて再生し
ている。
構造記述データに含まれる複数のメディア間の再生時間
をずらすことで、複数のメディアの同期をとることがで
きる。
ディアコンテンツの構成を表現する構造記述データか
ら、そのメディアコンテンツの再生形態を表現する表現
記述データへの変換が行える。これにより、メディアコ
ンテンツの配信において構造記述データを適当に処理、
あるいは選択することにより、ユーザや端末に合わせた
配信データを作成することができる。
ータが複数のメディアから構成されていても、メディア
間で同期をとることができる。また、複数のメディア間
で再生タイミングをずらすことでも、メディア間の同期
をとることができる。
ンツの構成を表現する構造記述データから、そのメディ
アコンテンツの再生形態を表現する表現記述データへの
変換を、記述コンバータ1003が行う形態で説明した
が、記述コンバータ1003が行う処理をプログラムに
し、コンピュータに読み取らせて実行させる形態にして
もよい。
をコンピュータに実行させるプログラムを記憶媒体に格
納する形態であってもよい。
合わせたメディアコンテンツの再生、配信を行うため
に、構造記述データにメディアセグメントとその代替デ
ータを記述し、構造記述データをメディアセグメントま
たは代替データの再生形態を表現する表現記述データへ
の変換を行うものである。これにより、動画であるメデ
ィアセグメントの代表画像といったような代替データの
集合によって記述される構造記述データから、代替デー
タの表現記述データへの変換が行える。以下、実施の形
態2について説明する。
おける構造記述データの例を示す図である。実施の形態
2では、構造記述データをコンピュータ上で表現する一
例として、Extensible Markup Language(XML)を用いて
いる。図13は、構造記述データをXMLで記述するため
のDTDである。また、図14は、MPEG1を例に動画と音声
が同期したメディアコンテンツに対する構造記述データ
の例である。また、図15は、動画と音声がそれぞれ別
のメディアとなっているメディアコンテンツの構造記述
データの例である。
XMLで記述するための定義であるDocument Type Definit
ion(DTD)の説明をする。
は、par要素とmediaObject要素で構成される。また、図
中1302で示すように、contents要素は、キャラクタ
データで示されるtitle属性を持つようになっている。
また、図中1303に示すように、par要素は、複数の
子要素であるmediaObject要素から構成される。
bject要素は、segment要素から構成される。また、図中
1305に示すように、mediaObject要素は、そのtype
属性によってメディアのタイプを指定される。この例で
は、メディアのタイプとして音声情報であるaudio、動
画情報であるvideo、静止画情報であるimage、音声およ
び動画が同期した情報であるaudiovideo、音声および静
止画の情報であるaudioimageといったメディアのタイプ
が指定される。また、type属性の指定がない場合は、ty
pe属性は、デフォルトでaudiovideoに設定される。
bject要素は、format要素で、動画に対してMPEG1やMPEG
2といったメディアのフォーマットが、静止画に対して
はgifやjpegといったフォーマットが指定される。ま
た、図中1307に示すように、mediaObject要素は、s
rc属性によりデータが保存されている場所が指定され
る。src属性でUniform Resource Locator (URL)を指定
することによりデータが保存されている場所を指定でき
る。
属性により、segment要素の開始時間に対応する、media
Object要素で指定されたメディア内部における時間が指
定される。また、end属性により、segment要素の終了時
間に対応する、mediaObject要素で指定されたメディア
内部における時間が指定される。
セグメントの時間情報を開始時間と終了時間との組によ
って指定しているが、開始時間と継続時間との組によっ
て表してもよい。
t要素は、alt要素を有する。alt要素は、該当メディア
セグメントの代替データを表すものである。そして、図
中1310に示すように、alt要素は、type属性によっ
てimageやaudioといったメディアのタイプが指定され
る。また、alt要素は、format属性によって、静止画像
であればgifやjpegといったメディアのフォーマットが
指定される。また、alt要素は、src属性により、保存さ
れている場所が指定される。
複数指定可能とし、同じメディアの場合は、登場順に再
生することとする。
て、alt要素は、子要素posによって、src属性で指定さ
れたデータの中でどの区間であるかを指定できる。pos
要素のstart属性およびend属性は、それぞれsrc属性で
示されたメディア内部での開始時間、終了時間を表す。
を開始時間と終了時間との組によって指定しているが、
開始時間と継続時間との組によって表してもよい。
メディアコンテンツに対する構造記述データの例につい
て、図14を用いて説明する。
ts要素にMovie etcというタイトルが指定されている。
そして、mediaObject要素のタイプにはaudiovideoが、
フォーマットとしてMPEG1が、保存場所として HYPERLIN
K http://mserv.com/MPEG/movie0.mpg http://mserv.co
m/MPEG/movie0.mpgが指定されている。また、mediaObje
ct要素は、時刻00:00:00から00:01:00の時間情報を持つ
segment要素と、時刻00:01:00から00:02:00の時間情報
を持つsegment要素と、時刻00:03:00から00:04:00の時
間情報を持つsegment要素と、時刻00:04:00から00:05:0
0の時間情報を持つsegment要素と、を有する。つまり、
mediaObject要素は、時刻00:02:00から00:03:00を除い
た記述になっている。
報を持つsegment要素は、audiovideoの代替データであ
るalt要素により指示されている。時刻00:00:00から00:
01:00の時間情報を持つsegment要素は、タイプがimag
e、フォーマットがjpeg、保存場所が HYPERLINK http:/
/mserv.com/MPEG/movie0.mpg http://mserv.com/IMAGE/
s0.jpgであるalt要素と、タイプがaudio、フォーマット
がmpeg1、保存場所が HYPERLINK http://mserv.com/MPE
G/movie0.mpg http://mserv.com/MPEG/movie0.mp2、時
刻00:00:00から00:01:00の時間情報を持つalt要素と、
から構成されている。
報を持つsegment要素は、タイプがimage、フォーマット
がjpeg、保存場所が HYPERLINK http://mserv.com/MPEG
/movie0.mpg http://mserv.com/IMAGE/s1.jpgであるalt
要素と、タイプがaudio、フォーマットがmpeg1、保存場
所が HYPERLINK http://mserv.com/MPEG/movie0.mpghtt
p://mserv.com/MPEG/movie0.mp2、時刻00:01:00から00:
01:30の時間情報を持つalt要素と、から構成されてい
る。
報を持つsegment要素は、タイプがimage、フォーマット
がjpeg、保存場所が HYPERLINK http://mserv.com/MPEG
/movie0.mpg http://mserv.com/IMAGE/s3.jpgであるalt
要素と、タイプがaudio、フォーマットがmpeg1、保存場
所が HYPERLINK http://mserv.com/MPEG/movie0.mpghtt
p://mserv.com/MPEG/movie0.mp2、時刻00:03:00から00:
03:30の時間情報を持つalt要素と、から構成されてい
る。
報を持つsegment要素は、タイプがimage、フォーマット
がjpeg、保存場所が HYPERLINK http://mserv.com/MPEG
/movie0.mpg http://mserv.com/IMAGE/s4.jpgであるal
t要素と、タイプがaudio、フォーマットがmpeg1、保存
場所が HYPERLINK http://mserv.com/MPEG/movie0.mpgh
ttp://mserv.com/MPEG/movie0.mp2、時刻00:04:00から0
0:05:00の時間情報を持つalt要素と、から構成されてい
る。
となっているメディアコンテンツの構造記述データの例
について図15を用いて説明する。
ts要素にMovie etcというタイトルが指定されている。
そして、図15の例では、contents要素が、videoのタ
イプのmediaObject要素と、audioのタイプのmediaObjec
t要素から構成されている。よって、par要素により、タ
イプがaudioのmediaObject要素と、タイプがvideoのmed
iaObject要素との、同期がとられている。
ーマットとしてMPEG1が、保存場所として HYPERLINK ht
tp://mserv.com/MPEG/movie0.mpg http://mserv.com/MP
EG/movie0v.mpvが指定されている。また、タイプがvide
oのmediaObject要素は、時刻00:00:00から00:01:00の時
間情報を持つsegment要素と、時刻00:01:0から00:02:00
の時間情報を持つsegment要素と、時刻00:03:00から00:
04:00の時間情報を持つsegment要素と、時刻00:04:00か
ら00:05:00の時間情報を持つsegment要素と、を有す
る。つまり、タイプがvideoのmediaObject要素は、時刻
00:02:00から00:03:00を除いた記述になっている。
報を持つsegment要素は、videoの代替データであるalt
要素により指示されている。時刻00:00:00から00:01:00
の時間情報を持つsegment要素は、タイプがimage、フォ
ーマットがjpeg、保存場所がHYPERLINK http://mserv.c
om/MPEG/movie0.mpg http://mserv.com/IMAGE/s0.jpgで
あるalt要素が指示されている。また、時刻00:01:00か
ら00:02:00の時間情報を持つsegment要素は、タイプがi
mage、フォーマットがjpeg、保存場所が HYPERLINK htt
p://mserv.com/MPEG/movie0.mpg http://mserv.com/IMA
GE/s1.jpgであるalt要素が指示されている。また、時刻
00:03:00から00:04:00の時間情報を持つsegment要素
は、タイプがimage、フォーマットがjpeg、保存場所が
HYPERLINKhttp://mserv.com/MPEG/movie0.mpg http://m
serv.com/IMAGE/s3.jpgであるalt要素が指示されてい
る。また、時刻00:04:00から00:05:00の時間情報を持つ
segment要素は、タイプがimage、フォーマットがjpeg、
保存場所が HYPERLINK http://mserv.com/MPEG/movie0.
mpg http://mserv.com/IMAGE/s4.jpgであるalt要素が
指示されている。
は、フォーマットとしてMPEG1が、保存場所として HYPE
RLINK http://mserv.com/MPEG/movie0.mpg http://mser
v.com/MPEG/movie0a.mp2が指定されている。また、タイ
プがaudioのmediaObject要素は、時刻00:00:00から00:0
1:00の時間情報を持つsegment要素と、時刻00:01:0から
00:02:00の時間情報を持つsegment要素と、時刻00:03:0
0から00:04:00の時間情報を持つsegment要素と、時刻0
0:04:00から00:05:00の時間情報を持つsegment要素と、
を有する。つまり、タイプがaudioのmediaObject要素
は、時刻00:02:00から00:03:00を除いた記述になってい
る。
報を持つsegment要素は、audioの代替データであるalt
要素により指示されている。時刻00:00:00から00:01:00
の時間情報を持つsegment要素は、タイプがaudio、フォ
ーマットがmpeg1、保存場所が HYPERLINK http://mser
v.com/MPEG/movie0.mpg http://mserv.com/MPEG/movie
0.mp2、時刻00:00:00から00:01:00の時間情報を持つalt
要素が指示されている。また、時刻00:01:00から00:02:
00の時間情報を持つsegment要素は、タイプがaudio、フ
ォーマットがmpeg1、保存場所が HYPERLINK http://mse
rv.com/MPEG/movie0.mpg http://mserv.com/MPEG/movie
0.mp2、時刻00:01:00から00:01:30の時間情報を持つalt
要素が指示されている。また、時刻00:03:00から00:04:
00の時間情報を持つsegment要素は、タイプがaudio、フ
ォーマットがmpeg1、保存場所が HYPERLINK http://mse
rv.com/MPEG/movie0.mpg http://mserv.com/MPEG/movie
0.mp2、時刻00:03:00から00:03:30の時間情報を持つalt
要素が指示されている。また、時刻00:04:00から00:05:
00の時間情報を持つsegment要素は、タイプがaudio、フ
ォーマットがmpeg1、保存場所が HYPERLINK http://mse
rv.com/MPEG/movie0.mpg http://mserv.com/MPEG/movie
0.mp2、時刻00:04:00から00:05:00の時間情報を持つalt
要素が指示されている。
同様に、表現記述データとしてSMILを用いる。各メディ
アセグメント自身を再生するSMIL文書の出力は実施の形
態1と同様である。
データを再生するSMIL文書を出力する処理について述べ
る。これは、実施の形態1における図4のフローチャー
トの中で、SMIL文書を出力するステップS405とステ
ップS412の処理が異なるだけである。よって、実施
の形態1と異なる処理について説明する。まず、ステッ
プS405の処理について、図16を用いて説明する。
ヘッダを出力する(ステップ1601)。次に、記述コ
ンバータ1003は、<seq>と</seq>でメディアセグメ
ント全体を囲う(ステップS1602)。そして、記述
コンバータ1003は、囲ったメディアセグメント毎
に、メディアタイプの異なる代替データがあるか判断す
る(ステップS1603)。
603において、メディアタイプの異なる代替データが
ないという判断をすると、代替データが複数あるか判断
する(ステップS1604)。そして、記述コンバータ
1003は、代替データが複数ある場合は、複数の代替
データを<seq>と</seq>で囲む(ステップS160
5)。一方、記述コンバータ1003は、代替データが
ひとつの場合は<seq>と</seq>で囲まず、代替データ毎
に以下の処理をする。
ータのタイプに合わせて、SMILのaudio要素、video要
素、img要素などから対応する要素を選択する(ステッ
プS1606)。次に、記述コンバータ1003は、al
t要素の子要素posの、start属性およびend属性が指定さ
れている場合は、start属性の値をSMILのclip-begin
に、end属性の値をclip-end属性に設定する(ステップ
S1607)。そして、記述コンバータ1003は、代
替データ毎に、保存場所を示すsrc属性を設定する(ス
テップS1608)。
03において、メディアタイプの異なる代替データがあ
ると判断した場合は、同じ種類のメディアタイプで代替
データをグループ化する(ステップS1609)。
プの再生終了の同期をとるために、継続時間の最も長い
代替データを調べる必要がある。よって、記述コンバー
タ1003は、各グループ毎に、代替データのstart属
性,end属性の値から継続時間を計算する(ステップS1
610)。ただし、メディアタイプが静止画像(ima
ge)の場合か、start属性、end属性が指定されていな
い場合は、その代替データの継続時間は0とする。
続時間の長いグループに、再生終了の同期を合わせるよ
うにSMILのpar要素のendsync属性を設定し(ステップS
1611)、グループ全体を<par>と</par>で囲って
(ステップS1612)、各メディアタイプのグループ
毎にS1604の処理を行う。
複数メディアを並列(parallel)に再生・表示させる際
に、メディアによって継続時間が異なる場合に使用する
ものである。つまり、endsync属性とは、このような場
合にどのメディアに、全てのメディアの再生・表示の終
了を合わせるかを指定するものである。endsync属性に
おけるメディアの指定方法は幾つかあるが、本実施例で
はメディアのidによって指定する方法を用いている。具
体的には、あるタイプのメディアの属性に識別子である
idを付与する。そして、endsync属性=idとすること
で、idが付与されたメディアの終了時間に合わせて、こ
のidが付与されたメディアと同一のグループ内のメディ
アが同期して終了するようになる。
たないメディアであって、durなどの属性によって表示
時間が指定されていないものに対しても、このメディア
の再生終了時間をidが付与されたメディアの再生時間と
同じにすることができる。例えば、音声のメディアが再
生されている間はずっと静止画を表示しつづけるような
ことができる。
ら、上記の処理により出力されるSMIL文書を示す。
701〜1704が記述されている。1701で記され
るグループには、タイプがimage、フォーマットがjpe
g、保存場所が HYPERLINK http://mserv.com/MPEG/movi
e0.mpg http://mserv.com/IMAGE/s0.jpgである代替デー
タと、タイプがaudio、フォーマットがmpeg1、保存場所
が HYPERLINK http://mserv.com/MPEG/movie0.mpg htt
p://mserv.com/MPEG/movie0.mp2、時刻00:00:00から00:
01:00の時間情報を持つ代替データと、から構成されて
いる。また、タイプがaudioの代替データには、id属性
としてa0が付与されている。そして、グループ1701
には、endsync属性にid(a0)が設定されている。これに
より、グループ1701に含まれる代替データの再生終
了時間は、タイプがaudioの代替データに合わせられ
る。つまり、タイプがimageの代替データは、タイプがa
udioの代替データの再生時間中、再生され続けることに
なる。
は省略する。
図18を用いて説明する。まず、記述コンバータ100
3は、SMILのヘッダを出力する(ステップS180
1)。次に、記述コンバータ1003は、<seq>と</seq
>でメディアセグメント全体を囲う(ステップS180
2)。
ィアセグメントのグループの、時間の早い順に、同じme
diaObject要素に属する代替データをグループ化し(ス
テップS1803)、グループ毎にstart属性とend属性
の値から継続時間を計算する(ステップ1804)。た
だし、メディアタイプが静止画像(image)の場合か、s
tart属性、end属性が指定されていない場合は、その代
替データの継続時間は0とする。
続時間の長いグループに、再生終了の同期を合わせるよ
うに、SMILのpar要素のendsync属性を設定し、全体をそ
の<par>と</par>で囲う(ステップS1805)。
ータが複数あるか判断する(ステップS1806)。そ
して、記述コンバータ1003は、代替データが複数あ
る場合は、複数の代替データを<seq>と</seq>で囲む
(ステップS1807)。一方、記述コンバータ100
3は、代替データがひとつの場合は<seq>と</seq>で囲
まず、代替データ毎に以下の処理をする。
ータのタイプに合わせて、SMILのaudio要素、video要
素、img要素などから対応する要素を選択する(ステッ
プS1808)。次に、記述コンバータ1003は、al
t要素の子要素posの、start属性およびend属性が指定さ
れている場合は、start属性の値をSMILのclip-begin属
性に、end属性の値をclip-end属性に設定する(ステッ
プS1809)。そして、記述コンバータ1003は、
代替データ毎に、保存場所を示すsrc属性を設定する
(ステップS1810)。
図18に示す処理により出力されるSMIL文書は図17と
同じものとなる。
クリップを同期させるために、再生開始時間を異なるも
のとする必要が出てくる場合がある。この場合は、各ク
リップの再生開始時間を計算し、その時間がくれば再生
を始めるようにする必要がある。
o要素,video要素,img要素,ref要素にbeginという属性が
用意されており、これらを用いることで実現できる。
ディアコンテンツの全体あるいは部分の構成を、メディ
アセグメントの時間情報と、該当メディアセグメントが
動画ならばその代表画像といったような代替データの集
合によって記述する構造記述データから、構造記述デー
タに記述されているメディアセグメントまたはその代替
データの再生順序、再生のタイミング、同期情報を表現
する表現記述データへの変換が行える。
関する情報から、端末に合わせた表示メディアの再生に
関する情報を生成することができる。この結果、メディ
アコンテンツの配信において、端末に合わせた配信デー
タを作成することができる。
合わせたメディアコンテンツの再生、配信を行うため
に、構造記述データにメディアセグメントとその代替デ
ータと、端末に合わせてメディアセグメントと代替デー
タを切り替えるデータとを記述したものである。そし
て、この構造記述データを、メディアセグメントおよび
代替データを端末に合わせて切り替えて表現する表現記
述データへの変換を行うものである。
する。実施の形態3の表現記述データには、メディアセ
グメントを再生する場合と、代替データを再生する場合
の二通りをひとつのSMIL文書に記述して出力するもので
ある。構造記述データとしては、図14および図15に
示したものを用いる。
データには、メディアセグメントを再生する場合と、代
替データを再生する場合とが、共に記述されている。こ
れを基にメディアコンテンツを再生するときは、メディ
アセグメントを再生する場合と、代替データを再生する
場合とのどちらを再生するか選択する必要がある。そこ
で、表現記述データの中に、選択するための条件を記述
するようにしている。
ch要素で記述できるため、本実施の形態においても、表
現記述データとしてSMIL文書を用いる。switch要素とは
複数のメディアから条件にあったひとつを選択するもの
である。選択は、switch要素の内容に書かれたメディア
順に評価され、最初に条件に合ったメディアが選択され
る。条件はswitch要素の内容に書かれたメディアの属性
に付けられており、system-bitrate、system-captionな
どがある。
ンツを配送するネットワークの接続ビットレートを条件
とする。具体的には、接続ビットレートが56kbps
以上の場合はメディアセグメントを再生し、56kbp
s未満の場合は代替データを再生することとする。
ィアセグメントもしくは代替データを再生するSMIL文書
を出力する処理について述べる。これは、実施の形態1
における図4のフローチャートの中で、SMIL文書を出力
するステップS405とステップS412の一部の処理
が異なるだけである。よって、ステップS405もしく
はステップS412に対応する処理について、図19を
用いて説明する。
Lのヘッダを出力する(ステップ1901)。次に、記
述コンバータ1003は、<switch>と</switch>でメデ
ィア全体を囲う(ステップS1902)。そして、記述
コンバータ1003は、メディアセグメントを<seq>と<
/seq>で囲い(ステップS1903)、seq要素のsystem
-bitrate属性をsystem-bitrate="56000"に設定する(ス
テップS1904)。
評価に用いられるもので、システムが利用可能な帯域を
1秒あたりのビット数で指定するものある。ここに記さ
れた値以上であればswitch要素が条件に合うと判定され
る。上記の例では、ビットレートが56000bps以上であれ
ば条件に合うと判定される。そして、この条件一致がsw
itch要素の中で最初の条件一致であれば、一致した条件
のメディアが選択される。
示すS503〜S505もしくは図9に示すS903〜
S908の処理を行う(ステップS1905)。これに
より、メディアセグメントを再生するSMIL文書を出力す
る。
視することにより、実施の形態1でのステップS405
あるいはステップS412の処理手順を用いることがで
きる。
素のsystem-bitrate属性を設定せず、この代替データを
<seq>と</seq>で囲い(ステップS1906)、実施の
形態2で示した図16のS1603〜S1612あるい
は、図18のS1803〜S1810の処理手順を行う
(ステップS1907)。これにより、記述コンバータ
1003は、代替データを再生するSMIL文書を出力す
る。
生する場合と、代替データを再生する場合とのどちらを
再生するか選択できるSMIL文書が作成できる。
るSMIL文書を示す。図20に示すSMIL文書にはswitch要
素2000が記述されていて、switch要素はふたつのse
q要素2001、2002を内容として持っている。ひ
とつのseq要素2001は、<seq system-bitrate="5600
0">から最初の</seq>までの部分、もうひとつのseq要素
2002はその下の<seq>から</seq>までの部分であ
る。このswitch要素が、<seq system-bitrate="56000">
を評価する。使用するシステムが利用可能なビットレー
トが56000bps以上であれば、この条件を満たすため、se
q要素2001が選択される。システムが利用可能なビ
ットレートが56000bps未満であれば、seq要素2001
は選択されず、seq要素2002を評価する。
再生することを示す部分であり、seq要素2002は代
替データを再生することを示す部分である。よって、シ
ステムが利用可能なビットレートが56000bps以上であれ
ばメディアセグメントを再生し、56000bps未満であれば
代替データが再生されることになる。
セグメントあるいは代替データのどちらを再生するかの
選択の条件として、ネットワークの接続ビットレートを
用いたが、他の条件であってもよい。ただし、その場
合、SMILのswitch要素を用いることができない条件もあ
るため、SMILのswitch要素を拡張した表現記述データを
定義する必要がある。
(a)に示すように、ここで指定された代替データを使
う条件を記述するconditionという子要素を持つように
拡張し、condition要素で指定された条件によって、場
合分けをしてもよい。
を用いた構造記述データを示す。図21(b)に記す構
造記述データは、narrow bandのときに一行上のデータ
を使うように、表現記述データを構成することを意味す
る。
クリップを同期させるために、再生開始時間を異なるも
のとする必要が出てくる場合がある。この場合は、各ク
リップの再生開始時間を計算し、その時間がくれば再生
を始めるようにする必要がある。
o要素,video要素,img要素,ref要素にbeginという属性が
用意されており、これらを用いることで実現できる。
ディアコンテンツの全体あるいは部分の構成を、メディ
アセグメントの時間情報と、該当メディアセグメントが
動画ならばその代表画像といったような代替データの集
合によって記述する構造記述データから、構造記述デー
タに記述されているメディアセグメントおよびその代替
データの再生順序、再生のタイミング、同期情報およ
び、メディアセグメントもしくは代替データのどちらか
を選択して再生することを示す情報を表現する表現記述
データへの変換が行える。これにより、メディアコンテ
ンツの構成に関する情報から、端末に合わせて、メディ
アセグメントもしくは代替データの選択を含んだ、再生
に関する情報を生成することができる。
報と音声情報とが同期した連続視聴覚情報(メディアコ
ンテンツ)に関して、あらすじやハイライトシーンのよ
うなメディアコンテンツの代表的な部分のみの再生、配
信を行うために、メディアコンテンツに対して、メディ
アコンテンツを区分けした各区分(メディアセグメン
ト)の集合によって該当メディアコンテンツの構成を表
現し、かつ各メディアセグメントの時間情報と該当メデ
ィアセグメントの文脈内容に基づいた重要度を記述した
ものである構造記述データと、文脈内容に基づいた重要
度のしきい値とを入力し、しきい値以上のメディアセグ
メントだけを構造記述データから選択するものである。
そして、構造記述データから選択したメディアセグメン
トを、再生形態として、メディアセグメントの再生順
序、再生のタイミングを表現する表現記述データに変換
し、出力するものである。
関する情報から、重要度の高いメディアセグメントのみ
を選択することによって、あらすじやハイライトシーン
を構成するメディアセグメントだけを選び出し、選び出
したメディアセグメントのみに対して、再生に関する表
現記述データへの変換を行うことができるようにしたも
のである。
する。実施の形態4は、メディアセグメントの代替デー
タが指定されていない構成に関するものである。図22
に、実施の形態4におけるデータ処理装置のブロック図
を示す。図22において、1501で示されるものは選
択手段である要約エンジンである。1502で記される
ものは変換手段である記述コンバータである。1503
で記されるものは入力データであり構造記述データであ
る内容記述であり、1504で記されるものは選択条件
であり、1505で記されるものは出力であり表現記述
データである再生方法記述である。
データのDTDを示す。図23に示すDTDは、図2(a)で
示したDTDのsegment要素に、メディアセグメントの文脈
内容に基づく重要度を表すscore2301という属性を
加えたものである。この重要度は、正の整数値で表され
るものとし、1が最も重要度が低いとする。
データである内容記述1503の例を示す。
には、重要度を示すscore属性が付与されている。
4として、メディアセグメントの重要度を用いる。そし
て、要約エンジン1501は、メディアセグメントの重
要度があるしきい値以上であることを条件として、メデ
ィアセグメントの選択を行う。以下、選択手段である要
約エンジン1501の処理について、図25のフローチ
ャートを用いて説明する。
S2501において、内容記述1503に記述された最
初のメディアセグメント、すなわちsegment要素の先頭
のものを取り出す。次に、要約エンジン1501は、ス
テップS2502において、取り出したメディアセグメ
ントのスコアである、segment要素のscore属性を取り出
し、それがしきい値以上であるかを調べる。そして、要
約エンジン1501は、最初のメディアセグメントのsc
ore属性がしきい値以上の場合はステップS2503の
処理に以降し、最初のメディアセグメントのscore属性
がしきい値未満の場合はステップS2504の処理に移
行する。
03では、該当メディアセグメントの開始時間と終了時
間であるsegment要素のstart属性,end属性の値を変換手
段である記述コンバータ1502に出力する。
S2504では、未処理のメディアセグメントがあるか
どうかを調べる。そして、要約エンジン1501は、未
処理のメディアセグメントがある場合は、ステップS2
505の処理に以降し、未処理のメディアセグメントが
ない場合は処理を終了する。
05において、未処理のメディアセグメントのうち、先
頭のsegment要素を取り出し、ステップS2502へ移
行する。
処理は、実施の形態1で示した図4の構造記述データか
らSMILへの変換の手順と同様であるので、詳細な説
明は省略する。
ン1501が、選択したメディアセグメントの要素の内
容を記述コンバータ1502へ出力し、記述コンバータ
1502はそれを用いて処理を行う構成であるが、要約
エンジン1501が選択されたメディアセグメントだけ
を残した中間的な構造記述データを作成し、記述コンバ
ータ1502がこの中間的な構造記述データを入力して
処理を行うものであってもよい。
3の構造記述データである内容記述1503から生成さ
れる中間的な構造記述データの例を示す。
構造記述データには、しきい値4以上のメディアセグメ
ントだけが選択されて記述されている。
トの重要度があるしきい値以上であることとしたが、選
択したメディアセグメントの再生時間の総和があるしき
い値以下であることとしてもよい。この場合は、要約エ
ンジン1501では、すべてのメディアセグメントをそ
の重要度の高い順にソートし、再生時間の総和がしきい
値以下で、かつ最大となるまで、ソートした先頭からメ
ディアセグメントを選択していく処理を行うようにす
る。また、メディアセグメントの重要度の条件と再生時
間の条件との組み合わせる形態であってもよい。
ディアセグメントの文脈内容に基づいた重要度から、メ
ディアセグメントの選択を行うことにより、あらすじや
ハイライトシーン集などを構成し、それらの表現記述デ
ータの生成が行える。これにより、ユーザが希望する部
分だけのメディアコンテンツの再生、配信が行える。
グメントの再生時間を変化させた要約内容記述を作成し
てもよい。
形態4が映像情報と音声情報がひとつのメディアオブジ
ェクトになっているものに限定されているのに対し、複
数のメディアオブジェクトによる同期で構成されている
場合も含むようにしたものである。
る。実施の形態5は、メディアセグメントの代替データ
が指定されていない構成に関するものである。実施の形
態5におけるデータ処理装置のブロック図は図22に示
したものと同様である。
1503のためのDTDとして、図23に示したものを
用いる。図27に、実施の形態5における構造記述デー
タである内容記述1503の例を示す。
プがvideoのmediaObject要素2701と、タイプがaudi
oのmediaObject要素2702と、が記述されている。図
中2703に示すようにタイプがvideoのmediaObject要
素2701のセグメントには、重要度であるscore属性
が記述されている。また、図中2704に示すようにタ
イプがaudioのmediaObject要素2702のセグメントに
は、重要度であるscore属性が記述されている。
4はメディアセグメントの重要度があるしきい値以上で
あることとする。この場合の選択手段である要約エンジ
ン1501の処理は、実施の形態4における要約エンジ
ン1501の処理を、各mediaObject要素毎に行うこと
となる。
ン1501の処理のフローチャートを示す。
S2801において、最初のmediaObject要素を取り出
す。次に、要約エンジン1501は、S2802におい
て、取り出したmediaObject要素の内容であるメディア
セグメントのうち先頭のものであるsegment要素を取り
出す。そして、要約エンジン1501は、ステップS2
803において、取り出したメディアセグメントのスコ
アを表すsegment要素のscore属性の値を取り出し、それ
がしきい値以上であるかどうかを調べる。
ィアセグメントがしきい値以上の場合はステップS28
04の処理に移行し、取り出したメディアセグメントが
しきい値未満の場合はステップS2805の処理に移行
する。そして、要約エンジン1501は、ステップS2
804で、該当メディアセグメントの開始時間と終了時
間であるsegment要素の、start属性およびend属性の値
を記述コンバータ1502に出力する。
S2805で、未処理のメディアセグメントがあるかど
うかを調べる。そして、要約エンジン1501は、未処
理のメディアセグメントがある場合はステップS280
6の処理に移行し、未処理のメディアセグメントない場
合はステップS2805の処理に移行する。
プS2806で、未処理のメディアセグメントのうち、
先頭のsegment要素を取り出し、ステップS2803の
処理に移行する。
S2807で、未処理のmediaObject要素がまだ残って
いるかどうかを調べ、まだ残っている場合はステップS
2808の処理に移行し、残っていない場合は処理を終
了する。そして、要約エンジン1501は、ステップS
2808で、未処理のmediaObject要素のうち、先頭のm
ediaObject要素を取り出し、ステップS2802の処理
に移行する。
ータ1502も、各mediaObject要素毎の処理となる
が、実施の形態1に示した図4の構造記述データからS
MILへの変換の手順の処理と同様の処理を行う。
ジン1501が、選択したメディアセグメントの要素の
内容を記述コンバータ1502へ出力し、要約エンジン
1502はそれを用いて処理を行う構成であるが、要約
エンジン1501が選択されたメディアセグメントだけ
を残した中間的な構造記述データを作成し、記述コンバ
ータ1502はこの中間的な構造記述データを入力して
処理を行うものであってもよい。
7の内容記述1503から生成される中間的な構造記述
データの例を示す。
videoのmediaObject要素には、しきい値4以上のメディ
アセグメントだけが選択され記述されている。また、図
中2902からわかるように、タイプがaudioのmediaOb
ject要素にも、しきい値が4以上のメディアセグメント
だけが選択され記述されている。
クリップに関し、同期させるために再生開始時間を異な
るものとする必要が出てくる場合がある。この場合は、
各クリップの再生開始時間を計算し、その時間がくれば
再生を始めるようにする必要がある。
o要素,video要素,img要素,ref要素にbeginという属性が
用意されており、これらを用いることで実現できる。
ディアセグメントの文脈内容に基づいた重要度から、メ
ディアセグメントの選択を行うことにより、あらすじや
ハイライトシーン集などを構成し、それらの表現記述デ
ータの生成が行える。これにより、ユーザが希望する部
分だけのメディアコンテンツの再生、配信が行える。
いて説明する。実施の形態4がメディアセグメントの代
替データが指定されていないのに対し、実施の形態6は
メディアセグメントの代替データを指定したものであ
る。また、実施の形態6は、要約エンジンにおいてメデ
ィアセグメントを再生するか、代替データを再生するか
の選択を行わない構成に関するものである。
ロック図は図22に示したものと同様である。
タのDTDの例を図30に示す。図中3001に示すよう
に、図30に示すDTDは、図13で示したDTDのsegment
要素にメディアセグメントの文脈内容に基づく重要度を
表すscoreという属性を加えたものである。この重要度
は、正の整数値で表されるものとし、1が最も重要度が
低いとする。
1503の例を示す。図31からわかるように、代替デ
ータで構成されるセグメントには、それぞれ重要度を示
すscore属性が記述されている。
エンジン1501の処理は、実施の形態4における要約
エンジンの処理と同様である。だたし、実施の形態6に
おける選択手段である要約エンジン1501は、選択し
たメディアセグメントの出力する際に、segment要素のs
tart属性,end属性に加えて、子要素であるalt要素も出
力する。
る記述コンバータ1502の処理は、実施の形態1、実
施の形態2、実施の形態3に示した図4の構造記述デー
タからSMILへの変換の手順の処理と同様である。
ン1501が、選択したメディアセグメントの要素の内
容を記述コンバータ1502へ出力し、記述コンバータ
1502はそれを用いて処理を行う構成であるが、要約
エンジン1501が選択されたメディアセグメントだけ
を残した中間的な構造記述データを作成し、記述コンバ
ータ1502はこの中間的な構造記述データを入力して
処理を行うものであってもよい。
1の構造記述データである内容記述1503から生成さ
れる中間的な構造記述データの例を示す。
要度であるscore属性の値が4以上のセグメントと、こ
のセグメントの代替データのみを選択して記述してあ
る。
ついて説明する。実施の形態5がメディアセグメントの
代替データが指定されていないのに対し、実施の形態7
はメディアセグメントの代替データを指定したものであ
る。また、実施の形態7は、メディアセグメントの代替
データが指定されており、また要約エンジンにおいてメ
ディアセグメントを再生するか代替データを再生するか
の選択を行わない構成に関するものである。
ロック図は図22に示したものと同様である。
である内容記述1503のためのDTDとして、図30に
示したものを用いる。図33に実施の形態7における構
造記述データである内容記述1503の例を示す。
エンジン1501の処理は、実施の形態5における要約
エンジン1501の処理と同様である。だたし、実施の
形態7にかかる要約エンジン1501は、選択したメデ
ィアセグメントを出力する際に、segment要素のstart属
性,end属性に加えて、子要素であるalt要素も出力す
る。
タ1502の処理は、実施の形態1、実施の形態2、ま
たは実施の形態3に示した図4の構造記述データからSM
ILへの変換の手順の処理と同様である。
ン1501が、選択したメディアセグメントの要素の内
容を記述コンバータ1502へ出力し、記述コンバータ
1502はそれを用いて処理を行う構成であるが、要約
エンジン1501が選択されたメディアセグメントだけ
を残した中間的な構造記述データを作成し、記述コンバ
ータ1502はこの中間的な構造記述データを入力して
処理を行うものであってもよい。
を4とした場合に図33の内容記述1503から生成さ
れる中間的な構造記述データの例である。
要度であるscore属性の値が4以上のセグメントとこの
セグメントの代替データを、メディアのタイプ毎に分け
て記述してある(実施の形態8)実施の形態8は、映像
情報と音声情報とが同期した連続視聴覚情報(メディア
コンテンツ)のあらすじやハイライトシーンのようなメ
ディアコンテンツの代表的な部分のみを、端末にあった
表示メディアによって再生、配信を行うためのものであ
る。つまり、メディアコンテンツに対して、メディアコ
ンテンツを区分けした各区分(メディアセグメント)の
集合によって該当メディアコンテンツの構成を表現し、
かつ各メディアセグメントの時間情報と、該当メディア
セグメントの文脈内容に基づいた重要度を記述したもの
である構造記述データと、文脈内容に基づいた重要度の
しきい値とを入力とし、しきい値以上のメディアセグメ
ントだけを選択するものである。そして、選択したメデ
ィアセグメントの再生形態としてメディアセグメントあ
るいは該当メディアセグメントの代替データのどちらか
を選択して、その再生順序、再生のタイミングを表現す
る表現記述データに変換し出力するものである。
関する情報から、重要度の高いメディアセグメントのみ
を選択することによって、あらすじやハイライトシーン
を構成するメディアセグメントだけを選び出し、選び出
したメディアセグメントのみの再生に関する表現記述デ
ータへの変換を行うことができる。よって、メディアコ
ンテンツを再生する端末の能力や配信するネットワーク
の状況に合わせたメディアの選択を実現することができ
る。
実施の形態6がメディアセグメントの代替データが指定
されており、メディアセグメントを再生するか代替デー
タを再生するかの選択を行わないものに対し、実施の形
態8は、メディアセグメントの代替データが指定されて
おり、メディアセグメントを再生するか代替データを再
生するかの選択を行うものである。実施の形態8におい
ては、選択手段が、メディアセグメント選択手段と、再
生メディア選択手段に分かれる。また、選択条件はセグ
メント選択条件と再生メディア選択条件に分かれる。
装置のブロック図を示す。図35において、2801で
記されるものはメディアセグメント選択手段である要約
エンジンである。また、2800で記されるものは記述
コンバータである。また、記述コンバータ2800は、
再生メディア選択手段である再生メディア選択部280
2と、変換手段である変換部2803とから構成されて
いる。
り構造記述データである内容記述を、2805で記され
るものはセグメント選択条件を、2806で記されるも
のは再生メディア選択条件を、2807で記されるもの
は出力であり表現記述データある再生方法記述を表す。
ある内容記述2804は実施の形態6における内容記述
1503と同じものを用いる。すなわち、内容記述28
04は、図30に示したDTDを用いたもので、一例は
図31に示されているものである。また、セグメント選
択条件2805は、実施の形態4あるいは実施の形態6
における選択条件1504と同様のものを用いる。この
場合、メディアセグメント選択手段である要約エンジン
2801の処理は、実施の形態6における要約エンジン
1501の処理と同様となる。
について説明する。再生メディア選択部2802は、再
生メディア選択条件2806として、メディアコンテン
ツを配送するネットワークの接続ビットレートを条件と
する。すなわち、再生メディア選択部2802は、接続
ビットレートが56kbps以上の場合はメディアセグ
メントを再生し、56kbps未満の場合は代替データ
を再生することとする。再生メディア選択部2802
は、接続ビットレートを調べ、どちらを再生するかを判
定し、変換部2803へ通知する。
択手段である要約エンジン2801が選択したメディア
セグメントの要素と、再生メディア選択部2802が選
択した結果を入力し、再生メディア選択部2802の結
果に基づいて、SMILによる表現記述データである再生方
法記述2807を出力する。
に変換する処理は、実施の形態1あるいは実施の形態に
示した図4の構造記述データからSMILへの変換の手順の
処理と同様である。
ジン2801が、選択したメディアセグメントの要素の
内容を変換部2803へ出力し、変換部2803はそれ
を用いて処理を行う構成であるが、要約エンジン280
1が選択されたメディアセグメントだけを残した中間的
な構造記述データを作成し、変換部2803はこの中間
的な構造記述データを入力して処理を行うものであって
もよい。
て、ネットワークのビットレートを用いたが、他に、再
生端末の能力や、ユーザからの要求などであってもよ
い。
ついて述べる。実施の形態7がメディアセグメントの代
替データが指定されており、メディアセグメントを再生
するか代替データを再生するかの選択を行わないものに
対し、実施の形態9は、メディアセグメントの代替デー
タが指定されており、メディアセグメントを再生するか
代替データを再生するかの選択を行うものである。ま
た、実施の形態9は、選択手段においてメディアセグメ
ントを再生するか代替データを再生するかの選択を行う
構成に関するものである。
同様、選択手段が、メディアセグメント選択手段と、再
生メディア選択手段に分かれる。また、選択条件はセグ
メント選択条件と再生メディア選択条件に分かれる。し
たがって、本実施の形態におけるデータ処理装置のブロ
ック図は、図35に示したものと同様となる。
ある内容記述2804は実施の形態7における構造記述
データ1503と同じものを用いる。すなわち、内容記
述2804は図30に示したDTDを用いたもので、内容
記述2804の一例は図34に示されているものであ
る。また、セグメント選択条件2805は、実施の形態
8と同様のものを用いる。したがって、要約エンジン2
801の処理は、実施の形態7における要約エンジン1
501の処理と同様となる。
2802の処理は、実施の形態8に記述したものと同様
のものを用いる。
が選択したメディアセグメントの要素と、再生メディア
選択部2802が選択した結果を入力し、再生メディア
選択部2802の結果に基づいて、SMILによる表現記述
データである再生方法記述2807を出力する。変換部
2803が行う構造記述データからSMILへの変換処理
は、実施の形態1あるいは実施の形態2に示した図4の
構造記述データからSMILへの変換の手順と同様である。
ジン2801が、選択したメディアセグメントの要素の
内容を変換部2803へ出力し、変換部2803はそれ
を用いて処理を行う構成であるが、要約エンジン280
1が選択されたメディアセグメントだけを残した中間的
な構造記述データを作成し、変換部2803はこの中間
的な構造記述データを入力して処理を行うものであって
もよい。
て、ネットワークのビットレートを用いたが、他に、再
生端末の能力や、ユーザからの要求などであってもよ
い。
像情報と音声情報とが同期した連続視聴覚情報(メディ
アコンテンツ)に関して、ユーザの嗜好に合わせたメデ
ィアコンテンツの代表的な部分のみの再生、配信を行う
ためのものである。つまり、実施の形態10は、メディ
アコンテンツに対して、メディアコンテンツを区分けし
た各区分(メディアセグメント)の集合によって該当メ
ディアコンテンツの構成を表現し、かつ各メディアセグ
メントの時間情報と、キーワードで表現される観点に基
づいた該当メディアセグメントの重要度とを記述したも
のである構造記述データと、ユーザの嗜好に合った観点
とその重要度のしきい値とを入力とし、しきい値以上の
メディアセグメントだけを選択するものである。そし
て、選択したメディアセグメントの再生形態としてメデ
ィアセグメントの再生順序、再生のタイミングを表現す
る表現記述データに変換し出力するものである。これに
より、メディアコンテンツの構成に関する情報から、該
当観点に基づく重要度がしきい値以上のメディアセグメ
ントだけを選び出し、選び出したメディアセグメントの
みの再生に関する表現記述データへの変換を行うもので
ある。この結果、観点に基づく重要度により、ユーザの
嗜好に合わせたハイライトシーン集などを構成でき、そ
の部分だけの再生、配送を行うことができるといった作
用を有する。
する。実施の形態10は、メディアセグメントの代替デ
ータが指定されていない構成に関するものである。実施
の形態10におけるデータ処理装置のブロック図は図2
2に示したものと同様となる。
述データのDTDを示す。図中3601に示すように、図
36に示すDTDは、図2(a)で示したDTDのsegment要
素に、キーワードで表現される観点に基づく重要度を表
すスコアを表すため、pointOfViewという要素を子要素
となるように加えたものである。
fView要素は、viewPoint属性によって観点を表し、scor
e属性によってviewPoint属性で示した観点に基づく重要
度を表す。この重要度は、正の整数値で表されるものと
し、1が最も重要度が低いとする。また、ひとつのsegm
ent要素に複数のpointOfView要素をつけることができ
る。図37に、実施の形態10で用いる構造記述データ
である内容記述1503の例を示す。
に、pointOfView要素と、その属性であるviewPointと、
属性であるscoreが記述されている。
04は、ある観点に関して、メディアセグメントのその
観点に基づく重要度がしきい値以上であるとする。ま
た、選択条件1504となる観点は複数であっても構わ
ない。この場合の選択手段である要約エンジン1501
における処理のフローチャートを図38に示す。
S3801において、先頭のメディアセグメントである
segment要素を取り出す。次に、要約エンジン1501
は、ステップS3802において、取り出したメディア
セグメントであるsegment要素の内容であるpointOfView
要素をすべて調べる。そして、要約エンジン1501
は、調べたpointOfView要素のviewPoint属性に、選択条
件1504で指定された観点が指定されているものがあ
るかどうかを調べる。
件1504で指定された観点が指定されているものがあ
る場合は、選択条件1504で指定された観点に基づく
重要度としきい値を比べるために、ステップS3803
の処理に移行する。一方、要約エンジン1501は、選
択条件1504で指定された観点が指定されているもの
がない場合は、選択条件1504で指定された観点に基
づく重要度がつけられていないため、ステップS380
5の処理に移行する。
S3803において、選択条件1504で指定された観
点に基づく重要度がしきい値以上であるかを調べる。そ
して、選択条件1504は指定された観点に基づく重要
度がしきい値以上の場合は、ステップS3804の処理
に移行し、この重要度がしきい値未満の場合はステップ
S3805の処理に移行する。
プS3804において、該当メディアセグメントの開始
時間と終了時間を表す、segment要素のstart属性とend
属性の値を記述コンバータ1502に出力する。また、
要約エンジン1501は、ステップS3805におい
て、未処理のメディアセグメントがあるかどうかを調
べ、ある場合はステップS3806の処理に移行する。
一方、要約エンジン1501は、未処理のメディアセグ
メントがない場合は、処理を終了する。
S3806では、未処理のメディアセグメントのうち、
先頭のsegment要素を取り出し、ステップS3802の
処理に移行する。
形態1に示した図4の構造記述データからSMILへの変換
の手順と同様である。
ジン1501が、選択したメディアセグメントの要素の
内容を記述コンバータ1502へ出力し、記述コンバー
タ1502はそれを用いて処理を行う構成であるが、要
約エンジン1501が選択されたメディアセグメントだ
けを残した中間的な構造記述データを作成し、記述コン
バータ1502はこの中間的な構造記述データを入力し
て処理を行う形態であってもよい。
ある観点に関する重要度があるしきい値以上であること
としたが、選択したメディアセグメントの再生時間の総
和があるしきい値以下であることでもよい。この場合、
要約エンジン1501は、すべてのメディアセグメント
を指定された観点に関する重要度の高い順にソートし、
再生時間の総和がしきい値以下で、かつ最大となるま
で、ソートした先頭からメディアセグメントを選択して
いく処理を行うこととなる。
た観点が複数ある場合は、各メディアセグメントに関し
て、指定された観点に関する重要度のうち最大のものを
とり、その値でソートしてもよいし、それらの総和や相
加平均をとり、その値でソートしてもよい。
する重要度の条件と再生時間の条件との組み合わせであ
ってもよい。
メディアセグメントに付加された、キーワードで表現さ
れる観点に基づいた重要度から、ユーザの興味のあるメ
ディアセグメントだけの選択を行うことにより、ユーザ
の嗜好に合わせたあらすじやハイライトシーン集などを
構成し、それらの表現記述データの生成が行える。これ
により、ユーザが希望する部分だけのメディアコンテン
ツの再生、配信が行える。
形態11について説明する。実施の形態10が複数のタ
イプのメディアを持たないのに対し、実施の形態11は
複数のタイプのメディアを有し、メディアセグメントの
代替データが指定されていない構成に関するものであ
る。実施の形態11におけるデータ処理装置のブロック
図は図22に示したものと同様である。
タ1503のためのDTDとして、図36に示したものを
用いる。また、図39に実施の形態11における構造記
述データである内容記述1503の例を示す。
造記述データは、タイプの異なるmediaObject要素を有
し、segment要素毎に、pointOfView要素と、その属性で
あるviewPointおよび属性であるscoreが記述されてい
る。
は、実施の形態10と同様であり、ある観点に関して、
メディアセグメントのその観点に基づく重要度がしきい
値以上であることとする。また、選択条件1504とな
る観点は複数であっても構わない。この場合の要約エン
ジン1501の処理は、実施の形態10における要約エ
ンジン1501の処理を、各mediaObject要素毎に行う
こととなる。図40に、実施の形態11における要約エ
ンジン1501の処理のフローチャートを示す。
S4001において、最初のmediaObject要素を取り出
す。次に、要約エンジン1501は、ステップS400
2において、取り出したmediaObject要素の内容のう
ち、先頭のメディアセグメントであるsegment要素を取
り出す。そして、要約エンジン1501は,ステップS
4003において、取り出したメディアセグメントであ
るsegment要素の内容であるpointOfView要素をすべて調
べ、調べたpointOfView要素のviewPoint属性に、選択条
件1504で指定された観点が指定されているものがあ
るか調べる。
pointOfView要素のviewPoint属性に、選択条件1504
で指定された観点が指定されているものがある場合は、
選択条件1504で指定された観点に基づく重要度とし
きい値とを比較するため、ステップS4004の処理に
移行する。一方、要約エンジン1501は、調べたpoin
tOfView要素のviewPoint属性に、選択条件1504で指
定された観点が指定されているものがない場合は、選択
条件1504で指定された観点に基づく重要度がつけら
れていないため、ステップS4006の処理に移行す
る。
04において、選択条件1504で指定された観点に基
づく重要度がしきい値以上であるかを調べる。また、要
約エンジン1501は、選択条件1504で指定された
観点に基づく重要度がしきい値以上の場合は、ステップ
S4005の処理に移行し、選択条件1504で指定さ
れた観点に基づく重要度がしきい値未満の場合はステッ
プS4006の処理に移行する。
05では、該当メディアセグメントの開始時間と終了時
間を表す、segment要素のstart属性とend属性の値を記
述コンバータ1502へ出力する。また、要約エンジン
1501は、ステップS4006では、未処理のメディ
アセグメントがあるかどうかを調べ、未処理のメディア
セグメントがある場合はステップS4007の処理に移
行する。また要約エンジン1500は、未処理のメディ
アセグメントがない場合は、ステップS4008の処理
に移行する。
08では未処理のmediaObject要素がまだ残っているか
どうかを調べ、残っている場合はステップS4009の
処理に移行する。要約エンジン1501は、未処理のme
diaObject要素が残っていない場合は処理を終了する。
S4009では、未処理のmediaObject要素のうち、先
頭のmediaObject要素を取り出し、ステップS4002
の処理に移行する。
も、各mediaObject要素毎の処理を行うが、それ以外
は、実施の形態1に示した図4の構造記述データからS
MILへの変換の手順の処理と同様の処理を行う。
ジン1501が、選択したメディアセグメントの要素の
内容を記述コンバータ1502へ出力し、記述コンバー
タ1502はそれを用いて処理を行う構成であるが、要
約エンジン1501が選択されたメディアセグメントだ
けを残した中間的な構造記述データを作成し、記述コン
バータ1502はこの中間的な構造記述データを入力し
て処理を行う形態であってもよい。
クリップに関し、同期させるために再生開始時間を異な
るものとする必要が出てくる場合がある。この場合は、
各クリップの再生開始時間を計算し、その時間がくれば
再生を始めるようにする必要がある。
o要素,video要素,img要素,ref要素にbeginという属性が
用意されており、これらを用いることで実現できる。
2について述べる。実施の形態10がメディアセグメン
トの代替データが指定されていないのに対し、実施の形
態12はメディアセグメントの代替データが指定されて
いるものである。また、実施の形態12は、選択手段に
おいてメディアセグメントを再生するか代替データを再
生するかの選択を行わない構成に関するものである。実
施の形態12におけるデータ処理装置のブロック図は図
22に示したものと同様である。
ータのDTDの例を図41に示す。図41に示すDTDは、図
13で示したDTDのsegment要素に、キーワードで表現さ
れる観点に基づく重要度を表すスコアを表すため、poin
tOfViewという要素を子要素となるように加えたもので
ある。pointOfView要素は、viewPoint属性によって観点
を表し、score属性によってviewPoint属性で示した観点
に基づく重要度を表す。この重要度は、正の整数値で表
されるものとし、1が最も重要度が低いとする。また、
ひとつのsegment要素に複数のpointOfView要素をつける
ことができる。図42に内容記述データ1503の例を
示す。
記述データには、DTDのsegment要素に、pointOfViewと
いう要素が子要素となるように加えられている。また、
pointOfView要素は、viewPoint属性とscore属性とが記
述されている。
01の処理は、実施の形態10における要約エンジン1
501の処理と同様である。だたし、実施の形態12に
おける要約エンジン1501の処理は、選択したメディ
アセグメントの出力する際に、segment要素のstart属性
とend属性に加えて、子要素であるalt要素も出力する。
ータ1502の処理は、実施の形態1、実施の形態2、
あるいは実施の形態3に示した図4の構造記述データか
らSMILへの変換の手順の処理と同様である。
形態10においては要約エンジン1501が、選択した
メディアセグメントの要素の内容を記述コンバータ15
02へ出力し、記述コンバータ1502はそれを用いて
処理を行う構成であるが、要約エンジン1501が選択
されたメディアセグメントだけを残した中間的な構造記
述データを作成し、記述コンバータ1502はこの中間
的な構造記述データを入力して処理を行う形態であって
もよい。
3について述べる。実施の形態11がメディアセグメン
トの代替データが指定されていないのに対し、実施の形
態13はメディアセグメントの代替データが指定されて
いるものに関する。また、実施の形態13は、選択手段
においてメディアセグメントを再生するか代替データを
再生するかの選択を行わない構成に関するものである。
実施の形態13におけるデータ処理装置のブロック図は
図15に示したものと同様である。
03のためのDTDとして、図41に示したものを用い
る。図43、図44に実施の形態12における構造記述
データ1503の例を示す。
構造記述データには、異なるタイプのmediaObject要素
を有し、mediaObject要素毎にsegment要素を有する。そ
して、segment要素毎に、pointOfView要素と、その属性
であるviewPointおよび属性であるscoreが記述されてい
る。
01の処理は、実施の形態11における要約エンジンの
処理と同様である。だたし、実施の形態12における要
約エンジン1501は、選択したメディアセグメントを
出力する際に、segment要素のstart属性とend属性に加
えて、子要素であるalt要素も出力する。
ータ1502の処理は、実施の形態1、実施の形態2、
あるいは実施の形態3に示した図4の構造記述データか
らSMILへの変換の手順の処理と同様である。
ジン1501が、選択したメディアセグメントの要素の
内容を記述コンバータ1502へ出力し、記述コンバー
タ1502はそれを用いて処理を行う構成であるが、要
約エンジン1501が選択されたメディアセグメントだ
けを残した中間的な構造記述データを作成し、記述コン
バータ1502はこの中間的な構造記述データを入力し
て処理を行う形態であってもよい。
4について説明する。実施の形態12が選択手段におい
てメディアセグメントを再生するか代替データを再生す
るかの選択を行わない構成に関するものであるのに対
し、実施の形態14は選択手段においてメディアセグメ
ントを再生するか代替データを再生するかの選択を行う
構成に関するものである。実施の形態14においては、
選択手段が、メディアセグメント選択手段と、再生メデ
ィア選択手段に分かれる。また、選択条件はセグメント
選択条件と再生メディア選択条件に分かれる。したがっ
て、実施の形態14におけるデータ処理装置のブロック
図は、図35に示したものと同様となる。
2804は実施の形態12における内容記述1503と
同じものを用いる。すなわち、実施の形態14の内容記
述データ2804は図41に示したDTDを用いたもの
で、実施の形態14の内容記述データ2804の一例は
図42に示されているものである。
施の形態10あるいは実施の形態12における選択条件
1504と同様のものを用いる。この場合、要約エンジ
ン2801の処理は、実施の形態12における要約エン
ジン1501の処理と同様となる。
について説明する。再生メディア選択部2802は、再
生メディア選択条件2806として、メディアコンテン
ツを配送するネットワークの接続ビットレートを条件と
する。すなわち、再生メディア選択部2802は、接続
ビットレートが56kbps以上の場合はメディアセグ
メントを再生し、56kbps未満の場合は代替データ
を再生することとする。再生メディア選択部2802
は、接続ビットレートを調べ、どちらを再生するかを判
定し、変換部2803へ通知する。
択手段である要約エンジン2801が選択したメディア
セグメントの要素と、再生メディア選択部2802が選
択した結果を入力し、再生メディア選択部2802の結
果に基づいて、SMILによる表現記述データである再生方
法記述2807を出力する。
に変換する処理は、実施の形態1あるいは実施の形態2
に示した図4の構造記述データからSMILへの変換の手順
の処理と同様である。
ジン2801が、選択したメディアセグメントの要素の
内容を変換部2803へ出力し、変換部2803はそれ
を用いて処理を行う構成であるが、要約エンジン280
1が選択されたメディアセグメントだけを残した中間的
な構造記述データを作成し、変換部2803はこの中間
的な構造記述データを入力して処理を行うものであって
もよい。
て、ネットワークのビットレートを用いたが、他に、再
生端末の能力や、ユーザからの要求などであってもよ
い。
5について述べる。実施の形態13が選択手段において
メディアセグメントを再生するか代替データを再生する
かの選択を行う構成に関するものであるのに対し、実施
の形態15は選択手段においてメディアセグメントを再
生するか代替データを再生するかの選択を行う構成に関
するものである。実施の形態15においても、実施の形
態8と同様、選択手段が、メディアセグメント選択手段
と、再生メディア選択手段に分かれる。また、選択条件
はセグメント選択条件と再生メディア選択条件に分かれ
る。したがって、本実施の形態におけるデータ処理装置
のブロック図は、図35に示したものと同様となる。
は実施の形態13における構造記述データ1503と同
じものを用いる。すなわち、実施の形態15の構造記述
データ2804は、図41に示したDTDを用いたもの
で、一例は図43、図44に示されているものである。
件2805は、実施の形態14のセグメント選択条件2
805と同様のものを用いる。したがって、要約エンジ
ン2801の処理は、実施の形態13における要約エン
ジン1501の処理と同様となる。
部2802の処理は、実施の形態14に記述した再生メ
ディア選択部2802と同様のものを用いる。
エンジン2801が選択したメディアセグメントの要素
と、再生メディア選択部2802が選択した結果を入力
し、再生メディア選択部2802の結果に基づいて、SM
ILによる表現記述データである再生方法記述2807を
出力する。
ILへの変換処理は、実施の形態1あるいは実施の形態2
に示した図4の構造記述データからSMILへの変換の手順
と同様である。
ジン2801が、選択したメディアセグメントの要素の
内容を変換部2803へ出力し、変換部2803はそれ
を用いて処理を行う構成であるが、要約エンジン280
1が選択されたメディアセグメントだけを残した中間的
な構造記述データを作成し、変換部2803はこの中間
的な構造記述データを入力して処理を行うものであって
もよい。
て、ネットワークのビットレートを用いたが、他に、再
生端末の能力や、ユーザからの要求などであってもよ
い。
6について説明する。図45に、実施の形態16におけ
るデータ処理装置のブロック図を示す。図45におい
て、3801で記されるものは構造記述データデータベ
ースを、3802で記されるものは選択部を、3803
で記されるものは変換部を、3804で記されるものは
再生部を、3805で記されるものはメディアコンテン
ツデータベースを表す。また、3806で記されるもの
は構造記述データを、3808で記されるものは要約内
容記述データを、3809で記されるものは表現記述デ
ータを、3810で記されるものはメディアコンテンツ
データを表す。
構造記述データ3806、選択条件3807および表現
記述データ3809は、実施の形態4から実施の形態1
5のいずれかに示したものと同様である。また、要約構
造記述データ3808は、実施の形態4から実施の形態
15のいずれかに示した、選択されたメディアセグメン
トだけを残した中間的な構造記述データにあたるもので
ある。選択部3802、変換部3803は、コンピュー
タ上でプログラムを実行することにより実現できる。
3809がSMILによって表現されているため、SMILプレ
ーヤを用いることができる。SMILプレーヤは、コンピュ
ータ上でプログラムを実行することにより実現でき、SM
ILプレーヤソフトウェアとしては、例えばReal Network
sのReal Playerなどフリーのソフトが流通している。
2が要約構造記述データ3808を出力するものとした
が、実施の形態4から実施の形態15のいずれかに示し
たように、要約構造記述データ3808を出力せず、選
択したメディアセグメントを出力する形態のものであっ
てもよい。
にかかるサーバ−クライアントシステムついて、図46
を用いて説明する。実施の形態17は、選択部3802
と変換部3803をサーバ4601側に備え、再生部3
804をクライアント4602側に備えたものである。
そして、実施の形態17は、変換部3803と再生部3
804との接続をネットワーク4603上で行うもので
ある。これにより、実施の形態17は、ネットワークを
通じて、表現記述データ3809を通信する構成のサー
バ−クライアントシステムとなる。
ュータで実行できるプログラムとして書かれ、サーバ4
601側とクライアント4602側内の記憶媒体に格納
され、それぞれ実行される。
わりにメタデータデータベース1001を、選択部38
02のかわりに要約エンジン1002、1501、28
01を、変換部3803のかわりに記述コンバータ10
03、1502、2800を、再生部3804のかわり
に再生機1004を、メディアコンテンツデータベース
3805のかわりにメディアコンテンツデータベース1
005を用いても良い。
うにメディアコンテンツデータベース3805をサーバ
4601aに備え、メディアコンテンツデータ3810
をネットワーク4603を介してクライアント4602
aに送る形態であっても良い。
8にかかるサーバ−クライアントシステムついて述べ
る。
説明する。実施の形態18は、選択部3802をサーバ
4701側に備え、変換部3803と再生部3804を
クライアント4702側に備えたものである。また、実
施の形態18は、選択部3802と変換部3803との
接続をネットワーク4603上で行う。これにより、実
施の形態18は、ネットワークを通じて、要約構造記述
データ3808を通信する構成のサーバ−クライアント
システムとなる。
ュータで実行できるプログラムとして書かれ、サーバ4
701側とクライアント4702側内の記憶媒体に格納
され、それぞれ実行される。
わりにメタデータデータベース1001を、選択部38
02のかわりに要約エンジン1002、1501、28
01を、変換部3803のかわりに記述コンバータ10
03、1502、2800を、再生部3804のかわり
に再生機1004を、メディアコンテンツデータベース
3805のかわりにメディアコンテンツデータベース1
005を用いても良い。
うに、メディアコンテンツデータベース3805をサー
バ4701aに備え、メディアコンテンツデータ381
0をネットワーク4603を介してクライアント470
2aに送る形態であっても良い。
メディアセグメントによるメディアコンテンツの構成を
記述する構造記述データから、メディアコンテンツを再
生する形態を表現する表現記述データへの変換を行え
る。このため、メディアコンテンツの再生において、メ
ディアセグメント毎に再生するタイミング、同期情報な
どの制約を加えることができ、さまざまな再生が実現で
きる。
トの代替データを構造記述データに記述しておくことに
より、メディアセグメント自体を再生するか、代替デー
タを再生するかの選択が行える。これにより、メディア
コンテンツを配送するネットワークの容量や通信量、メ
ディアコンテンツを再生する端末の能力などに合わせた
メディアで、コンテンツの配送や再生が行える。
各メディアセグメントの文脈内容に基づいたスコアをさ
らに記述することによって、例えば、さまざまな再生時
間のハイライトシーン集などの再生や配送を容易に行う
ことができ、また、スコアをキーワードで示される観点
に基づくものとすることにより、キーワードを指定する
ことによって、ユーザの好みに合わせたシーンだけを再
生、配送することができる。
テムの概念図
のDTDを示す図 (b) 実施の形態1における構造記述データの一例を
示す図
とつの一例を示す図
記述データへの変換のフロー図
述データである要約内容記述からSMIL文書である再生方
法記述を出力するフロー図
示す図
示す図
述データである要約内容記述からSMIL文書である再生方
法記述を出力するフロー図
を示す図
を示す図
を示す図
タのDTDを示す図
を示す図
ひとつの一例を示す図
記述データである要約内容記述からSMIL文書である再生
方法記述を出力するフロー図
を示す図
記述データである要約内容記述からSMIL文書である再生
方法記述を出力するフロー図
現記述データへの変換のフロー図
を示す図
タの拡張のDTDを示す図 (b) 実施の形態3における構造記述データの拡張の
一例を示す図
置のブロック図
Dを示す図
を示す図
フロー図
タの一例を示す図
タの一例を示す図
フロー図
タの一例を示す図
タのDTDを示す図
を示す図
タの一例を示す図
タの一例を示す図
タの一例を示す図
置のブロック図
ータのDTDを示す図
例を示す図
るフロー図
ータの一例を示す図
るフロー図
ータのDTDを示す図
例を示す図
ータの一例を示す第1の図
例を示す第2の図
装置のブロック図
ントシステムのブロック図
テムのその他の例のブロック図
ントシステムのブロック図
テムのその他の例のブロック図
Claims (20)
- 【請求項1】 連続視聴覚情報であるメディアコンテン
ツの全体あるいは前記メディアコンテンツの部分の構成
を、前記メディアコンテンツを区分けした区分であるメ
ディアセグメントの時間情報の集合によって表現する構
造記述データを入力し、入力した前記構造記述データに
記述されている前記メディアセグメントの時間情報を取
得する解析部と、解析した前記メディアセグメントの時
間情報を用いて前記構造記述データを前記メディアセグ
メントの、再生順序、再生のタイミング、および同期情
報を表現する表現記述データに変換し出力する変換部
と、を具備したことを特徴するデータ処理装置。 - 【請求項2】 前記構造記述データは、前記メディアセ
グメントの代替データの集合を有し、前記変換部は、前
記構造記述データを前記メディアセグメントおよび前記
代替データの少なくとも一方の、再生順序、再生のタイ
ミング、および同期情報を表現する表現記述データに変
換することを特徴とする請求項1記載のデータ処理装
置。 - 【請求項3】 前記構造記述データに表現されている前
記メディアセグメントを再生する際に、前記メディアセ
グメントあるいは前記代替データのどちらを再生するか
を選択するメディア選択部を具備し、前記変換部は、前
記メディア選択部の選択に基づいて、前記メディアセグ
メントもしくは前記代替データデータのどちらか一方
の、再生順序、再生のタイミング、および同期情報を表
現する表現記述データを出力することを特徴とする請求
項2記載のデータ処理装置。 - 【請求項4】 前記表現記述データは、SMIL文書である
ことを特徴とする請求項1から請求項3のいずれかに記
載のデータ処理装置。 - 【請求項5】 映像情報と音声情報とが同期した連続視
聴覚情報であるメディアコンテンツの構成を、前記メデ
ィアコンテンツを区分けした区分であるメディアセグメ
ントの集合によって表現し、かつ前記メディアセグメン
トの時間情報と前記メディアセグメントの文脈内容にお
けるスコアを記述した構造記述データと、前記構造記述
データから所定の前記メディアセグメントを選択するた
めの選択条件とを入力し、入力した前記構造記述データ
から前記選択条件にあったスコアを持つ前記メディアセ
グメントだけを選択する選択部と、前記選択部が選択し
た前記メディアセグメントを、前記メディアセグメント
の、再生順序および再生のタイミングを表現する表現記
述データに変換し出力する変換部と、を具備したことを
特徴とするデータ処理装置。 - 【請求項6】 前記構造記述データは、前記メディアセ
グメントの代替データの集合を有し、前記変換部は、前
記構造記述データを前記メディアセグメントおよび前記
代替データの少なくとも一方の、再生順序、再生のタイ
ミング、および同期情報を表現する表現記述データに変
換することを特徴とする請求項5に記載のデータ処理装
置。 - 【請求項7】 前記選択部は、前記選択したメディアセ
グメントを再生する際に、前記メディアセグメントある
いは前記代替データのどちらを再生するかの選択を行う
ことを特徴とする請求項6に記載のデータ処理装置。 - 【請求項8】 前記スコアは、メディアコンテンツの文
脈内容に基づいた該当メディアセグメントの重要度であ
ることを特徴とする請求項5から請求項7のいずれかに
記載のデータ処理装置。 - 【請求項9】 前記メディアセグメントにはキーワード
で表現される観点が付与され、前記スコアは前記観点に
基づいた該当メディアセグメントの重要度であることを
特徴とする請求項5から請求項8のいずれかに記載のデ
ータ処理装置。 - 【請求項10】 映像情報もしくは音声情報の少なくと
もどちらか一方の連続視聴覚情報であるメディアコンテ
ンツの構成を、前記メディアコンテンツを区分けした区
分であるメディアセグメントの集合によって表現し、か
つ前記メディアセグメントの時間情報と前記メディアセ
グメントの文脈内容におけるスコアを記述した構造記述
データと、前記構造記述データから所定の前記メディア
セグメントを選択するための選択条件とを入力し、入力
した前記構造記述データから前記選択条件にあったスコ
アを持つ前記メディアセグメントだけを選択する選択部
と、前記選択部が選択した前記メディアセグメントを、
前記メディアセグメントの、再生順序、再生のタイミン
グ、および同期情報を表現する表現記述データに変換し
出力する変換部と、を具備したことを特徴とするデータ
処理装置。 - 【請求項11】 連続視聴覚情報であるメディアコンテ
ンツの構成を、前記メディアコンテンツを区分けした区
分であるメディアセグメントの集合によって表現し、か
つ前記メディアセグメントの時間情報と前記メディアセ
グメントの文脈内容におけるスコアを記述した構造記述
データと、前記構造記述データから所定の前記メディア
セグメントを選択するための選択条件とを入力し、入力
した前記構造記述データから前記選択条件にあったスコ
アを持つ前記メディアセグメントだけを選択する選択部
と、前記選択部が選択した前記メディアセグメントを、
前記メディアセグメントの、再生順序、再生のタイミン
グ、および同期情報を表現する表現記述データに変換し
出力する変換部と、前記表現記述データと前記メディア
コンテンツを入力し、前記表現記述データの内容に応じ
て前記メディアコンテンツを再生する再生部と、を具備
したことを特徴とするデータ処理装置。 - 【請求項12】 請求項11記載の、前記選択部および
前記変換部を有するサーバと、請求項11記載の前記再
生部を有するクライアントと、前記サーバと前記クライ
アントを接続するネットワークと、を具備し、前記サー
バと前記クライアントの間で前記表現記述データの通信
を行うことを特徴とするサーバ−クライアントシステ
ム。 - 【請求項13】 請求項11記載の前記選択部を有する
サーバと、請求項11記載の、前記変換部および前記再
生部を有するクライアントと、前記サーバと前記クライ
アントを接続するネットワークと、を具備し、前記サー
バと前記クライアントの間で前記選択部が選択したメデ
ィアセグメントだけを残した要約構造記述データの通信
を行うことを特徴とするサーバ−クライアントシステ
ム。 - 【請求項14】 連続視聴覚情報であるメディアコンテ
ンツの全体あるいは前記メディアコンテンツの部分の構
成を、前記メディアコンテンツを区分けした区分である
メディアセグメントの時間情報の集合によって表現する
構造記述データを入力し、入力した前記構造記述データ
に記述されている前記メディアセグメントの時間情報を
取得し、解析した前記メディアセグメントの時間情報を
用いて前記構造記述データを前記メディアセグメント
の、再生順序、再生のタイミング、および同期情報を表
現する表現記述データに変換し出力することを特徴とす
るデータ処理方法。 - 【請求項15】 映像情報と音声情報とが同期した連続
視聴覚情報であるメディアコンテンツの構成を、前記メ
ディアコンテンツを区分けした区分であるメディアセグ
メントの集合によって表現し、かつ前記メディアセグメ
ントの時間情報と前記メディアセグメントの文脈内容に
おけるスコアを記述した構造記述データと、前記構造記
述データから所定の前記メディアセグメントを選択する
ための選択条件とを入力し、入力した前記構造記述デー
タから前記選択条件にあったスコアを持つ前記メディア
セグメントだけを選択し、選択した前記メディアセグメ
ントを、前記メディアセグメントの、再生順序および再
生のタイミングを表現する表現記述データに変換し出力
することを特徴とするデータ処理方法。 - 【請求項16】 映像情報もしくは音声情報の少なくと
もどちらか一方の連続視聴覚情報であるメディアコンテ
ンツの構成を、前記メディアコンテンツを区分けした区
分であるメディアセグメントの集合によって表現し、か
つ前記メディアセグメントの時間情報と前記メディアセ
グメントの文脈内容におけるスコアを記述した構造記述
データと、前記構造記述データから所定の前記メディア
セグメントを選択するための選択条件とを入力し、入力
した前記構造記述データから前記選択条件にあったスコ
アを持つ前記メディアセグメントだけを選択し、選択し
た前記メディアセグメントを、前記メディアセグメント
の、再生順序、再生のタイミング、および同期情報を表
現する表現記述データに変換し出力することを特徴とす
るデータ処理方法。 - 【請求項17】 コンピュータに、連続視聴覚情報であ
るメディアコンテンツの全体あるいは前記メディアコン
テンツの部分の構成を、前記メディアコンテンツを区分
けした区分であるメディアセグメントの時間情報の集合
によって表現する構造記述データを入力させ、入力した
前記構造記述データに記述されている前記メディアセグ
メントの時間情報を取得させ、解析した前記メディアセ
グメントの時間情報を用いて前記構造記述データを前記
メディアセグメントの、再生順序、前記メディアセグメ
ントの再生のタイミング、および前記メディアセグメン
トの同期情報を表現する表現記述データに変換させ出力
させることを特徴とするプログラム。 - 【請求項18】 コンピュータに、映像情報と音声情報
とが同期した連続視聴覚情報であるメディアコンテンツ
の構成を、前記メディアコンテンツを区分けした区分で
あるメディアセグメントの集合によって表現し、かつ前
記メディアセグメントの時間情報と前記メディアセグメ
ントの文脈内容におけるスコアを記述した構造記述デー
タと、前記構造記述データから所定の前記メディアセグ
メントを選択するための選択条件とを入力させ、入力し
た前記構造記述データから前記選択条件にあったスコア
を持つ前記メディアセグメントだけを選択させ、選択し
た前記メディアセグメントを、前記メディアセグメント
の、再生順序および再生のタイミングを表現する表現記
述データに変換させ出力させることを特徴とするプログ
ラム。 - 【請求項19】 コンピュータに、映像情報もしくは音
声情報の少なくともどちらか一方の連続視聴覚情報であ
るメディアコンテンツの構成を、前記メディアコンテン
ツを区分けした区分であるメディアセグメントの集合に
よって表現し、かつ前記メディアセグメントの時間情報
と前記メディアセグメントの文脈内容におけるスコアを
記述した構造記述データと、前記構造記述データから所
定の前記メディアセグメントを選択するための選択条件
とを入力させ、入力した前記構造記述データから前記選
択条件にあったスコアを持つ前記メディアセグメントだ
けを選択させ、選択した前記メディアセグメントを、前
記メディアセグメントの、再生順序、再生のタイミン
グ、および同期情報を表現する表現記述データに変換さ
せ出力させることを特徴とするプログラム。 - 【請求項20】 請求項17から請求項19のいずれか
に記載のプログラムを記憶したコンピュータ読み取り可
能な記録媒体。
Priority Applications (9)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001159409A JP2002149673A (ja) | 2000-06-14 | 2001-05-28 | データ処理装置およびデータ処理方法 |
| US09/877,035 US7765468B2 (en) | 2000-06-14 | 2001-06-11 | Data processing apparatus and data processing method |
| CNA2004100399978A CN1591418A (zh) | 2000-06-14 | 2001-06-12 | 数据处理装置及数据处理方法 |
| CNB2004100304018A CN1280762C (zh) | 2000-06-14 | 2001-06-12 | 数据处理方法 |
| CNB011231777A CN1148688C (zh) | 2000-06-14 | 2001-06-12 | 数据处理装置及数据处理方法 |
| EP04018704A EP1480137A1 (en) | 2000-06-14 | 2001-06-13 | Data processing apparatus and data processing method |
| KR10-2001-0033117A KR100414337B1 (ko) | 2000-06-14 | 2001-06-13 | 데이터 처리 장치, 서버클라이언트 시스템, 데이터 처리방법 및 기록 매체 |
| EP01114358A EP1164505A3 (en) | 2000-06-14 | 2001-06-13 | Data processing apparatus and data processing method |
| EP04018705A EP1480138A1 (en) | 2000-06-14 | 2001-06-13 | Data processing apparatus and data processing method |
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2000-177955 | 2000-06-14 | ||
| JP2000177955 | 2000-06-14 | ||
| JP2001159409A JP2002149673A (ja) | 2000-06-14 | 2001-05-28 | データ処理装置およびデータ処理方法 |
Related Child Applications (3)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2004291993A Division JP4214103B2 (ja) | 2000-06-14 | 2004-10-04 | データ処理装置およびデータ処理方法 |
| JP2004291994A Division JP4214104B2 (ja) | 2000-06-14 | 2004-10-04 | データ処理装置およびデータ処理方法 |
| JP2004291992A Division JP4214102B2 (ja) | 2000-06-14 | 2004-10-04 | データ処理装置およびデータ処理方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2002149673A true JP2002149673A (ja) | 2002-05-24 |
| JP2002149673A5 JP2002149673A5 (ja) | 2008-06-05 |
Family
ID=26593895
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2001159409A Pending JP2002149673A (ja) | 2000-06-14 | 2001-05-28 | データ処理装置およびデータ処理方法 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US7765468B2 (ja) |
| EP (3) | EP1164505A3 (ja) |
| JP (1) | JP2002149673A (ja) |
| KR (1) | KR100414337B1 (ja) |
| CN (3) | CN1280762C (ja) |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2004109538A1 (en) * | 2003-06-07 | 2004-12-16 | Samsung Electronics Co. Ltd. | Apparatus and method for organization and interpretation of multimedia data on a recording medium |
| WO2005029489A1 (en) * | 2003-09-25 | 2005-03-31 | Samsung Electronics Co., Ltd. | Apparatus and method for displaying multimedia data combined with text data and recording medium containing a program for performing the same method |
| WO2005029490A1 (en) * | 2003-09-25 | 2005-03-31 | Samsung Electronics Co., Ltd. | Apparatus and method for displaying audio and video data, and storage medium recording thereon a program to execute the displaying method |
| WO2005029491A1 (en) * | 2003-09-25 | 2005-03-31 | Samsung Electronics Co., Ltd. | Apparatus and method for displaying photo and video data and recording medium containing a program for performing the same method |
| WO2005116858A1 (en) * | 2004-05-25 | 2005-12-08 | Samsung Electronics Co., Ltd. | Method of reproducing multimedia data using musicphotovideo profiles and reproducing apparatus using the method |
| JP2005354497A (ja) * | 2004-06-11 | 2005-12-22 | Matsushita Electric Ind Co Ltd | アクセス制御装置およびアクセス制御方法 |
| JP2008033393A (ja) * | 2006-07-26 | 2008-02-14 | Hitachi Software Eng Co Ltd | ダイジェスト作成装置、ダイジェスト作成方法、およびプログラム |
| JP2008176649A (ja) * | 2007-01-19 | 2008-07-31 | Sony Corp | 情報処理装置、情報提示方法及び情報提示プログラム |
| US7633519B2 (en) | 2002-12-17 | 2009-12-15 | Volvo Lastvagnar Ab | Method and apparatus for simplifying marshalling with a vehicle |
Families Citing this family (26)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10839321B2 (en) | 1997-01-06 | 2020-11-17 | Jeffrey Eder | Automated data storage system |
| KR100472525B1 (ko) * | 2002-05-27 | 2005-03-08 | 모바일 보이스 주식회사 | 의미적 연결구조를 이용한 통합 콘텐츠 데이터의 저장 및재생방법 |
| JP4369708B2 (ja) * | 2002-09-27 | 2009-11-25 | パナソニック株式会社 | データ処理装置 |
| KR100497370B1 (ko) * | 2002-11-28 | 2005-06-28 | 삼성전자주식회사 | Smil을 사용하여 제작된 멀티미디어 컨텐츠가 기록된 컴퓨터로 읽을 수 있는 기록 매체, 그 제작 방법 및 그 재생 방법 |
| CN101516024B (zh) * | 2003-02-14 | 2012-09-05 | 夏普株式会社 | 信息提供装置、流输出装置及流输出方法 |
| KR100781507B1 (ko) * | 2003-06-07 | 2007-12-03 | 삼성전자주식회사 | 멀티미디어 데이터 전시 장치 및 전시 방법과 상기 방법을 기록한 기록매체 |
| CN1315039C (zh) * | 2003-08-22 | 2007-05-09 | 英业达股份有限公司 | 播放媒体时断点设定及续放的系统及其方法 |
| EP1526734B1 (fr) * | 2003-10-21 | 2006-12-13 | France Telecom Sa | Procédé et dispositif de transmission de données associées à des informations transmises |
| US7409464B2 (en) * | 2004-10-29 | 2008-08-05 | Nokia Corporation | System and method for converting compact media format files to synchronized multimedia integration language |
| JP2006180306A (ja) * | 2004-12-24 | 2006-07-06 | Hitachi Ltd | 動画記録再生装置 |
| EP1908071A4 (en) * | 2005-07-22 | 2012-09-12 | Samsung Electronics Co Ltd | METHOD AND DEVICE FOR CREATING A LOAD UNIFORM RESOURCE IDENTIFIER AND MEMORY PROGRAM FOR A RECORDING MEDIUM FOR CARRYING OUT THE METHOD |
| KR100728002B1 (ko) * | 2005-07-22 | 2007-06-14 | 삼성전자주식회사 | 라스트 유알아이 생성 방법 및 장치와 그 방법을 수행하는프로그램이 기록된 기록 매체 |
| KR100755374B1 (ko) * | 2006-06-29 | 2007-09-04 | 건국대학교 산학협력단 | 음성 시나리오 연출 시스템 및 그 방법 |
| MX2009000687A (es) * | 2006-12-12 | 2009-03-05 | Panasonic Corp | Aparato de emision de informacion de contenido, aparato de recepcion de informacion de contenido, metodo de emision de informacion de contenido y metodo de recpcion de informacion de contenido. |
| WO2008084876A1 (en) * | 2007-01-11 | 2008-07-17 | Panasonic Corporation | Method for trick playing on streamed and encrypted multimedia |
| CN101311926B (zh) * | 2007-05-23 | 2011-01-05 | 鸿富锦精密工业(深圳)有限公司 | Notes数据结构化的系统及方法 |
| KR101460611B1 (ko) | 2008-09-04 | 2014-11-13 | 삼성전자주식회사 | 멀티미디어 컨텐츠에 관한 사용자 관심정보의 수집 방법 및제공 방법과 그 장치 |
| WO2010118179A1 (en) * | 2009-04-07 | 2010-10-14 | Clearslide, Inc. | Mixed content type presentation system |
| US9621610B2 (en) | 2010-01-18 | 2017-04-11 | Telefonaktiebolaget Lm Ericsson (Publ) | Methods and arrangements for HTTP media stream distribution |
| CN102572294A (zh) * | 2010-12-16 | 2012-07-11 | 新奥特(北京)视频技术有限公司 | 一种具有等级标定的场记系统 |
| US10440402B2 (en) * | 2011-01-26 | 2019-10-08 | Afterlive.tv Inc | Method and system for generating highlights from scored data streams |
| JP6023058B2 (ja) * | 2011-08-29 | 2016-11-09 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 画像処理装置、画像処理方法、プログラム、集積回路 |
| JP6116168B2 (ja) * | 2012-09-14 | 2017-04-19 | キヤノン株式会社 | 情報処理装置およびその方法 |
| CN103049485B (zh) * | 2012-11-30 | 2015-10-21 | 浙江工商大学 | 一种基于小波时序树状概要的城市公共数据流融合方法 |
| US10713485B2 (en) * | 2017-06-30 | 2020-07-14 | International Business Machines Corporation | Object storage and retrieval based upon context |
| US12095583B2 (en) * | 2021-08-19 | 2024-09-17 | International Business Machines Corporation | Viewpoint analysis of video data |
Family Cites Families (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5999173A (en) * | 1992-04-03 | 1999-12-07 | Adobe Systems Incorporated | Method and apparatus for video editing with video clip representations displayed along a time line |
| US5969716A (en) * | 1996-08-06 | 1999-10-19 | Interval Research Corporation | Time-based media processing system |
| JPH10111872A (ja) | 1996-10-08 | 1998-04-28 | Nippon Telegr & Teleph Corp <Ntt> | 動画配信装置及び方法 |
| GB2330446A (en) | 1997-08-01 | 1999-04-21 | Discreet Logic Inc | Editing image data |
| US6360234B2 (en) * | 1997-08-14 | 2002-03-19 | Virage, Inc. | Video cataloger system with synchronized encoders |
| KR100269809B1 (ko) | 1997-12-29 | 2000-10-16 | 전주범 | 디지탈 비디오 편집시스템에 있어서 비디오스트림 객체 생성장치 |
| JP3208116B2 (ja) | 1998-02-03 | 2001-09-10 | 株式会社次世代情報放送システム研究所 | 映像インデックス情報を記録した記録媒体、映像インデックス情報を用いた映像情報管理方法、音声インデックス情報を記録した記録媒体および音声インデックス情報を用いた音声情報管理方法 |
| JP3484085B2 (ja) | 1998-05-22 | 2004-01-06 | 株式会社リコー | 放送型配信方法,その方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体,およびコンテンツサーバ |
| JP3307613B2 (ja) | 1998-09-03 | 2002-07-24 | 株式会社次世代情報放送システム研究所 | 映像検索システム |
-
2001
- 2001-05-28 JP JP2001159409A patent/JP2002149673A/ja active Pending
- 2001-06-11 US US09/877,035 patent/US7765468B2/en not_active Expired - Fee Related
- 2001-06-12 CN CNB2004100304018A patent/CN1280762C/zh not_active Expired - Fee Related
- 2001-06-12 CN CNB011231777A patent/CN1148688C/zh not_active Expired - Fee Related
- 2001-06-12 CN CNA2004100399978A patent/CN1591418A/zh active Pending
- 2001-06-13 EP EP01114358A patent/EP1164505A3/en not_active Ceased
- 2001-06-13 KR KR10-2001-0033117A patent/KR100414337B1/ko not_active Expired - Fee Related
- 2001-06-13 EP EP04018704A patent/EP1480137A1/en not_active Ceased
- 2001-06-13 EP EP04018705A patent/EP1480138A1/en not_active Ceased
Non-Patent Citations (6)
| Title |
|---|
| CSND200000275007, 植田 和憲, "サイバー関西プロジェクト(2)", UNIX MAGAZINE, 19990701, 第14巻 第7号, 148−153ページ, JP, 株式会社アスキー * |
| CSNG200100301011, 白田 由香利, "ダイジェスト映像シーンとマークアップ言語に基づくTV番組生成システム", 電子情報通信学会技術研究報告, 20000502, Vol.100 No.31, 81−87ページ, JP, 社団法人電子情報通信学会 * |
| CSNG200100874006, 長尾 確, "アノテーションに基づく知的マルチメディア処理", 情報処理学会研究報告, 20000602, Vol.2000 No.55, 41−48ページ, JP, 社団法人情報処理学会 * |
| JPN6010054280, 長尾 確, "アノテーションに基づく知的マルチメディア処理", 情報処理学会研究報告, 20000602, Vol.2000 No.55, 41−48ページ, JP, 社団法人情報処理学会 * |
| JPN6010054282, 白田 由香利, "ダイジェスト映像シーンとマークアップ言語に基づくTV番組生成システム", 電子情報通信学会技術研究報告, 20000502, Vol.100 No.31, 81−87ページ, JP, 社団法人電子情報通信学会 * |
| JPN6010054284, 植田 和憲, "サイバー関西プロジェクト(2)", UNIX MAGAZINE, 19990701, 第14巻 第7号, 148−153ページ, JP, 株式会社アスキー * |
Cited By (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7633519B2 (en) | 2002-12-17 | 2009-12-15 | Volvo Lastvagnar Ab | Method and apparatus for simplifying marshalling with a vehicle |
| WO2004109538A1 (en) * | 2003-06-07 | 2004-12-16 | Samsung Electronics Co. Ltd. | Apparatus and method for organization and interpretation of multimedia data on a recording medium |
| WO2005029489A1 (en) * | 2003-09-25 | 2005-03-31 | Samsung Electronics Co., Ltd. | Apparatus and method for displaying multimedia data combined with text data and recording medium containing a program for performing the same method |
| WO2005029490A1 (en) * | 2003-09-25 | 2005-03-31 | Samsung Electronics Co., Ltd. | Apparatus and method for displaying audio and video data, and storage medium recording thereon a program to execute the displaying method |
| WO2005029491A1 (en) * | 2003-09-25 | 2005-03-31 | Samsung Electronics Co., Ltd. | Apparatus and method for displaying photo and video data and recording medium containing a program for performing the same method |
| WO2005116858A1 (en) * | 2004-05-25 | 2005-12-08 | Samsung Electronics Co., Ltd. | Method of reproducing multimedia data using musicphotovideo profiles and reproducing apparatus using the method |
| JP2005354497A (ja) * | 2004-06-11 | 2005-12-22 | Matsushita Electric Ind Co Ltd | アクセス制御装置およびアクセス制御方法 |
| JP2008033393A (ja) * | 2006-07-26 | 2008-02-14 | Hitachi Software Eng Co Ltd | ダイジェスト作成装置、ダイジェスト作成方法、およびプログラム |
| JP2008176649A (ja) * | 2007-01-19 | 2008-07-31 | Sony Corp | 情報処理装置、情報提示方法及び情報提示プログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20020006574A (ko) | 2002-01-23 |
| US7765468B2 (en) | 2010-07-27 |
| KR100414337B1 (ko) | 2004-01-07 |
| EP1480137A1 (en) | 2004-11-24 |
| CN1584882A (zh) | 2005-02-23 |
| CN1148688C (zh) | 2004-05-05 |
| EP1480138A1 (en) | 2004-11-24 |
| US20010056506A1 (en) | 2001-12-27 |
| CN1328300A (zh) | 2001-12-26 |
| CN1280762C (zh) | 2006-10-18 |
| EP1164505A3 (en) | 2003-05-02 |
| CN1591418A (zh) | 2005-03-09 |
| EP1164505A2 (en) | 2001-12-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2002149673A (ja) | データ処理装置およびデータ処理方法 | |
| KR100571347B1 (ko) | 사용자 선호도 기반의 멀티미디어 컨텐츠 서비스 시스템과방법 및 그 기록 매체 | |
| KR101439841B1 (ko) | 컨텐츠 데이터에 대한 부가 데이터의 검색 방법과 그 장치 | |
| US7516415B2 (en) | Apparatus for and method of generating synchronized contents information, and computer product | |
| US7181757B1 (en) | Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing | |
| US7904452B2 (en) | Information providing server, information providing method, and information providing system | |
| US20090083029A1 (en) | Retrieving apparatus, retrieving method, and computer program product | |
| KR20040035318A (ko) | 객체기반 엠팩-4 컨텐츠 편집/저작과 검색 장치 및 방법 | |
| US20070136755A1 (en) | Video content viewing support system and method | |
| US7873905B2 (en) | Image processing system | |
| US6795092B1 (en) | Data processing apparatus and method, and storage medium | |
| KR102252522B1 (ko) | 내용 기반 동영상 목차 자동생성 방법 및 시스템 | |
| JP2000242661A (ja) | 関連情報検索装置および関連情報検索処理を実行するプログラムを記録した記憶媒体 | |
| Metso et al. | A content model for the mobile adaptation of multimedia information | |
| JP4214103B2 (ja) | データ処理装置およびデータ処理方法 | |
| JP4214104B2 (ja) | データ処理装置およびデータ処理方法 | |
| JP4214102B2 (ja) | データ処理装置およびデータ処理方法 | |
| JPH09128401A (ja) | 動画像検索装置及びビデオ・オン・デマンド装置 | |
| JPH1040301A (ja) | マルチメディア情報任意部分アクセス方法および装置 | |
| JP2002304420A (ja) | 視聴覚コンテンツ配信システム | |
| WO2006030995A1 (en) | Index-based authoring and editing system for video contents | |
| JP2001320691A (ja) | 映像視聴装置、映像ファイル提供装置及びこれらからなるインターネット放送システム | |
| JP4918836B2 (ja) | 動的情報処理装置及び情報処理プログラム | |
| JP2024069065A (ja) | 字幕データ生成装置及び字幕データ生成プログラム | |
| KR101770777B1 (ko) | 과학기술 설명 동영상 서비스 시스템 및 방법 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080418 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080418 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100910 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100921 |
|
| A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110426 |