JPWO2007091510A1 - コンテンツ配信システム - Google Patents

コンテンツ配信システム Download PDF

Info

Publication number
JPWO2007091510A1
JPWO2007091510A1 JP2007557823A JP2007557823A JPWO2007091510A1 JP WO2007091510 A1 JPWO2007091510 A1 JP WO2007091510A1 JP 2007557823 A JP2007557823 A JP 2007557823A JP 2007557823 A JP2007557823 A JP 2007557823A JP WO2007091510 A1 JPWO2007091510 A1 JP WO2007091510A1
Authority
JP
Japan
Prior art keywords
content
annotation
display
information
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007557823A
Other languages
English (en)
Inventor
哲光 窪野
哲光 窪野
佳子 鹿毛
佳子 鹿毛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electric Power Co Inc
Original Assignee
Tokyo Electric Power Co Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electric Power Co Inc filed Critical Tokyo Electric Power Co Inc
Publication of JPWO2007091510A1 publication Critical patent/JPWO2007091510A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Webサーバ40と、端末装置50と、から構成されるコンテンツ配信システム100において、Webサーバ40を、コンテンツを管理する最終コンテンツファイル25と、少なくともコンテンツの再生開始時刻情報、このコンテンツに重ね合わされて表示されるアノテーション及び表示時刻情報をメタコンテンツ中に記述して管理するメタコンテンツファイル26と、最終コンテンツファイル25及びメタコンテンツファイル26からコンテンツとともにアノテーション自体及びその表示時刻情報を読み出して表示情報(例えば、ダイナミックHTML形式のデータ)を生成し、端末装置50に配信するコンテンツ配信機能41と、から構成し、端末装置50に、Webサーバ40から表示情報を受信して表示するWebブラウザ51を設ける。

Description

本発明は、動画や静止画等からなる同期型マルチメディアコンテンツを配信するコンテンツ配信システムに関する。
動画や音声等の時間的経過のあるメディア(タイムベースドメディア)と文字(テキスト)情報や静止画等の時間的経過のないメディア(非タイムベースドメディア)とを編集により一体にした同期型マルチメディアコンテンツを生成するオーサリングツールが知られている(例えば、特許文献1参照)。
特表2004−532497号公報
しかしながら、このようなオーサリングツールで生成された同期型マルチメディアコンテンツは、編集されて一体となったデータ構造であるため、動画や静止画に重ね合わせて表示されたテキストや図形情報(アノテーション)の表示・非表示を制御することができず、このアノテーションが配置されている場合は、重なった部分の動画や静止画を見ることができないという課題や、このコンテンツに利用者が自由にアノテーションを追加することができないという課題があった。
本発明はこのような課題に鑑みてなされたものであり、同期型マルチメディアコンテンツの配信において、動画や静止画等のコンテンツとこれらのコンテンツと重ね合わせて表示されるアノテーションとをそれぞれ独立して管理し、アノテーションの表示・非表示や追加を自由に行うことができるようにしたコンテンツ配信システムを提供することを目的とする。
前記課題を解決するために、本発明に係るコンテンツ配信システムは、サーバ装置(例えば、実施形態におけるWebサーバ40)と、端末装置と、から構成される。そして、サーバ装置が、コンテンツを管理する配信用コンテンツ管理手段(例えば、実施形態における最終コンテンツファイル25)と、少なくともコンテンツの再生開始時刻情報、当該コンテンツに重ね合わされて表示されるアノテーション自体、及び、当該アノテーション自体の表示時刻情報をメタコンテンツ中に記述して管理するメタコンテンツ管理手段(例えば、実施形態におけるメタコンテンツファイル26)と、配信用コンテンツ管理手段及びメタコンテンツ管理手段からコンテンツとともに、アノテーション自体及びその表示時刻情報を読み出して表示情報(例えば、実施形態におけるダイナミックHTML形式のデータ)を生成し、端末装置に配信する配信手段(例えば、実施形態におけるコンテンツ配信機能41)と、を有し、端末装置が、サーバ装置から表示情報を受信して表示する表示手段(例えば、実施形態におけるWebブラウザ51)を有する。
このような本発明に係るコンテンツ配信システムは、表示手段が、表示情報に含まれるアノテーション自体の表示・非表示を選択できるように構成されることが好ましい。
また、このような本発明に係るコンテンツ配信システムは、配信手段が、端末装置に表示情報を送信するときに、メタコンテンツ管理手段からアノテーション自体を抽出して端末装置に配信するアノテーション抽出手段(例えば、実施形態におけるアノテーションマージ機能42)を有し、端末装置が、抽出されたアノテーション自体を受信して選択可能な状態で表示するとともに、選択されたアノテーション自体をサーバ装置に送信する目次手段(例えば、実施形態における目次機能53)を有して構成され、配信手段が、目次手段から選択されたアノテーション自体を受信したときに、当該選択されたアノテーション自体に対応する表示時刻情報から再生される表示情報を生成して端末装置に配信するように構成されることが好ましい。
また、このような本発明に係るコンテンツ配信システムは、サーバ装置が、コンテンツが動画情報であるときに、表示時刻情報に対応する当該コンテンツの再生位置までシークして当該再生位置から再生される表示情報として端末装置に配信する再生制御手段(例えば、実施形態における再生制御機能43)を有することが好ましい。
このとき、端末装置が、表示手段で表示されている表示情報に対してアノテーション自体及びその表示時刻情報を追加し、当該追加されたアノテーション自体及びその表示時刻情報をサーバ装置に送信するアノテーション追加手段(例えば、実施形態におけるアノテーション追加機能52)を有し、サーバ装置が、追加されたアノテーション自体及びその表示時刻情報を管理するアノテーション管理手段(例えば、実施形態におけるアノテーション管理ファイル28)と、アノテーション追加手段から送信された追加されたアノテーション自体及びその表示時刻情報をアノテーション管理手段に登録するアノテーション登録手段(例えば、実施形態におけるアノテーション登録機能44)と、を有し、アノテーション抽出手段が、メタコンテンツ管理手段からアノテーション自体及びその表示時刻情報を抽出するとともに、アノテーション管理手段から追加されたアノテーション自体及びその表示時刻情報を取り出してマージして端末装置に配信するように構成されることが好ましい。
また、アノテーション登録手段により追加されたアノテーション自体及びその表示時刻情報がアノテーション管理手段に登録されたときに、配信手段が、表示情報を端末装置に配信するとともに、アノテーション抽出手段によりアノテーション自体を前末装置に配信するように構成されることが好ましい。
さらに、追加されたアノテーション自体及びその表示時刻情報が、当該アノテーション自体を追加したコンテンツ利用者の識別情報を有し、表示手段が、識別情報に応じて追加されたアノテーション自体の表示・非表示を選択できるように構成されることが好ましい。
なお、このような本発明に係るコンテンツ配信システムにおいては、アノテーション自体が、テキスト情報若しくは図形で構成されることが好ましい。
本発明に係るコンテンツ配信システムを以上のように構成すると、動画や静止画等のコンテンツとこれらのコンテンツと重ね合わせて表示されるアノテーションとをそれぞれ独立して管理することができるので、アノテーションの表示・非表示の制御や利用者による追加を自由に行うことができ、同期型マルチメディアコンテンツの利用範囲を広げることができる。
本発明に係るコンテンツ編集生成システムの構成を示すブロック図である。 オーサリング機能のユーザインタフェースを示す説明図である。 ソースコンテンツファイル、ビューオブジェクト、並びに、表示オブジェクト及びコンテンツクリップの関係を示すブロック図である。 ビューオブジェクトの構造を示すデータ構造図であって、(a)は時間的経過のあるコンテンツに対するデータ構造図であり、(b)は時間的経過のないコンテンツに対するデータ構造図である。 ソースコンテンツとビューオブジェクトの関係を示す説明図であって、(a)は、一つのソースコンテンツに一つのビューオブジェクトを対応付けた場合であり、(b)は、一つのソースコンテンツに二つのビューオブジェクトを対応付けた場合である。 タイムラインウィンドウのトラックの位置とステージウィンドウのレイヤの関係を説明する説明図であって、(a)は、入れ替える前であり、(b)は、入れ替えた後である。 スコープの構造を示すデータ構造図である。 ソースコンテンツとスコープとの関係を示す説明図であって、(a)は、第1のスコープ、第2のスコープの順で構成した場合であり、(b)は、スコープの順序を入れ替えた場合である。 ポーズクリップを説明するための説明図である。 ポーズオブジェクトの構造を示すデータ構造図である。 ブロック移動を説明するための説明図であって、(a)は、移動前であり、(b)は移動後である。 オーサリング機能を構成する詳細機能を説明するためのブロック図である。 コンテンツ配信システムの構成を示すブロック図である。 アノテーション管理ファイルの構造を示すデータ構造図である。 サムネイルファイルの生成処理を示すフロー図である。
符号の説明
25 最終コンテンツファイル(配信用コンテンツ管理手段)
26 メタコンテンツファイル(メタコンテンツ管理手段)
28 アノテーション管理ファイル(アノテーション管理手段))
40 Webサーバ(サーバ装置)
41 コンテンツ配信機能(配信手段)
42 アノテーションマージ機能(アノテーション抽出手段)
43 再生制御機能(再生制御手段)
44 アノテーション登録機能
50 端末装置
51 Webブラウザ(表示手段)
52 アノテーション追加機能(アノテーション追加手段)
53 目次機能(目次手段)
100 コンテンツ配信システム
以下、本発明の好ましい実施形態について図面を参照して説明する。まず、本発明に係るコンテンツ編集生成システム1の構成について図1及び図2を用いて説明する。このコンテンツ編集生成システム1は、図1に示すように、ディスプレイ装置3を有したコンピュータ2で実行され、このコンピュータ2に接続されたマウスやキーボード等(図示せず)を用いて、ディスプレイ装置3をインタフェースとして同期型マルチメディアコンテンツを編集するオーサリング機能21、編集しているコンテンツの情報を管理するデータマネージャ機能22、及び、このようにして編集したコンテンツ(編集された状態を「編集済みコンテンツ」と呼ぶ)を、最終的に利用者に提供可能なコンテンツ(すなわち、上述の同期型マルチメディアコンテンツ)として生成するパブリッシャ機能23から構成される。なお、同期型マルチメディアコンテンツを生成するための元になるデータ(動画ファイルや静止画ファイル等)はソースコンテンツファイル24として、コンピュータ2が有するハードディスク等に予め記憶されている。
オーサリング機能21により、ディスプレイ装置3に表示されるユーザインタフェースは、図2に示すように、メニューウィンドウ31、ステージウィンドウ32、タイムラインウィンドウ33、プロパティウィンドウ34、及び、スコープウィンドウ35から構成される。メニューウィンドウ31は、編集者がコンテンツの編集及び生成を行うための操作を選択するためのものであり、コンテンツ編集生成システム1全体の動作を制御する役割を有する。ステージウィンドウ32は、編集者がソースコンテンツを図1に示す表示オブジェクト321として貼り付け、また、この表示オブジェクト321を移動、拡大、縮小等するものであり、最終的に生成される編集済みコンテンツのイメージで直接編集することができるようにするものである。また、タイムラインウィンドウ33は、複数のトラック33aを有して構成されており、ステージウィンドウ32に貼り付けられた複数の表示オブジェクト321毎にトラック33aにコンテンツクリップ331を割り当てて管理し、その表示オブジェクト321の実行時刻(画像の場合は表示開始時刻であり、音声の場合は再生開始時刻であって、このタイムラインウィンドウ33に割り当てられた編集済みコンテンツの開始時刻を基準とした相対的な開始及び終了時刻)を設定・表示するものである。
ここで、この実施例に係るコンテンツ編集生成システム1におけるデータの管理方法について図3を用いて説明する。このコンテンツ編集生成システム1においては、ステージウィンドウ32に配置された表示オブジェクト321は、ソースコンテンツファイル24を直接編集して管理するのではなく、データマネージャ機能22内で生成されるビューオブジェクト221を介して管理される。すなわち、データマネージャ機能22において、ステージウィンドウ32に対してこのステージウィンドウ32の情報を管理するステージオブジェクト222を生成し、ステージウィンドウ32に貼り付けられた表示オブジェクト321を、それぞれ、ステージオブジェクト222に対応したビューオブジェクト221として管理する。また、コンテンツ編集生成システム1は、タイムラインウィンドウ33のトラック33aに割り当てられたコンテンツクリップ331とビューオブジェクト221とを対応付けて管理する。また、コンテンツ編集生成システム1は、ステージウィンドウ32に配置された表示オブジェクト321を、後述するスコープ223に対応付けて管理する。
例えば、表示オブジェクト321が動画ファイルである場合、この動画ファイルを管理するビューオブジェクト221のデータ構造は、図4(a)に示すように、このビューオブジェクト221を識別するためのオブジェクトIDが記憶されるオブジェクトIDフィールド221a、ソースコンテンツファイル24の格納場所(例えば、ファイル名)が記憶されるファイル名フィールド221b、ステージウィンドウ32上の表示オブジェクト321の当該ステージウィンドウ32を基準とした相対的なXY座標が記憶されるXY座標フィールド221c、ステージウィンドウ32におけるこの表示オブジェクト321の表示サイズが記憶される幅高さフィールド221d、編集済みコンテンツ内における表示オブジェクト321の相対的な再生開始時刻(編集済みコンテンツの起点若しくは後述するスコープの起点からの相対的な時刻)が記憶される再生開始時刻フィールド221e、及び、再生終了時刻が記憶される再生終了時刻フィールド221f、ソースコンテンツファイル24のファイルタイプが記憶されるファイルタイプフィールド221g、この表示オブジェクト321に対応するソースコンテンツファイル24内のどの時刻(ソースコンテンツファイル24の最初の時刻からの相対時刻)から動画を再生するかが記憶されるファイル内開始時刻フィールド221h、後述するレイヤ番号が記憶されるレイヤ番号フィールド221i、並びに、どのスコープ223に属するかを示すスコープIDが記憶されるスコープIDフィールド221jから構成される。
なお、本実施例に係るコンテンツ編集生成システム1では、動画以外にも、音声データ等の時間的経過のあるコンテンツや、テキスト文字データ、静止画データ、図形等の時間的経過のないデータも、動画データと同様に扱うことができ、時間的経過のあるコンテンツは上述の動画と同じデータ構造であり(但し、音声データの場合は、XY座標フィールドや幅と高さフィールド等は有しない)、時間的経過のないコンテンツは、ファイル内開始時刻フィールド221hを除いて同様のデータ構造を有している。例えば、テキスト文字データを管理する場合は、図4(b)に示すように、テキスト情報フィールド221b′にそのテキスト情報を記憶し、フォントタイプフィールド221g′にそのテキスト情報を表示するときのフォントの情報が記憶される。このとき、テキストはその情報をソースコンテンツファイル24として管理するように構成しても良い。また、動画コンテンツのように再生の開始時刻及び終了時刻を記憶する代わりに、表示開始時刻フィールド221e′及び表示時間フィールド221f′を設け、そのテキスト文字情報の表示開始時刻及び表示し続ける時間(の長さ)を管理するように構成することも可能である。さらに、図形データをビューオブジェクト221として管理するときは、所定の形状を有した図形を定義して予めソースコンテンツファイル24として登録しておき、この図形を識別情報(番号等)で選択可能にして表示するように構成することもできる。
このように、データマネージャ機能22においては、ステージウィンドウ32に表示される表示オブジェクト321を、ソースコンテンツファイル24に対応したビューオブジェクト221で管理しているため、例えば、一つのソースコンテンツファイル24(特に、動画や音声)に対しては、図5(a)に示すように、ファイル内の時刻T1〜T2に対して一つのビューオブジェクト2211を定義することもできるし、図5(b)に示すように、時刻T1〜T2とT3〜T4とに対して2つのビューオブジェクト2211,2212を定義することもできる。このように、複数のビューオブジェクト221を定義しても、ソースコンテンツファイル24は共通に使用しているため、それぞれの表示オブジェクト321に対してそれぞれ実体を持つ(ソースコンテンツファイル24のコピーを持つ)場合に比べてコンピュータ2におけるメモリやハードディスク等の記憶領域の消費を少なくすることができる。もちろん、複数のビューオブジェクト221を定義した場合に、ソースコンテンツファイル24においては、それぞれのビューオブジェクト221のファイル内の時刻に重なりがあるように定義されていても良い(例えば、図5(b)の場合において、T3<T2となるように定義することができる)。
なお、ビューオブジェクト221は、動画等の時間を基準とする(時間経過のある)コンテンツに対しては、そのソースコンテンツファイル24においてどの時点から再生するかを記憶するファイル内開始時刻フィールド221hを有しているため、図5(a)に示すようにこのソースコンテンツファイル24の時刻T0から(すなわち最初から)実行する必要はなく、再生を開始する時刻をビューオブジェクト221毎に編集者が自由に設定することができる。また、上述のようにソースコンテンツファイル24を直接編集していないため、タイムラインウィンドウ33等で、各ビューオブジェクトのソースコンテンツファイル24における上述のファイル内の時刻を自由に設定・変更することができる。
ステージウィンドウ32へのコンテンツの配置は、ソースコンテンツファイル24をマウスでドラッグ&ドロップして配置することもできるし、メニューウィンドウ31からソースコンテンツファイル24を選択して配置することができる。また、テキスト情報や図形も、予め決められた候補をポップアップウィンドウに表示してそこからステージウィンドウ32にドラッグ&ドロップして配置することができる。さらに、ステージウィンドウ32にコンテンツ(表示オブジェクト321)を配置すると、タイムラインウィンドウ33の現在選択されているトラック33aにその表示オブジェクト321に対応するコンテンツクリップ331が配置される。なお、タイムラインウィンドウ33においては、図2に示すように、現在編集している同期型マルチメディアコンテンツ(編集済みコンテンツ)内での相対時刻を示すカレントカーソル332が表示されており、このカレントカーソル332が示す時点から表示オブジェクト321の再生が開始されるようにコンテンツクリップ331がトラック33a内に自動配置される。ここで、トラック33aにおける表示は、例えば、ソースコンテンツファイル24の全体の時間が白抜きのバーで表示され、ビューオブジェクト221に定義された再生部分(ファイル内開始時刻フィールド221h、再生開始時刻フィールド221e、及び、再生終了時刻フィールド221fで決定される)が色つきのバー(これがコンテンツクリップ331に対応する)で表示される。
ここで、タイムラインウィンドウ33には複数のトラック33aが設けられているが、このトラック33aには、配置されるコンテンツの種類の制限はなく、動画コンテンツ、音声コンテンツ、テキスト情報コンテンツ、図形コンテンツ、静止画コンテンツ、または、入力を要求するインタラクディブコンテンツなど、いずれも配置することができる。このとき、トラック33aには、配置されたコンテンツの種類を示すアイコンが表示されるため(図示せず)、配置されているコンテンツを容易に判別することができる。そのため、編集者は、コンテンツの編集作業を効率良く行うことができる。
また、複数の表示オブジェクト321をステージウィンドウ32上に配置すると、重なり合う表示オブジェクト321が発生する。ステージウィンドウ32では、複数の表示オブジェクト321は、重なり合った透明の層(これを「レイヤ」と呼ぶ)のいずれかに配置されて管理されており、表示オブジェクト321は、各々のレイヤに割り当てられたレイヤ番号(図4で示したレイヤ番号フィールド221i)で管理され、このレイヤの順序にトラック33aの順序が対応している。すなわち、表示オブジェクト321に対応するコンテンツクリップ331が配置されている(割り当てられている)トラック33aの位置により重なる部分の表示順序(レイヤの順序)が決定される。
例えば、図6(a)に示すように、A,B2つの表示オブジェクト321がステージウィンドウ32に配置されており、表示オブジェクトAに対応するコンテンツクリップ331はタイムラインウィンドウ33ではトラック4(ステージウィンドウ32においてはレイヤ4)に配置され、表示オブジェクトBに対応するコンテンツクリップ331はタイムラインウィンドウ33ではトラック3(レイヤ3)に配置されている状態で、表示オブジェクトAに対応するコンテンツクリップ331をタイムラインウィンドウ33においてトラック2に移動させると、オーサリング機能21は、これらのコンテンツクリップ331が配置されたトラック33aの順に、対応する表示オブジェクト321を、ステージウィンドウ32において、上のレイヤにあるように配置する。つまり、上下に並んで配置されているトラック33aの順に、表示オブジェクト321が重ね合わされ、図6(b)に示すように、表示オブジェクトAが表示オブジェクトBの上に重なるように配置される。そのため、編集者は直感的に編集作業を行うことができ作業効率が向上する。
また、ステージウィンドウ32上での表示オブジェクト321の大きさや位置は、マウス等を使って編集者が自由に変更することができる。さらに、タイムラインウィンドウ33上でのコンテンツクリップ331の位置や大きさ(再生時間)、ソースコンテンツファイル24における再生の開始位置も同様に、マウス等を使って編集者が自由に変更することができる。なお、このようなソースコンテンツファイル24のステージウィンドウ32への配置や移動、大きさの変更、並びに、タイムラインウィンドウ33でのコンテンツクリップ331の移動や再生区間の変更を編集者が行うと、オーサリング機能21は、この表示オブジェクト321、及び、コンテンツクリップ331に対応するビューオブジェクト221の上述の属性項目を、編集者の操作により変更されたステージウィンドウ32及びタイムラインウィンドウ33の状態に応じて設定するように構成されている。また、このようなビューオブジェクト221の属性項目は、プロパティウィンドウ34を用いて表示及び修正を行うこともできる。
また、このようにしてオーサリング機能21を用いて編集された同期型マルチメディアコンテンツ(編集済みコンテンツ)は所定の開始時刻と終了時刻(相対的な時刻)を有することになるが、このコンテンツ編集生成システム1においては、これらの時刻で定義される時間を複数のスコープ223に分割して管理することができる。動画等の時間的経過のあるコンテンツは時間軸を持っているので、ある時刻で編集(移動、削除等)を行うと動画の他の箇所に副作用を与えるという本質的な問題を抱えている。そのため、本実施例においては、時間軸を持つ動画コンテンツに対して、物理的な情報(タイムラインウィンドウ33上でのコンテンツの配置)とは別に、スコープ223と呼ぶ論理的に定義された(仮想的な)分節を複数設定して分割できるように構成されている。
このスコープ223のデータ構造は、図7に示すように、複数のスコープを識別するためのスコープIDが記憶されるスコープIDフィールド223a、各スコープ223が開始されるときにステージウィンドウ32に表示される表紙の情報が記憶される表示情報フィールド223b、そのスコープ223の編集済みコンテンツ内における相対的な開始時刻が記憶されるスコープ開始時刻フィールド223c、及び、編集済みコンテンツ内における相対的な終了時刻が記憶されるスコープ終了時刻フィールド223dから構成される。なお、表紙の情報は、例えばテキスト情報で構成され、各スコープ223の内容をスコープ223の再生開始時に表示するために用いられる。
図8は、タイムラインウィンドウ33において、トラック33aで示される編集済みコンテンツの再生時間を2つのスコープ2231,2232により分割した場合を示している。これらのスコープ2231,2232は、各々のスコープの内容等を所定の時間表示する表紙2231a,2232aとコンテンツが配置された本体2231b,2232bとから構成される。図8(a)に示す場合は、第1のスコープ2231は、第1の表紙2231aと第1の本体2231bが定義され、第2のスコープ2232は、第2の表紙2232aと第2の本体2232bが定義されている。また、第1の本体2231bには、ソースコンテンツファイル24の時刻T0〜T1に対応する部分24aが第1のビューオブジェクト2211として設定され、第2の本体2232bには、ソースコンテンツファイル24の時刻T1〜T2に対応する部分24bが第2のビューオブジェクト2212として設定されている。そのため、編集済みコンテンツにおける時刻t0〜t1の間に第1の表紙2231aが表示され、時刻t1〜t2の間に、第1の本体2231bが表示され、時刻t2〜t3の間に第2の表紙2232aが表示され、時刻t3〜t4の間に、第2の本体2232bが表示される。
データマネージャ機能22においては、図1に示すように、スコープ223毎にビューオブジェクト221が管理されており、タイムラインウィンドウ33において、あるスコープ223に対する操作は他のスコープ223のデータに影響を与えない。例えば、図8(b)に示すように、第2のスコープ2232を第1のスコープ2231の前に移動させる操作をしても、スコープ2231,2232の順序が変更されるだけで、これらのスコープ2231,2232内のビューオブジェクト2211,2212の順序や実行時間には影響を与えない(例えば、スコープ2231,2232内におけるビューオブジェクト2211,2212の相対時刻は変化しない)。また、このとき、このコンテンツ編集生成システム1は、上述のように、ソースコンテンツファイル24を直接編集するのではなく、ビューオブジェクト221を介して管理しているので、実行順序を変更しても元になるソースコンテンツファイル24に影響を与えることはない。
なお、スコープ223は、図3に示すように、スコープウィンドウ35において、時間順に並べられたスコープリスト351として表示することができ、各スコープリスト351には、例えば、上述の表紙情報が表示される。
このようにスコープ223を設けることにより、このスコープ223の表示順序を指定することで、物理的な情報はそのままで(つまり、動画コンテンツの切断、再配置等を一切行うことなく)、編集済みコンテンツ内における動画コンテンツの再生順序を動的に入れ替えることができる。また、スコープ223内の編集操作(例えば、動画コンテンツを含む全ての要素の時間軸上の位置移動、削除等)の影響は、そのスコープ223内に局所的に留まり、他のスコープ223には一切の副作用を与えないので、安心して編集作業を行うことができる。
このコンテンツ編集生成システム1においては、図9に示すように、タイムラインウィンドウ33のトラック33aにポーズクリップ333という特殊なコンテンツクリップを配置することができ、このポーズクリップ333は、図1に示すように、データマネージャ機能22でポーズオブジェクト224として管理される。例えば、動画コンテンツ等の再生を停止させて、ナレーション(音声コンテンツ)だけを再生する場合、編集者は、タイムラインウィンドウ33上でポーズを行う時刻を指定し、ポーズクリップ333を配置する。このポーズクリップ333を配置すると、ディスプレイ装置3上にポーズクリップ333(ポーズオブジェクト224)に対応するプロパティウィンドウ34(図2に示す)が表示され、このポーズクリップ333に対応して実行されるソースコンテンツファイル24とポーズ時間(ポーズクリップ333が配置された時点に配置されているコンテンツクリップ331(表示オブジェクト221)の再生を停止させるとともに、このポーズクリップ333に対応付けられたソースコンテンツファイル24を再生する時間)を指定する(入力する)。すると、データマネージャ機能22にポーズオブジェクト224が生成される。
このポーズオブジェクト224のデータ構造は、例えば音声コンテンツを選択する場合、図10に示すように、このポーズオブジェクト224を識別するためのポーズIDが記憶されるポーズIDフィールド224a、再生を停止しないオブジェクトに対応するソースコンテンツファイル24の格納場所が記憶されるファイル名フィールド224b、スコープ223内におけるポーズ開始時刻が記憶されるポーズ開始時刻フィールド224c、ポーズ時間が記憶されるポーズ時間フィールド224d、及び、このポーズオブジェクト224が属するスコープ223のスコープIDが記憶されるスコープIDフィール224eから構成される。なお、このポーズオブジェクト224で動画コンテンツを指定する場合は、その動画コンテンツのXY座標等の属性情報を含めることができる。
このポーズオブジェクト224(ポーズクリップ333)を用いると、例えば動画の再生を一時停止し、その間に、音声による解説を再生して、その後、動画等の表示オブジェクト221の再生を再開させるという動作を実現することができる。図9の場合で説明すると、ポーズクリップ333が設定されている時点で、表示オブジェクトA,B,D1(符号A,B,D1で示されるコンテンツクリップ331)の再生がその時点の表示状態を維持して停止し、その代わりにポーズオブジェクト224に対応するソースコンテンツファイル24が実行される。そして、このポーズオブジェクト224に対応するソースコンテンツファイル24の実行が終了すると、表示オブジェクトA,B,D1が停止した時点から再び再生される。すなわち、このポーズオブジェクト224(ポーズクリップ333)により、同期型マルチメディアコンテンツにおいて、非同期に実行されるコンテンツ(ソースコンテンツファイル24)を設定することができる。
なお、オーサリング機能21は、コンテンツの編集機能として、グループ移動させる機能があり、この機能を用いても、所定の表示オブジェクト321(図3に示すように、データマネージャ機能22を介してトラック33a上に配置されたコンテンツクリップ331に対応付けられている)のみを再生して他の表示オブジェクト321を停止するという処理を行うことができる。具体的には図11(a)に示すように、編集者は、停止しないレイヤ(トラック)をマウス等で選択する(図11(a)においては表示オブジェクトB(符号Bで定義されるコンテンツクリップ331)を停止しないオブジェクトとして選択した場合を示す)。そして、タイムラインウィンドウ33上でポーズを行う時刻を指定し、カレントカーソル332を配置する。そして、図11(b)に示すように、このカレントカーソル332を再開させたい位置に移動させると、他のコンテンツクリップ(A,C,D1,D2)はそれらの相対時刻(コンテンツクリップBを除く)の関係を維持したまま移動される。なお、ポーズ時刻(カレントカーソル332上)にあるコンテンツ(A,D1)は、その時刻で分割され(図11(b)に示すようにAがA1とA2に分割され、D1がD11とD12に分割され)、このカレントカーソル332より後ろにある部分(A2及びD12)が移動される。
また、図9を用いて説明したようにポーズクリップ333にソースコンテンツファイル24を対応付けて管理するのではなく、図11を用いて説明したように、トラック33aに配置された表示オブジェクト(コンテンツクリップ331)から停止させたくないものを選択してポーズクリップ(図9のポーズクリップ333に相当)に対応付けるように構成することも可能である。この場合、編集者は、タイムラインウィンドウ33において停止しないレイヤ(トラック)をマウス等で選択する(例えば、図11において説明したように表示オブジェクトB(コンテンツクリップB)を停止しないオブジェクトとして選択する)。そして、タイムラインウィンドウ33上でポーズを行う時刻を指定し、ポーズクリップ333を配置する。このポーズクリップ333を配置するとディスプレイ装置3上にポーズクリップ333(ポーズオブジェクト224)に対応するプロパティウィンドウ34(図2に示す)が表示され、ポーズ時間(ポーズクリップ33で指定されていないオブジェクトの再生を停止させる時間)を指定する(入力する)と、データマネージャ機能22にポーズオブジェクト224が生成される。なお、この場合、ポーズオブジェクト224が生成された時点で、その他のコンテンツクリップ331を、図11で説明したようにポーズする時間だけ後ろに自動的にずらすように構成することも可能である。なお、このように、ポーズクリップ333とトラック33a上のコンテンツクリップ331とを対応付けるように構成する場合は、上述のようにポーズクリップ333により停止させないトラック(コンテンツクリップ331)を選択して対応付ける代わりに、停止させたいトラック(コンテンツクリップ331)を選択してポーズクリップ333と対応付けるように構成することも可能である。
以上のように、オーサリング機能21は、ステージウィンドウ32に対して、編集者が直接コンテンツの配置を行い、また位置の移動や大きさの変更を行うことができるので、実際に作成される編集済みコンテンツを確認しながら編集作業を行うことができる。このステージウィンドウ32での表示オブジェクト321の編集方法としては、一つずつ選択して変更できることはもちろん、複数を選択して(例えば、シフトキーを押しながらマウスでクリックする方法や、マウスをドラッグしてエリアを決定し、このエリア内にある表示オブジェクト321を全て選択する方法等)を行うことができる。タイムラインウィンドウ33においても同様である。また、マウスでトラック33aの時間領域を指定して、その領域にあるコンテンツクリップ331を削除して、以降のコンテンツクリップ331を全て、前に詰めるという編集を行うことができる。
なお、ステージウィンドウ32に配置された表示オブジェクト321は、全て、データマネージャ機能22において、ビューオブジェクト221として管理されているため、このビューオブジェクト221のうち、テキストオブジェクトとして配置される候補をディスプレイ装置3に一覧表示して、編集者がこの一覧から選択して新たな表示オブジェクト321として配置できるように構成することもできる。
以上で説明したオーサリング機能21の詳細な機能構成を、図12を用いてまとめる。このオーサリング機能21は、プロパティ編集部211を有し、また、このプロパティ編集部211は、時間パネル配置部212と位置パネル配置部213とを有して構成される。プロパティ編集部211は、プロパティウィンドウ34を表示してビューオブジェクト221のプロパティを変更する機能を提供する。
また、時間パネル配置部212は、タイムラインウィンドウ33において、各トラック33aへのコンテンツクリップ331の配置、削除、レイヤの変更、若しくは、開始位置の変更機能を提供する。この時間パネル配置部212は、さらに、タイムライン編集部214、ポーズ編集部215、スコープ編集部216、及び、時間パネル編集部217から構成される。タイムライン編集部214は、レイヤの追加、削除、移動等の編集機能や、レイヤの表示・非表示、及び、グループ化の機能を提供する。また、ポーズ編集部215は、上述のように、ポーズ時間及び時刻の指定や、非ポーズレイヤ(コンテンツクリップ331)を指定する機能を提供する。また、スコープ編集部216は、スコープ223の開始、終了の指定や変更、スコープ223の移動機能を提供し、さらに、時間パネル編集部217は、タイムラインウィンドウ33において、各トラック33aに配置されたコンテンツクリップ331の再生開示時刻及び終了時刻の変更や、上述したポーズ、分割、コピーの機能を提供する。
一方、位置パネル配置部213は、ステージウィンドウ32における表示オブジェクト321の位置の指定やアニメーション位置の指定を行う機能を提供する。この位置パネル配置部213も、ステージ編集部218と位置パネル編集部219とを有し、ステージ編集部218は、表示画面のサイズを指定する機能を提供し、位置パネル編集部219は、高さや幅を変更する機能を提供する。
次に、このようにして作成された編集済みコンテンツを、最終的に利用者に提供するデータ形式に変換するパブリッシャ機能23について説明する。パブリッシャ機能23は、データマネージャ機能22で管理されている、ステージオブジェクト222、ビューオブジェクト221、スコープ223、及び、ポーズオブジェクト224と、ソースコンテンツファイル24から、最終的に利用者に提供される最終コンテンツファイル25と、メタコンテンツファイル26とを生成するものである。
最終コンテンツファイル25は、基本的にソースコンテンツファイル24に対応するものであり、図5(b)等に示すように、このソースコンテンツファイル24のうち、不要な部分(例えば、最終的に生成される同期型マルチメディアコンテンツでは再生されない部分)をトリミングしたり、ステージウィンドウ32上に配置された大きさに応じて圧縮率を変更した結果のファイルである。また、メタコンテンツファイル26は、編集済みコンテンツにおいて、動画、音声、及び、静止画に対応する最終コンテンツファイル25の実行(再生開始)及び終了のタイミング(時刻)等のソースコンテンツファイル24や最終コンテンツファイル25の再生を制御する情報や、テキスト情報、図形等のソースコンテンツファイル24や最終コンテンツファイル25と重ね合わされて表示される情報の表示内容や表示タイミング(時刻)を定義するものであり、例えばテキスト形式のデータとして管理されている。なお、メタコンテンツファイル26は、オーサリング機能21により編集された編集済みコンテンツに関する情報を管理するファイルとして、図1に示すように、データマネージャ機能22においても管理されている。
このように、本実施例に係るコンテンツ編集生成システム1におていは、オーサリング機能21とパブリッシャ機能23との2段階で同期型マルチメディアコンテンツ(編集済みコンテンツ)を編集・生成するように構成している。そのため、編集時点においては、動画の表示情報(開始点及び終了点)をビューオブジェクト221で管理し、トリミングされた区間は非表示になるように論理的なビューとして情報を保持しているため、表示の開始・終了時点を自由に変更することができる。一方、生成時点においては、論理的なビュー情報(ビューオブジェクト221)を元にしてソースコンテンツファイル24を物理的に分割するので、余分なデータを持たずに最終コンテンツファイル25の容量を削減することができる。
また、各々のソースコンテンツファイル24からパブリッシャ機能23で生成される最終コンテンツファイル25は、テキスト情報等を合成していない(例えば、テキスト情報はメタコンテンツファイル26で管理される)。そのため、ソースコンテンツファイル24(最終コンテンツファイル25)がこれらのテキスト情報等により変更される(例えば、動画等のソースコンテンツファイルにテキスト情報等が合成されて新たなソースコンテンツファイルが生成される)ことはなく、このソースコンテンツファイル24を圧縮してもテキスト等がつぶれる(画面上でにじんだり不鮮明になる)ことを防止することができる。
次に、このようにして生成された最終コンテンツファイル25及びメタコンテンツファイル26を用いて利用者に編集済みコンテンツを提供するコンテンツ配信システム100について図13を用いて説明する。編集済みコンテンツの利用者への提供方法としては、例えば、Webブラウザで表示できる形式(HTML形式)に編集してCD−ROM形式で提供することが可能であるが、ここでは、Webサーバ40を用いて、ネットワーク等を介して接続された端末装置50のWebブラウザ51に対して提供する場合について説明する。なお、Webサーバ40では、上述のパブリッシャ機能23で生成された最終コンテンツファイル25及びメタコンテンツファイル26と、これらの編集済みコンテンツを管理するコンテンツ管理ファイル27、端末装置50から利用者が編集済みコンテンツに付加したアノテーションを管理するアノテーション管理ファイル28、及び、編集済みコンテンツのサムネイルを管理するサムネイル管理ファイル29を有している。
Webサーバ40は、コンテンツ配信機能41を有しており、端末装置50からアクセスする利用者は、例えば、ユーザID及びパスワードを送信してこのコンテンツ配信機能41にアクセスする。するとコンテンツ配信機能41は、コンテンツ管理ファイル27で管理されている編集済みコンテンツの一覧を端末装置50に送信して利用者に選択させる。そして、選択された編集済みコンテンツに対応する最終コンテンツファイル25とメタコンテンツファイル26とを読み出し、例えばダイナミックHTML(DHTML)形式のデータに変換して送信し、Webブラウザ51で実行させる。
ここで、メタコンテンツファイル26は、メディアの種類とメディアの再生情報(レイヤ、ステージウィンドウ32での表示位置座標、タイムラインでの開始、終了など)をメタコンテンツフォーマットとして保持している。そのため、Webブラウザ51では、このメタコンテンツフォーマットから変換されたDHTMLファイルからHTMLファイルを動的に生成し、動画やテキスト情報等のコンテンツを動的に重ね合わせ表示をすることができる。このコンテンツ配信機能41に実装された変換機能は、上述のオーサリング機能21にも実装されている。ところで、上述のようにテキスト情報や図形はメタコンテンツファイル26として、動画ファイル等からなる最終コンテンツファイル25と別に管理し、Webブラウザ51で表示するときに重ね合わされるため、Webブラウザ51でこのテキスト情報や図形を非表示にする(例えば、上述のDHTMLファイルに含まれるスクリプトにより、Webブラウザ51上でこれらの情報を非表示にする)ことにより、テキスト情報や図形が重なっている部分(動画や静止画等)を表示すること等ができる。
なお、メタコンテンツファイル26に管理されているテキスト情報や図形は、編集済みコンテンツの中での表示される相対時刻を有しているため、この編集済みコンテンツの目次として利用することができる。そのため、本実施例に係るコンテンツ配信システム100においては、これらのテキスト情報や図形を「アノテーション」と呼び、このアノテーションのリストをWebブラウザ51で端末装置50に表示して、利用者に提供するように構成されている。具体的には、コンテンツ配信機能41が、編集済みコンテンツを端末装置50のWebブラウザ51に送信するときに、アノテーションマージ機能42によりメタコンテンツファイル26に含まれるテキスト情報及び図形等をアノテーションとして抽出し、表示開始時刻とその内容からなる目次情報を生成して、編集済みコンテンツと合わせて送信する。そしてWebブラウザ51にダウンロードされて実行されている目次機能53(例えば、スクリプトとして定義されている)がこの目次情報を受け取り、Webブラウザ51により例えばポップアップウィンドウを表示してこの目次情報をリストとして表示するように構成される。
本実施例においては、後述するように最終コンテンツファイル25の端末装置50での再生は、この最終コンテンツファイル25の任意の時刻を指定して再生することができるため、目次機能53で表示された目次情報のリスト表示において選択されたアノテーションの表示開始時刻から編集済みコンテンツの再生を開始することができるように構成されている。また、コンテンツ配信システム100においては、端末装置50から利用者が自由にアノテーションを追加することができるように構成されており、追加されたアノテーションは、アノテーション管理ファイル28に記憶される。そのため、アノテーションマージ機能42は、メタコンテンツファイル26から抽出したアノテーションに対して、アノテーション管理ファイル28で管理されている追加されたアノテーションをマージして、目次情報を生成し、Webブラウザ51の目次機能53に送信するように構成されている。
アノテーション管理ファイル28のデータ構造は、図14に示すように、各アノテーションを識別するためのアノテーションIDが記憶されるアノテーションIDフィールド28a、このアノテーションが登録された時刻が記憶されるタイムスタンプフィールド28b、このアノテーションを登録した利用者のユーザIDが記憶されるユーザIDフィールド28c、編集済みコンテンツ内においてこのアノテーションが表示される相対時刻が記憶されるシーン時刻フィールド28d、表示される時間を示す適用時間フィールド28e、後述するカテゴリーが記憶されるカテゴリーIDフィールド28f、アノテーションがテキスト情報の場合に、そのテキスト情報が記憶されるテキスト情報フィールド28g、編集済みコンテンツ上のこのアノテーションの相対的なXY座標が記憶されるXY座標フィールド28h、及び、このアノテーションの表示サイズが記憶される幅高さフィールド28iから構成される。なお、図形をアノテーションとする場合は、テキスト情報フィールド28gの代わりに、その図形の識別情報が記憶されるフィールドが設けられる。また、アノテーションマージ機能42で生成される目次情報もこのアノテーション管理ファイル28と同様のデータ構造を有している。
利用者がアノテーションを追加する方法としては、端末装置50において再生される編集済みコンテンツをアノテーションを追加したい時刻で停止させる。そして、Webブラウザ51にダウンロードされているアノテーション追加機能52(例えば、スクリプトとして定義されている)を起動し、画面上でアノテーションを挿入したい位置を指定するとともに、追加するテキスト情報若しくは図形の識別情報を入力する。すると、アノテーション追加機能52はその利用者のユーザIDや現在の時刻等とともに、XY座標や表示サイズ、テキスト情報若しくは図形の識別情報をWebサーバ40に送信し、アノテーション登録機能44によりアノテーション管理ファイル28に登録する。最後に、編集済みコンテンツと目次情報(追加されアノテーションを含む)がWebサーバ40からWebブラウザ51にリロードされて、追加されたアノテーションが編集済みコンテンツに反映される。なお、編集済みコンテンツにアノテーションを追加するときに、アノテーション種別を選択する(予め所定の種別を設定しておき、識別情報で選択する)ことにより、追加したアノテーションを種別毎に表示・非表示することができ、コンテンツの利用価値を向上させることができる。このアノテーション種別は、アノテーション管理ファイル28のカテゴリーIDフィールド28fに記憶される。
このように目次情報を目次機能53で端末装置50に表示することにより、利用者はこのリストから編集済みコンテンツ内の所望の箇所(選択されたテキスト情報や図形等のアノテーションが表示される時刻)にジャンプして、再生させることができる。そのため、アノテーションのリストから必要なコンテンツを検索することができ、利便性が向上する。なお、アノテーション管理ファイル28に登録される追加されたアノテーションは登録した利用者だけでなく、他の利用者も表示することができ、また、登録した利用者のユーザIDを併せて記憶しているため、編集済みコンテンツを再生するときに、誰がそのアノテーションを追加したかを表示することや、ユーザIDを指定してその利用者が登録したアノテーションだけを表示させることができる。これにより、コンテンツの情報価値を向上させることができる。
上述の通り、本実施例に係るコンテンツ配信システム100においては、最終コンテンツファイル25の端末装置50での再生は、この最終コンテンツファイル25の任意の時刻を指定して再生することができるように構成されており、このコンテンツの再生制御について説明する。目次機能53でリスト表示された目次情報が選択されると、現在表示されている編集済みコンテンツのURLと、選択された目次情報に対応するアノテーションのアノテーションID(本実施例においては、これらの情報が一体となったURLとして送信される)がWebサーバ40の再生制御機能43に送信される。再生制御機能43は、このURLからアノテーションIDを抽出して、そのアノテーションのシーン時刻を特定する。そして、再生制御機能43は、特定されたシーン時刻までシークした画面(例えば、DHTML形式のコード)を生成し、コンテンツ配信機能41によりWebブラウザ51に送信して、このWebブラウザ51により端末装置50に表示する。
このように、編集済みコンテンツ、特に最終コンテンツファイル25を任意の位置(時刻)から再生可能なように構成することにより、例えば、アノテーションによる目次情報と組み合わせることで、この編集済みコンテンツを素早く検索して視聴できるため、コンテンツの情報価値を向上させることができる。
なお、編集済みコンテンツの再生は、上述のアノテーションによる目次情報に加えて、各アノテーションの表示開始時刻における編集済みコンテンツのサムネイルを表示することにより、利用したい位置(時刻)をより素早く見つけることができ、検索性を向上させて利用者の利便性を向上させることができる。ここで、サムネイルとは、所定の時刻において編集済みコンテンツの表示を切り出した画像(スナップショット)を指している。本実施例においては、最終コンテンツファイル25及びメタコンテンツファイル26から、上述のアノテーション毎にそのアノテーションが表示される時刻におけるサムネイル画像を生成し、RSS(RDF Site Summary)形式のサムネイルファイルとして利用者に提供するように構成されている。
まず、図15を用いてサムネイルファイルの生成方法について説明する。このサムネイルファイルは、上述のコンテンツ編集生成システム1が実装されたコンピュータ2において実行される要約情報生成機能60により生成されるものであり、アノテーションリスト生成機能61、サムネイル画像切出機能62、及び、サムネイルファイル生成機能63から構成される。要約情報生成機能60が開始されると、まず、アノテーションリスト生成機能61が起動され、メタコンテンツファイル26からテキスト情報や図形をアノテーションとして切り出し、そのアノテーションの表示が開始される編集済みコンテンツ内での相対時刻(シーン時刻)と、テキスト情報若しくは図形の識別情報の組をアノテーションリスト64として出力する。次に、サムネイル画像切出機能62が起動され、アノテーションリスト64に切り出されたアノテーション毎に、そのシーン時刻における編集済みコンテンツのサムネイル画像65を最終コンテンツファイル25及びメタコンテンツファイル26から生成する。なお、サムネイル画像65は、ビットマップ形式やJPEG形式の画像ファイルとして生成され、例えば、一覧用の小サイズの画像と、拡大用の大サイズの画像とから構成される。そして、サムネイルファイル生成機能63が起動され、このようにして生成されたアノテーションリスト64とサムネイル画像65とから、RSS形式のサムネイルファイル66が生成される。
なお、アノテーションリスト生成機能61は、メタコンテンツファイル26だけでなく、利用者により追加されたアノテーションが記憶されているアノテーション管理ファイル28からもアノテーションを読み込んで、これらのアノテーションをマージしたアノテーションリスト64を生成するように構成することも可能である。また、サムネイル画像65は、上述のWebサーバ40においてサムネイル管理ファイル29として格納しており、サムネイルファイル66には各サムネイル画像65のURLが記憶される。
このように、編集済みコンテンツのサムネイル画像65をアノテーションに対応して生成し、RSS形式のサムネイルファイル66として生成することにより、利用者はRSS専用ビューアやWebブラウザ51の機能を使って一覧表示することができ、この編集済みコンテンツの利用を容易にすることができる。また、サムネイルファイル66をRSS形式とすることにより、例えば、利用者により追加されたアノテーションを所定の時間間隔でサムネイルファイル66として生成してその他の利用者に配信することにより、編集済みコンテンツの最新情報を提供することができる。もちろん、サムネイル画像65を生成せずに、アノテーションの情報(そのシーン時刻とテキスト情報や図形の識別情報)のみからRSS形式のファイルを生成して配信することも可能である。
動画や静止画等のコンテンツとこれらのコンテンツと重ね合わせて表示されるアノテーションとをそれぞれ独立して管理することができるので、アノテーションの表示・非表示の制御や利用者による追加を自由に行うことができ、同期型マルチメディアコンテンツの利用範囲を広げることができる。

Claims (9)

  1. サーバ装置と、
    端末装置と、から構成され、
    前記サーバ装置が、
    コンテンツを管理する配信用コンテンツ管理手段と、
    少なくとも前記コンテンツの再生開始時刻情報、当該コンテンツに重ね合わされて表示されるアノテーション自体、及び、当該アノテーション自体の表示時刻情報をメタコンテンツ中に記述して管理するメタコンテンツ管理手段と、
    前記配信用コンテンツ管理手段及び前記メタコンテンツ管理手段から前記コンテンツとともに、前記アノテーション自体及びその表示時刻情報を読み出して表示情報を生成し、前記端末装置に配信する配信手段と、を有し、
    前記端末装置が、前記サーバ装置から前記表示情報を受信して表示する表示手段を有するコンテンツ配信システム。
  2. 前記表示手段が、前記表示情報に含まれる前記アノテーション自体の表示・非表示を選択できるように構成された請求項1に記載のコンテンツ配信システム。
  3. 前記配信手段が、前記端末装置に前記表示情報を送信するときに、前記メタコンテンツ管理手段から前記アノテーション自体を抽出して前記端末装置に配信するアノテーション抽出手段を有し、
    前記端末装置が、抽出された前記アノテーション自体を受信して選択可能な状態で表示するとともに、選択されたアノテーション自体を前記サーバ装置に送信する目次手段を有し、
    前記配信手段が、前記目次手段から選択された前記アノテーション自体を受信したときに、当該選択されたアノテーション自体に対応する前記表示時刻情報から再生される前記表示情報を生成して前記端末装置に配信するように構成された請求項1または2に記載のコンテンツ配信システム。
  4. 前記サーバ装置が、前記コンテンツが動画情報であるときに、前記表示時刻情報に対応する当該コンテンツの再生位置までシークして当該再生位置から再生される前記表示情報として前記端末装置に配信する再生制御手段を有する請求項3に記載のコンテンツ配信システム。
  5. 前記端末装置が、前記表示手段で表示されている前記表示情報に対してアノテーション自体及びその表示時刻情報を追加し、当該追加されたアノテーション自体及びその表示時刻情報を前記サーバ装置に送信するアノテーション追加手段を有し、
    前記サーバ装置が、
    追加された前記アノテーション自体及びその表示時刻情報を管理するアノテーション管理手段と、
    前記アノテーション追加手段から送信された追加された前記アノテーション自体及びその表示時刻情報を前記アノテーション管理手段に登録するアノテーション登録手段と、を有し、
    前記アノテーション抽出手段が、前記メタコンテンツ管理手段から前記アノテーション自体及びその表示時刻情報を抽出するとともに、前記アノテーション管理手段から追加された前記アノテーション自体及びその表示時刻情報を取り出してマージして前記端末装置に配信するように構成された請求項3または4に記載のコンテンツ配信システム。
  6. 前記アノテーション登録手段により追加された前記アノテーション自体及びその表示時刻情報が前記アノテーション管理手段に登録されたときに、前記配信手段が、前記表示情報を前記端末装置に配信するとともに、前記アノテーション抽出手段により前記アノテーション自体を前記端末装置に配信するように構成された請求項3〜5のいずれか一項に記載のコンテンツ配信システム。
  7. 追加された前記アノテーション自体及びその表示時刻情報が、当該アノテーション自体を追加したコンテンツ利用者の識別情報を有し、
    前記表示手段が、前記識別情報に応じて追加された前記アノテーション自体の表示・非表示を選択できるように構成された請求項5または6に記載のコンテンツ配信システム。
  8. 前記アノテーション自体が、テキスト情報で構成される請求項1〜7のいずれか一項に記載のコンテンツ配信システム。
  9. 前記アノテーション自体が、図形で構成される請求項1〜7のいずれか一項に記載のコンテンツ配信システム。
JP2007557823A 2006-02-07 2007-02-05 コンテンツ配信システム Pending JPWO2007091510A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006029122 2006-02-07
JP2006029122 2006-02-07
PCT/JP2007/051905 WO2007091510A1 (ja) 2006-02-07 2007-02-05 コンテンツ配信システム

Publications (1)

Publication Number Publication Date
JPWO2007091510A1 true JPWO2007091510A1 (ja) 2009-07-02

Family

ID=38345109

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2007557825A Pending JPWO2007091512A1 (ja) 2006-02-07 2007-02-05 要約情報生成システム、要約情報生成方法、及び、要約情報を用いたコンテンツ配信システム
JP2007557822A Expired - Fee Related JP4507013B2 (ja) 2006-02-07 2007-02-05 コンテンツ編集生成システム
JP2007557823A Pending JPWO2007091510A1 (ja) 2006-02-07 2007-02-05 コンテンツ配信システム

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2007557825A Pending JPWO2007091512A1 (ja) 2006-02-07 2007-02-05 要約情報生成システム、要約情報生成方法、及び、要約情報を用いたコンテンツ配信システム
JP2007557822A Expired - Fee Related JP4507013B2 (ja) 2006-02-07 2007-02-05 コンテンツ編集生成システム

Country Status (5)

Country Link
US (2) US20090022474A1 (ja)
JP (3) JPWO2007091512A1 (ja)
CN (2) CN101379824B (ja)
TW (3) TW200805308A (ja)
WO (3) WO2007091509A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011210223A (ja) * 2010-03-09 2011-10-20 Toshiba Corp コンテンツ編集配信システム及びコンテンツ編集装置

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8341521B2 (en) * 2007-08-30 2012-12-25 Intel Corporation Method and apparatus for merged browsing of network contents
US8112702B2 (en) * 2008-02-19 2012-02-07 Google Inc. Annotating video intervals
US9349109B2 (en) * 2008-02-29 2016-05-24 Adobe Systems Incorporated Media generation and management
JP4939465B2 (ja) * 2008-02-29 2012-05-23 オリンパスイメージング株式会社 コンテンツ編集装置及びその方法並びにコンテンツ編集プログラム
US20100235379A1 (en) * 2008-06-19 2010-09-16 Milan Blair Reichbach Web-based multimedia annotation system
JP5066037B2 (ja) * 2008-09-02 2012-11-07 株式会社日立製作所 情報処理装置
US9223548B2 (en) * 2008-09-15 2015-12-29 Apple Inc. Method and apparatus for providing an application canvas framework
TW201039159A (en) * 2009-04-30 2010-11-01 Dvtodp Corp Method and web server of processing dynamic picture for searching purpose
US20100312780A1 (en) * 2009-06-09 2010-12-09 Le Chevalier Vincent System and method for delivering publication content to reader devices using mixed mode transmission
JPWO2011021632A1 (ja) * 2009-08-19 2013-01-24 株式会社インターネットテレビジョン 情報提供システム
JP2011044877A (ja) * 2009-08-20 2011-03-03 Sharp Corp 情報処理装置、会議システム、情報処理方法及びコンピュータプログラム
US20110227933A1 (en) * 2010-01-25 2011-09-22 Imed Bouazizi Method and apparatus for transmitting a graphical image independently from a content control package
EP2532157B1 (en) * 2010-02-04 2018-11-28 Telefonaktiebolaget LM Ericsson (publ) Method for content folding
US9066119B2 (en) * 2010-04-19 2015-06-23 Lg Electronics Inc. Method for transmitting/receiving internet-based content and transmitter/receiver using same
KR101789633B1 (ko) * 2010-04-19 2017-10-25 엘지전자 주식회사 인터넷 기반 컨텐츠 송수신 방법 및 그를 이용한 송수신장치
US9418069B2 (en) 2010-05-26 2016-08-16 International Business Machines Corporation Extensible system and method for information extraction in a data processing system
CN102547137B (zh) * 2010-12-29 2014-06-04 新奥特(北京)视频技术有限公司 一种视频图像的处理方法
CN102572301B (zh) * 2010-12-31 2016-08-24 新奥特(北京)视频技术有限公司 一种以桌面为中心的节目编辑系统
JP2012165041A (ja) * 2011-02-03 2012-08-30 Dowango:Kk 動画配信システム、動画配信方法、動画サーバ、端末装置及びコンピュータプログラム。
US8725869B1 (en) * 2011-09-30 2014-05-13 Emc Corporation Classifying situations for system management
US20140006978A1 (en) * 2012-06-30 2014-01-02 Apple Inc. Intelligent browser for media editing applications
JP6510205B2 (ja) * 2013-10-11 2019-05-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 送信方法、受信方法、送信装置および受信装置
WO2015052908A1 (ja) * 2013-10-11 2015-04-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 送信方法、受信方法、送信装置および受信装置
WO2016023186A1 (zh) * 2014-08-13 2016-02-18 华为技术有限公司 一种多媒体数据的合成方法及相关设备
US10200496B2 (en) * 2014-12-09 2019-02-05 Successfactors, Inc. User interface configuration tool
KR102271741B1 (ko) * 2015-01-14 2021-07-02 삼성전자주식회사 원본 컨텐츠와 연계된 편집 영상의 생성 및 디스플레이
US20160344677A1 (en) 2015-05-22 2016-11-24 Microsoft Technology Licensing, Llc Unified messaging platform for providing interactive semantic objects
US10360287B2 (en) 2015-05-22 2019-07-23 Microsoft Technology Licensing, Llc Unified messaging platform and interface for providing user callouts
CN112601121B (zh) * 2016-08-16 2022-06-10 上海交通大学 一种面向多媒体内容组件个性化呈现的方法及系统
CN111264063A (zh) * 2017-09-22 2020-06-09 知识产权之桥一号有限责任公司 显示控制设备和计算机程序
JP6873878B2 (ja) * 2017-09-26 2021-05-19 株式会社日立国際電気 ビデオサーバシステム
JP6369706B1 (ja) 2017-12-27 2018-08-08 株式会社Medi Plus 医療動画処理システム
JP7371369B2 (ja) * 2018-07-31 2023-10-31 株式会社リコー 通信端末および画像通信システム
CN111654737B (zh) * 2020-06-24 2022-07-12 北京嗨动视觉科技有限公司 节目同步管理方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000098985A (ja) * 1998-09-18 2000-04-07 Fuji Xerox Co Ltd マルチメディア情報処理装置
JP2004128724A (ja) * 2002-09-30 2004-04-22 Ntt Comware Corp メディア編集装置、メディア編集方法、メディア編集プログラムおよび記録媒体
JP2005236621A (ja) * 2004-02-19 2005-09-02 Ntt Comware Corp 動画データ提供システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5826102A (en) * 1994-12-22 1998-10-20 Bell Atlantic Network Services, Inc. Network arrangement for development delivery and presentation of multimedia applications using timelines to integrate multimedia objects and program objects
JP2000100073A (ja) * 1998-09-28 2000-04-07 Sony Corp 記録装置および方法、再生装置および方法、記録媒体、並びに提供媒体
GB2359917B (en) * 2000-02-29 2003-10-15 Sony Uk Ltd Media editing
US7823066B1 (en) * 2000-03-03 2010-10-26 Tibco Software Inc. Intelligent console for content-based interactivity
US7930624B2 (en) * 2001-04-20 2011-04-19 Avid Technology, Inc. Editing time-based media with enhanced content
JP2004015436A (ja) * 2002-06-06 2004-01-15 Sony Corp 映像コンテンツ作成のためのプログラム,記録媒体,方法及び装置
US20030237091A1 (en) * 2002-06-19 2003-12-25 Kentaro Toyama Computer user interface for viewing video compositions generated from a video composition authoring system using video cliplets
US20040181545A1 (en) * 2003-03-10 2004-09-16 Yining Deng Generating and rendering annotated video files
JP2004304665A (ja) * 2003-03-31 2004-10-28 Ntt Comware Corp 動画像メタデータ教材配信装置、動画像メタデータ教材再生装置、動画像メタデータ教材再生方法、および動画像メタデータ教材再生プログラム
JP3938368B2 (ja) * 2003-09-02 2007-06-27 ソニー株式会社 動画像データの編集装置および動画像データの編集方法
JP4551098B2 (ja) * 2004-02-19 2010-09-22 北越紀州製紙株式会社 撥水層と吸水層を併せ持つコンビネーション紙

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000098985A (ja) * 1998-09-18 2000-04-07 Fuji Xerox Co Ltd マルチメディア情報処理装置
JP2004128724A (ja) * 2002-09-30 2004-04-22 Ntt Comware Corp メディア編集装置、メディア編集方法、メディア編集プログラムおよび記録媒体
JP2005236621A (ja) * 2004-02-19 2005-09-02 Ntt Comware Corp 動画データ提供システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011210223A (ja) * 2010-03-09 2011-10-20 Toshiba Corp コンテンツ編集配信システム及びコンテンツ編集装置

Also Published As

Publication number Publication date
TW200805308A (en) 2008-01-16
US20090022474A1 (en) 2009-01-22
JPWO2007091509A1 (ja) 2009-07-02
JPWO2007091512A1 (ja) 2009-07-02
WO2007091509A1 (ja) 2007-08-16
US20090055406A1 (en) 2009-02-26
CN101379824B (zh) 2011-02-16
WO2007091510A1 (ja) 2007-08-16
JP4507013B2 (ja) 2010-07-21
CN101379824A (zh) 2009-03-04
CN101379823B (zh) 2010-12-22
TW200805305A (en) 2008-01-16
TW200805306A (en) 2008-01-16
WO2007091512A1 (ja) 2007-08-16
CN101379823A (zh) 2009-03-04

Similar Documents

Publication Publication Date Title
JP4507013B2 (ja) コンテンツ編集生成システム
JP4065142B2 (ja) オーサリング装置およびオーサリング方法
US8555170B2 (en) Tool for presenting and editing a storyboard representation of a composite presentation
US8091039B2 (en) Authoring interface which distributes composited elements about the display
US20070260968A1 (en) Editing system for audiovisual works and corresponding text for television news
US20070250899A1 (en) Nondestructive self-publishing video editing system
CN101657814A (zh) 为媒体资产管理指定精确帧图像的系统和方法
JP2005209196A5 (ja)
US9843823B2 (en) Systems and methods involving creation of information modules, including server, media searching, user interface and/or other features
US9076489B1 (en) Circular timeline for video trimming
JP4514671B2 (ja) コンテンツ編集装置、コンピュータ読み取り可能なプログラム及びそれを記録した記録媒体
KR100640219B1 (ko) 삼차원 시공간을 이용한 멀티미디어 프레젠테이션 공동저작 시스템 및 방법
US20220180901A1 (en) System and method for performance-based instant assembling of video clips
JP2011155329A (ja) 映像コンテンツ編集装置,映像コンテンツ編集方法および映像コンテンツ編集プログラム
JP3092496B2 (ja) シナリオ編集装置
JP2008102613A (ja) 検索結果表示装置及び方法、並びプログラム
JP2011244361A (ja) コンテンツクリップ吸着機能を有するコンテンツ編集生成システム
JP6089922B2 (ja) 情報処理装置及び情報編集プログラム
KR20200022995A (ko) 콘텐츠 제작 시스템
JP2015203933A (ja) コンテンツ抽出装置およびコンテンツ抽出方法
CN103988162A (zh) 涉及信息模块的创建、观看和利用的特征的系统和方法
US20140289606A1 (en) Systems and Methods For Attribute Indication and Accessibility in Electronics Documents
US20040239804A1 (en) System and method for editing the cyber teaching data having multi-layer and recording medium
JPH09305391A (ja) オーサリングツール開発装置及びオーサリングシステム
JP2011244362A (ja) コンテンツ自動配置機能を有するコンテンツ編集生成システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120301

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120625