JP2010524280A - 第1のメディアアイテム及び第2のメディアアイテムの同時再生を可能とする方法及び装置 - Google Patents

第1のメディアアイテム及び第2のメディアアイテムの同時再生を可能とする方法及び装置 Download PDF

Info

Publication number
JP2010524280A
JP2010524280A JP2009554112A JP2009554112A JP2010524280A JP 2010524280 A JP2010524280 A JP 2010524280A JP 2009554112 A JP2009554112 A JP 2009554112A JP 2009554112 A JP2009554112 A JP 2009554112A JP 2010524280 A JP2010524280 A JP 2010524280A
Authority
JP
Japan
Prior art keywords
media item
item
data
media
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009554112A
Other languages
English (en)
Inventor
ハイス ヘレインス
ヨハネス エイチ エム コルスト
ドラガン セクロフスキー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2010524280A publication Critical patent/JP2010524280A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • G06F16/4387Presentation of query results by the use of playlists
    • G06F16/4393Multimedia presentations, e.g. slide shows, multimedia albums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

第1及び第2のメディアアイテムは、抽出されたメディアアイテムに基づいて同期される(ステップ210)。複数の第2のメディアアイテムは、第1のメディアアイテムの再生の間、抽出されたデータアイテムの出現と同時に再生されるように、検索され(ステップ206)、返され、及び、選択される(ステップ208)。

Description

本発明は、第1のメディアアイテム及び第2のメディアアイテムの同時再生を可能とする方法及び装置に関する。
メディアアイテムは、視聴者の利益のために再生され、ビジュアルとオーディオとの双方の刺激を提供することができる。オーディオトラック(例えば歌)のような幾つかのメディアアイテムは、オーディオ的刺激だけを提供し、時々、視聴者に対する楽しみを増大させるために、ビジュアル的刺激もオーディオも提供することが望ましい。
曲又は歌の再生を聴きながら再生されるべき画像、静止又はビデオのクリップを提供するために、多くのシステムが存在する。画像は、曲が再生される際に表示される。必ず、歌の主題に関連されるべき画像、例えば、歌詞又はメタデータに関連付けられた画像が選択される。
"Google-based information extraction", G. Geleijnse, J. Korst, and V. Pronk, Proceeding of the 6th Dutch-Belgian Information Retrieval Workshop (DIR 2006), Delft, the Netherlands, March 2006では、検索エンジンを用いて情報を自動的に抽出する方法が示されている。これは、有名人の自動的に抽出された経歴で実施される。各入力で表示された画像は、ウェブから自動的に抽出される。この手法において、画像は、テキストにより意味的に関連付けられる。
また、"A personalized music video creator", D. A. Shamma, B. Pardo, and K. J. Hammond. Musictory, MULTIMEDIA '05: Proceeding of the13th annual ACM international conference on Multimedia, pages 563-566, New York, NY, USA, 2005. ACM Pressで見られる例のような、他の既知のシステムは、歌の歌詞から画像を自動的に検索して表示する。歌詞中の各単語は、("the","a","an"のような)非常に一般的な単語を除いて、順序リストに入れられる。リスト中の全ての単語は、Google又はYahoo!のような検索エンジンに問い合わせとして送信される。このサービスにより返された画像は、対応する表現と同一の順序で表示される。
しかしながら、後者のシステムでの問題は、期待される程度にまでは視聴者の楽しみを増大させないことである。
本発明は、メディアアイテムを再生するユーザの楽しみを増大させる、第1のメディアアイテム及び第2のメディアアイテムの同時再生を可能にする方法及び装置を提供しようとするものである。
これは、本発明の一態様によれば、第1のメディアアイテム及び第2のメディアアイテムを同期させる方法であって、第1のメディアアイテムに関連するデータから少なくとも1つのデータアイテムを抽出するステップと、抽出された少なくとも1つのデータアイテムに基づいて少なくとも1つの第2のメディアアイテムを選択するステップと、選択された少なくとも1つの第2のメディアアイテムが、第1のメディアアイテムの再生の間、抽出された少なくとも1つのデータアイテムの出現と同時に再生されるように、第1のメディアアイテムと、選択された少なくとも1つの第2のメディアアイテムとを同期させるステップとを有する、方法により実現される。前記第1のメディアアイテムに関連する前記データは、第1のメディアアイテムの部分であってもよく、又は、第1のメディアアイテムと別個に格納されてもよい。
また、これは、本発明の第2の態様によれば、第1のメディアアイテム及び第2のメディアアイテムを同期させる装置であって、第1のメディアアイテムに関連するデータからデータアイテムを抽出する抽出部と、抽出された前記データアイテムに基づいて少なくとも1つの第2のメディアアイテムを選択する選択部と、選択された少なくとも1つの第2のメディアアイテムが、第1のメディアアイテムの再生の間、抽出されたデータアイテムの出現と同時に再生されるように、第1のメディアアイテムと、選択された少なくとも1つの第2のメディアアイテムとを同期させる同期部とを有する装置により実現される。
この態様において、第1のメディアアイテムは、第2のメディアアイテムと同期される。例えば、第1のメディアアイテムが歌であり、第2のメディアアイテムが静止又はビデオ画像である場合には、歌及び画像は、歌詞が歌われた時に対応する画像が再生されるように同期される。
本発明の一実施形態において、第1のメディアアイテムに関連するデータから少なくとも1つのデータアイテムを抽出するステップは、第1のメディアアイテムに関連するテキストデータから少なくとも1つのデータアイテムを抽出するステップを有する。
本発明の斯様な実施形態によれば、テキストデータは、複数の単語及び語句を含み、第1のメディアアイテムに関連するテキストデータから少なくとも1つのデータアイテムを抽出するステップは、複数の単語及び語句からの少なくとも1つの単語又は語句を抽出するステップを有する。
本発明の斯様な実施形態による好ましい方法において、テキストデータは、固有名詞、名詞又は動詞のうち少なくとも1つを有する。
本発明の斯様な実施形態によれば、複数の単語及び語句から少なくとも1つの単語又は語句を抽出するステップは、複数の単語のそれぞれの役割を識別するステップと、複数の単語の識別された役割に基づいて、複数の単語から語句を抽出するステップとを有する。この態様において、全体の語句が抽出され得る。換言すれば、"Rows of Houses"又は"High Tech Campus"のような複数の表現が認識され、これは、より関連する画像を抽出することをもたらす。
本発明の代替実施形態において、第1のメディアアイテムに関連するデータから少なくとも1つのデータアイテムを抽出するステップは、第1のメディアアイテムに関連するデータの各データアイテムの出現頻度を判定するステップと、第1のメディアアイテムに関連するデータのうち少ない頻度で使用されたデータを抽出するステップとを有する。この態様において、より関連するデータアイテムが抽出される。例えば、データアイテムが複数の単語から成る場合には、"the","it","he","a"のような最も高頻度で使用された単語は抽出されず、より関連する単語だけが抽出され、より関連した画像をもたらす。
本発明の他の実施形態において、第1のメディアアイテムに関連するデータから少なくとも1つのデータアイテム抽出するステップは、第1のメディアアイテムのデータの一部から複数のデータアイテムを抽出するステップを有し、抽出された少なくとも1つのデータアイテムに基づいて少なくとも1つの第2のメディアアイテムを選択するステップは、複数の抽出されたデータアイテムのそれぞれに基づいて、複数の第2のメディアアイテムを検索するステップと、複数の抽出されたデータアイテムのそれぞれに対して、最も関連する検索された第2のメディアアイテムを選択するステップとを有する。
本発明の斯様な実施形態による好ましい方法において、第1のメディアアイテムのデータの一部から複数のデータアイテムを抽出するステップは、名前、名詞、動詞又は長さの基準のうちの1つに基づいて、複数のデータアイテムに優先順位をつけるステップを有する。この態様において、より重要なデータアイテムが抽出され得る。
本発明の他の実施形態において、抽出された少なくとも1つのデータアイテムに基づいて少なくとも1つの第2のメディアアイテムを選択するステップは、第1のメディアアイテムを少なくとも1つの区分に分割するステップと、少なくとも1つの区分に関連するデータから抽出された少なくとも1つのデータアイテムに基づいて、複数の第2のメディアアイテムを選択するステップと、複数の第2のメディアアイテムのそれぞれの再生時間を判定するステップと、前記少なくとも1つの区分の時間を判定するステップと、区分内において再生されるべき前記複数の第2のメディアアイテムの数を選択するステップとを有する。この態様において、第2のメディアアイテムの最適数が各区分の範囲内において再生され得る。
本発明の他の実施形態において、当該方法は、選択された少なくとも1つの第2のメディアアイテムの支配的な色を識別するステップを更に有する。この態様において、第2のメディアアイテム及びそれ故に第1のメディアアイテムに対する最も関連する色が識別される。例えば、第1のメディアアイテムが歌であった場合には、歌の歌詞又は主題に最も関連する色が識別されるだろう。
本発明の斯様な実施形態によれば、第1のメディアアイテムと、選択された少なくとも1つの第2のメディアアイテムとを同期させるステップは、識別された支配的な色が、第1のメディアアイテムの再生中に、抽出された少なくとも1つのデータアイテムの出現と同時に表示されるように、第1のメディアアイテムと、識別された支配的な色とを同期させるステップを有する。この態様において、最も関連する色は、対応するデータアイテムが再生されるのと同じタイムスタンプで表示される。
本発明の他の実施形態において、当該方法は、抽出された少なくとも1つのデータアイテムに対する色のマッピングを手動で規定するステップを有する。
本発明の斯様な実施形態によれば、第1のメディアアイテムと、選択された少なくとも1つの第2のメディアアイテムとを同期させるステップは、色の規定されたマッピングが、第1のメディアアイテムの再生の間、抽出された少なくとも1つのデータアイテムの出現と同時に表示されるように、第1のメディアアイテムと、色の規定されたマッピングとを同期させるステップを有する。
第1のメディアアイテムが再生される際には、ユーザを視覚的により楽しませるために、色が変化し、異なる色の間のこれらの遷移が好ましくは滑らかである。
本発明の一実施形態によれば、第1のメディアアイテム及び第2のメディアアイテムは、オーディオデータストリーム、ビデオデータストリーム、画像データ、又は、色データのうちの1つである。
本発明のより完全な理解のために、図面と併せて以下の説明が参照される。
本発明の一実施形態による装置の簡略図である。 本発明の一実施形態による第1のメディアアイテム及び第2のメディアアイテムの同時再生を可能にする方法のフローチャートである。 本発明の一実施形態による最も関連する第2のメディアアイテムを検索するプロセスのフローチャートである。 本発明の他の実施形態による第1のメディアアイテム及び色の再生を可能にする方法のフローチャートである。
図1によれば、本発明の一実施形態の装置100は、第1のメディアアイテムの入力に関する入力端子101を有する。入力端子101は、抽出部102に接続される。抽出部102の出力は、格納手段108から第2のメディアアイテムを検索及び選択する選択部103に接続される。格納手段は、例えば、ローカルディスクドライブ、又は、リモートサーバ上のデータベースを有し得る。格納手段108は、専用のネットワーク又はインターネットを介してアクセスされ得る。選択部103の出力は、同期部105に接続される。同期部105も、入力端子101に接続される。同期部の出力は、装置100の出力端子106に接続される。出力端子106は、レンダリングデバイス107に接続される。装置100は、例えば、消費者向け電子デバイス、例えばテレビ又はPCであってもよい。格納手段108は、例えば、ハードディスク、光学ディスクユニット又は固体メモリであってもよい。入力端子101、抽出部102、選択部103及び同期部105は、ソフトウェア等で実装された機能であってもよい。
図1の装置100の動作は、図2〜4を参照して示されるだろう。第1のメディアアイテムは、入力端子101に入力され(図2のステップ202)、それ故、抽出部102に入力される。第1のメディアアイテムは、例えば、オーディオデータストリーム、ビデオデータストリーム、画像データ、又は色データであってもよい。抽出部102は、第1のメディアアイテムから少なくとも1つのデータアイテムを抽出する(ステップ204)。
データアイテムは、第1のメディアアイテムに関連付けられたテキストデータ(即ち、複数の単語及び語句)、例えば、歌に関連付けられた歌詞から抽出され得る。抽出されたデータアイテムは、固有名詞、名詞又は動詞からなる単語又は語句を有するだろう。
固有名詞は、例えば、"George W. Bush"、"High Tech Campus"であり得る。固有名詞は、テキストのトピックを判定し、一又は複数の画像により表わされるのによく適している。これらの名付けられた実体(named-entity)は、既知の技術及びアプリケーションを用いて抽出され得る。斯様な技術及びアプリケーションの例は、"A Maximum Entropy Approach to Named Entity Recognition", A. Brothwick, PhD thesis, New York University, 1999、"Named entity recognition using an hmm-based chunk tagger", G. Zhou and J. Su, Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics (ACL 2002), pages 473 - 480, Philadelphia, PA, 2002、及び、"A framework and graphical development environment for robust nlp tools and applications", H. Cunningham, D. Maynard, K. Bontcheva, and V. Tablan, Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics (ACL 2002), Philadelphia, PA, 2002で見られ得る。抽出技術及びアプリケーションは、提供された例に限定されないことが理解されるだろう。一連の大文字で書かれた単語を抽出するような、他のよく適した代替手段が採用されてもよい。
例えば"大きい黄色のタクシー"及び"小さな赤いコルベット艦"のような名詞句が抽出されてもよい。名詞句は、複数の単語のそれぞれの役割(例えば、動詞、名詞、形容詞)を最初に識別することにより複数の単語から抽出され得る。各単語のテキスト中の役割は、"A simple rule-based part-of-speech tagger", E. Brill, Proceedings of the third Conference on Applied Natural Language Processing (ANLP'92), pages 152-155, Trento, Italy, 1992 で示されるような、"品詞タグ付けシステム(Part-of-Speech Tagger)"を用いることにより識別され得る。そして、語句は、複数の単語の識別された役割に基づいて複数の単語から抽出され得る。代わりに、話し言葉(speech)の部分の正規表現(regular expression)が、テキストから名詞句を抽出するために定式化されてもよい。例えば、"Automatic recognition of multi-word terms: the c-value/nc-value method", K. Frantzi, S. Ananiado, and H. Mima, International Journal on Digital Libraries, 3:115-130, 2000に示されるように、副詞の後に正の数の形容詞が続き、その後に正の数の名詞が続くのは(Adv×Adj+ ×Noun+)、用語を示す通常の表現である。
動詞は、例えば、"スキーをする"、"運転する"、"創作する"であり得る。品詞タグ付けシステムが、文中の動詞を識別するために用いられ得る。"to like"、"to be"、"to have"のような連結詞は、一覧表(tabu-list)を用いて省略され得る。
本発明に従って、ステップ204において第1のメディアアイテムからデータアイテムを抽出するために用いられ得る多くの可能な方法が存在する。
一の斯様な方法は、データアイテムを抽出するために統計的手法を用いる。斯様な方法において、データアイテムは、第1のメディアアイテムの各データアイテムの出現頻度を判定することにより抽出される。例えば、第1のメディアアイテムがテキストを含み、データアイテムが単語であると仮定する。斯様な例において、トレーニングコーパス(training corpus;大きな代表的なテキスト(large representative text))が、テキスト中に出現する全ての単語列の頻度を収集するために用いられる。このアプローチは、1つの単語の表現(1グラム;1-grams)、2つの単語からなる表現(2グラム;2-grams)、及び概してNグラム(N-grams;Nは典型的には多くても4である)のために用いられる。斯様なアプローチの一例は、"Foundations of Statistical Natural Language Processing", C. D. Manning and H. Schutze, The MIT Press, Cambridge, Massachusetts, 1999で見られ得る。斯様なアプローチにおいて、最も頻繁に出現するNグラム(例えば"is","he","it")は、表現として選択されるのに役立たないストップワードとして知られている。第1のメディアアイテムの各データアイテムの出現頻度が判定されると、その後、第1のメディアアイテムの少ない頻度で用いられたデータが抽出される。
本発明による第1のメディアアイテムからデータアイテムを抽出する他の方法において、下限及び上限の頻度閾値が割り当てられ、これらの閾値間の表現が抽出される(ステップ204)。上限の頻度閾値と下限の頻度閾値との間の表現は、画像を生成するために用いられるのによく適した語句である。
データアイテムを抽出するための他の技術(ステップ204)は、データアイテムを抽出し、名前、名詞、動詞又は長さの基準のうち1つに基づいて、これらの優先順位を決めることである。例えば、データアイテムが語句であった場合、これらは、長さに基づいて優先順位が決められ得、長い語句は、より重要だと考慮されるので、短い語句よりも優先されるだろう。
抽出されたデータアイテムは、抽出部102から出力され、選択部103に入力される。選択部103は、格納手段108にアクセスし、抽出されたデータアイテムに基づいて、少なくとも1つの第2のメディアアイテム、即ち、オーディオデータストリーム、ビデオデータストリーム、画像データ又は色データを検索する(ステップ206)。
最も関連する第2のメディアアイテムを検索するプロセス(図2のステップ206)の一例は、図3を参照してより詳細に説明されるだろう。明確な説明の目的のために、抽出されたデータアイテムは語句であり、検索されるべき第2のメディアアイテムが画像であることが仮定される。この例において、第2のメディアアイテムは、画像のパブリックインデックスリポジトリ(public indexed repository;例えば"Google Images")から検索される。換言すれば、格納手段108は、インターネットを介してアクセスされる。パブリックインデックスリポジトリが単に一例として用いられることが理解されるべきである。インデックス画像の個人コレクションのようなローカルリポジトリが用いられてもよい。
最初に、語句pのそれぞれに関して、"p"に関するリポジトリがインターネットを介して問い合わせされる(ステップ302)。引用符は、完全な語句を捜すためにインデックスリポジトリに情報を与える。その後、これは、サーチエンジンが満足する数の結果を返した場合に判定される(ステップ304)。サーチエンジンが満足する数の結果を返したことが判定された場合には、その後、見つけられた画像が抽出及び提示される(ステップ306)。
しかしながら、問い合わせが満足する数の結果をもたらさない場合には、結果の数が判定される(ステップ310)。
少なすぎる結果である(即ち、満足する結果ではない)と判定される場合には、その後、問い合わせが拡張される(ステップ312)。問い合わせは、例えば、(語句中の単語が個別に検索されるように)引用符を削除してpに対して問い合わせることにより、又は、p中の最初の単語を削除することにより、拡張され得る。p中の最初の単語は、あまり関連しない表現であると想定される。問い合わせが拡張されると、問い合わせが繰り返される(ステップ302)。
一方、多すぎる結果であると判定される場合(例えば、インデックスリポジトリが多くのヒットを返す場合)には、問い合わせが縮小される(ステップ314)。問い合わせは、例えば連続する語句を組み合わせることにより縮小され得る。問い合わせが縮小されると、問い合わせが繰り返される(ステップ302)。
プロセスは、サーチエンジンが満足する数の結果を返すまで繰り返される。満足する数の結果が返されると、見つけられた画像は、インデックスリポジトリにより抽出及び提示される(ステップ306)。提示された画像は、問い合わせごとに最も関連する画像を判定するために解析され得る(ステップ308)。例えば、最も関連する画像は、多数のサイトに現われるものである可能性が高い。それ故、どの画像が多くのサイトで現われるかが判定され、これらが選択されて返される。
他の方法において、第2のメディアアイテムは、以下のように選択される。第1のメディアアイテムが区分に分割され、その後、複数の第2のメディアアイテム(例えば画像)が、各区分についての抽出されたデータアイテムに基づいて検索される(ステップ208)。そして、区分の範囲内で再生されるべき複数の第2のメディアアイテムを選択することが可能である。これは、複数の第2のメディアアイテムのそれぞれの再生時間、及び、区分の時間を判定することにより実現される。区分の範囲内で再生されるべき複数の第2のメディアアイテムの数は、複数の第2のメディアアイテムの再生時間により分割された区分の時間に基づいて選択される。
第2のメディアアイテムが選択されると、この選択は、同期部105に入力される。入力端子101に入力された第1のメディアアイテムも、同期部105に入力される。同期部105は、選択された第2のメディアアイテムが、第1のメディアアイテムの再生の間、対応する抽出データアイテムの出現と同時に再生されるように、第1のメディアアイテムと第2のメディアアイテムとを同期させる。この態様において、例えば、選択された画像が、歌の再生の間、歌の対応する歌詞の出現と同時に表示されるように、自動ビデオクリップ(automatic video-clip)が作成され得る。
同期の後、同期部105の出力は、出力端子106に出力されて、コンピュータスクリーン、プロジェクタ、TV、スピーカと組み合わせた着色ランプ等のような、レンダリングデバイス107で再生される。
本発明の代替実施形態は、図4を参照して示されるだろう。本発明の代替実施形態において、選択された第2のメディアアイテムは、第1のメディアアイテムのトピックと適合する照明効果を作り出すために更に用いられ得る。例えば、第1のメディアアイテムが歌であり、第2のメディアアイテムが画像である場合に、画像は、歌のトピックと適合する照明効果を作り出すために用いられ得る。
本発明の代替実施形態によれば、図2のステップ202〜208が最初に実行される(ステップ402)。
次に、選択部103は、選択された第2のメディアアイテムにおける支配的な色を識別する(ステップ404)。例えば、抽出された第2のメディアアイテムが画像である場合には、支配的な色は、画像から識別される。そして、歌が海に関連する場合には、例えば、青色が画像を支配し、それ故に識別されるだろう。
支配的な色は、ステップ404で識別されると、同期部105に入力される。同期部105は、識別された支配的な色が、第1のメディアアイテムの再生の間、抽出されたデータアイテムの出現と同時に表示されるように、第1のメディアアイテムと、識別された支配的な色とを同期させる(ステップ406)。識別された支配的な色は、着色ランプがオーディオを強化する場所でアンビライトアプリケーションにおいて用いられ得る。前に述べられた第1のメディアアイテムと選択された第2のメディアアイテムとの同期は、表示されるべき色のタイミングに対して更に用いられ得る。例えば、青の支配的な色は、第1の抽出されたデータアイテムに対して検索された第2のメディアアイテムから識別され得、赤の支配的な色は、第2の抽出されたデータアイテムに対して検索された第2のメディアアイテムから識別され得る。斯様な場合において、第1のメディアアイテムの再生の間、青色は、第1の抽出されたデータアイテムの出現と同時に表示されるだろうし、赤色は、第2の抽出されたデータアイテムの出現と同時に表示されるだろう。
代わりに、色のマッピングが、抽出されたデータアイテムに対して手動で規定されてもよい。この場合において、第2のメディアアイテムのセットから支配的な色を識別するステップ(ステップ404)は、第1のメディアアイテムにおける予め決められた数の抽出されたデータアイテムのために省略される。代わりに、色のマッピングが、予め決められた数の抽出されたデータアイテムのために手動で規定される。例えば、予め決められた抽出されたデータアイテムが"紫色"又は"フェラーリ"のような単語である場合には、人々が単語に関連付ける色へのマッピングが、ステップ404で手動で規定され得る。
色のマッピングは、選択部103で規定されると、同期部105に入力される。同期部105は、規定された色のマッピングが、第1のメディアアイテムの再生の間、抽出されたデータアイテムの出現と同時に表示されるように、第1のメディアアイテムと規定された色のマッピングとを同期させる(ステップ406)。
同期の後、同期部105の出力は、出力端子106に出力されて、レンダリングデバイス107で再生される(ステップ408)。
第1のメディアアイテムが再生される際に、色が変化する。異なる色の間のこの遷移は、ユーザを視覚的により楽しませるために、好ましくは滑らかである。
本発明の実施形態は、図面で示され、上述の詳細な説明で説明されたが、本発明は、開示された実施形態に限定されることなく、特許請求の範囲に記載された本発明の範囲から逸脱することなく、多くの変更を可能とすることが理解されるだろう。本発明は、それぞれの新規な特徴、及び特徴のそれぞれの組み合わせに属する。特許請求の範囲における参照符号は、これらの保護範囲を限定するものではない。"有する"という動詞の使用及びその活用は、特許請求の範囲に記載されたもの以外の要素の存在を除外するものではない。要素の単数表記の使用は、斯様な要素の複数の存在を除外するものではない。
"手段"は、当業者にとって明らかであろうように、分離若しくは他の要素との協働であるか、又は、単独若しくは他の機能との組み合わせであるかに関わらず、動作中に再生するか、又は、特定機能を再生するために設計される、如何なるハードウェア(別個の又は一体化された回路又は電子要素等)又はソフトウェア(プログラム又はプログラムの一部等)も含むことを意味する。本発明は、幾つかの別個の要素を有するハードウェアにより、及び、適切にプログラムされたコンピュータにより、実行され得る。幾つかの手段を表す装置の請求項において、これらの手段の幾つかは、一つ及び同一のハードウェアにより具現されてもよい。"コンピュータプログラム"は、フロッピーディスク、インターネット等のネットワークを介してダウンロード可能なもの、又は、任意の態様における市場性のあるもののような、コンピュータ読み取り可能な媒体上に格納された任意のソフトウェアを意味することが理解されるべきである。

Claims (14)

  1. 第1のメディアアイテム及び第2のメディアアイテムの同時再生を可能にする方法であって、
    第1のメディアアイテムに関連するデータから少なくとも1つのデータアイテムを抽出するステップと、
    抽出された前記少なくとも1つのデータアイテムに基づいて少なくとも1つの第2のメディアアイテムを選択するステップと、
    選択された前記少なくとも1つの第2のメディアアイテムが、前記第1のメディアアイテムの再生の間、前記抽出された少なくとも1つのデータアイテムの出現と同時に再生されるように、前記第1のメディアアイテムと前記選択された少なくとも1つの第2のメディアアイテムとを同期させるステップとを有する、方法。
  2. 第1のメディアアイテムに関連するデータから少なくとも1つのデータアイテムを抽出するステップは、前記第1のメディアアイテムに関連するテキストデータから前記少なくとも1つのデータアイテムを抽出する、請求項1に記載の方法。
  3. 前記テキストデータは、複数の単語及び語句を含み、
    前記第1のメディアアイテムに関連するテキストデータから前記少なくとも1つのデータアイテムを抽出するステップは、前記複数の単語及び語句から少なくとも1つの単語又は語句を抽出する、請求項2に記載の方法。
  4. 前記テキストデータは、固有名詞、名詞又は動詞のうち少なくとも1つを有する、請求項3に記載の方法。
  5. 前記複数の単語及び語句から少なくとも1つの単語又は語句を抽出するステップは、
    前記複数の単語のそれぞれの役割を識別するステップと、
    前記複数の単語の識別された前記役割に基づいて、前記複数の単語から語句を抽出するステップとを有する、請求項3又は請求項4に記載の方法。
  6. 第1のメディアアイテムに関連するデータから少なくとも1つのデータアイテムを抽出するステップは、
    前記第1のメディアアイテムに関連する前記データの各データアイテムの出現頻度を判定するステップと、
    前記第1のメディアアイテムに関連する前記データの少ない頻度で使用されたデータアイテムを抽出するステップとを有する、請求項1〜5のうちいずれか一項に記載の方法。
  7. 第1のメディアアイテムに関連するデータから少なくとも1つのデータアイテムを抽出するステップは、前記第1のメディアアイテムに関連する前記データの一部から複数のデータアイテムを抽出するステップを有し、
    抽出された前記少なくとも1つのデータアイテムに基づいて少なくとも1つの第2のメディアアイテムを選択するステップは、抽出された前記複数のデータアイテムのそれぞれに基づいて複数の第2のメディアアイテムを検索するステップと、抽出された前記複数のデータアイテムのそれぞれに対して、検索された前記第2のメディアアイテムのうち最も関連するものを選択するステップとを有する、請求項1〜6のうちいずれか一項に記載の方法。
  8. 前記抽出されたデータアイテムに基づいて前記少なくとも1つの第2のメディアアイテムを選択するステップは、
    前記第1のメディアアイテムを少なくとも1つの区分に分割するステップと、
    前記少なくとも1つの区分に関連するデータから抽出された少なくとも1つのデータアイテムに基づいて、複数の第2のメディアアイテムを検索するステップと、
    前記複数の第2のメディアアイテムのそれぞれの再生時間を判定するステップと、
    前記少なくとも1つの区分の時間を判定するステップと、
    前記区分の範囲内において再生されるべき前記複数の第2のメディアアイテムの数を選択するステップとを有する、請求項1〜7のうちいずれか一項に記載の方法。
  9. 前記選択された少なくとも1つの第2のメディアアイテムにおける支配的な色を識別するステップを更に有する、請求項1〜8のうちいずれか一項に記載の方法。
  10. 第1のメディアアイテムと前記選択された少なくとも1つの第2のメディアアイテムとを同期させるステップは、
    識別された前記支配的な色が、前記第1のメディアアイテムの再生の間、前記抽出された少なくとも1つのデータアイテムの出現と同時に表示されるように、前記第1のメディアアイテムと前記識別された支配的な色とを同期させるステップを有する、請求項9に記載の方法。
  11. 前記抽出された少なくとも1つのデータアイテムに対する色のマッピングを手動で規定するステップを更に有する、請求項1〜10のうちいいずれか一項に記載の方法。
  12. 請求項1〜11のうちいずれか一項に記載の方法を実行する複数のプログラムコード部分を有する、コンピュータプログラム。
  13. 第1のメディアアイテム及び第2のメディアアイテムの同時再生を可能にする装置であって、
    第1のメディアアイテムに関連するデータから少なくとも1つのデータアイテムを抽出する抽出部と、
    抽出された前記少なくとも1つのデータアイテムに基づいて少なくとも1つの第2のメディアアイテムを選択する選択部と、
    選択された前記少なくとも1つの第2のメディアアイテムが、前記第1のメディアアイテムの再生の間、前記抽出された少なくとも1つのデータアイテムの出現と同時に再生されるように、前記第1のメディアアイテムと前記選択された少なくとも1つの第2のメディアアイテムとを同期させる同期部とを有する、装置。
  14. 前記抽出部は、前記第1のメディアアイテムに関連するテキストデータから前記少なくとも1つのデータアイテムを抽出する手段を有する、請求項13に記載の装置。
JP2009554112A 2007-03-21 2008-03-18 第1のメディアアイテム及び第2のメディアアイテムの同時再生を可能とする方法及び装置 Pending JP2010524280A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP07104558 2007-03-21
PCT/IB2008/051013 WO2008114209A1 (en) 2007-03-21 2008-03-18 Method and apparatus for enabling simultaneous reproduction of a first media item and a second media item

Publications (1)

Publication Number Publication Date
JP2010524280A true JP2010524280A (ja) 2010-07-15

Family

ID=39645393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009554112A Pending JP2010524280A (ja) 2007-03-21 2008-03-18 第1のメディアアイテム及び第2のメディアアイテムの同時再生を可能とする方法及び装置

Country Status (6)

Country Link
US (1) US20100131464A1 (ja)
EP (1) EP2130144A1 (ja)
JP (1) JP2010524280A (ja)
KR (1) KR20100015716A (ja)
CN (1) CN101647016A (ja)
WO (1) WO2008114209A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9055271B2 (en) 2008-03-20 2015-06-09 Verna Ip Holdings, Llc System and methods providing sports event related media to internet-enabled devices synchronized with a live broadcast of the sports event
US20090307207A1 (en) * 2008-06-09 2009-12-10 Murray Thomas J Creation of a multi-media presentation
US8370396B2 (en) * 2008-06-11 2013-02-05 Comcast Cable Holdings, Llc. System and process for connecting media content
US9961110B2 (en) * 2013-03-15 2018-05-01 Verisign, Inc. Systems and methods for pre-signing of DNSSEC enabled zones into record sets
KR102207208B1 (ko) * 2014-07-31 2021-01-25 삼성전자주식회사 음악 정보 시각화 방법 및 장치
US11831943B2 (en) 2021-10-26 2023-11-28 Apple Inc. Synchronized playback of media content

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09214894A (ja) * 1996-01-31 1997-08-15 Yamaha Corp カラオケの背景画像表示装置
JPH09212480A (ja) * 1996-01-31 1997-08-15 Yamaha Corp 雰囲気情報生成装置およびカラオケ装置
JPH09288681A (ja) * 1996-04-23 1997-11-04 Toshiba Corp 背景映像検索表示装置および背景映像検索方法
JP2001034275A (ja) * 1999-07-19 2001-02-09 Taito Corp 通信カラオケシステム
JP2001331187A (ja) * 2000-05-18 2001-11-30 Daiichikosho Co Ltd カラオケ装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5983237A (en) * 1996-03-29 1999-11-09 Virage, Inc. Visual dictionary
US6813618B1 (en) * 2000-08-18 2004-11-02 Alexander C. Loui System and method for acquisition of related graphical material in a digital graphics album
US7058223B2 (en) * 2000-09-14 2006-06-06 Cox Ingemar J Identifying works for initiating a work-based action, such as an action on the internet
US7099860B1 (en) * 2000-10-30 2006-08-29 Microsoft Corporation Image retrieval systems and methods with semantic and feature based relevance feedback
US20050190199A1 (en) * 2001-12-21 2005-09-01 Hartwell Brown Apparatus and method for identifying and simultaneously displaying images of musical notes in music and producing the music
JP2003302971A (ja) * 2002-04-08 2003-10-24 Yamaha Corp 映像データ処理装置及び映像データ処理プログラム
US20040024755A1 (en) * 2002-08-05 2004-02-05 Rickard John Terrell System and method for indexing non-textual data
US7827297B2 (en) * 2003-01-18 2010-11-02 Trausti Thor Kristjansson Multimedia linking and synchronization method, presentation and editing apparatus
CN1742492B (zh) * 2003-02-14 2011-07-20 汤姆森特许公司 媒体内容的基于音频和视频的媒体服务的自动同步
JP2006154626A (ja) * 2004-12-01 2006-06-15 Matsushita Electric Ind Co Ltd 画像提示装置、画像提示方法およびスライドショー提示装置
US7912827B2 (en) * 2004-12-02 2011-03-22 At&T Intellectual Property Ii, L.P. System and method for searching text-based media content
US8738749B2 (en) * 2006-08-29 2014-05-27 Digimarc Corporation Content monitoring and host compliance evaluation
US8347213B2 (en) * 2007-03-02 2013-01-01 Animoto, Inc. Automatically generating audiovisual works

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09214894A (ja) * 1996-01-31 1997-08-15 Yamaha Corp カラオケの背景画像表示装置
JPH09212480A (ja) * 1996-01-31 1997-08-15 Yamaha Corp 雰囲気情報生成装置およびカラオケ装置
JPH09288681A (ja) * 1996-04-23 1997-11-04 Toshiba Corp 背景映像検索表示装置および背景映像検索方法
JP2001034275A (ja) * 1999-07-19 2001-02-09 Taito Corp 通信カラオケシステム
JP2001331187A (ja) * 2000-05-18 2001-11-30 Daiichikosho Co Ltd カラオケ装置

Also Published As

Publication number Publication date
US20100131464A1 (en) 2010-05-27
WO2008114209A1 (en) 2008-09-25
CN101647016A (zh) 2010-02-10
KR20100015716A (ko) 2010-02-12
EP2130144A1 (en) 2009-12-09

Similar Documents

Publication Publication Date Title
Pavel et al. Sceneskim: Searching and browsing movies using synchronized captions, scripts and plot summaries
Zhang et al. A natural language approach to content-based video indexing and retrieval for interactive e-learning
KR101715971B1 (ko) 키워드 및 스트링 입력에 기초한 애니메이트된 미디어를 어셈블링하는 방법 및 시스템
US20100274667A1 (en) Multimedia access
US20090307207A1 (en) Creation of a multi-media presentation
Gligorov et al. On the role of user-generated metadata in audio visual collections
KR20040004354A (ko) 멀티미디어 프리젠테이션들의 자동 콘텐트 분석 및리프리젠테이션
Repp et al. Browsing within lecture videos based on the chain index of speech transcription
CN105045828B (zh) 一种音视频语音信息精确定位的检索系统及方法
JP2010524280A (ja) 第1のメディアアイテム及び第2のメディアアイテムの同時再生を可能とする方法及び装置
Jaimes et al. Modal keywords, ontologies, and reasoning for video understanding
Vembu et al. Towards bridging the semantic gap in multimedia annotation and retrieval
RU2459242C1 (ru) Способ создания и использования рекурсивного индекса поисковых машин
EP1405212B1 (en) Method and system for indexing and searching timed media information based upon relevance intervals
KR100451004B1 (ko) 폐쇄자막 기반의 뉴스 비디오 데이터베이스 생성 장치 및방법과 그에 따른 내용기반 검색/탐색 방법
Repp et al. Towards to an automatic semantic annotation for multimedia learning objects
de Jong et al. Multimedia search without visual analysis: the value of linguistic and contextual information
Petrelli et al. An examination of automatic video retrieval technology on access to the contents of an historical video archive
Amir et al. Search the audio, browse the video—a generic paradigm for video collections
Kim et al. Generic speech summarization of transcribed lecture videos: Using tags and their semantic relations
Goodrum If it sounds as good as it looks: Lessons learned from video retrieval evaluation
JP2023122236A (ja) セクション分割処理装置、方法およびプログラム
Amir et al. Efficient Video Browsing: Using Multiple Synchronized Views
Dong et al. Educational documentary video segmentation and access through combination of visual, audio and text understanding
Caillet et al. Engineering multimedia applications on the basis of multi-structured descriptions of audiovisual contents

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130516