JP2006244002A - コンテンツ再生装置およびコンテンツ再生方法 - Google Patents

コンテンツ再生装置およびコンテンツ再生方法 Download PDF

Info

Publication number
JP2006244002A
JP2006244002A JP2005057010A JP2005057010A JP2006244002A JP 2006244002 A JP2006244002 A JP 2006244002A JP 2005057010 A JP2005057010 A JP 2005057010A JP 2005057010 A JP2005057010 A JP 2005057010A JP 2006244002 A JP2006244002 A JP 2006244002A
Authority
JP
Japan
Prior art keywords
image data
search
data
metadata
audio data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005057010A
Other languages
English (en)
Inventor
Yasushi Miyajima
靖 宮島
Masamichi Asukai
正道 飛鳥井
Mitsuru Takehara
充 竹原
Takatoshi Nakamura
隆俊 中村
Yoichiro Sako
曜一郎 佐古
Toshiro Terauchi
俊郎 寺内
Makoto Inoue
真 井上
Katsuaki Yamashita
功誠 山下
Toru Sasaki
徹 佐々木
Masashi Matsuda
將史 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005057010A priority Critical patent/JP2006244002A/ja
Priority to KR1020077019711A priority patent/KR20070106537A/ko
Priority to EP06713198A priority patent/EP1855473B1/en
Priority to DE602006019829T priority patent/DE602006019829D1/de
Priority to CN200680006852A priority patent/CN100589540C/zh
Priority to PCT/JP2006/302055 priority patent/WO2006106596A1/ja
Priority to US11/885,327 priority patent/US8145034B2/en
Publication of JP2006244002A publication Critical patent/JP2006244002A/ja
Priority to US13/405,020 priority patent/US8868585B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/48Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2562DVDs [digital versatile discs]; Digital video discs; MMCDs; HDCDs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories

Abstract

【課題】利用可能とされた、大量の音楽や話音声などの音声データと静止画像や動画像の画像データとを効率よくかつ有効に活用できるようにする。
【解決手段】素材データベース21に蓄積されている音声データを再生する場合、制御部10は、当該再生対象の音声データに付加されているメタデータを素材データベースから取得し、このメタデータをもとに、画像データのメタデータを参照して、当該音声データに関連性の高い画像データを検索し、制御部10の機能によって、音声デコーダ32などの音声の再生系と、画像デコーダ31などの画像の再生系とを制御し、再生対象の音声データと、検索した画像データとを関連付けて再生する。
【選択図】図1

Description

この発明は、例えば、音声データや静止画像や動画像の画像データを再生する装置および方法に関する。
種々の記録媒体を通じて、あるいは、インターネットなどのネットワークを通じて音楽(楽曲)データなどの様々な音声データが提供され、個人のパーソナルコンピュータなどの情報処理装置に蓄積されて利用されるようになってきている。また、記録媒体やネットワークを通じて提供される他、デジタルスチルカメラやデジタルビデオカメラなどを通じて撮影した静止画像や動画像の画像データも個人のパーソナルコンピュータなどの情報処理装置に蓄積されて利用されるようになってきている。
このように、個人のパーソナルコンピュータなどの情報処理装置に蓄積される音声データや画像データは近年飛躍的に増加している。また、インターネット上にもさまざまな音や画像のコンテンツが数多く利用可能にされている。しかしながら、同じ情報処理装置からアクセス可能なデータであるにもかかわらず、別々の経路で、あるいは、別々のタイミングで取得された音声データや画像データは、そのそれぞれが完全に独立したデータとして扱われるのが一般的である。
すなわち、テレビ放送番組や映画コンテンツなど、音声データと動画像データとが、同期を取って再生されるいわゆるAV(Audio/Digital)データを除けば、目的とする音声データを再生する場合には、その目的とする音声データしか再生できないし、目的とする画像データを再生する場合には、その目的とする画像データしか再生できないのが一般的である。
近年においては、例えば後に記す特許文献1に開示されているように、サムネイル表示される複数の画像の中の任意の画像を任意の順序で再生するようにするいわゆるスライドショー表示(スライドショー再生)を行うことが可能な装置が提案されている。また、いわゆるスライドショー再生時において、ユーザーが指示することにより明示的に再生する音声データを指定してBGMを付けるようにすることも考えられている。
特開2003−288068号公報
ところで、いわゆるスライドショー再生を行うシステムにおいては、予め決められたファイルに記録された複数の静止画像データやユーザーによって指定された複数の静止画像データを再生対象とし、また、予め決められたファイルに記録された音声データやユーザーによって指定された音声データを再生対象とするのが一般的である。
しかし、上述もしたように、パーソナルコンピュータなどの情報処理装置には、大量の音声データや画像データが蓄積するようにされており、また、インターネットなどのネットワークを通じて大量の音声データや画像データの利用も可能にされている。このように利用可能な大量の音声データや画像データを効率よく、かつ、効果的に利用できるようにしたいとする要求がある。
具体的には、再生する音楽にあった静止画像を選択して表示したり、順次に表示する静止画像に最適なBGM(Back Grand Music)を付けるようにしたりするなどのことが、簡単かつ確実に行うことができれば、蓄積されている音楽データや画像データを有効に、かつ、効果的に活用することができる。
以上のことにかんがみ、この発明は、利用可能とされた音楽や話音声などの音声データと静止画像や動画像の画像データとを効率よく、有効かつ効果的に活用できるようにする装置、方法を提供することを目的とする。
上記課題を解決するため、請求項1に記載の発明のコンテンツ再生装置は、
再生する音声データに付加されたメタデータを取得する取得手段と、
前記取得手段により取得されたメタデータをもとに、静止画像あるいは動画像の画像データに対して付加されているメタデータを参照し、前記音声データと関連性の高い画像データを検索する検索手段と、
前記音声データを再生する音声再生手段と、
前記検索手段により検索された前記画像データを再生する画像再生手段と、
再生される音声と画像とを関連付けて再生するように前記音声再生手段と前記画像再生手段とを制御する制御手段と
を備えることを特徴とする。
この請求項1に記載のコンテンツ再生装置によれば、再生対象の音声データに付加されているメタデータが、取得手段によって取得され、このメタデータをもとに、画像データに付加されているメタデータが参照されて、当該音声データに対して関連性の高い画像データが検索手段によって検索される。そして、制御手段によって、音声再生手段と画像再生手段とが制御され、再生対象の音声データと、検索手段によって検索された画像データとが、関連付けられて再生される。
これにより、再生する音声データに関連する画像データをユーザーがいちいち探して選択するなどの手間や時間をかけることなく、再生対象の音声データに関連する画像データを自動的に検索して、これを目的とする音声データの再生に対応させて再生することができるようにされる。したがって、利用可能とされた大量の音楽や話音声などの音声データと、静止画像や動画像の画像データとを効率よくかつ有効に活用することができるようにされる。
また、請求項2に記載の発明のコンテンツ再生装置は、
再生する静止画像あるいは動画像の画像データに付加されたメタデータを取得する取得手段と、
前記取得手段により取得されたメタデータをもとに、音声データに対して付加されているメタデータを参照し、再生する前記画像データと関連性の高い音声データを検索する検索手段と、
前記画像データを再生する画像再生手段と、
前記検索手段により検索された前記音声データを再生する音声再生手段と、
再生される画像と音声とを関連付けて再生するように前記画像再生手段と前記音声再生手段とを制御する制御手段と
を備えることを特徴とする。
この請求項2に記載のコンテンツ再生装置によれば、再生対象の画像データに付加されているメタデータが、取得手段によって取得され、このメタデータをもとに、音声データに付加されているメタデータが参照されて、当該画像データに対して関連性の高い音声データが検索手段によって検索される。そして、制御手段によって、画像再生手段と音声再生手段とが制御され、再生対象の画像データと、検索手段によって検索された音声データとが、関連付けられて再生される。
これにより、再生する画像データに関連する音声データをユーザーがいちいち探して選択するなどの手間や時間を掛けることなく、再生対象の画像データに関連する音声データを自動的に検索して、これを目的とする画像データの再生に対応させて再生することができるようにされる。したがって、利用可能とされた静止画像や動画像の画像データと、大量の音楽や話音声などの音声データとを効率よくかつ有効に活用することができるようにされる。
この発明によれば、ユーザーが手間や時間を掛けることなく、利用可能とされた、大量の音楽や話音声などの音声データと静止画像や動画像の画像データとを効率よくかつ有効に活用できる。
以下、図を参照しながら、この発明による装置、方法の一実施の形態について説明する。以下に説明する実施の形態においては、この発明による装置、方法を、例えば、パーソナルコンピュータ、ノート型パーソナルコンピュータ、携帯電話端末、携帯型情報端末等の装置であって、音声データと画像データの再生機能を備えた装置(以下、コンテンツ再生装置という。)に適用した場合を例にして説明する。
そして、以下に説明するこの実施の形態のコンテンツ再生装置は、音声データ、写真データ(静止画像データ)、動画像データに、そのデータの作成された年月日、地域、自分との関連度、内容詳細などに関するメタデータを付加しておき、これらのメタデータを利用することによって、ユーザーの手を煩わせることなく、音楽データの再生時に自動的にその音楽の流行したときの自分が撮影した写真、自分の写っている写真、時事写真などを表示することができるものである。
また、これとは逆に、静止画像データをいわゆるスライドショーのように表示するなど、静止画像データを再生する場合、あるいは、動画像データを再生する場合に、ユーザーの手を煩わせることなく、再生対象の画像データに合った音楽の音楽データを自動的に選択して再生し、これをBGMとして用いるようにすることができるものである。
なお、音声データや画像データに付加されるメタデータは、これが付加された音声データや画像データなどの主データの属性や意味内容を示すデータであって、本来、その主データを管理するために付加されるものである。
[コンテンツ再生装置について]
図1は、この発明による装置、方法の一実施の形態が適用されたこの実施の形態のコンテンツ再生装置を説明するためのブロック図である。図1に示すように、この実施の形態のコンテンツ再生装置は、制御部10、素材データベース21、類義語辞書22、ネットワークインターフェース(以下、ネットワークI/Fと略称する。)23、外部インターフェース(以下、外部I/Fと略称する。)24、外部入出力端子25、画像デコーダ31、音声デコーダ32、映像D/A変換器41、ディスプレイ42、音声D/A(Digital/Analog)変換器51、音声アンプ52、スピーカ53、カレンダー時計回路(以下、時計回路という。)61、キー操作部62を備えたものである。
制御部10は、この実施の形態のコンテンツ再生装置の各部を制御するものであり、図1に示すように、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13とが、CPUバス14を通じて接続されて形成されたマイクロコンピュータである。
ここで、CPU11は、制御の主体となるものであり、プログラムを実行して種々の演算を行うことにより、各部に供給する制御信号を形成し、これを目的とする部分に供給するものである。ROM12は、CPU11において実行するプログラムや処理に必要になる種々のデータを記憶保持するものである。RAM13は、処理の途中結果を一時記憶するなど、主に作業領域(ワークエリア)として用いられるものである。
素材データベース21は、比較的に大容量の記録媒体を備え、このコンテンツ再生装置において再生する音楽や話音声などの音声データ(音声素材)やこれに付随するメタデータ、静止画像や動画像などの画像データ(画像素材)やこれに付随するメタデータなどを記憶保持するものである。
素材データベース21において用いられる記録媒体としては、例えば、CDやDVDなどの光ディスク、MD(Mini Disc(登録商標))などの光磁気ディスク、半導体メモリー、ハードディスクなどの磁気ディスクなど種々のものがあるが、この実施の形態において素材データベース21は、ハードディスクが用いられたものとして説明する。すなわち、素材データベース21は、ハードディスクを備え、これに上述したような種々のデータを記録し、また、記録したデータを読み出すことが可能なハードディスクドライブに相当する。
類義語辞書22は、素材データベース21と同様に、比較的に大容量の記録媒体を備え、類義語辞書データを記憶保持するものである。類義語辞書22において用いられる記録媒体としては、素材データベース21の場合と同様に、光ディスク、光磁気ディスク、半導体メモリー、半導体メモリー、ハードディスクなどの種々のものが利用可能であるが、この実施の形態においては、類義語辞書22もまたハードディスクが用いられ、ハードディスクドライブとしての機能を有するものである。
なお、この実施の形態においては、説明を簡単にするため、図1に示したように、素材データベース21と類義語辞書22とは、異なるハードディスク上に記録されるものとして表したが、それらを記憶領域を変えて同一のハードディスク上に形成するようにすることももちろん可能である。また、素材データベース21はハードディスクドライブに形成し、類義語辞書は、半導体メモリーやCD−ROMなどの他の記録媒体に形成したものを用いるようにすることが可能である。この場合、類義語辞書22は、半導体メモリードライブやCDドライブに相当することになる。
ネットワークI/F23は、この実施の形態においてはインターネット100に接続して、インターネット上のサーバ装置等との間でデータの送受を実現するようにするものである。したがって、この実施の形態のコンテンツ再生装置は、ネットワークI/F23、インターネット100を通じて、インターネット100上に接続された素材サーバ101などにアクセスし、種々の音声データや画像データの提供を受けて再生したり、また提供を受けた音声データや画像データを素材データベース21に登録したりすることができるようにしている。
すなわち、この実施の形態のコンテンツ再生装置は、ローカルの素材データベース21だけでなく、インターネットなどのネットワークを経由して第三者が用意した写真などの静止画像データ、動画像データや音楽データなどの素材についても取得して再生の対象とすることができる。
外部I/F24は、例えば、外部に設けられたパーソナルコンピュータやコンテンツ再生装置との間に通信路を形成し、通信を行うためのものであり、外部入出力端子25は、外部に設けられた機器との接続を可能にするためのものである。これにより、外部入出力端子25に接続された外部の機器に対してデータを提供したり、あるいは、必要なデータの提供を受けて利用したりするこことができるようにしている。
また、画像デコーダ31は、再生しようとする画像データの圧縮解凍処理を行って、データ圧縮前の元の画像データを復元するなどして、再生用の画像データを形成するものである。画像デコーダ31においてデコード処理された画像データは、D/A変換器41に供給され、ここでアナログ画像信号に変換された後、ディスプレイ42に供給され、再生対象の画像データに応じた画像がディスプレイ42の表示画面に表示される。
なお、ディスプレイ42は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro Luminescence)ディスプレイ、CRT(Cathode-Ray Tube)等の表示素子を備えた画像表示装置部であり、この実施の形態のコンテンツ再生装置においては、例えばLCDが用いられたものである。
音声デコーダ32は、再生しようとする音声データの圧縮解凍処理行って、データ圧縮前の元の音声データを復元するなどして、再生用の音声データを形成するものである。音声デコーダ32においてデコード処理された音声データは、D/A変換器51に供給され、ここでアナログ音声信号に変換された後、音声アンプ52を通じてスピーカ53に供給され、再生対象の音声データに応じた音声がスピーカ53から放音される。
なお、上述した画像デコーダ31や音声デコーダ32の機能は、制御部10において実行するソフトウェアによって実現するように構成することも可能である。
時計回路61は、現在年月日、現在曜日、現在時刻を提供するものであり、詳しくは後述もするが、現在の日時と音声データや画像データなどのコンテンツデータに付加されているメタデータが有する日時に関する情報との差分日数を算出するなどのために用いることができるようにされている。
また、キー操作62は、例えば、数字キーや各種の機能キーなどの多数の操作キーを備え、ユーザーからの指示入力を受け付けて、これに応じた電気信号を制御部10に供給することができるものである。これにより制御部10は、ユーザーからの指示入力に応じて各部を制御することができるようにされる。
なお、ディスプレイ42の表示画面にタッチパネルを設けると共に、タッチパネル上のユーザーの指などの接触位置をデータに変換する座標変換回路を設けることによって、キー操作部62と同様の機能を実現するようにしたり、例えばマウスなどと呼ばれるポインティングデバイスを用いて、キー操作部62と同様の機能を実現するようにしたりすることも可能である。
そして、図1を用いて上述した構成を有するこの実施の形態のコンテンツ再生装置は、インターネット100、ネットワークI/F23を通じて素材サーバ101から取得した音声データ、静止画像データ、動画像データなどのコンテンツデータや、入出力端子25、外部I/F24を通じて外部機器から取得した音声データ、静止画像データ、動画像データなどのコンテンツデータを素材データベース21に蓄積する。
そして、キー操作部62を通じて受け付けるユーザーから指示入力に応じたコンテンツデータを素材データベース21から読み出し、当該コンテンツデータが静止画像データや動画像データである場合には、画像デコーダ31、D/A変換器41、ディスプレイ42を通じて再生し、当該コンテンツが音声データである場合には、音声デコーダ32、A/D変換器51、音声アンプ52、スピーカ53を通じて再生する。
また、詳しくは後述もするように、利用可能な音声データ、静止画像データ、動画像データなどのコンテンツデータには、種々のメタデータが付加されている。このため、この実施の形態のコンテンツ再生装置は、再生可能なコンテンツデータに付加されているメタデータを利用することにより、音声データを再生する場合にその音声データに関連のある画像データを検索して抽出し、これを音声データの再生に並行して再生するようにしたり、画像データを再生する場合にその画像データに関連のある音声データを検索して抽出し、これを画像データの再生に並行して再生するようにしたりすることができるようにしている。
例えば、音声データの再生時には、その再生される音声に関連のある静止画像データや動画像データを素材データベース21やインターネット100上の素材サーバ101や外部I/F24を通じて接続される外部機器の記録媒体から自動的に検索して表示することができるようにしている。また、静止画像データや動画像データの再生時において、その再生される画像データに関連のある音声データを素材データベース21やインターネット100上の素材サーバ101や外部I/F24を通じて接続される外部機器の記録媒体から自動的に検索して再生することもできるようにしている。
ここで行なわれるコンテンツの検索は、各コンテンツデータに付加されているメタデータに基づいて行なわれるが、既に付加されているメタデータだけでなく、類義語辞書22を用いることによって、メタデータに応じた類義語をも用いて、画像データや音声データの検索を行うことができるようにしている。
なお、各コンテンツデータに付加されているメタデータは、予め付加されている場合には、コンテンツデータと共に取得することが可能であるし、また、付加されていない場合には、このコンテンツ再生装置等を通じてユーザーがメタデータを入力することによって付加することもできるようにしている。
また、コンテンツデータとは別個に、目的とするコンテンツデータに対して付加すべきメタデータを外部装置やインターネット100上のメタデータサーバなどから取得して、この実施の形態のコンテンツ再生装置において、当該目的とするコンテンツデータに対して付加することもできるようにしている。
[メタデータの詳細について]
[画像データのメタデータについて]
まず、静止画像データや動画像データである画像データに付加されるメタデータについて説明する。画像データに付加するメタデータは、その画像データが形成する画像を音声データに付加されているメタデータに応じて検索するためのデータ群となる。予め決められたフィールドだけでなく、自由文を入れられるようにフリーワードを登録するためのキーワードのフィールドがある。
図2は、画像データ(静止画像データ)とこれに付加されるメタデータの一例を説明するための図である。図2A、B、Cのそれぞれは、異なる静止画像データよる静止画像と、当該静止画像データに付加されたメタデータの一例を示している。図2A、B、Cのそれぞれにおいて、画像GA、GB、GCのそれぞれは、そのそれぞれの静止画像データによる画像を示している。
図2Aの画像GAは旅行時に撮影したものであり、図2Bの画像GBはサッカーの試合の観戦時に撮影したものであり、図2Cは結婚披露パーティーの出席時に撮影したものである。そして、各画像データには、図2に示したように、撮影日時、第2日時(被写体が意味する年代)、場所、状況(撮影時のシチュエーション)、撮影時の天候、撮影者、同行者、自分との関連度、カテゴリ、写真の内容、検索用のキーワードなどの項目からなるメタデータが付加される。以下に、画像データに付加されるメタデータのそれぞれの項目について説明する。
「撮影日時」は、当該画像データが撮影された年月日および時間を示す情報である。「撮影日時」は、各静止画像データに対してユーザーが入力することも可能であるし、当該静止画像を撮影したカメラの時計回路が提供する撮影時の日時情報を利用することも可能である。
「第2日時」は、被写体などが意味する年代を示す情報である。すなわち、被写体が撮影日時とは無関係に重要な時間情報を持っている場合にその時間情報が入力されることになる。例えば被写体が大阪国際万国博覧会のシンボルとして公開された太陽の塔のように、著名なイベントで用いられたオブジェやモニュメントなどである場合には、撮影日時とは別にそのイベントの開催日時を「第2日時」として静止画像データに付加するようにする。この「第2日時」についても、ユーザーが入力することができるようにされる。
「場所」は、被写体を撮影した場所を示す情報である。GPS(Global Positioning System)を搭載したカメラで撮影した画像データの場合、撮影時において当該GPSから取得した現在位置を示す緯度、経度情報を用いることが可能である。また、緯度・経度情報から国や地域を特定し、これを示す情報を「場所」を示す情報として用いるようにすることも可能である。また、「場所」を示す情報として、屋内、屋外の別を示す情報も同時に記録しておく。なお、この「場所」についてもユーザーが入力することが可能である。
「状況」は、撮影したときの状況(シチュエーション)を示す情報である。例えば、散歩中、イベント参加、スポーツや演劇の観戦、観覧、デート中、旅行中などの情報である。これらの情報は検索の正確さを重視し、予め複数の「シチュエーション」を示す情報の候補(選択肢)を用意しておき、この候補の中からユーザーが選択することができるようにしておくことが望ましい。より詳細な情報は、後述する「キーワード」または「内容」のフィールドに入力することもできるようにされる。
「天候」を示す情報は、例えば、晴れ/曇り/雨/雪/嵐/吹雪/雷/雹 などの撮影時の天候を示すものである。検索の正確さを考慮し、上述した「シチュエーション」の場合と同様に、予め複数の「天候」を示す情報の候補(選択肢)を用意しておき、この候補の中からユーザーが選択することができるようにしておくことが望ましい。
「撮影者」は、撮影者の名前あるいは団体名(会社名)を示す情報である。「同行者」は、 撮影者と同行した人物の名前あるいは団体名(会社名)を示す情報である。これらの情報は、ユーザーが入力することになる。なお、「同行者」については、複数の情報を入力することができる。「自分との関連度」は、その画像データが形成する画像と自分との関連度合いを示す数値情報が入る。
自分との関連度合いを示す数値情報としては、例えば、
0:自分とまったく関係のない画像
1:自分が知っている場所や物が写っているがそれほど関連がない画像
2:自分が撮った写真あるいは、自分が行ったことのある場所の画像
3:被写体として自分自身が写っている画像や自分の恋人や家族が写っている画像
とし、ユーザーの主観的な評価によって、対応すると判断した数値を選択し、当該画像データに対する自分との関連度を示す情報とすることが可能となる。
「カテゴリ」は、静止画像データによって形成される静止画像を分類するための予め決められた範囲を示すものである。この「カテゴリ」は、大カテゴリとその下の小カテゴリ、あるいは、中カテゴリと小カテゴリ程度の分類にしておく。これらのカテゴリについては、基本的の自由に設定することが可能であるが、検索の正確さと効率を考慮し、予め用意されるカテゴリの候補(選択肢)の中から選択できるようにしておくことが望ましい。
例えば、次のような分類を用意する。
(大カテゴリ)風景 > (小カテゴリ)海、山、都会、田舎、遺跡、神社、…
(大カテゴリ)芸術 > (小カテゴリ)オブジェ、絵画、演劇、音楽、写真、…
などのように、多数の大カテゴリと、それに続く複数の小カテゴリからなる分類を用意しておき、ユーザーによって選択し、付加することができるようにしておけばよい。この場合、大カテゴリの中の目的とする小カテゴリの情報を選択することにより、大カテゴリと小カテゴリの情報が設定するようにされる。
また、「内容」は、その静止画像データによって形成される静止画像の内容を示すものであり、「キーワード」は、その静止画像データによって形成される静止画像についての検索用の種々のキーワードである。これら「内容」や「キーワード」については複数の情報を付すことが可能であり、ユーザーが自由に入力できるいわゆるフリーワードの入力項目である。
なお、上述したメタデータの各項目の内、「内容」、「キーワード」、「同行者」といった項目以外の項目についても、複数の情報を設定あるいは入力することも可能である。このように画像データに付加されるメタデータは、複数の項目から構成され、各項目は1つ以上の情報を有するようにすることができるようにされる。
そして、図2Aに示した例の場合、画像GAは、上述もしたように、旅行時に撮影されたものであり、メタデータとして「撮影日時」を示す情報(2003年8月9日13時20分)が付加されると共に、被写体が大阪万国博覧会の会場で公開された□□の塔であるために、「第2日時」として、大阪万国博覧会の開催期間を示す情報(1970年4月〜10月)が付加されている。
さらに、図2Aに示した例の場合、静止画像データには、図2Aに示したように、「場所」(大阪・屋外)、「状況」(旅行)、「天候」(晴れ)、「撮影者」(○○○○)、「同行者」(△△△△)がメタデータとして付加されると共に、「自分との関連度」を示す情報として、上述した例に従い数値「1」が付加され、さらに、「カテゴリ」、「内容」、「キーワード」の各情報が付加するようにされている。
また、図2Bに示した例の場合、画像GBは、上述もしたように、サッカーの試合の観戦時に撮影されたものであり、メタデータとして「撮影日時」を示す情報(2002年6月30日20時45分)が付加されている。また、この図2Bに示した静止画像の場合、「第2日時」を示す情報は特にないため付加されていない。図2において、N/A(Not Applicable)は、該当データなしを意味している。このように、該当しない項目については、無理に情報を入れる必要はないようにされている。
さらに、図2Bに示した例の場合、静止画像データには、図2Bに示したように、「場所」(横浜・屋外)、「状況」(観覧)、「天候」(くもり)、「撮影者」(○○○男)、「同行者」(○○○子、○○○江)がメタデータとして付加されると共に、「自分との関連度」を示す情報として、上述した例に従い数値「2」が付加され、さらに、「カテゴリ」、「内容」、「キーワード」の各情報が付加するようにされている。
また、図2Cに示した例の場合、画像GCは、上述もしたように、結婚披露パーティーの出席時に撮影されたものであり、メタデータとして「撮影日時」を示す情報(2004年4月24日19時00分)が付加される。また、この図2Bに示した静止画像の場合、「第2日時」を示す情報は特にないため付加されない。
さらに、図2Cに示した例の場合、静止画像データには、図2Cに示したように、「場所」(東京・屋内)、「状況」(イベント出席)が付加され、「天候」、「撮影者」については特に付すべき情報はないので何らの情報も付加されない。また、「同行者」(△△△△、□□□□、××××)がメタデータとして付加されると共に、「自分との関連度」を示す情報として、上述した例に従い数値「3」が付加され、さらに、「カテゴリ」、「内容」、「キーワード」の各情報が付加するようにされている。
このように、撮影して得た静止画像データのそれぞれに対して、図2に示すような各メタデータを付加しておくことにより、目的とする静止画像データの検索や、他のコンテンツデータ、例えば、音声データとの関連付けを的確に行うことができるようにしている。
なお、図2に示した例は、画像データが静止画像データの場合を例にして説明したが、これに限るものではない。例えば、ユーザーがデジタルビデオカメラを用いて撮影した動画像データについても、各動画像データの撮影単位(ファイル単位)に、上述した静止画像データの場合と同様のメタデータを付加し、これを利用することができるようにされる。
また、自己の撮影した画像データの他にも、他人の製作に係る静止画像データや動画像データであっても、個人的な利用が認められたものについては、図2を用いて上述した例の場合と同様にして、メタデータを付加し、これを利用することができるようにされる。
なお、他人の製作に係る静止画像データや動画像データなどの場合、これらに付加されるメタデータが製作者側によって予め用意されている場合には、これらの静止画像データや動画像データを、外部I/F24、入出力端子25を通じて、あるいは、ネットワークI/F23を介して接続されるインターネット100を通じて提供を受ける場合に、当該提供を受ける画像データに付加されたメタデータについても提供を受けることができるようにされる。
また、他人の製作に係る静止画像データや動画像データなどと、これに付加される予め用意されたメタデータとは、所定の識別情報(識別ID)によって1対1に対応付けられており、既に素材データベース21に蓄積されている画像データであって、メタデータが付加されていないものについては、識別情報を用いることによって、外部I/F24、入出力端子25を通じて、あるいは、ネットワークI/F23を介して接続されるインターネット100を通じて、目的とする画像データのメタデータのみの提供を受け、素材データベース21に蓄積されている画像データに付加することもできるようにされる。
なお、他人の製作に係る静止画像データや動画像データなどの例としては、職業カメラマンによって撮影された静止画像データ、映画、ドラマ、アニメーションなどといった動画像データなどが考えられる。
[音声データのメタデータについて]
次に、音楽や話音声などの音声データに付加されるメタデータについて説明する。音声データに付加するメタデータは、その音声データに応じた音声を画像データに付加されているメタデータに応じて検索するためのデータ群となる。画像データに付加されるメタデータの場合と同様に、予め決められたフィールドだけでなく、自由文を入れられるようにフリーワードを登録するためのキーワードのフィールドがある。
図3は、音声データとこれに付加されるメタデータの一例を説明するための図である。図3A、Bのそれぞれは、それぞれ異なるアーティストの楽曲(音楽)の音声データ(コンテンツデータ)と、当該音声データに付加されたメタデータの一例を示している。図3A、Bのそれぞれにおいて、画像GAA、GBBのそれぞれは、そのそれぞれの音声データに対応する静止画像データによる画像であり、当該音声データが収録されたアルバムのジャケットの静止画像である。
そして、音楽などを形成する音声データには、図3にも示すように、当該音声データの公表日(リリース日)、公表国(リリース国)、アーティスト名、アルバム名、タイトル、ジャンル、言語、シチュエーション、検索用キーワードなどの項目からなるメタデータが付加される。以下に、音声データに付加されるメタデータそれぞれの項目について説明する。
「公表日(リリース日)」は、当該音声データにより提供される楽曲などの音声が販売されるなどして一般に公開された日付を示す情報である。「公開国(リリース国)」は、その音声データによる楽曲などの音声が公開された国、または、その音声データによる楽曲等のアーティストの国籍を示す情報である。
「アーティスト名」は、当該音声データにより提供される楽曲などを演奏しているアーティストの名前や楽団名を示す情報である。「アルバム名」は、当該音声データによる楽曲などが収録されているアルバムのアルバム名を示す情報である。「タイトル」は、当該音声データにより提供される楽曲などのタイトル(曲名など)を示す情報である。
「ジャンル」は、当該音声データにより提供される楽曲などが属するジャンル、例えば、ジャズ、ロック、クラシック、…などを示し情報である。検索の正確さと効率を考慮して、予め用意されたジャンルを示す情報からユーザーが簡単に選択し付加することができるようにしておくことが望ましい。「言語」は、当該音声データにより提供される楽曲などが歌詞、台詞などの言語情報が含まれる場合に、その言語の種類を示す情報である。
「シチュエーション」は、当該音声データにより提供される楽曲などにあったシチュエーションを示す情報である。シチュエーションを示す情報は1つではなく、複数個設けることが可能である。この「シチュエーション」についても、検索の正確さと効率を考慮して、シチュエーションを示す複数個の情報を予め用意しておき、この中からユーザーが選択して付加することができるようにしておくことが望ましい。
「内容」は、当該音声データにより提供される楽曲などの内容を説明するための情報である。「キーワード」は、検索用のキーワードを示す情報であり、自由文(例えば単語レベル)で入力することができるようにされる。もちろん、比較的に長い文章をキーワードして入力することも可能であるが、検索用のキーワードであるので、上述のように単語レベルのものが好ましい。これら、「内容」、「キーワード」についても、複数の情報を付加する(設ける)ことができるようにされる。
そして、図3Aに示した例の場合、当該音声データには、「リリース日〔公表日〕」(1981年8月4日)、「リリース国〔公表国〕」(USA(アメリカ合衆国))、「アーティスト」(XXXXXXX)、「アルバム名」(YYYYY)、「タイトル〔曲名〕」(ZZZZZZZ)、「ジャンル」(Jazz〔ジャズ〕)、「言語」(なし)の各情報が付加するようにされている。さらに、図3Aに示した例の場合、「シチュエーション」、「内容」、「キーワード」の各情報が付加され、「シチュエーション」、「キーワード」については、複数の情報が付加されている。
また、図3Bに示した例の場合、当該音声データには、「リリース日〔公表日〕」(2003年11月20日)、「リリース国〔公表国〕」(日本)、「アーティスト」(LLLLLL)、「アルバム名」(MMMM)、「タイトル〔曲名〕」(NNN)、「ジャンル」(Rock〔ロック〕)、「言語」(日本語)の各情報が付加するようにされている。さらに、図3Bに示した例の場合、「シチュエーション」、「内容」、「キーワード」の各情報が付加され、「シチュエーション」、「キーワード」については、複数の情報が付加されている。
なお、音声データは、上述したように楽曲データ(音楽データ)である場合が多く、楽曲データに付加されるメタデータは、音楽製作会社などの楽曲データの提供側によって作成されて提供される場合も多い。そこで、外部I/F24、入出力端子25を通じて、あるいは、ネットワークI/F23を介して接続されるインターネット100を通じて、楽曲データの提供を受ける場合に、その楽曲データと共に、これに付加されたメタデータの提供も受けることができるようにされる。
また、楽曲データと、これに付加されるメタデータとは、例えば、ISRC(International Standard Recording Code)などの所定の識別情報(識別ID)によって1対1に対応付けられ、既に素材データベース21に蓄積されている楽曲データであって、メタデータが付加されていないものについては、識別情報を用いることによって、外部I/F24、入出力端子25を通じて、あるいは、ネットワークI/F23を介して接続されるインターネット100を通じて、目的とする楽曲データのメタデータのみの提供を受け、素材データベース21に蓄積されている楽曲データに付加することもできるようにされる。
また、メタデータが存在しない楽曲データについては、パーソナルコンピュータなどの外部機器を通じて、あるいは、この実施の形態のコンテンツ再生装置のキー操作部62を通じてユーザーがメタデータを入力し、目的とする楽曲データに対して付加することもできるようにされる。この場合の楽曲データは、いわゆる市販の楽曲データだけではなく、ユーザーが演奏し録音するようにしたものなどが含まれる。
また、音声データには、上述のような楽曲データだけではなく、落語、朗読、講演といった話音声のコンテンツや、話音声と音楽とからなるコンテンツ、あるいは、波の音、雨音、木々が風にふかれている音、自動車のエンジン音などの種々の音のコンテンツの場合もある。楽曲データ以外の上述のような種々の音声データについても、図3を用いて説明した楽曲データの場合と同様にメタデータが付加され利用することができるようにされる。
このように、静止画像データや動画像データなどの画像データ、楽曲データなどの音声データに対しては、上述したように、メタデータが付加されており、これを利用することによって、音声データと画像データとの関連付けを自動的に行うことができるようにしている。
[音声データと画像データの関連付けの具体例]
次に、音声データと画像データとを自動的に関連付けて再生する場合の具体例について説明する。図4は、音声データと画像データとを関連付けて再生する場合の具体例を説明するための図であり、矢印の示す方向が時間tの経過方向を示している。
例えば、懐かしい音楽を聴いていて、その音楽のリリース当時の出来事を振り返れる写真をスライドショーのようにして表示したい場合がある。このような場合、この実施の形態のコンテンツ再生装置のユーザーは、このコンテンツ再生装置に対して、キー操作部62を通じて、再生する音声データに関連付けられる静止画像データを年代重視で検索するように指示する設定を行い、目的とする楽曲の音声データを再生するようにする。
この場合、この実施の形態のコンテンツ再生装置の制御部10は、再生された音声データに付加されているメタデータをもとに、インターネット100上の種々の素材サーバに蓄積されている多数の静止画像データの中から、それらの静止画像データに付加されているメタデータを検索し、再生対象とされた音声データのリリース当時の様々な出来事に関する静止画像データを抽出し、さらにユーザー自身が当時撮影した旅行の写真やスナップなども素材データサーバ21から検索して抽出する。
ここでは、インターネット100上のサーバと、素材データベース21とで異なる種類の画像データを検索するものとして説明したが、これに限るものではない。インターネット100上の素材サーバと素材データベース21とで同様の条件で画像データを検索するようにしてももちろんよいし、また、インターネット100上の素材サーバと素材データベース21とのいずれか一方だけを検索の対象とするようにすることも可能である。
このようにして抽出した複数の静止画像データによる複数の静止画像を再生対象の音声データの再生に対応して再生することにより、再生対象の音声データに対して関連のある静止画像を再生して表示することができるようにされる。
例えば、図4Aに示す1985年にリリースされた楽曲の音声データを再生するようにした場合には、当該音声データは、上述もしたように、音声デコーダ32、D/A変換器51、音声アンプ52、スピーカ53を通じて再生される。これと同時に、制御部10の制御により、1985年当時に発生した様々な出来事についての静止画像データがインターネット100上の素材サーバやコンテンツ再生装置の素材データベース21から抽出され、これらが画像デコーダ31、D/A変換器41、ディスプレイ42を通じて、図4Aにおいて静止画像a1、a2、a3、a4、a5、…に示すように所定時間ずつ(例えば数秒ずつ)表示するようにされる。
なお、図4Aに示した静止画像a1、a2、a3、a4、a5のそれぞれは1985年当時の出来事に関連するものであり、静止画像a1は当時一部開通した高速鉄道を、静止画像a2は重大事件の当事者を、静止画像a3は当時噴火した海外の火山を、静止画像a4は当時の流行の服装を、静止画像a5は当時話題を集めた自動車を、それぞれ被写体とする静止画像である。
また、同じ年代の楽曲を続けて再生する場合、毎回同じ静止画像が同じ順番で表示されたのでは新鮮味に欠ける。このため、例えば、乱数的な要素を入れたり、シチュエーションやキーワードなどのパラメータを併用したりするなどして、抽出する画像データにバリエーションを付けたりすることにより、再生する楽曲によりあった静止画像を抽出できるようにすることも可能である。
また、他の例として、例えば、クリスマスパーティーでクリスマスソングを聴きながら、クリスマスに関連する写真をスライドショーのように表示してさらにパーティーを盛り上げるようにしたい場合がある。このような場合、この実施の形態のコンテンツ再生装置のユーザーは、このコンテンツ再生装置に対して、キー操作部62を通じて、再生する音声データに関連付けられる静止画像データをシチュエーション重視で検索するように指示する設定を行い、目的とするクリスマスソングの音声データを再生するようにする。
この場合、この実施の形態のコンテンツ再生装置の制御部10は、再生されたクリスマスソングの音声データに付加されているメタデータの“クリスマス”という「シチュエーション」や、“パーティー”という「キーワード」をもとに、インターネット100上の種々の素材サーバに蓄積されている多数の静止画像データの中から、それらの静止画像データに付加されているメタデータを検索し、再生対象とされた音声データの「シチュエーション」や「キーワード」に合致する静止画像データを抽出し、さらにユーザー自身が当時撮影した旅行の写真やスナップなども素材データサーバ21から検索して抽出する。
このようにして抽出した複数の静止画像データによる複数の静止画像を再生対象の音声データの再生に対応して再生することにより、再生対象の音声データに対して関連のある静止画像を再生して表示することができるようにされる。
例えば、図4Bに示すように、クリスマスソングを再生するようにした場合には、当該音声データは、上述もしたように、音声デコーダ32、D/A変換器51、音声アンプ52、スピーカ53を通じて再生される。これと同時に、制御部10の制御により、シチュエーションがクリスマスに関連する静止画像データがインターネット100上の素材サーバやコンテンツ再生装置の素材データベース21から抽出され、これらが画像デコーダ31、D/A変換器41、ディスプレイ42を通じて、図4Bにおいて静止画像b1、b2、b3、b4、…に示すように所定時間ずつ(例えば数秒ずつ)表示するようにされる。
なお、図4Bに示した静止画像b1、b2、b3、b4のそれぞれは、シチュエーションがクリスマスに関連するものであり、静止画像b1はクリスマスツリーを、静止画像b2はクリスマスケーキを、静止画像b3はクリスマスパーティーの様子を、静止画像b4はクリスマスリースを、それぞれ被写体とする静止画像である。
また、この場合においても、種々のクリスマスソングを続けて再生する場合、毎回同じ静止画像が同じ順番で表示されたのでは新鮮味に欠ける。このため、例えば、乱数的な要素を入れたり、シチュエーションやキーワードなどのパラメータを用いて抽出する画像データにバリエーションを付けたりすることにより、再生する楽曲によりあった静止画像を抽出できるようにすればよい。
また、ここでは、楽曲の音声データを再生する場合に、これに関連のある静止画像データを検索して抽出する場合を例にして説明した。しかし、これに限るものではない。これとは逆に、例えば、複数の静止画像データをユーザーが指定して、これを順次に再生する場合に、その複数の静止画像データのメタデータを用いて、当該複数の静止画像データに合った楽曲の音声データを自動的に検索して抽出し、これを静止画像データの再生に合わせて再生するようにしたりすることも可能である。この場合にも、年代重視、シチュエーション重視など、重視するメタデータについて指示することもできるようにされる。
また、ユーザーがデジタルビデオカメラを用いて過去に撮影した動画像データを再生する場合に、その撮影当時において流行していた楽曲を検索して抽出し、これを動画像データの再生に合わせて再生するようにしたり、あるいは、その動画像データのシチュエーションに合致した楽曲を検索して抽出し、これを動画像データの再生に合わせて再生するようにしたりすることもできるようにされている。
[コンテンツ再生時の具体的処理について]
[再生する音声データに応じた画像データを検索する処理について]
次に、図4を用いて説明したように、再生する音声データに応じた画像データを再生して表示するために、当該音声データに応じた画像データを検索する場合の処理について詳細に説明する。ここでは、再生対象の音声データは素材データベース21に蓄積された楽曲データであり、表示する画像データは写真などの静止画像データである場合を例にして説明する。また、再生対象の音声データに付加されたメタデータも素材データベース21に格納されているものとして説明する。
図5、図6は、音声データの再生時において、当該音声データに関連のある静止画像や動画像を検索して抽出する場合の処理を説明するためのフローチャートである。この図5、図6に示す処理は、例えば、ユーザーによる音声データの再生指示入力を、キー操作部62を通じて受け付けて、指示された音声データを再生するようにした場合に、制御部10において実行される処理である。
まず、制御部10は、再生対象の音声データに付加するようにされているメタデータを素材データベース21から読み出して取得すると共に(ステップS101)、時計回路61から現在年月日を取得する(ステップS102)。そして、制御部10は、時計回路61から取得した現在年月日から再生対象の音声データに付加されているメタデータの「リリース日」を引き算してdDaysを算出する(ステップS103)。このように、現在年月日と音声データの「リリース日」との日数差であるdDaysを求めるのは、詳しくは後述もするが、「リリース日」についての最適な検索範囲を特定するためである。
そして、日数差dDaysをもとに、素材データベース21内の静止画像データのすべてのメタデータの撮影日や第2日付などの日付に関する情報を検索し、まずはその「リリース日」に関連の深い静止画像データを検索して候補を抽出し、これを保持するようにする(ステップS104)。このとき、候補として保持するようにした静止画像データのそれぞれのスコアSn(nは検索にヒットした静止画像データ(写真)の枚数によって動的に変化する)に定数α1を加算する(ステップS105)。このように、ステップS102〜ステップS105までの処理が、全ての静止画像データを対象とする「リリース日」を用いた検索処理である。
ここで、スコアSnは、上述もしたように、検索することにより候補として抽出した静止画像データのそれぞれごとに異なるいわゆるレジスタである。すなわち、最初に候補とされた静止画像データのスコアは“S1”であり、次に候補とされた静止画像データのスコアは“S2”であるというように、各静止画像データ毎に異なるものである。
また、定数α1や、以下に登場するα2、α3、…等の定数は、メタデータの各項目毎にその重要度に応じて決まる重み付けのためのものである。したがって、重要度の高い項目について用いる定数αm(mは、メタデータの各項目に応じて決まる1以上の整数である。)は大きな値となり、重要度の低いメタデータについて用いる定数αmは小さな値となる。具体的には、「リリース日」に対する重み付け定数は“α1”、「シチュエーション」に対する重み付け定数は“α2”というように、メタデータを構成する各項目毎に決められるものである。
もちろん、各重み付け定数α1、α2、…のそれぞれが異なる値となる場合もあれば、各重み付け定数α1、α2、…の内のいくつかが同じ値となる場合もある。また、各重み付け定数α1、α2、…の各値は、ユーザーからの指示入力に応じて、どの項目の重要度を大きくするかなどの情報に基づいて決められるようにされている。
なお、図5の一連の検索処理を行う前に、すべての静止画像データに対するスコアS1、S2、S3、…、Snのそれぞれは「0(ゼロ)」で初期化しておく。実際の処理としては、初めて検索にひっかかった静止画像データは、そのときスコアSnを「0」で初期化すればよい。その後の検索においても同様で、はじめて検索にひっかかった静止画像データのスコアSnを「0」で初期化してから、当該スコアSnに対して重み付け定数αmを加算する。すでに前段の検索でひっかかっている静止画像データについてのスコアSnに対しては初期化をせずにそのまま重み付け定数αmを加算する。
次に、制御部10は、再生対象の音声データのメタデータとして保持している「シチュエーション」項目の情報を用いて、素材データベース21内の静止画像データのすべてのメタデータの各項目を検索して候補を抽出し、これを保持するようにする(ステップS106)、そして、候補として保持するようにした静止画像データのそれぞれのスコアSnに定数α2を加算する(ステップS107)。
さらに、「シチュエーション」の当該情報について、類義語辞書22を用い、類義語候補を列挙し、それぞれの類義語に対しても、同様の検索を行って候補を抽出し、これを保持するようにする(ステップS108)。そして、抽出して保持した静止画像データに対するスコアSnに定数α3を加算する(ステップS109)。
なお、通常、定数α3は定数α2よりも小さな値にしておく。このようにするのは、上述もしたように、αmは重み付けを行うための値であり、検索時に何を重要とするかにあわせて値を変えるものであるため、オリジナル単語の一致を類義語の一致よりも重視することが自然だからである。
そして、再生対象の音声データに付加されている「シチュエーション」の情報が複数の情報を有する場合もあるため、「シチュエーション」項目の情報として他に情報があるか否かを判断する(ステップS110)。ステップS110の判断処理において、「シチュエーション」項目の情報として他に情報がまだあると判断した場合には、ステップS106からの処理を繰り返し、「シチュエーション」項目の他の情報についてもステップS106からステップS110の処理を繰り返すようにする。このように、ステップS106〜ステップS110までの処理が、全ての静止画像データを対象とする「シチュエーション」項目の情報を用いた検索処理である。
ステップS110の判断処理において、「シチュエーション」項目に他の情報は存在しないと判断した場合には、制御部10は、図6に示す処理に進み、再生対象の音声データのメタデータとして保持している「キーワード」項目を用いて、素材データベース21内の静止画像データのすべてのメタデータの各項目を検索して候補を抽出し、これを保持するようにする(ステップS111)、そして、候補として保持するようにした静止画像データのそれぞれのスコアSnに定数α4を加算する(ステップS112)。
さらに、「キーワード」項目について、類義語辞書22を用い、類義語候補を列挙し、それぞれの類義語に対しても、同様の検索を行って候補を抽出し、これを保持するようにする(ステップS113)。そして、抽出して保持した静止画像データに対するスコアSnに定数α5を加算する(ステップS114)。ここでも、上述した定数α3と定数α2との関係と同様に、定数α5は定数α4よりも小さな値となる。
そして、再生対象の音声データに付加されている「キーワード」項目が複数の情報を有する場合もあるため、「キーワード」項目の情報として他に情報があるか否かを判断する(ステップS115)。ステップS115の判断処理において、「キーワード」項目に他の情報がまだあると判断した場合には、ステップS111からの処理を繰り返し、「キーワード」項目の他の情報についてもステップS111からステップS115の処理を繰り返すようにする。このように、ステップS111〜ステップS115までの処理が、全ての静止画像データを対象とする「キーワード」情報を用いた検索処理である。
このようにして、すべての候補としての静止画像データが出揃ったところで候補としての各静止画像データの「自分との関連度」の値に重み付け係数α6を乗算して、これを各静止画像データのスコアSnに加算する(ステップS116)。そして最後に、各静止画像データ毎のスコアSnの高い順にソートを実行し(ステップS117)、スコアSnの高い静止画像データから順に再生して表示する静止画像データとして用いるように決定して、この図5、図6に示す処理を終了する。
そして、再生対象の音声データの再生に応じて、ソート順に静止画像データをスライドショーの態様で表示することで、再生対象の音声データによる楽曲となんらかの関係性を持った静止画像を自動的に選択して表示することができる。また、ソート順ではなく、あるスコアよりも高い写真だけを使用して、楽曲の再生時間の長さに合わせてスライドショーの間隔を調整して表示するなどさまざまな提示方法が可能である。
なお、画像データの検索はインターネット上の素材サーバを検索してもよいし、静止画像データに限ることなく、動画像データを検索の対象とし、スコアSnの最も高い動画像データを再生対象の音声データの再生に合わせて再生することも可能である。
図7は、図5に示したステップS104において行われる現在年月日と再生対象の音声データの「リリース日」との日数差dDaysから静止画像データの日付検索範囲Rを決定する処理を説明するためのフローチャートである。この図7に示す処理は、人間の記憶は、時間が経てば経つほど曖昧度が増すことに着目し、日数差dDaysが小さくなるほど検索範囲を狭くし、逆に、日数差dDaysが大きくなるほど検索範囲を大きくするようにしている。
すなわち、1ヶ月前にリリースされた楽曲に関連する静止画像として、半年前に撮影した静止画像を用いると、当該楽曲と当該静止画像とでは明らかに時期が違うことに気づき違和感を生じる可能性が高い。しかし、10年前の楽曲に前後1年間程度撮影日の異なる静止画像を関連付けたとしても、「あの頃の画像(写真)」という感じがして、違和感を生じさせる可能性が低くなる。そのため、日数差dDaysの大きさにあわせて、日付による検索範囲を可変させるようにしている。
具体的には、図7に示すように、まず、制御部10は、日数差dDaysが1ヶ月以内か否かを判断し(ステップS201)、1ヶ月以内であると判断したときには、日付に関する情報の検索範囲Rを2週間に設定し(ステップS202)、音声データのリリース日からR/2の範囲、すなわち、リリース日の前後1週間の範囲で静止画像データを検索し、この図7に示す処理を終了する。
ステップS201の判断処理において、日数差dDaysが1ヶ月以内ではないと判断したときには、制御部10は、日数差dDaysが半年以内か否かを判断し(ステップS203)、半年以内であると判断したときには、日付に関する情報の検索範囲Rを1ヶ月に設定し(ステップS204)、音声データのリリース日からR/2の範囲、すなわち、リリース日の前後15日の範囲で静止画像データを検索し、この図7に示す処理を終了する。
ステップS203の判断処理において、日数差dDaysが半年以内ではないと判断したときには、制御部10は、日数差dDaysが1年以内か否かを判断し(ステップS205)、1年以内であると判断したときには、日付に関する情報の検索範囲Rを3ヶ月に設定し(ステップS206)、音声データのリリース日からR/2の範囲、すなわち、リリース日の前後45日の範囲で静止画像データを検索し、この図7に示す処理を終了する。
ステップS205の判断処理において、日数差dDaysが1年以内ではないと判断したときには、制御部10は、日数差dDaysが3年以内か否かを判断し(ステップS207)、3年以内であると判断したときには、日付に関する情報の検索範囲Rを半年に設定し(ステップS208)、音声データのリリース日からR/2の範囲、すなわち、リリース日の前後3ヶ月の範囲で静止画像データを検索し、この図7に示す処理を終了する。
ステップS207の判断処理において、日数差dDaysが3年以内ではないと判断したときには、制御部10は、日数差dDaysが10年以内か否かを判断し(ステップS209)、10年以内であると判断したときには、日付に関する情報の検索範囲Rを1年に設定し(ステップS210)、音声データのリリース日からR/2の範囲、すなわち、リリース日の前後6ヶ月の範囲で静止画像データを検索し、この図7に示す処理を終了する。
ステップS209の判断処理において、日数差dDaysが10年以内ではないと判断したときには、制御部10は、日数差dDaysが20年以内か否かを判断し(ステップS211)、20年以内であると判断したときには、日付に関する情報の検索範囲Rを3年に設定し(ステップS212)、音声データのリリース日からR/2の範囲、すなわち、リリース日の前後1年6ヶ月の範囲で静止画像データを検索し、この図7に示す処理を終了する。
ステップS211の判断処理において、日数差dDaysが20年以内ではないと判断したときには、日付に関する情報の検索範囲Rを5年に設定し(ステップS213)、音声データのリリース日からR/2の範囲、すなわち、リリース日の前後2年6ヶ月の範囲で静止画像データを検索し、この図7に示す処理を終了する。
このように、人間の記憶が時間の経過に伴ってあいまいになっていくことを利用し、再生対象の音声データのリリース日が、現在よりもかなり以前である場合には、画像データのメタデータに含まれる撮影日などの日付に関する情報の検索範囲を広げることにより、幅を持たせた検索を行うことができるので、人間の記憶の特性に合致した状態で画像データの検索を行い、その結果の画像を提供することができる。
なお、日数差dDayaや検索範囲Rの刻み幅は、この図7を用いて説明したものに限るものではなく、種々の値に変更することも可能である。また、図7に示した例の場合には、条件分岐によって7段階にしているが、日数差dDaysの2乗に比例させて検索範囲R=(dDays*dDays)/C(Cは所定の定数)などの計算式を用いることによって、数学的に算出するようにしてもよい。
[再生する画像データに応じた音声データを検索する処理について]
次に、図5〜図7を用いて説明した場合とは逆に、再生する画像データに関連する音声データを再生するために、当該画像データに関連する音声データを検索する場合の処理について詳細に説明する。ここでは、再生対象の画像データは素材データベース21に蓄積された画像データであり、また、検索する音声データも素材データベース21に蓄積されているものとして説明する。
なお、以下に説明するように、再生する画像データに関連のある楽曲などの音声データを検索する場合においても、検索に使用するメタデータの項目の種類と数とは異なるものの、その基本的な処理は、図5〜図7を用いて説明した再生する音声データに関連のある画像データを検索する場合の処理と同様の処理となる。
図8、図9は、画像データの再生時において、当該画像データに関連のある楽曲などの音声データを検索して抽出する場合の処理を説明するためのフローチャートである。この図8、図9に示す処理は、例えば、ユーザーによる画像データの再生指示入力を、キー操作部62を通じて受け付けて、指示された画像データを再生するようにした場合に、制御部10において実行される処理である。ここで、画像データは静止画像データの場合もあれば、動画像データの場合もあり、また、静止画像データの場合には、複数の静止画像の画像データである場合がある。
そして、制御部10は、再生対象の画像データに付加されているメタデータを素材データベース21から読み出して取得すると共に(ステップS301)、時計回路61から現在年月日を取得する(ステップS202)。そして、制御部10は、時計回路61から取得した現在年月日から再生対象の画像データに付加されているメタデータの「撮影日」を引き算してdDaysを算出する(ステップS303)。このように、現在年月日と画像データの「撮影日」との日数差であるdDaysを求めるのは、「撮影日」についての最適な検索範囲を特定するためである。
そして、日数差dDaysをもとに、素材データベース21内の音声データのすべてのメタデータの「リリース日」などの日付に関する情報(メタデータ)を検索し、まずはその「撮影日」に関連の深い音声データを検索して候補を抽出し、これを保持するようにする(ステップS304)。このとき、候補として保持するようにした音声データのそれぞれのスコアSn(nは検索にヒットした音声データの数(楽曲数)によって動的に変化する)に定数α1を加算する(ステップS305)。
この場合、スコアSnは、上述もしたように、検索することにより候補として抽出した音声データのそれぞれごとに異なるいわゆるレジスタである。すなわち、最初に候補とされた音声データのスコアは“S1”であり、次に候補とされた音声データのスコアは“S2”であるというように、各音声データ毎に異なるものである。
また、定数α1や、以下に登場するα2、α3、…等の定数は、そのメタデータの各項目毎にその重要度に応じて決まる重み付けのためのものである。したがって、重要度の高い項目について用いる定数αm(mは、メタデータの各項目に応じて決まる1以上の整数である。)は大きな値となり、重要度の低い項目について用いる定数αmは小さな値となる。このように、ステップS302〜ステップS305までの処理が、全ての音声データを対象とする「撮影日」を用いた検索処理である。
次に、制御部10は、ステップS302において時計回路61から取得した現在年月日から再生対象の画像データに付加されているメタデータの「第2日付」を引き算してdDaysを算出する(ステップS306)。このように、現在年月日と画像データの「第2日付」との日数差であるdDaysを求めるのは、「撮影日」の場合と同様に、「第2日付」についての最適な検索範囲を特定するためである。
そして、日数差dDaysをもとに、素材データベース21内の音声データのすべてのメタデータのリリース日などの日付に関する情報(メタデータ)を検索し、まずはその「第2日付」に関連の深い音声データを検索して候補を抽出し、これを保持するようにする(ステップS307)。そして、候補として保持するようにした音声データのそれぞれのスコアSnに定数α2を加算する(ステップS308)。このように、ステップS306〜ステップS308までの処理が、全ての音声データを対象とする「第2日付」を用いた検索処理である。
そして、制御部10は、再生対象の画像データ付加されているメタデータの各項目についても、上述した「撮影日」や「第2日付」の場合と同様に、利用可能な音声データに付加されているメタデータを対象として検索及び重み付け処理を行う。すなわち、制御部10は、再生対象の画像データに付加されているメタデータの内の「場所」の情報をもとに、素材データベース21内の音声データのすべてのメタデータの場所に関する情報を検索し、その「場所」に関連の深い音声データを抽出し、その抽出した音声データのそれぞれについて、重み付けを行う(ステップS309)。
また、制御部10は、再生対象の画像データに付加されているメタデータの内の「状況(シチュエーション)」の情報をもとに、素材データベース21内の音声データのすべてのメタデータの状況(シチュエーション)に関する情報を検索し、その「状況」に関連の深い音声データを抽出し、その抽出した音声データのそれぞれについて、重み付けを行う(ステップS310)。
また、制御部10は、再生対象の画像データに付加されているメタデータの内の「天候」の情報をもとに、素材データベース21内の音声データのすべてのメタデータの天候に関する情報を検索し、その「天候」に関連の深い音声データを抽出し、その抽出した音声データのそれぞれについて、重み付けを行う(ステップS311)。
また、制御部10は、再生対象の画像データに付加されているメタデータの内の「カテゴリ」の情報をもとに、素材データベース21内の音声データのすべてのメタデータの各項目を検索し、その「カテゴリ」に関連の深い音声データを抽出し、その抽出した音声データのそれぞれについて、重み付けを行う(ステップS312)。
また、制御部10は、再生対象の画像データに付加されているメタデータの内の「内容」の情報をもとに、素材データベース21内の音声データのすべてのメタデータの各項目を検索し、その「内容」に関連の深い音声データを抽出し、その抽出した音声データのそれぞれについて、重み付けを行う(ステップS313)。
また、制御部10は、再生対象の画像データに付加されているメタデータの内の「キーワード」の情報をもとに、素材データベース21内の音声データのすべてのメタデータの各項目を検索し、その「キーワード」に関連の深い音声データを抽出し、その抽出した音声データのそれぞれについて、重み付けを行う(ステップS314)。
このようにして、再生対象の画像データと関連深い音声データとして抽出されたすべての音声データについて、そのそれぞれのスコアSnの高い順にソート(並べ替え)を行い(ステップS315)、この図8に示す処理を終了する。そして、制御部10は、スコアSnの高い音楽データを再生対象の画像データの再生に合わせて再生するようにされる。
次に、図8に示したステップS309〜ステップS314の各ステップにおいて行われる各項目の検索及び重み付け処理の具体例について図9のフローチャートを参照しながら説明する。図9は、図8に示したステップS309〜ステップS314の各ステップにおいて実行される処理の具体例を説明するためのフローチャートである。
図9において、指定項目は、画像データに付加されたメタデータを構成する項目である「場所」、「状況(シチュエーション)」、「天候」、「カテゴリ」、「内容」、「キーワード」の内の該当項目(メタデータ内の処理対象として指定(指示)された項目)を意味するものであり、図8に示した処理(メイン処理)のステップS309〜ステップS314のそれぞれにおいて指定するようにされたメタデータの項目を意味している。
そして、ステップS309〜ステップS314の各ステップにおいては、まず、メイン処理のステップにおいての指定項目の情報をもとに、素材データベース21に蓄積されている音声データのすべてのメタデータの各項目を検索して、その指定項目の情報に関連の深い音声データを抽出し(ステップS401)、その抽出したそれぞれの音声データのスコアSnについて、重み付け定数αmを用いて重み付けを行う(ステップS402)。
次に、制御部10は、メイン処理のステップにおいての指定項目の情報について、類義語辞書22を用い、類義語候補を列挙し、それぞれの類義語をもとに、素材データベース21に蓄積されている音声データのすべてのメタデータの各項目を検索して、その指定項目の情報についての類義語に関連の深い音声データを抽出し(ステップS403)、その抽出したそれぞれの音声データのスコアについて重み付けを行う(ステップS404)。
そして、制御部10は、当該指定項目について、複数の情報が付加されている場合もあるため、当該指定項目に他の情報がまだあるか否かを判断する(ステップS405)。ステップS405の判断処理において、当該指定項目に他の情報があると判断した場合には、当該他の情報についても、ステップS401からの処理を行うようにする。
また、ステップS405の判断処理において、当該指定項目に他の情報はないと判断したときには、この図9に示す処理を終了し、図8に示した処理の読み出されたステップに戻り、メイン処理の次のステップの処理が実行するようにされる。
このように、画像データに付加されたメタデータの内、「撮影日」や「第2日付」以外の各項目の情報については、その情報と、その情報の類義語について、音声データに付加されたメタデータが検索され、再生対象の画像データに関連する音楽データを抽出して、これを画像データの再生に合わせて再生することができるようにしている。
なお、再生対象の画像データが、いわゆるスライドショー再生するための複数の静止画像データである場合には、例えば、その複数の静止画像データのそれぞれに付加されているメタデータをもとにいわゆるマクロメタデータを形成し、このマクロメタデータを用いて図8、図9を用いて説明した検索及び重み付け処理を行って、スコアの高い音声データを用いるようにすることができる。つまり、複数の静止画像データの全体を一連の画像データであるとみなし、その複数の静止画像データに対して、1つのあるいは複数の音声データを対応付けるようにすることができる。
また、その複数の静止画像データの1つ1つに対応して、1つの音声データを検索し対応付けるようにすることももちろん可能である。また、再生対象の画像データが動画像データである場合には、その動画像データに付加されているメタデータを用いて、関連する1つの音声データを抽出して、これを再生するようにしたり、関連する2つ以上の音声データを抽出して、これらを順次に再生するようにすることも可能である。
このように、従来は、例えば、デジタルスチルカメラで撮影した静止画やデジタルビデオカメラで撮影した動画などと、インターネットなどの通信ネットワークやMD、CDなどの記録媒体を通じて取得した音声データとを自動的に結びつけることはできなかった。このため、上述のように別々の経路で取得した画像データと音声データとを関連付けて再生使用とすれば、ユーザー自身が、再生する画像データや音声データを、その再生タイミングや再生順を詳細に指示することにより行うしかなかった。
しかし、上述した実施の形態のコンテンツ再生装置の場合には、音声再生時にその音声から想起されるさまざまな想い出を、年代・場所・内容にあわせて写真などの静止画像や動画像として自動的に提示することができる。したがって、ユーザーが明示的に写真の検索を行ったり、BGM付きスライドショーを作成しておく必要がなく、また、写真などの静止画像データが増えても自動的にその写真などの静止画像データなどが処理の対象として追加される。
また、上述した実施の形態のコンテンツ再生装置は、音声データと画像データとの間を、それらに付加されている詳細なメタデータを用いることにより、自動的かつ適切に関連付を行って再生することができる。したがって、素材データベース21やインターネット100上の素材サーバ101などに眠っている個人のコンテンツを掘り起こし、これらを再生することによって、ユーザーの記憶も掘り起こすことができ、より深い感動と懐かしさを演出することができる。すなわち、上述した実施の形態のコンテンツ再生装置は、いわば、想い出想起プレイヤーとでも言うべきものである。
なお、上述した実施の形態においては、年代重視の場合にはメタデータの「撮影日」、「第2日付」、「リリース日」といった日付に関する情報を用い、シチュエーション重視の場合にはメタデータの「状況(シチュエーション)」を用いるものとして説明したがこれに限るものではない。メタデータのその他の項目、例えば、画像データについての「場所」、「天候」、「撮影者」、「同行者」、などを用いるようにしたり、音声データについての「アーティスト」、「アルバム名」、「タイトル」、「歌詞」などを用いるようにしたりすることももちろん可能である。
また、メタデータを構成する複数の項目を組み合わせて、種々の態様の検索を行うようにすることが可能である。この場合、上述した「年代重視」、「シチュエーション重視」と同様に、例えば、「場所重視」や「天候重視」、あるいは、「アーティスト重視」のようにいくつかの選択項目を設けておき、各選択項目毎に用いるメタデータの項目を設定おくようにすればよい。また、ユーザー自身は、検索に用いるメタデータの項目と重要度とを指定するようにすることも可能である。
また、上述した実施の形態のコンテンツ再生装置は、上述もしたように、パーソナルコンピュータ、ノート型パーソナルコンピュータ、携帯電話端末、携帯型情報端末に適用できる他、専用のコンテンツ再生装置として構成することも可能である。
この発明の装置、方法の一実施の形態が適用されたコンテンツ再生装置を説明するためのブロック図である。 図1に示したコンテンツ再生装置において利用可能な画像データとこれに付加されるメタデータの一例を説明するための図である。 図1に示したコンテンツ再生装置において利用可能な音声データとこれに付加されるメタデータの一例を説明するための図である。 図1に示したコンテンツ再生装置のコンテンツの再生態様の一例を説明するための図である。 再生対象の音声データに関連のある静止画像や動画像を検索して抽出する場合の処理を説明するためのフローチャートである。 図5に続くフローチャートである。 図5に示したステップS104において行われる日付範囲の設定情報を説明するためのフローチャートである。 再生対象の画像データに関連のある音声データを検索して抽出する場合の処理を説明するためのフローチャートである。 図8に示したステップS309〜ステップS314の各ステップにおいて行われる処理を説明するための図である。
符号の説明
10…制御部、11…CPU、12…ROM、13…RAM、14…CPUバス、21…素材データベース、22…類義語辞書、23…ネットワークインターフェース、24…外部インターフェース、25…外部入出力端子、31…画像デコーダ、32…音声デコーダ、41…映像D/A変換器、42…ディスプレイ、51…音声D/A(Digital/Analog)変換器、52…音声アンプ、53…スピーカ、61…カレンダー時計回路、62…キー操作部

Claims (16)

  1. 再生する音声データに付加されたメタデータを取得する取得手段と、
    前記取得手段により取得されたメタデータをもとに、静止画像あるいは動画像の画像データに対して付加されているメタデータを参照し、前記音声データと関連性の高い画像データを検索する検索手段と、
    前記音声データを再生する音声再生手段と、
    前記検索手段により検索された前記画像データを再生する画像再生手段と、
    再生される音声と画像とを関連付けて再生するように前記音声再生手段と前記画像再生手段とを制御する制御手段と
    を備えることを特徴とするコンテンツ再生装置。
  2. 再生する静止画像あるいは動画像の画像データに付加されたメタデータを取得する取得手段と、
    前記取得手段により取得されたメタデータをもとに、音声データに対して付加されているメタデータを参照し、再生する前記画像データと関連性の高い音声データを検索する検索手段と、
    前記画像データを再生する画像再生手段と、
    前記検索手段により検索された前記音声データを再生する音声再生手段と、
    再生される画像と音声とを関連付けて再生するように前記画像再生手段と前記音声再生手段とを制御する制御手段と
    を備えることを特徴とするコンテンツ再生装置。
  3. 請求項1または請求項2の記載のコンテンツ再生装置であって、
    前記音声データに付加されたメタデータは、当該音声データの公表日、公表国、アーティスト名、アルバム名、タイトル、ジャンル、言語、シチュエーション、検索用キーワードの1つ以上を含むことを特徴とするコンテンツ再生装置。
  4. 請求項1または請求項2に記載のコンテンツ再生装置であって、
    前記画像データに付加されたメタデータは、撮影日時、被写体が意味する年代、場所、撮影時のシチュエーション、撮影時の天候、撮影時の同行者、自分との関連度、カテゴリ、検索用キーワード、写真の詳細内容のうち少なくとも一つから構成されることを特徴とする再生コンテンツ装置。
  5. 請求項1、請求項2、請求項3または請求項4に記載のコンテンツ再生装置であって、
    前記取得手段によって取得されたメタデータの類義語を取得する類義語取得手段を備え、
    前記検索手段は、前記類義語取得手段により取得された類義語を用いた検索をも行うことを特徴とするコンテンツ再生装置。
  6. 請求項1、請求項2、請求項3、請求項4または請求項5に記載のコンテンツ再生装置であって、
    前記検索手段は検索結果に対して重み付けを行い、重み付けの大きなものを優先的に利用できるようにすることを特徴とするコンテンツ再生装置。
  7. 請求項4に記載のコンテンツ再生装置であって、
    前記画像データに付加されたメタデータは、自分との関連度を示す情報を有しており、
    前記検索手段は、前記画像データと自分との関連度を考慮して、検索を行うことを特徴とするコンテンツ再生装置。
  8. 請求項1、請求項2、請求項3、請求項4、請求項5、請求項6または請求項7に記載のコンテンツ再生装置であって、
    前記検索手段は、再生対象のコンテンツが記録された日時と現在の日時を比較し、時間の経過量にあわせて年月日検索の曖昧度、検索範囲を変化させることを特徴とするコンテンツ再生装置。
  9. 再生する音声データに付加されたメタデータを取得する取得ステップと、
    前記取得ステップにおいて取得したメタデータをもとに、静止画像あるいは動画像の画像データに対して付加されているメタデータを参照し、再生する前記音声データと関連性の高い画像データを検索する検索ステップと、
    前記音声データと前記検索手段により検索された前記画像データとを関連付けて再生する再生ステップと
    を有することを特徴とするコンテンツ再生方法。
  10. 再生する静止画像あるいは動画像の画像データに付加されたメタデータを取得する取得ステップと、
    前記取得ステップにおいて取得したメタデータをもとに、音声データに対して付加されているメタデータを参照し、再生する前記画像データと関連性の高い音声データを検索する検索ステップと、
    前記画像データと前記検索手段により検索された前記音声データとを関連付けて再生する再生ステップと
    を有することを特徴とするコンテンツ再生方法。
  11. 請求項9または請求項10の記載のコンテンツ再生方法であって、
    前記音声データに付加されたメタデータは、当該音声データの公表日、公表国、アーティスト名、アルバム名、タイトル、ジャンル、言語、シチュエーション、検索用キーワードの1つ以上を含むことを特徴とするコンテンツ再生方法。
  12. 請求項9または請求項10に記載のコンテンツ再生方法であって、
    前記画像データに付加されたメタデータは、撮影日時、被写体が意味する年代、場所、撮影時のシチュエーション、撮影時の天候、撮影時の同行者、自分との関連度、カテゴリ、検索用キーワード、写真の詳細内容のうち少なくとも一つから構成されることを特徴とする再生コンテンツ方法。
  13. 請求項9、請求項10、請求項11または請求項12に記載のコンテンツ再生方法であって、
    前記取得ステップにおいて取得したメタデータの類義語を取得する類義語取得ステップを有し、
    前記検索ステップにおいては、前記類義語取得ステップにおいて取得した類義語を用いた検索をも行うことを特徴とするコンテンツ再生方法。
  14. 請求項9、請求項10、請求項11、請求項12または請求項13に記載のコンテンツ再生方法であって、
    前記検索ステップにおいては、検索結果に対して重み付けを行い、重み付けの大きなものを優先的に利用できるようにすることを特徴とするコンテンツ再生方法。
  15. 請求項12に記載のコンテンツ再生方法であって、
    前記画像データに付加されたメタデータは、自分との関連度を示す情報を有しており、
    前記検索ステップにおいては、前記画像データと自分との関連度を考慮して、検索を行うことを特徴とするコンテンツ再生方法。
  16. 請求項9、請求項10、請求項11、請求項12、請求項13、請求項14または請求項15に記載のコンテンツ再生方法であって、
    前記検索ステップにおいては、再生対象のコンテンツが記録された日時と現在の日時を比較し、時間の経過量にあわせて年月日検索の曖昧度、検索範囲を変化させることを特徴とするコンテンツ再生方法。
JP2005057010A 2005-03-02 2005-03-02 コンテンツ再生装置およびコンテンツ再生方法 Pending JP2006244002A (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2005057010A JP2006244002A (ja) 2005-03-02 2005-03-02 コンテンツ再生装置およびコンテンツ再生方法
KR1020077019711A KR20070106537A (ko) 2005-03-02 2006-02-07 콘텐츠 재생장치 및 콘텐츠 재생방법
EP06713198A EP1855473B1 (en) 2005-03-02 2006-02-07 Contents reproducing device, and contents reproducing method
DE602006019829T DE602006019829D1 (de) 2005-03-02 2006-02-07 Inhaltswiedergabeeinrichtung und inhaltswiedergabeverfahren
CN200680006852A CN100589540C (zh) 2005-03-02 2006-02-07 内容再现装置和内容再现方法
PCT/JP2006/302055 WO2006106596A1 (ja) 2005-03-02 2006-02-07 コンテンツ再生装置およびコンテンツ再生方法
US11/885,327 US8145034B2 (en) 2005-03-02 2006-02-07 Contents replay apparatus and contents replay method
US13/405,020 US8868585B2 (en) 2005-03-02 2012-02-24 Contents replay apparatus and contents replay method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005057010A JP2006244002A (ja) 2005-03-02 2005-03-02 コンテンツ再生装置およびコンテンツ再生方法

Publications (1)

Publication Number Publication Date
JP2006244002A true JP2006244002A (ja) 2006-09-14

Family

ID=37050372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005057010A Pending JP2006244002A (ja) 2005-03-02 2005-03-02 コンテンツ再生装置およびコンテンツ再生方法

Country Status (7)

Country Link
US (1) US8868585B2 (ja)
EP (1) EP1855473B1 (ja)
JP (1) JP2006244002A (ja)
KR (1) KR20070106537A (ja)
CN (1) CN100589540C (ja)
DE (1) DE602006019829D1 (ja)
WO (1) WO2006106596A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009081733A (ja) * 2007-09-26 2009-04-16 Fujifilm Corp 画像再生装置、及びプログラム
JP2010250310A (ja) * 2009-03-27 2010-11-04 Xing Inc カラオケシステム、カラオケシステムの制御方法、及びカラオケシステムの制御プログラム。
JP2011511499A (ja) * 2007-12-21 2011-04-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像を再生するための方法及び装置
JP2011164865A (ja) * 2010-02-08 2011-08-25 Kddi Corp 画像選定装置、画像選定方法および画像選定プログラム
JP2012113554A (ja) * 2010-11-25 2012-06-14 Yamaha Corp コンテンツ再生装置及びコンテンツ再生システム
US8229935B2 (en) 2006-11-13 2012-07-24 Samsung Electronics Co., Ltd. Photo recommendation method using mood of music and system thereof
JP2013500540A (ja) * 2009-07-27 2013-01-07 ユナイテッド ビデオ プロパティーズ, インコーポレイテッド 属性を共有する異なる種類のメディアコンテンツを関連付け、提供する方法およびシステム
JP2014003388A (ja) * 2012-06-15 2014-01-09 Buffalo Inc 情報処理装置及びプログラム
JP2019032853A (ja) * 2006-10-06 2019-02-28 ロヴィ ガイズ, インコーポレイテッド 双方向メディアガイダンスアプリケーションにおいてメディアを取得、分類、および配信するためのシステムおよび方法
JP2019174783A (ja) * 2018-03-26 2019-10-10 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 画像とオーディオの同期再生の処理方法及びデバイス

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3974624B2 (ja) * 2005-05-27 2007-09-12 松下電器産業株式会社 表示装置
KR101414466B1 (ko) * 2007-12-04 2014-07-03 에스케이플래닛 주식회사 이동통신 시스템에서 컨텐츠 메타데이터를 이용한 컨텐츠검색 방법 및 장치
KR101465258B1 (ko) * 2008-01-02 2014-11-26 엘지전자 주식회사 사진 디스플레이 방법 및 이를 이용한 단말기
JP5142769B2 (ja) * 2008-03-11 2013-02-13 株式会社日立製作所 音声データ検索システム及び音声データの検索方法
JP2009295230A (ja) * 2008-06-05 2009-12-17 Kenwood Corp コンテンツ処理装置、プログラム及びデータ表示方法
US20090307207A1 (en) * 2008-06-09 2009-12-10 Murray Thomas J Creation of a multi-media presentation
JP4640463B2 (ja) * 2008-07-11 2011-03-02 ソニー株式会社 再生装置、表示方法および表示プログラム
WO2010041166A1 (en) * 2008-10-07 2010-04-15 Koninklijke Philips Electronics N.V. Method and apparatus for generating a sequence of a plurality of images to be displayed whilst accompanied by audio
CN102403011A (zh) * 2010-09-14 2012-04-04 北京中星微电子有限公司 一种音乐输出方法及装置
KR20150121889A (ko) * 2014-04-22 2015-10-30 에스케이플래닛 주식회사 재생 음악 관련 이미지 제공 장치 및 이를 이용한 방법
CN104536990B (zh) * 2014-12-10 2018-03-27 广东欧珀移动通信有限公司 一种图片显示方法及终端
CN104883609B (zh) * 2015-06-09 2018-04-10 上海斐讯数据通信技术有限公司 一种多媒体文件的识别处理、播放方法和系统
CN105574167B (zh) * 2015-12-17 2020-01-14 惠州Tcl移动通信有限公司 一种基于移动终端的照片自动命名处理方法及系统
US10872115B2 (en) * 2018-03-19 2020-12-22 Motorola Mobility Llc Automatically associating an image with an audio track

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3034925B2 (ja) * 1990-09-06 2000-04-17 株式会社東芝 デジタル電子スチルカメラシステム
US5459829A (en) * 1991-02-13 1995-10-17 Kabushiki Kaisha Toshiba Presentation support system
JPH08110911A (ja) 1994-10-07 1996-04-30 Canon Inc 情報機器
US5493677A (en) 1994-06-08 1996-02-20 Systems Research & Applications Corporation Generation, archiving, and retrieval of digital images with evoked suggestion-set captions and natural language interface
JPH09288681A (ja) * 1996-04-23 1997-11-04 Toshiba Corp 背景映像検索表示装置および背景映像検索方法
JP4140020B2 (ja) 1998-09-02 2008-08-27 日本サーボ株式会社 高速デジタイザ
JP2003030219A (ja) 2001-07-12 2003-01-31 Matsushita Electric Ind Co Ltd 蓄積コンテンツに対する検索用コンテンツの生成装置
EP1422668B1 (en) * 2002-11-25 2017-07-26 Panasonic Intellectual Property Management Co., Ltd. Short film generation/reproduction apparatus and method thereof
GB2395806A (en) * 2002-11-27 2004-06-02 Sony Uk Ltd Information retrieval
US20040122539A1 (en) 2002-12-20 2004-06-24 Ainsworth Heather C. Synchronization of music and images in a digital multimedia device system
JP4352749B2 (ja) 2003-04-24 2009-10-28 ソニー株式会社 プログラム、データ処理方法及びデータ処理装置
JP2004355280A (ja) 2003-05-28 2004-12-16 Nippon Telegr & Teleph Corp <Ntt> 電子目録を用いたid情報抽出方法、電子目録を用いたid関連情報紹介方法、電子目録システム、および電子目録関連情報紹介システム
US7886024B2 (en) 2004-07-01 2011-02-08 Microsoft Corporation Sharing media objects in a network
US7228307B2 (en) 2004-07-29 2007-06-05 International Business Machines Corporation Security model using security domains in a security model applied to abstract database

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019032853A (ja) * 2006-10-06 2019-02-28 ロヴィ ガイズ, インコーポレイテッド 双方向メディアガイダンスアプリケーションにおいてメディアを取得、分類、および配信するためのシステムおよび方法
US8229935B2 (en) 2006-11-13 2012-07-24 Samsung Electronics Co., Ltd. Photo recommendation method using mood of music and system thereof
JP2009081733A (ja) * 2007-09-26 2009-04-16 Fujifilm Corp 画像再生装置、及びプログラム
JP2011511499A (ja) * 2007-12-21 2011-04-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像を再生するための方法及び装置
JP2010250310A (ja) * 2009-03-27 2010-11-04 Xing Inc カラオケシステム、カラオケシステムの制御方法、及びカラオケシステムの制御プログラム。
JP2013500540A (ja) * 2009-07-27 2013-01-07 ユナイテッド ビデオ プロパティーズ, インコーポレイテッド 属性を共有する異なる種類のメディアコンテンツを関連付け、提供する方法およびシステム
JP2011164865A (ja) * 2010-02-08 2011-08-25 Kddi Corp 画像選定装置、画像選定方法および画像選定プログラム
JP2012113554A (ja) * 2010-11-25 2012-06-14 Yamaha Corp コンテンツ再生装置及びコンテンツ再生システム
JP2014003388A (ja) * 2012-06-15 2014-01-09 Buffalo Inc 情報処理装置及びプログラム
JP2019174783A (ja) * 2018-03-26 2019-10-10 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 画像とオーディオの同期再生の処理方法及びデバイス

Also Published As

Publication number Publication date
EP1855473A1 (en) 2007-11-14
US20120155832A1 (en) 2012-06-21
EP1855473A4 (en) 2010-01-06
CN100589540C (zh) 2010-02-10
WO2006106596A1 (ja) 2006-10-12
EP1855473B1 (en) 2011-01-26
KR20070106537A (ko) 2007-11-01
DE602006019829D1 (de) 2011-03-10
US8868585B2 (en) 2014-10-21
CN101133638A (zh) 2008-02-27

Similar Documents

Publication Publication Date Title
JP2006244002A (ja) コンテンツ再生装置およびコンテンツ再生方法
US8145034B2 (en) Contents replay apparatus and contents replay method
JP5520585B2 (ja) 情報処理装置
KR101329266B1 (ko) 관련된 오디오 반주를 찾도록 디지털 영상들의 컨텐트특징들과 메타데이터를 사용하는 시스템 및 방법
US20060026634A1 (en) Creating standardized playlists and maintaining coherency
JP5306114B2 (ja) クエリ抽出装置、クエリ抽出方法およびクエリ抽出プログラム
US11093544B2 (en) Analyzing captured sound and seeking a match for temporal and geographic presentation and navigation of linked cultural, artistic, and historic content
JP2006164229A (ja) 情報再生装置及びその制御方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP5779938B2 (ja) プレイリスト作成装置、プレイリスト作成方法及びプレイリスト作成プログラム
JP5779492B2 (ja) 入力補助装置、入力補助システムおよび入力補助方法
JP4882228B2 (ja) 画像再生装置および画像再生システム
JP4403357B2 (ja) コンテンツ再生装置、コンテンツ提供システム、およびプログラム
JP5064917B2 (ja) 電子アルバムシステム及び電子アルバム作成方法
WO2007004139A2 (en) Method of associating an audio file with an electronic image file, system for associating an audio file with an electronic image file, and camera for making an electronic image file
JP4770981B2 (ja) 画像再生装置
KR102252522B1 (ko) 내용 기반 동영상 목차 자동생성 방법 및 시스템
JP2008513877A (ja) 追従情報を提供する方法
JP2008225584A (ja) 物品推薦装置、物品推薦システム、物品推薦方法及び物品推薦プログラム
TWI220483B (en) Creation method of search database for audio/video information and song search system
JP2006079198A (ja) コンテンツ登録装置及びコンテンツ検索装置
JP4645182B2 (ja) 画像再生装置および画像再生システム
JP2010191940A (ja) 情報処理装置および情報処理方法、並びにプログラム
US20230289129A1 (en) Place information management device, content delivery system, and place information management method
JP2006173981A (ja) 画像再生装置および画像再生システム
JP2012073781A (ja) 情報検索処理装置および情報検索処理方法、並びにプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080409