JP2012048324A - 情報処理装置、その処理方法及びプログラム - Google Patents
情報処理装置、その処理方法及びプログラム Download PDFInfo
- Publication number
- JP2012048324A JP2012048324A JP2010187643A JP2010187643A JP2012048324A JP 2012048324 A JP2012048324 A JP 2012048324A JP 2010187643 A JP2010187643 A JP 2010187643A JP 2010187643 A JP2010187643 A JP 2010187643A JP 2012048324 A JP2012048324 A JP 2012048324A
- Authority
- JP
- Japan
- Prior art keywords
- content
- search
- type
- additional information
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】関連するコンテンツを容易且つ的確に検索できるようにした技術を提供する。
【解決手段】情報処理装置は、動画で構成され、当該動画に関連する付加情報が付加された複数のコンテンツのうちのいずれかのコンテンツを再生する。ここで、情報処理装置は、再生中のコンテンツにおけるいずれかの時点の静止画を取得し、静止画内から1又は複数のオブジェクトを識別するとともに当該識別したオブジェクトをタイプ別に分類し、オブジェクトのタイプ毎に付加情報と当該タイプに対する関連度とを予め保持する関連度情報保持テーブルから上記識別されたオブジェクトのタイプに対応して保持された付加情報を取得し、当該付加情報に基づいて検索条件を作成する。そして、当該作成した検索条件に従って複数のコンテンツの中から再生中のコンテンツに関連するコンテンツを検索し、その検索結果を表示器に表示する。
【選択図】図2
【解決手段】情報処理装置は、動画で構成され、当該動画に関連する付加情報が付加された複数のコンテンツのうちのいずれかのコンテンツを再生する。ここで、情報処理装置は、再生中のコンテンツにおけるいずれかの時点の静止画を取得し、静止画内から1又は複数のオブジェクトを識別するとともに当該識別したオブジェクトをタイプ別に分類し、オブジェクトのタイプ毎に付加情報と当該タイプに対する関連度とを予め保持する関連度情報保持テーブルから上記識別されたオブジェクトのタイプに対応して保持された付加情報を取得し、当該付加情報に基づいて検索条件を作成する。そして、当該作成した検索条件に従って複数のコンテンツの中から再生中のコンテンツに関連するコンテンツを検索し、その検索結果を表示器に表示する。
【選択図】図2
Description
本発明は、情報処理装置、その処理方法及びプログラムに関する。
従来、コンテンツに付加されたメタデータの中から、予め決められた種類のメタデータを取得し、それを検索条件として当該コンテンツに関連する他のコンテンツを検索する技術が知られている。また、当該検索されたコンテンツのダイジェストを再生する技術も知られている。
その他、ユーザにより指示されたキーワードと、コンテンツに付加されたメタデータとの一致度に応じて、検索されたコンテンツの再生順序を記述したプレイリストを作成する技術も知られている。作成されたプレイリストは、再生されるコンテンツのタイトル、内容、再生時刻等の情報がキーワードに応じて分類されており、時系列に提示する番組表として表示される(特許文献1参照)。
また、コンテンツの関連キーワードを抽出し、その関連キーワードから関連キーワードリストを生成する技術が知られている。この技術では、当該関連キーワードリストの中から関連キーワードが選択された場合、その関連キーワードを含んでいる関連コンテンツを抽出する。関連キーワードの抽出では、コンテンツのメタデータ、ユーザの入力情報、コンテンツの画像特徴情報(例えば、人物や色など)や文字情報、コンテンツの音声特徴情報(例えば、楽曲、曲調や雰囲気など)が関連キーワードとして抽出される(特許文献2参照)。
しかし、コンテンツに付加されたメタデータの中から、予め決められた種類のメタデータを検索条件とする場合には、決められた種類のメタデータが登録されていないと検索がヒットせず、検索結果が得られない状態となる。
また、ユーザにより指示されたキーワードに基づいて検索条件を指定する場合には、ユーザは、コンテンツのメタデータを把握していなければならず、ユーザに負担を掛けることになる。
そこで、本発明は、上記課題に鑑みてなされたものであり、従来の構成よりも、関連するコンテンツを容易且つ的確に検索できるようにした技術を提供することを目的とする。
上記課題を解決するため、本発明の一態様は、動画で構成され、当該動画に関連する付加情報が付加された複数のコンテンツのうちのいずれかのコンテンツを再生する情報処理装置であって、再生中のコンテンツにおけるいずれかの時点の静止画を取得する取得手段と、前記取得された静止画内から1又は複数のオブジェクトを識別するとともに当該識別したオブジェクトをタイプ別に分類する第1の分類手段と、前記オブジェクトのタイプ毎に、付加情報と当該タイプに対する関連度とを予め保持する関連度情報保持テーブルと、前記関連度情報保持テーブルから前記識別されたオブジェクトのタイプに対応して保持された前記付加情報を取得し、当該付加情報に基づいて検索条件を作成する作成手段と、前記作成手段により作成された検索条件に従って前記複数のコンテンツの中から前記再生中のコンテンツに関連するコンテンツを検索する検索実行手段と、前記検索実行手段による検索結果を表示器に表示する表示処理手段とを具備することを特徴とする。
本発明によれば、関連するコンテンツを容易且つ的確に検索できる。
以下、本発明の一実施の形態について添付図面を参照して詳細に説明する。
図1は、本発明の一実施の形態に係わる情報処理装置10のハードウェア構成の一例を示す図である。
情報処理装置は、再生中のコンテンツに関連するコンテンツのダイジェスト(コンテンツの内容を要約したもの)の再生を行なう。ここで、情報処理装置10は、CPU11と、ROM12と、RAM13と、入力部14と、リモートコントローラ15と、表示コントローラ16と、表示部(表示器)17と、記憶部18とを具備して構成される。これら各構成部は、システムバス19を介して通信可能に接続されている。
CPU(Central Processing Unit)11は、情報処理のための演算、論理判断等を行ない、システムバス19を介して、各構成部における動作を統括制御する。ROM(Read Only Memory)12は、各種プログラム等を格納する。なお、ROM12は、書き込み可能に構成されていても良い。RAM(Random Access Memory)は、各種データが一時的に格納される。例えば、CPU11により各種処理が実施される際には、ワーク領域として利用される。
入力部14は、リモートコントローラ(以下、コントローラと呼ぶ)15を介したユーザからの(遠隔)指示を入力する。なお、本実施形態においては、コントローラ15を介してユーザ指示を入力する場合を例に挙げて説明するが、情報処理装置10の前面部等に設けられたボタン等を介したユーザ指示を入力するように構成されていても良い。
表示部17は、例えば、液晶パネル等で実現され、各種画面を表示する。表示コントローラ16は、表示部17に対して各種画面の表示を制御する。これにより、表示部17には、例えば、コンテンツの表示等が行なわれる。なお、コンテンツとは、一般的な動画であっても良いし、また、複数の静止画からなるスライドショーであっても良い。すなわち、連続する静止画を含む動画形式のデータであれば良い。
記憶部18は、例えば、メモリカード、HDD(Hard Disk Drive)、DVD−RAM(Digital Versatile Disk Random Access Memory)等で実現され、各種情報を記憶する。記憶部18には、例えば、複数のコンテンツが格納される。なお、本実施形態におけるコンテンツには、被写体、撮影日時、撮影場所、イベント名、所属名などのメタデータ(付加情報)が付加されている。メタデータは、コンテンツ全体に付加されていても良いし、動画内に含まれるシーン(静止画)に対応して付加されていても良い。
以上が、情報処理装置10におけるハードウェア構成の一例についての説明である。なお、情報処理装置10は、入力部14からの各種入力に応じて作動する。入力部14から入力が供給されると、入力部14からCPU11に向けてインタラプト信号が送られる。そして、CPU11が、例えば、ROM12、RAM13、記憶部18等に記憶された各種の制御信号を読み出し、それらの制御信号に従って情報処理装置10における各構成部の制御が行なわれる。
図2は、図1に示す情報処理装置10の機能的な構成の一例を示す図である。ここでは、図1に示すコントローラ15及びCPU11において実現される機能的な構成について説明する。
まず、コントローラ15上に実現される機能的な構成について説明する。コントローラ15には、コンテンツ再生指示部21と、コンテンツ検索指示部22と、ダイジェスト再生選択部23と、コンテンツ登録指示部24とが機能的な構成として実現される。
コンテンツ再生指示部21は、再生対象となるコンテンツを指示し、コンテンツ検索指示部22は、再生中のコンテンツ内における検索対象となるシーン(ある時点の静止画)を指示する。ダイジェスト再生選択部23は、関連する複数のコンテンツの中からダイジェスト再生の対象となるコンテンツを選択し、コンテンツ登録指示部24は、登録対象となるコンテンツを指示する。なお、これら指示や選択は、ユーザからの指示に基づいてなされる。
次に、CPU11上に実現される機能的な構成について説明する。なお、CPU11上に実現される機能的な構成は、CPU11が、例えば、ROM12、RAM13、記憶部18等に記憶された各種プログラムを実行することにより実現される。
CPU11上においては、設定部30と処理部40とが機能的な構成として実現される。まず、処理部40として実現される機能的な構成について説明する。
表示処理部41は、表示コントローラ16を介して各種画面を表示部17に表示させる。例えば、コンテンツ再生指示部21により指示されたコンテンツを表示部17上(表示器上)で再生(表示)させる。
静止画取得部42は、コンテンツ検索指示部22により指示されたコンテンツに含まれるある時点の静止画を取得する。第1のオブジェクト分類部43は、第1の分類手段として機能し、コンテンツから1又は複数のオブジェクトを識別するとともに、当該識別したオブジェクトをタイプ別に分類する。第1のオブジェクト分類部43には、静止画取得部42により取得された静止画内から1又は複数のオブジェクトを識別する第1のオブジェクト識別部43aが設けられる。なお、オブジェクトの識別は、画像認識技術を用いても良いし、複数の関連画像を用いた類似画像の検索に基づいて行なわれても良い。
テーブル管理部44は、オブジェクトのタイプ毎にメタデータ(属性名)をその(タイプに対する)関連度に対応して保持する関連度情報保持テーブルを管理する。なお、テーブル管理部44においては、例えば、ROM12、RAM13、記憶部18等を用いて関連度情報保持テーブルを管理する。
検索条件作成部45は、第1のオブジェクト分類部43により分類されたオブジェクトのタイプ毎に関連度情報保持テーブル(図5(b)参照)を参照して、メタデータによる検索条件を作成する。検索実行部46は、検索条件作成部45により作成された検索条件に従って検索処理を実行する。このとき、表示処理部41は、検索実行部46による検索結果を表示部17に表示させる。
ダイジェスト作成部47は、ダイジェスト再生選択部23により選択されたコンテンツのダイジェストを作成する。より具体的には、表示部17に表示された検索結果の中からユーザによる指示(ダイジェスト再生選択部23)に基づいて選択(指定)されたコンテンツのダイジェストを作成する。このとき、表示処理部41は、当該作成されたダイジェストを表示部17上で再生させる。
続いて、設定部30として実現される機能的な構成について説明する。コンテンツ登録部31は、コンテンツ登録指示部24からの指示に基づいてコンテンツを登録する。第2のオブジェクト分類部32は、第2の分類手段として機能し、コンテンツ全体から1又は複数のオブジェクトを識別するとともに、当該識別したオブジェクトをタイプ別に分類する。第2のオブジェクト分類部32には、コンテンツ登録部31により登録されたコンテンツや、ダイジェスト再生中のコンテンツからオブジェクトを識別する第2のオブジェクト識別部32aが設けられる。
メタデータ抽出部33は、コンテンツに付加されたメタデータを抽出する。メタデータ判定部34は、メタデータ抽出部33により抽出されたコンテンツのメタデータの属性値が適正であるか否かを判定する。テーブル情報設定部35は、コンテンツのオブジェクトのタイプ毎に、メタデータと関連度とを関連度情報保持テーブル(図5(b)参照)に設定(更新)する。テーブル情報設定部35においては、メタデータ判定部34によりコンテンツのメタデータの属性値が適正と判定された場合は、メタデータの関連度を高く設定する。
次に、図3を用いて、図1に示す情報処理装置10における動作の流れの一例について説明する。ここでは、コンテンツの再生を行なう場合について説明する。
[S101]
ユーザが、コントローラ15を操作してコンテンツの再生を指示すると、コントローラ15は、コンテンツ再生指示部21において、コンテンツの再生を情報処理装置10に指示する。この指示を受けた情報処理装置10は、表示処理部41において、当該指示されたコンテンツを表示部17上で再生する(S101)。この処理は、例えば、図4(a)に示すコンテンツ一覧画面が表示部17に表示されている状態で、ユーザがコントローラ15によりいずれかのコンテンツを指示することにより行なわれる。この場合、「箱根旅行」が指示されている。
ユーザが、コントローラ15を操作してコンテンツの再生を指示すると、コントローラ15は、コンテンツ再生指示部21において、コンテンツの再生を情報処理装置10に指示する。この指示を受けた情報処理装置10は、表示処理部41において、当該指示されたコンテンツを表示部17上で再生する(S101)。この処理は、例えば、図4(a)に示すコンテンツ一覧画面が表示部17に表示されている状態で、ユーザがコントローラ15によりいずれかのコンテンツを指示することにより行なわれる。この場合、「箱根旅行」が指示されている。
[S102]
ここで、ユーザが、コントローラ15を操作して再生中のコンテンツから検索対象となるシーン(ある時点における静止画)又はシーン内におけるオブジェクトを指示したとする。すると、コントローラ15は、コンテンツ検索指示部22において、入力部14に当該指示を送信する。この指示を受けた情報処理装置10は、静止画取得部42において、コンテンツ検索指示部22により指示されたコンテンツに含まれるある時点の静止画を取得する。そして、第1のオブジェクト識別部43aにおいて、当該指示されたシーン内から1又は複数のオブジェクトを識別する(S102)。例えば、図4(b)に示す状態で再生中のコンテンツが表示部17に表示されていたとする。ここで、当該再生中のコンテンツ内から特定のオブジェクト(例えば、人物)が指示された場合、第1のオブジェクト識別部43aは、当該特定のオブジェクトを識別する。一方、特定のオブジェクトが指示されなかった場合、第1のオブジェクト識別部43aは、シーン全体を対象領域としてオブジェクトの識別を行なう。なお、オブジェクトの識別は、画像認識技術を用いても良いし、複数の関連画像を用いた類似画像の検索に基づいて行なわれても良い。
ここで、ユーザが、コントローラ15を操作して再生中のコンテンツから検索対象となるシーン(ある時点における静止画)又はシーン内におけるオブジェクトを指示したとする。すると、コントローラ15は、コンテンツ検索指示部22において、入力部14に当該指示を送信する。この指示を受けた情報処理装置10は、静止画取得部42において、コンテンツ検索指示部22により指示されたコンテンツに含まれるある時点の静止画を取得する。そして、第1のオブジェクト識別部43aにおいて、当該指示されたシーン内から1又は複数のオブジェクトを識別する(S102)。例えば、図4(b)に示す状態で再生中のコンテンツが表示部17に表示されていたとする。ここで、当該再生中のコンテンツ内から特定のオブジェクト(例えば、人物)が指示された場合、第1のオブジェクト識別部43aは、当該特定のオブジェクトを識別する。一方、特定のオブジェクトが指示されなかった場合、第1のオブジェクト識別部43aは、シーン全体を対象領域としてオブジェクトの識別を行なう。なお、オブジェクトの識別は、画像認識技術を用いても良いし、複数の関連画像を用いた類似画像の検索に基づいて行なわれても良い。
上述した通り、コンテンツ(又はコンテンツ内の各シーン等)には、メタデータが付加されている。メタデータは、図4(c)に示すように、属性の種類を示す属性名と、その値を示す属性値とが対応付けられた情報で構成される。この場合、属性名「被写体」の属性値は「さゆり」となっており、属性名「所属名」の属性値は「キヤノン」となっており、属性名「イベント名」の属性値は「旅行」となっている。
[S103]
続いて、情報処理装置10は、第1のオブジェクト分類部43において、S102の処理で識別されたオブジェクトをタイプ別に分類する(S103)。例えば、図5(a)に示すように、コンテンツのオブジェクトを「人物」、「建築物」、「動物」、「植物」、「風景」等のタイプに分類する。
続いて、情報処理装置10は、第1のオブジェクト分類部43において、S102の処理で識別されたオブジェクトをタイプ別に分類する(S103)。例えば、図5(a)に示すように、コンテンツのオブジェクトを「人物」、「建築物」、「動物」、「植物」、「風景」等のタイプに分類する。
[S104、S105]
オブジェクトをタイプ別に分類すると、情報処理装置10は、検索条件作成部45において、関連度情報保持テーブルを参照して、S103の処理で分類されたオブジェクトのタイプ毎に検索条件を作成する(S104)。この検索条件は、所定数(この場合、4件)に達するまで繰り返し行なわれる(S105でNO)。
オブジェクトをタイプ別に分類すると、情報処理装置10は、検索条件作成部45において、関連度情報保持テーブルを参照して、S103の処理で分類されたオブジェクトのタイプ毎に検索条件を作成する(S104)。この検索条件は、所定数(この場合、4件)に達するまで繰り返し行なわれる(S105でNO)。
関連度情報保持テーブルは、例えば、図5(b)に示すレイアウトで構成される。具体的には、オブジェクトのタイプに対応して、それぞれのタイプに関連するメタデータ(メタデータの属性値)が保持される。この場合、オブジェクトのタイプに対応して、第1の関連度、第2の関連度、第3の関連度を有するメタデータが保持されている。なお、第1の関連度が最も高い関連度を有し、第2の関連度、第3の関連度の順に関連度が低くなっていくものとする。
ここで、図5(b)に示す関連度情報保持テーブルに基づいて作成される検索条件について説明する。ここでは、例えば、オブジェクトのタイプ「人物」について検索条件を作成する場合を例に挙げて説明する。なお、コンテンツには、図4(c)に示すメタデータが付加されているものとする。
オブジェクトのタイプ「人物」では、当該タイプに関連するメタデータとして、メタデータの属性名「被写体」、「所属名」、「イベント名」に対応する属性値(図4(c)参照)がその関連度に応じて検索条件(検索キーワード)とされる。
具体的には、検索条件1(1回目の検索)として、
”被写体=「さゆり」 and 所属名=「キヤノン」 and イベント名=「旅行」”
検索条件2(2回目の検索)として、
”被写体=「さゆり」”
検索条件3(3回目の検索)として、
”所属名=「キヤノン」”
検索条件4(4回目の検索)として、
”イベント名=「旅行」”
が検索条件として作成される。
”被写体=「さゆり」 and 所属名=「キヤノン」 and イベント名=「旅行」”
検索条件2(2回目の検索)として、
”被写体=「さゆり」”
検索条件3(3回目の検索)として、
”所属名=「キヤノン」”
検索条件4(4回目の検索)として、
”イベント名=「旅行」”
が検索条件として作成される。
なお、関連度情報保持テーブルは、オブジェクトのタイプに依らず共通のテーブルが設けられる構成であっても良いし、また、ユーザ毎にテーブルが設けられる構成であっても良い。
[S106〜S109]
所定数分の検索条件が作成されると(S105でYES)、情報処理装置10は、S106〜S108の処理を所定数分繰り返す(S109でNO)。この処理では、まず、情報処理装置10は、検索実行部46において、S104で作成した検索条件に従って検索処理を実行する(S106)。具体的には、最初のループでは、検索条件1に従った検索を実施し、次のループでは、検索条件2に従った検索を実施し、次のループでは、検索条件3に従った検索を実施し、次のループでは、検索条件4に従った検索を実施する。
所定数分の検索条件が作成されると(S105でYES)、情報処理装置10は、S106〜S108の処理を所定数分繰り返す(S109でNO)。この処理では、まず、情報処理装置10は、検索実行部46において、S104で作成した検索条件に従って検索処理を実行する(S106)。具体的には、最初のループでは、検索条件1に従った検索を実施し、次のループでは、検索条件2に従った検索を実施し、次のループでは、検索条件3に従った検索を実施し、次のループでは、検索条件4に従った検索を実施する。
次に、情報処理装置10は、表示処理部41において、検索結果として得られたコンテンルにおける1又は複数のシーンに基づいてサムネイルを作成する(S107)。この場合、検索条件1〜4までの4つの検索条件が設けられているため、当該4つの検索条件に対する検索結果を表示する必要がある。そのため、4つの検索結果を表示できるように、個々のサイズを調整したサムネイルを作成する。
そして、情報処理装置10は、表示処理部41において、S107の処理で作成した検索結果のコンテンツのサムネイルの中からいずれかを代表サムネイルとして選択し、それを表示部17に表示させる(S108)。
上述した検索条件1〜4に対応する検索処理が全て終了すると、表示部17には、例えば、図5(c)に示すように、4つの検索条件に対応した検索結果が表示される。この場合、サムネイル1は検索条件1に対応する検索結果の代表サムネイルであり、サムネイル2は検索条件2に対応する検索結果の代表サムネイルである。また、サムネイル3は検索条件3に対応する検索結果の代表サムネイルであり、サムネイル4は検索条件4に対応する検索結果の代表サムネイルである。
[S110、S111]
検索結果が表示されると、それを参照したユーザは、コントローラ15を介してダイジェストの再生対象となるコンテンツのサムネイルを指示する。すると、コントローラ15は、ダイジェスト再生選択部23において、入力部14に当該指示を送信する。この指示を受けた情報処理装置10は、ダイジェスト作成部47において、当該指示されたサムネイルに対応するコンテンツのダイジェストを作成する(S110)。例えば、コンテンツの先頭から所定時間(例えば、10秒)をダイジェストとしても良いし、また、例えば、コンテンツの中で音声の最も盛り上がる部分から所定範囲(例えば、前後5秒)をダイジェストとしても良い。その後、情報処理装置10は、表示処理部41において、当該作成したダイジェストを表示部17上で再生する(S111)。
検索結果が表示されると、それを参照したユーザは、コントローラ15を介してダイジェストの再生対象となるコンテンツのサムネイルを指示する。すると、コントローラ15は、ダイジェスト再生選択部23において、入力部14に当該指示を送信する。この指示を受けた情報処理装置10は、ダイジェスト作成部47において、当該指示されたサムネイルに対応するコンテンツのダイジェストを作成する(S110)。例えば、コンテンツの先頭から所定時間(例えば、10秒)をダイジェストとしても良いし、また、例えば、コンテンツの中で音声の最も盛り上がる部分から所定範囲(例えば、前後5秒)をダイジェストとしても良い。その後、情報処理装置10は、表示処理部41において、当該作成したダイジェストを表示部17上で再生する(S111)。
次に、図6を用いて、図1に示す情報処理装置10における動作の流れの一例について説明する。ここでは、コンテンツの登録を行なう場合について説明する。
[S201、S202]
この処理は、ユーザが、コントローラ15を操作してコンテンツの登録を指示するか(S201でYES)、又は、図3のS111の処理でダイジェストの再生が指示されるか(S201でNOの後、S202でYES)した場合に開始する。なお、ユーザがコントローラ15を操作してコンテンツの登録を指示した場合には、コントローラ15は、コンテンツ登録部31において、コンテンツの登録を情報処理装置10に指示することになる。
この処理は、ユーザが、コントローラ15を操作してコンテンツの登録を指示するか(S201でYES)、又は、図3のS111の処理でダイジェストの再生が指示されるか(S201でNOの後、S202でYES)した場合に開始する。なお、ユーザがコントローラ15を操作してコンテンツの登録を指示した場合には、コントローラ15は、コンテンツ登録部31において、コンテンツの登録を情報処理装置10に指示することになる。
[S203]
次に、情報処理装置10は、第2のオブジェクト識別部32aにおいて、登録が指示されたコンテンツ又はダイジェスト再生が指示されたコンテンツからオブジェクトを識別する(S203)。このオブジェクトの識別は、コンテンツ全体を対象として行なわれる。なお、オブジェクトの識別は、上記同様に、画像認識技術を用いても良いし、複数の関連画像を用いた類似画像の検索に基づいて行なわれても良い。
次に、情報処理装置10は、第2のオブジェクト識別部32aにおいて、登録が指示されたコンテンツ又はダイジェスト再生が指示されたコンテンツからオブジェクトを識別する(S203)。このオブジェクトの識別は、コンテンツ全体を対象として行なわれる。なお、オブジェクトの識別は、上記同様に、画像認識技術を用いても良いし、複数の関連画像を用いた類似画像の検索に基づいて行なわれても良い。
[S204]
オブジェクトが識別されると、情報処理装置10は、第2のオブジェクト分類部32において、当該識別された1又は複数のオブジェクトをタイブ別に分類する(S204)。例えば、上述した図5(a)に示すように、コンテンツのオブジェクトを「人物」、「建築物」、「動物」、「植物」、「風景」等のタイプに分類する(この場合、「人物」と「植物」とが識別並びに分類されている)。
オブジェクトが識別されると、情報処理装置10は、第2のオブジェクト分類部32において、当該識別された1又は複数のオブジェクトをタイブ別に分類する(S204)。例えば、上述した図5(a)に示すように、コンテンツのオブジェクトを「人物」、「建築物」、「動物」、「植物」、「風景」等のタイプに分類する(この場合、「人物」と「植物」とが識別並びに分類されている)。
[S205]
オブジェクトをタイプ別に分類すると、情報処理装置10は、メタデータ抽出部33において、当該処理中のコンテンツからメタデータを抽出する(S205)。例えば、図7(a)に示すように、コンテンツから属性名「被写体」の属性値「さゆり」、属性名「種類」の属性値「ユリ科」、属性名「撮影日時」の属性値「箱根」というメタデータを抽出する。なお、「所属名」及び「イベント名」の属性値は、特にデータが設定されていなかったため、空データとなっている。
オブジェクトをタイプ別に分類すると、情報処理装置10は、メタデータ抽出部33において、当該処理中のコンテンツからメタデータを抽出する(S205)。例えば、図7(a)に示すように、コンテンツから属性名「被写体」の属性値「さゆり」、属性名「種類」の属性値「ユリ科」、属性名「撮影日時」の属性値「箱根」というメタデータを抽出する。なお、「所属名」及び「イベント名」の属性値は、特にデータが設定されていなかったため、空データとなっている。
[S206、S207]
次に、情報処理装置10は、メタデータ判定部34において、S205の処理で抽出されたメタデータの属性値が適正であるか否かを判定する(S206)。そして、テーブル情報設定部35において、S204の処理で分類されたコンテンツのオブジェクトのタイプ毎に、メタデータと関連度とを対応付けて関連度情報保持テーブルに設定する(S207)。なお、S206における判定は、コンテンツから抽出されたメタデータの属性値に基づいて行なわれる。
次に、情報処理装置10は、メタデータ判定部34において、S205の処理で抽出されたメタデータの属性値が適正であるか否かを判定する(S206)。そして、テーブル情報設定部35において、S204の処理で分類されたコンテンツのオブジェクトのタイプ毎に、メタデータと関連度とを対応付けて関連度情報保持テーブルに設定する(S207)。なお、S206における判定は、コンテンツから抽出されたメタデータの属性値に基づいて行なわれる。
ここで、例えば、図7(a)は、テーブル情報変更前のメタデータの関連度(スコア)を示している。すなわち、図5(b)に示す関連度情報保持テーブルに保持された各メタデータは、それぞれその関連度が数値化(スコア)されている。この場合、タイプ「人物」における「被写体」のスコア(関連度を示す値)は、「136」であり、「所属名」のスコアは、「48」であり、「イベント名」のスコアは、「35」である。
ここで、S206の処理でメタデータ判定部34において、メタデータの属性値が適正であると判定されたメタデータについては、このスコアを大きくする。本実施形態においては、コンテンツからメタデータ(属性値)を抽出できたメタデータ(属性名)のスコアの値を大きく設定する場合について説明する。なお、勿論、辞書データ等を予め保持しておき、当該辞書データに保持された情報と、抽出されたメタデータの属性値との一致度に基づいてスコアを決めて設定するように構成しても構わない。その他、コンテンツの再生回数に応じてスコアを決めて設定するように構成しても構わない。すなわち、コンテンツが再生される度に、当該コンテンツから識別及び分類されたオブジェクトのタイプに対する該当のメタデータのスコアを大きく設定するようにしても良い。
この場合、コンテンツからメタデータを抽出できたメタデータの属性名が「被写体」、「種類」、「撮影場所」であるので、図7(c)に示すように、それに対応するスコアには大きな値が設定されている。
ここで、S207におけるテーブル情報の設定について説明する。例えば、タイプ「植物」において、「種類」のスコアよりも、「撮影場所」のスコアが上回ったとする。この場合、図5(b)に示すテーブルのタイプ「植物」の欄では、「撮影場所」が第2の関連度になり、「種類」が第3の関連度になる。
以上説明したように本実施形態によれば、再生中のコンテンツにおけるある時点の静止画内から識別したオブジェクトをタイプ別に分類する。そして、当該オブジェクトのタイプに対応する(関連度情報保持テーブルに保持された)メタデータに基づいて検索条件を作成し、検索を行なうため、関連するコンテンツを容易且つ的確に検索できる。
(実施形態2)
次に、実施形態2について説明する。実施形態2に係わる情報処理装置10の構成や全体的な動作は、実施形態1と同様となるため、ここではその説明については省略し、相違点について重点的に説明する。
次に、実施形態2について説明する。実施形態2に係わる情報処理装置10の構成や全体的な動作は、実施形態1と同様となるため、ここではその説明については省略し、相違点について重点的に説明する。
ここで、相違点としては、実施形態1を説明した図3に示すS104及びS106の処理にある。具体的には、検索条件に対して優先度を設定し、その優先度順に検索を実行する。
上述した実施形態1と同様に、下記に示す検索条件が作成されたとする。
検索条件1として、
”被写体=「さゆり」 and 所属名=「キヤノン」 and イベント名=「旅行」”
検索条件2として、
”被写体=「さゆり」”
検索条件3として、
”所属名=「キヤノン」”
検索条件4として、
”イベント名=「旅行」”
”被写体=「さゆり」 and 所属名=「キヤノン」 and イベント名=「旅行」”
検索条件2として、
”被写体=「さゆり」”
検索条件3として、
”所属名=「キヤノン」”
検索条件4として、
”イベント名=「旅行」”
この場合、検索条件1に対して第1の優先度、検索条件2に対して第3の優先度、検索条件3に対して第4の優先度、検索条件4に対して第2の優先度が設定されたとする。この場合、図3に示すS106〜S108までの検索処理においては、検索条件1、検索条件4、検索条件2、検索条件3の順に検索処理が実施されることになる。なお、優先度は、ユーザ指示に基づいて付けられても良いし、また、何らかの基準を用いて付けられても良い。
また、図3に示すS108の処理においては、情報処理装置10は、検索条件の優先度に応じてコンテンツのサムネイルのサイズを切り替えて表示する。例えば、検索条件1に対して第1の優先度、検索条件2に対して第3の優先度、検索条件3に対して第4の優先度、検索条件4に対して第2の優先度が設定されている場合には、図8(a)に示す表示態様で検索結果が表示される。すなわち、検索条件各々に設定された優先度に応じてその表示態様を変更して検索結果を表示する。この場合、優先度の高い検索条件の検索結果は、大きな領域を用いて表示されおり、優先度の低い検索条件の検索結果は、その領域が小さくして表示されている。
また、図8(b)に示すように、検索条件各々に設定された優先度に応じてその配置位置を変更するようにしても良い。この場合、優先度の高い検索結果が最も中心に表示されており、優先度が低くなるにつれ、中心から離れた位置に表示されている。
(実施形態3)
次に、実施形態3について説明する。実施形態3に係わる情報処理装置10の構成や全体的な動作は、実施形態1と同様となるため、ここではその説明については省略し、相違点について重点的に説明する。
次に、実施形態3について説明する。実施形態3に係わる情報処理装置10の構成や全体的な動作は、実施形態1と同様となるため、ここではその説明については省略し、相違点について重点的に説明する。
ここで、相違点としては、実施形態1を説明した図3に示すS108の処理にある。具体的には、検索結果が表示されている状態で、ユーザによるコントローラ15の指示によりコンテンツのサムネイルが選択された場合、図9に示すように、当該選択されたコンテンツにおけるいくつかのサムネイル50を表示する。この場合、検索結果1に対応して、当該コンテンツのサムネイルの一覧が表示されており、検索結果の出力順に、サムネイル1−2、サムネイル1−3、・・・が表示されている。
なお、このように一覧を表示せずに、例えば、5秒単位のスライドショーを用いて、複数のサムネイルを表示するようにしても良い。また、例えば、5秒単位のダイジェストとして検索結果のコンテンツのサムネイルを表示しても良い。
以上が本発明の代表的な実施形態の例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。
(その他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
Claims (8)
- 動画で構成され、当該動画に関連する付加情報が付加された複数のコンテンツのうちのいずれかのコンテンツを再生する情報処理装置であって、
再生中のコンテンツにおけるいずれかの時点の静止画を取得する取得手段と、
前記取得された静止画内から1又は複数のオブジェクトを識別するとともに当該識別したオブジェクトをタイプ別に分類する第1の分類手段と、
前記オブジェクトのタイプ毎に、付加情報と当該タイプに対する関連度とを予め保持する関連度情報保持テーブルと、
前記関連度情報保持テーブルから前記識別されたオブジェクトのタイプに対応して保持された前記付加情報を取得し、当該付加情報に基づいて検索条件を作成する作成手段と、
前記作成手段により作成された検索条件に従って前記複数のコンテンツの中から前記再生中のコンテンツに関連するコンテンツを検索する検索実行手段と、
前記検索実行手段による検索結果を表示器に表示する表示処理手段と
を具備することを特徴とする情報処理装置。 - 前記表示器に表示された検索結果の中からユーザにより指定された検索結果に対応するコンテンツのダイジェストを作成するダイジェスト作成手段
を更に具備し、
前記表示処理手段は、
前記作成されたダイジェストを前記表示器で再生する
ことを特徴とする請求項1記載の情報処理装置。 - 前記検索実行手段は、
前記作成手段により作成された所定数の検索条件に従って前記複数のコンテンツの中から前記再生中のコンテンツに関連するコンテンツを検索し、
前記表示処理手段は、
前記所定数の検索条件各々に対応して前記表示器上の異なる領域に検索結果を表示する
ことを特徴とする請求項1記載の情報処理装置。 - 前記第1の分類手段は、
前記取得された静止画に対して画像認識、又は前記取得された静止画に対して予め設けられた類似画像を用いて検索を行なうことにより、1又は複数のオブジェクトを識別するとともに当該識別したオブジェクトをタイプ別に分類する
ことを特徴とする請求項1記載の情報処理装置。 - 前記作成手段は、
所定数の検索条件を作成するとともに各検索条件に対して優先度を設定し、
前記検索実行手段は、
前記作成手段により作成された所定数の検索条件に従って前記複数のコンテンツの中から前記再生中のコンテンツに関連するコンテンツを検索し、
前記表示処理手段は、
前記所定数の検索条件各々に対応する検索結果をその優先度に応じて表示態様を変更して前記表示器上に表示する
ことを特徴とする請求項1記載の情報処理装置。 - ユーザによりコンテンツの登録が指示された場合、又は前記ダイジェストの再生が指示された場合に、当該コンテンツ全体から1又は複数のオブジェクトを識別するとともに当該識別したオブジェクトをタイプ別に分類する第2の分類手段と、
前記コンテンツの登録が指示されたコンテンツから付加情報を抽出する抽出手段と、
前記抽出された付加情報に基づいて前記関連度情報保持テーブルに保持された前記関連度を示す値を変更して設定する設定手段と
を具備することを特徴とする請求項2記載の情報処理装置。 - 動画で構成され、当該動画に関連する付加情報が付加された複数のコンテンツのうちのいずれかのコンテンツを再生する情報処理装置の処理方法であって、
取得手段が、再生中のコンテンツにおけるいずれかの時点の静止画を取得する工程と、
第1の分類手段が、前記取得された静止画内から1又は複数のオブジェクトを識別するとともに当該識別したオブジェクトをタイプ別に分類する工程と、
作成手段が、前記オブジェクトのタイプ毎に付加情報と当該タイプに対する関連度とを予め保持する関連度情報保持テーブルから前記識別されたオブジェクトのタイプに対応して保持された前記付加情報を取得し、当該付加情報に基づいて検索条件を作成する工程と、
検索実行手段が、前記作成手段により作成された検索条件に従って前記複数のコンテンツの中から前記再生中のコンテンツに関連するコンテンツを検索する工程と、
表示処理手段が、前記検索実行手段による検索結果を表示器に表示する工程と
を含むことを特徴とする情報処理装置の処理方法。 - 動画で構成され、当該動画に関連する付加情報が付加された複数のコンテンツのうちのいずれかのコンテンツを再生する情報処理装置を、
再生中のコンテンツにおけるいずれかの時点の静止画を取得する取得手段、
前記取得された静止画内から1又は複数のオブジェクトを識別するとともに当該識別したオブジェクトをタイプ別に分類する第1の分類手段、
前記オブジェクトのタイプ毎に、付加情報と当該タイプに対する関連度とを予め保持する関連度情報保持テーブルから前記識別されたオブジェクトのタイプに対応して保持された前記付加情報を取得し、当該付加情報に基づいて検索条件を作成する作成手段、
前記作成手段により作成された検索条件に従って前記複数のコンテンツの中から前記再生中のコンテンツに関連するコンテンツを検索する検索実行手段、
前記検索実行手段による検索結果を表示器に表示する表示処理手段
として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010187643A JP2012048324A (ja) | 2010-08-24 | 2010-08-24 | 情報処理装置、その処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010187643A JP2012048324A (ja) | 2010-08-24 | 2010-08-24 | 情報処理装置、その処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012048324A true JP2012048324A (ja) | 2012-03-08 |
Family
ID=45903159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010187643A Withdrawn JP2012048324A (ja) | 2010-08-24 | 2010-08-24 | 情報処理装置、その処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012048324A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014006680A (ja) * | 2012-06-25 | 2014-01-16 | Sony Corp | ビデオ記録装置、情報処理システム、情報処理方法および記録媒体 |
JP2014016882A (ja) * | 2012-07-10 | 2014-01-30 | Yahoo Japan Corp | 情報提供装置、情報提供方法および情報提供プログラム |
JP2014052876A (ja) * | 2012-09-07 | 2014-03-20 | Nec Corp | 情報抽出装置及び情報抽出方法 |
JP2020156001A (ja) * | 2019-03-22 | 2020-09-24 | 株式会社三井住友銀行 | Aiを活用した広告推奨方法、プログラム、およびコンピュータ |
-
2010
- 2010-08-24 JP JP2010187643A patent/JP2012048324A/ja not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014006680A (ja) * | 2012-06-25 | 2014-01-16 | Sony Corp | ビデオ記録装置、情報処理システム、情報処理方法および記録媒体 |
JP2014016882A (ja) * | 2012-07-10 | 2014-01-30 | Yahoo Japan Corp | 情報提供装置、情報提供方法および情報提供プログラム |
US9495592B2 (en) | 2012-07-10 | 2016-11-15 | Yahoo Japan Corporation | Image-based information providing device and method using object recognition |
JP2014052876A (ja) * | 2012-09-07 | 2014-03-20 | Nec Corp | 情報抽出装置及び情報抽出方法 |
JP2020156001A (ja) * | 2019-03-22 | 2020-09-24 | 株式会社三井住友銀行 | Aiを活用した広告推奨方法、プログラム、およびコンピュータ |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8666223B2 (en) | Electronic apparatus and image data management method | |
US9538116B2 (en) | Relational display of images | |
US7844115B2 (en) | Information processing apparatus, method, and program product | |
JP2009181216A (ja) | 電子機器および画像処理方法 | |
JP4643735B1 (ja) | 電子機器及び映像処理方法 | |
JP2010103765A (ja) | 電子機器および映像処理方法 | |
JPH08249348A (ja) | 映像検索方法および装置 | |
JP2008129942A (ja) | コンテンツ検索装置 | |
US9588993B2 (en) | Image display apparatus and control method thereof | |
US8209348B2 (en) | Information processing apparatus, information processing method, and information processing program | |
JP2000350156A (ja) | 動画像情報の記憶方法及びこれを記録した記録媒体 | |
JP2008192013A (ja) | 表示画像制御装置及びその制御方法 | |
JP2009087113A (ja) | 情報処理装置および方法、プログラム、並びに記録媒体 | |
JP2012048324A (ja) | 情報処理装置、その処理方法及びプログラム | |
JP2006079460A (ja) | 電子アルバム表示システム、電子アルバム表示方法、電子アルバム表示プログラム、画像分類装置、画像分類方法、及び画像分類プログラム | |
JP2008197844A (ja) | 情報処理装置及び方法 | |
JP2005275885A (ja) | 情報処理装置、プログラム | |
JP2010148056A (ja) | コンテンツ再生装置、コンテンツ再生方法、コンテンツ再生処理プログラム及びコンピュータ読み取り可能な記録媒体 | |
JP2008205820A (ja) | コンテンツ表示装置、コンテンツ表示方法、プログラム及び記憶媒体 | |
JP5741304B2 (ja) | 画像検索装置、動画検索装置、画像検索方法、動画検索方法及びプログラム | |
JP2007213574A (ja) | コンテンツ検索方法および装置 | |
US10225459B2 (en) | Image reproducing apparatus that selects image from multiple images and reproduces same, method of controlling image reproducing apparatus, and storage medium | |
JP2007172209A (ja) | コンテンツ検索装置及びコンテンツ検索プログラム | |
TWI823018B (zh) | 建立影片圖譜的方法 | |
KR20100018660A (ko) | 영상 데이터의 파일명 생성 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20131105 |