JP2009087113A - 情報処理装置および方法、プログラム、並びに記録媒体 - Google Patents

情報処理装置および方法、プログラム、並びに記録媒体 Download PDF

Info

Publication number
JP2009087113A
JP2009087113A JP2007257117A JP2007257117A JP2009087113A JP 2009087113 A JP2009087113 A JP 2009087113A JP 2007257117 A JP2007257117 A JP 2007257117A JP 2007257117 A JP2007257117 A JP 2007257117A JP 2009087113 A JP2009087113 A JP 2009087113A
Authority
JP
Japan
Prior art keywords
scene
content
information
search
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007257117A
Other languages
English (en)
Other versions
JP5286732B2 (ja
Inventor
Daisuke Negi
大輔 根木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007257117A priority Critical patent/JP5286732B2/ja
Priority to US12/240,198 priority patent/US8713008B2/en
Publication of JP2009087113A publication Critical patent/JP2009087113A/ja
Application granted granted Critical
Publication of JP5286732B2 publication Critical patent/JP5286732B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content

Abstract

【課題】ユーザに有意義な検索結果を提示する。
【解決手段】ユーザにより、例えば、キーワードが検索方法として入力された場合、そのキーワードで示される所定のコンテンツ内のシーンが検索される。検索は、シーン単位で行われ、シーン単位の検索結果が取得される。取得されたシーン単位の検索結果は、そのシーンが含まれるコンテンツに集約され、コンテンツとしてユーザ側に提示される。提示されたコンテンツからユーザが選択したコンテンツが特定され、再生が実行される。本発明は、映像などのコンテンツを検索する情報処理装置に適用できる。
【選択図】図4

Description

本発明は情報処理装置および方法、プログラム、並びに記録媒体に関し、特に、情報を提供するときに、ユーザにとって意味的にまとまりのあるかたちで提供するようにした情報処理装置および方法、プログラム、並びに記録媒体に関する。
従来、映像コンテンツを検索する場合、キーワードを指定して検索する方法、参照画像または参照映像を与えて一致する部分や類似する部分を含むものを検索する方法、色や動きの激しさなどの情報を指定して検索する方法などが用いられている。また、映像コンテンツ単位で検索する方法や、映像コンテンツを細分化したシーン単位で検索する方法なども提案されている。(例えば、特許文献1参照)
特開2004-227423号公報
映像解析技術の向上や、映像コンテンツに対するアノテーション(annotation)サービスの普及などにより、シーン単位でコンテンツに意味づけがなされることが多くなってきた。アノテーションサービスとは、例えば、インターネット上に氾濫するWebページやマルチメディアコンテンツを、単に視聴するだけでなく、高度に利用したいというユーザの欲求に対して、それらのコンテンツに対して何らかの情報を関連付けて、提供するサービスのことである。
このようなアノテーションサービスが普及することにともない、ユーザの求める映像をシーン単位で探し出す手法の精度の向上が見込まれる。しかしながら、シーン単位で検索を行い、検索結果をシーン単位でユーザに返すと、ユーザ側では所望のシーンを得られても、シーン単位の検索で得られる映像断片のみの結果では意味をなさないことがあり、必ずしも、ユーザにとって有意義な検索結果が返せるわけではなかった。
本発明は、このような状況に鑑みてなされたものであり、ユーザにとって有意義な検索結果を返せるようにするものである。
本発明の一側面の情報処理装置は、コンテンツから特徴量を抽出する特徴抽出手段と、前記特徴量抽出手段により抽出された特徴量を用いて、前記コンテンツから所定のシーンを抽出する抽出手段と、コンテンツを検索するための情報を取得する取得手段と、前記取得手段で取得された前記情報に該当するシーンを、前記抽出手段で抽出されたシーンを対象とし、シーン単位で検索を行う検索手段と、前記検索手段により検索されたシーンを含むコンテンツを、検索結果として提示する提示手段とを備える。
前記提示手段は、複数のコンテンツを提示する場合、各コンテンツに含まれる前記検出手段で検出されたシーンの個数が多い順に順位を設定し、提示するようにすることができる。
前記提示手段は、複数のコンテンツを提示する場合、各コンテンツに含まれる前記検出手段で検出されたシーンの総合計時間が多い順に順位を設定し、提示するようにすることができる。
前記提示手段は、複数のコンテンツを提示する場合、各コンテンツに含まれる前記検出手段で検出されたシーンの総合計時間の前記コンテンツに占める割合が高い順に順位を設定し、提示するようにすることができる。
前記提示手段は、複数のコンテンツを提示する場合、各コンテンツに含まれる前記検出手段で検出されたシーンの適合度が高い順に順位を設定し、提示するようにすることができる。
本発明の一側面の情報処理方法は、コンテンツから特徴量を抽出し、抽出された特徴量を用いて、前記コンテンツから所定のシーンを抽出し、コンテンツを検索するための情報を取得し、取得された前記情報に該当するシーンを、抽出されたシーンを対象とし、シーン単位で検索を行い、検索されたシーンを含むコンテンツを、検索結果として提示するステップを含む。
本発明の一側面のプログラムは、コンテンツから特徴量を抽出し、抽出された特徴量を用いて、前記コンテンツから所定のシーンを抽出し、コンテンツを検索するための情報を取得し、取得された前記情報に該当するシーンを、抽出されたシーンを対象とし、シーン単位で検索を行い、検索されたシーンを含むコンテンツを、検索結果として提示するステップを含む処理をコンピュータに実行させる。
本発明の一側面の記録媒体は、コンテンツから特徴量を抽出し、抽出された特徴量を用いて、前記コンテンツから所定のシーンを抽出し、コンテンツを検索するための情報を取得し、取得された前記情報に該当するシーンを、抽出されたシーンを対象とし、シーン単位で検索を行い、検索されたシーンを含むコンテンツを、検索結果として提示するステップを含むコンピュータが読み取り可能なプログラムが記録されている。
本発明の一側面の情報処理装置および方法、並びにプログラムにおいては、コンテンツから抽出されるシーンの特徴量と、ユーザから供給された検索対象とするシーンの情報とが用いられ、所定のシーンが検索され、検索されたシーンを含むコンテンツが検索結果としてユーザに提示される。
本発明の一側面によれば、シーン単位で検索されたコンテンツを、ユーザに有意義な情報として提供することが可能となる。
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書または図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書または図面に記載されていることを確認するためのものである。従って、明細書または図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。
本発明の一側面の情報処理装置(例えば、図1の情報処理装置11)は、コンテンツから特徴量を抽出する特徴抽出手段(例えば、図1の特徴量抽出部22)と、前記特徴量抽出手段により抽出された特徴量を用いて、前記コンテンツから所定のシーンを抽出する抽出手段(例えば、図1のシーン抽出部24)と、コンテンツを検索するための情報を取得する取得手段(例えば、図1の検索方法指示部26)と、前記取得手段で取得された前記情報に該当するシーンを、前記抽出手段で抽出されたシーンを対象とし、シーン単位で検索を行う検索手段(例えば、図1のシーン検索部27)と、前記検索手段により検索されたシーンを含むコンテンツを、検索結果として提示する提示手段(例えば、図1の検索結果集約部28)とを備える。
以下に、本発明の実施の形態について図面を参照して説明する。
図1は、本発明を適用した情報処理装置の一実施の形態の構成を示す図である。図1に示した情報処理装置11は、コンテンツ取得部21、特徴量抽出部22、特徴量記憶部23、シーン抽出部24、シーン記憶部25、検索方法指示部26、シーン検索部27、検索結果集約部28、検索結果表示制御部29、再生表示制御部30、および再生指示部31を含む構成とされている。検索結果表示制御部29と再生表示制御部30は、表示装置12と接続され、表示装置12の表示を制御する。
コンテンツ取得部21は、コンテンツを取得する。取得されるコンテンツは、ここでは映像であるとする。コンテンツ取得部21は、インターネットなどで構成されるネットワークを介して接続されている他の装置で管理されているコンテンツや、ユーザのパーソナルコンピュータで管理されているコンテンツなどを取得する。取得されるコンテンツは、インターネットなどで公開されているコンテンツであっても良いし、ユーザ自身が撮影したようなプライベートなコンテンツであっても良い。
特徴量抽出部22は、コンテンツ取得部21で取得されたコンテンツから特徴量を抽出する。特徴量抽出部22で抽出された特徴量は、特徴量記憶部23に一旦記憶される。
シーン抽出部24は、コンテンツ取得部21で取得されたコンテンツを複数のシーンに分割、または複数のシーンを抽出する。例えば、シーンチェンジを検出する方法を適用して複数のシーンに分割されるようにしても良いし、所定の条件に当てはまるシーンが抽出されるようにしても良い。ここでは、所定の条件に当てはまるシーンが抽出される場合を例に挙げて説明する。処理対象とされているコンテンツ内のシーンが、所定のシーンに当てはまるか否かは、特徴量抽出部22により抽出された特徴量を用いて判断される。
例えば、シーン抽出部24は、第1のシーンが有する第1の特徴量を記憶しており、または取得できるように構成されており、第1の特徴量と一致する特徴量が、特徴量記憶部23に記憶されているか否かを判断することにより、第1のシーンに当てはまるか否かを判断する。
ここでは、シーン抽出部24は、所定のシーンと、そのシーンの特徴量を関連付けて記憶しているとして説明を続ける。また、ここでは、特徴量記憶部23に記憶されている特徴量と、シーン抽出部24が記憶している特徴量が一致したとき、そのシーンを抽出するとして説明するが、特徴量が“一致”するとの表記は、完全に一致することは勿論含まれるが、特徴量が類似している場合も含まれるとする。類似している場合とは、特徴量の一致度が、例えば、90%以上であるときには、一致するとして判断して良い場合であるとする。
よって、特徴量抽出部22が供給されたコンテンツから抽出される特徴量と、シーン抽出部24に記憶されている特徴量は、比較することが可能な量とされる。
シーン抽出部24により、シーンが抽出された場合、そのシーンが、シーン記憶部25に記憶される。シーン抽出部24により、シーンが抽出された場合、そのシーンの開始点や終了点などを、ユーザ側で編集し、その編集された後のシーンが、シーン記憶部25に記憶されるようにしても良い。さらに、ユーザによりシーンが抽出されるようにしても良いし、ユーザにより抽出されたシーンも、シーン抽出部24により抽出された他のシーンとともに、シーン記憶部25に記憶されるようにしても良い。
シーン記憶部25に記憶されるのは、コンテンツ取得部21で取得されたコンテンツから、所定のシーンであると判断された部分を特定できる情報、または判断された部分の映像データそのものである。
また、後述するように、本実施の形態においては、ユーザに対してコンテンツを検索結果として提示するため、また、提示したコンテンツが再生できるように構成されるため、コンテンツ取得部21により取得されたコンテンツのデータ(以下、コンテンツデータと記述する)も、シーン記憶部25に記憶されるとして説明する。すなわちここでは、コンテンツデータと、そのコンテンツデータに基づくコンテンツの所定のシーンを特定するための情報(以下、シーン情報と記述する)が関連付けられて記憶される。
ここで、シーン記憶部25に記憶されるデータについて、図2を参照して説明を加える。シーン記憶部25には、コンテンツデータ51と、そのコンテンツデータ51のシーンに関する情報である、シーン情報52−1乃至52−pが関連付けられて記憶されている。また、シーン記憶部25には、コンテンツデータ61と、そのコンテンツデータ61のシーンに関する情報である、シーン情報62−1乃至62−qが関連付けられて記憶されている。
このように、シーン記憶部25には、複数のコンテンツデータとそのコンテンツデータのシーン情報が関連付けられて記憶されている。以下の説明において、コンテンツデータ51とコンテンツデータ61を区別する必要がない場合、コンテンツデータ51を代表して記述する。また、シーン情報も同様に、シーン情報52を代表して記述し、シーン情報52−1乃至52−pも、個々に区別する必要がない場合、単にシーン情報52と記述する。
シーン情報52に含まれる情報は、シーン抽出部24がシーンを抽出したときに生成されるように構成されている。また、シーン情報52に含ませる情報は、ユーザなどから提供された情報とすることも可能であり、適宜、ユーザから提供された情報で、シーン情報52が生成される。
コンテンツデータ51は、コンテンツのデータそのものでも良いし、コンテンツを特定するための情報、例えば、インターネット上で取得できるコンテンツであれば、アドレスなどの情報でも良い。シーン情報52は、コンテンツデータ51に基づくコンテンツのうち、どの部分が所定のシーンとして抽出されたかを示す情報である。例えば、シーン情報52には、シーンの初めと終わりフレームを特定するためのフレーム情報や、どのようなシーンであるかを示す情報が含まれる。
どのようなシーンであるかを示す情報とは、シーン検索部27がシーンの検索を行うときに参照する情報である。ここで、図1に示した情報処理装置11の説明に戻る。シーン検索部27は、検索方法指示部26により指示された方法により、シーン記憶部25に記憶されている情報から、指示されたシーンが記憶されているか否かを判断する。
検索方法指示部26には、ユーザが所望のシーンを検索するときの情報が入力される。例えば、検索方法指示部26は、ユーザが操作し、情報を入力するための、例えばキーボードなどの操作部(不図示)を含む構成とされる。または、例えば、ネットワークと接続され、ネットワークを介して、ユーザからの指示を入力するためのインタフェース(不図示)を備える構成とされる。
ユーザにより入力される情報は、所望のシーンに含まれる画像や映像、所望のシーンを特定するためのキーワードなどである。また、所望のシーンの特徴、例えば、動きの激しいシーンであるとか、シーンに含まれる色などでも良い。
例えば、検索方法指示部26に、所定の画像が入力された場合、シーン検索部27は、その画像に完全に一致する画像を含むシーンや、類似する画像を含むシーンが、シーン記憶部25に記憶されているか否かを、シーン情報52を参照して判断する。よってこの場合、シーン情報52には、シーンに含まれる画像の特徴量など、所定の画像と一致(類似)するか否かを判断できる情報が含まれる。
また例えば、検索方法指示部26に、所定のキーワードが入力された場合、シーン検索部27は、そのキーワードに完全に一致するキーワードを含むシーンや、類語を含むシーンが、シーン記憶部25に記憶されているか否かを、シーン情報52を参照して判断する。よってこの場合、シーン情報52には、シーンに含まれるキーワードが、所定のキーワードと一致(類似)するか否かを判断できる情報が含まれる。
なおこの場合、シーンに含まれるキーワードとは、そのシーンにアノテーションされたキーワードや、そのシーンのクローズドキャプション(closed captioning)や、テロップなどである。また、シーン情報52には、このような文字認識で得られたテキスト情報が含まれる。
さらには、シーン情報52には、そのシーンの色や被写体の動きの激しさなどの情報も適宜含まれる。
すなわち、シーン記憶部25に記憶されるシーン情報52には、検索方法指示部26に、ユーザが指示として入力する情報で、シーン検索部27が検索できるような情報が含まれ、その情報には、人により付与された情報や、シーンを解析することにより付与された情報が含まれる。
シーン検索部27は、このように、ユーザからの指示に基づき、シーンを検索し、その検索結果を、検索結果集約部28に供給する。検索結果集約部28は、検索されたシーンを含むコンテンツを、検索結果としてユーザに提示するための処理を行う。シーン検索部27で検索されたシーンを、そのままユーザに提示した場合、ユーザ側では所望のシーンを得られることになるが、シーン単位の検索で得られる映像断片のみの結果では意味をなさないことがあり、必ずしも、ユーザにとって有意義な検索結果の提示であるとは限らない。
そこで、シーンを含むコンテンツを、ユーザに提示するようにする。検索されたシーンを含むコンテンツをユーザに提示することで、検索されたシーンの前後も提供されることになり、ユーザは、所望のシーンの前後を確認することができるようになる。換言すれば、ユーザに意味的に最もまとまりのある結果を、検索結果として提示することが可能となる。
検索結果集約部28による結果は、検索結果表示制御部29に供給される。検索結果表示制御部29は、検索結果集約部28からの検索結果(情報)を、表示装置12を制御してユーザに提示する。
ユーザが、表示装置12に表示されている検索結果から、再生させたい検索結果を指示した場合、再生指示部31により、指示された検索結果の再生が、再生表示制御部30に指示される。再生表示制御部30は、ユーザが再生を指示した検索結果を、検索結果表示制御部29からの情報に基づき特定し、その特定された検索結果のデータをシーン記憶部25から読み出し、その読み出したデータに基づき、表示装置12を制御して、ユーザが指示した検索結果の表示を制御する。
このような構成を有する情報処理装置11の動作について、図3と図4に示したフローチャートを参照してさらに説明を加える。
まず、図3に示したフローチャートを参照し、シーン記憶部25にシーン情報52が記憶されるまでの処理について説明する。ステップS11において、コンテンツ取得部21は、コンテンツデータ51を取得する。コンテンツデータ51は、接続されているユーザのパーソナルコンピュータなどのローカルな環境で保持されているコンテンツデータであったり、インターネットなどを介して取得されるコンテンツデータであったりする。また、インターネットなどを介して取得されるコンテンツデータは、コンテンツ共有システムなどで共有されているコンテンツデータであっても良い。
ステップS12において、取得されたコンテンツデータ51から、既に特徴量が抽出されているか否かが判断される。ステップS12において、既に特徴量が抽出されていると判断された場合、ステップS14に処理が進められ、まだ特徴量は抽出されていないと判断された場合、ステップS13に処理が進められる。
ステップS13において、特徴量抽出部22は、取得されたコンテンツデータ51から特徴量を抽出し、特徴量記憶部23に記憶させる。抽出される特徴量は、上述したように、後段のシーン抽出部24がシーンを抽出するときに用いる情報である。
ステップS14において、取得されたコンテンツデータ51に基づくコンテンツは、既にシーン抽出済であるか否かが判断される。ステップS14における処理を換言するならば、取得されたコンテンツデータ51から、既にシーン情報52が生成されているか否かが判断される処理である。ステップS14において、既にシーン抽出済であると判断された場合、シーン情報52を記憶するための処理は終了され、まだシーン抽出済ではないと判断された場合、ステップS15に処理が進められる。
ステップS15において、シーン抽出部24は、コンテンツデータ51に基づくコンテンツから、特徴量記憶部23に記憶されている特徴量を参照しながら、所定のシーンを抽出する。上述したように、シーン抽出部24は、例えば、所定のシーンの特徴量を管理しており、その管理している特徴量と特徴量記憶部23に記憶されている特徴量を比較しながら、所定のシーンを抽出する。
また、ユーザによりシーンが抽出されるようにしても良い。シーン抽出部24が行う抽出は、上記したように、予め検索対象として設定されているシーンが抽出されるが、その他に、ユーザが自己の好みでシーンを抽出することができるようにしても良い。
シーン抽出部24によりシーンが抽出された場合、シーン抽出部24は、シーン情報52を生成し、コンテンツデータ51と関連付けてシーン記憶部25に記憶させる。このような処理が行われることにより、図2に示したようなコンテンツデータ51とシーン情報52が関連付けられたデータベースが構築される。
次に、このようなデータベースが構築された後に行われるシーン抽出について、図4のフローチャートを参照して説明する。
ステップS31において、検索方法指示部26に、ユーザからの指示が供給される。上記したように、ユーザは、所望のシーンを検索したいとき、画像、映像、キーワード、特徴などを、検索したいシーンの情報として入力する。その入力された情報が、ステップS31において取得される。
ステップS32において、シーン検索部27は、検索方法指示部26が取得したユーザからの指示に合致するシーンを検索する。すなわち、シーン検索部27は、検索方法指示部26が取得したユーザからの指示を解析し、その解析結果と、一致(類似)するシーン情報52が、シーン記憶部24に記憶されているか否かを判断することにより、シーン検索を実行する。この検索は、シーン記憶部25に記憶されているシーン情報52の全て、または一部が対象とされる。シーン情報52が多い場合、検索時間がかかるため、予め何らかの方式により分類されたシーン情報52のみが、検索対象とされるようにしても良い。
シーン検索部27は、所定の閾値が設定されており、ユーザからの指示と所定のシーンの適合度が、設定されている閾値以上であるとき、適合するシーンであるとして抽出するようにしても良い。
ステップS33において、検索結果集約部28は、シーン検索部27で検索されたシーンを集約する。シーンを集約するのは、検索されたシーンを含むコンテンツをユーザ側に検索結果として提示するためである。複数のシーンが異なるコンテンツから検索された場合、複数のコンテンツがユーザ側に提示される。複数のコンテンツが提示される場合、複数のコンテンツをどのような順番で提示するかを決定する必要がある。ここで、その順番の決定の仕方について、図5を参照して説明する。
図5は、コンテンツに含まれるシーンの数や長さを例示した図である。図5において、コンテンツ1には、シーンA、シーンB、およびシーンCが含まれている。コンテンツ2には、シーンD、シーンE、シーンF、およびシーンGが含まれている。コンテンツ3には、シーンH、シーンI、シーンJ、シーンK、シーンL、シーンM、およびシーンNが含まれている。シーンA乃至シーンNは、それぞれ、シーン検索部27により検索結果として抽出されたシーンである。
図5において、図中横方向は、時間を示し、ここでは説明の都合上、コンテンツ1乃至3は、同じ長さのコンテンツであるとして図示してある。また、各シーンの図中横方向の長さは、シーンの長さを示している。
検索結果集約部28は、例えば、シーンAが検索結果として供給された場合、シーンAを含むコンテンツ1を、検索結果の候補として設定する。このように、検索結果集約部28は、供給されたシーンを含むコンテンツを検索結果の候補として設定する。また同様に、例えば、シーンDが検索結果として供給された場合、シーンDを含むコンテンツ2を、検索結果の候補として設定する。
また、検索結果集約部28は、例えば、シーンAとシーンDが検索結果として供給された場合、シーンAを含むコンテンツ1とシーンDを含むコンテンツ2を、検索結果の候補として設定する。このように複数のコンテンツが検索結果の候補として設定された場合、どちらのコンテンツをユーザ側に優先的に提示するかを決定する必要がある。検索結果集約部28は、所定のルールに基づき、提示するコンテンツの順番を設定する。
ルール1として、コンテンツに含まれるシーンの数により、順番が設定される。図5に示したような場合、コンテンツ1には、3つのシーンが含まれ、コンテンツ2には、4つのシーンが含まれ、コンテンツ3には、7つのシーンが含まれているので、ルール1に基づいて順番が設定される場合、コンテンツ3、コンテンツ2、コンテンツ1の順になる。そして、この順で、ユーザ側に提示される。
ルール2として、コンテンツに含まれる各シーンの長さが長い順に順番が設定される。図5に示したような場合、コンテンツ1に含まれるシーンCが最も長いシーンであるので、コンテンツ1が、順位1とされる。次に長いシーンは、シーンBであるが、シーンBは、コンテンツ1に含まれ、コンテンツ1は、順位1と既に設定されているので除外される。このようにして、同じコンテンツが重複してユーザに提示されないよう処理される。このようなルール2により順位が設定された場合、コンテンツ1、コンテンツ2、コンテンツ3の順になる。そして、この順で、ユーザ側に提示される。
ルール3として、コンテンツに含まれる各シーンの合計時間が長い順に順番が設定される。図5に示したような場合、各シーンの合計時間を算出したとき、コンテンツ1、コンテンツ3、コンテンツ2の順に合計時間が長いという結果が得られると、コンテンツ1、コンテンツ3、コンテンツ2の順に順位が設定される。そして、この順で、ユーザ側に提示される。
ルール4として、コンテンツに含まれる各シーンの合計時間が、各コンテンツに占める割合を算出し、その割合が高い順に順番が設定される。図5に示した例では、コンテンツ1乃至3の長さは同一であるとして説明しているが、実際には異なる場合が多い。よって、ルール3のように、コンテンツに含まれる各シーンの合計時間から、提示する順番を設定しても良いが、さらに合計時間がコンテンツに占める割合を算出し、その値が高い順に順位を設定するようにしても良い。ルール4により順位が設定された場合、仮に、図5に示すように、コンテンツ1乃至3の長さが同一であったようなときには、コンテンツ1、コンテンツ3、コンテンツ2の順に順位が設定される。そして、この順で、ユーザ側に提示される。
ルール5として、シーン検索部27で、シーンを検索するとき、適合度などの数値を算出しているような場合、その数値が用いられて順位が設定される。例えば、コンテンツに含まれる各シーンの適合度の合計値が高い順に、順位が設定されるようにしたり、適合度の高いシーンを含む順に、順位が設定されたりするようにしても良い。
ここでは、ルール1乃至5を例示したが、他のルールを設けても良い。また、検索結果集約部28が順位を設定するとき、ルール1乃至5のうちのいずれか1つのルールに基づいて順位を設定しても良いし、複数のルールを組み合わせて順位を設定するようにしても良い。
図4に示したフローチャートの説明に戻り、ステップS33において、検索結果が集約されると、ステップS34において、検索結果表示制御部29は、検索結果集約部28からの情報に基づき、表示装置12を制御し、検索結果をユーザ側に提示する。
このような処理が行われることで、ユーザに、ユーザが所望としたシーンを含むコンテンツが、ユーザにとって最も意味のある、まとまりのあるかたちで提示される。このような提示が行われることで、ユーザにシーン単位で検索が行われているにも関わらず、そのことを意識させることになく、検索結果を提示させることが可能となる。
シーン単位で検索することで、コンテンツそのものを検索の単位として検索するよりも、精度の高いコンテンツの検索サービスを提供できるようになるが、そのようなシーン単位で検索が行われていることをユーザに意識させずに、精度の高い検索サービスを提供することが可能となる。
ユーザは、表示装置12に表示されている検索結果を参照し、所望のコンテンツを再生させることができるように構成されている。このような場合、ステップS35において、再生が指示されたか否かが判断される。再生が指示された場合、再生指示部31により、ユーザからの指示が入力されるため、そのような入力があったか否かが判断されることにより、ステップS35の処理を実行することが可能である。
ステップS35において、再生の指示はなかったと判断された場合、例えば、ユーザにより新たな検索が指示された場合や、終了が指示された場合など、図4に示したフローチャートの処理は終了される。
一方、ステップS35において、再生が指示されたと判断された場合、ステップS36に処理が進められ、コンテンツの再生が実行される。まず、ユーザにより選択され、再生が指示されたコンテンツが特定される。再生指示部31は、ユーザからの再生の指示を受けた場合、再生表示制御部30に再生が指示されたことを通知し、再生が指示されたコンテンツを特定するための情報、例えば、再生が指示されたコンテンツ名(情報)が表示されていた表示装置12上の座標などの情報を供給する。
再生表示制御部30は、再生の指示がされたことに関する通知を受けると、供給された情報を基に、再生が指示されたコンテンツを特定する。例えば、供給された座標に関する情報と、検索結果表示制御部29からの情報を付き合わせることで、再生が指示されたコンテンツを特定する。
コンテンツが特定されると、再生表示制御部30は、特定されたコンテンツのコンテンツデータ51を、シーン記憶部25から読み出す。なお、シーン記憶部25にコンテンツデータ51そのものが記憶されている場合には、そのコンテンツデータ51が読み出されるが、コンテンツデータ51が、例えば、アドレスなどの情報であった場合、そのアドレスに基づき、インターネットなどを介してコンテンツデータが取得される。
再生表示制御部30は、取得したコンテンツデータ51に基づいて、表示装置12を制御し、ユーザが再生を所望したコンテンツを提供する。このようにして、ユーザが所望したコンテンツが提供される。
コンテンツが再生されるとき、そのコンテンツの最初から再生が開始されても良いし、例えば、ユーザの指示した位置から再生されるようにしても良い。また、検索された複数のシーンがダイジェストで再生されるなどの仕組みを設けても良い。
このように本発明によれば、シーン単位でコンテンツに付与された特徴量やアノテーションデータを用いて精度の高いシーン検索を行いつつ、その結果をユーザにとって最も意味的なまとまりのある映像コンテンツ単位で提示することが可能になる。結果として、ユーザにシーン単位で検索が行われていることを意識させない、精度の高い映像コンテンツ検索サービスを提供することが可能になる。
なお、上記した実施の形態においては、シーン記憶部25にシーン情報52が記憶された後、検索が行われるとして説明したが、検索が指示されたときに、コンテンツから特徴量が抽出され、シーンが抽出され、検索が行われるといった一例の処理が行われるようにしても良い。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図6は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータのハードウェアの構成の例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インターフェース105が接続されている。入出力インターフェース105には、キーボード、マウス、マイクロホンなどよりなる入力部1010、ディスプレイ、スピーカなどよりなる出力部107、ハードディスクや不揮発性のメモリなどよりなる記憶部108、ネットワークインタフェースなどよりなる通信部109、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどのリムーバブルメディア111を駆動するドライブ110が接続されている。
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インターフェース105およびバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU101)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア111に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア111をドライブ110に装着することにより、入出力インターフェース105を介して、記憶部108にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部109で受信し、記憶部108にインストールすることができる。その他、プログラムは、ROM102や記憶部108に、予めインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
本発明を適用した情報処理装置の一実施の形態の構成を示す図である。 シーン記憶部に記憶されているデータについて説明するための図である。 シーン情報の蓄積の処理について説明するためのフローチャートである。 シーン検索の処理について説明するためのフローチャートである。 検索結果の順位の設定の仕方について説明するための図である。 記録媒体について説明するための図である。
符号の説明
11 情報処理装置, 12 表示装置, 21 コンテンツ取得部, 22 特徴量抽出部, 23 特徴量記憶部, 24 シーン抽出部, 25 シーン記憶部, 26 検索方法指示部, 27 シーン検索部, 28 検索結果集約部, 29 検索結果表示制御部, 30 再生表示制御部, 31 再生指示部

Claims (8)

  1. コンテンツから特徴量を抽出する特徴抽出手段と、
    前記特徴量抽出手段により抽出された特徴量を用いて、前記コンテンツから所定のシーンを抽出する抽出手段と、
    コンテンツを検索するための情報を取得する取得手段と、
    前記取得手段で取得された前記情報に該当するシーンを、前記抽出手段で抽出されたシーンを対象とし、シーン単位で検索を行う検索手段と、
    前記検索手段により検索されたシーンを含むコンテンツを、検索結果として提示する提示手段と
    を備える情報処理装置。
  2. 前記提示手段は、複数のコンテンツを提示する場合、各コンテンツに含まれる前記検出手段で検出されたシーンの個数が多い順に順位を設定し、提示する
    請求項1に記載の情報処理装置。
  3. 前記提示手段は、複数のコンテンツを提示する場合、各コンテンツに含まれる前記検出手段で検出されたシーンの総合計時間が多い順に順位を設定し、提示する
    請求項1に記載の情報処理装置。
  4. 前記提示手段は、複数のコンテンツを提示する場合、各コンテンツに含まれる前記検出手段で検出されたシーンの総合計時間の前記コンテンツに占める割合が高い順に順位を設定し、提示する
    請求項1に記載の情報処理装置。
  5. 前記提示手段は、複数のコンテンツを提示する場合、各コンテンツに含まれる前記検出手段で検出されたシーンの適合度が高い順に順位を設定し、提示する
    請求項1に記載の情報処理装置。
  6. コンテンツから特徴量を抽出し、
    抽出された特徴量を用いて、前記コンテンツから所定のシーンを抽出し、
    コンテンツを検索するための情報を取得し、
    取得された前記情報に該当するシーンを、抽出されたシーンを対象とし、シーン単位で検索を行い、
    検索されたシーンを含むコンテンツを、検索結果として提示する
    ステップを含む情報処理方法。
  7. コンテンツから特徴量を抽出し、
    抽出された特徴量を用いて、前記コンテンツから所定のシーンを抽出し、
    コンテンツを検索するための情報を取得し、
    取得された前記情報に該当するシーンを、抽出されたシーンを対象とし、シーン単位で検索を行い、
    検索されたシーンを含むコンテンツを、検索結果として提示する
    ステップを含む処理をコンピュータに実行させるプログラム。
  8. コンテンツから特徴量を抽出し、
    抽出された特徴量を用いて、前記コンテンツから所定のシーンを抽出し、
    コンテンツを検索するための情報を取得し、
    取得された前記情報に該当するシーンを、抽出されたシーンを対象とし、シーン単位で検索を行い、
    検索されたシーンを含むコンテンツを、検索結果として提示する
    ステップを含むコンピュータが読み取り可能なプログラムが記録されている記録媒体。
JP2007257117A 2007-10-01 2007-10-01 情報処理装置および方法、プログラム、並びに記録媒体 Expired - Fee Related JP5286732B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007257117A JP5286732B2 (ja) 2007-10-01 2007-10-01 情報処理装置および方法、プログラム、並びに記録媒体
US12/240,198 US8713008B2 (en) 2007-10-01 2008-09-29 Apparatus and method for information processing, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007257117A JP5286732B2 (ja) 2007-10-01 2007-10-01 情報処理装置および方法、プログラム、並びに記録媒体

Publications (2)

Publication Number Publication Date
JP2009087113A true JP2009087113A (ja) 2009-04-23
JP5286732B2 JP5286732B2 (ja) 2013-09-11

Family

ID=40509498

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007257117A Expired - Fee Related JP5286732B2 (ja) 2007-10-01 2007-10-01 情報処理装置および方法、プログラム、並びに記録媒体

Country Status (2)

Country Link
US (1) US8713008B2 (ja)
JP (1) JP5286732B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10297287B2 (en) 2013-10-21 2019-05-21 Thuuz, Inc. Dynamic media recording
US9583149B2 (en) * 2014-04-23 2017-02-28 Daniel Stieglitz Automated video logging methods and systems
US10433030B2 (en) 2014-10-09 2019-10-01 Thuuz, Inc. Generating a customized highlight sequence depicting multiple events
US10536758B2 (en) 2014-10-09 2020-01-14 Thuuz, Inc. Customized generation of highlight show with narrative component
US11863848B1 (en) 2014-10-09 2024-01-02 Stats Llc User interface for interaction with customized highlight shows
US10419830B2 (en) 2014-10-09 2019-09-17 Thuuz, Inc. Generating a customized highlight sequence depicting an event
US11594028B2 (en) 2018-05-18 2023-02-28 Stats Llc Video processing for enabling sports highlights generation
US11025985B2 (en) 2018-06-05 2021-06-01 Stats Llc Audio processing for detecting occurrences of crowd noise in sporting event television programming
US11264048B1 (en) 2018-06-05 2022-03-01 Stats Llc Audio processing for detecting occurrences of loud sound characterized by brief audio bursts

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002041541A (ja) * 2000-05-19 2002-02-08 Jisedai Joho Hoso System Kenkyusho:Kk 映像検索装置
JP2002055695A (ja) * 2000-08-08 2002-02-20 Alpine Electronics Inc 音楽検索システム
JP2002152669A (ja) * 2000-11-09 2002-05-24 Minolta Co Ltd 動画処理装置、動画処理方法、および記録媒体
JP2005064561A (ja) * 2003-08-11 2005-03-10 Hitachi Ltd 映像再生方法およびシステム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3007689B2 (ja) * 1995-10-09 2000-02-07 松下電器産業株式会社 国毎に異なるレーティングシステムに対応する再生装置、再生方法
JP3780623B2 (ja) * 1997-05-16 2006-05-31 株式会社日立製作所 動画像の記述方法
US6735253B1 (en) * 1997-05-16 2004-05-11 The Trustees Of Columbia University In The City Of New York Methods and architecture for indexing and editing compressed video over the world wide web
US6137544A (en) * 1997-06-02 2000-10-24 Philips Electronics North America Corporation Significant scene detection and frame filtering for a visual indexing system
US6389168B2 (en) * 1998-10-13 2002-05-14 Hewlett Packard Co Object-based parsing and indexing of compressed video streams
JP3738631B2 (ja) * 1999-09-27 2006-01-25 三菱電機株式会社 画像検索システムおよび画像検索方法
US7298520B2 (en) * 2000-08-17 2007-11-20 Dai Nippon Printing Co., Ltd. Image printing system
NO318686B1 (no) * 2002-09-27 2005-04-25 Gridmedia Technologies As Multimedia-filformat
JP4166707B2 (ja) * 2004-01-20 2008-10-15 パイオニア株式会社 映像内容認識装置、録画装置、映像内容認識方法、録画方法、映像内容認識プログラム、および録画プログラム
US7751483B1 (en) * 2004-04-16 2010-07-06 Majesco Entertainment Company Video codec for embedded handheld devices
JP2007115293A (ja) * 2005-10-17 2007-05-10 Toshiba Corp 情報記憶媒体、プログラム、情報再生方法、情報再生装置、データ転送方法、及びデータ処理方法
KR100729660B1 (ko) * 2005-12-09 2007-06-18 한국전자통신연구원 장면 전환 길이를 이용한 디지털 비디오 인식 시스템 및 방법
US20080208791A1 (en) * 2007-02-27 2008-08-28 Madirakshi Das Retrieving images based on an example image
US8238719B2 (en) * 2007-05-08 2012-08-07 Cyberlink Corp. Method for processing a sports video and apparatus thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002041541A (ja) * 2000-05-19 2002-02-08 Jisedai Joho Hoso System Kenkyusho:Kk 映像検索装置
JP2002055695A (ja) * 2000-08-08 2002-02-20 Alpine Electronics Inc 音楽検索システム
JP2002152669A (ja) * 2000-11-09 2002-05-24 Minolta Co Ltd 動画処理装置、動画処理方法、および記録媒体
JP2005064561A (ja) * 2003-08-11 2005-03-10 Hitachi Ltd 映像再生方法およびシステム

Also Published As

Publication number Publication date
US20090089242A1 (en) 2009-04-02
US8713008B2 (en) 2014-04-29
JP5286732B2 (ja) 2013-09-11

Similar Documents

Publication Publication Date Title
JP5286732B2 (ja) 情報処理装置および方法、プログラム、並びに記録媒体
US20200322684A1 (en) Video recommendation method and apparatus
US11748408B2 (en) Analyzing user searches of verbal media content
US8737817B1 (en) Music soundtrack recommendation engine for videos
US7487524B2 (en) Method and apparatus for presenting content of images
JP2009181216A (ja) 電子機器および画像処理方法
US20090189911A1 (en) Display device, display method, and program
US8612384B2 (en) Methods and apparatus for searching and accessing multimedia content
US20120066235A1 (en) Content processing device
JP5894149B2 (ja) Top−k処理を活用した意味の充実
US20100169178A1 (en) Advertising Method for Image Search
JPWO2007091587A1 (ja) 代表画像又は代表画像群の表示システム、その方法、およびそのプログラム並びに、代表画像又は代表画像群の選択システム、その方法およびそのプログラム
US20210117471A1 (en) Method and system for automatically generating a video from an online product representation
JP6492849B2 (ja) ユーザプロファイル作成装置、動画像分析装置、動画像再生装置、及びユーザプロファイル作成プログラム
JP2004274768A (ja) 注釈付きビデオファイルを生成する方法
JP4734048B2 (ja) 情報検索装置、情報検索方法および情報検索プログラム
KR20090020005A (ko) 영상 정보 기반의 동영상 연관 검색 시스템 및 방법
JP5376442B2 (ja) 動画配信サービスのクライアント端末及びコンピュータプログラム
US9361941B2 (en) Method and systems for arranging a media object in a media timeline
JP2006217046A (ja) 映像インデックス画像生成装置及び映像のインデックス画像を生成するプログラム
KR101640317B1 (ko) 오디오 및 비디오 데이터를 포함하는 영상의 저장 및 검색 장치와 저장 및 검색 방법
JP5025398B2 (ja) 画像再生装置、及びプログラム
WO2014103374A1 (ja) 情報管理装置、サーバ及び制御方法
US20140189769A1 (en) Information management device, server, and control method
JP2005236546A (ja) 部分コンテンツ作成方法及び装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120719

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130520

LAPS Cancellation because of no payment of annual fees