JP2014238712A - コンテンツ分析装置、コンテンツ分析方法及びコンテンツ分析プログラム - Google Patents
コンテンツ分析装置、コンテンツ分析方法及びコンテンツ分析プログラム Download PDFInfo
- Publication number
- JP2014238712A JP2014238712A JP2013120984A JP2013120984A JP2014238712A JP 2014238712 A JP2014238712 A JP 2014238712A JP 2013120984 A JP2013120984 A JP 2013120984A JP 2013120984 A JP2013120984 A JP 2013120984A JP 2014238712 A JP2014238712 A JP 2014238712A
- Authority
- JP
- Japan
- Prior art keywords
- performer
- face image
- database
- unit
- appearance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 79
- 238000010276 construction Methods 0.000 claims abstract description 66
- 238000001514 detection method Methods 0.000 claims abstract description 46
- 238000010586 diagram Methods 0.000 claims description 45
- 238000000034 method Methods 0.000 claims description 44
- 238000004364 calculation method Methods 0.000 claims description 30
- 238000004590 computer program Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 31
- 230000006870 function Effects 0.000 description 9
- 239000004065 semiconductor Substances 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 3
- 239000008280 blood Substances 0.000 description 3
- 210000004369 blood Anatomy 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- LFYJSSARVMHQJB-QIXNEVBVSA-N bakuchiol Chemical compound CC(C)=CCC[C@@](C)(C=C)\C=C\C1=CC=C(O)C=C1 LFYJSSARVMHQJB-QIXNEVBVSA-N 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【解決手段】顔画像データベース4から顔画像検出部2により検出された出演者の顔画像と一致する顔画像に対応する出演者のタレントIDを取得する顔画像照合部5と、顔画像検出部4により出演者の顔画像が検出されたフレームの再生時刻から前記出演者の出演時間を特定する出演時間特定部6とを設け、出演者データベース構築部7が、顔画像照合部5により取得された出演者のタレントIDと出演時間特定部6により特定された出演者の出演時間とを紐付けて、出演者別の出演時間帯Tzを示す出演者データベース8を構築する。
【選択図】図1
Description
また、映像コンテンツにおける各シーンの概要を把握することができるようにするために、その映像コンテンツを分析して、その映像コンテンツの各シーンの代表的なサムネイル画像を表示するコンテンツ分析装置も開発されている。
以下の特許文献1,2には、映像コンテンツに登場している各出演者の顔画像を抽出して、各出演者の顔画像をリスト表示するコンテンツ分析装置が開示されている。
なお、ユーザが映像コンテンツの早送り操作や、映像コンテンツの倍速再生操作などを行えば、当該出演者が登場しているシーンの再生を始めるまでの時間を短縮することができるが、面倒な操作をユーザに強いることになり、また、当該出演者が登場しているシーンを通り越してしまって、当該シーンを見逃してしまうことがある課題があった。
図1はこの発明の実施の形態1によるコンテンツ分析装置を示す構成図である。
図1において、コンテンツ記憶部1は例えばRAMやハードディスクなどの記憶装置から構成されており、例えば、録画済みの映像コンテンツや現在放送中の映像コンテンツなどを記憶する。
顔画像検出部2は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、コンテンツ記憶部1により記憶されている映像コンテンツを構成している各々のフレームから、その映像コンテンツに登場している出演者の顔画像を検出する処理を実施する。なお、顔画像検出部2は顔画像検出手段を構成している。
顔画像データベース4は例えばRAMやハードディスクなどの記憶装置から構成されており、出演者のタレントID、タレント名及び顔画像の対応関係を記憶している。
出演時間特定部6は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、顔画像検出部2により出演者の顔画像が検出されたフレームの再生時刻から前記出演者の出演時間を特定する処理を実施する。なお、出演時間特定部6は出演時間特定手段を構成している。
出演者データベース8は例えばRAMやハードディスクなどの記憶装置から構成されており、出演者別の出演時間帯を記憶している。
コンテンツ分析装置がコンピュータで構成されている場合、コンテンツ記憶部1、顔画像データベース4及び出演者データベース8をコンピュータの内部メモリ又は外部メモリ上に構成するとともに、顔画像検出部2、出演者情報収集部3、顔画像照合部5、出演時間特定部6、出演者データベース構築部7、重要度判定部9及び操作UI表示部10の処理内容を記述しているコンテンツ分析プログラムをコンピュータのメモリに格納して、当該コンピュータの演算制御部であるCPUが当該メモリに格納されているコンテンツ分析プログラムを実行するようにすればよい。
図2はこの発明の実施の形態1によるコンテンツ分析装置の処理内容(コンテンツ分析方法)を示すフローチャートである。
まず、出演者情報収集部3は、例えば、外部ネットワーク上のサーバに対して定期的にアクセスして、そのサーバから出演者の識別情報であるタレントID、タレント名(出演者名)及び顔画像を収集する。
外部ネットワーク上のサーバとしては、例えば、タレント名鑑などを管理している会社のサーバなどが考えられるが、出演者のタレントID、タレント名及び顔画像を配信する機能を備えているサーバであれば、いかなるものでもよい。
出演者情報収集部3は、サーバから出演者のタレントID、タレント名及び顔画像を収集する毎に、出演者のタレントID、タレント名及び顔画像が対応付けられている顔画像データベース4を最新の状態に更新する。
ここで、図3は顔画像データベース4の構築例を示す説明図であり、図3の例では、タレントID、タレント名、顔画像及び重要度(後述する)の対応関係が記録されている。
映像コンテンツを構成している各々のフレームから、出演者の顔画像を検出する処理自体は公知の技術であるため詳細な説明を省略する。
顔画像の照合処理自体は公知の技術であるため詳細な説明を省略するが、例えば、照合対象の顔画像の特徴点をそれぞれ抽出し、特徴点が一致している数が所定数以上であれば、2つの顔画像が一致していると判断する手法などが考えられる。
顔画像照合部5は、顔画像検出部2から出力された出演者の顔画像と一致している顔画像が顔画像データベース4内に登録されていれば(ステップST3)、その顔画像データベース4から前記顔画像に対応する出演者のタレントIDを取得し、そのタレントIDを出演者データベース構築部7に出力する(ステップST4)。
例えば、顔画像検出部2により出演者の顔画像が検出されたフレームが、先頭から第K番目のフレームである場合、第K番目のフレームの再生時刻tK(先頭のフレームの再生時刻を“0”とする相対的な時刻)を出演者の出演時間として特定する。なお、各フレームの再生時刻は、映像コンテンツの再生速度から特定することができる。
ここで、図4は出演者データベース8の構築例を示す説明図である。
図4では、タレントID「0001」の出演者の出演時間帯と、タレントID「0002」の出演者の出演時間帯とを例示している。
例えば、タレントID「0002」の出演者の顔画像が検出されているフレームの再生時刻が“00:00:33”〜“00:00:57”の間連続しているため、タレントID「0002」の出演者の出演時間帯Tzとして、出演開始時刻が“00:00:33”で、出演終了時刻が“00:00:57”であるとしている。
図4の例では、タレントID「0001」の出演者の合計出演時間Tzall−1は3分29秒(=57秒+2分32秒)、タレントID「0002」の出演者の合計出演時間Tzall−2は0分25秒である。
重要度判定部9は、出演者別の合計出演時間Tzallを算出すると、出演者別の合計出演時間Tzallを比較して、各出演者の重要度を判定する(ステップST8)。即ち、合計出演時間Tzallが長い出演者ほど、重要な出演者であると認定して、各出演者の重要度を判定する。
図4の例では、タレントID「0001」の出演者の重要度が、タレントID「0002」の出演者の重要度より高いと判定される。
ただし、操作UI表示部10は、出演者別の出演時間帯Tzを示す出演時間帯画面を生成する際、例えば、重要度判定部9により判定された重要度が高い出演者の出演時間帯Tzを画面手前側に配置することで、重要度が高い出演者の出演時間帯Tzが目立つように出演時間帯画面を生成する。
ここで、図5は出演時間帯画面の表示例を示す説明図である。
図5では、出演者の重要度が、出演者A(重要度1)>出演者C(重要度2)>出演者B(重要度3)>出演者D(重要度4)である例を示しており、このため、画面手前側から出演者Aの出演時間帯、出演者Cの出演時間帯、出演者Bの出演時間帯、出演者Dの出演時間帯が配置されている。
この場合、顔画像照合部5が、図示せぬLANインタフェースを用いて、顔画像データベース4にアクセスするようにすればよい。
また、出演者データベース構築部7は、顔画像照合部5の照合結果に基づいて、顔画像検出部2により検出された出演者の顔画像と出演時間特定部6により特定された出演者の出演時間とを紐付けて、出演者別の出演時間帯を示す出演者データベースを構築するように構成してもよい。
例えば、顔画像データベース4は、映像コンテンツを構成している各々のフレームから抽出された顔画像を格納するように構成され、顔画像照合部5は、顔画像データベース4に格納された映像コンテンツを構成している各々のフレームから抽出された顔画像と、現在のフレームから抽出された出演者の顔画像とを照合する。そして、出演者データベース構築部7は、顔画像照合部5の照合結果に基づいて、顔画像検出部2により検出された出演者の顔画像と出演時間特定部6により特定された出演者の出演時間とを紐付けて、出演者別の出演時間帯を示す出演者データベースを構築する。
図6はこの発明の実施の形態2によるコンテンツ分析装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
関連度算出部11は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、出演者データベース構築部7により構築された出演者データベース8を参照して、各々の出演者間の共演時間を特定し、その共演時間から各々の出演者間の関連度を算出する処理を実施する。なお、関連度算出部11は関連度算出手段を構成している。
関連度データベース12は例えばRAMやハードディスクなどの記憶装置から構成されており、関連度算出部11により算出された各々の出演者間の関連度を記憶する。
コンテンツ分析装置がコンピュータで構成されている場合、コンテンツ記憶部1、顔画像データベース4、出演者データベース8及び関連度データベース12をコンピュータの内部メモリ又は外部メモリ上に構成するとともに、顔画像検出部2、出演者情報収集部3、顔画像照合部5、出演時間特定部6、出演者データベース構築部7、重要度判定部9、関連度算出部11及び操作UI表示部13の処理内容を記述しているコンテンツ分析プログラムをコンピュータのメモリに格納して、当該コンピュータの演算制御部であるCPUが当該メモリに格納されているコンテンツ分析プログラムを実行するようにすればよい。
ただし、関連度算出部11、関連度データベース12及び操作UI表示部13以外は、上記実施の形態1と同様であるため、ここでは、関連度算出部11、関連度データベース12及び操作UI表示部13の処理内容だけを説明する。
即ち、関連度算出部11は、各々の出演者の出演時間が重複している時間を共演時間Tcoとして特定する。
図4の例では、タレントID「0001」の出演者の出演時間帯“00:00:01”〜“00:00:57”のうち、出演時間帯“00:00:33”〜“00:00:57”が、タレントID「0002」の出演者の出演時間帯“00:00:33”〜“00:00:57”と重複しているので、タレントID「0001」の出演者とタレントID「0002」の出演者間の共演時間は、0分25秒になる。
各々の出演者間の関連度Asは、例えば、下記の式(1)に示すように算出する。
式(1)において、Ttotalは映像コンテンツ全体の再生時間である。
図7は関連度データベース12により記憶されている出演者間の関連度Asの一例を示す説明図である。
また、操作UI表示部13は、外部装置から任意の出演者に関する相関図の表示を指示するユーザの操作信号を受けると、関連度データベース12により記憶されている各々の出演者間の関連度Asを参照して、その出演者に関する相関図(出演者間の関連度Asを示す相関図)を生成し、その相関図をディスプレイに表示する。
図8の例では、出演者Aに関する相関図が表示されており、出演者Aに対する関連度が高い出演者ほど、出演者Aと近い位置に表示されている。
因みに、図8の例では、出演者Aに対する関連度が、出演者H>出演者G>出演者B>出演者D>出演者C>出演者F>出演者Eであるため、出演者Hの顔画像が出演者Aの顔画像と最も近い位置に表示され、出演者Eの顔画像が出演者Aの顔画像と最も遠い位置に表示されている。
また、出演者Aに対する関連度が高い出演者ほど、出演者Aと結んでいる線が太くなっている。
図9はこの発明の実施の形態3によるコンテンツ分析装置を示す構成図であり、図において、図6と同一符号は同一または相当部分を示すので説明を省略する。
操作UI表示部14はユーザインタフェース、GPU及びディスプレイなどから構成されており、図6の操作UI表示部13と同様に、出演者別の出演時間帯を示す出演時間帯画面を表示する処理や、各々の出演者間の関連度を示す相関図を表示する処理を実施する他に、映像コンテンツに登場している出演者の中から、任意の出演者の選択を受け付けて、その出演者のタレントIDを出力する処理を実施する。なお、操作UI表示部14は画面表示手段及び出演者選択受付手段を構成している。
コンテンツ分析装置がコンピュータで構成されている場合、コンテンツ記憶部1、顔画像データベース4、出演者データベース8及び関連度データベース12をコンピュータの内部メモリ又は外部メモリ上に構成するとともに、顔画像検出部2、出演者情報収集部3、顔画像照合部5、出演時間特定部6、出演者データベース構築部7、重要度判定部9、関連度算出部11、操作UI表示部14及びコンテンツ再生部15の処理内容を記述しているコンテンツ分析プログラムをコンピュータのメモリに格納して、当該コンピュータの演算制御部であるCPUが当該メモリに格納されているコンテンツ分析プログラムを実行するようにすればよい。
ただし、操作UI表示部14及びコンテンツ再生部15以外は、上記実施の形態2と同様であるため、ここでは、操作UI表示部14及びコンテンツ再生部15の処理内容だけを説明する。
図4の例では、タレントIDが「0001」であれば、出演時間帯が“00:00:01”〜“00:00:57”と“00:01:32”〜“00:04:03”であると特定される。
コンテンツ再生部15は、タレントIDが示す出演者の出演時間帯を特定すると、コンテンツ記憶部1により記憶されている映像コンテンツを構成しているフレームのうち、その出演時間帯に対応するフレームを再生する。
なお、映像コンテンツの再生中は、出演時間帯画面や相関図を非表示にして、映像コンテンツの再生画面だけをディスプレイに表示するようにしてもよいが、ディスプレイを分割して、映像コンテンツの再生画面と一緒に出演時間帯画面や相関図をディスプレイに表示するようにしてもよい。
この場合、コンテンツ再生部15は、操作UI表示部14から複数の出演者のタレントIDを受けると、出演者データベース構築部7により構築された出演者データベース8を参照して、複数のタレントIDが示す出演者の出演時間から共演時間帯を特定し、映像コンテンツを構成しているフレームのうち、その共演時間帯に対応するフレームを再生する。
図4の例では、タレントID「0001」とタレントID「0002」が出力された場合、共演時間帯が“00:00:33”〜“00:00:57”であると特定される。
これにより、ユーザが所望の共演者を指定して、所望の共演者が登場しているシーンだけを視聴することができる効果を奏する。
図10はこの発明の実施の形態4によるコンテンツ分析装置を示す構成図であり、図において、図9と同一符号は同一または相当部分を示すので説明を省略する。
出演者情報収集部21は例えばインターネットなどの外部ネットワークに対するインタフェース機器(例えば、無線通信装置、ケーブルモデムなど)を実装しており、図1の出演者情報収集部3と同様に、外部ネットワーク上のサーバから、出演者の識別情報であるタレントID、タレント名及び顔画像を収集して、出演者のタレントID、タレント名及び顔画像が対応付けられている顔画像データベース4を構築する処理を実施する他に、外部ネットワーク上のサーバから、出演者の属性情報(例えば、生年月日、血液型、出身地など)を収集して、出演者のタレントIDと属性情報が対応付けられている属性情報データベース22を構築する処理を実施する。
属性情報データベース22は例えばRAMやハードディスクなどの記憶装置から構成されており、出演者のタレントIDと属性情報の対応関係を記憶している。
この実施の形態4では、顔画像データベース4と属性情報データベース22が別々のデータベースである例を説明するが、顔画像データベース4と属性情報データベース22が統合されている1つのデータベースであってもよい。
コンテンツ分析装置がコンピュータで構成されている場合、コンテンツ記憶部1、顔画像データベース4、出演者データベース8、関連度データベース12及び属性情報データベース22をコンピュータの内部メモリ又は外部メモリ上に構成するとともに、顔画像検出部2、出演者情報収集部21、顔画像照合部5、出演時間特定部6、出演者データベース構築部7、重要度判定部9、関連度算出部11、操作UI表示部23及びコンテンツ再生部15の処理内容を記述しているコンテンツ分析プログラムをコンピュータのメモリに格納して、当該コンピュータの演算制御部であるCPUが当該メモリに格納されているコンテンツ分析プログラムを実行するようにすればよい。
出演者情報収集部21、属性情報データベース22及び操作UI表示部23以外は、上記実施の形態3と同様であるため、ここでは、出演者情報収集部21、属性情報データベース22及び操作UI表示部23の処理内容だけを説明する。
また、出演者情報収集部21は、そのサーバから出演者の属性情報を収集する。
出演者情報収集部21は、サーバから出演者のタレントID、タレント名、顔画像及び属性情報を収集する毎に、出演者のタレントID、タレント名及び顔画像が対応付けられている顔画像データベース4を最新の状態に更新する。
また、出演者情報収集部21は、出演者のタレントID、タレント名及び属性情報が対応付けられている属性情報データベース22を最新の状態に更新する。
ここで、図11は属性情報データベース22により記憶されている属性情報の一例を示す説明図である。
図11の例では、出演者の属性情報として、生年月日、血液型、出身地を記録しているが、これは一例に過ぎず、例えば、主な出演作品や受賞歴などの属性情報を記録するようにしてもよい。
図11の例では、タレントIDが「0003」であれば、タレント名「佐□三郎」の生年月日(1998年5月6日)、血液型(O型)、出身地(千葉)をディスプレイに表示する。
図12はこの発明の実施の形態5によるコンテンツ分析装置を示す構成図であり、図において、図10と同一符号は同一または相当部分を示すので説明を省略する。
出演者情報収集部24は例えばインターネットなどの外部ネットワークに対するインタフェース機器(例えば、無線通信装置、ケーブルモデムなど)を実装しており、図10の出演者情報収集部21と同様の処理を実施するほかに、出演者のタレントIDと、その出演者が出演している映像コンテンツを示す出演情報とが対応付けられている出演情報データベース25を構築する処理を実施する。
出演情報データベース25は例えばRAMやハードディスクなどの記憶装置から構成されており、出演者のタレントIDと出演情報の対応関係を記憶している。
また、操作UI表示部26は出演者データベース構築部7により構築された出演者データベース8を参照して、選択を受け付けた出演者のタレントIDが示す出演時間帯を特定し、映像コンテンツにおける前記出演時間帯のフレームの一覧を表示する処理を実施する。なお、操作UI表示部26は画面表示手段、出演者選択受付手段、属性情報表示手段及び一覧表示手段を構成している。
コンテンツ分析装置がコンピュータで構成されている場合、コンテンツ記憶部1、顔画像データベース4、出演者データベース8、関連度データベース12、属性情報データベース22及び出演情報データベース25をコンピュータの内部メモリ又は外部メモリ上に構成するとともに、顔画像検出部2、出演者情報収集部24、顔画像照合部5、出演時間特定部6、出演者データベース構築部7、重要度判定部9、関連度算出部11、操作UI表示部26及びコンテンツ再生部15の処理内容を記述しているコンテンツ分析プログラムをコンピュータのメモリに格納して、当該コンピュータの演算制御部であるCPUが当該メモリに格納されているコンテンツ分析プログラムを実行するようにすればよい。
出演者情報収集部24、出演情報データベース25及び操作UI表示部26以外は、上記実施の形態4と同様であるため、ここでは、出演者情報収集部24、出演情報データベース25及び操作UI表示部26の処理内容だけを説明する。
出演者情報収集部24は、サーバから出演者のタレントID及び出演情報を収集する毎に、出演者のタレントIDと出演情報が対応付けられている出演情報データベース25を最新の状態に更新する。
ここで、図13は出演情報データベース25により記憶されている出演情報の一例を示す説明図である。
図13の例では、タレントIDが「0002」であれば、出演情報として、映画X、バラエティC、ドラマBを一覧表示する。
図4の例では、タレントIDが「0001」であれば、出演時間帯が“00:00:01”〜“00:00:57”におけるフレームの代表的なシーン(サムネイル画像)と、“00:01:32”〜“00:04:03”におけるフレームの代表的なシーン(サムネイル画像)とをディスプレイに表示する。
また、操作UI表示部26が、出演者データベース構築部7により構築された出演者データベース8を参照して、選択を受け付けた出演者のタレントIDが示す出演時間帯を特定し、映像コンテンツにおける前記出演時間帯のフレームの一覧を表示するように構成したので、所望の出演者における各出演時間帯の内容を把握することができる効果を奏する。
操作UI表示部26は、複数の出演者の選択を受け付けると、出演情報データベース25の中から、複数の出演者が共演している出演情報を取得して、その出演情報が示す映像コンテンツの一覧をディスプレイに表示する。
図13の例では、タレントIDが「0001」と「0002」であれば、共演している出演情報として、映画Xを一覧表示する。
図4の例では、タレントIDが「0001」と「0002」であれば、共演時間帯が“00:00:33”〜“00:00:57”であるため、“00:00:33”〜“00:00:57”におけるフレームの代表的なシーン(サムネイル画像)をディスプレイに表示する。
上記実施の形態1〜5では、操作UI表示部10(または、操作UI表示部13,14,23,26)がコンテンツ分析装置に実装されており、操作UI表示部10等が、出演時間帯画面等をディスプレイに表示するものを示したが、出演時間帯画面等の画面データを外部装置(例えば、スマートフォン、タブレットなど)に送信して、外部装置が出演時間帯画面等を表示するようにしてもよい。
外部装置31は例えばスマートフォンやタブレットなどの装置であり、赤外線やブルートゥース(Bluetooth:登録商標/以下、省略して記載)などの無線機能を用いて、コンテンツ分析装置と各種の操作信号や画面データを送受信する。
画面データ出力部32は赤外線やブルートゥースなどの無線機能を備えており、図12の操作UI表示部26と同様に、出演時間帯画面の生成処理、相関図の生成処理、映像コンテンツの再生処理、出演者の属性情報の取得処理及び出演情報の取得処理を実施するほか、外部装置31からの要求に応じて、出演時間帯画面、相関図及び映像コンテンツの画面データや、出演者の属性情報及び出演情報を外部装置31に送信する処理を実施する。なお、画面データ出力部32は画面データ出力手段を構成している。
コンテンツ分析装置がコンピュータで構成されている場合、コンテンツ記憶部1、顔画像データベース4、出演者データベース8、関連度データベース12、属性情報データベース22及び出演情報データベース25をコンピュータの内部メモリ又は外部メモリ上に構成するとともに、顔画像検出部2、出演者情報収集部24、顔画像照合部5、出演時間特定部6、出演者データベース構築部7、重要度判定部9、関連度算出部11、コンテンツ再生部15及び画面データ出力部32の処理内容を記述しているコンテンツ分析プログラムをコンピュータのメモリに格納して、当該コンピュータの演算制御部であるCPUが当該メモリに格納されているコンテンツ分析プログラムを実行するようにすればよい。
外部装置31及び画面データ出力部32以外は、上記実施の形態5と同様であるため、ここでは、外部装置31及び画面データ出力部32の処理内容だけを説明する。
この実施の形態6のコンテンツ分析装置は、上記実施の形態1〜5と異なり、出演時間帯画面等の画面データを外部装置31に送信して、外部装置31が出演時間帯画面等を表示するものである。
画面データ出力部32は、外部装置31から出演時間帯画面の送信要求を受信すると、その出演時間帯画面の画面データを外部装置31に送信し、外部装置31から相関図の送信要求を受信すると、その相関図の画面データを外部装置31に送信し、外部装置31から映像コンテンツの再生画面の送信要求を受信すると、その再生画面の画面データを外部装置31に送信する。
また、画面データ出力部32は、外部装置31から出演者の属性情報の送信要求を受信すると、その属性情報を外部装置31に送信し、外部装置31から出演情報の送信要求を受信すると、その出演情報を外部装置31に送信する。
また、外部装置31は、画面データ出力部32から送信された出演者の属性情報を自己のディスプレイに表示し、画面データ出力部32から送信された出演者の出演情報を自己のディスプレイに表示する。
これにより、上記実施の形態5と同様の効果を得ることができる。
上記実施の形態6では、画面データ出力部32が画面データ等を外部装置31に送信するものを示したが、外部装置31からデータベースの参照要求を受信すると、データベースの参照を受け付けるだけで、特に出演時間帯画面の生成処理等を実施せずに、外部装置31が、図12の操作UI表示部26と同様の機能を備えて、出演時間帯画面の生成処理等を実施するようにしてもよい。
参照受付部33は赤外線やブルートゥースなどの無線機能を備えており、外部装置31からデータベース(コンテンツ記憶部1、出演者データベース8、関連度データベース12、属性情報データベース22、出演情報データベース25)の参照要求を受信すると、データベースの参照を受け付ける処理を実施する。なお、参照受付部33は参照受付手段を構成している。
コンテンツ分析装置がコンピュータで構成されている場合、コンテンツ記憶部1、顔画像データベース4、出演者データベース8、関連度データベース12、属性情報データベース22及び出演情報データベース25をコンピュータの内部メモリ又は外部メモリ上に構成するとともに、顔画像検出部2、出演者情報収集部24、顔画像照合部5、出演時間特定部6、出演者データベース構築部7、重要度判定部9、関連度算出部11、コンテンツ再生部15及び参照受付部33の処理内容を記述しているコンテンツ分析プログラムをコンピュータのメモリに格納して、当該コンピュータの演算制御部であるCPUが当該メモリに格納されているコンテンツ分析プログラムを実行するようにすればよい。
外部装置31及び参照受付部33以外は、上記実施の形態5と同様であるため、ここでは、外部装置31及び参照受付部33の処理内容だけを説明する。
この実施の形態7のコンテンツ分析装置は、上記実施の形態1〜5と異なり、出演時間帯画面の生成処理等を実施せず、外部装置31が、図12の操作UI表示部26と同様の機能を備えて、出演時間帯画面の生成処理等を実施するものである。
コンテンツ分析装置の参照受付部33は、外部装置31からデータベースの参照要求を受信すると、データベースの参照を受け付ける処理を実施する。
これにより、外部装置31は、コンテンツ分析装置内のデータベース(コンテンツ記憶部1、出演者データベース8、関連度データベース12、属性情報データベース22、出演情報データベース25)を参照することが可能になる。
ここでは、外部装置31からデータベースの参照要求を受信すると、直ちに、データベースの参照を受け付けるものを示しているが、例えば、ユーザIDとパスワードの送信を外部装置31に要求して、適正なユーザIDとパスワードを受信できたことを条件に、データベースの参照を受け付けるようにしてもよい。
これにより、上記実施の形態5と同様の効果を得ることができる。
Claims (16)
- 映像コンテンツを構成している各々のフレームから、前記映像コンテンツに登場している出演者の顔画像を検出する顔画像検出手段と、
出演者の顔画像が格納されている顔画像データベース内の顔画像と前記顔画像検出手段により検出された出演者の顔画像を照合する顔画像照合手段と、
前記顔画像検出手段により出演者の顔画像が検出されたフレームの再生時刻から前記出演者の出演時間を特定する出演時間特定手段と、
前記顔画像照合手段の照合結果に基づいて、前記顔画像検出手段により検出された出演者の顔画像と前記出演時間特定手段により特定された出演者の出演時間とを紐付けて、出演者別の出演時間帯を示す出演者データベースを構築する出演者データベース構築手段と
を備えたコンテンツ分析装置。 - 映像コンテンツを構成している各々のフレームから、前記映像コンテンツに登場している出演者の顔画像を検出する顔画像検出手段と、
予め出演者の識別情報と顔画像が対応付けられている顔画像データベース内の顔画像と前記顔画像検出手段により検出された出演者の顔画像を照合し、前記顔画像と一致する顔画像が前記顔画像データベース内に登録されていれば、前記顔画像データベースから前記顔画像に対応する出演者の識別情報を取得する顔画像照合手段と、
前記顔画像検出手段により出演者の顔画像が検出されたフレームの再生時刻から前記出演者の出演時間を特定する出演時間特定手段と、
前記顔画像照合手段により取得された出演者の識別情報と前記出演時間特定手段により特定された出演者の出演時間とを紐付けて、出演者別の出演時間帯を示す出演者データベースを構築する出演者データベース構築手段と
を備えたコンテンツ分析装置。 - 前記出演者データベース構築手段により構築された出演者データベースを参照して、出演者別の出演時間帯を示す出演時間帯画面を表示する画面表示手段を備えたことを特徴とする請求項1または請求項2記載のコンテンツ分析装置。
- 前記出演者データベース構築手段により構築された出演者データベースを参照して、出演者別の出演時間帯を示す出演時間帯画面を生成し、前記出演時間帯画面の画面データを外部装置に出力する画面データ出力手段を備えたことを特徴とする請求項1または請求項2記載のコンテンツ分析装置。
- 外部装置から前記出演者データベースの参照要求を受信すると、前記出演者データベースの参照を受け付ける参照受付手段を備えたことを特徴とする請求項1または請求項2記載のコンテンツ分析装置。
- 前記出演者データベース構築手段により構築された出演者データベースを参照して、出演者別の合計出演時間を算出し、各出演者の合計出演時間を基準にして、各出演者の重要度を判定する重要度判定手段を備え、
前記画面表示手段は、前記重要度判定手段により判定された重要度が高い出演者ほど、当該出演者の出演時間帯が目立つ出演時間帯画面を表示することを特徴とする請求項3記載のコンテンツ分析装置。 - 前記出演者データベース構築手段により構築された出演者データベースを参照して、出演者別の合計出演時間を算出し、各出演者の合計出演時間の基準にして、各出演者の重要度を判定する重要度判定手段を備え、
前記画面データ出力手段は、前記重要度判定手段により判定された重要度が高い出演者ほど、当該出演者の出演時間帯が目立つ出演時間帯画面を生成して、前記出演時間帯画面の画面データを外部装置に出力することを特徴とする請求項4記載のコンテンツ分析装置。 - 前記出演者データベース構築手段により構築された出演者データベースを参照して、各々の出演者間の共演時間を特定し、前記共演時間から各々の出演者間の関連度を算出する関連度算出手段を備え、
前記画面表示手段は、前記関連度算出手段により算出された各々の出演者間の関連度を示す相関図を表示することを特徴とする請求項3記載のコンテンツ分析装置。 - 前記出演者データベース構築手段により構築された出演者データベースを参照して、各々の出演者間の共演時間を特定し、前記共演時間から各々の出演者間の関連度を算出する関連度算出手段を備え、
前記画面データ出力手段は、前記関連度算出手段により算出された各々の出演者間の関連度を示す相関図を生成し、前記相関図の画面データを外部装置に出力することを特徴とする請求項4記載のコンテンツ分析装置。 - 前記映像コンテンツに登場している出演者の中から、任意の出演者の選択を受け付けて、前記出演者の識別情報を出力する出演者選択受付手段と、
前記出演者データベース構築手段により構築された出演者データベースを参照して、前記出演者選択受付手段から出力された識別情報が示す出演者の出演時間帯を特定し、前記映像コンテンツにおける前記出演時間帯のフレームを再生するコンテンツ再生手段と
を備えたことを特徴とする請求項2または請求項3記載のコンテンツ分析装置。 - コンテンツ再生手段は、出演者選択受付手段により複数の出演者の選択が受け付けられた場合、出演者データベース構築手段により構築された出演者データベースを参照して、前記複数の出演者の共演時間帯を特定し、映像コンテンツにおける前記共演時間帯のフレームを再生することを特徴とする請求項10記載のコンテンツ分析装置。
- 前記映像コンテンツに登場している出演者の中から、任意の出演者の選択を受け付けて、前記出演者の識別情報を出力する出演者選択受付手段と、
予め出演者の識別情報と属性情報が対応付けられている属性情報データベースの中から、前記出演者選択受付手段から出力された識別情報が示す出演者の属性情報を取得し、前記出演者の属性情報を表示する属性情報表示手段と
を備えたことを特徴とする請求項2または請求項3記載のコンテンツ分析装置。 - 前記映像コンテンツに登場している出演者の中から、任意の出演者の選択を受け付けて、前記出演者の識別情報を出力する出演者選択受付手段と、
予め出演者の識別情報と前記出演者が出演しているコンテンツを示す出演情報とが対応付けられている出演情報データベースの中から、前記出演者選択受付手段から出力された識別情報が示す出演者の出演情報を取得して、前記出演情報が示すコンテンツの一覧を表示、あるいは、前記出演者データベース構築手段により構築された出演者データベースを参照して、前記出演者選択受付手段から出力された識別情報が示す出演者の出演時間帯を特定し、前記映像コンテンツにおける前記出演時間帯のフレームの一覧を表示する一覧表示手段と
を備えたことを特徴とする請求項2または請求項3記載のコンテンツ分析装置。 - 前記一覧表示手段は、前記出演者選択受付手段により複数の出演者の選択が受け付けられた場合、前記出演情報データベースの中から、前記複数の出演者が共演している出演情報を取得して、前記出演情報が示すコンテンツの一覧を表示、あるいは、前記複数の出演者の共演時間帯を特定し、前記映像コンテンツにおける前記共演時間帯のフレームの一覧を表示することを特徴とする請求項13記載のコンテンツ分析装置。
- 顔画像検出手段が、映像コンテンツを構成している各々のフレームから、前記映像コンテンツに登場している出演者の顔画像を検出する顔画像検出処理ステップと、
顔画像照合手段が、出演者の顔画像が格納されている顔画像データベース内の顔画像と前記顔画像検出処理ステップで検出された出演者の顔画像を照合する顔画像照合処理ステップと、
出演時間特定手段が、前記顔画像検出処理ステップで出演者の顔画像が検出されたフレームの再生時刻から前記出演者の出演時間を特定する出演時間特定処理ステップと、
出演者データベース構築手段が、前記顔画像照合処理ステップでの照合結果に基づいて、前記顔画像検出処理ステップで検出された出演者の顔画像と前記出演時間特定処理ステップで特定された出演者の出演時間とを紐付けて、出演者別の出演時間帯を示す出演者データベースを構築する出演者データベース構築処理ステップと
を備えたコンテンツ分析方法。 - コンピュータの演算制御部が実行する処理手順を記述しているコンピュータプログラムであって、
映像コンテンツを構成している各々のフレームから、前記映像コンテンツに登場している出演者の顔画像を検出する顔画像検出処理手順と、
出演者の顔画像が格納されている顔画像データベース内の顔画像と前記顔画像検出処理手順により検出された出演者の顔画像を照合する顔画像照合処理手順と、
前記顔画像検出処理手順により出演者の顔画像が検出されたフレームの再生時刻から前記出演者の出演時間を特定する出演時間特定処理手順と、
前記顔画像照合処理手順での照合結果に基づいて、前記顔画像検出処理手順により検出された出演者の顔画像と前記出演時間特定処理手順により特定された出演者の出演時間とを紐付けて、出演者別の出演時間帯を示す出演者データベースを構築する出演者データベース構築処理手順とが記述されていることを特徴とするコンテンツ分析プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013120984A JP2014238712A (ja) | 2013-06-07 | 2013-06-07 | コンテンツ分析装置、コンテンツ分析方法及びコンテンツ分析プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013120984A JP2014238712A (ja) | 2013-06-07 | 2013-06-07 | コンテンツ分析装置、コンテンツ分析方法及びコンテンツ分析プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014238712A true JP2014238712A (ja) | 2014-12-18 |
Family
ID=52135827
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013120984A Pending JP2014238712A (ja) | 2013-06-07 | 2013-06-07 | コンテンツ分析装置、コンテンツ分析方法及びコンテンツ分析プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014238712A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6062525B1 (ja) * | 2015-12-22 | 2017-01-18 | 株式会社Flyblue | 情報分析装置、情報分析方法及び情報分析プログラム |
JP2019213072A (ja) * | 2018-06-06 | 2019-12-12 | 日本電気株式会社 | 情報処理システム、情報処理方法及びプログラム |
US10657417B2 (en) | 2016-12-28 | 2020-05-19 | Ambass Inc. | Person information display apparatus, a person information display method, and a person information display program |
CN113014832A (zh) * | 2019-12-19 | 2021-06-22 | 志贺司 | 影像编辑系统及影像编辑方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007281680A (ja) * | 2006-04-04 | 2007-10-25 | Sony Corp | 画像処理装置および画像表示方法 |
JP2008077536A (ja) * | 2006-09-25 | 2008-04-03 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2009033351A (ja) * | 2007-07-25 | 2009-02-12 | Canon Inc | 記録再生装置及び方法 |
JP2012256105A (ja) * | 2011-06-07 | 2012-12-27 | Sony Corp | 表示装置、オブジェクト表示方法、及びプログラム |
-
2013
- 2013-06-07 JP JP2013120984A patent/JP2014238712A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007281680A (ja) * | 2006-04-04 | 2007-10-25 | Sony Corp | 画像処理装置および画像表示方法 |
JP2008077536A (ja) * | 2006-09-25 | 2008-04-03 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2009033351A (ja) * | 2007-07-25 | 2009-02-12 | Canon Inc | 記録再生装置及び方法 |
JP2012256105A (ja) * | 2011-06-07 | 2012-12-27 | Sony Corp | 表示装置、オブジェクト表示方法、及びプログラム |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6062525B1 (ja) * | 2015-12-22 | 2017-01-18 | 株式会社Flyblue | 情報分析装置、情報分析方法及び情報分析プログラム |
JP2017117130A (ja) * | 2015-12-22 | 2017-06-29 | 株式会社Flyblue | 情報分析装置、情報分析方法及び情報分析プログラム |
US10657417B2 (en) | 2016-12-28 | 2020-05-19 | Ambass Inc. | Person information display apparatus, a person information display method, and a person information display program |
JP2019213072A (ja) * | 2018-06-06 | 2019-12-12 | 日本電気株式会社 | 情報処理システム、情報処理方法及びプログラム |
JP7148857B2 (ja) | 2018-06-06 | 2022-10-06 | 日本電気株式会社 | 情報処理システム、情報処理方法及びプログラム |
CN113014832A (zh) * | 2019-12-19 | 2021-06-22 | 志贺司 | 影像编辑系统及影像编辑方法 |
CN113014832B (zh) * | 2019-12-19 | 2024-03-12 | 志贺司 | 影像编辑系统及影像编辑方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106462874B (zh) | 用于呈现与视频内容有关的商业信息的方法、系统和介质 | |
KR102114701B1 (ko) | 미디어 데이터에 있는 아이템을 인식하고 이와 관련된 정보를 전달하기 위한 시스템 및 방법 | |
EP3138296B1 (en) | Displaying data associated with a program based on automatic recognition | |
JP6408551B2 (ja) | メディアコンテンツに対応する携帯型コンテンツを提供するための方法、システム、および記録媒体 | |
US9270918B2 (en) | Method of recommending broadcasting contents and recommending apparatus therefor | |
US9105298B2 (en) | Digital life recorder with selective playback of digital video | |
US20140075465A1 (en) | Time varying evaluation of multimedia content | |
US10981056B2 (en) | Methods and systems for determining a reaction time for a response and synchronizing user interface(s) with content being rendered | |
US20140052696A1 (en) | Systems and methods for visual categorization of multimedia data | |
US20090190804A1 (en) | Electronic apparatus and image processing method | |
JP2009140051A (ja) | 情報処理装置、情報処理システム、推薦装置、情報処理方法および記憶媒体 | |
KR20160104661A (ko) | 온-디맨드 미디어 컨텐츠에 대응하는 보충적인 정보를 제시하기 위한 방법들, 시스템들 및 매체들 | |
KR20140054196A (ko) | 비디오 콘텐츠 내의 엘리먼트들의 시각적 선택을 위한 시스템 및 방법 | |
JP2012186621A (ja) | 情報処理装置、情報処理方法およびプログラム | |
KR20160044954A (ko) | 정보 제공 방법 및 이를 구현하는 전자 장치 | |
JP2014238712A (ja) | コンテンツ分析装置、コンテンツ分析方法及びコンテンツ分析プログラム | |
JP2014158193A (ja) | 映像表示システム、映像表示装置、コンテンツサーバ、映像表示方法および映像表示プログラム | |
US20160066054A1 (en) | Methods, systems, and media for providing media guidance | |
JP2009212859A (ja) | コンテンツ再生装置、コンテンツ再生システム、コンテンツ再生方法、コンテンツサーバ装置、コンテンツ情報表示システム、コンテンツ再生プログラムおよび該プログラムを記録した記録媒体 | |
JP6125454B2 (ja) | マッチング装置、マッチングシステム及びマッチング方法 | |
CN105657510A (zh) | 图像显示装置及其信息提供方法 | |
US11354005B2 (en) | Methods, systems, and media for presenting annotations across multiple videos | |
TW201625009A (zh) | 產生多媒體影音摘要的系統與方法 | |
JP2010233020A (ja) | 情報提供システム | |
WO2013084537A1 (ja) | サーバ装置、av装置、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161216 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170404 |