JP2014238712A - コンテンツ分析装置、コンテンツ分析方法及びコンテンツ分析プログラム - Google Patents

コンテンツ分析装置、コンテンツ分析方法及びコンテンツ分析プログラム Download PDF

Info

Publication number
JP2014238712A
JP2014238712A JP2013120984A JP2013120984A JP2014238712A JP 2014238712 A JP2014238712 A JP 2014238712A JP 2013120984 A JP2013120984 A JP 2013120984A JP 2013120984 A JP2013120984 A JP 2013120984A JP 2014238712 A JP2014238712 A JP 2014238712A
Authority
JP
Japan
Prior art keywords
performer
face image
database
unit
appearance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013120984A
Other languages
English (en)
Inventor
大介 飯澤
Daisuke Iizawa
大介 飯澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013120984A priority Critical patent/JP2014238712A/ja
Publication of JP2014238712A publication Critical patent/JP2014238712A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】映像コンテンツに登場している出演者別の出演時間帯を特定することができるようにする。
【解決手段】顔画像データベース4から顔画像検出部2により検出された出演者の顔画像と一致する顔画像に対応する出演者のタレントIDを取得する顔画像照合部5と、顔画像検出部4により出演者の顔画像が検出されたフレームの再生時刻から前記出演者の出演時間を特定する出演時間特定部6とを設け、出演者データベース構築部7が、顔画像照合部5により取得された出演者のタレントIDと出演時間特定部6により特定された出演者の出演時間とを紐付けて、出演者別の出演時間帯Tzを示す出演者データベース8を構築する。
【選択図】図1

Description

この発明は、例えば、録画済みの映像コンテンツに登場している各出演者の出演時間を特定するコンテンツ分析装置、コンテンツ分析方法及びコンテンツ分析プログラムに関するものである。
例えば、録画済みの映像コンテンツの内容を確認できるようにするために、電子番組表であるEPG(Electronic Program Guide)を取得して、そのEPGに含まれている出演者や番組に関する情報を表示するコンテンツ分析装置が開発されている。
また、映像コンテンツにおける各シーンの概要を把握することができるようにするために、その映像コンテンツを分析して、その映像コンテンツの各シーンの代表的なサムネイル画像を表示するコンテンツ分析装置も開発されている。
以下の特許文献1,2には、映像コンテンツに登場している各出演者の顔画像を抽出して、各出演者の顔画像をリスト表示するコンテンツ分析装置が開示されている。
特開2010−103764号公報(段落番号[0006]、図3) 特開2010−114733号公報(段落番号[0006]、図3)
従来のコンテンツ分析装置は以上のように構成されているので、映像コンテンツにおける各シーンの代表的なサムネイル画像や、映像コンテンツに登場している各出演者の顔画像を表示することができるが、映像コンテンツに登場している各出演者の出演時間を特定する技術を備えていない。このため、例えば、ユーザが或る出演者が登場しているシーンだけを視聴したいような場合でも、映像コンテンツの先頭から再生しなければ、当該出演者が登場しているシーンを見逃してしまう課題があった。
なお、ユーザが映像コンテンツの早送り操作や、映像コンテンツの倍速再生操作などを行えば、当該出演者が登場しているシーンの再生を始めるまでの時間を短縮することができるが、面倒な操作をユーザに強いることになり、また、当該出演者が登場しているシーンを通り越してしまって、当該シーンを見逃してしまうことがある課題があった。
この発明は前記のような課題を解決するためになされたもので、映像コンテンツに登場している出演者別の出演時間帯を特定することができるコンテンツ分析装置、コンテンツ分析方法及びコンテンツ分析プログラムを得ることを目的とする。
この発明に係るコンテンツ分析装置は、映像コンテンツを構成している各々のフレームから、その映像コンテンツに登場している出演者の顔画像を検出する顔画像検出手段と、出演者の顔画像が格納されている顔画像データベース内の顔画像と顔画像検出手段により検出された出演者の顔画像を照合する顔画像照合手段と、顔画像検出手段により出演者の顔画像が検出されたフレームの再生時刻から前記出演者の出演時間を特定する出演時間特定手段とを設け、出演者データベース構築手段が、顔画像照合手段の照合結果に基づいて、顔画像検出手段により検出された出演者の顔画像と出演時間特定手段により特定された出演者の出演時間とを紐付けて、出演者別の出演時間帯を示す出演者データベースを構築するようにしたものである。
この発明によれば、映像コンテンツを構成している各々のフレームから出演者の顔画像を検出する顔画像検出手段と、顔画像データベース内の顔画像と顔画像検出手段により検出された出演者の顔画像を照合する顔画像照合手段と、顔画像検出手段により出演者の顔画像が検出されたフレームの再生時刻から前記出演者の出演時間を特定する出演時間特定手段とを設け、出演者データベース構築手段が、顔画像照合手段の照合結果に基づいて、顔画像検出手段により検出された出演者の顔画像と出演時間特定手段により特定された出演者の出演時間とを紐付けて、出演者別の出演時間帯を示す出演者データベースを構築するように構成したので、映像コンテンツに登場している出演者別の出演時間帯を特定することができる効果がある。
この発明の実施の形態1によるコンテンツ分析装置を示す構成図である。 この発明の実施の形態1によるコンテンツ分析装置の処理内容(コンテンツ分析方法)を示すフローチャートである。 顔画像データベース4の構築例を示す説明図である。 出演者データベース8の構築例を示す説明図である。 出演時間帯画面の表示例を示す説明図である。 この発明の実施の形態2によるコンテンツ分析装置を示す構成図である。 関連度データベース12により記憶されている出演者間の関連度の一例を示す説明図である。 出演者の相関図の一例を示す説明図である。 この発明の実施の形態3によるコンテンツ分析装置を示す構成図である。 この発明の実施の形態4によるコンテンツ分析装置を示す構成図である。 属性情報データベース22により記憶されている属性情報の一例を示す説明図である。 この発明の実施の形態5によるコンテンツ分析装置を示す構成図である。 出演情報データベース25により記憶されている出演情報の一例を示す説明図である。 この発明の実施の形態6によるコンテンツ分析装置を示す構成図である。 この発明の実施の形態7によるコンテンツ分析装置を示す構成図である。
実施の形態1.
図1はこの発明の実施の形態1によるコンテンツ分析装置を示す構成図である。
図1において、コンテンツ記憶部1は例えばRAMやハードディスクなどの記憶装置から構成されており、例えば、録画済みの映像コンテンツや現在放送中の映像コンテンツなどを記憶する。
顔画像検出部2は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、コンテンツ記憶部1により記憶されている映像コンテンツを構成している各々のフレームから、その映像コンテンツに登場している出演者の顔画像を検出する処理を実施する。なお、顔画像検出部2は顔画像検出手段を構成している。
出演者情報収集部3は例えばインターネットなどの外部ネットワークに対するインタフェース機器(例えば、無線通信装置、ケーブルモデムなど)を実装しており、外部ネットワーク上のサーバから、出演者の識別情報であるタレントID、タレント名及び顔画像を収集して、出演者のタレントID、タレント名及び顔画像が対応付けられている顔画像データベース4を構築する処理を実施する。
顔画像データベース4は例えばRAMやハードディスクなどの記憶装置から構成されており、出演者のタレントID、タレント名及び顔画像の対応関係を記憶している。
顔画像照合部5は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、顔画像データベース4内の顔画像と顔画像検出部2により検出された出演者の顔画像を照合し、その顔画像と一致する顔画像が顔画像データベース4内に登録されていれば、その顔画像データベース4から前記顔画像に対応する出演者のタレントIDを取得する処理を実施する。なお、顔画像照合部5は顔画像照合手段を構成している。
出演時間特定部6は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、顔画像検出部2により出演者の顔画像が検出されたフレームの再生時刻から前記出演者の出演時間を特定する処理を実施する。なお、出演時間特定部6は出演時間特定手段を構成している。
出演者データベース構築部7は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、顔画像照合部5により取得された出演者のタレントIDと出演時間特定部6により特定された出演者の出演時間とを紐付けて、出演者別の出演時間帯Tzを示す出演者データベース8を構築する処理を実施する。なお、出演者データベース構築部7は出演者データベース構築手段を構成している。
出演者データベース8は例えばRAMやハードディスクなどの記憶装置から構成されており、出演者別の出演時間帯を記憶している。
重要度判定部9は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、出演者データベース構築部7により構築された出演者データベース8を参照して、出演者別の合計出演時間Tzallを算出し、各出演者の合計出演時間Tzallを基準にして、各出演者の重要度を判定する処理を実施する。なお、重要度判定部9は重要度判定手段を構成している。
操作UI表示部10はユーザの操作を受け付けるユーザインタフェース(例えば、リモコン、スマートフォンやタブレットなどの外部装置から送信された操作信号を受信して、その操作信号が示す操作内容を解析する処理部)、操作内容にしたがって画面をディスプレイに描画するGPU(Graphics Processing Unit)や、画面を表示するディスプレイなどから構成されており、出演者データベース構築部7により構築された出演者データベース8を参照して、出演者別の出演時間帯を示す出演時間帯画面を表示する処理を実施する。詳細は後述するが、出演時間帯画面は、重要度判定部9により判定された重要度が高い出演者ほど、当該出演者の出演時間帯が目立つように生成された画面である。なお、操作UI表示部10は画面表示手段を構成している。
図1の例では、コンテンツ分析装置の構成要素であるコンテンツ記憶部1、顔画像検出部2、出演者情報収集部3、顔画像データベース4、顔画像照合部5、出演時間特定部6、出演者データベース構築部7、出演者データベース8、重要度判定部9及び操作UI表示部10のそれぞれが専用のハードウェアで構成されているものを想定しているが、コンテンツ分析装置がコンピュータで構成されていてもよい。
コンテンツ分析装置がコンピュータで構成されている場合、コンテンツ記憶部1、顔画像データベース4及び出演者データベース8をコンピュータの内部メモリ又は外部メモリ上に構成するとともに、顔画像検出部2、出演者情報収集部3、顔画像照合部5、出演時間特定部6、出演者データベース構築部7、重要度判定部9及び操作UI表示部10の処理内容を記述しているコンテンツ分析プログラムをコンピュータのメモリに格納して、当該コンピュータの演算制御部であるCPUが当該メモリに格納されているコンテンツ分析プログラムを実行するようにすればよい。
図2はこの発明の実施の形態1によるコンテンツ分析装置の処理内容(コンテンツ分析方法)を示すフローチャートである。
次に動作について説明する。
まず、出演者情報収集部3は、例えば、外部ネットワーク上のサーバに対して定期的にアクセスして、そのサーバから出演者の識別情報であるタレントID、タレント名(出演者名)及び顔画像を収集する。
外部ネットワーク上のサーバとしては、例えば、タレント名鑑などを管理している会社のサーバなどが考えられるが、出演者のタレントID、タレント名及び顔画像を配信する機能を備えているサーバであれば、いかなるものでもよい。
出演者情報収集部3は、サーバから出演者のタレントID、タレント名及び顔画像を収集する毎に、出演者のタレントID、タレント名及び顔画像が対応付けられている顔画像データベース4を最新の状態に更新する。
ここで、図3は顔画像データベース4の構築例を示す説明図であり、図3の例では、タレントID、タレント名、顔画像及び重要度(後述する)の対応関係が記録されている。
顔画像検出部2は、コンテンツ記憶部1により記憶されている映像コンテンツを入力し、その映像コンテンツを構成している各々のフレームから、その映像コンテンツに登場している出演者の顔画像を検出し、その顔画像を顔画像照合部5出力する(図2のステップST1)。
映像コンテンツを構成している各々のフレームから、出演者の顔画像を検出する処理自体は公知の技術であるため詳細な説明を省略する。
顔画像照合部5は、顔画像検出部2から出演者の顔画像を受けると、その顔画像と顔画像データベース4に登録されている1以上の顔画像とを照合する(ステップST2)。
顔画像の照合処理自体は公知の技術であるため詳細な説明を省略するが、例えば、照合対象の顔画像の特徴点をそれぞれ抽出し、特徴点が一致している数が所定数以上であれば、2つの顔画像が一致していると判断する手法などが考えられる。
顔画像照合部5は、顔画像検出部2から出力された出演者の顔画像と一致している顔画像が顔画像データベース4内に登録されていれば(ステップST3)、その顔画像データベース4から前記顔画像に対応する出演者のタレントIDを取得し、そのタレントIDを出演者データベース構築部7に出力する(ステップST4)。
出演時間特定部6は、顔画像検出部2が出演者の顔画像を検出すると、顔画像検出部2により出演者の顔画像が検出されたフレームの再生時刻から前記出演者の出演時間を特定して、その出演者の出演時間を出演者データベース構築部7に出力する(ステップST5)。
例えば、顔画像検出部2により出演者の顔画像が検出されたフレームが、先頭から第K番目のフレームである場合、第K番目のフレームの再生時刻t(先頭のフレームの再生時刻を“0”とする相対的な時刻)を出演者の出演時間として特定する。なお、各フレームの再生時刻は、映像コンテンツの再生速度から特定することができる。
出演者データベース構築部7は、顔画像照合部5からタレントIDを受け、出演時間特定部6から出演者の出演時間を受けると、その出演者のタレントIDと出演時間を紐付けて、出演者別の出演時間帯Tzを示す出演者データベース8を構築する(ステップST6)。
ここで、図4は出演者データベース8の構築例を示す説明図である。
図4では、タレントID「0001」の出演者の出演時間帯と、タレントID「0002」の出演者の出演時間帯とを例示している。
例えば、タレントID「0002」の出演者の顔画像が検出されているフレームの再生時刻が“00:00:33”〜“00:00:57”の間連続しているため、タレントID「0002」の出演者の出演時間帯Tzとして、出演開始時刻が“00:00:33”で、出演終了時刻が“00:00:57”であるとしている。
重要度判定部9は、出演者データベース構築部7が出演者データベース8を構築すると、その出演者データベース8を参照して、出演者別の合計出演時間Tzallを算出する(ステップST7)。
図4の例では、タレントID「0001」の出演者の合計出演時間Tzall−1は3分29秒(=57秒+2分32秒)、タレントID「0002」の出演者の合計出演時間Tzall−2は0分25秒である。
重要度判定部9は、出演者別の合計出演時間Tzallを算出すると、出演者別の合計出演時間Tzallを比較して、各出演者の重要度を判定する(ステップST8)。即ち、合計出演時間Tzallが長い出演者ほど、重要な出演者であると認定して、各出演者の重要度を判定する。
図4の例では、タレントID「0001」の出演者の重要度が、タレントID「0002」の出演者の重要度より高いと判定される。
操作UI表示部10は、外部装置から出演時間帯画面の表示を指示するユーザの操作信号を受けると(ステップST9)、出演者データベース構築部7により構築された出演者データベース8を参照して、出演者別の出演時間帯Tzを示す出演時間帯画面をディスプレイに表示する(ステップST10)。
ただし、操作UI表示部10は、出演者別の出演時間帯Tzを示す出演時間帯画面を生成する際、例えば、重要度判定部9により判定された重要度が高い出演者の出演時間帯Tzを画面手前側に配置することで、重要度が高い出演者の出演時間帯Tzが目立つように出演時間帯画面を生成する。
ここで、図5は出演時間帯画面の表示例を示す説明図である。
図5では、出演者の重要度が、出演者A(重要度1)>出演者C(重要度2)>出演者B(重要度3)>出演者D(重要度4)である例を示しており、このため、画面手前側から出演者Aの出演時間帯、出演者Cの出演時間帯、出演者Bの出演時間帯、出演者Dの出演時間帯が配置されている。
以上で明らかなように、この実施の形態1によれば、映像コンテンツを構成している各々のフレームから出演者の顔画像を検出する顔画像検出部2と、顔画像データベース4内の顔画像と顔画像検出部2により検出された出演者の顔画像を照合し、その顔画像と一致する顔画像が顔画像データベース4内に登録されていれば、その顔画像データベース4から前記顔画像に対応する出演者のタレントIDを取得する顔画像照合部5と、顔画像検出部2により出演者の顔画像が検出されたフレームの再生時刻から前記出演者の出演時間を特定する出演時間特定部6とを設け、出演者データベース構築部7が、顔画像照合部5により取得された出演者のタレントIDと出演時間特定部6により特定された出演者の出演時間とを紐付けて、出演者別の出演時間帯Tzを示す出演者データベース8を構築するように構成したので、映像コンテンツに登場している出演者別の出演時間帯を特定することができる効果を奏する。
また、この実施の形態1によれば、出演者データベース構築部7により構築された出演者データベース8を参照して、出演者別の合計出演時間を算出し、各出演者の合計出演時間を基準にして、各出演者の重要度を判定する重要度判定部9を備え、操作UI表示部10が、重要度判定部9により判定された重要度が高い出演者ほど、当該出演者の出演時間帯が目立つ出演時間帯画面を表示するように構成したので、出演時間帯の確認を希望するユーザが多いと思われる主演クラスの出演者の出演時間帯を示す表示バーを速やかに見つけることができる効果を奏する。
なお、この実施の形態1では、顔画像データベース4がコンテンツ分析装置内に実装されているものを想定しているが、顔画像データベース4がコンテンツ分析装置の外部に配置されて、例えば、顔画像データベース4がLANなどの内部ネットワークを介してコンテンツ分析装置と接続されているものであってもよい。
この場合、顔画像照合部5が、図示せぬLANインタフェースを用いて、顔画像データベース4にアクセスするようにすればよい。
また、この実施の形態1では、コンテンツ記憶部1がコンテンツ分析装置内の記憶装置である例を示しているが、例えば、テレビやディスクレコーダなどの映像機器内の記憶装置であって、顔画像検出部2が映像機器内の記憶装置から映像コンテンツを読み出すものであってもよい。
また、この実施の形態1では、顔画像データベース4内の顔画像と顔画像検出部2により検出された出演者の顔画像を照合し、その顔画像と一致する顔画像が顔画像データベース4内に登録されていれば、その顔画像データベース4から前記顔画像に対応する出演者のタレントIDを取得する顔画像照合部5を備え、出演者データベース構築部7が、顔画像照合部5により取得された出演者のタレントIDと出演時間特定部6により特定された出演者の出演時間とを紐付けて、出演者別の出演時間帯Tzを示す出演者データベース8を構築する場合について説明したが、顔画像照合部5は、映像コンテンツを構成している各々のフレームから過去に抽出された出演者の顔画像と現在のフレームから抽出された出演者の顔画像とを照合するように構成してもよい。
また、出演者データベース構築部7は、顔画像照合部5の照合結果に基づいて、顔画像検出部2により検出された出演者の顔画像と出演時間特定部6により特定された出演者の出演時間とを紐付けて、出演者別の出演時間帯を示す出演者データベースを構築するように構成してもよい。
例えば、顔画像データベース4は、映像コンテンツを構成している各々のフレームから抽出された顔画像を格納するように構成され、顔画像照合部5は、顔画像データベース4に格納された映像コンテンツを構成している各々のフレームから抽出された顔画像と、現在のフレームから抽出された出演者の顔画像とを照合する。そして、出演者データベース構築部7は、顔画像照合部5の照合結果に基づいて、顔画像検出部2により検出された出演者の顔画像と出演時間特定部6により特定された出演者の出演時間とを紐付けて、出演者別の出演時間帯を示す出演者データベースを構築する。
実施の形態2.
図6はこの発明の実施の形態2によるコンテンツ分析装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
関連度算出部11は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、出演者データベース構築部7により構築された出演者データベース8を参照して、各々の出演者間の共演時間を特定し、その共演時間から各々の出演者間の関連度を算出する処理を実施する。なお、関連度算出部11は関連度算出手段を構成している。
関連度データベース12は例えばRAMやハードディスクなどの記憶装置から構成されており、関連度算出部11により算出された各々の出演者間の関連度を記憶する。
操作UI表示部13はユーザインタフェース、GPU及びディスプレイなどから構成されており、図1の操作UI表示部10と同様に、出演者データベース構築部7により構築された出演者データベース8を参照して、出演者別の出演時間帯を示す出演時間帯画面を表示する処理を実施する他に、関連度データベース12により記憶されている各々の出演者間の関連度を示す相関図をディスプレイに表示する処理を実施する。なお、操作UI表示部13は画面表示手段を構成している。
図6の例では、コンテンツ分析装置の構成要素であるコンテンツ記憶部1、顔画像検出部2、出演者情報収集部3、顔画像データベース4、顔画像照合部5、出演時間特定部6、出演者データベース構築部7、出演者データベース8、重要度判定部9、関連度算出部11、関連度データベース12及び操作UI表示部13のそれぞれが専用のハードウェアで構成されているものを想定しているが、コンテンツ分析装置がコンピュータで構成されていてもよい。
コンテンツ分析装置がコンピュータで構成されている場合、コンテンツ記憶部1、顔画像データベース4、出演者データベース8及び関連度データベース12をコンピュータの内部メモリ又は外部メモリ上に構成するとともに、顔画像検出部2、出演者情報収集部3、顔画像照合部5、出演時間特定部6、出演者データベース構築部7、重要度判定部9、関連度算出部11及び操作UI表示部13の処理内容を記述しているコンテンツ分析プログラムをコンピュータのメモリに格納して、当該コンピュータの演算制御部であるCPUが当該メモリに格納されているコンテンツ分析プログラムを実行するようにすればよい。
次に動作について説明する。
ただし、関連度算出部11、関連度データベース12及び操作UI表示部13以外は、上記実施の形態1と同様であるため、ここでは、関連度算出部11、関連度データベース12及び操作UI表示部13の処理内容だけを説明する。
関連度算出部11は、出演者データベース構築部7が出演者データベース8を構築すると、その出演者データベース8を参照して、各々の出演者間の共演時間Tcoを特定する。
即ち、関連度算出部11は、各々の出演者の出演時間が重複している時間を共演時間Tcoとして特定する。
図4の例では、タレントID「0001」の出演者の出演時間帯“00:00:01”〜“00:00:57”のうち、出演時間帯“00:00:33”〜“00:00:57”が、タレントID「0002」の出演者の出演時間帯“00:00:33”〜“00:00:57”と重複しているので、タレントID「0001」の出演者とタレントID「0002」の出演者間の共演時間は、0分25秒になる。
関連度算出部11は、各々の出演者間の共演時間Tcoを特定すると、その共演時間Tcoから各々の出演者間の関連度Asを算出し、その関連度Asを関連度データベース12に格納する。
各々の出演者間の関連度Asは、例えば、下記の式(1)に示すように算出する。
Figure 2014238712
式(1)において、Ttotalは映像コンテンツ全体の再生時間である。
図7は関連度データベース12により記憶されている出演者間の関連度Asの一例を示す説明図である。
操作UI表示部13は、外部装置から出演時間帯画面の表示を指示するユーザの操作信号を受けると、図1の操作UI表示部10と同様に、出演者データベース構築部7により構築された出演者データベース8を参照して、出演者別の出演時間帯Tzを示す出演時間帯画面をディスプレイに表示する。
また、操作UI表示部13は、外部装置から任意の出演者に関する相関図の表示を指示するユーザの操作信号を受けると、関連度データベース12により記憶されている各々の出演者間の関連度Asを参照して、その出演者に関する相関図(出演者間の関連度Asを示す相関図)を生成し、その相関図をディスプレイに表示する。
ここで、図8は出演者の相関図の一例を示す説明図である。
図8の例では、出演者Aに関する相関図が表示されており、出演者Aに対する関連度が高い出演者ほど、出演者Aと近い位置に表示されている。
因みに、図8の例では、出演者Aに対する関連度が、出演者H>出演者G>出演者B>出演者D>出演者C>出演者F>出演者Eであるため、出演者Hの顔画像が出演者Aの顔画像と最も近い位置に表示され、出演者Eの顔画像が出演者Aの顔画像と最も遠い位置に表示されている。
また、出演者Aに対する関連度が高い出演者ほど、出演者Aと結んでいる線が太くなっている。
以上で明らかなように、この実施の形態2によれば、出演者データベース構築部7により構築された出演者データベース8を参照して、各々の出演者間の共演時間を特定し、その共演時間から各々の出演者間の関連度を算出する関連度算出部11を設け、操作UI表示部13が、関連度算出部11により算出された各々の出演者間の関連度を示す相関図をディスプレイに表示するように構成したので、共演している出演者を容易に把握することができるとともに、出演者間の関係性を容易に把握することができる効果を奏する。
実施の形態3.
図9はこの発明の実施の形態3によるコンテンツ分析装置を示す構成図であり、図において、図6と同一符号は同一または相当部分を示すので説明を省略する。
操作UI表示部14はユーザインタフェース、GPU及びディスプレイなどから構成されており、図6の操作UI表示部13と同様に、出演者別の出演時間帯を示す出演時間帯画面を表示する処理や、各々の出演者間の関連度を示す相関図を表示する処理を実施する他に、映像コンテンツに登場している出演者の中から、任意の出演者の選択を受け付けて、その出演者のタレントIDを出力する処理を実施する。なお、操作UI表示部14は画面表示手段及び出演者選択受付手段を構成している。
コンテンツ再生部15は例えばCPUを実装している半導体集積回路、あるいは、ワンチップマイコンなどから構成されており、出演者データベース構築部7により構築された出演者データベース8を参照して、操作UI表示部14から出力されたタレントIDが示す出演者の出演時間帯を特定し、コンテンツ記憶部1により記憶されている映像コンテンツにおける前記出演時間帯のフレームを再生する処理を実施する。なお、コンテンツ再生部15はコンテンツ再生手段を構成している。
図9の例では、コンテンツ分析装置の構成要素であるコンテンツ記憶部1、顔画像検出部2、出演者情報収集部3、顔画像データベース4、顔画像照合部5、出演時間特定部6、出演者データベース構築部7、出演者データベース8、重要度判定部9、関連度算出部11、関連度データベース12、操作UI表示部14及びコンテンツ再生部15のそれぞれが専用のハードウェアで構成されているものを想定しているが、コンテンツ分析装置がコンピュータで構成されていてもよい。
コンテンツ分析装置がコンピュータで構成されている場合、コンテンツ記憶部1、顔画像データベース4、出演者データベース8及び関連度データベース12をコンピュータの内部メモリ又は外部メモリ上に構成するとともに、顔画像検出部2、出演者情報収集部3、顔画像照合部5、出演時間特定部6、出演者データベース構築部7、重要度判定部9、関連度算出部11、操作UI表示部14及びコンテンツ再生部15の処理内容を記述しているコンテンツ分析プログラムをコンピュータのメモリに格納して、当該コンピュータの演算制御部であるCPUが当該メモリに格納されているコンテンツ分析プログラムを実行するようにすればよい。
次に動作について説明する。
ただし、操作UI表示部14及びコンテンツ再生部15以外は、上記実施の形態2と同様であるため、ここでは、操作UI表示部14及びコンテンツ再生部15の処理内容だけを説明する。
操作UI表示部14は、例えば、図5の出演時間帯画面、あるいは、図8の相関図を表示しているとき、外部装置から或る出演者を選択する操作信号(例えば、出演者の顔画像をクリックする操作など)を受けるとともに、「再生」コマンドを選択する操作信号を受けると、出演者データベース構築部7により構築された出演者データベース8を参照して、その操作信号が示す出演者のタレントIDを特定し、そのタレントIDをコンテンツ再生部15に出力する。
コンテンツ再生部15は、操作UI表示部14からタレントIDを受けると、出演者データベース構築部7により構築された出演者データベース8を参照して、そのタレントIDが示す出演者の出演時間帯を特定する。
図4の例では、タレントIDが「0001」であれば、出演時間帯が“00:00:01”〜“00:00:57”と“00:01:32”〜“00:04:03”であると特定される。
コンテンツ再生部15は、タレントIDが示す出演者の出演時間帯を特定すると、コンテンツ記憶部1により記憶されている映像コンテンツを構成しているフレームのうち、その出演時間帯に対応するフレームを再生する。
なお、映像コンテンツの再生中は、出演時間帯画面や相関図を非表示にして、映像コンテンツの再生画面だけをディスプレイに表示するようにしてもよいが、ディスプレイを分割して、映像コンテンツの再生画面と一緒に出演時間帯画面や相関図をディスプレイに表示するようにしてもよい。
以上で明らかなように、この実施の形態3によれば、映像コンテンツに登場している出演者の中から、任意の出演者の選択を受け付けて、その出演者のタレントIDを出力する操作UI表示部14を設け、コンテンツ再生部15が、出演者データベース構築部7により構築された出演者データベース8を参照して、操作UI表示部14から出力されたタレントIDが示す出演者の出演時間帯を特定し、コンテンツ記憶部1により記憶されている映像コンテンツにおける前記出演時間帯のフレームを再生するように構成したので、ユーザが所望の出演者を指定して、所望の出演者が登場しているシーンだけを視聴することができる効果を奏する。
この実施の形態3では、操作UI表示部14が、映像コンテンツに登場している出演者の中から、任意の出演者の選択を受け付ける例を示したが、複数の出演者の選択を受け付けて、複数の出演者のタレントIDを出力するようにしてもよい。
この場合、コンテンツ再生部15は、操作UI表示部14から複数の出演者のタレントIDを受けると、出演者データベース構築部7により構築された出演者データベース8を参照して、複数のタレントIDが示す出演者の出演時間から共演時間帯を特定し、映像コンテンツを構成しているフレームのうち、その共演時間帯に対応するフレームを再生する。
図4の例では、タレントID「0001」とタレントID「0002」が出力された場合、共演時間帯が“00:00:33”〜“00:00:57”であると特定される。
これにより、ユーザが所望の共演者を指定して、所望の共演者が登場しているシーンだけを視聴することができる効果を奏する。
この実施の形態3では、出演者の顔画像をクリックする操作を行うことで、出演者を選択する例を示したが、図5の出演時間帯画面において、所望の出演者の出演時間帯中の所望時間をクリックされた場合、コンテンツ再生部15が、クリックされた時間のフレームから再生を開始して、その出演時間帯の終了時間まで再生を行うようにしてもよい。
実施の形態4.
図10はこの発明の実施の形態4によるコンテンツ分析装置を示す構成図であり、図において、図9と同一符号は同一または相当部分を示すので説明を省略する。
出演者情報収集部21は例えばインターネットなどの外部ネットワークに対するインタフェース機器(例えば、無線通信装置、ケーブルモデムなど)を実装しており、図1の出演者情報収集部3と同様に、外部ネットワーク上のサーバから、出演者の識別情報であるタレントID、タレント名及び顔画像を収集して、出演者のタレントID、タレント名及び顔画像が対応付けられている顔画像データベース4を構築する処理を実施する他に、外部ネットワーク上のサーバから、出演者の属性情報(例えば、生年月日、血液型、出身地など)を収集して、出演者のタレントIDと属性情報が対応付けられている属性情報データベース22を構築する処理を実施する。
属性情報データベース22は例えばRAMやハードディスクなどの記憶装置から構成されており、出演者のタレントIDと属性情報の対応関係を記憶している。
この実施の形態4では、顔画像データベース4と属性情報データベース22が別々のデータベースである例を説明するが、顔画像データベース4と属性情報データベース22が統合されている1つのデータベースであってもよい。
操作UI表示部23はユーザインタフェース、GPU及びディスプレイなどから構成されており、図9の操作UI表示部14と同様に、出演者別の出演時間帯を示す出演時間帯画面を表示する処理、各々の出演者間の関連度を示す相関図を表示する処理や、映像コンテンツに登場している出演者の中から、任意の出演者の選択を受け付けて、その出演者のタレントIDを出力する処理を実施する他に、属性情報データベース22の中から、そのタレントIDが示す出演者の属性情報を取得して、その出演者の属性情報をディスプレイに表示する処理を実施する。なお、操作UI表示部23は画面表示手段、出演者選択受付手段及び属性情報表示手段を構成している。
図10の例では、コンテンツ分析装置の構成要素であるコンテンツ記憶部1、顔画像検出部2、出演者情報収集部21、顔画像データベース4、顔画像照合部5、出演時間特定部6、出演者データベース構築部7、出演者データベース8、重要度判定部9、関連度算出部11、関連度データベース12、属性情報データベース22、操作UI表示部23及びコンテンツ再生部15のそれぞれが専用のハードウェアで構成されているものを想定しているが、コンテンツ分析装置がコンピュータで構成されていてもよい。
コンテンツ分析装置がコンピュータで構成されている場合、コンテンツ記憶部1、顔画像データベース4、出演者データベース8、関連度データベース12及び属性情報データベース22をコンピュータの内部メモリ又は外部メモリ上に構成するとともに、顔画像検出部2、出演者情報収集部21、顔画像照合部5、出演時間特定部6、出演者データベース構築部7、重要度判定部9、関連度算出部11、操作UI表示部23及びコンテンツ再生部15の処理内容を記述しているコンテンツ分析プログラムをコンピュータのメモリに格納して、当該コンピュータの演算制御部であるCPUが当該メモリに格納されているコンテンツ分析プログラムを実行するようにすればよい。
次に動作について説明する。
出演者情報収集部21、属性情報データベース22及び操作UI表示部23以外は、上記実施の形態3と同様であるため、ここでは、出演者情報収集部21、属性情報データベース22及び操作UI表示部23の処理内容だけを説明する。
出演者情報収集部21は、図1の出演者情報収集部3と同様に、例えば、外部ネットワーク上のサーバに対して定期的にアクセスして、そのサーバから出演者の識別情報であるタレントID、タレント名及び顔画像を収集する。
また、出演者情報収集部21は、そのサーバから出演者の属性情報を収集する。
出演者情報収集部21は、サーバから出演者のタレントID、タレント名、顔画像及び属性情報を収集する毎に、出演者のタレントID、タレント名及び顔画像が対応付けられている顔画像データベース4を最新の状態に更新する。
また、出演者情報収集部21は、出演者のタレントID、タレント名及び属性情報が対応付けられている属性情報データベース22を最新の状態に更新する。
ここで、図11は属性情報データベース22により記憶されている属性情報の一例を示す説明図である。
図11の例では、出演者の属性情報として、生年月日、血液型、出身地を記録しているが、これは一例に過ぎず、例えば、主な出演作品や受賞歴などの属性情報を記録するようにしてもよい。
操作UI表示部23は、例えば、図5の出演時間帯画面、あるいは、図8の相関図を表示しているとき、外部装置から或る出演者を選択する操作信号(例えば、出演者の顔画像をダブルクリックする操作など)を受けると、出演者データベース構築部7により構築された出演者データベース8を参照して、その操作信号が示す出演者のタレントIDを特定し、属性情報データベース22の中から、そのタレントIDが示す出演者の属性情報を取得して、その出演者の属性情報をディスプレイに表示する。
図11の例では、タレントIDが「0003」であれば、タレント名「佐□三郎」の生年月日(1998年5月6日)、血液型(O型)、出身地(千葉)をディスプレイに表示する。
以上で明らかなように、この実施の形態4によれば、操作UI表示部23が、映像コンテンツに登場している出演者の中から、任意の出演者の選択を受け付けるとともに、属性情報データベース22の中から、その出演者の属性情報を取得して、その出演者の属性情報をディスプレイに表示するように構成したので、映像コンテンツに登場している出演者が、どのような出演者であるのかを確認することができる効果を奏する。
実施の形態5.
図12はこの発明の実施の形態5によるコンテンツ分析装置を示す構成図であり、図において、図10と同一符号は同一または相当部分を示すので説明を省略する。
出演者情報収集部24は例えばインターネットなどの外部ネットワークに対するインタフェース機器(例えば、無線通信装置、ケーブルモデムなど)を実装しており、図10の出演者情報収集部21と同様の処理を実施するほかに、出演者のタレントIDと、その出演者が出演している映像コンテンツを示す出演情報とが対応付けられている出演情報データベース25を構築する処理を実施する。
出演情報データベース25は例えばRAMやハードディスクなどの記憶装置から構成されており、出演者のタレントIDと出演情報の対応関係を記憶している。
操作UI表示部26はユーザインタフェース、GPU及びディスプレイなどから構成されており、図10の操作UI表示部23と同様の処理を実施する他に、出演情報データベース25の中から、選択を受け付けた出演者のタレントIDが示す出演者の出演情報を取得して、その出演情報が示す映像コンテンツの一覧を表示する処理を実施する。
また、操作UI表示部26は出演者データベース構築部7により構築された出演者データベース8を参照して、選択を受け付けた出演者のタレントIDが示す出演時間帯を特定し、映像コンテンツにおける前記出演時間帯のフレームの一覧を表示する処理を実施する。なお、操作UI表示部26は画面表示手段、出演者選択受付手段、属性情報表示手段及び一覧表示手段を構成している。
図12の例では、コンテンツ分析装置の構成要素であるコンテンツ記憶部1、顔画像検出部2、出演者情報収集部24、顔画像データベース4、顔画像照合部5、出演時間特定部6、出演者データベース構築部7、出演者データベース8、重要度判定部9、関連度算出部11、関連度データベース12、属性情報データベース22、出演情報データベース25、操作UI表示部26及びコンテンツ再生部15のそれぞれが専用のハードウェアで構成されているものを想定しているが、コンテンツ分析装置がコンピュータで構成されていてもよい。
コンテンツ分析装置がコンピュータで構成されている場合、コンテンツ記憶部1、顔画像データベース4、出演者データベース8、関連度データベース12、属性情報データベース22及び出演情報データベース25をコンピュータの内部メモリ又は外部メモリ上に構成するとともに、顔画像検出部2、出演者情報収集部24、顔画像照合部5、出演時間特定部6、出演者データベース構築部7、重要度判定部9、関連度算出部11、操作UI表示部26及びコンテンツ再生部15の処理内容を記述しているコンテンツ分析プログラムをコンピュータのメモリに格納して、当該コンピュータの演算制御部であるCPUが当該メモリに格納されているコンテンツ分析プログラムを実行するようにすればよい。
次に動作について説明する。
出演者情報収集部24、出演情報データベース25及び操作UI表示部26以外は、上記実施の形態4と同様であるため、ここでは、出演者情報収集部24、出演情報データベース25及び操作UI表示部26の処理内容だけを説明する。
出演者情報収集部24は、図10の出演者情報収集部21と同様に、顔画像データベース4及び属性情報データベース22を構築するほか、例えば、外部ネットワーク上のサーバに対して定期的にアクセスして、そのサーバから出演者の識別情報であるタレントIDと、その出演者が出演している映像コンテンツを示す出演情報とを収集する。
出演者情報収集部24は、サーバから出演者のタレントID及び出演情報を収集する毎に、出演者のタレントIDと出演情報が対応付けられている出演情報データベース25を最新の状態に更新する。
ここで、図13は出演情報データベース25により記憶されている出演情報の一例を示す説明図である。
操作UI表示部26は、例えば、図5の出演時間帯画面、あるいは、図8の相関図を表示しているとき、外部装置から或る出演者を選択する操作信号(例えば、出演者の顔画像をクリックする操作など)を受けるとともに、出演情報の一覧表示を指示する操作信号を受けると、出演者データベース構築部7により構築された出演者データベース8を参照して、その操作信号が示す出演者のタレントIDを特定し、出演情報データベース25の中から、そのタレントIDが示す出演者の出演情報を取得して、その出演情報が示す映像コンテンツの一覧をディスプレイに表示する。
図13の例では、タレントIDが「0002」であれば、出演情報として、映画X、バラエティC、ドラマBを一覧表示する。
また、操作UI表示部26は、例えば、図5の出演時間帯画面、あるいは、図8の相関図を表示しているとき、外部装置から或る出演者を選択する操作信号(例えば、出演者の顔画像をクリックする操作など)を受けるとともに、出演時間帯のフレームの一覧表示を指示する操作信号を受けると、出演者データベース構築部7により構築された出演者データベース8を参照して、そのタレントIDが示す出演時間帯を特定し、映像コンテンツにおける前記出演時間帯のフレームの一覧をディスプレイに表示する。
図4の例では、タレントIDが「0001」であれば、出演時間帯が“00:00:01”〜“00:00:57”におけるフレームの代表的なシーン(サムネイル画像)と、“00:01:32”〜“00:04:03”におけるフレームの代表的なシーン(サムネイル画像)とをディスプレイに表示する。
以上で明らかなように、この実施の形態5によれば、操作UI表示部26が、出演情報データベース25の中から、選択を受け付けた出演者のタレントIDが示す出演者の出演情報を取得して、その出演情報が示す映像コンテンツの一覧を表示するように構成したので、所望の出演者が、コンテンツ記憶部1により記憶されている映像コンテンツの他に、どのような映像コンテンツに出演者しているかを容易に把握することができる効果を奏する。
また、操作UI表示部26が、出演者データベース構築部7により構築された出演者データベース8を参照して、選択を受け付けた出演者のタレントIDが示す出演時間帯を特定し、映像コンテンツにおける前記出演時間帯のフレームの一覧を表示するように構成したので、所望の出演者における各出演時間帯の内容を把握することができる効果を奏する。
この実施の形態5では、操作UI表示部26が、映像コンテンツに登場している出演者の中から、任意の出演者の選択を受け付ける例を示したが、複数の出演者の選択を受け付けるようにしてもよい。
操作UI表示部26は、複数の出演者の選択を受け付けると、出演情報データベース25の中から、複数の出演者が共演している出演情報を取得して、その出演情報が示す映像コンテンツの一覧をディスプレイに表示する。
図13の例では、タレントIDが「0001」と「0002」であれば、共演している出演情報として、映画Xを一覧表示する。
また、操作UI表示部26は、複数の出演者の選択を受け付けると、出演者データベース構築部7により構築された出演者データベース8を参照して、複数の出演者の共演時間帯を特定し、映像コンテンツにおける前記共演時間帯のフレームの一覧をディスプレイに表示する。
図4の例では、タレントIDが「0001」と「0002」であれば、共演時間帯が“00:00:33”〜“00:00:57”であるため、“00:00:33”〜“00:00:57”におけるフレームの代表的なシーン(サムネイル画像)をディスプレイに表示する。
実施の形態6.
上記実施の形態1〜5では、操作UI表示部10(または、操作UI表示部13,14,23,26)がコンテンツ分析装置に実装されており、操作UI表示部10等が、出演時間帯画面等をディスプレイに表示するものを示したが、出演時間帯画面等の画面データを外部装置(例えば、スマートフォン、タブレットなど)に送信して、外部装置が出演時間帯画面等を表示するようにしてもよい。
図14はこの発明の実施の形態6によるコンテンツ分析装置を示す構成図であり、図において、図12と同一符号は同一または相当部分を示すので説明を省略する。
外部装置31は例えばスマートフォンやタブレットなどの装置であり、赤外線やブルートゥース(Bluetooth:登録商標/以下、省略して記載)などの無線機能を用いて、コンテンツ分析装置と各種の操作信号や画面データを送受信する。
画面データ出力部32は赤外線やブルートゥースなどの無線機能を備えており、図12の操作UI表示部26と同様に、出演時間帯画面の生成処理、相関図の生成処理、映像コンテンツの再生処理、出演者の属性情報の取得処理及び出演情報の取得処理を実施するほか、外部装置31からの要求に応じて、出演時間帯画面、相関図及び映像コンテンツの画面データや、出演者の属性情報及び出演情報を外部装置31に送信する処理を実施する。なお、画面データ出力部32は画面データ出力手段を構成している。
図14の例では、コンテンツ分析装置の構成要素であるコンテンツ記憶部1、顔画像検出部2、出演者情報収集部24、顔画像データベース4、顔画像照合部5、出演時間特定部6、出演者データベース構築部7、出演者データベース8、重要度判定部9、関連度算出部11、関連度データベース12、属性情報データベース22、出演情報データベース25、コンテンツ再生部15及び画面データ出力部32のそれぞれが専用のハードウェアで構成されているものを想定しているが、コンテンツ分析装置がコンピュータで構成されていてもよい。
コンテンツ分析装置がコンピュータで構成されている場合、コンテンツ記憶部1、顔画像データベース4、出演者データベース8、関連度データベース12、属性情報データベース22及び出演情報データベース25をコンピュータの内部メモリ又は外部メモリ上に構成するとともに、顔画像検出部2、出演者情報収集部24、顔画像照合部5、出演時間特定部6、出演者データベース構築部7、重要度判定部9、関連度算出部11、コンテンツ再生部15及び画面データ出力部32の処理内容を記述しているコンテンツ分析プログラムをコンピュータのメモリに格納して、当該コンピュータの演算制御部であるCPUが当該メモリに格納されているコンテンツ分析プログラムを実行するようにすればよい。
次に動作について説明する。
外部装置31及び画面データ出力部32以外は、上記実施の形態5と同様であるため、ここでは、外部装置31及び画面データ出力部32の処理内容だけを説明する。
この実施の形態6のコンテンツ分析装置は、上記実施の形態1〜5と異なり、出演時間帯画面等の画面データを外部装置31に送信して、外部装置31が出演時間帯画面等を表示するものである。
画面データ出力部32は、図12の操作UI表示部26と異なり、出演時間帯画面等を表示する機能を備えていないが、操作UI表示部26と同様に、出演時間帯画面の生成処理、相関図の生成処理、映像コンテンツの再生処理、出演者の属性情報の取得処理及び出演情報の取得処理を実施する機能を備えている。
画面データ出力部32は、外部装置31から出演時間帯画面の送信要求を受信すると、その出演時間帯画面の画面データを外部装置31に送信し、外部装置31から相関図の送信要求を受信すると、その相関図の画面データを外部装置31に送信し、外部装置31から映像コンテンツの再生画面の送信要求を受信すると、その再生画面の画面データを外部装置31に送信する。
また、画面データ出力部32は、外部装置31から出演者の属性情報の送信要求を受信すると、その属性情報を外部装置31に送信し、外部装置31から出演情報の送信要求を受信すると、その出演情報を外部装置31に送信する。
外部装置31は、画面データ出力部32から送信された画面データにしたがって出演時間帯画面、相関図又は再生画面を自己のディスプレイに表示する。
また、外部装置31は、画面データ出力部32から送信された出演者の属性情報を自己のディスプレイに表示し、画面データ出力部32から送信された出演者の出演情報を自己のディスプレイに表示する。
これにより、上記実施の形態5と同様の効果を得ることができる。
実施の形態7.
上記実施の形態6では、画面データ出力部32が画面データ等を外部装置31に送信するものを示したが、外部装置31からデータベースの参照要求を受信すると、データベースの参照を受け付けるだけで、特に出演時間帯画面の生成処理等を実施せずに、外部装置31が、図12の操作UI表示部26と同様の機能を備えて、出演時間帯画面の生成処理等を実施するようにしてもよい。
図15はこの発明の実施の形態7によるコンテンツ分析装置を示す構成図であり、図において、図12及び図14と同一符号は同一または相当部分を示すので説明を省略する。
参照受付部33は赤外線やブルートゥースなどの無線機能を備えており、外部装置31からデータベース(コンテンツ記憶部1、出演者データベース8、関連度データベース12、属性情報データベース22、出演情報データベース25)の参照要求を受信すると、データベースの参照を受け付ける処理を実施する。なお、参照受付部33は参照受付手段を構成している。
図15の例では、コンテンツ分析装置の構成要素であるコンテンツ記憶部1、顔画像検出部2、出演者情報収集部24、顔画像データベース4、顔画像照合部5、出演時間特定部6、出演者データベース構築部7、出演者データベース8、重要度判定部9、関連度算出部11、関連度データベース12、属性情報データベース22、出演情報データベース25、コンテンツ再生部15及び参照受付部33のそれぞれが専用のハードウェアで構成されているものを想定しているが、コンテンツ分析装置がコンピュータで構成されていてもよい。
コンテンツ分析装置がコンピュータで構成されている場合、コンテンツ記憶部1、顔画像データベース4、出演者データベース8、関連度データベース12、属性情報データベース22及び出演情報データベース25をコンピュータの内部メモリ又は外部メモリ上に構成するとともに、顔画像検出部2、出演者情報収集部24、顔画像照合部5、出演時間特定部6、出演者データベース構築部7、重要度判定部9、関連度算出部11、コンテンツ再生部15及び参照受付部33の処理内容を記述しているコンテンツ分析プログラムをコンピュータのメモリに格納して、当該コンピュータの演算制御部であるCPUが当該メモリに格納されているコンテンツ分析プログラムを実行するようにすればよい。
次に動作について説明する。
外部装置31及び参照受付部33以外は、上記実施の形態5と同様であるため、ここでは、外部装置31及び参照受付部33の処理内容だけを説明する。
この実施の形態7のコンテンツ分析装置は、上記実施の形態1〜5と異なり、出演時間帯画面の生成処理等を実施せず、外部装置31が、図12の操作UI表示部26と同様の機能を備えて、出演時間帯画面の生成処理等を実施するものである。
外部装置31は、出演時間帯画面、相関図、映像コンテンツの再生画面、出演者の属性情報、あるいは、出演情報を表示する必要がある場合、ユーザの操作の下で、データベース(コンテンツ記憶部1、出演者データベース8、関連度データベース12、属性情報データベース22、出演情報データベース25)の参照要求をコンテンツ分析装置に送信する。
コンテンツ分析装置の参照受付部33は、外部装置31からデータベースの参照要求を受信すると、データベースの参照を受け付ける処理を実施する。
これにより、外部装置31は、コンテンツ分析装置内のデータベース(コンテンツ記憶部1、出演者データベース8、関連度データベース12、属性情報データベース22、出演情報データベース25)を参照することが可能になる。
ここでは、外部装置31からデータベースの参照要求を受信すると、直ちに、データベースの参照を受け付けるものを示しているが、例えば、ユーザIDとパスワードの送信を外部装置31に要求して、適正なユーザIDとパスワードを受信できたことを条件に、データベースの参照を受け付けるようにしてもよい。
外部装置31は、図12の操作UI表示部26と同様の機能を備えており、コンテンツ分析装置内のデータベースの参照が可能なると、図12の操作UI表示部26と同様の方法で、出演時間帯画面の生成処理等を実施して、出演時間帯画面等を自己のディスプレイに表示する。
これにより、上記実施の形態5と同様の効果を得ることができる。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
1 コンテンツ記憶部、2 顔画像検出部(顔画像検出手段)、3 出演者情報収集部、4 顔画像データベース、5 顔画像照合部(顔画像照合手段)、6 出演時間特定部(出演時間特定手段)、7 出演者データベース構築部(出演者データベース構築手段)、8 出演者データベース、9 重要度判定部(重要度判定手段)、12 関連度データベース、10,13 操作UI表示部(画面表示手段)、11 関連度算出部(関連度算出手段)、14 操作UI表示部(画面表示手段、出演者選択受付手段)、15 コンテンツ再生部(コンテンツ再生手段)、21,24 出演者情報収集部、22 属性情報データベース、23 操作UI表示部(画面表示手段、出演者選択受付手段、属性情報表示手段)、25 出演情報データベース、26 操作UI表示部(画面表示手段、出演者選択受付手段、属性情報表示手段、一覧表示手段)、31 外部装置、32 画面データ出力部(画面データ出力手段)、33 参照受付部(参照受付手段)。

Claims (16)

  1. 映像コンテンツを構成している各々のフレームから、前記映像コンテンツに登場している出演者の顔画像を検出する顔画像検出手段と、
    出演者の顔画像が格納されている顔画像データベース内の顔画像と前記顔画像検出手段により検出された出演者の顔画像を照合する顔画像照合手段と、
    前記顔画像検出手段により出演者の顔画像が検出されたフレームの再生時刻から前記出演者の出演時間を特定する出演時間特定手段と、
    前記顔画像照合手段の照合結果に基づいて、前記顔画像検出手段により検出された出演者の顔画像と前記出演時間特定手段により特定された出演者の出演時間とを紐付けて、出演者別の出演時間帯を示す出演者データベースを構築する出演者データベース構築手段と
    を備えたコンテンツ分析装置。
  2. 映像コンテンツを構成している各々のフレームから、前記映像コンテンツに登場している出演者の顔画像を検出する顔画像検出手段と、
    予め出演者の識別情報と顔画像が対応付けられている顔画像データベース内の顔画像と前記顔画像検出手段により検出された出演者の顔画像を照合し、前記顔画像と一致する顔画像が前記顔画像データベース内に登録されていれば、前記顔画像データベースから前記顔画像に対応する出演者の識別情報を取得する顔画像照合手段と、
    前記顔画像検出手段により出演者の顔画像が検出されたフレームの再生時刻から前記出演者の出演時間を特定する出演時間特定手段と、
    前記顔画像照合手段により取得された出演者の識別情報と前記出演時間特定手段により特定された出演者の出演時間とを紐付けて、出演者別の出演時間帯を示す出演者データベースを構築する出演者データベース構築手段と
    を備えたコンテンツ分析装置。
  3. 前記出演者データベース構築手段により構築された出演者データベースを参照して、出演者別の出演時間帯を示す出演時間帯画面を表示する画面表示手段を備えたことを特徴とする請求項1または請求項2記載のコンテンツ分析装置。
  4. 前記出演者データベース構築手段により構築された出演者データベースを参照して、出演者別の出演時間帯を示す出演時間帯画面を生成し、前記出演時間帯画面の画面データを外部装置に出力する画面データ出力手段を備えたことを特徴とする請求項1または請求項2記載のコンテンツ分析装置。
  5. 外部装置から前記出演者データベースの参照要求を受信すると、前記出演者データベースの参照を受け付ける参照受付手段を備えたことを特徴とする請求項1または請求項2記載のコンテンツ分析装置。
  6. 前記出演者データベース構築手段により構築された出演者データベースを参照して、出演者別の合計出演時間を算出し、各出演者の合計出演時間を基準にして、各出演者の重要度を判定する重要度判定手段を備え、
    前記画面表示手段は、前記重要度判定手段により判定された重要度が高い出演者ほど、当該出演者の出演時間帯が目立つ出演時間帯画面を表示することを特徴とする請求項3記載のコンテンツ分析装置。
  7. 前記出演者データベース構築手段により構築された出演者データベースを参照して、出演者別の合計出演時間を算出し、各出演者の合計出演時間の基準にして、各出演者の重要度を判定する重要度判定手段を備え、
    前記画面データ出力手段は、前記重要度判定手段により判定された重要度が高い出演者ほど、当該出演者の出演時間帯が目立つ出演時間帯画面を生成して、前記出演時間帯画面の画面データを外部装置に出力することを特徴とする請求項4記載のコンテンツ分析装置。
  8. 前記出演者データベース構築手段により構築された出演者データベースを参照して、各々の出演者間の共演時間を特定し、前記共演時間から各々の出演者間の関連度を算出する関連度算出手段を備え、
    前記画面表示手段は、前記関連度算出手段により算出された各々の出演者間の関連度を示す相関図を表示することを特徴とする請求項3記載のコンテンツ分析装置。
  9. 前記出演者データベース構築手段により構築された出演者データベースを参照して、各々の出演者間の共演時間を特定し、前記共演時間から各々の出演者間の関連度を算出する関連度算出手段を備え、
    前記画面データ出力手段は、前記関連度算出手段により算出された各々の出演者間の関連度を示す相関図を生成し、前記相関図の画面データを外部装置に出力することを特徴とする請求項4記載のコンテンツ分析装置。
  10. 前記映像コンテンツに登場している出演者の中から、任意の出演者の選択を受け付けて、前記出演者の識別情報を出力する出演者選択受付手段と、
    前記出演者データベース構築手段により構築された出演者データベースを参照して、前記出演者選択受付手段から出力された識別情報が示す出演者の出演時間帯を特定し、前記映像コンテンツにおける前記出演時間帯のフレームを再生するコンテンツ再生手段と
    を備えたことを特徴とする請求項2または請求項3記載のコンテンツ分析装置。
  11. コンテンツ再生手段は、出演者選択受付手段により複数の出演者の選択が受け付けられた場合、出演者データベース構築手段により構築された出演者データベースを参照して、前記複数の出演者の共演時間帯を特定し、映像コンテンツにおける前記共演時間帯のフレームを再生することを特徴とする請求項10記載のコンテンツ分析装置。
  12. 前記映像コンテンツに登場している出演者の中から、任意の出演者の選択を受け付けて、前記出演者の識別情報を出力する出演者選択受付手段と、
    予め出演者の識別情報と属性情報が対応付けられている属性情報データベースの中から、前記出演者選択受付手段から出力された識別情報が示す出演者の属性情報を取得し、前記出演者の属性情報を表示する属性情報表示手段と
    を備えたことを特徴とする請求項2または請求項3記載のコンテンツ分析装置。
  13. 前記映像コンテンツに登場している出演者の中から、任意の出演者の選択を受け付けて、前記出演者の識別情報を出力する出演者選択受付手段と、
    予め出演者の識別情報と前記出演者が出演しているコンテンツを示す出演情報とが対応付けられている出演情報データベースの中から、前記出演者選択受付手段から出力された識別情報が示す出演者の出演情報を取得して、前記出演情報が示すコンテンツの一覧を表示、あるいは、前記出演者データベース構築手段により構築された出演者データベースを参照して、前記出演者選択受付手段から出力された識別情報が示す出演者の出演時間帯を特定し、前記映像コンテンツにおける前記出演時間帯のフレームの一覧を表示する一覧表示手段と
    を備えたことを特徴とする請求項2または請求項3記載のコンテンツ分析装置。
  14. 前記一覧表示手段は、前記出演者選択受付手段により複数の出演者の選択が受け付けられた場合、前記出演情報データベースの中から、前記複数の出演者が共演している出演情報を取得して、前記出演情報が示すコンテンツの一覧を表示、あるいは、前記複数の出演者の共演時間帯を特定し、前記映像コンテンツにおける前記共演時間帯のフレームの一覧を表示することを特徴とする請求項13記載のコンテンツ分析装置。
  15. 顔画像検出手段が、映像コンテンツを構成している各々のフレームから、前記映像コンテンツに登場している出演者の顔画像を検出する顔画像検出処理ステップと、
    顔画像照合手段が、出演者の顔画像が格納されている顔画像データベース内の顔画像と前記顔画像検出処理ステップで検出された出演者の顔画像を照合する顔画像照合処理ステップと、
    出演時間特定手段が、前記顔画像検出処理ステップで出演者の顔画像が検出されたフレームの再生時刻から前記出演者の出演時間を特定する出演時間特定処理ステップと、
    出演者データベース構築手段が、前記顔画像照合処理ステップでの照合結果に基づいて、前記顔画像検出処理ステップで検出された出演者の顔画像と前記出演時間特定処理ステップで特定された出演者の出演時間とを紐付けて、出演者別の出演時間帯を示す出演者データベースを構築する出演者データベース構築処理ステップと
    を備えたコンテンツ分析方法。
  16. コンピュータの演算制御部が実行する処理手順を記述しているコンピュータプログラムであって、
    映像コンテンツを構成している各々のフレームから、前記映像コンテンツに登場している出演者の顔画像を検出する顔画像検出処理手順と、
    出演者の顔画像が格納されている顔画像データベース内の顔画像と前記顔画像検出処理手順により検出された出演者の顔画像を照合する顔画像照合処理手順と、
    前記顔画像検出処理手順により出演者の顔画像が検出されたフレームの再生時刻から前記出演者の出演時間を特定する出演時間特定処理手順と、
    前記顔画像照合処理手順での照合結果に基づいて、前記顔画像検出処理手順により検出された出演者の顔画像と前記出演時間特定処理手順により特定された出演者の出演時間とを紐付けて、出演者別の出演時間帯を示す出演者データベースを構築する出演者データベース構築処理手順とが記述されていることを特徴とするコンテンツ分析プログラム。
JP2013120984A 2013-06-07 2013-06-07 コンテンツ分析装置、コンテンツ分析方法及びコンテンツ分析プログラム Pending JP2014238712A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013120984A JP2014238712A (ja) 2013-06-07 2013-06-07 コンテンツ分析装置、コンテンツ分析方法及びコンテンツ分析プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013120984A JP2014238712A (ja) 2013-06-07 2013-06-07 コンテンツ分析装置、コンテンツ分析方法及びコンテンツ分析プログラム

Publications (1)

Publication Number Publication Date
JP2014238712A true JP2014238712A (ja) 2014-12-18

Family

ID=52135827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013120984A Pending JP2014238712A (ja) 2013-06-07 2013-06-07 コンテンツ分析装置、コンテンツ分析方法及びコンテンツ分析プログラム

Country Status (1)

Country Link
JP (1) JP2014238712A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6062525B1 (ja) * 2015-12-22 2017-01-18 株式会社Flyblue 情報分析装置、情報分析方法及び情報分析プログラム
JP2019213072A (ja) * 2018-06-06 2019-12-12 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
US10657417B2 (en) 2016-12-28 2020-05-19 Ambass Inc. Person information display apparatus, a person information display method, and a person information display program
CN113014832A (zh) * 2019-12-19 2021-06-22 志贺司 影像编辑系统及影像编辑方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007281680A (ja) * 2006-04-04 2007-10-25 Sony Corp 画像処理装置および画像表示方法
JP2008077536A (ja) * 2006-09-25 2008-04-03 Sony Corp 画像処理装置および方法、並びにプログラム
JP2009033351A (ja) * 2007-07-25 2009-02-12 Canon Inc 記録再生装置及び方法
JP2012256105A (ja) * 2011-06-07 2012-12-27 Sony Corp 表示装置、オブジェクト表示方法、及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007281680A (ja) * 2006-04-04 2007-10-25 Sony Corp 画像処理装置および画像表示方法
JP2008077536A (ja) * 2006-09-25 2008-04-03 Sony Corp 画像処理装置および方法、並びにプログラム
JP2009033351A (ja) * 2007-07-25 2009-02-12 Canon Inc 記録再生装置及び方法
JP2012256105A (ja) * 2011-06-07 2012-12-27 Sony Corp 表示装置、オブジェクト表示方法、及びプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6062525B1 (ja) * 2015-12-22 2017-01-18 株式会社Flyblue 情報分析装置、情報分析方法及び情報分析プログラム
JP2017117130A (ja) * 2015-12-22 2017-06-29 株式会社Flyblue 情報分析装置、情報分析方法及び情報分析プログラム
US10657417B2 (en) 2016-12-28 2020-05-19 Ambass Inc. Person information display apparatus, a person information display method, and a person information display program
JP2019213072A (ja) * 2018-06-06 2019-12-12 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP7148857B2 (ja) 2018-06-06 2022-10-06 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
CN113014832A (zh) * 2019-12-19 2021-06-22 志贺司 影像编辑系统及影像编辑方法
CN113014832B (zh) * 2019-12-19 2024-03-12 志贺司 影像编辑系统及影像编辑方法

Similar Documents

Publication Publication Date Title
CN106462874B (zh) 用于呈现与视频内容有关的商业信息的方法、系统和介质
KR102114701B1 (ko) 미디어 데이터에 있는 아이템을 인식하고 이와 관련된 정보를 전달하기 위한 시스템 및 방법
EP3138296B1 (en) Displaying data associated with a program based on automatic recognition
JP6408551B2 (ja) メディアコンテンツに対応する携帯型コンテンツを提供するための方法、システム、および記録媒体
US9270918B2 (en) Method of recommending broadcasting contents and recommending apparatus therefor
US9105298B2 (en) Digital life recorder with selective playback of digital video
US20140075465A1 (en) Time varying evaluation of multimedia content
US10981056B2 (en) Methods and systems for determining a reaction time for a response and synchronizing user interface(s) with content being rendered
US20140052696A1 (en) Systems and methods for visual categorization of multimedia data
US20090190804A1 (en) Electronic apparatus and image processing method
JP2009140051A (ja) 情報処理装置、情報処理システム、推薦装置、情報処理方法および記憶媒体
KR20160104661A (ko) 온-디맨드 미디어 컨텐츠에 대응하는 보충적인 정보를 제시하기 위한 방법들, 시스템들 및 매체들
KR20140054196A (ko) 비디오 콘텐츠 내의 엘리먼트들의 시각적 선택을 위한 시스템 및 방법
JP2012186621A (ja) 情報処理装置、情報処理方法およびプログラム
KR20160044954A (ko) 정보 제공 방법 및 이를 구현하는 전자 장치
JP2014238712A (ja) コンテンツ分析装置、コンテンツ分析方法及びコンテンツ分析プログラム
JP2014158193A (ja) 映像表示システム、映像表示装置、コンテンツサーバ、映像表示方法および映像表示プログラム
US20160066054A1 (en) Methods, systems, and media for providing media guidance
JP2009212859A (ja) コンテンツ再生装置、コンテンツ再生システム、コンテンツ再生方法、コンテンツサーバ装置、コンテンツ情報表示システム、コンテンツ再生プログラムおよび該プログラムを記録した記録媒体
JP6125454B2 (ja) マッチング装置、マッチングシステム及びマッチング方法
CN105657510A (zh) 图像显示装置及其信息提供方法
US11354005B2 (en) Methods, systems, and media for presenting annotations across multiple videos
TW201625009A (zh) 產生多媒體影音摘要的系統與方法
JP2010233020A (ja) 情報提供システム
WO2013084537A1 (ja) サーバ装置、av装置、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170404