JP2012238232A - 興味区間検出装置、視聴者興味情報提示装置、および興味区間検出プログラム - Google Patents

興味区間検出装置、視聴者興味情報提示装置、および興味区間検出プログラム Download PDF

Info

Publication number
JP2012238232A
JP2012238232A JP2011107591A JP2011107591A JP2012238232A JP 2012238232 A JP2012238232 A JP 2012238232A JP 2011107591 A JP2011107591 A JP 2011107591A JP 2011107591 A JP2011107591 A JP 2011107591A JP 2012238232 A JP2012238232 A JP 2012238232A
Authority
JP
Japan
Prior art keywords
viewer
unit
interest
image feature
facial expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011107591A
Other languages
English (en)
Other versions
JP5637930B2 (ja
Inventor
Makoto Okuda
誠 奥田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK filed Critical Nippon Hoso Kyokai NHK
Priority to JP2011107591A priority Critical patent/JP5637930B2/ja
Publication of JP2012238232A publication Critical patent/JP2012238232A/ja
Application granted granted Critical
Publication of JP5637930B2 publication Critical patent/JP5637930B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】コンテンツを視聴する視聴者の顔表情の変化を的確にとらえてコンテンツに対する興味区間を精度よく検出する。
【解決手段】コンテンツを視聴する視聴者が被写体として映る視聴者映像から、フレームごと、または複数フレームおきにフレーム画像データを取得する画像データ取得部301と、画像データ取得部301が取得したフレーム画像データに含まれる視聴者顔画像に基づいて、画像特徴量を計算する画像特徴量計算部303と、教師データである教師顔画像をあらかじめ機械学習して得た境界面から、画像特徴量計算部303が計算した画像特徴量までの距離である顔表情変化度合を計算する画像特徴量評価部304と、画像特徴量評価部304が計算した顔表情変化度合とあらかじめ設定された顔表情変化度合閾値とに基づき、視聴者のコンテンツに対する興味の有無を判定して興味区間を検出する視聴者状態検出部306とを備えた。
【選択図】図4

Description

本発明は、興味区間検出装置、視聴者興味情報提示装置、および興味区間検出プログラムに関する。
コンテンツを視聴している視聴者をカメラが撮影して得た映像データから、その視聴者の顔表情の変化を検出し、検出タイミングの近傍の時間に対応するコンテンツデータ部分からキーワードを抽出するキーワード抽出装置が知られている(例えば、特許文献1参照)。このキーワード抽出装置は、視聴者の嗜好や興味に合致する可能性が高いキーワードを抽出するものである。
特開2010−55409号公報
しかしながら、顔表情の変化度合には個人差がある。また、日常生活における顔表情の変化度合と、テレビ番組等のコンテンツを視聴しているときの顔表情の変化度合とが異なる場合もある。さらに、コンテンツのジャンルによっても、顔表情の変化度合に差異が生ずる。よって、視聴者個人に適合した、コンテンツ視聴時における顔表情変化の検出技術が求められる。
本発明は、上記事情に鑑みてなされたものであり、コンテンツを視聴する視聴者の顔表情の変化を的確にとらえてコンテンツに対する興味区間を精度よく検出することができる、興味区間検出装置および興味区間検出プログラムを提供することを目的とする。
また、それに加え、興味区間において、コンテンツを視聴する視聴者が興味をもったキーワードについてのウェブ検索、およびそのキーワードに対応するシーンの再生を簡単に行うことができる、視聴者興味情報提示装置を提供することを目的とする。
[1]上記の課題を解決するため、本発明の一態様である興味区間検出装置は、コンテンツを視聴する視聴者が被写体として映る視聴者映像から、フレームごと、または複数フレームおきにフレーム画像データを取得する画像データ取得部と、前記画像データ取得部が取得した前記フレーム画像データに含まれる視聴者顔画像に基づいて、画像特徴量を計算する画像特徴量計算部と、前記画像特徴量の空間における所定の超平面から、前記画像特徴量計算部が計算した前記画像特徴量までの距離である顔表情変化度合を計算する画像特徴量評価部と、前記画像特徴量評価部が計算した前記顔表情変化度合とあらかじめ設定された顔表情変化度合閾値とに基づき、前記視聴者の前記コンテンツに対する興味の有無を判定して興味区間を検出する視聴者状態検出部と、を備えることを特徴とする。
この構成によれば、本発明の第1の態様では、興味区間検出装置は、教師顔画像をあらかじめ機械学習させて境界面を求めておき、この境界面と視聴者顔画像の特徴量との距離に基づいて視聴者のコンテンツに対する興味の有無を推定する。よって、コンテンツを視聴する視聴者の顔表情の変化を的確にとらえてコンテンツに対する興味区間を精度よく検出することができる。
ここで、顔表情変化度合は、例えば、0(ゼロ)を中心(境界面上に相当する)とし、値が大きくなるほど顔表情の変化が大きくなり、値が小さくなるほど顔表情の変化が小さくなることを示す度合である。
[2]上記[1]記載の興味区間検出装置において、前記画像特徴量評価部は、顔表情有または顔表情無いずれかのラベルが付された教師顔画像を用いてサポートベクターマシンにより前記超平面を得ることを特徴とする。
[3]上記[1]または[2]記載の興味区間検出装置において、前記画像特徴量評価部は、所定の視聴期間分の顔表情変化度合を視聴者に対応させて取得し、前記所定の視聴期間分の顔表情変化度合に基づき顔表情変化度合閾値を計算して、前記顔表情変化度合閾値を前記視聴者状態検出部に設定することを特徴とする。
ここで、画像特徴量評価部は、取得した一定の視聴期間分の顔表情変化度合において、最大振幅における最大値から下方向に所定割合(例えば20%)の値を顔表情変化度合閾値とする。または、画像特徴量評価部は、取得した一定の視聴期間分の顔表情変化度合について時間積分し、一定レベルを超える側の面積が総面積の例えば20%となる当該レベルを、顔表情変化度合閾値に設定する。よって、このように構成することにより、視聴者個人の趣味、嗜好、視聴しているコンテンツに対する好み等に適合した、視聴者顔画像の閾値判定を行うことができる。
[4]上記[3]記載の興味区間検出装置において、外部から電子番組情報を取得する電子番組情報取得部をさらに備え、前記画像特徴量評価部は、視聴番組に対応する属性を抽出し、前記属性ごとに、顔表情変化度合を視聴者に対応させて取得することを特徴とする。
[5]上記の課題を解決するため、本発明の一態様である視聴者興味情報提示装置は、コンテンツを視聴する視聴者が被写体として映る視聴者映像から、フレームごと、または複数フレームおきにフレーム画像データを取得する画像データ取得部と、前記画像データ取得部が取得した前記フレーム画像データに含まれる視聴者顔画像に基づいて、画像特徴量を計算する画像特徴量計算部と、前記画像特徴量の空間における所定の超平面から、前記画像特徴量計算部が計算した前記画像特徴量までの距離である顔表情変化度合を計算する画像特徴量評価部と、画像特徴量評価部が計算した前記顔表情変化度合とあらかじめ設定された顔表情変化度合閾値とに基づき、前記視聴者の前記コンテンツに対する興味の有無を判定して興味区間を検出する視聴者状態検出部と、所定時間分のコンテンツデータを記憶可能な放送データバッファと、前記視聴者が視聴する番組に対応する放送データを多重分離してコンテンツデータを抽出するデータ分離部と、前記データ分離部が抽出した前記コンテンツデータを前記所定時間分だけ順次更新して前記放送データバッファに記憶させるバッファ制御部と、前記視聴者状態検出部が検出した前記興味区間において、前記放送データバッファからキーワードを抽出するキーワード抽出部と、前記キーワード抽出部が抽出した前記キーワードを選択可能に含めた興味情報メニューを生成する提示制御部と、を備えることを特徴とする。
この構成によれば、本発明の第5の態様では、視聴者興味情報提示装置は、検出した興味区間に対応する放送データの部分からキーワードを抽出し、この抽出したキーワードを選択可能に含めた興味情報メニューを生成する。よって、コンテンツを視聴する視聴者の顔表情の変化を的確にとらえてコンテンツに対する興味区間を精度よく検出し、それに加え、興味区間において、コンテンツを視聴する視聴者が興味をもったキーワードについての興味情報メニューを生成することができる。
[6]上記[5]記載の視聴者興味情報提示装置において、前記提示制御部は、ウェブ検索処理を実行させる検索ボタンをも含めて前記興味情報メニューを生成し、前記キーワードおよび前記検索ボタンが選択された場合に、前記キーワードを検索キーとしてウェブ検索を実行させることを特徴とする。
この構成によれば、興味区間において、コンテンツを視聴する視聴者が興味をもったキーワードについてのウェブ検索(例えば、情報検索および番組検索)を簡単に行うことができる。
[7]上記[5]または[6]記載の視聴者興味情報提示装置において、前記データ分離部が抽出した前記コンテンツデータを記憶する放送データ記憶部と、再生部と、を備え、前記提示制御部は、シーン再生処理を実行させるシーン再生ボタンをも含めて前記興味情報メニューを生成し、前記キーワードおよび前記シーン再生ボタンが選択された場合に、前記キーワードを含むコンテンツデータを前記放送データ記憶部から読み出し、前記コンテンツデータを前記再生部により再生させることを特徴とする。
この構成によれば、興味区間において、コンテンツを視聴する視聴者が興味をもったキーワードに対応するシーンの再生を簡単に行うことができる。
[8]上記の課題を解決するため、本発明の一態様である興味区間検出プログラムは、コンピュータを、コンテンツを視聴する視聴者が被写体として映る視聴者映像から、フレームごと、または複数フレームおきにフレーム画像データを取得する画像データ取得部と、前記画像データ取得部が取得した前記フレーム画像データに含まれる視聴者顔画像に基づいて、画像特徴量を計算する画像特徴量計算部と、前記画像特徴量の空間における所定の超平面から、前記画像特徴量計算部が計算した前記画像特徴量までの距離である顔表情変化度合を計算する画像特徴量評価部と、前記画像特徴量評価部が計算した前記顔表情変化度合とあらかじめ設定された顔表情変化度合閾値とに基づき、前記視聴者の前記コンテンツに対する興味の有無を判定して興味区間を検出する視聴者状態検出部と、として機能させる。
本発明によれば、コンテンツを視聴する視聴者の顔表情の変化を的確にとらえてコンテンツに対する興味区間を精度よく検出することができる。
また、それに加え、興味区間において、コンテンツを視聴する視聴者が興味をもったキーワードについてのウェブ検索、およびそのキーワードに対応するシーンの再生を簡単に行うことができる。
本発明の一実施形態である興味区間検出装置および視聴者興味情報提示装置を適用した、テレビ視聴システムの概略の全体構成図である。 同実施形態である興味区間検出装置に適用されたサポートベクターマシンによって、教師顔画像の画像特徴量が2クラスに分類された様子を示す概念図である。 二人の視聴者がテレビジョン受像機で同一のコンテンツを視聴しているときの、興味区間検出装置が算出する顔表情変化度合を時間経過に沿ってプロットしたグラフである。 同実施形態である興味区間検出装置の機能構成を示すブロック図である。 同実施形態における興味情報提示装置が表示する興味情報メニューを模式的に示した図である。 同実施形態における情報検索サイトの検索メニューの例である。 同実施形態における番組検索サイトの検索メニューの例である。 同実施形態における興味情報提示装置の機能構成を示すブロック図である。 同実施形態である興味区間検出装置が実行する機械学習処理の手順を示すフローチャートである。 同実施形態である興味区間検出装置が実行する閾値調整処理の手順を示すフローチャートである。 同実施形態である興味区間検出装置が実行する興味区間検出処理の手順を示すフローチャートである。 同実施形態における興味情報提示装置が実行する放送データ取得処理の手順を示すフローチャートである。 同実施形態における興味情報提示装置が実行する興味情報生成処理の手順を示すフローチャートである。 興味情報提示装置が表示する興味情報メニューを模式的に示した図の別の例である。
以下、本発明を実施するための形態について、図面を参照して詳細に説明する。
図1は、本発明の一実施形態である興味区間検出装置および視聴者興味情報提示装置を適用した、テレビ視聴システムの概略の全体構成図である。
同図に示すように、テレビ視聴システム1は、テレビジョン受像機10と、撮像装置20と、視聴者興味情報提示装置2とを、視聴者側の装置として含む。また、テレビ視聴システム1は、サーバ装置50をサービス提供者側の装置として含む。視聴者興味情報提示装置2とサーバ装置50とは、ネットワーク60を介して接続されている。
テレビジョン受像機10は、地上デジタル放送等の放送電波を受信した受信アンテナ(図示省略)から供給される信号を取り込んで放送データを取得し、視聴者によって所望に選択される番組のコンテンツデータやデータ放送のコンテンツデータ(これらをまとめてコンテンツデータと呼び、視聴する場合を指すときには、単にコンテンツと呼ぶ。)を放送データから抽出して映像音声出力するテレビ装置である。また、テレビジョン受像機10は、通信インタフェースを介して、取得した放送データを視聴者興味情報提示装置2に供給する。
テレビジョン受像機10は、例えば、受信アンテナで受信した信号を復調するチューナ部と表示部(例えば、液晶表示部)と音声出力部とを一体的に構成した液晶テレビ装置、チューナ部をセットトップボックスとして表示部から分離して構成したテレビシステム、チューナ部(例えば、チューナ搭載カード)を備えたコンピュータ装置および表示装置等により実現される。
撮像装置20は、テレビジョン受像機10でコンテンツを視聴する視聴者の顔を撮影可能な位置に設置され、コンテンツを視聴している視聴者の顔を撮影して得た撮像データ(視聴者映像)を視聴者興味情報提示装置2に供給する。撮像データは、例えば、30フレーム/秒(frames per second;fps)のフレームレートを有する映像データである。撮像装置20は、例えば、デジタルビデオカメラ装置により実現される。
図1に示すように、視聴者興味情報提示装置2は、興味区間検出装置30と、興味情報提示装置40とを含んで構成される。
視聴者興味情報提示装置2が備える制御部(図示省略)による選択制御によって、興味区間検出装置30は、興味区間検出モード、機械学習モード、および閾値調整モードのいずれかの動作モードに設定されて動作する。以下、動作モードごとに説明する。
興味区間検出装置30は、興味区間検出モードに設定された場合に、撮像装置20から供給される撮像データを取り込み、フレーム画像データに含まれる視聴者の顔画像(視聴者顔画像)の画像特徴量を、事前に機械学習させた2クラスの識別器により分類して、顔表情の変化度合(顔表情変化度合)を計算する。本実施形態では、興味区間検出装置30は、サポートベクターマシン(Support Vector Machine;SVM)を用いて機械学習処理を行う。顔表情変化度合は、例えば、0(ゼロ)を中心とし、値が大きくなるほど顔表情の変化が大きくなり、値が小さくなるほど顔表情の変化が小さくなることを示す度合である。
興味区間検出装置30は、あらかじめ各視聴者向きに調整された閾値(顔表情変化度合閾値)で顔表情変化度合を判定することによって、コンテンツデータに対する興味区間を検出する。興味区間とは、視聴者が興味をもってコンテンツを視聴していると推定される時間的な区間である。つまり、興味区間検出装置30は、顔表情変化度合が顔表情変化度合閾値を超える値であるときに興味区間であると判定する。
なお、同時に複数の視聴者がテレビジョン受像機10を視聴する場合は、興味区間検出装置30は、公知の顔認識技術を用いて、各視聴者の顔を認識し、視聴者ごとに顔表情変化度合を計算する。
サポートベクターマシンは、教師データである画像サンプルを用いた機械学習をあらかじめ行う。よって、興味区間検出装置30は、機械学習モードに設定された場合に、外部の教師データサーバ装置(図示省略)から、複数の表情無画像データと複数の表情有画像データとの教師顔画像を取り込み、この教師顔画像を用いて機械学習を行う。表情無画像データは、無表情である人の顔、および殆ど表情が出ていない人の顔を含む画像データに“表情なし”を示すラベルを付したフレーム画像データである。表情有画像データは、興味や好奇心をもったときの表情、例えば嬉しさや楽しさ等の感情表現をした人の顔を含む画像データに“表情あり”を示すラベルを付したフレーム画像データである。表情無画像データと表情有画像データとのサンプル数は多いほど学習精度が高まる。機械学習の詳細については、後述する。
また、興味区間検出装置30は、閾値調整モードに設定された場合に、視聴者に適した顔表情変化度合閾値を決定する。興味区間検出装置30は、視聴者(操作者)による操作にしたがって閾値調整パラメータを取り込む。閾値調整パラメータは、例えば、顔表情変化度合をサンプリングする期間を指定するサンプリング期間情報である。興味区間検出装置30は、閾値調整パラメータが示す期間において、撮像装置20から供給される撮像データを取り込んで、顔表情変化度合閾値を調整する。顔表情変化度合閾値の調整の詳細については、後述する。
興味情報提示装置40は、テレビジョン受像機10から供給される放送データを取り込み、興味区間検出装置30が検出した興味区間に対応する放送データの部分からキーワードを抽出する。例えば、興味情報提示装置40は、放送データに含まれる、メタデータ、番組表データ、データ放送コンテンツ、音声データ、文字データ、字幕データ等からキーワードを抽出する。
興味情報提示装置40は、抽出したキーワードを含めた興味情報を生成し、興味情報メニューを形成して表示する。興味情報は、キーワードとこのキーワードの関連情報とを含む情報である。興味情報メニューは、興味情報一覧と、視聴者によって任意に選択されるキーワードに基づく情報検索、番組検索、およびシーン再生いずれかの機能を選択させるためのボタンとを含む情報である。情報検索は、選択されたキーワードを検索語(検索キー)として、サーバ装置50から情報検索を行って検索結果を表示する機能である。番組検索は、選択されたキーワードを検索語として、サーバ装置50から番組コンテンツの検索を行って検索結果を表示する機能である。よって、興味情報提示装置40は、ウェブ検索処理を実行させるためのウェブブラウザを搭載している。シーン再生は、選択されたキーワードを含むセンテンスに対応するシーンを、記憶されたコンテンツデータから頭出しして再生する機能である。
サーバ装置50は、情報検索や番組検索のためのデータベースであり、ウェブ検索処理を実行する。サーバ装置50は、放送局や放送局以外の事業者によって管理されるものである。
ネットワーク60は、例えば、インターネットプロトコル(Internet Protocol;IP)によって通信可能なコンピュータネットワークである。
次に、視聴者興味情報提示装置2の興味区間検出装置30に適用されるサポートベクターマシンについて説明する。
図2は、サポートベクターマシンによって、教師顔画像の画像特徴量が2クラスに分類された様子を示す概念図である。画像特徴量は、例えば、Bag−of−keypointsである。便宜上、同図は、画像特徴量ベクトルの次元数を“2”とした場合を示している。2クラスとは、“表情あり”クラスおよび“表情なし”クラスである。また、同図に示した8個の教師顔画像および1個の視聴者顔画像(画像特徴量Xに対応する顔画像)のそれぞれは、画像特徴量に対応する顔の表情を視覚化したものであり、各顔画像が配置された位置は、特徴量空間(ここでは、特徴量平面)における画像特徴量の位置を示すものである。
本実施形態では、興味区間検出装置30は、機械学習モードに設定された場合に、複数の表情無画像データおよび複数の表情有画像データを教師データとして用いて、サポートベクターマシンにより境界面(超平面、分離超平面、分離平面等ともいう)Hを計算する。図2では、画像特徴量が2次元であるため、境界面Hは直線として表されるが、実際は、画像特徴量の次元数−1の次元数による超平面である。例えば、画像特徴量が300次元のBag−of−keypointsである場合、境界面Hは、299次元の超平面となる。つまり、境界面Hの計算が、サポートベクターマシンによる機械学習である。
同図において、8個の教師顔画像それぞれの画像特徴量は、境界面Hによって表情有の領域Aと、表情無の領域Bとに分類される。
閾値調整モードおよび興味区間検出モードに設定された場合に、学習後のサポートベクターマシンは、撮像装置10から供給された視聴者顔画像の画像特徴量Xについて、境界面Hから画像特徴量Xまでの距離である顔表情変化度合Dを計算する。この距離とは、特徴量空間における、画像特徴量Xから境界面Hまでのユークリッド距離である。本実施形態では、顔表情変化度合Dを、例えば、境界面H上の値が0(ゼロ)、表情有の領域A側が正値、表情無の領域B側が負値として表す。
次に、顔表情変化度合閾値の調整について説明する。
図3は、二人の視聴者(aおよびbとする)がテレビジョン受像機10で同一のコンテンツを視聴しているときの、興味区間検出装置30が算出する顔表情変化度合を時間経過に沿ってプロットしたグラフである。つまり、このグラフは、顔表情変化度合の時間変化グラフである。同図において、実線のグラフDは、視聴者aの顔表情変化度合の時間変化グラフであり、破線のグラフDは、視聴者bの顔表情変化度合の時間変化グラフである。
図3に示すとおり、視聴者aと視聴者bとでは、顔表情の変化度合に差異がある。具体的には、サンプリング期間tにおいて、視聴者aの顔表情変化度合の最大振幅Lは、視聴者bの顔表情変化度合の最大振幅Lよりも大きい。これは、言い換えると、視聴者aは、視聴者bよりも顔表情の変化が大きいことを示している。また、顔表情変化度合が最大ピークとなる時刻および最小ピークとなる時刻も、視聴者aと視聴者bとでは異なっている。これはすなわち、視聴者個人の趣味、嗜好、視聴しているコンテンツに対する好み等が異なることを示していると考えられる。
そこで、本実施形態では、閾値調整モードに設定された興味区間検出装置30が、所定のサンプリング期間において、視聴者の顔表情変化度合をサンプリングし、最大振幅における最大値から下方向に所定割合の値を顔表情変化度合閾値とする。例えば、図3において、サンプリング期間tにおいて、視聴者aの顔表情変化度合をサンプリングし、最大振幅Lにおける最大値から下方向に20%の値Tを顔表情変化度合閾値Tとする。また、同様に、サンプリング期間tにおいて、視聴者bの顔表情変化度合をサンプリングし、最大振幅Lにおける最大値から下方向に20%の値Tを顔表情変化度合閾値Tとする。このように構成することにより、視聴者個人の趣味、嗜好、視聴しているコンテンツに対する好み等に適合した、視聴者顔画像の閾値判定を行うことができる。すなわち、興味区間の検出精度が高まる。
なお、閾値調整モードに設定された興味区間検出装置30が、所定のサンプリング期間において、視聴者の顔表情変化度合をサンプリングして時間積分し、一定レベルを超える側の面積が総面積の例えば20%となる当該レベルを、顔表情変化度合閾値に設定してもよい。
次に、興味区間検出装置30の構成について説明する。
図4は、興味区間検出装置30の機能構成を示すブロック図である。同図に示すように、興味区間検出装置30は、画像データ取得部301と、顔画像領域抽出部302と、画像特徴量計算部303と、画像特徴量評価部304と、履歴記憶部305と、視聴者状態検出部306とを備える。
画像データ取得部301は、興味区間検出モードに設定された場合に、撮像装置20から供給される撮像データを取り込み、撮像データのフレームごと、または複数フレームおきに、フレーム画像データを顔画像領域抽出部302に供給する。
また、画像データ取得部301は、機械学習モードに設定された場合に、外部の教師データサーバ装置から供給される、複数の表情無画像データと複数の表情有画像データとを取り込み、これらのフレーム画像データを順次、顔画像領域抽出部302に供給する。
また、画像データ取得部301は、閾値調整モードに設定された場合に、視聴者(操作者)による操作にしたがって閾値調整パラメータを取り込む。閾値調整パラメータであるサンプリング期間情報は、例えば、“2011年5月1日8時0分0秒から2011年6月30日7時59分59秒まで”、“毎週日曜日の21時0分0秒から21時59分59秒まで”、“毎週月曜日から金曜日までの8時30分0秒から8時44分59秒まで“等のフォーマットによるデータである。
画像データ取得部301は、閾値調整パラメータが示すサンプリング期間において撮像装置20から供給される撮像データを取り込み、撮像データのフレームごと、または複数フレームおきに、フレーム画像データを顔画像領域抽出部302に供給する。
顔画像領域抽出部302は、興味区間検出モード、機械学習モード、および閾値調整モードそれぞれにおいて、画像データ取得部301から供給されるフレーム画像データを取り込む。顔画像領域抽出部302は、取り込んだフレーム画像データに対して顔画像検出処理を実行し、そのフレーム画像データから顔画像領域を検出する。顔画像検出処理のアルゴリズムとして、公知の顔画像検出アルゴリズム、例えばAdaBoostを顔画像領域抽出部302に適用する。
なお、公知の顔画像検出アルゴリズムについては、例えば、PAUL VIOLA and MICHAEL J. JONES: “Robust Real-Time Face Detection”, International Journal of Computer Vision, Vol. 57, No. 2, pp. 137-154 (2004)に開示されている。
画像特徴量計算部303は、顔画像領域抽出部302が抽出した顔画像領域から顔画像(教師顔画像および視聴者顔画像)の画像特徴量を計算する。例えば、画像特徴量計算部303は、公知のBag−of−keypoints手法を適用して顔画像領域から顔画像の画像特徴量を特徴ベクトルとして算出し、この顔画像の画像特徴量を画像特徴量評価部304に供給する。
なお、Bag−of−keypoints手法については、例えば、G. Csurka, C. Dance, L. Fan, J. Willamowski, and C. Bray: “Visual categorization with bags of keypoints”, Proc. of ECCV Workshop on Statistical Learning in Computer Vision, pp. 59-74 (2004)に開示されている。
画像特徴量評価部304は、機械学習モードに設定された場合に、画像特徴量計算部303から供給される教師顔画像の画像特徴量を取り込んで機械学習を行う。例えば、画像特徴量評価部304は、サポートベクターマシンにより機械学習を行って境界面を計算し、この境界面のデータを内部の記憶部(図示省略)に記憶させる。
なお、サポートベクターマシンについては、例えば、C. Cortes, and V. Vapnik: “Support-Vector Networks”, Machine Learning, Vol. 20, No. 3, pp. 273-297 (1995)に開示されている。
また、画像特徴量評価部304は、閾値調整モードに設定された場合に、画像特徴量計算部303から供給される視聴者顔画像の画像特徴量を取り込んで顔表情変化度合を計算し、この顔表情変化度合を履歴記憶部305に記憶させる。具体的には、画像特徴量評価部304は、境界面から画像特徴量までの距離を計算し、この計算結果を顔表情変化度合として履歴記憶部305に記憶させる。顔表情変化度合は、境界面上の値が0(ゼロ)、表情有の領域側が正値、表情無の領域側が負値である。
閾値調整パラメータが示すサンプリング期間が終了すると、画像特徴量評価部304は、履歴記憶部305に記憶された全ての顔表情変化度合を読み込んで最大振幅における最大値から下方向に所定割合(例えば、20%)の値を計算し、この値を顔表情変化度合閾値として視聴者状態検出部306に供給する。
なお、画像特徴量評価部304は、全ての顔表情変化度合を時間積分して、一定レベルを超える側の面積が総面積の例えば20%となる当該レベル値を計算し、この値を顔表情変化度合閾値として視聴者状態検出部306に供給してもよい。
画像特徴量評価部304は、興味区間検出モードに設定された場合に、閾値調整モードの場合と同様に、画像特徴量計算部303から供給される視聴者顔画像の画像特徴量を取り込んで顔表情変化度合を計算し、この顔表情変化度合を視聴者状態検出部306に供給する。
視聴者状態検出部306は、閾値調整モードに設定された場合に、画像特徴量評価部304から供給される顔表情変化度合閾値を取り込み、この顔表情変化度合閾値を内部の記憶部(図示省略)に記憶させる。
また、視聴者状態検出部306は、興味区間検出モードに設定された場合に、画像特徴量評価部304から供給される顔表情変化度合を取り込み、内部の記憶部に記憶された顔表情変化度合閾値で顔表情変化度合を判定する。具体的には、視聴者状態検出部306は、顔表情変化度合が顔表情変化度合閾値を超える値であると判定した場合、視聴者状態フラグをオン(例えば“1”)に設定してこの視聴者状態フラグを出力する。また、視聴者状態検出部306は、顔表情変化度合が顔表情変化度合閾値以下の値であると判定した場合、視聴者状態フラグをオフ(例えば0”)に設定してこの視聴者状態フラグを出力する。
次に、興味情報提示装置40が表示する興味情報メニューについて説明する。
図5は、興味情報提示装置40が表示する興味情報メニューを模式的に示した図である。同図に示すように、興味情報提示装置40が表示する興味情報メニュー80には、興味情報一覧81と、一覧移動操作部82と、情報検索ボタン83と、番組検索ボタン84と、シーン再生ボタン85とが設けられている。情報検索ボタン83および番組検索ボタン84は検索ボタンである。
興味情報一覧81は、興味区間ごとに、日時欄と、チャンネル欄と、番組名欄と、画像欄と、キーワード欄とを対応付けた一覧である。日時欄は、興味区間に対応する日時情報の欄である。チャンネル欄は、当該興味区間において視聴されたコンテンツに対応する放送チャンネルを示す情報の欄である。番組名欄は、視聴されたコンテンツの番組名称の欄である。画像欄は、視聴されたコンテンツに対応する1フレーム画像データの縮小画像データの表示欄である。画像欄には、例えば、当該興味区間の開始時点に対応するフレーム画像データの縮小画像データが表示される。キーワード欄は、当該興味区間において視聴されたコンテンツおよびこのコンテンツの関連情報から抽出された文字データの欄である。ただし、キーワード欄に表示されるキーワードはグラフィカル・ユーザ・インタフェース(Graphical User Interface;GUI)となっており、視聴者によって一または複数のキーワードが選択されると、選択されたキーワードにはカーソル86が表示される。また、カーソル86が表示されているキーワードを選択することによって、カーソル86が非表示となり、当該キーワードの選択が解除される。
一覧移動操作部82は、興味情報一覧81が一画面の表示範囲を超える場合に、興味情報一覧81の隠れた部分を表示させるために、興味情報一覧81をスクロールさせたり、ページを切替えさせたりする操作部である。一覧移動操作部82は、例えば、スクロールバー、ページアップ/ダウンボタン、ページ捲りボタン、スライドボタン等のGUIである。
情報検索ボタン83は、カーソル86が示すキーワードを検索語として情報検索を実行させるためのGUIボタンである。
番組検索ボタン84は、カーソル86が示すキーワードを検索語として番組検索を実行させるためのGUIボタンである。
シーン再生ボタン85は、カーソル86が示すキーワードに対応するシーンを再生させるためのGUIボタンである。
図6は、情報検索サイトの検索メニューの例である。図5に示した興味情報メニュー80におけるキーワード欄のキーワード“△△△スタジアム”にカーソル86が付された状態で、情報検索ボタン83が選択されると、図6に示す検索メニューが表示される。つまり、起動される情報検索サイトの検索メニュー91は、検索キーワード入力欄92に、興味情報メニュー80のキーワード欄においてカーソル86が付されたキーワード(“△△△スタジアム”)が代入されて入力受付の状態となる。
なお、興味情報メニュー80において、複数のキーワードにカーソル86が表示された状態で情報検索ボタン83が選択された場合、検索メニュー91の検索キーワード入力欄92には、それら複数のキーワードそれぞれが、例えば“スペース”を挟んで表示され、それら複数のキーワードによるアンド検索が可能となる。
図7は、番組検索サイトの検索メニューの例である。図5に示した興味情報メニュー80におけるキーワード欄のキーワード“△△△スタジアム”にカーソル86が付された状態で、番組検索ボタン84が選択されると、図7に示す検索メニューが表示される。つまり、起動される番組検索サイトの検索メニュー93は、検索キーワード入力欄94に、興味情報メニュー80のキーワード欄においてカーソル86が付されたキーワード(“△△△スタジアム”)が代入されて入力受付の状態となる。
次に、興味情報提示装置40の構成について説明する。
図8は、興味情報提示装置40の機能構成を示すブロック図である。同図に示すように、興味情報提示装置40は、放送データ取得部401と、データ分離部402と、記憶制御部403と、バッファ制御部404と、放送データ記憶部405と、放送データバッファ406と、興味区間取得部407と、キーワード抽出部408と、興味情報生成部409と、提示制御部410と、表示部411と、操作受付部412と、通信部413と、再生部414と、音声出力部415とを備える。
放送データ取得部401は、テレビジョン受像機10から供給される放送データを取り込み、この放送データをデータ分離部402に供給する。放送データは、映像データ、音声データ、静止画データ、文字データ、字幕データ、番組関連データ等が多重化されたストリームである。本実施形態では、放送データがMPEG−2トランスポートストリーム(Transport Stream;TS)である場合を例とする。よって、放送データに多重化された番組関連データは、PSI(Program Specific Information)/SI(Service Information)等の情報である。
データ分離部402は、放送データ取得部401から供給される放送データを取り込んで、この放送データから各種データを分離し、これら分離されたデータを、記憶制御部403とバッファ制御部404とに供給する。データ分離部402が放送データから分離抽出する各種データは、例えば、映像データ、音声データ、静止画データ、文字データ、字幕データ、番組関連データ等である。
記憶制御部403は、データ分離部402から供給される各種データを、放送データ記憶部405に記憶させる。具体的には、記憶制御部403は、データ分離部402から供給される各種データを、番組コンテンツと番組関連データとデータ放送コンテンツとにそれぞれまとめて放送データ記憶部405に記憶させる。番組コンテンツは、映像データと音声データとを含む、放送番組に関するコンテンツデータである。データ放送コンテンツは、静止画データと文字データと音声データとBML(Broadcast Markup Language)データとを含む、データ放送に関するコンテンツデータである。
バッファ制御部404は、データ分離部402から供給される各種データを、あらかじめ設定された所定時間分、放送データバッファ406に記憶させる。具体的には、バッファ制御部404は、データ分離部402から供給される、映像データと音声データと字幕データと文字データとの、最新の所定時間分(例えば、10秒間分)のデータを、放送データバッファ406に記憶させる。
放送データ記憶部405は、番組コンテンツと番組関連データとデータ放送コンテンツとを記憶する。放送データ記憶部405は、例えば、磁気ハードディスク装置や半導体ディスク装置により実現される。
放送データバッファ406は、映像データと音声データと字幕データと文字データとの、最新の所定時間分(例えば、10秒間分)のデータを記憶する。放送データバッファ406は、例えば、半導体記憶装置により実現される。
興味区間取得部407は、興味区間検出装置30から供給される視聴者状態フラグを順次取り込み、視聴者状態フラグがオフ状態(例えば“0(ゼロ)”)からオン状態(例えば“1”)に変化したことを検出した時点から、視聴者状態フラグがオン状態である期間中、興味区間であることを示す興味区間信号をキーワード抽出部408に供給する。
キーワード抽出部408は、興味区間取得部407から興味区間信号の供給を受けている期間中、放送データバッファ406に記憶された、音声データ、字幕データ、および文字データと、放送データ記憶部405に記憶された番組関連データとのいずれかまたは全てから、シーンに関するキーワードを抽出する。キーワード抽出の具体例については後述する。
キーワード抽出部408は、抽出したキーワードと興味区間信号の供給開始時刻および供給終了時刻の時刻情報(興味区間時間情報)とを、興味情報生成部409に供給する。
興味情報生成部409は、興味情報を生成して、この興味情報を提示制御部410に供給する。具体的には、興味情報生成部409は、キーワード抽出部408から供給されるキーワードと興味区間時間情報とを取り込む。また、興味情報生成部409は、興味区間時間情報が示す時間に対応する番組関連データにおける放送チャンネルと番組名称とを示す情報を放送データ記憶部405から読み込む。また、興味情報生成部409は、興味区間時間情報が示す時間における所定の時刻(例えば、先頭の時刻)に対応するフレーム画像データを、放送データバッファ406に記憶された映像データから抽出し、そのフレーム画像データを縮小処理して縮小画像データを生成する。そして、興味情報生成部409は、興味区間時間情報と、放送チャンネルを示す情報と、番組名称を示す情報と、縮小画像データと、キーワードとを対応付けた興味情報を生成し、この興味情報を提示制御部410に供給する。
提示制御部410は、興味情報生成部409から供給される興味情報を取り込んで興味情報メニューを生成し、この興味情報メニューを表示部411に表示させる。具体的には、提示制御部410は、興味情報生成部409から供給される興味情報を取り込んで内部の記憶部(図示省略)に記憶させる。提示制御部410は、その記憶部に記憶された興味情報の一覧(興味情報一覧)を読み出し、この興味情報一覧をもとに興味情報メニューを生成してこの興味情報メニューを表示部411に表示させる。興味情報メニューは、具体的には、例えば、図5に示した興味情報メニュー80の構成を有する。提示制御部410は、興味情報メニュー80のうち、一覧移動操作部82と、情報検索ボタン83と、番組検索ボタン84と、シーン再生ボタン85と、キーワード欄の各キーワードとをGUIボタンとして構成する。
また、提示制御部410は、操作受付部412から供給される操作制御情報を取り込み、この操作制御信号に基づいて、興味情報メニューを操作する。
具体的には、キーワード欄のいずれかのキーワードが選択されることによって操作受付部412から供給される操作制御情報に基づいて、提示制御部410は、その選択されたキーワードにカーソル86を重ね合わせて表示部411に表示させる。
また、一覧移動操作部82が選択されることによって操作受付部412から供給される操作制御情報に基づいて、提示制御部410は、興味情報一覧の表示位置をスクロールさせる。
また、カーソル86が表示された後に、情報検索ボタン83が操作されることによって操作受付部412から供給される操作制御情報に基づいて、提示制御部410は、ウェブブラウザを起動させ、あらかじめ設定された情報検索サイトのURL(Uniform Resource Locator)情報を通信部413に供給する。
また、カーソル86が表示された後に、番組検索ボタン84が操作されることによって操作受付部412から供給される操作制御情報に基づいて、提示制御部410は、ウェブブラウザを起動させ、あらかじめ設定された番組検索サイトのURL情報を通信部413に供給する。
また、カーソル86が表示された後に、シーン再生ボタン85が操作されることによって操作受付部412から供給される操作制御情報に基づいて、提示制御部410は、カーソル86が示すキーワードと再生要求情報とを再生部414に供給する。
表示部411は、提示制御部410から供給される興味情報メニュー、ウェブブラウザの情報、シーン再生映像等を表示する。表示部411は、例えば、液晶ディスプレイ装置により実現される。
なお、表示部411は、興味情報提示装置40から分離されてもよい。また、表示部411をテレビジョン受像機10としてもよい。この場合、テレビジョン受像機10は、画面分割処理を実行し、第1の画面にコンテンツ映像を表示させ、第2の画面に興味情報メニュー、ウェブブラウザ情報等を表示させる。
操作受付部412は、視聴者による操作に応じた操作制御情報を生成し、この操作制御情報を提示制御部410に供給する。操作受付部412は、表示部411の表示画面に合わせて設けられるタッチパネル、マウス等のポインティングデバイス、またはキーボートにより実現される。
通信部413は、提示制御部410から供給される情報検索サイトのURL情報を取り込み、このURL情報に示された情報検索サイトや番組検索サイトが所在するサーバ装置50をアクセスしてデータ通信を行う。
再生部414は、提示制御部410から供給される、キーワードと再生要求情報とを取り込み、そのキーワードに対応するシーンを放送データ記憶部405から読み込んで再生することにより、映像データを提示制御部410に供給し、また音声データを音声出力部415に供給する。
音声出力部415は、再生部414から供給される音声データを取り込んで音声出力する。音声出力部415は、例えば、デジタル/アナログ変換回路、アンプ、およびスピーカ装置等により実現される。
次に、本実施形態である視聴者興味情報提示装置2の動作について説明する。まず、興味区間検出装置30の動作について、図9から図11までを参照して説明する。
図9は、興味区間検出装置30が実行する機械学習処理の手順を示すフローチャートである。視聴者興味情報提示装置2が備える制御部によって興味区間検出装置30が機械学習モードに設定されると、興味区間検出装置30は、本フローチャートの処理を実行する。
ステップS1において、画像データ取得部301は、外部の教師データサーバ装置から供給される、複数の表情無画像データと複数の表情有画像データとを取り込み、これらのフレーム画像データを順次、顔画像領域抽出部302に供給する。
次に、ステップS2において、顔画像領域抽出部302は、画像データ取得部301から供給されるフレーム画像データを取り込み、例えばAdaBoostを適用して顔画像検出処理を実行し、そのフレーム画像データから顔画像領域を検出する。
次に、ステップS3において、画像特徴量計算部303は、顔画像領域抽出部302が抽出した顔画像領域から教師顔画像の画像特徴量を計算する。例えば、画像特徴量計算部303は、Bag−of−keypoints手法を適用して顔画像領域から教師顔画像の画像特徴量を特徴ベクトルとして算出し、この教師顔画像の画像特徴量を画像特徴量評価部304に供給する。
具体的には、画像特徴量計算部303は、例えば、顔画像領域抽出部302が抽出した顔画像領域を所定サイズの矩形領域(例えば、128画素×128画素)に正規化する。つまり、画像特徴量計算部303は、様々なサイズの顔画像に対応させるため、顔画像領域を所定サイズにリサイズする。リサイズとは、顔画像領域を所定サイズの矩形領域に合わせて切り取ったり、拡大したり、縮小したりする画像編集のことである。
次に、画像特徴量計算部303は、リサイズ後の顔画像領域において、顔を含む円領域を設定し、この円領域内を顔領域とする。円領域は、顔表情の特徴を得やすい部位である、目、眉毛、鼻、口、頬を含むことが好ましい。例えば、リサイズ後の顔画像領域が正方形である場合、画像特徴量計算部303は、リサイズ後の顔画像領域の中心を中心位置とし、正方形の一辺の長さの0.8倍の長さを直径とする円領域を設定する。円領域によって抽出される顔領域は、髪の毛やイヤリング等の顔表情に関係がないかまたは関係が弱い情報が除外されたものである。
次に、画像特徴量計算部303は、円領域である顔領域を、その中心点を通る水平線を境に上半円領域と下半円領域とに分割する。
次に、画像特徴量計算部303は、上半円領域についてのBag−of−keypointsと、下半円領域についてのBag−of−keypointsとをそれぞれ計算し、各領域のBag−of−keypointsを合わせて1つのBag−of−keypointsを算出する。例えば、上半円領域についてのBag−of−keypointsが175次元ベクトル、下半円領域についてのBag−of−keypointsが125次元ベクトルである場合、画像特徴量は300次元ベクトルとなる。
次に、ステップS4において、画像特徴量評価部304は、画像特徴量計算部303から供給される教師顔画像の画像特徴量を取り込んで機械学習を行う。例えば、画像特徴量評価部304は、サポートベクターマシンによる機械学習を行って境界面を計算し、この境界面のデータを内部の記憶部に記憶させる。
図10は、興味区間検出装置30が実行する閾値調整処理の手順を示すフローチャートである。視聴者興味情報提示装置2が備える制御部によって興味区間検出装置30が閾値調整モードに設定されると、興味区間検出装置30は、本フローチャートの処理を実行する。
ステップS11において、画像データ取得部301は、視聴者による操作にしたがって閾値調整パラメータを取り込む。閾値調整パラメータであるサンプリング期間情報は、例えば、“2011年5月1日8時0分0秒から2011年6月30日7時59分59秒まで”、“毎週日曜日の21時0分0秒から21時59分59秒まで”、“毎週月曜日から金曜日までの8時30分0秒から8時44分59秒まで“等のデータである。
次に、ステップS12において、画像データ取得部301は、閾値調整パラメータが示すサンプリング期間内である場合はステップS13の処理に移し、サンプリング期間外である場合はステップS18の処理に移す。
ステップS13において、画像データ取得部301は、撮像装置20から供給される撮像データを取り込み、撮像データのフレームごと、または複数フレームおきに、フレーム画像データを顔画像領域抽出部302に供給する。
次に、ステップS14において、顔画像領域抽出部302は、画像データ取得部301から供給されるフレーム画像データを取り込んで、前述したステップS2の処理と同様に顔画像検出処理を実行し、そのフレーム画像データから顔画像領域を検出する。
次に、ステップS15において、画像特徴量計算部303は、前述したステップS3の処理と同様に、顔画像領域抽出部302が抽出した顔画像領域から視聴者顔画像の画像特徴量を計算し、この視聴者顔画像の画像特徴量を画像特徴量評価部304に供給する。
次に、ステップS16において、画像特徴量評価部304は、画像特徴量計算部303から供給される視聴者顔画像の画像特徴量を取り込んで顔表情変化度合を計算する。具体的には、画像特徴量評価部304は、境界面から当該画像特徴量までの距離を計算する。
次に、ステップS17において、画像特徴量評価部304は、計算した顔表情変化度合を履歴記憶部305に記憶させ、ステップS12の処理に戻す。
一方、閾値調整パラメータが示すサンプリング期間が終了すると(S12:NO)、ステップS18において、画像特徴量評価部304は、履歴記憶部305に記憶された全ての顔表情変化度合を読み込んで最大振幅における最大値から下方向に所定割合(例えば、20%)の値を計算し、この値を顔表情変化度合閾値として視聴者状態検出部306に供給する。
次に、視聴者状態検出部306は、画像特徴量評価部304から供給される顔表情変化度合閾値を取り込み、この顔表情変化度合閾値を内部の記憶部に記憶させる。
図11は、興味区間検出装置30が実行する興味区間検出処理の手順を示すフローチャートである。視聴者興味情報提示装置2が備える制御部によって興味区間検出装置30が興味区間検出モードに設定されると、興味区間検出装置30は、本フローチャートの処理を実行する。
ステップS21において、画像データ取得部301は、撮像装置20から供給される撮像データを取り込み、撮像データのフレームごと、または複数フレームおきに、フレーム画像データを顔画像領域抽出部302に供給する。
次に、ステップS22において、顔画像領域抽出部302は、画像データ取得部301から供給されるフレーム画像データを取り込んで、前述したステップS2の処理と同様に顔画像検出処理を実行し、そのフレーム画像データから顔画像領域を検出する。
次に、ステップS23において、画像特徴量計算部303は、前述したステップS3の処理と同様に、顔画像領域抽出部302が抽出した顔画像領域から視聴者顔画像の画像特徴量を計算し、この視聴者顔画像の画像特徴量を画像特徴量評価部304に供給する。
次に、ステップS24において、画像特徴量評価部304は、前述したステップS16の処理と同様に、画像特徴量計算部303から供給される視聴者顔画像の画像特徴量を取り込んで顔表情変化度合を計算し、この顔表情変化度合を視聴者状態検出部306に供給する。
次に、ステップS25において、視聴者状態検出部306は、画像特徴量評価部304から供給される顔表情変化度合を取り込み、内部の記憶部に記憶された顔表情変化度合閾値で顔表情変化度合を判定する。具体的には、視聴者状態検出部306は、顔表情変化度合が顔表情変化度合閾値を超える値であると判定した場合(S25:YES)はステップS26の処理に移し、顔表情変化度合が顔表情変化度合閾値以下の値であると判定した場合(S25:NO)はステップS27の処理に移す。
ステップS26において、視聴者状態検出部306は、視聴者状態フラグをオン(例えば“1”)に設定し、ステップS28の処理に移す。
一方、ステップS27において、視聴者状態検出部306は、視聴者状態フラグをオフ(例えば“0”)に設定し、ステップS28の処理に移す。
ステップS28において、視聴者状態検出部306は、設定した視聴者状態フラグを出力し、ステップS21の処理に戻す。
次に、興味情報提示装置40の動作について、図12および図13を参照して説明する。
図12は、興味情報提示装置40が実行する放送データ取得処理の手順を示すフローチャートである。
ステップS31において、放送データ取得部401は、テレビジョン受像機10から供給される放送データを待ち続けている(S31:NO)。そして、放送データ取得部401は、放送データの供給を受けると(S31:YES)、ステップS32の処理に移す。
ステップS32において、放送データ取得部401は、その放送データを取り込み、この放送データをデータ分離部402に供給する。
次に、ステップS33において、データ分離部402は、放送データ取得部401から供給される放送データを取り込んで、この放送データから各種データを分離し、これら分離されたデータを、記憶制御部403とバッファ制御部404とに供給する。
次に、ステップS34において、記憶制御部403は、データ分離部402から供給される各種データを、放送データ記憶部405に記憶させる。具体的には、記憶制御部403は、データ分離部402から供給される各種データを、番組コンテンツと番組関連データとデータ放送コンテンツとにそれぞれまとめて放送データ記憶部405に記憶させる。
また、バッファ制御部404は、データ分離部402から供給される各種データを、あらかじめ設定された所定時間分、放送データバッファ406に記憶させる。具体的には、バッファ制御部404は、データ分離部402から供給される、映像データと音声データと字幕データと文字データとの、最新の所定時間分(例えば、10秒間分)のデータを、放送データバッファ406に記憶させる。
次に、ステップS31の処理に戻る。
図13は、興味情報提示装置40が実行する興味情報生成処理の手順を示すフローチャートである。
ステップS41において、興味区間取得部407は、興味区間検出装置30から供給される視聴者状態フラグを取り込む。
次に、ステップS42において、興味区間取得部407は、取り込んだ視聴者状態フラグが前回の状態であるオフ状態(例えば“0(ゼロ)”)からオン状態(例えば“1”)に変化したことを検出した場合(S42:YES)、ステップS43の処理に移す。
一方、興味区間取得部407は、視聴者状態フラグが前回の状態であるオン状態(例えば“1”)からオフ状態(例えば“0(ゼロ)”)に変化したことを検出した場合(S42:NO)、ステップS44の処理に移す。
ステップS43において、興味区間取得部407は、キーワード抽出部408に対して興味区間信号を送信し、ステップS41の処理に戻す。
ステップS44において、興味区間取得部407は、キーワード抽出部408に対して興味区間信号の送信を停止する。
次に、ステップS45において、興味情報生成部409は、興味情報を生成して、この興味情報を提示制御部410に供給する。具体的には、興味情報生成部409は、キーワード抽出部408から供給されるキーワードと興味区間時間情報とを取り込む。また、興味情報生成部409は、興味区間時間情報が示す時間に対応する番組関連データにおける放送チャンネルと番組名称とを示す情報を放送データ記憶部405から読み込む。また、興味情報生成部409は、興味区間時間情報が示す時間における所定の時刻(例えば、先頭の時刻)に対応するフレーム画像データを、放送データバッファ406に記憶された映像データから抽出し、このフレーム画像データを縮小処理して縮小画像データを生成する。
次に、興味情報生成部409は、興味区間時間情報と、放送チャンネルを示す情報と、番組名称を示す情報と、縮小画像データと、キーワードとを対応付けた興味情報を生成し、この興味情報を提示制御部410に供給する。
次に、ステップS46において、提示制御部410は、興味情報生成部409から供給される興味情報を取り込んで興味情報メニューを生成し、この興味情報メニューを表示部411に表示させる。具体的には、提示制御部410は、興味情報生成部409から供給される興味情報を取り込んで内部の記憶部に記憶させる。
次に、提示制御部410は、その記憶部に記憶された興味情報一覧を読み出し、この興味情報一覧をもとに図5に示した構成の興味情報メニュー80を生成し、興味情報メニュー80を表示部411に表示させる。
次に、ステップS43の処理によって実行開始され、ステップS44の処理によって実行終了される、キーワード抽出部408によるキーワード抽出処理について説明する。このキーワード抽出処理は、言い換えると、キーワード抽出部408が、興味区間取得部407から興味区間信号の供給を受けている期間中実行する処理である。
キーワード抽出部408は、放送データバッファ406に記憶された、音声データ、字幕データ、および文字データと、放送データ記憶部405に記憶された番組関連データとのいずれかまたは全てから、シーンに関するキーワードを抽出する。
具体的には、例えば、キーワード抽出部408は、興味区間信号の供給開始時から供給終了時までに対応する音声データを放送データバッファ406から読み込み、この音声データを音声認識処理してテキストデータを取得する。音声認識処理としては、公知の音声認識アルゴリズムを適用する。例えば、キーワード抽出部408は、統計的手法に基づく音声認識処理を適用して音声データからテキストデータを抽出する。
また、キーワード抽出部408は、放送データバッファ406に字幕データが記憶されている場合に、興味区間信号の供給開始時から供給終了時までに対応する字幕データを放送データバッファ406から読み込み、この字幕データから字幕の文字に該当するテキストデータを取得する。
また、キーワード抽出部408は、放送データバッファ406に文字データが記憶されている場合に、興味区間信号の供給開始時から供給終了時までの間に提示対象となる文字データを放送データバッファ406から読み込み、この文字データをテキストデータとして取得する。
また、キーワード抽出部408は、興味区間信号の供給開始時から供給終了時までの間に視聴された番組の番組情報からテキストデータを取得する。
次に、キーワード抽出部408は、上記の処理によって取得したテキストデータについて、例えば形態素解析を行って、一または複数の名詞をキーワードとして抽出する。
次に、キーワード抽出部408は、抽出したキーワードと興味区間信号の供給開始時刻および供給終了時刻の時刻情報(興味区間時間情報)とを、興味情報生成部409に供給する。
なお、キーワード抽出部408は、テキストデータから抽出した名詞の出現頻度に応じて、優先度をキーワードに付してもよい。例えば、キーワード抽出部408は、音声データと文字データと番組関連データとからテキストデータを取得した場合に、これらテキストから抽出した複数の名詞について、出現頻度が最も高い名詞を先頭に優先度を一位から順位付ける。
また、キーワード抽出部408は、興味区間取得部407から興味区間信号の供給を受け始めたときからでなく、その供給開始時点よりも所定時間前からキーワード抽出処理を行ってもよい。ただし、この場合の所定時間は、放送データバッファ406に記憶される分の時間よりも短い時間である。このように構成することにより、キーワード抽出部408は、興味区間検出装置30が興味区間を検出した時点よりも前からキーワードを抽出することになる。視聴者は、顔の表情を変える前からコンテンツに対して興味をもち始めている場合があり、このように構成することによって、顔表情の変化を伴わない興味区間のキーワードを抽出することができる。
また、同様に、キーワード抽出部408は、興味区間信号の供給停止時点よりも所定時間遅いか早い時点までのキーワードを抽出するようにしてもよい。
以上詳述したように、本実施形態におけるテレビ視聴システム1では、テレビジョン受像機10は、視聴者が任意に選択したチャンネルの番組のコンテンツを再生する。
また、撮像装置20は、テレビジョン受像機10でコンテンツを視聴している視聴者を撮影して撮像データを興味区間検出装置30に供給する。
また、興味区間検出装置30は、撮像装置20から供給される撮像データを取り込み、フレーム画像データに含まれる視聴者顔画像の画像特徴量を抽出する。そして、興味区間検出装置30は、その画像特徴量を、事前にサポートベクターマシンにより機械学習させた2クラス(“表情あり”および“表情なし”)の識別器により分類して顔表情変化度合を計算する。そして、興味区間検出装置30は、あらかじめ視聴者向きに調整された顔表情変化度合閾値で顔表情変化度合を判定することにより、コンテンツに対する興味区間を検出する。
つまり、興味区間検出装置30は、複数の表情有画像データと複数の表情無画像データとをあらかじめ機械学習させて境界面を求めておき、この境界面と視聴者顔画像の特徴量との距離に基づいて視聴者のコンテンツに対する興味の有無を推定する。
また、興味情報提示装置40は、テレビジョン受像機10から供給される放送データを取り込み、興味区間検出装置30が検出した興味区間に対応する放送データの部分からキーワードを抽出する。そして、興味情報提示装置40は、抽出したキーワードを含めた興味情報を生成し、興味情報メニューを形成して表示する。
このように構成したことにより、本実施形態によれば、コンテンツを視聴する視聴者の顔表情の変化を的確にとらえてコンテンツに対する興味区間を精度よく検出することができる。
また、それに加え、興味区間において、コンテンツを視聴する視聴者が興味をもったキーワードについての情報検索および番組検索(ウェブ検索)、ならびにそのキーワードに対応するシーンの再生を簡単に行うことができる。
なお、興味情報提示装置40が生成する興味情報メニューは、図5に示した例以外に、例えば、図14に示すものとしてもよい。同図における興味情報メニュー80aにおいて、キーワード欄には、キーワードを含む文章が表記されている。これらの文章は、キーワード抽出部408が音声データ、字幕データ等から抽出したテキストデータの文字列である。そして、これら文章は、キーワードに対応する名詞にアンダーラインが付されて表記されている。なお、キーワードを示す表記は、アンダーライン以外にも、例えば、カーソルの色と異なる色でハイライト表示させたり、キーワードをキーワード以外の文字と異なる色で表示させたりしてもよい。
また、テレビジョン受像機10でコンテンツを視聴している視聴者が、自身の操作によって興味区間を指定するようにしてもよい。これを実現するために、例えば、図14に示すように、興味情報メニュー80aに、興味ありボタン87と興味なしボタン88とを設ける。興味ありボタン87は、視聴者がコンテンツに対する興味をもち始めたときに選択されるGUIボタンである。興味なしボタン88は、視聴者がコンテンツに対する興味を失い始めたときや失ったとき等に選択されるGUIボタンである。この場合、興味区間取得部407は、興味ありボタン87が選択されてから興味なしボタン88が選択されるまでの期間において、興味区間信号をキーワード抽出部408に供給する。
また、本実施形態は、興味区間検出装置30が、閾値調整モードに設定されたときに閾値調整処理を行うものとした。これ以外にも、興味区間検出装置30が、興味区間検出モードに設定されて動作する以前に視聴した番組について測定した顔表情変化度合に基づいて、顔表情変化度合閾値を自動調整するようにしてもよい。このように構成することにより、閾値調整モードは不要となる。
さらに、興味区間検出装置30は、電子番組情報取得部をさらに設け、この電子番組情報取得部に、電子番組情報を取得させて、この電子番組情報から、視聴番組に対応する属性(例えば、タイトル、ジャンル等)を抽出させ、画像特徴量評価部304に、属性ごと(例えば、タイトルごとやジャンルごと)の顔表情変化度合閾値を計算させるようにしてもよい。電子番組情報取得部は、電子番組情報を、テレビジョン受像機10やネットワーク60を介した電子番組ガイドサーバ等から取得する。
また、本実施形態では、興味区間検査装置30の画像特徴量評価部304は、視聴者の顔表情の有無を分類するようにした。これ以外にも、画像特徴量評価部304は、例えば、怒り、嫌悪、恐怖、喜び、悲しみ、驚き等による顔表情を検出して分類することによって、興味区間を検出するようにしてもよい。これは、上記の様々な顔表情を分類するために、複数のサポートベクターマシンを組み合わせて用いることで実現できる。
複数のサポートベクターマシンを組み合わせて用いることについては、例えば、I. Kotsia, S. Zafeiriou, and I. Pitas: “Texture and shape information fusion for facial expression and facial action unit recognition”, Pattern Recognition, Vol. 41, No. 3, pp. 833-851 (2008)に開示されている。
また、画像特徴量評価部304は、視聴者の顔表情の変化と頭部の動きとを併せて解析し、この解析結果に基づいて興味区間を検出するようにしてもよい。
顔表情の変化と頭部の動きとを併せて解析することについては、例えば、Rana EI Kaliouby and Peter Robinson: “Real-Time Inference of Complex Mental States from Facial Expressions and Head Gestures", Real-time Vision for Human-Computer Interaction, pp. 181-200 (Aug. 2005)に開示されている。
また、画像特徴量評価部304は、顔表情の他に、身振り、手振り、発話内容等、視聴者自身の表現によって得られる状態変化を特徴量としてとらえ、より高次元なベクトル空間での機械学習を行うようにしてもよい。ここで、身振りの典型例としては、前のめりになって視聴する姿勢(前傾姿勢)であり、手振りの典型例としては、拍手したり指をさしたりといった手の動きである。
また、本実施形態は、カーソル86が表示された後に、情報検索ボタン83または番組検索ボタン84が操作されることによって、提示制御部410がウェブブラウザを起動させ、あらかじめ設定された情報検索サイトまたは番組検索サイトのURL情報を通信部413に供給する例であった。
これ以外にも、例えば、各キーワードに関する詳細情報や番組情報をデータベース化したサーバ(例えば、放送局や放送局以外の事業者が管理するサーバ)のURL情報を番組関連データに付加しておき、情報検索ボタン83または番組検索ボタン84が操作されることにより、提示制御部410が、番組関連データからURL情報を読み出してこのURL情報を通信部413に供給するようにしてもよい。
また、テレビジョン受像機10に興味情報提示装置40を組み込んだ構成としてもよい。また、テレビジョン受像機10に視聴者興味情報提示装置2を組み込んだ構成としてもよいし、さらに撮像装置20をも組み込んで、視聴者側の装置を一体的に構成してもよい。
また、上述した実施形態における興味区間検出装置30および興味情報提示装置40またはいずれかの一部の機能をコンピュータで実現するようにしてもよい。この場合、その制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録し、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませて、このコンピュータシステムが実行することによって実現してもよい。なお、ここでいうコンピュータシステムとは、オペレーティング・システム(Operating System;OS)や周辺装置のハードウェアを含むものである。また、コンピュータ読み取り可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、光ディスク、メモリカード等の可搬型記録媒体、コンピュータシステムに内蔵される磁気ハードディスクやソリッドステートドライブ等の記憶装置のことをいう。さらに、コンピュータ読み取り可能な記録媒体とは、インターネット等のコンピュータネットワークや、電話回線や携帯電話網を介してプログラムを送信する場合の通信回線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバ装置やクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持するものを含んでもよい。また上記のプログラムは、前述した機能の一部を実現するためのものであってもよく、さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせにより実現するものであってもよい。
以上、本発明の実施の形態について図面を参照して詳述したが、具体的な構成はその実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれる。
1 テレビ視聴システム
2 視聴者興味情報提示装置
10 テレビジョン受像機
20 撮像装置
30 興味区間検出装置
40 興味情報提示装置
50 サーバ装置
60 ネットワーク
301 画像データ取得部
302 顔画像領域抽出部
303 画像特徴量計算部
304 画像特徴量評価部
305 履歴記憶部
306 視聴者状態検出部
401 放送データ取得部
402 データ分離部
403 記憶制御部
404 バッファ制御部
405 放送データ記憶部
406 放送データバッファ
407 興味区間取得部
408 キーワード抽出部
409 興味情報生成部
410 提示制御部
411 表示部
412 操作受付部
413 通信部
414 再生部
415 音声出力部

Claims (8)

  1. コンテンツを視聴する視聴者が被写体として映る視聴者映像から、フレームごと、または複数フレームおきにフレーム画像データを取得する画像データ取得部と、
    前記画像データ取得部が取得した前記フレーム画像データに含まれる視聴者顔画像に基づいて、画像特徴量を計算する画像特徴量計算部と、
    前記画像特徴量の空間における所定の超平面から、前記画像特徴量計算部が計算した前記画像特徴量までの距離である顔表情変化度合を計算する画像特徴量評価部と、
    前記画像特徴量評価部が計算した前記顔表情変化度合とあらかじめ設定された顔表情変化度合閾値とに基づき、前記視聴者の前記コンテンツに対する興味の有無を判定して興味区間を検出する視聴者状態検出部と、
    を備えることを特徴とする興味区間検出装置。
  2. 前記画像特徴量評価部は、
    顔表情有または顔表情無いずれかのラベルが付された教師顔画像を用いてサポートベクターマシンにより前記超平面を得る
    ことを特徴とする請求項1記載の興味区間検出装置。
  3. 前記画像特徴量評価部は、
    所定の視聴期間分の顔表情変化度合を視聴者に対応させて取得し、前記所定の視聴期間分の顔表情変化度合に基づき顔表情変化度合閾値を計算して、前記顔表情変化度合閾値を前記視聴者状態検出部に設定する
    ことを特徴とする請求項1または2記載の興味区間検出装置。
  4. 外部から電子番組情報を取得する電子番組情報取得部をさらに備え、
    前記画像特徴量評価部は、
    視聴番組に対応する属性を抽出し、前記属性ごとに、顔表情変化度合を視聴者に対応させて取得する
    ことを特徴とする請求項3記載の興味区間検出装置。
  5. コンテンツを視聴する視聴者が被写体として映る視聴者映像から、フレームごと、または複数フレームおきにフレーム画像データを取得する画像データ取得部と、
    前記画像データ取得部が取得した前記フレーム画像データに含まれる視聴者顔画像に基づいて、画像特徴量を計算する画像特徴量計算部と、
    前記画像特徴量の空間における所定の超平面から、前記画像特徴量計算部が計算した前記画像特徴量までの距離である顔表情変化度合を計算する画像特徴量評価部と、
    画像特徴量評価部が計算した前記顔表情変化度合とあらかじめ設定された顔表情変化度合閾値とに基づき、前記視聴者の前記コンテンツに対する興味の有無を判定して興味区間を検出する視聴者状態検出部と、
    所定時間分のコンテンツデータを記憶可能な放送データバッファと、
    前記視聴者が視聴する番組に対応する放送データを多重分離してコンテンツデータを抽出するデータ分離部と、
    前記データ分離部が抽出した前記コンテンツデータを前記所定時間分だけ順次更新して前記放送データバッファに記憶させるバッファ制御部と、
    前記視聴者状態検出部が検出した前記興味区間において、前記放送データバッファからキーワードを抽出するキーワード抽出部と、
    前記キーワード抽出部が抽出した前記キーワードを選択可能に含めた興味情報メニューを生成する提示制御部と、
    を備えることを特徴とする視聴者興味情報提示装置。
  6. 前記提示制御部は、
    ウェブ検索処理を実行させる検索ボタンをも含めて前記興味情報メニューを生成し、前記キーワードおよび前記検索ボタンが選択された場合に、前記キーワードを検索キーとしてウェブ検索を実行させる
    ことを特徴とする請求項5記載の視聴者興味情報提示装置。
  7. 前記データ分離部が抽出した前記コンテンツデータを記憶する放送データ記憶部と、
    再生部と、
    を備え、
    前記提示制御部は、
    シーン再生処理を実行させるシーン再生ボタンをも含めて前記興味情報メニューを生成し、前記キーワードおよび前記シーン再生ボタンが選択された場合に、前記キーワードを含むコンテンツデータを前記放送データ記憶部から読み出し、前記コンテンツデータを前記再生部により再生させる
    ことを特徴とする請求項5または6記載の視聴者興味情報提示装置。
  8. コンピュータを、
    コンテンツを視聴する視聴者が被写体として映る視聴者映像から、フレームごと、または複数フレームおきにフレーム画像データを取得する画像データ取得部と、
    前記画像データ取得部が取得した前記フレーム画像データに含まれる視聴者顔画像に基づいて、画像特徴量を計算する画像特徴量計算部と、
    前記画像特徴量の空間における所定の超平面から、前記画像特徴量計算部が計算した前記画像特徴量までの距離である顔表情変化度合を計算する画像特徴量評価部と、
    前記画像特徴量評価部が計算した前記顔表情変化度合とあらかじめ設定された顔表情変化度合閾値とに基づき、前記視聴者の前記コンテンツに対する興味の有無を判定して興味区間を検出する視聴者状態検出部と、
    として機能させるための興味区間検出プログラム。
JP2011107591A 2011-05-12 2011-05-12 興味区間検出装置、視聴者興味情報提示装置、および興味区間検出プログラム Active JP5637930B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011107591A JP5637930B2 (ja) 2011-05-12 2011-05-12 興味区間検出装置、視聴者興味情報提示装置、および興味区間検出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011107591A JP5637930B2 (ja) 2011-05-12 2011-05-12 興味区間検出装置、視聴者興味情報提示装置、および興味区間検出プログラム

Publications (2)

Publication Number Publication Date
JP2012238232A true JP2012238232A (ja) 2012-12-06
JP5637930B2 JP5637930B2 (ja) 2014-12-10

Family

ID=47461059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011107591A Active JP5637930B2 (ja) 2011-05-12 2011-05-12 興味区間検出装置、視聴者興味情報提示装置、および興味区間検出プログラム

Country Status (1)

Country Link
JP (1) JP5637930B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016532969A (ja) * 2013-08-29 2016-10-20 ゼットティーイー コーポレーションZte Corporation 関連コンテンツの処理方法及びシステム
WO2016186327A1 (ko) * 2015-05-18 2016-11-24 전자부품연구원 공간행동 의미분석 시스템
JP2018032252A (ja) * 2016-08-25 2018-03-01 日本テレビ放送網株式会社 視聴ユーザログ蓄積システム、視聴ユーザログ蓄積サーバ、及び視聴ユーザログ蓄積方法
JP2018036912A (ja) * 2016-08-31 2018-03-08 富士通株式会社 関心度評価プログラム、装置及び方法
JP2018036734A (ja) * 2016-08-29 2018-03-08 日本放送協会 表情変化検出装置及びプログラム
JP2018037755A (ja) * 2016-08-30 2018-03-08 株式会社アルファコード 注目対象物に関する情報提供システムおよび情報提供方法
JP2020057126A (ja) * 2018-10-01 2020-04-09 株式会社i.ホールディングス 介護マッチングシステム
CN111629222A (zh) * 2020-05-29 2020-09-04 腾讯科技(深圳)有限公司 一种视频处理方法、设备及存储介质
CN113691900A (zh) * 2020-04-20 2021-11-23 浙江德方智能科技有限公司 一种具有情感分析的灯光音响管理方法和系统
KR20220071677A (ko) * 2020-11-24 2022-05-31 광주과학기술원 운전자 또는 콘텐츠 시청자의 몰입도 측정 방법 및 장치

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7410735B2 (ja) * 2020-02-05 2024-01-10 キヤノン株式会社 端末装置、機能提案方法、プログラム及びサーバ装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010055409A (ja) * 2008-08-28 2010-03-11 Nec Personal Products Co Ltd キーワード抽出装置、キーワード抽出方法及びプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010055409A (ja) * 2008-08-28 2010-03-11 Nec Personal Products Co Ltd キーワード抽出装置、キーワード抽出方法及びプログラム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSND200800865009; 新田 直子 他: '個人的選好獲得システムの構築 興味区間抽出・興味度推定・プロファイル作成' 画像ラボ 第19巻 第11号 , 20081110, pp.58-64, 日本工業出版株式会社 *
CSNG201000069035; 松川 徹 他: '複数人物の顔方向・表情認識に基づく映像中の観客の満足度の自動定量評価' 情報処理学会論文誌 2009December 論文誌ジャーナル IPSJJournal Vol.50 , 20091215, pp.3222-3232, 社団法人情報処理学会 *
JPN6014020230; 新田 直子 他: '個人的選好獲得システムの構築 興味区間抽出・興味度推定・プロファイル作成' 画像ラボ 第19巻 第11号 , 20081110, pp.58-64, 日本工業出版株式会社 *
JPN6014020231; 松川 徹 他: '複数人物の顔方向・表情認識に基づく映像中の観客の満足度の自動定量評価' 情報処理学会論文誌 2009December 論文誌ジャーナル IPSJJournal Vol.50 , 20091215, pp.3222-3232, 社団法人情報処理学会 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016532969A (ja) * 2013-08-29 2016-10-20 ゼットティーイー コーポレーションZte Corporation 関連コンテンツの処理方法及びシステム
KR102076807B1 (ko) 2015-05-18 2020-02-13 전자부품연구원 공간행동 의미분석 시스템
WO2016186327A1 (ko) * 2015-05-18 2016-11-24 전자부품연구원 공간행동 의미분석 시스템
KR20160135865A (ko) * 2015-05-18 2016-11-29 전자부품연구원 공간행동 의미분석 시스템
JP2018032252A (ja) * 2016-08-25 2018-03-01 日本テレビ放送網株式会社 視聴ユーザログ蓄積システム、視聴ユーザログ蓄積サーバ、及び視聴ユーザログ蓄積方法
JP2018036734A (ja) * 2016-08-29 2018-03-08 日本放送協会 表情変化検出装置及びプログラム
JP2018037755A (ja) * 2016-08-30 2018-03-08 株式会社アルファコード 注目対象物に関する情報提供システムおよび情報提供方法
WO2018042963A1 (ja) * 2016-08-30 2018-03-08 株式会社アルファコード 注目対象物に関する情報提供システムおよび情報提供方法
US10452917B2 (en) 2016-08-30 2019-10-22 Alpha Code Inc. Attention object-related information providing system and information providing method
JP2018036912A (ja) * 2016-08-31 2018-03-08 富士通株式会社 関心度評価プログラム、装置及び方法
JP2020057126A (ja) * 2018-10-01 2020-04-09 株式会社i.ホールディングス 介護マッチングシステム
JP7150320B2 (ja) 2018-10-01 2022-10-11 株式会社i.ホールディングス 介護マッチングシステム
CN113691900A (zh) * 2020-04-20 2021-11-23 浙江德方智能科技有限公司 一种具有情感分析的灯光音响管理方法和系统
CN111629222A (zh) * 2020-05-29 2020-09-04 腾讯科技(深圳)有限公司 一种视频处理方法、设备及存储介质
KR20220071677A (ko) * 2020-11-24 2022-05-31 광주과학기술원 운전자 또는 콘텐츠 시청자의 몰입도 측정 방법 및 장치
KR102419860B1 (ko) * 2020-11-24 2022-07-12 광주과학기술원 운전자 또는 콘텐츠 시청자의 몰입도 측정 방법 및 장치

Also Published As

Publication number Publication date
JP5637930B2 (ja) 2014-12-10

Similar Documents

Publication Publication Date Title
JP5637930B2 (ja) 興味区間検出装置、視聴者興味情報提示装置、および興味区間検出プログラム
US8750681B2 (en) Electronic apparatus, content recommendation method, and program therefor
US9100701B2 (en) Enhanced video systems and methods
JP4905103B2 (ja) 動画再生装置
US9888279B2 (en) Content based video content segmentation
US9208227B2 (en) Electronic apparatus, reproduction control system, reproduction control method, and program therefor
US8935169B2 (en) Electronic apparatus and display process
JP4482829B2 (ja) 嗜好抽出装置、嗜好抽出方法及び嗜好抽出プログラム
US8457469B2 (en) Display control device, display control method, and program
US20160014482A1 (en) Systems and Methods for Generating Video Summary Sequences From One or More Video Segments
JP4469905B2 (ja) テロップ収集装置およびテロップ収集方法
US20150293995A1 (en) Systems and Methods for Performing Multi-Modal Video Search
US8521007B2 (en) Information processing method, information processing device, scene metadata extraction device, loss recovery information generation device, and programs
US8126309B2 (en) Video playback apparatus and method
US9558784B1 (en) Intelligent video navigation techniques
US9564177B1 (en) Intelligent video navigation techniques
CN111343512B (zh) 信息获取方法、显示设备及服务器
EP3896985A1 (en) Reception device and control method
JP2011239247A (ja) デジタル放送受信装置および関連情報提示プログラム
JP5458163B2 (ja) 画像処理装置、及び画像処理装置の制御方法
JP4695582B2 (ja) 映像抽出装置及び映像抽出プログラム
JP7332473B2 (ja) サーバー及びその制御方法
JP5143270B1 (ja) 画像処理装置、及び画像処理装置の制御方法
JP2014207619A (ja) 録画再生装置、及び録画再生装置の制御方法
JP2015185912A (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141021

R150 Certificate of patent or registration of utility model

Ref document number: 5637930

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250