JP2013105384A - 注目度推定装置およびそのプログラム - Google Patents
注目度推定装置およびそのプログラム Download PDFInfo
- Publication number
- JP2013105384A JP2013105384A JP2011249799A JP2011249799A JP2013105384A JP 2013105384 A JP2013105384 A JP 2013105384A JP 2011249799 A JP2011249799 A JP 2011249799A JP 2011249799 A JP2011249799 A JP 2011249799A JP 2013105384 A JP2013105384 A JP 2013105384A
- Authority
- JP
- Japan
- Prior art keywords
- amount
- attention
- feature
- degree
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【解決手段】注目度推定装置1は、モーションキャプチャで計測された人物の骨格位置から身体動作量を計測する身体動作量計測手段11と、カメラ映像から人物の瞬目間隔時間を計測する瞬目間隔計測手段13と、カメラ映像から視線変動量を計測する視線変動量計測手段14と、身体動作量、視線変動量および瞬目間隔時間のそれぞれについて、予め定めた映像区間における統計特徴量を生成する統計特徴量生成手段30と、統計特徴量と注目度との対応関係を学習データとして予め記憶した学習データ記憶手段40と、学習データに基づいて、統計特徴量生成手段30で生成された統計特徴量に対応する注目度を、当該映像区間に対する注目度として特定する注目度特定手段50と、を備えることを特徴とする。
【選択図】図2
Description
例えば、脳波は、特定の対象に対する脳波の反応が明確に現れた場合に、集中度が高い方向に働く指標となる。また、例えば、脈拍は、特定の対象に対して心拍間隔時間が変動した場合に、集中度が高い方向に働く指標となる。また、例えば、瞬目間隔時間は、その間隔が長くなった場合に、集中度が高い方向に働く指標となる。また、例えば、身体の動きは、その動きが大きい場合、集中していない方向に働く指標となる。
このような生体情報を利用して集中度を計測するには、通常、人物に装着した接触型デバイスから生体情報を取得する必要がある。
この手法は、視線の動きを追跡し、予めデータ化した、ある対象に視線が集中する場合の視線の動きと比較することで、人物がその対象に集中している度合いを計測するものである。この手法において、視線の追跡には、非接触型のデバイスが発光する赤外線等が人物の瞳によって反射した光をカメラで撮影することで行っている。
また、従来のように、視線の動きから集中度(注目度)を計測する手法では、たとえ、赤外線光等を発光する非接触型デバイスを用いる場合であっても、人物に負荷を与えてしまう。
例えば、一般家庭において、視聴者がテレビ等で視聴する映像コンテンツを対象として注目度を計測する場合、接触型デバイスを装着することは現実的ではない。また、健康面等を考慮して、視聴者に赤外線を照射し続けることはできない。
なお、人物が映像コンテンツを注目している場合、視線の動きが小さくなる傾向にあることから、視線変動量は注目度を推定する指標となる。
また、注目度推定装置は、映像動き量検出手段によって、映像コンテンツにおいて、フレーム間ごとの差分により映像動き量を計測する。なお、人物が映像コンテンツを注目している場合、視線の動きが大きくなる傾向にあることから、映像動き量は、視線変動量とは逆の相関を持った指標となる。
そして、使用判定手段において、視線変動量を身体特徴量として使用しない旨が判定された場合、注目度推定装置は、注目度特定手段によって、学習データに代えて第2学習データに基づいて、視線変動量を除いた統計特徴量に対応する注目度を、当該映像区間に対する注目度として特定する。
また、注目度推定装置は、字幕情報量計測手段によって、映像コンテンツにおいて、当該映像コンテンツに含まれる字幕情報量を計測する。そして、注目度推定装置は、使用判定手段によって、字幕情報量が予め定めた情報量よりも多い場合に、視線変動量を身体特徴量として使用しない旨を判定する。
また、注目度推定装置は、映像動き量検出手段によって、映像コンテンツにおいて、フレーム間ごとの差分により映像動き量を計測する。そして、注目度推定装置は、使用判定手段によって、映像動き量が予め定めた動き量よりも多い場合に、視線変動量を身体特徴量として使用しない旨を判定する。
この映像区間を跨って発生する特徴とは、例えば、映像コンテンツ内で、ある映像区間から人物が注目する映像区間に移った場合や、注目している映像区間が終了し、他の映像区間に移った場合等における特徴である。
また、注目度推定プログラムは、視線変動量計測手段によって、カメラ映像として時系列に入力されるカメラ画像において、予め定めた画像特徴に基づいて人物の目領域を検出し、当該目領域を区分した左右領域の輝度に基づいて、単位時間当たりの視線変動量を身体特徴量の1つとして計測する。
請求項1,10に記載の発明によれば、人物の注目度を推定するための身体特徴量である身体動作量や視線変動量を、画像処理によって抽出することができるため、接触型デバイスの装着や、赤外線光の照射等、人物に負荷をかけることなく注目度を推定することができる。
請求項6に記載の発明によれば、映像の動きが大きくなった場合、視線変動量の注目度を推定する際の指標としての意味が逆に作用するため、注目度を推定する際の特徴量から視線変動量を除外することで、精度よく注目度を推定することができる。
[注目度推定システムの構成]
最初に、図1を参照して、本発明の実施形態に係る注目度推定装置を含んだ注目度測定システムSの構成について説明する。
注目度測定システムSは、映像コンテンツを視聴している人物の当該映像コンテンツに対する注目度を測定するものである。
この注目度測定システムSは、モニタMと、モーションキャプチャMcと、カメラCと、注目度推定装置1と、を備えている。
このモーションキャプチャMcは、奥行きカメラ(不図示)で撮影した距離画像によって人物Hまでの距離を計測するとともに、人物Hの3次元空間上の骨格位置(例えば、頭部位置、頸部位置等)を検出し、その骨格位置の3次元座標を2次元座標に投影することで骨格位置情報を生成する。このモーションキャプチャMcで計測された骨格位置情報は、注目度推定装置1に出力される。
なお、カメラCとモーションキャプチャMcとが人物Hを撮影する画角は、ほぼ等しくしておく。もちろん、モーションキャプチャMcから、人物Hを撮影した映像を取得可能であれば、モーションキャプチャMcから、カメラ映像を出力することとしてもよい。
そこで、注目度推定装置1は、これらの変化を、モーションキャプチャMcで計測された骨格位置情報と、カメラCで撮影されたカメラ映像とに基づいて検出することで、人物Hの映像コンテンツに対する注目度を推定する。すなわち、注目度推定装置1は、骨格位置情報から、例えば、人物Hの頭部位置を特定し、その動きによって身体動作の変化を検出し、カメラ映像から、人物Hの瞬き間隔や視線の動きの変化を検出することで、注目度を推定する。
このように、注目度測定システムSを構成することで、接触型デバイスの装着や、赤外線光の照射等、人物Hに負荷を与えることなく、注目度を推定することができる。
以下、注目度推定装置1の構成および動作について説明する。
まず、図2を参照(適宜図1参照)して、本発明の実施形態に係る注目度推定装置1の構成について説明する。ここでは、注目度推定装置1は、映像コンテンツを時間方向に区切った映像区間を示す情報として、映像区間情報を入力する。そして、注目度推定装置1は、この映像区間単位で注目度を推定する。また、映像区間情報は、図示を省略した入力手段を介して入力することとする。
また、ここでは、時間情報以外に、トピックを識別するための識別子(ID番号)を、付加しておくこととする。もちろん、この映像区間は、映像コンテンツ全体を示すものであってもよいし、映像コンテンツの一部を示すものであってもよい。
なお、モーションキャプチャMcから入力される骨格位置情報は、例えば、図3(a)に示すように、モーションキャプチャMcにおいて人物Hが撮影されたとき、図3(b)に示すように、人物Hの骨格の位置である頭部位置PHや頸部位置PNの2次元画像上の座標である。
ここでは、身体特徴量抽出手段10は、身体動作量計測手段11と、傾き補正手段12と、瞬目間隔計測手段13と、視線変動量計測手段14と、を備えている。
一般に、映像コンテンツを視聴している人物Hが注目状態に入ったとき、身体の動きは少なくなる。そこで、身体動作量計測手段11は、身体が動く量(身体動作量)を、注目度の推定の指標となる特徴量として抽出(計測)する。
例えば、tpを映像区間(トピック)のID番号、PH x(t)を時刻tフレームにおける2次元座標上での水平方向(x軸方向)の頭部位置(x座標)、PH y(t)を同じく垂直方向(y軸方向)の頭部位置(y座標)としたとき、身体動作量計測手段11は、以下の式(1)により、単位時間あたりの身体動作量Ktp(t)を計測する。
この傾き補正手段12で補正されたフレーム画像(カメラ画像)は、瞬目間隔計測手段13および視線変動量計測手段14に出力される。
そして、瞬目間隔計測手段13は、当該顔領域における予め定めた画像特徴となる特徴点を時系列に追跡した複数の特徴点軌跡と、予め瞬目動作の特徴点軌跡として学習した学習データとに基づいて、瞬目状態を検出し、その間隔時間を計測する。
このBag−of−words手法は、単語(ここでは、特徴点軌跡)をその特徴に基づいて分類した辞書であるコードブックに基づいて、多次元の特徴を予め定めたk種類のクラスタで代表させ、クラスタの頻度ヒストグラムで分類処理を行う手法である。
ここでは、瞬目間隔計測手段13は、1つの特徴点軌跡から1つのヒストグラム(軌跡ヒストグラム)を生成し、ある時点において存在する複数の軌跡ヒストグラムを、Bag−of−words手法における複数の単語とする。
すなわち、tpをトピックのID番号、nを当該トピック内での瞬目を識別するID番号、t(n)をn番目の瞬目が検出された時刻(フレーム番号)としたとき、瞬目間隔計測手段13は、以下の式(5)により、瞬目が検出された時間間隔(瞬目間隔時間)Btp(n)を計測する。
すなわち、視線変動量計測手段14は、目の白黒領域を矩形内の輝度値の差で表したHaar−like特徴量を用いて、予め学習した複数のカスケード型の識別器によって目の領域を検出する。なお、視線変動量計測手段14は、瞬目間隔計測手段13と同様に、カメラ画像から、一旦、顔領域を検出し、その顔領域内で目の領域を検出することとしてもよい。
すなわち、視線変動量計測手段14は、図6(a)に示すように、目領域を検出後、図6(b)に示すように、目領域の水平方向の中心で左右に区分した右領域ERと左領域ELとにおいて、画素の輝度値を合計する。
例えば、図6(b)におけるそれぞれの領域(ER,EL)の画素数をN、右領域ER内の任意の画素iにおける輝度値をIR(i)、左領域EL内の任意の画素iにおける輝度値をIL(i)としたとき、視線変動量計測手段14は、ある時刻tフレームにおける視線方向dtを、以下の式(6)により算出する。
なお、視線変動量計測手段14は、人物Hの目領域として、左右の2つの目領域を検出した場合、左右の目領域において、それぞれ前記式(6)で視線方向を算出し、その平均をとることとする。
すなわち、tpをトピックのID番号、tを視線方向を計測した時刻(フレーム番号)としたとき、視線変動量計測手段14は、以下の式(7)により、視線変動量Etp(t)を計測する。なお、|a|は、aの絶対値を示す。
この視線変動量計測手段14で計測された視線変動量は、映像区間(トピック)ごとに、統計特徴量生成手段30に出力される。
すなわち、人物Hが字幕を注目した場合、あるいは、人物Hが映像の動きに注目した場合、人物Hが映像に注目すると視線変動量が小さくなるという前提と逆の方向に作用することになる。
そこで、ここでは、字幕情報量や映像動き量を、注目度を推定する際に視線変動量を使用するか否かの判定の指標として検出する。
ここで、フレーム画像の画素値をI(x,y)、変換後のラプラシアン画像の画素値をI′(x,y)としたとき、字幕情報量計測手段21は、以下の式(8)の演算により、ラプラシアン画像を生成する。
そして、字幕情報量計測手段21は、エッジヒストグラムを字幕特徴量として予め学習によって求めた識別器(例えば、2値SVM識別器)により、フレーム画像ごとに字幕の有無を検出する。あるいは、簡易に、フレーム画像において、所定輝度値以上の割合が、予め定めた割合よりも多いか否かによって、字幕の有無を検出することとしてもよい。
すなわち、トピックtp(トピックのID番号)において、字幕を検出したフレーム数をN(tp)、トピックの時間長(トピックの総フレーム数)をT(tp)としたき、字幕情報量計測手段21は、以下の式(9)により字幕情報量Jtpを算出する。
例えば、映像動き量計測手段22は、入力される映像コンテンツのフレーム画像ごとに、予め定めた大きさのブロック単位で、1フレーム前に入力されたフレーム画像の同一のブロック間で差分をとり、その差が予め定めた量よりも大きい場合に、当該ブロックにおいて動きがあったことを検出し、動きのあったブロックの数が予め定めた数(あるいは割合)よりも大きい場合に当該フレーム画像において動きが大きいと判定する。
この映像動き量計測手段22で計測された映像動き量は、使用判定手段23に出力される。
例えば、使用判定手段23は、全トピックの字幕情報量Jtpの平均μtpと標準偏差σtpとを算出し、μtp+σtpを超える場合に、字幕情報量が多いと判定する。また、映像動き量についても同様である。
この使用判定手段23におけるトピックごとの視線変動量の使用判定結果は、統計特徴量生成手段30および注目度特定手段50に出力される。
ここでは、統計特徴量生成手段30は、グローバル特徴生成手段31と、局所ヒストグラム特徴生成手段32と、を備えている。
すなわち、グローバル特徴生成手段31は、あるトピックにおける人物Hの大まかな特徴をグローバル特徴として生成する。
これによって、3種類の特徴量を、トピックの時間長によらず、固定の6次元の特徴量(特徴量記述子)として表すことができる。
このように生成されたグローバル特徴(特徴量記述子)は、トピックと対応付けて注目度特定手段50に出力される。
すなわち、局所ヒストグラム特徴生成手段32は、あるトピックにおける人物Hのより細かい特徴量を算出し、ヒストグラム(局所ヒストグラム)化するものである。
具体的には、局所ヒストグラム特徴生成手段32は、映像コンテンツ全体で検出された身体動作量の平均値をμ、その標準偏差をσとし、8つのビンでヒストグラムを生成する。その際の各ビンのしきい値は、図7(a)に示すように、(−∞,μ−2σ),[μ−2σ,μ−σ),[μ−σ,μ−1/2σ),[μ−1/2σ,μ),[μ,μ+1/2σ),[μ+1/2σ,μ+σ),[μ+σ,μ+2σ),[μ+2σ,∞)とする。なお、(a,b)は、値がaより大きくbより小さい区分を示し、(a,b]は、値がaより大きくb以下の区分を示す。
なお、瞬目間隔時間および視線変動量についても、身体動作量と同様に、映像コンテンツ全体で検出されたそれぞれの特徴量の平均値と標準偏差でビンのしきい値を求めてヒストグラムを生成する。
これによって、3種類の特徴量を、トピックの時間長によらず、固定の24次元の特徴量(特徴量記述子)として表すことができる。
このように算出された局所ヒストグラム特徴(特徴量記述子)は、トピックと対応付けて注目度特定手段50に出力される。
この学習データ記憶手段40は、予め第1学習データD1と第2学習データD2の2つの学習データを記憶しておく。なお、第1学習データD1と第2学習データD2とを異なる記憶手段に記憶することとしてもよい。
このSVM推定器は、例えば、出力値(注目度)が連続値をとる分類器(SVM回帰推定器)とする。もちろん、注目度を2クラス(注目、非注目)で出力させたい場合、2クラス分類器であってもよいし、注目度を多クラス(多値)で出力させたい場合、多クラス分類器であっても構わない。
この注目度学習装置2は、注目度推定装置1において、注目度特定手段50を学習手段60に替え、視線変動量使用判定手段20を除いて構成したもので、他の構成は同一である。
このように、注目度学習装置2によって、予め学習によって生成された第1学習データD1と第2学習データD2とを、注目度推定装置1の学習データ記憶手段40に記憶しておく。
図2に戻って、注目度推定装置1の構成について説明を続ける。
すなわち、注目度特定手段50は、学習データ記憶手段40に記憶されている学習データ(SVM推定器:識別関数)を用い、統計特徴量生成手段30で生成された特徴量記述子を入力値として注目度を演算する。
なお、注目度推定装置1は、一般的なコンピュータを前記した各手段として機能させるプログラム(注目度推定プログラム)により動作させることができる。
次に、図9を参照(適宜図1,図2参照)して、本発明の実施形態に係る注目度推定装置1の動作について説明する。なお、ここでは、予め学習データ記憶手段40に、学習データ(第1学習データD1、第2学習データD2)が記憶されているものとする。
これによって、トピック内における身体動作量、瞬目間隔時間および視線変動量が単位時間(ここでは、フレーム)ごとに計測される。また、トピック内において字幕が存在するフレームおよび動きが大きいフレームが検出される。
また、注目度推定装置1は、トピックの時間長(トピックの総フレーム数)に対する動きが大きいとして検出したフレーム数の割合を映像動き量として計算する(ステップS9)。
そして、注目度推定装置1は、使用判定手段23によって、ステップS8,S9で計算された字幕情報量が予め定めた量よりも多い、または、映像動き量が予め定めた量よりも多いか否かを判定する(ステップS10)。
このとき、統計特徴量生成手段30は、グローバル特徴生成手段31によって、身体動作量および瞬目間隔時間のそれぞれについて、トピック内における平均値と標準偏差をグローバル特徴として生成する。
また、統計特徴量生成手段30は、局所ヒストグラム特徴生成手段32によって、身体動作量および瞬目間隔時間のそれぞれについて、ヒストグラムを生成することで、局所ヒストグラム特徴を生成する。
すなわち、統計特徴量生成手段30は、グローバル特徴生成手段31によって、身体動作量、瞬目間隔時間および視線変動量のそれぞれについて、トピック内における平均値と標準偏差をグローバル特徴として生成する。
また、統計特徴量生成手段30は、局所ヒストグラム特徴生成手段32によって、身体動作量、瞬目間隔時間および視線変動量のそれぞれについて、ヒストグラムを生成することで、局所ヒストグラム特徴を生成する。
また、注目度推定装置1は、映像コンテンツに字幕が多い場合、あるいは、映像の動きが多い場合には、視線特徴量を注目度推定に使用しないことで、注目度を精度よく求めることができる。
例えば、ここでは、統計特徴量生成手段30は、図8で説明したように、あるトピックにおいて、6次元のグローバル特徴と、24次元の局所ヒストグラム特徴とからなる30次元の固定次元の特徴量記述子を生成することとしたが、さらにトピックを時間方向に区切って、その区間ごとに、30次元の特徴量記述子を生成することとてもよい。
あるいは、さらに、トピックnを時間方向に4分割し、それぞれの区間において、前記した30次元の特徴量記述子をそれぞれ生成することとしてもよい(4分割特徴量)。これによって、トピックnについて、210次元(30次元×7特徴量記述子)の固定次元の特徴量記述子群が生成される。
この場合、視線変動量を使用しない特徴量記述子群については、140次元(20次元×7特徴量記述子)の固定次元の特徴量記述子群となる。
この場合、視線変動量を使用しない特徴量記述子群については、180次元(20次元×9特徴量記述子)の固定次元の特徴量記述子群となる。
なお、このような時間方向に分割した特徴量記述子群を付加して用いる場合、学習データ記憶手段40に記憶される第1学習データD1や第2学習データD2は、その付加した特徴量記述子群と同次数の特徴量記述子群によって、予め学習しておくことはいうまでもない。
あるいは、さらに、構成を簡略化し、注目度推定装置1,1Bから、身体動作量計測手段11と瞬目間隔計測手段13のいずれか一方を省略して構成してもよい。
このため、従来は、単に映像コンテンツを表示するだけで計測していた“視聴率”に対して、実際に人物が映像コンテンツを視聴し、その注目度を推定することで、映像コンテンツそのものの評価となる“視聴質”を計測することも可能になる。
10 身体特徴量抽出手段
11 身体動作量計測手段
12 傾き補正手段
13 瞬目間隔計測手段
14 視線変動量計測手段
20 視線変動量使用判定手段
21 字幕情報量計測手段
22 映像動き量計測手段
23 使用判定手段
30 統計特徴量生成手段
31 グローバル特徴生成手段
32 局所ヒストグラム特徴生成手段
40 学習データ記憶手段(第2学習データ記憶手段)
50 注目度特定手段
S 注目度測定システム
M モニタ
C カメラ
Mc モーションキャプチャ
Claims (10)
- 映像コンテンツを視聴している人物を撮影した画像から当該人物の骨格位置を検出するモーションキャプチャで計測して得られる骨格位置情報と、前記人物をカメラで撮影したカメラ映像とから、前記映像コンテンツの予め定めた映像区間において、前記人物の注目の度合いを示す注目度を推定する注目度推定装置であって、
前記骨格位置情報を時系列に入力し、当該骨格位置情報の予め定めた骨格位置における単位時間当たりの変化量である身体動作量を前記人物の身体特徴量の1つとして計測する身体動作量計測手段と、
前記カメラ映像として時系列に入力されるカメラ画像において、予め定めた画像特徴に基づいて前記人物の目領域を検出し、当該目領域を区分した左右領域の輝度に基づいて、単位時間当たりの視線変動量を前記身体特徴量の1つとして計測する視線変動量計測手段と、
前記身体特徴量のそれぞれについて、前記映像コンテンツの予め定めた映像区間において統計し、当該映像区間における統計特徴量として生成する統計特徴量生成手段と、
前記統計特徴量と前記注目度との対応関係を学習データとして予め記憶した学習データ記憶手段と、
この学習データ記憶手段に記憶されている学習データに基づいて、前記統計特徴量生成手段で生成された統計特徴量に対応する注目度を、当該映像区間に対する注目度として特定する注目度特定手段と、
を備えることを特徴とする注目度推定装置。 - 前記時系列に入力されるカメラ画像において、予め定めた画像特徴に基づいて前記人物の瞬きを検出し、瞬目間隔時間を前記身体特徴量の1つとして計測する瞬目間隔計測手段を、さらに備えることを特徴とする請求項1に記載の注目度推定装置。
- 前記骨格位置情報で示される前記人物の頭部位置および頸部位置に基づいて、前記頸部位置が前記頭部位置の直下になるように前記カメラ画像を回転させる傾き補正手段を、さらに備えることを特徴とする請求項1または請求項2に記載の注目度推定装置。
- 前記身体特徴量から前記視線変動量を除いた統計特徴量と前記注目度との対応関係を第2学習データとして予め記憶した第2学習データ記憶手段と、
前記映像コンテンツにおいて、当該映像コンテンツに含まれる字幕情報量を計測する字幕情報量計測手段と、
前記映像コンテンツにおいて、フレーム間ごとの差分により映像動き量を計測する映像動き量検出手段と、
前記字幕情報量が予め定めた情報量よりも多い、または、前記映像動き量が予め定めた動き量よりも多い場合に、前記視線変動量を前記身体特徴量として使用しない旨を判定する使用判定手段と、をさらに備え、
前記使用判定手段において、前記視線変動量を前記身体特徴量として使用しない旨が判定された場合、前記注目度特定手段は、前記学習データに代えて前記第2学習データに基づいて、前記視線変動量を除いた統計特徴量に対応する注目度を、当該映像区間に対する注目度として特定することを特徴とする請求項1から請求項3のいずれか一項に記載の注目度推定装置。 - 前記身体特徴量から前記視線変動量を除いた統計特徴量と前記注目度との対応関係を第2学習データとして予め記憶した第2学習データ記憶手段と、
前記映像コンテンツにおいて、当該映像コンテンツに含まれる字幕情報量を計測する字幕情報量計測手段と、
前記字幕情報量が予め定めた情報量よりも多い場合に、前記視線変動量を前記身体特徴量として使用しない旨を判定する使用判定手段と、をさらに備え、
前記使用判定手段において、前記視線変動量を前記身体特徴量として使用しない旨が判定された場合、前記注目度特定手段は、前記学習データに代えて前記第2学習データに基づいて、前記視線変動量を除いた統計特徴量に対応する注目度を、当該映像区間に対する注目度として特定することを特徴とする請求項1から請求項3のいずれか一項に記載の注目度推定装置。 - 前記身体特徴量から前記視線変動量を除いた統計特徴量と前記注目度との対応関係を第2学習データとして予め記憶した第2学習データ記憶手段と、
前記映像コンテンツにおいて、フレーム間ごとの差分により映像動き量を計測する映像動き量検出手段と、
前記映像動き量が予め定めた動き量よりも多い場合に、前記視線変動量を前記身体特徴量として使用しない旨を判定する使用判定手段と、をさらに備え、
前記使用判定手段において、前記視線変動量を前記身体特徴量として使用しない旨が判定された場合、前記注目度特定手段は、前記学習データに代えて前記第2学習データに基づいて、前記視線変動量を除いた統計特徴量に対応する注目度を、当該映像区間に対する注目度として特定することを特徴とする請求項1から請求項3のいずれか一項に記載の注目度推定装置。 - 前記統計特徴量生成手段は、前記映像区間全体における前記身体特徴量の平均値および標準偏差であるグローバル特徴と、前記身体統計量を予め定めたビン幅でヒストグラム化した局所ヒストグラム特徴とを前記統計特徴量として生成することを特徴とする請求項1から請求項6のいずれか一項に記載の注目度推定装置。
- 前記統計特徴量生成手段は、前記映像区間を予め定めた時間区間に分割した区間ごとに、さらに前記局所ヒストグラム特徴を生成することを特徴とする請求項7に記載の注目度推定装置。
- 前記統計特徴量生成手段は、前記注目度を推定する対象となる映像区間の統計特徴量に、当該映像区間の前後の映像区間の局所ヒストグラム特徴を付加して当該注目度を推定する映像区間の統計特徴量とすることを特徴とする請求項7または請求項8に記載の注目度推定装置。
- 映像コンテンツを視聴している人物を撮影した画像から当該人物の骨格位置を検出するモーションキャプチャで計測して得られる骨格位置情報と、前記人物をカメラで撮影したカメラ映像とから、前記映像コンテンツの予め定めた映像区間において、前記人物の注目の度合いを示す注目度を推定するために、コンピュータを、
前記骨格位置情報を時系列に入力し、当該骨格位置情報の予め定めた骨格位置における単位時間当たりの変化量である身体動作量を前記人物の身体特徴量の1つとして計測する身体動作量計測手段、
前記カメラ映像として時系列に入力されるカメラ画像において、予め定めた画像特徴に基づいて前記人物の目領域を検出し、当該目領域を区分した左右領域の輝度に基づいて、単位時間当たりの視線変動量を前記身体特徴量の1つとして計測する視線変動量計測手段、
前記身体特徴量のそれぞれについて、前記映像コンテンツの予め定めた映像区間において統計し、当該映像区間における統計特徴量として生成する統計特徴量生成手段、
前記統計特徴量と前記注目度との対応関係を予め学習した学習データに基づいて、前記統計特徴量生成手段で生成された統計特徴量に対応する注目度を、当該映像区間に対する注目度として特定する注目度特定手段、
として機能させることを特徴とする注目度推定プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011249799A JP5771127B2 (ja) | 2011-11-15 | 2011-11-15 | 注目度推定装置およびそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011249799A JP5771127B2 (ja) | 2011-11-15 | 2011-11-15 | 注目度推定装置およびそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013105384A true JP2013105384A (ja) | 2013-05-30 |
JP5771127B2 JP5771127B2 (ja) | 2015-08-26 |
Family
ID=48624858
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011249799A Expired - Fee Related JP5771127B2 (ja) | 2011-11-15 | 2011-11-15 | 注目度推定装置およびそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5771127B2 (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016181244A (ja) * | 2015-03-24 | 2016-10-13 | 富士ゼロックス株式会社 | ユーザ注意判定システム、方法及びプログラム |
JP2017176641A (ja) * | 2016-03-31 | 2017-10-05 | オムロンオートモーティブエレクトロニクス株式会社 | 顔画像処理装置および顔画像処理システム |
WO2017221555A1 (ja) * | 2016-06-23 | 2017-12-28 | 株式会社ガイア・システム・ソリューション | エンゲージメント値処理システム及びエンゲージメント値処理装置 |
JP2018045350A (ja) * | 2016-09-13 | 2018-03-22 | Kddi株式会社 | 所定対象のうちの特定対象における状態を識別する装置、プログラム及び方法 |
JP2019200456A (ja) * | 2018-05-14 | 2019-11-21 | 富士通株式会社 | プログラム、情報処理装置、及び情報処理方法 |
JP2020204941A (ja) * | 2019-06-18 | 2020-12-24 | 凸版印刷株式会社 | 検出支援装置、検出支援方法、及びプログラム |
CN114325520A (zh) * | 2020-09-30 | 2022-04-12 | 西门子(深圳)磁共振有限公司 | 磁体升场方法及装置 |
US11361540B2 (en) | 2020-02-27 | 2022-06-14 | Samsung Electronics Co., Ltd. | Method and apparatus for predicting object of interest of user |
CN114671311A (zh) * | 2020-12-24 | 2022-06-28 | 三菱电机株式会社 | 电梯的显示控制装置 |
WO2023188904A1 (ja) * | 2022-03-29 | 2023-10-05 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP7540657B2 (ja) | 2021-09-17 | 2024-08-27 | 浙江霊創网絡科技有限公司 | 児童のモニタ端末の使用をインテリジェントに制御する方法及びシステム |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111886565B (zh) | 2018-03-22 | 2024-06-14 | 国立研究开发法人科学技术振兴机构 | 处理装置、处理方法、数据处理装置、数据处理系统、数据处理方法和程序 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09138863A (ja) * | 1995-11-13 | 1997-05-27 | Matsushita Electric Ind Co Ltd | 3次元の動き生成装置 |
JP2004062393A (ja) * | 2002-07-26 | 2004-02-26 | Japan Science & Technology Corp | 注目判定方法及び注目判定装置 |
JP2005318372A (ja) * | 2004-04-30 | 2005-11-10 | Nippon Telegr & Teleph Corp <Ntt> | 注目度推定方法、注目度推定装置および注目度推定プログラム |
JP2008099043A (ja) * | 2006-10-13 | 2008-04-24 | Sanyo Electric Co Ltd | 受信機 |
JP2008276274A (ja) * | 2005-07-04 | 2008-11-13 | Nec Corp | 情報処理装置及び情報処理方法 |
-
2011
- 2011-11-15 JP JP2011249799A patent/JP5771127B2/ja not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09138863A (ja) * | 1995-11-13 | 1997-05-27 | Matsushita Electric Ind Co Ltd | 3次元の動き生成装置 |
JP2004062393A (ja) * | 2002-07-26 | 2004-02-26 | Japan Science & Technology Corp | 注目判定方法及び注目判定装置 |
JP2005318372A (ja) * | 2004-04-30 | 2005-11-10 | Nippon Telegr & Teleph Corp <Ntt> | 注目度推定方法、注目度推定装置および注目度推定プログラム |
JP2008276274A (ja) * | 2005-07-04 | 2008-11-13 | Nec Corp | 情報処理装置及び情報処理方法 |
JP2008099043A (ja) * | 2006-10-13 | 2008-04-24 | Sanyo Electric Co Ltd | 受信機 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016181244A (ja) * | 2015-03-24 | 2016-10-13 | 富士ゼロックス株式会社 | ユーザ注意判定システム、方法及びプログラム |
JP2017176641A (ja) * | 2016-03-31 | 2017-10-05 | オムロンオートモーティブエレクトロニクス株式会社 | 顔画像処理装置および顔画像処理システム |
WO2017221555A1 (ja) * | 2016-06-23 | 2017-12-28 | 株式会社ガイア・システム・ソリューション | エンゲージメント値処理システム及びエンゲージメント値処理装置 |
JP2018005892A (ja) * | 2016-06-23 | 2018-01-11 | 株式会社ガイア・システム・ソリューション | エンゲージメント値処理システム及びエンゲージメント値処理装置 |
US20190340780A1 (en) * | 2016-06-23 | 2019-11-07 | Gaia System Solutions Inc. | Engagement value processing system and engagement value processing apparatus |
JP2018045350A (ja) * | 2016-09-13 | 2018-03-22 | Kddi株式会社 | 所定対象のうちの特定対象における状態を識別する装置、プログラム及び方法 |
JP7152651B2 (ja) | 2018-05-14 | 2022-10-13 | 富士通株式会社 | プログラム、情報処理装置、及び情報処理方法 |
JP2019200456A (ja) * | 2018-05-14 | 2019-11-21 | 富士通株式会社 | プログラム、情報処理装置、及び情報処理方法 |
JP2020204941A (ja) * | 2019-06-18 | 2020-12-24 | 凸版印刷株式会社 | 検出支援装置、検出支援方法、及びプログラム |
JP7476487B2 (ja) | 2019-06-18 | 2024-05-01 | Toppanホールディングス株式会社 | 検出支援装置、検出支援方法、及びプログラム |
US11361540B2 (en) | 2020-02-27 | 2022-06-14 | Samsung Electronics Co., Ltd. | Method and apparatus for predicting object of interest of user |
CN114325520A (zh) * | 2020-09-30 | 2022-04-12 | 西门子(深圳)磁共振有限公司 | 磁体升场方法及装置 |
CN114671311B (zh) * | 2020-12-24 | 2023-12-26 | 三菱电机株式会社 | 电梯的显示控制装置 |
CN114671311A (zh) * | 2020-12-24 | 2022-06-28 | 三菱电机株式会社 | 电梯的显示控制装置 |
JP7540657B2 (ja) | 2021-09-17 | 2024-08-27 | 浙江霊創网絡科技有限公司 | 児童のモニタ端末の使用をインテリジェントに制御する方法及びシステム |
WO2023188904A1 (ja) * | 2022-03-29 | 2023-10-05 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP5771127B2 (ja) | 2015-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5771127B2 (ja) | 注目度推定装置およびそのプログラム | |
Khodabakhsh et al. | Fake face detection methods: Can they be generalized? | |
US10984252B2 (en) | Apparatus and method for analyzing people flows in image | |
Drutarovsky et al. | Eye blink detection using variance of motion vectors | |
Jiang et al. | Predicting video saliency with object-to-motion CNN and two-layer convolutional LSTM | |
CN104573706B (zh) | 一种物体图像识别方法及其系统 | |
Fang et al. | Visual attention modeling for stereoscopic video: a benchmark and computational model | |
Fathi et al. | Learning to recognize daily actions using gaze | |
US8401248B1 (en) | Method and system for measuring emotional and attentional response to dynamic digital media content | |
US8636361B2 (en) | Learning-based visual attention prediction system and method thereof | |
CN109740466A (zh) | 广告投放策略的获取方法、计算机可读存储介质 | |
Itti | Quantifying the contribution of low-level saliency to human eye movements in dynamic scenes | |
US20200302181A1 (en) | System and method for generating visual analytics and player statistics | |
Riche et al. | Dynamic saliency models and human attention: A comparative study on videos | |
US8706663B2 (en) | Detection of people in real world videos and images | |
Khan et al. | Saliency-based framework for facial expression recognition | |
US20090290791A1 (en) | Automatic tracking of people and bodies in video | |
WO2012105196A1 (ja) | 関心度推定装置および関心度推定方法 | |
Liu et al. | A generic virtual content insertion system based on visual attention analysis | |
JP2011039778A (ja) | 動画像コンテンツ評価装置およびコンピュータプログラム | |
CN105893963A (zh) | 一种筛选视频中单个行人目标的最佳易识别帧的方法 | |
CN103971100A (zh) | 基于视频并针对自动提款机的伪装与偷窥行为的检测方法 | |
Ren et al. | Spatiotemporal saliency detection via sparse representation | |
Arbués-Sangüesa et al. | Always look on the bright side of the field: Merging pose and contextual data to estimate orientation of soccer players | |
Ancona et al. | Ball detection in static images with Support Vector Machines for classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20140326 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141001 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150529 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150626 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5771127 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |