JP2011039778A - 動画像コンテンツ評価装置およびコンピュータプログラム - Google Patents
動画像コンテンツ評価装置およびコンピュータプログラム Download PDFInfo
- Publication number
- JP2011039778A JP2011039778A JP2009186573A JP2009186573A JP2011039778A JP 2011039778 A JP2011039778 A JP 2011039778A JP 2009186573 A JP2009186573 A JP 2009186573A JP 2009186573 A JP2009186573 A JP 2009186573A JP 2011039778 A JP2011039778 A JP 2011039778A
- Authority
- JP
- Japan
- Prior art keywords
- image content
- moving image
- map data
- gazing point
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】注視点データ解析部は、画像コンテンツについての注視点座標値を含む注視点データを用いて視力分布を求める。画像解析部は、画像解析用パラメータを適用して複数の視覚属性に対応する顕著性マップデータを計算する。比較処理部は、注視点マップデータと顕著性マップデータとの一致度を計算する。パラメータ決定部は、一致度に基づいて最適な評価用パラメータを決定する。注視点マップデータのない評価対象動画像コンテンツは、注視点マップデータ、顕著性マップデータ、評価用パラメータを有する学習用動画像コンテンツを基に、評価対象動画像コンテンツを解析して観察者の注視点分布を推定する。
【選択図】図1
Description
上記の構成において、視力分布とは、注視点およびその周辺における人の視力の分布を表す。このとき、注視点における視力に対して、その周辺部分における視力は注視点からの距離に応じて次第に低くなっていく。また、複数の被験者について注視点を測定した結果に基づき、当該複数被験者の視力分布を重畳したものを上での視力分布として用いても良い。この視力分布は、人の注視の度合いを表すものであり、注視力分布とも言える。
また、顕著性分布は、言い換えれば誘目性分布である。誘目性とは、視覚的な注意の引きやすさの程度をいう。
また、上記の視覚属性は、1種類であっても複数種類であっても良い。画像解析用パラメータは、例えば、視覚属性ごとの重み付けを表わす。
また、パラメータ決定部は、評価用パラメータを求めるための1つの学習用動画像コンテンツに関する注視点マップデータと、その他複数の学習用動画像コンテンツに関する注視点マップデータとの類似度を計算し、計算された前記類似度に基づき一又は複数の前記学習用動画像コンテンツに関する注視点マップデータを選択し、選択された注視点マップデータに関連付けられた画像解析用パラメータを選択する。次に、パラメータ決定部は、評価用パラメータを求めるための1つの学習用動画像コンテンツに関する注視点マップデータと、前記選択した一又は複数の画像解析用パラメータを基に画像解析部によって計算される顕著性マップデータとに基づいて比較処理部で計算される一致度のうち、最も高い一致度を示す画像解析用パラメータを評価用パラメータとして決定する。さらに、パラメータ決定部は、その他の学習用動画像コンテンツについても同様に評価用パラメータを決定する。
つまり、パラメータ決定部は、評価用パラメータを求めるための学習用動画像コンテンツの注視点マップデータとその他の学習用動画像コンテンツの注視点マップデータとの類似度に基づいて一又は複数の学習用動画像コンテンツの注視点マップデータに絞り込み、この絞り込まれた注視点マップデータのうちこれらに対応する学習用動画像コンテンツの顕著性マップデータとの一致度の最も高い注視点マップデータに対応する画像解析用パラメータに基づいて評価用パラメータを決定する。
類似画像コンテンツ決定部は、例えば、評価対象動画像コンテンツおよび学習用動画像コンテンツに対して、共通の顕著性マップデータを生成するための評価用パラメータを用いて、所定の視覚属性に関する特徴マップから得られた顕著性マップデータの類似性を判定することによって、評価対象動画像コンテンツに類似する学習用動画像コンテンツを決定する。または、動画像コンテンツの特徴に基づくクラスタリング処理を行って、その結果により動画像コンテンツ間の類似性を判定するようにしてもよい。
複数の学習用動画像コンテンツそれぞれに対して、視線を計測した結果である注視点の座標値を含む注視点データに基づき、前記学習用動画像コンテンツに含まれる画素に対応した視力分布を示す注視点マップデータを生成し、前記複数の学習用動画像コンテンツそれぞれに対して、視覚属性に関する複数の画像解析用パラメータを基に映像解析をパラメータ毎に行い、前記学習用動画像コンテンツに含まれる画素に対応した顕著性分布を示す顕著性マップデータを生成し、前記複数の学習用動画像コンテンツそれぞれに対して、前記注視点マップデータと前記顕著性マップデータとに基づいて、前記注視点マップデータと前記顕著性マップデータとの間の類似性の指標である一致度を算出し、前記複数の学習用動画像コンテンツそれぞれに対して、前記注視点マップデータと前記顕著性マップデータとの一致度が一番高かったときの画像解析用パラメータを当該学習用動画像コンテンツの評価用パラメータと決定し、入力した評価対象動画像コンテンツに一番類似する学習用動画像コンテンツを前記複数の学習用動画像コンテンツから決定し、決定した一番類似する学習用動画像コンテンツの評価用パラメータに基づき、前記評価対象動画像コンテンツの映像解析を行って顕著性マップデータを生成し、前記顕著性マップデータを前記評価対象動画像コンテンツの注視点マップデータとして推定して出力することを特徴とする動画像コンテンツ評価方法。
図1は、本発明の一実施形態による画像コンテンツ評価装置の機能構成を示すブロック図である。同図において、画像コンテンツ評価装置1は、データ格納部11と、注視点データ解析部12と、画像解析部13と、比較処理部14と、パラメータ決定部15と、画像入力部21と、類似画像コンテンツ決定部22と、注視点マップ推定部23とを含んで構成される。
画像解析部13は、フレーム画像の物理的特徴量を用いた画像解析処理によって、顕著性に関する評価指標データである顕著性評価指標データを生成する。言い換えれば、画像解析部13は、画像コンテンツを基に、画素に対応した視覚属性ごとの特徴量データを算出するとともに、特徴量データと視覚属性ごとに定められる重みデータとに基づいて画素に対応した顕著性の分布を示す顕著性マップデータを生成する。
パラメータ決定部15は、上記の一致度に基づいて、画像解析部13において顕著性マップデータを計算するために用いられる評価用パラメータを決定する。
類似画像コンテンツ決定部22は、複数の学習用動画像コンテンツの中から、評価対象動画像コンテンツに類似する学習用動画像コンテンツである類似学習用動画像コンテンツを決定する。
注視点マップ推定部23は、類似学習用動画像コンテンツにおける評価用パラメータを評価対象動画像コンテンツに対する顕著性マップデータ算出のための評価用パラメータとして使用して画像解析部13が生成した顕著性マップデータを、推定注視点マップデータとして出力する。
<注視点データ解析処理>
図5は、注視点データ解析部12が画像コンテンツについての注視点データからフレーム画像ごとの注視点マップデータを生成する手順を示すフローチャートである。ステップS51において、注視点データ解析部12は、データ格納部11に格納された注視点データをフレーム画像単位で参照する。ステップS52において、参照される注視点データがない場合(ステップS52:NO)は、このフローチャートの処理を終了する。一方、注視点データがある場合(ステップS52:YES)はステップS53の処理に進む。そして、ステップS53において、注視点データ解析部12は、参照された1フレーム画像分の全被験者の注視点データを読み込む。
顕著性マップデータの生成に際して用いられる視覚属性として、画像解析部13は、例えば、前述したように色(color)、明度(intensity)、方位(orientation)、コントラスト(contrast)、点滅(flicker)、および運動(motion)の6つの属性を用いる。色属性は、画素の色の値を色の属性値としたものである。明度属性は、画素の輝度値を明度の属性値としたものである。方位属性は、例えば、水平方向を基準方位とした場合の0度,45度,90度,135度の4つの方位それぞれの線成分の強さを画素ごとに合計して方位の属性値としたものである。なお、所定方位の線成分の強さは、例えば、その方位の方向の画像微分値と、それに直交する方向の画像微分値との比に基づいて算出する。コントラスト属性は、当該画素を含む領域の画素値とその他の領域の画素値との比により算出されるコントラスト値をコントラストの属性値としたものである。点滅属性は、当該画素を含む領域の時間方向における画素値の変化が所定の周波数成分を有する場合に、その周波数自体およびその周波数成分の振幅に基づいて算出される属性値である。また、運動属性は、フレーム画像内における所定のパターンが、時間の経過につれて所定方向に移動する場合の、そのパターンの大きさとその移動速度とを加味した属性値とするものである。顕著性マップデータの生成に際しては1種類以上の視覚属性に対応する属性値を用いるようにすれば良いが、本実施形態では、上記6種類の属性値を視覚属性に対応する物理的特徴量として用いる。
トップダウン要因の影響を少なくとも低減させた画像コンテンツを用いて、注視点データ評価指標データと顕著性評価指標データとを作成すると、画像内において注視点の集中する領域と顕著性の高い領域とは、少なくとも部分的に重複するか、あるいは近接する。そこで、比較処理部14は、注視点データ評価指標データの分布と、顕著性評価指標データの分布との分布の類似性の指標である一致度を求める。注視点データ評価指標データである注視点マップデータと顕著性評価指標データである顕著性マップデータとの、各マトリクスの値が類似するほど、上記の一致度を示す値は大きくなる。具体的には、比較処理部14は、式(4)で示した注視点マップデータGM(f)と、式(6)で示した顕著性マップデータSM(f)との両データを比較して一致度を計算する。
そして、ステップS121で参照したデータがあったか否かを、次のステップS122において判定する。参照された注視点マップデータがある場合(ステップS122:YES)は次のステップS123の処理に進む。一方、参照すべき注視点マップデータがない場合、即ちその画像コンテンツに含まれる全てのフレーム画像についてのステップS123以下の処理が完了している場合(ステップS122:NO)にはステップS127の処理に進む。
第1の方法による処理は、注視点マップデータおよび顕著性マップデータの各要素の差分値を求めて一致評価マップデータとするものである。すなわち、比較処理部14は、注視点マップデータGM(f)および顕著性マップデータSM(f)について、マトリクスの位置(i,j)に対応する要素同士の差分の絶対値である一致評価マップデータDM[i,j]を式(7)により計算する。
画像コンテンツの顕著性マップデータを生成するために用いられる画像解析用パラメータについて、重みデータの組み合わせを最適化するには、例えば最急勾配法などを用いて様々な画像解析用パラメータを用いた計算を行うことにより最適解を探索する方法をとることができる。しかし、単純にこのような方法を用いるだけでは、膨大な計算量と時間がかかることになる。そこで、本実施形態では、パラメータ決定部15が、予め一致度の計算されている学習用動画像コンテンツの注視点マップデータおよび画像解析用パラメータを用いて、評価用パラメータの決定対象である学習用動画像コンテンツ(評価用パラメータ決定対象学習用動画像コンテンツ)の顕著性マップデータを生成するための、最適な画像解析用パラメータを評価用パラメータとして決定する処理を実行する。
次に、ステップS132において、パラメータ決定部15は、データ格納部11に格納された評価用パラメータ決定対象学習用動画像コンテンツを除く、ある学習用動画像コンテンツについての注視点マップデータを参照する。
そして、ステップS132で参照したデータがあったか否かを、次のステップS133において判定する。参照された学習用動画像コンテンツの注視点マップデータがあった場合(ステップS133:YES)は次のステップS134の処理に進む。一方、参照すべき注視点マップデータがない場合、即ちパラメータ決定部15内の学習用動画像コンテンツの全てについてステップS134およびS135の処理が完了している場合(ステップS133:NO)はステップS136に進む。
ステップS135の処理における類似度の計算方法については、前述した比較処理部14が実行する比較処理における、注視点マップデータと顕著性マップデータとを比較して一致度を計算する方法と同様の方法を用いる。例えば、パラメータ決定部15は、評価用パラメータ決定対象学習用動画像コンテンツの注視点マップデータおよび学習用動画像コンテンツの注視点マップデータの要素ごとの差分値を計算する。そして、その差分値と予め決定された閾値とを比較し、この閾値よりも値の小さな差分値の個数を計測して類似度とする。
ステップS136において、パラメータ決定部15は、類似度の算出された1つまたは複数の学習用動画像コンテンツの注視点マップデータのうち、所定の選択基準によって注視点マップデータを選択する。この所定の選択基準は、例えば、パラメータ決定部15がステップS135において計算した類似度が、予め決定された類似度基準値を超える類似度である注視点マップデータを選択するという基準である。また、類似度の高い方から順に、予め決定された選択数の注視点マップデータを選択するという基準にしてもよい。
制作中の画像コンテンツなど、視聴者による視線計測実験が行われていない画像コンテンツには注視点データが存在しない。このような注視点データの存在しない画像コンテンツについて、視聴者の注視点の分布を推定する。図14は、外部から入力した評価対象動画像コンテンツの注視点マップデータを推定する処理についてのフローチャートである。ステップS241において、外部から評価対象動画像コンテンツが画像入力部21に供給されると、画像入力部21はこれを入力してデータ格納部11に格納する。
次に、ステップS242において、類似画像コンテンツ決定部22は、評価対象動画像コンテンツに対して、注視点マップデータ、顕著性マップデータ、および最適化された評価用パラメータが存在する学習用動画像コンテンツ群の中から、類似する学習用動画像コンテンツを類似学習用動画像コンテンツとして決定する。
つまり、注視点マップ推定部23は、類似画像コンテンツ決定部22によって決定された類似学習用動画像コンテンツを評価対象動画像コンテンツとし、パラメータ決定部15が決定した評価用パラメータに基づき、画像解析部13が評価対象動画像コンテンツの映像解析を行って顕著性マップデータを生成する。
そして、注視点マップ推定部23は、その顕著性マップデータをデータ格納部11に格納する。
次に、ステップS244において、注視点マップ推定部23は、ステップS243の処理によりデータ格納部11に格納された顕著性マップデータを読み出し、これを推定注視点マップデータとして外部に出力する。これにより、評価対象動画像コンテンツについての、視聴者の注視点の分布を推定することができる。
11 データ格納部
12 注視点データ解析部
13 画像解析部
14 比較処理部
15 パラメータ決定部
21 画像入力部
22 類似画像コンテンツ決定部
23 注視点マップ推定部
Claims (3)
- 複数の学習用動画像コンテンツ及び評価対象動画像コンテンツの各動画像コンテンツに対して、視覚属性に関する画像解析用パラメータを基に映像解析を行い、前記動画像コンテンツに含まれる画素に対応した顕著性分布を示す顕著性マップデータを生成する画像解析部と、
前記学習用動画像コンテンツに関する視力分布を示す注視点マップデータと前記顕著性マップデータとに基づいて、前記注視点マップデータと前記顕著性マップデータとの間の類似性の指標である一致度を算出する比較処理部と、
前記画像解析部において前記学習用動画像コンテンツのそれぞれに対して異なる画像解析用パラメータを基に映像解析を行った結果に基づいて前記比較処理部が算出した前記注視点マップデータと前記顕著性マップデータとの間の一致度に基づき、対応する画像解析用パラメータを当該学習用動画像コンテンツの評価用パラメータと決定するパラメータ決定部と、
前記評価対象動画像コンテンツに類似する学習用動画像コンテンツである類似学習用動画像コンテンツを決定する類似画像コンテンツ決定部と、
前記類似画像コンテンツ決定部によって決定された前記類似学習用動画像コンテンツに対して、前記パラメータ決定部が決定した前記評価用パラメータに基づき前記画像解析部が前記評価対象動画像コンテンツの映像解析を行って生成した前記顕著性マップデータを、前記評価対象動画像コンテンツの前記視力分布と推定される注視点マップデータとして出力する注視点マップ推定部と、
を具備することを特徴とする動画像コンテンツ評価装置。 - 前記複数の学習用動画像コンテンツに対して、視線を計測した結果である注視点の座標値を含む注視点データに基づき、前記学習用動画像コンテンツに含まれる画素に対応した視力分布を示す注視点マップデータを生成する注視点データ解析部をさらに備え、
前記比較処理部は、前記複数の学習用動画像コンテンツそれぞれに関する前記顕著性マップデータと前記注視点データ解析部が生成した前記注視点マップデータとに基づいて、前記注視点マップデータと前記顕著性マップデータとの間の類似性の指標である一致度を算出する
ことを特徴とする請求項1に記載の動画像コンテンツ評価装置。 - コンピュータを、
複数の学習用動画像コンテンツ及び評価対象動画像コンテンツの各動画像コンテンツに対して、視覚属性に関する画像解析用パラメータを基に映像解析を行い、前記動画像コンテンツに含まれる画素に対応した顕著性分布を示す顕著性マップデータを生成する画像解析部と、
前記学習用動画像コンテンツに関する視力分布を示す注視点マップデータと前記顕著性マップデータとに基づいて、前記注視点マップデータと前記顕著性マップデータとの間の類似性の指標である一致度を算出する比較処理部と、
前記画像解析部において前記学習用動画像コンテンツのそれぞれに対して異なる画像解析用パラメータを基に映像解析を行った結果に基づいて前記比較処理部が算出した前記注視点マップデータと前記顕著性マップデータとの間の一致度に基づき、対応する画像解析用パラメータを当該学習用動画像コンテンツの評価用パラメータと決定するパラメータ決定部と、
前記評価対象動画像コンテンツに類似する学習用動画像コンテンツである類似学習用動画像コンテンツを決定する類似画像コンテンツ決定部と、
前記類似画像コンテンツ決定部によって決定された前記類似学習用動画像コンテンツに対して、前記パラメータ決定部が決定した前記評価用パラメータに基づき前記画像解析部が前記評価対象動画像コンテンツの映像解析を行って生成した前記顕著性マップデータを、前記評価対象動画像コンテンツの前記視力分布と推定される注視点マップデータとして出力する注視点マップ推定部、
として機能させるためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009186573A JP5306940B2 (ja) | 2009-08-11 | 2009-08-11 | 動画像コンテンツ評価装置およびコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009186573A JP5306940B2 (ja) | 2009-08-11 | 2009-08-11 | 動画像コンテンツ評価装置およびコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011039778A true JP2011039778A (ja) | 2011-02-24 |
JP5306940B2 JP5306940B2 (ja) | 2013-10-02 |
Family
ID=43767484
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009186573A Expired - Fee Related JP5306940B2 (ja) | 2009-08-11 | 2009-08-11 | 動画像コンテンツ評価装置およびコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5306940B2 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013041545A (ja) * | 2011-08-19 | 2013-02-28 | Nippon Hoso Kyokai <Nhk> | 視線位置推定装置及び視線位置推定プログラム |
CN105491370A (zh) * | 2015-11-19 | 2016-04-13 | 国家新闻出版广电总局广播科学研究院 | 基于图的协同低高级特征的视频显著性检测方法 |
WO2016162963A1 (ja) * | 2015-04-08 | 2016-10-13 | 株式会社日立製作所 | 画像検索装置、システム及び方法 |
JP2017028402A (ja) * | 2015-07-17 | 2017-02-02 | 日本放送協会 | 映像評価装置、及びプログラム |
JP2018082318A (ja) * | 2016-11-16 | 2018-05-24 | 凸版印刷株式会社 | 視覚的顕著性マップ生成装置、視覚的顕著性マップ生成方法及びプログラム |
JP2019126425A (ja) * | 2018-01-22 | 2019-08-01 | 日本電信電話株式会社 | 推定装置、その方法、及びプログラム |
JP2020204941A (ja) * | 2019-06-18 | 2020-12-24 | 凸版印刷株式会社 | 検出支援装置、検出支援方法、及びプログラム |
JP2021027487A (ja) * | 2019-08-06 | 2021-02-22 | 日本放送協会 | 映像演出処理装置及びそのプログラム |
WO2022097457A1 (ja) * | 2020-11-06 | 2022-05-12 | コニカミノルタ株式会社 | デザイン評価装置、デザイン評価システム、デザイン評価方法、デザイン評価プログラム、および学習装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009535683A (ja) * | 2006-04-28 | 2009-10-01 | トムソン ライセンシング | オブジェクト・ベース視覚的注意モデルの顕著性推定 |
-
2009
- 2009-08-11 JP JP2009186573A patent/JP5306940B2/ja not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009535683A (ja) * | 2006-04-28 | 2009-10-01 | トムソン ライセンシング | オブジェクト・ベース視覚的注意モデルの顕著性推定 |
Non-Patent Citations (4)
Title |
---|
CSNG200100782014; 田中 昭二: '画像領域の物理的特徴に基づく誘目度評価モデル' 電子情報通信学会論文誌 第J83-A巻 第5号, 20000525, p.576-588, 社団法人電子情報通信学会 * |
CSNG200700526001; 三宅 洋一: '視覚特性に基づく画質評価' 電子情報通信学会論文誌 第J89-A巻 第11号, 20061101, p.858-865, 社団法人電子情報通信学会 * |
JPN6012068590; 三宅 洋一: '視覚特性に基づく画質評価' 電子情報通信学会論文誌 第J89-A巻 第11号, 20061101, p.858-865, 社団法人電子情報通信学会 * |
JPN6012068591; 田中 昭二: '画像領域の物理的特徴に基づく誘目度評価モデル' 電子情報通信学会論文誌 第J83-A巻 第5号, 20000525, p.576-588, 社団法人電子情報通信学会 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013041545A (ja) * | 2011-08-19 | 2013-02-28 | Nippon Hoso Kyokai <Nhk> | 視線位置推定装置及び視線位置推定プログラム |
US10795928B2 (en) | 2015-04-08 | 2020-10-06 | Hitachi, Ltd. | Image search apparatus, system, and method |
WO2016162963A1 (ja) * | 2015-04-08 | 2016-10-13 | 株式会社日立製作所 | 画像検索装置、システム及び方法 |
JPWO2016162963A1 (ja) * | 2015-04-08 | 2018-01-11 | 株式会社日立製作所 | 画像検索装置、システム及び方法 |
JP2017028402A (ja) * | 2015-07-17 | 2017-02-02 | 日本放送協会 | 映像評価装置、及びプログラム |
CN105491370A (zh) * | 2015-11-19 | 2016-04-13 | 国家新闻出版广电总局广播科学研究院 | 基于图的协同低高级特征的视频显著性检测方法 |
CN105491370B (zh) * | 2015-11-19 | 2020-09-22 | 国家新闻出版广电总局广播科学研究院 | 基于图的协同低高级特征的视频显著性检测方法 |
JP2018082318A (ja) * | 2016-11-16 | 2018-05-24 | 凸版印刷株式会社 | 視覚的顕著性マップ生成装置、視覚的顕著性マップ生成方法及びプログラム |
JP2019126425A (ja) * | 2018-01-22 | 2019-08-01 | 日本電信電話株式会社 | 推定装置、その方法、及びプログラム |
JP2020204941A (ja) * | 2019-06-18 | 2020-12-24 | 凸版印刷株式会社 | 検出支援装置、検出支援方法、及びプログラム |
JP7476487B2 (ja) | 2019-06-18 | 2024-05-01 | Toppanホールディングス株式会社 | 検出支援装置、検出支援方法、及びプログラム |
JP2021027487A (ja) * | 2019-08-06 | 2021-02-22 | 日本放送協会 | 映像演出処理装置及びそのプログラム |
WO2022097457A1 (ja) * | 2020-11-06 | 2022-05-12 | コニカミノルタ株式会社 | デザイン評価装置、デザイン評価システム、デザイン評価方法、デザイン評価プログラム、および学習装置 |
Also Published As
Publication number | Publication date |
---|---|
JP5306940B2 (ja) | 2013-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5306940B2 (ja) | 動画像コンテンツ評価装置およびコンピュータプログラム | |
Sugano et al. | Appearance-based gaze estimation using visual saliency | |
US8551015B2 (en) | System and method for evaluating and diagnosing patients based on ocular responses | |
JP5841538B2 (ja) | 関心度推定装置および関心度推定方法 | |
US8636361B2 (en) | Learning-based visual attention prediction system and method thereof | |
Clarke et al. | Deriving an appropriate baseline for describing fixation behaviour | |
JP5771127B2 (ja) | 注目度推定装置およびそのプログラム | |
Foulsham et al. | Are fixations in static natural scenes a useful predictor of attention in the real world? | |
Lavoué et al. | Visual attention for rendered 3D shapes | |
CN111427150B (zh) | 用于虚拟现实头戴式显示下的眼动信号处理方法及可穿戴设备 | |
Ma et al. | Learning-based saliency model with depth information | |
Banitalebi-Dehkordi et al. | Benchmark three-dimensional eye-tracking dataset for visual saliency prediction on stereoscopic three-dimensional video | |
Akamine et al. | Video quality assessment using visual attention computational models | |
Cvejic et al. | A nonreference image fusion metric based on the regional importance measure | |
US9924865B2 (en) | Apparatus and method for estimating gaze from un-calibrated eye measurement points | |
TWI478099B (zh) | 具學習力之視覺注意預測系統及其方法 | |
Banitalebi-Dehkordi et al. | Benchmark 3D eye-tracking dataset for visual saliency prediction on stereoscopic 3D video | |
EP2685351A1 (en) | Method for calibration free gaze tracking using low cost camera | |
Laco et al. | Depth in the visual attention modelling from the egocentric perspective of view | |
Pflüger et al. | Simulating fixations when looking at visual arts | |
Baluch et al. | Mining videos for features that drive attention | |
EP4213105A1 (en) | Gaze estimation system and method thereof | |
Patrone et al. | Dynamical optical flow of saliency maps for predicting visual attention | |
US20230360079A1 (en) | Gaze estimation system and method thereof | |
Nandakumar et al. | A comparative analysis of a neural-based remote eye gaze tracker |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130108 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130307 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130528 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130626 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |