JP2019126425A - 推定装置、その方法、及びプログラム - Google Patents
推定装置、その方法、及びプログラム Download PDFInfo
- Publication number
- JP2019126425A JP2019126425A JP2018008252A JP2018008252A JP2019126425A JP 2019126425 A JP2019126425 A JP 2019126425A JP 2018008252 A JP2018008252 A JP 2018008252A JP 2018008252 A JP2018008252 A JP 2018008252A JP 2019126425 A JP2019126425 A JP 2019126425A
- Authority
- JP
- Japan
- Prior art keywords
- time
- point
- model
- saccade
- true
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
Description
まず、サリエンシーマップのモデルについて説明する。
従来のサリエンシーマップは、サッカードの行き先になりやすい地点で値が大きくなるように定義されている(参考文献1参照)。
(参考文献1)L. Itti, C. Koch and E. Niebur, "A Model of Saliency-Based Visual Attention for Rapid Scene Analysis", IEEE Transactions on Pattern Analysis and Machie Intelligence, vol. 20, pp. 1254-1259, 1998.
(参考文献2)D. J. Daley and D. Vere-Jones, "An Introduction to The Theory of Point Processes", Springer Science and Business Media, New York, 2003.
観測時間をT、アイトラッカーのサンプリング回数をRとし、サンプリング間隔をΔt = T/Rとする。アイトラッカーによって計測された注視点をxr∈R2,r=1,…,Rとし、人が真に着目している点の位置(つまり、注目点)をar∈R2,r=1,…,Rとする。この注目点arは、普段は連続的に変化しつつ、注意の対象が遷移した際に大きくジャンプするとする。本実施形態では、この瞬間的な注目点のジャンプをサッカードと呼ぶことにする。
推定のステップでは、(10)式のモデルのもとでの潜在変数の事後分布およびハイパーパラメータを推定することが目標となる。その推定の方法を順を追って説明する。まずはじめに、(10)式の生成モデルを扱いが容易なモデルに書き換える。次に、書き換えたモデルのもとで、事後分布の近似を求める方法を説明する。最後に得られた事後分布をどう解釈すればよいかを述べる。
上述の(10)式の生成モデルは、等価な隠れセミマルコフ・スイッチング線形ガウス状態空間モデルに変形することができる。このようなモデルに書き換えることで、変分ベイズの枠組みで潜在変数の事後分布を推定することが可能となる。
以降、表記の簡単のため
注視点の時系列を入力として、注視点モデルのパラメータを推定する推定装置について説明する。
[入力]:アイトラッカーにより計測された注視点の時系列xr(r=1,2,…,R)
[出力]:モデルパラメータの推定結果q(b),q(z),q(φ),ψ
[処理]:モデル推定部101は、アイトラッカーにより計測された注視点(対象者の眼の動きを計測して得た注視点)の時系列xr(r=1,2,…,R)を入力として、(17)式により表される注視点の時系列モデルの各パラメータb,z,φ,ψの事後分布を推定することにより、注視点の時系列モデル(学習済みモデル)を求める。
初期設定部110は、q(b,z,φ),ψに適当な初期値を設定し(S110)、出力する。このとき、q(b,z,φ)については、(21)式
q(b):正規分布
q(φ):q(A)とq(π)はディリクレ分布、q(θ)はベータ分布
となるようにパラメータを決定する。なお、q(z)は、離散確率変数なので、どのような値でもよい。
第1更新部120は、q(z),q(φ),ψを入力とし、q(z),q(φ),ψが与えられているもとで、(19)式のL(q)を最大にするq(b)を求め、q(b)の値を求めた値で更新する(S120)。例えば、初回の処理では初期設定部110で設定したq(z),q(φ),ψを用い、2回目以降の処理ではそれぞれ第2更新部130、第3更新部140、第4更新部150で更新した最新のq(z),q(φ),ψを用いる。以下に例を示す。
第2更新部130は、q(b),q(φ),ψを入力とし、q(b),q(φ),ψが与えられているもとで,(19)式のL(q)を最大にするq(z)を求め、q(z)の値を求めた値で更新する(S130)。例えば、初回の処理では初期設定部110で設定したq(φ),ψと第1更新部120で更新したq(b)を用い、2回目以降の処理ではそれぞれ第1更新部120、第3更新部140、第4更新部150で更新した最新のq(b),q(φ),ψを用いる。以下に例を示す。
(参考文献3)S. Z. Yu, "Hidden semi-Markov models. Articial intelligence", vol. 174, pp. 215-243, 2010.
(参考文献4)M. J. Johnson and A. S. Willsky, "Stochastic Variational Inference for Bayesian Time Series Models", International Conference on Machine Learning, 2014.
(参考文献5)M. J. Johnson, "Bayesian time series models and scalable inference", PhD thesis, Massachusetts Institute of Technology, 2014.
第3更新部140は、q(b),q(z),ψが与えられているもとで、(19)式のL(q)を最大にするq(φ)を求め、q(φ)の値を求めた値で更新する(S140)。例えば、初回の処理では初期設定部110で設定したψと、それぞれ第1更新部120、第2更新部130で更新したq(b)、q(z)を用い、2回目以降の処理ではそれぞれ第1更新部120、第3更新部140、第4更新部150で更新した最新のq(b),q(φ),ψを用いる。
第4更新部150は、q(b),q(z),q(φ)を入力とし、q(b),q(z),q(φ)に基づいて、ハイパーパラメータU,V,Wを更新する(S150)。例えば、それぞれ第1更新部120、第2更新部130、第3更新部140で更新した最新のq(b),q(z),q(φ)を用いる。
制御部160は、所定の終了条件を満たすまで第1更新部120〜第4更新部150を繰り返し実行させる(S160)。例えば、予め定めた繰り返し回に達したことを終了条件とし、所定の繰り返し回数に到達するまで第1更新部120〜第4更新部150を繰り返し実行させるよう制御する。
出力部170は、所定の終了条件を満たした時点のパラメータをモデルパラメータの推定結果q(b),q(z),q(φ),ψとして出力する(S170)。
以上の構成により、アイトラッカーによって計測された注視点の時系列からサリエンシーマップのモデルパラメータを簡便に推定することができる。
参考文献6のデータセットに第一実施形態を適用した結果を示す。このデータは、被験者が画像を見ている間の3秒間の注視点の軌跡をアイトラッカーによって計測したものである。
(参考文献6)T. Judd, K. Ehinger, F. Durand and A. Torralba, "Learning to predict where humans look", IEEE International Conference on Computer Vision, 2009
本実施形態では、q(b),q(z),q(φ),ψの順で、パラメータを更新しているが、更新の順番は変更してもよい。初期設定部110で設定した初期値、または、更新した最新のパラメータを用いて、第1更新部120、第2更新部130、第3更新部140、第4更新部150においてパラメータを更新すればよい。
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
また、上記の実施形態及び変形例で説明した各装置における各種の処理機能をコンピュータによって実現してもよい。その場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
Claims (7)
- サッカードの時系列は、各サッカードの特徴量をマークとするマーク付き点過程で生成されるものとし、
時刻tの人の真の注目点は、時刻t近傍にサッカードが発生する場合は時刻t-1の真の注目点を当該サッカードの方向及び大きさに応じて移動させた位置とし、時刻t近傍にサッカードが発生しない場合は時刻t-1の真の注目点をランダムな方向及び大きさに応じて移動させた位置とし、
時刻tの人の注視点の遅れは、AR(2)モデルに従うものとし、
時刻tの人の真の注視点は、前記時刻tの真の注目点を前記時刻tの注視点の遅れにより補正した位置とし、
実際に計測される時刻tの注視点を、上記時刻tの真の注視点にノイズが加わったものとしてモデル化したものを注視点の生成モデルとして、
対象者の眼の動きを計測して得た注視点の時系列から、前記注視点の生成モデルのモデルパラメータを推定するモデル推定部を含む、
推定装置。 - 請求項1記載の推定装置であって、
前記モデル推定部で学習したモデルパラメータに基づいて、サッカードの発生時刻を推定するサッカード発生時刻推定部と、
前記モデル推定部で学習したモデルパラメータに基づいて、注視点の時系列の推定結果を求める注視点系列推定部と、
前記モデル推定部で学習したモデルパラメータに基づいて、注目点の時系列の推定結果を求める注目点系列推定部と、
前記モデル推定部で学習したモデルパラメータに基づいて、注目範囲または注目対象の推定結果を求める注目範囲推定部と、
前記モデル推定部で学習したモデルパラメータに基づいて、サリエンシーマップを生成するサリエンシーマップ生成部と、の少なくともいずれかをさらに含む、
推定装置。 - 請求項1記載の推定装置であって、
κrを、時刻rにサッカードが発生した場合はそのサッカードのベクトル、発生しなかった場合は空集合をとる確率変数とし、jrを時刻rにおけるサッカードがサリエンシーマップのどの混合成分に向かって発生したものかを示す潜在変数とし、Hrを時刻rまでの履歴とし、Sをサリエンシーマップ画像とし、r*を時刻r以前で発生した最後のサッカードの発生時刻とし、時刻r以前に発生したサッカードがない場合はr*=0とし、arを時刻rにおける真の注目点とし、srを時刻rにおける注視点の遅れとし、hNBをサッカードが短い時間間隔で発生しないようにするための修正項とし、i*を時刻r以前で発生した最後のサッカードがどの混合成分に向かって発生したものかを示すものとし、
前記生成モデルは、
により与えられる、
ことを特徴とする推定装置。 - 請求項3記載の推定装置であって、
j(r+1)^*を時刻r+1以前に発生した最後のサッカードが、どの混合成分に向かって発生したものかを示すものとし、
前記生成モデルは、
により与えられる、
ことを特徴とする推定装置。 - 請求項4記載の推定装置であって、
とし、q(b,z,φ)を任意の事後分布とし、p(b,z,φ|x,ψ)を真の事後分布とし、前記モデル推定部は、次式により与えられるL(q)が大きくなるように、事後分布q(b),q(z),q(φ),ψを繰り返し更新することにより前記モデルパラメータを学習する、
ことを特徴とする推定装置。 - サッカードの時系列は、各サッカードの特徴量をマークとするマーク付き点過程で生成されるものとし、
時刻tの人の真の注目点は、時刻t近傍にサッカードが発生する場合は時刻t-1の真の注目点を当該サッカードの方向及び大きさに応じて移動させた位置とし、時刻t近傍にサッカードが発生しない場合は時刻t-1の真の注目点をランダムな方向及び大きさに応じて移動させた位置とし、
時刻tの人の注視点の遅れは、AR(2)モデルに従うものとし、
時刻tの人の真の注視点は、前記時刻tの真の注目点を前記時刻tの注視点の遅れにより補正した位置とし、
実際に計測される時刻tの注視点を、上記時刻tの真の注視点にノイズが加わったものとしてモデル化したものを注視点の生成モデルとして、
対象者の眼の動きを計測して得た注視点の時系列から、前記注視点の生成モデルのモデルパラメータを推定するモデル推定ステップを含む、
推定方法。 - 請求項1から請求項5の何れかの推定装置としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018008252A JP6821611B2 (ja) | 2018-01-22 | 2018-01-22 | 推定装置、その方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018008252A JP6821611B2 (ja) | 2018-01-22 | 2018-01-22 | 推定装置、その方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019126425A true JP2019126425A (ja) | 2019-08-01 |
JP6821611B2 JP6821611B2 (ja) | 2021-01-27 |
Family
ID=67471458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018008252A Active JP6821611B2 (ja) | 2018-01-22 | 2018-01-22 | 推定装置、その方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6821611B2 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011039778A (ja) * | 2009-08-11 | 2011-02-24 | Nippon Hoso Kyokai <Nhk> | 動画像コンテンツ評価装置およびコンピュータプログラム |
US20160005176A1 (en) * | 2013-02-27 | 2016-01-07 | Thomson Licensing | Method and device for calibration-free gaze estimation |
JP2017215963A (ja) * | 2016-05-30 | 2017-12-07 | 日本電信電話株式会社 | 注目範囲推定装置、学習装置、それらの方法およびプログラム |
-
2018
- 2018-01-22 JP JP2018008252A patent/JP6821611B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011039778A (ja) * | 2009-08-11 | 2011-02-24 | Nippon Hoso Kyokai <Nhk> | 動画像コンテンツ評価装置およびコンピュータプログラム |
US20160005176A1 (en) * | 2013-02-27 | 2016-01-07 | Thomson Licensing | Method and device for calibration-free gaze estimation |
JP2016515242A (ja) * | 2013-02-27 | 2016-05-26 | トムソン ライセンシングThomson Licensing | 校正不要な注視点推定の方法と装置 |
JP2017215963A (ja) * | 2016-05-30 | 2017-12-07 | 日本電信電話株式会社 | 注目範囲推定装置、学習装置、それらの方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6821611B2 (ja) | 2021-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Paul et al. | Deep learning on a data diet: Finding important examples early in training | |
US10762443B2 (en) | Crowdsourcing system with community learning | |
Kalayeh et al. | Training faster by separating modes of variation in batch-normalized models | |
Li et al. | Active feature acquisition with generative surrogate models | |
Agudelo-España et al. | Bayesian online prediction of change points | |
US20210406765A1 (en) | Partially-observed sequential variational auto encoder | |
CN111783997B (zh) | 一种数据处理方法、装置及设备 | |
Scherr et al. | Best practices in deep learning-based segmentation of microscopy images | |
US8250003B2 (en) | Computationally efficient probabilistic linear regression | |
Firouznia et al. | Adaptive chaotic sampling particle filter to handle occlusion and fast motion in visual object tracking | |
Friebe et al. | Adaptive runtime estimate of task execution times using bayesian modeling | |
Kim et al. | Incremental expectation maximization principal component analysis for missing value imputation for coevolving EEG data | |
JP6821611B2 (ja) | 推定装置、その方法、及びプログラム | |
Fotiadis et al. | Disentangled generative models for robust prediction of system dynamics | |
Schaefer | On the Emergence of Cooperation in the Repeated Prisoner's Dilemma | |
Varandas et al. | Evaluation of spatial-temporal anomalies in the analysis of human movement | |
Mousavi et al. | Researching advanced deep learning methodologies in combination with reinforcement learning techniques | |
Gong | Advances in approximate inference: combining VI and MCMC and improving on Stein discrepancy | |
Gerych et al. | Positive unlabeled learning with a sequential selection bias | |
Zand | Multimodal probabilistic reasoning for prediction and coordination problems in machine learning | |
Ergün et al. | Impact of missing data on classification success in health and comparative analysis of imputation methods | |
Wang | Emergent Representations in Reinforcement Learning and Their Properties | |
Hénaff | Testing a mechanism for temporal prediction in perceptual, neural, and machine representations | |
Flet-Berliac | Sample-efficient deep reinforcement learning for control, exploration and safety | |
Bing et al. | Context-Based Meta-Reinforcement Learning with Bayesian Nonparametric Models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6821611 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |