JP2015039487A - 生理指標を用いる視線分析システムおよび方法 - Google Patents

生理指標を用いる視線分析システムおよび方法 Download PDF

Info

Publication number
JP2015039487A
JP2015039487A JP2013171455A JP2013171455A JP2015039487A JP 2015039487 A JP2015039487 A JP 2015039487A JP 2013171455 A JP2013171455 A JP 2013171455A JP 2013171455 A JP2013171455 A JP 2013171455A JP 2015039487 A JP2015039487 A JP 2015039487A
Authority
JP
Japan
Prior art keywords
region
interest
line
sight
psychological state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013171455A
Other languages
English (en)
Other versions
JP6201520B2 (ja
Inventor
小川 隆
Takashi Ogawa
隆 小川
智子 小堀
Tomoko Kobori
智子 小堀
隼 沖
Hayato Oki
隼 沖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2013171455A priority Critical patent/JP6201520B2/ja
Publication of JP2015039487A publication Critical patent/JP2015039487A/ja
Application granted granted Critical
Publication of JP6201520B2 publication Critical patent/JP6201520B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

【課題】被験者の視線と被験者の心理状態を対応付けて分析できるシステムを提供する。
【解決手段】本発明の視線分析システム1は,視線追跡装置3,生理指標計測装置4および視線分析装置2とから少なくとも構成され,視線分析装置2は,少なくとも注視点の集中度が集中度の閾値以上の領域を関心領域として抽出する関心領域抽出手段20と,関心領域内の注視点を計測した時の生理指標の集計結果から関心領域の心理状態を推定する心理状態推定手段21と,心理状態推定手段が推定した関心領域の心理状態の種別毎に異なる色分布を割り当てた後,関心領域の心理状態の種別に割り当てた色分布を用い関心領域における注視点の集中度を色画像に変換し,色画像を対象物画像に重ね合わせた視線分析画像を生成する視線分析画像生成手段22を備えている。
【選択図】図2

Description

本発明は,被験者の視線と被験者の心理状態を対応付けて分析するための発明である。
マーケティング分野等において、視線追跡(アイトラッキング)試験を行うことで,視線追跡試験の被験者が視線を向けた対象物上の位置を分析することは重要なことである。例えば,消費者が商品を見たときに得る視覚刺激(目に見える情報)は,消費者の商品選択に多大な影響を及ぼすことが知られており,商品選択時における消費者の視線を分析できれば、商品のパッケージデザインや商品配置の評価に役立てることができる。
しかし,視線追跡試験の時に被験者が得る視覚刺激には、そもそも目立ちやすい個所やそうでない個所があり,外部刺激により視線を向けるボトムアップ型の視線が目立ちやすい個所に向いてしまうなど、被験者の視線と被験者の意識とは必ずしも相関がない場合も少なくない。
また,意識的に視線を向けるトップダウン型の視線を向けているときの被験者の心理状態も様々で,視線を向けているときに被験者の心理状態は快(快い)の状態もあれば,逆に不快(快くない)の状態もある。更には,文字を読んでいるなどの特に感情的な起伏のない状態もある。
このように,視線追跡試験の被験者が視線を向けた対象物上の位置を分析するだけでは得られない情報が数多く存在するため,視線追跡試験の被験者が視線を向けた対象物上の位置と他の情報(例えば,感情)を関連付けて分析することが重要になる。
被験者の視線と対象物画像内の顕著性を関連付けて分析する技術として,特許文献1において,ユーザの視線方向と映像内の顕著性(Saliency )との相関を算出する発明が開示されている。なお,顕著性とは,画像内における目立ちやすさを示す指標を意味し,画像内における顕著性の分布を示した顕著性マップを生成する技術については,非特許文献1などで開示されている。
また,被験者の心理状態を評価する技術として,被験者のストレス状態を評価する発明が特許文献2,3で,被験者のリラックス度を評価する発明が特許文献4で,被験者の快適感を評価する発明が特許文献5,6で,被験者の覚醒度を評価する発明が特許文献7で,そして,被験者の基本感情を評価する発明が特許文献8でそれぞれ開示されている。
しかしながら,従来の技術では,視線追跡試験で得られた被験者の視線と被験者の心理状態を対応付けて分析できる技術は開示されていなかった。
WO2012/105196号公報 特開2009-66017号公報 特開2012−50711号公報 特開平9−70399号公報 特開2006−149470号公報 特開2000−116614号公報 WO2010/140273号公報 特開2002−112969号公報
"A Model of Saliency-Based Visual Attention for Rapid Scene Analysis," Laurent Itti, Christof Koch, and Ernst NieburIEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 20, no. 11, pp. 1254-1259, November, 1998
そこで,本発明は,視線追跡試験で得られた被験者の視線と被験者の心理状態を対応付けて分析できるシステムおよび視線追跡試験で得られた被験者の視線と被験者の心理状態を対応付けて分析するために必要な装置を提供する。
上述した課題を解決する第1の発明は,被験者の注視点の時系列データである視線データを取得する視線追跡装置と,被験者の生理指標の時系列データである生理指標データを取得する生理指標計測装置と,前記視線データと前記生理指標データが入力される視線分析装置とから少なくとも構成したシステムである。
第1の発明に係る視線分析装置は,被験者の視線と被験者の心理状態を対応付けて分析するために,前記視線データを解析して対象物画像内の注視点の集中度を示した注視点マップを生成し,少なくとも注視点の集中度が集中度の閾値以上の領域を関心領域として抽出する処理を実行する関心領域抽出手段と,前記視線データと前記生理指標データを参照して,前記関心領域内の注視点を計測した時の生理指標を集計し,この生理指標の集計結果から推定した心理状態を前記関心領域の心理状態として取得する処理を前記関心領域毎に実行する心理状態推定手段と,前記心理状態推定手段が取得した前記関心領域の心理状態の種別毎に異なる色分布を割り当てた後,前記注視点マップを参照し,前記関心領域の心理状態の種別に対応する色分布を用い前記関心領域内の注視点の集中度をこの色分布内の色で示した色画像を前記関心領域毎に生成し,前記色画像を対象物画像に重ね合わせた視線分析画像を生成する処理を実行する視線分析画像生成手段を備えている。
第1の発明によれば,前記関心領域における注視点の集中度を示す色画像を生成する時に用いる色分布は,前記関心領域の心理状態の種別に応じて決まるため,この前記色画像を見れば,被験者が視線を向けた位置とその時の心理状態を関連付けて分析できる。
更に,第2の発明は,第1の発明に記載した視線分析システムにおいて,前記視線分析装置の前記関心領域抽出手段は,前記注視点マップに加え,対象物画像内の顕著度を記した顕著性マップを生成し,注視点の集中度が集中度の閾値以上で,かつ,顕著度が顕著度の下閾値以下の領域を認知に係る前記関心領域として抽出することを特徴とする。
第2の発明によれば,注視点の集中度が集中度の閾値以上で,かつ,顕著度が顕著度の下閾値以下の領域は,視線が向けられた頻度は高いが,顕著度は低い領域になるため,被験者の認知に影響を与えている可能性のある領域と考えられる。よって,このような領域を前記関心領域として抽出すれば,この前記関心領域の心理状態から,被験者が認知に係る影響を受けた時の心理状態がわかる。
更に,第3の発明は,第1の発明に記載した視線分析システムにおいて,前記視線分析装置の前記関心領域抽出手段は,認知に係る前記関心領域に加え,注視点の集中度が集中度の閾値以上で,かつ,顕著度が顕著度の上閾値以上の領域を印象に係る前記関心領域として抽出することを特徴とする。
第3の発明によれば,注視点の集中度が注視点の閾値以上で,かつ,顕著度が顕著度の上閾値以上の領域は,視線が向けられた頻度が高く,顕著度も高い領域になるため,被験者の印象に影響を与えている可能性のある領域と考えられる。よって,このような領域を前記関心領域として抽出すれば,この前記関心領域の心理状態から,被験者が印象に係る影響を受けた時の心理状態がわかる。
更に,第4の発明は,第2の発明または第3の発明に記載した視線分析システムにおいて,前記視線分析装置の前記視線分析画像生成手段は,前記視線分析画像を生成する際,前記関心領域における注視点の集中度を,注視点に対応する顕著度で重み付けすることを特徴とする。前記関心領域における注視点の集中度を,注視点に対応する顕著度で重み付けすることで,前記関心領域における顕著度の傾向を前記視線分析画像から把握できる。
更に,第5の発明は,第1の発明から第4の発明のいずれか一項に記載した視線分析システムにおいて,前記視線分析装置の前記心理状態推定手段は,前記関心領域内の注視点を計測した時の時刻に対応する生理指標が計測されていない場合,前記生理指標データに含まれる生理指標を用いて計測されていない生理指標を補間することを特徴とする。
前記生理指標計測装置のサンプリング間隔は,前記視線追跡装置のサンプリング間隔と一致しないことが一般的であるため,第5の発明のように,前記関心領域内の注視点を計測した時の時刻に対応する生理指標が計測されていない場合,前記生理指標データに含まれる生理指標を用いて計測されていない生理指標を補間することが望ましい。
更に,第6の発明は,第1の発明から第5の発明のいずれか一項に記載した視線分析システムに記載の視線分析装置である。
このように,本発明によれば,視線追跡試験で得られた被験者の視線と被験者の心理状態を対応付けて分析できるシステムおよび視線追跡試験で得られた被験者の視線と被験者の心理状態を対応付けて分析するために必要な装置を提供できる。
本実施形態に係る視線分析システムの構成を説明する図。 視線分析装置のブロック図。 視線分析装置の動作を説明する図。 関心領域抽出処理を説明する図。 顕著性マップを生成する処理を説明する図。 注視点マップを説明する図。 顕著性マップを説明する図。 関心領域を説明する図。 心理状態推定処理を説明する図。 関心領域を区分する内容を説明する図。 生理指標データの補間処理を説明する図。 視線分析画像生成処理を説明する図。 視線分析画像を説明する図。
ここから,本発明の好適な実施形態を記載する。なお,以下の記載は本発明の範囲を束縛するものでなく,理解を助けるために記述するものである。
図1は,本実施形態に係る視線分析システム1の構成を説明する図である。図1で図示した視線分析システム1は,被験者の視線と視線を向けた時の被験者の心理状態を対応付けて分析できるように開発されたシステムである。
図1で図示したように,視線分析システム1は,被験者の視線を計測する視線追跡装置3と,被験者の生理指標を計測する生理指標計測装置4と,被験者の生理指標から被験者の心理状態を推定し,被験者の視線と被験者の心理状態を対応付けて分析できるように開発された視線分析装置2とから少なくとも構成される。
視線分析システム1に含まれる視線追跡装置3は,被験者の視線が向けられた対象物画像上の注視点の時系列データである視線データとして,所定のサンプリング間隔毎に,被験者の視線が向けられた対象物画像上の注視点と注視点を計測した時の時刻を取得するヘッドマウント型の装置である。
このような視線追跡装置3は既に市販化されており,視線追跡装置3に係る発明としては,例えば,空間的基準点として用いる1つ以上の赤外線(IR)信号源と、被験者が着用する少なくとも1つのメガネと、被験者の注視点を算出する装置を具備するシステムが特表2012−515579号公報で開示されている。なお,特表2012−515579号公報で開示されているシステムのメガネは,IR信号源からのIR信号を検出し、IR信号源追跡信号を生成するように構成された画像センサと、被験者の注視方向を決定し、視線追跡信号を生成するように構成された視線追跡部と、被験者が見ているシーン映像を取得するように構成されたカメラユニットとを具備する。
視線分析システム1に含まれる生理指標計測装置4は,被験者の生理指標の時系列データである生理指標データとして,所定の生理指標と生理指標を計測した時の時刻を取得する装置である。本実施形態において生理指標とは,被験者の脳波や自律神経・呼吸系に係る指標で、自律神経・呼吸系の生理指標には、心拍数、心拍変動、血圧、心拍出量、血液容積脈、呼吸数、一回換気量、皮膚コンダクタンス反応、皮膚電位反応、核心温度、皮膚温などがある。
図1では,生理指標計測装置4を脈拍計として図示しているが,自律神経系、呼吸系の生理指標を計測する生理指標計測装置4としては、例えば、心拍計測装置、脈波・コロトロフ音記録器、皮膚電位計等を利用できる。心拍計測装置は、心拍数や心電図等を計測する装置である。脈波・コロトロフ音記録器は、血圧値、脈拍数、循環機能の指標であるKSG(コロトロフ音図)等を計測する装置である。また,皮膚電位計とは、皮膚電気活動(EDA;Electro Dermal Activity)を測定する装置である。
本実施形態において,被験者の生理指標を計測するのは,被験者の生理指標から被験者の心理状態を推定するためである。計測する被験者の生理指標は,推定したい心理状態に依存する。例えば,特許文献2,3では,脈拍計が計測する被験者の脈拍から被験者のストレス度を推定している。また,公知の先行研究としては,「自律神経系の指標は感情を快・不快に分離するだけでなく、深い感情を細分化し得る(Ekman et al. 1983, Levenson et al., 1990)」や,「複数の自律神経系の指標を組み合わせることによって感情の弁別が可能となる(Collet et al., 1997)」などが知られ、脳波や自律神経系の生理指標を用いてストレス/リラックス状態、快/不快、基本感情の弁別方法が提案されている。
視線分析システム1に含まれる視線分析装置2は,視線追跡試験で得られた被験者の視線と被験者の心理状態を対応付けて分析できるように開発された装置で,汎用のコンピュータを利用して実現される。
図2は,視線分析装置2のブロック図である。本実施形態において視線分析装置2への入力は,視線追跡装置3が取得した視線データ,生理指標計測装置4が取得した生理指標データおよび対象物画像で,視線分析装置2の出力は,生理指標データから推定した被験者の心理状態が目視できる形態で視線データの分析結果を対象物画像に重畳した視線分析画像になる。
視線データと生理指標データを視線分析装置2に入力する手法としては,有線通信や無線通信を利用して視線分析装置2へ入力する手法と,メモリカード等のデータ記憶媒体を利用して視線分析装置2へ入力する手法がある。対象物画像については,視線追跡装置3がカメラを有している場合は,視線追跡試験中に視線追跡装置3が撮影した対象物画像が視線分析装置2に入力される。また,視線追跡装置3がカメラを有していない場合は,予めデジタルカメラで撮影した対象物画像が視線分析装置2に入力される。
図2に図示したように,視線分析装置2は,被験者の視線と被験者の心理状態を対応付けて分析するために,視線分析装置2として用いるコンピュータの記憶装置に記憶するコンピュータプログラムによって実現される手段として,視線データを解析して対象物画像内の注視点の集中度を示した注視点マップを生成し,少なくとも注視点の集中度が集中度の閾値以上の領域を関心領域として抽出する処理を実行する関心領域抽出手段20と,視線データと前記生理指標データを参照して,関心領域内の注視点を計測した時の生理指標を集計し,この生理指標の集計結果から推定した心理状態を関心領域の心理状態として取得する処理を関心領域毎に実行する心理状態推定手段21と,心理状態推定手段が取得した関心領域の心理状態の種別毎に異なる色分布を割り当てた後,注視点マップを参照し,関心領域の心理状態の種別に割り当てた色分布を用い関心領域内の注視点の集中度をこの色分布内の色で示した色画像を関心領域毎に生成し,色画像を対象物画像に重ね合わせた視線分析画像を生成する処理を実行する視線分析画像生成手段22を備えている。
ここから,視線分析装置2の動作を説明しながら,視線分析装置2が備える各手段について詳細に説明する。
図3は,視線分析装置2の動作を説明する図である。視線データ等が入力されると,視線追跡装置3は,視線データを解析して対象物画像内の注視点の集中度を記した注視点マップを生成し,少なくとも注視点の集中度が注視点の閾値以上の領域を関心領域として抽出する関心領域抽出処理(S1)を実行する。
関心領域を抽出すると,視線追跡装置3は,視線データと生理指標データを参照し,関心領域内の注視点を計測した時の時刻に対応する生理指標を集計して,この生理指標の集計結果から推定した心理状態を前記関心領域の心理状態として取得する処理を関心領域毎に推定する心理状態推定処理(S2)を実行する。
関心領域毎の心理状態を推定すると,視線追跡装置3は,心理状態推定処理(S2)で取得した関心領域の心理状態の種別毎に異なる色分布を割り当てた後,注視点マップを参照し,関心領域の心理状態の種別に割り当てた色分布を用い関心領域内の注視点の集中度をこの色分布内の色で示した色画像を関心領域毎に生成し,色画像を対象物画像に重ね合わせた視線分析画像を生成する視線分析画像生成処理(S3)を実行して,この手順を終了する。
ここから,関心領域抽出処理(S1)について説明する。図4は,関心領域抽出処理(S1)を説明する図である。
視線追跡試験で得られた視線データを分析する操作が視線追跡装置3上でなされると,まず,視線分析装置2の関心領域抽出手段20が作動し,視線分析装置2の関心領域抽出手段20は,視線追跡装置3が計測した視線データから,対象物画像内の注視点の集中度を記した注視点マップを生成する(S10)。なお,注視点の集中度は,注視点の頻度や注視点の滞留時間に基づいて算出される。
視線分析装置2の関心領域抽出手段20は注視点マップを生成すると,次に,対象物画像の顕著性マップを生成する(S11)。なお,本実施形態では,注視点マップを生成した後に顕著性マップを生成しているが,対象物画像の顕著性マップを生成するタイミングはこれより前であってもよい。
図5は,顕著性マップを生成する処理を説明する図である。なお,顕著性マップを生成する処理についての詳細は,上述している特許文献1や非特許文献1に加え,様々な文献に説明がある。
入力画像の顕著性マップを生成する際,視線分析装置2の関心領域抽出手段20は,対象物画像から数種類の基礎特徴を抽出することで,基礎特徴毎に基礎特徴画像を生成する(S110)。なお,入力画像から抽出する基礎特徴としては,数式1の輝度特徴(I),数式2の色差特徴(R,G,B,Y),および,多重解像度表現された輝度特徴(I)に対してガボールフィルタを適用することで得られる角度特徴(O)を用いるのが一般的である。
次に、視線分析装置2の関心領域抽出手段20は,基礎特徴毎に,基礎特徴画像の多重解像度表現を構成する(S111)。例えば,輝度特徴(I)の多重解像度表現は、輝度特徴(I)のガウシアンピラミッドを9つのスケール(c∈0..8)で生成することで得られる。
次に、視線分析装置2の関心領域抽出手段20は,基礎特徴毎に,基礎特徴画像の多重解像度表現を用いて、それぞれ解像度が異なる基礎特徴画像の差分を6通り算出し,基礎特徴毎のFeature_Mapを生成し,生成したFeature_Mapを正規化する(S112)。例えば,輝度特徴(I)における基礎特徴画像の差分は数式3で求めることができる。
Feature_Mapの正規化は,[0〜M]の範囲 になるようにFeature_Mapを正規化し,最大値Mを取らない局所領域の最大値の平均値mを求めた後,全ての値に(M−m)の2乗を掛けることで行われる。
次に、視線分析装置2の関心領域抽出手段20は,基礎特徴毎に,正規化したFeature_Mapを加算することで,顕著性マップの前段階となるマップであるConspicuity_Mapを生成した後,Feature_Mapと同様な手順でConspicuity_Mapを正規化する(S113)。
次に、視線分析装置2の関心領域抽出手段20は,数式4に従い,正規化したConspicuity_Map全てを加算平均することで,入力画像の顕著性マップを生成して(S114),図5の手順は終了する。
ここから,図4の説明に戻る。対象物画像の顕著性マップを生成すると,視線分析装置2の関心領域抽出手段20は,少なくとも注視点の集中度が集中度の閾値以上の領域を関心領域として抽出して(S12),この手順を終了する。
視線分析装置2の関心領域抽出手段20が抽出する関心領域は,単に,注視点の集中度が注視点の閾値以上の領域としてもよいが,本実施形態では,注視点マップと顕著性マップを参照し,注視点の集中度が集中度の閾値以上で,かつ,顕著度が顕著度の上閾値以上の領域,および,注視点の集中度が集中度の閾値以上で,かつ,顕著度が顕著度の下閾値以下の領域を関心領域として抽出する。
注視点の集中度が集中度の閾値以上で,かつ,顕著度が顕著度の上閾値以上の領域は,視線が向けられた頻度が高く,かつ,顕著度も高い領域になるため,被験者の印象に影響を与えている可能性のある関心領域と考えられる。また,注視点の集中度が集中度の閾値以上で,かつ,顕著度が顕著度の下閾値以下の領域は,視線が向けられた頻度は高いが,顕著度は低い領域になるため,被験者の認知に影響を与えている可能性のある関心領域と考えられる。
関心領域の抽出例について説明する。図6は,注視点マップを説明する図である。図6(a)は対象物画像の一例で,図6(b)は,対象物画像を用いた視線追跡試験を行うことで得られた注視点マップの一例である。図6(b)の注視点マップでは,白黒の濃淡を用いて注視点の集中度が表示され,図6(b)では注視点の集中度が高くなるほど黒くなるようにしている。図6(c)は,注視点の集中度が集中度の閾値以上の領域を示す図で,具体的には,図6(b)においては,あるレベルより階調が暗い領域である。
図7は,顕著性マップを説明する図である。図7(a)は,白黒の濃淡を用いて対象物画像内の顕著性を示した顕著性マップで,図7(a)の顕著性マップでは,顕著度が高くなるほど白くなるようにしている。図7(b)は,顕著度が顕著度の上閾値以上の画素の領域で,具体的には,図7(a)においては,あるレベルより階調が明るい領域である。図7(c)は,顕著性マップにおける顕著度が顕著度の下閾値以下の画素の領域で,具体的には,図7(a)においては,あるレベルより階調が暗い領域である。
図8は,関心領域を説明する図である。図8(a)は,印象に影響を与えている可能性のある関心領域,すなわち,注視点の集中度が集中度の閾値以上で,かつ,顕著度が顕著度の上閾値以上の領域で,この領域は,図6(c)で図示した領域と図7(b)で図示した領域において重複した領域になる。
また,図8(b)は,認知に影響を与えている可能性のある関心領域,すなわち,注視点の集中度が集中度の閾値以上で,かつ,顕著度が顕著度の下閾値以下の領域で,この領域は,図6(c)で図示した領域と図7(c)で図示した領域において重複した領域になる。
図8(c)は,最終的に得られる関心領域を説明する図である。図8(c)では,図8(a)の領域と図8(b)の領域を合成することで,4つの関心領域(図8(c)では,黒く塗り潰している領域)が得られている。
次に,心理状態推定処理(S2)について説明する。図9は,心理状態推定処理(S2)を説明する図である。
視線分析装置2の関心領域抽出手段20が関心領域を抽出すると,視線分析装置2の心理状態推定手段21が作動し,心理状態推定手段21は,関心領域の心理状態を関心領域毎に推定するために,関心領域を複数の区分領域に区分する(S20)。
図10は,関心領域を区分する内容を説明する図である。関心領域を複数の区分領域に区分する手法としては,関心領域の形状に基づいて複数の区分領域に区分する手法も考えられるが,図10に図示したように,本実施形態では,対象物画像全体を格子状に区分することで,関心領域を複数の区分領域に区分している。
次に,視線分析装置2の心理状態推定手段21は,生理指標計測装置4が計測した生理指標データのサンプリング間隔内のデータを埋める補間処理を実施する(S21)。
図11は,生理指標データの補間処理を説明する図である。生理指標データの補間処理を行うのは,図11に図示したように,視線追跡装置3が注視点を計測するサンプリング間隔と,生理指標計測装置4が生理指標を計測するサンプリング間隔とが一致しておらず,視線追跡装置3が計測した注視点に対応する生理指標が全て計測できないためである。そこで,本実施形態の心理状態推定手段21は,生理指標データに含まれる生理指標から生理指標の補間曲線を算出し,視線座標値を計測した時刻に対応する生理指標が無い場合,補間曲線からこの時刻に対応する生理指標を取得する。
次に,視線分析装置2の心理状態推定手段21は,視線データに含まれる注視点を時系列でトラッキングし,注視点が関心領域の区分領域に含まれる場合,注視点を計測した時の生理指標をこの関心領域の区分領域に関連付けて記憶し,関心領域内の区分領域に関連付けられた生理指標を集計(例えば,平均値の算出)する処理を行う(S22)。
次に,視線分析装置2の心理状態推定手段21は,関心領域の心理状態を生理指標の集計値から推定する処理を関心領域毎に行い(S23),この手順は終了する。生理指標か心理状態を推定する手法についてはすでに上述しているが,例えば,特許文献2,3によれば,脈拍計が計測する被験者の脈拍から被験者のストレス度を推定できる。
次に,視線分析画像生成処理(S3)について説明する。図12は,視線分析画像生成処理(S3)を説明する図である。
まず,視線分析装置2の視線分析画像生成手段22は,心理状態推定手段21が推定した心理状態ごとに色分布を決定する(S30)。具体的には,可視光線の色分布は青色から赤色になるため,関心領域の心理状態の数に応じて可視光線の色分布を分割し,分割した色分布を心理状態に割り当てることになる。例えば,関心領域の心理状態の種別としてストレス状態およびリラックス状態の2つが得られた場合,可視光線の色分布を青から緑までの色分布と緑から赤までの色分布に分割し,緑から赤までの色分布をストレス状態に割り当て,青から緑までの色分布をリラックス状態に割り当てる。
次に,視線分析装置2の視線分析画像生成手段22は,関心領域における注視点の集中度を,注視点に対応する顕著度で重み付けした後,心理状態推定手段21が取得した関心領域の心理状態の種別毎に異なる色分布を割り当てた後,注視点マップを参照し,関心領域の心理状態の種別に割り当てた色分布を用い関心領域内の注視点の集中度をこの色分布内の色で示した色画像を関心領域毎に生成し,色画像を対象物画像に重ね合わせた視線分析画像を生成する処理を実行して(S31),この手順を終了する。
関心領域における注視点の集中度を,注視点に対応する顕著度で重み付けする手法としては様々考えられるが,例えば,注視点の集中度に注視点に対応する顕著度を加算することで重み付けすることができる。また,色画像に変換する際は,顕著度で重み付けした注視点の集中度に設定された閾値を色分布の中心とし,注視点の集中度に対応する色を,この閾値から注視点の集中度までの距離に応じた色にするとよい。
図13は,視線分析画像を説明する図である。図13で図示した視線分析画像は,図6(a)の対象物画像と図8(c)の関心領域を用いて生成された画像である。なお,図13では,上述した色画像を丸で囲っている。
図13において,実線で囲った色画像は,関心領域の心理状態の種別がリラックス状態の関心領域に対応する色画像で,リラックス状態の色分布を青から緑までの色分布とし,顕著度で重み付けした注視点の集中度が高いほど青くなるようにしている。また,二重線で囲った色画像は,関心領域の心理状態の種別がストレス状態の関心領域に対応する色画像で,リラックス状態の色分布を緑から赤までの色分布とし,顕著度で重み付けした注視点の集中度が高いほど赤くなるようにしている。
上述したように,関心領域内における注視点の集中度の表示に用いる色分布は関心領域の心理状態によって決まるため,視線分析画像上にある色画像を見れば,被験者が頻繁に視線を向けた位置とその時の心理状態を分析できる。
なお,本実施形態では,注視点の集中度を顕著度で重み付けしているが,これは,関心領域における顕著度の傾向を視線分析画像から把握できるようにするためで,この必要性がない場合は,顕著度による重み付けを実施しなくともよい。上述しているように,関心領域内における注視点の集中度の表示に用いる色分布は関心領域の心理状態によって決まるため,顕著度による重み付けを実施しなくとも本発明の効果を得ることができる。
1 視線分析システム
2 視線分析装置
20 関心領域抽出手段
21 心理状態推定手段
22 視線分析画像生成手段
3 視線追跡装置
4 生理指標計測装置

Claims (6)

  1. 被験者の注視点の時系列データである視線データを取得する視線追跡装置と,被験者の生理指標の時系列データである生理指標データを取得する生理指標計測装置と,前記視線データと前記生理指標データが入力される視線分析装置とから少なくとも構成したシステムであって,
    前記視線分析装置は,前記視線データを解析して対象物画像内の注視点の集中度を示した注視点マップを生成し,少なくとも注視点の集中度が集中度の閾値以上の領域を関心領域として抽出する処理を実行する関心領域抽出手段と,前記視線データと前記生理指標データを参照して,前記関心領域内の注視点を計測した時の生理指標を集計し,この生理指標の集計結果から推定した心理状態を前記関心領域の心理状態として取得する処理を前記関心領域毎に実行する心理状態推定手段と,前記心理状態推定手段が取得した前記関心領域の心理状態の種別毎に異なる色分布を割り当てた後,前記注視点マップを参照し,前記関心領域の心理状態の種別に割り当てた色分布を用い前記関心領域内の注視点の集中度をこの色分布内の色で示した色画像を前記関心領域毎に生成し,前記色画像を対象物画像に重ね合わせた視線分析画像を生成する処理を実行する視線分析画像生成手段を備えている,
    ことを特徴とする視線分析システム。
  2. 前記視線分析装置の前記関心領域抽出手段は,前記注視点マップに加え,対象物画像内の顕著度を記した顕著性マップを生成し,注視点の集中度が集中度の閾値以上で,かつ,顕著度が顕著度の下閾値以下の領域を認知に係る前記関心領域として抽出することを特徴とする,請求項1に記載した視線分析システム。
  3. 前記視線分析装置の前記関心領域抽出手段は,認知に係る前記関心領域に加え,注視点の集中度が集中度の閾値以上で,かつ,顕著度が顕著度の上閾値以上の領域を印象に係る前記関心領域として抽出することを特徴とする,請求項2に記載した視線分析システム。
  4. 前記視線分析装置の前記視線分析画像生成手段は,前記視線分析画像を生成する際,前記関心領域における注視点の集中度を,注視点に対応する顕著度で重み付けすることを特徴とする,請求項2または請求項3に記載した視線分析システム。
  5. 前記視線分析装置の前記心理状態推定手段は,前記関心領域内の注視点を計測した時の時刻に対応する生理指標が計測されていない場合,前記生理指標データに含まれる生理指標を用いて計測されていない生理指標を補間することを特徴とする,請求項1乃至4のいずれか一項に記載した視線分析システム。
  6. 請求項1から請求項5のいずれか一項に記載した視線分析システムに記載した視線分析装置。
JP2013171455A 2013-08-21 2013-08-21 生理指標を用いる視線分析システムおよび方法 Expired - Fee Related JP6201520B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013171455A JP6201520B2 (ja) 2013-08-21 2013-08-21 生理指標を用いる視線分析システムおよび方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013171455A JP6201520B2 (ja) 2013-08-21 2013-08-21 生理指標を用いる視線分析システムおよび方法

Publications (2)

Publication Number Publication Date
JP2015039487A true JP2015039487A (ja) 2015-03-02
JP6201520B2 JP6201520B2 (ja) 2017-09-27

Family

ID=52693996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013171455A Expired - Fee Related JP6201520B2 (ja) 2013-08-21 2013-08-21 生理指標を用いる視線分析システムおよび方法

Country Status (1)

Country Link
JP (1) JP6201520B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107970035A (zh) * 2017-12-13 2018-05-01 上海青研科技有限公司 一种基于眼动数据的心理健康反馈系统
CN110393539A (zh) * 2019-06-21 2019-11-01 合肥工业大学 心理异常检测方法、装置、存储介质及电子设备
JP2022545868A (ja) * 2019-08-29 2022-11-01 ルーシッド ラブス インコーポレイテッド 選好度決定方法及びそれを利用した選好度決定用デバイス

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006102035A (ja) * 2004-10-04 2006-04-20 Matsushita Electric Ind Co Ltd 非侵襲血糖測定方法
JP2009530071A (ja) * 2006-03-13 2009-08-27 アイモーションズ−エモーション テクノロジー エー/エス 視覚的注意および感情反応の検出表示システム
JP2010094493A (ja) * 2008-09-22 2010-04-30 Koichi Kikuchi 視認情景に対する視認者情感判定装置
WO2011074198A1 (ja) * 2009-12-14 2011-06-23 パナソニック株式会社 ユーザインタフェース装置および入力方法
JP2013081762A (ja) * 2011-09-26 2013-05-09 Dainippon Printing Co Ltd 視線分析装置、視線計測システム、方法、プログラム、記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006102035A (ja) * 2004-10-04 2006-04-20 Matsushita Electric Ind Co Ltd 非侵襲血糖測定方法
JP2009530071A (ja) * 2006-03-13 2009-08-27 アイモーションズ−エモーション テクノロジー エー/エス 視覚的注意および感情反応の検出表示システム
JP2010094493A (ja) * 2008-09-22 2010-04-30 Koichi Kikuchi 視認情景に対する視認者情感判定装置
WO2011074198A1 (ja) * 2009-12-14 2011-06-23 パナソニック株式会社 ユーザインタフェース装置および入力方法
JP2013081762A (ja) * 2011-09-26 2013-05-09 Dainippon Printing Co Ltd 視線分析装置、視線計測システム、方法、プログラム、記録媒体

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107970035A (zh) * 2017-12-13 2018-05-01 上海青研科技有限公司 一种基于眼动数据的心理健康反馈系统
CN110393539A (zh) * 2019-06-21 2019-11-01 合肥工业大学 心理异常检测方法、装置、存储介质及电子设备
CN110393539B (zh) * 2019-06-21 2021-11-23 合肥工业大学 心理异常检测方法、装置、存储介质及电子设备
JP2022545868A (ja) * 2019-08-29 2022-11-01 ルーシッド ラブス インコーポレイテッド 選好度決定方法及びそれを利用した選好度決定用デバイス

Also Published As

Publication number Publication date
JP6201520B2 (ja) 2017-09-27

Similar Documents

Publication Publication Date Title
Bulagang et al. A review of recent approaches for emotion classification using electrocardiography and electrodermography signals
Fernandes et al. A novel nonintrusive decision support approach for heart rate measurement
Jung et al. Utilizing deep learning towards multi-modal bio-sensing and vision-based affective computing
Alghoul et al. Heart rate variability extraction from videos signals: ICA vs. EVM comparison
Fan et al. Robust blood pressure estimation using an RGB camera
JP6256488B2 (ja) 信号処理装置、信号処理方法及び信号処理プログラム
KR101738278B1 (ko) 영상을 이용한 감정 인식 방법
CN105989357A (zh) 一种基于人脸视频处理的心率检测方法
De Martino et al. Predicting EEG single trial responses with simultaneous fMRI and relevance vector machine regression
JP6098304B2 (ja) 脈波検出装置、脈波検出方法及び脈波検出プログラム
JPWO2016159150A1 (ja) 脈波検出装置、及び脈波検出プログラム
JP6717424B2 (ja) 心拍推定装置
JP6856860B2 (ja) 集中度評価装置、集中度評価方法、及びプログラム
JP6727469B1 (ja) 情報処理装置、プログラム及び情報処理方法
CN106031631A (zh) 一种心率检测方法、装置及系统
WO2014145204A1 (en) Mental state analysis using heart rate collection based video imagery
Andreu-Cabedo et al. Mirror mirror on the wall… An intelligent multisensory mirror for well-being self-assessment
Kaur et al. Remote stress detection using a visible spectrum camera
JP6201520B2 (ja) 生理指標を用いる視線分析システムおよび方法
Lampier et al. A deep learning approach to estimate pulse rate by remote photoplethysmography
CN111050638B (zh) 用于接触式光学体积描记术(ppg)的计算机实现的方法和系统
Ibrahim et al. Non-contact heart rate monitoring analysis from various distances with different face regions
He et al. Remote photoplethysmography heart rate variability detection using signal to noise ratio bandpass filtering
Karmuse et al. A robust rPPG approach for continuous heart rate measurement based on face
Zaki et al. Smart medical chatbot with integrated contactless vital sign monitor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170321

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170814

R150 Certificate of patent or registration of utility model

Ref document number: 6201520

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees