JP5225870B2 - 情動分析装置 - Google Patents
情動分析装置 Download PDFInfo
- Publication number
- JP5225870B2 JP5225870B2 JP2009000449A JP2009000449A JP5225870B2 JP 5225870 B2 JP5225870 B2 JP 5225870B2 JP 2009000449 A JP2009000449 A JP 2009000449A JP 2009000449 A JP2009000449 A JP 2009000449A JP 5225870 B2 JP5225870 B2 JP 5225870B2
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- reaction
- primary
- facial
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008451 emotion Effects 0.000 title claims description 585
- 230000033001 locomotion Effects 0.000 claims description 537
- 238000006243 chemical reaction Methods 0.000 claims description 423
- 230000001815 facial effect Effects 0.000 claims description 284
- 238000004458 analytical method Methods 0.000 claims description 239
- 230000000007 visual effect Effects 0.000 claims description 223
- 208000027534 Emotional disease Diseases 0.000 claims description 204
- 230000006461 physiological response Effects 0.000 claims description 83
- 210000005252 bulbus oculi Anatomy 0.000 claims description 75
- 210000001747 pupil Anatomy 0.000 claims description 68
- 230000006397 emotional response Effects 0.000 claims description 52
- 230000001133 acceleration Effects 0.000 claims description 31
- 239000011521 glass Substances 0.000 claims description 16
- 238000003384 imaging method Methods 0.000 claims description 11
- 230000011514 reflex Effects 0.000 claims description 7
- 230000015572 biosynthetic process Effects 0.000 claims 1
- 238000003786 synthesis reaction Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 description 154
- 238000000034 method Methods 0.000 description 145
- 230000008569 process Effects 0.000 description 123
- 239000013598 vector Substances 0.000 description 46
- 238000010586 diagram Methods 0.000 description 19
- 238000011156 evaluation Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 9
- 230000001360 synchronised effect Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 238000000605 extraction Methods 0.000 description 7
- 241001465754 Metazoa Species 0.000 description 6
- 210000001508 eye Anatomy 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 230000036772 blood pressure Effects 0.000 description 4
- 230000036760 body temperature Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000010491 emotional process Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000035900 sweating Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241000016401 Hatena Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241000255777 Lepidoptera Species 0.000 description 1
- 241000287181 Sturnus vulgaris Species 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 210000004243 sweat Anatomy 0.000 description 1
- 230000003945 visual behavior Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eye Examination Apparatus (AREA)
Description
まず、本発明の第1の実施形態(実施例1)について説明する。図25は、実施例1の情動分析装置のハードウェア構成を示す図である。尚、後述する実施例2〜7の情動分析装置2〜7のハードウェア構成も、図25に示すものと同様である。図25を参照して、この情動分析装置1は、CPU(Central Processing Unit)101と、各種プログラムやテーブル等を記憶するROM及びRAMからなる記憶部102と、各種アプリケーションのプログラムやデータ等を記憶する記憶装置(ハードディスク装置)103と、無線または有線の通信回線を通じてデータの送受信を行う通信部104と、眼球撮影用カメラにより撮影された眼球画像、視野映像撮影用カメラにより撮影された視野映像、その他のセンサ(例えば実施例3では加速度センサ)により計測されたデータを入力するインターフェース部105と、利用者による数字キー、電源キー等のボタンキーの操作に伴い、所定のデータを入力制御する操作・入力部106、液晶ディスプレイ、有機ELディスプレイ等により実現され、利用者が情動分析装置1を操作するための画面等の各種情報を表示する表示部107と、充電可能な電池を備え、情動分析装置1として機能させるための電源を供給する電源部108とを備えて構成され、これらの各構成要素はシステムバス109を介して相互に接続される。また、CPU101及び記憶部102により制御部100が構成される。
次に、人が対象物に興味・関心を持つ場合の視認過程について説明する。図2は、その視認過程を示す図である。本発明者らは、鋭意検討を重ねて研究を行った結果、人が対象物に興味・関心を持つ場合の視認過程が、図2に示すように、興味・関心を引く対象物が利用者の目に入るフェーズ1と、フェーズ1からフェーズ3への移行期間であるフェーズ2と、利用者の顔面が対象物に正対し凝視するフェーズ3からなることを見出した。
次に、図1に示した一次・二次情動反応解析制御部13の処理について説明する。一次・二次情動反応解析制御部13は、図2に示したフェーズ1〜3の条件を満たすか否かの判定処理を行う。図26は、一次・二次情動反応解析制御部13の構成を示す図である。図5は、一次・二次情動反応解析制御部13による処理を示すフローチャートである。図6は、実施例1によるフェーズ1の一次情動反応判定処理を示すフローチャートである。図7は、実施例1による二次情動反応判定処理に含まれる、フェーズ2の動き判定処理を示すフローチャートである。図8は、実施例1によるフェーズ3の二次情動反応判定処理を示すフローチャートである。図9は、実施例1による対象物同定処理を示すフローチャートである。図11は、フェーズ1〜3における情動反応E(t)の変化を示すグラフである。図12は、実施例1によるフェーズ1〜3の処理を説明する図である。図2に示した一連の条件を具体的な数式による処理として示したものが図6〜図8である。
E(t)=a×{D(t)−Dmin}
ここで、Dminは利用者の瞳孔径の最小値を表している。また、aはDmaxを利用者の瞳孔径の最大値としたときに、例えば、
a=1/(Dmax−Dmin)
で算出し、個体差を取り除くこともできる。
Eall=Ef+w×Es
ここで、wは、二次情動反応に対する重み値であり、例えばw=10が用いられる。この場合、二次情動反応Eの積分値Esに対して10倍の重み付けがなされる。
とし(以下、ベクトルS1という。)、図12に示すように所定範囲をA1(x軸方向のしきい値をths1、y軸方向のしきい値をthu1とすると、原点0を中心としたx軸の幅2ths1、y軸の幅2thu1で囲まれる矩形範囲。)とすると、ベクトルS1が示す視点停留点が所定範囲A1内に存在する条件は、以下の式で表される。
|s1|≦ths1,|u1|≦thu1
この条件式は、図12のとおり、視野映像内の有効視野内に視点停留点が存在することを判定する。また、図11に示すように所定時間をthT1とし、視点停留が継続する時間をΔT1とすると、ベクトルS1が示す視点停留点がその近傍に停留する時間の条件は、以下の式で表される。
ΔT1≧thT1
E1≧thE1
(以下、視点停留点動きベクトルSという。)とし、顔面動きベクトルを
(以下、顔面動きベクトルVという。)とし、その移動量差分ベクトルを
(以下、移動量差分ベクトルeという。)とすると、以下の式のように、視点の動きと顔面の動きとが逆方向であることが条件となる。
ここで、顔面動きベクトルVは、フェーズ3視野映像の最初のフレームを基準フレームとして、フェーズ1視野映像の最終フレームのグローバルモーションから導いた顔面動きである。また、所定値をtheとすると、移動量差分が所定値以下である条件は、以下の式で表される。
とし(以下、ベクトルS3という。)、図12に示すように所定範囲をA3(x軸方向のしきい値をths3、y軸方向のしきい値をthu3とすると、原点0を中心としたx軸の幅2ths3、y軸の幅2thu3で囲まれる矩形範囲。)とすると、ベクトルS3が示す視点停留点が所定範囲A3内に存在する条件は、以下の式で表される。
|s3|≦ths3,|u3|≦thu3
この条件式は、図12にあるとおり、視点停留点が原点0の近傍にあることを判定する。尚、この所定範囲A3を定めるしきい値ths3,thu3を0に近い値とすることにより、一層正確に二次情動反応の有無を判定することができる。
ΔT3≧thT3
E3≧thE3
そして、フェーズ1の終了時点から所定時間前であるフェーズ1の終期(フェーズ1の終了直前)において、その座標の位置に対象物が存在すると仮定し、図示しない記憶部からそのときの視野映像を読み出し、その座標を中心としてx軸方向及びy軸方向にそれぞれ±bx,±byの矩形領域に含まれる対象物を、ステップS901と同様の手法により抽出する。
e(x,y,t)=f(x+u(x,y),y+v(x,y),t−1)
次に、図1に示した情動反応データ処理部14の処理について説明する。情動反応データ処理部14は、前述したとおり、入力した情動反応データ及び生成した評価情報を表示器に表示する。図24は、情動反応データ処理部14により表示される画面の例を示す図である。
次に、本発明の第2の実施形態(実施例2)について説明する。図13は、実施例2による情動分析装置の構成を示すブロック図であり、図25に示したハードウェア構成の下で制御部100が情動分析プログラムにより処理を実行する際の機能構成を示している。この情動分析装置2は、視野映像画像処理・顔面動き推定部22、一次・二次情動反応解析制御部23及び情動反応データ処理部24を備えている。
次に、図13に示した一次・二次情動反応解析制御部23の処理について説明する。一次・二次情動反応解析制御部23は、図2に示したフェーズ1〜3の条件(顔面の動きの条件)を満たすか否かの判定処理を行う。図14は、実施例2によるフェーズ1の一次情動反応判定処理を示すフローチャートである。図15は、実施例2による二次情動反応判定処理に含まれる、フェーズ2の動き判定処理を示すフローチャートである。図16は、実施例2によるフェーズ3の二次情動反応判定処理を示すフローチャートである。図17は、実施例2による対象物同定処理を示すフローチャートである。
とし、所定量をthV1とすると、顔面移動量が所定量以下となる条件は、以下の式で表される。
また、顔面移動量が所定量以下である時間をΔT1とし、所定時間をthT1とすると、時間の条件は、以下の式で表される。
ΔT1≧thT1
とし、所定量をthV3とすると、顔面移動量が所定量以下となる条件は、以下の式で表される。
また、顔面移動量が所定量以下である時間をΔT3とし、所定時間をthT3とすると、時間の条件は、以下の式で表される。
ΔT3≧thT3
とすると、視野映像の中心に近い所定位置を始点にして、顔面動きベクトルで示される座標を算出する。フェーズ1の終了時点から所定時間前であるフェーズ1の終期(フェーズ1の終了直前)の視野映像において、前記算出した座標の位置に対象物が存在すると仮定する。つまり、図示しない記憶部からそのときの視野映像を読み出し、算出した座標の位置を中心としてx軸方向及びy軸方向にそれぞれ±bx,±byの矩形領域に含まれる対象物を、ステップS1701と同様の手法により抽出する。
次に、本発明の第3の実施形態(実施例3)について説明する。図18は、実施例3による情動分析装置の構成を示すブロック図であり、図25に示したハードウェア構成の下で制御部100が情動分析プログラムにより処理を実行する際の機能構成を示している。この情動分析装置3は、視点・瞳孔径解析部31、顔面動き解析部32、視野映像画像処理部33、一次・二次情動反応解析制御部34及び情動反応データ処理部35を備えている。
次に、本発明の第4の実施形態(実施例4)について説明する。図19は、実施例4による情動分析装置の構成を示すブロック図であり、図25に示したハードウェア構成の下で制御部100が情動分析プログラムにより処理を実行する際の機能構成を示している。この情動分析装置4は、顔面動き解析部42、視野映像画像処理部43、一次・二次情動反応解析制御部44及び情動反応データ処理部45を備えている。
次に、本発明の第5の実施形態(実施例5)について説明する。実施例5は実施例1または実施例3の変形例であり、情動分析装置5の構成は、実施例1または実施例3と同様である。
次に、本発明の第6の実施形態(実施例6)について説明する。図20は、実施例6による情動分析装置の構成を示すブロック図であり、図25に示したハードウェア構成の下で制御部100が情動分析プログラムにより処理を実行する際の機能構成を示している。この情動分析装置6は、生理反応データ調整部61、視野映像画像処理・顔面動き推定部62、一次・二次情動反応解析制御部63及び情動反応データ処理部64を備えている。
次に、本発明の第7の実施形態(実施例7)について説明する。図23は、実施例7による情動分析装置の構成を示すブロック図であり、図25に示したハードウェア構成の下で制御部100が情動分析プログラムにより処理を実行する際の機能構成を示している。この情動分析装置7は、生理反応データ調整部71、顔面動き解析部72、視野映像画像処理部73、一次・二次情動反応解析制御部74及び情動反応データ処理部75を備えている。
(1)“王様の箱庭::blog Java(登録商標)Scriptからから利用できる顔検出API「facekit」”、[online]、平成19年3月21日、[平成20年9月28日検索]、インターネット<http://d.hatena.ne.jp/masayoshi/20070321>
(2)“Tutorial:OpenCV haartraining(Rapid Object Detection With A Cascade of Boosted Classifiers Based on Haar−like Features)”、[online]、[平成20年9月28日検索]、インターネット<Http://note.sonots.com/SciSoftware/haartraining.html>
これ以外に、顔面動きを算出する手法としては、前記(1)で実現されている顔の向きを実時間で捉えて顔面動きデータを算出するものがある。また、その際のアルゴリズムとしては、前記(2)が用いられる。
11,31 視点・瞳孔径解析部
12,22,62 視野映像画像処理・顔面動き推定部
13,23,34,44,63,74 一次・二次情動反応解析制御部
14,24,35,45,64,75 情動反応データ処理部
32,42,72 顔面動き解析部
33,43,73 視野映像画像処理部
61,71 生理反応データ調整部
100 制御部
101 CPU
102 記憶部
103 記憶装置
104 通信部
105 インターフェース部
106 操作・入力部
107 表示部
108 電源部
109 システムバス
130 制御手段
131 記憶手段
132 一次情動反応判定手段
133 二次情動反応/動き判定手段
134 二次情動反応判定手段
135 対象物同定手段
Claims (14)
- 利用者が視認する対象物を含む視野映像を用いて、前記利用者の対象物に対する情動を分析する情動分析装置において、
前記利用者の生命現象に伴って変化する生理反応データに基づいて、前記対象物を含む視野映像に対して情動反応を示していることを判定し、一次情動反応有りの判定結果を出力する一次情動反応判定手段と、
前記一次情動反応判定手段により出力された一次情動反応有りの判定結果を入力し、その後の前記利用者の顔面の動きに伴って変化する動きの大きさを示す顔面動きデータに基づいて、顔面動きが有ることを判定し、顔面動きOKの判定結果を出力する動き判定手段と、
前記動き判定手段により出力された顔面動きOKの判定結果を入力し、その後の前記生理反応データに基づいて、前記対象物を含む視野映像に対して情動反応を示していることを判定し、二次情動反応有りの判定結果を出力する二次情動反応判定手段と、を備え、
前記一次情動反応判定手段により一次情動反応有りの判定結果が出力され、かつ、前記動き判定手段により顔面動きOKの判定結果が出力され、かつ、前記二次情動反応判定手段により二次情動反応有りの判定結果が出力された場合に、前記一次情動反応判定手段により情動反応を判定したときの前記生理反応データと、前記二次情動反応判定手段により情動反応を判定したときの前記生理反応データとに基づいて、前記情動反応の程度を判定する、ことを特徴とする情動分析装置。 - 請求項1に記載の情動分析装置において、
前記利用者の生命現象に伴って変化する生理反応データを、前記利用者の眼球が撮影された眼球画像から得られた眼球の動きに伴う生理反応データとし、
前記利用者の顔面動きデータを、前記利用者が視認する情景が撮影された視野映像における基準フレームの映像から任意のフレームの映像への座標変換により得られた顔面動きの大きさと方向を含む顔面動きデータとし、
前記一次情動反応判定手段は、前記眼球画像における眼球の瞳孔から得られた前記視野映像内の位置を示す視点が前記視野映像内の所定箇所に所定時間以上存在し、かつ、前記生理反応データと予め設定された第1のしきい値とを比較し、一次情動反応有りを判定して前記一次情動反応有りの判定結果を出力し、
前記動き判定手段は、前記一次情動反応判定手段により出力された一次情動反応有りの判定結果を入力し、その後の前記視点の動き方向と前記顔面動き方向とを比較し、これらの動きが逆方向であると判定し、かつ、前記視点の動きの大きさと前記顔面動きの大きさとを比較し、これらの差が所定値以下であると判定し、かつ、前記顔面動きの大きさと予め設定された第2のしきい値とを比較し、顔面動きOKを判定して前記顔面動きOKの判定結果を出力し、
前記二次情動反応判定手段は、前記動き判定手段により出力された顔面動きOKの判定結果を入力し、その後の前記視点が視野映像内の中央から所定範囲内の箇所に所定時間以上存在し、かつ、前記生理反応データと予め設定された第3のしきい値とを比較し、二次情動反応有りを判定して前記二次情動反応有りの判定結果を出力する、ことを特徴とする情動分析装置。 - 請求項2に記載の情動分析装置において、
前記一次情動反応判定手段は、前記顔面動きの大きさが所定値以下となるフェーズ1のときに、前記視点が前記視野映像内の所定箇所に所定時間以上存在し、かつ、前記顔面動きの大きさが所定値を越えるフェーズ2が開始する前に、前記生理反応データと予め設定された第1のしきい値とを比較し、一次情動反応有りを判定して前記一次情動反応有りの判定結果を出力する、ことを特徴とする情動分析装置。 - 請求項3に記載の情動分析装置において、
前記動き判定手段は、前記一次情動反応判定手段により出力された一次情動反応有りの判定結果を入力し、前記フェーズ1の後に顔面動きの大きさが所定値を超えるフェーズ2のときに、前記視点の動き方向と前記顔面動き方向とを比較し、これらの動きが逆方向であると判定し、かつ、時間的に連続する視点が複数存在する所定範囲内の重心座標を視点停留点としたときの前記視点停留点の動きの大きさと前記顔面動きの大きさとを比較し、これらの差が所定値以下であると判定し、かつ、前記顔面動きの大きさと予め設定された第2のしきい値とを比較し、顔面動きOKを判定して前記顔面動きOKの判定結果を出力する、ことを特徴とする情動分析装置。 - 請求項4に記載の情動分析装置において、
前記二次情動反応判定手段は、前記動き判定手段により出力された顔面動きOKの判定結果を入力し、前記フェーズ2の後に顔面動きの大きさが所定値以下となるフェーズ3のときに、前記視点が視野映像内の中央から所定範囲内の箇所に所定時間以上存在し、かつ、前記生理反応データと予め設定された第3のしきい値とを比較し、二次情動反応有りを判定して前記二次情動反応有りの判定結果を出力する、ことを特徴とする情動分析装置。 - 請求項5に記載の情動分析装置において、
さらに、前記フェーズ3が開始した後に、前記視点を含む箇所に存在していた対象物を前記視野映像から抽出し、前記フェーズ2が開始する前に、前記フェーズ3が開始した後の視点を基準にして、前記フェーズ2の顔面動きにより示される箇所に存在していた対象物を前記視野映像から抽出し、前記抽出した両対象物の同一性を求める対象物同定手段、を備えたことを特徴とする情動分析装置。 - 利用者が視認する対象物を含む視野映像を用いて、前記利用者の対象物に対する情動を分析する情動分析装置において、
前記利用者が視認する情景が撮影された視野映像における基準フレームの映像から任意のフレームの映像への座標変換により得られた顔面動きの大きさを含む顔面動きデータを用いて、前記顔面動きの大きさと、予め設定された第1のしきい値とを比較し、前記顔面動きの大きさが前記しきい値以下となる時間が所定時間以上の場合に、一次情動反応有りを判定して一次情動反応有りの判定結果を出力する一次情動反応判定手段と、
前記一次情動反応判定手段により出力された一次情動反応有りの判定結果を入力し、その後の前記顔面動きの大きさと予め設定された第2のしきい値とを比較し、顔面動きOKを判定して前記顔面動きOKの判定結果を出力する動き判定手段と、
前記動き判定手段により出力された顔面動きOKの判定結果を入力し、その後の前記顔面動きの大きさと予め設定された第3のしきい値とを比較し、前記顔面動きの大きさが前記しきい値以下となる時間が所定時間以上の場合に、二次情動反応有りを判定して二次情動反応有りの判定結果を出力する二次情動反応判定手段と、を備え、
前記一次情動反応判定手段により一次情動反応有りの判定結果が出力され、かつ、前記動き判定手段により顔面動きOKの判定結果が出力され、かつ、前記二次情動反応判定手段により二次情動反応有りの判定結果が出力された場合に、前記視野映像に含まれる対象物に対して情動を示していると判定する、ことを特徴とする情動分析装置。 - 請求項1に記載の情動分析装置において、
前記利用者の生命現象に伴って変化する生理反応データを、前記利用者の眼球が撮影された眼球画像における眼球の瞳孔から得られた前記視野映像内の位置を示す視点が前記視野映像の所定箇所に存在している視点停留時間とし、
前記一次情動反応判定手段は、前記視点停留時間と予め設定された第1のしきい値とを比較し、一次情動反応有りを判定して前記一次情動反応有りの判定結果を出力し、
前記二次情動反応判定手段は、前記動き判定手段により出力された顔面動きOKの判定結果を入力し、その後の前記視点停留時間と予め設定された第3のしきい値とを比較し、二次情動反応有りを判定して前記二次情動反応有りの判定結果を出力する、ことを特徴とする情動分析装置。 - 請求項1に記載の情動分析装置において、
前記利用者の顔面動きデータを、前記利用者が視認する情景が撮影された視野映像における基準フレームの映像から任意のフレームの映像への座標変換により得られた顔面動きの大きさを含む顔面動きデータとし、
前記一次情動反応判定手段は、前記顔面動きの大きさと予め設定された第1−1のしきい値とを比較し、前記顔面動きの大きさが前記しきい値以下となる時間が所定時間以上であり、かつ、前記生理反応データと予め設定された第1−2のしきい値とを比較し、一次情動反応有りを判定して前記一次情動反応有りの判定結果を出力し、
前記動き判定手段は、前記一次情動反応判定手段により出力された一次情動反応有りの判定結果を入力し、その後の前記顔面動きの大きさと予め設定された第2のしきい値とを比較し、顔面動きOKを判定して前記顔面動きOKの判定結果を出力し、
前記二次情動反応判定手段は、前記動き判定手段により出力された顔面動きOKの判定結果を入力し、その後の前記顔面動きの大きさと予め設定された第3−1のしきい値とを比較し、前記顔面動きの大きさが前記しきい値以下となる時間が所定時間以上であり、かつ、前記生理反応データと予め設定された第3−2のしきい値とを比較し、二次情動反応有りを判定して前記二次情動反応有りの判定結果を出力する、ことを特徴とする情動分析装置。 - 請求項1から9までのいずれか一項に記載の情動分析装置において、
前記利用者の顔面動きデータを、前記利用者の顔面の動きを捉える加速度センサからのデータを用いて得られた顔面動きデータとする、ことを特徴とする情動分析装置。 - 請求項1から6までのいずれか一項に記載の情動分析装置において、
前記一次情動反応判定手段により情動反応を判定したときの前記生理反応データに基づいて、前記一次情動反応の程度を表す数値データを出力し、前記二次情動反応判定手段により情動反応を判定したときの前記生理反応データに基づいて、前記二次情動反応の程度を表す数値データを出力する手段、を備えたことを特徴とする情動分析装置。 - 請求項11に記載の情動分析装置において、
前記一次情動反応及び二次情動反応におけるそれぞれの情動の程度を表す数値データに基づいて一次・二次総合情動を表す数値データを算出して外部の制御機器へ出力し、前記一次・二次総合情動を表す数値に基づいて外部の制御機器を動作させる、ことを特徴とする情動分析装置。 - 請求項2ないし6及び8のうちのいずれか一項に記載の情動分析装置において、
前記視野映像が視野映像撮影用カメラにより撮影され、前記眼球画像が眼球撮影用カメラにより撮影され、前記視野映像撮影用カメラ及び眼球撮影用カメラが、利用者が装着している眼鏡または帽子に設けられている、ことを特徴とする情動分析装置。 - 請求項1から13までのいずれか一項に記載の情動分析装置において、
前記利用者から離れた箇所から前記利用者を撮影するための顔面撮影用カメラが設けられ、
前記利用者の顔面動きデータを、前記顔面撮影用カメラが撮影した顔面映像から得られた顔面動きデータとする、ことを特徴とする情動分析装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009000449A JP5225870B2 (ja) | 2008-09-30 | 2009-01-05 | 情動分析装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008255722 | 2008-09-30 | ||
JP2008255722 | 2008-09-30 | ||
JP2009000449A JP5225870B2 (ja) | 2008-09-30 | 2009-01-05 | 情動分析装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010104754A JP2010104754A (ja) | 2010-05-13 |
JP5225870B2 true JP5225870B2 (ja) | 2013-07-03 |
Family
ID=42294784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009000449A Active JP5225870B2 (ja) | 2008-09-30 | 2009-01-05 | 情動分析装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5225870B2 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012103312A (ja) | 2010-11-08 | 2012-05-31 | Seiko Epson Corp | 累進屈折力レンズ及びその設計方法 |
CN103169484B (zh) * | 2013-02-01 | 2014-12-03 | 广东平成广告有限公司 | 一种基于视频的认知曲线扫描方法 |
KR101870919B1 (ko) | 2017-10-20 | 2018-06-25 | 상명대학교산학협력단 | 동공 크기 변화율을 이용한 뇌 정보 (EEG spectrum) 추출 방법 및 그 장치 |
KR101831967B1 (ko) | 2017-10-20 | 2018-02-23 | 상명대학교산학협력단 | 인체 미동 기반 뇌 정보 추출 방법 |
JP6922686B2 (ja) * | 2017-11-20 | 2021-08-18 | トヨタ自動車株式会社 | 操作装置 |
JP7001560B2 (ja) * | 2018-07-20 | 2022-01-19 | 株式会社日立製作所 | 投資行動分析支援装置および投資行動分析支援方法 |
CN109523290A (zh) * | 2018-09-14 | 2019-03-26 | 平安科技(深圳)有限公司 | 基于听众微表情的听讲评价方法、装置、设备及介质 |
CN111310602A (zh) * | 2020-01-20 | 2020-06-19 | 北京正和恒基滨水生态环境治理股份有限公司 | 一种基于情绪识别的展品关注度分析系统及分析方法 |
EP4226906A1 (en) * | 2020-10-07 | 2023-08-16 | National University Corporation Chiba University | Sightline-position determination device, sightline-position determination method, and training method |
JPWO2023012941A1 (ja) * | 2021-08-04 | 2023-02-09 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3800257B2 (ja) * | 1996-08-02 | 2006-07-26 | オムロン株式会社 | 注目情報計測方法及び装置並びにそれを用いた各種システム |
JP3604665B2 (ja) * | 2002-01-30 | 2004-12-22 | 独立行政法人科学技術振興機構 | 選択的聴取の行動的測定装置及びその聴取支援装置 |
JP2009508553A (ja) * | 2005-09-16 | 2009-03-05 | アイモーションズ−エモーション テクノロジー エー/エス | 眼球性質を解析することで、人間の感情を決定するシステムおよび方法 |
JP5120249B2 (ja) * | 2006-03-15 | 2013-01-16 | オムロン株式会社 | 監視装置および監視方法、制御装置および制御方法、並びにプログラム |
-
2009
- 2009-01-05 JP JP2009000449A patent/JP5225870B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010104754A (ja) | 2010-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5225870B2 (ja) | 情動分析装置 | |
CN109740466B (zh) | 广告投放策略的获取方法、计算机可读存储介质 | |
CN108427503B (zh) | 人眼追踪方法及人眼追踪装置 | |
Shreve et al. | Macro-and micro-expression spotting in long videos using spatio-temporal strain | |
US10614289B2 (en) | Facial tracking with classifiers | |
Li et al. | Learning to predict gaze in egocentric video | |
US8462996B2 (en) | Method and system for measuring human response to visual stimulus based on changes in facial expression | |
US9443144B2 (en) | Methods and systems for measuring group behavior | |
Mehrubeoglu et al. | Real-time eye tracking using a smart camera | |
CN105809144A (zh) | 一种采用动作切分的手势识别系统和方法 | |
Poppe et al. | AMAB: Automated measurement and analysis of body motion | |
US9013591B2 (en) | Method and system of determing user engagement and sentiment with learned models and user-facing camera images | |
US10254831B2 (en) | System and method for detecting a gaze of a viewer | |
Sugimoto et al. | A method for detecting transitions of emotional states using a thermal facial image based on a synthesis of facial expressions | |
Mann et al. | An introduction to the 3rd workshop on egocentric (first-person) vision | |
Saxena et al. | Towards efficient calibration for webcam eye-tracking in online experiments | |
Sun et al. | Eye tracking and ROI detection within a computer screen using a monocular camera | |
JP2016111612A (ja) | コンテンツ表示装置 | |
Youwei | Real-time eye blink detection using general cameras: a facial landmarks approach | |
Nguyen et al. | Human emotion estimation using wavelet transform and t-ROIs for fusion of visible images and thermal image sequences | |
Singh et al. | A robust, real-time camera-based eye gaze tracking system to analyze users’ visual attention using deep learning | |
Bouma et al. | Measuring cues for stand-off deception detection based on full-body nonverbal features in body-worn cameras | |
Zhang et al. | An approach of region of interest detection based on visual attention and gaze tracking | |
KR20180015792A (ko) | 공포 심리 분석 시스템 및 방법 | |
Benoit et al. | Fusing bio-inspired vision data for simplified high level scene interpretation: Application to face motion analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130313 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5225870 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160322 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |