JP5225870B2 - 情動分析装置 - Google Patents

情動分析装置 Download PDF

Info

Publication number
JP5225870B2
JP5225870B2 JP2009000449A JP2009000449A JP5225870B2 JP 5225870 B2 JP5225870 B2 JP 5225870B2 JP 2009000449 A JP2009000449 A JP 2009000449A JP 2009000449 A JP2009000449 A JP 2009000449A JP 5225870 B2 JP5225870 B2 JP 5225870B2
Authority
JP
Japan
Prior art keywords
emotion
reaction
primary
facial
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009000449A
Other languages
English (en)
Other versions
JP2010104754A (ja
Inventor
直幹 金森
Original Assignee
花村 剛
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 花村 剛 filed Critical 花村 剛
Priority to JP2009000449A priority Critical patent/JP5225870B2/ja
Publication of JP2010104754A publication Critical patent/JP2010104754A/ja
Application granted granted Critical
Publication of JP5225870B2 publication Critical patent/JP5225870B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)

Description

本発明は、利用者が視認する対象物への情動を分析する装置に関し、特に、一次情動反応以降の高次の情動反応を捉え、対象物に対する興味・関心を精度高く判定する技術に関する。
従来、映像コンテンツに対する興味・関心度合いを算出することにより、その映像コンテンツを評価する装置が知られている(特許文献1を参照)。この映像コンテンツ評価装置は、映像コンテンツを見ている人間の眼球画像をカメラにより撮影し、その眼球画像から視線の動き、瞳孔面積、瞳孔径変化、瞬目発生頻度、眼球停留時間、反応時間等の生理反応データを算出し、これらのデータを映像コンテンツに対する人間の情動反応として扱い、映像コンテンツに対する興味・関心度合いを算出するものである。これにより、映像コンテンツを評価することができる。
このような映像コンテンツ評価装置において、視線の動き、瞳孔面積等は、眼球画像に基づいて算出される。具体的には、視線を検出するために、例えば、眼球へ赤外線を照射して撮影した眼球画像と、赤外線を照射していないときに撮影した眼球画像との差分画像が用いられる(特許文献2を参照)。また、視線を一層精度高く検出するために、例えば、眼球形状モデルが用いられる(非特許文献1を参照)。
ところで、人が見ている対象物等に対する視線の動きを検出するための眼鏡が知られている(非特許文献2を参照)。この眼鏡には、人の眼球を撮影するカメラ(眼球撮影用カメラ)、及びその人が実際に見ている対象物及びその背景等を撮影するカメラ(視野映像撮影用カメラ)が設けられ、眼球撮影用カメラにより撮影された眼球画像、及び視野映像撮影用カメラにより撮影された視野映像を格納する記録媒体を備えている。制御装置は、記憶媒体から眼球画像及び視野映像を読み出し、画像処理を行うことにより、視野映像内の視線の動きを検出し、視点(位置)、瞳孔面積、瞳孔径変化、瞬目発生頻度、眼球停留時間等を算出する。
一方、前述した映像コンテンツ評価装置により映像コンテンツを評価したり、眼鏡に設けられた視野映像撮影用カメラにより撮影された視野映像を評価したりする際に、人は映像コンテンツまたは視野映像に含まれる特定の対象物に興味・関心を示すことになるから、その映像の大局的な動き(グローバル動き)を捉えて対象物を特定することが必要となる(非特許文献3,4及び特許文献3を参照)。
特開2004−282471号公報 特開2007−4448号公報 特許3551908号公報
大野健彦、他2名、「眼球形状モデルに基づく視線測定法」、第8回画像センシングシンポジウム、pp.307−312、2002年 "モバイル型アイマークレコーダ EMR−9"、[online]、株式会社ナックイメージテクノロジー、[平成20年9月10日検索]、インターネット<URL:http://www.eyemark.jp/product/emr_9/index.html> 秦泉寺久美、他2名、「スプライト生成のためのグローバルモーション算出法と符号化への適用」、電子情報通信学会論文誌 D−2 Vol.J83−D−2 No.2、pp.535−544、2002年2月 David A.Forsyth,Jean Ponce著、大北剛訳、「コンピュータビジョン」、ISBN978−4−320−12157−7、共立出版、pp358−361,561
前述した映像コンテンツ評価装置は、眼球画像から得た視線の動き、瞳孔径等の生理反応データを情動反応として扱い、映像コンテンツに対する興味・関心度合いを算出する。つまり、興味・関心度合いを、視線の動き、瞳孔径等の一次的な情動反応のみに基づいて算出している。
しかしながら、人間の実際の情動反応には、対象物を見たときに脳の皮質下(脳の中心の方)で生じる本能的な反応である一次的な情動反応(一次情動反応)と、人間の意識が関係する高次の情動反応(二次情動反応)とがある。したがって、一次情動反応のみを捉える映像コンテンツ評価装置では、必ずしも正確な興味・関心の度合いを算出することができるとは限らない。すなわち、前述した映像コンテンツ評価装置では、対象物に対する興味・関心の有無を精度高く判定することができなかった。
このため、人が対象物に興味・関心を持つ過程を客観的に捉え、対象物に対する興味・関心の有無を精度高く判定することが望まれていた。
そこで、本発明は上記課題を解決するためになされたものであり、その目的は、人(利用者)が視認する対象物への情動を、一次情動反応及び二次情動反応として捉えることにより、対象物に対する興味・関心を精度高く判定可能な情動分析装置を提供することにある。
上記目的を達成するために、本発明による情動分析装置は、利用者が視認する対象物を含む視野映像を用いて、前記利用者の対象物に対する情動を分析する情動分析装置において、前記利用者の生命現象に伴って変化する生理反応データに基づいて、前記対象物を含む視野映像に対して情動反応を示していることを判定し、一次情動反応有りの判定結果を出力する一次情動反応判定手段と、前記一次情動反応判定手段により出力された一次情動反応有りの判定結果を入力し、その後の前記利用者の顔面の動きに伴って変化する動きの大きさを示す顔面動きデータに基づいて、顔面動きが有ることを判定し、顔面動きOKの判定結果を出力する動き判定手段と、前記動き判定手段により出力された顔面動きOKの判定結果を入力し、その後の前記生理反応データに基づいて、前記対象物を含む視野映像に対して情動反応を示していることを判定し、二次情動反応有りの判定結果を出力する二次情動反応判定手段と、を備え、前記一次情動反応判定手段により一次情動反応有りの判定結果が出力され、かつ、前記動き判定手段により顔面動きOKの判定結果が出力され、かつ、前記二次情動反応判定手段により二次情動反応有りの判定結果が出力された場合に、前記一次情動反応判定手段により情動反応を判定したときの前記生理反応データと、前記二次情動反応判定手段により情動反応を判定したときの前記生理反応データとに基づいて、前記情動反応の程度を判定する、ことを特徴とする。
また、本発明による情動分析装置は、前記利用者の生命現象に伴って変化する生理反応データを、前記利用者の眼球が撮影された眼球画像から得られた眼球の動きに伴う生理反応データとし、前記利用者の顔面動きデータを、前記利用者が視認する情景が撮影された視野映像における基準フレームの映像から任意のフレームの映像への座標変換により得られた顔面動きの大きさと方向を含む顔面動きデータとし、前記一次情動反応判定手段が、前記眼球画像における眼球の瞳孔から得られた前記視野映像内の位置を示す視点が前記視野映像内の所定箇所に所定時間以上存在し、かつ、前記生理反応データと予め設定された第1のしきい値とを比較し、一次情動反応有りを判定して前記一次情動反応有りの判定結果を出力し、前記動き判定手段が、前記一次情動反応判定手段により出力された一次情動反応有りの判定結果を入力し、その後の前記視点の動き方向と前記顔面動き方向とを比較し、これらの動きが逆方向であると判定し、かつ、前記視点の動きの大きさと前記顔面動きの大きさとを比較し、これらの差が所定値以下であると判定し、かつ、前記顔面動きの大きさと予め設定された第2のしきい値とを比較し、顔面動きOKを判定して前記顔面動きOKの判定結果を出力し、前記二次情動反応判定手段が、前記動き判定手段により出力された顔面動きOKの判定結果を入力し、その後の前記視点が視野映像内の中央から所定範囲内の箇所に所定時間以上存在し、かつ、前記生理反応データと予め設定された第3のしきい値とを比較し、二次情動反応有りを判定して前記二次情動反応有りの判定結果を出力する、ことを特徴とする。
また、本発明による情動分析装置は、前記一次情動反応判定手段が、前記顔面動きの大きさが所定値以下となるフェーズ1のときに、前記視点が前記視野映像内の所定箇所に所定時間以上存在し、かつ、前記顔面動きの大きさが所定値を越えるフェーズ2が開始する前に、前記生理反応データと予め設定された第1のしきい値とを比較し、一次情動反応有りを判定して前記一次情動反応有りの判定結果を出力する、ことを特徴とする。
また、本発明による情動分析装置は、前記動き判定手段が、前記一次情動反応判定手段により出力された一次情動反応有りの判定結果を入力し、前記フェーズ1の後に顔面動きの大きさが所定値を超えるフェーズ2のときに、前記視点の動き方向と前記顔面動き方向とを比較し、これらの動きが逆方向であると判定し、かつ、時間的に連続する視点が複数存在する所定範囲内の重心座標を視点停留点としたときの前記視点停留点の動きの大きさと前記顔面動きの大きさとを比較し、これらの差が所定値以下であると判定し、かつ、前記顔面動きの大きさと予め設定された第2のしきい値とを比較し、顔面動きOKを判定して前記顔面動きOKの判定結果を出力する、ことを特徴とする。
また、本発明による情動分析装置は、前記二次情動反応判定手段が、前記動き判定手段により出力された顔面動きOKの判定結果を入力し、前記フェーズ2の後に顔面動きの大きさが所定値以下となるフェーズ3のときに、前記視点が視野映像内の中央から所定範囲内の箇所に所定時間以上存在し、かつ、前記生理反応データと予め設定された第3のしきい値とを比較し、二次情動反応有りを判定して前記二次情動反応有りの判定結果を出力する、ことを特徴とする。
また、本発明による情動分析装置は、さらに、前記フェーズ3が開始した後に、前記視点を含む箇所に存在していた対象物を前記視野映像から抽出し、前記フェーズ2が開始する前に、前記フェーズ3が開始した後の視点を基準にして、前記フェーズ2の顔面動きにより示される箇所に存在していた対象物を前記視野映像から抽出し、前記抽出した両対象物の同一性を求める対象物同定手段、を備えたことを特徴とする。
また、本発明による情動分析装置は、利用者が視認する対象物を含む視野映像を用いて、前記利用者の対象物に対する情動を分析する情動分析装置において、前記利用者が視認する情景が撮影された視野映像における基準フレームの映像から任意のフレームの映像への座標変換により得られた顔面動きの大きさを含む顔面動きデータを用いて、前記顔面動きの大きさと、予め設定された第1のしきい値とを比較し、前記顔面動きの大きさが前記しきい値以下となる時間が所定時間以上の場合に、一次情動反応有りを判定して一次情動反応有りの判定結果を出力する一次情動反応判定手段と、前記一次情動反応判定手段により出力された一次情動反応有りの判定結果を入力し、その後の前記顔面動きの大きさと予め設定された第2のしきい値とを比較し、顔面動きOKを判定して前記顔面動きOKの判定結果を出力する動き判定手段と、前記動き判定手段により出力された顔面動きOKの判定結果を入力し、その後の前記顔面動きの大きさと予め設定された第3のしきい値とを比較し、前記顔面動きの大きさが前記しきい値以下となる時間が所定時間以上の場合に、二次情動反応有りを判定して二次情動反応有りの判定結果を出力する二次情動反応判定手段と、を備え、前記一次情動反応判定手段により一次情動反応有りの判定結果が出力され、かつ、前記動き判定手段により顔面動きOKの判定結果が出力され、かつ、前記二次情動反応判定手段により二次情動反応有りの判定結果が出力された場合に、前記視野映像に含まれる対象物に対して情動を示していると判定する、ことを特徴とする。
また、本発明による情動分析装置は、前記利用者の生命現象に伴って変化する生理反応データを、前記利用者の眼球が撮影された眼球画像における眼球の瞳孔から得られた前記視野映像内の位置を示す視点が前記視野映像の所定箇所に存在している視点停留時間とし、前記一次情動反応判定手段が、前記視点停留時間と予め設定された第1のしきい値とを比較し、一次情動反応有りを判定して前記一次情動反応有りの判定結果を出力し、前記二次情動反応判定手段が、前記動き判定手段により出力された顔面動きOKの判定結果を入力し、その後の前記視点停留時間と予め設定された第3のしきい値とを比較し、二次情動反応有りを判定して前記二次情動反応有りの判定結果を出力する、ことを特徴とする。
また、本発明による情動分析装置は、前記利用者の顔面動きデータを、前記利用者が視認する情景が撮影された視野映像における基準フレームの映像から任意のフレームの映像への座標変換により得られた顔面動きの大きさを含む顔面動きデータとし、前記一次情動反応判定手段が、前記顔面動きの大きさと予め設定された第1−1のしきい値とを比較し、前記顔面動きの大きさが前記しきい値以下となる時間が所定時間以上であり、かつ、前記生理反応データと予め設定された第1−2のしきい値とを比較し、一次情動反応有りを判定して前記一次情動反応有りの判定結果を出力し、前記動き判定手段が、前記一次情動反応判定手段により出力された一次情動反応有りの判定結果を入力し、その後の前記顔面動きの大きさと予め設定された第2のしきい値とを比較し、顔面動きOKを判定して前記顔面動きOKの判定結果を出力し、前記二次情動反応判定手段が、前記動き判定手段により出力された顔面動きOKの判定結果を入力し、その後の前記顔面動きの大きさと予め設定された第3−1のしきい値とを比較し、前記顔面動きの大きさが前記しきい値以下となる時間が所定時間以上であり、かつ、前記生理反応データと予め設定された第3−2のしきい値とを比較し、二次情動反応有りを判定して前記二次情動反応有りの判定結果を出力する、ことを特徴とする。
また、本発明による情動分析装置は、前記利用者の顔面動きデータを、前記利用者の顔面の動きを捉える加速度センサからのデータを用いて得られた顔面動きデータとする、ことを特徴とする。
また、本発明による情動分析装置は、前記一次情動反応判定手段により情動反応を判定したときの前記生理反応データに基づいて、前記一次情動反応の程度を表す数値データを出力し、前記二次情動反応判定手段により情動反応を判定したときの前記生理反応データに基づいて、前記二次情動反応の程度を表す数値データを出力する手段、を備えたことを特徴とする。
また、本発明による情動分析装置は、前記一次情動反応及び二次情動反応におけるそれぞれの情動の程度を表す数値データに基づいて一次・二次総合情動を表す数値データを算出して外部の制御機器へ出力し、前記一次・二次総合情動を表す数値に基づいて外部の制御機器を動作させる、ことを特徴とする。
また、本発明による情動分析装置は、前記視野映像が視野映像撮影用カメラにより撮影され、前記眼球画像が眼球撮影用カメラにより撮影され、前記視野映像撮影用カメラ及び眼球撮影用カメラが、利用者が装着している眼鏡または帽子に設けられている、ことを特徴とする。
また、本発明による情動分析装置は、前記利用者から離れた箇所から前記利用者を撮影するための顔面撮影用カメラが設けられ、前記利用者の顔面動きデータを、前記顔面撮影用カメラが撮影した顔面映像から得られた顔面動きデータとする、ことを特徴とする。
以上のように、本発明によれば、利用者が視認する対象物への情動を、一次情動反応及び二次情動反応として捉え、対象物に対する興味・関心を判定するようにした。これにより、一次情動のみに基づく判定よりも、対象物に対する興味・関心を精度高く判定することが可能となる。
本発明の第1の実施形態(実施例1)による情動分析装置の構成を示すブロック図である。 対象物に興味・関心を持つ場合の視認過程を示す図である。 図2の視認過程を説明するための全体の視野映像の例を示す図である。 フェーズ1,2,3の視野映像の例を示す図である。 一次・二次情動反応解析制御部による処理を示すフローチャートである。 実施例1によるフェーズ1の一次情動反応判定処理を示すフローチャートである。 実施例1によるフェーズ2の動き判定処理を示すフローチャートである。 実施例1によるフェーズ3の二次情動反応判定処理を示すフローチャートである。 実施例1による対象物同定処理を示すフローチャートである。 視点・瞳孔径解析部により視点を算出する処理を説明する図である。 フェーズ1〜3における情動反応E(t)の変化を示すグラフである。 実施例1によるフェーズ1〜3の処理を説明する図である。 本発明の第2の実施形態(実施例2)による情動分析装置の構成を示すブロック図である。 実施例2によるフェーズ1の一次情動反応判定処理を示すフローチャートである。 実施例2によるフェーズ2の動き判定処理を示すフローチャートである。 実施例2によるフェーズ3の二次情動反応判定処理を示すフローチャートである。 実施例2による対象物同定処理を示すフローチャートである。 本発明の第3の実施形態(実施例3)による情動分析装置の構成を示すブロック図である。 本発明の第4の実施形態(実施例4)による情動分析装置の構成を示すブロック図である。 本発明の第6の実施形態(実施例6)による情動分析装置の構成を示すブロック図である。 実施例6によるフェーズ1の一次情動反応判定処理を示すフローチャートである。 実施例6によるフェーズ3の二次情動反応判定処理を示すフローチャートである。 本発明の第7の実施形態(実施例7)による情動分析装置の構成を示すブロック図である。 情動反応データ処理部により表示される画面の例を示す図である。 本発明の第1〜7の実施形態による情動分析装置のハードウェア構成を示す概略図である。 一次・二次情動反応解析制御部の構成を示す図である。
以下、本発明を実施するための形態について、図面を参照して説明する。以下に示す実施例1において、情動が分析される利用者は眼鏡を装着しており、その眼鏡には、利用者の眼球を撮影する眼球撮影用カメラ、及びその利用者が視認できる対象物及び背景等の情景を撮影する視野映像撮影用カメラが設けられている。また、利用者は情動分析装置を装着しており、その情動分析装置は、眼鏡に設けられた眼球撮影用カメラにより撮影された眼球画像、及び視野映像撮影用カメラにより撮影された視野映像をそれぞれ入力し、眼球画像に基づいて情動反応E(t)を算出し、一次情動反応及び二次情動反応の判定等を行って情動反応データを算出するための各種処理を行う。
また、実施例2において、利用者は、視野映像撮影用カメラが設けられた眼鏡、及び情動分析装置を装着している。情動分析装置は、視野映像撮影用カメラにより撮影された視野映像を入力し、一次情動反応及び二次情動反応の判定等を行って情動反応データを算出するための各種処理を行う。尚、視野映像が眼鏡に備えた記憶媒体に格納される場合は、情動分析装置は、その記憶媒体から視野映像を読み出して、各種処理を行うようにしてもよい。この場合、情動分析装置は利用者に装着されていない。
また、実施例3において、利用者は、眼球撮影用カメラ及び視野映像撮影用カメラが設けられた眼鏡、及び情動分析装置を装着している。情動分析装置は、眼球撮影用カメラにより撮影された眼球画像、加速度センサデータ、及び視野映像撮影用カメラにより撮影された視野映像を入力する。そして、眼球画像に基づいて情動反応E(t)を算出し、一次情動反応及び二次情動反応の判定等を行って情動反応データを算出するための各種処理を行う。
また、実施例4において、利用者は、視野映像撮影用カメラが設けられた眼鏡、及び情動分析装置を装着している。情動分析装置は、加速度センサデータ、及び視野映像撮影用カメラにより撮影された視野映像を入力し、一次情動反応及び二次情動反応の判定等を行って情動反応データを算出するための各種処理を行う。
また、実施例5において、利用者は、眼球撮影用カメラ及び視野映像撮影用カメラが設けられた眼鏡、及び情動分析装置を装着している。情動分析装置は、眼球撮影用カメラにより撮影された眼球画像から得られる視点の停留時間に基づいて、一次情動反応及び二次情動反応の判定等を行って情動反応データを算出するための各種処理を行う。
また、実施例6において、利用者は、視野映像撮影用カメラが設けられた眼鏡、及び情動分析装置を装着している。情動分析装置は、生理反応データ、及び視野映像撮影用カメラにより撮影された視野映像を入力し、生理反応データに基づいて情動反応E(t)を算出し、一次情動反応及び二次情動反応の判定等を行って情動反応データを算出するための各種処理を行う。
また、実施例7において、利用者は、視野映像撮影用カメラが設けられた眼鏡、及び情動分析装置を装着している。情動分析装置は、生理反応データ、加速度センサデータ、及び視野映像撮影用カメラにより撮影された視野映像を入力し、生理反応データに基づいて情動反応E(t)を算出し、一次情動反応及び二次情動反応の判定等を行って情動反応データを算出するための各種処理を行う。
尚、眼球画像及び/または視野映像が眼鏡に備えた記憶媒体、または眼鏡に接続された記憶媒体に格納される場合は、情動分析装置は、その記憶媒体から眼球画像及び/または視野映像を読み出して、各種処理を行うようにしてもよい。さらに、眼球画像及び/または視野映像が各カメラから無線または有線の通信回線を通じて情動分析装置へ送り込まれる場合についても、情動分析装置は各種処理を行う。これらの場合、情動分析装置は利用者に装着されていない。加速度センサデータ及び/または生理反応データが記憶媒体に格納される場合や、無線または有線の通信回線を通じて送り込まれる場合についても同様である。以下、実施例1〜7についてそれぞれ説明する。
〔実施例1/構成〕
まず、本発明の第1の実施形態(実施例1)について説明する。図25は、実施例1の情動分析装置のハードウェア構成を示す図である。尚、後述する実施例2〜7の情動分析装置2〜7のハードウェア構成も、図25に示すものと同様である。図25を参照して、この情動分析装置1は、CPU(Central Processing Unit)101と、各種プログラムやテーブル等を記憶するROM及びRAMからなる記憶部102と、各種アプリケーションのプログラムやデータ等を記憶する記憶装置(ハードディスク装置)103と、無線または有線の通信回線を通じてデータの送受信を行う通信部104と、眼球撮影用カメラにより撮影された眼球画像、視野映像撮影用カメラにより撮影された視野映像、その他のセンサ(例えば実施例3では加速度センサ)により計測されたデータを入力するインターフェース部105と、利用者による数字キー、電源キー等のボタンキーの操作に伴い、所定のデータを入力制御する操作・入力部106、液晶ディスプレイ、有機ELディスプレイ等により実現され、利用者が情動分析装置1を操作するための画面等の各種情報を表示する表示部107と、充電可能な電池を備え、情動分析装置1として機能させるための電源を供給する電源部108とを備えて構成され、これらの各構成要素はシステムバス109を介して相互に接続される。また、CPU101及び記憶部102により制御部100が構成される。
記憶部102には、情動分析装置1の基本的な機能を提供するためのOS(オペレーティングシステム)プログラム、通信部104を介して外部の端末装置、サーバ等との間で通信を行う通信プログラム、後述する視点・瞳孔径解析処理、視野映像画像処理・顔面動き推定処理、一次・二次情動反応解析処理(一次情動反応判定処理、二次情動反応/動き判定処理、二次情動反応判定処理及び対象物同定処理)、情動反応データ処理を行う情動分析プログラム等が記憶されている。尚、この情動分析プログラムは、通常は記憶装置103に記憶されており、情動分析装置1が前記処理を行うときに、CPU101により記憶装置103から記憶部102のRAMに読み出されて実行される。
ここで、OSプログラムは、記憶部102のROMに記憶されており、CPU101によって読み出されて実行されることにより、情動分析装置1の基本的な機能として、記憶部102、記憶装置103、通信部104、インターフェース部105、操作・入力部106、表示部107及び電源部108を管理する。そして、このOSプログラムがCPU101によって実行された状態で、前述の通信プログラム、情動分析プログラム等が実行される。
制御部100は、前述のようにCPU101及び記憶部102から構成され、CPU101が記憶部102または記憶装置103に記憶された各種プログラムを読み出して実行することにより、情動分析装置1全体を統括制御する。このように、情動分析装置1は、図25に示したハードウェア構成により、制御部100が情動分析プログラムに従って各種処理を行う。
図1は、実施例1による情動分析装置の構成を示すブロック図であり、制御部100が情動分析プログラムにより処理を実行する際の機能構成を示している。この情動分析装置1は、視点・瞳孔径解析部11、視野映像画像処理・顔面動き推定部12、一次・二次情動反応解析制御部13及び情動反応データ処理部14を備えている。
視点・瞳孔径解析部11は、眼鏡に設けられた眼球撮影用カメラが撮影した利用者の眼球画像を入力し、その眼球画像を解析することにより、後述する視野映像を平面としたときの視点(視野映像における視点の位置座標)及び瞳孔径を算出し、視点及び瞳孔径を一次・二次情動反応解析制御部13に出力する。
図10は、視点・瞳孔径解析部11により視点を算出する処理を説明する図である。図10において、視線と視野映像の撮像面(情景が仮想的に投影されて撮像対象となる面)との交差点(s,u)は、Lを眼球と撮像面との間の距離とし、θをx方向(横方向)の偏移角とし、δをy方向(縦方向)の偏移角とすると、s=Ltanθ,u=Ltanδとなる。視点・瞳孔径解析部11は、入力した眼球画像に基づいて瞳孔の輪郭や中心等を算出し、交差点(s,u)を視点として算出すると共に、瞳孔径を算出する。ここで、両眼球間の距離はLに対して十分に小さく無視できるものとしている。
尚、眼球画像の解析手法についは既知であり、例えば、前述した特許文献1,2及び非特許文献1に記載されている手法を用いる。具体的に説明すると、例えば、視点・瞳孔径解析部11は、視野映像と眼球画像との間のマッチングを示すためのキャリブレーションデータを予め取得しておき、そのキャリブレーションデータを用いて画像位置から視線方向の変換を行う。キャリブレーションデータは、上下左右に移動する視点位置と、それを追って見る視線方向(偏移角)との対応を示すデータである。まず、視点・瞳孔径解析部11は、眼球画像の1フレーム単位に対し2値化処理を施し、眼球画像の中の眼球の周りに設定された計測用ウィンドウ内の瞳孔部分の面積を求める。計測用ウィンドウは、初期フレームのみに対し、手動により予め設定される。また、視点・瞳孔径解析部11は、例えばテンプレートマッチングにより瞳孔に外接する円を抽出し、円の径と瞳孔の中心位置(x,y)を求め、前記キャリブレーションデータを用いて、その中心の水平方向及び垂直方向の各位置を視点位置に変換する。そして、次のフレームを読み込み、そのフレームの眼球中心に合わせて計測用ウィンドウを移動させた後、上記処理を最終フレームまで繰り返す。このようにして、視点・瞳孔径解析部11は、眼球画像を解析することにより、視点(視野映像における視点の位置座標)及び瞳孔径を算出する。
図1に戻って、視野映像画像処理・顔面動き推定部12は、眼鏡に設けられた視野映像撮影用カメラが撮影した利用者の視野映像を入力し、視野映像画像処理及び顔面動き推定処理を行い、視野映像及び顔面動きデータ(以下、単に「顔面動き」という。)を一次・二次情動反応解析制御部13に出力する。ここで、顔面動きは、首振りまたは身体移動に伴う動作をいい、顔面の動きの大きさ及び向きのデータからなる。視野映像画像処理は、入力した視野映像に対して所定の解像度の視野映像を生成する処理、及び、顔面動き推定処理を行うために必要な視野映像に対する処理をいう。また、顔面動き推定処理は、グローバル動き推定により顔面の動き量を得るための処理をいう。
以下、グローバル動き推定について簡単に説明する。グローバル動き推定とは、視野映像における基準フレームと任意のフレームとを比較し、基準フレームに対する任意のフレームのグローバルモーション(カメラモーション等の一組のパラメータで画像全体を表す動き、大局的な動き、カメラ操作に起因する画面全体の動き)を算出することをいう。例えば、カメラモーションには、カメラを左右に振るパン、上下に振るチルト、画像を拡大したり縮小したりするズーム、カメラの位置を変えるドリー及びブーム等があり、これらのパラメータを算出することにより、グローバルモーションを推定する。
グローバルモーションは、視野映像が2次元平面の写像によって得られるものと仮定した場合に、2次元行列の線形変換パラメータで置き換えた変換行列で表すことができる。具体的には、基準フレームの座標系(x0,y0)から任意のフレームの座標系(x1,y1)へのグローバルモーションを示す座標変換は、a,b,c,dをパラメータとすると、以下の式により表すことができる。ここで、a,bは拡大・縮小・回転を複合したパラメータであり、c,dは平行移動速度を示すパラメータである。具体的には、cは、平行移動速度における水平成分を示すパラメータであり、dは、平行移動速度における垂直成分を示すパラメータである。
Figure 0005225870
尚、グローバル動き推定手法は既知であるから、ここでは詳細な説明は省略する。詳細については、非特許文献3及び特許文献3の段落59を参照されたい。このようなグローバル動き推定によって、視野映像のグローバルモーションが算出される。算出される視野映像のグローバルモーションは、視野映像用撮影カメラの動きであり、そのうちカメラ本体の3次元空間での動きのパラメータが、カメラが設けられた眼鏡を装着している利用者の顔面の動きに対応する。視野映像画像処理・顔面動き推定部12は、グローバル動き推定によりグローバルモーションを算出し、グローバルモーションのうち平行移動量成分を顔面動きの推定近似ベクトルとして出力する。平行移動量成分(平行移動速度の成分)は以下のとおりである。
Figure 0005225870
このとき、基準フレームより過去に撮像したフレームに対するグローバルモーションの平行移動量成分(平行移動速度の成分:前記式(2))が、後述する顔面動きベクトルVに対応する。このように、視野映像画像処理・顔面動き推定部12は、視野映像から顔面動き(顔面動きベクトルV)を算出する。
また、視点・瞳孔径解析部11及び視野映像画像処理・顔面動き推定部12は、視点、瞳孔径、視野映像及び顔面動きについて時間的な対応付けを行い、それぞれ同期したデータとして出力する。すなわち、視点・瞳孔径解析部11は、視野映像画像処理・顔面動き推定部12が出力する視野映像の画面毎の視点及び瞳孔径を出力し、視野映像画像処理・顔面動き推定部12は、視野映像、及びこの視野映像と時間的に対応付けた顔面動きを出力する。
一次・二次情動反応解析制御部13は、視点・瞳孔径解析部11から視点及び瞳孔径を入力すると共に、視野映像画像処理・顔面動き推定部12から視野映像及び顔面動きを入力し、一次情動反応判定処理、動き判定処理を含む二次情動反応判定処理、及び対象物同定処理を行い、利用者が興味・関心を持った対象物についての情動反応データ(例えば、一次情動反応判定処理及び二次情動反応判定処理において処理対象となった全てのデータ)を情動反応データ処理部14に出力する。
情動反応データ処理部14は、一次・二次情動反応解析制御部13から情動反応データを入力し、用途に応じて情動反応データを加工し、対象物に対する評価情報を生成して利用者へ提示したり、生成した評価情報をマーケティング情報として事業者へ提示したりする。情動反応データ処理部14により生成された評価情報は、例えば通信回線を介して送信される。また、情動反応データ処理部14は、入力した情動反応データ及び生成した評価情報を、図示しない表示器に表示する。
〔興味・関心を持つ場合の視認過程〕
次に、人が対象物に興味・関心を持つ場合の視認過程について説明する。図2は、その視認過程を示す図である。本発明者らは、鋭意検討を重ねて研究を行った結果、人が対象物に興味・関心を持つ場合の視認過程が、図2に示すように、興味・関心を引く対象物が利用者の目に入るフェーズ1と、フェーズ1からフェーズ3への移行期間であるフェーズ2と、利用者の顔面が対象物に正対し凝視するフェーズ3からなることを見出した。
フェーズ1は、顔面の動きが小さくほぼ静止しており、視線方向が視野映像内の中央部以外の部分にあり、瞳孔が拡大する過程である。これらの条件を満たす場合、対象物に対して一次情動反応が有るものとする。
フェーズ2は、顔面の動きがフェーズ1の視線方向へ向かう動きであり、視線方向が対象物を見続ける方向であって、徐々に視野映像の中央へ向かい、顔面の動きと相対的に逆方向へ移動し、瞳孔がフェーズ1と同様に拡大した状態、または若干狭まる過程である。これらの条件を満たす場合、対象物に対して動き判定OK(一次情動から二次情動への動きがOK)であるとする。
フェーズ3は、顔面の動きが小さくほぼ静止しており、視線方向が視野映像の中央付近にあり、瞳孔が再度拡大して時間の経過と共に縮小する過程である。これらの条件を満たし、かつフェーズ2の条件を満たす場合、対象物に対して二次情動反応が有るものとする。
これらのフェーズ1〜3について、具体的な視野映像の例を用いて詳細に説明する。図3は、図2の視認過程を説明するための全体の視野映像の例を示す図であり、図4は、図3に示した全体の視野映像において、フェーズ1,2,3の視野映像の例を示す図である。図3及び図4において、D1はフェーズ1の視野映像を、D2はフェーズ2の視野映像を、D3はフェーズ3の視野映像をそれぞれ示す。また、C1はフェーズ1における利用者の視点を、C2はフェーズ2における視点を、C3はフェーズ3における視点をそれぞれ示す。
フェーズ1では、利用者の視点が様々な箇所に移動して定まらない状態において、興味・関心を持つ可能性のある対象物を発見すると、瞳孔径が拡大する。このときの顔面動きはない。そして、フェーズ2にて顔面を動かすきっかけとなる対象物が特定され、これを一次情動反応として捉えることができる。また、このときの視点C1から、対象物の中で一次情動反応を示した部位を判別することができる。図4の視野映像D1では、視点C1の位置から、利用者は、対象物である動物の耳の部位に注目していることがわかる。
フェーズ2では、利用者は対象物を注視しながら顔面を動かし、フェーズ3へ移行して視野映像の中央で対象物を見ようとする。つまり、視野映像D2は、顔面の動きに伴って、フェーズ1の視野映像D1からフェーズ3の視野映像D3へ移行する途中の映像である。このフェーズ2では、前述したように、視野映像D2の動きをグローバル動き推定により算出し、顔面の動きを推定することができる。このときの視野映像D2の画面に対する視点C2の動き(視点の動き)の大きさと視野映像D2の動き(顔面動き)の大きさはほぼ同じであり、これらの動きの向きは概ね逆方向である。
フェーズ3では、顔面の動きは止まり、対象物は視野映像D3の中央に位置する。すなわち、利用者は、興味・関心を持った対象物を視野映像D3の中央で注視しようとし、視点は視野映像D3の中央付近に位置する対象物内で停留する。そして、視野映像D3の中央の対象物が特定され、これを二次情動反応として捉えることができる。また、このときの視点C3から、利用者が対象物をじっくり見て注目した部位を判別することができる。図4の視野映像D3では、視点C3の位置から、利用者は、対象物である動物の胴体の部位に注目していることがわかる。
図2、図3及び図4に示したように、このようなフェーズ1〜3の過程を経た場合に、利用者は、対象物である動物に対して興味・関心を持っているものと判定され、そして、最終的にその動物の胴体の部位に興味・関心を持っているものと判別される。
従来の判定手法では、フェーズ1における一次情動反応があったときに、利用者は対象物である動物に対して興味・関心を持っていると判定する。しかし、その直後に、フェーズ1の対象物から視線をそらしたり、その対象物以外の箇所を注視したりする場合は、フェーズ1の対象物に十分な興味・関心を持っているとは言えない。すなわち、従来の判定手法では、フェーズ1において興味・関心の有無を一義的に判定するから、その判定結果の信頼性は必ずしも高くない。そこで、本発明の実施形態の判定手法では、フェーズ1において一次情動反応を捉え、フェーズ2においてフェーズ3への動きを捉え、そして、フェーズ3において二次情動反応を捉えることによって、利用者は対象物に対して興味・関心を持っていると判定する。これにより、対象物に対する興味・関心の有無を精度高く判定することが可能となる。
〔実施例1/一次・二次情動反応解析制御部の処理〕
次に、図1に示した一次・二次情動反応解析制御部13の処理について説明する。一次・二次情動反応解析制御部13は、図2に示したフェーズ1〜3の条件を満たすか否かの判定処理を行う。図26は、一次・二次情動反応解析制御部13の構成を示す図である。図5は、一次・二次情動反応解析制御部13による処理を示すフローチャートである。図6は、実施例1によるフェーズ1の一次情動反応判定処理を示すフローチャートである。図7は、実施例1による二次情動反応判定処理に含まれる、フェーズ2の動き判定処理を示すフローチャートである。図8は、実施例1によるフェーズ3の二次情動反応判定処理を示すフローチャートである。図9は、実施例1による対象物同定処理を示すフローチャートである。図11は、フェーズ1〜3における情動反応E(t)の変化を示すグラフである。図12は、実施例1によるフェーズ1〜3の処理を説明する図である。図2に示した一連の条件を具体的な数式による処理として示したものが図6〜図8である。
図26を参照して、一次・二次情動反応解析制御部13は、制御手段130、記憶手段131、一次情動反応判定手段132、二次情動反応/動き判定手段133、二次情動反応判定手段134及び対象物同定手段135を備えている。
一次・二次情動反応解析制御部13の制御手段130は、全体の処理を通して、入力した視点、瞳孔径、視野映像及び顔面動きを、同期したデータとして時系列に記憶手段131に格納する。また、視点・瞳孔径解析部11から入力した瞳孔径に基づいて瞬時の情動反応E(t)を算出し、その情動反応E(t)の単位時間あたりの積分値を情動反応Eとして算出し、記憶手段131に格納する。図11に示すように、制御手段130によって、フェーズ1〜3において情動反応E(t)が算出される。ここで、情動反応E(t)は、瞳孔径をD(t)とし定数をaとすると、例えば、以下の式により表される。この場合、情動反応E(t)は、瞳孔径D(t)の拡大量に比例して大きくなる。
E(t)=a×{D(t)−Dmin}
ここで、Dminは利用者の瞳孔径の最小値を表している。また、aはDmaxを利用者の瞳孔径の最大値としたときに、例えば、
a=1/(Dmax−Dmin)
で算出し、個体差を取り除くこともできる。
また、制御手段130は、単位時間当たりの一次情動反応Eの積分値をEf、単位時間当たりの二次情動反応Eの積分値をEsとして、一次・二次の総合情動の程度を表す値Eallを以下のように算出し、記憶手段131に格納する。
Eall=Ef+w×Es
ここで、wは、二次情動反応に対する重み値であり、例えばw=10が用いられる。この場合、二次情動反応Eの積分値Esに対して10倍の重み付けがなされる。
制御手段130は、記憶手段131から視点、瞳孔径、視野映像、顔面動き、情動反応E、一次・二次総合情動の程度を表す値Eallを読み出し、情動反応データとして情動反応データ処理部14に出力する。この場合、一次・二次情動反応解析制御部13または情動反応データ処理部14は、ゲーム機器のような外部の制御機器や、オンライン投票システムのような制御システムへ情動反応データを出力するようにしてもよい。例えば、車の運転シミュレーションゲームを行うゲーム機器へ一次・二次総合情動の程度を表す値Eallが出力された場合、そのゲーム機器は、Eallの数値が、快適に運転できる人の心理状況を表す数値データであると仮定し、Eallの数値に応じて運転シミュレーション中の当該車の加速度に対応付けて、車の速度を変化させる。例えば、Eallの数値に比例する加速度によって速度を上昇させる。このように、一次・二次総合情動の程度を表す値Eallの数値によって、外部の制御機器やシステムを制御することができる。
図5を参照して、一次・二次情動反応解析制御部13の一次情動反応判定手段132は、フェーズ1において一次情動反応判定処理を行う(ステップS501)。そして、一次情動反応判定手段132により一次情動反応が有ると判定された場合に、二次情動反応/動き判定手段133は、フェーズ2において、二次情動反応判定処理の一部である、フェーズ1からフェーズ3への動き判定処理を行う(ステップS502)。そして、二次情動反応/動き判定手段133により動き判定OKであると判定された場合に、二次情動反応判定手段134は、フェーズ3において二次情動反応判定処理を行う(ステップS503)。そして、一次情動反応判定手段132により一次情動反応が有り、かつ、二次情動反応/動き判定手段133により動き判定OKであり、かつ、二次情動反応判定手段134により二次情動反応が有ると判定された場合に、対象物同定手段135は、フェーズ3において視野映像の画面中央付近に位置する対象物を同定する(ステップS504)。そして、制御手段130は、フェーズ1からフェーズ3までの対象物に対する視認行動を一次・二次情動反応過程の行動であるとして、その対象物に対して興味・関心を持っている(情動を示している)と判定する。
まず、図5に示したフェーズ1における一次情動反応判定処理について説明する。一次・二次情動反応解析制御部13の制御手段130は、一次・二次情動反応解析制御の開始に伴い、一次情動反応判定命令を一次情動反応判定手段132に出力する。図6を参照して、一次・二次情動反応解析制御部13の一次情動反応判定手段132は、制御手段130から一次情動反応判定命令を入力した場合、記憶手段131から視点、顔面動き(顔面動きベクトル)及び情動反応Eを読み出し、時間的に連続する隣り合う視点が一定の距離以下(例えば、視点移動の速さの大きさが毎秒5度以下に相当する距離以下であれば停留していると判定する。「福田忠彦、渡辺利夫共著、“ヒューマンスケープ−視覚の世界を探る”、日科技連(1995)、pp.106−109」を参照されたい。)となる複数の視点からその範囲内の重心座標を算出し、重心座標を視点停留点として扱う。そして、一次情動反応判定手段132は、読み出した顔面動きの大きさがしきい値以下の場合に、すなわち顔面動きが微小のフェーズ1において、視点停留点が所定範囲内に所定時間以上存在しているか否かを判定する(ステップS601)。視点停留点が所定範囲内に所定時間以上存在していると判定した場合(ステップS601:Y)、ステップS602へ移行し、視点停留点が所定範囲内に所定時間以上存在していないと判定した場合(ステップS601:N)、一次情動反応は無いと判定する(ステップS604)。
具体的には、視野映像の中心を原点としたときに、視点停留点のベクトルを
Figure 0005225870
とし(以下、ベクトルS1という。)、図12に示すように所定範囲をA1(x軸方向のしきい値をths1、y軸方向のしきい値をthu1とすると、原点0を中心としたx軸の幅2ths1、y軸の幅2thu1で囲まれる矩形範囲。)とすると、ベクトルS1が示す視点停留点が所定範囲A1内に存在する条件は、以下の式で表される。
|s1|≦ths1,|u1|≦thu1
この条件式は、図12のとおり、視野映像内の有効視野内に視点停留点が存在することを判定する。また、図11に示すように所定時間をthT1とし、視点停留が継続する時間をΔT1とすると、ベクトルS1が示す視点停留点がその近傍に停留する時間の条件は、以下の式で表される。
ΔT1≧thT1
そして、一次情動反応判定手段132は、フェーズ1終了直前の情動反応Eが所定値以上であるか否かを判定する(ステップS602)。フェーズ1が終了してフェーズ2が開始するタイミングは、入力した顔面動きの大きさがしきい値以下の場合の顔面動きが微小な状態から、顔面動きの大きさがしきい値を越える場合の顔面動きがある状態に変わる時点である。フェーズ1終了直前の情動反応Eが所定値以上であると判定した場合(ステップS602:Y)、一次情動反応は有ると判定し(ステップS603)、その直前の情動反応Eが所定値以上でないと判定した場合(ステップS602:N)、一次情動反応は無いと判定する(ステップS604)。
具体的には、図11に示すように、フェーズ1終了直前の時間thT1における単位時間当たりの情動反応EをE1とし、所定値をthE1とすると、その条件は、以下の式で表される。
E1≧thE1
一次情動反応判定手段132は、一次情動反応の判定結果、及び一次情動反応有りの判定結果のときの情動反応E1を制御手段130に出力する。制御手段130は、一次情動反応判定手段132から一次情動反応の判定結果、及び一次情動反応有りの判定結果のときの情動反応E1を入力し、これらを記憶手段131に格納すると共に、情動反応データとして情動反応データ処理部14に出力する。
このように、一次・二次情動反応解析制御部13の一次情動反応判定手段132は、顔面動きの微小なフェーズ1において、視点停留点が所定範囲内に所定時間以上存在しており、かつ、フェーズ1終了直前の情動反応Eが所定値以上である場合に、一次情動反応は有ると判定する。
次に、図5に示したフェーズ2における二次情動反応判定処理の一部である動き判定処理について説明する。一次・二次情動反応解析制御部13の制御手段130は、一次情動反応判定手段132から入力した一次情動反応の判定結果が一次情動反応有りの場合、二次情動反応/動き判定命令を二次情動反応/動き判定手段133に出力する。図7を参照して、一次・二次情動反応解析制御部13の二次情動反応/動き判定手段133は、制御手段130から二次情動反応/動き判定命令を入力した場合、記憶手段131から視点及び顔面動き(顔面動きベクトル)を読み出し、読み出した顔面動きの大きさがしきい値を越えるときに、すなわち顔面動きがあるフェーズ2において、以下の処理を行う。まず、読み出した視点に基づいて視点停留点を算出し、その視点停留点の移動量を算出する(ステップS701)。そして、二次情動反応/動き判定手段133は、それと同時に、入力した顔面動きに基づいて顔面の移動量(顔面動きの大きさ)を算出し(ステップS702)、視点停留点移動量及び顔面移動量から、移動量差分を算出する(ステップS703)。
そして、二次情動反応/動き判定手段133は、視点(視点停留点)の動きと顔面動きとが逆方向で、視点停留点移動量と顔面移動量との間の移動量差分が所定値以下であるか否かを判定する(ステップS704)。すなわち、視点の動きと顔面の動きとが逆方向であって、これらの動きがほぼ同じ大きさであるか否かを判定する。移動量差分が所定値以下であると判定した場合(ステップS704:Y)、ステップS705へ移行し、移動量差分が所定値以下でないと判定した場合(ステップS704:N)、動き判定NGと判定する(ステップS707)。
具体的には、図12に示すように、視点停留点動きベクトルを
Figure 0005225870
(以下、視点停留点動きベクトルSという。)とし、顔面動きベクトルを
Figure 0005225870
(以下、顔面動きベクトルVという。)とし、その移動量差分ベクトルを
Figure 0005225870
(以下、移動量差分ベクトルeという。)とすると、以下の式のように、視点の動きと顔面の動きとが逆方向であることが条件となる。
Figure 0005225870
ここで、顔面動きベクトルVは、フェーズ3視野映像の最初のフレームを基準フレームとして、フェーズ1視野映像の最終フレームのグローバルモーションから導いた顔面動きである。また、所定値をthとすると、移動量差分が所定値以下である条件は、以下の式で表される。
Figure 0005225870
そして、二次情動反応/動き判定手段133は、顔面移動量が所定値以下であるか否かを判定する(ステップS705)。すなわち、フェーズ1とフェーズ3の視野映像が重なる程度に顔面が動いているか否か、言い換えると、フェーズ2での顔面移動量が一定値以下であるか否かを判定する。例えば、顔面動きベクトルVが、視野映像の中心を原点としたときに視野映像を大きく外れる位置を指している場合は、フェーズ1に対象物が含まれていないことを意味する。この場合は、顔面移動量が所定値以下でないと判定され、動き判定NGとなる。
二次情動反応/動き判定手段133は、ステップS705において、顔面移動量が所定値以下であると判定した場合(ステップS705:Y)、動き判定OKと判定し(ステップS706)、顔面移動量が所定値以下でないと判定した場合(ステップS705:N)、動き判定NGと判定する(ステップS707)。
具体的には、所定値をthとすると、その条件は、以下の式で表される。
Figure 0005225870
二次情動反応/動き判定手段133は、二次情動反応/動き判定結果、及び二次情動反応/動き判定OKの判定結果のときの顔面動きベクトルV等の各種データを制御手段130に出力する。制御手段130は、二次情動反応/動き判定手段133から二次情動反応/動き判定結果、及び二次情動反応/動き判定結果が動き判定OKのときの顔面動きベクトルV等の各種データを入力し、これらを記憶手段131に格納すると共に、情動反応データとして情動反応データ処理部14に出力する。
このように、一次・二次情動反応解析制御部13の二次情動反応/動き判定手段133は、顔面動きのあるフェーズ2において、視点の動きと顔面動きとが逆方向で、視点停留点移動量と顔面移動量との間の移動量差分が所定値以下であり、すなわち、視点の動き及び顔面の動きが逆方向であって、これらの大きさがほぼ同じであり、かつ、顔面移動量が所定値以下である、すなわち、フェーズ2における顔面動きの量(顔面移動量)が大きくない場合に、フェーズ1から3への動きはOKである(動き判定OK)と判定する。
次に、図5に示したフェーズ3における二次情動反応判定処理について説明する。この二次情動反応判定処理は、図7に示した動き判定OKと判定された後に続く処理である。一次・二次情動反応解析制御部13の制御手段130は、二次情動反応/動き判定手段133から入力した二次情動反応/動き判定結果が動き判定OKの場合、二次情動反応判定命令を二次情動反応判定手段134に出力する。図8を参照して、一次・二次情動反応解析制御部13の二次情動反応判定手段134は、制御手段130から二次情動反応命令を入力した場合、記憶手段131から視点、顔面動き(顔面動きベクトル)及び情動反応Eを読み出し、読み出した顔面動きの大きさがしきい値以下のときに、すなわち顔面動きがないフェーズ3において、読み出した視点に基づいて算出した視点停留点が所定範囲内に所定時間以上存在しているか否かを判定する(ステップS801)。視点停留点が所定範囲内に所定時間以上存在していると判定した場合(ステップS801:Y)、ステップS802へ移行し、視点停留点が所定範囲内に所定時間以上存在していないと判定した場合(ステップS801:N)、二次情動反応は無いと判定する(ステップS804)。
具体的には、視野映像の中心を原点としたときに、視点停留点のベクトルを
Figure 0005225870
とし(以下、ベクトルS3という。)、図12に示すように所定範囲をA3(x軸方向のしきい値をths3、y軸方向のしきい値をthu3とすると、原点0を中心としたx軸の幅2ths3、y軸の幅2thu3で囲まれる矩形範囲。)とすると、ベクトルS3が示す視点停留点が所定範囲A3内に存在する条件は、以下の式で表される。
|s3|≦ths3,|u3|≦thu3
この条件式は、図12にあるとおり、視点停留点が原点0の近傍にあることを判定する。尚、この所定範囲A3を定めるしきい値ths3,thu3を0に近い値とすることにより、一層正確に二次情動反応の有無を判定することができる。
また、図11に示すように所定時間をthT3とし、視点停留が継続する時間をΔT3とすると、ベクトルS3が示す視点停留点がその近傍に停留する時間の条件は、以下の式で表される。
ΔT3≧thT3
そして、二次情動反応判定手段134は、視点停留時(フェーズ3開始直後)の情動反応Eが所定値以上であるか否かを判定する(ステップS802)。フェーズ2が終了してフェーズ3が開始するタイミングは、入力した顔面動きの大きさがしきい値を越える場合の顔面動きがある状態から、顔面動きの大きさがしきい値以下の場合の顔面動きがない状態に変わる時点である。その直後の情動反応Eが所定値以上であると判定した場合(ステップS802:Y)、二次情動反応は有ると判定し(ステップS803)、その直後の情動反応Eが所定値以上でないと判定した場合(ステップS802:N)、二次情動反応は無いと判定する(ステップS804)。
具体的には、図11に示すように、フェーズ3開始直後の時間thT3における単位時間当たりの情動反応EをE3とし、所定値をthE3とすると、その条件は、以下の式で表される。
E3≧thE3
二次情動反応判定手段134は、二次情動反応の判定結果、及び二次情動反応有りの判定結果のときの情動反応E3を制御手段130に出力する。制御手段130は、二次情動反応判定手段134から二次情動反応の判定結果、及び二次情動反応有りの判定結果のときの情動反応E3を入力し、これらを記憶手段131に格納すると共に、情動反応データとして情動反応データ処理部14に出力する。
このように、一次・二次情動反応解析制御部13の二次情動反応判定手段134は、顔面動きの微小なフェーズ3において、視点停留点が所定範囲内に所定時間以上存在しており、かつ、フェーズ3開始直後の情動反応Eが所定値以上である場合に、二次情動は有ると判定する。
次に、図5に示した対象物同定処理について説明する。一次・二次情動反応解析制御部13の制御手段130は、二次情動反応判定手段134から入力した二次情動反応判定結果が二次情動反応有りの場合、すなわち、一次情動反応有り及び二次情動反応有りの場合、対象物同定命令を対象物同定手段135に出力する。図9を参照して、一次・二次情動反応解析制御部13の対象物同定手段135は、制御手段130から対象物同定命令を入力した場合、記憶手段131から視点及び視野映像を読み出し、フェーズ3の初期(フェーズ3の開始直後)において、視点停留点の位置を含む対象物を抽出する(ステップS901)。
具体的には、フェーズ3が開始してから所定時間経過後であるフェーズ3の初期(フェーズ3の開始直後)において、そのときの視野映像の中心に近い視点停留点であるベクトルS3が示す位置を中心として、x軸方向及びy軸方向にそれぞれ±a,±aの矩形領域に含まれる対象物(画像)を、k平均法等の画面セグメンテーションによって抽出する。この場合、対象物には視点停留点が含まれる。
尚、対象物抽出手法は既知であり、例えば、非特許文献4のp358−361、特開2003−44860号公報、特開2002−352248号公報に記載されている手法を用いる。具体的に説明すると、例えば、対象物同定手段135は、記憶手段131から読み出した視野映像において、背景の平均色ベクトルをuとし、視野映像のある時点における座標(x,y)の色ベクトルをa(x,y,t)とすると、注目点の色ベクトルと背景平均色ベクトルuとの差があるしきい値θを越える場合に、その注目点は対象物内に存在し、越えない場合に、その注目点は対象物内に存在しないと判定する。この場合、視点停留点が対象物内に存在するから、視点停留点を中心とした所定の矩形領域を抽出対象領域として判定する。そして、対象物同定手段135は、対象物内に存在すると判定した注目点の集合を、対象物(画像)として抽出する。
対象物同定手段135は、フェーズ1の終期(フェーズ1の終了直前)において、ステップS903に示した視点停留点を基準にして、後述するベクトルで示される位置を含む複数の対象物(画像)を抽出する(ステップS902)。
具体的には、ステップS901に示したフェーズ3の初期の視点停留点であるベクトルS3を基準にして、以下のベクトルで示される座標を算出する。
Figure 0005225870
そして、フェーズ1の終了時点から所定時間前であるフェーズ1の終期(フェーズ1の終了直前)において、その座標の位置に対象物が存在すると仮定し、図示しない記憶部からそのときの視野映像を読み出し、その座標を中心としてx軸方向及びy軸方向にそれぞれ±b,±bの矩形領域に含まれる対象物を、ステップS901と同様の手法により抽出する。
対象物同定手段135は、ステップS901にて抽出したフェーズ3の対象物(画像)と、ステップS902にて抽出したフェーズ1の対象物(画像)との同一性を検査する(ステップS903)。すなわち、対象物同定手段135は、ステップS901にて抽出したフェーズ3の対象物と、ステップS902にて抽出したフェーズ1の対象物とが同一であるか否かを判定する(ステップS904)。両対象物が同一であると判定した場合(ステップS904:Y)、その対象物は同定した対象物として扱い(ステップS905)、両対象物が同一でないと判定した場合(ステップS904:N)、その対象物は同定した対象物として扱わない。この判定は、ステップS902において複数の対象物が抽出された場合、個々の対象物に対して行われる。
具体的には、ステップS902にて抽出したフェーズ1の対象物(画像)が、ステップS901にて抽出したフェーズ2の対象物(画像)の部分画像であると仮定し、それぞれの対象物(画像)をテンプレート画像としたときのテンプレート検索法または画面内オブジェクト追跡法等により、同一性を検査する。
尚、同一性検査手法は既知であり、例えば、非特許文献4のp561、特開2003−44860号公報、特開2002−352248号公報に記載されている手法を用いる。具体的に説明すると、例えば、対象物同定手段135は、ステップS902にて抽出したフェーズ1の複数の対象物(画像)を視野映像に基づいてそれぞれ変形させ、ステップS901におけるフェーズ2の抽出時点の対象物(画像)をそれぞれ予測する。つまり、対象物同定手段135は、視野映像のある時点tにおける座標(x,y)の画素値をa(x,y,t)とし、抽出された対象物(画像)の座標(x,y)の画素値をf(x,y,t)とし、予測する対象物(画像)の座標(x,y)の画素値をe(x,y,t)とし、f(x,y,t)及びe(x,y,t)を2値画像で表し、値が0のときその画素は対象物外に存在し、値が1のときその画素は対象物内に存在すると定義する。ここで、視野映像のある時点tのa(x,y,t)のある一点C(ξ,η)を中心とする半径Rの小領域を切り出し、これをブロックBとする。ブロックBを前時点のa(x,y,y−1)に重ね合わせ、ブロックBを水平・垂直に移動させて画素値のパターンが最も重なり合う場所を探索することにより、その時点tにおける点Cが前時点のどこにあったかを推定することができる。すなわち、点Cのある時点tから前時点t−1における移動ベクトル(u(ξ,η),v(ξ,η))を推定する。対象物(画像)は時間と共に動くので、前時点t−1の対象物(画像)をステップS902において抽出したフェーズ1の対象物(画像)の座標(x,y)のf(x,y,t−1)として処理を開始し、移動ベクトル(u(ξ,η),v(ξ,η))を算出することにより、現時点tの予測する対象物(画像)のe(x,y,t)を以下の式により推定する。
e(x,y,t)=f(x+u(x,y),y+v(x,y),t−1)
このようにして、対象物同定手段135は、ステップS902にて抽出したフェーズ1の対象物(画像)を視野映像に基づいて前記予測処理により変形させ、ステップS901におけるフェーズ2の抽出時点の対象物(画像)を予測する。この処理を、ステップS902にて抽出した複数の対象物(画像)について行い、予測対象物(画像)をそれぞれ得る。そして、これらの複数の予測対象物(画像)とステップS901にて抽出したフェーズ2の対象物(画像)との画素値のパターンをそれぞれ比較し、画素値のパターンが最も近似する対象物(画像)を予測対象物(画像)の中から抽出する。この抽出した対象物を同定した対象物とする。
このように、一次・二次情動反応解析制御部13の対象物同定手段135は、図6〜図8に示した処理により、フェーズ1からフェーズ3までの対象物に対する視認行動を一次・二次情動反応過程の行動であるとし、図9に示した処理により、同定した対象物に対して利用者はより強く興味・関心を持っている(情動を示している)ものと判定する。
そして、制御手段130は、記憶手段131からそれぞれの判定結果を読み出し、それぞれの判定結果が一次情動反応有り、二次情動反応/動き判定OK及び二次情動反応有りの場合に、対象物同定手段135により同定された対象物に対して情動を示していると判定し、一次情動反応判定処理、二次情動反応判定処理及び対象物同定処理において扱ったデータ及び算出したデータ、並びに同定した対象物等の各種データを、情動反応データとして情動反応データ処理部14に出力する。
〔実施例1/情動反応データ処理部の処理〕
次に、図1に示した情動反応データ処理部14の処理について説明する。情動反応データ処理部14は、前述したとおり、入力した情動反応データ及び生成した評価情報を表示器に表示する。図24は、情動反応データ処理部14により表示される画面の例を示す図である。
図24の上部の領域aは、情動反応E(t)を時系列に表示する領域である。情動反応データ処理部14は、一次・二次情動反応解析制御部13から入力した情動反応データのうちの情動反応E(t)を、時系列のグラフとして領域aに表示する。
図24の中央部は、パラメータを表示する領域であり、パラメータはオペレータにより入力される。ここでは、フェーズ1において視点停留点を判定するために用いるしきい値thT1及び情動反応を判定するために用いるしきい値thE1、フェーズ3において視点停留点を判定するために用いるしきい値thT3及び情動反応を判定するために用いるしきい値thE3が表示されている。情動反応データ処理部14は、オペレータによるスライダcを左右に移動させる操作に従って、スライダcの位置に応じたしきい値を算出し、その値を入力用窓dに表示する。オペレータによるしきい値入力操作があった場合は、そのしきい値を入力して入力用窓dに表示する。情動反応データ処理部14は、算出または入力したしきい値を、一次及び二次情動反応の判定のために一次・二次情動反応解析制御部13に出力する。
図24の下部は、一次及び二次情動反応の判定結果を表示する領域である。情動反応データ処理部14は、一次・二次情動反応解析制御部13から入力した情動反応データにより、一次情動反応有りが判定されたフェーズ1の時間領域、動き判定OKが判定されたフェーズ2の時間領域、および二次情動反応有りが判定されたフェーズ3の時間領域をそれぞれ特定する。そして、その時間領域を、時間領域b1,b2,b3等に示すように枠囲いして領域a内に表示し、それぞれの判定結果を、その時間領域内の視野映像のうちの代表的な画面のサムネイルと共に領域eに表示する。例えば、時間領域b1,b2,b3の番号1,2,3は、領域eにおけるNo.1,2,3にそれぞれ対応している。情動反応データ処理部14は、領域eに、一次情動反応有り、動き判定OK、二次情動反応有りの判定結果をレ点で表示し、総合情動値として、前述した一次・二次の総合情動の程度を表す値Eallを表示する。
尚、スライダcの移動操作または入力用窓dへの入力操作によるしきい値の変更に伴って、そのしきい値に基づいて判定した結果が領域eに更新され、時間領域b1,b2,b3等も更新される。また、領域aには、例えば、一次情動反応有りの場合に白色で、二次情動反応有りの場合に赤色で色分けして表示するようにしてもよい。色分けして表示することにより、情動反応の区分けを明確にすることができ、オペレータは認識しやすくなる。また、図24の中央に表示したパラメータは例示であり、情動分析装置1にて使用するパラメータが表示され、オペレータにより設定入力される。
このように、情動反応データ処理部14が図24に示すような表示を行うことにより、オペレータは、一次情動反応及び二次情動反応の判定結果、そのときの画像等の様々な情報を見ることができ、情動分析を容易かつ正確に行うことができる。
以上のように、実施例1による情動分析装置1によれば、視点・瞳孔径解析部11が眼球画像を解析して視点及び瞳孔径を算出し、視野映像画像処理・顔面動き推定部12が視野映像を解析して顔面動きを算出し、一次・二次情動反応解析制御部13が、フェーズ1において一次情動反応を判定し、フェーズ2及びフェーズ3においてフェーズ1からフェーズ3への動き判定を含む二次情動反応を判定し、そして、利用者が興味・関心を持っている対象物を同定するようにした。これにより、対象物に対する興味・関心の有無とその程度を精度高く判定することが可能となる。
〔実施例2/構成〕
次に、本発明の第2の実施形態(実施例2)について説明する。図13は、実施例2による情動分析装置の構成を示すブロック図であり、図25に示したハードウェア構成の下で制御部100が情動分析プログラムにより処理を実行する際の機能構成を示している。この情動分析装置2は、視野映像画像処理・顔面動き推定部22、一次・二次情動反応解析制御部23及び情動反応データ処理部24を備えている。
図1に示した実施例1の情動分析装置1と、図13に示す実施例2の情動分析装置2とを比較すると、両装置とも、入力した視野映像を解析して視野映像を出力すると共に、グローバル動き推定によりグローバルモーションを算出して顔面動きを出力する視野映像画像処理・顔面動き推定部12,22を備えている点で同一である。また、両装置とも、一次・二次情動反応解析制御部13,23から入力した情動反応データに基づいて、対象物に対する評価情報を生成して利用者または事業者へ提示する情動反応データ処理部14,24を備えている点で同一である。
一方、実施例1の情動分析装置1は、入力した視点、瞳孔径、視野映像及び顔面動きに基づいて情動反応を解析する一次・二次情動反応解析制御部13を備えているのに対し、実施例2の情動分析装置2は、視点及び瞳孔径を入力することなく、視野映像及び顔面動きに基づいて情動反応を解析する一次・二次情動反応解析制御部23を備えている点で相違する。
図13において、視野映像画像処理・顔面動き推定部22は、図1に示した視野映像画像処理・顔面動き推定部12と同様の処理を行い、情動反応データ処理部24も、図1に示した情動反応データ処理部14と同様に処理を行う。
一次・二次情動反応解析制御部23は、視野映像画像処理・顔面動き推定部22から視野映像及び顔面動きを入力し、一次情動反応判定処理、動き判定を含む二次情動反応判定処理及び対象物同定処理を行い、利用者が興味・関心を持った対象物についての情動反応データを情動反応データ処理部24に出力する。
〔実施例2/一次・二次情動反応解析制御部の処理〕
次に、図13に示した一次・二次情動反応解析制御部23の処理について説明する。一次・二次情動反応解析制御部23は、図2に示したフェーズ1〜3の条件(顔面の動きの条件)を満たすか否かの判定処理を行う。図14は、実施例2によるフェーズ1の一次情動反応判定処理を示すフローチャートである。図15は、実施例2による二次情動反応判定処理に含まれる、フェーズ2の動き判定処理を示すフローチャートである。図16は、実施例2によるフェーズ3の二次情動反応判定処理を示すフローチャートである。図17は、実施例2による対象物同定処理を示すフローチャートである。
一次・二次情動反応解析制御部23の制御手段130は、全体の処理を通して、入力した視野映像及び顔面動きを、同期したデータとして時系列に記憶手段131に格納する。また、制御手段130は、前述のとおり、情動反応E(t)、及び一次・二次の総合情動の程度を表す値Eallを算出し、記憶手段131に格納する。一次・二次情動反応解析制御部23は、図5に示したように、一次情動反応判定手段132がフェーズ1において一次情動反応判定処理を行い(ステップS501)、二次情動反応/動き判定手段133がフェーズ2において、二次情動反応判定処理に含まれるフェーズ1からフェーズ3への動き判定処理を行い(ステップS502)、二次情動反応判定手段134がフェーズ3において二次情動反応判定処理を行い(ステップS503)、対象物同定手段135がフェーズ3において視野映像の画面中央付近に位置する対象物を同定する(ステップS504)。
まず、フェーズ1における一次情動反応判定について説明する。一次・二次情動反応解析制御部23の制御手段130は、一次・二次情動反応解析制御の開始に伴い、一次情動反応判定命令を一次情動反応判定手段132に出力する。図14を参照して、一次・二次情動反応解析制御部23の一次情動反応判定手段132は、制御手段130から一次情動反応判定命令を入力した場合、記憶手段131から顔面動きを読み出し、読み出した顔面動きに基づいて顔面移動量を算出する(ステップS1401)。また、一次情動反応判定手段132は、顔面移動量が所定量以下となり、その時間が所定時間以上であるか否かを判定する(ステップS1402)。この場合の所定量はゼロに近い量である。顔面移動量が所定量以下となり、その時間が所定時間以上であると判定した場合(ステップS1402:Y)、一次情動反応は有ると判定する(ステップS1403)。顔面移動量が所定量以下となり、その時間が所定時間以上の場合は、利用者の視点が対象物に位置し、情動反応を示しているものと推定することができるからである。一方、顔面移動量が所定量以下でないと判定した場合、または、顔面移動量が所定量以下の時間が所定時間以上でないと判定した場合(ステップS1402:N)、一次情動反応は無いと判定する(ステップS1404)。
具体的には、顔面動きベクトルを
Figure 0005225870
とし、所定量をthV1とすると、顔面移動量が所定量以下となる条件は、以下の式で表される。
Figure 0005225870
また、顔面移動量が所定量以下である時間をΔT1とし、所定時間をthT1とすると、時間の条件は、以下の式で表される。
ΔT1≧thT1
一次情動反応判定手段132は、一次情動反応の判定結果、及び一次情動反応有りの判定結果のときの各種データを制御手段130に出力する。制御手段130は、一次情動反応判定手段132から一次情動反応の判定結果、及び一次情動反応有りの判定結果のときの各種データを入力し、これらを記憶手段131に格納すると共に、情動反応データとして情動反応データ処理部14に出力する。
このように、一次・二次情動反応解析制御部23の一次情動反応判定手段132は、フェーズ1において、顔面移動量が所定量以下である時間が所定時間以上の場合、利用者の視点が対象物に位置して情動反応を示していると推定し、一次情動反応は有ると判定する。
次に、フェーズ2における動き判定処理について説明する。一次・二次情動反応解析制御部23の制御手段130は、一次情動反応判定手段132から入力した一次情動反応の判定結果が一次情動反応有りの場合、二次情動反応/動き判定命令を二次情動反応/動き判定手段133に出力する。図15を参照して、一次・二次情動反応解析制御部23の二次情動反応/動き判定手段133は、制御手段130から二次情動反応/動き判定命令を入力した場合、記憶手段131から顔面動きを読み出し、読み出した顔面動きに基づいて顔面移動量を算出する(ステップS1501)。また、二次情動反応/動き判定手段133は、顔面移動量が所定量以下であるか否かを判定する(ステップS1502)。顔面移動量が所定量以下であると判定した場合(ステップS1502:Y)、動き判定OKと判定する(ステップS1503)。一方、顔面移動量が所定量以下でないと判定した場合(ステップS1502:N)、動き判定NGと判定する(ステップS1504)。
具体的には、顔面動きベクトルを
Figure 0005225870
とし、所定量をthとすると、顔面移動量が所定量以下となる条件は、以下の式で表される。
Figure 0005225870
二次情動反応/動き判定手段133は、二次情動反応/動き判定結果、及び二次情動反応/動き判定OKの判定結果のときの顔面動きベクトルV等の各種データを制御手段130に出力する。制御手段130は、二次情動反応/動き判定手段133から二次情動反応/動き判定結果、及び二次情動反応/動き判定結果が動き判定OKのときの顔面動きベクトルV等の各種データを入力し、これらを記憶手段131に格納すると共に、情動反応データとして情動反応データ処理部24に出力する。
このように、一次・二次情動反応解析制御部23の二次情動反応/動き判定手段133は、フェーズ2において、顔面移動量が所定量以下である場合、フェーズ1とフェーズ3の視野映像が重なる程度に顔面が動いていると推定し、フェーズ1から3への動きはOKである(動き判定OK)と判定する。
次に、フェーズ3における二次情動反応判定処理について説明する。この二次情動反応判定処理は、図15に示した動き判定OKと判定された後に続く処理である。一次・二次情動反応解析制御部23の制御手段130は、二次情動反応/動き判定手段133から入力した二次情動反応/動き判定結果が動き判定OKの場合、二次情動反応判定命令を二次情動反応判定手段134に出力する。図16を参照して、一次・二次情動反応解析制御部23の二次情動反応判定手段134は、制御手段130から二次情動反応命令を入力した場合、記憶手段131から顔面動きを読み出し、読み出した顔面動きに基づいて顔面移動量を算出する(ステップS1601)。また、二次情動反応判定手段134は、顔面移動量が所定量以下となり、その時間が所定時間以上であるか否かを判定する(ステップS1602)。この場合の所定量は、図14に示したステップS1402の所定量と同程度で小さい量(ゼロに近い量)である。顔面移動量が所定量以下となり、その時間が所定時間以上であると判定した場合(ステップS1602:Y)、二次情動反応は有ると判定する(ステップS1603)。顔面移動量が所定量以下であって、その時間が所定時間以上の場合は、利用者の視点が映像視野の中央付近の対象物に位置し、情動反応を示しているものと推定することができるからである。一方、顔面移動量が所定量以下でないと判定した場合、または、顔面移動量が所定量以下の時間が所定時間以上でないと判定した場合(ステップS1602:N)、二次情動反応は無いと判定する(ステップS1604)。
具体的には、顔面動きベクトルを
Figure 0005225870
とし、所定量をthV3とすると、顔面移動量が所定量以下となる条件は、以下の式で表される。
Figure 0005225870
また、顔面移動量が所定量以下である時間をΔT3とし、所定時間をthT3とすると、時間の条件は、以下の式で表される。
ΔT3≧thT3
二次情動反応判定手段134は、二次情動反応の判定結果、及び二次情動反応有りの判定結果のときの各種データを制御手段130に出力する。制御手段130は、二次情動反応判定手段134から二次情動反応の判定結果、及び二次情動反応有りの判定結果のときの各種データを入力し、これらを記憶手段131に格納すると共に、情動反応データとして情動反応データ処理部14に出力する。
このように、一次・二次情動反応解析制御部23の二次情動反応判定手段134は、フェーズ3において、顔面移動量が所定量以下である時間が所定時間以上の場合、利用者の視点が映像視野の中心付近の対象物に位置して情動反応を示していると推定し、二次情動反応は有ると判定する。
次に、対象物同定処理について説明する。一次・二次情動反応解析制御部23の制御手段130は、二次情動反応判定手段134から入力した二次情動反応判定結果が二次情動反応有りの場合、すなわち、一次情動反応有り及び二次情動反応有りの場合、対象物同定命令を対象物同定手段135に出力する。図17を参照して、一次・二次情動反応解析制御部23の対象物同定手段135は、制御手段130から対象物同定命令を入力した場合、記憶手段131から視野映像を読み出し、フェーズ3の初期(フェーズ3の開始直後)において、視野映像の中心の近い位置を含む対象物を抽出する(ステップS1701)。
具体的には、フェーズ3を開始してから所定時間経過後であるフェーズ3の初期(フェーズ3の開始直後)において、そのときの視野映像の中心に近い所定位置を中心として、x軸方向及びy軸方向にそれぞれ±a,±aの矩形領域に含まれる対象物(画像)を、k平均法等の画面セグメンテーションによって抽出する。この対象物抽出手法は実施例1と同様である。
対象物同定手段135は、フェーズ1の終期(フェーズ1の終了直前)の視野映像に含まれる対象物であって、ステップS1701で読み出した視野映像の中心に近い所定位置を始点にして、フェーズ1からフェーズ3までの間の顔面動きベクトルVで示される位置を含む複数の対象物(画像)を抽出する(ステップS1702)。
具体的には、フェーズ1からフェーズ3までの間の顔面動きベクトルを
Figure 0005225870
とすると、視野映像の中心に近い所定位置を始点にして、顔面動きベクトルで示される座標を算出する。フェーズ1の終了時点から所定時間前であるフェーズ1の終期(フェーズ1の終了直前)の視野映像において、前記算出した座標の位置に対象物が存在すると仮定する。つまり、図示しない記憶部からそのときの視野映像を読み出し、算出した座標の位置を中心としてx軸方向及びy軸方向にそれぞれ±b,±bの矩形領域に含まれる対象物を、ステップS1701と同様の手法により抽出する。
対象物同定手段135は、ステップS1701にて抽出したフェーズ3の対象物(画像)と、ステップS1702にて抽出したフェーズ1の対象物(画像)との同一性を、実施例1と同様の手法により検査する(ステップS1703)。
対象物同定手段135は、ステップS1701にて抽出したフェーズ3の対象物と、ステップS1702にて抽出したフェーズ1の対象物とが同一であるか否かを判定する(ステップS1704)。両対象物が同一であると判定した場合(ステップS1704:Y)、その対象物は同定した対象物として扱い(ステップS1705)、両対象物が同一でないと判定した場合(ステップS1704:N)、その対象物は同定した対象物として扱わない。この判定は、ステップS1702において複数の対象物が抽出された場合、個々の対象物に対して行われる。
このように、一次・二次情動反応解析制御部23の対象物同定手段135は、図14〜図16に示した処理により、フェーズ1からフェーズ3までの対象物に対する視認行動を一次・二次情動反応過程の行動であるとし、図17に示した処理により、同定した対象物に対して利用者はより強く興味・関心を持っているものと判定する。
そして、制御手段130は、記憶手段131からそれぞれの判定結果を読み出し、それぞれの判定結果が一次情動反応有り、二次情動反応/動き判定OK及び二次情動反応有りの場合に、対象物同定手段135により同定された対象物に対して情動を示していると判定し、一次情動反応判定処理、二次情動反応判定処理及び対象物同定処理において扱ったデータ及び算出したデータ、並びに同定した対象物等の各種データを、情動反応データとして出力する。
以上のように、実施例2による情動分析装置2によれば、視野映像画像処理・顔面動き推定部22が視野映像を解析して顔面動きを算出し、一次・二次情動反応解析制御部23が、顔面動きに基づいて、フェーズ1において一次情動反応を判定し、フェーズ2及びフェーズ3において、フェーズ1からフェーズ3への動き判定を含む二次情動反応を判定し、そして、利用者が興味・関心を持っている対象物を同定するようにした。これにより、対象物に対する興味・関心の有無を精度高く判定することが可能となる。
〔実施例3〕
次に、本発明の第3の実施形態(実施例3)について説明する。図18は、実施例3による情動分析装置の構成を示すブロック図であり、図25に示したハードウェア構成の下で制御部100が情動分析プログラムにより処理を実行する際の機能構成を示している。この情動分析装置3は、視点・瞳孔径解析部31、顔面動き解析部32、視野映像画像処理部33、一次・二次情動反応解析制御部34及び情動反応データ処理部35を備えている。
図1に示した実施例1の情動分析装置1と、図18に示す実施例3の情動分析装置3とを比較すると、両装置とも、入力した眼球画像を解析し、視点及び瞳孔径を出力する視点・瞳孔径解析部11,31、視点、瞳孔径、顔面動き及び視野映像を入力して一次及び二次情動反応を解析する一次・二次情動反応解析制御部13,34、及び、一次・二次情動反応解析制御部13,34から入力した情動反応データに基づいて、対象物に対する評価情報を生成して利用者または事業者へ提示する情動反応データ処理部14,35を備えている点で同一である。
一方、実施例1の情動分析装置1は、入力した視野映像を解析して顔面動きを生成する視野映像画像処理・顔面動き推定部12を備えているのに対し、実施例3の情動分析装置3は、加速度センサデータを入力して解析し、顔面動きを生成する顔面動き解析部32を備えている点で相違する。
図18において、視点・瞳孔径解析部31は、図1に示した視点・瞳孔径解析部11と同様の処理を行い、視野映像画像処理部33は、図1に示した視野映像画像処理・顔面動き推定部12の処理のうち、視野映像を解析して所定の解像度の視野映像を生成する処理を行う。また、一次・二次情動反応解析制御部34は、図1に示した一次・二次情動反応解析制御部13と同様の処理を行い、情動反応データ処理部35は、図1に示した情動反応データ処理部14と同様の処理を行う。
顔面動き解析部32は、眼鏡に設けられた加速度センサから加速度センサデータを入力し、加速度センサデータを解析することにより利用者の顔面動き(顔面動きベクトル)を生成し、顔面動きを一次・二次情動反応解析制御部34に出力する。具体的には、眼鏡に設けられた加速度センサは、利用者の顔面動きを捉え、x,y,z方向の加速度センサデータを顔面動き解析部32に出力する。顔面動き解析部32は、加速度センサにより計測されたx,y,z方向の加速度センサデータを解析することにより、利用者の顔面の動き(顔面動きベクトルV)を特定することができる。すなわち、加速度センサは、縦、横及び高さの3方向の加速度を測定する3軸対応のデバイスの場合、物体に加わる3次元空間のあらゆる方向の加速度を測定する。顔面動き解析部32は、加速度センサから各方向の加速度を入力し、時間方向にそれぞれ積分することにより、x,y,z方向の速度成分を得る。そして、これらの3つの速度成分からなるベクトルを視野映像の撮像面に射影することによって、視野映像面上での平行移動速度を示すパラメータc,d(cは視野映像面上における平行移動速度の水平成分、dは垂直成分にそれぞれ対応する)からなる顔面動きベクトルを算出する。そして、顔面動き解析部32は、顔面動き(顔面動きベクトル)を一次・二次情動反応解析制御部34に出力する。尚、加速度センサからのx,y,z方向の加速度センサデータに基づいて、移動速度、移動距離、移動方向等の動き情報を生成する手法については既知である。詳細については、例えば特開2006−320566号公報を参照されたい。
また、視点・瞳孔径解析部31、顔面動き解析部32及び視野映像画像処理部33は、視点、瞳孔径、顔面動き及び視野映像について時間的な対応付けを行い、それぞれ同期したデータとして出力する。すなわち、視点・瞳孔径解析部31は、視野映像画像処理部33が出力する視野映像の画面毎の視点及び瞳孔径を出力し、顔面動き解析部32は、視野映像と時間的に対応付けた顔面動きを出力する。
以上のように、実施例3による情動分析装置3によれば、視点・瞳孔径解析部31が眼球画像を解析して視点及び瞳孔径を算出し、顔面動き解析部32が加速度センサデータを解析して顔面動きを算出し、視野映像画像処理部33が、視野映像を解析して所定の解像度の視野映像を生成し、一次・二次情動反応解析制御部34が、フェーズ1において一次情動反応を判定し、フェーズ2及びフェーズ3において、フェーズ1からフェーズ3への動き判定を含む二次情動反応を判定し、そして、利用者が興味・関心を持っている対象物を同定するようにした。これにより、対象物に対する興味・関心の有無とその程度を精度高く判定することが可能となる。
〔実施例4〕
次に、本発明の第4の実施形態(実施例4)について説明する。図19は、実施例4による情動分析装置の構成を示すブロック図であり、図25に示したハードウェア構成の下で制御部100が情動分析プログラムにより処理を実行する際の機能構成を示している。この情動分析装置4は、顔面動き解析部42、視野映像画像処理部43、一次・二次情動反応解析制御部44及び情動反応データ処理部45を備えている。
図13に示した実施例2の情動分析装置2と、図19に示す実施例4の情動分析装置4とを比較すると、両装置とも、顔面動き及び視野映像を入力して一次及び二次情動反応を解析する一次・二次情動反応解析制御部23,44、及び、一次・二次情動反応解析制御部23,44から入力した情動反応データに基づいて、対象物に対する評価情報を生成して利用者または事業者へ提示する情動反応データ処理部24,45を備えている点で同一である。
一方、実施例2の情動分析装置2は、入力した視野映像を解析して顔面動きを生成する視野映像画像処理・顔面動き推定部22を備えているのに対し、実施例4の情動分析装置4は、加速度センサデータを入力して解析し、顔面動きを生成する顔面動き解析部42を備えている点で相違する。
図19において、視野映像画像処理部43は、図13に示した視野映像画像処理・顔面動き推定部22の処理のうち、視野映像を解析して所定の解像度の視野映像を生成する処理を行う。また、一次・二次情動反応解析制御部44は、図13に示した一次・二次情動反応解析制御部23と同様の処理を行い、情動反応データ処理部45は、図13に示した情動反応データ処理部24と同様の処理を行う。また、顔面動き解析部42は、図18に示した実施例3の顔面動き解析部32と同様の処理を行う。
顔面動き解析部42及び視野映像画像処理部43は、顔面動き及び視野映像について時間的な対応付けを行い、それぞれ同期したデータとして出力する。すなわち、顔面動き解析部42は、視野映像画像処理部43が出力する視野映像と時間的に対応付けた顔面動きを出力する。
以上のように、実施例4による情動分析装置4によれば、顔面動き解析部42が加速度センサデータを解析して顔面動きを算出し、視野映像画像処理部43が、視野映像を解析して所定の解像度の視野映像を生成し、一次・二次情動反応解析制御部44が、顔面動きに基づいて、フェーズ1において一次情動を判定し、フェーズ2及びフェーズ3において、フェーズ1からフェーズ3への動き判定を含む二次情動を判定し、そして、利用者が興味・関心を持っている対象物を同定するようにした。これにより、対象物に対する興味・関心の有無を精度高く判定することが可能となる。
〔実施例5〕
次に、本発明の第5の実施形態(実施例5)について説明する。実施例5は実施例1または実施例3の変形例であり、情動分析装置5の構成は、実施例1または実施例3と同様である。
実施例5の情動分析装置5において、一次・二次情動反応解析制御部13,34は、図5〜図9に示した処理を行うが、これらの処理のうち、図6に示したステップS602及び図8に示したステップS802の処理は行わない。すなわち、一次情動反応判定手段132は、眼球画像から得た視点停留点が所定範囲内に所定時間以上存在するか否かを判断し、この条件を満たす場合は一次情動反応有りを判定する。また、二次情動反応/動き判定手段133が図7に示した動き判定処理により動き判定OKを判定した後、二次情動反応判定手段134は、視点停留点が所定範囲内に所定時間存在するか否かを判定し、この条件を満たす場合は二次情動反応有りを判定する。
以上のように、実施例5による情動分析装置5によれば、眼球画像から視点停留位置及び時間を算出し、視野映像または加速度センサデータを解析して顔面動きを算出する。そして、フェーズ1において、視点停留点が所定範囲内に所定時間以上存在していた場合に一次情動反応を判定し、フェーズ2及びフェーズ3において、フェーズ1からフェーズ3への動き判定を行い、視点停留点が所定範囲内に所定時間以上存在していた場合に二次情動反応を判定し、そして、利用者が興味・関心を持っている対象物を同定するようにした。これにより、対象物に対する興味・関心の有無とその程度を精度高く判定することが可能となる。
〔実施例6〕
次に、本発明の第6の実施形態(実施例6)について説明する。図20は、実施例6による情動分析装置の構成を示すブロック図であり、図25に示したハードウェア構成の下で制御部100が情動分析プログラムにより処理を実行する際の機能構成を示している。この情動分析装置6は、生理反応データ調整部61、視野映像画像処理・顔面動き推定部62、一次・二次情動反応解析制御部63及び情動反応データ処理部64を備えている。
図13に示した実施例2の情動分析装置2と、図20に示す実施例6の情動分析装置6とを比較すると、両装置とも、入力した視野映像を解析して視野映像を出力すると共に、グローバル動き推定によりグローバルモーションを算出して顔面動きを出力する視野映像画像処理・顔面動き推定部22,62を備えている点で同一である。また、両装置とも、一次・二次情動反応解析制御部23,63から入力した情動反応データに基づいて、対象物に対する評価情報を生成して利用者または事業者へ提示する情動反応データ処理部24,64を備えている点で同一である。
一方、実施例6の情動分析装置6は、入力した生理反応データを調整する生理反応データ調整部61を備えているのに対し、実施例2の情動分析装置2は備えていない点で相違する。また、実施例2の情動分析装置2は、視野映像画像処理・顔面動き推定部22から入力した顔面動きに基づいて一次情動反応及び二次情動反応を判定する一次・二次情動反応解析制御部23を備えているのに対し、実施例6の情動分析装置6は、生理反応データ調整部61から入力した生理反応データに基づいて情動反応E(t)を算出し、一次情動反応及び二次情動反応を判定する一次・二次情動反応解析制御部63を備えている点で相違する。
図20において、視野映像画像処理・顔面動き推定部62は、図13に示した視野映像画像処理・顔面動き推定部22と同様の処理を行い、情動反応データ処理部64は、図13に示した情動反応データ処理部24と同様の処理を行う。
生理反応データ調整部61は、利用者に装着されたセンサから、利用者の体温、脈拍、発汗量、血圧のうちのいずれか一つの生理反応データまたは複数の生理反応データを入力し、同期処理により出力タイミングを調整し、調整した生理反応データを一次・二次情動反応解析制御部63に出力する。具体的には、生理反応データ調整部61は、予めメモリに保存しておいた生理反応データの種別毎及び利用者毎の遅延時間を用いて、入力した生理反応データの出力タイミングを調整し、視野映像画像処理・顔面動き推定部62が出力する視野映像の画面毎に、生理反応データを出力する。これにより、生理反応の遅延時間が異なる利用者毎に、同期した生理反応データを適切なタイミングで出力することができる。
生理反応データ調整部61及び視野映像画像処理・顔面動き推定部62は、生理反応データ、視野映像及び顔面動きについて時間的な対応付けを行い、それぞれ同期したデータとして出力する。すなわち、生理反応データ調整部61は、視野映像画像処理・顔面動き推定部62が出力する視野映像の画面毎の生理反応データを、生理反応の遅延時間が異なる利用者毎に調整して出力する。
一次・二次情動反応解析制御部63は、生理反応データ調整部61から生理反応データを入力すると共に、視野映像画像処理・顔面動き推定部62から視野映像及び顔面動きを入力する。一次・二次情動反応解析制御部63の制御手段130は、全体の処理を通して、入力した生理反応データ、視野映像及び顔面動きを、同期したデータとして時系列に記憶手段131に記憶する。また、生理反応データに基づいて瞬時の情動反応E(t)、及び一次・二次の総合情動の程度を表す値Eallを算出し、記憶手段131に記憶する。尚、情動反応E(t)の単位時間あたりの積分値を情動反応Eとして算出する手法、生理反応データの個体差を取り除く手法、一次・二次の総合情動の程度を表す値Eallの算出手法等については、前述した瞳孔径に基づいて算出する場合と同様であるので、ここでは説明を省略する。生理反応データが複数の場合は、それぞれの生理反応データに基づいて算出した値に対し、予め設定された定数を用いて重み付けを行い加算し、加算結果の生理反応データに基づいて情動反応E(t)を算出する。
次に、図20に示した一次・二次情動反応解析制御部63の処理について説明する。一次・二次情動反応解析制御部63は、図2に示したフェーズ1〜3の条件(顔面の動きの条件)を満たすか否かの判定処理を行う。図21は、実施例6によるフェーズ1の一次情動反応判定処理を示すフローチャートである。図22は、実施例6によるフェーズ3の二次情動反応判定処理を示すフローチャートである。尚、実施例6による二次情動反応判定処理に含まれる、フェーズ2の動き判定処理は、図15に示した実施例2によるフェーズ2の動き判定処理と同様である。また、実施例6による対象物同定処理は、図17に示した実施例2による対象物同定処理と同様である。
まず、フェーズ1における一次情動反応判定処理について説明する。一次・二次情動反応解析制御部63の制御手段130は、一次・二次情動反応解析制御の開始に伴い、一次情動反応判定命令を一次情動反応判定手段132に出力する。図21を参照して、一次・二次情動反応解析制御部63の一次情動反応判定手段132は、制御手段130から一次情動反応判定命令を入力した場合、記憶手段131から顔面動きを読み出し、読み出した顔面動きに基づいて顔面移動量を算出する(ステップS2201)。また、一次情動反応判定手段132は、顔面移動量が所定量以下となり、その時間が所定時間以上であるか否かを判定する(ステップS2202)。顔面移動量が所定量以下となり、その時間が所定時間以上であると判定した場合(ステップS2202:Y)、ステップS2203へ移行する。一方、顔面移動量が所定量以下でないと判定した場合、または、顔面移動量が所定量以下の時間が所定時間以上でないと判定した場合(ステップS2202:N)、一次情動反応は無いと判定する(ステップS2205)。
一次情動反応判定手段132は、ステップS2203において、生理反応データに基づいて算出した情動反応を用いて、フェーズ1終了直前の情動反応が所定値以上であるか否かを判定する(ステップS2203)。情動反応が所定値以上であると判定した場合(ステップS2203:Y)、一次情動反応は有ると判定し(ステップS2204)、情動反応が所定値以上でないと判定した場合(ステップS2203:N)、一次情動反応は無いと判定する(ステップS2205)。
一次情動反応判定手段132は、一次情動反応の判定結果、及び一次情動反応有りの判定結果のときの各種データを制御手段130に出力する。制御手段130は、一次情動反応判定手段132から一次情動反応の判定結果、及び一次情動反応有りの判定結果のときの各種データを入力し、これらを記憶手段131に格納すると共に、情動反応データとして情動反応データ処理部64に出力する。
フェーズ2における動き判定処理については、図15に示した実施例2の動き判定処理と同様であるから、ここでは説明を省略する。次に、フェーズ3における二次情動反応判定処理について説明する。この二次情動反応判定処理は、図15に示した動き判定OKと判定された後に続く処理である。一次・二次情動反応解析制御部63の制御手段130は、二次情動反応/動き判定手段133から入力した二次情動反応/動き判定結果が動き判定OKの場合、二次情動反応判定命令を二次情動反応判定手段134に出力する。図22を参照して、一次・二次情動反応解析制御部63の二次情動反応判定手段134は、制御手段130から二次情動反応命令を入力した場合、記憶手段131から顔面動きを読み出し、読み出した顔面動きに基づいて顔面移動量を算出する(ステップS2301)。また、二次情動反応判定手段134は、顔面移動量が所定量以下となり、その時間が所定時間以上であるか否かを判定する(ステップS2302)。顔面移動量が所定量以下となり、その時間が所定時間以上であると判定した場合(ステップS2302:Y)、ステップS2303へ移行する。一方、顔面移動量が所定量以下でないと判定した場合、または、顔面移動量が所定量以下の時間が所定時間以上でないと判定した場合(ステップS2302:N)、二次情動反応は無いと判定する(ステップS2305)。
二次情動反応判定手段134は、ステップS2303において、生理反応データに基づいて算出した情動反応を用いて、フェーズ3開始直後の情動反応が所定値以上であるか否かを判定する(ステップS2303)。情動反応が所定値以上であると判定した場合(ステップS2303:Y)、二次情動反応は有ると判定し(ステップS2304)、情動反応が所定値以上でないと判定した場合(ステップS2303:N)、二次情動反応は無いと判定する(ステップS2305)。
二次情動反応判定手段134は、二次情動反応の判定結果、及び二次情動反応有りの判定結果のときの各種データを制御手段130に出力する。制御手段130は、二次情動反応判定手段134から二次情動反応の判定結果、及び二次情動反応有りの判定結果のときの各種データを入力し、これらを記憶手段131に格納すると共に、情動反応データとして情動反応データ処理部64に出力する。対象物同定処理については、図17に示した実施例2の対象物同定処理と同様であるから、ここでは説明を省略する。
そして、制御手段130は、記憶手段131からそれぞれの判定結果を読み出し、それぞれの判定結果が一次情動反応有り、二次情動反応/動き判定OK及び二次情動反応有りの場合に、対象物同定手段135により同定された対象物に対して情動を示していると判定し、一次情動反応判定処理、二次情動反応判定処理及び対象物同定処理において扱ったデータ及び算出したデータ、並びに同定した対象物等の各種データを、情動反応データとして出力する。
以上のように、実施例6による情動分析装置6によれば、生理反応データ調整部61が生理反応データを調整し、視野映像画像処理・顔面動き推定部62が視野映像を解析して顔面動きを算出し、一次・二次情動反応解析制御部63が、フェーズ1において生理反応データを用いて一次情動反応を判定し、フェーズ2及びフェーズ3においてフェーズ1からフェーズ3への動き判定を行い、生理反応データを用いて二次情動反応を判定し、そして、利用者が興味・関心を持っている対象物を同定するようにした。これにより、対象物に対する興味・関心の有無とその程度を精度高く判定することが可能となる。
〔実施例7〕
次に、本発明の第7の実施形態(実施例7)について説明する。図23は、実施例7による情動分析装置の構成を示すブロック図であり、図25に示したハードウェア構成の下で制御部100が情動分析プログラムにより処理を実行する際の機能構成を示している。この情動分析装置7は、生理反応データ調整部71、顔面動き解析部72、視野映像画像処理部73、一次・二次情動反応解析制御部74及び情動反応データ処理部75を備えている。
図20に示した実施例6の情動分析装置6と、図23に示す実施例7の情動分析装置7とを比較すると、両装置とも、入力した生理反応データを調整する生理反応データ調整部61,71を備えている点で同一である。また、両装置とも、入力した生理反応データ、視野映像及び顔面動きを入力して一次及び二次情動反応を解析する一次・二次情動反応解析制御部63,74、及び、入力した情動反応データに基づいて、対象物に対する評価情報を生成して利用者または事業者へ提示する情動反応データ処理部64,75を備えている点で同一である。
一方、実施例6の情動分析装置6は、入力した視野映像を解析して顔面動きを生成する視野映像画像処理・顔面動き推定部62を備えているのに対し、実施例7の情動分析装置7は、加速度センサデータを入力して解析し、顔面動きデータを生成する顔面動き解析部72を備えている点で相違する。
図23において、生理反応データ調整部71は、図20に示した生理反応データ調整部61と同様の処理を行う。また、顔面動き解析部72は、図18に示した顔面動き解析部32と同様の処理を行い、視野映像画像処理部73は、図18に示した視野映像画像処理部33と同様の処理を行う。また、一次・二次情動反応解析制御部74は、図20に示した一次・二次情動反応解析制御部63と同様の処理を行い、情動反応データ処理部75は、図20に示した情動反応データ処理部64と同様の処理を行う。
以上のように、実施例7による情動分析装置7によれば、生理反応データ調整部71が生理反応データを調整し、顔面動き解析部72が加速度センサデータを解析して顔面動きを算出し、視野映像画像処理部73が視野映像を解析して所定の解像度の視野映像を生成し、一次・二次情動反応解析制御部74が、フェーズ1において生理反応データを用いて一次情動反応を判定し、フェーズ2及びフェーズ3において、フェーズ1からフェーズ3への動き判定を行い、生理反応データを用いて二次情動反応を判定し、そして、利用者が興味・関心を持っている対象物を同定するようにした。これにより、対象物に対する興味・関心の有無とその程度を精度高く判定することが可能となる。
尚、実施例1〜7において、対象物同定処理は、図9及び図17に示したものとは別の処理であってもよい。例えば、ステップS901,1701におけるフェーズ3での抽出時点からフェーズ1へと逆時間方向にフェーズ2の区間をトラッキングして対象物を抽出し、フェーズ1に至ったときに抽出した対象物が、ステップS902,1702においてベクトル計算した位置と大きく離れない位置に存在する場合(その位置に対して所定範囲内に対象物が存在する場合)、その対象物を同定した対象物として扱うようにしてもよい。これにより、対象物同定処理の精度を高めることができる。また、トラッキングが不能となった場合には、対象物を同定できなかったことになる。
以上、実施例を挙げて本発明を説明したが、本発明は前記実施例に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。例えば、前記実施例1〜7では、眼鏡を用いるようにしたが、必ずしも眼鏡である必要はなく、例えば、カメラが設けられた帽子であってもよい。要するに、カメラによって利用者の眼球画像及び/または視野映像が撮影されればよい。また、情動分析装置1〜7は利用者が必ずしも装着する必要はなく、情動分析装置1〜7を別の場所で独立して動作させるようにしてもよい。例えば、眼球画像等を記憶媒体に格納させ、別の場所に設置したパーソナルコンピュータ等の情動分析装置1〜7が記憶媒体から眼球画像等を読み出して各種処理を行うようにしてもよい。また、眼球画像等を各種カメラ等から無線または有線の通信回線を通じて送り出し、別の場所に設置された情動分析装置1〜7が受信して各種処理を行うようにしてもよい。
また、前記実施例1,3では、瞳孔径に基づいた情動反応E(t)を用いて、情動反応の有無を判定するようにしたが、本発明では、情動反応E(t)は必ずしも瞳孔径に基づいて算出する必要はない。例えば、瞬目回数、視点停留時間等の、眼球画像を解析して得られた生理反応データに基づいて、または、瞳孔径、瞬目回数、視点停留時間等の複数の生理反応データに基づいて算出するようにしてもよい。また、情動反応E(t)は、眼球画像を解析して得られた生理反応データに加えて、利用者の体温、脈拍、発汗量、血圧等の生理反応データも含めて算出するようにしてもよい。生理反応データが複数の場合は、それぞれの生理反応データに基づいて算出した値に対し、予め設定された定数を用いて重み付けを行い加算する。そして、加算結果生理反応データに基づいて情動反応E(t)を算出し、一次情動反応及び二次情動反応を判定し、情動反応データを生成する。
また、前記実施例6,7では、利用者の体温、脈拍、発汗量、血圧の生理反応データに基づいた情動反応E(t)を用いて、情動反応の有無を判定するようにしたが、情動反応E(t)は必ずしも体温、脈拍、発汗量、血圧に基づいて算出する必要はなく、それ以外の生命現象に伴って変化する生理反応データに基づいて算出するようにしてもよい。
また、前記実施例1,5,6では、眼鏡に設けられた視野映像撮影用カメラにより撮影された視野映像に基づいて顔面動きを算出し、実施例2,3,4,5,7では、加速度センサデータに基づいて顔面動きを算出するようにしたが、利用者から離れた箇所に設けた顔面撮影用カメラにより利用者の顔面を撮影し、その顔面映像に基づいて顔面動きを算出するようにしてもよい。具体的には、利用者に装着されていない外部に設けられた顔面撮影用カメラにより撮影された顔面映像から、予め登録された利用者の顔画像情報に類似する領域を抽出する(後述する(2)を参照)。そして、その抽出した領域内の顔画像に基づいて顔面の向きを映像フレーム毎に検出し(後述する(1)を参照)、対象とする2フレーム間(必ずしも隣接フレームでなくてもよい)における顔の向きの変化を、その経過時間で除算することで、単位時間当たりの顔面動きを算出する。尚、顔面撮影用カメラで撮影された顔面映像に基づいて顔面動きを算出する手法は既知であるから、ここでは詳細な説明を省略する。詳しくは、以下の(1)(2)を参照されたい。
(1)“王様の箱庭::blog Java(登録商標)Scriptからから利用できる顔検出API「facekit」”、[online]、平成19年3月21日、[平成20年9月28日検索]、インターネット<http://d.hatena.ne.jp/masayoshi/20070321>
(2)“Tutorial:OpenCV haartraining(Rapid Object Detection With A Cascade of Boosted Classifiers Based on Haar−like Features)”、[online]、[平成20年9月28日検索]、インターネット<Http://note.sonots.com/SciSoftware/haartraining.html>
これ以外に、顔面動きを算出する手法としては、前記(1)で実現されている顔の向きを実時間で捉えて顔面動きデータを算出するものがある。また、その際のアルゴリズムとしては、前記(2)が用いられる。
1〜7 情動分析装置
11,31 視点・瞳孔径解析部
12,22,62 視野映像画像処理・顔面動き推定部
13,23,34,44,63,74 一次・二次情動反応解析制御部
14,24,35,45,64,75 情動反応データ処理部
32,42,72 顔面動き解析部
33,43,73 視野映像画像処理部
61,71 生理反応データ調整部
100 制御部
101 CPU
102 記憶部
103 記憶装置
104 通信部
105 インターフェース部
106 操作・入力部
107 表示部
108 電源部
109 システムバス
130 制御手段
131 記憶手段
132 一次情動反応判定手段
133 二次情動反応/動き判定手段
134 二次情動反応判定手段
135 対象物同定手段

Claims (14)

  1. 利用者が視認する対象物を含む視野映像を用いて、前記利用者の対象物に対する情動を分析する情動分析装置において、
    前記利用者の生命現象に伴って変化する生理反応データに基づいて、前記対象物を含む視野映像に対して情動反応を示していることを判定し、一次情動反応有りの判定結果を出力する一次情動反応判定手段と、
    前記一次情動反応判定手段により出力された一次情動反応有りの判定結果を入力し、その後の前記利用者の顔面の動きに伴って変化する動きの大きさを示す顔面動きデータに基づいて、顔面動きが有ることを判定し、顔面動きOKの判定結果を出力する動き判定手段と、
    前記動き判定手段により出力された顔面動きOKの判定結果を入力し、その後の前記生理反応データに基づいて、前記対象物を含む視野映像に対して情動反応を示していることを判定し、二次情動反応有りの判定結果を出力する二次情動反応判定手段と、を備え、
    前記一次情動反応判定手段により一次情動反応有りの判定結果が出力され、かつ、前記動き判定手段により顔面動きOKの判定結果が出力され、かつ、前記二次情動反応判定手段により二次情動反応有りの判定結果が出力された場合に、前記一次情動反応判定手段により情動反応を判定したときの前記生理反応データと、前記二次情動反応判定手段により情動反応を判定したときの前記生理反応データとに基づいて、前記情動反応の程度を判定する、ことを特徴とする情動分析装置。
  2. 請求項1に記載の情動分析装置において、
    前記利用者の生命現象に伴って変化する生理反応データを、前記利用者の眼球が撮影された眼球画像から得られた眼球の動きに伴う生理反応データとし、
    前記利用者の顔面動きデータを、前記利用者が視認する情景が撮影された視野映像における基準フレームの映像から任意のフレームの映像への座標変換により得られた顔面動きの大きさと方向を含む顔面動きデータとし、
    前記一次情動反応判定手段は、前記眼球画像における眼球の瞳孔から得られた前記視野映像内の位置を示す視点が前記視野映像内の所定箇所に所定時間以上存在し、かつ、前記生理反応データと予め設定された第1のしきい値とを比較し、一次情動反応有りを判定して前記一次情動反応有りの判定結果を出力し、
    前記動き判定手段は、前記一次情動反応判定手段により出力された一次情動反応有りの判定結果を入力し、その後の前記視点の動き方向と前記顔面動き方向とを比較し、これらの動きが逆方向であると判定し、かつ、前記視点の動きの大きさと前記顔面動きの大きさとを比較し、これらの差が所定値以下であると判定し、かつ、前記顔面動きの大きさと予め設定された第2のしきい値とを比較し、顔面動きOKを判定して前記顔面動きOKの判定結果を出力し、
    前記二次情動反応判定手段は、前記動き判定手段により出力された顔面動きOKの判定結果を入力し、その後の前記視点が視野映像内の中央から所定範囲内の箇所に所定時間以上存在し、かつ、前記生理反応データと予め設定された第3のしきい値とを比較し、二次情動反応有りを判定して前記二次情動反応有りの判定結果を出力する、ことを特徴とする情動分析装置。
  3. 請求項2に記載の情動分析装置において、
    前記一次情動反応判定手段は、前記顔面動きの大きさが所定値以下となるフェーズ1のときに、前記視点が前記視野映像内の所定箇所に所定時間以上存在し、かつ、前記顔面動きの大きさが所定値を越えるフェーズ2が開始する前に、前記生理反応データと予め設定された第1のしきい値とを比較し、一次情動反応有りを判定して前記一次情動反応有りの判定結果を出力する、ことを特徴とする情動分析装置。
  4. 請求項3に記載の情動分析装置において、
    前記動き判定手段は、前記一次情動反応判定手段により出力された一次情動反応有りの判定結果を入力し、前記フェーズ1の後に顔面動きの大きさが所定値を超えるフェーズ2のときに、前記視点の動き方向と前記顔面動き方向とを比較し、これらの動きが逆方向であると判定し、かつ、時間的に連続する視点が複数存在する所定範囲内の重心座標を視点停留点としたときの前記視点停留点の動きの大きさと前記顔面動きの大きさとを比較し、これらの差が所定値以下であると判定し、かつ、前記顔面動きの大きさと予め設定された第2のしきい値とを比較し、顔面動きOKを判定して前記顔面動きOKの判定結果を出力する、ことを特徴とする情動分析装置。
  5. 請求項4に記載の情動分析装置において、
    前記二次情動反応判定手段は、前記動き判定手段により出力された顔面動きOKの判定結果を入力し、前記フェーズ2の後に顔面動きの大きさが所定値以下となるフェーズ3のときに、前記視点が視野映像内の中央から所定範囲内の箇所に所定時間以上存在し、かつ、前記生理反応データと予め設定された第3のしきい値とを比較し、二次情動反応有りを判定して前記二次情動反応有りの判定結果を出力する、ことを特徴とする情動分析装置。
  6. 請求項5に記載の情動分析装置において、
    さらに、前記フェーズ3が開始した後に、前記視点を含む箇所に存在していた対象物を前記視野映像から抽出し、前記フェーズ2が開始する前に、前記フェーズ3が開始した後の視点を基準にして、前記フェーズ2の顔面動きにより示される箇所に存在していた対象物を前記視野映像から抽出し、前記抽出した両対象物の同一性を求める対象物同定手段、を備えたことを特徴とする情動分析装置。
  7. 利用者が視認する対象物を含む視野映像を用いて、前記利用者の対象物に対する情動を分析する情動分析装置において、
    前記利用者が視認する情景が撮影された視野映像における基準フレームの映像から任意のフレームの映像への座標変換により得られた顔面動きの大きさを含む顔面動きデータを用いて、前記顔面動きの大きさと、予め設定された第1のしきい値とを比較し、前記顔面動きの大きさが前記しきい値以下となる時間が所定時間以上の場合に、一次情動反応有りを判定して一次情動反応有りの判定結果を出力する一次情動反応判定手段と、
    前記一次情動反応判定手段により出力された一次情動反応有りの判定結果を入力し、その後の前記顔面動きの大きさと予め設定された第2のしきい値とを比較し、顔面動きOKを判定して前記顔面動きOKの判定結果を出力する動き判定手段と、
    前記動き判定手段により出力された顔面動きOKの判定結果を入力し、その後の前記顔面動きの大きさと予め設定された第3のしきい値とを比較し、前記顔面動きの大きさが前記しきい値以下となる時間が所定時間以上の場合に、二次情動反応有りを判定して二次情動反応有りの判定結果を出力する二次情動反応判定手段と、を備え、
    前記一次情動反応判定手段により一次情動反応有りの判定結果が出力され、かつ、前記動き判定手段により顔面動きOKの判定結果が出力され、かつ、前記二次情動反応判定手段により二次情動反応有りの判定結果が出力された場合に、前記視野映像に含まれる対象物に対して情動を示していると判定する、ことを特徴とする情動分析装置。
  8. 請求項1に記載の情動分析装置において、
    前記利用者の生命現象に伴って変化する生理反応データを、前記利用者の眼球が撮影された眼球画像における眼球の瞳孔から得られた前記視野映像内の位置を示す視点が前記視野映像の所定箇所に存在している視点停留時間とし、
    前記一次情動反応判定手段は、前記視点停留時間と予め設定された第1のしきい値とを比較し、一次情動反応有りを判定して前記一次情動反応有りの判定結果を出力し、
    前記二次情動反応判定手段は、前記動き判定手段により出力された顔面動きOKの判定結果を入力し、その後の前記視点停留時間と予め設定された第3のしきい値とを比較し、二次情動反応有りを判定して前記二次情動反応有りの判定結果を出力する、ことを特徴とする情動分析装置。
  9. 請求項1に記載の情動分析装置において、
    前記利用者の顔面動きデータを、前記利用者が視認する情景が撮影された視野映像における基準フレームの映像から任意のフレームの映像への座標変換により得られた顔面動きの大きさを含む顔面動きデータとし、
    前記一次情動反応判定手段は、前記顔面動きの大きさと予め設定された第1−1のしきい値とを比較し、前記顔面動きの大きさが前記しきい値以下となる時間が所定時間以上であり、かつ、前記生理反応データと予め設定された第1−2のしきい値とを比較し、一次情動反応有りを判定して前記一次情動反応有りの判定結果を出力し、
    前記動き判定手段は、前記一次情動反応判定手段により出力された一次情動反応有りの判定結果を入力し、その後の前記顔面動きの大きさと予め設定された第2のしきい値とを比較し、顔面動きOKを判定して前記顔面動きOKの判定結果を出力し、
    前記二次情動反応判定手段は、前記動き判定手段により出力された顔面動きOKの判定結果を入力し、その後の前記顔面動きの大きさと予め設定された第3−1のしきい値とを比較し、前記顔面動きの大きさが前記しきい値以下となる時間が所定時間以上であり、かつ、前記生理反応データと予め設定された第3−2のしきい値とを比較し、二次情動反応有りを判定して前記二次情動反応有りの判定結果を出力する、ことを特徴とする情動分析装置。
  10. 請求項1から9までのいずれか一項に記載の情動分析装置において、
    前記利用者の顔面動きデータを、前記利用者の顔面の動きを捉える加速度センサからのデータを用いて得られた顔面動きデータとする、ことを特徴とする情動分析装置。
  11. 請求項1から6までのいずれか一項に記載の情動分析装置において、
    前記一次情動反応判定手段により情動反応を判定したときの前記生理反応データに基づいて、前記一次情動反応の程度を表す数値データを出力し、前記二次情動反応判定手段により情動反応を判定したときの前記生理反応データに基づいて、前記二次情動反応の程度を表す数値データを出力する手段、を備えたことを特徴とする情動分析装置。
  12. 請求項11に記載の情動分析装置において、
    前記一次情動反応及び二次情動反応におけるそれぞれの情動の程度を表す数値データに基づいて一次・二次総合情動を表す数値データを算出して外部の制御機器へ出力し、前記一次・二次総合情動を表す数値に基づいて外部の制御機器を動作させる、ことを特徴とする情動分析装置。
  13. 請求項2ないし6及び8のうちのいずれか一項に記載の情動分析装置において、
    前記視野映像が視野映像撮影用カメラにより撮影され、前記眼球画像が眼球撮影用カメラにより撮影され、前記視野映像撮影用カメラ及び眼球撮影用カメラが、利用者が装着している眼鏡または帽子に設けられている、ことを特徴とする情動分析装置。
  14. 請求項1から13までのいずれか一項に記載の情動分析装置において、
    前記利用者から離れた箇所から前記利用者を撮影するための顔面撮影用カメラが設けられ、
    前記利用者の顔面動きデータを、前記顔面撮影用カメラが撮影した顔面映像から得られた顔面動きデータとする、ことを特徴とする情動分析装置。
JP2009000449A 2008-09-30 2009-01-05 情動分析装置 Active JP5225870B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009000449A JP5225870B2 (ja) 2008-09-30 2009-01-05 情動分析装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008255722 2008-09-30
JP2008255722 2008-09-30
JP2009000449A JP5225870B2 (ja) 2008-09-30 2009-01-05 情動分析装置

Publications (2)

Publication Number Publication Date
JP2010104754A JP2010104754A (ja) 2010-05-13
JP5225870B2 true JP5225870B2 (ja) 2013-07-03

Family

ID=42294784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009000449A Active JP5225870B2 (ja) 2008-09-30 2009-01-05 情動分析装置

Country Status (1)

Country Link
JP (1) JP5225870B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012103312A (ja) 2010-11-08 2012-05-31 Seiko Epson Corp 累進屈折力レンズ及びその設計方法
CN103169484B (zh) * 2013-02-01 2014-12-03 广东平成广告有限公司 一种基于视频的认知曲线扫描方法
KR101870919B1 (ko) 2017-10-20 2018-06-25 상명대학교산학협력단 동공 크기 변화율을 이용한 뇌 정보 (EEG spectrum) 추출 방법 및 그 장치
KR101831967B1 (ko) 2017-10-20 2018-02-23 상명대학교산학협력단 인체 미동 기반 뇌 정보 추출 방법
JP6922686B2 (ja) * 2017-11-20 2021-08-18 トヨタ自動車株式会社 操作装置
JP7001560B2 (ja) * 2018-07-20 2022-01-19 株式会社日立製作所 投資行動分析支援装置および投資行動分析支援方法
CN109523290A (zh) * 2018-09-14 2019-03-26 平安科技(深圳)有限公司 基于听众微表情的听讲评价方法、装置、设备及介质
CN111310602A (zh) * 2020-01-20 2020-06-19 北京正和恒基滨水生态环境治理股份有限公司 一种基于情绪识别的展品关注度分析系统及分析方法
EP4226906A1 (en) * 2020-10-07 2023-08-16 National University Corporation Chiba University Sightline-position determination device, sightline-position determination method, and training method
JPWO2023012941A1 (ja) * 2021-08-04 2023-02-09

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3800257B2 (ja) * 1996-08-02 2006-07-26 オムロン株式会社 注目情報計測方法及び装置並びにそれを用いた各種システム
JP3604665B2 (ja) * 2002-01-30 2004-12-22 独立行政法人科学技術振興機構 選択的聴取の行動的測定装置及びその聴取支援装置
JP2009508553A (ja) * 2005-09-16 2009-03-05 アイモーションズ−エモーション テクノロジー エー/エス 眼球性質を解析することで、人間の感情を決定するシステムおよび方法
JP5120249B2 (ja) * 2006-03-15 2013-01-16 オムロン株式会社 監視装置および監視方法、制御装置および制御方法、並びにプログラム

Also Published As

Publication number Publication date
JP2010104754A (ja) 2010-05-13

Similar Documents

Publication Publication Date Title
JP5225870B2 (ja) 情動分析装置
CN109740466B (zh) 广告投放策略的获取方法、计算机可读存储介质
CN108427503B (zh) 人眼追踪方法及人眼追踪装置
Shreve et al. Macro-and micro-expression spotting in long videos using spatio-temporal strain
US10614289B2 (en) Facial tracking with classifiers
Li et al. Learning to predict gaze in egocentric video
US8462996B2 (en) Method and system for measuring human response to visual stimulus based on changes in facial expression
US9443144B2 (en) Methods and systems for measuring group behavior
Mehrubeoglu et al. Real-time eye tracking using a smart camera
CN105809144A (zh) 一种采用动作切分的手势识别系统和方法
Poppe et al. AMAB: Automated measurement and analysis of body motion
US9013591B2 (en) Method and system of determing user engagement and sentiment with learned models and user-facing camera images
US10254831B2 (en) System and method for detecting a gaze of a viewer
Sugimoto et al. A method for detecting transitions of emotional states using a thermal facial image based on a synthesis of facial expressions
Mann et al. An introduction to the 3rd workshop on egocentric (first-person) vision
Saxena et al. Towards efficient calibration for webcam eye-tracking in online experiments
Sun et al. Eye tracking and ROI detection within a computer screen using a monocular camera
JP2016111612A (ja) コンテンツ表示装置
Youwei Real-time eye blink detection using general cameras: a facial landmarks approach
Nguyen et al. Human emotion estimation using wavelet transform and t-ROIs for fusion of visible images and thermal image sequences
Singh et al. A robust, real-time camera-based eye gaze tracking system to analyze users’ visual attention using deep learning
Bouma et al. Measuring cues for stand-off deception detection based on full-body nonverbal features in body-worn cameras
Zhang et al. An approach of region of interest detection based on visual attention and gaze tracking
KR20180015792A (ko) 공포 심리 분석 시스템 및 방법
Benoit et al. Fusing bio-inspired vision data for simplified high level scene interpretation: Application to face motion analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130313

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5225870

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250