JP2010063621A - 視認情景に対する視認者感性反応装置 - Google Patents

視認情景に対する視認者感性反応装置 Download PDF

Info

Publication number
JP2010063621A
JP2010063621A JP2008232274A JP2008232274A JP2010063621A JP 2010063621 A JP2010063621 A JP 2010063621A JP 2008232274 A JP2008232274 A JP 2008232274A JP 2008232274 A JP2008232274 A JP 2008232274A JP 2010063621 A JP2010063621 A JP 2010063621A
Authority
JP
Japan
Prior art keywords
viewer
acceleration
scene
reaction apparatus
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008232274A
Other languages
English (en)
Inventor
Koichi Kikuchi
光一 菊池
Wataru Kurashima
渡 倉島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2008232274A priority Critical patent/JP2010063621A/ja
Publication of JP2010063621A publication Critical patent/JP2010063621A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】視認者の生理反応をより正確に把握し、様々な状況において、対象物または視認者自身の能力をより正確に評価する。
【解決手段】視認情景に対する視認者感性反応装置100は、視認映像a及び眼球運動映像bから視認映像aにおける視点の位置を算出するとともに、視認者の生理反応データの変化に伴う加速度を算出する解析部102と、興味の低い対象物を見ている場合の生理反応データの変化に伴う加速度を含む情報を平常値Hとして蓄積し、興味の高い対象物を見ている場合の生理反応データの変化に伴う加速度を含む情報を感動値Eとして蓄積し、解析部102によって算出された生理反応データの変化に伴う加速度を含む情報を解析値Aとして蓄積する蓄積部103と、解析値Aを、平常値Eあるいは感動値Eと比較することにより、視認者の特定の対象物に対する興味を診断する診断部104とを備えている。
【選択図】図2

Description

本発明は、視認情景に対する視認者感性反応装置に関し、特に、視認情景を視認した際の視認者の生理反応の変化を解析し、対象物及び視認者自身の能力を評価する技術に関する。
従来、テレビ番組などの映像コンテンツを評価するために、視聴率を測定することが行われている。しかしながら、視聴率だけでは、テレビチャンネルを合わせたとしても、視認者が実際に視聴したかどうか分からず、加えて、信頼性を向上させるためには莫大な視認者数が必要とされる、などの問題があった。そこで、視認者の眼球運動を撮像し、得られたデータから映像コンテンツの評価を行う技術が開示されている(例えば、特許文献1参照)。
特許文献1に記載の技術では、眼球運動を撮像することにより得られたデータとして、視線の動き、瞳孔面積、瞬目発生頻度などを用いて、映像コンテンツについて興味の度合いを判定し、映像コンテンツの評価を行っている。これにより、少ない被験者数で、従来テレビ放送で行われていた視聴率を指標とする評価手法よりも、信頼性のある高次な評価を実現している。
特開2004−282471号公報
しかしながら、上述した特許文献1に記載の技術のように、眼球運動の映像より得られた、視線の動き、瞳孔面積、瞬目発生頻度などのデータだけでは、視認者の生理反応を正確に把握することが困難であった。すなわち、特許文献1に記載の技術では、瞬目発生頻度が減少した場合、対象物に興味があると判定し、眼球中心の位置や瞳孔面積から、視認者の情動の変化を解析しているが、これらは、対象物に対する視認者の興味の有無を単純に判定しているに過ぎず、より細かな視認者の生理反応を考慮しているわけではない。
また、特許文献1に記載の技術では、テレビ番組などの映像コンテンツに対する興味の評価を行っており、その他の場面に適用することは想定されていない。
そこで、前記課題を解決するため、本発明の目的は、視認者の生理反応をより正確に把握し、様々な状況において、対象物及び視認者自身の能力をより正確に評価する、視認情景に対する視認者感性反応装置を提供することにある。
前記課題を解決するため、請求項1の発明は、特定の対象物を含む情景に視線を向けた視認者の、前記特定の対象物に対する興味を診断する、視認情景に対する視認者感性反応装置において、前記視認者の視認映像及び前記視認者の眼球運動映像を受信する受信部と、前記視認映像及び前記眼球運動映像から前記視認映像における視点の位置を算出するとともに、前記視認者の生理反応データの変化に伴う加速度を算出する解析部と、前記視認者が興味の低い対象物を見ている場合の生理反応データの変化に伴う加速度を含む情報を平常値として蓄積し、前記視認者が興味の高い対象物を見ている場合の生理反応データの変化に伴う加速度を含む情報を感動値として蓄積し、前記解析部によって算出された前記視認者の生理反応データの変化に伴う加速度を含む情報を解析値として蓄積する蓄積部と、前記解析値を、前記平常値あるいは前記感動値と比較することにより、前記視認者の前記特定の対象物に対する興味を診断する診断部と、を備えたことを特徴とする。
また、請求項2の発明は、請求項1に記載の視認情景に対する視認者感性反応装置において、前記生理反応データの変化に伴う加速度は、前記視認者の視点が前記特定の対象物に接近する際の接近加速度、あるいは、前記視認者の視点が前記特定の対象物から離脱する際の離脱加速度であり、前記診断部は、前記接近加速度が大きいほど前記特定の対象物に興味があり、前記接近加速度が小さいほど前記特定の対象物に興味がないと診断し、前記離脱加速度が大きいほど前記特定の対象物に興味がなく、前記離脱加速度が小さいほど前記特定の対象物に興味があると診断することを特徴とする。
また、請求項3の発明は、請求項2に記載の視認情景に対する視認者感性反応装置において、前記解析部は、前記視認者の頭に装着されたカメラにより撮影された視認映像内の静止物の位置を基点として、前記視認者の頭の移動距離、移動速度及び移動加速度を算出し、前記頭の動きを含む、前記特定の対象物に対する視点の接近加速度あるいは離脱加速度を算出することを特徴とする。
また、請求項4の発明は、請求項1に記載の視認情景に対する視認者感性反応装置において、前記生理反応データの変化に伴う加速度は、前記視認者の瞳孔径の拡大加速度、あるいは、前記視認者の瞳孔径の縮小加速度であり、前記診断部は、前記拡大加速度が大きいほど前記特定の対象物に興味があると診断し、前記縮小加速度が大きいほど前記特定の対象物に興味がないと診断することを特徴とする。
また、請求項5の発明は、請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、前記特定の対象物は、商品であり、前記診断部は、前記視認者の前記商品に対する購買意欲を診断することを特徴とする。
また、請求項6の発明は、請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、前記特定の対象物は、学習対象であり、前記診断部は、前記視認者の前記学習対象に対する学習意欲を診断することを特徴とする。
また、請求項7の発明は、請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、前記受信部は、2つのテレビ電話から、それぞれの通話者の前記視認映像及び前記眼球運動映像を受信し、前記診断部は、一方の通話者から他方の通話者に対する興味をそれぞれ診断し、さらに、一方の通話者から他方の通話者に対する興味の診断結果を他方の通話者のテレビ電話にそれぞれ送信する送信部を備えていることを特徴とする。
また、請求項8の発明は、請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、前記視認者は、言葉を話すことが困難な人、あるいは、動物であることを特徴とする。
また、請求項9の発明は、請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、前記視認者は、ロボットであり、さらに、前記診断部から入力された診断結果に基づいて、前記ロボットの言動を選択する言動選択部を備えていることを特徴とする。
また、請求項10の発明は、請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、前記視認者は、犯罪容疑者であり、前記特定の対象物は、犯罪現場または被害者であることを特徴とする。
また、請求項11の発明は、請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、前記視認者は、自動車運転者であり、さらに、前記診断部から入力した診断結果を用い、危険運転状態であると診断された場合は、前記視認者に警告を行う警告部を備えていることを特徴とする。
また、請求項12の発明は、請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、前記視認者は、自動車運転者または労働者であり、前記解析部は、前記視認者の動作による応答データを用いて、応答遅延時間及び操作方法を解析し、前記診断部は、応答遅延時間及び操作方法に基づいて、前記視認者の熟練度あるいは適正度を診断することを特徴とする。
また、請求項13の発明は、請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、前記視認者は、労働者であり、前記診断部は、前記視認者の体調を診断することを特徴とする。
また、請求項14の発明は、請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、前記視認者は、運動選手であり、前記診断部は、前記視認者の熟練度あるいは適正度を診断することを特徴とする。
また、請求項15の発明は、請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、前記視認者は、ゲームを実施し、前記診断部は、前記視認者の身体温度データにより、前記視認者の興奮度を診断することを特徴とする。
また、請求項16の発明は、請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、前記特定の対象物は、空間の中に配列されている物であり、前記診断部は、前記視認者から見た前記特定の対象物に対する適切性を診断することを特徴とする。
以上のように、本発明によれば、生理反応データの変化に伴う加速度を用いて、対象物及び視認者自身の能力を評価する。これにより、視認者の生理反応をより正確に把握し、様々な状況において、対象物及び視認者自身の能力をより正確に評価することができる。
以下、本発明を実施するための最良の形態について図面を用いて詳細に説明する。
〔視認者感性反応システム〕
まず、視認者感性反応システムの構成、及び各構成部の処理について説明する。図1は、本発明の実施形態による視認者感性反応システムの構成を示すブロック図である。この視認者感性反応システムは、アイカメラ3、送信装置7、蓄積装置8、身体動作撮影装置9、身体温度測定装置10、応答装置14及び視認者感性反応装置100を備えている。
まず、視認者1は、アイカメラ3を頭部に装備し、対象物2を含む視認情景に視線を向ける。ここで、視認情景とは、視認者1が視認可能な情景であれば何でもよく、例えば、コンピュータ、携帯電話、テレビジョンなどのディスプレイに表示される映像データ、ウェブページデータ、コンピュータゲームデータ、コンピュータプログラムの出力するデータなども含まれる。ディスプレイ上に表示される上記のデータには、文字列、図、記号、絵、写真または動画など、視認者1を反応させるための応答喚起情報が表示され、文字列、図、記号、絵、写真または動画など、視認者1が反応する対象となる反応対象情報が含まれる。
アイカメラ3は、眼球撮影装置4、視認情景撮影装置5及びマイクロフォン6を備えている。なお、図1では、アイカメラ3は、蓄積装置8及び送信装置7に接続されており、視認者1は、蓄積装置8及び送信装置7も身に付けている。
眼球撮影装置4は、視認者1の眼球を撮影する。眼球撮影装置4が撮影した眼球運動映像bは、蓄積装置8に蓄積される。なお、眼球運動映像bは、動画として蓄積されてもよく、定期的に撮影された静止画として蓄積されてもよい。
視認情景撮影装置5は、視認者1が視線を向けている対象物2を含む視認情景を撮影する。視認情景撮影装置5が撮影した視認映像aは、蓄積装置8に蓄積される。なお、視認映像aは、動画として蓄積されてもよく、定期的に撮影された静止画として蓄積されてもよい。
さらに、視認映像aには、視認映像aにおける照度データが含まれていてもよい。視認者1の目における照度の変化が瞳孔径に影響を与えるので、視認映像aに照度データを含めることにより、後述する視認者感性反応装置100における解析部102で照度による瞳孔径の変動を補正する。
マイクロフォン6は、視認者1及び周囲の音声を捕捉する。マイクロフォン6が捕捉した音声データcは、蓄積装置8に蓄積される。
応答装置14は、視認者1の動作により応答信号を取得する。視認者1の動作としては、例えば、ボタン押し操作、キーボード操作、マウス操作、タッチパネル操作、リモコン操作、ゲーム機器付属コントローラの操作などの他、手を上げる、発声するなど、その他のボディアクションが挙げられる。応答装置14が取得した応答データdは、蓄積装置8に蓄積される。
蓄積装置8は、視認情景撮影装置5からの視認映像a、眼球撮影装置4からの眼球運動映像b、マイクロフォン6からの音声データc、及び応答装置14からの応答データdを、それぞれ同期したデータとして時系列に蓄積する。
送信装置7は、蓄積装置8が蓄積した視認映像a、眼球運動映像b、音声データc及び応答データdを、無線または有線によって、視認者感性反応装置100へ送信する。このとき、送信装置7は、所定の時間間隔で、各データを視認者感性反応装置100へ送信してもよく、視認者感性反応装置100からの指示に従って、各データを視認者感性反応装置100へ送信してもよい。
身体動作撮影装置9は、視認者1の身体の各部の動作を撮影する。また、身体動作撮影装置9は、無線または有線によって、撮影した身体動作映像eを視認者感性反応装置100へ送信する。
身体温度測定装置10は、視認者1の身体の温度を測定する。また、身体温度測定装置10は、無線または有線によって、身体温度データfを視認者感性反応装置100へ送信する。なお、図1では、視認者1の身体の温度を身体温度測定装置10によって遠隔から測定しているが、視認者1に装着したセンサーにより直接測定しても構わない。この場合、測定した身体温度データfは、蓄積装置8に蓄積され、送信装置7によって視認者感性反応装置100へ送信される。
ここで、眼球撮影装置4、視認情景撮影装置5及び身体動作撮影装置9における映像フレームの撮影周波数は、240Hz以上と高速なものが適切である。また、これらの映像フレームの撮影周波数は同一であることが望ましい。
なお、図1では、アイカメラ3及び応答装置14は、蓄積装置8に接続されており、有線によって、各データを蓄積装置8に送信しているが、無線によって、各データを蓄積装置8に送信しても構わない。さらに、無線による場合、視認情景撮影装置5、眼球撮影装置4、マイクロフォン6及び応答装置14は、各データを直接、視認者感性反応装置100へ送信しても構わない。
〔視認者感性反応装置〕
次に、図1に示す視認者感性反応装置100の構成、及び各構成部の処理について説明する。図2は、本発明の実施形態による視認者感性反応装置100の構成を示すブロック図である。この視認者感性反応装置100は、受信部101、解析部102、蓄積部103、診断部104及び表示部105を備えている。
〔受信部〕
受信部101は、送信装置7から、視認映像a、眼球運動映像b、音声データc及び応答データdを受信する。また、受信部101は、身体動作撮影装置9から身体動作映像eを受信する。さらに、受信部101は、身体温度測定装置10から身体温度データfを受信する。そして、受信部101は、受信した全データを同期させ、所定の時間間隔で、あるいは、解析部102からの指示によって各データを解析部102へ出力する。受信したデータを同期させるためには、各データに時計の時刻を同期信号として含ませる方法と、視認者感性反応装置100から同期信号を送信装置7、身体動作撮影装置9及び身体温度測定装置10へ送り、送信装置7からの視認映像a、眼球運動映像b、音声データc及び応答データd、身体動作撮影装置9からの身体動作映像e、身体温度測定装置10からの身体温度データfに同期信号データとして含ませる方法とがある。これにより、全データを同期させて処理することができる。
〔解析部〕
解析部102は、所定の時間間隔で、あるいは、受信部101へ指示することによって、受信部101から視認映像a、眼球運動映像b、音声データc、応答データd、身体動作映像e及び身体温度データfを取得する。そして、解析部102は、各データa〜fに同期信号データを付し、蓄積部103へ蓄積する。また、解析部102は、必要に応じて、蓄積部103に蓄積した各データa〜fを読み出し、読み出した各データa〜fを解析のために用いる。また、解析部102は、視認映像a及び眼球運動映像bから視認映像aにおける視点の位置を算出するとともに、視認者の生理反応データの変化に伴う加速度を算出する。詳細については後述する。
図3は、視認映像aと眼球運動映像bとを用いて、視点の位置を算出することを説明する図である。解析部102は、図3に示すように、眼球運動映像bから視線を求め、この視線と視認映像aとを合わせることにより、視点の位置を算出する。ここで、視線の算出方法は、様々なものがある。例えば、角膜反射法と呼ばれる、眼球へ点光源の近赤外線を照射し、角膜表面における反射像(以下、プルキニエ像という。)を利用する方法がある。角膜反射法による視線の測定方法は、2種類に大別され、瞳孔中心とプルキニエ像との距離から視線を求める方法と、プルキニエ像から得られる角膜曲率中心と瞳孔中心を結ぶ線を仮想視線とし、誤差補正を行って視線を求める方法とがある。
図4は、視認者1の頭(顔の動きを含む)の動きと視認映像aの関係を説明するための図である。解析部102は、図4に示すように、視認映像aによって、視認者1の頭の動きを計測する。視認情景撮影装置5の撮影時におけるフレーム周波数をS(/秒)とするとフレーム間隔Fは、F=1/S(秒)となる。図4において、頭の動きについては、視認者1が頭に装着する視認情景撮影装置5が撮影した視認映像aだけでも、その動きを計測できる。ただし、視認映像aを基本にした計測であるため、2次元となる。ここで、視認映像aの視野角(横θh、縦θv)は視認情景撮影装置5によって、予め設定されている。また、解析部102は、身体動作映像eを用いて、頭の動きを計測することもできる。または、画像処理によって身体動作映像eから頭を特定し、その頭を追跡することにより、頭の動きを計測する。
図5は、視認映像aを解析する際の座標軸の一例である。また、図6は、水平方向に視認者1の頭が動いた場合の頭の移動を説明する図である。ここでは、視認者1の頭を中心に視野全体を球面にたとえて、頭の動きを水平方向h、上下方向をvで表している。図5に示す座標軸は、(h、v)ともに数字だけで表したり、ラジアン(rad)または角度(°)で表したりしてもよい。例えば、一周をそれぞれ、1(−0.5〜+0.5)、2πrad(−π〜+π)、360°(−180°〜+180°)で表してもよい。なお、図6においては、最初のフレーム画面をF0として、1/S秒後の次のフレーム画面をF0+1として表している。
また、解析部102は、頭の移動距離、移動速度、移動加速度を算出する。図7は、フレーム画面F0から次のフレーム画面F0+1へ頭が移動した場合の、静止物の基点の移動を示す図である。視認映像aを、左下端を原点とした座標(x,y)で表し、最初のフレーム画面F0の中の動いていない物(静止物)“A”の点を基点と決めて、その座標を(x0,y0)とする。ここで、静止物“A”及びその点(座標)は、視認者感性反応装置100を操作するオペレータが視認映像aを見て指定することによって、決定するようにしてもよいし、予め設定された静止物“A”の特徴を視認映像aから捉え、自動的に決定するようにしてもよい。なお、静止物“A”を特定して追跡する画像処理については既知の技術であるから、ここでは詳細な説明を省略する。1/S秒後の次のフレーム画面F0+1における静止物“A”の位置(x1,y1)を測ることにより、解析部102は、以下のデータを算出する。
頭の水平移動距離:h0=x1−x0
頭の垂直移動距離:v0=y1−y0
頭のF0からF0+1までの移動距離:phv0=(h02+v021/2
また、解析部102は、移動フレームを全部合わせることにより、以下のデータを算出する。
全移動水平距離:phn=Σh=h0+h1+・・・・・+hn
全移動垂直距離:pvn=Σv=v0+v1+・・・・・+vn
全体の移動距離:phvn=(phn2+pvn21/2
ここで、0,1,2,・・・,nは最初のフレーム番号を0としたときのフレーム番号である。また、解析部102は、フレーム画面F0における頭の移動速度qhv0を、qhv0≒d(phv)/dt≒phv1−phv0/(1/S)として算出する。また、解析部102は、フレーム画面F0における頭の移動加速度khv0を、khv≒d(qhv)/(1/S)≒qhv1−qhv0/(1/S)として算出する。
また、解析部102は、視認映像aの中の視点の動きを算出する。図8は、視認映像aの中の視点Bの移動を示す図である。図8では、フレーム画面F0における視認映像aの中の視点の位置を(H0,V0)で表示する。また、次のフレーム画面F0+1における視点の位置を(H1,V1)で表示する。1/S秒後の次のフレーム画面F0+1における視点Bの位置(H1,V1)を測ることにより、解析部102は、視点の水平移動距離pH0を、pH0=H1−H0として算出する。同様に、垂直移動距離pV0を、pV0=V1−V0として算出する。また、視点のF0からF0+1までの移動距離pHV0を、pHV0=(pH02+pV021/2として算出する。また、移動フレームF0からFまでを全部あわせた水平移動距離pHnを、pHn=ΣpH=pH0+pH1+pH2+・・・+pHnとして算出する。同様に、垂直移動距離pVnを、pVn=ΣpV=pV0+pV1+pV2+・・・+pVnとして算出する。よって、F0からFまでの全体の移動距離pHVnを、pHVn=(pHn2+pVn21/2として算出する。また、フレーム画面F0における視認映像aの中での視点の水平速度qH0を、qH0≒d(pH)/dt≒pH1−pH0/(1/S)として算出する。同様に、垂直速度qV0を、qV0≒d(pV)/dt≒pV1−pV0/(1/S)として算出する。また、フレーム画面F0における視点の移動速度qHV0は、qHV0=(qH02+qV021/2として算出する。また、フレーム画面F0における視認映像aの中での視点の水平加速度kH0を、kH0≒d(qH)/dt≒qH1−qH0/(1/S)として算出する。同様に、垂直加速度kV0を、kV0≒d(qV)/dt≒qV1−qV0/(1/S)として算出する。また、フレーム画面F0における視点の移動加速度kHV0を、kHV0=(kH02+kV021/2として算出する。
また、解析部102は、頭の動きを含む視点の動きを算出する。図9は、フレームF0からフレームF0+1に移動した際の視点の移動を示す図である。図9において、解析部102は、フレームF0における頭と視点との水平移動距離を、Dh0=ph0+pH0として算出する。同様に、フレームF0における頭と視点との垂直移動距離を、Dv0=pv0+pV0として算出する。したがって、F0からF0+1までの頭と視点との移動距離D0は、D0=(Dh02+Dv021/2として算出する。また、フレーム画面F0からFまでのトータルの頭と視点との全移動距離TDを、TDn=D0+D1+・・・+Dnとして算出する。また、フレームF0における頭を含む視点の移動速度を以下のように算出する。
水平速度:Qh0=qh0+qH0
垂直速度:Qv0=qv0+qV0
したがって、フレームF0における速度Q0は、Q0=(Qh02+Qv021/2として算出する。同様に、フレームF0における頭を含む視点の加速度を以下のように算出する。
水平加速度:Kh0=kh0+kH0
垂直加速度:Kv0=kv0+KV0
したがって、フレームF0における頭を含む視点の加速度K0は、K0=(Kh02+Kv021/2として算出する。
また、解析部102は、視認映像aの中で対象物の移動も視点の移動と同様に算出する。
上記の情報を用いて、解析部102は、対象物に視点が追尾しているか否かを解析する。図10は、視認映像aにおける対象物と視点の位置関係を示す図である。図10において、視認映像aの中で、対象物Cの映像の中に視点Bが入っている場合は、視認者の視点はその対象物を追尾していると判定する。なお、対象物の輪郭の特定は、画像処理によって可能であり、既知の技術で対応可能であるため、ここでは詳細の説明は省略する。
また、解析部102は、視点Bの位置(H,V)と対象物Cの位置(X,Y)の乖離距離、視点が対象物に接近する際の接近速度(Bv)及び接近加速度(Bk)、視点が対象物から離脱する際の離脱速度(Bs)及び離脱加速度(Br)を算出する。なお、対象物Cが視認映像aから外れたり、視点Bが対象物Cから離れて所定の時間経過したり等の所定の条件を満たす場合は、明らかに視点Bが対象物から離脱したと判定する。
図11は、接近速度(Bv)、接近加速度(Bk)、離脱速度(Bs)及び離脱加速度(Br)の算出方法を示すフローチャートである。接近速度(Bv)、接近加速度(Bk)、離脱速度(Bs)、離脱加速度(Br)の算出方法を、図11を参照して説明する。まず、ステップ101において、解析部102は、視点が対象物の範囲内にあるか否かを判定する。対象物が範囲内にあるか否かは、視点Bの位置(H,V)と対象物Cの位置(X,Y)の乖離距離から求められる。まず、フレームF0における水平乖離距離Zh0を、Zh0=X0−H0として算出する。同様に、垂直乖離距離Wv0を、Wv0=Y0−V0として算出する。また、乖離距離U0を、U0=(Xh02+Wv021/2として算出する。フレームF0における乖離距離をU0、フレームF0+1における乖離距離をU1とする。
ア.視点Bの位置(H,V)が対象物Cの位置(X,Y)の範囲内に含まれない場合(ステップ101:N)、すなわち、視点Bが対象物Cの外部に存在する場合、以下のA〜Cの処理を行う。
A.ステップ103において、U1−U0<0のとき、視点Bは対象物Cに接近中であると判定し、ステップ104へ進み、接近速度および加速度を算出する。フレームF0において、視点Bの対象物Cへの接近速度(Bv)は、以下のようになる。
Bv0=U1−U0/(1/S)
また、視点Bの対象物Cへの接近加速度(Bk)は、以下のようになる。
Bk0=Bv1−Bv0/(1/S)
そして、ステップ101の処理へ戻る。
B.ステップ103において、U1−U0>0のとき、視点Bは対象物Cから離脱中であると判定し、ステップ105へ進み、離脱速度および加速度を算出する。フレームF0において、視点Bの対象物Cからの離脱速度(Bs)は、以下のようになる。
Bs0=U1−U0/(1/S)
また、視点Bの対象物Cからの離脱加速度(Br)は、以下のようになる。
Br0=Bs1−Bs0/(1/S)
そして、ステップ101の処理へ戻る。
C.なお、ステップ103において、U1−U0=0のときは、その時点での視点の移動はない。したがって、それ以降のU1−U0の結果がプラス+またはマイナス−になるまで判断を待つ必要がある。したがって、ステップ101の処理へ戻る。
イ.視点Bの位置(H,V)が対象物Cの位置(X,Y)の範囲内に含まれる場合(ステップ101:Y)、すなわち、視点Bが対象物Cの内部に存在する場合、視点追尾中であると判断し、ステップ102へ移行し、フレーム数(N)を数えて、後述する図12を用いて説明するように、視点追尾時間{=((1/S)×N)}を算出する。
また、解析部102は、視点追尾時間を算出する。図12は、視点追尾時間の算出方法を示すフローチャートである。図12に示す視点追尾時間の算出方法は、図11に示したステップ102に対応している。まず、ステップ201において、解析部102は、視点が対象物の範囲内にあるか否かを判定する。視点が対象物の範囲内にあるか否かの判定方法は、図11において説明した方法と同様である。そして、視点が対象物の範囲内にある場合、ステップ202へ進み、時間をカウントする。次に、ステップ203において、視点が対象物の範囲内にあるか否かを判定し、範囲内にある場合は、ステップ202へ戻り、時間をカウントする。一方、視点が対象物の範囲内にない場合は、ステップ204へ進み、カウントした時間を視点追尾時間として設定するとともに、図11のステップ101へ戻る。
また、解析部102は、眼球運動映像bから、瞳孔径(P)及び瞬目回数を測定する。さらに、解析部102は、複数の瞳孔径(P)のデータから、瞳孔径の拡大速度(Pv)、瞳孔径の拡大加速度(Pk)、瞳孔径の縮小速度(Ps)、瞳孔径の縮小加速度(Pt)を算出する。なお、視認映像aに照度データが含まれている場合、解析部102は、照度による瞳孔径の変動を補正する。この瞳孔径の補正方法には、明瞳孔画像と暗瞳孔画像の差分による補正等があるが、これらの方法は既知の技術を用いることにし、ここでは詳細な説明は省略する。
以上のように、解析部102は様々な値を解析し、この解析した値を解析値Aとして、蓄積部103及び診断部104へ出力する(図2参照)。よって、解析値Aに含まれる値としては、瞳孔径(P)、瞳孔径の拡大速度(Pv)、瞳孔径の拡大加速度(Pk)、瞳孔径の縮小速度(Ps)、瞳孔径の縮小加速度(Pt)、視点追尾時間(Bt)、視点接近速度(Bv)、視点接近加速度(Bk)、視点離脱速度(Bs)、視点離脱加速度(Br)の他、視認者の身体(例えば、頭)の接近移動速度、接近移動加速度、瞬目回数、音声データc、応答データd、身体温度データfが挙げられる。
〔蓄積部〕
再び図2を参照して、蓄積部103は、解析部102から出力された視認映像a、眼球運動映像b、音声データc、応答データd、身体動作映像e及び身体温度データfを蓄積する。また、蓄積部103は、解析部102から出力された解析値Aを蓄積する。さらに、蓄積部103は、視認者1が興味の低い、すなわち、平凡で刺激の低い対象物2を見ている場合の瞳孔径(Ph)、瞳孔径の拡大速度(Phv)、瞳孔径の拡大加速度(Phk)、瞳孔径の縮小速度(Phs)、瞳孔径の縮小加速度(Pht)、視点追尾時間(Bht)、視点接近速度(Bhv)、視点接近加速度(Bhk)、視点離脱速度(Bhs)及び視点離脱加速度(Bhr)を平常値Hとして、予め蓄積している。また、蓄積部103は、視認者1の興味の高い対象物2を見ている場合の瞳孔径(Pe)、瞳孔径の拡大速度(Pev)、瞳孔径の拡大加速度(Pek)、瞳孔径の縮小速度(Pes)、瞳孔径の縮小加速度(Pet)、視点追尾時間(Bet)、視点接近速度(Bev)、視点接近加速度(Bek)、視点離脱速度(Bes)及び視点離脱加速度(Ber)を感動値Eとして、予め蓄積している。また、蓄積部103は、診断部104から出力された診断結果を蓄積する。
〔診断部〕
診断部104は、解析部102から出力された解析値Aを、蓄積部103に蓄積された平常値Hあるいは感動値Eと比較することにより、視認者1の対象物2に対する興味を診断し、視認者1が視認している対象物2または視認者1自身の能力を評価する。すなわち、診断部104は、解析値Aに含まれる各パラメータを、a,b,c,・・・とし、各パラメータに対する重み付けをA,B,C,・・・とし、以下の評価値E(t)を算出する。
E(t)=A・a(t)+B・b(t)+C・c(t)+・・・
具体的には、診断部104は、所定時間内における瞬目回数が所定回数よりも減少している場合、その対象物2に興味があると診断する。さらに、診断部104は、瞳孔径が所定値よりも大きい場合、その対象物2に興味があると診断する。上記に加え、診断部104は、瞳孔径の拡大速度及び拡大加速度が所定値よりも大きい場合、その対象物2に興味があると診断し、逆に、瞳孔径の縮小速度及び縮小加速度が所定値よりも大きい場合、その対象物2に興味がないと診断する。また、診断部104は、視点接近速度及び視点接近加速度が所定値よりも大きい場合、その対象物2に興味があると診断し、逆に、視点接近速度及び視点接近加速度が所定値以下の場合、その対象物2に興味がないと診断する。また、視点離脱速度及び視点離脱加速度が所定値よりも大きい場合、その対象物2に興味がないと診断し、逆に、視点離脱速度及び視点離脱加速度が所定値以下の場合、その対象物2に興味があると診断する。
さらに、診断部104は、対象物2への頭部の向きの接近移動速度及び接近加速度と、視点接近速度、視点接近加速度とを合成した視点の移動速度及び加速度を算出することにより、上記と同様の判定を行う。視認者1は、興味がある場合、視点が対象物を追尾するために頭もその方向を維持する。なお、興味がなくても頭を対象物に向け続けることはあるが、この場合、瞳孔径は縮小している。また、頭が対象物2方向から離れ続け、瞳孔径が縮小している場合、興味がないと診断する。
また、診断部104は、視認者1がある対象物2に視点が平常値(Bht)より多くの時間追尾して、瞳孔径が感動値(Pe)になる場合には、その対象物に興味・関心があると診断する。すなわち、
Bt>Bht
P>Ph×1.3、または、P=Pe
の場合、診断部104は、視認者1が対象物2に興味・関心があると診断する。対象物2が動いている場合は、視認者は対象物2が見える間追尾する。一方、動かない対象物2の場合は、平常値(Bht)以上の時間を追尾する。また、診断部104は、一旦、視点が対象物2の範囲内を短時間{<Bht}追尾し、瞳孔径が感動値(Pe)までに拡大せず、視点離脱速度が平常値(Bhs)より急速{>Bhs}に視点が対象物2から離れ、再度視点が対象物2に戻らない場合、視認者1はその対象物2に興味がないと診断する。さらに、診断部104は、視認者1が一旦対象物2を見て瞳孔径が拡大するが、所定の時間内である短時間で視点が対象物2から離脱した場合、嫌悪感があると診断する。すなわち、対象物内に視点があるとき、
P>Ph、または、P=Pe
であり、この時、対象物からの視点離脱速度(Bs)、加速度(Br)が平常値(Bhs,Bhr)より大きく、
Bs>Bhs
そして、
Br<Bhr
である場合、対象物2に対して嫌悪感があると診断する。なお、すでに1000件以上の統計では、対象物への視点追尾時間(Bt)がBt<0.2秒である場合、明らかに嫌悪感があると診断できるという結果を得ている。
また、診断部104は、身体温度データfを用いて、身体温度が上昇した場合、視認者1は、対象物2に興奮していると診断する。また、診断部104は、応答データdを用いて、対象物2及び視認者1自身の能力を評価する。具体的な応答データdの使用方法は、後に詳述する。また、診断部104は、診断結果を表示部105及び蓄積部103へ出力する。
〔表示部〕
表示部105は、診断部104における診断結果をディスプレイなどの出力装置へ表示する。表示部105に表示された診断結果により、オペレータは、対象物2及び視認者1自身の能力を判断することができる。
以上のように、本発明の実施形態による視認者感性反応装置100によれば、生理反応データの変化に伴う加速度を用いて、対象物2または視認者1自身の能力を評価する。生理反応データの変化としては、瞳孔径の拡大加速度(Pk)、瞳孔径の縮小加速度(Pt)、視点接近加速度(Bk)、視点離脱加速度(Br)が挙げられる。瞳孔径の拡大加速度(Pk)が大きくなるほど、あるいは、視点接近加速度(Bk)が大きくなるほど、その対象物2に興味があると診断し、逆に、瞳孔径の縮小加速度(Pt)が大きくなるほど、あるいは、視点離脱加速度(Br)が大きくなるほど、その対象物2に興味がないと診断する。このように、本発明の実施形態による視認者感性反応装置100によれば、視認者の生理反応をより正確に把握し、様々な状況において、対象物または視認者自身の能力をより正確に評価することができる。本発明の実施形態による視認者感性反応装置100の適用場面については、後に詳述する。
以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。例えば、前記実施形態では、身体動作撮影装置9及び身体温度測定装置10は、直接、視認者感性反応装置100にデータを送信しているが、一旦蓄積装置8に蓄積され、視認映像aなどとともに、送信装置7から視認者感性反応装置100へ送信しても構わない。また、アイカメラ3が、眼球撮影装置4、視認情景撮影装置5及びマイクロフォン6を備える構成としたが、眼球撮影装置4、視認情景撮影装置5及びマイクロフォン6は、必ずしも物理的に接続されている必要はなく、それぞれが単体として備えていても構わない。
また、前記実施形態では、視点の位置を算出する際に、角膜反射法を用いたが、視点の位置を算出する方法はこれに限られず、様々な公知の方法が使用可能である。
尚、視認者感性反応装置100は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。視認者感性反応装置100に備えた受信部101、解析部102、蓄積部103、診断部104及び表示部105の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもできる。
次に、本発明の実施形態による視認者感性反応装置100が適用される場面について説明する。具体的には、購買意欲度診断、学習意欲度診断、CM等コンテンツ診断、相性診断、赤ん坊等の意思伝達診断、ロボットの応対診断、犯罪証拠診断、ドライバー眠気感知診断、自動車運転適性診断、労働安全熟練度診断、労働前適正診断、運動選手適正診断、ゲームのエキサイト度診断、空間デザイン診断、映像コンテンツ選択優先度診断について説明する。
〔購買意欲度診断〕
購買意欲度診断では、ある商品を一般の視認者1に見てもらい、その商品に対して、視認者1が購買意欲をもつか、持たないかの診断を行う。視認方法は、実際の商品を見る方法でも、テレビ、PC等のディスプレイに表示された商品でも構わない。購買力診断には、図1及び図2に示す視認者感性反応装置100を用いる。ここでは、対象物2は商品の映像となる。診断部104は、ア.その商品を見て、瞳孔が感動値(Pe)まで拡大していない{<Pe}(無関心)、イ.視点追尾時間が平常値(Bht)より短い(興味なし)場合、視認者1がその商品に対して「購買意欲はない」と診断する。さらに、商品からの視点離脱速度(Bs)と最初の加速度(Br)が平常値{Bhs、Bhr}より大きいときに、嫌悪感があり、反発心があると診断する。この場合、明らかに購買意欲がある場合とは反対の行動であるといえる。このことから、「購買意欲なし」という診断の度合いを速度及び加速度の大きさによって測ることができる。一方、瞳孔径(P)が拡大していて、商品への視点追尾時間(Bt)が平常値(Bht)より長く、感動値(Bet)に達したときに、興味はあると診断できるが、購買意欲があることまでは診断できない。すなわち、興味がない場合は、購買意欲はないが、興味があっても、購買意欲がない場合がある。次に、複数の商品を視認者1に視認してもらい、特定の商品を見て、他の商品より、ア.瞳孔径が大きい、イ.視点追尾時間が長い、ウ.視点離脱速度、最初の加速度が小さい場合は、その特定商品が一番興味を引くことから、診断部104は、他の商品より購買意欲度が高いと診断する。一方、特定の商品が、他の商品より、ア.瞳孔径が小さい、イ.視点滞留時間が短い、ウ.視点離脱速度、最初の加速度が大きい場合、診断部104は、購買意欲度は他の比べて少ないと診断する。
〔学習意欲度診断〕
学習意欲度診断では、上述した商品に代えて学習対象(教師、教科書、黒板等)を対象物2とすることにより、学習意欲度の診断を行う。学習意欲度診断には、図1及び図2に示す視認者感性反応装置100を用いる。ここでは、対象物2は学習対象(教師、教科書、黒板等)の映像となる。診断部104は、視認者1が学習対象(教師、教科書、黒板等)を見ている時、ア.瞳孔径(P)が感動値(Pe)まで拡大していない(無関心)、イ.視点追尾時間(Bt)が平常値(Bht)より短い(興味なし)場合、視認者1がその学習に対して「学習意欲はない」と診断する。さらに、学習対象からの視点離脱速度(Bs)と最初の加速度(Br)が平常値{Bhs、Bhr}より大きい場合、診断部104は、嫌悪感があり、反発心があると診断する。このことから、診断部104は、「学習意欲なし」と診断する。一方、瞳孔径(P)が拡大していて、学習対象への視点追尾時間(Bt)が平常値(Bht)より長くても、興味・関心はあるが、学習意欲とは必ずしも結びつかない。すなわち、興味がない場合は、学習意欲はないが、興味があっても、学習意欲がない場合がある。次に、複数の学習対象を視認者1に視認してもらい、特定の学習対象を見て、他の学習対象より、ア.瞳孔径が大きい、イ.視点追尾時間が長い、ウ.視点離脱速度、最初の加速度が小さい場合は、その学習対象が一番興味を引くことから、診断部104は、他の学習対象より学習意欲度が高いと診断する。一方、特定の学習対象が、他の学習対象より、ア.瞳孔径が小さい、イ.視点追尾時間が短い、ウ.視点離脱速度、最初の加速度が大きい場合、診断部104は、その対象の学習意欲度は、他の学習対象に比べて少ないと診断する。
〔CM等コンテンツ診断〕
CM等コンテンツ診断では、視認者1がテレビ、映画、コンピュータ等のディスプレイでの映像、ウェブページ、ポスター等のCMなどのコンテンツを見ている場合に、コンテンツの診断を行う。CM等コンテンツ診断には、図1及び図2に示す視認者感性反応装置100を用いる。ここでは、対象物2は、コンテンツに含まれる訴求対象の映像となる。訴求対象とは、コンテンツの作者が視認者1に特に見てほしいと意図している映像である。そして、診断部104は、視認者1がコンテンツの作者の訴求対象を見て、興味・関心度が高いと、良いコンテンツであると診断する。具体的には、診断部104は、対象物2が静止画の場合、視点追尾時間(Bt)がその訴求対象に平常値(Bht)より長時間追尾し、瞳孔径(P)も平常値(Ph)より拡大し、視線の離脱速度(Bs)、加速度(Br)も平常値{Bhs、Bhr}より遅い、すなわち、以下の数式を満たすときに、
Bt>Bht
P>Ph、または、P=Pe
Bs<Bhs
Br<Bhr
その静止画は作者の意図した効果があるものと診断する。また、対象物2が動画の場合、作者の意図する山場(やまば)(いくつあっても良い)に、その場面が続く間、視認者1の視点が画面を追尾し、瞳孔径(P)が平常値(Ph)より大きく、視点の離脱速度(Bs)が平常値(Bhs)より遅い、すなわち、以下の数式を満たすときに、
Bt>Bht
P>Ph、または、P=Pe
Bs<Bhs
Br<Bhr
その動画は作者の意図した効果があるものと診断する。逆に、視点追尾時間(Bt)が平常値(Bht)より短く、対象画面から視線を離脱する速度(Bs)と最初の加速度(Br)が平常値(Bhs、Bhr)より大きいときに、興味・関心がないと診断する。さらに、これらの値が大きいほど、すなわち、以下の数式を満たすときに、
Bt<Bht
Bs>Bhs
Bs>Bhs
Br>Bhr
診断部104は、嫌悪感を持つと診断する。また、複数の動画CMを視認者1に視認してもらい、診断部104は、動画CMの中の訴求する対象(商品名等)に他より長時間視点が追尾し、瞳孔径が他より拡大しているCMほど、CMとしての評価が高いと診断する。また、視認者1にポスター、ウェブページ等の静止画を見てもらい、診断部104は、訴求対象に視点が他より長時間追尾し、瞳孔径がより拡大している方が評価が高いと診断する。また、視認者1に、複数の比較する映像(TVコンテンツ、映画等)を視認してもらい、全体にエキサイトする作品を診断する場合は、診断部104は、瞳孔径を作品全体の時間帯で計測し、瞳孔径の積分値の大きい方が興味・関心が高く、注目させる作品であると診断する。また、特定の山場(複数あっても良い)で興味・関心、注目して欲しい作品を診断する場合は、診断部104は、作者の意図する山場で瞳孔径の積分値が大きいと、その部分に興味・関心が高く、それだけ作者の意図した作品に近いと診断する。
〔相性診断〕
相性診断では、テレビ電話機能(携帯電話を含む)で通信回線を通して、お互いに顔を見ながら通話をしている状況において、通話相手同士の相性診断を行う。相性診断には、図13及び図14に示す視認者感性反応装置100を用いる。図13は、相性診断に用いる視認者感性反応システムの構成を示すブロック図であり、図14は、相性診断に用いる視認者感性反応装置100の構成を示すブロック図である。ここでは、対象物2はディスプレイ22a、22bに表示された顔の映像となる。まず、Aさんが使用するテレビ電話20a及びBさんが使用するテレビ電話20bは、それぞれ通信回線30を介して、視認者感性反応装置100に接続されている。また、図14に示す視認者感性反応装置100の蓄積部103は、視認者(ここでは、Aさん、Bさん)の個人属性データを予め計測して蓄積している。個人属性データには、視認者(Aさん、Bさん等)の年齢、性別、出身地等の他、平凡で刺激の低い対象物を見ている場合の平常値(「瞳孔径」「瞳孔径の拡大速度」「加速度」、「瞳孔径縮小速度」「加速度」、「視点追尾時間」、「視点接近速度」「加速度」、「視点離脱速度」「加速度」)と、興味・関心が高い視認対象を見ている時の感動値(興味・関心のある物を見る場合の「瞳孔径」、「瞳孔径の拡大速度」「加速度」、「瞳孔径縮小速度」「加速度」、「視点追尾時間」、「視点接近速度」「加速度」、「視点離脱速度」「加速度」)が含まれている。さらに、蓄積部103は、人間の年齢、性別、職業といった層ごと、及び、全体の平常値、感動値等の平均値を蓄積する。
テレビ電話20a、20bは、それぞれ、顔カメラ21a、21b、ディスプレイ22a、22b、眼球カメラ23a、23b及び追尾カメラ24a、24bを備えている。顔カメラ21a、21bは、通話者の顔を撮影する。ディスプレイ22a、22bは、通信相手を表示する。眼球カメラ23a、23bは、通話者の眼球を撮影する。追尾カメラ24a、24bは、眼球カメラ23a、23bの両側に設けられ、三角測量の原理を用いて通話者の眼球の位置を計測する。追尾カメラ24a、24bによる計測結果に応じて、眼球カメラ23a、23bは、通話者の眼球を追尾する。なお、眼球カメラ23a、23bを省略し、顔カメラ21a、21bを高詳細なものにして、視認者感性反応装置100内の解析部102において、通話者の顔映像を拡大して、画像解析により通話者の眼球映像を捉えても良い。また、眼球カメラ23a、23bを省略し、顔カメラ21a、21bを高詳細なものにして、視認者感性反応装置100内の解析部102において、通話者の顔映像を拡大して、画像解析により通話者眼球映像を捕らえる場合、追尾カメラ24a、24bの代わりに、テレビ電話20a、20bから通話者の顔までの距離を測る他の手段を用いても良い。このようにして、眼球をとらえ、距離が分かるので、瞳孔の直径が計測できる。
Aさんが使用するテレビ電話20aでは、顔カメラ21aでAさんの顔を撮影し、眼球カメラ23aでAさんの眼球を撮影する。そして、テレビ電話20aは、Aさんの顔データ、Aさんの眼球データ(視線方向、瞳孔映像、カメラから眼球までの距離)を、通信回線30を介して、視認者感性反応装置100へ送信する。同様に、Bさんが使用するテレビ電話20bでは、顔カメラ21bでBさんの顔を撮影し、眼球カメラ23bでBさんの眼球を撮影する。そして、テレビ電話20bは、Bさんの顔データ、Bさんの眼球データ(視線方向、瞳孔映像、カメラから眼球までの距離)を、通信回線30を介して、視認者感性反応装置100へ送信する。
視認者感性反応装置100の受信部101は、Aさん及びBさんの、顔データ及び眼球データ(視線方向、瞳孔映像、カメラから眼球までの距離)を受信する。視認者感性反応装置100の解析部102は、Aさんの眼球データの視線方向データから、Aさんの持つディスプレイ22aに映るBさんの顔の映像の中の視点の位置、視点移動速度(接近速度Bv、離脱速度Bs)及び加速度(接近加速度Bk、離脱加速度Br)を算出する。また、Aさんの眼球データから、眼球カメラ23aから眼球までの距離と瞳孔映像から瞳孔径を算出し、同時に瞳孔径(P)の拡大速度(Pv)、縮小の速度(Ps)、拡大加速度(Pk)及び縮小加速度(Pt)を算出する。一方、Bさんの眼球データの視線方向データから、Bさんの持つディスプレイ22bに映るAさんの顔映像の中の視点の位置、視点移動速度(接近速度Bv、離脱速度Bs)及び加速度(接近加速度Bk、離脱加速度Br)を算出する。また、Bさんの眼球データから、眼球カメラ23bから眼球までの距離と瞳孔映像から瞳孔径を算出し、同時に瞳孔径(P)の拡大速度(Pv)、縮小の速度(Ps)、拡大加速度(Pk)及び縮小加速度(Pt)を算出する。解析部102は、解析した値を診断部104へ出力する。診断部104は、AさんがBさんの顔を追尾する時間が、Bさんの顔が映っている限り追尾しており、Aさんの瞳孔径(P)が蓄積部103から読み出した感動値データ(Pe)にまで拡大していれば、AさんはBさんに興味・関心を持っていると診断する。送信部106は、この診断結果をBさんのテレビ電話20bに送信する。診断結果を受信したテレビ電話20bは、ディスプレイ22bに、{AさんがBさんに興味・関心がある}ことを示す記号(たとえばハートマーク)を特定の箇所に表示する。逆に、BさんがAさんの顔を追尾する時間が、Aさんの顔がBさんのテレビ電話のディスプレイ22bに映っている間より短く(Bさんの顔からAさんの視点が離脱する)、瞳孔径(P)も蓄積部103から引き出した感動値データ(Pe)にまで拡大することがなく、瞳孔の拡大速度(Pv)、初期瞳孔拡大加速度(Pk)が平常値(Phv、Phk)より少ない場合は、診断部104は、BさんはAさんに興味・関心がないと診断する。送信部106は、この診断結果を、Aさんのテレビ電話20aに送信する。診断結果を受信したテレビ電話20aは、ディスプレイ22aに、{BさんがAさんに興味・関心がない}ことを示す記号(たとえば×マーク)を特定の箇所に表示する。
上述した相性診断を応用し、以下のような状況に適用することができる。(ア)結婚の見合いの場面に用いる。(イ)面接試験の場面に用いる。これにより、被相談者の真の心理状況を知ることができ、診断結果を発言内容の裏づけの参考にすることができる。(ウ)犯罪者との面談の場面に用いる。具体的には、刑事事件における犯罪容疑者との面談の
場面に用いることにより、犯罪容疑者の心理状態を知ることができる。これらの場面では、話の内容、表示された映像に興味があった場合には、瞳孔径(P)が平常値(Ph)より大きくなる性質が利用される。
なお、相性診断では、図13及び図14に示すブロック図を用いて説明したが、特に説明しなかった部については、上述した図1及び図2の構成と同様である。
〔赤ん坊等の意思伝達診断〕
赤ん坊、動物(ペットを含む)、認知症者の生理反応による意思伝達診断では、赤ん坊、動物(ペットを含む)、認知症者の意思の診断を行う。ここでは、赤ん坊、動物、認知症者等の言葉を話すことが困難な人及び動物を視認者1として、アイカメラ3を装着させる。または、赤ん坊、動物、認知症者等がディスプレイの前に座って、ディスプレイの下にあるカメラで赤ん坊、動物、視認症患者の眼球を撮影する方法もある。赤ん坊等の意思伝達診断には、図1及び図2に示す視認者感性反応装置100を用いる。解析部102は、赤ん坊、動物、認知症者等の視点の位置と瞳孔径(P)を計測し、診断部104は、視認対象に視点が追尾し、瞳孔径(P)が平常値(Ph)より大きいときに、その視認対象に、赤ん坊、動物、認知症者等が興味・関心があると診断する。これにより、ものを言わない赤ん坊、認知症者、動物の視認対象に対する興味を把握できる。逆に、診断部104は、視認対象への視点の追尾時間(Bt)が平常値(Bht)より短く、視点離脱速度(Bs)、加速度(Br)が平常値(Bhs、Bhr)より速く、瞳孔径(P)も感動値(Pe)より少ないときに、視認対象に対して無関心で、興味がないと診断する。これにより、ものを言わない赤ん坊、認知症者、動物への対応が可能となる。
〔ロボットの応対診断〕
ロボットの応対診断では、ロボットに、アイカメラ3、身体動作撮影装置9、身体温度測定装置10、及び図15に示す視認者感性反応装置100を組み込み、ロボットと応対する人などに対する診断を行う。ロボットは、応対する人、ものを言わない赤ん坊、認知症者、動物等の顔、眼球の動き、身体動作、身体温度の変化を常に捉えている。ロボットの応対診断では、図1に示す視認者感性反応システムを用い、図15に示す視認者感性反応装置100を組み込む。図15は、ロボットの応対診断に用いる視認者感性反応装置100の構成を示すブロック図である。視認者感性反応装置100の診断部104は、ロボットと応対する人、またはものを言わない赤ん坊、認知症者、動物の感情を診断する。言動選択部107は、診断部104から入力された診断結果に基づいて、予め記憶された複数の言動の中から診断結果に見合った言動を選択する。これにより、ロボットは、診断結果に従って、応対する人及び動物の感情を把握し、適切な言葉を発することができる。また、適切な支援行動を起こすこともできる。なお、ロボットの応対診断では、図15に示すブロック図を用いて説明したが、特に説明しなかった部については、上述した図2の構成と同様である。
〔犯罪証拠診断〕
犯罪証拠診断では、犯罪容疑者にアイカメラ3を装着し、平凡な映像の途中に、犯罪現場を含むビデオ映像を見せることにより、犯罪の証拠となる映像を診断する。犯罪証拠診断には、図1及び図2に示す視認者感性反応装置100を用いる。犯罪容疑者は、自己の犯罪現場を含む場面を見たときに、他の場面よりも瞳孔径(P)が拡大することから、診断部104は、瞳孔径(P)が拡大したときに見ていた映像の場所が犯罪現場であるとして、犯罪現場を特定することができる。さらに、その対象物である映像への視点追尾時間(Bt)は平常値(Bht)より短く、視点離脱速度(Bs)、初期加速度(Br)が平常値(Bhs、Bhr)より高いときに、診断部104は、その場面の映像に嫌悪感があると診断する。すなわち、犯罪容疑者はその場面を早く避けたいと思っていることになる。診断部104による診断結果は、その場所が犯罪場所であると判定するための参考になる。また、犯罪容疑者に被害者の映像または写真を複数の人物と織り交ぜて見せた場合、診断部104は、犯罪容疑者が被害者の姿の映像または写真を見て、他の人物に比べて瞳孔径が大きくなったときに、その犯罪容疑者が犯人であると診断する。一般に、自己の犯罪場面と被害者に対して、あまり見続けたくないので、嫌悪感と同様の反応を示すため、診断部104は、対象への視点追尾時間(Bt)が平常値(Bht)より短く、対象から視点をそらす速度(Bs)が平常値(Bhs)より大きく、したがって、そらす瞬間の加速度(Bhr)も大きい場合、その容疑者が犯人であると診断する。また、犯罪現場を含むビデオの代わりに、犯罪容疑者にアイカメラ3を装着させて犯罪現場に出向かせることにより、同様に犯罪対象物への注目、嫌悪感の度合いが診断でき、捜査の参考にできる。
〔ドライバー眠気感知診断〕
ドライバー眠気感知診断では、自動車運転者にアイカメラ3を装着してもらい、運転中に眼球を撮影することにより、ドライバーの眠気の有無を診断する。ドライバー眠気感知診断では、図1に示す視認者感性反応システムを用い、図16に示す視認者感性反応装置100を用いる。図16は、ドライバー眠気感知診断に用いる視認者感性反応装置100の構成を示すブロック図である。視認者感性反応装置100の診断部104は、瞳孔径(P)が平常値(Ph)より少ないとき、危険な運転状態であると診断する。さらに、診断部104は、視線の方向が前方から外れる時間が多いときに、さらに前方不注意となり危険な運転状態であると診断する。自動車の運転席の前(ハンドルの前方上)に運転者の眼球を追尾・撮影するカメラを用いることにより、前記と同様の測定、解析及び診断を行うことができる。警告部108は、診断部104から入力した診断結果を用い、診断結果が危険な運転状態である場合に、運転者に警告を行う。警告は、アナウンスでも、警告音の発生でもよく、運転者に注意力回復のための刺激を与えるものであればよい。
〔自動車運転適性診断〕
自動車運転適性診断では、視認者1にアイカメラ3を装着してもらい、自動車シミュレーターまたは実際の自動車で、視認者1に操作してもらうことにより、自動車運転の適正の有無を診断する。自動車運転適性診断では、図1及び図2に示す視認者感性反応装置100を用いる。視認者感性反応装置100の解析部102は、視認者1の眼球運動撮影データの視線方向と瞳孔径データを解析し、診断部104は、注意すべき時に、危険箇所に視点が追尾し続け、瞳孔径(P)が平常値(Ph)より大きく、拡大速度(Pv)、加速度(Pk)も平常値(Phv、Phk)より大きいときに、注意すべき部分に視点が行き、注意しているものと診断する。また、診断部104は、頭の向き及び視線の方向がいつも前面であることを診断する。さらに、応答反応すべき時間にタイミングよくステアリングハンドル、ブレーキで応答反応しているかを知るため、解析部102は、応答データdを用いて、応答遅延時間と操作方法を解析し、診断部104は、操作遅延時間が危険回避のための一定時間(所定の設定時間)以下であり、かつ、応答データdから得られる操作が、予め設定された適切な操作方法かどうかを判断し、操作遅延時間、所定の設定時間、操作方法に基づいて、視認者1の熟練度、適正度を診断する。
〔労働安全熟練度診断〕
労働安全熟練度診断では、アイカメラ3を装着した労働者が、シミュレーターまたは実際の機械で、機器を操作してもらうことにより、労働安全熟練度の有無を診断する。労働安全熟練度診断では、図1及び図2に示す視認者感性反応装置100を用いる。視認者感性反応装置100の解析部102は、労働者の視線方向、瞳孔径(P)の運動から、視点の位置と注目度、さらに不注意度を計測し、診断部104は、労働者が作業で、注意すべき時に、注意すべき部分(これが対象物となる)に視点が行って追尾し、瞳孔径(P)が感動値(Pe)まで大きくなり、瞳孔径拡大の速度(Pv)、加速度(Pk)も感動値(Pev、Pek)ほど大きいときに、注目すべき部分を注目していると診断する。さらに、解析部102は、応答データdを用いて、妥当な応答装置14を妥当なタイミングで操作しているかを解析するための応答反応の遅延時間と応答操作の正確性(正しい操作をしたか否かのデータ)を計測する。そして、診断部104は、所定の注意すべき時間内にタイミングよく(時間的遅延がない)適切な応答反応をしているか否かを診断する。この場合、遅延時間、全体の操作のうちの正しい操作を行った数等のデータに基づいて、労働者の熟練度、適正度を診断する。また、診断部104は、瞳孔径は感動値(Pe)より縮小しており、視点が見るべきところに行っていない、または、身体応答反応も遅い場合、不注意時として診断する。
〔労働前適正診断〕
労働前適正診断では、労働者が毎日、作業開始前にその日の作業の適正を診断する。労働前適正診断では、図1及び図2に示す視認者感性反応装置100を用いる。各所に注意すべき点(注意して操作しないと危険な箇所)を含めた注意力判定のコンテンツをディスプレイに表示してアイカメラ3を装着した労働者に見せる。視認者感性反応装置100の解析部102は、アイカメラ3からのデータの中の視線方向、瞳孔径(P)の運動を解析し、診断部104は、視点の位置と注目度、さらに不注意度を計測し、労働者が作業で注意すべき時に、注意すべき部分に視点が行って追尾し、瞳孔径(P)が感動値(Pe)まで大きくなり、瞳孔径拡大の速度(Pv)、加速度(Pk)も感動値(Pev、Pek)ほど大きいときに、注目すべき部分を注目していると診断し、その労働者のその日の労働の体調は正常であると判定する。しかし、危険な箇所が映し出されていても、視点の接近速度(Bv)が遅く、加速度(Bk)も遅く、タイミングが遅く、適切な応答反応していない場合のどれか一つでも該当するときは、その労働者のその日の体調は正常ではないと判定する。
〔運動選手適正診断〕
運動選手適正診断では、スポーツにおいて、アイカメラ3を装着した競技者の競技時の視点方向により、どの箇所を見ているかを診断する。運動選手適正診断では、図1及び図2に示す視認者感性反応装置100を用いる。視認者感性反応装置100の解析部102は、瞳孔径(P)の大きさや瞳孔径の拡大速度(Pv)、加速度(Pk)により、注目度を解析する。そして、解析部102は、身体動作による競技者の反応(動作、遅延時間)を解析する。具体的には、解析部102は、応答データdを用いて、妥当な応答装置14を妥当なタイミングで操作しているかを解析することにより、注意すべき時間にタイミングよく(時間的遅延がない)適切な応答反応しているか解析する。そして、診断部104は、全競技者の適正値と比較して、競技者の熟練度、適正度を診断する。
〔ゲームのエキサイト度診断〕
ゲームのエキサイト度診断では、視認者1はアイカメラ3を装着してゲームを実施する。ゲームのエキサイト度診断では、図1及び図2に示す視認者感性反応装置100を用いる。視認者感性反応装置100の診断部104は、ゲーム中に瞳孔径(P)が感動値(Pe)まで拡大していることで、明確に興味・関心があると診断する。また、診断部104は、視認者身体温度計測により、身体温度が平常値より高いときに、その高さに応じた興奮度を診断する。逆に、診断部104は、瞳孔径(P)が感動値(Pe)まで拡大せず、身体温度が感動値にいたらないときに、エキサイトしていない、と診断する。
〔空間デザイン診断〕
空間デザイン診断では、視認者1がアイカメラ3を装着して実際の空間を歩き、視認者1が空間の中に配列されている物の中で何に視点が行き、興味を持ってみているかを診断して、視認対象の空間が訴求どおりのデザインまたは配列の中で適切な状態になっているかどうかを診断する。視認方法は、実際の空間を見る方法でも、テレビ、PC等のディスプレイに表示された物でも構わない。また、空間とは、街の景観、デパート、商店でのデザインや陳列、展示会場でのデザインや陳列、駅の通路、駅ホーム、駅ビル、車内等の空間を指す。空間デザイン診断には、図1及び図2に示す視認者感性反応装置100を用いる。なお、視認者感性反応装置100の解析部102は、視認者1が実際の空間を前進しているか、後退しているか、左右に動いているかを、視認映像aを解析することにより判明する。
ここでは、対象物2は映像の中の特定の物(訴求対象であって、複数でも良い)である。診断部104は、ア.その対象物を見て、瞳孔が感動値(Pe)まで拡大していない{<Pe}(無関心)、イ.視点追尾時間が平常値(Bht)より短い(興味なし)場合、視認者1がその対象物2に対して「デザインが適切でない」と診断する。さらに、対象物2からの視点離脱速度(Bs)と最初の加速度(Br)が平常値{Bhs、Bhr}より大きいときに、嫌悪感があり、反発心があると診断する。この場合、明らかに「デザインが適切である」場合とは反対の行動であるといえる。このことから、「デザインが適切でない」という診断の度合いを、速度及び加速度の大きさによって測ることができる。一方、瞳孔径(P)が拡大していて、対象物への視点追尾時間(Bt)が平常値(Bht)より長く、感動値(Bet)に達したときに、興味はあると診断できるが、「デザインが適切である」ことまでは診断できない。すなわち、興味がない場合は、その「デザインが適切でない」が、興味があっても、その「デザインが適切でない」場合がある。
次に、複数の配列デザインを視認者1に視認してもらい、対象物2を見て、他のデザインでの対象物2より、ア.瞳孔径が大きい、イ.視点追尾時間が長い、ウ.視点離脱速度、最初の加速度が小さい場合は、そのデザインでの対象物が一番興味を引くことから、診断部104は、「そのデザインが他のデザインより適切である」と診断する。一方、対象物2が、他の配列デザインより、ア.瞳孔径が小さい、イ.視点滞留時間が短い、ウ.視点離脱速度、最初の加速度が大きい場合、診断部104は、「そのデザインでの対象物は他のデザインでの対象物に比べて適切でない」と診断する。
〔映像コンテンツ選択優先度診断〕
映像コンテンツ選択優先度診断では、視認者1がテレビ、映画等で映像コンテンツを視聴している場合に、視認者1の興味・関心・興奮するコンテンツ分野を判定する。視認者1はアイカメラ3を装着して映像コンテンツを視聴する。映像の興味・関心・興奮度を診断するために、図1及び図2に示す視認者感性反応装置100を用いる。視認者感性反応装置100の診断部104は、映像コンテンツ視聴中に瞳孔径(P)が感動値(Pe)まで拡大していると判定したときに、視聴しているコンテンツに対して明確に興味・関心があると診断する。また、診断部104は、視認者身体温度計測により、身体温度が平常値より高いときに、その高さに応じた興奮度を診断する。逆に、診断部104は、瞳孔径(P)が感動値(Pe)まで拡大せず、身体温度が感動値にいたらないと判定したときに、視聴しているコンテンツに対して興味・関心・興奮がない、と診断する。さらに、診断部104は、瞳孔径(P)の大きさ及び身体温度の高さに基づいて、しきい値によって興味・関心・興奮度が高いと判定した場合に、視聴者感性反応装置100は、視聴者1が視聴しているコンテンツから、予め用意しておいたその分野のコンテンツ(興味・関心・興奮度が高いと判定した分野のコンテンツであって、予め用意しておいたもの)に切り替えるか、または、次に視聴するコンテンツを選択する時に、その分野のコンテンツを選択する優先度を上げる。逆に、診断部104は、しきい値によって興味・関心・興奮度が低いと判定した場合に、視聴者反応装置100は、その分野以外のコンテンツであって、以前に興味・関心・興奮度が高かったコンテンツに切り替えるか、または、次に視聴するコンテンツを選択する時に、その分野のコンテンツを選択する優先度を下げる。なお、その診断結果は、蓄積部103に記録しておき、次の時間において、映像コンテンツ視聴時のコンテンツを選択するための推薦データに利用する。
上述したように、本発明の実施形態による視認者感性反応装置100によれば、購買力診断、学習意欲度診断、CM等コンテンツ診断、相性診断、赤ん坊等の意思伝達診断、ロボットの応対診断、犯罪証拠診断、ドライバー眠気感知診断、自動車運転適性診断、労働安全熟練度診断、労働前適正診断、運動選手適正診断、ゲームのエキサイト度診断、空間デザイン診断、映像コンテンツ選択優先度診断などの様々な状況において、対象物または視認者自身の能力をより正確に評価することができる。
本発明の実施形態による視認者感性反応システムの構成を示すブロック図である。 本発明の実施形態による視認者感性反応装置の構成を示すブロック図である。 本発明の実施形態による視点の位置を算出することを説明する図である。 本発明の実施形態による視認者の頭の動きと視認映像の関係を説明するための図である。 本発明の実施形態による視認映像を解析する際の座標軸の一例である。 本発明の実施形態による水平方向に視認者の頭が動いた場合の頭の移動を説明する図である。 本発明の実施形態によるフレーム画面F0から次のフレーム画面F0+1へ頭が移動した場合の、静止物の基点の移動を示す図である。 本発明の実施形態による視認映像の中の視点の移動を示す図である。 本発明の実施形態によるフレーム画面F0からフレーム画面F0+1に移動した際の視点の移動を示す図である。 本発明の実施形態による視認映像における対象物と視点の位置関係を示す図である。 本発明の実施形態による接近速度、接近加速度、離脱速度及び離脱加速度の算出方法を示すフローチャートである。 本発明の実施形態による視点追尾時間の算出方法を示すフローチャートである。 本発明の実施形態による、相性診断に用いる視認者感性反応システムの構成を示すブロック図である。 本発明の実施形態による、相性診断に用いる視認者感性反応装置の構成を示すブロック図である。 本発明の実施形態による、ロボットの応対診断に用いる視認者感性反応装置の構成を示すブロック図である。 本発明の実施形態による、ドライバー眠気感知診断に用いる視認者感性反応装置の構成を示すブロック図である。
符号の説明
1 視認者
2 対象物
3 アイカメラ
4 眼球撮影装置
5 視認情景撮影装置
6 マイクロフォン
7 送信装置
8 蓄積装置
9 身体動作撮影装置
10 身体温度測定装置
14 応答装置
20a、20b テレビ電話
21a、21b 顔カメラ
22a、22b ディスプレイ
23a、23b 眼球カメラ
24a、24b 追尾カメラ
30 通信回線
100 視認者感性反応装置
101 受信部
102 解析部
103 蓄積部
104 診断部
105 表示部
106 送信部
107 言動選択部
108 警告部

Claims (16)

  1. 特定の対象物を含む情景に視線を向けた視認者の、前記特定の対象物に対する興味を診断する、視認情景に対する視認者感性反応装置において、
    前記視認者の視認映像及び前記視認者の眼球運動映像を受信する受信部と、
    前記視認映像及び前記眼球運動映像から前記視認映像における視点の位置を算出するとともに、前記視認者の生理反応データの変化に伴う加速度を算出する解析部と、
    前記視認者が興味の低い対象物を見ている場合の生理反応データの変化に伴う加速度を含む情報を平常値として蓄積し、前記視認者が興味の高い対象物を見ている場合の生理反応データの変化に伴う加速度を含む情報を感動値として蓄積し、前記解析部によって算出された前記視認者の生理反応データの変化に伴う加速度を含む情報を解析値として蓄積する蓄積部と、
    前記解析値を、前記平常値あるいは前記感動値と比較することにより、前記視認者の前記特定の対象物に対する興味を診断する診断部と、
    を備えたことを特徴とする視認情景に対する視認者感性反応装置。
  2. 請求項1に記載の視認情景に対する視認者感性反応装置において、
    前記生理反応データの変化に伴う加速度は、前記視認者の視点が前記特定の対象物に接近する際の接近加速度、あるいは、前記視認者の視点が前記特定の対象物から離脱する際の離脱加速度であり、
    前記診断部は、前記接近加速度が大きいほど前記特定の対象物に興味があり、前記接近加速度が小さいほど前記特定の対象物に興味がないと診断し、前記離脱加速度が大きいほど前記特定の対象物に興味がなく、前記離脱加速度が小さいほど前記特定の対象物に興味があると診断する
    ことを特徴とする視認情景に対する視認者感性反応装置。
  3. 請求項2に記載の視認情景に対する視認者感性反応装置において、
    前記解析部は、前記視認者の頭に装着されたカメラにより撮影された視認映像内の静止物の位置を基点として、前記視認者の頭の移動距離、移動速度及び移動加速度を算出し、前記頭の動きを含む、前記特定の対象物に対する視点の接近加速度あるいは離脱加速度を算出する
    ことを特徴とする視認情景に対する視認者感性反応装置。
  4. 請求項1に記載の視認情景に対する視認者感性反応装置において、
    前記生理反応データの変化に伴う加速度は、前記視認者の瞳孔径の拡大加速度、あるいは、前記視認者の瞳孔径の縮小加速度であり、
    前記診断部は、前記拡大加速度が大きいほど前記特定の対象物に興味があると診断し、前記縮小加速度が大きいほど前記特定の対象物に興味がないと診断する
    ことを特徴とする視認情景に対する視認者感性反応装置。
  5. 請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、
    前記特定の対象物は、商品であり、
    前記診断部は、前記視認者の前記商品に対する購買意欲を診断する
    ことを特徴とする視認情景に対する視認者感性反応装置。
  6. 請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、
    前記特定の対象物は、学習対象であり、
    前記診断部は、前記視認者の前記学習対象に対する学習意欲を診断する
    ことを特徴とする視認情景に対する視認者感性反応装置。
  7. 請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、
    前記受信部は、2つのテレビ電話から、それぞれの通話者の前記視認映像及び前記眼球運動映像を受信し、
    前記診断部は、一方の通話者から他方の通話者に対する興味をそれぞれ診断し、
    さらに、一方の通話者から他方の通話者に対する興味の診断結果を他方の通話者のテレビ電話にそれぞれ送信する送信部を備えている
    ことを特徴とする視認情景に対する視認者感性反応装置。
  8. 請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、
    前記視認者は、言葉を話すことが困難な人、あるいは、動物である
    ことを特徴とする視認情景に対する視認者感性反応装置。
  9. 請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、
    前記視認者は、ロボットであり、
    さらに、前記診断部から入力された診断結果に基づいて、前記ロボットの言動を選択する言動選択部を備えている
    ことを特徴とする視認情景に対する視認者感性反応装置。
  10. 請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、
    前記視認者は、犯罪容疑者であり、
    前記特定の対象物は、犯罪現場または被害者である
    ことを特徴とする視認情景に対する視認者感性反応装置。
  11. 請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、
    前記視認者は、自動車運転者であり、
    さらに、前記診断部から入力した診断結果を用い、危険運転状態であると診断された場合は、前記視認者に警告を行う警告部を備えている
    ことを特徴とする視認情景に対する視認者感性反応装置。
  12. 請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、
    前記視認者は、自動車運転者または労働者であり、
    前記解析部は、前記視認者の動作による応答データを用いて、応答遅延時間及び操作方法を解析し、
    前記診断部は、応答遅延時間及び操作方法に基づいて、前記視認者の熟練度あるいは適正度を診断する
    ことを特徴とする視認情景に対する視認者感性反応装置。
  13. 請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、
    前記視認者は、労働者であり、
    前記診断部は、前記視認者の体調を診断する
    ことを特徴とする視認情景に対する視認者感性反応装置。
  14. 請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、
    前記視認者は、運動選手であり、
    前記診断部は、前記視認者の熟練度あるいは適正度を診断する
    ことを特徴とする視認情景に対する視認者感性反応装置。
  15. 請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、
    前記視認者は、ゲームを実施し、
    前記診断部は、前記視認者の身体温度データにより、前記視認者の興奮度を診断する
    ことを特徴とする視認情景に対する視認者感性反応装置。
  16. 請求項1から4までのいずれか一項に記載の視認情景に対する視認者感性反応装置において、
    前記特定の対象物は、空間の中に配列されている物であり、
    前記診断部は、前記視認者から見た前記特定の対象物に対する適切性を診断する
    ことを特徴とする視認情景に対する視認者感性反応装置。
JP2008232274A 2008-09-10 2008-09-10 視認情景に対する視認者感性反応装置 Pending JP2010063621A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008232274A JP2010063621A (ja) 2008-09-10 2008-09-10 視認情景に対する視認者感性反応装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008232274A JP2010063621A (ja) 2008-09-10 2008-09-10 視認情景に対する視認者感性反応装置

Publications (1)

Publication Number Publication Date
JP2010063621A true JP2010063621A (ja) 2010-03-25

Family

ID=42189755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008232274A Pending JP2010063621A (ja) 2008-09-10 2008-09-10 視認情景に対する視認者感性反応装置

Country Status (1)

Country Link
JP (1) JP2010063621A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014515291A (ja) * 2011-05-20 2014-06-30 アイフルエンス,インコーポレイテッド 頭部、眼、眼瞼および瞳孔の反応を測定するためのシステムおよび方法
CN115601825A (zh) * 2022-10-25 2023-01-13 扬州市职业大学(扬州开放大学)(Cn) 一种基于视觉定位技术评价阅读能力的方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014515291A (ja) * 2011-05-20 2014-06-30 アイフルエンス,インコーポレイテッド 頭部、眼、眼瞼および瞳孔の反応を測定するためのシステムおよび方法
US9931069B2 (en) 2011-05-20 2018-04-03 Google Llc Systems and methods for measuring reactions of head, eyes, eyelids and pupils
CN115601825A (zh) * 2022-10-25 2023-01-13 扬州市职业大学(扬州开放大学)(Cn) 一种基于视觉定位技术评价阅读能力的方法
CN115601825B (zh) * 2022-10-25 2023-09-19 扬州市职业大学(扬州开放大学) 一种基于视觉定位技术评价阅读能力的方法

Similar Documents

Publication Publication Date Title
JP5445981B2 (ja) 視認情景に対する視認者情感判定装置
JP2010094493A (ja) 視認情景に対する視認者情感判定装置
Foulsham et al. The where, what and when of gaze allocation in the lab and the natural environment
CN107929007B (zh) 一种利用眼动追踪和智能评估技术的注意力和视觉能力训练系统及方法
US10712998B2 (en) Information processing device, information processing method, and program
CN112034977B (zh) Mr智能眼镜内容交互、信息输入、应用推荐技术的方法
US9964766B2 (en) Controlling reproduction of content in a head-mounted display
US7809160B2 (en) Method and apparatus for calibration-free eye tracking using multiple glints or surface reflections
JP5841538B2 (ja) 関心度推定装置および関心度推定方法
KR102003588B1 (ko) 인간과 휴머노이드 로봇의 대화를 핸들링하기 위한 시스템, 방법 및 컴퓨터 프로그램 프로덕트
WO2015198767A1 (ja) 異常検知装置及び異常検知方法
JP2017507400A (ja) 注視によるメディア選択及び編集のためのシステム並びに方法
US20170263017A1 (en) System and method for tracking gaze position
US11084424B2 (en) Video image output apparatus, video image output method, and medium
US20120194648A1 (en) Video/ audio controller
Hessels et al. Looking behavior and potential human interactions during locomotion
US11173375B2 (en) Information processing apparatus and information processing method
Chukoskie et al. Quantifying gaze behavior during real-world interactions using automated object, face, and fixation detection
JPWO2020016970A1 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20190048144A (ko) 발표 및 면접 훈련을 위한 증강현실 시스템
US20150323989A1 (en) System and method for communication
JP2010063621A (ja) 視認情景に対する視認者感性反応装置
WO2023037348A1 (en) System and method for monitoring human-device interactions
Shibli et al. Developing a vision-based driving assistance system
KR102038413B1 (ko) 그레이디언트 벡터 필드와 칼만 필터를 이용한 온라인 강의 모니터링 방법