JP2010094493A - 視認情景に対する視認者情感判定装置 - Google Patents

視認情景に対する視認者情感判定装置 Download PDF

Info

Publication number
JP2010094493A
JP2010094493A JP2009065159A JP2009065159A JP2010094493A JP 2010094493 A JP2010094493 A JP 2010094493A JP 2009065159 A JP2009065159 A JP 2009065159A JP 2009065159 A JP2009065159 A JP 2009065159A JP 2010094493 A JP2010094493 A JP 2010094493A
Authority
JP
Japan
Prior art keywords
viewer
scene
emotion
visual
determination apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009065159A
Other languages
English (en)
Inventor
Koichi Kikuchi
光一 菊池
Wataru Kurashima
渡 倉島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2009065159A priority Critical patent/JP2010094493A/ja
Publication of JP2010094493A publication Critical patent/JP2010094493A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】視認者の生理反応をより正確に把握する。
【解決手段】視認映像a及び眼球運動映像bから視認映像aにおける視点の位置を算出するとともに、視認者の生理反応データの変化とそれに伴う加速度を算出する解析部102と、興味の低い対象物を見ている場合の生理反応データの変化とそれに伴う加速度を含む情報を平常値Hとして蓄積し、興味の高い対象物を見ている場合の生理反応データの変化とそれに伴う加速度を含む情報を感動値Kとして蓄積し、解析部102によって算出された生理反応データの変化とそれに伴う加速度を含む情報を解析値Aとして蓄積する蓄積部103と、解析値Aを、平常値Hあるいは感動値Kと比較する。一方、視認者の顔の各部の変化を算出することによる顔解析手法により、視認者の特定の対象物に対する感情を改正し、情動と感票を合わせて診断する診断部104とを備えていることを特徴とする視認情景に対する視認者情感判定装置。
【選択図】図2

Description

本発明は、視認情景に対する視認者情感判定装置に関し、特に、視認情景を視認した際の視認者の生理反応の変化を解析し、対象物及び視認者自身の能力を評価する技術に関する。
従来、テレビ番組などの映像コンテンツを評価するために、視聴率を測定することが行われている。しかしながら、視聴率だけでは、テレビチャンネルを合わせたとしても、視認者が実際に視聴したかどうか分からず、加えて、信頼性を向上させるためには莫大な視認者数が必要とされる、などの問題があった。そこで、視認者の眼球運動を撮像し、得られたデータから映像コンテンツの評価を行う技術が開示されている。
特開2004−282471号公報
上記、特許文献に記載の技術では、眼球運動を撮像することにより得られたデータとして、視線の動き、瞳孔面積、瞬目発生頻度などを用いて、映像コンテンツについて興味の度合いを判定し、映像コンテンツの評価を行っている。これにより、少ない被験者数で、従来テレビ放送で行われていた視聴率を指標とする評価手法よりも、信頼性のある高次な評価を実現している。
しかしながら、上記特許文献に記載の技術のように、眼球運動の映像より得られた、視線の動き、瞳孔面積、瞬目発生頻度などのデータだけでは、視認者の生理反応を正確に把握することが困難であった。すなわち、上記特許文献に記載の技術では、瞬目発生頻度が減少した場合、対象物に興味があると判定し、眼球中心の位置や瞳孔面積から、視認者の情動の変化を解析しているが、これらは、対象物に対する視認者の興味の有無を単純に判定しているに過ぎず、より細かな視認者の情感(情動と感情の)を判定をしているわけではない。
また、上記特許文献に記載の技術は、テレビ番組などの映像コンテンツに対する興味の評価を行っており、その他の場面に適用することは想定されていない。
そこで、前記課題を解決するため、本発明の目的は、視認者の生理反応をより正確にきめ細かに把握し、様々な状況において、対象物及び視認者自身の能力をより正確にきめ細かに評価する、視認情景(聴覚、味覚、触覚、臭覚の刺激を含む)に対する視認者情感判定装置を提供することにある。
前記課題を解決するため、請求項1の発明は、特定の対象物を含む情景に視線を向けた視認者の、前記特定の対象物に対する情感を診断する、視認情景に対する視認者情感判定装置において、前記視認者の視認映像及び前記視認者の顔の映像、眼球運動映像を受信する受信部と、前記視認者の顔映像により、前記視認者の顔の各部の変化を算出し、また、前記視認映像及び前記眼球運動映像から前記視認映像における視点の位置を算出するとともに、前記視認者の生理反応データの変化とそれに伴う速度と加速度を算出する解析部と、前記視認者の顔の各部の平常時の位置(平常感情値)と前記視認者が興味の低く注目しない対象物を見ている場合の生理反応データの変化とそれに伴う速度と加速度を含む情報を平常情動値として蓄積し、前記視認者の怒り、恐怖、嫌悪、幸福(喜び)、悲しみ、驚きなどの視認者の情感の高い時の変化値を高感情値とし、また、前記視認者が興味が高く注目する対象物を見ている場合の生理反応データの変化とそれに伴う速度と加速度を含む情報を高情動値として蓄積し、前記解析部によって算出された前記視認者の生理反応データの変化とそれに伴う速度と加速度を含む情報を解析値として蓄積する蓄積部と、前記解析値を平常感情値および平常情動値(双方あわせて平常値と呼ぶ)あるいは前記高感情値および前記高情動値(双方あわせて感動値と呼ぶ)と比較することにより、前記視認者の前記特定の対象物に対する情感および視認者自身の反応能力を診断する診断部と
必要により、身体温度測定機能を備え、身体の平常温度とエキサイト時での身体の温度測定による興奮度を診断する部分
とを備えたことを特徴とする視認情景に対する視認者情感判定装置を備えたことを特徴とする。
請求項目1の視認時の対象物は、実際の対象物を手で触りながら、または操作しながら視認する場合を含む。
さらに、聴覚、味覚、触覚、臭覚の刺激を受ける場合も同様の反応を示すので、これらの刺激(5感)に対する瞳孔径および視点の動きと顔の各部位の動きを解析して対象物への同様の情感判定行うことを備えたことを特徴とする。
前記「平常情動値」と「高情動値」は誰でも「平常情動値」と「高情動値」を示す基本映像を視認することにより計測し、「平常感情値」、「高感情値」は顔の動きの「平常時」の顔の各部の位置(平常感情値)と「怒り」、「恐怖」、「嫌悪」、「幸福(喜び)」、「悲しみ」、「驚き」を示す最大の表情を演じてもらい、そのときの顔の各部の動きの変位値をもって「怒り度」、「恐怖度」、「嫌悪度]、「幸福(喜び)度」、「悲しみ度」、「驚き度」の高感情値として計測することを備えたことを特徴とする。
また、請求項2の発明は、請求項1に記載の視認情景に対する視認者情感判定装置において、前記生理反応データの変化とそれに伴う速度と加速度は、前記視認者の視点が前記特定の対象物に接近する際の接近速度および加速度、あるいは、前記視認者の視点が前記特定の対象物から離脱する際の離脱速度および加速度であり、前記診断部は、前記接近速度および加速度が大きいほど前記特定の対象物に興味があり、前記接近速度および加速度が小さいほど前記特定の対象物に興味がないと診断し、前記離脱速度および加速度が大きいほど前記特定の対象物に興味がなく、前記離脱速度および加速度が小さいほど前記特定の対象物に興味があると診断することを特徴とする。
なお、視認対象は、対象物の中のある部分(たとえば商品の場合、商品名、製造会社名、賞味期限、注意書き、仕様、操作ボタン等)でも良い。
また、請求項3の発明は、請求項2に記載の視認情景に対する視認者情感判定装置において、前記解析部は、前記視認者の頭に装着されたカメラにより撮影された視認映像内の静止物の位置を基点として、視認映像内の静止物の位置の変化から計算して、前記視認者の頭の移動距離、移動速度及び移動加速度を算出し、視認映像内の視点の位置の変化を加算して、前記頭の動きを含む、前記特定の対象物に対する視点の接近速度および加速度あるいは離脱速度および加速度を算出することを特徴とする。
前記視認者の頭の移動方向と距離、移動速度及び移動加速度の算出には、ジャヤイロスコープによる測定方法等、既存の方法を利用しても良い。
また、請求項4の発明は、請求項1に記載の視認情景に対する視認者情感判定装置において、前記生理反応データの変化に伴う速度および加速度は、前記視認者の瞳孔径の拡大速度および加速度、あるいは、前記視認者の瞳孔径の縮小速度および加速度であり、前記診断部は、前記瞳孔径が大きく、かつその拡大速度および加速度が大きいほど前記特定の対象物に興味があると診断し、瞳孔径が小さく、かつ、前記縮小速度および加速度が大きいほど前記特定の対象物に興味がないと診断することを特徴とする。
請求項5の発明は請求項1に記載の視認情景に対する視認者の情感判定装置において、前記視認者の顔映像の各部位(鼻、目、口、眉等)の動きを計測し、その変化量を測定して、変化した各部位の大きさにより、視認者の表情による感情の大きさを判定することを特徴とする。
この判定と請求項1から4までの視認対象への視認時の眼球運動による興味・関心度による情動の大きさを合わせて、視認対象物に対する視認者の情感を判定することを特徴とする。
感情(Feeling:F)の基本6要素である「幸福(喜び)=Happiness(Joy)」、「悲しみ=Sadness」、「怒り=Anger」、「恐怖=Fear」、「嫌悪=Disgust(Dislike)」、「驚き=Surprise」の度合いを
「幸福(喜び)度」=HA
「悲しみ度」=SA
「怒り度」=AN
「恐怖度」=FE
「嫌悪度」=DI
「驚き度」=SU
と定義し、
情動(=Emotion(E))と感情(=Feeling(F)6要素)の大きさを合わせてEF値と定義する。EF値とその一般的判定の代表例を表1に示すが、すべてにおいて、視認者、視認対象、その時の状況により、判定内容は微妙に調整が必要である。
Figure 2010094493
一般に情動値(E)が低い場合は対象に対して退屈か眠いか倦怠感がある。その場合、各感情値(F)の判定は不可能である。したがって消極的評価であると判定できる。
情動値(E)が平常の場合は、対象に特別な興味・関心は少なく注目も少ない。この場合は一般的に各感情(F)も大きくなることは少ない。したがって特に情感を正確に判定できるとはいえない。情動値(E)が高い場合で各感情が高い場合、幸福感(HA)が高いと積極的、効果的と判定できる。しかし、悲しさ(SA)の表情があると、対象に対して非積極的と判定できる。
また、怒り、恐怖、嫌悪感が表れたらマイナス反応であり、対象に対して注目しているが逆効果であるといえる。驚き感が表れたら驚いて注目(関心)しており、対象により異なるが、一般には効果的反応である。
また、視認対象が、たとえば映画などの、故意にそれぞれの感情を誘う内容の場合、感情値(F)の幸福(喜び)度(HA)と驚き(SU)、悲しみ(SA)、怒り(AN),恐怖(FE)、嫌悪(DI)が狙いどおりに高い場合は意図どおりの反応をしていることになり効果的と判定できる。
以下、各対象により、具体的な判定方法を述べる。
請求項6の発明は、請求項1に記載の視認情景に対する視認者情感判定装置において、
請求項目1の視認時の対象物は、実際の対象物を手で触りながら、または操作しながら視認する場合と、音声だけを聞いているとき、匂いをかいでいるとき、体のある部分が対象物と接触しているとき、食べているときの味覚を感じているとき、またはそれらの複数の刺激があったときの視認者の瞳孔径および視点の動きと顔の各部位の動きを解析して、それらの刺激物を対象にした情感判定をすることを特徴とする。
特に、これら前記の刺激に対して、情動値(E)が低いと、その刺激に対して反応がないと判定できる。また、情動値(E)が高い場合、一般的に感情値(F)の幸福(喜び)度(HA)が高い場合は、その刺激は快適と判定できる。
しかし、その他の感情値(F)の悲しみ(SA)、怒り(AN),恐怖(FE)、嫌悪(DI)が高い場合は一般的にその刺激は視認者にとって快適でないと判定できる。
注目していて、驚き(SU)が高い場合は状況によるが、一般に意外性を感じていると判定できる。
請求項7の発明は、請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記特定の対象物は、商品であり、前記診断部は、前記視認者の前記商品に対する購買意欲を診断することを特徴とする。
情動値(E)が低い(関心がない)場合は明らかに購買につながらないと判定できる。
しかし、情動値が高く(注目している)ても、単に関心が高いだけで購買意欲が高いとはいえない。
ただし、一般的に感情値(F)の幸福(喜び)度(HA)と驚き(SU)が高い場合は購買に積極的と判定できる。
しかし、その他の感情値(F)の悲しみ(SA)、怒り(AN),恐怖(FE)、嫌悪(DI)が高い場合は一般的に購買に消極的と判定できる。
また、請求項8の発明は、請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記特定の対象物は、学習対象(講演会、読書、教師の動き、教材等)であり、前記診断部は、前記視認者の前記学習対象に対する学習意欲を診断することを特徴とする。
情動値(E)が低い(関心がない)場合は明らかに関心がなく「退屈している」と判定できる。
しかし、情動値(E)が高く(注目している)場合は学習意欲が高いといえる。
一般的に学習の内容がそれぞれの感情を誘う内容の場合、感情値(F)の幸福(喜び)度(HA)と驚き(SU)、悲しみ(SA)、怒り(AN)、恐怖(FE)、嫌悪(DI)が狙い通りに高い場合はその学習は良いと判定できる。ただし、問題に取り組んでいる場合、悲しみ(SA)、怒り(AN),恐怖(FE)、嫌悪(DI)が高い場合は何か戸惑っており、この学習に問題あり、と判定できる。
請求項9の発明は、請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
前記特定の対象物は、テレビ、映画等の映像コンテンツであり、
前記視認者は、前記映像コンテンツ視認者である。
映像コンテンツ製作者が、視聴者に期待する映像コンテンツの各場面の、興味・関心による注目度、および各基本感情の幸福(喜び)度、驚き度、悲しみ度、怒り度,恐怖度、嫌悪感度および興奮度のレベルを、コンテンツソフトプログラムの時間軸上に設定しておき、前記映像コンテンツ映写時に、視聴者の注目度および幸福(喜び)度(HA)、驚き度(SU)、悲しみ度(SA)、怒り度(AN)、恐怖度(FE)、嫌悪感度(DI)および興奮度が、映像コンテンツ製作者の期待したレベルにどの程度達しているかを診断し、映像コンテンツの評価をすることを特徴とする。
なお、対象コンテンツには映像と同時に音を含むが、映像なしで音だけの場合もありうる。
最も有効な利用方法は製作映画の事前評価、CMの視聴者反応評価である。
請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
前記特定の対象物は、テレビ、映画等の映像コンテンツであり、
前記視認者は、前記映像コンテンツ視認者である。
映像コンテンツの特定の場面または静止画において、複数の視認者の瞳孔径による注目点の分布を表示し、コンテンツ制作者の訴求点と比較して、コンテンツの訴求レベルを判定することを特徴とする。
また、請求項11の発明は、請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記受信部は、2つのテレビ電話から、それぞれの通話者の顔と前記視認映像及び前記眼球運動映像を受信し、前記診断部は、一方の通話者から他方の通話者に対する情感をそれぞれ診断し、さらに、一方の通話者から他方の通話者に対する情感の診断結果を他方の通話者のテレビ電話または診断センター等の仲介者に送信する送信部を備えていることを特徴とする。
情動値(E)が低い(関心がない)場合は明らかに相手に関心がなく、相性がないと判定できる。
しかし、情動値が高く(注目している)ても、単に関心が高いだけで相性が良いとはいえない。
ただし、一般的に感情値(F)の幸福(喜び)度(HA)が高ければ相性が良いと判定できる。
驚き(SU)、怒り(AN),恐怖(FE)、嫌悪(DI)が高い場合は、話しの内容による反応の場合は相槌の意味で相性は良いと判定できる。しかし、話しの内容と無関係で、怒り(AN),恐怖(FE)、嫌悪(DI)が高い場合は相性が良いとする判定はできない。
また、請求項12の発明は、請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、言葉を話すことが困難な人、あるいは、動物であり、彼らの視認対象は彼らの視認するものすべて(5感を含む)であり、彼らの視認対象への情感を判定することを特徴とする。
視認者が人間(たとえば、赤ん坊、認知症者)の場合、情動値(E)が低い(関心がない)場合は明らかに視認対象に関心がないと判定できる。
しかし、情動値が高く(注目している)ても、単に関心が高いだけで相性が良いとはいえない。
情動値(E)に関係なく、一般的に感情値(F)の幸福(喜び)度(HA)が高ければ状況がよいと判定できる。また、怒り(AN),恐怖(FE)、嫌悪(DI)が高い場合は不満があると判定できる。
視認者が動物の場合、情動値(E)が低い場合は明らかに視認対象に関心がないと判定できる。
逆に情動値(E)が高い場合は視認対象に関心があると判定できる。
また、請求項13の発明は、請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、本発明の視認者情感判定装置をロボットに組み込み、前記視認者は、情感を持つ人間であり、動物であり、視認対象は視認者の視認するすべて(5感を含む)である。
ロボット内の前記診断部から入力された視認者の診断結果に基づいて、前記ロボットが適切な言動をおよび動作を選択する選択部を備えていることを特徴とする。
たとえば、視認者の情動値(E)が低い(関心がない)場合は明らかに視認者の視認対象に関心がないと判定し、ロボットは関心のあるものに誘導する言動、動作をする。
視認者の感情の怒り(AN),恐怖(FE)、嫌悪(DI)が高い場合、ロボットは適切な慰めの言葉を発したり、視認対象を変更するなどの対処をすることになる。
また、請求項14の発明は、請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、犯罪容疑者であり、前記特定の対象物は、犯罪現場、犯罪用具、共犯者または被害者であることを特徴とする。
視認者の情動値(E)が低い(注目していない)場合、視認対象に犯罪容疑者にとって関連がないと判定できる。
しかし、情動値が高く(注目している)ても、単に関心が高いだけで疑いがあるとはいえない。
この場合、一般的に情動値(E)が高く、感情値(F)の幸福(喜び)度(HA)、驚き(SU)、怒り(AN),恐怖(FE)、嫌悪(DI)が高い場合は犯罪容疑者にとってなんらか関連があると判定できる。
また、請求項15の発明は、請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、自動車または飛行機等の交通機関の運転者であり、さらに、前記診断部から入力した診断結果を用い、危険運転状態であると診断でき、、前記視認者に警告またはブレーキ等の適切な操作補助を行う機能をを備えていることを特徴とする。
視認者(運転者)の情動値(E)が低い場合は明らか不注意状態か居眠り状態に近いと判定できるので危険運転状態と言える。
しかし、情動値が高く(注目している)ても、必ずしも運転良好とはいえない。
常に視線が前をキープしており、
さらに、感情値(F)の幸福(喜び)度(HA)が高ければ状況がよいと判定できる。
また、怒り(AN),恐怖(FE)、嫌悪(DI)が高い場合は、車内の会話に影響されている場合以外に、運転時になんらかの問題があると判定できる。
また、請求項16の発明は、請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、労働者であり、視認対象は機会の操作シミュレータまたは実機械であり、前記解析部は、前記視認者の応答装置の動作による応答データを用いて、応答遅延時間及び操作方法を解析し、前記診断部は、前記視認者の熟練度あるいは適正度を診断することを特徴とする。
視認者の情動値(E)が低い場合は明らかに不注意状態か居眠りに近い状態と判定できる。
しかし、情動値が高く(注目している)ても、必ずしも操作良好とはいえない。
常に視線が操作対象をキープしており、
さらに、感情値(F)の幸福(喜び)度(HA)が高ければ状況がよいと判定できる。
また、怒り(AN),恐怖(FE)、嫌悪(DI)が高い場合は、操作時になんらかの問題があると判定できる。たとえば、労働パートナーの操作への怒り等。
また、請求項17の発明は、請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は就業前の労働者であり、視認対象は危険箇所のある操作映像のコンテンツまたはシミュレータであり、前記診断部は、前記視認者の体調を診断して、就業への適性を判定することを特徴とする。
視認者の情動値(E)が低い場合は、明らかに不注意状態か居眠りに近い状態と判定できる。たとえば、他のことに気を取られている等。
しかし、情動値が高く(注目している)ても、必ずしも体調良好とはいえない。
常に、視線が視野対象のコンテンツをキープしており、
さらに、感情値(F)の幸福(喜び)度(HA)が高ければ状況がよいと判定できる。
また、怒り(AN),恐怖(FE)、嫌悪(DI)が高い場合は、その時に(家庭、友人等に)なんらかの問題があると判定できる。
また、請求項18の発明は、請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、運動選手であり、前記特定の対象物は、運動選手が運動する時に見る対象(野球のバッターなら投手の動きとボールの球筋、テニス選手なら相手の選手の動作とボールの球筋等)であり、前記診断部は、前記視認者の調子、熟練度あるいは適正度を診断することを特徴とする。
注目すべき対象に視線が行ってなく、視認者の情動値(E)が低い(注目していない)場合は明らかに未熟と判定できる。
しかし、注目すべき対象に視線が行って、情動値が高く(注目している)ても、必ずしも調子が良いと言えないが、感情値(F)の幸福(喜び)度(HA)が高ければ状況がよいと判定できる。
また、怒り(AN),恐怖(FE)、嫌悪(DI)が高い場合は(たとえば審判に不満等)、その時になんらかの感情的問題があると判定できる。
また、請求項19の発明は、請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記視認者は、ゲームプレイヤーであり、前記診断部は、興味・関心と前記視認者の身体温度データにより、前記視認者の興奮度を診断することを特徴とする。
また、請求項20の発明は、請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、前記特定の対象物は、空間の中に配列されている物であり、前記診断部は、前記視認者から見た前記特定の対象物の適切性を診断することを特徴とする。
視認者の情動値(E)が低い(関心がない)場合は明らかにその場の棚および棚にあるものが注目されないと判定できる。
しかし、情動値が高く(注目している)ても、単に関心が高いだけで購買意欲が高いとはいえない。
ただし、一般的に感情値(F)の幸福(喜び)度(HA)と驚き(SU)が高い場合は好意的と判定できる。
しかし、その他の感情値(F)の悲しみ(SA)、怒り(AN),恐怖(FE)、嫌悪(DI)が高い場合は、一般的に不満につながる要素があると判定できる。
請求項21の発明は、請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、視認対象は客に応対する店員、受付者等であり、店員、受付者の応対において、視認者の情感を診断して、店員、受付者等の応対の良し悪しを判定することを特徴とする。
視認者の情動値(E)が低い(関心がない)場合は明らかに相手に特別に問題はなく、平常の応対をしているものと判定できる。
視認者の情動値が高い(興味を引いている)場合、一般的に感情値(F)の幸福(喜び)度(HA)が高ければ応対が良いと判定できる。
ただし、怒り(AN),恐怖(FE)、嫌悪(DI)が高い場合は、会話内容にへの同調反応を除き、相手が好ましい応対ではないと判定できる。
請求項22の発明は、求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
前記視認者は、一般のテレビ視聴者(映像コンテンツの受信者)であり、
視認対象は放送、ネットワークまたは映像蓄積装置に接続したTVディスプレイ上のコンテンツであり、テレビ視聴時の視認者の興味・関心の高いコンテンツの分野を視認者の情感の解析により判定し、視認者のテレビ等視聴時に、視認者の興味・関心度の高いコンテンツを推薦することを特徴とする視認情景に対する視認者情感判定装置。
請求項23発明は、請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において
前記視認者は、一般のテレビ視聴者であり、視認対象はネットワークまたは電波を経由して受信するテレビ受信機(映像コンテンツ受信機)である。番組を視聴中に情感度の高い瞬間に受像機の中の視点のある対象物または人物を自動的にマークし、後でネットワークを通して、その品物の情報を電子メールにて配信されてくるシステムで、その後の視認者の意思の下で、商品の購入、人物への連絡ができることを特徴とする。
ただし、受像機の中の視点のある対象物または人物を自動的にマークするに際して、情動(興味・関心度)が高くても、感情度において嫌悪感度と怒り度が高いものは自動的に除く。
以上のように、本発明によれば、生理反応データの変化とそれに伴う速度および加速度と、顔の各部位の変化による顔の表情解析を組み合わせて、対象物及び視認者自身の能力を評価する。これにより、視認者の生理反応をより正確に把握し、様々な状況において、対象物及び視認者自身の能力をより正確に評価することができる。
本発明の実施形態による視認者情感判定システムの構成を示すブロック図である。 本発明の実施形態による視認者情感判定装置の構成を示すブロック図である。 本発明の実施形態による視点の位置を算出することを説明する図である。 本発明の実施形態による視認者の頭の動きと視認映像の関係を説明するための図である。 本発明の実施形態による視認映像を解析する際の座標軸の一例である。 本発明の実施形態による水平方向に視認者の頭が動いた場合の頭の移動を説明する図である。 本発明の実施形態によるフレーム画面Fから次のフレーム画面F+1へ頭が移動した場合の、静止物の基点の移動を示す図である。 本発明の実施形態による視認映像の中の視点の移動を示す図である。 本発明の実施形態によるフレーム画面Fからフレーム画面F+1に移動した際の視点の移動を示す図である。 本発明の実施形態による視認映像における対象物と視点の位置関係を示す図である。 本発明の実施形態による接近速度、接近加速度、離脱速度及び離脱加速度の算出方法を示すフローチャートである。 本発明の実施形態による視点追尾時間の算出方法を示すフローチャートである。 本発明の情感判定判定用の顔解析手法による顔の部位計測の図 映像コンテンツ作者の期待感情反応度設定図例 映像コンテンツ作者の期待感情反応度に対する視聴者感情反応度結果例 特定映像コンテンツでの視認者の平均注目度分布(最低瞳孔径を0、最大瞳孔径を100とする) 特定映像コンテンツでの視認者の平均注目度集中度(%) 本発明の実施形態による、相性診断に用いる視認者情感判定システムの構成を示すブロック図である。 本発明の実施形態による、相性診断に用いる視認者情感判定装置の構成を示すブロック図である。 本発明の実施形態による、ロボットの応対診断に用いる視認者情感判定装置の構成を示すブロック図である。 本発明の実施形態による、ドライバー眠気感知診断に用いる視認者情感判定装置の構成を示すブロック図である。
以下、本発明を実施するための最良の形態について図面を用いて詳細に説明する。
〔視認者情感判定システム〕
まず、視認者情感判定システムの構成、及び各構成部の処理について説明する。図1は、本発明の実施形態による視認者情感判定システムの構成を示すブロック図である。この視認者情感判定システムは、アイカメラ3、送信装置7、蓄積装置8、視認者の顔を含む身体動作撮影装置9、身体温度測定装置10、応答装置14及び視認者情感判定装置100を備えている。
まず、視認者1は、アイカメラ3を頭部に装備し、対象物2を含む視認情景に視線を向ける。ここで、視認情景とは、視認者1が視認可能な情景であれば何でもよく、例えば、商店、広場、人間、町並の他、コンピュータ、携帯電話、テレビジョンなどのディスプレイに表示される映像データ、ウェブページデータ、コンピュータゲームデータ、コンピュータプログラムの出力するデータなども含まれる。ディスプレイ上に表示される上記のデータには、文字列、図、記号、絵、写真または動画など、視認者1を反応させるための応答喚起情報が表示され、文字列、図、記号、絵、写真または動画など、視認者1が反応する対象となる反応対象情報が含まれる。
アイカメラ3は、眼球撮影装置4、視認情景撮影装置5及びマイクロフォン6を備えている。なお、図1では、アイカメラ3は、蓄積装置8及び送信装置7に接続されており、視認者1は、蓄積装置8及び送信装置7も身に付けている。
また、視認対象がコンピュータ、携帯電話、テレビジョンなどのディスプレイの場合、アイカメラを頭に装着せず、ディスプレイの側に、眼球撮影装置、マイクロフォンを設置してもよい。
眼球撮影装置4は、視認者1の眼球を撮影する。眼球撮影装置4が撮影した眼球運動映像bは、蓄積装置8に蓄積される。なお、眼球運動映像bは、動画として蓄積されてもよく、定期的に撮影された静止画として蓄積されてもよい。
視認情景撮影装置5は、視認者1が視線を向けている対象物2を含む視認情景を撮影する。視認情景撮影装置5が撮影した視認映像aは、蓄積装置8に蓄積される。なお、視認映像aは、動画として蓄積されてもよく、定期的に撮影された静止画として蓄積されてもよい。
さらに、視認映像aには、視認映像aにおける照度データが含まれていてもよい。視認者1の目における照度の変化が瞳孔径に影響を与えるので、視認映像aに照度データを含めることにより、後述する視認者情感判定装置100における解析部102で照度による瞳孔径の変動を補正する。
マイクロフォン6は、視認者1及び周囲の音声を捕捉する。マイクロフォン6が捕捉した音声データcは、蓄積装置8に蓄積される。
応答装置14は、視認者1の動作により応答信号を取得する。視認者1の動作としては、例えば、ボタン押し操作、キーボード操作、マウス操作、タッチパネル操作、リモコン操作、ゲーム機器付属コントローラの操作、機械の操作などの他、手を上げる、発声するなど、その他のボディアクションが挙げられる。応答装置14が取得した応答データdは、蓄積装置8に蓄積される。
蓄積装置8は、視認情景撮影装置5からの視認映像a、眼球撮影装置4からの眼球運動映像b、マイクロフォン6からの音声データc、及び応答装置14からの応答データdを、視認者の顔の映像を含む視認者身体動作映像eをそれぞれ同期したデータとして時系列に蓄積する。
送信装置7は、蓄積装置8が蓄積した視認映像a、眼球運動映像b、音声データc及び応答データd、視認者の顔の映像を含む視認者動作映像eを、無線または有線によって、視認者情感判定装置100へ送信する。このとき、送信装置7は、所定の時間間隔で、各データを視認者情感判定装置100へ送信してもよく、視認者情感判定装置100からの指示に従って、各データを視認者情感判定装置100へ送信してもよい。
身体動作撮影装置9は、視認者1の顔を含む身体の各部の動作を撮影する。また、身体動作撮影装置9は、無線または有線によって、撮影した身体動作映像eを視認者情感判定装置100へ送信する。
なお、この場合、視認者の顔だけを撮影する顔撮影装置を別に用意してもよく、たとえば帽子型のアイカメラの帽子の前さし先端に装着して顔を撮影することもできる。
身体温度測定装置10は、視認者1の身体の温度を測定する。また、身体温度測定装置10は、無線または有線によって、身体温度データfを視認者情感判定装置100へ送信する。なお、図1では、視認者1の身体の温度を身体温度測定装置10によって遠隔から測定しているが、視認者1に装着したセンサーにより直接測定しても構わない。この場合、測定した身体温度データfは、蓄積装置8に蓄積され、送信装置7によって視認者情感判定装置100へ送信される。
ここで、眼球撮影装置4、視認情景撮影装置5及び身体動作撮影装置9における映像フレームの撮影周波数は、240Hz以上と高速なものが適切である。また、これらの映像フレームの撮影周波数は同一であることが望ましい。
なお、図1では、アイカメラ3及び応答装置14は、蓄積装置8に接続されており、有線によって、各データを蓄積装置8に送信しているが、無線によって、各データを蓄積装置8に送信しても構わない。さらに、無線による場合、視認情景撮影装置5、眼球撮影装置4、マイクロフォン6及び応答装置14は、各データを直接、視認者情感判定装置100へ送信しても構わない。
〔視認者情感判定装置〕
次に、図1に示す視認者情感判定装置100の構成、及び各構成部の処理について説明する。図2は、本発明の実施形態による視認者情感判定装置100の構成を示すブロック図である。この視認者情感判定装置100は、受信部101、解析部102、蓄積部103、診断部104及び表示部105を備えている。
〔受信部〕
受信部101は、送信装置7から、視認映像a、眼球運動映像b、音声データc及び応答データdを受信する。また、受信部101は、身体動作撮影装置9から身体動作映像eを受信する。さらに、受信部101は、身体温度測定装置10から身体温度データfを受信する。そして、受信部101は、受信した全データを同期させ、所定の時間間隔で、あるいは、解析部102からの指示によって各データを解析部102へ出力する。受信したデータを同期させるためには、各データに時計の時刻を同期信号として含ませる方法と、視認者情感判定装置100から同期信号を送信装置7、身体動作撮影装置9及び身体温度測定装置10へ送り、送信装置7からの視認映像a、眼球運動映像b、音声データc及び応答データd、身体動作撮影装置9からの身体動作映像e、身体温度測定装置10からの身体温度データfに同期信号データとして含ませる方法とがある。これにより、全データを同期させて処理することができる。
〔解析部〕
解析部102は、所定の時間間隔で、あるいは、受信部101へ指示することによって、受信部101から視認映像a、眼球運動映像b、音声データc、応答データd、身体動作映像e及び身体温度データfを取得する。そして、解析部102は、各データa〜fに同期信号データを付し、蓄積部103へ蓄積する。また、解析部102は、必要に応じて、蓄積部103に蓄積した各データa〜fを読み出し、読み出した各データa〜fを解析のために用いる。また、解析部102は、視認映像a及び眼球運動映像bから視認映像aにおける視点の位置を算出するとともに、視認者の生理反応データの変化とそれに伴う加速度を算出する。詳細については後述する。
図3は、視認映像aと眼球運動映像bとを用いて、視点の位置を算出することを説明する図である。解析部102は、図3に示すように、眼球運動映像bから視線を求め、この視線と視認映像aとを合わせることにより、視点の位置を算出する。ここで、視線の算出方法は、様々なものがある。例えば、角膜反射法と呼ばれる、眼球へ点光源の近赤外線を照射し、角膜表面における反射像(以下、プルキニエ像という。)を利用する方法がある。角膜反射法による視線の測定方法は、2種類に大別され、瞳孔中心とプルキニエ像との距離から視線を求める方法と、プルキニエ像から得られる角膜曲率中心と瞳孔中心を結ぶ線を仮想視線とし、誤差補正を行って視線を求める方法とがある。
図4は、視認者1の頭(顔の動きを含む)の動きと視認映像aの関係を説明するための図である。解析部102は、図4に示すように、視認映像aによって、視認者1の頭の動きを計測する。視認情景撮影装置5の撮影時におけるフレーム周波数をS(/秒)とするとフレーム間隔Fは、F=1/S(秒)となる。図4において、頭の動きについては、視認者1が頭に装着する視認情景撮影装置5が撮影した視認映像aだけでも、その動きを計測できる。ただし、視認映像aを基本にした計測であるため、2次元となる。ここで、視認映像aの視野角(横θh、縦θv)は視認情景撮影装置5によって、予め設定されている。また、解析部102は、身体動作映像eを用いて、頭の動きを計測することもできる。または、画像処理によって身体動作映像eから頭を特定し、その頭を追跡することにより、頭の動きを計測する。全く異なる技術として視認情景撮影装置5に装着したジャイロスコープを用いて頭の動きを計測することも可能である。
図5は、視認映像aを解析する際の座標軸の一例である。また、図6は、水平方向に視認者1の頭が動いた場合の頭の移動を説明する図である。ここでは、視認者1の頭を中心に視野全体を球面にたとえて、頭の動きを水平方向h、上下方向をvで表している。図5に示す座標軸は、(h、v)ともに数字だけで表したり、ラジアン(rad)または角度(°)で表したりしてもよい。例えば、一周をそれぞれ、1(−0.5〜+0.5)、2πrad(−π〜+π)、360°(−180°〜+180°)で表してもよい。なお、図6においては、最初のフレーム画面をFとして、1/S秒後の次のフレーム画面をF+1として表している。
また、解析部102は、頭の移動距離、移動速度、移動加速度を算出する。図7は、フレーム画面Fから次のフレーム画面F+1へ頭が移動した場合の、静止物の基点の移動を示す図である。視認映像aを、左下端を原点とした座標(x,y)で表し、最初のフレーム画面Fの中の動いていない物(静止物)“A”の点を基点と決めて、その座標を(x0,y0)とする。ここで、静止物“A”及びその点(座標)は、視認者情感判定装置100を操作するオペレータが視認映像aを見て指定することによって、決定するようにしてもよいし、予め設定された静止物“A”の特徴を視認映像aから捉え、自動的に決定するようにしてもよい。なお、静止物“A”を特定して追跡する画像処理については既知の技術であるから、ここでは詳細な説明を省略する。1/S秒後の次のフレーム画面F+1における静止物“A”の位置(x1,y1)を測ることにより、解析部102は、以下のデータを算出する。
頭の水平移動距離:h0=−(x1−x0)
頭の垂直移動距離:v0=−(y1−y0)
(頭の移動は基点“A”の動きとは逆になるので、負(−)の方向になる)
頭のFからF+1までの移動距離:phv0=(h0+v01/2
また、解析部102は、移動フレームを全部(nまで)合わせることにより、以下のデータを算出する。
全移動水平距離:phn=Σh=h0+h1+・・・・・+hn
全移動垂直距離:pvn=Σv=v0+v1+・・・・・+vn
全体の移動距離:phvn=(phn+pvn1/2
ここで、0,1,2,・・・,nは最初のフレーム番号を0としたときのnまでのフレーム番号である。また、解析部102は、フレーム画面Fにおける頭の移動速度qhv0を、qhv0≒d(phv)/dt≒(phv1−phv0)/(1/S)として算出する。また、解析部102は、フレーム画面Fにおける頭の移動加速度khv0を、khv≒d(qhv)/(1/S)≒(qhv1−qhv0)/(1/S)として算出する。
また、頭の移動距離、移動速度、移動加速度を算出する方法としてはジャイロスコープ(単位は角速度:ラジアンまたは度)がある。
角速度を経過時間で積分して移動角度を算出する方法が一般的である。
Lフレーム時の頭の角移動速度はジャイロスコープでフレームL時点の移動速度(phv)を測定することで得られる。
フレームL時の頭の水平移動速度=qh
フレームL時の頭の垂直移動速度=qv
として
Figure 2010094493
頭のFからFまでの移動距離:phvL=(phL+pvL1/2
また、本解析方法は、映像のフレーム単位での解析のため、
解析部102は、移動フレームを全部合わせることにより、以下のデータを算出する。
全体の移動距離:phvL=(phL+pvL1/2
また、解析部102は、フレーム画面F時における頭の移動速度qhv0を、
qhv0≒(phv1−phv0)/(1/S)
として算出する。
また、解析部102は、フレーム画面Fにおける頭の移動加速度khv0を、
khv≒d(qhv)/(1/S)≒(qhv1−qhv0)/(1/S)
として算出する。
また、解析部102は、視認映像aの中の視点の動きを算出する。図8は、視認映像aの中の視点Bの移動を示す図である。図8では、フレーム画面Fにおける視認映像aの中の視点の位置を(H0,V0)で表示する。また、次のフレーム画面F+1における視点の位置を(H1,V1)で表示する。1/S秒後の次のフレーム画面F+1における視点Bの位置(H1,V1)を測ることにより、解析部102は、視点の水平移動距離pH0を、pH0=H1−H0として算出する。同様に、垂直移動距離pV0を、pV0=V1−V0として算出する。また、視点のFからF+1までの移動距離pHV0を、pHV0=(pH0+pV01/2として算出する。また、移動フレームFからFnまでを全部あわせた水平移動距離pHを、pH=ΣpH=pH0+pH1+pH2+・・・+pHnとして算出する。同様に、垂直移動距離pVを、pV=ΣpV=pV0+pV1+pV2+・・・+pVnとして算出する。よって、FからFnまでの全体の移動距離pHVを、pHV=(pH+pV1/2として算出する。また、フレーム画面Fにおける視認映像aの中での視点の水平速度qH0を、qH0≒d(pH)/dt≒(pH1−pH0)/(1/S)として算出する。同様に、垂直速度qV0を、qV0≒d(pV)/dt≒(pV1−pV0)/(1/S)として算出する。また、フレーム画面Fにおける視点の移動速度qHV0は、qHV0=(qH0+qV01/2として算出する。また、フレーム画面Fにおける視認映像aの中での視点の水平加速度kH0を、kH0≒d(qH)/dt≒(qH1−qH0)/(1/S)として算出する。同様に、垂直加速度kV0を、kV0≒d(qV)/dt≒(qV1−qV0)/(1/S)として算出する。また、フレーム画面Fにおける視点の移動加速度kHV0を、kHV0=(kH0+kV01/2として算出する。
また、解析部102は、頭の動きを含む視点の動きを算出する。図9は、フレームFからフレームF+1に移動した際の視点の移動を示す図である。図9において、解析部102は、フレームFにおける頭と視点との水平移動距離を、Dh0=ph0+pH0として算出する。同様に、フレームFにおける頭と視点との垂直移動距離を、Dv0=pv0+pV0として算出する。したがって、FからF+1までの頭と視点との移動距離D0は、D0=(Dh0+Dv01/2として算出する。また、フレーム画面FからFnまでのトータルの頭と視点との全移動距離TDを、TD=D0+D1+・・・+Dnとして算出する。
また、フレームFにおける頭を含む視点の移動速度を以下のように算出する。
水平速度:Qh0=qh0+qH0
垂直速度:Qv0=qv0+qV0
したがって、フレームFにおける速度Q0は、Q0=(Qh0+Qv01/2として算出する。同様に、フレームFにおける頭を含む視点の加速度を以下のように算出する。
水平加速度:Kh0=kh0+kH0
垂直加速度:Kv0=kv0+KV0
したがって、フレームFにおける頭を含む視点の加速度K0は、K0=(Kh0+Kv01/2として算出する。
また、解析部102は、視認映像aの中で対象物の移動も視点の移動と同様に算出する。
上記の情報を用いて、解析部102は、対象物に視点が追尾しているか否かを解析する。図10は、視認映像aにおける対象物と視点の位置関係を示す図である。図10において、視認映像aの中で、対象物Cの映像の中に視点Bが入っている場合は、視認者の視点はその対象物を追尾していると判定する。なお、対象物の輪郭の特定は、画像処理によって可能であり、既知の技術で対応可能であるため、ここでは詳細の説明は省略する。
また、解析部102は、視点Bの位置(H,V)と対象物Cの位置(X,Y)の乖離距離、視点が対象物に接近する際の接近速度(Bv)及び接近加速度(Bk)、視点が対象物から離脱する際の離脱速度(Bs)及び離脱加速度(Br)を算出する。なお、対象物Cが視認映像aから外れたり、視点Bが対象物Cから離れて所定の時間経過したり等の所定の条件を満たす場合は、明らかに視点Bが対象物から離脱したと判定する。
図11は、接近速度(Bv)、接近加速度(Bk)、離脱速度(Bs)及び離脱加速度(Br)の算出方法を示すフローチャートである。接近速度(Bv)、接近加速度(Bk)、離脱速度(Bs)、離脱加速度(Br)の算出方法を、図11を参照して説明する。まず、ステップ101において、解析部102は、視点が対象物の範囲内にあるか否かを判定する。対象物が範囲内にあるか否かは、視点Bの位置(H,V)と対象物Cの位置(X,Y)の乖離距離から求められる。まず、フレームFにおける水平乖離距離Zh0を、Zh0=X0−H0として算出する。同様に、垂直乖離距離v0を、v0=Y0−V0として算出する。また、乖離距離U0を、U0=(Xh0+Wv01/2として算出する。フレームFにおける乖離距離をU0、フレームF+1における乖離距離をU1とする。
ア.視点Bの位置(H,V)が対象物Cの位置(X,Y)の範囲内に含まれない場合(ステップ101:N)、すなわち、視点Bが対象物Cの外部に存在する場合、以下のA〜Cの処理を行う。
A.ステップ103において、U1−U0<0のとき、視点Bは対象物Cに接近中であると判定し、ステップ104へ進み、接近速度および加速度を算出する。フレームFにおいて、視点Bの対象物Cへの接近速度(Bv)は、以下のようになる。
Bv0=(U1−U0)/(1/S)
また、視点Bの対象物Cへの接近加速度(Bk)は、以下のようになる。
Bk0=(Bv1−Bv0)/(1/S)
そして、ステップ101の処理へ戻る。
B.ステップ103において、U1−U0>0のとき、視点Bは対象物Cから離脱中であると判定し、ステップ105へ進み、離脱速度および加速度を算出する。フレームFにおいて、視点Bの対象物Cからの離脱速度(Bs)は、以下のようになる。
Bs0=(U1−U0)/(1/S)
また、視点Bの対象物Cからの離脱加速度(Br)は、以下のようになる。
Br0=(Bs1−Bs0)/(1/S)
そして、ステップ101の処理へ戻る。
C.なお、ステップ103において、U1−U0=0のときは、その時点での視点の移動はない。したがって、それ以降のU1−U0の結果がプラス+またはマイナス−になるまで判断を待つ必要がある。
したがって、ステップ101の処理へ戻る。
視点Bの位置(H,V)が対象物Cの位置(X,Y)の範囲内に含まれる場合(ステップ101:Y)、すなわち、視点Bが対象物Cの内部に存在する場合、視点追尾中であると判断し、ステップ102へ移行し、フレーム数(N)を数えて、後述する図12を用いて説明するように、視点追尾時間(Bt)=((1/S)×N)}を算出する。
また、解析部102は、視点追尾時間を算出する。図12は、視点追尾時間の算出方法を示すフローチャートである。図12に示す視点追尾時間の算出方法は、図11に示したステップ102に対応している。各視認映像aのフレーム毎に、まず、ステップ201において、解析部102は、視点が対象物の範囲内にあるか否かを判定する。視点が対象物の範囲内にあるか否かの判定方法は、図11において説明した方法と同様である。そして、視点が対象物の範囲内にある場合、ステップ202へ進み、時間をカウントする。次に、ステップ203において、視点が対象物の範囲内にあるか否かを判定し、範囲内にある場合は、ステップ202へ戻り、時間をカウントする。一方、視点が対象物の範囲内にない場合は、ステップ204へ進み、カウントした時間を視点追尾時間として設定するとともに、図11のステップ101へ戻る。
また、解析部102は、眼球運動映像bから、瞳孔径(P)及び瞬目回数を測定する。さらに、解析部102は、複数の瞳孔径(P)のデータから、瞳孔径の拡大速度(Pv)、瞳孔径の拡大加速度(Pk)、瞳孔径の縮小速度(Ps)、瞳孔径の縮小加速度(Pt)を算出する。なお、視認映像aに照度データが含まれている場合、解析部102は、照度による瞳孔径の変動を補正する。この瞳孔径の補正方法には、明瞳孔画像と暗瞳孔画像の差分による補正等があるが、これらの方法は既知の技術を用いることにし、ここでは詳細な説明は省略する。
以上のように、解析部102は様々な値を解析し、この解析した値を解析値Aとして、蓄積部103及び診断部104へ出力する(図2参照)。よって、解析値Aに含まれる値としては、瞳孔径(P)、瞳孔径の拡大速度(Pv)、瞳孔径の拡大加速度(Pk)、瞳孔径の縮小速度(Ps)、瞳孔径の縮小加速度(Pt)、視点追尾時間(Bt)、視点接近速度(Bv)、視点接近加速度(Bk)、視点離脱速度(Bs)、視点離脱加速度(Br)の他、視認者の身体(例えば、頭)の接近移動速度、接近移動加速度、瞬目回数、音声データc、応答データd、身体温度データfが挙げられる。
〔蓄積部〕
再び図2を参照して、蓄積部103は、解析部102から出力された視認映像a、眼球運動映像b、音声データc、応答データd、身体動作映像e及び身体温度データfを蓄積する。また、蓄積部103は、解析部102から出力された解析値Aを蓄積する。さらに、蓄積部103は、視認者1が興味の低い、すなわち、平凡で刺激の低い対象物2を見ている場合の瞳孔径(Ph)、瞳孔径の拡大速度(Phv)、瞳孔径の拡大加速度(Phk)、瞳孔径の縮小速度(Phs)、瞳孔径の縮小加速度(Pht)、視点追尾時間(Bht)、視点接近速度(Bhv)、視点接近加速度(Bhk)、視点離脱速度(Bhs)及び視点離脱加速度(Bhr)を平常値Hとして、予め蓄積している。
また、蓄積部103は、視認者1の興味の高い対象物2を見ている場合の瞳孔径(Pe)、瞳孔径の拡大速度(Pev)、瞳孔径の拡大加速度(Pek)、瞳孔径の縮小速度(Pes)、瞳孔径の縮小加速度(Pet)、視点追尾時間(Bet)、視点接近速度(Bev)、視点接近加速度(Bek)、視点離脱速度(Bes)及び視点離脱加速度(Ber)を感動値Kとして、予め蓄積している。また、蓄積部103は、診断部104から出力された診断結果を蓄積する。
〔診断部〕
診断部104は、解析部102から出力された解析値Aを、蓄積部103に蓄積された平常値Hあるいは感動値Kと比較することにより、視認者1の対象物2に対する興味を診断し、視認者1が視認している対象物2または視認者1自身の能力を評価する。すなわち、診断部104は、解析値Aに含まれる各パラメータを、a,b,c,・・・とし、各パラメータに対する重み付けをA,B,C,・・・とし、以下の評価値E(t)を算出する。
E(t)=A・a(t)+B・b(t)+C・c(t)+・・・
具体的には、診断部104は、所定時間内における瞬目回数が所定回数よりも減少している場合、その対象物2に興味があると診断する。さらに、診断部104は、瞳孔径が所定値よりも大きい場合、その対象物2に興味があると診断する。上記に加え、診断部104は、瞳孔径の拡大速度及び拡大加速度が所定値よりも大きい場合、その対象物2に興味があると診断し、逆に、、瞳孔径が所定値よりも小さい場合、瞳孔径の縮小速度及び縮小加速度が所定値よりも大きい場合、その対象物2に興味がないと診断する。また、診断部104は、視点接近速度及び視点接近加速度が所定値よりも大きい場合、その対象物2に興味があると診断し、逆に、視点接近速度及び視点接近加速度が所定値以下の場合、その対象物2に興味がないと診断する。また、視点離脱速度及び視点離脱加速度が所定値よりも大きい場合、その対象物2に興味がないか嫌悪感があると診断し、逆に、視点離脱速度及び視点離脱加速度が所定値以下の場合、その対象物2に興味があると診断する。
さらに、診断部104は、対象物2への頭部の向きの接近移動速度及び接近加速度と、視点接近速度、視点接近加速度とを合成した視点の移動速度及び加速度を算出することにより、上記[0068]と同様の判定を行う。視認者1は、興味がある場合、視点が対象物を追尾するために頭もその方向を維持する。なお、興味がなくても頭を対象物に向け続けることはあるが、この場合、瞳孔径は縮小している。また、頭が対象物2方向から離れ続け、瞳孔径が縮小している場合、興味がないと診断する。
また、診断部104は、視認者1がある対象物2に視点が平常値(Bht)より多くの時間追尾して、瞳孔径が感動値(Pe)になる場合には、その対象物に興味・関心があると診断する。すなわち、
Bt>Bht
P>Ph×1.3、または、P=Pe
の場合、診断部104は、視認者1が対象物2に興味・関心があると診断する。この場合、対象物2が動いている場合は、視認者は対象物2が見える間追尾する。一方、動かない対象物2の場合は、平常値(Bht)以上の時間を追尾する。また、診断部104は、一旦、視点が対象物2の範囲内を短時間{<Bht}追尾し、瞳孔径が感動値の値(Pe)までに拡大せず、視点が、視点離脱速度が平常値(Bhs)より急速{>Bhs}に対象物2から離れ、再度視点が対象物2に戻らない場合、視認者1はその対象物2に興味がないと診断する。さらに、診断部104は、視認者1が一旦対象物2を見て瞳孔径が拡大するが、所定の時間内である短時間で視点が対象物2から離脱した場合、嫌悪感があると診断する。すなわち、対象物内に視点があるとき、
P>Ph、または、P=Pe
であり、この時、対象物からの視点離脱速度(Bs)、視点離脱加速度(Br)が平常値(Bhs,Bhr)より大きく、
Bs>Bhs
そして、
Br<Bhr
である場合、対象物2に対して嫌悪感があると診断する。なお、すでに1000件以上の統計では、対象物への視点追尾時間(Bt)がBt<0.2秒である場合、明らかに嫌悪感があると診断できるという結果を得ている。
また、診断部104は、身体温度データfを用いて、身体温度が上昇した場合、視認者1は、対象物2に興奮していると診断する。
また、診断部104は、応答装置14の動作による応答データdを用いて、対象物2及び視認者1自身の能力を評価する。具体的な応答データdの使用方法は後に詳述する。また、診断部104は、診断結果を表示部105及び蓄積部103へ出力する。
図13は視認者動作撮影装置9からの視認者顔映像データeである。
視認者の顔の各部位(目、唇、眉毛等)の特徴点を顔解析手法によりマークして顔の表情を解析する。
この特徴点は図では説明のために一部を示しているが、実際の顔解析手法による。
代表的な感情判定は驚き、恐れ、嫌悪、怒り、喜び(幸福)、悲しみである。
視認者の平常時と顔の各部が最大に動いた時の値(最大値)を予め計測して置き、各測定時の変化量の最大値との比率により、感情の度合い(F)を判定する。
これにより、請求項1から4による興味・関心度の情動値(E)と合わせて、視認対象に対する視認者の情感(EF値)判定ができることになる。
〔表示部〕
表示部105は、診断部104における診断結果をディスプレイなどの出力装置へ表示する。表示部105に表示された診断結果により、オペレータは、対象物2及び視認者1自身の能力を判断することができる。
以上のように、本発明の実施形態による視認者情感判定装置100によれば、生理反応データの変化とそれに伴う加速度と視認者の顔の変化を用いて、対象物2または視認者1自身の能力を評価する。
生理反応データの変化としては、瞳孔径とその拡大加速度(Pk)、瞳孔径の縮小加速度(Pt)、視点接近加速度(Bk)、視点離脱加速度(Br)が挙げられる。瞳孔径とその拡大速度と加速度(Pk)が大きくなるほど、あるいは、視点接近速度と加速度(Bk)が大きくなるほど、その対象物2に興味があると診断し、逆に、瞳孔径が小さく、その縮小加速度(Pt)が大きくなるほど、あるいは、視点離脱加速度(Br)が大きくなるほど、その対象物2に興味がないと診断する。また、顔の部分変化を解析して視認者の感情の変化を判定する。このように、本発明の実施形態による視認者情感判定装置100によれば、視認者の生理反応をより正確に把握し、様々な状況において、対象物または視認者自身の能力をより正確に評価することができる。本発明の実施形態による視認者情感判定装置100の適用場面については、後に詳述する。
以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。例えば、前記実施形態では、身体動作撮影装置9及び身体温度測定装置10は、直接、視認者情感判定装置100にデータを送信しているが、一旦蓄積装置8に蓄積され、視認映像aなどとともに、送信装置7から視認者情感判定装置100へ送信しても構わない。また、アイカメラ3が、眼球撮影装置4、視認情景撮影装置5及びマイクロフォン6を備える構成としたが、眼球撮影装置4、視認情景撮影装置5及びマイクロフォン6は、必ずしも物理的に接続されている必要はなく、それぞれが単体として備えていても構わない。
また、前記実施形態では、視点の位置を算出する際に、角膜反射法を用いたが、視点の位置を算出する方法はこれに限られず、様々な公知の方法が使用可能である。
尚、視認者情感判定装置100は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。視認者情感判定装置100に備えた受信部101、解析部102、蓄積部103、診断部104及び表示部105の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもできる。
次に、本発明の実施形態による視認者情感判定装置100が適用される場面について説明する。具体的には、購買意欲度診断、学習意欲度診断、映像コンテンツ作者の期待感情反応度に対する視聴者感情反応度診断、コンテンツ内の注目点の分布によるコンテンツ評価、相性診断、言葉を話せない赤ん坊、認知症者、動物等との意思伝達診断、ロボットの応対方法判定、犯罪証拠診断、ドライバー眠気感知診断、自動車運転適性診断、労働安全熟練度診断、労働前適正診断、運動選手適正診断、ゲームのエキサイト度診断、空間デザイン診断、応対者応対度診断、映像コンテンツ選択優先度診断、コンテンツの中の興味・関心度の高い物または人物の自動マークについて説明する。
〔購買意欲度診断〕
購買意欲度診断では、ある商品を一般の視認者1に見てもらい、その商品に対して、視認者1が購買意欲をもつか、持たないかの診断を行う。
視認方法は、実際の商品を見る方法でも、広告、テレビ、パソコン、モバイル端末(携帯電話含む)等のディスプレイに表示された商品でも構わない。購買力診断には、図1及び図2に示す視認者情感判定装置100を用いる。ここでは、対象物2は実際の商品または商品の映像となる。診断部104は、ア.その商品を見て、瞳孔が感動値(Pe)まで拡大していない{<Pe}(無関心)、イ.視点追尾時間が平常値(Bht)より短い(興味なし)場合、視認者1がその商品に対して「購買意欲はない」と診断する。
さらに、商品からの視点離脱速度(Bs)と最初の加速度(Br)が平常値{Bhs、Bhr}より大きいときに、顔解析手法による感情値(E)の嫌悪(DI)を解析することにより嫌悪感を判定できる。この場合、明らかに購買意欲がある場合とは反対の行動であるといえる。このことから、「購買意欲なし」という診断の度合いを測ることができる。
一方、瞳孔径(P)が拡大していて、商品への視点追尾時間(Bt)が平常値(Bht)より長く、感動値(Bet)に達したときに、興味はあると診断できるが、購買意欲があることまでは診断できない。すなわち、興味がない場合は、購買意欲はないが、興味があっても、購買意欲がない場合がある。そこで、顔解析手法により感情判定を組み合わせることにする。
一般的に感情値(F)の幸福(喜び)度(HA)と驚き(SU)が高いが場合は購買に積極的と判定できる。
しかし、その他の感情値(F)の悲しみ(SA)、怒り(AN),恐怖(FE)、嫌悪(DI)が高い場合は一般的に購買に消極的と判定できる。、
次に、複数の商品を視認者1に視認してもらい、特定の商品を見て、他の商品より、ア.瞳孔径が大きい、イ.視点追尾時間が長い、ウ.視点離脱速度、最初の加速度が小さい場合は、その特定商品が一番興味を引いていると判定できる。さらに、顔解析手法により、幸福(喜び)感を感じている場合、その特定商品に対して、肯定的な感情を持っていると判定できるので、診断部104は、他の商品より購買意欲度が高いと診断する。一方、特定の商品が、他の商品より、ア.瞳孔径が小さい、イ.視点滞留時間が短い、ウ.視点離脱速度、最初の加速度が大きい場合で、顔解析手法により、幸福(喜び)感を感じない場合は、肯定的な反応が少ないことになるので、診断部104は、購買意欲度は他の商品に比べて小さいと診断する。
〔学習意欲度診断〕
学習意欲度診断では、学習対象(教師、教科書、教材、黒板等)を対象物2とすることにより、学習意欲度の診断を行う。学習意欲度診断には、図1及び図2に示す視認者情感判定装置100を用いる。ここでは、診断部104は、視認者1が学習対象(教師、教科書、教材、黒板等)を見ている時、
ア.瞳孔径(P)が感動値(Pe)まで拡大していない(無関心)、イ.視点追尾時間(Bt)が平常値(Bht)より短い(興味なし)場合、また顔解析手法により、嫌悪感を示す場合、この学習対象が嫌いであるとの判定もできる。このことから、診断部104は、「学習意欲なし」と診断する。
一方、瞳孔径(P)が拡大していて情動値(E)が高い場合、学習対象への視点追尾時間(Bt)が平常値(Bht)より長くても、興味・関心はあるが、学習意欲とは必ずしも結びつかない。
すなわち、興味が顔解析手法の感情判定により、幸福(喜び)感を示す場合、視認対象に対して、肯定的な感情を持っていると判定できるので、学習意欲度が高いと判定できる。
一般的に学習の内容がそれぞれの目的の感情を誘う内容の場合、感情値(F)の幸福(喜び)度(HA)と驚き(SU)、悲しみ(SA)、怒り(AN),恐怖(FE)、嫌悪(DI)が高い場合はその学習は良いと判定できる。
ただし、問題に取り組んでいる場合、悲しみ(SA)、怒り(AN),恐怖(FE)、嫌悪(DI)が高い場合は、学習内容が前述の目的の感情を引き出すことを目的にする場合を除き、何か戸惑っており、この学習に問題あり、と判定できる。
次に、複数の学習対象を視認者1に視認してもらい、特定の学習対象を見て、他の学習対象より、ア.瞳孔径が大きい、イ.視点追尾時間が長い、ウ.視点離脱速度、最初の加速度が小さい場合は、その学習対象が一番興味を引く。さらに、顔解析手法により、幸福(喜び)感を示す場合、その学習対象に対して、肯定的な感情を持っていると判定できるので、診断部104は、その学習対象が他の学習対象より学習意欲度が高いと診断する。
一方、特定の学習対象が、他の学習対象より、ア.瞳孔径が小さい、イ.視点追尾時間が短い、ウ.視点離脱速度、最初の加速度が大きい場合で、顔解析手法により、幸福(喜び)感を示さない場合は、肯定的な反応が少ないことになるので、診断部104は、その学習対象に対する学習意欲度は、他の学習対象に比べて少ないと診断する。
〔映像コンテンツ作者の期待感情反応度に対する視聴者感情反応度診断〕
映像コンテンツ作者の期待感情反応度に対する視聴者感情反応度診断は、図1及び図2に示す視認者情感判定装置100を用いる。
視認者1がテレビ、映画等で映像コンテンツを視聴している場合に、視認者1の興味・関心による注目度(情動度E)、および、感情度Fの各基本感情の幸福(喜び)度(HA)、驚き度(SU)、悲しみ度(SA)、怒り度(AN),恐怖度(FE)、嫌悪度(DI)および興奮度が映像コンテンツ作者の期待したレベルにどの程度反応しているかを診断し、映像コンテンツの評価判定をすることを特徴とする。
すべてのコンテンツにおいて、コンテンツ製作者はこの場面では感動して泣いて欲しい、ここでは怒って欲しい、ここでは大いに笑って欲しいという意図で製作する。
そこで、コンテンツソフトプログラムに製作者の期待感情反応度を設定しておく。
具体的には、映像コンテンツの場面(時間)上で作者の期待する情動値(EF)を情動値(E)の最大値を100にして設定し、また期待する感情値(F)の期待値設定も、最大値を100にして各基本感情の幸福(喜び)度(HA)、驚き度(SU)、悲しみ度(SA)、怒り度(AN),恐怖度(FE)、嫌悪度(DI)および興奮度の期待レベルを設定する。
実際の映写時に、視聴者の情動解析による情動反応と顔解析による感情反応の度合いを測定・解析することで、コンテンツが製作者の意図した情動反応および感情反応の期待値に対してどの程度反応をしたかを判定し、その作品を評価できる。
なお、対象コンテンツには映像と同時に音を含むが、映像なしで音だけの場合もありうる。
その具体的結果の例を図20に示す。
図20による結果例を評価すると、最初の場面では期待値まではいかないが、視聴者はある程度画面に注目し、驚き、喜んでいる。後半は注目度も上がり、悲しみと恐怖は期待以上であり、さらに期待した怒り度がはるかに大きく反応しているので、製作者が期待したとおりのコンテンツとして評価できる。したがって、このコンテンツは期待どおりの作品であり、高い評価を得られると判定できる。
そのほか、有効な利用方法はCMの視聴者反応評価である。この場合は、訴求場面での訴求点への注目度が高く、かつ嫌悪感度、怒り度が低いことが良いCMであると判定する。
〔コンテンツ内の注目点の分布によるコンテンツ評価〕
請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
前記特定の対象物は、テレビ、映像の特定画面、静止画、ポスター、雑誌の1ページのようなコンテンツであり、
前記視認者は、前記映像コンテンツ視認者である。
映像コンテンツの特定の場面または静止画において、複数視聴者の注目視点の注目度分布を表示してコンテンツ製作者の訴求点とそのレベルを判定することを特徴とする。
具体的には映像画面、静止画、ポスター、雑誌の1ページのような特定コンテンツにおいて、複数人の視点の位置と瞳孔径による注目度の平均値を画面内で表示し、同時に全体を100とした場合の注目度の集中度を表示して、コンテンツ製作者の意図したとおりの部分を注目しているかどうかを評価することを特徴とする。
〔相性診断〕
相性診断では、テレビ電話機能(携帯電話を含む)で通信回線を通して、お互いに顔を見ながら通話をしている状況において、通話相手同士の相性診断を行う。相性診断には、図14及び図15に示す視認者情感判定装置100を用いる。
図14は、相性診断に用いる視認者情感判定システムの構成を示すブロック図であり、図15は、相性診断に用いる視認者情感判定装置100の構成を示すブロック図である。ここでは、対象物2はディスプレイ22a、22bに表示された顔の映像となる。まず、Aさんが使用するテレビ電話20a及びBさんが使用するテレビ電話20bは、それぞれ通信回線30を介して、視認者情感判定装置100に接続されている。また、図15に示す視認者情感判定装置100の蓄積部103は、視認者(ここでは、Aさん、Bさん)の個人属性データを予め計測して蓄積している。個人属性データには、視認者(Aさん、Bさん等)の年齢、性別、出身地等の他、平凡で刺激の低い対象物を見ている場合の平常値(「瞳孔径」「瞳孔径拡大速度」「瞳孔径拡大加速度」、「瞳孔径縮小速度」「瞳孔径縮小加速度」、「視点追尾時間」、「視点接近速度」「視点接近加速度」、「視点離脱速度」「視点離脱加速度」)と、興味・関心が高い視認対象を見ている時の感動値(興味・関心のある物を見る場合の「瞳孔径」、「瞳孔径拡大速度」「瞳孔径拡大加速度」、「瞳孔径縮小速度」「瞳孔径縮小加速度」、「始点の位置」「視点追尾時間」、「視点接近速度」「視点接近加速度」、「視点離脱速度」「視点離脱加速度」)が含まれている。また、顔解析手法の情感判定のために、視認者の平常時と顔の各部が最大に動いた時の値(最大値)を予め計測して置き、蓄積している。さらに、蓄積部103は、人間の年齢、性別、職業といった層ごと、及び、全体の平常値、感動値等の平均値を蓄積する。
テレビ電話20a、20bは、それぞれ、顔カメラ21a、21b、ディスプレイ22a、22b、眼球カメラ23a、23b及び追尾カメラ24a、24bを備えている。顔カメラ21a、21bは、通話者の顔を撮影する。ディスプレイ22a、22bは、通信相手を表示する。眼球カメラ23a、23bは、通話者の眼球を撮影する。追尾カメラ24a、24bは、眼球カメラ23a、23bの両側に設けられ、三角測量の原理を用いて通話者の眼球の位置を計測する。追尾カメラ24a、24bによる計測結果に応じて、眼球カメラ23a、23bは、通話者の眼球を追尾する。なお、眼球カメラ23a、23bを省略し、顔カメラ21a、21bを高詳細なものにして、視認者情感判定装置100内の解析部102において、通話者の顔映像を拡大して、画像解析により通話者の眼球映像を捉えても良い。また、眼球カメラ23a、23bを省略し、顔カメラ21a、21bを高詳細なものにして、視認者情感判定装置100内の解析部102において、通話者の顔映像を拡大して、画像解析により通話者眼球映像を捕らえる場合、追尾カメラ24a、24bの代わりに、テレビ電話20a、20bから通話者の顔までの距離を測る他の手段を用いても良い。このようにして、眼球をとらえ、距離が分かるので、瞳孔の直径が計測できる。
Aさんが使用するテレビ電話20aでは、顔カメラ21aでAさんの顔を撮影し、眼球カメラ23aでAさんの眼球を撮影する。そして、テレビ電話20aは、Aさんの顔データ、Aさんの眼球データ(視線方向、瞳孔映像、カメラから眼球までの距離)を、通信回線30を介して、視認者情感判定装置100へ送信する。同様に、Bさんが使用するテレビ電話20bでは、顔カメラ21bでBさんの顔を撮影し、眼球カメラ23bでBさんの眼球を撮影する。そして、テレビ電話20bは、Bさんの顔データ、Bさんの眼球データ(視線方向、瞳孔映像、カメラから眼球までの距離)を、通信回線30を介して、視認者情感判定装置100へ送信する。
視認者情感判定装置100の受信部101は、Aさん及びBさんの、顔データ及び眼球データ(視線方向、瞳孔映像、カメラから眼球までの距離)を受信する。視認者情感判定装置100の解析部102は、Aさんの眼球データの視線方向データから、Aさんの持つディスプレイ22aに映るBさんの顔の映像の中の視点の位置、視点移動速度(接近速度Bv、離脱速度Bs)及び加速度(接近加速度Bk、離脱加速度Br)を算出する。また、Aさんの眼球データから、眼球カメラ23aから眼球までの距離と瞳孔映像から瞳孔径を算出し、同時に瞳孔径(P)の拡大速度(Pv)、縮小の速度(Ps)、拡大加速度(Pk)及び縮小加速度(Pt)を算出する。一方、Bさんの眼球データの視線方向データから、Bさんの持つディスプレイ22bに映るAさんの顔映像の中の視点の位置、視点移動速度(接近速度Bv、離脱速度Bs)及び加速度(接近加速度Bk、離脱加速度Br)を算出する。また、Bさんの眼球データから、眼球カメラ23bから眼球までの距離と瞳孔映像から瞳孔径を算出し、同時に瞳孔径(P)の拡大速度(Pv)、縮小の速度(Ps)、拡大加速度(Pk)及び縮小加速度(Pt)を算出する。解析部102は、解析した値を診断部104へ出力する。診断部104は、AさんがBさんの顔を追尾する時間が、Bさんの顔が映っている限り追尾しており、Aさんの瞳孔径(P)が蓄積部103から読み出した感動値データ(Pe)にまで拡大していれば、AさんはBさんに興味・関心を持っていると診断する。
また、顔解析により、Bさんの顔を視認している時、AさんのBさんに対する驚き、恐れ、嫌悪、怒り、喜び(幸福)、悲しみ等の感情とその程度を判定する。
送信部106は、この診断結果をBさんのテレビ電話20b(または仲介者)に送信する。診断結果を受信したテレビ電話20b(または仲介者のテレビ電話)は、ディスプレイ22bに、{AさんがBさんに興味・関心がある}ことを示す記号(たとえばハートマーク)と情感を特定の箇所に表示する。
逆に、BさんがAさんの顔を追尾する時間が、Aさんの顔がBさんのテレビ電話のディスプレイ22bに映っている間より短く(Bさんの顔からAさんの視点が離脱する)、瞳孔径(P)も蓄積部103から引き出した感動値データ(Pe)にまで拡大することがなく、瞳孔の拡大速度(Pv)、初期瞳孔拡大加速度(Pk)が平常値(Phv、Phk)より少ない場合は、診断部104は、BさんはAさんに興味・関心がないと診断する。また、顔解析によるAさんの顔を視認している時、BさんのAさんに対する驚き、恐れ、嫌悪、怒り、喜び(幸福)、悲しみ等の感情とその程度を判定する。
送信部106は、この診断結果を、Aさんのテレビ電話20a(または仲介者)に送信する。診断結果を受信したテレビ電話20a(または仲介者のテレビ電話)は、ディスプレイ22aに、{BさんがAさんに興味・関心がない}ことを示す記号(たとえば×マーク)と情感を特定の箇所に表示する。
上述した相性診断を応用し、以下のような状況に適用することができる。(ア)結婚の見合いの場面に用いる。(イ)面接試験の場面に用いる。これにより、被相談者の真の心理状況を知ることができ、診断結果を発言内容の裏づけの参考にすることができる。(ウ)犯罪者との面談の場面に用いる。具体的には、刑事事件における犯罪容疑者との面談の場面に用いることにより、犯罪容疑者の心理状態を知ることができる。
これらの場面では、話の内容、表示された映像に興味があった場合には、瞳孔径(P)が平常値(Ph)より大きくなる性質が利用される。
なお、相性診断では、図14及び図15に示すブロック図を用いて説明したが、特に説明しなかった部については、上述した図1及び図2の構成と同様である。
また、すでにある会話音声による感情診断技術を併用することにより、より精度の高い相性診断が可能となる。
〔言葉を話せない赤ん坊、認知症者、動物等との意思伝達診断〕
赤ん坊、認知症者、動物(ペットを含む)の生理反応による意思伝達診断では、赤ん坊、認知症者、動物(ペットを含む)の意思の診断を行う。ここでは、赤ん坊、、認知症者、動物等の言葉を話すことが困難な人及び動物を視認者1として、アイカメラ3を装着させる。または、赤ん坊、動物、認知症者等がディスプレイの前に座って、ディスプレイの下にあるカメラで赤ん坊、動物、視認症患者の眼球を撮影する方法もある。赤ん坊等の意思伝達診断には、図1及び図2に示す視認者情感判定装置100を用いる。解析部102は、赤ん坊、動物、認知症者等の視点の位置と瞳孔径(P)を計測し、診断部104は、視認対象に視点が追尾し、瞳孔径(P)が平常値(Ph)より大きいときに、その視認対象に、赤ん坊、認知症者、動物等が興味・関心があると診断する。これにより、ものを言わない赤ん坊、認知症者、動物の視認対象に対する興味を把握できる。逆に、診断部104は、視認対象への視点の追尾時間(Bt)が平常値(Bht)より短く、視点離脱速度(Bs)、加速度(Br)が平常値(Bhs、Bhr)より速く、瞳孔径(P)も感動値(Pe)より少ないときに、視認対象に対して無関心で、興味がないと診断する。これにより、ものを言わない赤ん坊、認知症者、動物への対応が可能となる。また、赤ん坊については、顔解析手法により、赤ん坊の驚き、恐れ、嫌悪、怒り、喜び(幸福)、悲しみ等の感情とその程度を判定でき、そのときの対応方法の参考になる。
〔ロボットの応対方法判定〕
ロボットの応対診断では、ロボットに、アイカメラ3、身体動作撮影装置9、身体温度測定装置10、及び図16に示す視認者情感判定装置100を組み込み、ロボットと応対する人などに対する診断を行う。ロボットは、応対する人、ものを言わない赤ん坊、認知症者、動物等の顔、眼球の動き、身体動作、顔の動作、身体温度の変化を常に測定している。ロボットの応対診断では、図1に示す視認者情感判定システムを用い、図16に示す視認者情感判定装置100を組み込む。図17は、ロボットの応対診断に用いる視認者情感判定装置100の構成を示すブロック図である。視認者情感判定装置100の診断部104は、ロボットと応対する人、またはものを言わない赤ん坊、認知症者、動物の情感を診断する。
言動選択部107は、診断部104から入力された診断結果に基づいて、予め記憶された複数の言動の中から診断結果に見合った言動を選択する。これにより、ロボットは、診断結果に従って、応対する人及び動物の情感を把握し、適切な言葉を発することができる。また、適切な支援行動を起こすこともできる。なお、ロボットの応対診断では、図17に示すブロック図を用いて説明したが、特に説明しなかった部については、上述した図2の構成と同様である。
〔犯罪証拠診断〕
犯罪証拠診断では、犯罪容疑者にアイカメラ3を装着し、平凡な映像の途中に、犯罪現場を含むビデオ映像を見せることにより、犯罪の証拠となる映像を診断する。犯罪証拠診断には、図1及び図2に示す視認者情感判定装置100を用いる。犯罪容疑者は、自己の犯罪現場を含む場面を見たときに、他の場面よりも瞳孔径(P)が拡大することから、診断部104は、瞳孔径(P)が拡大したときに見ていた映像の場所が犯罪現場であるとして、犯罪現場を特定することができる。さらに、その対象物である映像への視点追尾時間(Bt)は平常値(Bht)より短く、視点離脱速度(Bs)、初期加速度(Br)が平常値(Bhs、Bhr)より高いときに、診断部104は、その場面の映像に嫌悪感があると診断する。すなわち、犯罪容疑者はその場面を早く避けたいと思っていることになる。さらに、顔解析手法により、恐れ、嫌悪、怒り、喜び(幸福)、悲しみ等の容疑者の感情とその程度を判定でき、診断部104による診断結果は、その場所が犯罪場所であると判定するための参考になる。また、犯罪容疑者に被害者の映像または写真を複数の人物と織り交ぜて見せた場合、診断部104は、犯罪容疑者が被害者の姿の映像または写真を見て、他の人物に比べて瞳孔径が大きくなったときに、その犯罪容疑者が犯人であると診断する。一般に、自己の犯罪場面と被害者に対して、あまり見続けたくないので、嫌悪感と同様の反応を示すため、診断部104は、対象への視点追尾時間(Bt)が平常値(Bht)より短く、対象から視点をそらす速度(Bs)が平常値(Bhs)より大きく、したがって、そらす瞬間の加速度(Bhr)も大きい場合、その容疑者が犯人の可能性があると診断する。さらに、顔解析手法により、恐れ、嫌悪、怒り、喜び(幸福)、悲しみ等の容疑者の感情とその程度を判定でき、その場所または被害者に対する嫌悪感またはここを避けたい心情を確認できる。また、犯罪現場を含むビデオの代わりに、犯罪容疑者にアイカメラ3を装着させて犯罪現場に出向かせることにより、同様に犯罪対象物への注目、嫌悪感の度合いが診断でき、捜査の参考にできる。
〔ドライバー眠気感知診断〕
ドライバー眠気感知診断では、自動車運転者にアイカメラ3を装着してもらい、運転中に眼球を撮影することにより、ドライバーの眠気の有無を診断する。ドライバー眠気感知診断では、図1に示す視認者情感判定システムを用い、図17に示す視認者情感判定装置100を用いる。図17は、ドライバー眠気感知診断に用いる視認者情感判定装置100の構成を示すブロック図である。視認者情感判定装置100の診断部104は、瞳孔径(P)が平常値(Ph)より少ないとき、危険な運転状態であると診断する。さらに、診断部104は、視線の方向が前方から外れる時間が多いときに、さらに前方不注意となり危険な運転状態であると診断する。自動車の運転席の前(ハンドルの前方上)に運転者の眼球を追尾・撮影するカメラを用いることにより、前記と同様の測定、解析及び診断を行うことができる。警告部108は、診断部104から入力した診断結果を用い、診断結果が危険な運転状態である場合に、運転者に警告を行う。警告は、アナウンスでも、警告音の発生でもよく、運転者に注意力回復のための刺激を与えるものであればよい。
〔自動車運転適性診断〕
自動車運転適性診断では、視認者1にアイカメラ3を装着してもらい、自動車、飛行機のシミュレーターまたは実際の自動車で、視認者1に操作してもらうことにより、自動車運転や飛行機運転の適正の有無を診断する。自動車運転適性診断では、図1及び図2に示す視認者情感判定装置100を用いる。視認者情感判定装置100の解析部102は、視認者1の眼球運動撮影データの視線方向と瞳孔径データを解析し、診断部104は、注意すべき時に、危険箇所に視点が追尾し続け、瞳孔径(P)が平常値(Ph)より大きく、拡大速度(Pv)、加速度(Pk)も平常値(Phv、Phk)より大きいときに、注意すべき部分に視点が行き、注意しているものと診断する。また、診断部104は、頭の向き及び視線の方向がいつも前面であることを診断する。さらに、応答装置14により、応答反応すべき時間にタイミングよくステアリングハンドル、ブレーキで応答反応しているかを知るため、解析部102は、応答データdを用いて、応答遅延時間と操作方法を解析し、診断部104は、操作遅延時間が危険回避のための一定時間(所定の設定時間)以下であり、かつ、応答データdから得られる操作が、予め設定された適切な操作方法かどうかを判断し、操作遅延時間、所定の設定時間、操作方法に基づいて、視認者1の熟練度、適正度を診断する。
また、シミュレーターに、勝手な振る舞いのドライバーにより運転している車の映像を入れて、運転操作をしてもらい、顔解析による視認者の怒りの度合い、恐怖の度合いを計算して、運転適正の判定をすることもできる。
〔労働安全熟練度診断〕
労働安全熟練度診断では、アイカメラ3を装着した労働者が、シミュレーターまたは実際の機械で、機器を操作してもらうことにより、労働安全熟練度の程度を診断する。労働安全熟練度診断では、図1及び図2に示す視認者情感判定装置100を用いる。視認者情感判定装置100の解析部102は、労働者の視線方向、瞳孔径(P)の変化から、視点の位置と注目度、さらに不注意度を計測し、診断部104は、労働者が作業で、注意すべき時に、注意すべき部分(これが対象物となる)に視点が行って追尾し、瞳孔径(P)が感動値レベル(Pe)まで大きくなり、瞳孔径拡大の速度(Pv)、加速度(Pk)も感動値レベル(Pev、Pek)ほど大きいときに、注目すべき部分を注目していると診断する。さらに、解析部102は、応答データdを用いて、妥当な応答装置14を妥当なタイミングで操作しているかを解析するための応答反応の遅延時間と応答操作の正確性(正しい操作をしたか否かのデータ)を計測する。そして、診断部104は、所定の注意すべき時間内にタイミングよく(時間的遅延がない)適切な応答反応をしているか否かを診断する。診断部104は、瞳孔径は感動値レベル(Pe)より縮小しており、視点が見るべきところに行っていない、または、身体応答反応も遅い場合、不適切な状態または不注意の状態として診断する。
以上の診断により、遅延時間、全体の操作のうちの正しい操作を行った数等のデータに基づいて、労働者の熟練度、適正度を診断する。
〔労働前適正診断〕
労働前適正診断では、労働者が毎日、作業開始前にその日の作業の適正を診断する。労働前適正診断では、図1及び図2に示す視認者情感判定装置100を用いる。各所に注意すべき点(注意して操作しないと危険な箇所)を含めた注意力判定のコンテンツをディスプレイに表示してアイカメラ3を装着した労働者に見せる。視認者情感判定装置100の解析部102は、アイカメラ3からのデータの中の視線方向、瞳孔径(P)の運動を解析し、診断部104は、視点の位置と注目度、さらに不注意度を計測し、労働者が作業で注意すべき時に、注意すべき部分に視点が行って追尾し、瞳孔径(P)が感動値レベル(Pe)まで大きくなり、瞳孔径拡大の速度(Pv)、加速度(Pk)も感動値レベル(Pev、Pek)ほど大きいときに、注目すべき部分を注目していると診断し、その労働者のその日の労働の体調は正常であると判定する。しかし、危険な箇所が映し出されていても、視点の接近速度(Bv)が規定値より遅く、加速度(Bk)も規定値より遅く、タイミングが規定値より遅く、適切な応答反応していない場合のどれか一つでも該当するときは、その労働者のその日の体調は正常ではないと判定する。さらに、家族、会社関係の映像を見せて、その時の顔解析をして、その時の驚き、恐れ、嫌悪、怒り、喜び(幸福)、悲しみ等の心情を判定して、当日の情感的な問題を類推することで、当日の作業適正を判定できる。
〔運動選手適正診断〕
運動選手適正診断では、スポーツにおいて、アイカメラ3を装着した競技者の競技時の視点方向により、どの箇所を見ているかを診断する。運動選手適正診断では、図1及び図2に示す視認者情感判定装置100を用いる。視認者情感判定装置100の解析部102は、瞳孔径(P)の大きさや瞳孔径の拡大速度(Pv)、加速度(Pk)により、注目度を解析する。そして、解析部102は、身体動作による競技者の反応(動作、遅延時間)を解析する。具体的には、解析部102は、応答データdを用いて、妥当な応答装置14を妥当なタイミングで操作しているかを解析することにより、注意すべき時間にタイミングよく(時間的遅延がない)適切な応答反応しているか解析する。
あわせて、その時の顔解析をして、その時の心情を判定して、情感的な問題を類推する。そして、診断部104は、全競技者の適正値と比較して、競技者の熟練度、適正度を診断する。
〔ゲームのエキサイト度診断〕
ゲームのエキサイト度診断では、視認者1はアイカメラ3を装着してゲームを実施する。ゲームのエキサイト度診断では、図1及び図2に示す視認者情感判定装置100を用いる。視認者情感判定装置100の診断部104は、ゲーム中に瞳孔径(P)が感動値レベル(Pe)まで拡大していることで、明確に興味・関心があると診断する。あわせて、その時の顔を解析して、その時の恐れ、嫌悪、怒り、喜び(幸福)、悲しみ等の心情を判定して、そのゲームの相性を判断する。
また、診断部104は、視認者身体温度計測により、身体温度が平常値より高いときに、その高さに応じた興奮度を診断する。逆に、診断部104は、瞳孔径(P)が感動値レベル(Pe)まで拡大せず、身体温度が感動値にいたらないときに、エキサイトしていない、と診断する。
〔空間デザイン診断〕
空間デザイン診断では、視認者1がアイカメラ3を装着して実際の空間を歩き、視認者1が空間の中に配列されている物の中で何に視点が行き、興味を持ってみているかを診断して、視認対象の空間が訴求どおりのデザインまたは配列の中で適切な状態になっているかどうかを診断する。視認方法は、実際の空間を見る方法でも、テレビ、PC等のディスプレイに表示された物でも構わない。また、空間とは、街の景観、デパート、商店でのデザインや陳列、展示会場でのデザインや陳列、駅の通路、駅ホーム、駅ビル、車内等の空間を指す。空間デザイン診断には、図1及び図2に示す視認者情感判定装置100を用いる。なお、視認者情感判定装置100の解析部102は、視認者1が実際の空間を前進しているか、後退しているか、左右に動いているかを、視認映像aを解析することにより判明する。
ここでは、対象物2は映像の中の特定の物(訴求対象であって、複数でも良い)である。診断部104は、ア.その対象物を見て、瞳孔が感動値(Pe)まで拡大していない{<Pe}(無関心)、イ.視点の接近速度、視点追尾時間が平常値(Bht)より短い(興味なし)場合、視認者1がその対象物2に対して「デザインが適切でない」と診断する。さらに、顔解析をして、その時の嫌悪、怒り、悲しみ等の感情を判定する。この場合、明らかに「デザインが適切である」場合とは反対の行動であるといえる。このことから、「デザインが適切でない」という診断の度合いを、速度及び加速度の大きさによって測ることができる。
一方、瞳孔径(P)が拡大していて、対象物への視点追尾時間(Bt)が平常値(Bht)より長く、感動値(Bet)に達したときに、興味はあると診断できるが、「デザインが適切である」ことまでは診断できない。そこで、顔解析をして、その時の喜び(幸福)の感情を判定して、デザインを肯定的に見ていると診断する。一方、悲しみ(SA)、怒り(AN),恐怖(FE)、嫌悪(DI)が高い場合は、デザインが適切ではないと判定する。
次に、複数の配列デザインを視認者1に視認してもらい、対象物2を見て、他のデザインでの対象物2より、ア.瞳孔径が大きい、イ.視点追尾時間が長い、ウ.視点離脱速度、最初の加速度が小さい場合は、そのデザインでの対象物が一番興味を引いていることになる。さらに、顔解析によるその時の喜び(幸福)の心情が大きいと判定できたら、診断部104は、「そのデザインが他のデザインより適切である」と診断する。
一方、対象物2が、他の配列デザインより、ア.瞳孔径が小さい、イ.視点滞留時間が短い、ウ.視点離脱速度、最初の加速度が大きい、顔解析による喜び(幸福)の程度が少ない場合は、診断部104は、「そのデザインでの対象物は他のデザインでの対象物に比べて適切でない」と診断する。
〔応対者応対度診断〕
応対者応対度診断は、請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、視認対象は客に応対する店員、受付者等であり、店員、受付者の応対において、視認者の情感を診断して、店員、受付者等の応対の良し悪しを判定することを特徴とする。
視認者の情動値(E)が低い(関心がない)場合は明らかに相手に特別に問題はなく、平常の応対をしているものと判定できる。
視認者の情動値が高い(興味を引いている)場合、一般的に感情値(F)の幸福(喜び)度(HA)が高ければ応対が良いと判定できる。
ただし、怒り(AN),恐怖(FE)、嫌悪(DI)が高い場合は、会話内容にへの同調反応を除き、相手が好ましい応対ではないと判定できる。
〔映像コンテンツ選択優先度診断〕
請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
前記視認者は、一般のテレビ視聴者(映像コンテンツの受信者)であり、視認対象は放送、ネットワークまたは映像蓄積装置に接続したTVディスプレイ上のコンテンツである。
図1及び図2に示す視認者情感判定装置100を用いる。
最初は、視聴者情感判定装置100は、予め視認者1が基本コンテンツを視聴したときに視認者1の興味・関心度の高い場面を選定する。ただし顔解析をして、怒り(AN),恐怖(FE)、嫌悪(DI)が高い場合は、選定からはずす。さらに、視認者の興味・関心の高いコンテンツの分野を判定し、同類の興味・関心を示す他の視認者が視聴した興味・関心度の高いコンテンツを推薦コンテンツとして蓄積部103に蓄積しておき、視認者1が実際に視聴する時にその推薦コンテンツを表示して、その中から視認者の意思で一つのコンテンツを選択して視聴することができるようにしたものである。
一方、視認者情感判定装置100の診断部104は、視認者1が、次回からの映像コンテンツ視聴中は、瞳孔径(P)が感動値(Pe)まで拡大し、瞳孔径拡大速度(Pv)、加速度(Pk)も平常値(Phv、Phk)より大きいとき、または身体温度が平常値より高くて興奮する場面から、視聴している場面に対して明確に興味・関心があると診断する。ただし顔解析をして、怒り(AN),恐怖(FE)、嫌悪(DI)が高い場面はずす。そこで、次回の視聴するコンテンツを選択する時のために、その分野のコンテンツを選択する優先度を上げる。なお、その診断結果は、蓄積部103に記録しておき、次の視聴時において、映像コンテンツ視聴時のコンテンツを選択するための推薦データに利用する。
逆に、診断部104は、視認者1がコンテンツ視聴中に、しきい値より興味・関心・興奮度が低いと判定した場合に、その分野以外のコンテンツであって、以前に興味・関心・興奮度が高かった分野のまだ視聴してないコンテンツに切り替え、同時に次に視聴するコンテンツを選択する時に、その分野のコンテンツを選択する優先度を下げる。なお、その診断結果は、蓄積部103に記録しておき、次の視聴時間において、映像コンテンツ視聴時のコンテンツを選択するための推薦データに利用する。
〔コンテンツの中の興味・関心度の高い物または人物の自動マーク〕
コンテンツの中の興味・関心度の高い物または人物の自動マークは、番組を視聴中に情感度の高い瞬間に受像機の中の視点のある対象物または人物を自動的にマークし、後にネットワークを通して、その品物または人物の情報を電子メールにて配信されてくるシステムで、後で、視認者の意思により商品の購入、人物への連絡ができることを特徴とする。
ただし、受像機の中の視点のある対象物または人物を自動的にマークするに際して、情動(興味・関心)度が高くても、顔解析による感情値において嫌悪感度と怒り度、および条件により恐怖度が高いものを自動的に除くことを特徴とする。
上述したように、本発明の実施形態による視認者情感判定装置100によれば、購買意欲度診断、学習意欲度診断、映像コンテンツ作者の期待感情反応度に対する視聴者感情反応度診断、コンテンツ内の注目点の分布によるコンテンツ評価、相性診断、言葉を話せない赤ん坊、認知症者、動物等との意思伝達診断、ロボットの応対方法判定、犯罪証拠診断、ドライバー眠気感知診断、自動車運転適性診断、労働安全熟練度診断、労働前適正診断、運動選手適正診断、ゲームのエキサイト度診断、空間デザイン診断、応対者応対度診断、映像コンテンツ選択優先度診断、コンテンツの中の興味・関心度の高い物または人物の自動マークなどの様々な状況において、対象物または視認者自身の能力をより正確に評価することができる。
1 視認者
2 対象物
3 アイカメラ
4 眼球撮影装置
5 視認情景撮影装置
6 マイクロフォン
7 送信装置
8 蓄積装置
9 身体動作撮影装置
10 身体温度測定装置
14 応答装置
20a、20b テレビ電話
21a、21b 顔カメラ
22a、22b ディスプレイ
23a、23b 眼球カメラ
24a、24b 追尾カメラ
30 通信回線
100 視認者情感判定装置
101 受信部
102 解析部
103 蓄積部
104 診断部
105 表示部
106 送信部
107 言動選択部
108 警告部
301 顔解析におけるマーク1(特徴点)眉毛内側端
302 顔解析におけるマーク2(特徴点)眉毛外側端
303 顔解析におけるマーク3(特徴点)上瞼の真ん中上部
304 顔解析におけるマーク4(特徴点)顎の真ん中下端
401 特定映像コンテンツの映像ディスプレイ画面
402 特定映像コンテンツの映像ディスプレイ画面上の訴求点

Claims (23)

  1. 特定の対象物を含む情景に視線を向けた視認者の、前記特定の対象物に対する情感(情動と感情)を診断する、視認情景に対する視認者情感判定装置において、
    視認者の顔の映像を撮影する顔撮影装置と前記視認者の眼球撮影装置と
    前記視認者の視認映像及び前記視認者の眼球運動映像を受信する受信部と、
    前記視認映像及び前記眼球運動映像から前記視認映像における視点の位置を算出するとともに、前記視認者の瞳孔径の変化による生理反応データの変化とそれに伴う加速度を算出する部分と、前記視認者の顔映像から視認者の表情を解析する部分を含む解析部と、
    前記視認者が興味が低く注目しない対象物を見ている場合の瞳孔径と視点の動きの生理反応データの変化とそれに伴う加速度を含む情報を平常情動値として蓄積し、前記視認者が興味が高く注目する対象物を見ている場合の生理反応データの変化とそれに伴う加速度を含む情報を高情動値として蓄積し、前記解析部によって算出された前記視認者の生理反応データの変化とそれに伴う加速度を含む情報を情動値として蓄積する部分と、
    視認者の平常時の顔の各部の状態(平常感情値)と、顔の各部が最大に動いた時の値(高感情値)を蓄積する部分を含む蓄積部と、前記顔の解析値を、前記平常感情値あるいは前記高感情値と比較することにより、前記視認者の前記特定の対象物に対する感情値として蓄積する部分と、
    興味および注目の情動と感情を同時に診断する部分と必要により、身体温度測定機能を備え、身体の平常温度とエキサイト時での身体の温度測定による興奮度を診断する部分とを備えたことを特徴とする視認情景に対する視認者情感判定装置。
  2. 請求項1に記載の視認情景に対する視認者情感判定装置において、
    前記生理反応データの変化とそれに伴う加速度は、前記視認者の視点が前記特定の対象物に接近する際の速度および接近加速度、あるいは、前記視認者の視点が前記特定の対象物から離脱する際の離脱速度と加速度であり、
    前記診断部は、前記接近速度およびその加速度が大きいほど前記特定の対象物に興味があり注目する現象があり、前記接近速度およびその加速度が小さいほど前記特定の対象物に興味が低く注目しないと診断し、前記離脱速度およびその加速度が大きいほど前記特定の対象物に興味が低く注目もしない、前記離脱速度およびその加速度が小さいほど前記特定の対象物に興味があり注目すると診断する
    ことを特徴とする視認情景に対する視認者情感判定装置。
    なお、視認対象は、対象物の中のある部分(たとえば商品の場合、商品名、製造会社名、賞味期限、注意書き、仕様、操作ボタン等)でも良い。
  3. 請求項2に記載の視認情景に対する視認者情感判定装置において、
    前記解析部は、前記視認者の頭に装着されたカメラにより撮影された視認映像内の静止物の位置を基点として、または、ジャイロスコープにより、前記視認者の頭の移動の大きさ、移動速度及び移動加速度を算出し、さらに視認映像内での視点の位置と位置の変化速度、変化加速を合わせて、前記頭の動きを含む、前記特定の対象物に対する視点の接近速度およびその加速度あるいは離脱速度およびその加速度を算出する
    ことを特徴とする視認情景に対する視認者情感判定装置。
  4. 請求項1に記載の視認情景に対する視認者情感判定装置において、
    前記生理反応データの変化に伴う速度および加速度は、前記視認者の瞳孔径の拡大速度および加速度、あるいは、前記視認者の瞳孔径の縮小速度および加速度であり、
    前記診断部は、前記拡大速度および加速度が大きいほど前記特定の対象物に興味があると診断し、前記縮小速度および加速度が大きいほど前記特定の対象物に興味がないと診断する
    ことを特徴とする視認情景に対する視認者情感判定装置。
  5. 請求項1から4までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
    上記請求項2から4に記載の興味・関心度(情動度)と合わせて、視認者の顔の各部位の変化を計測し、その変化量により、興味・関心度の高い時および低い時の、顔の表情解析による怒り、恐怖、嫌悪、幸福(喜び)、悲しみ、驚きなどの視認者の感情度をあわせて判定することにより、視認対象に対する情動と感情を合わせた情感の度合い(情感度)を評価をすることを特徴とする視認情景に対する視認者情感判定装置。
    この顔の各部位の変化を測定することにより判定する感情度判定の技術はすでに市場にある顔の表情判定システムとして確立しているものを用いることにする。
  6. 請求項1に記載の視認情景に対する視認者情感判定装置において、
    請求項目1の視認時の対象物は、実際の対象物を手で触りながら、または操作しながら視認する場合と、音声だけを聞いているとき、匂いをかいでいるとき、体のある部分が対象物と接触しているとき、食べているときの味覚を感じているとき、またはそれらの複数の刺激があったときの瞳孔径および視点の動きと顔の各部位の動きを解析して、それらの刺激物を対象にした情感判定をすることを特徴とする視認者情感判定装置。
  7. 請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
    前記特定の対象物は、商品(商品の中のある部分:商品名、製造会社名、賞味期限、注意書き、仕様、操作ボタン等の商品の一部を含む)であり、
    前記診断部は、前記視認者の前記商品に対する購買意欲度を診断する
    ことを特徴とする視認情景に対する視認者情感判定装置。
  8. 請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
    前記特定の対象物は、学習対象であり、
    前記診断部は、前記視認者の前記学習対象に対する学習意欲度を診断する
    ことを特徴とする視認情景に対する視認者情感判定装置。
  9. 請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
    前記特定の対象物は、映像コンテンツ製作者が、視聴者に期待するコンテンツ映像(音を含む。また、音だけの場合もある)の各場面の興味・関心による注目度、および各基本感情の幸福(喜び)度、驚き度、悲しみ度、怒り度,恐怖度、嫌悪感度および興奮度のレベルを、コンテンツソフトの時間軸上に設定しておいた映像コンテンツであり、
    前記視認者は、前記映像コンテンツ視聴者であり、前記映像コンテンツ映写時に、視聴者の注目度および幸福(喜び)度、驚き度、悲しみ度、怒り度,恐怖度、嫌悪感度および興奮度の反応が、映像コンテンツ製作者の期待したレベルにどの程度達しているかを診断し、映像コンテンツの評価をすることを特徴とする視認情景に対する視認者情感判定装置。
  10. 請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
    前記特定の視認対象は、テレビ、映像の特定画面、静止画、ポスター、雑誌の1ページのようなコンテンツの特定場面であり、前記視認者は、前記コンテンツの視認者であり、コンテンツの特定場面において、複数視聴者の注目視点の注目度分布を表示して、コンテンツ製作者の訴求点との一致のレベルを判定することにより、コンテンツ特定画面の評価をすることを特徴とする視認情景に対する視認者情感判定装置。
  11. 請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
    前記受信部は、2つのテレビ電話から、それぞれの通話者の映像と前記視認映像及び前記眼球運動映像を受信し、
    前記診断部は、一方の通話者から他方の通話者に対する興味および情感をそれぞれ診断し、
    さらに、一方の通話者から他方の通話者に対する興味および情感の診断結果を他方の通話者のテレビ電話または仲介者の受信装置に送信する送信部を備えている
    ことを特徴とする視認情景に対する視認者情感判定装置。
  12. 請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
    前記視認者は、言葉を話すことが困難な人、あるいは、動物であり、言葉を話すことが困難な人、あるいは、動物のそのときの情感を判定することを特徴とする視認情景に対する視認者情感判定装置。
  13. 請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
    本発明の視認者情感判定装置をロボットに組み込み、前記視認者は、感情を持つ人間であり、動物であり、視認対象は視認者の視認するすべてであり、ロボットの前記診断部から入力された視認者の情感の診断結果に基づいて、前記ロボットの前記視認者に対する適切な言動および動作を選択する選択部を備えていることを特徴とする視認情景に対する視認者情感判定装置。
  14. 請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
    前記視認者は、犯罪容疑者であり、
    前記特定の対象物は、犯罪現場、犯罪用具、共犯者または被害者であり、対象物に対する犯罪容疑者の情感を判定して、犯罪捜査の参考とすることを特徴とする視認情景に対する視認者情感判定装置。
  15. 請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
    前記視認者は、自動車または飛行機等の交通機関の運転者であり、
    前記特定の対象物は、運転席から見える危険箇所のある映像コンテンツ、または運転シミュレータであったり、実際の運転時で視認するすべてであり、前記診断部から入力した診断結果を用い、注意すべきところで、注目して注意しているかどうかを判定し、危険運転状態であると診断された場合は、前記視認者に警告またはブレーキ等の適切な操作を行う機能を備えていることを特徴とする視認情景に対する視認者情感判定装置。特に運転時の不注意時(居眠り時)の判定での警告に有効である。
  16. 請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
    前記視認者は労働者であり、
    前記特定の対象物は、危険箇所のある装置の操作映像コンテンツまたは操作シミュレータであったり、実際の操作時で視認するすべてであり、
    前記解析部は、前記視認者が応答装置での操作による応答データを用いて、応答遅延時間及び操作方法を解析し、
    前記診断部は、注目して注意しているかどうかを判定し、応答遅延時間及び操作方法に基づいて、注目すべき時に注意し、適切な操作をしていることを診断し、前記視認者の熟練度あるいは適正度を診断することを特徴とする視認情景に対する視認者情感判定装置。
  17. 請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
    前記視認者は、労働者であり、
    視認対象は危険箇所のある操作映像のコンテンツまたはシミュレータであり、前記診断部は、前記視認者の情感および応答データによる応答反応を診断して、視認者の当日の体調(精神的を含む)および就業への適性を判定することを特徴とすることを特徴とする視認情景に対する視認者情感判定装置。
  18. 請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
    前記視認者は、運動選手であり、
    前記特定の対象物は、運動選手が運動する時に見る対象(野球のバッターなら投手の動きとボールの球筋、テニス選手なら相手の選手の動作とボールの球筋等)である。
    前記診断部は、前記視認者の熟練度あるいは適正度を診断する
    ことを特徴とする視認情景に対する視認者情感判定装置。
  19. 請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
    前記視認者は、ゲームプレイヤーであり、
    前記特定の対象物は、ゲーム機である。
    前記診断部は、前記視認者の瞳孔径の変化に基づく興味による注目度と表情および身体温度データにより、前記視認者の興奮度を診断する
    ことを特徴とする視認情景に対する視認者情感判定装置。
  20. 請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
    前記視認者は、一般の人であり、
    前記特定の対象物は、空間の中に配列されている物であり、
    前記診断部は、前記視認者から見た前記特定の対象物の配置の適切性を診断する
    ことを特徴とする視認情景に対する視認者情感判定装置。
  21. 請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
    視認対象は客に対する店員、受付者等であり、店員、受付者の応対において、視認者の情感判定により、店員、受付者等の応対の良し悪しを判定することを特徴とする視認情景に対する視認者情感判定装置。
  22. 請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
    前記視認者は、一般のテレビ視聴者(映像コンテンツの受信者)であり、
    視認対象は放送、ネットワークまたは映像蓄積装置に接続したTVディスプレイ上に表示されるコンテンツであり、
    テレビ視聴時の視認者の興味・関心の高いコンテンツの分野を情感の解析により判定し、視認者のテレビ等視聴時に、視認者の興味・関心度の高いコンテンツを推薦することを特徴とする視認情景に対する視認者情感判定装置。
  23. 請求項1から6までのいずれか一項に記載の視認情景に対する視認者情感判定装置において、
    前記視認者は、一般のテレビ視聴者(映像コンテンツの受信者)であり、
    視認対象はネットワークまたは電波を経由して受信するテレビ受信機(映像コンテンツの受信機)である。
    番組を視聴中に情感度の高い瞬間に受像機の中の視点のある対象物または人物を自動的にマークし、後にネットワークを通して、その品物または人物の情報を電子メールにて配信されてくるシステムで、後で、視認者の意思により商品の購入、人物への連絡ができることを特徴とする。
    ただし、受像機の中の視点のある対象物または人物を自動的にマークするに際して、情動(興味・関心度)が高くても、顔解析による感情度において嫌悪感度と怒り度、および条件により恐怖度が高いものを自動的に除くことを特徴とする視認情景に対する視認者情感判定装置。
JP2009065159A 2008-09-22 2009-02-24 視認情景に対する視認者情感判定装置 Pending JP2010094493A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009065159A JP2010094493A (ja) 2008-09-22 2009-02-24 視認情景に対する視認者情感判定装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008270300 2008-09-22
JP2009065159A JP2010094493A (ja) 2008-09-22 2009-02-24 視認情景に対する視認者情感判定装置

Publications (1)

Publication Number Publication Date
JP2010094493A true JP2010094493A (ja) 2010-04-30

Family

ID=42256591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009065159A Pending JP2010094493A (ja) 2008-09-22 2009-02-24 視認情景に対する視認者情感判定装置

Country Status (1)

Country Link
JP (1) JP2010094493A (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012196279A (ja) * 2011-03-18 2012-10-18 Waseda Univ 注目度検出システム、注目度判定装置、注目度判定装置用のプログラム、及び画像配信システム
EP2575358A1 (en) * 2011-09-27 2013-04-03 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
JP2013240469A (ja) * 2012-05-21 2013-12-05 Tokyo Institute Of Technology 注意位置推定装置
JP2015039487A (ja) * 2013-08-21 2015-03-02 大日本印刷株式会社 生理指標を用いる視線分析システムおよび方法
WO2016170810A1 (ja) * 2015-04-23 2016-10-27 ソニー株式会社 情報処理装置、制御方法、およびプログラム
EP3115956A1 (en) 2015-07-09 2017-01-11 Fujitsu Limited Interest degree determination device, interest degree determination method, and interest degree determination program
JP2017086529A (ja) * 2015-11-11 2017-05-25 日本電信電話株式会社 印象推定装置およびプログラム
US9775525B2 (en) 2011-05-02 2017-10-03 Panasonic Intellectual Property Management Co., Ltd. Concentration presence/absence determining device and content evaluation apparatus
US9839355B2 (en) 2013-06-04 2017-12-12 Fujitsu Limited Method of processing information, and information processing apparatus
KR20180083069A (ko) * 2017-01-12 2018-07-20 고려대학교 산학협력단 가상현실을 이용한 안과 검사 시스템 및 방법
CN108742657A (zh) * 2018-03-30 2018-11-06 百度在线网络技术(北京)有限公司 游戏测评方法、装置、游戏系统及存储介质
CN109074511A (zh) * 2016-05-13 2018-12-21 情感爱思比株式会社 存储控制系统、系统以及程序
WO2019172503A1 (ko) * 2018-03-05 2019-09-12 고려대학교 산학협력단 안구추적을 통한 시야장애 평가 장치, 이를 이용한 시야장애 평가 방법 및 컴퓨터 판독 가능한 저장 매체
WO2019176846A1 (ja) * 2018-03-13 2019-09-19 株式会社カネカ 判定システムおよび判定方法
JP2020135786A (ja) * 2019-02-26 2020-08-31 株式会社日立製作所 応答装置および応答方法
KR20210008638A (ko) * 2019-07-15 2021-01-25 상명대학교산학협력단 심리적 불안도 측정 장치 및 방법
WO2022201272A1 (ja) * 2021-03-22 2022-09-29 株式会社I’mbesideyou 動画像分析プログラム
WO2022201275A1 (ja) * 2021-03-22 2022-09-29 株式会社I’mbesideyou 動画像分析プログラム
US11756443B2 (en) 2020-04-28 2023-09-12 Hitachi, Ltd. Learning support system

Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06162A (ja) * 1992-06-22 1994-01-11 A T R Tsushin Syst Kenkyusho:Kk 視線情報解析装置
JPH07174541A (ja) * 1993-12-20 1995-07-14 Hamamatsu Photonics Kk 瞳孔面積測定装置
JP2002344904A (ja) * 2001-02-06 2002-11-29 Sony Corp コンテンツ再生装置、コンテンツ受信装置、コンテンツ呈示制御方法、コンテンツ評価収集解析方法、コンテンツ評価収集解析装置、コンテンツ評価集計管理方法およびコンテンツ評価集計管理装置
JP2003111106A (ja) * 2001-09-28 2003-04-11 Toshiba Corp 集中度取得装置並びに集中度を利用した装置及びシステム
JP2004180298A (ja) * 2002-11-25 2004-06-24 Eastman Kodak Co アイモニタリング機能を備えるカメラシステム
JP2004282471A (ja) * 2003-03-17 2004-10-07 Media Glue Corp 映像コンテンツの評価装置
JP2005142975A (ja) * 2003-11-10 2005-06-02 Nippon Telegr & Teleph Corp <Ntt> 視聴者反応情報収集システム及びその方法と、その視聴者反応情報収集システムで用いられるユーザ端末及び視聴者反応情報提供装置と、そのユーザ端末・視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラム
JP2005237668A (ja) * 2004-02-26 2005-09-08 Kazuya Mera コンピュータネットワークにおける感情を考慮した対話装置
JP2006051317A (ja) * 2004-08-13 2006-02-23 Research Institute Of Human Engineering For Quality Life 感情伝達システム
JP2006244028A (ja) * 2005-03-02 2006-09-14 Nippon Hoso Kyokai <Nhk> 情報提示装置及び情報提示プログラム
JP2006243980A (ja) * 2005-03-01 2006-09-14 Fuji Xerox Co Ltd 情報処理システム及び情報処理方法、並びにコンピュータ・プログラム
JP2006293979A (ja) * 2005-03-18 2006-10-26 Advanced Telecommunication Research Institute International コンテンツ提供システム
WO2007013312A1 (ja) * 2005-07-28 2007-02-01 The University Of Tokyo 視聴者情報測定システム及びこれを用いたマッチングシステム
JP2007034664A (ja) * 2005-07-27 2007-02-08 Sony Corp 感情推定装置および方法、記録媒体、および、プログラム
JP2007068620A (ja) * 2005-09-05 2007-03-22 Konica Minolta Holdings Inc 心理状態計測装置
WO2007102053A2 (en) * 2005-09-16 2007-09-13 Imotions-Emotion Technology Aps System and method for determining human emotion by analyzing eye properties
WO2007117019A1 (ja) * 2006-04-05 2007-10-18 Sony Corporation 記録装置、再生装置、記録再生装置、記録方法、再生方法および記録再生方法並びに記録媒体
WO2007135796A1 (ja) * 2006-05-18 2007-11-29 Visual Interactive Sensitivity Research Institute Co., Ltd. コンテンツに対する利用者応答を評価する制御装置
JP2008018066A (ja) * 2006-07-13 2008-01-31 Japan Health Science Foundation 生体の社会性情動表現の定量化方法、定量化システムならびに定量化プログラムおよびこれを記録したコンピュータ読み取り可能な記録媒体
WO2008072739A1 (ja) * 2006-12-15 2008-06-19 Visual Interactive Sensitivity Research Institute Co., Ltd. 視聴傾向管理装置、システム及びプログラム
JP2008205861A (ja) * 2007-02-20 2008-09-04 Matsushita Electric Ind Co Ltd 視聴質判定装置、視聴質判定方法、視聴質判定プログラム、および記録媒体

Patent Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06162A (ja) * 1992-06-22 1994-01-11 A T R Tsushin Syst Kenkyusho:Kk 視線情報解析装置
JPH07174541A (ja) * 1993-12-20 1995-07-14 Hamamatsu Photonics Kk 瞳孔面積測定装置
JP2002344904A (ja) * 2001-02-06 2002-11-29 Sony Corp コンテンツ再生装置、コンテンツ受信装置、コンテンツ呈示制御方法、コンテンツ評価収集解析方法、コンテンツ評価収集解析装置、コンテンツ評価集計管理方法およびコンテンツ評価集計管理装置
JP2003111106A (ja) * 2001-09-28 2003-04-11 Toshiba Corp 集中度取得装置並びに集中度を利用した装置及びシステム
JP2004180298A (ja) * 2002-11-25 2004-06-24 Eastman Kodak Co アイモニタリング機能を備えるカメラシステム
JP2004282471A (ja) * 2003-03-17 2004-10-07 Media Glue Corp 映像コンテンツの評価装置
JP2005142975A (ja) * 2003-11-10 2005-06-02 Nippon Telegr & Teleph Corp <Ntt> 視聴者反応情報収集システム及びその方法と、その視聴者反応情報収集システムで用いられるユーザ端末及び視聴者反応情報提供装置と、そのユーザ端末・視聴者反応情報提供装置の実現に用いられる視聴者反応情報作成用プログラム
JP2005237668A (ja) * 2004-02-26 2005-09-08 Kazuya Mera コンピュータネットワークにおける感情を考慮した対話装置
JP2006051317A (ja) * 2004-08-13 2006-02-23 Research Institute Of Human Engineering For Quality Life 感情伝達システム
JP2006243980A (ja) * 2005-03-01 2006-09-14 Fuji Xerox Co Ltd 情報処理システム及び情報処理方法、並びにコンピュータ・プログラム
JP2006244028A (ja) * 2005-03-02 2006-09-14 Nippon Hoso Kyokai <Nhk> 情報提示装置及び情報提示プログラム
JP2006293979A (ja) * 2005-03-18 2006-10-26 Advanced Telecommunication Research Institute International コンテンツ提供システム
JP2007034664A (ja) * 2005-07-27 2007-02-08 Sony Corp 感情推定装置および方法、記録媒体、および、プログラム
WO2007013312A1 (ja) * 2005-07-28 2007-02-01 The University Of Tokyo 視聴者情報測定システム及びこれを用いたマッチングシステム
JP2007068620A (ja) * 2005-09-05 2007-03-22 Konica Minolta Holdings Inc 心理状態計測装置
WO2007102053A2 (en) * 2005-09-16 2007-09-13 Imotions-Emotion Technology Aps System and method for determining human emotion by analyzing eye properties
WO2007117019A1 (ja) * 2006-04-05 2007-10-18 Sony Corporation 記録装置、再生装置、記録再生装置、記録方法、再生方法および記録再生方法並びに記録媒体
WO2007135796A1 (ja) * 2006-05-18 2007-11-29 Visual Interactive Sensitivity Research Institute Co., Ltd. コンテンツに対する利用者応答を評価する制御装置
JP2008018066A (ja) * 2006-07-13 2008-01-31 Japan Health Science Foundation 生体の社会性情動表現の定量化方法、定量化システムならびに定量化プログラムおよびこれを記録したコンピュータ読み取り可能な記録媒体
WO2008072739A1 (ja) * 2006-12-15 2008-06-19 Visual Interactive Sensitivity Research Institute Co., Ltd. 視聴傾向管理装置、システム及びプログラム
JP2008205861A (ja) * 2007-02-20 2008-09-04 Matsushita Electric Ind Co Ltd 視聴質判定装置、視聴質判定方法、視聴質判定プログラム、および記録媒体

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012196279A (ja) * 2011-03-18 2012-10-18 Waseda Univ 注目度検出システム、注目度判定装置、注目度判定装置用のプログラム、及び画像配信システム
US9775525B2 (en) 2011-05-02 2017-10-03 Panasonic Intellectual Property Management Co., Ltd. Concentration presence/absence determining device and content evaluation apparatus
EP2575358A1 (en) * 2011-09-27 2013-04-03 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
US9046921B2 (en) 2011-09-27 2015-06-02 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
JP2013240469A (ja) * 2012-05-21 2013-12-05 Tokyo Institute Of Technology 注意位置推定装置
US9839355B2 (en) 2013-06-04 2017-12-12 Fujitsu Limited Method of processing information, and information processing apparatus
JP2015039487A (ja) * 2013-08-21 2015-03-02 大日本印刷株式会社 生理指標を用いる視線分析システムおよび方法
CN107405120A (zh) * 2015-04-23 2017-11-28 索尼公司 信息处理装置、控制方法和程序
WO2016170810A1 (ja) * 2015-04-23 2016-10-27 ソニー株式会社 情報処理装置、制御方法、およびプログラム
JPWO2016170810A1 (ja) * 2015-04-23 2018-02-15 ソニー株式会社 情報処理装置、制御方法、およびプログラム
US11160479B2 (en) 2015-04-23 2021-11-02 Sony Corporation Information processing device and control method
EP3115956A1 (en) 2015-07-09 2017-01-11 Fujitsu Limited Interest degree determination device, interest degree determination method, and interest degree determination program
US10395101B2 (en) 2015-07-09 2019-08-27 Fujitsu Limited Interest degree determination device, interest Degree determination method, and non-transitory computer-readable recording medium
JP2017086529A (ja) * 2015-11-11 2017-05-25 日本電信電話株式会社 印象推定装置およびプログラム
CN109074511A (zh) * 2016-05-13 2018-12-21 情感爱思比株式会社 存储控制系统、系统以及程序
KR101966164B1 (ko) * 2017-01-12 2019-04-05 고려대학교산학협력단 가상현실을 이용한 안과 검사 시스템 및 방법
KR20180083069A (ko) * 2017-01-12 2018-07-20 고려대학교 산학협력단 가상현실을 이용한 안과 검사 시스템 및 방법
WO2019172503A1 (ko) * 2018-03-05 2019-09-12 고려대학교 산학협력단 안구추적을 통한 시야장애 평가 장치, 이를 이용한 시야장애 평가 방법 및 컴퓨터 판독 가능한 저장 매체
JPWO2019176846A1 (ja) * 2018-03-13 2021-03-25 株式会社カネカ 判定システムおよび判定方法
WO2019176846A1 (ja) * 2018-03-13 2019-09-19 株式会社カネカ 判定システムおよび判定方法
JP7257381B2 (ja) 2018-03-13 2023-04-13 株式会社カネカ 判定システムおよび判定方法
CN108742657A (zh) * 2018-03-30 2018-11-06 百度在线网络技术(北京)有限公司 游戏测评方法、装置、游戏系统及存储介质
JP2020135786A (ja) * 2019-02-26 2020-08-31 株式会社日立製作所 応答装置および応答方法
JP7370531B2 (ja) 2019-02-26 2023-10-30 株式会社日立製作所 応答装置および応答方法
KR20210008638A (ko) * 2019-07-15 2021-01-25 상명대학교산학협력단 심리적 불안도 측정 장치 및 방법
KR102235932B1 (ko) 2019-07-15 2021-04-05 상명대학교산학협력단 심리적 불안도 측정 장치 및 방법
US11756443B2 (en) 2020-04-28 2023-09-12 Hitachi, Ltd. Learning support system
WO2022201272A1 (ja) * 2021-03-22 2022-09-29 株式会社I’mbesideyou 動画像分析プログラム
WO2022201275A1 (ja) * 2021-03-22 2022-09-29 株式会社I’mbesideyou 動画像分析プログラム

Similar Documents

Publication Publication Date Title
JP5445981B2 (ja) 視認情景に対する視認者情感判定装置
JP2010094493A (ja) 視認情景に対する視認者情感判定装置
Foulsham et al. The where, what and when of gaze allocation in the lab and the natural environment
CA2545202C (en) Method and apparatus for calibration-free eye tracking
US9538219B2 (en) Degree of interest estimating device and degree of interest estimating method
CN112034977B (zh) Mr智能眼镜内容交互、信息输入、应用推荐技术的方法
KR20240011874A (ko) 신경 상태의 검출을 위해 생체 센서 데이터를 사용하여 라이브 엔터테인먼트를 디렉팅
US10843078B2 (en) Affect usage within a gaming context
CN103181180B (zh) 提示控制装置以及提示控制方法
US20160232561A1 (en) Visual object efficacy measuring device
JP2017507400A (ja) 注視によるメディア選択及び編集のためのシステム並びに方法
JP2005315802A (ja) ユーザ支援装置
US20120194648A1 (en) Video/ audio controller
Hessels et al. Looking behavior and potential human interactions during locomotion
Chukoskie et al. Quantifying gaze behavior during real-world interactions using automated object, face, and fixation detection
KR20190048144A (ko) 발표 및 면접 훈련을 위한 증강현실 시스템
JP7066115B2 (ja) パブリックスピーキング支援装置、及びプログラム
WO2023037348A1 (en) System and method for monitoring human-device interactions
JP2010063621A (ja) 視認情景に対する視認者感性反応装置
Shibli et al. Developing a vision-based driving assistance system
US11935140B2 (en) Initiating communication between first and second users
CN116133594A (zh) 基于声音的注意力状态评价
Jianwattanapaisarn et al. Investigation of real-time emotional data collection of human gaits using smart glasses
WO2023234119A1 (ja) 情報処理装置、情報処理方法、プログラム
US20240050831A1 (en) Instructor avatars for augmented reality experiences

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120111

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20120111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130903

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140128