JP2006075348A - Eye contact analyzing apparatus, eye contact analyzing method and eye contact analyzing program - Google Patents
Eye contact analyzing apparatus, eye contact analyzing method and eye contact analyzing program Download PDFInfo
- Publication number
- JP2006075348A JP2006075348A JP2004262678A JP2004262678A JP2006075348A JP 2006075348 A JP2006075348 A JP 2006075348A JP 2004262678 A JP2004262678 A JP 2004262678A JP 2004262678 A JP2004262678 A JP 2004262678A JP 2006075348 A JP2006075348 A JP 2006075348A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- mutual
- mutual vision
- person
- vision
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
Description
本発明は、対話等のコミュニケーションの際に視線を分析する装置に関し、特に、アイコンタクトと呼ばれる相互視を分析する相互視分析装置に関するものである。 The present invention relates to an apparatus for analyzing line of sight during communication such as dialogue, and more particularly to a mutual vision analysis apparatus for analyzing mutual vision called eye contact.
実際に人と会って話をした方が、電話などよりも想いが伝わると考えられている。それは相手の目を見て話ができるためである。相手と「目を合わせる」ということは、互いが了承したことを表すサインであり、コミュニケーションの際の重要な手段となっている。そのため、対話中の相互視を分析することは、コミュニケーション研究および支援装置開発において重要である。 It is thought that people who actually meet and talk with people can convey their thoughts rather than telephone calls. This is because you can talk with your eyes. “Looking at your eyes” with your partner is a sign that you have acknowledged each other and is an important means of communication. Therefore, analyzing the mutual vision during dialogue is important in communication research and support device development.
相互視を検出するための方法として、実際に対話を行っている人物全員の眼球運動を計測し、対話参加者の視線方向を計算することにより、相互の視線が交わっているかによって相互視を検出する方法や、頭部に設置されたレーザ光源とレーザ受信機を用いて他者の頭部から発せられた光を受信した際に相互視が行われたと判断する方法がある。 As a method of detecting mutual vision, by detecting the eye movements of all the people who are actually interacting and calculating the direction of the gaze of the participants, mutual vision is detected depending on whether the mutual eyes intersect And a method of determining that mutual observation has been performed when light emitted from the head of another person is received using a laser light source and a laser receiver installed on the head.
実際に眼球運動を計測する方法として、ゴーグル状の専用の眼球運動計測器を用いて計測を行う、もしくは人物の顔画像から画像処理を用いて眼球領域を抽出し、その眼球領域画像から眼球運動の計測を行う方法などがある。 As a method of actually measuring eye movement, measurement is performed using a dedicated goggle-shaped eye movement measuring instrument, or an eye area is extracted from a human face image using image processing, and eye movement is performed from the eye area image. There is a method of measuring.
例えば特許文献1は、視覚情報分析装置に関し、眼球位置を検出するために、赤外線を眼球にあて、その反射光を検出して眼球の位置データを測定している。
For example,
しかし、上述の相互視の検出を行う方法において、相互視を検出する精度という観点では、ゴーグル状の専用の眼球運動計測器を用い、対話を行っている人物の視線を計測することが望ましいが、眼球運動計測器を複数の人数分だけ用意する必要があり、コストの面で問題がある。また、ゴーグル状の計測器を着用することにより、参加者の自然な対話を妨げてしまうという問題がある。 However, in the above-described method for detecting mutual vision, from the viewpoint of accuracy of mutual vision detection, it is desirable to measure the line of sight of a person who is interacting using a dedicated goggle eye movement measuring instrument. Therefore, it is necessary to prepare eye movement measuring instruments for a plurality of persons, which is problematic in terms of cost. In addition, wearing a goggle-shaped measuring instrument hinders the participants' natural dialogue.
一方、人物の顔画像から眼球運動を計測する方法は、眼球運動計測器といった特殊な装置を必要としないため、眼球運動計測器を用いる方法と比較して安価に実現できるが、画像処理は外部の照明条件等の影響を受けやすく、眼球運動を計測するという精度の点で問題があり、相互視を検出する精度は高くない。また、人物の顔画像から眼球運動を計測する方法の場合、人物の移動にあわせ、適宜カメラを移動させて画像を撮像しないと、カメラの撮像範囲外に人物が移動してしまうため、安定してデータを得ることが難しい。 On the other hand, the method for measuring eye movement from a human face image does not require a special device such as an eye movement measuring instrument, and thus can be realized at a lower cost than the method using an eye movement measuring instrument. It is easy to be affected by the lighting conditions, and there is a problem in the accuracy of measuring eye movement, and the accuracy of detecting mutual vision is not high. In addition, in the method of measuring eye movements from a person's face image, the person moves outside the imaging range of the camera unless the camera is appropriately moved to capture the image as the person moves. It is difficult to obtain data.
安定してデータを得ることができるという点で、頭部に設置されたレーザ光源とレーザ受信機を用いて相互視を検出する方法は、実際に眼球運動を計測する場合と比較して優れている。しかし、実際に対話中に生じる相互視では、頭を動かさずに目だけを動かす場合もあり、その場合、頭の方角と視線の方向がずれているため相互視として判断されなくなってしまう。また逆に、目を合わせていなくても頭の向きだけがあってしまっていると相互視として判断されてしまうという問題がある。 The method of detecting mutual vision using a laser light source and laser receiver installed on the head is superior to the case of actually measuring eye movements in that data can be obtained stably. Yes. However, in the mutual vision actually generated during the dialogue, there are cases where only the eyes are moved without moving the head, and in this case, the direction of the head and the direction of the line of sight are deviated, so that it is not determined as mutual vision. On the other hand, there is a problem that even if the eyes are not aligned, if there is only the head direction, it will be judged as mutual vision.
本発明は上記課題を解決し、対話の際に話者の状態を表す情報として重要な相互視(アイコンタクト)が起きたことを、高精度でかつ安価に検出できる相互視分析装置およびその方法を提供する。 SUMMARY OF THE INVENTION The present invention solves the above-mentioned problems, and a mutual vision analysis apparatus and method capable of accurately and inexpensively detecting that important mutual vision (eye contact) has occurred as information representing the state of a speaker during dialogue. I will provide a.
上記課題を解決するために、本発明の相互視分析装置は、対話に参加する参加者の代表一名(被験者が該当する)の眼球の動きを検出する眼球運動検出手段、参加者代表の視野に対応する領域を撮像する視野撮像手段、視野撮像手段で撮像された画像から参加者代表以外の参加者の人物領域(好ましくは顔領域)を検出する検出手段、眼球運動検出手段より検出された眼球の動きおよび検出手段で検出された顔領域に基づき参加者へ視線が向けられているか判断し相互視が発生したか否かという判定を行う相互視判定部とを備えて構成される。 In order to solve the above problems, the mutual vision analyzer of the present invention is an eye movement detection means for detecting the movement of the eyeball of one representative participant (participating subject) participating in the dialogue, and the field of view of the participant representative. Visual field imaging means for imaging an area corresponding to the above, a detection means for detecting a person area (preferably a face area) of a participant other than the participant representative from an image captured by the visual field imaging means, and an eye movement detection means And a mutual vision determination unit that determines whether or not the line of sight is directed to the participant based on the movement of the eyeball and the face area detected by the detection means and determines whether or not mutual vision has occurred.
対話参加者の代表一名の被験者の眼球の動きを計測し、被験者の視野撮像手段で撮像された画像から他の参加者の顔領域を検出し、参加者へ視線が向けられているか否かを判断するため、従来手法のように、参加者の全員がゴーグル状の眼球運動計測器を着用して対話する必要はなく、安価な相互視分析装置を提供することができる。さらに、被験者の視野範囲内の画像を撮像して相互視を判定するため、従来の課題でもあった頭を動かさずに目だけを動かす場合であっても、その目線方向の視野画像が撮像されるため、精度良く相互視を判定することが可能となる。 Whether the participant's eye movement is measured by measuring the eyeball movement of one subject representative of the conversation participant, detecting the face area of other participants from the image captured by the subject's visual field imaging means, and whether the line of sight is directed at the participant Therefore, unlike the conventional method, it is not necessary for all of the participants to wear a goggle-like eye movement measuring device and interact with each other, and an inexpensive mutual vision analyzer can be provided. Furthermore, in order to determine mutual vision by capturing images within the visual field range of the subject, a visual field image in the direction of the line of sight is captured even when only the eyes are moved without moving the head, which was a conventional problem. Therefore, it is possible to determine the mutual vision with high accuracy.
また、人物の顔画像から眼球運動を計測する方法の課題であった、人物の移動に対して適宜カメラを移動させないといけないという課題に対しても、視野撮像手段の画像には相互視が行われる際には必ず相互視を行う相手が含まれるため、相互視が行われたことは確実に検出ができる。 In addition, the image of the field of view imaging means is also viewed from the viewpoint of the method of measuring the eye movement from the face image of the person and the problem that the camera has to be moved as the person moves. Since the other party that always performs mutual vision is always included in this case, the fact that mutual vision has been performed can be reliably detected.
好ましくは相互視判定手段は、眼球の動きから被験者の視線が人物領域に向けられているか否かを判定する。例えば、相互視判定手段は、人物領域上における被験者の視線方向の位置と人物領域の顔までの距離が一定値よりも大きいか否かを比較し、一定値よりも小さいとき相互視があったものと判定するようにしてもよい。あるいは相互視判定手段は、人物領域上における被験者の視線方向の位置と人物領域の目までの距離が一定値よりも大きいか否かを比較し、一定値よりも小さいとき相互視があったと判定するようにしてもよい。 Preferably, the mutual vision determination means determines whether or not the subject's line of sight is directed toward the person area from the movement of the eyeball. For example, the mutual vision determination means compares the position of the subject's line of sight on the person area and the distance to the face of the person area is larger than a certain value, and there was mutual vision when the distance is smaller than the certain value You may make it determine with a thing. Alternatively, the mutual vision determination means compares the position of the subject's gaze direction on the person area and the distance to the eyes of the person area is greater than a certain value, and determines that there was mutual vision when the distance is smaller than the certain value. You may make it do.
さらに好ましくは相互視判定手段は、人物領域に含まれる顔および目の位置情報から当該人物(対話参加者)の視線方向を算出し、当該人物の視線が被験者に向けられているか否かを判定する。この場合、相互視判定手段は、人物領域から算出された視線方向と被験者の視線方向とを比較し、その差分が一定値よりも小さいとき相互視があったものと判定するようにしてもよい。 More preferably, the mutual vision determination unit calculates the gaze direction of the person (participant) from the face and eye position information included in the person area, and determines whether or not the gaze of the person is directed toward the subject. To do. In this case, the mutual vision determination means may compare the line-of-sight direction calculated from the person area with the line-of-sight direction of the subject, and determine that there was mutual vision when the difference is smaller than a certain value. .
本発明に係る相互視分析方法は、被験者の眼球の動きを検出する眼球運動検出ステップと、被験者の視野に対応する領域を撮像する視野撮像ステップと、前記視野撮像手段によって撮像された画像から被験者以外の人物を表す人物領域を検出する検出ステップと、前記眼球運動検出ステップにより検出された眼球の動きおよび前記検出ステップによって検出された人物領域に基づき相互視が発生したか否かを判定する相互視判定ステップとを有する。 The mutual vision analysis method according to the present invention includes an eye movement detection step for detecting the movement of the eyeball of the subject, a visual field imaging step for imaging a region corresponding to the visual field of the subject, and an image captured by the visual field imaging means. A detection step for detecting a person region representing a person other than the above, a mutual determination for determining whether or not mutual vision has occurred based on the movement of the eyeball detected by the eye movement detection step and the person region detected by the detection step A visual determination step.
本発明に係る相互視分析プログラムは、被験者の眼球の動きを検出する眼球運動検出ステップと、被験者の視野に対応する領域を撮像する視野撮像ステップと、前記視野撮像手段によって撮像された画像から被験者以外の人物を表す人物領域を検出する検出ステップと、前記眼球運動検出ステップにより検出された眼球の動きおよび前記検出ステップによって検出された人物領域に基づき相互視が発生したか否かを判定する相互視判定ステップとを有する。 The mutual vision analysis program according to the present invention includes an eye movement detection step for detecting the movement of the eyeball of the subject, a visual field imaging step for imaging a region corresponding to the visual field of the subject, and an image captured by the visual field imaging means. A detection step for detecting a person region representing a person other than the above, a mutual determination for determining whether or not mutual vision has occurred based on the movement of the eyeball detected by the eye movement detection step and the person region detected by the detection step A visual determination step.
本発明によれば、被験者の眼球運動と被験者の視野撮像手段からの画像を用いて相互視を判定するようにしたので、低コストでありながら精度の高い相互視分析装置を提供することができる。 According to the present invention, since the mutual vision is determined using the eye movement of the subject and the image from the visual field imaging means of the subject, it is possible to provide a high-accuracy mutual vision analyzer that is low in cost. .
本発明の実施形態に係る相互視分析装置について図面を参照して説明する。本実施形態に係る分析装置は、対話の際に話者の状態を表す情報として重要な相互視が起きたことを検出できる分析装置である。相互視とは、双方の視線が互いに一致し、または一致したとみなせる状態であり、また、対話とは、一対一で会話が行われる状況のみならず、複数人が集う会議や一対多に対して発表を行うような状況も含む。さらに、対話とは、実際に対面で対話する場合のみならず、テレビ会議システム等を用いた遠隔地での対話も含む。さらに、装置とは、複数の装置からなるシステムをも含む概念と同義である。 A mutual vision analyzer according to an embodiment of the present invention will be described with reference to the drawings. The analysis apparatus according to the present embodiment is an analysis apparatus that can detect that important mutual vision has occurred as information representing the state of a speaker during a conversation. Mutual vision is a state in which both eyes agree with each other or can be regarded as coincident, and dialogue is not only a one-on-one situation, but also a meeting or a one-to-many meeting involving multiple people. Including situations where presentations are made. Furthermore, the dialogue includes not only actual face-to-face dialogue but also dialogue at a remote place using a video conference system or the like. Further, the device is synonymous with a concept including a system including a plurality of devices.
次に本実施例に係る相互視分析装置について説明する。図1は、本実施例に係る相互視分析装置に好適に用いられるゴーグルの外観形状を示し、図2は、ゴーグルからのデータを処理するためのデータ処理装置の構成例を示している。 Next, the mutual vision analyzer according to the present embodiment will be described. FIG. 1 shows an external shape of goggles preferably used in the mutual vision analyzer according to the present embodiment, and FIG. 2 shows a configuration example of a data processing device for processing data from the goggles.
ゴーグル10は対話に参加する参加者の代表者(以下、被験者という)によって装着され、被験者は、少なくとも1人の対話参加者と対話するものとする。ゴーグル10には、被験者の視野に対応する領域を撮像する視野カメラ20と、被験者の眼球運動を計測するための眼球運動計測装置(センサ)30とが取り付けられている。視野カメラ20は、好ましくはゴーグル10の略中央に取り付けられ、被験者の視野と同等の画角をもつCCDなどの撮像素子を用い、また、オートフォーカス機能を備えている。
The
眼球運動計測装置30は、例えば、被験者の角膜に赤外線を照射し、その反射光に基づき眼球の運動を検出する角膜反射光による方法、被験者に装着されたコンタクトレンズの動きを検出する方法、被験者の眼球の付近の筋肉の使用状況から眼球の運動を検知するEOG法、あるいは特許文献1に開示されるように角膜表面の白目と黒目の反射率の違いを利用する強膜反射法を用いることができる。
The eye movement measuring device 30 is, for example, a method using corneal reflection light that irradiates the subject's cornea with infrared rays and detects the movement of the eyeball based on the reflected light, a method that detects movement of a contact lens mounted on the subject, EOG method that detects the movement of the eyeball from the usage of muscles near the eyeball of the eyeball, or the scleral reflection method that utilizes the difference in reflectance between the white and black eyes of the cornea as disclosed in
ゴーグル10はさらに、視野カメラ20によって撮像された画像情報および眼球運動計測装置30により計測された眼球運動情報を、図示しない通信手段を介してデータ処理装置40へ送信できるようになっている。ゴーグル10とデータ処理装置40との通信は、被験者の行動を制限しないよう電波などを用いた無線によることが望ましい。
Further, the
データ処理装置40は、図2に示すように、ゴーグル10の視野カメラ20および眼球運動計測装置30からの情報を受け取り、または視野カメラ20および眼球運動計測装置30への制御信号を送信する相互通信可能な無線通信ユニットを包含する通信部50と、ゴーグル10からのデータや演算処理データ等を一時記憶するデータメモリ60と、相互視分析用プログラム等を格納したプログラムメモリ70と、相互視分析結果を表示するディスプレイ80と、ユーザからの指示をマウスやキーボードなどの入力装置を介して受け取る入力インターフェース90と、大容量記憶スペースを有するハードディスクなどの記憶装置100と、プログラムメモリ70のプログラム等に従い各部を制御する中央処理装置(CPU)110とを備えている。
As shown in FIG. 2, the
本実施例の相互視分析装置は、被験者によって装着されるゴーグル10とデータ処理装置40の2つの装置またはシステムによって構成され、ゴーグル10の視野カメラ20および眼球運動計測装置30から送られてくる情報に基づきデータ処理装置40が対話参加者間の相互視の分析を行う。
The mutual vision analyzer according to the present embodiment is configured by two devices or systems, that is, a
図3は、本実施例の相互視分析装置の機能的な構成を示すブロックである。同図に示すように、ゴーグル10側には、眼球運動計測部210と視野撮像部220とが含まれ、データ処理装置40側には、顔領域検出部310、相互視判定部320および相互視情報表示部330とが含まれている。
FIG. 3 is a block diagram illustrating a functional configuration of the mutual vision analyzer according to the present embodiment. As shown in the figure, an eye
眼球運動計測部210は、眼球運動計測装置30によって計測された被験者の眼球の運動情報を相互視判定部320へ出力する。視野撮像部220は、視野カメラ20によって撮像された画像情報を顔領域検出部310へ出力する。顔領域検出部310は、視野撮像部210からの画像情報を受信し、受信した画像情報から対話参加者の顔領域を検出する。顔領域の検出方法としては、画像中の肌色領域のうち、目と思われる2つの黒色領域と鼻腔と思われる2つの黒色領域とを検出し、これらの黒色領域が一定の割合の間隔と位置関係で含まれている肌色領域を顔と認識する方法を用いることができる。勿論、これ以外の画像処理技術を用いて顔領域を検出するようにしてもよい。
The eye
顔領域検出部310は、検出した顔領域の画像、顔の位置、および顔の大きさに関する情報を相互視判定部320へ出力する。その際、顔領域らしい領域が複数あった場合、その顔領域らしい領域全ての情報を相互視判定部320に出力する。また、顔領域検出部310において顔領域を検出することができない場合は、顔領域が検出できない旨の情報を相互視判定部320に出力する。
The face
相互視判定部320は、あらかじめ較正を行って得た被験者の眼球運動と視野カメラによる視野カメラ画像との位置関係に基づき、被験者の視線が視野カメラ画像のどの点を指し示しているかを判定し、それに基づき、被験者の視線が参加者の顔領域に向いているか否か等を判定する。
The mutual
図4は、被験者の眼球の動き(視線方向)と視野カメラ画像との較正を説明する図である。被験者は、最初にゴーグル10を装着したとき、視野カメラ20から一定の距離にあり、かつ一定のサイズを有する較正用の表示パネル、例えば看板の方向を向き、視野カメラ20の視野内に較正用パネルが適正に撮像されるようにする。このときの視野カメラ画像をSとし、視野カメラ画像Sの9つの較正点(A1〜A8は、画像Sの境界の等間隔な点、A9は画像Sの中心点)を被験者に目視させる。各較正点を見ているときの被験者の眼球の動きが眼球運動計測部210によって計測され、その計測値が初期設定値として登録される。これにより、被験者の眼球運動から被験者が視野カメラ画像上のどの位置を見ているのかを判定することができる。
FIG. 4 is a diagram for explaining calibration of the eyeball movement (gaze direction) of the subject and the visual field camera image. When the subject first wears the
相互視判定部320は、被験者により視線が向けられている顔領域が存在した場合、その顔領域の情報から参加者が視線カメラを装着している被験者の方向を向いているかの判定を行い、被験者の方向を向いている場合、相互視が行われたと判定する。
The mutual
視線を向けられている顔領域から、その顔領域が被験者の方向を向いているか否かの判定方法として、顔領域に含まれている目と思われる2つの黒色領域と鼻腔と思われる2つの黒色領域の合わせて4つの領域の重心と肌色領域全体の重心との位置関係により、どの方向を向いているか判定する方法などが用いることができる。 As a method for determining whether or not the face area is directed toward the subject from the face area to which the line of sight is directed, two black areas that are considered to be eyes included in the face area and two that are considered to be the nasal cavity For example, a method of determining which direction is directed based on the positional relationship between the center of gravity of the four regions and the center of gravity of the entire skin color region can be used.
相互視情報表示部330は、相互視判定部320によって相互視があったと判定された場合、相互視が判定された時刻および相互視が検出された時点での視野カメラ20で撮像された画像などの相互視情報をディスプエイ80に表示させる。あるいは、相互視情報を記憶した記憶装置100からその情報を読出し、これをディスプレイ80に表示させるようにしてもよい。
When the binocular
次に、相互視分析の処理の流れを図5のフローチャートを参照して説明する。この動作は、プログラムメモリ70に含まれる相互視分析用プログラムに従うものである。先ず、ゴーグル10を装着した被験者の眼球運動の較正を行う(ステップS101)。眼球運動の較正は、前述した図4に示すような初期設定を含むものである。これにより、ゴーグルの装着に起因する被験者毎のバラツキを解消させ、相互視の判定精度の低下を防止する。
Next, the flow of the mutual analysis process will be described with reference to the flowchart of FIG. This operation follows the mutual vision analysis program included in the
次に、被験者を含む参加者との間で対話が開始され、眼球運動計測部210から被験者の眼球運動情報が相互視判定部320へ出力され、かつ、視野撮像部220から視野カメラ画像が顔領域検出部310へ出力される(ステップS102)。
Next, a dialogue is started with the participants including the subject, the eye movement information of the subject is output from the eye
顔領域検出部310は、視野カメラ画像から、対話に参加している参加者の顔領域を検出する(ステップS103)。顔領域が検出されたとき、顔領域検出部310は、検出し顔領域の位置および大きさに加えて、顔に含まれる2つの目の位置の情報を相互判定部320へ出力する。
The face
相互視判定部320は、顔領域検出部からの情報に基づき、被験者の視線が顔領域に向けられているか否かを判定する(ステップS104)。例えば、図6に示すように、視野カメラ画像Sにおいて参加者の顔領域Fが検出されたとき、視野カメラ画像Sにおける被験者の視線位置と顔領域Fとを比較する。視野カメラ画像における視線位置は、前述したように被験者の眼球運動から一義的に決定される。例えば、被験者の視線位置P1が顔領域F内にあるとき、被験者の視線が参加者の顔に向けられていると判定する。一方、被験者の視線位置P2が顔領域Fから一定距離以上離れている場合には、被験者の視線が参加者の顔に向けられていないと判定する。この判定基準は一例であって、これ以外にも、被験者の視線位置と顔領域Fに含まれる目領域との距離を比較し、この値が一定値以下であれば、被験者の視線が参加者の顔に向けられていると判定するようにしてもよい。
The mutual
被験者の視線が参加者の顔に向けられていると判定されると、次に、顔領域の画像に基づき参加者の視線方向が算出される(ステップS105)。例えば、図7に示すように、顔領域Fの画像に含まれる目を示す2つの黒色領域Eと、鼻腔と思われる2つの黒色領域Nの合わせて4つの領域の重心と顔領域全体の重心との位置関係により、参加者の視線方向Qを判定する。 If it is determined that the subject's line of sight is directed toward the participant's face, the participant's line-of-sight direction is then calculated based on the face region image (step S105). For example, as shown in FIG. 7, the centroid of the four areas including the two black areas E indicating the eyes included in the image of the face area F and the two black areas N that are considered to be the nasal cavity, and the centroid of the entire face area The participant's line-of-sight direction Q is determined based on the positional relationship.
次に、相互視判定部320は、算出された視線方向Qにより参加者が被験者の方を向いているか否かを判定する(ステップS106)。被験者の視線方向は、視野カメラ画像の視線位置との関係から容易に算出できるので、例えば、相互視判定部320は、参加者の視線方向と被験者の視線方向とを比較し、両者の差分が一定値以内であれば、参加者の視線が被験者に向けられていると判定する。
Next, the mutual
相互視判定部320は、被験者と参加者との相互視があったと判定すると、その発生時刻を記憶装置100へ記録する(ステップS107)。その時刻と関連付けして、視野カメラ画像を記憶装置100へ記録することもできる。
When the mutual
被験者もしくは参加者から対話終了の指示が入力インターフェース90を介して成されると、相互視分析動作が終了する(ステップS108)。相互視判定部320の判定結果に関する情報は、リアルタイムで相互視情報表示部330によりディスプレイに表示され、あるいは、記憶装置100に一旦記憶された後にディスプレイに表示される。
When an instruction to end the dialogue is given from the subject or participant through the
次に、本発明の第2の実施例について説明する。図8は、被験者が複数の参加者と対話したときの相互視分析を行う好適なフローチャートである。第2の実施例では、複数の対話参加者の識別を行うため、予め参加者を識別できるように各参加者の顔画像を記憶装置100に記憶しておく。第1の実施例のときと同様に視野カメラ画像内に顔領域が検出されると(ステップS203)、相互視判定部320は、検出された顔領域から参加者Xの識別を行う(ステップS204)。識別は、例えば、記憶装置100に記憶された各参加者の顔情報とマッチング処理し、その中から相似度が最も高い参加者を参加者Xとして識別する。複数の顔領域が検出された場合には、それぞれの参加者の識別が行われる。
Next, a second embodiment of the present invention will be described. FIG. 8 is a preferred flowchart for performing a mutual analysis when a subject interacts with a plurality of participants. In the second embodiment, in order to identify a plurality of dialogue participants, face images of each participant are stored in the
以後のステップは、第1の実施例と同様に行われ、複数の参加者と相互視があったと判定されたとき、相互視のあった時刻および視野カメラ画像の格納位置などの情報は、識別された参加者のファイルに関連付けして記録される(ステップS208)。 The subsequent steps are performed in the same manner as in the first embodiment, and when it is determined that there has been mutual vision with a plurality of participants, information such as the time of mutual vision and the storage position of the visual field camera image is identified. It is recorded in association with the file of the participant who has been recorded (step S208).
図9は、相互視判定結果の表示例である。図9(a)に示すように、ディスプレイ上に、対話に参加している参加者1、2・・・nと被験者との間で相互視が発生した時刻を表示する。また、それに関連する視野カメラ画像の記憶位置が表示され、マウス等によって記憶位置がクリックされると、視野カメラ画像が記憶装置100から読み出され、ディスプレイに動画として表示させることができる。
FIG. 9 is a display example of the mutual vision determination result. As shown to Fig.9 (a), the time when the mutual vision generate | occur | produced between the
また図9(b)に示すように、対話が行われ一定期間を対象に(図の例では、8月26日の午後2時から3時)、その間の被験者と各参加者との相互視発生頻度を提示するようにしてもよい。例えば、頻度の算出方法として、被験者が参加者の顔を見た回数をカウントしたり、あるいは被験者が参加者の顔を見ている時間を計測し、その割合を算出する。 In addition, as shown in FIG. 9B, a dialogue is performed and a subject is viewed for a certain period (in the example shown, from 2 to 3 pm on August 26). The occurrence frequency may be presented. For example, as a frequency calculation method, the number of times the subject has seen the participant's face is counted, or the time during which the subject has seen the participant's face is measured, and the ratio is calculated.
以上説明したように、本実施例の相互視分析装置によれば、対話に参加している代表の一名(被験者)がゴーグルを装着するだけで、他の参加者との間の相互視の発生の有無を分析することができるため、分析装置を低コストにすることができる。さらに、被験者の視野に対応する領域を視野カメラにより撮像するため、従来のように人物の移動に応じてカメラを移動させる必要はなく、視野カメラの撮像範囲内に参加者を容易に写し出すことができる。 As described above, according to the mutual vision analysis apparatus of the present embodiment, only one representative (subject) participating in the conversation wears goggles, so that mutual vision with other participants can be observed. Since the presence / absence of the occurrence can be analyzed, the analyzer can be reduced in cost. Furthermore, since the area corresponding to the visual field of the subject is imaged by the visual field camera, it is not necessary to move the camera according to the movement of the person as in the past, and the participant can be easily projected within the imaging range of the visual field camera. it can.
上記実施例では、視野カメラによる画像から参加者の顔領域を検出するようにしたが、必ずしもこれに限らず、顔領域を含む人物領域を検出するようにしてもよい。この場合、参加者の人物領域の全体の情報を用いて相互視を判定するようにしてもよい。さらに、顔領域よりも狭い目領域を精度良く検出し、相互視を判定するようにしてもよい。 In the above embodiment, the face area of the participant is detected from the image obtained by the visual field camera. However, the present invention is not limited to this, and a person area including the face area may be detected. In this case, the mutual vision may be determined using information on the entire person area of the participant. Furthermore, the eye area narrower than the face area may be detected with high accuracy to determine mutual vision.
以上、本発明の好ましい実施の形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims. Deformation / change is possible.
本発明に係る相互視分析装置、分析方法および分析プログラムは、対話中におけるコミュニケーション研究およびその支援に利用することができる。 The mutual vision analysis apparatus, analysis method, and analysis program according to the present invention can be used for communication research and support during dialogue.
10:ゴーグル 20:視野カメラ
30:眼球運動計測装置 40:データ処理装置
50:通信部 60:データメモリ
70:プログラムメモリ 80:ディスプレイ
90:入力インターフェース 100:記憶装置
110:中央処理装置 210:視野撮像部
220:眼球運動計測部 310:顔領域検出部
320:相互視判定部 330:相互視情報表示部
10: Goggles 20: Field camera 30: Eye movement measuring device 40: Data processing device 50: Communication unit 60: Data memory 70: Program memory 80: Display 90: Input interface 100: Storage device 110: Central processing unit 210: Field imaging Unit 220: Eye movement measurement unit 310: Face region detection unit 320: Interview determination unit 330: Interview information display unit
Claims (14)
被験者の視野に対応する領域を撮像する視野撮像手段と、
前記視野撮像手段によって撮像された画像から被験者以外の人物を表す人物領域を検出する検出手段と、
前記眼球運動検出手段により検出された眼球の動きおよび前記検出手段によって検出された人物領域に基づき相互視が発生したか否かを判定する相互視判定手段と、
を有する相互視分析装置。 Eye movement detection means for detecting the movement of the eyeball of the subject;
Visual field imaging means for imaging a region corresponding to the visual field of the subject;
Detecting means for detecting a person region representing a person other than the subject from the image captured by the visual field imaging means;
Mutual vision determination means for determining whether or not mutual vision has occurred based on the movement of the eyeball detected by the eye movement detection means and the person region detected by the detection means;
A mutual vision analyzer.
被験者の視野に対応する領域を撮像する視野撮像ステップと、
前記視野撮像手段によって撮像された画像から被験者以外の人物を表す人物領域を検出する検出ステップと、
前記眼球運動検出ステップにより検出された眼球の動きおよび前記検出ステップによって検出された人物領域に基づき相互視が発生したか否かを判定する相互視判定ステップと、
を有する相互視分析方法。 An eye movement detection step for detecting the movement of the eyeball of the subject;
A visual field imaging step of imaging a region corresponding to the visual field of the subject;
A detection step of detecting a person region representing a person other than the subject from the image captured by the visual field imaging means;
A mutual vision determination step of determining whether or not mutual vision has occurred based on the movement of the eyeball detected by the eyeball movement detection step and the person region detected by the detection step;
A mutual vision analysis method.
被験者の視野に対応する領域を撮像する視野撮像ステップと、
前記視野撮像手段によって撮像された画像から被験者以外の人物を表す人物領域を検出する検出ステップと、
前記眼球運動検出ステップにより検出された眼球の動きおよび前記検出ステップによって検出された人物領域に基づき相互視が発生したか否かを判定する相互視判定ステップと、
を有する相互視分析プログラム。 An eye movement detection step for detecting the movement of the eyeball of the subject;
A visual field imaging step of imaging a region corresponding to the visual field of the subject;
A detection step of detecting a person region representing a person other than the subject from the image captured by the visual field imaging means;
A mutual vision determination step of determining whether or not mutual vision has occurred based on the movement of the eyeball detected by the eyeball movement detection step and the person region detected by the detection step;
A mutual vision analysis program.
The mutual vision analysis program according to claim 13, wherein the mutual vision determination step determines whether or not the gaze direction calculated from the person region is directed toward the subject.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004262678A JP2006075348A (en) | 2004-09-09 | 2004-09-09 | Eye contact analyzing apparatus, eye contact analyzing method and eye contact analyzing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004262678A JP2006075348A (en) | 2004-09-09 | 2004-09-09 | Eye contact analyzing apparatus, eye contact analyzing method and eye contact analyzing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006075348A true JP2006075348A (en) | 2006-03-23 |
Family
ID=36155291
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004262678A Pending JP2006075348A (en) | 2004-09-09 | 2004-09-09 | Eye contact analyzing apparatus, eye contact analyzing method and eye contact analyzing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006075348A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007268164A (en) * | 2006-03-31 | 2007-10-18 | National Univ Corp Shizuoka Univ | Visual axis movement detecting method and apparatus |
JP2013101680A (en) * | 2007-07-06 | 2013-05-23 | Zero To One Technology | Method and system for electronically evaluating dialogue |
JP2020046767A (en) * | 2018-09-14 | 2020-03-26 | Kddi株式会社 | Output device and output method |
CN117156259A (en) * | 2023-10-30 | 2023-12-01 | 海信集团控股股份有限公司 | Video stream acquisition method and electronic equipment |
-
2004
- 2004-09-09 JP JP2004262678A patent/JP2006075348A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007268164A (en) * | 2006-03-31 | 2007-10-18 | National Univ Corp Shizuoka Univ | Visual axis movement detecting method and apparatus |
JP2013101680A (en) * | 2007-07-06 | 2013-05-23 | Zero To One Technology | Method and system for electronically evaluating dialogue |
US8861779B2 (en) | 2007-07-06 | 2014-10-14 | Zero To One Technology | Methods for electronically analysing a dialogue and corresponding systems |
JP2020046767A (en) * | 2018-09-14 | 2020-03-26 | Kddi株式会社 | Output device and output method |
CN117156259A (en) * | 2023-10-30 | 2023-12-01 | 海信集团控股股份有限公司 | Video stream acquisition method and electronic equipment |
CN117156259B (en) * | 2023-10-30 | 2024-03-22 | 海信集团控股股份有限公司 | Video stream acquisition method and electronic equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI768641B (en) | Monitoring method, electronic equipment and storage medium | |
US8371693B2 (en) | Autism diagnosis support apparatus | |
EP3453316B1 (en) | Eye tracking using eyeball center position | |
JP5167545B2 (en) | Viewpoint detection device | |
JP5415948B2 (en) | Gaze detection apparatus and gaze detection method | |
JP5858433B2 (en) | Gaze point detection method and gaze point detection device | |
EP3402384B1 (en) | Systems and methods for determining distance from an object | |
WO2015190204A1 (en) | Pupil detection system, gaze detection system, pupil detection method, and pupil detection program | |
US20060269124A1 (en) | Method and apparatus for aligning three-dimensional shape data | |
JPWO2018030515A1 (en) | Gaze detection device | |
WO2005063114A1 (en) | Sight-line detection method and device, and three- dimensional view-point measurement device | |
JP6631951B2 (en) | Eye gaze detection device and eye gaze detection method | |
JP7030317B2 (en) | Pupil detection device and pupil detection method | |
JP2007136000A (en) | Apparatus, method and program for measuring visual axis | |
TWI570638B (en) | Gaze analysis method and apparatus | |
JP2005198743A (en) | Three-dimensional view point measuring device | |
US11624907B2 (en) | Method and device for eye metric acquisition | |
US10402996B2 (en) | Distance measuring device for human body features and method thereof | |
JP5719216B2 (en) | Gaze measurement apparatus and gaze measurement program | |
US11281893B2 (en) | Method and device for modifying the affective visual information in the field of vision of an user | |
JP2006075348A (en) | Eye contact analyzing apparatus, eye contact analyzing method and eye contact analyzing program | |
JP2021018729A (en) | Personal identification apparatus, head-mounted display, content distribution server, and personal identification method | |
CN115331282A (en) | Intelligent vision testing system | |
JP2006204855A (en) | Device for detecting gaze motion | |
JP2017055233A (en) | Display device, display system, and control method of display device |