JP2006075348A - Eye contact analyzing apparatus, eye contact analyzing method and eye contact analyzing program - Google Patents

Eye contact analyzing apparatus, eye contact analyzing method and eye contact analyzing program Download PDF

Info

Publication number
JP2006075348A
JP2006075348A JP2004262678A JP2004262678A JP2006075348A JP 2006075348 A JP2006075348 A JP 2006075348A JP 2004262678 A JP2004262678 A JP 2004262678A JP 2004262678 A JP2004262678 A JP 2004262678A JP 2006075348 A JP2006075348 A JP 2006075348A
Authority
JP
Japan
Prior art keywords
subject
mutual
mutual vision
person
vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004262678A
Other languages
Japanese (ja)
Inventor
Katsura Sakai
桂 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2004262678A priority Critical patent/JP2006075348A/en
Publication of JP2006075348A publication Critical patent/JP2006075348A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an eye contact analyzing apparatus and its method which enable detection at a low cost and with high precision that an eye contact (eye contact) which is important as the information expressing the speaker's condition during conversation is occurred. <P>SOLUTION: The eye contact analyzing apparatus is equipped with an eyeball movement measuring part 210 for detecting the movement of the eyeballs of one representative (corresponding to a subject) of participants participating in the conversation, a visual field image pickup part 220 for picking up the image of the region corresponding to the visual field of the subject, a face region detecting part 310 for detecting the face region of the participant other than the subject from the image picked up at the visual field image pickup part 220, and an eye contact judging part 320 for judging whether or not the eye contact is occurred by judging whether the visual line is directed to the participant from the movement of the eyeballs detected by the eyeball movement detecting part 210 and the face region. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、対話等のコミュニケーションの際に視線を分析する装置に関し、特に、アイコンタクトと呼ばれる相互視を分析する相互視分析装置に関するものである。   The present invention relates to an apparatus for analyzing line of sight during communication such as dialogue, and more particularly to a mutual vision analysis apparatus for analyzing mutual vision called eye contact.

実際に人と会って話をした方が、電話などよりも想いが伝わると考えられている。それは相手の目を見て話ができるためである。相手と「目を合わせる」ということは、互いが了承したことを表すサインであり、コミュニケーションの際の重要な手段となっている。そのため、対話中の相互視を分析することは、コミュニケーション研究および支援装置開発において重要である。   It is thought that people who actually meet and talk with people can convey their thoughts rather than telephone calls. This is because you can talk with your eyes. “Looking at your eyes” with your partner is a sign that you have acknowledged each other and is an important means of communication. Therefore, analyzing the mutual vision during dialogue is important in communication research and support device development.

相互視を検出するための方法として、実際に対話を行っている人物全員の眼球運動を計測し、対話参加者の視線方向を計算することにより、相互の視線が交わっているかによって相互視を検出する方法や、頭部に設置されたレーザ光源とレーザ受信機を用いて他者の頭部から発せられた光を受信した際に相互視が行われたと判断する方法がある。   As a method of detecting mutual vision, by detecting the eye movements of all the people who are actually interacting and calculating the direction of the gaze of the participants, mutual vision is detected depending on whether the mutual eyes intersect And a method of determining that mutual observation has been performed when light emitted from the head of another person is received using a laser light source and a laser receiver installed on the head.

実際に眼球運動を計測する方法として、ゴーグル状の専用の眼球運動計測器を用いて計測を行う、もしくは人物の顔画像から画像処理を用いて眼球領域を抽出し、その眼球領域画像から眼球運動の計測を行う方法などがある。   As a method of actually measuring eye movement, measurement is performed using a dedicated goggle-shaped eye movement measuring instrument, or an eye area is extracted from a human face image using image processing, and eye movement is performed from the eye area image. There is a method of measuring.

例えば特許文献1は、視覚情報分析装置に関し、眼球位置を検出するために、赤外線を眼球にあて、その反射光を検出して眼球の位置データを測定している。   For example, Patent Document 1 relates to a visual information analysis apparatus, and in order to detect an eyeball position, infrared rays are applied to the eyeball, and the reflected light is detected to measure the eyeball position data.

特開昭60−126140号JP-A-60-126140

しかし、上述の相互視の検出を行う方法において、相互視を検出する精度という観点では、ゴーグル状の専用の眼球運動計測器を用い、対話を行っている人物の視線を計測することが望ましいが、眼球運動計測器を複数の人数分だけ用意する必要があり、コストの面で問題がある。また、ゴーグル状の計測器を着用することにより、参加者の自然な対話を妨げてしまうという問題がある。   However, in the above-described method for detecting mutual vision, from the viewpoint of accuracy of mutual vision detection, it is desirable to measure the line of sight of a person who is interacting using a dedicated goggle eye movement measuring instrument. Therefore, it is necessary to prepare eye movement measuring instruments for a plurality of persons, which is problematic in terms of cost. In addition, wearing a goggle-shaped measuring instrument hinders the participants' natural dialogue.

一方、人物の顔画像から眼球運動を計測する方法は、眼球運動計測器といった特殊な装置を必要としないため、眼球運動計測器を用いる方法と比較して安価に実現できるが、画像処理は外部の照明条件等の影響を受けやすく、眼球運動を計測するという精度の点で問題があり、相互視を検出する精度は高くない。また、人物の顔画像から眼球運動を計測する方法の場合、人物の移動にあわせ、適宜カメラを移動させて画像を撮像しないと、カメラの撮像範囲外に人物が移動してしまうため、安定してデータを得ることが難しい。   On the other hand, the method for measuring eye movement from a human face image does not require a special device such as an eye movement measuring instrument, and thus can be realized at a lower cost than the method using an eye movement measuring instrument. It is easy to be affected by the lighting conditions, and there is a problem in the accuracy of measuring eye movement, and the accuracy of detecting mutual vision is not high. In addition, in the method of measuring eye movements from a person's face image, the person moves outside the imaging range of the camera unless the camera is appropriately moved to capture the image as the person moves. It is difficult to obtain data.

安定してデータを得ることができるという点で、頭部に設置されたレーザ光源とレーザ受信機を用いて相互視を検出する方法は、実際に眼球運動を計測する場合と比較して優れている。しかし、実際に対話中に生じる相互視では、頭を動かさずに目だけを動かす場合もあり、その場合、頭の方角と視線の方向がずれているため相互視として判断されなくなってしまう。また逆に、目を合わせていなくても頭の向きだけがあってしまっていると相互視として判断されてしまうという問題がある。   The method of detecting mutual vision using a laser light source and laser receiver installed on the head is superior to the case of actually measuring eye movements in that data can be obtained stably. Yes. However, in the mutual vision actually generated during the dialogue, there are cases where only the eyes are moved without moving the head, and in this case, the direction of the head and the direction of the line of sight are deviated, so that it is not determined as mutual vision. On the other hand, there is a problem that even if the eyes are not aligned, if there is only the head direction, it will be judged as mutual vision.

本発明は上記課題を解決し、対話の際に話者の状態を表す情報として重要な相互視(アイコンタクト)が起きたことを、高精度でかつ安価に検出できる相互視分析装置およびその方法を提供する。   SUMMARY OF THE INVENTION The present invention solves the above-mentioned problems, and a mutual vision analysis apparatus and method capable of accurately and inexpensively detecting that important mutual vision (eye contact) has occurred as information representing the state of a speaker during dialogue. I will provide a.

上記課題を解決するために、本発明の相互視分析装置は、対話に参加する参加者の代表一名(被験者が該当する)の眼球の動きを検出する眼球運動検出手段、参加者代表の視野に対応する領域を撮像する視野撮像手段、視野撮像手段で撮像された画像から参加者代表以外の参加者の人物領域(好ましくは顔領域)を検出する検出手段、眼球運動検出手段より検出された眼球の動きおよび検出手段で検出された顔領域に基づき参加者へ視線が向けられているか判断し相互視が発生したか否かという判定を行う相互視判定部とを備えて構成される。   In order to solve the above problems, the mutual vision analyzer of the present invention is an eye movement detection means for detecting the movement of the eyeball of one representative participant (participating subject) participating in the dialogue, and the field of view of the participant representative. Visual field imaging means for imaging an area corresponding to the above, a detection means for detecting a person area (preferably a face area) of a participant other than the participant representative from an image captured by the visual field imaging means, and an eye movement detection means And a mutual vision determination unit that determines whether or not the line of sight is directed to the participant based on the movement of the eyeball and the face area detected by the detection means and determines whether or not mutual vision has occurred.

対話参加者の代表一名の被験者の眼球の動きを計測し、被験者の視野撮像手段で撮像された画像から他の参加者の顔領域を検出し、参加者へ視線が向けられているか否かを判断するため、従来手法のように、参加者の全員がゴーグル状の眼球運動計測器を着用して対話する必要はなく、安価な相互視分析装置を提供することができる。さらに、被験者の視野範囲内の画像を撮像して相互視を判定するため、従来の課題でもあった頭を動かさずに目だけを動かす場合であっても、その目線方向の視野画像が撮像されるため、精度良く相互視を判定することが可能となる。   Whether the participant's eye movement is measured by measuring the eyeball movement of one subject representative of the conversation participant, detecting the face area of other participants from the image captured by the subject's visual field imaging means, and whether the line of sight is directed at the participant Therefore, unlike the conventional method, it is not necessary for all of the participants to wear a goggle-like eye movement measuring device and interact with each other, and an inexpensive mutual vision analyzer can be provided. Furthermore, in order to determine mutual vision by capturing images within the visual field range of the subject, a visual field image in the direction of the line of sight is captured even when only the eyes are moved without moving the head, which was a conventional problem. Therefore, it is possible to determine the mutual vision with high accuracy.

また、人物の顔画像から眼球運動を計測する方法の課題であった、人物の移動に対して適宜カメラを移動させないといけないという課題に対しても、視野撮像手段の画像には相互視が行われる際には必ず相互視を行う相手が含まれるため、相互視が行われたことは確実に検出ができる。   In addition, the image of the field of view imaging means is also viewed from the viewpoint of the method of measuring the eye movement from the face image of the person and the problem that the camera has to be moved as the person moves. Since the other party that always performs mutual vision is always included in this case, the fact that mutual vision has been performed can be reliably detected.

好ましくは相互視判定手段は、眼球の動きから被験者の視線が人物領域に向けられているか否かを判定する。例えば、相互視判定手段は、人物領域上における被験者の視線方向の位置と人物領域の顔までの距離が一定値よりも大きいか否かを比較し、一定値よりも小さいとき相互視があったものと判定するようにしてもよい。あるいは相互視判定手段は、人物領域上における被験者の視線方向の位置と人物領域の目までの距離が一定値よりも大きいか否かを比較し、一定値よりも小さいとき相互視があったと判定するようにしてもよい。   Preferably, the mutual vision determination means determines whether or not the subject's line of sight is directed toward the person area from the movement of the eyeball. For example, the mutual vision determination means compares the position of the subject's line of sight on the person area and the distance to the face of the person area is larger than a certain value, and there was mutual vision when the distance is smaller than the certain value You may make it determine with a thing. Alternatively, the mutual vision determination means compares the position of the subject's gaze direction on the person area and the distance to the eyes of the person area is greater than a certain value, and determines that there was mutual vision when the distance is smaller than the certain value. You may make it do.

さらに好ましくは相互視判定手段は、人物領域に含まれる顔および目の位置情報から当該人物(対話参加者)の視線方向を算出し、当該人物の視線が被験者に向けられているか否かを判定する。この場合、相互視判定手段は、人物領域から算出された視線方向と被験者の視線方向とを比較し、その差分が一定値よりも小さいとき相互視があったものと判定するようにしてもよい。   More preferably, the mutual vision determination unit calculates the gaze direction of the person (participant) from the face and eye position information included in the person area, and determines whether or not the gaze of the person is directed toward the subject. To do. In this case, the mutual vision determination means may compare the line-of-sight direction calculated from the person area with the line-of-sight direction of the subject, and determine that there was mutual vision when the difference is smaller than a certain value. .

本発明に係る相互視分析方法は、被験者の眼球の動きを検出する眼球運動検出ステップと、被験者の視野に対応する領域を撮像する視野撮像ステップと、前記視野撮像手段によって撮像された画像から被験者以外の人物を表す人物領域を検出する検出ステップと、前記眼球運動検出ステップにより検出された眼球の動きおよび前記検出ステップによって検出された人物領域に基づき相互視が発生したか否かを判定する相互視判定ステップとを有する。   The mutual vision analysis method according to the present invention includes an eye movement detection step for detecting the movement of the eyeball of the subject, a visual field imaging step for imaging a region corresponding to the visual field of the subject, and an image captured by the visual field imaging means. A detection step for detecting a person region representing a person other than the above, a mutual determination for determining whether or not mutual vision has occurred based on the movement of the eyeball detected by the eye movement detection step and the person region detected by the detection step A visual determination step.

本発明に係る相互視分析プログラムは、被験者の眼球の動きを検出する眼球運動検出ステップと、被験者の視野に対応する領域を撮像する視野撮像ステップと、前記視野撮像手段によって撮像された画像から被験者以外の人物を表す人物領域を検出する検出ステップと、前記眼球運動検出ステップにより検出された眼球の動きおよび前記検出ステップによって検出された人物領域に基づき相互視が発生したか否かを判定する相互視判定ステップとを有する。   The mutual vision analysis program according to the present invention includes an eye movement detection step for detecting the movement of the eyeball of the subject, a visual field imaging step for imaging a region corresponding to the visual field of the subject, and an image captured by the visual field imaging means. A detection step for detecting a person region representing a person other than the above, a mutual determination for determining whether or not mutual vision has occurred based on the movement of the eyeball detected by the eye movement detection step and the person region detected by the detection step A visual determination step.

本発明によれば、被験者の眼球運動と被験者の視野撮像手段からの画像を用いて相互視を判定するようにしたので、低コストでありながら精度の高い相互視分析装置を提供することができる。   According to the present invention, since the mutual vision is determined using the eye movement of the subject and the image from the visual field imaging means of the subject, it is possible to provide a high-accuracy mutual vision analyzer that is low in cost. .

本発明の実施形態に係る相互視分析装置について図面を参照して説明する。本実施形態に係る分析装置は、対話の際に話者の状態を表す情報として重要な相互視が起きたことを検出できる分析装置である。相互視とは、双方の視線が互いに一致し、または一致したとみなせる状態であり、また、対話とは、一対一で会話が行われる状況のみならず、複数人が集う会議や一対多に対して発表を行うような状況も含む。さらに、対話とは、実際に対面で対話する場合のみならず、テレビ会議システム等を用いた遠隔地での対話も含む。さらに、装置とは、複数の装置からなるシステムをも含む概念と同義である。   A mutual vision analyzer according to an embodiment of the present invention will be described with reference to the drawings. The analysis apparatus according to the present embodiment is an analysis apparatus that can detect that important mutual vision has occurred as information representing the state of a speaker during a conversation. Mutual vision is a state in which both eyes agree with each other or can be regarded as coincident, and dialogue is not only a one-on-one situation, but also a meeting or a one-to-many meeting involving multiple people. Including situations where presentations are made. Furthermore, the dialogue includes not only actual face-to-face dialogue but also dialogue at a remote place using a video conference system or the like. Further, the device is synonymous with a concept including a system including a plurality of devices.

次に本実施例に係る相互視分析装置について説明する。図1は、本実施例に係る相互視分析装置に好適に用いられるゴーグルの外観形状を示し、図2は、ゴーグルからのデータを処理するためのデータ処理装置の構成例を示している。   Next, the mutual vision analyzer according to the present embodiment will be described. FIG. 1 shows an external shape of goggles preferably used in the mutual vision analyzer according to the present embodiment, and FIG. 2 shows a configuration example of a data processing device for processing data from the goggles.

ゴーグル10は対話に参加する参加者の代表者(以下、被験者という)によって装着され、被験者は、少なくとも1人の対話参加者と対話するものとする。ゴーグル10には、被験者の視野に対応する領域を撮像する視野カメラ20と、被験者の眼球運動を計測するための眼球運動計測装置(センサ)30とが取り付けられている。視野カメラ20は、好ましくはゴーグル10の略中央に取り付けられ、被験者の視野と同等の画角をもつCCDなどの撮像素子を用い、また、オートフォーカス機能を備えている。   The goggles 10 are worn by representatives of participants who participate in the dialogue (hereinafter referred to as subjects), and the subjects interact with at least one dialogue participant. The goggles 10 are attached with a field-of-view camera 20 that captures an area corresponding to the visual field of the subject and an eye movement measurement device (sensor) 30 for measuring the eye movement of the subject. The field-of-view camera 20 is preferably attached to the approximate center of the goggles 10, uses an image sensor such as a CCD having an angle of view equivalent to the field of view of the subject, and has an autofocus function.

眼球運動計測装置30は、例えば、被験者の角膜に赤外線を照射し、その反射光に基づき眼球の運動を検出する角膜反射光による方法、被験者に装着されたコンタクトレンズの動きを検出する方法、被験者の眼球の付近の筋肉の使用状況から眼球の運動を検知するEOG法、あるいは特許文献1に開示されるように角膜表面の白目と黒目の反射率の違いを利用する強膜反射法を用いることができる。   The eye movement measuring device 30 is, for example, a method using corneal reflection light that irradiates the subject's cornea with infrared rays and detects the movement of the eyeball based on the reflected light, a method that detects movement of a contact lens mounted on the subject, EOG method that detects the movement of the eyeball from the usage of muscles near the eyeball of the eyeball, or the scleral reflection method that utilizes the difference in reflectance between the white and black eyes of the cornea as disclosed in Patent Document 1 Can do.

ゴーグル10はさらに、視野カメラ20によって撮像された画像情報および眼球運動計測装置30により計測された眼球運動情報を、図示しない通信手段を介してデータ処理装置40へ送信できるようになっている。ゴーグル10とデータ処理装置40との通信は、被験者の行動を制限しないよう電波などを用いた無線によることが望ましい。   Further, the goggles 10 can transmit the image information captured by the visual field camera 20 and the eye movement information measured by the eye movement measuring device 30 to the data processing device 40 via a communication means (not shown). Communication between the goggles 10 and the data processing device 40 is preferably performed by radio using radio waves so as not to limit the behavior of the subject.

データ処理装置40は、図2に示すように、ゴーグル10の視野カメラ20および眼球運動計測装置30からの情報を受け取り、または視野カメラ20および眼球運動計測装置30への制御信号を送信する相互通信可能な無線通信ユニットを包含する通信部50と、ゴーグル10からのデータや演算処理データ等を一時記憶するデータメモリ60と、相互視分析用プログラム等を格納したプログラムメモリ70と、相互視分析結果を表示するディスプレイ80と、ユーザからの指示をマウスやキーボードなどの入力装置を介して受け取る入力インターフェース90と、大容量記憶スペースを有するハードディスクなどの記憶装置100と、プログラムメモリ70のプログラム等に従い各部を制御する中央処理装置(CPU)110とを備えている。   As shown in FIG. 2, the data processing device 40 receives information from the field camera 20 and the eye movement measuring device 30 of the goggles 10 or transmits a control signal to the field camera 20 and the eye movement measuring device 30. A communication unit 50 including a possible wireless communication unit, a data memory 60 for temporarily storing data from the goggles 10 and arithmetic processing data, a program memory 70 for storing a program for mutual analysis, and the result of mutual analysis According to a program stored in a program memory 70, a storage device 100 such as a hard disk having a large-capacity storage space, an input interface 90 that receives an instruction from a user via an input device such as a mouse or a keyboard, and the like. A central processing unit (CPU) 110 for controlling That.

本実施例の相互視分析装置は、被験者によって装着されるゴーグル10とデータ処理装置40の2つの装置またはシステムによって構成され、ゴーグル10の視野カメラ20および眼球運動計測装置30から送られてくる情報に基づきデータ処理装置40が対話参加者間の相互視の分析を行う。   The mutual vision analyzer according to the present embodiment is configured by two devices or systems, that is, a goggle 10 and a data processing device 40 worn by a subject, and information sent from the visual field camera 20 and the eye movement measuring device 30 of the goggle 10. Based on the above, the data processing device 40 analyzes the mutual view between the dialogue participants.

図3は、本実施例の相互視分析装置の機能的な構成を示すブロックである。同図に示すように、ゴーグル10側には、眼球運動計測部210と視野撮像部220とが含まれ、データ処理装置40側には、顔領域検出部310、相互視判定部320および相互視情報表示部330とが含まれている。   FIG. 3 is a block diagram illustrating a functional configuration of the mutual vision analyzer according to the present embodiment. As shown in the figure, an eye movement measurement unit 210 and a visual field imaging unit 220 are included on the goggles 10 side, and a face region detection unit 310, a mutual vision determination unit 320, and a mutual vision are included on the data processing device 40 side. An information display unit 330 is included.

眼球運動計測部210は、眼球運動計測装置30によって計測された被験者の眼球の運動情報を相互視判定部320へ出力する。視野撮像部220は、視野カメラ20によって撮像された画像情報を顔領域検出部310へ出力する。顔領域検出部310は、視野撮像部210からの画像情報を受信し、受信した画像情報から対話参加者の顔領域を検出する。顔領域の検出方法としては、画像中の肌色領域のうち、目と思われる2つの黒色領域と鼻腔と思われる2つの黒色領域とを検出し、これらの黒色領域が一定の割合の間隔と位置関係で含まれている肌色領域を顔と認識する方法を用いることができる。勿論、これ以外の画像処理技術を用いて顔領域を検出するようにしてもよい。   The eye movement measurement unit 210 outputs the eye movement information of the subject measured by the eye movement measurement device 30 to the mutual vision determination unit 320. The visual field imaging unit 220 outputs image information captured by the visual field camera 20 to the face area detection unit 310. The face area detection unit 310 receives the image information from the visual field imaging unit 210 and detects the face area of the dialog participant from the received image information. As a method for detecting a face area, two black areas that are likely to be eyes and two black areas that are likely to be nasal cavities are detected from the skin color areas in the image, and these black areas are spaced and positioned at a certain ratio. A method of recognizing a skin color area included in the relationship as a face can be used. Of course, the face area may be detected using other image processing techniques.

顔領域検出部310は、検出した顔領域の画像、顔の位置、および顔の大きさに関する情報を相互視判定部320へ出力する。その際、顔領域らしい領域が複数あった場合、その顔領域らしい領域全ての情報を相互視判定部320に出力する。また、顔領域検出部310において顔領域を検出することができない場合は、顔領域が検出できない旨の情報を相互視判定部320に出力する。   The face area detection unit 310 outputs information about the detected face area image, face position, and face size to the mutual vision determination unit 320. At this time, if there are a plurality of regions that are likely to be face regions, information on all the regions that are likely to be face regions is output to the mutual vision determination unit 320. If the face area cannot be detected by the face area detection unit 310, information indicating that the face area cannot be detected is output to the mutual vision determination unit 320.

相互視判定部320は、あらかじめ較正を行って得た被験者の眼球運動と視野カメラによる視野カメラ画像との位置関係に基づき、被験者の視線が視野カメラ画像のどの点を指し示しているかを判定し、それに基づき、被験者の視線が参加者の顔領域に向いているか否か等を判定する。   The mutual vision determination unit 320 determines which point of the visual field camera image the subject's line of sight indicates based on the positional relationship between the eye movement of the subject obtained by performing calibration in advance and the visual field camera image by the visual field camera. Based on this, it is determined whether or not the subject's line of sight faces the participant's face area.

図4は、被験者の眼球の動き(視線方向)と視野カメラ画像との較正を説明する図である。被験者は、最初にゴーグル10を装着したとき、視野カメラ20から一定の距離にあり、かつ一定のサイズを有する較正用の表示パネル、例えば看板の方向を向き、視野カメラ20の視野内に較正用パネルが適正に撮像されるようにする。このときの視野カメラ画像をSとし、視野カメラ画像Sの9つの較正点(A1〜A8は、画像Sの境界の等間隔な点、A9は画像Sの中心点)を被験者に目視させる。各較正点を見ているときの被験者の眼球の動きが眼球運動計測部210によって計測され、その計測値が初期設定値として登録される。これにより、被験者の眼球運動から被験者が視野カメラ画像上のどの位置を見ているのかを判定することができる。   FIG. 4 is a diagram for explaining calibration of the eyeball movement (gaze direction) of the subject and the visual field camera image. When the subject first wears the goggles 10, the test subject is at a certain distance from the field camera 20 and has a certain size, for example, faces a calibration display panel, for example, a signboard, and calibrates within the field of view of the field camera 20. Ensure that the panel is properly imaged. Let the visual field camera image at this time be S, and let the subject visually check nine calibration points of the visual field camera image S (A1 to A8 are equidistant points on the boundary of the image S, A9 is the center point of the image S). The eye movement of the subject when looking at each calibration point is measured by the eye movement measuring unit 210, and the measured value is registered as an initial set value. Thereby, it can be determined from the eye movement of the subject which position the subject is viewing on the visual field camera image.

相互視判定部320は、被験者により視線が向けられている顔領域が存在した場合、その顔領域の情報から参加者が視線カメラを装着している被験者の方向を向いているかの判定を行い、被験者の方向を向いている場合、相互視が行われたと判定する。   The mutual vision determination unit 320 determines whether the participant is facing the direction of the subject wearing the line-of-sight camera from the information on the face region when there is a face region to which the subject is directed by the subject, When facing the direction of the subject, it is determined that the mutual view has been performed.

視線を向けられている顔領域から、その顔領域が被験者の方向を向いているか否かの判定方法として、顔領域に含まれている目と思われる2つの黒色領域と鼻腔と思われる2つの黒色領域の合わせて4つの領域の重心と肌色領域全体の重心との位置関係により、どの方向を向いているか判定する方法などが用いることができる。   As a method for determining whether or not the face area is directed toward the subject from the face area to which the line of sight is directed, two black areas that are considered to be eyes included in the face area and two that are considered to be the nasal cavity For example, a method of determining which direction is directed based on the positional relationship between the center of gravity of the four regions and the center of gravity of the entire skin color region can be used.

相互視情報表示部330は、相互視判定部320によって相互視があったと判定された場合、相互視が判定された時刻および相互視が検出された時点での視野カメラ20で撮像された画像などの相互視情報をディスプエイ80に表示させる。あるいは、相互視情報を記憶した記憶装置100からその情報を読出し、これをディスプレイ80に表示させるようにしてもよい。   When the binocular vision determination unit 320 determines that the binocular vision has been viewed, the binocular vision information display unit 330 is a time when the binocular vision is determined, an image captured by the visual field camera 20 when the binocular vision is detected, and the like. Are displayed on the display 80. Alternatively, the information may be read from the storage device 100 storing the mutual vision information and displayed on the display 80.

次に、相互視分析の処理の流れを図5のフローチャートを参照して説明する。この動作は、プログラムメモリ70に含まれる相互視分析用プログラムに従うものである。先ず、ゴーグル10を装着した被験者の眼球運動の較正を行う(ステップS101)。眼球運動の較正は、前述した図4に示すような初期設定を含むものである。これにより、ゴーグルの装着に起因する被験者毎のバラツキを解消させ、相互視の判定精度の低下を防止する。   Next, the flow of the mutual analysis process will be described with reference to the flowchart of FIG. This operation follows the mutual vision analysis program included in the program memory 70. First, the eye movement of the subject wearing the goggles 10 is calibrated (step S101). The calibration of the eye movement includes an initial setting as shown in FIG. Thereby, the variation for every test subject resulting from wearing of goggles is eliminated, and deterioration in the accuracy of mutual vision determination is prevented.

次に、被験者を含む参加者との間で対話が開始され、眼球運動計測部210から被験者の眼球運動情報が相互視判定部320へ出力され、かつ、視野撮像部220から視野カメラ画像が顔領域検出部310へ出力される(ステップS102)。   Next, a dialogue is started with the participants including the subject, the eye movement information of the subject is output from the eye movement measurement unit 210 to the mutual vision determination unit 320, and the field camera image is displayed from the field imaging unit 220 as a face. The data is output to the area detection unit 310 (step S102).

顔領域検出部310は、視野カメラ画像から、対話に参加している参加者の顔領域を検出する(ステップS103)。顔領域が検出されたとき、顔領域検出部310は、検出し顔領域の位置および大きさに加えて、顔に含まれる2つの目の位置の情報を相互判定部320へ出力する。   The face area detection unit 310 detects the face area of the participant participating in the dialogue from the view camera image (step S103). When the face area is detected, the face area detection unit 310 outputs information on the position of the second eye included in the face to the mutual determination unit 320 in addition to the detected position and size of the face area.

相互視判定部320は、顔領域検出部からの情報に基づき、被験者の視線が顔領域に向けられているか否かを判定する(ステップS104)。例えば、図6に示すように、視野カメラ画像Sにおいて参加者の顔領域Fが検出されたとき、視野カメラ画像Sにおける被験者の視線位置と顔領域Fとを比較する。視野カメラ画像における視線位置は、前述したように被験者の眼球運動から一義的に決定される。例えば、被験者の視線位置P1が顔領域F内にあるとき、被験者の視線が参加者の顔に向けられていると判定する。一方、被験者の視線位置P2が顔領域Fから一定距離以上離れている場合には、被験者の視線が参加者の顔に向けられていないと判定する。この判定基準は一例であって、これ以外にも、被験者の視線位置と顔領域Fに含まれる目領域との距離を比較し、この値が一定値以下であれば、被験者の視線が参加者の顔に向けられていると判定するようにしてもよい。   The mutual vision determination unit 320 determines whether or not the subject's line of sight is directed to the face region based on information from the face region detection unit (step S104). For example, as shown in FIG. 6, when the face area F of the participant is detected in the visual field camera image S, the gaze position of the subject in the visual field camera image S is compared with the face area F. The line-of-sight position in the visual field camera image is uniquely determined from the eye movement of the subject as described above. For example, when the subject's line-of-sight position P1 is within the face region F, it is determined that the subject's line of sight is directed toward the participant's face. On the other hand, when the subject's line-of-sight position P2 is away from the face region F by a certain distance or more, it is determined that the subject's line of sight is not directed toward the participant's face. This criterion is an example. In addition, the distance between the subject's line-of-sight position and the eye area included in the face area F is compared. It may be determined that it is directed to the face.

被験者の視線が参加者の顔に向けられていると判定されると、次に、顔領域の画像に基づき参加者の視線方向が算出される(ステップS105)。例えば、図7に示すように、顔領域Fの画像に含まれる目を示す2つの黒色領域Eと、鼻腔と思われる2つの黒色領域Nの合わせて4つの領域の重心と顔領域全体の重心との位置関係により、参加者の視線方向Qを判定する。   If it is determined that the subject's line of sight is directed toward the participant's face, the participant's line-of-sight direction is then calculated based on the face region image (step S105). For example, as shown in FIG. 7, the centroid of the four areas including the two black areas E indicating the eyes included in the image of the face area F and the two black areas N that are considered to be the nasal cavity, and the centroid of the entire face area The participant's line-of-sight direction Q is determined based on the positional relationship.

次に、相互視判定部320は、算出された視線方向Qにより参加者が被験者の方を向いているか否かを判定する(ステップS106)。被験者の視線方向は、視野カメラ画像の視線位置との関係から容易に算出できるので、例えば、相互視判定部320は、参加者の視線方向と被験者の視線方向とを比較し、両者の差分が一定値以内であれば、参加者の視線が被験者に向けられていると判定する。   Next, the mutual vision determination unit 320 determines whether the participant is facing the subject based on the calculated gaze direction Q (step S106). Since the gaze direction of the subject can be easily calculated from the relationship with the gaze position of the visual field camera image, for example, the mutual vision determination unit 320 compares the gaze direction of the participant with the gaze direction of the subject, and the difference between the two is determined. If it is within a certain value, it is determined that the participant's line of sight is directed toward the subject.

相互視判定部320は、被験者と参加者との相互視があったと判定すると、その発生時刻を記憶装置100へ記録する(ステップS107)。その時刻と関連付けして、視野カメラ画像を記憶装置100へ記録することもできる。   When the mutual vision determination unit 320 determines that there is mutual vision between the subject and the participant, the generation time is recorded in the storage device 100 (step S107). The visual field camera image can also be recorded in the storage device 100 in association with the time.

被験者もしくは参加者から対話終了の指示が入力インターフェース90を介して成されると、相互視分析動作が終了する(ステップS108)。相互視判定部320の判定結果に関する情報は、リアルタイムで相互視情報表示部330によりディスプレイに表示され、あるいは、記憶装置100に一旦記憶された後にディスプレイに表示される。   When an instruction to end the dialogue is given from the subject or participant through the input interface 90, the mutual vision analysis operation ends (step S108). Information regarding the determination result of the mutual vision determination unit 320 is displayed on the display by the mutual vision information display unit 330 in real time, or once stored in the storage device 100 and then displayed on the display.

次に、本発明の第2の実施例について説明する。図8は、被験者が複数の参加者と対話したときの相互視分析を行う好適なフローチャートである。第2の実施例では、複数の対話参加者の識別を行うため、予め参加者を識別できるように各参加者の顔画像を記憶装置100に記憶しておく。第1の実施例のときと同様に視野カメラ画像内に顔領域が検出されると(ステップS203)、相互視判定部320は、検出された顔領域から参加者Xの識別を行う(ステップS204)。識別は、例えば、記憶装置100に記憶された各参加者の顔情報とマッチング処理し、その中から相似度が最も高い参加者を参加者Xとして識別する。複数の顔領域が検出された場合には、それぞれの参加者の識別が行われる。   Next, a second embodiment of the present invention will be described. FIG. 8 is a preferred flowchart for performing a mutual analysis when a subject interacts with a plurality of participants. In the second embodiment, in order to identify a plurality of dialogue participants, face images of each participant are stored in the storage device 100 in advance so that the participants can be identified. When a face area is detected in the field-of-view camera image as in the first embodiment (step S203), the mutual vision determination unit 320 identifies the participant X from the detected face area (step S204). ). The identification is performed by matching the face information of each participant stored in the storage device 100, for example, and the participant having the highest similarity is identified as the participant X. When a plurality of face areas are detected, each participant is identified.

以後のステップは、第1の実施例と同様に行われ、複数の参加者と相互視があったと判定されたとき、相互視のあった時刻および視野カメラ画像の格納位置などの情報は、識別された参加者のファイルに関連付けして記録される(ステップS208)。   The subsequent steps are performed in the same manner as in the first embodiment, and when it is determined that there has been mutual vision with a plurality of participants, information such as the time of mutual vision and the storage position of the visual field camera image is identified. It is recorded in association with the file of the participant who has been recorded (step S208).

図9は、相互視判定結果の表示例である。図9(a)に示すように、ディスプレイ上に、対話に参加している参加者1、2・・・nと被験者との間で相互視が発生した時刻を表示する。また、それに関連する視野カメラ画像の記憶位置が表示され、マウス等によって記憶位置がクリックされると、視野カメラ画像が記憶装置100から読み出され、ディスプレイに動画として表示させることができる。   FIG. 9 is a display example of the mutual vision determination result. As shown to Fig.9 (a), the time when the mutual vision generate | occur | produced between the participant 1,2, ... n and the test subject who are participating in the dialogue is displayed on the display. Further, when the storage position of the field camera image related thereto is displayed and the storage position is clicked with a mouse or the like, the field camera image can be read from the storage device 100 and displayed as a moving image on the display.

また図9(b)に示すように、対話が行われ一定期間を対象に(図の例では、8月26日の午後2時から3時)、その間の被験者と各参加者との相互視発生頻度を提示するようにしてもよい。例えば、頻度の算出方法として、被験者が参加者の顔を見た回数をカウントしたり、あるいは被験者が参加者の顔を見ている時間を計測し、その割合を算出する。   In addition, as shown in FIG. 9B, a dialogue is performed and a subject is viewed for a certain period (in the example shown, from 2 to 3 pm on August 26). The occurrence frequency may be presented. For example, as a frequency calculation method, the number of times the subject has seen the participant's face is counted, or the time during which the subject has seen the participant's face is measured, and the ratio is calculated.

以上説明したように、本実施例の相互視分析装置によれば、対話に参加している代表の一名(被験者)がゴーグルを装着するだけで、他の参加者との間の相互視の発生の有無を分析することができるため、分析装置を低コストにすることができる。さらに、被験者の視野に対応する領域を視野カメラにより撮像するため、従来のように人物の移動に応じてカメラを移動させる必要はなく、視野カメラの撮像範囲内に参加者を容易に写し出すことができる。   As described above, according to the mutual vision analysis apparatus of the present embodiment, only one representative (subject) participating in the conversation wears goggles, so that mutual vision with other participants can be observed. Since the presence / absence of the occurrence can be analyzed, the analyzer can be reduced in cost. Furthermore, since the area corresponding to the visual field of the subject is imaged by the visual field camera, it is not necessary to move the camera according to the movement of the person as in the past, and the participant can be easily projected within the imaging range of the visual field camera. it can.

上記実施例では、視野カメラによる画像から参加者の顔領域を検出するようにしたが、必ずしもこれに限らず、顔領域を含む人物領域を検出するようにしてもよい。この場合、参加者の人物領域の全体の情報を用いて相互視を判定するようにしてもよい。さらに、顔領域よりも狭い目領域を精度良く検出し、相互視を判定するようにしてもよい。   In the above embodiment, the face area of the participant is detected from the image obtained by the visual field camera. However, the present invention is not limited to this, and a person area including the face area may be detected. In this case, the mutual vision may be determined using information on the entire person area of the participant. Furthermore, the eye area narrower than the face area may be detected with high accuracy to determine mutual vision.

以上、本発明の好ましい実施の形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims. Deformation / change is possible.

本発明に係る相互視分析装置、分析方法および分析プログラムは、対話中におけるコミュニケーション研究およびその支援に利用することができる。   The mutual vision analysis apparatus, analysis method, and analysis program according to the present invention can be used for communication research and support during dialogue.

本実施例に係る相互視分析装置に用いられるゴーグルの外観形状を示す斜視図である。It is a perspective view which shows the external shape of the goggles used for the mutual vision analyzer which concerns on a present Example. 本実施例に係る相互視分析装置に用いられるデータ処理装置の構成例を示す図である。It is a figure which shows the structural example of the data processor used for the mutual vision analyzer which concerns on a present Example. 本実施例に係る相互視分析装置の機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of the mutual vision analyzer which concerns on a present Example. 被験者の視線方向と視野カメラ画像との較正を説明する図である。It is a figure explaining calibration with a test subject's eyes | visual_axis direction and a visual field camera image. 相互視分析の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of a mutual vision analysis. 被験者の視線が参加者の顔に向けられているか否かを説明する図である。It is a figure explaining whether a test subject's eyes | visual_axis is orient | assigned to the participant's face. 参加者の視線が被験者に向けられているか否かを説明する図である。It is a figure explaining whether a participant's eyes | visual_axis is orient | assigned to the test subject. 第2の実施例の相互視分析の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the mutual vision analysis of 2nd Example. 相互視判定結果の表示例である。It is an example of a display of a mutual vision determination result.

符号の説明Explanation of symbols

10:ゴーグル 20:視野カメラ
30:眼球運動計測装置 40:データ処理装置
50:通信部 60:データメモリ
70:プログラムメモリ 80:ディスプレイ
90:入力インターフェース 100:記憶装置
110:中央処理装置 210:視野撮像部
220:眼球運動計測部 310:顔領域検出部
320:相互視判定部 330:相互視情報表示部
10: Goggles 20: Field camera 30: Eye movement measuring device 40: Data processing device 50: Communication unit 60: Data memory 70: Program memory 80: Display 90: Input interface 100: Storage device 110: Central processing unit 210: Field imaging Unit 220: Eye movement measurement unit 310: Face region detection unit 320: Interview determination unit 330: Interview information display unit

Claims (14)

被験者の眼球の動きを検出する眼球運動検出手段と、
被験者の視野に対応する領域を撮像する視野撮像手段と、
前記視野撮像手段によって撮像された画像から被験者以外の人物を表す人物領域を検出する検出手段と、
前記眼球運動検出手段により検出された眼球の動きおよび前記検出手段によって検出された人物領域に基づき相互視が発生したか否かを判定する相互視判定手段と、
を有する相互視分析装置。
Eye movement detection means for detecting the movement of the eyeball of the subject;
Visual field imaging means for imaging a region corresponding to the visual field of the subject;
Detecting means for detecting a person region representing a person other than the subject from the image captured by the visual field imaging means;
Mutual vision determination means for determining whether or not mutual vision has occurred based on the movement of the eyeball detected by the eye movement detection means and the person region detected by the detection means;
A mutual vision analyzer.
相互視判定手段は、眼球の動きから被験者の視線が人物領域に向けられているか否かを判定する、請求項1に記載の相互視分析装置。 The mutual vision analysis device according to claim 1, wherein the mutual vision determination unit determines whether or not the subject's line of sight is directed toward the person region from the movement of the eyeball. 前記人物領域は、顔領域または目領域である、請求項2に記載の相互視分析装置。 The mutual vision analyzer according to claim 2, wherein the person area is a face area or an eye area. 相互視判定手段は、人物領域上における被験者の視線方向の位置と人物領域の顔までの距離が一定値よりも大きいか否かを比較し、一定値よりも小さいとき相互視があったものと判定する、請求項1ないし3いずれか1つに記載の相互視分析装置。 The mutual vision determination means compares the position of the subject's line of sight on the person area and the distance to the face of the person area is greater than a certain value, and if there is a mutual vision when the distance is smaller than the certain value, The mutual vision analyzer according to any one of claims 1 to 3, wherein the determination is performed. 相互視判定手段は、人物領域上における被験者の視線方向の位置と人物領域の目までの距離が一定値よりも大きいか否かを比較し、一定値よりも小さいとき相互視があったと判定する、請求項2に記載の相互視分析装置。 The mutual vision determination means compares the position of the subject's gaze direction on the person area with the distance to the eyes of the person area, and determines that there was mutual vision when the distance is smaller than the certain value. The mutual vision analyzer according to claim 2. 相互視判定手段は、人物領域に含まれる目の位置情報から当該人物の視線方向を算出し、当該人物の視線が被験者に向けられているか否かを判定する、請求項1に記載の相互視分析装置。 The mutual vision according to claim 1, wherein the mutual vision determination means calculates the gaze direction of the person from the position information of the eyes included in the person region, and determines whether or not the gaze of the person is directed toward the subject. Analysis equipment. 相互視判定手段は、人物領域に含まれる目および鼻腔の位置情報から当該人物の視線方向を算出する、請求項6に記載の相互視分析装置。 The mutual vision analysis device according to claim 6, wherein the mutual vision determination unit calculates a gaze direction of the person from position information of eyes and nasal cavity included in the person region. 相互視判定手段は、当該人物の視線方向と被験者の視線方向とを比較し、その差分が一定値よりも小さいとき相互視があったものと判定する、請求項1ないし7いずれか1つに記載の相互視分析装置。 The mutual vision determination means compares the gaze direction of the person and the gaze direction of the subject, and determines that there was mutual vision when the difference is smaller than a certain value. The mutual vision analyzer described. 相互視分析装置はさらに、相互視判定手段による判定結果を表示する表示手段を含む、請求項1に記載の相互視分析装置。 The mutual vision analysis apparatus according to claim 1, further comprising a display unit that displays a determination result by the mutual vision determination unit. 請求項1ないし9いずれか1つに記載の相互視分析装置を包含する相互視分析システム。 A mutual vision analysis system including the mutual vision analysis apparatus according to claim 1. 被験者の眼球の動きを検出する眼球運動検出ステップと、
被験者の視野に対応する領域を撮像する視野撮像ステップと、
前記視野撮像手段によって撮像された画像から被験者以外の人物を表す人物領域を検出する検出ステップと、
前記眼球運動検出ステップにより検出された眼球の動きおよび前記検出ステップによって検出された人物領域に基づき相互視が発生したか否かを判定する相互視判定ステップと、
を有する相互視分析方法。
An eye movement detection step for detecting the movement of the eyeball of the subject;
A visual field imaging step of imaging a region corresponding to the visual field of the subject;
A detection step of detecting a person region representing a person other than the subject from the image captured by the visual field imaging means;
A mutual vision determination step of determining whether or not mutual vision has occurred based on the movement of the eyeball detected by the eyeball movement detection step and the person region detected by the detection step;
A mutual vision analysis method.
相互視判定ステップは、人物領域から算出される視線方向が被験者に向けられているか否かを判定する、請求項11に記載の相互視分析装置。 The mutual vision analysis device according to claim 11, wherein the mutual vision determination step determines whether or not the gaze direction calculated from the person region is directed toward the subject. 被験者の眼球の動きを検出する眼球運動検出ステップと、
被験者の視野に対応する領域を撮像する視野撮像ステップと、
前記視野撮像手段によって撮像された画像から被験者以外の人物を表す人物領域を検出する検出ステップと、
前記眼球運動検出ステップにより検出された眼球の動きおよび前記検出ステップによって検出された人物領域に基づき相互視が発生したか否かを判定する相互視判定ステップと、
を有する相互視分析プログラム。
An eye movement detection step for detecting the movement of the eyeball of the subject;
A visual field imaging step of imaging a region corresponding to the visual field of the subject;
A detection step of detecting a person region representing a person other than the subject from the image captured by the visual field imaging means;
A mutual vision determination step of determining whether or not mutual vision has occurred based on the movement of the eyeball detected by the eyeball movement detection step and the person region detected by the detection step;
A mutual vision analysis program.
相互視判定ステップは、人物領域から算出される視線方向が被験者に向けられているか否かを判定する、請求項13に記載の相互視分析プログラム。
The mutual vision analysis program according to claim 13, wherein the mutual vision determination step determines whether or not the gaze direction calculated from the person region is directed toward the subject.
JP2004262678A 2004-09-09 2004-09-09 Eye contact analyzing apparatus, eye contact analyzing method and eye contact analyzing program Pending JP2006075348A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004262678A JP2006075348A (en) 2004-09-09 2004-09-09 Eye contact analyzing apparatus, eye contact analyzing method and eye contact analyzing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004262678A JP2006075348A (en) 2004-09-09 2004-09-09 Eye contact analyzing apparatus, eye contact analyzing method and eye contact analyzing program

Publications (1)

Publication Number Publication Date
JP2006075348A true JP2006075348A (en) 2006-03-23

Family

ID=36155291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004262678A Pending JP2006075348A (en) 2004-09-09 2004-09-09 Eye contact analyzing apparatus, eye contact analyzing method and eye contact analyzing program

Country Status (1)

Country Link
JP (1) JP2006075348A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007268164A (en) * 2006-03-31 2007-10-18 National Univ Corp Shizuoka Univ Visual axis movement detecting method and apparatus
JP2013101680A (en) * 2007-07-06 2013-05-23 Zero To One Technology Method and system for electronically evaluating dialogue
JP2020046767A (en) * 2018-09-14 2020-03-26 Kddi株式会社 Output device and output method
CN117156259A (en) * 2023-10-30 2023-12-01 海信集团控股股份有限公司 Video stream acquisition method and electronic equipment

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007268164A (en) * 2006-03-31 2007-10-18 National Univ Corp Shizuoka Univ Visual axis movement detecting method and apparatus
JP2013101680A (en) * 2007-07-06 2013-05-23 Zero To One Technology Method and system for electronically evaluating dialogue
US8861779B2 (en) 2007-07-06 2014-10-14 Zero To One Technology Methods for electronically analysing a dialogue and corresponding systems
JP2020046767A (en) * 2018-09-14 2020-03-26 Kddi株式会社 Output device and output method
CN117156259A (en) * 2023-10-30 2023-12-01 海信集团控股股份有限公司 Video stream acquisition method and electronic equipment
CN117156259B (en) * 2023-10-30 2024-03-22 海信集团控股股份有限公司 Video stream acquisition method and electronic equipment

Similar Documents

Publication Publication Date Title
TWI768641B (en) Monitoring method, electronic equipment and storage medium
US8371693B2 (en) Autism diagnosis support apparatus
EP3453316B1 (en) Eye tracking using eyeball center position
JP5167545B2 (en) Viewpoint detection device
JP5415948B2 (en) Gaze detection apparatus and gaze detection method
JP5858433B2 (en) Gaze point detection method and gaze point detection device
EP3402384B1 (en) Systems and methods for determining distance from an object
WO2015190204A1 (en) Pupil detection system, gaze detection system, pupil detection method, and pupil detection program
US20060269124A1 (en) Method and apparatus for aligning three-dimensional shape data
JPWO2018030515A1 (en) Gaze detection device
WO2005063114A1 (en) Sight-line detection method and device, and three- dimensional view-point measurement device
JP6631951B2 (en) Eye gaze detection device and eye gaze detection method
JP7030317B2 (en) Pupil detection device and pupil detection method
JP2007136000A (en) Apparatus, method and program for measuring visual axis
TWI570638B (en) Gaze analysis method and apparatus
JP2005198743A (en) Three-dimensional view point measuring device
US11624907B2 (en) Method and device for eye metric acquisition
US10402996B2 (en) Distance measuring device for human body features and method thereof
JP5719216B2 (en) Gaze measurement apparatus and gaze measurement program
US11281893B2 (en) Method and device for modifying the affective visual information in the field of vision of an user
JP2006075348A (en) Eye contact analyzing apparatus, eye contact analyzing method and eye contact analyzing program
JP2021018729A (en) Personal identification apparatus, head-mounted display, content distribution server, and personal identification method
CN115331282A (en) Intelligent vision testing system
JP2006204855A (en) Device for detecting gaze motion
JP2017055233A (en) Display device, display system, and control method of display device