WO2012137801A1 - 入力装置及び入力方法並びにコンピュータプログラム - Google Patents
入力装置及び入力方法並びにコンピュータプログラム Download PDFInfo
- Publication number
- WO2012137801A1 WO2012137801A1 PCT/JP2012/059155 JP2012059155W WO2012137801A1 WO 2012137801 A1 WO2012137801 A1 WO 2012137801A1 JP 2012059155 W JP2012059155 W JP 2012059155W WO 2012137801 A1 WO2012137801 A1 WO 2012137801A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- visual line
- user
- eye
- line position
- sight
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Definitions
- the present invention relates to an input device, an input method, and a computer program, and in particular, an input device and an input that analyze a user's line of sight and can perform an operation corresponding to a mouse click without depending on a manual operation.
- the present invention relates to a method and a computer program.
- a special input device is not required.
- a touch panel or a key is provided on a mobile terminal device such as a smartphone. It is necessary to provide a separate input means.
- these input means are used as a display device having a goggle (glasses) shape, for example, the comfort obtained by not using a hand is lost.
- a gaze detection method a corneal reflection method, a scleral reflection method, a fistula detection method, and the like are mainly known. Of these, many of the proposed gaze detection methods use the corneal reflection method. Yes.
- the corneal reflection method is a method of irradiating the cornea with near-infrared light and calculating the line of sight from the center of curvature of the cornea and the line-of-sight vector.
- FIG. 5 is an explanatory diagram showing a general corneal reflection method for detecting a line of sight.
- FIG. 5 shows the relationship between the eyeball Eb, the pupil Pu, the line-of-sight direction SL, and the camera Ca.
- the center of curvature of the cornea is obtained from the position of the reflected image when irradiated with near infrared light called the Purkinje image Ip, and the line-of-sight vector is obtained from the Purkinje image Ip and the fistula center position O.
- the corneal reflection method irradiates near-infrared light to the eyeball as described above, there is a concern about the influence on the eyeball Eb such as burning of the retina when used for a long time.
- an elliptic parameter method is known as another method for obtaining the rotation angle of the fistula.
- FIG. 6 is an explanatory view showing a general elliptic parameter method for obtaining the rotation angle of the fistula.
- the ellipse parameter method is a method of recognizing a fistula as an ellipse by image recognition and obtaining a rotation angle of the fistula from the major axis a, the minor axis b, and the major axis rotation angle q. is there.
- FIG. 7 is an explanatory diagram showing the principle of gaze direction detection by the ellipse parameter method. The shape of the fistula photographed with the camera Ca is regarded as an ellipse using the image recognition means.
- the surface of the eyeball is S
- the center of the eyeball is (x 0 , y 0 )
- the eyeball radius is r 0
- the horizontal rotation angle ⁇ of the eyeball from the center (x, y) of the fistula (pupil) is expressed by equation (1).
- the rotation angle ⁇ in the vertical direction can be obtained from equation (2).
- the coordinate position on the image display surface is calculated from the angle of the line-of-sight direction calculated by the equations (1) and (2).
- this elliptic parameter method does not use near infrared light, and therefore there is no influence on the eyeball by near infrared light.
- this ellipse parameter method can clearly determine the rotation angle of the major axis when the ellipse has a shape close to a circle, that is, when the angle of the line of sight is shallow with respect to the normal from the camera to the eyeball.
- accuracy is lowered.
- a finger indicating the direction does not deviate from the angle of view, the pointing direction and the operation can be detected correctly, and it can be applied to a display that displays different directions.
- An input image processing apparatus capable of recognizing a pointed object is described. Specifically, a half mirror, an imaging unit that captures an image reflected by the half mirror, a pointing position detection unit that detects a pointing position, a pointing object recognition unit that recognizes an object at the detected position, An object information storage unit that stores object information, an object information search unit that searches for object information stored in the object information storage unit, and a display that displays search results of the object information search unit are provided. .
- Patent Document 2 describes a line-of-sight detection apparatus that can sufficiently cope with recalibration performed when line-of-sight input becomes difficult with simple calibration. Specifically, when a recalibration instruction is received, calibration is performed at any one of a plurality of standard points whose positions are known, resulting from the movement of the head with the eyeball to be detected. A deviation correction unit 2 ⁇ / b> C is provided that calculates an error and corrects a position shift of the line-of-sight detection result based on the calculated error. As a result, by simply recalibrating any one of the plurality of standard points, a correlation coefficient having an appropriate value according to the current state can be obtained again to correct the positional deviation of the line-of-sight detection result. Therefore, it is possible to perform recalibration in a shorter time than in the past, and to provide a user with a comfortable operability.
- Patent Document 3 a high image compression rate can be realized and the transmission load on the communication path can be reduced without degrading the image quality of the viewer regardless of whether the image is a still image or a moving image.
- An image compression communication apparatus capable of transmitting image information to a large number of terminals is described. Specifically, the line of sight of the observer observing the screen display unit is tracked, and based on the line of sight data, the image data of the central visual field in the vicinity of the line of sight of the observer is moved away from the line of sight of the observer with a low compression rate. Data compression processing is performed on the image data so that the peripheral visual field has a higher compression rate.
- the corneal reflection method which has been widely used as a visual line detection method, irradiates the cornea with near-infrared light and determines the center of curvature of the cornea. Since it is a method of calculating the line of sight from the line-of-sight vector, there is a problem that when it is used for a long time, the influence on the eyeball such as burning of the retina is concerned.
- Patent Document 1 detects the direction indicated by the user's finger to determine the pointing position, and recognizes the object at the detected position. Do not use the user's finger.
- Patent Document 2 simplifies the recalibration performed when the line-of-sight input becomes difficult, and has no direct relationship with the method of the present invention.
- Patent Document 3 converts image data in the central visual field near the user's line of sight to a low compression rate, and image data so that the peripheral visual field far from the observer's line of sight has a higher compression rate.
- the method of the present invention weights the detected line-of-sight position for each quadrant on the display screen set in advance. Does not perform data compression processing at least for this purpose.
- the present invention (1) In the input device, using the image data of each of the left-eye and right-eye cameras, the line-of-sight position on the display device of the user is obtained, and a display screen preset to the line-of-sight position (coordinates) The user's gaze center position is determined by weighting corresponding to the upper quadrant. (In this method, each gaze position information from the left eye and the right eye is weighted empirically, so the accuracy is accurate. High gaze position can be determined) (2) In the input device, realize the same function as the mouse click operation by the movement of the left eye and the right eye (eg: Close the left eyelid corresponds to the left click operation, and close the right eyelid to the right click operation) Response) Is the main point.
- the present invention has been made in view of the above-described conventional problems, and for each of the line-of-sight detection positions (coordinate values) based on the shooting data of the two cameras for the left eye and for the right eye, respectively. It is an object of the present invention to provide an input device that can perform weighting based on proven accuracy according to the eye gaze detection position and determine a gaze position with high accuracy.
- an input device divides a display screen area of a display device into a plurality of quadrants, and each of the plurality of quadrants has a right eye gaze position and a left eye gaze. It is obtained by photographing with a weighting unit that assigns a weight value indicating accuracy corresponding to each position in advance and a right-eye camera (CR) arranged to detect the gaze position of the user's right eye.
- a weighting unit that assigns a weight value indicating accuracy corresponding to each position in advance and a right-eye camera (CR) arranged to detect the gaze position of the user's right eye.
- CR right-eye camera
- a right visual line position detection unit for detecting the right visual line position of the user on the display screen of the display device based on the captured image data and indicating the position by coordinates; and the right visual line position corresponding to the detected right visual line position
- a right visual line position determination unit that adds a weight indicating accuracy to the coordinate value of the right visual line position to determine the coordinate value of the right visual line determination position, and is arranged to detect the visual line position of the user's left eye Taken with the left-eye camera (CL)
- the left visual line position detection unit detecting the user's left visual line position and indicating the coordinates on the display screen of the display device
- the left visual line position determining unit that determines the coordinate value of the left visual line determination position by adding the weight indicating the accuracy to the coordinate value of the left visual line position, the coordinate value of the determined right visual line and the determined left eye
- a line-of-sight position determining unit that determines a central line-of-sight position of both eyes
- the input method divides the display screen area of the display device into a plurality of quadrants, and each of the plurality of quadrants corresponds to a gaze position of a user's right eye and a gaze position of the left eye, respectively.
- a weighting step for assigning a weight value indicating accuracy in advance, and based on imaging data obtained by photographing with a right-eye camera arranged to detect the gaze position of the user's right eye
- a right visual line position detection step for detecting the right visual line position of the user and indicating the coordinates, and a weight indicating the accuracy corresponding to the detected right visual line position, the right visual line Obtained by photographing with a left eye camera arranged to detect the gaze position of the user's left eye, and a right gaze position determination step that determines the coordinate value of the right gaze determination position by adding to the coordinate value of the position Imaging
- the left visual line position detection step of detecting the user's left visual line position and indicating the coordinates, and the accuracy corresponding to the detected left visual line position.
- the computer program according to the present invention divides the display screen area of the display device into a plurality of quadrants, and each of the plurality of quadrants corresponds to the gaze position of the right eye and the gaze position of the left eye of the user, respectively.
- a weighting step for assigning a weight value indicating accuracy in advance, and based on imaging data obtained by photographing with a right-eye camera arranged to detect the gaze position of the user's right eye
- a right visual line position detection step for detecting the right visual line position of the user and indicating the coordinates, and a weight indicating the accuracy corresponding to the detected right visual line position
- the right visual line On the display screen of the display device, a right visual line position detection step for detecting the right visual line position of the user and indicating the coordinates, and a weight indicating the accuracy corresponding to the detected right visual line position, the right visual line A right visual line position determination step that determines the coordinate value of the right visual line determination position by adding to the coordinate value of the position, and the left eye camera arranged to detect the visual line position of the user's left eye Obtained based on the imaging data, and the left eye viewpoint position detecting step shown in coordinates the display on the screen of the display device, and detects the left eye viewpoint position of the user, A left visual line
- the input device of the present invention since the central line-of-sight position by both eyes is determined based on a plurality of determined line-of-sight positions, it is possible to provide an input device that can determine the line-of-sight position with high accuracy. it can.
- the present invention provides an apparatus for obtaining the gaze direction of each of the left and right eyes of the user and obtaining the user's viewpoint by weighted average of the obtained gaze directions of the left and right eyes. More specifically, a left-eye camera and a right-eye camera are prepared separately, and the line-of-sight positions obtained from the left-eye and right-eye cameras are obtained using the elliptic parameter method. In particular, when obtaining the line-of-sight position obtained from the camera, a weight is set in advance for each quadrant of the display image, and the weight is used for the coordinates of the respective line-of-sight positions obtained from the left and right cameras, respectively. , Improve the accuracy of determining the user's central gaze position.
- an input means substantially equivalent to an input means by a mouse click operation is obtained from the action of closing the eyelid of the left eye and the action of closing the eyelid of the right eye.
- FIG. 1 is an explanatory diagram illustrating a method of detecting a gaze direction by the input device according to the first embodiment of the present invention.
- a left-eye camera and a right-eye camera are separately prepared, and the rotation angles of the right eye and the left eye are obtained.
- the position obtained from each camera obtained by the elliptic parameter method that does not need to consider the influence of near infrared light on the eyeball is weighted according to the quadrant of the display image. This provides a method for increasing the positional accuracy.
- FIG. 2 is a configuration diagram showing a hardware configuration of the input device according to the first embodiment of the present invention.
- the input device according to the first embodiment of the present invention shown in FIG. 2 includes a left-eye camera 101 for photographing the left eye, a right-eye camera 102 for photographing the right eye, and the cameras 101 and 102.
- a CPU 103 for image recognition processing, a captured image, an image after image recognition, a memory 105 for temporarily storing information on a calculation process, and a display device 104 (also provided with an input function) for displaying the image And so on).
- the display device 104 has an input function for inputting a user instruction.
- the left-eye camera 101 and the right-eye camera 102 are arranged in the vicinity of the display screen (DD) of the display device 104.
- the display device 104 is not limited to an HMD (Head Mounted Display), and is a general display device applicable to other display devices such as a mobile phone, a smartphone, a game machine, a tablet PC, and a PC. Also good.
- the present invention can also be applied to a game machine having two cameras.
- the operation of the input device according to the first embodiment of the present invention will be described below.
- the line-of-sight positions of the left and right eyes are detected by two cameras for the left eye and the right eye.
- (2) Multiply each line-of-sight position of the left eye and right eye by a weight set by a predetermined method.
- (3) The user's (center) line of sight is determined based on the weighted line of sight.
- the line-of-sight position is displayed on the display screen of the display device 104.
- If the line-of-sight position cannot be determined ie, the user closes the eyelid), this is used as a trigger for the click operation.
- (6) The above-described state of the left and right eyes is used as a trigger for different types of click operations (for example, left click and right click) between the left and right eyes.
- Image data captured by the left-eye camera 101 is stored in the memory 105.
- the CPU 103 performs image recognition processing on the image of the stored image data.
- This image recognition process is based on, for example, binarization, edge enhancement, and labeling.
- an ellipse detection method in the adopted ellipse parameter method a known method such as Hough transform, minimum median, or inferior ellipse estimation based on a parallelogram can be used. The method is not limited to the above.
- the CPU 103 calculates the horizontal angle and the vertical angle with respect to the normal from the camera to the eyeball from the image of the fistula recognized as an ellipse after performing the above image recognition processing, and the eyeball obtained by calibration From the distance on the display device 104 between the center position and the eyeball radius, the position on the display screen where the line of sight of the user's left eye is pointing is calculated.
- the same processing as the processing of the image data captured by the left-eye camera 101 is performed on the image captured by the right-eye camera 102, so that the user's right eye line of sight is displayed on the display screen. Find out if it's pointing to a position.
- the “camera” will be referred to as the left-eye camera 101, and will be described as processing for the image data image captured by the left-eye camera 101. However, for the image captured from the right-eye camera 102, However, the same processing as described below is performed.
- FIG. 3 is an explanatory diagram showing an example of dividing quadrants on the display screen of the display device 104.
- the quadrant is divided into 12 (D1 to D12).
- Eb eyeball
- FIG. 3 an example of quadrant division based on a normal position from the camera to the eyeball (Eb), a line-of-sight detection position on the display screen, and an example of weighting will be described.
- the accuracy of the elliptic parameter method decreases as the ellipse is closer to a circle.
- weighting is performed as follows.
- the weight for the quadrant D5 having the shortest distance from the normal position NLL is set to 0.3.
- the weighting from the normal position NLL to the quadrant (D1 to D4, D7 to D9) having the shortest distance from the quadrant D5 is set to 0.5.
- the weight of the quadrant (D10 to D12) farthest from the normal position NLL is set to 0.8.
- the display screen DD of the display device 104 is divided into 12 quadrants (D1 to D12), but the present invention is limited to 12 divisions. It is not something. Further, the number of divisions and the weighting coefficient can be changed according to the size of the display screen DD of the display device 104 and the required accuracy.
- FIG. 4 shows a conceptual diagram of a method for calculating the line-of-sight detection position based on the weighting value after calculating the line-of-sight position from each camera in the input device according to the first embodiment of the present invention.
- the gaze detection position from the left eye is set to coordinates (x 1 , y 1 )
- the coordinates (x, y) of the center position of the user's line of sight are obtained by Equations (3) and (4). It is done.
- the input device it is possible to perform high-precision line-of-sight detection by weighting the line-of-sight position information obtained from each of the left eye and the right eye using two cameras.
- by individually associating at least one camera with the left eye and the right eye it is possible to efficiently perform image recognition processing for each of the left eye and the right eye, and further, an operation corresponding to the left click and right click of the mouse Can be provided.
- the operation of the PC can be performed by the user's line of sight (eye movements), it is convenient for users who are unable to move their body due to illness or users who are unfamiliar with the PC. Can be improved.
- FIG. 8 is a block diagram showing an example of the configuration of the CPU 103 of the input device according to the embodiment of the present invention.
- the CPU 103 of the input device illustrated in FIG. 8 determines a left visual line position detection unit 1031 that detects the visual line position of the left eye, a right visual line position detection unit 1032 that detects the visual line position of the right eye, and the visual line position of the left eye based on coordinate values.
- Left visual line position determining unit 1033 right visual line position determining unit 1034 for determining the right eye line-of-sight position with coordinate values
- weighting unit 1037 for assigning weights to the left and right eye line-of-sight positions in advance (that is, weighting)
- left and right A line-of-sight position determination unit 1038 that determines the central line-of-sight position from the line-of-sight position
- an input unit 1039 that inputs information reflecting the determined center line-of-sight position.
- the weighting unit 1037 includes a right eye weighting unit 1035 and a left eye weighting unit 1036.
- the first embodiment In the first embodiment, one camera is used for each of the left eye and the right eye, and a total of two cameras are used. However, as the second embodiment, each of the left eye and the right eye is used. On the other hand, a plurality of cameras may be used individually, thereby improving the accuracy of the line-of-sight detection position. Further, in the first embodiment, a method of dividing the display screen into several quadrants is adopted. However, as the second embodiment, it is proportional to the normal position of the camera and the eyeball and the distance between the line-of-sight detection positions. The weighting coefficient may be calculated.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
例えば、OS(オベレーティングシステム)を搭載し、スマートフォン等とBluetooth規格に準拠した通信機器で接続することで、電話を受信した際には通話相手の情報や、メール、SMS、音楽プレイリスト等を使用者の眼前に映写するなどの表示機能を備えたスキーゴーグル等も登場している。
よって、やがては、ゴーグル(メガネ)の形をしたウェアラブルなスマートフォンの登場もそう遠くない招来に実現することが予想される。
これらの入力手段を、例えはゴーグル(メガネ)形状の表示装置として用いた場合、せっかく手を使わないことで得られている快適性が損なわれてしまうことになる。
視線検出方法としては、主として、角膜反射法、強膜反射法、及び瞼孔検出法などが知られているが、この内、提案されている視線検出方法の多くは、角膜反射法を用いている。
この角膜反射法とは、近赤外線光を角膜に照射し、角膜の曲率中心と視線ベクトルとから視線を算出する方法である。
図5に、眼球Eb,瞳孔Pu、視線方向SLおよびカメラCaの関係を示す。角膜の曲率中心は、プルキニエ像Ipと呼ばれる近赤外線光を照射したときの反射像の位置から求められ、視線ベクトルは、プルキニエ像Ip及び瞼孔中心位置Oから求められる。
しかしながら、この角膜反射法は、上記のように近赤外線光を眼球に照射するため、長時間使用した場合には網膜の焼きつき等、眼球Ebへの影響が心配される。
この他に、瞼孔の回転角を求める他の方法としては、楕円パラメータ法が知られている。
図6に示す通り、楕円パラメータ法とは、画像認識により、瞼孔を楕円として認識し、楕円の長軸a、短軸b、長軸の回転角qから瞼孔の回転角を求める方法である。
図7は、楕円パラメータ法による視線方向検出の原理を示す説明図である。
カメラCaで撮影した瞼孔の形状を、画像認識手段を用いて楕円であるものと捉える。
その長軸をa 、短軸をb 、カメラCaから眼球への法線に対する眼球上の瞼孔中心の角度をβとすると、角度βは、cosβ=b/aで求めることができる。
眼球表面をS、眼球中心を(x0、y0)、眼球半径をr0とすると、瞼孔(瞳孔)の中心(x、y)から眼球の水平方向の回転角θは(1)式から、垂直方向の回転角φは、(2)式から各々求めることができる。
このキャリブレーションの方法については、一般的にいくつかの方法が知られている。
なお、個人パラメータの具体的な決定方法については、本発明の内容に関係しないため、説明は省略する。
この楕円パラメータ法は、前述の角膜反射法と違って、近赤外線光を使用しないため、近赤外線光による眼球への影響は無い。
しかし、この楕円パラメータ法は、楕円が円に近い形状であるとき、つまりカメラから眼球への法線に対して視線方向の角度が浅い場合には、長軸の回転角を明確に求めることができず、精度が低くなるという問題点が有る。
具体的には、画面表示部を観察する観察者の視線を追跡し、その視線データに基づいて、観察者の視線近傍である中心視野の画像データは低圧縮率に、観察者の視線から遠ざかる周辺視野ほど高圧縮率になるように画像データにデータ圧縮処理を施すものとしている。
また、瞼孔を楕円と認識し、視線方向を検出する楕円パラメータ法を採用した場合、楕円が円に近い形状のとき、つまりカメラの眼球への法線に対して視線方向の角度が浅いときには、長軸の回転角を明確に求めることができず、精度が低くなるといった問題点が有る。
(1) 入力装置において、左目用と右目用の2つのカメラの各々の撮影データを使用して使用者の表示装置上の視線位置をそれぞれ求め、この視線位置(座標)に予め設定した表示画面上の象限に対応した重み付けを行って使用者の視線中央位置を確定する(この方法では、左目と右目からの個別の視線位置情報に対して、それぞれ実証的に有効な重み付けを行うので、精度の高い視線位置の決定が可能となる)ことと、
(2) 入力装置において、左目と右目の動きによりマウスのクリック動作と同等の機能を実現すること(例:左目の瞼を閉じると左クリック動作に対応、右目の瞼を閉じると右クリック動作に対応)ことと、
を骨子としている。
前記検出された左目視線位置に対応する前記の精度を示す重みを、前記左目視線位置の座標値に積算して左目視線決定位置の座標値を決定する左目視線位置決定ステップと、
前記決定した右目視線の座標値と、前記決定した左目視線の座標値とに基づいて前記使用者の両目による中央視線位置を決定する視線位置決定ステップと、前記中央視線位置を反映した入力処理を行う入力ステップとによって、入力装置を制御する。
より具体的には、左目用のカメラと右目用のカメラとを個別に用意し、楕円パラメータ法を用いて、左目用と右目用のそれぞれのカメラから得た視線位置を求める。
特に、カメラから得た視線位置を求める際には、予め表示画像の象限毎に重みを設定し、左右のカメラから得た各々の視線位置の座標に該重みを用いて、それぞれ重み付けすることにより、使用者の中央視線位置の決定精度を高める。
また、左目の瞼を閉じる動作と、右目の瞼を閉じる動作とから、マウスのクリック動作による入力手段と実質的に同等の入力手段を得るものである。
以下、本発明の第一の実施形態における入力装置ついて、図面を参照して詳細に説明する。
図1に示すように、本発明の第一の実施形態に係る入力装置の視線検出においては、左目用カメラと右目用カメラとを個別に用意し、右目、左目のそれぞれの回転角を求め、近赤外線光による眼球への影響を考えなくて良い楕円パラメータ法で得られたそれぞれのカメラから得た位置を、表示画像の象限別に重み付けを行なう。これにより、位置精度を高める方法を提供する。
また、左目用と、右目用に、各々カメラを個別に用意することにより、左目と右目のそれぞれの画像認識処理を個別に実施できるようにし、左目の瞼を閉じると左クリック動作、右目の瞼を閉じると右クリック動作に対応させる判定をすることにより、マウスのクリック動作による入力手段と実質的に同等の入力手段を提供するものである。
図2に示す本発明の第一の実施形態に係る入力装置は、左目を撮影するための左目用カメラ101と、右目を撮影するための右目用カメラ102と、各々のカメラ101と102からの画像を画像認識処理するためのCPU103と、撮影画像や画像認識後の画像、計算過程の情報を一時的に記憶するためのメモリ105と、画像を表示するための表示装置104(入力機能も備えたもの)と、を具備している。表示装置104は使用者の指示を入力する入力機能を備えている。
ここで、左目用カメラ101及び右目用カメラ102は、表示装置104の表示画面(DD)の付近に配置されている。
なお、表示装置104は、HMD(Head Mounted Display)とは限らず、他の表示装置、例えば、携帯電話、スマートフォン、ゲーム機、タブレットPC、PC等に適用可能な一般的な表示装置であっても良い。
例えば、2つのカメラを備えたゲーム機においても、本発明の適用が可能である。
まず、本装置の基本動作の概要を以下に纏める。
(1) 左目用、右目用の2つのカメラで左右の目の視線位置を検出する。
(2) 左目、右目の各視線位置に所定の手法で設定された重みを乗じる。
(3) この重み付けられた視線を基に使用者の(中心)視線を決定する。
(4) 表示装置104の表示画面上に視線の位置を表示する。
(5) 視線位置を決定できない状態(即ち、使用者が瞼を閉じた状態)となれば、これをクリック動作のトリガとする。
(6) 左右の目の上記状態を、左右の目で異なる種類のクリック動作(例えば、左クリックと右クリック)のトリガとする。
左目用カメラ101で撮影された画像データは、メモリ105に格納される。
CPU103は、この格納された画像データの画像に対して、画像認識処理を行なう。
この画像認識処理は、例えば、2値化、エッジ強調、及びラベリングによるものである。
採用した楕円バラメータ法における楕円の検出方法としては、既に知られているHough変換、最小メジアン、内接する平行四辺形による楕円推定等の手法を用いることができるが、本発明の楕円の検出方法は、上記の手法に限定されるものではない。
また、右目用カメラ102から撮影された画像に対しても、上記の左目用カメラ101で撮影された画像データの処理と同様の処理を行なうことによって、ユーザの右目の視線が表示画面上のどの位置を指しているかを計算して求める。
さらに、以下では、「カメラ」の呼称を左目用カメラ101のこととし、この左目用カメラ101で撮影された画像データの画像に対する処理として説明するが、右目用カメラ102から撮影された画像に対しても、下記と同様の処理を行なうものとする。
図3に示すように、表示装置104の表示画面DD(領域)において、象限を12(D1~D12)に分割する。
以下、図3を参照して、カメラから眼球(Eb)への法線位置と、表示画面上の視線検出位置による象限区分の1例と、重み付けの1例について説明する。
従来の課題に記載した通り、楕円パラメータ法は、楕円が円に近いほど、精度が落ちることが知られている。
つまり、カメラと眼球の法線位置から距離の差があるほど、楕円となり、差が無いほど円に近くなる。
そこで、本発明の第一の実施形態に係る入力装置では、例えば、以下のように重み付けを行う。
次に、法線位置NLLから、象限D5の次に距離の少ない象限(D1~D4,D7~D9)に対する重み付けは0.5とする。
最後に、法線位置NLLから最も距離の遠い象限(D10~D12)の重み付けは0.8とする。
なお、図3では、説明を簡単にするために、表示装置104の表示画面DDを12個の象限(D1~D12)に区分しているが、本発明は、区分の数を12に限定されるものではない。
また、表示装置104の表示画面DDの大きさや、求める精度により、区分の数及び重み付けの係数を変えることができる。
仮に、左目からの視線検出位置を座標(x1,y1)とし、重み付け(WL)を0.8(WL=0.8)とし、また、右目からの視線検出位置を座標(x2,y2)とし、重み付け(WL)を0.3とした場合(WR=0.3)、使用者の視線中央位置の座標(x,y)は、(3)式と(4)式で求められる。
x=x2-(x1-x2)×(0.8/(0.8+0.3))…(3)
y=y2-(y1-y2)×(0.8/(0.8+0.3))…(4)
第一の実施形態では、2つのカメラ(左目用カメラ101と右目用カメラ102)を用いて、左目と、右目の各々の状態を撮影し、使用者の視線中央位置の座標を求めているため、瞼孔を楕円として検出できない期間(より具体的には、目をつむっている時間帯)をマウスのクリックに相当する動作として、左目の瞼を閉じると左クリック動作に対応し、右目の瞼を閉じると右クリック動作に対応すると判定することができる。
また、単純な瞬きをクリックと誤認識する可能性が有るが、この問題点については、楕円を検出できない期間(より具体的には、瞼を閉じている時間帯)が、所定の一定時間より短い場合は、クリックとして認識しないように、楕円を検出できない期間における閾値を設けることで回避するものとする。
また、左目と右目に対して、個別にカメラを少なくとも1つ対応させることで、左目と右目それぞれの画像認識処理を効率良く行なうことができ、更に、マウスの左クリック、右クリックに相当する動作を提供することができる。
さらに、PCの操作を、使用者の視線(目の動き)によって行うことができることにより、病気などによって体を動かすのが不自由なユーザーや、PCに不慣れなユーザーに対して、PC利用の利便性を向上することができる。
図8は、本発明の一実施形態に係る入力装置のCPU103の構成を1例を示すブロック図である。
図8に示す入力装置のCPU103は、左目の視線位置を検出する左目視線位置検出部1031と、右目の視線位置を検出する右目視線位置検出部1032と、左目の視線位置を座標値で決定する左目視線位置決定部1033と、右目の視線位置を座標値で決定する右目視線位置決定部1034と、左右の目の視線位置に予め重みを付与する(即ち、重み付けする)重み付け部1037と、左右の視線位置から中央視線位置を決定する視線位置決定部1038と、決定された中央視線位置を反映した情報入力を行う入力部1039と、を備えている。
重み付け部1037は、右目重み付け部1035と、左目重み付け部1036と、を備える。
第一の実施形態では、左目用と、右目用とに各々1つずつのカメラを使用し、計2つのカメラを使用するものであったが、第二の実施形態として、左目と右目の各々に対して、個別にそれぞれ複数のカメラを使用してもよく、これによって視線検出位置の精度を高めることができる。
また、第一の実施形態では、表示画面上をいくつかの象限に区分する方法を採用したが、第二の実施形態として、カメラと眼球の法線位置と、視線検出位置の距離に比例して重み付け係数を算出してもよい。
本願は、2011年4月7日に、日本に出願された特願2011-085210号に基づき優先権を主張し、その内容をここに援用する。
102 右目用カメラ
103 CPU
104 表示装置(入力機能も備えたもの)
105 メモリ
1031 左目視線位置検出部
1032 右目視線位置検出部
1033 左目視線位置決定部
1034 右目視線位置決定部
1037 重み付け部
1038 視線位置決定部
1039 入力部
Claims (10)
- 表示装置の表示画面領域を複数の象限に分割すると共に、前記複数の象限の各々には使用者の右目の視線位置と左目の視線位置とにそれぞれ対応した、精度を示す重みの値を予め付与しておく重み付け部と、
前記使用者の右目の視線位置を検出するために配された右目用カメラで撮影して得られた撮像データに基づいて、前記表示装置の表示画面上の、前記使用者の右目視線位置を検出して座標で示す右目視線位置検出部と、
前記検出された右目視線位置に対応する前記の精度を示す重みを、前記右目視線位置の座標値に積算して右目視線決定位置の座標値を決定する右目視線位置決定部と、
前記使用者の左目の視線位置を検出するために配された左目用カメラで撮影して得られた撮像データに基づいて、前記表示装置の表示画面上の、前記使用者の左目視線位置を検出して座標で示す左目視線位置検出部と、
前記検出された左目視線位置に対応する前記の精度を示す重みを、前記左目視線位置の座標値に積算して左目視線決定位置の座標値を決定する左目視線位置決定部と、
前記決定した右目視線の座標値と、前記決定した左目視線の座標値とに基づいて前記使用者の両目による中央視線位置を決定する視線位置決定部と、
前記中央視線位置を反映した入力処理を行う入力部と、
を備えたことを特徴とする入力装置。 - 前記右目視線位置検出部及び前記左目視線位置検出部は、各々、視線位置の検出方法として楕円パラメータ法を用いることを特徴とする請求項1記載の入力装置。
- 前記重み付け部は、前記使用者の右目に対応する前記精度を示す重みの値として、前記象限の内、前記右目用カメラと前記使用者の右目眼球とを結ぶ法線と距離が近い象限には大きな重み値を付与し、該法線と距離が遠い象限には小さな重み値を付与することを特徴とする請求項1または請求項2記載の入力装置。
- 前記重み付け部は、前記使用者の左目に対応する前記精度を示す重みの値として、前記象限の内、前記左目用カメラと前記使用者の左目眼球とを結ぶ法線と距離が近い象限には大きな重み値を付与し、該法線と距離が遠い象限には小さな重み値を付与することを特徴とする請求項1乃至3のいずれか1項に記載の入力装置。
- 前記右目視線位置決定部は、前記使用者の右目に対応する前記精度を示す重みの値として、前記重み付け部により付与された重みを使用することを特徴とする請求項3記載の入力装置。
- 前記左目視線位置決定部は、前記使用者の左目に対応する前記精度を示す重みの値として、前記重み付け部により付与された重みを使用することを特徴とする請求項4記載の入力装置。
- 前記右目視線位置決定部は、前記使用者の右目に対応して使用する前記精度を示す重みの値として、前記右目用カメラと前記使用者の右目眼球とを結ぶ法線と、前記右目視線位置検出部が検出した前記右目視線位置との間の距離が近い前記右目視線位置には大きな値を使用し、前記法線と前記視線位置との間の距離が遠い前記右目視線位置には小さな値を使用することを特徴とする請求項1記載の入力装置。
- 前記左目視線位置決定部は、前記使用者の左目に対応して使用する前記精度を示す重みの値として、前記左目用カメラと前記使用者の左目眼球とを結ぶ法線と、前記左目視線位置検出部が検出した前記左目視線位置との間の距離が近い前記左目視線位置には大きな値を使用し、前記法線と前記視線位置との間の距離が遠い前記左目視線位置には小さな値を使用することを特徴とする請求項1記載の入力装置。
- 表示装置の表示画面領域を複数の象限に分割すると共に、前記複数の象限の各々には使用者の右目の視線位置と左目の視線位置とにそれぞれ対応した、精度を示す重みの値を予め付与しておく重み付けステップと、
前記使用者の右目の視線位置を検出するために配された右目用カメラで撮影して得られた撮像データに基づいて、前記表示装置の表示画面上の、前記使用者の右目視線位置を検出して座標で示す右目視線位置検出ステップと、
前記検出された右目視線位置に対応する前記の精度を示す重みを、前記右目視線位置の座標値に積算して右目視線決定位置の座標値を決定する右目視線位置決定ステップと、
前記使用者の左目の視線位置を検出するために配された左目用カメラで撮影して得られた撮像データに基づいて、前記表示装置の表示画面上の、前記使用者の左目視線位置を検出して座標で示す左目視線位置検出ステップと、
前記検出された左目視線位置に対応する前記の精度を示す重みを、前記左目視線位置の座標値に積算して左目視線決定位置の座標値を決定する左目視線位置決定ステップと、
前記決定した右目視線の座標値と、前記決定した左目視線の座標値とに基づいて前記使用者の両目による中央視線位置を決定する視線位置決定ステップと、
前記中央視線位置を反映した入力処理を行う入力ステップと、
を有することを特徴とする入力方法。 - 表示装置の表示画面領域を複数の象限に分割すると共に、前記複数の象限の各々には使用者の右目の視線位置と左目の視線位置とにそれぞれ対応した、精度を示す重みの値を予め付与しておく重み付けステップと、
前記使用者の右目の視線位置を検出するために配された右目用カメラで撮影して得られた撮像データに基づいて、前記表示装置の表示画面上の、前記使用者の右目視線位置を検出して座標で示す右目視線位置検出ステップと、
前記検出された右目視線位置に対応する前記の精度を示す重みを、前記右目視線位置の座標値に積算して右目視線決定位置の座標値を決定する右目視線位置決定ステップと、
前記使用者の左目の視線位置を検出するために配された左目用カメラで撮影して得られた撮像データに基づいて、前記表示装置の表示画面上の、前記使用者の左目視線位置を検出して座標で示す左目視線位置検出ステップと、
前記検出された左目視線位置に対応する前記の精度を示す重みを、前記左目視線位置の座標値に積算して左目視線決定位置の座標値を決定する左目視線位置決定ステップと、
前記決定した右目視線の座標値と、前記決定した左目視線の座標値とに基づいて前記使用者の両目による中央視線位置を決定する視線位置決定ステップと、
前記中央視線位置を反映した入力処理を行う入力ステップと、
を有することを特徴とする、入力装置を制御するためのコンピュータプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013508889A JPWO2012137801A1 (ja) | 2011-04-07 | 2012-04-04 | 入力装置及び入力方法並びにコンピュータプログラム |
EP12767821.7A EP2696262A1 (en) | 2011-04-07 | 2012-04-04 | Input device, input method, and computer program |
US14/009,388 US20140043229A1 (en) | 2011-04-07 | 2012-04-04 | Input device, input method, and computer program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011-085210 | 2011-04-07 | ||
JP2011085210 | 2011-04-07 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2012137801A1 true WO2012137801A1 (ja) | 2012-10-11 |
Family
ID=46969195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2012/059155 WO2012137801A1 (ja) | 2011-04-07 | 2012-04-04 | 入力装置及び入力方法並びにコンピュータプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20140043229A1 (ja) |
EP (1) | EP2696262A1 (ja) |
JP (1) | JPWO2012137801A1 (ja) |
WO (1) | WO2012137801A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020038734A (ja) * | 2015-12-01 | 2020-03-12 | 株式会社Jvcケンウッド | 視線検出装置及び視線検出方法 |
JP2022501718A (ja) * | 2018-09-21 | 2022-01-06 | ニューラブル インコーポレイテッド | ユーザ相互作用の高速且つ正確な追跡を使用する人間/コンピュータインターフェース |
US11972049B2 (en) | 2017-08-23 | 2024-04-30 | Neurable Inc. | Brain-computer interface with high-speed eye tracking features |
US12001602B2 (en) | 2017-11-13 | 2024-06-04 | Neurable Inc. | Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions |
US12053308B2 (en) | 2018-01-18 | 2024-08-06 | Neurable Inc. | Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9035874B1 (en) * | 2013-03-08 | 2015-05-19 | Amazon Technologies, Inc. | Providing user input to a computing device with an eye closure |
US11199906B1 (en) | 2013-09-04 | 2021-12-14 | Amazon Technologies, Inc. | Global user input management |
JP5911655B1 (ja) * | 2014-07-22 | 2016-04-27 | オリンパス株式会社 | 医療システム |
CN104391574A (zh) * | 2014-11-14 | 2015-03-04 | 京东方科技集团股份有限公司 | 视线处理方法、系统、终端设备及穿戴式设备 |
KR20160094190A (ko) * | 2015-01-30 | 2016-08-09 | 한국전자통신연구원 | 시선 추적 장치 및 방법 |
JP2016163150A (ja) * | 2015-02-27 | 2016-09-05 | 株式会社リコー | 通信端末、面談システム、通信方法及びプログラム |
CN106296796B (zh) * | 2015-06-04 | 2019-08-13 | 北京智谷睿拓技术服务有限公司 | 信息处理方法、信息处理装置及用户设备 |
CN106293031B (zh) | 2015-06-04 | 2019-05-21 | 北京智谷睿拓技术服务有限公司 | 信息处理方法、信息处理装置及用户设备 |
CN106294911B (zh) * | 2015-06-04 | 2019-09-10 | 北京智谷睿拓技术服务有限公司 | 信息处理方法、信息处理装置及用户设备 |
CA3170014A1 (en) * | 2015-10-16 | 2017-04-20 | Magic Leap, Inc. | Eye pose identification using eye features |
US10409368B2 (en) * | 2016-07-27 | 2019-09-10 | Fove, Inc. | Eye-gaze detection system, displacement detection method, and displacement detection program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH099253A (ja) | 1995-06-19 | 1997-01-10 | Toshiba Corp | 画像圧縮通信装置 |
JPH09163267A (ja) * | 1995-12-06 | 1997-06-20 | Sony Corp | 光学視覚装置 |
JP2000148381A (ja) | 1998-11-05 | 2000-05-26 | Telecommunication Advancement Organization Of Japan | 入力画像処理方法、入力画像処理装置、及び入力画像処理プログラムを記録した記録媒体 |
JP2001134371A (ja) | 1999-11-05 | 2001-05-18 | Shimadzu Corp | 視線検出装置 |
JP2006309291A (ja) * | 2005-04-26 | 2006-11-09 | National Univ Corp Shizuoka Univ | 瞳孔検出に基づくポインティング装置及び方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004049734A1 (ja) * | 2002-11-28 | 2004-06-10 | Seijiro Tomita | 立体映像信号生成回路及び立体映像表示装置 |
JP5159041B2 (ja) * | 2006-01-30 | 2013-03-06 | 株式会社東芝 | 超音波診断装置およびその画像処理プログラム |
JP4824420B2 (ja) * | 2006-02-07 | 2011-11-30 | アイテック株式会社 | 視線ベクトル検出方法及び同装置 |
-
2012
- 2012-04-04 US US14/009,388 patent/US20140043229A1/en not_active Abandoned
- 2012-04-04 WO PCT/JP2012/059155 patent/WO2012137801A1/ja active Application Filing
- 2012-04-04 EP EP12767821.7A patent/EP2696262A1/en not_active Withdrawn
- 2012-04-04 JP JP2013508889A patent/JPWO2012137801A1/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH099253A (ja) | 1995-06-19 | 1997-01-10 | Toshiba Corp | 画像圧縮通信装置 |
JPH09163267A (ja) * | 1995-12-06 | 1997-06-20 | Sony Corp | 光学視覚装置 |
JP2000148381A (ja) | 1998-11-05 | 2000-05-26 | Telecommunication Advancement Organization Of Japan | 入力画像処理方法、入力画像処理装置、及び入力画像処理プログラムを記録した記録媒体 |
JP2001134371A (ja) | 1999-11-05 | 2001-05-18 | Shimadzu Corp | 視線検出装置 |
JP2006309291A (ja) * | 2005-04-26 | 2006-11-09 | National Univ Corp Shizuoka Univ | 瞳孔検出に基づくポインティング装置及び方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020038734A (ja) * | 2015-12-01 | 2020-03-12 | 株式会社Jvcケンウッド | 視線検出装置及び視線検出方法 |
US11972049B2 (en) | 2017-08-23 | 2024-04-30 | Neurable Inc. | Brain-computer interface with high-speed eye tracking features |
US12001602B2 (en) | 2017-11-13 | 2024-06-04 | Neurable Inc. | Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions |
US12053308B2 (en) | 2018-01-18 | 2024-08-06 | Neurable Inc. | Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions |
JP2022501718A (ja) * | 2018-09-21 | 2022-01-06 | ニューラブル インコーポレイテッド | ユーザ相互作用の高速且つ正確な追跡を使用する人間/コンピュータインターフェース |
JP7492951B2 (ja) | 2018-09-21 | 2024-05-30 | ニューラブル インコーポレイテッド | ユーザ相互作用の高速且つ正確な追跡を使用する人間/コンピュータインターフェース |
Also Published As
Publication number | Publication date |
---|---|
JPWO2012137801A1 (ja) | 2014-07-28 |
EP2696262A1 (en) | 2014-02-12 |
US20140043229A1 (en) | 2014-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2012137801A1 (ja) | 入力装置及び入力方法並びにコンピュータプログラム | |
US11880043B2 (en) | Display systems and methods for determining registration between display and eyes of user | |
EP3557377B1 (en) | Neural network training for three dimensional (3d) gaze prediction with calibration parameters | |
EP3547216B1 (en) | Deep learning for three dimensional (3d) gaze prediction | |
JP6601417B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US11715231B2 (en) | Head pose estimation from local eye region | |
US12105875B2 (en) | Display systems and methods for determining vertical alignment between left and right displays and a user's eyes | |
US10928904B1 (en) | User recognition and gaze tracking in a video system | |
US11163995B2 (en) | User recognition and gaze tracking in a video system | |
US10671890B2 (en) | Training of a neural network for three dimensional (3D) gaze prediction | |
CN103809737A (zh) | 一种人机交互方法及装置 | |
JP6307805B2 (ja) | 画像処理装置、電子機器、眼鏡特性判定方法および眼鏡特性判定プログラム | |
JP2012065781A (ja) | 視線検出装置および補正係数算出プログラム | |
JPWO2018220963A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2019190561A1 (en) | Deep learning for three dimensional (3d) gaze prediction | |
KR102325684B1 (ko) | 두부 착용형 시선 추적 입력 장치 및 이를 이용하는 입력 방법 | |
EP3906669B1 (en) | Detecting eye tracking calibration errors | |
JP2015045943A (ja) | まばたき検出装置 | |
US20230306789A1 (en) | Spoof detection using head pose to eye gaze correspondence | |
JP2018120299A (ja) | 視線検出用コンピュータプログラム、視線検出装置及び視線検出方法 | |
WO2024059927A1 (en) | Methods and systems for gaze tracking using one corneal reflection | |
WO2023249694A1 (en) | Object detection and tracking in extended reality devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 12767821 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2013508889 Country of ref document: JP Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2012767821 Country of ref document: EP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 14009388 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |