JP2016099959A - Direction indication device and direction indication method - Google Patents

Direction indication device and direction indication method Download PDF

Info

Publication number
JP2016099959A
JP2016099959A JP2014239136A JP2014239136A JP2016099959A JP 2016099959 A JP2016099959 A JP 2016099959A JP 2014239136 A JP2014239136 A JP 2014239136A JP 2014239136 A JP2014239136 A JP 2014239136A JP 2016099959 A JP2016099959 A JP 2016099959A
Authority
JP
Japan
Prior art keywords
coordinate system
delay
low
pass filter
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014239136A
Other languages
Japanese (ja)
Other versions
JP6346547B2 (en
Inventor
貴彦 小野
Takahiko Ono
貴彦 小野
真一 疋田
Shinichi Hikita
真一 疋田
良 早田
Ryo Hayata
良 早田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hiroshima City University
Original Assignee
Hiroshima City University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hiroshima City University filed Critical Hiroshima City University
Priority to JP2014239136A priority Critical patent/JP6346547B2/en
Publication of JP2016099959A publication Critical patent/JP2016099959A/en
Application granted granted Critical
Publication of JP6346547B2 publication Critical patent/JP6346547B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a direction indication device which operates a screen of a computer through a head or horizontal/vertical motion of eyes of a user, and a direction indication method.SOLUTION: A direction indication device comprises: a camera (imaging means) 3 for capturing an image of a face area of an operator; first coordinate system setting means 5 and second coordinate system setting means 6 for setting a first coordinate system of the face area imaged by the imaging means and a second coordinate system of an eye area in the face area; first delay means 7 and second delay means 8 for, in association with the movement of the eye area, delay-processing an original point coordinate of the second coordinate system moving while delaying following that, and for obtaining third and fourth coordinate systems different in delay time; first calculation means 9 and second calculation means 10 for calculating a movement amount and movement speed of an iris center in the third and fourth coordinate systems; discrimination means 11 for performing operation discrimination based on distance between original points of the third and fourth coordinate systems; and first to fourth determination means 12, 13, 14 and 15 for determining a horizontal direction or a vertical direction by a head or an eyeball on the basis of a signal from the discrimination means.SELECTED DRAWING: Figure 2

Description

本発明は、コンピュータに内蔵されている撮像装置でコンピュータ操作者の顔画像を連続的に取得し、頭部または眼球の上下左右回転運動に基づいて、コンピュータに指示方向、例えば画面の右方向又は左方向、上方向又は下方向を指示する方向指示装置及び方向指示方法に関する。 According to the present invention, a face image of a computer operator is continuously acquired by an imaging device built in the computer, and based on the up / down / left / right rotational movement of the head or eyeball, the computer is instructed to the right direction of the screen or The present invention relates to a direction indicating device and a direction indicating method for instructing a left direction, an upward direction, or a downward direction.

コンピュータ画面内でカーソル等を移動させる方法として、マウス、指、音声が広く用いられている。最近は、頭部や眼球の運動をカメラで捉え、その動きに応じて位置を指示する入力装置も知られている(特許文献1)。 As a method for moving a cursor or the like in a computer screen, a mouse, a finger, and a voice are widely used. Recently, an input device that captures the movement of the head or eyeball with a camera and indicates the position according to the movement is also known (Patent Document 1).

特許文献1には、3点の視標注視により近赤外光の角膜反射像や眼球表面上の毛細血管の分岐点のような特徴点から眼球回転中心を決定する発明が開示されている。この先行発明は、視線方向を計算するという構造であり、角膜反射像の結像位置に依存して極端に視線計測精度が低下する、毛細血管の分岐点を用いる場合には画像処理による安定した特徴点抽出が困難、眼球形状の個人差による視線計測精度の低下、さらに眼球回転中心の決定には眼球と視標までの距離が必要という問題がある。 Patent Document 1 discloses an invention in which the center of eyeball rotation is determined from feature points such as a cornea reflection image of near-infrared light and a branching point of capillaries on the surface of the eyeball by three-point target gaze. This prior invention is a structure for calculating the line-of-sight direction, and the line-of-sight measurement accuracy is extremely lowered depending on the position of the cornea reflection image. There are problems that feature point extraction is difficult, eye-gaze measurement accuracy is reduced due to individual differences in eyeball shape, and that the distance between the eyeball and the target is required to determine the center of eyeball rotation.

また、個人パラメータが不要で3点注視により眼球回転中心を推定する方法に基づき、視覚対象となる平面上の最少3点の視標を順に注視したときの瞳孔中心位置から注視点推定に必要なパラメータを決定する視線計測方法も公知である(特許文献2)。しかし、この公報に開示の発明においても、位置決め精度が十分ではなく、改良の余地が残されている。 In addition, based on the method of estimating the eyeball rotation center by three-point gaze without personal parameters, it is necessary to estimate the gaze point from the pupil center position when gaze at least three targets on the plane to be viewed in order. A line-of-sight measurement method for determining parameters is also known (Patent Document 2). However, in the invention disclosed in this publication, the positioning accuracy is not sufficient, and there is room for improvement.

特開2012−29940号JP 2012-29940 特開2014−52758号JP 2014-52758 A

本発明は、前述の事情に鑑みてなされたものであり、コンピュータに内蔵されたカメラで操作者の顔画像を連続的に取得し、目領域を含む画像に対して適切にローパスフィルタリング処理を施すことで、頭部又は眼球の上下左右回転運動により、コンピュータに指示方向を精度良く伝達する装置を提供する。特に、ローパスフィルタLPFの遅延特性(位相特性)を活用して、方向指示精度の向上を図るものである。 The present invention has been made in view of the above-described circumstances, and continuously obtains an operator's face image with a camera built in a computer, and appropriately performs low-pass filtering processing on an image including an eye region. Thus, an apparatus is provided that accurately transmits an instruction direction to a computer by a vertical or horizontal rotational movement of a head or an eyeball. In particular, the direction indication accuracy is improved by utilizing the delay characteristic (phase characteristic) of the low-pass filter LPF.

本発明に係る方向指示装置は、コンピュータ操作者の顔領域を撮像する撮像手段と、該撮像手段により撮像された顔領域の第1座標系を設定する第1座標系設定手段と、前記撮像手段により撮像された顔領域における目領域の第2座標系を設定する第2座標系設定手段と、前記目領域の移動に伴って、これに追随し遅延して移動する第3座標系を得る第1遅延手段と、前記目領域の移動に伴って、これに追随し遅延して移動するとともに前記第1遅延手段より遅延時間が小さい第4座標系を得る第2遅延手段と、前記第3座標系での虹彩中心の移動量と移動速度を算出する第1算出手段と、前記第4座標系での虹彩中心の移動量と移動速度を算出する第2算出手段と、前記第3座標系と前記第4座標系の原点間距離に基づく動作判別を行う判別手段と、該判別手段からの信号に基づき頭部による左右方向指示を判定する第1判定手段と、前記判別手段からの信号に基づき眼球による左右方向指示を判定する第2判定手段と、前記判別手段からの信号に基づき頭部による上下方向指示を判定する第3判定手段と、前記判別手段からの信号に基づき眼球による上下方向指示を判定する第4判定手段と、よりなるものである。 The direction indicating device according to the present invention includes an imaging means for imaging a face area of a computer operator, a first coordinate system setting means for setting a first coordinate system of the face area imaged by the imaging means, and the imaging means. To obtain a second coordinate system setting means for setting a second coordinate system of the eye area in the face area imaged in accordance with the above, and to obtain a third coordinate system that moves in a delayed manner following the movement of the eye area. 1 delay means, second delay means for obtaining a fourth coordinate system that moves with a delay following the movement of the eye area and has a delay time smaller than that of the first delay means, and the third coordinates First calculating means for calculating the moving amount and moving speed of the iris center in the system, second calculating means for calculating the moving amount and moving speed of the iris center in the fourth coordinate system, and the third coordinate system; Discrimination that performs operation discrimination based on the distance between the origins of the fourth coordinate system First determination means for determining a left / right direction instruction by a head based on a signal from the determination means, second determination means for determining a left / right direction instruction by an eyeball based on a signal from the determination means, and the determination A third determination unit that determines a vertical direction instruction from the head based on a signal from the unit; and a fourth determination unit that determines a vertical direction instruction from the eyeball based on a signal from the determination unit.

本発明に係る方向指示装置においては、前記第1遅延手段が、前記第2座標系の原点座標をローパスフィルタ処理する第1ローパスフィルタよりなり、前記第2遅延手段が、前記第2座標系の原点座標をローパスフィルタ処理する、前記第1ローパスフィルタより遅延時間が小さい第2ローパスフィルタよりなるものとすることができる。 In the direction indicating device according to the present invention, the first delay means includes a first low-pass filter that performs low-pass filter processing on the origin coordinates of the second coordinate system, and the second delay means includes the second coordinate system. The origin coordinates may be a second low-pass filter that performs low-pass filter processing and has a delay time shorter than that of the first low-pass filter.

本発明に係る方向指示方法は、コンピュータ操作者の顔領域を撮像するステップと、該ステップにより撮像された顔領域の第1座標系を設定するステップと、撮像された顔領域における目領域画像の第2座標系を設定するステップと、前記目領域の移動に伴って、これに追随し遅延して移動する第3座標系を得るステップと、前記目領域の移動に伴って、これに追随し遅延して移動するとともに前記第3座標系より遅延時間が小さい第4座標系を得るステップと、前記第3座標系での虹彩中心の移動量と移動速度を算出するステップと、前記第4座標系での虹彩中心の移動量と移動速度を算出するステップと、前記第3座標系と前記第4座標系の原点間距離に基づく動作判別を行うステップと、前記動作判別に基づき頭部による左右方向指示を判定するステップと、前記動作判別に基づき眼球による左右方向指示を判定するステップと、前記動作判別に基づき頭部による上下方向指示を判定するステップと、前記動作判別に基づき眼球による上下方向指示を判定するステップと、
よりなるものである。
The direction indicating method according to the present invention includes a step of imaging a computer operator's face area, a step of setting a first coordinate system of the face area imaged by the step, and an eye area image of the imaged face area A step of setting a second coordinate system, a step of obtaining a third coordinate system that moves in a delayed manner following the movement of the eye region, and a step of following the movement of the eye region. Obtaining a fourth coordinate system that moves with a delay and having a delay time smaller than that of the third coordinate system; calculating a moving amount and a moving speed of an iris center in the third coordinate system; and the fourth coordinate Calculating a moving amount and moving speed of the iris center in the system, performing a motion determination based on a distance between the origins of the third coordinate system and the fourth coordinate system, and left and right by the head based on the motion determination Direction A step of determining a left / right direction instruction by an eyeball based on the motion determination; a step of determining a vertical direction instruction by a head based on the motion determination; and a determination of a vertical direction instruction by an eyeball based on the motion determination And steps to
It is made up of.

本発明に係る方向指示方法において、前記第3座標系を得るステップは、前記第2座標系の原点座標をローパスフィルタ処理する第1ローパスフィルタにてなされ、前記第4座標系を得るステップは、前記第2座標系の原点座標をローパスフィルタ処理する、前記第1ローパスフィルタより遅延時間が小さい第2ローパスフィルタにてなされるものとすることができる。 In the direction indicating method according to the present invention, the step of obtaining the third coordinate system is performed by a first low-pass filter that performs low-pass filter processing on the origin coordinates of the second coordinate system, and the step of obtaining the fourth coordinate system includes: The origin coordinate of the second coordinate system may be subjected to a low-pass filter process, and a second low-pass filter having a delay time shorter than that of the first low-pass filter.

本発明によれば、操作者がコンピュータの画面上、上下左右に配置されたマークを見ながら、又はマークが表示されないときは、画面の上下左右部分を見ながら、その頭部または眼球を上下左右運動させることにより、コンピュータに指示方向を精度良く伝達することができ、画面を指示に従って上下左右方向にスクロールすることができる。両手が使えない障害者又は両手がふさがっていて使えない状態にある者が、キーボードやマウスによらず画面の操作することができる。 According to the present invention, the operator moves his / her head or eyeball up / down / left / right while looking at the top / bottom / left / right marks on the computer screen or when the mark is not displayed. By exercising, the instruction direction can be accurately transmitted to the computer, and the screen can be scrolled in the vertical and horizontal directions according to the instruction. A disabled person who cannot use both hands or a person who cannot use both hands can operate the screen regardless of the keyboard or mouse.

本発明に係る方向指示装置の使用状態を説明するための斜視図である。It is a perspective view for demonstrating the use condition of the direction indicator which concerns on this invention. 本発明に係る方向指示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the direction indication apparatus which concerns on this invention. ユーザーの顔を撮影したカメラ画像のイメージ図である。It is an image figure of the camera image which image | photographed the user's face. OpenCVによる顔領域抽出を説明するための図である。It is a figure for demonstrating face area extraction by OpenCV. OpenCVによる目領域抽出を説明するための図である。It is a figure for demonstrating extraction of the eye area | region by OpenCV. LPFによる目領域抽出を説明するための図である。It is a figure for demonstrating the eye area | region extraction by LPF. 頭部回転時の目領域の違いを説明するための図である。It is a figure for demonstrating the difference of the eye area | region at the time of head rotation. 頭部回転時の目領域の位置関係を説明するための図である。It is a figure for demonstrating the positional relationship of the eye area | region at the time of head rotation. 眼球回転時の目領域の位置関係を説明するための図である。It is a figure for demonstrating the positional relationship of the eye area | region at the time of eyeball rotation. 頭部回転時の虹彩の移動を説明するための図である。It is a figure for demonstrating the movement of the iris at the time of head rotation. 眼球回転時の虹彩の移動を説明するための図である。It is a figure for demonstrating the movement of the iris at the time of eyeball rotation. 頭部回転運動(右指示)における虹彩中心の左右方向の移動量xeを表すグラフである。It is a graph showing the movement amount xe of the left-right direction of the iris center in head rotation motion (right instruction | indication). 頭部回転運動(右指示)における虹彩中心の左右方向の移動速度xdを表すグラフである。It is a graph showing the moving speed xd of the left-right direction of the iris center in head rotation movement (right instruction | indication). 頭部回転運動(左指示)における虹彩中心の左右方向の移動量xeを表すグラフである。It is a graph showing the moving amount xe of the left-right direction of the iris center in head rotation movement (left instruction | indication). 頭部回転運動(左指示)における虹彩中心の左右方向の移動速度xdを表すグラフである。It is a graph showing the moving speed xd of the left-right direction of the iris center in head rotation movement (left instruction | indication). 眼球回転運動(右指示)における虹彩中心の左右方向の移動量xeを表すグラフである。It is a graph showing the movement amount xe of the left-right direction of the iris center in an eyeball movement (right instruction | indication). 眼球回転運動(右指示)における虹彩中心の左右方向の移動速度xdを表すグラフである。It is a graph showing the moving speed xd of the left-right direction of the iris center in eyeball rotation movement (right instruction | indication). 眼球回転運動(左指示)における虹彩中心の左右方向の移動量xeを表すグラフである。It is a graph showing the moving amount xe of the left-right direction of the iris center in an eyeball rotational movement (left instruction | indication). 眼球回転運動(左指示)における虹彩中心の左右方向の移動速度xdを表すグラフである。It is a graph showing the moving speed xd of the left-right direction of the iris center in eyeball rotation movement (left instruction | indication). 本発明に係る方向指示方法の前処理部分を示すフローチャートである。It is a flowchart which shows the pre-processing part of the direction instruction | indication method which concerns on this invention. 本発明に係る方向指示方法の左右方向指示の判定のための処理部分を示すフローチャートである。It is a flowchart which shows the process part for determination of the left-right direction instruction | indication of the direction indication method which concerns on this invention. 本発明に係る方向指示方法の上下方向指示の判定のための処理部分を示すフローチャートである。It is a flowchart which shows the process part for determination of the up-down direction instruction | indication of the direction indication method which concerns on this invention.

図1において、1はコンピュータ、2は、このコンピュータ1の操作者(以下ユーザーという)、3はコンピュータ1の画面上方中央に設けられたカメラ(撮像手段)でユーザー2の頭部及び顔の写真を撮影する。このカメラ3の画像から、目すなわち眼球の虹彩中心の2次元座標を求め、その移動量からユーザー2が指示した上下左右方向を判別する。 In FIG. 1, 1 is a computer, 2 is an operator (hereinafter referred to as a user) of the computer 1, and 3 is a photograph of the head and face of the user 2 by a camera (imaging means) provided in the upper center of the screen of the computer 1. Shoot. From the image of the camera 3, two-dimensional coordinates of the iris center of the eye, that is, the eyeball are obtained, and the vertical and horizontal directions designated by the user 2 are determined from the movement amount.

4は、コンピュータ1の画面内に設定された5つのマークで、画面の中央、左右及び上下に配置されている。ユーザー2が、例えば中央に位置しているマーク4に視線を合わせ、視線(破線で示す)を右側のマーク4に移動させたあと、再び中央のマーク4に戻せば、画面を右方向にスクロールすることができ、視線を左側のマーク4に移動させたあと、再び中央のマーク4に戻せば、画面を左方向にスクロールすることができる。同様に、視線を中央のマーク4から上又は下のマーク4に移動させれば画面を上又は下にスクロールすることができる。また、視線を移動させずに、頭部をマークの方向に上下左右に回転させることによっても、同様の操作を実現することができる。なお実際には、画面上にマーク4を表示させることなく、画面の中央、左右、上下に視線を移動、又は頭部を回転させることによっても同様の操作を行うことができる。 Reference numeral 4 denotes five marks set in the screen of the computer 1, which are arranged at the center, left and right, and top and bottom of the screen. For example, the user 2 moves the line of sight (indicated by a broken line) to the mark 4 on the right side after moving the line of sight to the mark 4 located at the center and then returns to the center mark 4 to scroll the screen to the right. The screen can be scrolled to the left by moving the line of sight to the left mark 4 and then returning to the center mark 4 again. Similarly, if the line of sight is moved from the central mark 4 to the upper or lower mark 4, the screen can be scrolled up or down. The same operation can also be realized by rotating the head up and down, left and right in the direction of the mark without moving the line of sight. In practice, the same operation can be performed by moving the line of sight up and down or rotating the head of the screen without displaying the mark 4 on the screen.

このようにして視線の移動又は頭部の回転で画面を上下左右にスクロールすることができ、左右に画面を移動させる場合、例えば画面に書物のページを表示して、これを頭又は視線の動きのみで、ページをめくるなどの操作が可能となる。なおコンピュータ1は、ノートパソコン、タブレット及びスマートフォン等を含む。 In this way, the screen can be scrolled up and down and left and right by moving the line of sight or rotating the head. When moving the screen to the left and right, for example, a page of a book is displayed on the screen, and the movement of the head or line of sight is displayed. It is possible to perform operations such as turning pages. The computer 1 includes a notebook computer, a tablet, a smartphone, and the like.

本実施形態に係る方向指示装置の構成においては以下のパラメータが使用される。
αx,αy: 虹彩中心の移動が、頭部回転と眼球回転のどちらによって起きたか判定するための閾値。これらの値を小さく設定すると、眼球よりも頭部の動きを優先して方向を指示する。逆に、大きく設定すると、眼球の動きを優先して方向を指示する。指示動作の優先度を決めるパラメータである。
βx1,βy1:ユーザーが、頭部で方向指示をしたか否かを判別するときに用いる虹彩中心の移動量に対する閾値。これらの値を小さく設定すると、頭部をわずかに動かしただけでも、コンピュータに方向を指示することができる。ただし、その分、意図しない方向指示の頻度が増える。したがって、頭部を大きく動かしたときだけ指示させたい場合には、これらの値を大きく設定する。
βx2,βy2:ユーザーが頭部で方向指示をしたか否かを判別するときに用いる虹彩中心の移動速度に対する閾値。これらの値を小さく設定すると、頭部をゆっくり動かしても方向指示することが可能になる。ただし、その分、意図しない指示の頻度が増える。したがって、頭部を速く動かしたときだけ指示させたい場合には、これらの値を大きく設定する。
βx3,βy3:ユーザーが眼球で方向指示をしたか否かを判別するときに用いる虹彩中心の移動量に対する閾値。これらの値を小さく設定すると、眼球をわずかに動かしただけでも方向指示することが可能になる。ただし、その分、意図しない方向指示の頻度が増える。したがって、眼球を大きく動かしたときだけ指示させたい場合には、これらの値を大きく設定する。
βx4,βy4:ユーザーが眼球で方向指示をしたか否かを判別するときに用いる虹彩中心の移動速度に対する閾値。これらの値を小さく設定すると、眼球をゆっくり動かしても方向指示することが可能になる。ただし、その分、意図しない方向指示の頻度が増える。したがって、眼球を速く動かしたときだけ指示させたい場合には、これらの値を大きく設定する。
Lx,Ly:頭部と眼球の動作判別で用いるデータ長。この値を大きく設定すると、頭部および眼球を比較的長い時間かけて動かしたときだけ、方向を指示する。意図しない頭部および眼球運動による方向指示を避けたい場合は、これらの値を大きく設定する。
Nx,Ny: 方向指示の判定で用いるデータ長。この値を大きく設定すると、頭部および眼球を比較的長い時間かけて動かしたときだけ、方向を指示する。意図しない頭部および眼球運動による方向指示を避けたい場合は、これらの値を大きく設定する。
Mx,My :方向指示の判定で用いるデータ長。この値を大きく設定すると、頭部および眼球を比較的長い時間かけて大きく動かしたときだけ、方向を指示する。意図しない頭部および眼球運動による方向指示を避けたい場合は、これらの値を大きく設定する。
The following parameters are used in the configuration of the direction indicating device according to the present embodiment.
αx, αy: Threshold values for determining whether the movement of the iris center is caused by head rotation or eyeball rotation. If these values are set small, the direction of the head is instructed with priority given to the movement of the head over the eyeball. On the other hand, when the setting is large, the direction is instructed with priority given to the movement of the eyeball. This parameter determines the priority of the instruction operation.
βx1, βy1: Threshold values for the movement amount of the iris center used when determining whether or not the user has directed the direction with the head. If these values are set small, the direction can be instructed to the computer even if the head is moved slightly. However, the frequency of unintended direction indication increases accordingly. Therefore, when it is desired to give an instruction only when the head is moved largely, these values are set large.
βx2, βy2: Threshold values for the moving speed of the iris center used when determining whether or not the user has directed the direction with the head. If these values are set to a small value, it is possible to indicate the direction even if the head is moved slowly. However, the frequency of unintended instructions increases accordingly. Therefore, when it is desired to give an instruction only when the head is moved quickly, these values are set large.
βx3, βy3: Threshold values for the movement amount of the iris center used when determining whether or not the user has directed the direction with the eyeball. If these values are set to be small, it is possible to indicate the direction even if the eyeball is moved slightly. However, the frequency of unintended direction indication increases accordingly. Accordingly, when it is desired to give an instruction only when the eyeball is moved largely, these values are set large.
βx4, βy4: Threshold values for the moving speed of the iris center used when determining whether or not the user has directed the direction with the eyeball. If these values are set small, it is possible to indicate the direction even if the eyeball is moved slowly. However, the frequency of unintended direction indication increases accordingly. Therefore, when it is desired to give an instruction only when the eyeball is moved quickly, these values are set large.
Lx, Ly: Data length used for discriminating head and eye movements. If this value is set large, the direction is indicated only when the head and the eyeball are moved over a relatively long time. If you want to avoid direction indications due to unintended head and eye movements, set these values large.
Nx, Ny: Data length used in direction indication judgment. If this value is set large, the direction is indicated only when the head and the eyeball are moved over a relatively long time. If you want to avoid direction indications due to unintended head and eye movements, set these values large.
Mx, My: Data length used for direction indication judgment. If this value is set to a large value, the direction is indicated only when the head and eyeball are moved largely over a relatively long time. If you want to avoid direction indications due to unintended head and eye movements, set these values large.

図2において、3は、ユーザー2の目及び顔領域を撮像する前述のカメラで、撮像された画像のイメージ図を図3に示す。5は、カメラ3により撮像された顔領域の第1座標系0を設定する第1座標系設定手段であり、OpenCV(Open Source Computer Vision Library)等の既存ライブラリを利用して、カメラ画像から顔領域を抽出し、左上コーナーを原点とする第1座標系O(X軸、Y軸)を設定する(図4)。6は、カメラ3により撮像された画像のうち目領域の第2座標系O'として設定する第2座標系設定手段で、同様にOpenCV等の既存ライブラリを利用して、顔領域から目領域を抽出し、左上コーナーを原点とする第2座標系O'(Xo軸、Yo軸)を設定する(図5)。     In FIG. 2, 3 is the above-mentioned camera which images the user's 2 eyes and face area | region, and the image figure of the imaged image is shown in FIG. Reference numeral 5 denotes a first coordinate system setting means for setting the first coordinate system 0 of the face area imaged by the camera 3, and uses an existing library such as OpenCV (Open Source Computer Vision Library) to detect the face from the camera image. A region is extracted, and a first coordinate system O (X axis, Y axis) with the upper left corner as the origin is set (FIG. 4). Reference numeral 6 denotes second coordinate system setting means for setting the second coordinate system O ′ of the eye area in the image captured by the camera 3. Similarly, the eye area is determined from the face area using an existing library such as OpenCV. Extract and set the second coordinate system O ′ (Xo axis, Yo axis) with the upper left corner as the origin (FIG. 5).

7は、第2座標系O'の原点座標を、目領域の移動に伴って、これに追随かつ遅延して移動する第3座標系O1を得る第1遅延手段で、例えば第2座標系O'の原点座標をローパスフィルタ処理する第1ローパスフィルタLPF1にて構成することができる。8は、同様に第2座標系O’の原点座標を、目領域の移動に伴って、これに追随かつ遅延して移動するとともに第1遅延手段7より遅延時間が小さい第4座標系O2を得る第2遅延手段で、例えば第2座標系O'の原点座標をローパスフィルタ処理する、第1ローパスフィルタLPF1より遅延時間が小さい第2ローパスフィルタLPF2にて構成することができる。 Reference numeral 7 denotes a first delay means for obtaining a third coordinate system O1 which moves the origin coordinate of the second coordinate system O ′ following and delaying the movement of the eye region. The origin coordinates of 'can be configured by a first low-pass filter LPF1 that performs low-pass filter processing. Similarly, the fourth coordinate system O2 moves the origin coordinate of the second coordinate system O ′ following the delay of the eye region as the eye region moves, and has a delay time smaller than that of the first delay means 7. The obtained second delay means can be constituted by, for example, a second low-pass filter LPF2 having a delay time smaller than that of the first low-pass filter LPF1, which performs low-pass filter processing on the origin coordinates of the second coordinate system O ′.

第1、第2ローパスフィルタLPF1、LPF2の関係は、第1ローパスフィルタLPF1が遅延時間の大きなローパスフィルタ(カットオフ周波数が低いローパスフィルタ)であり、第2ローパスフィルタLPF2が遅延時間の小さいローパスフィルタ(カットオフ周波数が高いローパスフィルタ)である。第1、第2ローパスフィルタLPF1、LPF2による目領域抽出を図6に、頭部回転時における目領域の違いを図7に示す。第1、第2ローパスフィルタLPF1、LPF2のそれぞれのカットオフ周波数は、例えば4.5Hz、10Hzとすることができる。 The relationship between the first and second low-pass filters LPF1 and LPF2 is that the first low-pass filter LPF1 is a low-pass filter having a large delay time (low-pass filter having a low cut-off frequency), and the second low-pass filter LPF2 is a low-pass filter having a small delay time. (A low-pass filter with a high cut-off frequency). FIG. 6 shows eye region extraction by the first and second low-pass filters LPF1 and LPF2, and FIG. 7 shows the difference between eye regions during head rotation. The cutoff frequencies of the first and second low-pass filters LPF1 and LPF2 can be set to 4.5 Hz and 10 Hz, for example.

第1、第2ローパスフィルタLPF1、LPF2のカットオフ周波数をこのような関係に設定すれば、ユーザー2が頭部を回転させたとき、図7に示すように第3座標系O1の移動速度が、第4座標系O2のそれより遅延する。第1ローパスフィルタLPF1で処理すると目領域を示す矩形の枠が滑らかにゆっくりと動き(ゆっくり動かすことで、頭部回転による方向指示検出を可能にしている)、他方第2ローパスフィルタLPF2で処理すると正方形の枠(第4座標系O2)は比較的早く動くのである。頭部回転時における目領域の位置関係を図8に、眼球回転時における目領域の位置関係を図9に示す。 If the cutoff frequencies of the first and second low-pass filters LPF1 and LPF2 are set in such a relationship, when the user 2 rotates his / her head, the moving speed of the third coordinate system O1 is as shown in FIG. , Later than that of the fourth coordinate system O2. When processing with the first low-pass filter LPF1, the rectangular frame indicating the eye region moves smoothly and slowly (by moving slowly, direction indication detection by head rotation is possible), while when processing with the second low-pass filter LPF2 The square frame (fourth coordinate system O2) moves relatively quickly. FIG. 8 shows the positional relationship of the eye regions when the head rotates, and FIG. 9 shows the positional relationship of the eye regions when the eyeball rotates.

9は、第3座標系O1での虹彩中心の移動量と移動速度を算出する第1算出手段であり、画像の2値化、膨張収縮によるノイズ除去処理、ラベリング処理技術を用いて第3座標系O1に対して、虹彩中心のx1座標の値x1cおよびy1座標値の値y1cを求める。 Reference numeral 9 denotes a first calculation means for calculating the moving amount and moving speed of the iris center in the third coordinate system O1, and the third coordinates using image binarization, noise removal processing by expansion and contraction, and labeling processing technology. For the system O1, the x1 coordinate value x1c and the y1 coordinate value y1c of the iris center are obtained.

10は、第4座標系O2での虹彩中心の移動量と移動速度を算出する第2算出手段であり、同様に画像の2値化、膨張収縮によるノイズ除去処理、ラベリング処理技術を用いて第4座標系O2に対しても、虹彩中心のx2座標の値x2cおよびy2座標値の値y2cを求める。 Reference numeral 10 denotes a second calculation means for calculating the moving amount and moving speed of the iris center in the fourth coordinate system O2. Similarly, the second calculating means 10 uses the binarization of the image, the noise removal processing by expansion and contraction, and the labeling processing technique. Also for the four coordinate system O2, the x2 coordinate value x2c and the y2 coordinate value y2c of the iris center are obtained.

11は、第3座標系O1と第4座標系O2の原点間距離に基づく動作判別を行う判別手段であり、x1座標の値x1cとy1座標の値y1cにローカットフィルタを適用し、それぞれをxe1とye1とおく。これにより、値x1cおよびy1cのバイアス成分が除去され、虹彩の左右または上下方向の移動量が得られる。さらに、値x1cおよびy1cに微分フィルタを適用し、それぞれを値xd1およびyd1とおく。これにより虹彩の左右方向および上下方向の移動速度が得られる。同様に、x2座標の値x2cおよびy2座標の値y2cに対して、ローカットフィルタと微分フィルタを適用して、それぞれ値xe2と値xd2および値ye2と値yd2を求める。 11 is a discriminating means for discriminating movement based on the distance between the origins of the third coordinate system O1 and the fourth coordinate system O2. A low cut filter is applied to the value x1c of the x1 coordinate and the value y1c of the y1 coordinate, And ye1. As a result, the bias components of the values x1c and y1c are removed, and the movement amount of the iris in the left-right or vertical direction is obtained. Further, a differential filter is applied to the values x1c and y1c, and the values are set as values xd1 and yd1, respectively. Thereby, the moving speed of the iris in the horizontal direction and the vertical direction can be obtained. Similarly, a low cut filter and a differential filter are applied to the value x2c of the x2 coordinate and the value y2c of the y2 coordinate to obtain the value xe2, the value xd2, the value ye2, and the value yd2, respectively.

さらに、第3座標系O1と第4座標系O2の原点のx軸方向の偏差Dx=|Xo1-Xo2|を計算する。Dx≧αxの状態がLxサンプル連続して起きた場合、移動量xe=xe1、 移動速度xd=xd1 と設定し(この後、頭部で左右に方向指示した場合の処理に移る)、そうでなければ、移動量xe=xe2、 移動速度xd=xd2 と設定する(この後、眼球で左右に方向指示した場合の処理に移る)。同様にして、第3座標系O1と第4座標系O2の原点のy軸方向の偏差Dy=|Yo1-Yo2|を計算する。Dy≧αyの状態がLyサンプル連続して起きた場合、移動量ye=ye1、 移動速度yd=yd1 と設定し(この後、頭部で上下に方向指示した場合の処理に移る)、そうでなければ、移動量ye=ye2、 移動速度yd=yd2 と設定する(この後、眼球で上下に方向指示した場合の処理に移る)。 Further, a deviation Dx = | Xo1-Xo2 | in the x-axis direction between the origins of the third coordinate system O1 and the fourth coordinate system O2 is calculated. If the state of Dx ≧ αx occurs continuously for Lx samples, set the movement amount xe = xe1 and the movement speed xd = xd1 (after that, move to the process when the head is directed left and right), and so on If not, the movement amount xe = xe2 and the movement speed xd = xd2 are set (after that, the process proceeds to the case where the left and right directions are instructed by the eyeball). Similarly, the deviation Dy = | Yo1-Yo2 | in the y-axis direction between the origins of the third coordinate system O1 and the fourth coordinate system O2 is calculated. If the condition of Dy ≧ αy occurs continuously for Ly samples, set the movement amount ye = ye1 and the movement speed yd = yd1 (after that, move to the processing when the head is directed up and down), so If not, the movement amount ye = ye2 and the movement speed yd = yd2 are set (after that, the process moves to the case where the direction is directed up and down with the eyeball).

12は、判別手段11からの信号に基づき頭部による左右方向指示を判定する第1判定手段であり、頭部による指示の有無の判定を行う。すなわち、過去Nxサンプルの間に、|xe|≧βx1、 |xd|≧βx2 の状態がそれぞれMx回連続して起きた場合、頭部で方向指示した可能性ありと判定し、そうでなければ、指示なしと判定する。ここで、頭部で指示方向した可能性ありと判定された場合で、移動速度xdがxd≧βx2の状態からxd≦-βx2に転じていれば、右を指示したと判定し、逆に、xd≦-βx2の状態からxd≧βx2に転じていれば、左を指示したと判定する。いずれにも該当しない場合は、方向指示なしと判定する。図10に頭部回転時における虹彩の移動状態を、図11に眼球回転時における虹彩の移動状態を示す。図12に、虹彩中心の左右方向の移動量xeを、図13に、虹彩中心の左右方向の移動速度xdを示し、右指示と判定した例である。左指示と判定した同様の例を、図14及び図15に示す。 Reference numeral 12 denotes a first determination unit that determines a right / left direction instruction from the head based on a signal from the determination unit 11 and determines whether there is an instruction from the head. That is, if the states of | xe | ≧ βx1 and | xd | ≧ βx2 occur continuously Mx times during the past Nx samples, it is determined that there is a possibility that the head has indicated the direction, otherwise It is determined that there is no instruction. Here, if it is determined that there is a possibility that the head has directed, and if the moving speed xd has changed from xd ≧ βx2 to xd ≦ −βx2, it is determined that the right has been instructed, and conversely, If the state of xd ≦ −βx2 is changed to xd ≧ βx2, it is determined that the left is instructed. If none of these apply, it is determined that there is no direction indication. FIG. 10 shows the moving state of the iris when the head rotates, and FIG. 11 shows the moving state of the iris when the eyeball rotates. FIG. 12 shows the left-right movement amount xe of the iris center, and FIG. 13 shows the left-right movement speed xd of the iris center. A similar example in which the left instruction is determined is shown in FIGS.

13は、判別手段11からの信号に基づき目(眼球)による左右方向指示を判定する第2判定手段であり、眼球による指示の有無の判定を行う。すなわち、過去Nxサンプルの間に、|xe|≧βx3、 |xd|≧βx4 の状態がそれぞれMx回連続して起きた場合、眼球で方向指示した可能性ありと判定し、そうでなければ、指示なしと判定する。ここで、眼球で指示方向した可能性ありと判定された場合に、移動速度xdがxd≧βx4の状態からxd≦-βx4に転じていれば、右を指示したと判定し、逆に、xd≦-βx4の状態からxd≧βx4に転じていれば、左を指示したと判定する。いずれにも該当しない場合は、方向指示なしと判定する。図16に、眼球回転時における虹彩中心の左右方向の移動量xeを、図17に、眼球回転時における虹彩中心の左右方向の移動速度xdを示し、右指示と判定した例である。左指示と判定した同様の例を、図18及び図19に示す。 Reference numeral 13 denotes second determination means for determining a left / right direction instruction by the eyes (eyeball) based on a signal from the determination means 11, and determines whether or not there is an instruction by the eyeball. That is, during the past Nx samples, if the state of | xe | ≧ βx3, | xd | ≧ βx4 has occurred continuously Mx times, respectively, it is determined that there is a possibility that the direction has been indicated by the eyeball, otherwise, It is determined that there is no instruction. Here, if it is determined that there is a possibility that the direction has been indicated by the eyeball, if the moving speed xd has changed from xd ≧ βx4 to xd ≦ −βx4, it is determined that the right has been instructed, and conversely, xd If the state changes from ≦ −βx4 to xd ≧ βx4, it is determined that the left is instructed. If none of these apply, it is determined that there is no direction indication. FIG. 16 shows the left-right movement amount xe of the iris center when the eyeball is rotated, and FIG. 17 shows the left-right movement speed xd of the iris center when the eyeball is rotated. A similar example in which the left instruction is determined is shown in FIGS.

14は、判別手段11からの信号に基づき頭部による上下方向指示を判定する第3判定手段であり、頭部による指示の有無を判定する。すなわち、過去Nyサンプルの間に、|ye|≧βy1、 |yd|≧βy2 の状態がそれぞれMy回連続して起きた場合、頭部で方向指示した可能性ありと判定し、そうでなければ、指示なしと判定する。ここで、頭部で指示方向した可能性ありと判定された場合に、移動速度ydがyd≧βy2の状態からyd≦-βy2に転じていれば、下を指示したと判定し、逆に、yd≦-βy2の状態からyd≧βy2に転じていれば、上を指示したと判定する。いずれにも該当しない場合は、方向指示なしと判定する。 Reference numeral 14 denotes third determination means for determining an up / down direction instruction from the head based on a signal from the determination means 11 and determines whether there is an instruction from the head. That is, if the states of | ye | ≧ βy1 and | yd | ≧ βy2 occur My times consecutively during the past Ny samples, it is determined that there is a possibility that the head has indicated the direction, otherwise It is determined that there is no instruction. Here, when it is determined that there is a possibility that the head is directed, if the movement speed yd is changed from yd ≧ βy2 to yd ≦ −βy2, it is determined that the lower is instructed, and conversely, If the state is changed from yd ≦ −βy2 to yd ≧ βy2, it is determined that the above is instructed. If none of these apply, it is determined that there is no direction indication.

15は、判別手段11からの信号に基づき眼球による上下方向指示の第4判定手段であり、眼球による指示の有無の判定を行う。すなわち、過去Nyサンプルの間に、|ye|≧βy3、 |yd|≧βy4 の状態がそれぞれMy回連続して起きた場合、眼球で方向指示した可能性ありと判定し、そうでなければ、指示なしと判定する。ここで、眼球で指示方向した可能性ありと判定された場合に、移動速度ydがyd≧βy4の状態からyd≦-βy4に転じていれば、下を指示したと判定し、逆に、yd≦-βy4の状態からyd≧βy4に転じていれば、上を指示したと判定する。いずれにも該当しない場合は、方向指示なしと判定する。 Reference numeral 15 denotes fourth determination means for instructing the up and down direction using the eyeball based on the signal from the determination means 11 and determines whether or not there is an instruction using the eyeball. That is, during the past Ny samples, if the states of | ye | ≧ βy3 and | yd | ≧ βy4 have occurred My times consecutively, it is determined that the direction may have been indicated by the eyeball; otherwise, It is determined that there is no instruction. Here, when it is determined that there is a possibility that the direction has been indicated by the eyeball, if the moving speed yd is changed from yd ≧ βy4 to yd ≦ −βy4, it is determined that the lower direction has been instructed, and conversely, yd If the state is changed from ≦ −βy4 to yd ≧ βy4, it is determined that the above is instructed. If none of these apply, it is determined that there is no direction indication.

次に本発明に係る方向指示方法を、図20を用いてステップ(以下ステップをSで示す)順に説明する。   Next, the direction indicating method according to the present invention will be described in the order of steps (hereinafter, steps are indicated by S) with reference to FIG.

S1:前述のパラメータを設定する。 S1: Set the above parameters.

S2:カメラ3によりユーザー2の顔画像(図3)を撮像し読み込む。サンプリング周波数は30Hzとすることができる。 S2: The user 3 captures and reads the face image of the user 2 (FIG. 3) with the camera 3. The sampling frequency can be 30 Hz.

S3:顔領域の抽出及び第1座標系O(X軸、Y軸)を設定する。すなわち、OpenCV等の既存ライブラリを利用して、カメラ画像から顔領域を抽出し、左上コーナーを原点とする第1座標系O(X軸、Y軸)を設定する(図4)。 S3: Extracting the face area and setting the first coordinate system O (X axis, Y axis). That is, using an existing library such as OpenCV, a face region is extracted from a camera image, and a first coordinate system O (X axis, Y axis) with the upper left corner as the origin is set (FIG. 4).

S4:目領域の抽出及び第2座標系O’(X軸、Y軸)を設定する。すなわちOpenCV等の既存ライブラリを利用して、カメラ画像の顔領域から目領域を抽出し、左上コーナーを原点とする第2座標系O'の原点座標(Xo軸、Yo軸)を設定する(図5)。 S4: Extracting the eye area and setting the second coordinate system O ′ (X axis, Y axis). In other words, using an existing library such as OpenCV, the eye area is extracted from the face area of the camera image, and the origin coordinates (Xo axis, Yo axis) of the second coordinate system O ′ with the upper left corner as the origin are set (Fig. 5).

S5:第1遅延手段7である第1ローパスフィルタLPF1による目領域の再設定及びその第3座標系O1(x1軸、y1軸)の設定を行う。すなわち、S2における第2座標系O’の原点座標Xo、Yoに第1ローパスフィルタLPF1を適用して、第3座標系O1の座標原点(Xo1、Yo1)を決定する。 S5: The eye area is reset by the first low-pass filter LPF1, which is the first delay means 7, and the third coordinate system O1 (x1 axis, y1 axis) is set. That is, the first low-pass filter LPF1 is applied to the origin coordinates Xo, Yo of the second coordinate system O ′ in S2 to determine the coordinate origin (Xo1, Yo1) of the third coordinate system O1.

S6: 第2遅延手段8である第2ローパスフィルタLPF2による目領域の再設定及びその第4座標系O2(x2軸、y2軸)の設定を行う。すなわち、S2における第2座標系O’の原点座標Xo、Yoに第2ローパスフィルタLPF2を適用して、第4座標系O2の座標原点(Xo2、Yo2)を決定する。 S6: Reset the eye area by the second low-pass filter LPF2, which is the second delay means 8, and set the fourth coordinate system O2 (x2 axis, y2 axis). That is, the coordinate origin (Xo2, Yo2) of the fourth coordinate system O2 is determined by applying the second low-pass filter LPF2 to the origin coordinates Xo, Yo of the second coordinate system O 'in S2.

なおS5、S6においては、第1、第2遅延手段7,8として第1、第2ローパスフィルタLPF1,LPF2を使用した場合につき説明したが、このようなローパスフィルタを使うことなく、遅延させることもできる。すなわちS5において「第2座標系O'の原点座標Xo,Yoに第1ローパスフィルタLPF1を適用して、第3座標系O1の座標原点(Xo1,Yo1)を決定」とあるのを「N1サンプル前のO'の原点座標Xo,Yoを第3座標系O1の座標原点(Xo1,Yo1)として決定」と置き換え、かつ、S6において、「第2座標系O'の原点座標Xo,Yoに第2ローパスフィルタLPF2を適用して、第4座標系O2の座標原点(Xo2,Yo2)を決定」とあるのを「N2サンプル前の第2座標系O'の原点座標Xo,Yoを第4座標系O2の座標原点(Xo2,Yo2)として決定」と置き換える方法をとればよい。ここで遅延量(遅延サンプル数)を表す設定パラメータN1,N2の関係を、N1>N2と設定するのである。例えばN1=5,N2=0とした場合,方向判別率が50%程度であった。 In S5 and S6, the case where the first and second low-pass filters LPF1 and LPF2 are used as the first and second delay means 7 and 8 has been described. However, delaying can be performed without using such low-pass filters. You can also. That is, in S5, “N1 sample is determined by applying the first low-pass filter LPF1 to the origin coordinates Xo, Yo of the second coordinate system O ′ to determine the coordinate origin (Xo1, Yo1) of the third coordinate system O1”. Replaced the origin coordinates Xo, Yo of the previous O 'as the coordinate origin (Xo1, Yo1) of the third coordinate system O1 "and in S6," the origin coordinates Xo, Yo of the second coordinate system O' 2) Apply the low-pass filter LPF2 to determine the coordinate origin (Xo2, Yo2) of the fourth coordinate system O2 ”. The origin coordinates Xo, Yo of the second coordinate system O ′ before the N2 sample are the fourth coordinates. A method of replacing “determined as the coordinate origin (Xo2, Yo2) of the system O2” may be taken. Here, the relationship between the setting parameters N1 and N2 representing the delay amount (number of delay samples) is set as N1> N2. For example, when N1 = 5 and N2 = 0, the direction discrimination rate was about 50%.

SA:S5による第3座標系O1から、左右方向の判定を行う処理に続くステップである。
SB:S5による第3座標系O1から、上下方向の判定を行う処理に続くステップである。
SC:S6による第4座標系O2から、左右方向の判定を行う処理に続くステップである。
SD:S6による第4座標系O2から、上下方向の判定を行う処理に続くステップである。
SA: This is a step following the process of determining the left and right directions from the third coordinate system O1 by S5.
SB: This is a step following the process of determining the vertical direction from the third coordinate system O1 by S5.
SC: This is a step following the process of determining the horizontal direction from the fourth coordinate system O2 by S6.
SD: This is a step following the process of determining the vertical direction from the fourth coordinate system O2 by S6.

次に、左右方向を判定する処理SA、SCに続くステップを、図21を参照して説明する。 Next, steps following the processes SA and SC for determining the horizontal direction will be described with reference to FIG.

S7: SAに続き、画像の2値化、膨張収縮によるノイズ除去処理、ラベリング処理技術を用いて、第3座標系O1に対して、虹彩中心のx1座標の値x1cを求める。 S7: Following the SA, the value x1c of the x1 coordinate of the iris center is obtained with respect to the third coordinate system O1 using the binarization of the image, the noise removal processing by expansion and contraction, and the labeling processing technology.

S8: SCに続き、画像の2値化、膨張収縮によるノイズ除去処理、ラベリング処理技術を用いて、第4座標系O2に対して、虹彩中心のx2座標の値x2cを求める。 S8: Following the SC, the value x2c of the x2 coordinate of the iris center is obtained with respect to the fourth coordinate system O2 by using image binarization, noise removal processing by expansion and contraction, and labeling processing technology.

S9:S91、S92、S93及びS94よりなる。
S91:S7に続き、値x1cにローカットフィルタを適用し移動量xe1とする。
S92:S7に続き、値x1cに微分フィルタを適用し移動速度xd1とする。
S93:S8に続き、値x2cにローカットフィルタを適用し移動量xe2とする。
S94:S8に続き、値x2cに微分フィルタを適用し移動速度xd2とする。
S9: S91, S92, S93 and S94.
Subsequent to S91: S7, a low cut filter is applied to the value x1c to obtain a movement amount xe1.
Subsequent to S92: S7, a differential filter is applied to the value x1c to obtain a moving speed xd1.
Subsequent to S93: S8, a low cut filter is applied to the value x2c to obtain a movement amount xe2.
S94: Following S8, a differential filter is applied to the value x2c to obtain a moving speed xd2.

S10:S91ないしS94の結果に基づいて、第3 座標系O1と第4座標系O2の原点のx軸方向の偏差Dx=|Xo1-Xo2|を計算 する。 S10: Based on the results of S91 to S94, a deviation Dx = | Xo1-Xo2 | in the x-axis direction between the origins of the third coordinate system O1 and the fourth coordinate system O2 is calculated.

S11:偏差Dx計算の結果、Dx≧αxの状態がLxサンプル連続して起きたか、そうでないかを判断する。 S11: As a result of the deviation Dx calculation, it is determined whether or not the state of Dx ≧ αx occurs continuously for Lx samples.

S12:Dx≧αxの状態がLxサンプル連続して起きたと判断された場合、移動量xe=xe1、移動速度 xd=xd1 と設定する。この後、頭部で方向指示した場合の処理に移る。 S12: If it is determined that the state of Dx ≧ αx has occurred continuously for Lx samples, the movement amount xe = xe1 and the movement speed xd = xd1 are set. Thereafter, the process proceeds when the head is instructed to turn.

S13: Dx≧αxの状態がLxサンプル連続して起きていないと判断された場合、移動量xe=xe2、 移動速度xd=xd2 と設定し、この後、眼球で方向指示した場合の処理に移る。 S13: If it is determined that the state of Dx ≧ αx does not occur continuously for Lx samples, set the movement amount xe = xe2 and the movement speed xd = xd2, and then proceed to the process when the direction is directed with the eyeball. .

S14: S12に続き、頭部で方向指示した場合の処理に移る。すなわち、過去Nxサンプルの間に、|xe|≧βx1、|xd|≧βx2 の状態がそれぞれMx回連続して起きているか否かを判定する。 S14: After S12, the process proceeds to the direction when the head is instructed. That is, it is determined whether or not the states of | xe | ≧ βx1 and | xd | ≧ βx2 have occurred continuously Mx times during the past Nx samples.

S15:S14で、|xe|≧βx1、|xd|≧βx2 の状態がそれぞれMx回連続して起きていると判定された場合、さらに移動速度xdがxd≧βx2の状態からxd≦-βx2に転じているか否かを判定し、転じていると判定したときは右指示と判定する。 S15: In S14, if it is determined that the states of | xe | ≧ βx1 and | xd | ≧ βx2 have occurred continuously Mx times, the moving speed xd is further changed from xd ≧ βx2 to xd ≦ −βx2. It is determined whether or not it is turned. When it is determined that it is turned, it is determined that the instruction is right.

S16: S15で、移動速度xdがxd≧βx2の状態からxd≦-βx2に転じていると判定されない場合において、さらにxd≦-βx2の状態からxd≧βx2に転じていと判定されたときは、左を指示したと判定する。 S16: In S15, when it is determined that the moving speed xd has changed from xd ≧ βx2 to xd ≦ −βx2, and further determined that xd ≦ −βx2 has changed to xd ≧ βx2, It is determined that the left is instructed.

S14において、|xe|≧βx1、xd|≧βx2 の状態がそれぞれMx回連続して起きていると判定されなかった場合及びS16においてxd≦-βx2の状態からxd≧βx2に転じていると判定されなかった場合は、いずれも方向指示なしと判定する。 In S14, if it is not determined that the states of | xe | ≧ βx1 and xd | ≧ βx2 have occurred continuously Mx times, respectively, and it is determined in S16 that the state has changed from xd ≦ −βx2 to xd ≧ βx2. If not, it is determined that there is no direction indication.

S17:S13に続き、眼球で方向指示した場合の処理に移る。すなわち、過去Nxサンプルの間に、|xe|≧βx3、|xd|≧βx4の状態がそれぞれMx回連続して起きているか否かを判定する。 After S17: S13, the process proceeds to the process when the direction is indicated by the eyeball. That is, it is determined whether or not the states of | xe | ≧ βx3 and | xd | ≧ βx4 have occurred continuously Mx times during the past Nx samples.

S18: S17で、|xe|≧βx3、|xd|≧βx4の状態がそれぞれMx回連続して起きていると判定された場合、さらに、xdがxd≧βx4の状態からxd≦-βx4に転じているか否かを判定し、転じていると判定したときは右指示と判定する。 S18: If it is determined in S17 that the states of | xe | ≧ βx3 and | xd | ≧ βx4 have occurred Mx times consecutively, xd further changes from the state of xd ≧ βx4 to xd ≦ -βx4 If it is determined that it is turning, it is determined that the instruction is right.

S19: S18で、移動速度xdがxd≧βx4の状態からxd≦-βx4に転じていると判定されない場合において、さらにxd≦-βx4の状態からxd≧βx4に転じていると判定されたときは、左を指示したと判定する。 S19: When it is determined in S18 that the moving speed xd has changed from xd ≧ βx4 to xd ≦ −βx4, and it is further determined that xd ≦ −βx4 has changed to xd ≧ βx4 It is determined that the left is instructed.

S17において、過去Nxサンプルの間に、|xe|≧βx3、 |xd|≧βx4の状態がそれぞれMx回連続して起きていると判定されなかった場合及びS19においてxd≦-βx4の状態からxd≧βx4に転じていると判定されなかった場合は、いずれも方向指示なしと判定する。 In S17, during the past Nx samples, it is not determined that | xe | ≧ βx3 and | xd | ≧ βx4 are continuously generated Mx times, and in S19, xd ≦ −βx4 from the state of xd If it is not determined that ≧ βx4, it is determined that there is no direction indication.

次に、上下方向を判定する処理SB、SDに続くステップを、図22を参照して説明する。 Next, steps following the processing SB and SD for determining the vertical direction will be described with reference to FIG.

S7’: SBに続き、画像の2値化、膨張収縮によるノイズ除去処理、ラベリング処理技術を用いて、第3座標系O1に対して、虹彩中心のy1座標の値y1cを求める。 S7 ': Subsequent to SB, the y1 coordinate value y1c of the iris center is obtained with respect to the third coordinate system O1 by using image binarization, noise removal processing by expansion and contraction, and labeling processing techniques.

S8’: SDに続き、画像の2値化、膨張収縮によるノイズ除去処理、ラベリング処理技術を用いて、第4座標系O2に対して、虹彩中心のy2座標の値y2cを求める。 S8 ': After SD, the y2 coordinate value y2c of the iris center is obtained with respect to the fourth coordinate system O2 by using image binarization, noise removal processing by expansion and contraction, and labeling processing techniques.

S9’:S91’、S92’、S93’及びS94’よりなる。
S91’:S7’に続き、値y1cにローカットフィルタを適用し移動量ye1とする。
S92’:S7’に続き、値y1cに微分フィルタを適用し移動速度yd1とする。
S93’:S8’に続き、値y2cにローカットフィルタを適用し移動量ye2とする。
S94’:S8’に続き、値y2cに微分フィルタを適用し移動速度yd2とする。
S9 ′: S91 ′, S92 ′, S93 ′ and S94 ′.
Subsequent to S91 ′: S7 ′, a low cut filter is applied to the value y1c to obtain a movement amount ye1.
Subsequent to S92 ′: S7 ′, a differential filter is applied to the value y1c to obtain a moving speed yd1.
Subsequent to S93 ': S8', a low cut filter is applied to the value y2c to obtain a movement amount ye2.
Following S94 ′: S8 ′, a differential filter is applied to the value y2c to obtain a moving speed yd2.

S10’:S91’ないしS94’の結果に基づいて、第3 座標系O1と第4座標系O2の原点のy軸方向の偏差Dy=|Yo1-Yo2|を計算 する。 S10 ': Based on the results of S91' to S94 ', a deviation Dy = | Yo1-Yo2 | in the y-axis direction between the origins of the third coordinate system O1 and the fourth coordinate system O2 is calculated.

S11’:偏差Dy計算の結果、Dy≧αyの状態がLyサンプル連続して起きたか、そうでないかを判断する。 S11 ': As a result of the deviation Dy calculation, it is determined whether or not the state of Dy ≧ αy has occurred continuously for Ly samples.

S12’:Dy≧αyの状態がLxサンプル連続して起きたと判断された場合、移動量ye=ye1、 移動速度yd=yd1 と設定する。この後、頭部で方向指示した場合の処理に移る。 If it is determined that the state of S12 ′: Dy ≧ αy has occurred continuously for Lx samples, the movement amount ye = ye1 and the movement speed yd = yd1 are set. Thereafter, the process proceeds when the head is instructed to turn.

S13’: Dy≧αyの状態がLyサンプル連続して起きていないと判断された場合、移動量ye=ye2、移動速度 yd=yd2 と設定し、この後、眼球で方向指示した場合の処理に移る。 S13 ': If it is determined that the state of Dy ≧ αy does not occur continuously for Ly samples, set the movement amount ye = ye2 and the movement speed yd = yd2, and then the process when the direction is indicated with the eyeball Move.

S14’: S12’に続き、頭部で方向指示した場合の処理に移る。すなわち、過去Nyサンプルの間に、|ye|≧βy1、|yd|≧βy2 の状態がそれぞれMy回連続して起きているか否かを判定する。 S14 ': Following S12', the process proceeds to the direction when the head is instructed. That is, it is determined whether or not the states of | ye | ≧ βy1 and | yd | ≧ βy2 have occurred continuously My times during the past Ny samples.

S15’:S14’で、|ye|≧βy1、|yd|≧βy2 の状態がそれぞれMy回連続して起きていると判定された場合、さらに移動速度ydがyd≧βy2の状態からyd≦-βy2に転じているか否かを判定し、転じていると判定したときは下指示と判定する。 In S15 ': S14', if it is determined that the states of | ye | ≧ βy1 and | yd | ≧ βy2 have occurred continuously My times, the movement speed yd is further increased from the state of yd ≧ βy2 to yd ≦ − It is determined whether or not it has changed to βy2, and when it is determined that it has changed, it is determined that the instruction is down.

S16’: S15’で、移動速度ydがyd≧βy2の状態からxd≦-βy2に転じていないと判定された場合において、さらにyd≦-βx2の状態からyd≧βy2に転じていると判定されたときは、上を指示したと判定する。 S16 ′: In S15 ′, when it is determined that the moving speed yd has not changed from xd ≦ −βy2 to yd ≧ −βy2, it is further determined that yd ≦ −βx2 has changed to yd ≧ βy2. If it is, it is determined that the top is instructed.

S14’において、|ye|≧βy1、|yd|≧βy2 の状態がそれぞれMx回連続して起きていると判定されなかった場合及びS16’においてyd≦-βy2の状態からyd≧βy2に転じていると判定されなかった場合は、いずれも方向指示なしと判定する。 In S14 ′, if it is not determined that the states | ye | ≧ βy1 and | yd | ≧ βy2 have occurred continuously Mx times, and in S16 ′, the state yd ≦ −βy2 is changed to yd ≧ βy2. In the case where it is not determined that there is any direction, it is determined that there is no direction instruction.

S17’:S13’に続き、眼球で方向指示した場合の処理に移る。すなわち、過去Nyサンプルの間に、|ye|≧βy3、 |yd|≧βy4の状態がそれぞれMy回連続して起きているか否かを判定する。 Following S17 ': S13', the process proceeds to the case where the direction is indicated by the eyeball. That is, it is determined whether or not | ye | ≧ βy3 and | yd | ≧ βy4 have occurred continuously My times during the past Ny samples.

S18’: S17’で、|ye|≧βy3、|xd|≧βy4の状態がそれぞれMy回連続して起きていると判定された場合、さらに、移動速度ydがyd≧βy4の状態から移動速度yd≦-βy4に転じているか否かを判定し、転じていると判定したときは下指示と判定する。 S18 ': In S17', if it is determined that the states of | ye | ≧ βy3 and | xd | ≧ βy4 have occurred continuously My times, the movement speed yd is the movement speed from the state of yd ≧ βy4. It is determined whether or not yd ≦ −βy4 has been reached.

S19’:S18’で、移動速度ydがyd≧βy4の状態からyd≦-βy4に転じていると判定されなかった場合において、さらにyd≦-βy4の状態からyd≧βy4に転じていると判定されたときは、上を指示したと判定する。 S19 ′: In S18 ′, when it is not determined that the moving speed yd is changed from yd ≧ βy4 to yd ≦ −βy4, it is further determined that yd ≦ −βy4 is changed to yd ≧ βy4. If it is, it is determined that the top is instructed.

S17’において、過去Nyサンプルの間に、|ye|≧βy3、 |yd|≧βx4の状態がそれぞれMy回連続して起きていると判定されなかった場合及びS19’においてyd≦-βy4の状態からyd≧βy4に転じていると判定されなかった場合は、いずれも方向指示なしと判定する。 In S17 ', if it is not determined that the states of | ye | ≧ βy3 and | yd | ≧ βx4 have occurred continuously My times during the past Ny samples, and the state of yd ≦ -βy4 in S19' If it is not determined that yd ≧ βy4, the direction is not determined.

次に、判定精度の検証結果を示す。
a.被験者:3名
b.検証内容:眼球運動で左右10回ずつ方向指示、頭部回転で左右10回ずつ方向指示の計40試行した。
c.検証方法:(1)第1、第2遅延手段として第1、第2ローパフフィルタLPF1,LPS2を使用した場合(本発明方法)及び(2)ローパスフィルタを使わない従来方法による場合において、方向指示の判別率を比較した。
d.検証結果:3名の方向判別率(平均値)
(1)本発明方法:眼球運動81%、頭部回転98%
(2)従来方法:眼球運動81%、頭部回転0%
検証の結果、眼球回転運動では、本発明では従来方法とほぼ同じ判別率が得られ、頭部回転運動では本発明による方向判別率の方が格段に優れていることが分かった。
Next, the verification result of the determination accuracy is shown.
a. Subjects: 3
b. Contents of verification: A total of 40 trials were performed, in which the direction of the eye was directed 10 times to the left and right, and the direction of the head was directed 10 times to the left and right.
c. Verification method: (1) When the first and second low-puff filters LPF1 and LPS2 are used as the first and second delay means (the method of the present invention) and (2) When the conventional method does not use the low-pass filter The direction indication discrimination rate was compared.
d. Verification result: Direction discrimination rate of 3 people (average value)
(1) Method of the present invention: eye movement 81%, head rotation 98%
(2) Conventional method: eye movement 81%, head rotation 0%
As a result of the verification, it was found that in the eye rotation movement, the discrimination rate almost the same as that of the conventional method was obtained in the present invention, and the direction discrimination ratio according to the present invention was much superior in the head rotation motion.

なお検証実験では、意図的に、目の大きい者(目がよく開いている常態にある者)と目の細い者(目があまり開いていない常態にある者)を1名ずつ選んだ。目の大きさを表す指標として、開眼度A=(目の高さ)/(目の長さ)を用いると、以下の通りである。
・被験者1:A=0.39(目が大きい者)
・被験者2:A=0.34
・被験者3:A=0.28(目が細い者)
実験の結果、目の大きい者の方が、高い判別率が得られることが分かった。被験者1にあっては、眼球運動100%、頭部回転100%の判別率であり、他方、被験者3にあっては、眼球運動55%、頭部回転95%の判別率であった。
In the verification experiment, we intentionally selected one person with large eyes (a person in a normal condition with wide eyes) and one with narrow eyes (a person in a normal condition with little eyes open). When the eye opening degree A = (eye height) / (eye length) is used as an index representing the size of the eyes, the following is obtained.
・ Subject 1: A = 0.39 (person with large eyes)
・ Subject 2: A = 0.34
・ Subject 3: A = 0.28 (thin with narrow eyes)
As a result of experiments, it was found that those with larger eyes can obtain a higher discrimination rate. Subject 1 had a discrimination rate of 100% eye movement and 100% head rotation, while subject 3 had a discrimination rate of 55% eye movement and 95% head rotation.

1 コンピュータ
2 ユーザー(操作者)
3 カメラ(撮像手段)
4 マーク
5 第1座標系設定手段
6 第2座標系設定手段
7 第1遅延手段
8 第2遅延手段
9 第1算出手段
10 第2算出手段
11 判別手段
12 第1判定手段
13 第2判定手段
14 第3判定手段
15 第4判定手段
1 Computer 2 User (operator)
3 Camera (imaging means)
4 mark
5 First coordinate system setting means 6 Second coordinate system setting means 7 First delay means 8 Second delay means 9 First calculation means 10 Second calculation means 11 Determination means 12 First determination means 13 Second determination means 14 Third Determination means 15 Fourth determination means

Claims (4)

コンピュータ操作者の顔領域を撮像する撮像手段と、
該撮像手段により撮像された顔領域の第1座標系を設定する第1座標系設定手段と、
前記撮像手段により撮像された顔領域における目領域の第2座標系を設定する第2座標系設定手段と、
前記目領域の移動に伴って、これに追随し遅延して移動する第3座標系を得る第1遅延手段と、
前記目領域の移動に伴って、これに追随し遅延して移動するとともに前記第1遅延手段より遅延時間が小さい第4座標系を得る第2遅延手段と、
前記第3座標系での虹彩中心の移動量と移動速度を算出する第1算出手段と、
前記第4座標系での虹彩中心の移動量と移動速度を算出する第2算出手段と、
前記第3座標系と前記第4座標系の原点間距離に基づく動作判別を行う判別手段と、
該判別手段からの信号に基づき頭部による左右方向指示を判定する第1判定手段と、
前記判別手段からの信号に基づき眼球による左右方向指示を判定する第2判定手段と、
前記判別手段からの信号に基づき頭部による上下方向指示を判定する第3判定手段と、
前記判別手段からの信号に基づき眼球による上下方向指示を判定する第4判定手段と、
よりなることを特徴とする方向指示装置
Imaging means for imaging a computer operator's face area;
First coordinate system setting means for setting a first coordinate system of the face area imaged by the imaging means;
Second coordinate system setting means for setting a second coordinate system of the eye area in the face area imaged by the imaging means;
First delay means for obtaining a third coordinate system that moves with a delay following the movement of the eye area;
Second delay means for obtaining a fourth coordinate system that moves with a delay following the movement of the eye area and has a delay time smaller than that of the first delay means;
First calculating means for calculating the moving amount and moving speed of the iris center in the third coordinate system;
Second calculating means for calculating the moving amount and moving speed of the iris center in the fourth coordinate system;
Discriminating means for discriminating operation based on the distance between the origins of the third coordinate system and the fourth coordinate system;
First determination means for determining a left-right direction instruction from the head based on a signal from the determination means;
Second determination means for determining a left-right direction instruction by an eyeball based on a signal from the determination means;
Third determination means for determining a vertical direction instruction by the head based on a signal from the determination means;
Fourth determination means for determining a vertical direction instruction by an eyeball based on a signal from the determination means;
Direction indicating device characterized by comprising
前記第1遅延手段が、前記第2座標系の原点座標をローパスフィルタ処理する第1ローパスフィルタよりなり、前記第2遅延手段が、前記第2座標系の原点座標をローパスフィルタ処理する、前記第1ローパスフィルタより遅延時間が小さい第2ローパスフィルタよりなることを特徴とする請求項1記載の方向指示装置 The first delay means comprises a first low-pass filter that performs low-pass filtering on the origin coordinates of the second coordinate system, and the second delay means performs low-pass filtering on the origin coordinates of the second coordinate system. 2. The direction indicating device according to claim 1, comprising a second low-pass filter having a delay time smaller than that of the one low-pass filter. コンピュータ操作者の顔領域を撮像するステップと、
該ステップにより撮像された顔領域の第1座標系を設定するステップと、
撮像された顔領域における目領域画像の第2座標系を設定するステップと、
前記目領域の移動に伴って、これに追随し遅延して移動する第3座標系を得るステップと、
前記目領域の移動に伴って、これに追随し遅延して移動するとともに前記第3座標系より遅延時間が小さい第4座標系を得るステップと、
前記第3座標系での虹彩中心の移動量と移動速度を算出するステップと、
前記第4座標系での虹彩中心の移動量と移動速度を算出するステップと、
前記第3座標系と前記第4座標系の原点間距離に基づく動作判別を行うステップと、
前記動作判別に基づき頭部による左右方向指示を判定するステップと、
前記動作判別に基づき眼球による左右方向指示を判定するステップと、
前記動作判別に基づき頭部による上下方向指示を判定するステップと、
前記動作判別に基づき眼球による上下方向指示を判定するステップと、
よりなることを特徴とする方向指示方法
Imaging the face area of the computer operator;
Setting a first coordinate system of the face area imaged by the step;
Setting a second coordinate system of the eye area image in the captured face area;
Acquiring a third coordinate system that follows and moves with the movement of the eye region with a delay;
Accompanied by the movement of the eye region, the fourth coordinate system that follows and moves with a delay and has a smaller delay time than the third coordinate system;
Calculating a moving amount and moving speed of the iris center in the third coordinate system;
Calculating a moving amount and moving speed of the iris center in the fourth coordinate system;
Performing an operation determination based on a distance between origins of the third coordinate system and the fourth coordinate system;
Determining left and right direction instructions from the head based on the motion determination;
Determining a left-right direction instruction by an eyeball based on the operation determination;
Determining a vertical direction instruction by the head based on the motion determination;
Determining a vertical direction instruction by an eyeball based on the motion determination;
Direction indication method characterized by comprising
前記第3座標系を得るステップは、前記第2座標系の原点座標をローパスフィルタ処理する第1ローパスフィルタにてなされ、前記第4座標系を得るステップは、前記第2座標系の原点座標をローパスフィルタ処理する、前記第1ローパスフィルタより遅延時間が小さい第2ローパスフィルタにてなされることを特徴とする請求項3記載の方向指示方法
The step of obtaining the third coordinate system is performed by a first low-pass filter that performs low-pass filter processing on the origin coordinates of the second coordinate system, and the step of obtaining the fourth coordinate system comprises obtaining the origin coordinates of the second coordinate system. 4. The direction indication method according to claim 3, wherein a low-pass filter process is performed by a second low-pass filter having a delay time smaller than that of the first low-pass filter.
JP2014239136A 2014-11-26 2014-11-26 Direction indicating device and direction indicating method Active JP6346547B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014239136A JP6346547B2 (en) 2014-11-26 2014-11-26 Direction indicating device and direction indicating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014239136A JP6346547B2 (en) 2014-11-26 2014-11-26 Direction indicating device and direction indicating method

Publications (2)

Publication Number Publication Date
JP2016099959A true JP2016099959A (en) 2016-05-30
JP6346547B2 JP6346547B2 (en) 2018-06-20

Family

ID=56077935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014239136A Active JP6346547B2 (en) 2014-11-26 2014-11-26 Direction indicating device and direction indicating method

Country Status (1)

Country Link
JP (1) JP6346547B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7428390B2 (en) 2021-05-14 2024-02-06 株式会社システック Display position movement instruction system within the display screen

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003280805A (en) * 2002-03-26 2003-10-02 Gen Tec:Kk Data inputting device
JP2007323126A (en) * 2006-05-30 2007-12-13 Kyocera Corp Input device and input operation method
US20140164756A1 (en) * 2012-12-07 2014-06-12 Pixart Imaging Inc. Controlling method and electronic apparatus utilizing the controlling method
JP2014514661A (en) * 2011-04-21 2014-06-19 株式会社ソニー・コンピュータエンタテインメント Gaze assist computer interface
JP2014149794A (en) * 2013-02-04 2014-08-21 Tokai Univ Visual line analysis device
JP2015507261A (en) * 2011-12-21 2015-03-05 ユニヴェルシテ・ピエール・エ・マリ・キュリ・(パリ・6) Method for estimating optical flow based on asynchronous optical sensors

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003280805A (en) * 2002-03-26 2003-10-02 Gen Tec:Kk Data inputting device
JP2007323126A (en) * 2006-05-30 2007-12-13 Kyocera Corp Input device and input operation method
JP2014514661A (en) * 2011-04-21 2014-06-19 株式会社ソニー・コンピュータエンタテインメント Gaze assist computer interface
JP2015507261A (en) * 2011-12-21 2015-03-05 ユニヴェルシテ・ピエール・エ・マリ・キュリ・(パリ・6) Method for estimating optical flow based on asynchronous optical sensors
US20140164756A1 (en) * 2012-12-07 2014-06-12 Pixart Imaging Inc. Controlling method and electronic apparatus utilizing the controlling method
JP2014149794A (en) * 2013-02-04 2014-08-21 Tokai Univ Visual line analysis device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
上ヶ平 裕彦: "JASコンファレンス’94レポート", 無線と実験, vol. 第82巻第1号, JPN6018018288, 1 January 1995 (1995-01-01), ISSN: 0003799598 *
佐藤 寛修: "視線入力による重度肢体不自由者向けコンピュータ操作支援システム", 電子情報通信学会技術研究報告, vol. 第105巻第505号, JPN6018018289, JP, ISSN: 0003799599 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7428390B2 (en) 2021-05-14 2024-02-06 株式会社システック Display position movement instruction system within the display screen

Also Published As

Publication number Publication date
JP6346547B2 (en) 2018-06-20

Similar Documents

Publication Publication Date Title
US10456918B2 (en) Information processing apparatus, information processing method, and program
US11006864B2 (en) Face detection device, face detection system, and face detection method
JP6265348B2 (en) Eye-gaze measuring device, eye-gaze measuring method, and eye-gaze measuring program
JP6809226B2 (en) Biometric device, biometric detection method, and biometric detection program
CN111212594B (en) Electronic device and method for determining conjunctival congestion degree by using electronic device
WO2014075418A1 (en) Man-machine interaction method and device
US20180075616A1 (en) Method and system for determining datum plane
TW201719335A (en) Line-of-sight input device, line-of-sight input method, and line-of-sight input program
KR20170041636A (en) Display control apparatus, display control method, and program
TWI557601B (en) A puppil positioning system, method, computer program product and computer readable recording medium
US20190230290A1 (en) Information processing device, information processing method, and program
JP2011147547A (en) Image processing method and image processing device
WO2020054760A1 (en) Image display control device and program for controlling image display
JP6346547B2 (en) Direction indicating device and direction indicating method
JP2009282706A (en) Vein authentication device and vein authentication method
US11474595B2 (en) Display device and display device control method
US11589001B2 (en) Information processing apparatus, information processing method, and program
JP5862410B2 (en) Number of people counting server, number of people counting device, and number of people counting system
WO2018170678A1 (en) Head-mounted display device and gesture recognition method therefor
JP2015177428A5 (en)
JP6289655B2 (en) Screen operation apparatus and screen operation method
KR20100081099A (en) Apparatus and method for out-focasing
JP6170696B2 (en) Image processing apparatus and image processing method
JP5951966B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP2021096537A (en) Biological information acquisition device, terminal device, biological information acquisition method, biological information acquisition program, and computer readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170711

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180525

R150 Certificate of patent or registration of utility model

Ref document number: 6346547

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250