WO2005059736A1 - 瞳孔検出によるポインタ制御装置及び方法 - Google Patents

瞳孔検出によるポインタ制御装置及び方法 Download PDF

Info

Publication number
WO2005059736A1
WO2005059736A1 PCT/JP2004/019157 JP2004019157W WO2005059736A1 WO 2005059736 A1 WO2005059736 A1 WO 2005059736A1 JP 2004019157 W JP2004019157 W JP 2004019157W WO 2005059736 A1 WO2005059736 A1 WO 2005059736A1
Authority
WO
WIPO (PCT)
Prior art keywords
pupil
movement
pointer
signal
light source
Prior art date
Application number
PCT/JP2004/019157
Other languages
English (en)
French (fr)
Inventor
Yoshinobu Ebisawa
Original Assignee
National University Corporation Shizuoka University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2003419110A external-priority patent/JP4839432B2/ja
Priority claimed from JP2004170173A external-priority patent/JP2005352580A/ja
Application filed by National University Corporation Shizuoka University filed Critical National University Corporation Shizuoka University
Publication of WO2005059736A1 publication Critical patent/WO2005059736A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Definitions

  • the present invention relates to a pointing device that can be substituted for a mouse or a joystick as an input device in a system such as a computer, a game machine, and industrial equipment.
  • Eagle eye has a video camera installed next to a personal computer, and while capturing an image of the face, it tracks a part of the face specified in advance by template matching through image processing. This is a method of moving the cursor. They track the nose, chin, and black eyes. However, even if the template is updated, it may be difficult to cope with a sudden change in the surrounding brightness, and problems such as the target to be tracked gradually shifting are likely to occur.
  • the Origin Instruments method is a type of stereo camera that detects the movement of the martial arts attached to the head and moves the cursor accordingly.
  • the problem with this is that the markers must be attached one by one. For this reason, it is generally difficult to use.
  • Patent Document 1 Japanese Patent Application Laid-Open No. H11-566782
  • Patent Literature 2 Japanese Patent Application Laid-Open No. 2004-26261589
  • the opening / closing state of the eyes is related to the operation of the left and right buttons of the mouse, and the same operation as that of the mouse is performed only with the head.
  • Linking the movement of the head in the left, right, up, and down directions with the movement of the cursor in the up, down, left, and right directions can use a method such as tracking a marker attached to the forehead as in the related art. More preferably, by detecting an eye, particularly a pupil, as described later, there is no sense of incongruity in mounting the marker, and convenience is improved. In cases where it is difficult to move the cursor only by moving the head, it is more useful to provide signal combining means so that a normal pointing device can be used together.
  • the generation of signals corresponding to the left and right mouse buttons is linked to the opening and closing of the eyes (eyelids).
  • other auxiliary input devices such as lever switches can be used together.
  • the following description focuses on the detection of the opening and closing of the eyes by pupil detection, but it goes without saying that various modifications such as black eye detection and white eye detection are possible.
  • the movement of the head will be mainly described by pupil detection, but the detection of markers and magnetic materials, and also the nostrils, nose head, chin, lips, mouth, mouth corners, eyebrows, eye gaps, outer corners of eyes, black eyes and white eyes, etc. It is obvious that other methods such as pattern matching and extraction by luminance separation may be adopted.
  • the present invention illuminates a face with an invisible infrared light source, shoots the entire width of the face with a video camera at an easily magnified magnification, and directly detects two or one pupil in the image taken by the video camera. It is a method.
  • the user can move the cursor on a monitor such as a personal computer, select a menu displayed on the monitor, or use keyboard software. To enter characters and switch between multiple windows.
  • the device alone can generate a signal corresponding to pressing the left and right buttons of the mouse, and there is no need for another input assist device for a click operation.
  • a light source installed close to the optical axis of the camera and a light source installed far away are alternately turned on for each field, and a bright image, an image, and an image of the pupil are obtained, and an image difference calculation is performed. . This facilitates pupil detection.
  • the principle of obtaining a bright image and a dark image of the pupil is that the reflection from the pupil is based on the phenomenon that the light incident from the lens of the eyeball is reflected by the retina and almost returned to the original light source. It is based on the finding that reflected light cannot be recognized even when observed at a deviated position.
  • Fig. 1 is a block diagram of the entire system.
  • Figure 2 is an example of keyboard display on a monitor by software.
  • FIG. 3 is a diagram illustrating an example of the arrangement of illumination light.
  • FIG. 4 is an image example showing a reflected image from a pupil and a difference image.
  • FIG. 5 is a schematic diagram showing movement of a cursor corresponding to movement and disappearance of a pupil.
  • FIG. 6 is a diagram showing the correspondence between the subject's eyes open / close operation and the operation of a general-purpose mouse.
  • FIG. 7 is a diagram showing some examples of a proportional relationship between the amount of movement of the head and the amount of cursor movement.
  • Figure 1 shows the configuration of the entire system.
  • Camera 1 is a general-purpose CCD video camera that is sensitive to near-infrared light.
  • One light source 2 is located near the opening of camera 1 (the part through which light passes), and another is located away from the opening of the camera.
  • Two light sources 3 are provided.
  • Camera 1, light source 2 and light source 3 are connected to control device 4.
  • the control device 4 is connected to a personal computer (hereinafter referred to as “PC”) 5 having a monitor 6.
  • the connection interface is preferably a PCI bus interface when the control device is inserted into the PCI slot, and a USB interface is preferable if the control device is used as an external adapter.
  • the personal computer itself can be used as the control device.
  • control device can be divided and the functions executed by software, those executed by hardware, those executed by the personal computer itself, and those executed by PCI boards can be distributed as appropriate. This can be understood by those skilled in the art.
  • a pointer position control interface displayed on a display by a signal from a pointing device and an interface for transmitting an operation instruction by a user's push button associated with the pointer position to software are provided.
  • optical remote control signals can be used for interfaces to enable operations corresponding to some of the remote control's push buttons.
  • a subject (user) 7 emits light from a light source 2 near the camera and a light source 3 away from the camera alternately, and the camera 1 captures an image reflected from the pupil.
  • the control device 4 calculates the difference between the image from the light source 2 and the image from the light source 3, and transfers the obtained change in the pupil position to the personal computer 5 via the USB interface.
  • the position of the cursor 8 displayed on the monitor 6 is controlled by regarding the signal from the control device 4 as being equivalent to a mouse which is a kind of pointing device.
  • control device 4 detects an operation of closing only one eye, and generates a signal corresponding to pressing the left and right buttons.
  • control device controls the light emission of the light source.
  • the control device is synchronized with the commercial frequency.
  • a control device that captures an image in synchronization with the commercial frequency is synchronized with the commercial frequency.
  • the system composed of the camera 1, the nearby light source 2, the remote light source 3, and the control device 4 has the same function as a normal PC mouse. Therefore, it is preferable to output signals corresponding to the direction and speed of movement, two buttons, etc. in exactly the same format as a normal mouse.
  • the pupil mouse and a normal mouse can be used together. Connect this system to another personal computer via a USB cable, etc., as usual. Therefore, no. For the Sokon, it will look like a normal mouse. If a normal mouse is connected to the same personal computer at the same time, this system and the mouse can be used together.
  • connection interface is exemplified as USB, but it is not limited to this, and PS / 2, RS232C and parallel ports can also be used.
  • the amount of movement of the head is detected by pupil detection, and the cursor is moved. Although it is explained, it detects markers and magnetic materials provided on the head (including the face), and also puts on the nostrils, nose head, chin, lips, mouth, mouth corners, eyebrows, eyes, eyes, black eyes and white eyes. It is obvious that other methods such as extraction by matching or luminance separation may be adopted.
  • a software keyboard As described below. 'On the display screen of the personal computer, the keyboard input tool as shown in Fig. 2 is displayed by software. Move the cursor to the desired character and click to enter that character into a general application software such as Word (trademark) (Web address http://orin.com/access/softype/ index.htm 3 ⁇ 4r, see). If you move the cursor to a place other than the keyboard input tool, you can do the same as a normal mouse operation.
  • Word trademark
  • the squares of characters are arranged in a matrix, the selected squares are in high brightness (or low brightness, inverted brightness, blinking, and bordering), and the squares selected by the cursor movement signal are moved up, down, left, and right. It includes a moving form. In this case, a display mode in which the cursor icon is hidden is also allowed.
  • the pupil changes in the image of the eye part of the raw image immediately after the blink (when the pupil reappears) (a few frames apart from each other, for example, four frames, in order to prevent misrecognition of other parts). Detected by subtracting the raw images from each other). In this case, a change in the image of the eye part is detected, and once detected, a window centering on each pupil is provided, and a pupil search is performed only in that window. In a subsequent frame, if it is determined that the pupil is present again in the given window, it is determined that the pupil is present, and either eye is closed, and the pupil is no longer detected in the corresponding window. , versus It is determined that the corresponding pupil has disappeared. If either the left or right pupil is detected in the previous frame, and only one pupil is detected in the current frame, it is determined that the pupil on the same side as the previous frame has been detected.
  • the window is released and the pupil search is performed on the entire image. However, if one pupil is detected, no search is performed in the window given to that pupil. Once the eyes are closed and reopened, the pupil is detected again and a window is provided to detect changes in the image of the eye area. Therefore, in general, an undetected pupil will remain undetected, even if the eye is open, unless the eyes are closed and then reopened. Once blinking normally, both pupils will be detected again.
  • the pupil is not detected even though the eyes are open, shaking the face little by little will cause an image change in the eyes, and the same effect as blinking will occur. This causes the pupil to be detected again without blinking. This effect occurs even during rapid head movement. If the pupil image is blurred and cannot be clearly captured due to rapid movement, pupil detection may not be possible temporarily.Image changes occur in the eye area, so the speed of movement can be achieved without blinking. The pupil may be detected again when is delayed.
  • the position of the head is set as the cursor position (named as control based on the absolute amount), and (2) the movement amount of the head per unit time is The amount of movement per unit time from the current position of the cursor per unit time (referred to as relative amount control). (3) The amount of movement of the cursor per unit time is proportional to the deviation from the origin of the head. Generated (named as control by the amount of integration).
  • the above (1) corresponds to the old joystick, the amount corresponding to the amount of displacement of the lever, The cursor position is determined (control of the absolute position).
  • the above (2) corresponds to the current mouse or trackball, and the cursor moves by an amount commensurate with the amount of rotation (control of the relative position).
  • the above (3) corresponds to the stick-shaped controller found in current notebook computers, and the cursor keeps moving while the lever is tilted (position determination by integration). Force-sol control by force-solky can be said to correspond to the above (3).
  • the cursor may be moved by differentiating the position information.
  • a dead zone may be provided, and when the movement is large, a large amount of movement may be created as an acceleration function.
  • the head movement includes a parallel movement and a rotational movement
  • the parallel movement is easier to detect
  • the head movement of the present invention is not limited to the parallel movement.
  • detection methods for detecting the rotational movement such as a method of estimating the distance between pupils and a method of detecting the position of the outer corner of the eye as a traceable point even when the eyes are closed.
  • a general-purpose CCD video camera with sensitivity to near-infrared light is used as camera 1.
  • one light source 2 is provided near the opening of the camera 1 (the part through which light passes), and another light source 3 is provided away from the opening of the camera.
  • Figure 3 shows two examples of actual light sources.
  • LEDs light-emitting diodes
  • FIG. 3 (a) light-emitting diodes
  • LEDs 11 are arranged concentrically in the nearest area 12 of the opening (lens) 10 of the camera.
  • An example is shown in which the light emitting diodes 11 are similarly arranged concentrically in the outer peripheral region 13.
  • the light emitting diode 11 is arranged concentrically in the area 14 near the opening 10 of the camera, and the circular area 15 is provided at a position slightly separated from the camera opening 10.
  • An example in which light emitting diodes 11 are arranged is shown.
  • the shape of the light source is different. However, if the shape of the light source at a position distant from the camera and the shape of the light source arranged near the camera are the same without changing the shape of the light source, manufacturing costs can be reduced.
  • the positions of these light emitting diodes are illumination for obtaining the reflected light from the pupil and illumination for obtaining the entire face image necessary for performing the difference calculation. It is not preferable that there is a difference between the face images due to the illumination light, and illumination from a remote position is not for obtaining the reflected light from the pupil. Therefore, it is desirable to arrange the image at an appropriate position.
  • a first light source placed near the camera illuminates the pupil with a light source line that makes an angle of about 3 degrees or less with the optical axis connecting the pupil and the camera, and is located at a position separated from the camera.
  • the arranged second light source illuminates the pupil with a light source line having an angle of about 3 degrees or more with the optical axis connecting the pupil and the camera.
  • FIG. 4 shows an image of the subject 7 actually taken.
  • the image of the camera 1 is basically taken so that the two pupils are sufficiently large to fit in the frame.
  • the pupil appears bright (bright pupil) as shown in Fig. 4 (a).
  • the pupil appears dark ( ⁇ pupil) as shown in Fig. 4 (b).
  • the small point in the pupil seen in these two images is called corneal reflection, which is reflected by each light source on the corneal surface. In this method, corneal reflection is not used.
  • the two light sources described above are synchronized with the odd and even fields of the video signal of the camera, and the two light sources are alternately illuminated to obtain images of the bright pupil and the ⁇ pupil alternately.
  • Them By subtracting these images, an image as shown in Fig. 4 (c) can be obtained. In this difference image, the pupils appear to protrude from other parts (background), and the two pupils can be detected relatively easily.
  • the output of the pointing device due to pupil movement is a signal indicating the amount of mouse movement, information on whether the right button is pressed, and information on whether the left button is pressed, in order to correspond to a normal mouse signal. Is done.
  • FIG. 5 (a) shows the movement of the cursor when both pupils are detected.
  • the left pupil 20 and the right pupil 22 exist as the first positions, and the movement of the face is detected at the positions of the left pupil 21 and the right pupil 23.
  • the control device 4 the average coordinates of the initial positions of both pupils are obtained, and the average coordinates after the movement are obtained.
  • a force-sol movement signal is generated based on the difference between the two calculated average coordinates. No ,.
  • the computer 5 moves the cursor 24 on the monitor to a new position, the cursor 25, based on the cursor movement signal.
  • the cursor position may be controlled only by detecting the position of one pupil instead of calculating the average coordinates of both pupils. This is because there is no practical problem because there is no drag operation by pressing the right button of the mouse.
  • FIG. 5 (b) shows a case where one pupil (left pupil) has disappeared and the movement of the other pupil (right pupil) has been detected.
  • the left pupil 26 disappears at this position, and a new position is detected as if the right pupil 22 has moved to the right pupil 23.
  • the subject (user) has instructed dragging with the cursor, and the movement is performed while pressing the left button of the mouse.
  • the disappearance of the left pupil corresponds to pressing the left button of the mouse
  • the disappearance of the right pupil corresponds to pressing the right button of the mouse.However, this correspondence can be set arbitrarily and is limited to this. Not something.
  • an approximate location of the pupil is searched using the luminance information.
  • a window is provided around it, and a brightness histogram within the window is created.
  • the luminance histogram has two peaks (peaks) representing the pupil and the background. Therefore, an intermediate value between the two peaks is set as a threshold value and binarized by an appropriate method. This threshold is determined automatically. From this, the number of pixels in the pupil is counted. The number of pupil pixels is used according to the pupil area.
  • the pupil position of the next frame is predicted by using a prediction model such as a Kalman filter.
  • a window is provided near the pupil position expected from the beginning. Then, the threshold value is automatically determined only in the window as described above, the pupil part is determined, and the pupil center is determined.
  • the luminance histogram in the window only shows one peak in the background. If only one eye is closed, only the closed pupil window is released. In the next frame, the window given to the pupil with the eye open in the previous frame is maintained, and pupil detection is attempted from the whole image outside of that. Then, a window is given to the position specified as a pupil candidate, and the same analysis within the window is performed. If it is determined that a pupil exists, a new window is provided there, and the closed eyes are opened. It is determined that it has been done. However, if it is determined that the pupil does not exist, And maintain the same pupil window with the eye open.
  • both eyes are closed, both windows are released.
  • two candidate pupil positions are searched for in the entire image. However, in each window, the presence or absence of a pupil is determined by the same method.
  • both eyes closed If it is determined that there are no two pupils (both eyes closed), repeat the same operation in the next frame. However, if both eyes are closed, it is determined that it is merely a blink, and it is assumed that there is no pupil movement until the next appearance of both pupils. If it is determined that there is one pupil, a window is provided at the predicted position in the next frame, and another pupil is searched.If there is no pupil, it is determined that one eye is open. In the next frame, a window is given to both pupils.
  • the two eyes can be distinguished between open and closed eyes depending on the presence or absence of each pupil. If it is determined that a pupil exists, the center coordinate of each pupil is determined by the centroid method, etc. It is calculated by:
  • the above processing can be easily created by software. It can also be implemented as a hardware.
  • the cursor movement has been described as being proportional to the pupil movement.However, the movement of the pupil due to the movement of the head is small, especially in the vertical direction, and the deviation of the pupil position from the reference point must be integrated. In some cases, it is preferable to determine the cursor position by using, so that such an embodiment is not denied.
  • the pupil detection state detected from the face image is as follows: (a) Both eyes are open, both pupils are detected (right pupil detection, left pupil detection), (b) Only right eye is open, right When only the pupil is detected (right pupil detected, left pupil not detected), (c) Left eye only Is open and only the left pupil is detected (right pupil not detected, left pupil detected), (d) Both eyes are closed and neither pupil is detected (right pupil not detected, left pupil Undetected).
  • the information output from the general-purpose two-button mouse signal is mouse button information (DOWN (pressed state) ⁇ UP (released state) and DOWN. UP button (left button)) and cursor movement information (horizontal direction, (Vertical direction).
  • Figure 6 shows how the subject's eyes open and close movements correspond to the movements of a general-purpose mouse. For example, if you close one eye and then open it, you can click it. If you move your head while closing one eye, you can start dragging, and then open your closed eyes to end dragging.
  • processing for opening and closing the right and left eyes with the right button UP and D OWN and the left button UP and D OWN of a general-purpose two-button mouse is performed. This association can be switched between left and right.
  • both eyes close due to blinking (blinking), it is unusual because it is not the subject's intention.
  • the state in which both buttons of a general-purpose mouse are pressed is not used, so if both eyes are closed, it is considered that both buttons are upside down.
  • the pupil movement is assumed to be zero. In this way, when both eyes are closed, it is equivalent to a state where no mouse operation is performed (a state where the hand is released). Such a state is the same not only when both eyes are closed but also when the face is not reflected on the camera.
  • the pupil also moves with it. At that time, the image of the pupil is blurred and the peak luminance value is reduced. As a result, the pupil may not be detected. This can be with respect to both pupils, or one pupil, with both eyes open (just moving the cursor). In that case, if it is determined that the pupil detection state has changed, button information different from the subject's intention is output.
  • both pupils In pupil detection from a face image, when both pupils are detected, the left and right pupils are determined from the X coordinate of each pupil. Therefore, when one of the eyes is closed with both pupils open, it is determined by comparing the coordinates whether the left or right pupil has changed from the detection state to the non-detection state. . Also, if both eyes open from one eye first with eyes closed, it is not known which eye opened first until both eyes are open. Until the pupil is detected, it is not determined whether the pupil is left or right. The left and right pupils are distinguished only after both pupils are detected.
  • the amount of center-of-gravity movement of both pupils between successive frames be the pupil movement amount and correspond to the cursor movement amount (Embodiment 9). reference).
  • the movement amount of the detected pupil between successive frames is made to correspond to the cursor movement amount as the pupil movement amount (see Embodiment 9).
  • the user does not necessarily have to exercise, and the intention is to open both eyes regardless of the intention.
  • the movement amount of one pupil is made to correspond to the cursor movement amount during that time.
  • the pupil does not move for several frames in which the pupil was not detected even though the user tried to move the cursor.
  • the cursor The head may turn around in a state where the user does not move, which makes it difficult for the user to deal with the situation. Therefore, the difference between the pupil position immediately before (one frame before) several frames in which the pupil could not be detected and the pupil position immediately after is set as the pupil movement amount, which corresponds to the cursor movement amount.
  • the movement amount of one pupil is made to correspond to the cursor movement amount as the pupil movement amount (however, as in the fifth embodiment). It is preferable to output the buttons with both the left and right UP).
  • the correspondence between the obtained pupil movement amount and cursor movement amount is determined.
  • P x and P y are the horizontal and vertical pupil movement components (with positive and negative) in the image, respectively, and C x and Cy are the horizontal and vertical cursor movement amounts on the PC screen. is there.
  • Kx and ky are coefficients for selecting a desired value depending on the subject.
  • the cursor moves greatly with a small head movement, but the subject stops the head instead.
  • the head may be Vibrates.
  • kx and ky are set small, the cursor cannot be moved significantly unless a large head movement is performed. Even if you select the appropriate value as much as possible, the cursor will vibrate when you try to move the cursor to the desired position, making it difficult to align.
  • the cursor does not move at all with small head vibration, but can move gradually when the head moves more than the dead zone. .
  • the cursor moves slightly beyond the dead zone, and the cursor movement can increase sharply if the head moves more than that.
  • the amount of cursor movement over the last few frames is always recorded, and the time is traced back by several frames from the frame where the start or end of the click or drag was determined (this is frame B).
  • Perform processing to return the force to the cursor position in the next frame referred to as frame E). That is, a value obtained by subtracting the integrated value of the pupil movement amount from frame B to frame E from the pupil movement amount in frame B is replaced with a new pupil movement amount and used for cursor movement.
  • the part corresponding to the button operation can be replaced by another button pressing device (including a general-purpose mouse, keyboard, etc.) or used together. This is useful, for example, when controlling a cursor on a large display.
  • a general-purpose manual mouse is good at fine cursor movement, but large cursor movement requires large hand movement or floating several times to return the position, making it difficult to use .
  • the cursor moves quickly for a large head movement (rotation).
  • rotation For detailed work, keep the pupil mouse out of action and move the cursor with the manual mouse.
  • the pupil mouse By adjusting the pupil mouse so that the cursor moves greatly in accordance with the rotation of the head, the cursor can be moved almost in the direction of the head, making it easier to find the cursor.
  • the dead zone described at the end of the ninth embodiment is set large, and the cursor is set not to move at all with a small pupil movement. Then, record the integral value of all pupil movements, and if there is a large pupil movement that exceeds the dead zone again, use that integral value to move the pupil. By doing so, it is possible to instantaneously point the cursor almost in the direction of the face.
  • the OS determines that a double-click has occurred by blinking one eye twice, and executes the corresponding action.
  • some users have difficulty moving their heads with one eye open and performing operations equivalent to dragging. In order to deal with this, it has detected two blinks of one eye In this case, if it is determined that the mouse button is locked with the mouse button pressed, the drag operation can be performed with both eyes open.
  • the usefulness is enhanced by configuring the means for associating the opening / closing information of the left and right eyes with the pressed state information of the left and right push button switches of the pointing device so as to be switchable according to the use situation.
  • the right eye (left eye) is closed and only the left eye (right eye) is closed each time the channel is opened. It is possible to change the channel in the decreasing direction each time it is opened. Furthermore, for example, if only the right eye (left eye) is kept closed for more than 1 second, the volume is increased until it is opened, and if only the left eye (right eye) is kept closed for more than 1 second, the volume is reduced until it is opened. As a variation, it is conceivable to assign the right eye (left eye) to channel control and the left eye (right eye) to volume control. When connecting to a television system, an interface using optical remote control signals may be useful. Industrial applicability
  • the present invention conveys to a software an operation instruction by a push button of a user associated with a position control interface of a pointer and a pointer position displayed on a display by a signal from a pointing device such as a personal computer or a game machine.
  • a control signal is generated for a system that has an interface that performs the same operations as a mouse without using a hand on a computer, and a variety of actions can be performed on a game machine by using it together with a controller. The usefulness of what can be done is immense.
  • cursor control may not be necessary.
  • various modifications are easy, such as connecting to the system using only the interface related to the push button.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Position Input By Displaying (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

瞳孔位置の検出及び瞳孔の有無の検出により、汎用マウスに代替できるポインタ制御装置を提供する。近赤外線光源とカメラの組み合わせにより2つもしくは1つの瞳孔を顔の画像から検出し、頭の動き、特に回転により、パソコン画面にほぼ平行な面の中を移動する瞳孔の空間位置に合わせて、パソコン画面上のカーソルを動かす。まぶたの開閉をも検出し、カーソルの動きに相当する信号だけでなくマウスのボタン押しに相当する信号を出力をすることにより、クリックやドラッグもできる。

Description

瞳孔検出によるボインタ制御装置及び方法
技術分野 本発明は、 コンピュータ, ゲームマシンや産業機器などのシステムにおける入 力装置としてのマウスやジョイスティックに代替できるボインティング装置及び 明
ポインティング装置における左右ポタンの押下に相当する信号発生方法及び装置 糸 1
に関する。 書
背景技術 これまでに視点(ユーザの視線方向)によるポインティングが種々提案されてい
O (たと は、 Weo / ト レス の http://www.ericainc.com/ ( Human-computer interaction using eve-gaze input.pdf) , http:〃 www.eyegaze.com/なと参照、)。 しかし、 視点によって、 ポインティングする場合は、 表示装置上のポインティ ングしたレ、場所へ視点を動かさなければならないが、 見るべき位置を探索してい る間も、 カーソルが視点の位置に常に現れるため、 カーソルを移動させたい位置 にカーソルを移動させにくいという問題がある。 また、 視点位置にいつもカーソ ルが提示されることにより、 それが視覚刺激となり、 見たい対象が見にくいなど の問題がある。 頭部の運動によれば、 見ているところとカーソルのでる位置は異なり、 し力 も、 前方の表示装置上の必要なところに視線を向けながらも、 周辺視でカーソルを見 ながら目的の位置に力一ソルを動かすことができる。 従来の頭部の動きによるポィンティングシステムの例: - Eagle eye (非特許文献 1及び Webア ドレス http:〃 www.cs.bc.edu/~gips/CM/ を 参照)
Eagle eyeは、 パソコンの横にビデオカメラを設置し、 顔の画像を撮影しながら、 画像処理により、 予め指定する顔の一部をテンプレートマッチングにより追尾し、 その動きに応じて、 パソコン画面上のカーソルを動かす方式である。 追尾対象と しては、 鼻の先、 あごの先、 黒眼などをためしている。 しかし、 テンプレートを 更新しても、 急減な周囲の明るさの変化などに対応しにくい可能性があり、 また、 追尾すべき対象が徐々にずれていくなどの問題も発生しやすい。
• Origin Instruments Corporation (Web / トレス http://www.onn.com/access/ を参 照 J
Origin Instrumentsの方式では、 一種のステレオカメラで、 頭に取り付けたマー 力の動きを検出して、 それに合わせて、 カーソルを動かすものである。 これの問 題点は、 マーカをいちいち取り付けなければならないことである。 このため一般 には使用しにくレ、。
•顔の額などにシールでできたマーカを取り付け、 ビデオカメラの横に設置し た赤外光源により顔を照らし、 マーカを検出し、 頭部の動きによって動くマーカ の 2次元位置を検出して、 パソコン画面上のカーソルを動かす方式がある。 これ の問題点は、 マーカを顔に取り付けなければならない点である。
•磁気センサを利用した方式: これは頭部に磁気センサを取り付ける必要があ るので不便である。
·超音波を利用した方式:超音波センサを頭部に取り付ける必要がある。
また、 これら先行技術はマウスにおけるクリック相当の操作が行えず、 クリツ ク操作のためには別の補助入力装置を用いる必要がある。
瞳孔検出に関する技術として、 特許文献 1及び 2に記載された技術がある。 し かし、 これらの技術は、 検出された結果から汎用マウスに代替可能な制御信号を 作成するものではない。 【特許文献 1】 特開平 1 1一 5 6 7 8 2号公報
【特許文献 2】 特開 2 0 0 4— 2 6 1 5 9 8号公報
【 特午文献 1】 "The Camera Mouse: Visual Tracking of Body Features to Provide Computer Access for People With Severe Disabilities", (Margrit Betke, James Gips, and Peter Fleming) , IEEE Transactions on Neural Systems and Rehabilitation Engineering, Vol.10, No. 1 , March 2002 発明の開示
従来の頭部の動きでパソコン等のモニター上のカーソルを動かす装置において は、 メニューの選択を行ったり、 ドラッグ操作ゃクリック操作用の補助入力手段 が別に必要であった。 また、 頭部の動きの検出自体も精度が悪く、 頭部にマーカ 等を取り付ける必要があり、 不便であった。
この発明は、 眼の開閉状態をマウスの左右ボタンの操作に関連づけて、 頭部の みでマウスと同等の操作を行うものである。
頭部の左右上下方向の移動をカーソルの上下左右方向の動きに連動させること は、 従来技術のように額に取り付けたマーカを追跡するなどの手法を用いること ができる。 さらに好ましくは、 後述するように眼、 特に瞳孔を検出することによ りマーカ装着の違和感がなく、 利便性が向上する。 頭部の移動のみではカーソル 移動が困難である場合などに備え、 通常のポインティングデバイスを併用可能に すべく、 信号合成手段を設けておけば、 さらに有用である。
マウスの左右ボタンに対応する信号の発生に関しては、 眼(瞼)の開閉動作に連 動させることとする。 片眼の開閉困難な場合に備え、 レバースィッチなど他の補 助入力具を併用することも可能である。
以下、 瞳孔検出により眼の開閉検出を行うものを中心に述べるが、 黒目検出や 白目検出など種々の変形が可能であることは言うまでもない。 また、 頭部の移動に関しても瞳孔検出によるものを中心に述べるが、 マーカや 磁性体の検出、 さらには鼻孔、 鼻頭、 あご、 唇、 口、 口角、 眉間、 目頭、 目尻、 黒目及び白目などをパターンマツチングゃ輝度分離などにより抽出するなど他の 方式を採用してもよいことは明らかである。
この発明は、 不可視な赤外光源によって顔を照らし、 ビデオカメラによって、 顔の横幅全体が楽に入る拡大率で撮影し、 ビデオカメラによって撮影される画像 内の 2つもしくは 1つの瞳孔を直接検出する方式である。 そして頭の動きによつ て生じる画像内の瞳孔の動きに合わせて、 パソコン等のモニター上のカーソルを 動かしたり、 モニター上に表示されているメニューの選択をしたり、 キーボード ソフ トを利用して文字を入力したり、 複数のウィンドウを切り替えたりすること ができる。 また、 装置単独でマウスの左右ボタンの押下に相当する信号を発生す ることができ、 他のクリック操作用入力補助装置の必要がない。
瞳孔検出には、 カメラの光軸に近いところに設置した光源と遠いところに設置 した光源をフィールド毎に交互に点灯させ、 瞳孔の明るい画像と喑レ、画像を得て、 画像差分演算を行なう。 このことで、 瞳孔検出を容易にする。
瞳孔の明るい画像と暗い画像を得る原理は、 瞳孔からの反射は、 眼球の水晶体 から入射した光が網膜により反射して概ね元の光源に返ってくる現象に基づくも のであり、 この光軸を外れた位置で観察しても、 反射光を認めることはできない との知見に基づくものである。 図面の簡単な説明
第 1図は、 システム全体の構成図である。
第 2図は、 ソフトウェアによるモニタ上のキーボードの表示例である。
第 3図は、 照明光の配置例を表す図である。
第 4図は、 瞳孔からの反射像と差分画像を示す画像例である。 第 5図は、 瞳孔の移動と消滅に対応するカーソルの移動を示す模式図である。 第 6図は、 被験者の両目の開閉動作と汎用マウスの動作との対応を示す図であ る。
第 7図は、 頭部の移動量とカーソル移動量との比例関係のいくつかの例を示す 図である。 発明を実施するための最良の形態
図 1にシステム全体の構成を示す。
カメラ 1は、 近赤外線に感度を持つ汎用の CCDビデオカメラであり、 カメラ 1の開口部(光の通る部分)の近くに 1つの光源 2、 そして、 カメラの開口部から 離れたところにもう一つの光源 3を設ける。 カメラ 1、 光源 2及び光源 3は制御 装置 4に接続される。 制御装置 4はモニタ 6を有すパーソナルコンピュータ(以 下 「パソコン」 という) 5に接続されている。 接続インタフェースは、 制御装置 を P C Iスロッ卜に挿入する場合には P C Iバス 'ィンタフェースによるものと し、 外部アダプタとする場合には U S Bインタフェースによるものが好ましい。 さらには、 パソコンそのものを制御装置として用いることも可能であり、 その 場合には、 光源の照射(点滅)制御部分を分離して外部に設けることも考えられる。 所望により制御装置の制御機能を分割し、 ソフ トウェアで実行する部分、 ハー ドウエアで実行する部分、 パソコン自体で実行する部分、 P C Iボードで実行す る部分など、 適宜機能分散することが可能であることは、 当業者であれば理解で きょう。
また、 パソコンに限定することなく、 ポインティングデバイスからの信号によ りディスプレイに表示されるポインタの位置制御インタフェース及びポインタ位 置と関連づけられたユーザの押しボタンによる動作指示をソフトウェアに伝達す るインタフェースを有するシステムに適用可能であることは、 明らかである。 た とえばテレビに応用すると、 光リモコン信号をインタフェースに利用して、 リモ コンの押しボタンのいくつかに对応した操作を可能にする。
対象者(ユーザ) 7に対し、 カメラ近傍の光源 2と離れた光源 3とを交互に発光 させて、 その瞳孔からの反射画像をカメラ 1で撮像する。 光源 2による画像と、 光源 3による画像との差分を制御装置 4で演算し、 得られた瞳孔位置の変化を U S Bインタフェースにより、 パソコン 5に転送する。 パソコン 5においては、 制 御装置 4からの信号をポインティングデバイスの一種であるマウスと同等である ものと見なして、 モニタ 6上に表示されたカーソル 8の位置を制御する。
また、 制御装置 4は片目のみを閉じる動作を検出し、 左右ボタンの押下に相当 する信号を発生する。
ここで制御装置は光源の発光を制御するものとしたが、 光源の発光 ·消灯に同 期して画像信号を取り込むことができるものであれば動作上に支障はなく、 たと えば商用周波数に同期して点滅する光源と、 同じく商用周波数に同期して画像を 取り込む制御装置とにより構成することが可能である。
このカメラ 1、 近傍の光源 2、 離れた光源 3及び制御装置 4により構成される システムは、 通常のパソコン用マウスと同等の機能を有する。 したがって、 普通 のマウスのように、 移動の方向やスピード、 2つのポタンなどに相当する信号を 全く同じ形式で出力することが好ましい。 なお、 この瞳孔マウスと普通のマウス は併用ができる。 本システムを U S Bケーブルなどを介して、 ごく普通に、 別の パソコンに接続する。 したがって、 ノ、。ソコンにとつては、 通常のマウスと同等に 見えることになる。 同時に通常のマウスを同じパソコンに接続すれば、 本システ ムとマウスが併用できる。
ここでは, 接続インタフェースを U S Bとして例示したが、 これに限ることな く P S / 2 , R S 2 3 2 Cやパラレルポー卜なども利用できるものである。 また、 瞳孔検出により頭部の移動量を検知し、 カーソル移動を行うものとして 説明しているが、 頭部(顔面を含む)に設けたマーカや磁性体の検出、 さらには鼻 孔、 鼻頭、 あご、 唇、 口、 口角、 眉間、 目頭、 目尻、 黒目及び白目などをパター ンマッチングや輝度分離などにより抽出するなど他の方式を採用してもよいこと は明らかである。
本システムにより、 文字入力を行うためには以下に述べるようにソフトウェア •キーボードを用いることが好ましい。 ' パソコンの表示画面には、 ソフトウエアにより図 2のようなキーボード入カツ ールを表示する。 希望の文字のところにカーソルを持っていき、 クリックをすれ ばその文字が、 Word (商標)など一般のアプリケーシヨ ンソフ トに入力される (Webアドレス http://orin.com/access/softype/index.htm ¾r参,照)。 このキーボード入 力ツール以外のところにカーソルを移動させた場合は、 ごく普通のマウス操作と 同様のことができる。
この変形として、 マトリクス状に文字の升目が配置され、 選択された升目が高 輝度(または低輝度、 輝度反転、 点滅、 縁取り)状態となり、 カーソル移動信号に より選択される升目が上下左右方向に移動する形態を含むものとする。 この場合 にはカーソルのアイコンが隠蔽される表示形態も許容される。
まず、 瞳孔検出についての特徴、 制約等について述べる。
瞳孔は、 他の部分を誤認識しないようにするため、 瞬目の直後 (瞳孔の再出現 時) に生画像の眼の部分の画像の変化 (互いに数フレーム、 例えば、 4フレーム 時間的に離れた生画像同士を差分することにより検出する) を利用して検出され るものとする。 この際は、 眼の部分の像の変化を検出し、 一旦検出されると、 そ の後は、 各瞳孔を中心にしたウィンドウが与えられ、 その中だけについて瞳孔探 索がされる。 その後のフレームにおいて、 与えられたウィンドウ内に瞳孔が再び 存在すると判断された場合は、 そのまま瞳孔が存在すると判断し、 どちらかの目 が閉じられ、 対応するウィンドウ内において瞳孔が検出されなくなったとき、 対 応するほうの瞳孔が消失したと判断する。 また、 前のフレームで左右どちらかの 瞳孔が検出されており、 現在のフレームからも瞳孔が 1個だけ検出された場合は、 前のフレームと同じ側の瞳孔が検出されたと判断する。
途中で、 瞬目とは限らず、 何らかの理由で、 目を開いているにもかかわらず瞳 孔が検出されなくなった場合は、 ウィンドウが解除されて、 画像全体について瞳 孔探索を行う。 ただし、 片方の瞳孔が検出されているときは、 その瞳孔に与えら れたウィンドウ内は探索を行わなレ、。 一度、 目を閉じてから再度開くと、 その目 の部分の画像の変化を検出するために、 再度、 瞳孔が検出されウィンドウが与え られるようになっている。 したがって、 一般に、 一度目を閉じてから再度開くと いう行為をしなければ、 非検出の瞳孔は目を開いていても、 検出されないままと なる。 一度、 普通に瞬目をするなどにより、 再度、 両方の瞳孔が検出されるよう になる。
このほかに、 目を開いているにもかかわらず瞳孔が検出されなくなつている場 合、 小刻みに顔をゆすったりすると、 目の部分に画像変化がおこるために、 瞬目 と同様の効果が生じ、 瞬目をしなくても瞳孔が再度検出される。 このような効果 は、 素早く頭部を動かしている最中にも生じる。 素早い動きのため、 瞳孔画像が ぶれて鮮明に写らなかった場合に一時的に瞳孔検出ができなくなることがある力 目の部分に画像変化が起こるため、 瞬目をしなくても、 動きの速度が遅くなつた とき再度瞳孔が検出される場合がある。
頭部の移動を検知し移動量情報を作成するに当り、 (1 )頭部の位置をカーソル 位置とする(絶対量による制御と名づける)、 (2 )頭部の単位時間あたりの移動量 を、 カーソルの現在位置からの単位時間あたりの移動量とする(相対量による制 御と名づける)、 (3 )頭部の原点からのずれに比例して、 カーソルの単位時間あ たりの移動量を生成する(積分量による制御と名づける)、 の 3つが考えられる。 上記(1 )は、 旧来のジョイスティックに対応し、 レバーの変位量に見合った量で、 カーソル位置が決定される(絶対位置の制御)。 上記(2 )は現在のマウスやトラッ クボールに対応し、 回転量に見合った量で、 カーソルが移動する(相対位置の制 御)。 上記(3 )は、 現在のノートパソコンに見られるスティック状のコントロー ラに対応し、 レバーの傾きが存在する間、 カーソルは移動しつづける(積分によ る位置決定)。 力一ソルキーによる力一ソルコントロールも、 上記(3 )に相当す ると言えよう。
さらに用途によっては(4 )位置情報の微分によりカーソルを移動させることも 考えられる。 実際の利用にあたっては、 不感帯を設けたり、 移動が大きいときに は加速機能として多目の移動量を作成することもあるため、 これらの混合となる ものである。
頭部の移動を検知し移動量情報を作成する場合には、 マウス · インタフェース を用いて他のシステムと接続するのか、 ジョイスティ ック ' インタフェースある いは他のスティック 'インタフェースを用いるのかによって、 出力信号に対する 考慮が必要であり、 多種多様の変換形態があることが理解されよう。
また、 頭部の移動にも、 平行移動と回転移動とがあり、 平行移動のほうが検知 しやすいが、 本発明の頭部移動は平行移動に限定するものではない。 たとえば回 転移動の検知としては、 瞳孔間の距離により推測する方法や、 閉眼時にも追跡可 能なポイントとして目尻の位置を検知するなど、 種々の検出方法が考えられる。
【実施例 1】
瞳孔位置検出のシステム構成:
現状では、 カメラ 1 として近赤外線に感度を持つ汎用の CCDビデオカメラ を用いる。 図 1のように、 カメラ 1の開口部(光の通る部分)の近くに 1つの光源 2、 そして、 カメラの開口部から離れたところにもう一つの光源 3を設ける。 実際の光源例を 2種類、 図 3に示す。 図 3 ( a )には、 カメラの開口部(レンズ) 1 0の最近傍領域 1 2に同心円状に発光ダイオード(L E D ) 1 1を配置し、 その 外周領域 1 3に同じく同心円状に発光ダイオード 1 1を配置した例を示している。 図 3 ( b )には、 カメラの開口部 1 0の近傍領域 1 4に同心円状に発光ダイォー ド 1 1を配置し、 カメラ開口部 1 0からやや離隔した位置に円状領域 1 5を設け 発光ダイオード 1 1を配置した例を示している。 図 3 ( b )の例では光源の形状が 異なっている。 しかし光源の形状を異ならせることなく、 カメラから離隔した位 置の光源の形状と、 カメラの近傍に配置する光源の形状とを、 同一のものとすれ ば、 製造コス トの低減が図れる。
これら発光ダイオードの位置は、 以下に述べるように、 瞳孔からの反射光を得 るための照明と、 差分演算を行うために必要な顔全体画像を得るための照明であ るので、 2群の照明光による顔画像に差があることは好ましくなく、 また、 離れ た位置からの照明は瞳孔からの反射光を得るためではないので、 適切な位置に配 置することが望まれる。
例えば、 カメラの近傍に配置された第 1の光源は、 瞳孔とカメラを結ぶ光軸と 約 3度以下の角度をなす光源線により瞳孔を照明するものであり、 カメラから離 隔された位置に配置された第 2の光源は、 瞳孔とカメラを結ぶ光軸と約 3度以上 の角度をなす光源線により瞳孔を照明するものとする。
実際に対象者 7を撮像した画像を図 4に示す。
カメラ 1の画像は図 4に示すように、 基本的に 2つの瞳孔がフレームに十分入 る大きさに写すものとする。 この状態で,カメラの開口に近い光源を光らせると、 図 4左(a)のように瞳孔が明るく写る (明瞳孔)。 一方で,カメラの開口から遠い 光源を光らせると、 図 4中(b)のように瞳孔が暗く写る (喑瞳孔)。 ただし、 こ れら 2つの画像中に見られる瞳孔中の小さな点は、 各光源が角膜表面で反射して 映る角膜反射と呼ばれるものである。 本方式では、 角膜反射は利用しない。
さて、 上述の 2つの光源をカメラのビデオ信号の奇数、 偶数フィールドに同期 させて 2つの光源を交互に光らせ,明瞳孔と喑瞳孔の画像を交互に得る。 それら の画像を差分すると図 4右(c)のような画像を得ることができる。 この差分画像 においては、 瞳孔が他の部分 (背景) から浮き出るように現れ、 比較的簡単に 2 つの瞳孔を検出できる。
【実施例 2】
目の開閉情報とマウス信号への対応:
瞳孔移動によるポィンティング装置の出力は、 通常のマウス信号に対応させる ため、 マウスの移動量を表す信号、 右ボタンの押されているかどうかの情報、 左 ボタンの押されているかどうかの情報が出力される。
左クリックをした力、、 ドラッグをしたかなどの判断は、 受け手のパソコンが判 断する。 なお、 受け手のパソコンでは、 クリ ック時間などを調整できるので、 本 装置では、 その点を考慮する必要がない。
基本的に、 すばやく左目または右目のウィンクをしたときに、 それぞれマウス の左クリックまたは右クリックに相当し、 左目を閉眼しながら頭部を動かしたと き、 ドラッグに相当する。 両目を開けながら、 頭部を動かしたとき、 単にマウス を動かすことに相当する。 ただし、 注意しなければならないのは、 瞬きで両目を つぶった場合である。 幸いなことに、 2ボタンマウスでは、 両方のボタンを押す という動作は必要ないため、 両目をつぶったときは瞬きであると判断し、 その場 合は無視する。
ある程度具体的に表現すると、 次のようにまとめられる。
·両目の瞳孔 (両瞳孔) が検出されるとき、 各瞳孔中心座標の平均座標を計算 し、 直前のフレームの同座標との変化分に相当する信号を出力。
•左目の瞳孔 (左瞳孔) が検出されて、 右目の瞳孔 (右瞳孔) が検出されない とき、 右ボタンが押されたのに相当し、 それに対応する信号を出力すると同時に、 直前のフレームと現在のフレーム間の左瞳孔座標の変化分をカーソル移動に相当 する信号として出力。 -右目の瞳孔 (右瞳孔) が検出されて、 左目の瞳孔 (左瞳孔) が検出されない とき、 左ボタンが押されたのに相当し、 それに対応する信号を出力すると同時に、 直前のフレームと現在のフレーム間の右瞳孔座標の変化分をカーソル移動に相当 する信号として出力。
'両瞳孔が共に検出されないとき、 瞬きが発生したとして、 直前のフレームと 現在のフレーム間の座標変化信号がゼロであることを示す信号をカーソル移動が ゼロであることに相当する信号として出力すると同時に、 両ボタンとも押されて いないことを示す信号を出力し、 両目が現れるのを待つ。
これを図示すると、 図 5のようになる。 図 5 ( a )は両瞳孔が検出されていると きのカーソルの移動を示している。 最初の位置として左瞳孔 2 0、 右瞳孔 2 2が 存在し、 顔の移動により左瞳孔 2 1、 右瞳孔 2 3の位置に移動が検出される。 制 御装置 4において、 両瞳孔の初期位置の平均座標を求め、 さらに移動後の平均座 標を求める。 求められた 2つの平均座標の差に基づいて力一ソル移動信号を発生 する。 ノ、。ソコン 5はカーソル移動信号に基づき、 モニタ上のカーソル 2 4を新し い位置であるカーソル 2 5に移動させる。
また、 簡略化する場合には両瞳孔の平均座標を求めるのではなく、 片方の瞳孔 位置検出のみによりカーソル位置を制御してもよレ、。 これは、 マウスにおいて右 ボタン押下によるドラッグ操作が存在していないため実用上問題が生じないから である。
図 5 ( b )は、 一方の瞳孔 (左瞳孔)が消滅し、 他方の瞳孔 (右瞳孔)の移動が検出 された場合を示している。 左瞳孔 2 6はこの位置で消滅し、 右瞳孔 2 2は右瞳孔 2 3に移動したものとして新しい位置が検出される。 この場合には、 対象者(ュ 一ザ)がカーソルによるドラッグを指示したものと判断し、 マウスにおける左ボ タンを押下しながらの移動として、 制御装置 4はカーソル 2 4の位置からカーソ ノレ 2 5の位置までのドラッグとしての信号を作成する。 ここでは、 左瞳孔の消滅がマウスの左ボタン押下に相当し、 右瞳孔の消滅がマ ウスの右ボタンの押下に相当するとしたが、 この対応は任意に設定できるもので あり、 これに限定するものではない。
【実施例 3】
画像中の 2つの瞳孔の検出法と閉眼の検出:
まず輝度情報を利用して瞳孔のおよそのありかを探す。 次にその周囲にウィン ドウを与え、 ウィンドウ内の輝度ヒストグラムを作る。 輝度ヒストグラムには、 瞳孔部と背景部を表す 2つのピーク(山)が現れる。 したがって、 適当な方法によ り、 2つのピークの中間の値を閾値とし、 2値化する。 この閾値決定は自動的に 行われる。 これから瞳孔部の画素数を計数する。 瞳孔画素数は瞳孔面積に対応さ せて利用する。
さて、 もし、 閉眼し、 画像中に瞳孔がなくなったとき、 瞳孔が確かに無くなつ たと判断するのは困難である。 そこで、 瞳孔の検出を確実にする意味でも、 両眼 が開眼しているときに 2つの瞳孔を検出したら、 カルマンフィルター等の予測モ デルを利用して、 次のフレームの瞳孔位置を予測し、 はじめから予想される瞳孔 位置付近にウィンドウを与える。 そして、 そのウィンドウ内だけを前述のように 自動的に閾値を決定して、 瞳孔部を判断して、 瞳孔中心を決定する。
ただし、 閉眼するとウィンドウ内の輝度ヒストグラムが背景の 1つのピークし か現れなくなることを利用して閉眼を判断する。 もし、 片眼だけが閉眼された場 合は、 閉眼したほうの瞳孔ウィンドウだけが解除される。 次のフレームでは、 前 フレームでの開眼しているほうの瞳孔に与えられたウインドウは維持され、 その 外の画像全体から、 瞳孔検出を試みる。 そして瞳孔候補として挙げられた位置に ウィンドウを与え、 ウィンドウ内の同様に解析して、 瞳孔部が存在すると判断さ れた場合は、 そこに新たにウィンドウが与えられ、 閉眼していた目が開眼したと 判断される。 しかし、 瞳孔部が存在しないと判断された場合は、 まだ閉眼されて いるものとし、 同様に開眼しているほうの瞳孔ウインドウを維持する。
もし、 さらに両目が閉眼した場合には、 両方のウィンドウが解除される。 次の フレームにおいても、 画像全体の中から瞳孔候補位置が 2つ探される。 しかし、 それぞれのウィンドウの中において、 同様の方法により瞳孔が存在の有無を判断 する。
2つの瞳孔とも無い (両目が閉じた) と判断されたら、 次のフレームにおいて 同じ作業を繰り返す。 しカゝし、 両目が閉じた場合は単なる瞬きであると判断し、 さらに次の両瞳孔が出現するまでの期間は、 瞳孔移動はなかったものとする。 片方の瞳孔があると判断された場合は、 次のフレームではそちらだけ予測位置に ウィンドウを与え、 もう一つの瞳孔の探索を試みて、 無ければ片目が開いたと判 断し、 あれば両目とも開いたと判断し、 次のフレームにおいては両瞳孔にウィン ドウを与える。
以上のような方法により、 2つの瞳孔のそれぞれの有無により、 2つの眼の開 眼、 閉眼を区別し、 もし、 瞳孔が存在すると判断された場合は、 各瞳孔の中心座 標を重心法などにより算出する。
以上の処理は、 ソフトウェアにより容易に作成可能である。 また、 ハードゥエ ァとして実現することも可能である。
また、 これまでカーソルの移動は瞳孔の移動に比例するかのように述べたが、 頭の移動による瞳孔の移動は、 特に上下方向においては小さく、 瞳孔位置の基準 点からのずれを積分することによりカーソル位置を決定する方が好ましい場合も 存在するので、 このような実施態様を否定するものではない
【実施例 4】
顔画像から検出される瞳孔の検出状態は、 (a )両目が開いており、 両瞳孔とも 検出されている状態 (右瞳孔検出、 左瞳孔検出)、 (b )右目のみが開いており、 右瞳孔のみが検出されているとき (右瞳孔検出、 左瞳孔非検出)、 (c )左目のみ が開いており、 左瞳孔のみが検出されているとき、 (右瞳孔非検出、 左瞳孔検 出)、 (d )両目とも閉じており、 両瞳孔とも検出されないとき (右瞳孔非検出、 左瞳孔非検出) の 4通りである。
汎用の 2ポタンマウス信号から出力される情報は、 マウスボタン情報(右ボタ ンの DOWN (押した状態) · UP (離した状態) と左ボタンの DOWN . UP)とカー ソル移動情報(水平方向、 垂直方向)である。
図 6に、 被験者の両目の開閉動作を汎用マウスの動作へ対応させる方法を示す。 例えば、 片目を 1度閉じてから開けばクリ ック、 また、 片目を閉じながら頭部を 動かせば、 ドラッグが開始され、 その後に閉じていた目を開けば、 ドラッグが終 了する。
そのために、 右目の開閉と左目の開閉を、 汎用 2ボタンマウスの右ボタンの U P , D OWNと左ボタンの U P , D OWNに対応させる処理を行うものとする。 この対応づけは左右入れ換えることも可能である。
ただし、 瞬目(まばたき)により両目が閉じる場合は、 それは被験者の意図では ないために例外的に极ぅ。 通常、 汎用マウスの両ボタンとも押している状態は利 用されないので、 両目が閉じている場合は、 両ボタンとも逆に U Pになっている 状態とみなす。 ただし、 瞳孔移動量は零であるとする。 これにより、 両目が閉じ られている場合は、 マウスを何も操作していない状態 (手を放している状態) に 相当させることになる。 このような状態は、 両目が閉じている場合だけでなく、 顔がカメラに映っていない場合も同様の极いとする。
【実施例 5】
( 1 )瞬きを行う場合、 両瞳孔が非検出となるが、 右と左の眼を閉じる際に、 個 人によって 1〜2フレーム程ずれがある場合がある。 これは、 瞬き後の眼を開く ときも同様である。 このような場合、 単に、 両瞳孔の検出状態変化を汎用マウス の左右のボタンに対応させると、 ちょうど左右のボタンを、 少しだけ時間をずら して押したのと同じ状況となり、 汎用のマウスでこれが起こると多くのアプリケ ーシヨンソフトウエアは使用者の意図とは異なった動作をすることになる。
( 2 )また、 速く頭が動くと、 それに伴って瞳孔も速く動く、 その際に瞳孔の画 像がボケてピーク輝度値が低下するなどして、 結果的に瞳孔が検出できないこと がある。 これは、 両目を開いているとき (カーソルを単に動かしているとき) に おいて、 両瞳孔に関して、 もしくは、 片方の瞳孔に関してありうる。 その場合、 瞳孔の検出状態が変化したと判断すると、 被験者の意図とは異なったボタン情報 を出力してしまう。
上の(1 )と(2 )のような問題を防ぐために、 次のような対処を行う。
現在の画像フレームから得られた瞳孔の検出状態 (検出、 非検出) 力 前のフレ ームから別の状態に変化しても、 変化後に同じ状態が数フレーム (例えば、 3フ レーム、 1 0 0 m s ) 以上連続に続いたときに、 はじめて変化後の瞳孔状態に一 致するボタン情報を出力するものとする。
【実施例 6】
顔画像からの瞳孔検出においては、 両瞳孔が検出されているとき、 各瞳孔の X 座標から左右の瞳孔を判定する。 したがって、 両瞳孔が開いている状態から、 ど ちらか一方の目が閉眼したときは、 座標の比較から、 左右どちらの瞳孔が検出状 態から非検出状態に変化したかを判定するものとする。 また、 両目が閉眼した状 態から片目から先に開く場合は、 両目が開かれるまでは先に開いた目がどちらの 目か分からないため、 このような状態変化の場合には、 両瞳孔が検出されるまで、 瞳孔が左右どちらか判定せず、 両瞳孔が検出されてから初めて両瞳孔の左右を区 別する。 したがって、 以前に両瞳孔が非検出状態であった場合は、 両瞳孔が検出 されたと判定されるまでは、 ボタン動作は左右とも U Pのままの状態とし(両瞳 孔が検出された後も、 両瞳孔とも U Pのまま)、 カーソル移動は片目の瞳孔移動 量に従うものとする。 一方で、 片側の瞳孔のみ検出の状態から、 他方の瞳孔のみの検出の状態に変移 する場合がある。 これは、 ドラッグ中に片目を閉じていて、 ドラッグ終了のとき に、 閉じていた目がちょうど開いたと判断されたときに、 何らかの理由で開いて いたほうの瞳孔が検出されなくなったときに生じる。 しかし、 片眼のみを閉じた 状態から、 反対側の片目のみを閉じた状態に使用者が意図的にすることはありえ ないと仮定し、 本来検出されるはずのもう一方の瞳孔が何らかの理由で検出され そこなって片目が開いていた状態から両瞳孔検出状態に変化した、 と判断する。 その後は、 検出されている瞳孔のみの移動に対応させてカーソル移動をさせる。 【実施例 7】
両瞳孔が検出され続けているときは (単なるカーソル移動に相当)、 連続する フレーム間における両瞳孔の重心移動量を瞳孔移動量とし、 それをカーソル移動 量へ対応させることが望ましい (実施例 9参照)。 片方の瞳孔のみが検出され続 けているときは、 連続するフレーム間における、 検出されている瞳孔の移動量を、 瞳孔移動量として、 カーソル移動量に対応させる (実施例 9参照)。 なお、 実施 例 4で述べたように、 使用者が頭部運動中に (必ずしも運動していなくてもよい 力 、 意図とは関係なく、 両目を開いているつもり力 指定した数フレーム間よ り短い時間に片方の瞳孔しか検出できなかったときには (眼鏡反射が瞳孔像に重 なったときなどにも起こる)、 その間は、 片方の瞳孔の移動量をカーソル移動量 に対応させる。 また、 実施例 4で述べたように、 使用者が頭部運動中に (必ずし も運動していなくてもよいが)、 意図とは関係なく、 片目を開いているつもり力 S、 指定した数フレーム間より短い時間に両瞳孔とも検出できなかったときには、 そ の間は、 瞳孔の移動はないものとし、 カーソルは移動しないものとする。
【実施例 8】
本来は、 使用者がカーソルを動かそうとしているにもかかわらず、 瞳孔が検出 できなかった数フレーム間は瞳孔が移動しないことになる。 この場合、 カーソル が動かない状態で頭が回りきってしまうこともあり、 使用者のその後の対処が面 倒となる。 そこで、 瞳孔が検出できなかった数フレームの直前の (1フレーム前 の) 瞳孔位置と、 直後の瞳孔位置の差を、 瞳孔移動量として、 カーソル移動量に 対応させるものとする。
両瞳孔が連続して検出されていたときに、 使用者の意図とは関係なく、 その瞳 孔が指定した数フレーム間より短い時間に両瞳孔が検出できなかった場合 (頭部 移動中に瞬目が生じた場合などが考えられる) も同様に対処する。 ただし、 片方 の瞳孔が検出され続けている場合には、 適用されず、 その場合は、 片方の瞳孔の 移動量を、 瞳孔移動量として、 カーソル移動量に対応させる (ただし、 実施例 5 のようにボタンは左右とも U Pのままとして出力することが好ましい)。
【実施例 9】
被験者が緊張したりすると、 頭部が振動し、 それに合わせて瞳孔も振動し、 力 一ソルが振動してしまう。 (これは、 瞳孔検出に問題があるのではなく、 頭部の 動きでカーソルを動かそうとすること自体の問題)。 これを、 後で述べる方法に よって解決する。 はじめに、 一般的に考えられる方法を述べる。
通常は、 得られる瞳孔移動量とカーソル移動量の对応付けを
し χ = κχ · Ρ X ,
C y = ky · P y … ( 1 )
として対応付けることが考えられる。 ここで、 P xと P yは、 それぞれ画像中の水 平方向、 垂直方向の瞳孔移動成分 (正負あり)、 C x、 C yはパソコン画面中の水 平方向、 垂直方向のカーソル移動量である。 また、 kxと kyは被験者によって好み の値を選ぶための係数である。
頭部を回転もしくは移動させて、 カメラから見た瞳孔を移動させることにおい て、 kx、 kyを大きく設定すると、 小さな頭部の動きでカーソルは大きく動くが、 その代わり、 頭部を被験者が止めているつもりでも、 頭部の振動が原因でカーソ ルが振動してしまう。 逆に、 kx、 kyを小さく設定すると、 大きな頭部の運動を行 わないと、 カーソルを大きく動かすことができなくなる。 できるだけ適当な値を 選択しても、 カーソルを希望の位置に合わせようしたときに、 カーソルが振動し て位置合わせが難しい。
解決法としては、
Cx = kx . Px . |Px|b1 ,
Cy = ky · Py · |Py|b一' … (2)
と対応させることである。 b > lのとき、 (1)式の場合より、 Px、 Pyの次数が 高くなり、 b = 2のとき瞳孔移動量の二乗をカーソル移動量に対応させることに なる(図 7の a)。 このような対応付けにより、 瞳孔の振動はほぼ零に抑えられ、 頭部の運動による瞳孔移動は強調される。 ここでも、 kx、 kyは被験者の好みに合 わせるものとする。 このように、 次数を高くすると、 比較的すばやく頭部を動か した場合は、 小さな頭部運動によってもカーソルは大きく移動し、 逆に頭部をゆ つく り動かす場合は、 ほんの少しだけカーソルが移動できるようになる。 したが つて、 カーソルを大きく動かしたいときも、 希望の位置からカーソルがほんの少 しずれているときに、 それを希望の位置に合わせたいときにも、 両方に適してい る。
しかし、 b = 2にしても、 頭部の振動がカーソル移動に悪影響を与える場合は、 いわゆる不感帯 (dead zone) を設けて対処する。 すなわち、 Px, Pyが指定し た閾値以下のときは、 Px= 0, Py= 0 (もしくは、 Cx= 0, Cy= 0) とする (図 7の c (但し b = lの場合), もしくは図 7の d (但し b = 2の場合))。 このよ うにすると不感帯の範囲の小さな頭部振動では、 力一ソルがまつたく動かなくな る。
または、 不感帯を設けた上で、 不感帯の範囲内の小さな瞳孔移動の間は、 すべ ての瞳孔移動の積分値を記録しておき、 不感帯を超える大きな瞳孔移動があった ときは、 その積分値を使用して、 瞳孔移動をさせる (図 7の c, d ) 0 顔の向く 方向によりカーソル制御を行う場合には、 このようにすることによって、 ほぼ顔 の向いた方向にカーソルを瞬間的に向けることが可能である。
さらに、 図 7の b , eのような関係を使用すれば、 頭部の小さな振動ではカー ソルが全く動かず、 不感帯よりも頭部の移動が大きくなると徐々に動くようにす ることができる。 特に図 7の eでは、 不感帯を超えると少し動き、 それよりも頭 部の移動が大きくなると急激にカーソル移動を大きくすることができる。
【実施例 1 0】
クリックしたり ドラッグを開始したりするとき、 眼を開いた状態から、 閉じる。 また、 ドラッグを終了するときは、 眼を閉じた状態から開く。 このように眼の開 閉の短い時間に (例えば、 2フレーム間)、 一般に、 人間は、 注意しないと眼が 動いてしまう。 特別な処理をしないと、 眼の動きに合わせてカーソルが移動して しまレ、、 使用者の意図とは違う位置にカーソルが動くために、 クリ ックやドラッ グをしたい場所とは異なった場所をクリックゃドラッグをしてしまうことになる。 この問題を防ぐために、 ちょうど使用者が目的の位置にカーソルを合わせて、 眼 を閉じる、 もしくは、 開こうとする時点でのカーソル位置の座標が入力情報とな ることが望ましし、。 そこで、 例えば、 常に最近の数フレームにわたるカーソル移 動量を記録しておき、 クリックもしくはドラッグの開始、 終了が起こったと判断 されたフレーム (これをフレーム Bとする) から、 時間を数フレーム分だけ遡つ たフレーム (フレーム Eとする) におけるカーソル位置に力一ソルを戻すための 処理を施す。 すなわち、 フレーム Bからフレーム Eまでの間の瞳孔移動量の積分 値を、 フレーム Bにおける瞳孔移動量から引いた値を、 新たな瞳孔移動量に置き 換えてカーソル移動に使用する。
【実施例 1 1】
片目の開閉の苦手な使用者もいる。 そのような使用についても、 瞳孔マウスの ボタン操作に相当する部分を他のボタン押し装置(汎用マウス、 キ一ボードなど を含む)で代行させたり、 併用させたりすることができる。 例えば、 大きなディ スプレー上のカーソルを制御する場合に有用である。
また、 瞳孔マウスと汎用の手動マウスを併用することも有用である。
汎用の手動マウスは細かいカーソル移動は得意であるが、 大きなカーソル移動 をするためには、 手を大きく動かすか、 何度か空に浮かせて位置を戻す必要があ り、 使用しにくい面がある。 それに対して、 瞳孔マウスにおいては、 大きな頭の 動き (回転) に対して、 カーソルは素早く動く。 そして、 細かい作業については、 瞳孔マウスが作用しないようにしておき、 手動マウスによりカーソルを動かす。 さらに、 大きなディスプレー上においてカーソルを見失うことがよくあり、 使 レ、にくレ、。 瞳孔マウスを調整して、 カーソルを頭の回転に合わせて大きく移動さ せるようにすれば、 ほぼ頭の向いている方向にカーソルが移動させるようにでき るので、 カーソルを見つけやすくもなる。
以上のことをするためには、 実施例 9の最後に述べた不感帯を大きめに設定し、 小さな瞳孔移動ではカーソルがまったく動かないように設定しておく。 その上で、 すべての瞳孔移動の積分値を記録しておき、 再度、 不感帯を超える大きな瞳孔移 動があつたときは、 その積分値を使用して、 瞳孔移動をさせる。 このようにする ことによって、 ほぼ顔の向いた方向にカーソルを瞬間的に向けることが可能であ る。
【実施例 1 2】
これまで、 眼の閉状態をマウスボタン押下に直接対応づけるものとして、 説明 した。 この場合には、 片目の 2度のまばたきにより O S (あるいはアプリケーシ ヨンソフト)は、 ダブルクリックとの判定を行い、 それに対応する動作を実行す る。 一方で、 片目を開いたまま頭部を移動し、 ドラッグに相当する操作を行いが たいユーザがいる。 これに対処するために、 片目の 2度のまばたきを検出したと きには、 マウスボタン押下状態でロックしたものと判定すれば、 両目開眼状態で ドラッグ操作が行える。
左右の眼の開閉情報をボインティングデバイスの左右の押しボタンスィツチの 押下状態情報に対応づける手段における対応づけを、 使用状況に応じて切換え可 能に構成することにより、 有用性は高まる。
また、 他の形態として、 片目まばたきの繰返し周期の弁別を行うことにより、 たとえば早い周期での 2度のまばたきはダブルクリックとし、 遅い周期での 2度 のまばたきは押下ロックとすることも考えられる。 さらには、 3度のまばたきで 押下ロックとするなど、 ユーザの操作しやすい条件により、 ロック状態を含めて 種々のボタン押下信号を発生する変形が考えられる。
【実施例 1 3】
テレビシステムなどに接続して、 もしくはテレビ自体に眼の開閉検出機能を取 り付けることにより、 右目(左目)のみを閉じて開くたびにチャンネルを増加方向 に変えたり、 左目(右目)のみを閉じて開くたびにチャンネルを減少方向に変えた りすることが可能である。 さらに、 たとえば右目(左目)のみを 1秒以上閉じ続け ると開くまで音量を大きく し、 左目(右目)のみを 1秒以上閉じ続けると開くまで 音量を小さくするように構成することができる。 この変形として、 右目(左目)を チャンネル制御に、 左目(右目)を音量制御に割り当てることも考えられる。 テレ ビシステムに接続する場合には、 光によるリモートコントロール信号を用いるィ ンタフェースが有用であろう。 産業上の利用可能性
本発明は、 パソコンゃゲームマシンなどボインティングデバイスからの信号に よりディスプレイに表示されるボインタの位置制御ィンタフェース及びポィンタ 位置と関連づけられたユーザの押しボタンによる動作指示をソフトウエアに伝達 するインタフェースを有するシステムに対し制御信号を発生するものであり、 パ ソコンにおいては手を用いることなくマウスと等価な操作が行えること、 ゲーム マシンにおいては、 コントローラと併用することにより、 多彩なアクションが行 えることなど有用性は計り知れない。
また、 アプリケーションによってはカーソルコントロールが不要な場合もあり この場合には押しボタンに関するィンタフェースのみを用いてシステムに接続す るなど、 種々の変形が容易である。
本装置の用途として、 次のようなことが考えられる。
1 . 首から下が動かない身体障害者が通常のパソコンを操作したり、 パソコン を介して介護機器を制御するために利用する。
2 . 車内でフロン卜に呈示されたナビゲーションシステムなどをドライバーが 前方を見ながら,頭部の回転によって制御できるようにする。
3 . 通常のパソコン操作などにおいて、 キー操作をしながら、 マウスカーソル を移動させたり、 アクティブウィンドウを変更したり、 移動する、 など、 バソコ ン操作を高速化、 効率化させるために利用する。
4 . 頭部の前後の動きがあまりないとき、 画像中の瞳孔の動きから、 頭部の左 右、 上下のおよその動きを検出し、 それを利用して、 頭部の動きの検出の必要な バーチャルリアリティーなど、 特に頭部の動きに合わせてディスプレー上の表示 する視覚情報を変化させるために利用する。

Claims

1 . ポィンティングデバイスからの信号によりディスプレイに表示されるボイ ンタの位置制御ィンタフェースを有するシステムに対し制御信号を発生する方法 であって、 カメラにより対象者の顔面を撮像するステップと、 前記カメラからの 画像信号から瞳孔を検出し、 ボインタ制御情報を作成するステップとからなるポ 請
ィンタ制御方法。
2 . ポインティングデバイスからの信号によりディスプレイに表示されるボイ ンタの位置制御ィンタフェースを有するシステムに対し制御信号を発生する方法
ξ車
であって、 カメラの近傍に配置された第 1の光源囲により対象者の顔面を照射して 第 1の顔画像を得るステップと、 前記第 1の光源よりもカメラから離隔した位置 に配置された第 2の光源により対象者の顔面を照射して第 2の顔画像を得るステ ップと、 前記第 1の顔画像及び前記第 2の顔画像の差分を演算して瞳孔の位置を 検出するステップと、 検出した瞳孔位置に対応してモニタ上にカーソルを表示す るステップとからなるポインタ制御方法。
3 . ポインティングデバイスからの信号によりディスプレイに表示されるポィ ンタの位置制御ィンタフェースを有するシステムに対し制御信号を発生する装置 であって、 対象者の顔面を撮像するカメラと、 該カメラの近傍に配置され近赤外 光を照射する第 1の光源と、 該第 1の光源よりも前記カメラから離隔した位置に 配置され近赤外光を照射する第 2の光源と、 前記第 1及び第 2の光源の照射を制 御すると共に、 前記カメラにより得られる第 1の光源の照射時の画像と第 2の光 源の照射時の画像との差分を演算して瞳孔の位置を検出し、 瞳孔の位置座標をモ ユタ上のカーソル位置制御信号として外部に出力する制御装置とからなるボイン タ制御装置。
4 . 前記制御装置は、 瞳孔の位置座標の変化分を、 マウスが発生する移動信号 と同等の信号として外部に出力するィンタフェースを有するものである請求の範 囲第 3項記載のボインタ制御装置。
5 . ポインティングデバイスからの信号によりディスプレイに表示されるポィ ンタの位置制御ィンタフェースを有するシステムに対し制御信号を発生する装置 であって、 対象者の顔面を撮像するカメラと、 該カメラの近傍に配置され近赤外 光を照射する第 1の光源と、 該第 1の光源よりも前記カメラから離隔した位置に 配置され近赤外光を照射する第 2の光源と、 前記第 1及び第 2の光源の照射を制 御すると共に、 前記カメラにより得られる第 1の光源の照射時の画像と第 2の光 源の照射時の画像との差分を演算して瞳孔の位置を検出し、 かつ画像の時系列的 な変化からまぶたの開閉を検出して、 モニタ上のカーソル位置制御信号及びカー ソル関連のボタン押下信号として外部に出力する制御装置とからなるポインタ制 御装置。
6 . 前記制御装置は、 瞳孔の位置座標の変化分及びまぶたの開閉状態を、 マウ スが発生する移動信号及びボタン押下信号と同等の信号として外部に出力するィ ンタフェースを有するものである請求の範囲第 5項記載の瞳孔位置検出によるポ インタ制御装置。
7 . ポインティングデバイスからの信号によりディスプレイに表示されるボイ ンタの位置制御ィンタフヱース及びボインタ位置と関連づけられたユーザの押し ボタンによる動作指示をソフトウェアに伝達するィンタフェースを有するシステ ムに対し制御信号を発生する方法であって、 頭部の移動を検知し移動量情報を作 成するステップと、 左眼及び右眼の開閉を検出し開閉情報を作成するステップと、 左右の眼の開閉情報をボインティングデバイスの左右の押しボタンスィツチの押 下状態情報に対応づけるステップと、 前記移動量情報及び押下状態情報を制御信 号として出力するステップとからなるボインタ制御方法。
8 . 前記対応づけるステップは、 左眼閉の状態を左(または右)ボタンの押下状 態に、 右眼閉の状態を右(または左)ボタンの押下状態に対応させるものである請 求の範囲第 7項記載のボインタ制御方法。
9 . 前記開閉情報を作成するステップは、 眼の開閉状態の変化を検出しても、 直ちに開閉情報を変化させず、 その開閉状態がしばらく継続することを確認して 開閉情報を新しい状態に変化させるものである請求の範囲第 7項記載のボインタ 制御方法。
1 0 . 前記開閉情報を作成するステップは、 両眼の非検出状態から片眼検出状 態に変移したことを検知したときには、 両眼の開状態が検出されるまで開閉情報 を変化させないものである請求の範囲第 7項記載のボインタ制御方法。
1 1 . 前記開閉情報を作成するステップは、 瞳孔の有無により眼の開閉状態を 検出するものである請求の範囲第 7項記載のボインタ制御方法。
1 2 . 前記移動量情報を作成するステップは、 瞳孔の位置検出により頭部の移 動を検知して移動量を作成するものであり、 かつ、 両瞳孔がともに検出できない ときにはボインタの移動を行わせないように移動量情報を設定するものである請 求の範囲第 7項記載のボインタ制御方法。
1 3 . 前記移動量情報を作成するステップは、 瞳孔の位置検出により頭部の移 動を検知して移動量を作成するものであり、 かつ、 両瞳孔または片瞳孔が直前ま で検出されており、 一時的に両瞳孔がともに検出できなくなったときには、 検出 可能となるまでポインタを移動させず、 再度検出可能となったときに新たな瞳孔 の位置に対応する位置にボインタを移動させるベく移動量情報を作成するもので ある請求の範囲第 7項記載のボインタ制御方法。
1 4 . 前記移動量情報を作成するステップは、 頭部の移動量とポインタの移動 量との間に非線型の単調増加関係を持たせるように移動量情報を作成するもので ある請求の範囲第 7項記載のボインタ制御方法。
1 5 . さらに、 眼の開閉に伴う頭部の移動を補正するために、 移動量情報を眼 の開閉時の状態から過去へ遡つて、 開閉直前の安定した状態での移動量とするよ うに補正するステツプを有する請求の範囲第 7項記載のボインタ制御方法。
1 6 . さらに、 押しボタンスィッチ、 レバースィッチなどの入力手段からの信 号を、 両眼の開閉情報と合成するステップを有する請求の範囲第 7項記載のボイ ンタ制御方法。
1 7 . さらに、 マウス、 ジョイスティックなどのポインティングデバイスから の信号を頭部の移動量情報と合成するステップを有する請求の範囲第 7項記載の ボインタ制御方法。
1 8 . 前記頭部の移動検知は、 頭部に装着されたマーカあるいは瞳孔の 1つま たは 2つを選定し、 その位置の検知によりなされるものである請求の範囲第 7項 記載のボインタ制御方法。
1 9 . ポインティングデバイスからの信号によりディスプレイに表示されるポ ィンタの位置制御ィンタフェース及びボインタ位置と関連づけられたユーザの押 しボタンによる動作指示をソフトウェアに伝達するインタフヱースを有するシス テムに対し制御信号を発生する装置であって、 頭部の移動を検知し移動量情報を 作成する手段と、 左眼及び右眼の開閉を検出し開閉情報を作成する手段と、 左右 の眼の開閉情報をボインティングデバイスの左右の押しボタンスィツチの押下状 態情報に対応づける手段と、 前記移動量情報及び押下状態情報を制御信号として 出力する手段とからなるボインタ制御装置。
PCT/JP2004/019157 2003-12-17 2004-12-15 瞳孔検出によるポインタ制御装置及び方法 WO2005059736A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2003419110A JP4839432B2 (ja) 2003-12-17 2003-12-17 瞳孔位置検出によるポインティング装置及び方法
JP2003-419110 2003-12-17
JP2004170173A JP2005352580A (ja) 2004-06-08 2004-06-08 ポインタ制御信号発生方法及び装置
JP2004-170173 2004-06-08

Publications (1)

Publication Number Publication Date
WO2005059736A1 true WO2005059736A1 (ja) 2005-06-30

Family

ID=34703285

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/019157 WO2005059736A1 (ja) 2003-12-17 2004-12-15 瞳孔検出によるポインタ制御装置及び方法

Country Status (1)

Country Link
WO (1) WO2005059736A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007126286A1 (en) * 2006-04-28 2007-11-08 Mtekvision Co., Ltd. Non-contact selection device
WO2012151791A1 (zh) * 2011-05-11 2012-11-15 中兴通讯股份有限公司 一种控制终端屏幕的方法及终端
JP2014174747A (ja) * 2013-03-08 2014-09-22 Sony Corp 情報処理装置、情報処理方法およびプログラム
US8879801B2 (en) 2011-10-03 2014-11-04 Qualcomm Incorporated Image-based head position tracking method and system
CN106384109A (zh) * 2016-09-08 2017-02-08 广东小天才科技有限公司 一种电子终端确定对焦的方法和装置
CN110933387A (zh) * 2018-09-19 2020-03-27 佳能株式会社 控制设备、控制方法和计算机可读介质
CN113885699A (zh) * 2021-09-03 2022-01-04 南京信息工程大学 一种眼标控制方法
US11681371B2 (en) 2021-06-30 2023-06-20 Tobii Ab Eye tracking system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0423027A (ja) * 1990-05-17 1992-01-27 Fujitsu Ltd ウインドウ選択方式
JPH08315118A (ja) * 1995-05-19 1996-11-29 Sony Corp マンマシン・インターフェース
JPH09204262A (ja) * 1996-01-24 1997-08-05 Nippon Telegr & Teleph Corp <Ntt> 情報入力方法
JPH09212082A (ja) * 1996-01-30 1997-08-15 Nissan Motor Co Ltd 視線入力装置
JPH1186008A (ja) * 1997-09-05 1999-03-30 Sony Corp 描画処理方法および描画処理装置
JP2000148379A (ja) * 1998-11-12 2000-05-26 Murata Mfg Co Ltd コンピュータポインティング装置
JP2001154794A (ja) * 1999-11-29 2001-06-08 Nec Fielding Ltd まばたきによるクリック機能を有するポインティング装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0423027A (ja) * 1990-05-17 1992-01-27 Fujitsu Ltd ウインドウ選択方式
JPH08315118A (ja) * 1995-05-19 1996-11-29 Sony Corp マンマシン・インターフェース
JPH09204262A (ja) * 1996-01-24 1997-08-05 Nippon Telegr & Teleph Corp <Ntt> 情報入力方法
JPH09212082A (ja) * 1996-01-30 1997-08-15 Nissan Motor Co Ltd 視線入力装置
JPH1186008A (ja) * 1997-09-05 1999-03-30 Sony Corp 描画処理方法および描画処理装置
JP2000148379A (ja) * 1998-11-12 2000-05-26 Murata Mfg Co Ltd コンピュータポインティング装置
JP2001154794A (ja) * 1999-11-29 2001-06-08 Nec Fielding Ltd まばたきによるクリック機能を有するポインティング装置

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8217895B2 (en) 2006-04-28 2012-07-10 Mtekvision Co., Ltd. Non-contact selection device
US8525790B2 (en) 2006-04-28 2013-09-03 Mtekvision Co., Ltd. Non-contact selection device
US8587523B2 (en) 2006-04-28 2013-11-19 Mtekvision Co., Ltd. Non-contact selection device
US8610667B2 (en) 2006-04-28 2013-12-17 Mtekvision Co., Ltd. Non-contact selection device
WO2007126286A1 (en) * 2006-04-28 2007-11-08 Mtekvision Co., Ltd. Non-contact selection device
WO2012151791A1 (zh) * 2011-05-11 2012-11-15 中兴通讯股份有限公司 一种控制终端屏幕的方法及终端
US8879801B2 (en) 2011-10-03 2014-11-04 Qualcomm Incorporated Image-based head position tracking method and system
JP2014174747A (ja) * 2013-03-08 2014-09-22 Sony Corp 情報処理装置、情報処理方法およびプログラム
CN106384109A (zh) * 2016-09-08 2017-02-08 广东小天才科技有限公司 一种电子终端确定对焦的方法和装置
CN106384109B (zh) * 2016-09-08 2020-01-03 广东小天才科技有限公司 一种电子终端确定对焦的方法和装置
CN110933387A (zh) * 2018-09-19 2020-03-27 佳能株式会社 控制设备、控制方法和计算机可读介质
US11172180B2 (en) 2018-09-19 2021-11-09 Canon Kabushiki Kaisha Control apparatus, control method and non-transitory computer-readable medium
US11681371B2 (en) 2021-06-30 2023-06-20 Tobii Ab Eye tracking system
CN113885699A (zh) * 2021-09-03 2022-01-04 南京信息工程大学 一种眼标控制方法
CN113885699B (zh) * 2021-09-03 2023-12-01 南京信息工程大学 一种眼标控制方法

Similar Documents

Publication Publication Date Title
US8693732B2 (en) Computer vision gesture based control of a device
KR101688355B1 (ko) 다수의 지각 감지 입력의 상호작용
Grauman et al. Communication via eye blinks-detection and duration analysis in real time
US9454225B2 (en) Gaze-based display control
JP4491604B2 (ja) 瞳孔検出装置
US8290210B2 (en) Method and system for gesture recognition
US8745541B2 (en) Architecture for controlling a computer using hand gestures
US20090153468A1 (en) Virtual Interface System
JP4323180B2 (ja) 自己画像表示を用いたインタフェース方法、装置、およびプログラム
Mardanbegi et al. Eye-based head gestures
US20140247216A1 (en) Trigger and control method and system of human-computer interaction operation command and laser emission device
US20130154913A1 (en) Systems and methods for a gaze and gesture interface
US20140053115A1 (en) Computer vision gesture based control of a device
US20020186200A1 (en) Method and apparatus for human interface with a computer
KR20230025904A (ko) 인공 현실 상호작용 모드의 통합
WO2017145423A1 (ja) 情報処理システム、情報処理装置、制御方法、及びプログラム
JP2005182247A (ja) 瞳孔位置検出によるポインティング装置及び方法
JP4951751B2 (ja) 瞳孔検出に基づくポインティング装置及び方法
Gizatdinova et al. Face typing: Vision-based perceptual interface for hands-free text entry with a scrollable virtual keyboard
WO2005059736A1 (ja) 瞳孔検出によるポインタ制御装置及び方法
TW202301083A (zh) 提供精準眼動追蹤之光學系統和相關方法
KR100749033B1 (ko) 두 눈에서 반사되는 빛을 추적하여 단말기를 조작하는방법, 및 그 장치
JPH0648458B2 (ja) 情報入力装置
US9940900B2 (en) Peripheral electronic device and method for using same
JP2005352580A (ja) ポインタ制御信号発生方法及び装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

122 Ep: pct application non-entry in european phase