JP2003187232A - Communication system using blink - Google Patents

Communication system using blink

Info

Publication number
JP2003187232A
JP2003187232A JP2001387280A JP2001387280A JP2003187232A JP 2003187232 A JP2003187232 A JP 2003187232A JP 2001387280 A JP2001387280 A JP 2001387280A JP 2001387280 A JP2001387280 A JP 2001387280A JP 2003187232 A JP2003187232 A JP 2003187232A
Authority
JP
Japan
Prior art keywords
eyes
blink
communication system
user
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001387280A
Other languages
Japanese (ja)
Inventor
Mikiya Tanaka
幹也 田中
Yoshiki Mizukami
嘉樹 水上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaguchi Technology Licensing Organization Ltd
Original Assignee
Yamaguchi Technology Licensing Organization Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaguchi Technology Licensing Organization Ltd filed Critical Yamaguchi Technology Licensing Organization Ltd
Priority to JP2001387280A priority Critical patent/JP2003187232A/en
Publication of JP2003187232A publication Critical patent/JP2003187232A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To develop a communication system using blinks with a small burden on such a user as a patient of serious amyotrophic lateral sclerosis (ALS), by which burdens on a care giver and nurse, etc., can also be relieved, automatic detection and automatic tracking of both eyes are enabled. <P>SOLUTION: In the communication system using the blinks, the burden to be imposed on the user is small since it is a complete non-contact type using a CCD camera for enabling the automatic detection and the automatic tracking of both eyes and the burdens on the care giver and the nurse are also small since eye positions of the user are automatically recognized and adjusted on the system's side simply by turning a power on by directing the CCD camera to a face of the user by the care giver and the nurse. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】重度の筋萎縮性側索硬化症
(ALS)患者等の、発声機能とともに四肢の運動機能
を失った患者等を対象とする、目の瞬きを利用したパソ
コン操作が可能な、非接触型のコミュニケーション シ
ステムに関する。
TECHNICAL FIELD The present invention can control a personal computer using eye blinks for patients with severe amyotrophic lateral sclerosis (ALS) and the like who have lost the vocal function and the motor function of the extremities. And contactless communication system.

【0002】[0002]

【従来の技術】従来のシステムは、大きくわけると接触
型と非接触型とに分類される。接触型は、患者の体の一
部に直接センサーを取り付けて、患者の意思を伝えるも
のである。一例を挙げると、眼鏡など顔に装着する器具
に光センサーを取り付け、センサーの照準を目に当てる
ことにより、目が開いているときと閉じているときの反
射光を感知して、電気信号としてパソコンに入力する。
このシステムは、瞬き検出用の赤色LED光が、常に視
界の中に存在するため不快感を伴う。また、眼鏡を常に
装着しなければならないという、生理的な負担を使用者
に強いるという短所もある。
2. Description of the Related Art Conventional systems are roughly classified into contact type and non-contact type. In the contact type, a sensor is attached directly to a part of the patient's body to convey the patient's intention. As an example, by attaching an optical sensor to a device such as glasses that is worn on the face and aiming the sensor at the eye, the reflected light when the eye is open and when it is closed is sensed as an electrical signal. Input on a computer.
This system is uncomfortable because the red LED light for blink detection is always in the field of view. In addition, there is a disadvantage that the user is always required to wear glasses, which imposes a physiological burden on the user.

【0003】非接触型は、センサーやCCDカメラなど
を患者から離した位置に設置して、患者の目の動きを感
知する(谷口慶治:画像処理工学 基礎編、共立出版株
式会社、1996;長尾 真:デジタル画像処理、近代
科学社、1978)。例として、患者と離れた位置から
目の開閉を感知するものや、望遠の機能がついたCCD
カメラを用いて画像処理を行って患者の目の動きや瞬き
を判定するものがある。非接触型のコミュニケーション
システムは、視線入力を用いたものが多い。視線入力
による目の移動度を計算するために、離れた位置から赤
色LED光を目に照射して目の動きを捉えようとするも
のがあるが、視線入力が可能な状態から顔の向きを少し
動かすと、視線を捉えることができなくなる。一方、倍
率の高いCCDカメラを使用して、画像処理によって目
の動きをとらえようとする方法もあるが、多くは固定C
CDカメラを使用しているため、視線入力が可能な状態
から顔の向きを少し動かすと、視線を捉えることができ
なくなる。
In the non-contact type, a sensor, a CCD camera, or the like is installed at a position apart from the patient to detect the eye movement of the patient (Keiji Taniguchi: Basics of Image Processing Engineering, Kyoritsu Publishing Co., Ltd., 1996; Nagao). Makoto: Digital Image Processing, Modern Science Company, 1978). For example, one that senses the opening and closing of eyes from a position away from the patient, and a CCD with a telephoto function
2. Description of the Related Art There is a method in which image processing is performed using a camera to determine eye movements and blinks of a patient. Many non-contact type communication systems use line-of-sight input. In order to calculate the mobility of the eye due to the line-of-sight input, there is one that tries to capture the movement of the eye by irradiating red LED light to the eye from a distant position. If you move it a little, you will not be able to gaze. On the other hand, there is also a method in which a CCD camera with a high magnification is used to capture the eye movement by image processing.
Since the CD camera is used, if the direction of the face is slightly moved from the state where the line of sight can be input, the line of sight cannot be captured.

【0004】[0004]

【発明が解決しようとする課題】ALS患者等の利用者
への負担が少なく、介護者や看護者等の負担も軽減でき
る、両目の自動検出、自動追尾が可能な瞬きを用いたコ
ミュニケーション システムの開発が課題である。
DISCLOSURE OF THE INVENTION Problems to be Solved by the Invention A communication system using blinks capable of automatic detection and tracking of both eyes, which can reduce the burden on users such as ALS patients and reduce the burden on caregivers and nurses. Development is a challenge.

【0005】[0005]

【課題を解決するための手段】本発明による瞬きを用い
たコミュニケーション システムは、従来の技術におけ
る接触型と非接触型の両者の特徴を活用し、また両者の
短所を改善することによって、以下の特徴を有してい
る。1)接触型において、常にセンサーを装着するなど
の負担を除くため、非接触型を採用した。2)画像処理
のみで目の開閉状態や患者が移動したことを判断するた
め、光の明暗を感知する赤色LED光センサーなどを使
わなくてもよい。3)従来の非接触型システムに使われ
る固定カメラでは、患者の頭部が動いたときにシステム
が使えなくなる可能性がある。これを改善するために、
パソコンからカメラの向きや倍率を制御できる可動式カ
メラを使用して、少し頭部を動かしても患者の目の位置
を追従し、動いた状態からでもシステムを使用できるよ
うにした。本システムに用いるカメラは、CCDカメラ
やビデオカメラ等が使用できる。CCDカメラの場合
は、制御コードがVISCA対応のCCDカメラを用い
ると良い。また、ビデオカメラを用いる場合は、映像を
デジタル化するための処理を行う必要がある。
A communication system using blinks according to the present invention utilizes the features of both contact type and non-contact type in the prior art, and improves the shortcomings of the two types as follows. It has features. 1) In the contact type, a non-contact type was adopted in order to eliminate the burden of always wearing a sensor. 2) It is not necessary to use a red LED light sensor or the like that senses the brightness of light, because the eye open / closed state and the patient's movement are determined only by image processing. 3) Fixed cameras used in conventional non-contact systems may render the system unusable when the patient's head moves. To improve this,
By using a movable camera that can control the orientation and magnification of the camera from a personal computer, the position of the patient's eyes can be tracked even if the head is moved slightly, and the system can be used even when it is moving. A CCD camera, a video camera, or the like can be used as the camera used in this system. In the case of a CCD camera, it is preferable to use a CCD camera whose control code is VISCA compatible. Further, when using a video camera, it is necessary to perform processing for digitizing an image.

【0006】システム起動時の操作を簡単に行うため
に、顔の輪郭、目の位置を自動認識させる。このために
は、CCDカメラから顔を含む画像を取り込み、この情
報から顔の切り出しと両目の座標を求める。このとき、
カメラの中心に使用者がきていない状況を考慮し、両目
の中間の座標とCCDカメラの中心座標との差を計算
し、CCDカメラの中心座標が両目の中間となるよう
に、自動的にCCDカメラを動かす。これにより、CC
Dカメラの中心座標が両目の中間にくるので、CCDカ
メラをズームすれば顔の部分が画像の中心に拡大され
る。これにより、CCDカメラを使用者に向けるだけで
自動的に目の部分を拡大でき、初期設定にかかる介護者
や看護者の負担を大幅に減らすことができる。
In order to easily perform the operation at the time of starting the system, the contour of the face and the position of the eyes are automatically recognized. For this purpose, an image including a face is taken in from a CCD camera, and the face is cut out and the coordinates of both eyes are obtained from this information. At this time,
In consideration of the situation where the user is not in the center of the camera, the difference between the coordinates of the middle of both eyes and the center of the CCD camera is calculated, and the CCD is automatically adjusted so that the center of the CCD camera is in the middle of both eyes. Move the camera. This allows CC
Since the center coordinates of the D camera are in the middle of both eyes, zooming the CCD camera expands the face portion to the center of the image. As a result, the eyes can be automatically enlarged simply by pointing the CCD camera toward the user, and the burden on the caregiver and the nurse for initial setting can be greatly reduced.

【0007】使用者の顔の位置が何らかの原因で動いた
場合、従来のシステムでは、目の位置がCCDカメラか
ら外れて瞬きの検出が不可能となる。この場合には、介
護者または看護者が、手動でCCDカメラを使用者の顔
に向くよう再調整するか、使用者の顔を元の位置に戻す
必要がある。本発明のシステムでは、使用者の目を常時
監視し、位置が変わった場合にはシステムが再調整を自
動的に行うことにより、目の位置を常に追跡することが
できる。従って、介護者や看護者による手動の再調整の
煩わしさを防止できる。特に、コンピュータに不慣れな
介護者の場合は、本発明のシステムによる恩恵は大と言
える。
When the position of the user's face moves for some reason, the positions of the eyes are displaced from the CCD camera in the conventional system, and the blink cannot be detected. In this case, the caregiver or the nurse must manually readjust the CCD camera to face the user's face or return the user's face to its original position. With the system of the present invention, the position of the eyes can be constantly tracked by constantly monitoring the eyes of the user and automatically re-adjusting when the position changes. Therefore, the troublesomeness of manual readjustment by a caregiver or a nurse can be prevented. In particular, a caregiver who is not accustomed to a computer can greatly benefit from the system of the present invention.

【0008】次にこのシステムの処理の流れを、より詳
細に説明する。まず初めに使用者がディスプレイに視線
を向けた状態の画像をカメラから取得し、そこから目の
位置を検出する。この目の位置検出には、動画像を扱う
ことができるソフトウエアであれば、市販の画像解析ソ
フト、または自作した画像解析ソフトの利用が可能であ
る。ただし、動画や静止画像の中からデータベース(あ
らかじめ登録された顔画像等のデータ)に最もマッチン
グしている顔を検出するためのライブラリから構成され
ている必要がある。本発明の実施例においては、市販の
画像解析ソフトである FaceIt を用いた。次に、発見さ
れた目の位置が画像の中央になるようにコンピュータか
らカメラに命令を送信する。目の位置が画像の中央に来
ると、カメラは画像を拡大する。拡大した画像から目の
領域を含んだテンプレート画像を登録して、テンプレー
トマッチングを行う。
Next, the processing flow of this system will be described in more detail. First, the user acquires an image in which the user's line of sight is directed to the display from the camera, and the position of the eyes is detected from there. For the eye position detection, commercially available image analysis software or self-made image analysis software can be used as long as the software can handle moving images. However, it is necessary to be configured from a library for detecting a face most matching a database (data such as a face image registered in advance) from a moving image or a still image. In the examples of the present invention, FaceIt, which is commercially available image analysis software, was used. Next, the computer sends a command to the camera so that the position of the found eye is in the center of the image. The camera magnifies the image when the eye position is in the center of the image. A template image including the eye region is registered from the enlarged image, and template matching is performed.

【0009】テンプレートマッチングを使用した目開閉
の判定には、パターン認識を用いることができる。パタ
ーン認識は、入力したパターンが、あらかじめ用意し
た、どの標準パターンと同じかを決定する画像処理技法
であり(谷口慶治 : 画像処理工学 基礎編、共立出版
株式会社、1996;長尾 真 : ディジタル画像処
理、近代科学社、1978)、入力パターンに対して前
処理、特徴抽出、パターンマッチングの各段階を経て結
果を出力する(図1)。
Pattern recognition can be used for the eye open / close determination using template matching. Pattern recognition is an image processing technique that determines which standard pattern the input pattern is the same as the one prepared in advance (Keiji Taniguchi: Basics of Image Processing Engineering, Kyoritsu Publishing Co., Ltd., 1996; Makoto Nagao: Digital Image Processing) , Modern Science Co., Ltd., 1978), and outputs the result through the steps of preprocessing, feature extraction, and pattern matching for the input pattern (FIG. 1).

【0010】入力されたパターンについて、必要に応じ
て前処理を行う。前処理には、雑音の除去、大きさの規
格化、回転の補正などがある。次に、特徴パラメータを
使って、パターンに対する特徴抽出を行う。特徴パラメ
ータは対象に応じて様々なものが考えられる。本発明で
は特徴抽出にテンプレートマッチングを利用する。対象
画像の中から、ある特定の形状を抽出するための簡単な
方法に、テンプレートマッチングがある。特定の形状を
テンプレートといい、テンプレート画像と入力画像の重
なり度合いが大きいほど、パターンが似ているとみな
す。パターンマッチングにおいては、標準パターンの特
徴量と入力パターンの特徴量を比較し、2者の間の距離
を計算することにより、入力パターンに最も近い標準パ
ターンを決定する。決定方法は、特徴量の全領域に対し
て入力パターンと比較を行い、その中で距離が最小のも
のを標準パターンと決定する。本研究では、距離Dの計
算方法として、差の2乗和を用いることにした。以下に
その式を示す。但しM 1〜M n は標準パターンの特徴
量、I1〜In は入力パターンの特徴量である。
As for the input pattern, if necessary
Pretreatment. Pre-processing includes noise removal and size control.
There are classifications and rotation corrections. Next, the characteristic parameters
Feature extraction is performed using the pattern. Characteristic parameter
Various data can be considered depending on the target. In the present invention
Uses template matching for feature extraction. Target
A simple way to extract a particular shape from an image.
One method is template matching. Specific shape
It is called a template, and the weight of the template image and the input image
The higher the degree, the more similar the pattern
You In pattern matching, the features of standard patterns
Distance between the two by comparing the characteristic amount of the input pattern and the characteristic amount of the input pattern
By calculating the standard pattern closest to the input pattern.
Determine the turn. The determination method is for all regions of the feature
The input pattern is compared with the one that has the smallest distance.
Is determined as the standard pattern. In this study, the distance D
We decided to use the sum of squared differences as the calculation method. less than
The formula is shown below. However, M1~ M nIs the feature of standard pattern
Quantity, I1~ InIs the feature quantity of the input pattern.

【0011】[0011]

【式1】 [Formula 1]

【0012】テンプレートマッチングによる画像認識ア
ルゴリズムの概要を、以下に述べる。本発明では、32
0×240画素、RGBそれぞれ256階調のカラー画
像に対してテンプレートマッチングで認識を行う。マッ
チングは高速化のため、まずピラミッド構造(高木幹雄
下田陽久 : 画像解析ハンドブック、東京大学出版
会、1978)で1レベル上の画像に対して行う。画像
ピラミッド構造は、2n×2nの画像に対して2×2の画
素領域を1レベル上の1画素に対応させ、2n-1×2n-1
の画像を作る操作を繰り返すものである。高速化のため
画像処理の様々な分野で用いられている。次に得られた
候補領域の周辺について再びマッチングを行い、最終的
な候補領域を抽出する。本研究では、3×3の画素領域
を1レベル上の1画素に対応させ、4階層のピラミッド
構造を作成した(図2)。
An outline of the image recognition algorithm by template matching will be described below. In the present invention, 32
Recognition is performed by template matching for a color image of 0 × 240 pixels and 256 gradations of RGB. In order to speed up the matching, first, the pyramid structure (Mikio Takagi, Yoshihisa Shimoda: Image Analysis Handbook, The University of Tokyo Press, 1978) is used for images one level higher. In the image pyramid structure, for a 2 n × 2 n image, a 2 × 2 pixel area is made to correspond to one pixel on one level, and 2 n-1 × 2 n-1
The operation of making the image is repeated. It is used in various fields of image processing for speeding up. Next, matching is performed again around the obtained candidate area to extract a final candidate area. In this research, a 3 × 3 pixel region was made to correspond to one pixel on one level, and a four-layer pyramid structure was created (FIG. 2).

【0013】[0013]

【表1】 [Table 1]

【0014】目開閉の判定には、2値化法を用いた。い
ま、画像fが濃度範囲[a,b]であり、2値化閾値を
T(a≦T≦b)とすると、2値化処理は一般に次式に
よって表される。
A binarization method was used to determine whether the eyes were opened or closed. Now, assuming that the image f is in the density range [a, b] and the binarization threshold is T (a ≦ T ≦ b), the binarization process is generally expressed by the following equation.

【0015】[0015]

【式2】 [Formula 2]

【0016】fTは2値画像であり、通常1を対象領域
(黒領域)の値に、0を背景領域(白領域)の値に割り
当てる。しかし本研究では、2値化したときに目の瞳の
部分とまつげの部分が黒くなることと、目の開閉の判別
に、目とまつげの画素数を使用していることから、これ
らを反対にして、1を背景領域(白領域)、0を対象領
域(黒領域)として扱った。また、座標原点を左上と
し、画像fの第1引数を横方向座標、第2引数を縦方向
座標とする。マッチングした画像(以下、認識画像と呼
ぶ)の中から目の開閉を判別するため、認識画像を2値
化し、そのときの黒画素数の合計から、目が開いている
状態と、目が閉じている状態の黒画素数の中間値を目開
閉閾値と設定して、目の開閉を判別する。2値化閾値
は、使用者ごとに、あらかじめ決定した値を使用する。
一般にマッチした画像の中に目以外の眉毛や髪など、2
値化したときに黒くなる部分が含まれていなければ、目
を開いている状態では瞳の部分が2値化して黒くなり、
それ以外の部分は白くなる。目を閉じている状態では、
まつげの部分が2値化されて黒くなるだけである。
F T is a binary image. Normally, 1 is assigned to the value of the target area (black area) and 0 is assigned to the value of the background area (white area). However, in the present study, the opposite is true because the pupil and eyelashes of the eye turn black when binarized, and the number of pixels of the eye and eyelashes are used to determine the opening and closing of the eye. Then, 1 was treated as a background region (white region) and 0 was treated as a target region (black region). In addition, the origin of coordinates is at the upper left, the first argument of the image f is the horizontal coordinate, and the second argument is the vertical coordinate. In order to determine whether the eyes are open or closed from the matched image (hereinafter referred to as the recognition image), the recognition image is binarized, and the total number of black pixels at that time determines whether the eyes are open or closed. The middle value of the number of black pixels in the open state is set as the eye opening / closing threshold value to determine the eye opening / closing. As the binarization threshold value, a value determined in advance for each user is used.
In general, matching images such as eyebrows and hair other than eyes
If there is no part that becomes black when it is binarized, the pupil part becomes binarized and becomes black when the eyes are open,
Other parts become white. With your eyes closed,
The eyelashes are only binarized and blackened.

【0017】一般に目を開いている状態が、目を閉じて
いる状態に比べて2値化したときに瞳の部分が黒くなる
ので、黒画素数が多い。目を閉じている状態ではまつげ
のみが黒くなる。しかし、目が細く、まつげの長い人は
目を閉じた状態のほうが黒画素数が多くなる場合があ
る。この場合、2値化する閾値を下げることにより、2
値化したときにまつげの部分が黒くなるのを防ぐことが
できる。式3に、目開閉閾値を与える式を示す。
In general, the number of black pixels is large when the eyes are open, because the pupil portion becomes black when binarized compared to when the eyes are closed. With the eyes closed, only the eyelashes turn black. However, a person with narrow eyes and long eyelashes may have more black pixels when the eyes are closed. In this case, by lowering the threshold for binarization,
It can prevent the eyelashes from turning black when the value is converted. Equation 3 shows an equation that gives the eye opening / closing threshold value.

【0018】[0018]

【式3】 [Formula 3]

【0019】目開閉閾値を決定するために、テンプレー
トを登録した後、約5秒間、使用者に瞬きをしてもら
う。ここでEPmax 、EPmin は、それぞれ認識画像を
2値化したときの黒画素数の最大値と最小値を表し、そ
れらを合わせて2で割った中間値を目開閉閾値としてい
る。2値化したときの目の画素数と式3の関係を用いる
と、現在の目の状態は式4で表現できる。ここで、E
state は目の状態、EPは2値化したときの黒画素数を
表す。
In order to determine the eye opening / closing threshold, the user blinks for about 5 seconds after registering the template. Here, EP max and EP min respectively represent the maximum value and the minimum value of the number of black pixels when the recognized image is binarized, and the intermediate value obtained by dividing them by 2 is used as the eye opening / closing threshold value. Using the relationship between the number of pixels in the binarized pixel and Equation 3, the current eye state can be represented by Equation 4. Where E
state represents the state of eyes, and EP represents the number of black pixels when binarized.

【0020】[0020]

【式4】 [Formula 4]

【0021】使用者の意思表示は、ディスプレイに映し
だされた文字(スクリーン キーボード)を使用して、
文字、絵文字または絵を選択することにより行う。文字
選択方法は、視線を選択したい文字の位置に向けて文字
を選ぶ直接法と、入力が瞬きのみで、選択したい文字が
点滅するまで待ち、点滅したときに瞬きをして文字を選
択する間接法がある。スイッチのみで文字を選択できる
間接法に比べ、直接法は目の動きを正確に解析する必要
があるためシステムが複雑になり、完成したときのシス
テムのコストが高くなるという問題がある。そこで本発
明においては、安価な間接法を採用した。本発明では、
文字を選択する場合に無意識の瞬きで文字が選択されな
いよう、一定時間、目を閉じた状態が続くと意識的な瞬
きがされたと判断し、オン スクリーン キーボード上で
目を閉じたときに点滅していた文字が選択されたと判断
する。
The intention of the user is expressed by using the characters (screen keyboard) displayed on the display.
This is done by selecting a character, pictogram or picture. The character selection method is a direct method that selects the character by directing the line of sight to the position of the character you want to select, or an indirect method that waits until the character you want to select blinks and then blinks to select the character when the character you want to select blinks. There is a law. Compared to the indirect method in which characters can be selected only with a switch, the direct method requires accurate analysis of eye movements, which complicates the system and increases the cost of the system when completed. Therefore, in the present invention, an inexpensive indirect method is adopted. In the present invention,
When selecting a character, in order to prevent the character from being selected with an unconscious blink, it is judged that the conscious blink has been made if the eyes are closed for a certain period of time, and it blinks when the eyes are closed on the on-screen keyboard. The selected character is determined to have been selected.

【0022】ディスプレイ上には50音の文字や使用頻
度の高い文字等を写し、上から下、左から右というよう
にスクリーンにある文字を点滅させ、使用者は選択した
い文字が点滅したところで意識的な瞬きを行う。コンピ
ュータはテンプレート マッチングの結果から、目が開
いている、目が閉じている、意識的瞬きが行われた、の
いずれかの判断を下し、もし意識的瞬きが行われていれ
ば、そのときに選択された文字をディスプレイ上のテキ
スト エディタに表示する。意思表示の瞬きと無意識な
瞬きの判定基準については、本発明の実機を用いて計測
した結果から決定する。意思表示の項目を切り替える時
間と瞬きにより意思表示の項目を選択するときの関係を
調査し、画面上にある項目の切り替え時間を変化させた
ときに、瞬きにより意思表示の項目を選択し、成功率を
測定することにより決定できる。健常者10名による計
測結果からは、1秒間、目を閉じた状態が続くと意識的
な瞬きがされたと判断するのが最適であった(実施例3
参照)。
On the display, the characters of the Japanese syllabary or the characters that are frequently used are copied, and the characters on the screen are flashed from top to bottom, left to right, and the user is conscious when the desired character flashes. Make a targeted blink. The computer makes a judgment as to whether the eyes are open, the eyes are closed, or a conscious blink has been performed based on the result of the template matching, and if a conscious blink is performed, then Display the character selected for in a text editor on the display. The criteria for determining the intentional blink and the unconscious blink are determined based on the result of measurement using the actual device of the present invention. Investigate the relationship between the time to switch the item of intention display and the item when selecting the item of intention display by blinking, and when changing the switching time of the item on the screen, select the item of intention display by blinking and succeed. It can be determined by measuring the rate. From the measurement results by 10 healthy persons, it was optimal to judge that a conscious blink occurred when the eyes were kept closed for 1 second (Example 3).
reference).

【0023】本発明の瞬きを用いたコミュニケーション
システムは、両目の自動検出、自動追尾が可能なカメ
ラ、特にCCDカメラを使用した完全非接触型のため、
検出装置やケーブル等を、患者等の利用者に取り付ける
必要がなく、利用者にかかる負担の少ないシステムであ
る。介護者や看護者が、CCDカメラを利用者の顔に向
けて電源を入れるだけで、システム側が自動的に利用者
の目の位置を認識して調整を行うため、介護者や看護者
にとっても負担の少ないシステムである。利用者とのコ
ミュニケーションは、年齢に関係なく誰でもが簡単に理
解できるように、ディスプレイ上の表示は、文字だけで
なく絵文字や絵等を採用している。また、意思表示で選
択された情報は、日付や時間等の情報を付加して、履歴
情報として保存することもできる。従って、これらの情
報をもとに、意思内容と時間との関係を解析するなどの
方法により、より良い看護、介護への指針として活用で
きる。
Since the communication system using the blink of the present invention is a completely non-contact type camera using a camera capable of automatically detecting and tracking both eyes, particularly a CCD camera,
This is a system that does not require a user such as a patient to attach a detection device, a cable, or the like, and has a small burden on the user. For the caregiver and the nurse, the system side automatically recognizes and adjusts the position of the user's eyes simply by turning on the power of the caregiver or nurse with the CCD camera facing the user's face. It is a system with a low burden. The communication on the display uses not only letters but also pictograms and pictures so that anyone can easily understand it regardless of age. Further, the information selected by the intention display may be added with information such as date and time and stored as history information. Therefore, it is possible to utilize it as a guideline for better nursing and care by analyzing the relationship between intention content and time based on these information.

【0024】何らかの原因で、利用者の顔が動いて目の
位置が変わっても、システムが目の位置を自動追尾し、
常に目の位置を捉えることができるため、システムの再
調整や再設定の必要がない点は、本発明の大きな利点で
ある。ALS患者に対するアンケート調査においても、
患者が望む意思内容は、患者自身が動けないということ
で長時間ベッドに寝たままであり、その間何もすること
が無く同じ姿勢で何時間も寝ているため、自分で寝返り
ができず体が痛くなるため体位変換の要望が多い。従来
の固定型のシステムでは、システムの利用中は顔を動か
すことも出来ないのに対して、利用者の顔が動いて目の
位置が変わっても、システムが目の位置を自動追尾し、
常に目の位置を捉えることができる本発明のシステム
は、より優れたシステムと言える。
Even if for some reason the user's face moves and the eye position changes, the system automatically tracks the eye position,
It is a great advantage of the present invention that it is not necessary to readjust or reset the system because the eye position can always be captured. Even in the questionnaire survey for ALS patients,
The patient's wishes are that he / she can't move and stays asleep in bed for a long time. Since it hurts, there are many requests for postural changes. In the conventional fixed type system, it is not possible to move the face while using the system, but even if the user's face moves and the eye position changes, the system automatically tracks the eye position,
It can be said that the system of the present invention capable of always capturing the eye position is a superior system.

【0025】また本発明のシステムは、1台のコンピュ
ータを複数の利用者が使用できるように、個人認証およ
び個別設定の機能も有している。個人認証および個別設
定は、まず利用者の瞬きにより両目の位置を検出し、続
いて登録した顔画像で1段目の個人認証を行い、認証さ
れた場合には両目または片目の瞬きによる暗証データの
入力による2段目の個人認証を行うことにより、使用者
ごとのシステムの個別設定を行うこと、をコンピュータ
に行わせるプログラムによって実行される。このよう
に、本発明の瞬きを用いたコミュニケーション システ
ムは、総合的に判断すると、患者に優しいシステムとし
て、従来のシステムにはない優れた特徴を有するシステ
ムと言える。
The system of the present invention also has the functions of individual authentication and individual setting so that a plurality of users can use one computer. For personal authentication and individual setting, first, the positions of both eyes are detected by the blink of the user, then the first-stage personal authentication is performed with the registered face image, and if authenticated, the password data for both eyes or one eye blinks. By executing the second-stage personal authentication by inputting, the system is individually set for each user, which is executed by a program. As described above, the communication system using the blink of the present invention can be said to be a system that is superior to conventional systems as a patient-friendly system when comprehensively judged.

【0026】[0026]

【発明の実施の形態】発明の実施の形態を、実施例にも
とづき図面を参照して説明する。特に、本発明による瞬
きを用いたコミュニケーション システムの性能評価に
関する例を、以下に述べる。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described based on examples with reference to the drawings. In particular, an example of performance evaluation of the communication system using the blink according to the present invention will be described below.

【0027】[0027]

【実施例1】本発明による瞬きを用いたコミュニケーシ
ョン システムを使用する上で、CCDカメラが患者の
目を自動認識、自動追尾する場合、患者の姿勢、室内環
境の変化がどのように自動認識、自動追尾に影響するか
を調査し、本発明による瞬きを用いたコミュニケーショ
ン システム(図3)の性能評価を行った。
Embodiment 1 When using a communication system using blinks according to the present invention, when a CCD camera automatically recognizes and tracks a patient's eyes, how the patient's posture and indoor environment change are automatically recognized. The influence on the automatic tracking was investigated, and the performance of the communication system (FIG. 3) using the blink according to the present invention was evaluated.

【0028】ベッドの角度による影響調査は、CCDカ
メラに対する被験者が寝ているベッドの角度を、ベッド
水平、15度、30度に変化させ、目の位置の自動認
識、自動追尾にかかる時間及び認識判断を実機により測
定した。さらに、顔の向きによる影響調査は、ベッドの
各角度において、被験者の顔の向きを正面、上、下、
左、右に変化させ、目の位置の自動認識、自動追尾の認
識率及び時間を測定した(表2)。
The influence of the angle of the bed is investigated by changing the angle of the bed on which the subject is sleeping with respect to the CCD camera to bed horizontal, 15 degrees, and 30 degrees, and automatically recognizing the eye position, the time required for the automatic tracking, and the recognition. The judgment was measured by an actual machine. Furthermore, the influence investigation by the face orientation is that the face orientation of the subject at each angle of the bed is front, top, bottom,
The positions were changed to left and right, and the recognition rate and time of automatic eye position recognition and automatic tracking were measured (Table 2).

【0029】[0029]

【表2】 [Table 2]

【0030】部屋の照明による影響調査は、ベッドの各
角度、被験者の顔の向きに加え、部屋の照明の明るさを
100、700、1600ルクスに変化させ、また光源
の方向を上、前、後、左、右に変化させ、目の位置の自
動認識、自動追尾の認識率及び時間を測定した(表
3)。 照明の明るさの選定基準としては、100ルク
スの病室、700ルクスの応接室・食堂、1600ルク
スの緊急治療室を選定した。照明の測定は、被験者の目
の位置でセンサー部を上に向け部屋全体の明るさとして
測定した。照度計は、(株)シロ産業社製のデジタル照
度計 SLX-1000 を使用した。光源としては、蛍光灯、白
熱電灯(電気スタンド)を使用し、蛍光灯の調光(照度
調整)は部屋に設置してある調光器を使用した。白熱電
灯の調光は、ODELIC 社製 LC201 を使用した。
The effect of the room lighting was investigated by changing the brightness of the room lighting to 100, 700, 1600 lux in addition to the angle of the bed and the direction of the subject's face. After that, it was changed to left and right, and the recognition rate and time of automatic recognition of eye positions and automatic tracking were measured (Table 3). We selected 100 lux hospital room, 700 lux reception room / dining room, and 1600 lux emergency room as the criteria for selecting the brightness of illumination. The illumination was measured as the brightness of the entire room with the sensor part facing upward at the position of the subject's eyes. As the illuminance meter, a digital illuminance meter SLX-1000 manufactured by Shiro Sangyo Co., Ltd. was used. A fluorescent lamp and an incandescent lamp (a lamp) were used as a light source, and a dimmer installed in a room was used for dimming (illuminance adjustment) of the fluorescent lamp. For light control of the incandescent lamp, LC201 manufactured by ODELIC was used.

【0031】[0031]

【表3】 [Table 3]

【0032】本発明による瞬きを用いたコミュニケーシ
ョン システムの性能評価は、健常者10名、ALS患
者2名の協力を得て実施した(表4)。
The performance evaluation of the communication system using blinks according to the present invention was carried out in cooperation with 10 healthy persons and 2 ALS patients (Table 4).

【0033】[0033]

【表4】 [Table 4]

【0034】[0034]

【実施例2】目の位置の自動検出・自動追尾の試験結果
より、異なる二つの要素に対する認識回数及び平均認識
時間の図を作成した。認識回数とは、図の表題に書かれ
てある二つの項目に対して、健常者の実験結果であれ
ば、健常者10名の目の位置が認識された回数の合計、
患者の実験結果であれば、患者2名の目の位置が認識さ
れた回数の合計である。また、平均認識時間とは、認識
回数でかかった合計時間を認識回数で割った値であり、
目の位置を認識するまでの平均所要時間のことである。
健常者において、光源照度と顔の向きが認識回数及び平
均認識時間に与える影響についてまとめた結果を、図4
に示した。光源の照度に対しては、ほとんど影響はなか
った。顔の向きがCCDカメラに対して左右に傾いた場
合、やや認識率が低下し、認識に時間がかかる傾向が見
られたが、実用上、問題はない程度のものであった。
[Example 2] From the test results of automatic detection and automatic tracking of eye positions, a diagram of the number of recognitions and the average recognition time for two different elements was created. The number of times of recognition is the total number of times the eye positions of 10 healthy people are recognized for the two items written in the caption of the figure, if they are the experimental results of healthy people,
In the case of the experimental result of the patient, it is the total number of times the eye positions of the two patients are recognized. The average recognition time is a value obtained by dividing the total time taken by the number of recognitions by the number of recognitions,
It is the average time required to recognize the position of the eyes.
FIG. 4 shows a summary of the effects of light source illuminance and face orientation on the number of recognitions and average recognition time in healthy subjects.
It was shown to. There was almost no effect on the illuminance of the light source. When the orientation of the face was tilted to the left or right with respect to the CCD camera, the recognition rate slightly decreased and recognition took a long time, but there was no problem in practical use.

【0035】健常者における、ベッドの角度と光源位置
が認識回数及び平均認識時間に与える影響についてまと
めた結果を、図5に示した。光源位置に対する認識率の
影響はほとんどなかった。ベッドの角度に関しては、角
度が高いほど認識率が良いという傾向が見られたが、実
用上の差はなかった。また、認識すると認識時間はほぼ
一定であった。
FIG. 5 shows a summary of the effects of the bed angle and the light source position on the number of times of recognition and the average recognition time in healthy persons. The recognition rate had almost no effect on the light source position. Regarding the angle of the bed, there was a tendency that the higher the angle, the better the recognition rate, but there was no practical difference. Moreover, the recognition time was almost constant upon recognition.

【0036】健常者における、ベッドの角度と光源照度
が認識回数及び平均認識時間に与える影響についてまと
めた結果を、図6に示した。光源照度による認識率、平
均認識時間への影響は少なかった。ベッドの角度が低く
なると認識率が低下する傾向は見られたが、認識した場
合には、認識に要する時間はほぼ一定であった。
FIG. 6 shows a summary of the effects of the bed angle and the light source illuminance on the number of times of recognition and the average recognition time in a healthy person. The illuminance of the light source had little effect on the recognition rate and average recognition time. The recognition rate tended to decrease as the bed angle decreased, but when recognition was performed, the recognition time was almost constant.

【0037】健常者における、ベッドの角度と顔の向き
が認識回数及び平均認識時間に与える影響についてまと
めた結果を、図7に示した。顔の向きが正面、上の場合
は、ベッドの角度による影響はほとんどなかった。顔の
向きが下、左、右になると認識率が低下し、認識に時間
がかかる傾向が見られたが、ベッドの角度を調整するこ
とにより、対応は可能であることが判明した。
FIG. 7 shows a summary of the effects of the angle of the bed and the orientation of the face on the number of times of recognition and the average recognition time in a healthy person. When the face was facing forward and above, the bed angle had almost no effect. The recognition rate declined when the face was facing down, left, and right, and it tended to take longer to recognize, but it was found that this can be handled by adjusting the angle of the bed.

【0038】健常者における、光源照度と光源位置が認
識回数及び平均認識時間に与える影響についてまとめた
結果を、図8に示した。光源照度、光源位置に対する影
響はほとんどなかった。
FIG. 8 shows a summary of the effects of the light source illuminance and the light source position on the number of recognitions and the average recognition time in a healthy person. There was almost no effect on the illuminance of the light source and the position of the light source.

【0039】健常者における、顔の向きと光源位置が認
識回数及び平均認識時間に与える影響についてまとめた
結果を、図9に示した。光源位置に対する認識率への影
響は少ないが、顔の向きに対する影響は、とくに左、右
に向いたときの認識率が低下した。認識時間において
も、左右に顔が向いたときの方が、他の方向に比べて時
間がかかることが判明した。そこで、次に、ベッドの角
度と光源位置が認識回数及び平均認識時間に与える影響
について検討した。
FIG. 9 shows a summary of the effects of the face orientation and the light source position on the number of recognitions and the average recognition time in a healthy person. The effect on the recognition rate with respect to the position of the light source was small, but with respect to the face orientation, the recognition rate decreased especially when facing to the left and right. As for the recognition time, it was found that when the face is facing left and right, it takes more time than in the other directions. Therefore, next, the effects of the bed angle and the light source position on the number of recognitions and the average recognition time were examined.

【0040】患者における、ベッドの角度と光源位置が
認識回数及び平均認識時間に与える影響についてまとめ
た結果を、図10に示した。ベッドの角度が低い場合、
光源位置が患者の左右にあった場合に、認識時間が影響
される。ベッド角度が高い場合、光源位置による認識率
への影響は少ない。
FIG. 10 shows a summary of the effects of the bed angle and the light source position on the number of recognitions and the average recognition time in the patient. If the bed angle is low,
The recognition time is affected when the light source positions are on the left and right of the patient. When the bed angle is high, the light source position has little influence on the recognition rate.

【0041】患者における、ベッドの角度と顔の向きが
認識回数及び平均認識時間に与える影響についてまとめ
た結果を、図11に示した。ベッドの角度による影響は
多少あるが、顔の向きにより認識率が低下する。健常者
と違い、右に向いたときの認識率が高くなっている。ま
た、左はほとんど認識されていない。原因として、健常
者が実証実験よりCCDカメラの位置が少し右よりであ
ったことが考えられる。顔の向きを下にすると、画面が
見づらくなることですべて認識不可にした。
FIG. 11 shows a summary of the effects of the bed angle and the face orientation on the number of recognitions and the average recognition time in the patient. The angle of the bed has some influence, but the recognition rate decreases depending on the face orientation. Unlike normal people, the recognition rate when looking to the right is high. Also, the left is barely recognized. The cause is considered to be that the position of the CCD camera was a little further to the right in the healthy person than in the proof experiment. When I turned my face down, it became difficult to see the screen, so all of it was unrecognizable.

【0042】患者の顔の向きと光源位置が認識回数及び
平均認識時間に与える影響についてまとめた結果を、図
12に示した。その結果、光源位置による認識率の影響
は少ないことが判明した。ただし、顔の向きが左右に向
いたときに、認識率および認識時間に、多少の影響がで
ている。
FIG. 12 shows a summary of the effects of the orientation of the patient's face and the light source position on the number of recognitions and the average recognition time. As a result, it was found that the recognition rate was not affected by the position of the light source. However, the recognition rate and the recognition time are slightly affected when the face is turned to the left and right.

【0043】患者の場合に、目の自動検出、自動追尾の
実験の結果、CCDカメラに対する顔の向きが自動認識
に大きく影響していることが。特に、顔の向きが左、ま
たは右に向いた場合の認識率が低くなっている。CCD
カメラで捕らえた目の位置の画像が、横を向いた場合に
小さくなり認識率が低下する。また、顔の向きが下(C
CDカメラに対して角度が低くなる方向または のけぞ
るような体勢)の場合も認識率が低下した。この原因
は、鼻の穴を目として誤認識する場合と、角度が浅くな
るため目の面積が小さくなり、認識率が低下するためと
考えられる。また、ベッドの角度が0度のように低い場
合も認識率が低下した。しかし、光源の位置、照度は自
動認識に対して大きな影響は与えなかった。 患者Kr
(人工呼吸器使用者)の実験で、正面での認識ができな
い現象が発生した。問題として、患者が使用している枕
の柄(青い花柄)が影響していたと考えられる。枕に無
地のタオルをかぶせ実験したところ、認識することがで
きた。また、眉毛の濃い人に対しては、眉毛を目と捕ら
える確率が高く、眼鏡をかけている人とそうでない人で
は、眼鏡をかけていない方が認識率が高かったが、但
し、ベッドの角度が高くなり正面を向いていれば、ほと
んど差はなくなった(眼鏡使用認識率 69.8%,眼
鏡未使用認識率 81.87%)。以上の結果から、認
識率を高くするためには、1)できるだけCCDカメラ
に対して顔が正面を向くように設定する、2)できるな
らばベッドの角度は高くする、3)顔の背景(枕、シー
ツ等)は無地とする、といった方法により、認識率を高
くできることが確認できた。
In the case of a patient, as a result of an experiment of automatic detection and automatic tracking of eyes, the orientation of the face with respect to the CCD camera has a great influence on the automatic recognition. In particular, the recognition rate is low when the face is facing left or right. CCD
The image of the position of the eyes captured by the camera becomes smaller when it is turned sideways, and the recognition rate decreases. Also, if the face is down (C
The recognition rate also decreased when the angle was lower than that of the CD camera or when the player's body was leaning back. This is considered to be due to the case where the nostrils are mistakenly recognized as eyes and the case where the angle is shallow and the area of the eyes is small and the recognition rate is reduced. The recognition rate also decreased when the bed angle was as low as 0 degree. However, the position of the light source and the illuminance did not significantly affect the automatic recognition. Patient Kr
In a (ventilator user's) experiment, a phenomenon that cannot be recognized from the front occurred. It is considered that the problem was that the pillow pattern (blue floral pattern) used by the patient had an effect. When I tested the pillow with a plain towel, I was able to recognize it. Also, for people with dark eyebrows, the probability of catching the eyebrows with eyes was high, and those who did not wear glasses had a higher recognition rate without glasses, but If the angle is high and faces the front, there is almost no difference (glasses recognition rate 69.8%, glasses not recognition rate 81.87%). From the above results, in order to increase the recognition rate, 1) set the face of the CCD camera so that the face is facing the front as much as possible, 2) increase the bed angle if possible, 3) set the background of the face ( It was confirmed that the recognition rate could be increased by making the pillows, sheets, etc.) plain.

【0044】[0044]

【実施例3】本発明による瞬きを用いたコミュニケーシ
ョン システムにおいては、意思表示項目を選択する場
合に、瞬きを用いて意思内容を決定する。このとき、利
用者の無意識の瞬きが意思決定のための瞬きとして認識
されてしまうと、本コミュニケーション システムの効
率的使用に対して障害となってしまう。そこで、本シス
テムにおいては、無意識の瞬きと意識した瞬きとを区別
する基準を設けた。
[Third Embodiment] In the communication system using blinks according to the present invention, the intention content is determined by using the blink when the intention display item is selected. At this time, if the unconscious blink of the user is recognized as a blink for decision making, it will be an obstacle to the efficient use of this communication system. Therefore, in this system, a standard for distinguishing between unconscious blinks and conscious blinks is provided.

【0045】実機を使用し、CCDカメラにより被験者
の目を捕らえ、この状態で約5秒間瞬きをしてもらっ
た。そのときの目の位置画像を2値化した黒画素数によ
り、仮の目開閉の閾値を決定した。仮の目開閉閾値は、
そのときの画素数の最大値と最小値の中間値とした。そ
の後、意思項目を選択する作業を行ってもらい、このと
きの意思表示の瞬き時間、無意識の瞬き時間を実機によ
り測定した。意思項目の選択は、項目が点滅したときに
約1秒間目を閉じた状態が続いた場合、その項目が選択
されたとみなした。ただし、1秒間目を閉じて項目が選
択された後も目を閉じた状態が続いた場合は、目を閉じ
ていると判断し、意思項目は選択されないことにした。
Using an actual machine, the subject's eyes were caught by a CCD camera, and in this state, they blinked for about 5 seconds. The provisional eye opening / closing threshold value was determined by the number of black pixels obtained by binarizing the eye position image at that time. The provisional eye opening / closing threshold is
At that time, it was set to an intermediate value between the maximum value and the minimum value of the number of pixels. After that, they were asked to select the intention item, and the blinking time of the intention display and the unconscious blinking time at this time were measured by an actual machine. The intention item was considered to have been selected when the item continued to be closed for about 1 second when the item flashed. However, if the eyes were closed for one second after the eyes were closed and the item was selected, it was determined that the eyes were closed and the intention item was not selected.

【0046】健常者10名、ALS患者2名に対して、
それぞれ目開閉閾値実験、意思表示の瞬きと無意識の瞬
きの測定を行った。測定結果の内、健常者は眼鏡をつけ
ている人と眼鏡をつけていない人2名の実験結果(図1
3)、及びALS患者2名の実験結果(図14)を示し
た。
For 10 healthy subjects and 2 ALS patients,
Eye open / close threshold experiment, intentional blink and unconscious blink were measured, respectively. Of the measurement results, the results of the experiment of two healthy persons, one with glasses and one without.
3) and the experimental results (FIG. 14) of 2 ALS patients are shown.

【0047】瞬き判定においては、目開閉閾値調査で求
めた閾値より、目の画素数が減少した部分が瞬きとし
た。表5には、被験者全員の瞬き時間を示してある。無
意識の瞬きは、短くて0.26秒、長くとも0.54秒で
あった。意識した瞬きについては、項目を選択する際に
約1秒目を閉じなければならないと決めておいたが、実
際の測定結果は、1.06〜4.53秒の間であった。こ
の結果から、無意識の瞬き、意識した瞬きの判定は1秒
を境にして、1秒以内であれば無意識の瞬き、それ以上
であれば意識した瞬きとして、コミュニケーション シ
ステムの意思表示内容を選択可能とするのが良いとの結
論に達した。
In the blink determination, the portion in which the number of eye pixels is smaller than the threshold value obtained by the eye opening / closing threshold value survey is determined to be the blink. Table 5 shows the blink times of all the subjects. The unconscious blink was 0.26 seconds at the shortest and 0.54 seconds at the longest. Regarding conscious blinking, it was decided that the first second had to be closed when selecting an item, but the actual measurement result was between 1.06 and 4.53 seconds. From this result, the judgment of unconscious blink or conscious blink can be selected as the unconscious blink if it is within 1 second, and as the conscious blink if it is more than 1 second, and the intention display content of the communication system can be selected. It was concluded that

【0048】[0048]

【表5】 [Table 5]

【0049】意思表示項目の切り替え時間を1秒、0.
75秒、0.5秒と変化させたとき、瞬きにより指定し
た意思表示項目を正確に選択できるかどうか、その成功
率を測定した。また、最適な意思表示項目の切り替え時
間についても調べてみた。図15に示すように、項目の
一番先頭にある「こんにちは」がいつ点滅するか予測して
文字を選択することを防ぐため、意思表示項目の一部を
被験者から見えない状態し、「こんにちは」が点滅したと
き、瞬きを用いて選択することにした。これを一定の切
り替え時間で4回行い、成功率を測定した。この実験
は、健常者10名を対象として実施した。健常者10名
に対して、意思項目の切り替え時間を1秒、0.75
秒、0.5秒と変化させたとき、瞬きによる指定した項
目の選択の成功率を表6に示した。
The switching time of the intention display item is 1 second and 0.
When the time was changed to 75 seconds and 0.5 seconds, the success rate was measured whether or not the intention display item specified by blinking can be accurately selected. In addition, I also examined the optimal switching time of the intention display item. As shown in FIG. 15, in order to prevent that you choose a character to predict whether or not there at the very beginning of the item "Hello" is when to blink, and the state does not look the part of the intention display items from the subject, "Hello When "" flashes, I decided to use the blink. This was repeated 4 times with a fixed switching time, and the success rate was measured. This experiment was conducted on 10 healthy subjects. For 10 healthy people, the switching time of intention items is 1 second, 0.75
Table 6 shows the success rate of selecting the specified item by blinking when the time was changed to 0.5 seconds.

【0050】[0050]

【表6】 [Table 6]

【0051】意思項目切り替え時間の変化に対する文字
選択の成功率を測定した結果、切り替え時間が1秒であ
れば成功率が97.5%と非常に高い。これは切り替え
時間を1秒にしたとき、一番先頭の項目が突然点滅して
も、点滅してから目を閉じて文字を選択する時間が十分
にあることを意味している。切り替え時間が0.75秒
のときは、成功率は82.5%と1秒のときに比べ少し
低く、0.5秒では50%を下回り、成功率はかなり低
かった。0.75秒では切り替え時間が1秒に比べて多
少早くなっても、文字が点滅したことを意識してから、
目を閉じて文字を選択する時間に余裕があるが、0.5
秒では文字が点滅してから意識して目を閉じても、「こ
んにちは」の次の文字「ありがとう」を選択することにな
り、指定した文字を選択する余裕が無いことを意味して
いる。図16 A)は切り替え時間が0.75秒のときの
実験結果であるが、最初の3回は文字選択に成功し、図
16B)に示すように「こんにちは」の文字が点滅した直
後、目を閉じてその文字を選択していることがわかる。
図16 C)は,図16 A)の最後に失敗したときの拡
大図を示しているが、「こんにちは」が点滅したときに目
を閉じることができず、次の項目「ありがとう」が点滅し
てから目を閉じていることがわかった。
As a result of measuring the success rate of character selection with respect to the change of the intention item switching time, if the switching time is 1 second, the success rate is as high as 97.5%. This means that when the switching time is set to 1 second, even if the first item suddenly blinks, there is enough time to blink and then close the eyes to select a character. When the switching time was 0.75 seconds, the success rate was 82.5%, which was a little lower than when it was 1 second, and was less than 50% at 0.5 seconds, showing a fairly low success rate. At 0.75 seconds, even if the switching time is slightly faster than 1 second, after recognizing that the character blinked,
I have time to close my eyes and select letters, but 0.5
In seconds, even if you close your eyes and consciousness from the character flashes, it will be to select the next character "Thank you" and "Hello", which means that there is no room to select a specified character. Although Figure 16 A) shows the experimental results when the switching time is 0.75 seconds, immediately after the first three successful character selection, the word "hello", as shown in FIG. 16B) flashes, eye You can see that you have closed and selected the character.
Figure 16 C), which shows an enlarged view of when that failed at the end of Figure 16 A), it is not possible to close your eyes when the "Hello" flashes, the following items "thank you" flashes I found that I closed my eyes.

【0052】[0052]

【発明の効果】本発明の瞬きを用いたコミュニケーショ
ン システムは、両目の自動検出、自動追尾が可能なC
CDカメラを使用した完全非接触型のため、利用者にか
かる負担が少ない。また、介護者や看護者が、CCDカ
メラを利用者の顔に向けて電源を入れるだけで、システ
ム側が自動的に利用者の目の位置を認識して調整を行う
ため、介護者や看護者にとっても負担の少ないシステム
であり、重度の筋萎縮性側索硬化症(ALS)患者等の
意思伝達に有用である。
The communication system using the blink of the present invention is capable of automatically detecting and tracking both eyes.
Since it is a non-contact type that uses a CD camera, the burden on the user is small. In addition, the caregiver or the nurse only needs to turn the power on with the CCD camera facing the user's face, and the system automatically recognizes and adjusts the position of the user's eyes. It is a system with less burden on the human body and is useful for communication with patients with severe amyotrophic lateral sclerosis (ALS) and the like.

【図面の簡単な説明】[Brief description of drawings]

【図1】パターン認識の過程を示す図である。FIG. 1 is a diagram showing a process of pattern recognition.

【図2】画像認識アルゴリズムにおけるピラミッド構造
を示す図である。
FIG. 2 is a diagram showing a pyramid structure in an image recognition algorithm.

【図3】本発明による瞬きを用いたコミュニケーション
システムの構成の一例を示す図である。
FIG. 3 is a diagram showing an example of the configuration of a communication system using blinks according to the present invention.

【図4】健常者の光源照度と顔の向きに対する認識回数
および平均認識時間を示す図である。
FIG. 4 is a diagram showing the number of recognitions and the average recognition time for the light source illuminance and the face orientation of a healthy person.

【図5】健常者のベッドの角度と光源位置に対する認識
回数および平均認識時間を示す図である。
FIG. 5 is a diagram showing the number of recognitions and the average recognition time with respect to the angle of the bed and the light source position of a healthy person.

【図6】健常者のベッドの角度と光源照度に対する認識
回数および平均認識時間を示す図である。
FIG. 6 is a diagram showing the number of times of recognition and the average recognition time with respect to the angle of the bed and the illuminance of the light source of a healthy person.

【図7】健常者のベッドの角度と顔の向きに対する認識
回数および平均認識時間を示す図である。
FIG. 7 is a diagram showing the number of times of recognition and the average recognition time with respect to the angle of the bed and the direction of the face of a healthy person.

【図8】健常者の光源照度と光源位置に対する認識回数
および平均認識時間を示す図である。
FIG. 8 is a diagram showing the light source illuminance of a healthy person, the number of times of recognition for a light source position, and the average recognition time.

【図9】健常者の顔の向きと光源位置に対する認識回数
および平均認識時間を示す図である。
FIG. 9 is a diagram showing the number of recognitions and the average recognition time with respect to the orientation of the face and the light source position of a healthy person.

【図10】患者のベッドの角度と光源位置に対する認識
回数および平均認識時間を示す図である。
FIG. 10 is a diagram showing the number of recognitions and the average recognition time with respect to the angle of the bed of the patient and the light source position.

【図11】患者のベッドの角度と顔の向きに対する認識
回数および平均認識時間を示す図である。
FIG. 11 is a diagram showing the number of times of recognition and the average recognition time for a patient's bed angle and face orientation.

【図12】患者の顔の向きと光源位置に対する認識回数
および平均認識時間を示す図である。
FIG. 12 is a diagram showing the number of recognitions and the average recognition time with respect to the orientation of the patient's face and the light source position.

【図13】健常者 Ba(眼鏡使用)とIw(眼鏡なし)の
目開閉閾値調査結果、および意思表示、無意識の瞬きの
調査結果を示す図である。
FIG. 13 is a diagram showing the eye opening / closing threshold value survey results of normal subjects Ba (using glasses) and Iw (without glasses), and the results of surveying intention display and unconscious blinking.

【図14】患者KrとNaの目開閉閾値調査結果、およ
び意思表示、無意識の瞬きの調査結果を示す図である。
FIG. 14 is a diagram showing an eye opening / closing threshold value survey result of patients Kr and Na, an intention display, and an unconscious blinking survey result.

【図15】意思表示項目を普通に表示した場合と、意思
表示項目を隠した場合の一例を示す図である。
FIG. 15 is a diagram showing an example of a case where the intention display item is normally displayed and a case where the intention display item is hidden.

【図16】被験者Yoの切り替え時間0.75秒の実験
結果(3回成功1回失敗)と、その拡大図を示す図であ
る。
FIG. 16 is a diagram showing an experimental result (three times successful and one failure failed) when the switching time of the subject Yo is 0.75 seconds and an enlarged view thereof.

フロントページの続き Fターム(参考) 4C341 LL10 LL30 5B057 AA19 BA30 DA11 DB02 DB06 DB09 DC05 DC16 DC33 DC36 5L096 AA02 AA06 BA02 CA04 DA05 EA43 FA06 FA54 FA62 FA69 GA12 GA51 HA02 HA05 HA07 JA09 JA11 Continued front page    F-term (reference) 4C341 LL10 LL30                 5B057 AA19 BA30 DA11 DB02 DB06                       DB09 DC05 DC16 DC33 DC36                 5L096 AA02 AA06 BA02 CA04 DA05                       EA43 FA06 FA54 FA62 FA69                       GA12 GA51 HA02 HA05 HA07                       JA09 JA11

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 両目の自動検出、自動追尾が可能な瞬
きを用いたコミュニケーション システム。
1. A communication system using a blink capable of automatically detecting and tracking both eyes.
【請求項2】 両目の自動検出を行う機能と、これに
より得られる位置情報から自動追尾を行うことが可能な
カメラを用いることを特徴とする、請求項1に記載の瞬
きを用いたコミュニケーション システム。
2. A communication system using blinks according to claim 1, wherein a function capable of automatically detecting both eyes and a camera capable of performing automatic tracking from position information obtained thereby are used. .
【請求項3】 両目の検出と個人認証機能を有する請求
項1または2に記載の瞬きを用いたコミュニケーション
システム。
3. The communication system using blinks according to claim 1, which has a function of detecting both eyes and a personal authentication function.
【請求項4】 使用者ごとのシステムの個別設定を行う
ことができる請求項1から3のいずれかに記載の瞬きを
用いたコミュニケーション システム。
4. The communication system using blinks according to claim 1, wherein the system can be individually set for each user.
【請求項5】 瞬きにより両目の位置を検出し、続いて
登録した顔画像で1段目の個人認証を行い、認証された
場合には両目または片目の瞬きによる暗証データの入力
による2段目の個人認証を行うことにより、使用者ごと
のシステムの個別設定を行うことを特徴とする請求項1
から4のいずれかに記載の瞬きを用いたコミュニケーシ
ョン システム。
5. The positions of both eyes are detected by blinking, and then the first-stage personal authentication is performed with the registered face image. If the authentication is successful, the second-stage by inputting password data by blinking both eyes or one eye. The individual setting of the system for each user is performed by performing the individual authentication of 1.
A communication system using the blink described in any one of 4 to 4.
【請求項6】 両目の瞬きを用いた、コンピュータのマ
ウスポインター機能を有する請求項1から5のいずれか
に記載の瞬きを用いたコミュニケーションシステム。
6. The communication system using blinks according to claim 1, which has a mouse pointer function of a computer using the blinks of both eyes.
【請求項7】 意思表示の瞬きと無意識の瞬きを識別す
ることができる請求項1から6のいずれかに記載の瞬き
を用いたコミュニケーション システム。
7. The communication system using a blink according to claim 1, which is capable of discriminating between a blink of intention and an unconscious blink.
【請求項8】 意思表示の瞬きと無意識の瞬きの識別
を、目開閉閾値によって判定する請求項1から7のいず
れかに記載の瞬きを用いたコミュニケーションシステ
ム。
8. The communication system using a blink according to claim 1, wherein the blink of the intention display and the unconscious blink are discriminated from each other by an eye opening / closing threshold value.
【請求項9】 瞬きにより両目の位置を検出し、続いて
登録した顔画像で1段目の個人認証を行い、認証された
場合には両目または片目の瞬きによる暗証データの入力
による2段目の個人認証を行うことにより、使用者ごと
のシステムの個別設定を行うこと、をコンピュータに行
わせるプログラムを記録した記録媒体。
9. The position of both eyes is detected by blinking, then the first-stage personal authentication is performed with the registered face image, and if authenticated, the second stage is input by inputting password data by blinking both eyes or one eye. A recording medium that records a program that causes a computer to perform individual setting of the system for each user by performing individual authentication of.
JP2001387280A 2001-12-20 2001-12-20 Communication system using blink Pending JP2003187232A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001387280A JP2003187232A (en) 2001-12-20 2001-12-20 Communication system using blink

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001387280A JP2003187232A (en) 2001-12-20 2001-12-20 Communication system using blink

Publications (1)

Publication Number Publication Date
JP2003187232A true JP2003187232A (en) 2003-07-04

Family

ID=27596167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001387280A Pending JP2003187232A (en) 2001-12-20 2001-12-20 Communication system using blink

Country Status (1)

Country Link
JP (1) JP2003187232A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005100366A (en) * 2003-08-18 2005-04-14 Yamaguchi Univ Visual line input communication method using eyeball motion
JP2006004294A (en) * 2004-06-18 2006-01-05 Oki Electric Ind Co Ltd Individual identifying device and individual identifying method
JP2007164617A (en) * 2005-12-15 2007-06-28 Yamaguchi Univ Template forming method using gaussian function, and vision input communication method using eye motion
JP2015202133A (en) * 2014-04-11 2015-11-16 学校法人 名古屋電気学園 Communication system and blink determination method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005100366A (en) * 2003-08-18 2005-04-14 Yamaguchi Univ Visual line input communication method using eyeball motion
JP2006004294A (en) * 2004-06-18 2006-01-05 Oki Electric Ind Co Ltd Individual identifying device and individual identifying method
JP2007164617A (en) * 2005-12-15 2007-06-28 Yamaguchi Univ Template forming method using gaussian function, and vision input communication method using eye motion
JP2015202133A (en) * 2014-04-11 2015-11-16 学校法人 名古屋電気学園 Communication system and blink determination method

Similar Documents

Publication Publication Date Title
US11196917B2 (en) Electronic system with eye protection
JP3673834B2 (en) Gaze input communication method using eye movement
US8582037B2 (en) System and method for hand gesture recognition for remote control of an internet protocol TV
JP6577454B2 (en) On-axis gaze tracking system and method
US9622322B2 (en) Task light based system and gesture control
Kawato et al. Detection and tracking of eyes for gaze-camera control
TWI545947B (en) Display device with image capture and analysis module
US20220301218A1 (en) Head pose estimation from local eye region
TWI617948B (en) Module, method and computer readable medium for eye-tracking correction
KR101286965B1 (en) Apparatus and method for tracking eye
JP4491604B2 (en) Pupil detection device
JP5578603B2 (en) Gaze control device, gaze control method, and program thereof
KR20120057033A (en) Gaze tracking system and method for controlling internet protocol tv at a distance
JP2008016289A (en) Lighting control system
KR20110038568A (en) Apparatus and mehtod for tracking eye
JP5077879B2 (en) Gaze input device, gaze input method, and gaze input program
JP4839432B2 (en) Pointing device and method based on pupil position detection
CN115171024A (en) Face multi-feature fusion fatigue detection method and system based on video sequence
Veeraraghavan et al. Detecting driver fatigue through the use of advanced face monitoring techniques
Khilari Iris tracking and blink detection for human-computer interaction using a low resolution webcam
KR20140132906A (en) Device and method for mobile tooltip using eye detecting
JP2003187232A (en) Communication system using blink
JP4088282B2 (en) Computer input method and apparatus
Lin et al. Identification of eye movements from non-frontal face images for eye-controlled systems
CN114779925A (en) Sight line interaction method and device based on single target