JP2002323956A - Mouse alternating method, mouse alternating program and recording medium recording the same program - Google Patents

Mouse alternating method, mouse alternating program and recording medium recording the same program

Info

Publication number
JP2002323956A
JP2002323956A JP2001127638A JP2001127638A JP2002323956A JP 2002323956 A JP2002323956 A JP 2002323956A JP 2001127638 A JP2001127638 A JP 2001127638A JP 2001127638 A JP2001127638 A JP 2001127638A JP 2002323956 A JP2002323956 A JP 2002323956A
Authority
JP
Japan
Prior art keywords
template
mouse
image
coordinates
reference point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001127638A
Other languages
Japanese (ja)
Other versions
JP4025516B2 (en
Inventor
Koichiro Kubo
宏一郎 久保
Yukiyasu Iida
行恭 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2001127638A priority Critical patent/JP4025516B2/en
Publication of JP2002323956A publication Critical patent/JP2002323956A/en
Application granted granted Critical
Publication of JP4025516B2 publication Critical patent/JP4025516B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a mouse alternating method, with which a program can be operated with a GUI as a medium without requiring an object to be worn by a person having difficulties in both hands. SOLUTION: In the state of directing an operator to the front to a camera, the image information of face organ parts such as eyes and a mouth is segmented and registered in a template To as an image A and at the same time, the position of the image A in an input image is registered as an operation reference point. The coordinates of an area, where the template To is best matched, in the input image are detected in real time as template position coordinates. The position coordinates of a mouse pointer in the next frame are calculated from the template position coordinates and the coordinates of the operation reference point and the mouse pointer is moved.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、マウス代替方法、
マウス代替プログラム、および同プログラムを記録した
記録媒体に関する。
The present invention relates to a mouse replacement method,
The present invention relates to a mouse replacement program and a recording medium on which the program is recorded.

【0002】[0002]

【従来の技術】パーソナルコンピュータ(PC)を用い
た各種情報処理においてユーザとの連携が必要となるプ
ログラムでは、GUI(グラフィカルユーザインタフェ
ース)を媒介としてユーザの入力を処理することが多
い。例えばプログラムの起動や終了をはじめ、多くの機
能がアイコンやメニュー等のオブジェクトの指示、選択
や移動といった直感的に理解しやすいGUI操作によっ
て実現させるという特徴がある。
2. Description of the Related Art Programs that require cooperation with a user in various types of information processing using a personal computer (PC) often process user input via a GUI (graphical user interface). For example, many features, such as starting and ending a program, are realized by GUI operations that are intuitive and easy to understand, such as pointing, selecting, and moving objects such as icons and menus.

【0003】これらの操作の多くは、オブジェクトの選
択を行うためのマウスや、文字を入力するためのキーボ
ードといった、手の運動機能を用いた入力デバイスを必
要とするため、市販のアプリケーションプログラムを含
むこれらプログラムを両手の機能に障害を持つユーザが
そのままの形で利用するためには専用の手段が必要とな
る。特に、肢体不自由者を対象としたパソコンの入力手
段としては各種装置が開発されており、体の残存機能を
利用してマウス操作を代替する方法、例えば随意に頭部
を動かすことのできる障害者に対しては、その動きを用
いて画面上のボタンやアイコンを指示する方法が開発さ
れている。
Many of these operations require an input device using a hand movement function, such as a mouse for selecting an object and a keyboard for inputting characters, and thus include commercially available application programs. In order to use these programs as they are for users with impaired functions of both hands, dedicated means is required. In particular, various devices have been developed as input means of personal computers for the physically handicapped, and methods of using the remaining functions of the body to replace the mouse operation, for example, obstacles that can voluntarily move the head A method of instructing a button or an icon on a screen using the movement has been developed for a person.

【0004】頭部の動きを用いたマウスの代替方法で
は、頭部に各種センサを装着し、その上下、左右の動き
を検知する機構を具備したヘッドスペースポインターや
ヘッド・マスター・プラスのような製品や、ヘッドマウ
スのように反射マーカを頭部に添付し、CCDカメラ等
によって撮影された動画像から画像処理によってマーカ
の領域に抽出する方法等の製品がある。
In an alternative method of the mouse using the movement of the head, various sensors are mounted on the head and a head space pointer or a head master plus equipped with a mechanism for detecting the up, down, left and right movements thereof is used. There are products and methods such as a method in which a reflective marker is attached to the head like a head mouse and a moving image captured by a CCD camera or the like is extracted into a marker area by image processing.

【0005】他にも特開平10−320108や特開平
7−141098のようにセンサやマーカを身体の可動
部位に装着してポインティングを行う方法がある。
[0005] In addition, there is a method of pointing by attaching a sensor or a marker to a movable part of the body as disclosed in JP-A-10-320108 and JP-A-7-141098.

【0006】なお、これらの製品や発明におけるセンサ
やマーカの装着位置は、原理的には身体の可動位置であ
ればよく、例えば手や足等に装着しても操作は可能であ
る。
[0006] In principle, the mounting position of the sensor or marker in these products or the invention may be any movable position of the body, and the operation is possible even when the sensor or marker is mounted on a hand or foot, for example.

【0007】いずれの方法も抽出されたセンサの位置、
あるいはマーカの座標位置は、適宜座標変換された後に
パソコンのモニタ上にポインタとして表示される。これ
により、マーカやセンサの上下、左右の動きによって画
面上のアイコンやボタン等のオブジェクトを指示するこ
とができる。
[0007] In either method, the position of the extracted sensor,
Alternatively, the coordinate position of the marker is displayed as a pointer on the monitor of the personal computer after the coordinate conversion is appropriately performed. Thereby, an object such as an icon or a button on the screen can be indicated by the vertical or horizontal movement of the marker or the sensor.

【0008】[0008]

【発明が解決しようとする課題】しかしながら、上記し
た従来の方法によるPCの操作では、各種センサやヘッ
ドセット、マーカ等の装着が必要である。これらは改良
され、軽量コンパクトなものが開発されているものの、
PCの操作時にのみ必要なものであるため、装着、固定
を利用の都度行う必要があり、特に肢体不自由者の使用
において操作者および介助者の負担となる。
However, the operation of the PC according to the above-described conventional method requires mounting various sensors, headsets, markers, and the like. Although these are improved and lightweight and compact ones are being developed,
Since it is necessary only when the PC is operated, it is necessary to perform mounting and fixing each time the user uses the personal computer.

【0009】上記の問題点に鑑み、本発明の目的は、両
手の不自由な障害者に対して装着物の必要がなくGUI
を媒介としたプログラムの操作を可能にするマウス代替
方法を提供することにある。
SUMMARY OF THE INVENTION In view of the above problems, an object of the present invention is to provide a GUI for a handicapped person who does not have a handicap.
It is an object of the present invention to provide a mouse alternative method that enables the operation of a program through the mouse.

【0010】[0010]

【課題を解決するための手段】上記目的を達成するため
に、本発明は、目、口等の顔器官が持つ画像的特徴を利
用し、ビデオカメラ等で顔を撮影した画像から特定の顔
器官を追跡することで得られる座標を元にマウスポイン
タを移動させ、さらに意図的に目を閉じる、口を開ける
等の表情の変化を検出することによってアイコン等のオ
ブジェクトの選択、および当該オブジェクトに対する命
令指示等を発行することでマウスの代替機能を実現する
ものである。
In order to achieve the above-mentioned object, the present invention utilizes a feature of a face organ such as an eye or a mouth to specify a specific face from an image obtained by photographing the face with a video camera or the like. Move the mouse pointer based on the coordinates obtained by tracking the organ, further select objects such as icons by detecting changes in facial expressions such as intentionally closing eyes, opening mouth, etc. By issuing a command instruction or the like, a mouse alternative function is realized.

【0011】すなわち、本発明のマウス代替方法は、コ
ンピュータの操作者の顔部位を撮影した入力画像の1フ
レームから顔器官を切り出した画像を第1のテンプレー
トとして登録し、同時に入力画像における前記画像の位
置を、ポインタの移動量および移動方向計算の基準とな
る点である操作基準点として登録し、撮像機器を経由し
フレーム単位で入力される入力画像内で第1のテンプレ
ートが最も良く一致する領域の座標であるテンプレート
位置座標を実時間で検出し、前記テンプレート位置座標
と前記操作基準点の座標とから次フレームにおけるマウ
スポインタの位置座標を算出し、該座標にマウスポイン
タを移動させる。
That is, according to the mouse replacement method of the present invention, an image obtained by cutting out a face organ from one frame of an input image obtained by capturing a face portion of a computer operator is registered as a first template, and at the same time, the image in the input image is registered. Is registered as an operation reference point, which is a reference point for calculating the moving amount and moving direction of the pointer, and the first template best matches in the input image input in frame units via the imaging device. The template position coordinates, which are the coordinates of the area, are detected in real time, the position coordinates of the mouse pointer in the next frame are calculated from the template position coordinates and the coordinates of the operation reference point, and the mouse pointer is moved to the coordinates.

【0012】この構成によれば、第1のテンプレート画
像として操作者の顔器官の画像情報を用い、これを追跡
することにより、操作者が顔を上下左右に動かすことに
連動してPCのマウスポインタを移動させることが可能
になる。
According to this configuration, the image information of the operator's face organ is used as the first template image, and by tracking this, the mouse of the PC is linked with the operator moving the face up, down, left and right. The pointer can be moved.

【0013】本発明の実施態様では、当該PCの操作者
を撮影した入力画像から第1のテンプレートと同一の顔
器官の異なる表情における画像情報を切り出して第2の
テンプレートとして登録しておき、第1のテンプレート
の検索と同時に入力画像内で第2のテンプレートを検索
し、操作者が一定時間にわたって表情を変化させること
により、第2のテンプレートが予め定められた時間ある
いはフレーム数にわたって継続的に検出された場合、こ
れを1単位として計数し、所定の時間内に計数された値
に応じて予め登録された指示命令をOSに対して発行す
る。
In an embodiment of the present invention, image information of the same facial organ as the first template in different facial expressions is cut out from an input image of the operator of the PC and registered as a second template. The second template is searched in the input image at the same time as the search for the first template, and the operator changes the expression over a certain period of time, so that the second template is continuously detected for a predetermined time or number of frames. In this case, this is counted as one unit, and a pre-registered instruction command is issued to the OS according to the value counted within a predetermined time.

【0014】この構成によれば、操作者が一定時間にわ
って意図的に目を閉じたり、口を開ける等の所定の動作
を1回以上行うことにより、その回数に応じてシングル
クリック、ダブルクリック等のマウスボタンに係る指令
命令を実行することができる。
According to this configuration, the operator intentionally performs one or more predetermined operations such as closing his eyes or opening his / her mouth for a certain period of time. It is possible to execute a command command related to a mouse button such as a click.

【0015】本発明の他の実施態様では、予め登録され
た指示命令を一定の規則で操作者に順次提示し、所望の
指示命令が提示された時、操作者が一定時間にわたって
表情を変化させることにより第2のテンプレートが一定
時間あるいは一定数のフレームにわたって継続的に観測
されたことを契機にして提示されている指示命令をOS
に対して発行する。
In another embodiment of the present invention, instruction instructions registered in advance are sequentially presented to an operator according to a predetermined rule, and when a desired instruction instruction is presented, the operator changes his / her expression over a certain period of time. Accordingly, the instruction command presented when the second template is continuously observed over a certain period of time or over a certain number of frames is transmitted to the OS.
Issue for

【0016】この構成によれば、シングルクリック、ダ
ブルクリック等のマウスボタンに係る複数の指示命令が
操作者に対して周期的に提示される一方、所望の指示命
令が提示されたことに合わせて操作者が所定の動作を1
回行うことにより、複数の指示命令から所望の1つを選
択し、そのときにマウスポインタによって指示されてい
るアイコン、ボタン等のオブジェクトに対して指示命令
を発行することができる。
According to this configuration, a plurality of instruction commands related to mouse buttons such as a single click and a double click are presented to the operator periodically, while the desired instruction command is presented. The operator performs a predetermined action
By performing the operation twice, a desired one is selected from a plurality of instruction commands, and an instruction command can be issued to an object such as an icon or a button indicated by the mouse pointer at that time.

【0017】本発明の他の実施態様によれば、撮像機器
からの入力画像に対し、第1のテンプレートに関するテ
ンプレート位置座標と操作基準点とを比較し、操作基準
点を原点とするテンプレート位置座標の位置をPC画面
の中央を原点とする座標に変換し、該座標にマウスポイ
ンタを表示する。
According to another embodiment of the present invention, the template position coordinates of the input image from the imaging device are compared with the operation reference point for the first template, and the template position coordinates having the operation reference point as the origin are compared. Is converted to coordinates having the origin at the center of the PC screen, and a mouse pointer is displayed at the coordinates.

【0018】この構成によれば、PC画面の中央を基準
とし、マウスポインタを操作者が顔を動かす向きに、顔
の移動量の大きさに比例した量だけ移動させるため、操
作者が顔を動かすだけで画面上の任意の座標にマウスポ
インタを移動させることができる。
According to this configuration, the operator moves the mouse pointer in the direction in which the operator moves the face by an amount proportional to the amount of movement of the face with reference to the center of the PC screen. You can move the mouse pointer to any coordinates on the screen simply by moving it.

【0019】本発明の他の実施態様によれば、撮像機器
からの入力画像に対し、第1のテンプレートに関するテ
ンプレート位置座標と操作基準点とを比較し、テンプレ
ート位置座標の操作基準点からの方向および距離からマ
ウスポインタの移動方向およびフレーム当りの移動量を
決定する。
According to another embodiment of the present invention, the template position coordinates of the first template and the operation reference point are compared with respect to the input image from the imaging device, and the direction of the template position coordinates from the operation reference point is determined. The moving direction of the mouse pointer and the moving amount per frame are determined from the distance and the distance.

【0020】この構成によれば、操作者が顔を動かす向
きによってマウスポインタの移動方向を設定し、顔の移
動量の大きさによって、マウスポインタの移動速度を設
定するため、操作者が顔を動かすだけで画面上の任意の
座標にマウスポインタを移動させることができる。
According to this configuration, the moving direction of the mouse pointer is set according to the direction in which the operator moves the face, and the moving speed of the mouse pointer is set according to the magnitude of the moving amount of the face. You can move the mouse pointer to any coordinates on the screen simply by moving it.

【0021】本発明の他の実施態様によれば、撮像機器
からの入力画像に対し、第1のテンプレートに関するテ
ンプレート位置座標と操作基準点とを比較し、テンプレ
ート位置座標と操作基準点との距離が一定値を越えた場
合、予め記録された画像情報のかわりに現在のフレーム
で第1のテンプレートと最もよく一致する領域を切り出
し、次のフレームにおけるテンプレートとして登録し、
以降のフレームではテンプレートを随時更新しながら検
索を行う一方、操作基準点からの距離が一定値以内に復
帰した場合、予め記録された画像情報を再度第1のテン
プレートとして登録し、以降のフレームにおける検索処
理を行う。
According to another embodiment of the present invention, a template position coordinate for the first template and an operation reference point are compared with an input image from an imaging device, and a distance between the template position coordinate and the operation reference point is determined. Exceeds a certain value, an area that best matches the first template in the current frame is cut out instead of the image information recorded in advance, and registered as a template in the next frame.
In the subsequent frames, the search is performed while updating the template as needed, and when the distance from the operation reference point returns within a certain value, the pre-recorded image information is registered again as the first template, and Perform search processing.

【0022】この構成によれば、操作者の顔の移動範囲
が所定の領域内であった場合、同一の画像情報をテンプ
レートとして用いることにより処理の高速化を図る一
方、操作者の顔の移動量が所定の範囲を越えた場合につ
いては、現在のフレーム内でテンプレートと最も一致す
る領域を次回のテンプレートとして登録し、テンプレー
トとする画像情報を逐次変更していくことによって、マ
ッチングの精度を高めることができる。
According to this configuration, when the movement range of the operator's face is within a predetermined area, the processing speed is increased by using the same image information as a template, while the movement of the operator's face is When the amount exceeds the predetermined range, the region that best matches the template in the current frame is registered as the next template, and the image information used as the template is sequentially changed to increase the matching accuracy. be able to.

【0023】[0023]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。
Next, embodiments of the present invention will be described with reference to the drawings.

【0024】第1の実施形態 第1の実施形態は、操作者の特定の顔器官を追跡し、マ
ウスポインタを画面の中央から顔の移動量の大きさに比
例した量だけ移動させ、同時に操作者の同一顔器官にお
ける表情変化を検出することを契機に指示命令をOSに対
して発行する。
First Embodiment In a first embodiment, a specific facial organ of an operator is tracked, and a mouse pointer is moved from the center of the screen by an amount proportional to the amount of movement of the face. An instruction command is issued to the OS upon detection of a facial expression change in the same facial organ of the user.

【0025】図1は本発明の第1の実施形態のマウス代
替方法を実施する装置のブロック図である。
FIG. 1 is a block diagram of an apparatus for implementing the mouse replacement method according to the first embodiment of the present invention.

【0026】情報処理装置1は主制御装置11と記憶装
置12と表示装置13と動画取得装置14とバス15を
含み、動画取得装置14にはカメラ2が接続されてい
る。
The information processing device 1 includes a main control device 11, a storage device 12, a display device 13, a moving image acquiring device 14, and a bus 15, and the camera 2 is connected to the moving image acquiring device 14.

【0027】主制御装置1はMPU,RAM等から構成され、
情報処理装置1を統括的に管理している。このため、主
制御装置1はマウス代替プログラム20としてのテンプ
レート画像登録部21、テンプレートマッチング部2
2、ポインタ座標算出部23、命令送出判定部24と、
OS26が起動している。また、主制御装置11にはワー
プロソフト等のアプリケーションプログラム27も動作
している。なお、OS26はマウスポインタの移動、およ
びマウスボタンのシングルクリック、ダブルクリック等
のマウスに係る各種命令を実行する機能を有する。
Main controller 1 is composed of an MPU, a RAM, etc.
The information processing apparatus 1 is generally managed. For this reason, the main control device 1 includes a template image registration unit 21 and a template matching unit
2, a pointer coordinate calculation unit 23, an instruction transmission determination unit 24,
OS 26 is running. The main controller 11 also operates an application program 27 such as word processing software. The OS 26 has a function of executing various commands related to the mouse, such as moving a mouse pointer and single-clicking and double-clicking a mouse button.

【0028】記憶装置12はハードディスク装置等から
構成されている。記憶装置12にはマウス代替プログラ
ム20、OS26、アプリケーションプログラム27等が
格納されている。
The storage device 12 comprises a hard disk device or the like. The storage device 12 stores a mouse replacement program 20, an OS 26, an application program 27, and the like.

【0029】表示装置13は液晶モニタ等から構成さ
れ、ポインタの動きを含めた主制御装置11における処
理結果を表示する。
The display device 13 is composed of a liquid crystal monitor or the like, and displays the processing result in the main control device 11 including the movement of the pointer.

【0030】動画像取得装置14はカメラ2から得られ
た動画像を主制御装置11が具備するRAM内にフレーム
単位で逐次取り込む機能を有する。なお、動画像取得装
置14としては市販のビデオキャプチャボードが利用で
き、カメラ2としては市販のCCDカメラ等が利用でき
る。
The moving image acquisition device 14 has a function of sequentially taking a moving image obtained from the camera 2 into a RAM provided in the main control device 11 in frame units. Note that a commercially available video capture board can be used as the moving image acquisition device 14, and a commercially available CCD camera or the like can be used as the camera 2.

【0031】次に、顔器官のテンプレートおよび操作基
準点、テンプレート位置座標を図2により説明する。
Next, the template of the facial organ, the operation reference point, and the template position coordinates will be described with reference to FIG.

【0032】カメラ2によって操作者の頭部が撮影さ
れ、動画像取得装置14によって主制御装置11には図
2に示すように顔の各器官を含む画像が入力画像として
取り込まれている。なお、カメラ2は固定された状態で
操作者の頭部を撮影しているものとする。
The head of the operator is photographed by the camera 2, and an image including the respective organs of the face is taken into the main controller 11 by the moving image acquisition device 14 as an input image as shown in FIG. It is assumed that the camera 2 captures the operator's head in a fixed state.

【0033】図2(a)は操作者がカメラ2に対して正
面を向いた状態の入力画像であり、この状態で眼、口等
の顔器官部分の画像情報を切り出し、画像Aとしてテン
プレートToに登録する。以降の図は目部位をテンプレー
トとしたものである。同時に登録時の入力画像における
画像Aの位置を操作基準点として登録する。操作基準点
はポインタの移動量および移動方向計算の基準となる点
であり、その座標は後述するテンプレート位置座標の初
期値に等しい。
FIG. 2A shows an input image in a state where the operator faces the camera 2 in front. In this state, image information of a face organ portion such as an eye and a mouth is cut out, and a template To Register with. The following figures use the eye part as a template. At the same time, the position of the image A in the input image at the time of registration is registered as an operation reference point. The operation reference point is a reference point for calculating the moving amount and moving direction of the pointer, and its coordinates are equal to initial values of template position coordinates described later.

【0034】なお、図2(a)では具体的な操作基準点
として、画像Aの右下の座標を用いているが、切り出し
た画像中の特定の位置を基準にした座標であればこの限
りではなく、例えば画像の中心が位置する座標を用いて
もよい。
In FIG. 2A, the lower right coordinate of the image A is used as a specific operation reference point. However, if the coordinates are based on a specific position in the cut-out image, this limit applies. Instead, for example, the coordinates where the center of the image is located may be used.

【0035】ここで、図2(b)に示すように、操作者
が顔を上下左右に動かせば、操作者の眼、口、鼻等の顔
器官も移動する。そのため、入力画像にテンプレートTo
を重ねてテンプレートマッチングを行った場合、入力画
像内でテンプレートToが最も良く一致する領域は顔器官
の移動に伴って変化する。以降の説明では入力画像上で
テンプレート画像Aが最も良く一致する領域の座標をテ
ンプレート位置座標とする。なお、テンプレート位置座
標の具体的な位置は、テンプレート画像において前述の
操作基準点の定義で用いた基準座標と同様の位置を基準
とした座標を用いる。また、テンプレート位置座標は、
後述するポインタ座標算出部23で具体的なマウスポイ
ンタの移動量に変換される。
Here, as shown in FIG. 2B, when the operator moves his / her face up / down / left / right, the facial organs such as the eyes, mouth and nose of the operator also move. Therefore, the template To
Are superimposed on each other and the template matching is performed, the region where the template To best matches in the input image changes with the movement of the face organ. In the following description, the coordinates of the region where the template image A best matches on the input image will be referred to as template position coordinates. Note that the specific position of the template position coordinates uses coordinates based on the same position as the reference coordinates used in the definition of the operation reference point in the template image. The template position coordinates are
This is converted into a specific mouse pointer movement amount by a pointer coordinate calculation unit 23 described later.

【0036】また、図2(c)に示すように画像Aの撮影
時とは異なる表情(目を閉じる、口を開ける等)におけ
る同一顔器官部分の画像情報を画像Aと同サイズで切り
出し、画像BとしてテンプレートTcに登録する。図2
(c)は目を閉じた状態である。
Further, as shown in FIG. 2C, image information of the same facial organ portion in a different expression (close eyes, open mouth, etc.) from that at the time of photographing of image A is cut out in the same size as image A, Register as image B in template Tc. FIG.
(C) is a state in which the eyes are closed.

【0037】次に、マウス代替プログラム20の機能を
説明する。
Next, the function of the mouse alternative program 20 will be described.

【0038】マウス代替プログラム20は前述したよう
にテンプレート画像登録部21、テンプレートマッチン
グ部22、ポインタ座標算出部23、および命令送出判
定部24から構成される。
As described above, the mouse replacement program 20 is composed of the template image registration unit 21, the template matching unit 22, the pointer coordinate calculation unit 23, and the command transmission determination unit 24.

【0039】まず、テンプレート画像登録部21は、操
作者の顔部位を撮影した動画像の1フレームから眼、口
等の顔器官を切り出した画像AをテンプレートToとして
登録する。同時に入力画像における画像Aの位置を操作
基準点として登録する。さらに、画像Aの撮影時と同一
顔器官における異なる表情の画像情報を切り出した画像
BをテンプレートTcとして登録する。
First, the template image registration unit 21 registers, as a template To, an image A obtained by cutting out a face organ such as an eye and a mouth from one frame of a moving image obtained by photographing the face of the operator. At the same time, the position of the image A in the input image is registered as an operation reference point. Furthermore, an image obtained by cutting out image information of different facial expressions in the same facial organ as when the image A was captured
Register B as template Tc.

【0040】テンプレートマッチング部22は、与えら
れたテンプレート画像を用いて入力画像内でテンプレー
トマッチングを行う。テンプレートマッチングの結果、
入力画像内におけるテンプレート位置座標を算出する。
具体的には、逐次更新される動画像の1フレームにおい
て、テンプレート画像を微小距離づつ移動させながらテ
ンプレート画像と入力画像内で当該テンプレートが重な
る領域との一致度を順次計算し、テンプレートが最もよ
く一致する領域の座標を出力する。
The template matching unit 22 performs template matching in the input image using the given template image. As a result of template matching,
Calculate the template position coordinates in the input image.
More specifically, in one frame of a moving image that is sequentially updated, the degree of coincidence between the template image and an area where the template overlaps in the input image is sequentially calculated while moving the template image by a small distance, and the template is best. Output the coordinates of the matching area.

【0041】一致度の尺度としては、テンプレート画像
と入力画像との対応する画素間において濃度の残差を求
める方法や相互相関係数を求める方法等がある。残差を
用いた場合はその値が最小となる位置で最もよく一致し
たことを意味し、相互相関係数を用いた場合、その値が
最大となる位置で最もよく一致したことを表す。
As a measure of the degree of coincidence, there are a method of obtaining a residual of density between corresponding pixels of the template image and the input image, a method of obtaining a cross-correlation coefficient, and the like. When the residual is used, it means the best match at the position where the value is minimum, and when the cross-correlation coefficient is used, it means that the best match is at the position where the value is maximum.

【0042】なお、テンプレートのサイズをM×Nとし、
テンプレートToおよびテンプレートToが重なる入力画像
上の領域をそれぞれT(m,n),I(m,n)とすると、残
差Rおよび相互相関係数Cは以下の式で与えられる。
Note that the size of the template is M × N,
Assuming that the template To and the regions on the input image where the template To overlap are T (m, n) and I (m, n), respectively, the residual R and the cross-correlation coefficient C are given by the following equations.

【0043】[0043]

【数1】 使用する一致度の尺度によって値の大小の意味付けが異
なるが、以降の説明では一致度の値が大きいほど良く一
致しているものとする。また、一致度を算出する際、カ
メラ2から得られた画像をそのまま用いることもできる
が、一旦得られた画像に対し、濃淡画像化や抽出等の前
処理を施した後に一致度を計算してもよい。
(Equation 1) The significance of the value differs depending on the scale of the matching degree used, but in the following description, it is assumed that the larger the value of the matching degree, the better the matching. When calculating the coincidence, the image obtained from the camera 2 can be used as it is. However, the image obtained once is subjected to pre-processing such as shading and extraction, and then the coincidence is calculated. You may.

【0044】テンプレートマッチング部22によって1
フレームの走査を終了した後、テンプレートとの一致度
が最大となった入力画像内の座標を新たなテンプレート
位置座標として記録する。
The template matching unit 22
After the scanning of the frame is completed, the coordinates in the input image at which the degree of coincidence with the template is maximum are recorded as new template position coordinates.

【0045】ポインタ座標算出部23は、テンプレート
マッチング部22で得られたテンプレート位置座標を操
作基準点の座標と比較し、テンプレートの移動量および
移動方向をもとに次のフレームにおけるマウスポインタ
の位置座標を算出し、OS26に通知する。
The pointer coordinate calculator 23 compares the template position coordinates obtained by the template matching unit 22 with the coordinates of the operation reference point, and determines the position of the mouse pointer in the next frame based on the amount and direction of movement of the template. The coordinates are calculated and notified to the OS 26.

【0046】なお、操作基準点とテンプレート位置座標
との距離が一定値を超えた場合、現在の入力画像におい
てテンプレートToと最もよく一致する領域を切り出し、
予め記録された画像情報Aに代わり、次のフレームにお
けるテンプレートToとして登録する。以降のフレームで
はテンプレートToを随時更新しながら検索を行う。一
方、操作基準点からの距離が一定値以内に復帰した場
合、予め記録された画像情報Aを再度テンプレートToと
して登録し、以降のフレームにおける検索処理を行う。
If the distance between the operation reference point and the template position coordinates exceeds a certain value, an area which best matches the template To in the current input image is cut out.
Instead of the image information A recorded in advance, it is registered as a template To in the next frame. In the subsequent frames, the search is performed while updating the template To as needed. On the other hand, when the distance from the operation reference point returns within a certain value, the pre-recorded image information A is registered again as the template To, and the search processing in the subsequent frames is performed.

【0047】命令送出判定部24は、テンプレート位置
座標の近傍で予め登録されたテンプレートTcを検索す
る。検索の手法は上記したテンプレートマッチングを用
いる。命令送出判定部24は、操作者が一定時間にわた
って表情を変化させることによりテンプレートTcが所定
の時間あるいはフレーム数にわたって継続的に検出され
た場合、これを1単位として計数し、一定の時間内に計
数された値に応じて予め登録された指示命令をOS26に
対して発行する。ここで、指示命令とはマウスボタンの
押し下げ、開放等に相当する命令であり、OS26に通知
されることにより、現在マウスポインタが指示している
アイコン等のオブジェクトの選択、および当該オブジェ
クトに対する命令の指示を行うものである。
The command sending determination unit 24 searches for a template Tc registered in advance near the template position coordinates. The search method uses the above-described template matching. When the template Tc is continuously detected for a predetermined time or the number of frames by the operator changing the expression over a certain period of time, the command transmission determination unit 24 counts this as one unit, and within a certain period of time. An instruction command registered in advance is issued to the OS 26 according to the counted value. Here, the instruction command is a command corresponding to depression and release of a mouse button, etc., and is notified to the OS 26 to select an object such as an icon currently pointed to by the mouse pointer and to issue a command for the object. It is for giving instructions.

【0048】なお、テンプレートToに対応するテンプレ
ート位置座標と操作基準点との距離が一定値を超えた場
合、該テンプレート位置座標の近傍でテンプレートTcに
対し、最もよく一致する領域を切り出し、予め記録され
た画像情報Bに代わって次のフレームにおけるテンプレ
ートTcとして登録し、以降のフレームではテンプレート
Tcを随時更新しながら検索を行う。一方、テンプレート
位置座標と操作基準点との距離が一定値以内に復帰した
場合、予め記録された画像情報Bを再度テンプレートTc
として登録し、以降のフレームにおける検索処理を行
う。
When the distance between the template position coordinates corresponding to the template To and the operation reference point exceeds a certain value, an area that best matches the template Tc near the template position coordinates is cut out and recorded in advance. Is registered as a template Tc in the next frame in place of the image information B
Search while updating Tc as needed. On the other hand, when the distance between the template position coordinates and the operation reference point returns to within a certain value, the pre-recorded image information B is copied again to the template Tc.
And performs a search process in the subsequent frames.

【0049】上記した動作をフレーム毎に繰り返し実行
する。
The above operation is repeatedly executed for each frame.

【0050】したがって、操作者が顔を動かせば、その
向きに応じて表示装置3上のマウスポインタが移動し、
表情を予め登録した表情に一定時間変化させればマウス
ポインタが指しているアイコン等のオブジェクトに対し
て所定の命令を発行することができる。これにより、顔
の向きと表情によってPCの操作においてマウスを代替さ
せることが可能になる。
Therefore, when the operator moves the face, the mouse pointer on the display device 3 moves according to the direction,
By changing the expression to a previously registered expression for a certain period of time, a predetermined command can be issued to an object such as an icon pointed by the mouse pointer. As a result, it becomes possible to substitute the mouse in the operation of the PC according to the direction and expression of the face.

【0051】次に、第1の実施形態のマウス代替方法に
おける処理を図3のフローチャートを用いて説明する。
Next, processing in the mouse replacement method of the first embodiment will be described with reference to the flowchart of FIG.

【0052】なお、以降の処理ではカメラ2は固定であ
り、操作者の顔部分を撮影しているものとする。
In the following processing, it is assumed that the camera 2 is fixed and an operator's face is photographed.

【0053】まず、PCの操作者がカメラ2に対し静止し
た状態で眼、口、鼻等の顔器官を撮影した画像情報を画
像Aとして記録するとともに画像AをテンプレートToに登
録し、続いて異なる表情で同一操作者の顔器官を撮影
し、得られた画像情報を画像Bとして記録するとともに
画像BをテンプレートTcに登録する(ステップ10
1)。
First, while the PC operator is stationary with respect to the camera 2, image information obtained by photographing a face organ such as an eye, a mouth, and a nose is recorded as an image A, and the image A is registered in a template To. The facial organs of the same operator are photographed with different expressions, the obtained image information is recorded as an image B, and the image B is registered in the template Tc (step 10).
1).

【0054】テンプレートToの入力画像内での位置座標
を基準点(XO,YO)として記録し、また、操作者が顔を
上下左右に動かした際の入力画像内でのテンプレートTo
の移動の上限Xmax,Ymaxおよび下限Xmin,Yminを記録す
る(ステップ102)。
The position coordinates of the template To in the input image are recorded as reference points (XO, YO), and the template To in the input image when the operator moves the face up, down, left, and right.
The upper limit Xmax, Ymax and the lower limit Xmin, Ymin of the movement are recorded (step 102).

【0055】操作者が顔を動かした際に基準点からの距
離が一定値を越えたか否かを示す距離フラグの初期値
を"OFF"に設定し、同時にテンプレートTcとマッチする
領域の有無を示す表情フラグの初期値を"OFF"に設定す
る(ステップ103)。
The initial value of the distance flag indicating whether or not the distance from the reference point exceeds a certain value when the operator moves his / her face is set to “OFF”, and at the same time, the presence or absence of an area matching the template Tc is determined. The initial value of the indicated expression flag is set to "OFF" (step 103).

【0056】なお、以降のステップ104〜134はフ
レームが更新される間、一定周期で連続的に実行され
る。
The subsequent steps 104 to 134 are continuously executed at a constant period while the frame is updated.

【0057】フレームが更新されたか否かを判定する
(ステップ104)。フレームが更新されない場合は処
理を終了する(ステップ105)。
It is determined whether or not the frame has been updated (step 104). If the frame has not been updated, the process ends (step 105).

【0058】一方、フレームが更新された場合には距離
フラグの判定を行う(ステップ106)。距離フラグが
“OFF”の場合、顔器官が基準点から一定の距離内にあ
るとみなし、テンプレートToに画像Aを登録し、テンプ
レートTcに画像Bを登録する(ステップ107)。距離
フラグが“ON”の場合、顔器官が基準点から一定の距離
以上離れているとみなし、テンプレートToに画像Anを登
録し、テンプレートTcに画像Bnを登録する(ステップ1
08)。ここで、画像Anおよび画像Bnは過去のフレーム
で、それぞれテンプレートToおよびテンプレートTcと最
もよくマッチした領域の画像情報であり、t番目のフレ
ーム処理の際にはt-1番目のフレーム処理における画像
情報がテンプレートとして用いられる。
On the other hand, if the frame has been updated, the distance flag is determined (step 106). When the distance flag is “OFF”, it is considered that the face organ is within a certain distance from the reference point, and the image A is registered in the template To and the image B is registered in the template Tc (step 107). When the distance flag is “ON”, it is considered that the facial organ is apart from the reference point by a certain distance or more, and the image An is registered in the template To, and the image Bn is registered in the template Tc (step 1).
08). Here, the image An and the image Bn are past frames, which are image information of the regions that best match the template To and the template Tc, respectively, and in the case of the t-th frame processing, the image in the t−1-th frame processing The information is used as a template.

【0059】操作者の正面を撮影してテンプレートを作
成した場合、顔を微小範囲だけ動かしても入力画像にお
ける顔領域の歪みは小さいため、一致度の高い領域が抽
出されやすい。一方、顔を大きく動かした場合、個々の
器官部分における画像の歪みが大きくなるため、単一の
テンプレートによるテンプレートマッチングでは検出が
困難になる。そのため、一定範囲より大きく移動した場
合には、過去のフレームでテンプレートと最もよく一致
した領域の画像情報を新たなテンプレートとして用い
る。
When a template is created by photographing the front of the operator, even if the face is moved by a very small range, the distortion of the face region in the input image is small, so that a region having a high degree of coincidence is easily extracted. On the other hand, when the face is greatly moved, the distortion of the image in each organ part becomes large, and thus it becomes difficult to perform the detection by template matching using a single template. Therefore, when the movement is larger than a certain range, the image information of the area that best matches the template in the past frame is used as a new template.

【0060】一致度Pを計算する(ステップ109)。
具体的な計算は前述した残差や相互相関係数を用いる。
The degree of coincidence P is calculated (step 109).
Specific calculation uses the above-described residual and cross-correlation coefficients.

【0061】一致度Pの大小を比較し、入力画像内にお
いてテンプレートToとの一致度が最も高かった領域の座
標(x,y)をテンプレート位置座標として記録する(ス
テップ110)。
The degree of coincidence P is compared, and the coordinates (x, y) of the area having the highest degree of coincidence with the template To in the input image are recorded as template position coordinates (step 110).

【0062】テンプレート位置座標(x,y )と基準
点(XO,YO)との距離Dを計算する(ステップ11
1)。
The distance D between the template position coordinates (x, y) and the reference point (XO, YO) is calculated (step 11).
1).

【0063】x軸方向、y軸方向のテンプレート移動量を
それぞれdx,dyとすれば、 dx=x−XO dy=y−YO であり、距離Dは次式で求めれれる。
Assuming that the template movement amounts in the x-axis direction and the y-axis direction are dx and dy, respectively, dx = x−XO dy = y−YO, and the distance D can be obtained by the following equation.

【0064】[0064]

【数2】 距離Dと距離しきい値Thとを比較する(ステップ11
2)。もし、D≧Thであれば距離フラグを“ON”に設定
する(ステップ113)。さらに、入力画像内において
テンプレートToとの一致度Pが最も高かった領域を新た
なテンプレート用画像Anとして登録する(ステップ11
4)。一方、D<Thであれば距離フラグを“OFF”に設定
する(ステップ115)。
(Equation 2) The distance D is compared with the distance threshold Th (step 11).
2). If D ≧ Th, the distance flag is set to “ON” (step 113). Further, an area having the highest matching degree P with the template To in the input image is registered as a new template image An (step 11).
4). On the other hand, if D <Th, the distance flag is set to "OFF" (step 115).

【0065】以降のフローチャートでは、OS26に対す
る命令の送出判定を行う。
In the subsequent flowcharts, it is determined whether or not an instruction is to be sent to the OS 26.

【0066】テンプレート位置座標(x,y)の近傍でテ
ンプレートTcとの一致度Qを計算する(ステップ11
6)。一致度Qの具体的な計算は前述した残差や相互相
関係数を用いる。
The degree of coincidence Q with the template Tc is calculated near the template position coordinates (x, y) (step 11).
6). The specific calculation of the degree of coincidence Q uses the above-described residual and cross-correlation coefficients.

【0067】一致度Qをしきい値Tと比較する(ステップ
117)。なお、一致度QをテンプレートToとの一致度P
と比較してもよい。
The degree of coincidence Q is compared with a threshold value T (step 117). Note that the matching degree Q is set to the matching degree P with the template To.
It may be compared with.

【0068】ここで、Q≧Tの場合、表情フラグの判定を
行う(ステップ118)。
If Q ≧ T, the expression flag is determined (step 118).

【0069】表情フラグが"ON"の場合、ステップ121
に移行する。一方、表情フラグが"OFF"の場合は表情フ
ラグを"ON"に設定し(ステップ119)、同時にこのと
きの時刻t1を記録する(ステップ120)。
If the expression flag is "ON", step 121
Move to On the other hand, when the expression flag is "OFF", the expression flag is set to "ON" (step 119), and at the same time, the time t1 is recorded (step 120).

【0070】テンプレートTcを更新するか否かを距離フ
ラグによって判定する(ステップ121)。距離フラグ
が"ON"の場合、テンプレートTcと最もよく一致する領域
を切り出し、新たなテンプレート用の画像Bnとして登録
する(ステップ122)。
Whether or not to update the template Tc is determined by the distance flag (step 121). If the distance flag is "ON", an area that best matches the template Tc is cut out and registered as a new template image Bn (step 122).

【0071】一方、Q<Tの場合、ステップ118と同様
に表情フラグの判定を行う(ステップ123)。
On the other hand, if Q <T, the expression flag is determined as in step 118 (step 123).

【0072】表情フラグが"OFF"であればステップ12
9に移行する。
If the expression flag is "OFF", step 12 is executed.
Move to 9.

【0073】表情フラグがすでに"ON"であれば表情フラ
グを"OFF"に設定する(ステップ124)。同時にこの
ときの時刻t2を記録する(ステップ125)。
If the expression flag is already "ON", the expression flag is set to "OFF" (step 124). At the same time, the time t2 at this time is recorded (step 125).

【0074】時刻t2と時刻t1の差分が一定値以内にあ
るか否かを判定する(ステップ126)。時刻t2と時
刻t1の差分が一定値以内にない場合、ステップ129
に移行する。時刻t2と時刻t1の差分が一定値以内にあ
る場合、タイマを起動し"ON"にする(ステップ12
7)。表情カウンタをインクリメントする(ステップ1
28)。
It is determined whether or not the difference between time t2 and time t1 is within a certain value (step 126). If the difference between time t2 and time t1 is not within a certain value, step 129
Move to If the difference between time t2 and time t1 is within a certain value, the timer is started and turned on (step 12).
7). Increment the expression counter (Step 1)
28).

【0075】タイマの起動有無を判定する(ステップ1
29)。タイマが起動していない場合はステップ133
に移行する。タイマが起動している場合、タイマの値を
判定する(ステップ130)。
It is determined whether or not the timer is activated (step 1).
29). If the timer is not running, step 133
Move to If the timer is running, the value of the timer is determined (step 130).

【0076】タイマの値が一定値Kを超えていればOS2
6に対し所定の命令を発行し(ステップ131)、表情
カウンタをリセットする(ステップ132)。
If the timer value exceeds the fixed value K, OS2
6 is issued (step 131), and the expression counter is reset (step 132).

【0077】タイマの値が一定値Kを超えていない場
合、ステップ133に移行する。表情の変化が検出され
る時間、つまり表情フラグが“ON”である状態が一定の
時間継続して検出されることを契機にして操作者が意図
的に表情を変化させたことを検知し、表情カウンタをイ
ンクリメントする。表情の変化を繰り返し実行すること
(例えば、目を複数回閉じる)により表情カウンタの値
が増加する。その後、表情の変化が検出されない時間、
つまり表情フラグがOFFの状態が継続して検出されるこ
とを契機にして表情カウンタの値に対応した命令を送出
する。
If the value of the timer does not exceed the fixed value K, the flow shifts to step 133. Detecting that the operator intentionally changed the facial expression in response to the time when the facial expression change is detected, that is, the state in which the facial expression flag is “ON” is continuously detected for a certain period of time, Increment the expression counter. By repeatedly performing the change of the facial expression (for example, closing the eyes a plurality of times), the value of the facial expression counter increases. After that, when no change in facial expression is detected,
In other words, an instruction corresponding to the value of the expression counter is sent when the OFF state of the expression flag is continuously detected.

【0078】以上がOS26に対する命令の送出判定のフ
ローである。
The above is the flow of determining whether to send an instruction to the OS 26.

【0079】次に、ポインタの移動量Px,Pyを算出する
(ステップ133)。表示装置13の縦横の画面サイズ
をそれぞれH,Wとする。また、操作者が顔を上下左右に
動かした際の入力画像内でのテンプレート移動の上限お
よび下限はそれぞれ(Xmin,Ymin),(Xmax,Ymax)で
あり、前述したように、x軸方向,y軸方向のテンプレー
ト移動量はそれぞれdx,dyである。
Next, the movement amounts Px and Py of the pointer are calculated (step 133). The horizontal and vertical screen sizes of the display device 13 are H and W, respectively. The upper and lower limits of template movement in the input image when the operator moves the face up, down, left, and right are (Xmin, Ymin) and (Xmax, Ymax), respectively. The template movement amounts in the y-axis direction are dx and dy, respectively.

【0080】テンプレートの移動範囲と表示装置13の
縦横の画面サイズとの関係を定数Cx,Cyを用いて以下の
ように表す。
The relationship between the moving range of the template and the horizontal and vertical screen sizes of the display device 13 is expressed as follows using constants Cx and Cy.

【0081】W=Cx(Xmax−Xmin) H=Cy(Ymax−Ymin) 定数Cx,Cyは、テンプレートの移動範囲と表示装置13
の縦横の画面サイズとの比を表しており、表示装置13
上のポインタ位置の座標をCx,Cyおよびテンプレート移
動量(dx,dy)を用いて以下のように定義する。
W = Cx (Xmax−Xmin) H = Cy (Ymax−Ymin) The constants Cx and Cy are the moving range of the template and the display device 13.
Of the vertical and horizontal screen size of the display device 13
The coordinates of the upper pointer position are defined as follows using Cx, Cy and the template movement amount (dx, dy).

【0082】Px=Cx×dx Py=Cy×dy 個々のフレームにおけるテンプレート位置座標を上記の
式によって求める。これはテンプレートの移動量を拡大
あるいは縮小し、表示装置13上に射影することを意味
し、これにより、操作者が正面を向いて顔を静止させる
と、ポインタが画面中央で静止する一方、顔をいっぱい
に移動させ、ステップ102におけるテンプレートToの
移動の上限Xmax,Ymaxおよび下限Xmin,Yminに達すると
顔を移動させた方向の画面の端にポインタが移動する。
Px = Cx × dx Py = Cy × dy The template position coordinates in each frame are obtained by the above equation. This means that the amount of movement of the template is enlarged or reduced and projected on the display device 13. With this, when the operator faces the front and stops the face, the pointer stops at the center of the screen while the face stops. When the upper limit Xmax and Ymax and the lower limit Xmin and Ymin of the movement of the template To in step 102 are reached, the pointer moves to the end of the screen in the direction in which the face is moved.

【0083】表示装置13上の座標Px,Pyにポインタを
移動させる(ステップ134)。
The pointer is moved to the coordinates Px and Py on the display device 13 (step 134).

【0084】一定時間の経過をタイマで計測する以外に
カメラ2から得られる動画像のフレーム数をカウント
し、カウント数が一定の値を超えた場合に意図的な表情
の変化があったとみなすことができる。
In addition to counting the elapse of a certain time by a timer, the number of frames of a moving image obtained from the camera 2 is counted, and when the count exceeds a certain value, it is considered that an intentional change in facial expression has occurred. Can be.

【0085】第2の実施の形態 第2の実施の形態は、操作者の特定の顔器官を追跡し、
操作者が顔を向けた方向にマウスポインタを移動させ
る。その際、顔の移動量の大きさに対応してマウスポイ
ンタの移動速度を制御する。また、正面方向を向いてい
るときの操作者の表情変化を検出することを契機に指示
命令をOS26に対して発行するものである。
Second Embodiment A second embodiment tracks a specific facial organ of an operator,
The operator moves the mouse pointer in the direction in which his / her face is turned. At this time, the moving speed of the mouse pointer is controlled according to the magnitude of the moving amount of the face. Further, an instruction command is issued to the OS 26 upon detection of a change in the facial expression of the operator when the operator is facing the front.

【0086】図4は第2の実施形態のマウスの代替方法
が実施される情報処理装置のハードウェア構成図で、図
1に示す第1の実施形態とはポインタ座標算出部23A
と命令送出判定部24Aのみが異なっている。
FIG. 4 is a hardware configuration diagram of an information processing apparatus in which the method for substituting a mouse according to the second embodiment is carried out. The pointer coordinate calculation unit 23A differs from the first embodiment shown in FIG.
And only the command transmission determination unit 24A is different.

【0087】第2の実施形態のマウスの代替方法におけ
る処理を図4のフローチャートを用いて説明する。
The processing in the mouse replacement method according to the second embodiment will be described with reference to the flowchart in FIG.

【0088】なお、以降の処理ではカメラ2は固定であ
り、操作者の顔部分を撮影しているものとする。
In the following processing, it is assumed that the camera 2 is fixed and the face of the operator is photographed.

【0089】まず、PCの操作者がカメラ2に対し静止し
た状態で眼、口、鼻等の顔器官を撮影した画像情報を画
像Aとして記録し、続いて異なる表情で同一操作者の顔
器官を撮影し、得られた画像情報を画像Bとして記録
し、テンプレートTcに当該画像Bを登録する(ステップ
201)。
First, image information obtained by photographing a facial organ such as an eye, a mouth and a nose while the PC operator is stationary with respect to the camera 2 is recorded as an image A, and subsequently, the facial organ of the same operator is displayed with different expressions. Is recorded, and the obtained image information is recorded as an image B, and the image B is registered in the template Tc (step 201).

【0090】テンプレートToの入力画像内での位置座標
を基準点(XO,YO)として記録する(ステップ20
2)。
The position coordinates of the template To in the input image are recorded as reference points (XO, YO) (step 20).
2).

【0091】操作者が顔を動かした際に基準点からの距
離が一定値を超えたか否かを示す距離フラグの初期値を
“OFF”に設定し、同時にテンプレートTcとマッチする
領域の有無を示す表情フラグの初期値を“OFF”に設定
する(ステップ203)。
The initial value of the distance flag indicating whether or not the distance from the reference point exceeds a certain value when the operator moves his / her face is set to “OFF”, and at the same time, the presence or absence of an area matching the template Tc is determined. The initial value of the indicated expression flag is set to "OFF" (step 203).

【0092】なお、以降のステップ204〜236はフ
レームが更新される間、一定周期で連続的に実行され
る。
The subsequent steps 204 to 236 are continuously executed at a constant period while the frame is updated.

【0093】フレームが更新されたか否かを判定する
(ステップ204)。
It is determined whether or not the frame has been updated (step 204).

【0094】フレームが更新されない場合は処理を終了
する(ステップ205)。
If the frame has not been updated, the process ends (step 205).

【0095】一方、フレームが更新された場合には距離
フラグの判定を行う(ステップ206)。距離フラグが
“OFF”の場合、顔器官が基準点から一定の距離内にあ
るとみなし、テンプレートToに画像Aを登録する(ステ
ップ207)。距離フラグが“ON”の場合、顔器官が基
準点から一定の距離以上離れているとみなし、テンプレ
ートToに画像Anを登録する(ステップ208)。ここ
で、画像Anは過去のフレームでテンプレートと最もよく
マッチした領域の画像情報であり、t番目のフレーム処
理の際にはt―1番目のフレーム処理における画像情報
がテンプレートとして用いられる。
On the other hand, if the frame has been updated, the distance flag is determined (step 206). If the distance flag is “OFF”, it is considered that the face organ is within a certain distance from the reference point, and the image A is registered in the template To (step 207). If the distance flag is "ON", it is considered that the facial organ is apart from the reference point by a certain distance or more, and the image An is registered in the template To (step 208). Here, the image An is image information of a region in the past frame that best matches the template, and in the case of the t-th frame processing, the image information in the (t−1) -th frame processing is used as a template.

【0096】正面を撮影してテンプレートを作成した場
合、顔の微小範囲だけ動かしても撮像された画像におけ
る当該顔領域の歪みは小さいため、一致度の高い領域が
抽出されやすい。一方、顔を大きく動かした場合、器官
部分における画像の歪みが大きくなるため、単一のテン
プレートでは検出が困難になる。そのため、一定範囲よ
り大きく移動した場合には、過去のフレームでテンプレ
ートToと最もよくマッチした領域の画像情報を新たなテ
ンプレートToとして用いる。
When a template is created by photographing the front, even if the face is moved only in a small range, the distortion of the face area in the captured image is small, so that an area having a high degree of coincidence is easily extracted. On the other hand, when the face is largely moved, the distortion of the image in the organ part becomes large, so that it is difficult to detect the single template. Therefore, when the movement is larger than a certain range, the image information of the region that best matches the template To in the past frame is used as a new template To.

【0097】一致度Pの計算を行う(ステップ20
9)。具体的な計算は前述した残差や相互相関係数を用
いる。一致度Pの大小を比較してテンプレートToと最も
よく一致する領域の入力画像内での座標(x, y)をテン
プレート位置座標として記録する(ステップ210)。
The degree of coincidence P is calculated (step 20).
9). Specific calculation uses the above-described residual and cross-correlation coefficients. By comparing the degree of coincidence P, the coordinates (x, y) in the input image of the area that best matches the template To are recorded as template position coordinates (step 210).

【0098】テンプレート位置座標(x, y)と操作基準
点(X0, Y0)との距離Dおよびテンプレート位置座標の
操作基準点からの方向θを計算する(ステップ21
1)。
The distance D between the template position coordinates (x, y) and the operation reference point (X0, Y0) and the direction θ of the template position coordinates from the operation reference point are calculated (step 21).
1).

【0099】x軸方向、y軸方向のテンプレート移動量を
それぞれdx, dyとすれば dx=x―X0 dy=y―Y0 であり、距離Dは以下の式で求められる。
Assuming that the template movement amounts in the x-axis direction and the y-axis direction are dx and dy, respectively, dx = x−X0 dy = y−Y0, and the distance D is obtained by the following equation.

【0100】[0100]

【数3】 方向θは以下の式で求められる θ=tan-1 (dy/dx) 距離Dと予め定義したしきい値T1とを比較する(ステッ
プ212)。0≦D<T1であった場合、マウスポインタ
の移動量VをV1にセットする(ステップ213)。0≦D
<T1でなかった場合、ステップ214に移行し、予め定
義したしきい値T1およびT2(T1<T2)と距離Dとを比較す
る(ステップ214)。T1≦D<T2であった場合、マウ
スポインタの移動量VをV2にセットする(ステップ21
5)。T1≦D<T2でなかった場合、マウスポインタの移
動量VをV3にセットする(ステップ216)。
(Equation 3) The direction θ is obtained by the following equation: θ = tan −1 (dy / dx) The distance D is compared with a predetermined threshold value T1 (step 212). If 0 ≦ D <T1, the moving amount V of the mouse pointer is set to V1 (step 213). 0 ≦ D
If not, the process proceeds to step 214, where the distance D is compared with threshold values T1 and T2 (T1 <T2) defined in advance (step 214). If T1 ≦ D <T2, the moving amount V of the mouse pointer is set to V2 (step 21).
5). If T1 ≦ D <T2, the moving amount V of the mouse pointer is set to V3 (step 216).

【0101】距離Dと距離しきい値Thとを比較する(ス
テップ217)。もし、D≦Thであれば距離フラグを“O
N”に設定する(ステップ218)。さらに、入力画像
内においてテンプレートToとの一致度Pが最も高かった
領域を新たなテンプレート画像Anとして登録する(ステ
ップ219)。一方、D<Thであれば距離フラグを“OF
F”に設定する(ステップ220)。
The distance D is compared with the distance threshold Th (step 217). If D ≦ Th, the distance flag is set to “O
N ”is set (step 218). Further, an area having the highest matching degree P with the template To in the input image is registered as a new template image An (step 219). Set the distance flag to “OF
F "(step 220).

【0102】以降のフローチャートでは、OS26に対す
る命令の送出判定を行う。
In the subsequent flowcharts, it is determined whether or not an instruction to the OS 26 has been sent.

【0103】テンプレート位置座標(x, y)の近傍でテ
ンプレートTcとの一致度Qを計算する(ステップ22
1)。一致度Qの具体的な計算は前述した残差や相互相
関係数を用いる。
The degree of coincidence Q with the template Tc is calculated near the template position coordinates (x, y) (step 22).
1). The specific calculation of the degree of coincidence Q uses the above-described residual and cross-correlation coefficients.

【0104】一致度Qをしきい値Tと比較する(ステップ
222)。なお、一致度QをテンプレートToとの一致度P
と比較してもよい。
The degree of coincidence Q is compared with a threshold value T (step 222). Note that the matching degree Q is set to the matching degree P with the template To.
It may be compared with.

【0105】ここで、Q≧Tの場合、表情フラグの判定を
行う(ステップ223)。表情フラグが“ON”の場合、
ステップ236に移行する。一方、表情フラグが“OF
F”の場合は表情フラグを“ON”に設定し(ステップ2
24)、同時にこのときの時刻t1を記録する(ステップ
225)。
Here, if Q ≧ T, the expression flag is determined (step 223). When the expression flag is “ON”,
Move to step 236. On the other hand, if the expression flag is “OF
F ”, the expression flag is set to“ ON ”(step 2).
24) At the same time, the time t1 at this time is recorded (step 225).

【0106】一方、Q<Tの場合、ステップ223と同様
の表情フラグの判定を行う(ステップ226)。表情フ
ラグが“OFF”であればステップ232に移行する。表
情フラグが既に“ON”であれば表情フラグを“OFF”に
設定する(ステップ227)。同時にこのときの時刻t
2を記録する(ステップ228)。時刻t2と時刻t1の差
分が一定値以内にあるか否かを判定する(ステップ22
9)。時刻t2と時刻t1の差分が一定値以内にある場合、
タイマを起動し“ON”にする(ステップ230)。さら
に、表情カウンタをインクリメントする(ステップ23
1)。時刻t2と時刻t1の差分が一定値以内にない場合、
ステップ232に移行し、タイマの起動有無を判定する
(ステップ232)。タイマが起動していない場合はス
テップ236に移行する。タイマが起動している場合、
タイマの値を判定する(ステップ233)。タイマの値
が一定値Kを超えていればOS26に対し所定の命令を発
行し(ステップ234)、表情カウンタをリセットする
(ステップ235)。タイマの値が一定値Kを超えてい
ない場合、ステップ236に移行する。
On the other hand, if Q <T, the expression flag is determined in the same manner as in step 223 (step 226). If the expression flag is “OFF”, the process proceeds to step 232. If the expression flag is already "ON", the expression flag is set to "OFF" (step 227). At the same time t
2 is recorded (step 228). It is determined whether or not the difference between time t2 and time t1 is within a certain value (step 22).
9). If the difference between time t2 and time t1 is within a certain value,
The timer is started and turned on (step 230). Further, the expression counter is incremented (step 23).
1). If the difference between time t2 and time t1 is not within a certain value,
The process proceeds to step 232 to determine whether or not the timer is activated (step 232). If the timer has not started, the process proceeds to step 236. If the timer is running,
The value of the timer is determined (step 233). If the value of the timer exceeds the fixed value K, a predetermined command is issued to the OS 26 (step 234), and the expression counter is reset (step 235). If the timer value does not exceed the fixed value K, the process proceeds to step 236.

【0107】表情の変化が検出される時間、つまり表情
フラグが“ON”である状態が一定の時間継続して検出さ
れることを契機にして操作者が意図的に表情を変化させ
たことを検知し、表情カウンタをインクリメントする。
The time when the change of the facial expression is detected, that is, the fact that the state where the facial expression flag is “ON” is continuously detected for a certain period of time triggers the fact that the operator intentionally changes the facial expression. Detect and increment the expression counter.

【0108】表情が変化した回数を用いて種々の命令を
OS26に送出する場合には、連続した入力と個別の入力
とを区別する必要がある。そのため、表情カウンタを用
いる。
Various commands are executed using the number of times the expression has changed.
When transmitting to the OS 26, it is necessary to distinguish between continuous input and individual input. Therefore, an expression counter is used.

【0109】表情の変化を繰り返し実行すること(例え
ば、目を複数回閉じる)により表情カウンタの値が増加
する。その後、表情の変化検出されない時間、つまり表
情フラグが“OFF”の状態が継続して検出されることを
契機にして表情カウンタの値に対応した命令を送出す
る。
By repeatedly executing the change of the expression (for example, closing the eyes a plurality of times), the value of the expression counter increases. Thereafter, an instruction corresponding to the value of the expression counter is transmitted when the expression change is not detected, that is, when the state in which the expression flag is “OFF” is continuously detected.

【0110】以上がOS26に対する命令の送出判定のフ
ローである。
The above is the flow of determining whether to send an instruction to the OS 26.

【0111】ステップ211で求められた方向θに、ス
テップ212〜216で求められた移動量Vだけマウス
ポインタを移動させる(ステップ236)。
The mouse pointer is moved in the direction θ obtained in step 211 by the movement amount V obtained in steps 212 to 216 (step 236).

【0112】ステップ212〜216においてV1=停
止、V2=移動量小、V3=移動量大とすれば、しきい値が
一定値より大きいとき、意図的に顔を動かしたとみなし
てマウスポインタを顔の向きの方向に、顔の向きの量に
応じた距離だけ移動させ、しきい値が一定値より小さい
とき、すなわち顔の移動量が非常に小さい場合にはマウ
スポインタを移動させないようにすることができる。こ
れにより意図しない顔の動きによって、マウスポインタ
が勝手に移動することを防ぐことができる。
In steps 212 to 216, if V1 = stop, V2 = movement amount small, V3 = movement amount, when the threshold is larger than a certain value, it is regarded that the face has been intentionally moved and the mouse pointer is moved. Move the mouse pointer in the direction of the direction by the distance corresponding to the amount of the face direction, and do not move the mouse pointer when the threshold value is smaller than a certain value, that is, when the movement amount of the face is very small. Can be. This can prevent the mouse pointer from moving without permission due to unintended face movement.

【0113】また、本実施形態ではマウスポインタの移
動量を距離Dと2つのしきい値T1、T2(T1<T2)との大
小関係に応じて決定するが、しきい値を多数用意し、距
離Dとの大小関係に応じてマウスポインタの移動量を細
かく設定することで、マウスポインタの速度制御がより
細かく行えることは言うまでもない。
In this embodiment, the amount of movement of the mouse pointer is determined according to the magnitude relationship between the distance D and the two thresholds T1 and T2 (T1 <T2). Needless to say, by finely setting the movement amount of the mouse pointer according to the magnitude relationship with the distance D, the speed control of the mouse pointer can be performed more finely.

【0114】さらに、本実施形態では顔の向きによっ
て、任意の方向にマウスポインタを移動させるが、操作
者の運動能力によっては顔の向きの微調整が困難な場合
がある。そのような場合には、上下左右および斜め方向
を含む8方向あるいは16方向を予め決めておき、θの
値と最も近い方向にマウスポインタを移動させることに
より、操作者は大まかな動きだけを組み合わせて所望の
位置にマウスポインタを移動させることもできる。
Further, in this embodiment, the mouse pointer is moved in an arbitrary direction depending on the direction of the face. However, fine adjustment of the direction of the face may be difficult depending on the movement ability of the operator. In such a case, eight directions or 16 directions including up, down, left, right, and diagonal directions are determined in advance, and by moving the mouse pointer in the direction closest to the value of θ, the operator can combine only rough movements. To move the mouse pointer to a desired position.

【0115】第3の実施の形態 第3の実施形態は、操作者の特定の顔器官を追跡し、操
作者が顔を向けた方向にマウスポインタを移動させる。
その際、顔の移動量の大きさに対応してマウスポインタ
の移動速度を制御する。また、正面方向に向いていると
きの操作者の表情変化を検出することを契機に指示命令
をOSに対して発行するものである。
Third Embodiment In a third embodiment, a specific facial organ of an operator is tracked, and a mouse pointer is moved in a direction in which the operator faces his / her face.
At this time, the moving speed of the mouse pointer is controlled according to the magnitude of the moving amount of the face. Further, an instruction command is issued to the OS upon detection of a change in the facial expression of the operator when facing the front direction.

【0116】図6は第3の実施形態のマウスの代替方法
が実施される情報処理装置のハードウェア構成図で、図
1の第1実施形態のものに、マウス代替プログラム20
として、さらに入力補助領域表示部25を有し、命令送
出判定部24Bが異なっている。
FIG. 6 is a hardware configuration diagram of an information processing apparatus in which the mouse replacement method according to the third embodiment is implemented. The mouse replacement program 20 according to the first embodiment shown in FIG.
In addition, an input auxiliary area display section 25 is provided, and a command transmission determination section 24B is different.

【0117】入力補助領域表示部25を図7を用いて説
明する。
The input auxiliary area display section 25 will be described with reference to FIG.

【0118】図7(a)は入力補助領域表示部25が提
示する指示命令の一覧であり、シングルクリック、ダブ
ルクリック等のマウスボタンに係る複数の指示命令を操
作者に対して周期的に提示する。図7(b)は補助表示
の例であり、シングルクリック、ダブルクリック等の動
作名を一定の時間間隔で順次ハイライト表示するもので
ある。図7(b)において、ハッチ表示されている矩形
は現在有効な指示命令を表す。個々の指示命令は、所定
の周期で繰り返し提示され、操作者は所望の指示命令が
提示されたことに合わせて所定の動作を1回行うことに
より、そのときに提示されている指示命令をOS26に通
知する。
FIG. 7A is a list of instruction commands presented by the input auxiliary area display section 25. A plurality of instruction commands relating to mouse buttons such as a single click and a double click are periodically presented to the operator. I do. FIG. 7B shows an example of an auxiliary display in which operation names such as a single click and a double click are sequentially highlighted at predetermined time intervals. In FIG. 7B, a hatched rectangle indicates a currently valid instruction command. Each instruction command is repeatedly presented at a predetermined cycle, and the operator performs a predetermined operation once in accordance with the presentation of the desired instruction command, so that the instruction command presented at that time is transmitted to the OS 26. Notify.

【0119】第3の実施形態のマウスの代替方法におけ
る動作を図8のフローチャートを用いて説明する。
The operation of the mouse alternative method according to the third embodiment will be described with reference to the flowchart of FIG.

【0120】なお、以降の処理ではカメラ2は固定であ
り、操作者の顔部分を撮影しているものとする。
In the following processing, it is assumed that the camera 2 is fixed and the face of the operator is photographed.

【0121】まず、PCの操作者がカメラに対し静止した
状態で目、口、鼻等の顔器官を撮影した画像情報を画像
Aとして記録し、続いて異なる表情で同一操作者の顔器
官を撮影し、得られた画像情報を画像Bとして記録し、
テンプレートTcに画像Bを登録する(ステップ30
1)。
First, image information obtained by photographing a facial organ such as an eye, a mouth, a nose, etc. while the operator of the PC is stationary with respect to the camera is displayed as an image.
Recorded as A, then photographed the same operator's face organ with different facial expressions, recorded the obtained image information as image B,
Register image B in template Tc (step 30)
1).

【0122】テンプレートToの入力画像内での位置座標
を基準点(X0, Y0)として記録する(ステップ30
2)。
The position coordinates of the template To in the input image are recorded as reference points (X0, Y0) (step 30).
2).

【0123】操作者が顔を動かした際に基準点からの距
離が一定値を超えたか否かを示す距離フラグの初期値を
“OFF”に設定し、同時にテンプレートTcとマッチする
領域の有無を示す表情フラグの初期値を“OFF”に設定
する(ステップ303)。
The initial value of the distance flag indicating whether or not the distance from the reference point exceeds a certain value when the operator moves his / her face is set to “OFF”, and at the same time, the presence or absence of an area matching the template Tc is determined. The initial value of the indicated expression flag is set to "OFF" (step 303).

【0124】なお、以降のステップ304〜332はフ
レームが更新される間、一定周期で連続的に実行され
る。
The following steps 304 to 332 are continuously executed at a constant period while the frame is updated.

【0125】フレームが更新されたか否かを判定する
(ステップ304)。
It is determined whether or not the frame has been updated (step 304).

【0126】フレームが更新されない場合は処理を終了
する(ステップ305)。
If the frame is not updated, the process ends (step 305).

【0127】一方、フレームが更新された場合には距離
フラグの判定を行う(ステップ306)。距離フラグが
“OFF”の場合、顔器官が基準点から一定の距離内にあ
るとみなし、テンプレートToに画像Aを登録する(ステ
ップ307)。距離フラグが“ON”の場合、顔器官が基
準点から一定の距離以上離れているとみなし、テンプレ
ートToに画像Anを登録する(ステップ308)。ここ
で、画像Anは過去のフレームでテンプレートToと最もよ
くマッチした領域の画像情報であり、t番目のフレーム
処理の際にはt―1番目のフレーム処理における画像情
報がテンプレートToとして用いられる。
On the other hand, if the frame has been updated, the distance flag is determined (step 306). If the distance flag is "OFF", it is considered that the face organ is within a certain distance from the reference point, and the image A is registered in the template To (step 307). If the distance flag is "ON", it is considered that the facial organ is apart from the reference point by a certain distance or more, and the image An is registered in the template To (step 308). Here, the image An is the image information of the region that best matches the template To in the past frame, and at the time of the t-th frame processing, the image information in the (t−1) -th frame processing is used as the template To.

【0128】一致度Pの計算を行う(ステップ30
9)。具体的な計算は前述した残差や相互相関係数を用
いる。
The degree of coincidence P is calculated (step 30).
9). Specific calculation uses the above-described residual and cross-correlation coefficients.

【0129】一致度Pの大小を比較してテンプレートTo
と最もよく一致する領域の入力画像内での座標(x, y)
をテンプレート位置座標として記録する(ステップ31
0)。
The magnitude of the matching degree P is compared and the template To
(X, y) in the input image of the area that best matches
Are recorded as template position coordinates (step 31).
0).

【0130】テンプレート位置座標(x, y)と操作基準
点(X0, Y0)との距離Dおよびテンプレート位置座標の
操作基準点からの方向θを計算する(ステップ31
1)。
The distance D between the template position coordinates (x, y) and the operation reference point (X0, Y0) and the direction θ of the template position coordinates from the operation reference point are calculated (step 31).
1).

【0131】x軸方向、y軸方向のテンプレート移動量を
それぞれdx, dyとすれば dx=x―X0 dy=y―Y0 であり、距離Dは以下の式で求められる。
Assuming that the amounts of template movement in the x-axis direction and the y-axis direction are dx and dy, respectively, dx = x−X0 dy = y−Y0, and the distance D is obtained by the following equation.

【0132】方向θは以下の式で求められるThe direction θ is obtained by the following equation.

【0133】[0133]

【数4】 θ=tan-1 (dy/dx) 距離Dと予め定義したしきい値T1とを比較する(ステッ
プ312)。0≦D<T1であった場合、マウスポインタ
の移動量VをV1にセットする(ステップ313)。0≦D
<T1でなかった場合、ステップ314に移行し、定義し
たしきい値T1および距離しきい値T2(T1<T2)と距離Dと
を比較する(ステップ314)。T1≦D<T2であった場
合、マウスポインタの移動量VをV2にセットする(ステ
ップ315)。T1≦D<T2でなかった場合、マウスポイ
ンタの移動量VをV3にセットする(ステップ316)。
(Equation 4) θ = tan -1 (dy / dx ) distance is compared with a threshold T1 that previously defined as D (step 312). If 0 ≦ D <T1, the moving amount V of the mouse pointer is set to V1 (step 313). 0 ≦ D
If not, the process proceeds to step 314, where the defined threshold value T1 and distance threshold value T2 (T1 <T2) are compared with the distance D (step 314). If T1 ≦ D <T2, the moving amount V of the mouse pointer is set to V2 (step 315). If T1 ≦ D <T2, the moving amount V of the mouse pointer is set to V3 (step 316).

【0134】距離Dと距離しきい値Thとを比較する(ス
テップ317)。もし、D≦Thであれば距離フラグを“O
N”に設定する(ステップ318)。さらに、入力画像
内においてテンプレートToとの一致度Pが最も高かった
領域を新たなテンプレート画像Anとして登録する(ステ
ップ319)。一方、D<Thであれば距離フラグを“OF
F”に設定する(ステップ320)。
The distance D is compared with the distance threshold Th (step 317). If D ≦ Th, the distance flag is set to “O
N ”is set (step 318). Further, an area having the highest matching degree P with the template To in the input image is registered as a new template image An (step 319). Set the distance flag to “OF
F "(step 320).

【0135】以降のフローチャートでは、OS26に対す
る命令の送出判定を行う。
In the subsequent flow charts, it is determined whether or not an instruction is sent to the OS 26.

【0136】テンプレート位置座標(x, y)の近傍でテ
ンプレートTcとの一致度Qを計算する(ステップ32
1)。一致度Qの具体的な計算は前述した残差や相互相
関係数を用いる。
The degree of coincidence Q with the template Tc is calculated near the template position coordinates (x, y) (step 32).
1). The specific calculation of the degree of coincidence Q uses the above-described residual and cross-correlation coefficients.

【0137】一致度Qをしきい値Tと比較する(ステップ
322)。なお、一致度QをテンプレートToとの一致度P
と比較してもよい。
The coincidence Q is compared with a threshold T (step 322). Note that the matching degree Q is set to the matching degree P with the template To.
It may be compared with.

【0138】ここで、Q≧Tの場合、表情フラグの判定を
行う(ステップ323)。表情フラグが“ON”の場合、
ステップ332に移行する。一方、表情フラグが“OF
F”の場合は表情フラグを“ON”に設定し(ステップ3
24)、同時にこのときの時刻t1を記録する(ステップ
325)。また、このとき提示されている指示命令を保
持する(ステップ326)。
If Q ≧ T, the expression flag is determined (step 323). When the expression flag is “ON”,
Move to step 332. On the other hand, if the expression flag is “OF
In the case of "F", the expression flag is set to "ON" (step 3
24) At the same time, the time t1 at this time is recorded (step 325). Also, the instruction command presented at this time is held (step 326).

【0139】一方、Q<Tの場合、ステップ323と同様
の表情フラグの判定を行う(ステップ327)。表情フ
ラグが“OFF”であればステップ332に移行する。表
情フラグが既に“ON”であれば表情フラグを“OFF”に
設定する(ステップ328)。同時にこのときの時刻t
2を記録する(ステップ329)。時刻t2と時刻t1の差
分が一定値以内にあるか否かを判定する(ステップ33
0)。時刻t2と時刻t1の差分が一定値以内にない場合、
ステップ332に移行する。時刻t2と時刻t1の差分
が一致値以上であった場合、ステップ326で保持され
た指示命令をOS26に通知する(ステップ331) 表情の変化が検出される時間、つまり表情フラグが“O
N”である状態が一定の時間継続して検出されることを
契機にして操作者が意図的に表情を変化させたことを検
知し、そのときに提示されている指示命令をOSに通知
する。
On the other hand, if Q <T, the expression flag is determined in the same manner as in step 323 (step 327). If the expression flag is “OFF”, the flow shifts to step 332. If the expression flag is already "ON", the expression flag is set to "OFF" (step 328). At the same time t
2 is recorded (step 329). It is determined whether or not the difference between time t2 and time t1 is within a certain value (step 33).
0). If the difference between time t2 and time t1 is not within a certain value,
Move to step 332. If the difference between the time t2 and the time t1 is equal to or greater than the coincidence value, the instruction command held in step 326 is notified to the OS 26 (step 331).
When the state of "N" is detected continuously for a certain period of time, it is detected that the operator has intentionally changed his / her expression, and an instruction command presented at that time is notified to the OS. .

【0140】以上がOS26に対する命令の送出判定の
フローである。
The above is the flow of determining whether to send an instruction to the OS 26.

【0141】ステップ311で求められた方向θに、ス
テップ312〜316で求められた移動量Vだけマウス
ポインタを移動させる(ステップ332)。
The mouse pointer is moved in the direction θ obtained in step 311 by the movement amount V obtained in steps 312 to 316 (step 332).

【0142】ステップ312〜316においてV1=停
止、V2=移動量小、V3=移動量大とすれば、しきい
値が一定値より大きいとき、意図的に顔を動かしたとみ
なしてマウスポインタを顔の向きの方向に、顔の向きの
量に応じた距離だけ移動させ、しきい値が一定値より小
さいとき、すなわち顔器官の移動量が非常に小さい場合
にはマウスポインタを移動させないようにすることがで
きる。これにより意図しない顔の動きによって、マウス
ポインタが勝手に移動することを防ぐことができる。
If V1 = stop, V2 = movement small, V3 = movement large in steps 312 to 316, when the threshold value is larger than a certain value, it is regarded that the face has been intentionally moved and the mouse pointer is moved. Move the mouse pointer in the direction of the direction by a distance corresponding to the amount of the face direction, and do not move the mouse pointer when the threshold value is smaller than a certain value, that is, when the movement amount of the face organ is very small. be able to. This can prevent the mouse pointer from moving without permission due to unintended face movement.

【0143】また、本実施形態ではマウスポインタの移
動量を距離Dと2つのしきい値T1、T2(T1<T
2)との大小関係に応じて決定するが、しきい値を多数
用意し、距離Dとの大小関係に応じてマウスポインタの
移動量を細かく設定することで、マウスポインタの速度
制御がより細かく行えることは言うまでもない。
In this embodiment, the amount of movement of the mouse pointer is determined by the distance D and the two threshold values T1 and T2 (T1 <T
It is determined according to the magnitude relationship with 2), but by preparing a large number of thresholds and finely setting the amount of movement of the mouse pointer according to the magnitude relationship with the distance D, the speed control of the mouse pointer can be more finely controlled. It goes without saying that you can do it.

【0144】さらに、本実施形態では顔の向きによっ
て、任意の方向にマウスポインタを移動させるが、操作
者の運動能力によっては顔の向きの微調整が困難な場合
がある。そのような場合には、上下左右および斜め方向
を含む8方向あるいは16方向を予め決めておき、θの
値と最も近い方向にマウスポインタを移動させることに
より、操作者は大まかな動きだけを組み合わせて所望の
位置にマウスポインタを移動させることもできる。
Further, in this embodiment, the mouse pointer is moved in an arbitrary direction depending on the direction of the face. However, fine adjustment of the direction of the face may be difficult depending on the movement ability of the operator. In such a case, eight directions or 16 directions including up, down, left, right, and diagonal directions are determined in advance, and by moving the mouse pointer in the direction closest to the value of θ, the operator can combine only rough movements. To move the mouse pointer to a desired position.

【0145】なお、マウス代替プログラム20は、フロ
ッピー(登録商標)ディスク、CD−ROM、光磁気デ
ィスク、DVD等の可搬性の記録媒体に記録してもよ
い。
The mouse replacement program 20 may be recorded on a portable recording medium such as a floppy (registered trademark) disk, CD-ROM, magneto-optical disk, or DVD.

【0146】[0146]

【発明の効果】以上説明したように、本発明は下記のよ
うな効果がある。
As described above, the present invention has the following effects.

【0147】請求項1の発明は、第1のテンプレート画
像としてPCの操作者の目、口、鼻等の顔器官の画像情
報を用い、これを追跡することにより、当該操作者が顔
を上下左右に動かすことによってPCのマウスポインタ
を上下左右に移動させることが可能であり、頭を上下左
右に動かすことにより、ポインタをディスプレイ上で移
動/静止させ、従来のマウスポインタに代わるポインテ
ィングデバイスとしての機能を果たすことができる。
According to the first aspect of the present invention, image information of a facial organ such as an eye, a mouth, and a nose of a PC operator is used as a first template image, and by tracking the image information, the operator can move the face up and down. It is possible to move the mouse pointer of the PC up, down, left and right by moving it left and right, and by moving the head up, down, left and right, the pointer is moved / stopped on the display. Can perform functions.

【0148】請求項2の発明は、目を閉じる、口を開け
る等、意図的に表情を変化させた際の目、口、鼻等の顔
器官の画像情報を第2のテンプレート画像として予め登
録しておくことで、操作者が一定時間にわたって意図的
に目を閉じる、口を開ける等の意図的な動作を行った場
合、これを検出してマウスのクリックに相当する指示指
令をOSに発行することができる。
According to a second aspect of the present invention, image information of facial organs such as eyes, mouth, and nose when an expression is intentionally changed, such as closing an eye or opening a mouth, is registered in advance as a second template image. By doing so, if the operator intentionally performs an intentional operation such as closing his eyes or opening his mouth for a certain period of time, this is detected and an instruction command corresponding to a mouse click is issued to the OS. can do.

【0149】請求項3の発明は、目を閉じる、口を開け
る等の予め登録した動作を所定の時間行うことによっ
て、周期的に提示されるマウスコマンドの中から1つを
選択することができる。
According to the third aspect of the present invention, by performing a predetermined operation such as closing the eyes or opening the mouth for a predetermined time, one of the mouse commands presented periodically can be selected. .

【0150】請求項4の発明は、操作者が顔を上下左右
に動かすことによってPC画面の中央を原点として上下
左右にマウスポインタを移動させることができる。
According to the invention of claim 4, the operator can move the mouse pointer up, down, left, and right with the center of the PC screen as the origin by moving the face up, down, left, and right.

【0151】請求項5の発明は、操作者が顔を動かす向
きによってマウスポインタを移動方向を制御でき、顔の
移動量の大きさによって、マウスポインタの移動速度を
制御することができる。
According to the fifth aspect of the present invention, the moving direction of the mouse pointer can be controlled by the direction in which the operator moves the face, and the moving speed of the mouse pointer can be controlled by the magnitude of the moving amount of the face.

【0152】請求項6の発明は、操作者が顔を動かし、
基準点から微小距離だけ顔を動かした場合には、同一の
画像情報をテンプレートとして用いることにより処理の
高速化を図る一方、顔を一定値以上動かした場合につい
ては、現在のフレーム内でテンプレートと最も一致する
領域を時間のテンプレートとして逐次登録し、テンプレ
ートとする画像情報を変更していくことによって、マッ
チングの精度を高めることができる。
According to a sixth aspect of the present invention, the operator moves his face,
When the face is moved by a very small distance from the reference point, the processing is accelerated by using the same image information as a template.On the other hand, when the face is moved by a certain value or more, the face is moved to the template within the current frame. The accuracy of matching can be improved by sequentially registering the most matching areas as time templates and changing the image information used as templates.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態のマウス代替方法が実
施される情報処理装置のブロック図である。
FIG. 1 is a block diagram of an information processing apparatus in which a mouse replacement method according to a first embodiment of the present invention is performed.

【図2】テンプレート登録の模式図である。FIG. 2 is a schematic diagram of template registration.

【図3】第1の実施形態における処理のフローチャート
である。
FIG. 3 is a flowchart of a process according to the first embodiment.

【図4】本発明の第2の実施形態のマウス代替方法が実
施される情報処理装置のブロック図である。
FIG. 4 is a block diagram of an information processing apparatus in which a mouse replacement method according to a second embodiment of the present invention is implemented.

【図5】第2の実施形態における処理のフローチャート
である。
FIG. 5 is a flowchart of a process according to the second embodiment.

【図6】本発明の第3の実施形態のマウス代替方法が実
施される情報処理装置のブロック図である。
FIG. 6 is a block diagram of an information processing apparatus in which a mouse replacement method according to a third embodiment of the present invention is performed.

【図7】補助表示による命令選択の模式図である。FIG. 7 is a schematic diagram of instruction selection by auxiliary display.

【図8】第3の実施形態における処理のフローチャート
である。
FIG. 8 is a flowchart of a process according to the third embodiment.

【符号の説明】[Explanation of symbols]

1 情報処理装置 2 カメラ 11 主制御装置 12 記憶装置 13 表示装置 14 動画像取得装置 15 バス 20 マウス代替プログラム 21 テンプレート画像登録部 22 テンプレートマッチング部 23,23A,23B ポインタ座標算出部 24,24A,24B 命令送出判定部 25 入力補助領域表示部 26 OS 27 アプリケーションプログラム 101〜134、201〜236、301〜332 ス
テップ
Reference Signs List 1 information processing device 2 camera 11 main control device 12 storage device 13 display device 14 moving image acquisition device 15 bus 20 mouse alternative program 21 template image registration unit 22 template matching unit 23, 23A, 23B pointer coordinate calculation unit 24, 24A, 24B Command sending determination unit 25 Input auxiliary area display unit 26 OS 27 Application program 101-134, 201-236, 301-332 Step

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/20 300 G06T 7/20 300B 7/60 150 7/60 150B Fターム(参考) 5B057 CA08 CA12 CA16 CE09 DA07 DB02 DB09 DC30 DC33 DC36 DC39 5B068 AA01 BD09 BE08 CC17 CD06 5B087 AA00 BC12 BC13 BC26 BC32 DD03 DE07 5L096 BA18 EA35 FA66 FA69 HA02 JA09 KA03 KA15 Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat II (Reference) G06T 7/20 300 G06T 7/20 300B 7/60 150 7/60 150B F-term (Reference) 5B057 CA08 CA12 CA16 CE09 DA07 DB02 DB09 DC30 DC33 DC36 DC39 5B068 AA01 BD09 BE08 CC17 CD06 5B087 AA00 BC12 BC13 BC26 BC32 DD03 DE07 5L096 BA18 EA35 FA66 FA69 HA02 JA09 KA03 KA15

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 コンピュータの操作者の顔部位を撮影し
た入力画像の1フレームから顔器官を切り出した画像を
第1のテンプレートとして登録し、同時に入力画像にお
ける前記画像の位置を、ポインタの移動量および移動方
向計算の基準となる点である操作基準点として登録し、 撮像機器を経由しフレーム単位で入力される入力画像内
で前記第1のテンプレートが最も良く一致する領域の座
標であるテンプレート位置座標を実時間で検出し、 前記テンプレート位置座標と前記操作基準点の座標とか
ら次フレームにおけるマウスポインタの位置座標を算出
し、該座標にマウスポインタを移動させる、マウス代替
方法。
An image obtained by cutting out a face organ from one frame of an input image obtained by photographing a face part of an operator of a computer is registered as a first template, and at the same time, the position of the image in the input image is determined by the amount of movement of a pointer. And a template position which is registered as an operation reference point which is a reference point for calculating a moving direction, and which is a coordinate of an area where the first template best matches in an input image input in frame units via an imaging device. A mouse substitution method comprising: detecting coordinates in real time; calculating coordinates of a mouse pointer in a next frame from the coordinates of the template position and the coordinates of the operation reference point; and moving the mouse pointer to the coordinates.
【請求項2】 前記操作者を撮影した入力画像から第1
のテンプレートと同一の顔器官の異なる表情における画
像情報を切り出して第2のテンプレートとして登録して
おき、第1のテンプレートの検索と同時に入力画像内で
第2のテンプレートを検出し、操作者が一定時間にわた
って表情を変化させることにより第2のテンプレートが
予め定められた時間あるいはフレーム数にわたって継続
的に検出された場合、これを1単位として計数し、所定
の時間内に計数された値に応じて予め登録された指示命
令をOSに対して発行する、請求項1記載のマウス代替
方法。
2. The method according to claim 1, further comprising the step of:
The image information of the same facial organ as that of the template in different facial expressions is cut out and registered as a second template, and the second template is detected in the input image simultaneously with the search for the first template, and the operator If the second template is detected continuously over a predetermined time or number of frames by changing the expression over time, this is counted as one unit, and the second template is counted according to the value counted within the predetermined time. The mouse replacement method according to claim 1, wherein a pre-registered instruction command is issued to the OS.
【請求項3】 予め登録された指示命令を一定の規則で
操作者に順次提示する一方、所望の指示命令が提示され
た時、操作者が一定時間にわたって表情を変化させ、第
2のテンプレートが一定時間あるいは一定数のフレーム
にわたって継続的に観測されたことを契機に前記の提示
されている指示命令をOSに対して発行する、請求項1
または2に記載のマウス代替方法。
3. While a pre-registered instruction command is sequentially presented to an operator according to a certain rule, when a desired instruction command is presented, the operator changes his / her expression for a certain period of time, and the second template is displayed. 2. The system according to claim 1, wherein the instruction instruction is issued to the OS when the observation is continuously performed for a predetermined time or a predetermined number of frames.
Or the mouse replacement method according to 2.
【請求項4】 前記撮像機器からの入力画像に対し、第
1のテンプレートに関するテンプレート位置座標と操作
基準点とを比較し、操作基準点を原点とする該テンプレ
ート位置座標の位置をコンピュータ画面の中央を原点と
する座標に変換し、該座標にマウスポインタを表示す
る、請求項1記載のマウス代替方法。
4. An input image from the imaging device is compared with a template position coordinate of a first template and an operation reference point, and a position of the template position coordinate having the operation reference point as an origin is set at the center of the computer screen. 2. The method according to claim 1, wherein the coordinates are converted to coordinates having the origin as an origin, and a mouse pointer is displayed at the coordinates.
【請求項5】 前記撮像機器からの入力画像に対し、第
1のテンプレートに関するテンプレート位置座標と操作
基準点とを比較し、該テンプレート位置座標の操作基準
点からの方向および距離からマウスポインタの移動方向
およびフレーム当りの移動量を決定する、請求項1記載
のマウス代替方法。
5. An image input from the imaging device, the template position coordinates of the first template are compared with an operation reference point, and a mouse pointer is moved based on the direction and distance of the template position coordinates from the operation reference point. The mouse replacement method according to claim 1, wherein the direction and the amount of movement per frame are determined.
【請求項6】 前記撮像機器からの入力画像に対し、第
1のテンプレートに関するテンプレート位置座標と操作
基準点とを比較し、該テンプレート位置座標と操作基準
点との距離が一定値を越えた場合、予め記録された画像
情報のかわりに現在のフレームで第1のテンプレートと
最もよく一致する領域を切り出し、次のフレームにおけ
る第1のテンプレートとして登録し、以降のフレームで
はテンプレートを随時更新しながら検索を行う一方、操
作基準点からの距離が一定値以内に復帰した場合、予め
記録された画像情報を再度第1のテンプレートとして登
録し、以降のフレームにおける検索処理を行う、請求項
1記載のマウス代替方法。
6. A method according to claim 1, wherein a template position coordinate of the first template is compared with an operation reference point with respect to an input image from the imaging device, and a distance between the template position coordinate and the operation reference point exceeds a predetermined value. Instead of the image information recorded in advance, an area that best matches the first template is cut out in the current frame, registered as the first template in the next frame, and searched in the subsequent frames while updating the template as needed. 2. The mouse according to claim 1, wherein when the distance from the operation reference point returns within a certain value, the pre-recorded image information is registered again as the first template, and a search process is performed in subsequent frames. Alternative method.
【請求項7】 コンピュータに請求項1から請求項6の
いずれか1項記載のマウス代替方法を実行するマウス代
替プログラム。
7. A mouse replacement program for executing the mouse replacement method according to claim 1 on a computer.
【請求項8】 コンピュータに請求項1から請求項6の
いずれか1項記載のマウス代替方法を実行するマウス代
替プログラムを記録した記録媒体。
8. A recording medium in which a mouse replacement program for executing the mouse replacement method according to claim 1 is recorded on a computer.
JP2001127638A 2001-04-25 2001-04-25 Mouse replacement method, mouse replacement program, and recording medium recording the program Expired - Fee Related JP4025516B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001127638A JP4025516B2 (en) 2001-04-25 2001-04-25 Mouse replacement method, mouse replacement program, and recording medium recording the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001127638A JP4025516B2 (en) 2001-04-25 2001-04-25 Mouse replacement method, mouse replacement program, and recording medium recording the program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007224980A Division JP2007310914A (en) 2007-08-31 2007-08-31 Mouse alternating method, mouse alternating program and recording medium

Publications (2)

Publication Number Publication Date
JP2002323956A true JP2002323956A (en) 2002-11-08
JP4025516B2 JP4025516B2 (en) 2007-12-19

Family

ID=18976475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001127638A Expired - Fee Related JP4025516B2 (en) 2001-04-25 2001-04-25 Mouse replacement method, mouse replacement program, and recording medium recording the program

Country Status (1)

Country Link
JP (1) JP4025516B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059147A (en) * 2004-08-20 2006-03-02 Kiyomi Nakamura Computer input method and device
JP2007249595A (en) * 2006-03-15 2007-09-27 Omron Corp Display, projector, display system, display method, display program, and recording medium
JP2007310914A (en) * 2007-08-31 2007-11-29 Nippon Telegr & Teleph Corp <Ntt> Mouse alternating method, mouse alternating program and recording medium
KR100788057B1 (en) 2006-01-27 2007-12-21 나종화 bio-mouse
JP2008015942A (en) * 2006-07-07 2008-01-24 Sony Computer Entertainment Inc User interface program, device and method, and information processing system
US7535486B2 (en) 2004-06-04 2009-05-19 Panasonic Corporation Display control device, display control method, program, and portable apparatus
KR100927686B1 (en) * 2007-10-19 2009-11-20 박준호 Character input device for electronic devices
JP2012190126A (en) * 2011-03-09 2012-10-04 Nec Casio Mobile Communications Ltd Input device and input method
CN115601575A (en) * 2022-10-25 2023-01-13 扬州市职业大学(扬州开放大学)(Cn) Method and system for assisting in commonly used expression of aphasia and typographer
WO2023171140A1 (en) * 2022-03-10 2023-09-14 オムロン株式会社 Information processing device, information processing method, and program

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7535486B2 (en) 2004-06-04 2009-05-19 Panasonic Corporation Display control device, display control method, program, and portable apparatus
JP2006059147A (en) * 2004-08-20 2006-03-02 Kiyomi Nakamura Computer input method and device
KR100788057B1 (en) 2006-01-27 2007-12-21 나종화 bio-mouse
JP2007249595A (en) * 2006-03-15 2007-09-27 Omron Corp Display, projector, display system, display method, display program, and recording medium
JP2008015942A (en) * 2006-07-07 2008-01-24 Sony Computer Entertainment Inc User interface program, device and method, and information processing system
JP2007310914A (en) * 2007-08-31 2007-11-29 Nippon Telegr & Teleph Corp <Ntt> Mouse alternating method, mouse alternating program and recording medium
KR100927686B1 (en) * 2007-10-19 2009-11-20 박준호 Character input device for electronic devices
JP2012190126A (en) * 2011-03-09 2012-10-04 Nec Casio Mobile Communications Ltd Input device and input method
WO2023171140A1 (en) * 2022-03-10 2023-09-14 オムロン株式会社 Information processing device, information processing method, and program
CN115601575A (en) * 2022-10-25 2023-01-13 扬州市职业大学(扬州开放大学)(Cn) Method and system for assisting in commonly used expression of aphasia and typographer
CN115601575B (en) * 2022-10-25 2023-10-31 扬州市职业大学(扬州开放大学) Method and system for assisting expression of common expressions of aphasia and aphasia writers

Also Published As

Publication number Publication date
JP4025516B2 (en) 2007-12-19

Similar Documents

Publication Publication Date Title
US10511778B2 (en) Method and apparatus for push interaction
JP3114813B2 (en) Information input method
JP5478928B2 (en) Person identification device, person identification method, and person identification program
JP5205187B2 (en) Input system and input method
JP2004258714A (en) Device for displaying picture
KR100692526B1 (en) Gesture recognition apparatus and methods for automatic control of systems
JP6747446B2 (en) Information processing apparatus, information processing method, and program
JP2010237872A (en) Device, method and program for detecting person area
JP2011232894A (en) Interface device, gesture recognition method and gesture recognition program
JP2002351603A (en) Portable information processor
JP6592940B2 (en) Information processing apparatus, information processing method, and program
JP2002259046A (en) System for entering character and symbol handwritten in air
CN112115894B (en) Training method and device of hand key point detection model and electronic equipment
JP2004220376A (en) Security management method and system, program, and recording medium
JP4025516B2 (en) Mouse replacement method, mouse replacement program, and recording medium recording the program
US20230190404A1 (en) Systems and methods for capturing, displaying, and manipulating medical images and videos
JP2007310914A (en) Mouse alternating method, mouse alternating program and recording medium
JPH0793089A (en) Image editing device
KR20030037692A (en) System and Method of Soft Remote Controller Using Hand Pointing Recognition
JP2002063579A (en) Device and method for analyzing image
US20220244788A1 (en) Head-mounted display
GB2345538A (en) Optical tracker
JP2011243141A (en) Operation information processor, method and program
JP5951966B2 (en) Image processing apparatus, image processing system, image processing method, and program
JPH1039995A (en) Line-of-sight/voice input device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070531

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070831

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071005

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101012

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101012

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111012

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees