JP2007310914A - Mouse alternating method, mouse alternating program and recording medium - Google Patents
Mouse alternating method, mouse alternating program and recording medium Download PDFInfo
- Publication number
- JP2007310914A JP2007310914A JP2007224980A JP2007224980A JP2007310914A JP 2007310914 A JP2007310914 A JP 2007310914A JP 2007224980 A JP2007224980 A JP 2007224980A JP 2007224980 A JP2007224980 A JP 2007224980A JP 2007310914 A JP2007310914 A JP 2007310914A
- Authority
- JP
- Japan
- Prior art keywords
- template
- mouse
- image
- reference point
- operator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、マウス代替方法、マウス代替プログラム、および同プログラムを記録した記録媒体に関する。 The present invention relates to a mouse replacement method, a mouse replacement program, and a recording medium on which the program is recorded.
パーソナルコンピュータ(PC)を用いた各種情報処理においてユーザとの連携が必要となるプログラムでは、GUI(グラフィカルユーザインタフェース)を媒介としてユーザの入力を処理することが多い。例えばプログラムの起動や終了をはじめ、多くの機能がアイコンやメニュー等のオブジェクトの指示、選択や移動といった直感的に理解しやすいGUI操作によって実現させるという特徴がある。 A program that requires cooperation with a user in various types of information processing using a personal computer (PC) often processes user input through a GUI (graphical user interface). For example, a feature is that many functions such as starting and ending a program are realized by GUI operations that are easy to understand intuitively, such as instruction, selection, and movement of objects such as icons and menus.
これらの操作の多くは、オブジェクトの選択を行うためのマウスや、文字を入力するためのキーボードといった、手の運動機能を用いた入力デバイスを必要とするため、市販のアプリケーションプログラムを含むこれらプログラムを両手の機能に障害を持つユーザがそのままの形で利用するためには専用の手段が必要となる。特に、肢体不自由者を対象としたパソコンの入力手段としては各種装置が開発されており、体の残存機能を利用してマウス操作を代替する方法、例えば随意に頭部を動かすことのできる障害者に対しては、その動きを用いて画面上のボタンやアイコンを指示する方法が開発されている。 Many of these operations require input devices using hand movement functions such as a mouse for selecting objects and a keyboard for inputting characters. In order for a user with a disability in the functions of both hands to use it as it is, a dedicated means is required. In particular, various devices have been developed as input means for personal computers for people with physical disabilities, such as methods that substitute mouse operations using the remaining functions of the body, such as obstacles that can move the head at will A method for instructing a button or icon on the screen using the movement has been developed.
頭部の動きを用いたマウスの代替方法では、頭部に各種センサを装着し、その上下、左右の動きを検知する機構を具備したヘッドスペースポインターやヘッド・マスター・プラスのような製品や、ヘッドマウスのように反射マーカを頭部に添付し、CCDカメラ等によって撮影された動画像から画像処理によってマーカの領域に抽出する方法等の製品がある。 In the alternative method of the mouse using the movement of the head, products such as a head space pointer and head master plus equipped with various sensors on the head and a mechanism for detecting the vertical and horizontal movements, There are products such as a method of attaching a reflective marker to the head like a head mouse and extracting it from a moving image photographed by a CCD camera or the like to a marker region by image processing.
他にも特開平10−320108や特開平7−141098のようにセンサやマーカを身体の可動部位に装着してポインティングを行う方法がある。 In addition, there is a method of pointing by attaching a sensor or a marker to a movable part of the body as disclosed in JP-A-10-320108 and JP-A-7-1441098.
なお、これらの製品や発明におけるセンサやマーカの装着位置は、原理的には身体の可動位置であればよく、例えば手や足等に装着しても操作は可能である。 It should be noted that the mounting position of the sensor or marker in these products or inventions may be a movable position of the body in principle, and can be operated even if it is mounted on, for example, a hand or a foot.
いずれの方法も抽出されたセンサの位置、あるいはマーカの座標位置は、適宜座標変換された後にパソコンのモニタ上にポインタとして表示される。これにより、マーカやセンサの上下、左右の動きによって画面上のアイコンやボタン等のオブジェクトを指示することができる。
しかしながら、上記した従来の方法によるPCの操作では、各種センサやヘッドセット、マーカ等の装着が必要である。これらは改良され、軽量コンパクトなものが開発されているものの、PCの操作時にのみ必要なものであるため、装着、固定を利用の都度行う必要があり、特に肢体不自由者の使用において操作者および介助者の負担となる。 However, in the operation of the PC by the conventional method described above, it is necessary to attach various sensors, a headset, a marker, and the like. Although these have been improved and lightweight and compact ones have been developed, they are necessary only during the operation of the PC, so they must be worn and fixed each time they are used, especially when used by people with physical disabilities. And the burden on the caregiver.
上記の問題点に鑑み、本発明の目的は、両手の不自由な障害者に対して装着物の必要がなくGUIを媒介としたプログラムの操作を可能にするマウス代替方法を提供することに
ある。
SUMMARY OF THE INVENTION In view of the above problems, an object of the present invention is to provide a mouse replacement method that allows a user with a disability in both hands to operate a program mediated by a GUI without the need for a wearing accessory. .
上記目的を達成するために、本発明は、目、口等の顔器官が持つ画像的特徴を利用し、ビデオカメラ等で顔を撮影した画像から特定の顔器官を追跡することで得られる座標を元にマウスポインタを移動させ、さらに意図的に目を閉じる、口を開ける等の表情の変化を検出することによってアイコン等のオブジェクトの選択、および当該オブジェクトに対する命令指示等を発行することでマウスの代替機能を実現するものである。 In order to achieve the above object, the present invention uses coordinates obtained by tracking a specific facial organ from an image obtained by photographing a face with a video camera or the like using image features of the facial organ such as eyes and mouth. The mouse is moved by moving the mouse pointer based on the above, and by selecting the object such as an icon by detecting a change in facial expression such as intentionally closing the eyes and opening the mouth, and issuing a command instruction to the object, etc. The alternative function is realized.
本発明のマウス代替方法は、4つの手法を講ずる。 The mouse replacement method of the present invention takes four approaches.
具体的には以下である。 Specifically:
本発明のマウス代替方法は、
コンピュータの操作者の顔部位を撮影した入力画像の1フレームから顔器官を切り出した画像を第1のテンプレートとして登録し、
同時に入力画像における前記画像の位置を、ポインタの移動量および移動方向計算の基準となる点である操作基準点として登録し、
撮像機器を経由しフレーム単位で入力される入力画像内で前記第1のテンプレートが最も良く一致する領域の座標であるテンプレート位置座標を検出し、
前記テンプレート位置座標と前記操作基準点の座標とから次フレームにおけるマウスポインタの位置座標を算出し、
該座標にマウスポインタを移動させ、
前記操作者を撮影した入力画像から第1のテンプレートと同一の顔器官の異なる表情における画像情報を切り出して第2のテンプレートとして登録しておき、
入力画像内で第2のテンプレートを検出し、
第2のテンプレートが予め定められた時間あるいはフレーム数にわたって継続的に検出された場合、これを1単位として表情カウンタの値を計数し、
前記計数された表情カウンタの値に応じて予め登録された指示命令をOSに対して発行する。
The mouse alternative method of the present invention comprises:
An image obtained by cutting out a facial organ from one frame of an input image obtained by photographing a face part of a computer operator is registered as a first template,
At the same time, the position of the image in the input image is registered as an operation reference point, which is a reference point for calculating the amount and direction of movement of the pointer.
Detecting a template position coordinate which is a coordinate of an area where the first template is best matched in an input image input in frame units via an imaging device;
Calculate the position coordinate of the mouse pointer in the next frame from the template position coordinates and the coordinates of the operation reference point,
Move the mouse pointer to the coordinates,
Image information on a different facial expression of the same facial organ as the first template is cut out from the input image obtained by photographing the operator and registered as a second template,
Detect the second template in the input image,
When the second template is continuously detected over a predetermined time or frame number, the value of the expression counter is counted with this as one unit,
A pre-registered instruction command is issued to the OS according to the counted expression counter value.
この構成によれば、第1のテンプレート画像として操作者の顔器官の画像情報を用い、これを追跡することにより、操作者が顔を上下左右に動かすことに連動してPCのマウスポインタを移動させることが可能になる。
また、この構成によれば、操作者が一定時間にわって意図的に目を閉じたり、口を開ける等の所定の動作を1回以上行うことにより、その回数に応じてシングルクリック、ダブルクリック等のマウスボタンに係る指令命令を実行することができる。
According to this configuration, image information of the operator's facial organ is used as the first template image, and by tracking the information, the mouse pointer of the PC is moved in conjunction with the operator moving the face up, down, left, and right It becomes possible to make it.
Further, according to this configuration, the operator performs a predetermined operation such as intentionally closing his eyes or opening his mouth for a certain period of time once or more, so that a single click or double click according to the number of times. The command command related to the mouse button can be executed.
本発明の他の実施態様では、予め登録された指示命令を一定の規則で操作者に順次提示し、所望の指示命令が提示された時、操作者が一定時間にわたって表情を変化させることにより第2のテンプレートが一定時間あるいは一定数のフレームにわたって継続的に観測されたことを契機にして提示されている指示命令をOSに対して発行する。 In another embodiment of the present invention, pre-registered instruction commands are sequentially presented to the operator according to a certain rule, and when the desired instruction command is presented, the operator changes the facial expression over a certain time. The instruction command presented when the two templates are continuously observed over a certain time or a certain number of frames is issued to the OS.
この構成によれば、シングルクリック、ダブルクリック等のマウスボタンに係る複数の指示命令が操作者に対して周期的に提示される一方、所望の指示命令が提示されたことに合わせて操作者が所定の動作を1回行うことにより、複数の指示命令から所望の1つを選択し、そのときにマウスポインタによって指示されているアイコン、ボタン等のオブジェクトに対して指示命令を発行することができる。 According to this configuration, a plurality of instruction commands relating to mouse buttons such as single click and double click are periodically presented to the operator, while the operator is in accordance with the desired instruction command being presented. By performing a predetermined operation once, a desired one can be selected from a plurality of instruction commands, and an instruction command can be issued to an object such as an icon or button indicated by the mouse pointer at that time. .
本発明の他の実施態様によれば、撮像機器からの入力画像に対し、第1のテンプレート
に関するテンプレート位置座標と操作基準点とを比較し、操作基準点を原点とするテンプレート位置座標の位置をPC画面の中央を原点とする座標に変換し、該座標にマウスポインタを表示する。
According to another embodiment of the present invention, a template position coordinate relating to the first template and an operation reference point are compared with an input image from an imaging device, and the position of the template position coordinate with the operation reference point as the origin is determined. The coordinates are converted into coordinates with the center of the PC screen as the origin, and a mouse pointer is displayed at the coordinates.
この構成によれば、PC画面の中央を基準とし、マウスポインタを操作者が顔を動かす向きに、顔の移動量の大きさに比例した量だけ移動させるため、操作者が顔を動かすだけで画面上の任意の座標にマウスポインタを移動させることができる。 According to this configuration, since the mouse pointer is moved by an amount proportional to the amount of movement of the face in the direction in which the operator moves the face with the center of the PC screen as a reference, the operator simply moves the face. The mouse pointer can be moved to any coordinates on the screen.
本発明の他の実施態様によれば、撮像機器からの入力画像に対し、第1のテンプレートに関するテンプレート位置座標と操作基準点とを比較し、テンプレート位置座標の操作基準点からの方向および距離からマウスポインタの移動方向およびフレーム当りの移動量を決定する。 According to another embodiment of the present invention, a template position coordinate related to the first template and an operation reference point are compared with an input image from an imaging device, and the template position coordinate is determined from the direction and distance from the operation reference point. Determines the direction of movement of the mouse pointer and the amount of movement per frame.
この構成によれば、操作者が顔を動かす向きによってマウスポインタの移動方向を設定し、顔の移動量の大きさによって、マウスポインタの移動速度を設定するため、操作者が顔を動かすだけで画面上の任意の座標にマウスポインタを移動させることができる。 According to this configuration, the moving direction of the mouse pointer is set according to the direction in which the operator moves the face, and the moving speed of the mouse pointer is set according to the amount of movement of the face. The mouse pointer can be moved to any coordinates on the screen.
本発明の他の実施態様によれば、マウス代替方法をコンピュータプログラムで実現することができる。 According to another embodiment of the present invention, the mouse replacement method can be realized by a computer program.
また、本発明の他の実施態様によれば、マウス代替プログラムを記録した記録媒体として実現できる。 Further, according to another embodiment of the present invention, it can be realized as a recording medium on which a mouse substitute program is recorded.
次に、本発明の実施の形態について図面を参照して説明する。 Next, embodiments of the present invention will be described with reference to the drawings.
<<第1の実施形態>>
第1の実施形態は、操作者の特定の顔器官を追跡し、マウスポインタを画面の中央から顔の移動量の大きさに比例した量だけ移動させ、同時に操作者の同一顔器官における表情変化を検出することを契機に指示命令をOSに対して発行する。
<< First Embodiment >>
The first embodiment tracks a specific facial organ of the operator, moves the mouse pointer from the center of the screen by an amount proportional to the amount of facial movement, and simultaneously changes facial expressions in the same facial organ of the operator An instruction command is issued to the OS when an error is detected.
図1は本発明の第1の実施形態のマウス代替方法を実施する装置のブロック図である。 FIG. 1 is a block diagram of an apparatus for carrying out the mouse replacement method of the first embodiment of the present invention.
情報処理装置1は主制御装置11と記憶装置12と表示装置13と動画取得装置14とバス15を含み、動画取得装置14にはカメラ2が接続されている。 The information processing apparatus 1 includes a main control device 11, a storage device 12, a display device 13, a moving image acquisition device 14, and a bus 15, and a camera 2 is connected to the moving image acquisition device 14.
主制御装置1はMPU,RAM等から構成され、情報処理装置1を統括的に管理している。このため、主制御装置1はマウス代替プログラム20としてのテンプレート画像登録部21、テンプレートマッチング部22、ポインタ座標算出部23、命令送出判定部24と、OS26が起動している。また、主制御装置11にはワープロソフト等のアプリケーションプログラム27も動作している。なお、OS26はマウスポインタの移動、およびマウスボタンのシングルクリック、ダブルクリック等のマウスに係る各種命令を実行する機能を有する。 The main control device 1 is composed of an MPU, a RAM, and the like, and manages the information processing device 1 in an integrated manner. For this reason, in the main control apparatus 1, a template image registration unit 21, a template matching unit 22, a pointer coordinate calculation unit 23, a command transmission determination unit 24, and an OS 26 are activated as a mouse substitute program 20. In addition, an application program 27 such as word processing software is also running on the main control device 11. The OS 26 has a function of executing various commands relating to the mouse such as movement of the mouse pointer and single click and double click of the mouse button.
記憶装置12はハードディスク装置等から構成されている。記憶装置12にはマウス代替プログラム20、OS26、アプリケーションプログラム27等が格納されている。 The storage device 12 is composed of a hard disk device or the like. The storage device 12 stores a mouse substitute program 20, an OS 26, an application program 27, and the like.
表示装置13は液晶モニタ等から構成され、ポインタの動きを含めた主制御装置11における処理結果を表示する。 The display device 13 is composed of a liquid crystal monitor or the like, and displays the processing result in the main control device 11 including the movement of the pointer.
動画像取得装置14はカメラ2から得られた動画像を主制御装置11が具備するRAM内にフレーム単位で逐次取り込む機能を有する。なお、動画像取得装置14としては市販のビデオキャプチャボードが利用でき、カメラ2としては市販のCCDカメラ等が利用できる。 The moving image acquisition device 14 has a function of sequentially acquiring the moving image obtained from the camera 2 in the RAM included in the main control device 11 in units of frames. A commercially available video capture board can be used as the moving image acquisition device 14, and a commercially available CCD camera or the like can be used as the camera 2.
次に、顔器官のテンプレートおよび操作基準点、テンプレート位置座標を図2により説明する。 Next, the facial organ template, the operation reference point, and the template position coordinates will be described with reference to FIG.
カメラ2によって操作者の頭部が撮影され、動画像取得装置14によって主制御装置11には図2に示すように顔の各器官を含む画像が入力画像として取り込まれている。なお、カメラ2は固定された状態で操作者の頭部を撮影しているものとする。 The operator's head is photographed by the camera 2, and an image including each organ of the face is captured as an input image by the moving image acquisition device 14 into the main control device 11 as shown in FIG. 2. It is assumed that the camera 2 is photographing the operator's head in a fixed state.
図2(a)は操作者がカメラ2に対して正面を向いた状態の入力画像であり、この状態で眼、口等の顔器官部分の画像情報を切り出し、画像AとしてテンプレートToに登録する。以降の図は目部位をテンプレートとしたものである。同時に登録時の入力画像における画像Aの位置を操作基準点として登録する。操作基準点はポインタの移動量および移動方向計算の基準となる点であり、その座標は後述するテンプレート位置座標の初期値に等しい。 FIG. 2A shows an input image in a state where the operator is facing the front of the camera 2. In this state, image information of facial organ parts such as eyes and mouth is cut out and registered as an image A in the template To. . The following figures use the eye region as a template. At the same time, the position of the image A in the input image at the time of registration is registered as an operation reference point. The operation reference point is a point used as a reference for calculating the movement amount and the moving direction of the pointer, and its coordinates are equal to the initial values of template position coordinates described later.
なお、図2(a)では具体的な操作基準点として、画像Aの右下の座標を用いているが、切り出した画像中の特定の位置を基準にした座標であればこの限りではなく、例えば画像の中心が位置する座標を用いてもよい。 In FIG. 2A, the lower right coordinate of the image A is used as a specific operation reference point, but this is not limited as long as the coordinate is based on a specific position in the cut image. For example, coordinates where the center of the image is located may be used.
ここで、図2(b)に示すように、操作者が顔を上下左右に動かせば、操作者の眼、口、鼻等の顔器官も移動する。そのため、入力画像にテンプレートToを重ねてテンプレートマッチングを行った場合、入力画像内でテンプレートToが最も良く一致する領域は顔器官の移動に伴って変化する。以降の説明では入力画像上でテンプレート画像Aが最も良く一致する領域の座標をテンプレート位置座標とする。なお、テンプレート位置座標の具体的な位置は、テンプレート画像において前述の操作基準点の定義で用いた基準座標と同様の位置を基準とした座標を用いる。また、テンプレート位置座標は、後述するポインタ座標算出部23で具体的なマウスポインタの移動量に変換される。 Here, as shown in FIG. 2B, when the operator moves his / her face up / down / left / right, the facial organs such as the eyes, mouth, and nose of the operator also move. Therefore, when template matching is performed by superimposing the template To on the input image, the region where the template To matches best in the input image changes as the facial organ moves. In the following description, the coordinates of the area where the template image A is the best match on the input image are set as the template position coordinates. The specific position of the template position coordinate is a coordinate based on the same position as the reference coordinate used in the above-described definition of the operation reference point in the template image. The template position coordinates are converted into a specific amount of movement of the mouse pointer by a pointer coordinate calculation unit 23 described later.
また、図2(c)に示すように画像Aの撮影時とは異なる表情(目を閉じる、口を開ける等)における同一顔器官部分の画像情報を画像Aと同サイズで切り出し、画像BとしてテンプレートTcに登録する。図2(c)は目を閉じた状態である。 Also, as shown in FIG. 2 (c), the image information of the same facial organ part in a different expression (closed eyes, open mouth, etc.) from that at the time of shooting of the image A is cut out with the same size as the image A, and the image B Register to template Tc. FIG. 2 (c) shows a state where the eyes are closed.
次に、マウス代替プログラム20の機能を説明する。 Next, functions of the mouse substitute program 20 will be described.
マウス代替プログラム20は前述したようにテンプレート画像登録部21、テンプレートマッチング部22、ポインタ座標算出部23、および命令送出判定部24から構成される。 As described above, the mouse substitute program 20 includes the template image registration unit 21, the template matching unit 22, the pointer coordinate calculation unit 23, and the command transmission determination unit 24.
まず、テンプレート画像登録部21は、操作者の顔部位を撮影した動画像の1フレームから眼、口等の顔器官を切り出した画像AをテンプレートToとして登録する。同時に入力画像における画像Aの位置を操作基準点として登録する。さらに、画像Aの撮影時と同一顔器官における異なる表情の画像情報を切り出した画像BをテンプレートTcとして登録する。 First, the template image registration unit 21 registers, as a template To, an image A obtained by cutting out facial organs such as eyes and mouth from one frame of a moving image obtained by photographing the face part of the operator. At the same time, the position of the image A in the input image is registered as an operation reference point. Furthermore, an image B obtained by cutting out image information of different facial expressions in the same facial organ as when the image A was captured is registered as a template Tc.
テンプレートマッチング部22は、与えられたテンプレート画像を用いて入力画像内でテンプレートマッチングを行う。テンプレートマッチングの結果、入力画像内におけるテ
ンプレート位置座標を算出する。具体的には、逐次更新される動画像の1フレームにおいて、テンプレート画像を微小距離づつ移動させながらテンプレート画像と入力画像内で当該テンプレートが重なる領域との一致度を順次計算し、テンプレートが最もよく一致する領域の座標を出力する。
The template matching unit 22 performs template matching in the input image using the given template image. As a result of template matching, the template position coordinates in the input image are calculated. Specifically, in one frame of a moving image that is sequentially updated, the degree of coincidence between the template image and a region where the template overlaps in the input image is sequentially calculated while moving the template image by a minute distance. Output the coordinates of the matching area.
一致度の尺度としては、テンプレート画像と入力画像との対応する画素間において濃度の残差を求める方法や相互相関係数を求める方法等がある。残差を用いた場合はその値が最小となる位置で最もよく一致したことを意味し、相互相関係数を用いた場合、その値が最大となる位置で最もよく一致したことを表す。 As a measure of the degree of coincidence, there are a method for obtaining a residual of density between corresponding pixels of a template image and an input image, a method for obtaining a cross-correlation coefficient, and the like. When the residual is used, it means that the value is best matched at the position where the value is minimum, and when the cross-correlation coefficient is used, it means that the value is best matched at the position where the value is maximum.
なお、テンプレートのサイズをM×Nとし、テンプレートToおよびテンプレートToが重なる入力画像上の領域をそれぞれT(m,n),I(m,n)とすると、残差Rおよび相互相関係数Cは以下の式で与えられる。 If the template size is M × N, and the regions on the input image where the template To and the template To overlap are T (m, n) and I (m, n), respectively, the residual R and the cross-correlation coefficient C Is given by:
使用する一致度の尺度によって値の大小の意味付けが異なるが、以降の説明では一致度の値が大きいほど良く一致しているものとする。また、一致度を算出する際、カメラ2から得られた画像をそのまま用いることもできるが、一旦得られた画像に対し、濃淡画像化や抽出等の前処理を施した後に一致度を計算してもよい。
The meaning of the value differs depending on the scale of matching used, but in the following explanation, it is assumed that the larger the matching value, the better the matching. Further, when calculating the degree of coincidence, the image obtained from the camera 2 can be used as it is, but the degree of coincidence is calculated after pre-processing such as grayscale image extraction and extraction is performed on the image once obtained. May be.
テンプレートマッチング部22によって1フレームの走査を終了した後、テンプレートとの一致度が最大となった入力画像内の座標を新たなテンプレート位置座標として記録する。 After the scanning of one frame is completed by the template matching unit 22, the coordinates in the input image having the highest degree of matching with the template are recorded as new template position coordinates.
ポインタ座標算出部23は、テンプレートマッチング部22で得られたテンプレート位置座標を操作基準点の座標と比較し、テンプレートの移動量および移動方向をもとに次のフレームにおけるマウスポインタの位置座標を算出し、OS26に通知する。 The pointer coordinate calculation unit 23 compares the template position coordinates obtained by the template matching unit 22 with the coordinates of the operation reference point, and calculates the position coordinates of the mouse pointer in the next frame based on the movement amount and movement direction of the template. Then, the OS 26 is notified.
なお、操作基準点とテンプレート位置座標との距離が一定値を超えた場合、現在の入力画像においてテンプレートToと最もよく一致する領域を切り出し、予め記録された画像情報Aに代わり、次のフレームにおけるテンプレートToとして登録する。以降のフレームではテンプレートToを随時更新しながら検索を行う。一方、操作基準点からの距離が一定値以内に復帰した場合、予め記録された画像情報Aを再度テンプレートToとして登録し、以降のフレームにおける検索処理を行う。 If the distance between the operation reference point and the template position coordinate exceeds a certain value, the area that best matches the template To in the current input image is cut out, and in the next frame, instead of the pre-recorded image information A Register as a template To. In subsequent frames, the search is performed while updating the template To as needed. On the other hand, when the distance from the operation reference point returns within a predetermined value, the image information A recorded in advance is registered again as the template To, and the search process in the subsequent frames is performed.
命令送出判定部24は、テンプレート位置座標の近傍で予め登録されたテンプレートTc
を検索する。検索の手法は上記したテンプレートマッチングを用いる。命令送出判定部24は、操作者が一定時間にわたって表情を変化させることによりテンプレートTcが所定の時間あるいはフレーム数にわたって継続的に検出された場合、これを1単位として計数し、一定の時間内に計数された値に応じて予め登録された指示命令をOS26に対して発行する。ここで、指示命令とはマウスボタンの押し下げ、開放等に相当する命令であり、OS26に通知されることにより、現在マウスポインタが指示しているアイコン等のオブジェクトの選択、および当該オブジェクトに対する命令の指示を行うものである。
The command transmission determination unit 24 uses a template Tc registered in advance near the template position coordinates.
Search for. The template matching described above is used as the search method. When the operator changes the facial expression over a predetermined time and the template Tc is continuously detected over a predetermined time or the number of frames, the command transmission determining unit 24 counts this as one unit, and within a predetermined time. A pre-registered instruction command is issued to the OS 26 according to the counted value. Here, the instruction command is a command corresponding to depression, release, etc. of a mouse button, and by notification to the OS 26, selection of an object such as an icon currently pointed by the mouse pointer, and a command for that object It is an instruction.
なお、テンプレートToに対応するテンプレート位置座標と操作基準点との距離が一定値を超えた場合、該テンプレート位置座標の近傍でテンプレートTcに対し、最もよく一致する領域を切り出し、予め記録された画像情報Bに代わって次のフレームにおけるテンプレートTcとして登録し、以降のフレームではテンプレートTcを随時更新しながら検索を行う。一方、テンプレート位置座標と操作基準点との距離が一定値以内に復帰した場合、予め記録された画像情報Bを再度テンプレートTcとして登録し、以降のフレームにおける検索処理を行う。 When the distance between the template position coordinate corresponding to the template To and the operation reference point exceeds a certain value, an area that best matches the template Tc in the vicinity of the template position coordinate is cut out and recorded in advance. Instead of the information B, it is registered as a template Tc in the next frame, and a search is performed while updating the template Tc as needed in subsequent frames. On the other hand, when the distance between the template position coordinates and the operation reference point returns within a certain value, the image information B recorded in advance is registered again as the template Tc, and the search processing in the subsequent frames is performed.
上記した動作をフレーム毎に繰り返し実行する。 The above operation is repeated for each frame.
したがって、操作者が顔を動かせば、その向きに応じて表示装置3上のマウスポインタが移動し、表情を予め登録した表情に一定時間変化させればマウスポインタが指しているアイコン等のオブジェクトに対して所定の命令を発行することができる。これにより、顔の向きと表情によってPCの操作においてマウスを代替させることが可能になる。 Therefore, if the operator moves the face, the mouse pointer on the display device 3 moves according to the direction, and if the facial expression is changed to a pre-registered facial expression for a certain period of time, an object such as an icon pointed to by the mouse pointer is displayed. A predetermined command can be issued. This makes it possible to substitute a mouse for PC operation based on facial orientation and facial expression.
次に、第1の実施形態のマウス代替方法における処理を図3のフローチャートを用いて説明する。 Next, processing in the mouse replacement method of the first embodiment will be described with reference to the flowchart of FIG.
なお、以降の処理ではカメラ2は固定であり、操作者の顔部分を撮影しているものとする。 In the following processing, the camera 2 is fixed, and it is assumed that the face portion of the operator is photographed.
まず、PCの操作者がカメラ2に対し静止した状態で眼、口、鼻等の顔器官を撮影した画像情報を画像Aとして記録するとともに画像AをテンプレートToに登録し、続いて異なる表情で同一操作者の顔器官を撮影し、得られた画像情報を画像Bとして記録するとともに画像BをテンプレートTcに登録する(ステップ101)。 First, the image information obtained by photographing the facial organs such as the eyes, mouth, and nose while the PC operator is stationary with respect to the camera 2 is recorded as the image A, and the image A is registered in the template To. The face organs of the same operator are photographed, the obtained image information is recorded as an image B, and the image B is registered in the template Tc (step 101).
テンプレートToの入力画像内での位置座標を基準点(XO,YO)として記録し、また、操作者が顔を上下左右に動かした際の入力画像内でのテンプレートToの移動の上限Xmax,Ymaxおよび下限Xmin,Yminを記録する(ステップ102)。 The position coordinates in the input image of the template To are recorded as reference points (XO, YO), and the upper limit Xmax, Ymax of the movement of the template To in the input image when the operator moves the face up / down / left / right The lower limits Xmin and Ymin are recorded (step 102).
操作者が顔を動かした際に基準点からの距離が一定値を越えたか否かを示す距離フラグの初期値を"OFF"に設定し、同時にテンプレートTcとマッチする領域の有無を示す表情フラグの初期値を"OFF"に設定する(ステップ103)。 The initial value of the distance flag indicating whether or not the distance from the reference point exceeds a certain value when the operator moves the face is set to “OFF”, and at the same time, a facial expression flag indicating whether or not there is a region that matches the template Tc Is set to “OFF” (step 103).
なお、以降のステップ104〜134はフレームが更新される間、一定周期で連続的に実行される。 The subsequent steps 104 to 134 are continuously executed at a constant period while the frame is updated.
フレームが更新されたか否かを判定する(ステップ104)。フレームが更新されない場合は処理を終了する(ステップ105)。 It is determined whether or not the frame has been updated (step 104). If the frame is not updated, the process is terminated (step 105).
一方、フレームが更新された場合には距離フラグの判定を行う(ステップ106)。距離フラグが“OFF”の場合、顔器官が基準点から一定の距離内にあるとみなし、テンプレ
ートToに画像Aを登録し、テンプレートTcに画像Bを登録する(ステップ107)。距離フラグが“ON”の場合、顔器官が基準点から一定の距離以上離れているとみなし、テンプレートToに画像Anを登録し、テンプレートTcに画像Bnを登録する(ステップ108)。ここで、画像Anおよび画像Bnは過去のフレームで、それぞれテンプレートToおよびテンプレートTcと最もよくマッチした領域の画像情報であり、t番目のフレーム処理の際にはt-1番目のフレーム処理における画像情報がテンプレートとして用いられる。
On the other hand, when the frame is updated, the distance flag is determined (step 106). If the distance flag is “OFF”, it is considered that the facial organ is within a certain distance from the reference point, and image A is registered in template To and image B is registered in template Tc (step 107). If the distance flag is “ON”, it is considered that the facial organ is more than a certain distance from the reference point, the image An is registered in the template To, and the image Bn is registered in the template Tc (step 108). Here, the image An and the image Bn are image information of regions that best match the template To and the template Tc, respectively, in the past frames, and in the t-th frame processing, the images in the t−1-th frame processing Information is used as a template.
操作者の正面を撮影してテンプレートを作成した場合、顔を微小範囲だけ動かしても入力画像における顔領域の歪みは小さいため、一致度の高い領域が抽出されやすい。一方、顔を大きく動かした場合、個々の器官部分における画像の歪みが大きくなるため、単一のテンプレートによるテンプレートマッチングでは検出が困難になる。そのため、一定範囲より大きく移動した場合には、過去のフレームでテンプレートと最もよく一致した領域の画像情報を新たなテンプレートとして用いる。 When a template is created by photographing the front face of the operator, even if the face is moved only by a minute range, the distortion of the face area in the input image is small, so that a region with a high degree of coincidence is easily extracted. On the other hand, when the face is moved greatly, the distortion of the image in each organ part increases, so that it is difficult to detect by template matching using a single template. For this reason, when the image moves more than a certain range, the image information of the area that best matches the template in the past frame is used as a new template.
一致度Pを計算する(ステップ109)。具体的な計算は前述した残差や相互相関係数を用いる。 The degree of coincidence P is calculated (step 109). The specific calculation uses the above-described residual and cross-correlation coefficient.
一致度Pの大小を比較し、入力画像内においてテンプレートToとの一致度が最も高かった領域の座標(x,y)をテンプレート位置座標として記録する(ステップ110)。 The degree of coincidence P is compared, and the coordinates (x, y) of the region having the highest degree of coincidence with the template To in the input image are recorded as template position coordinates (step 110).
テンプレート位置座標(x,y )と基準点(XO,YO)との距離Dを計算する(ステップ111)。 A distance D between the template position coordinates (x, y) and the reference point (XO, YO) is calculated (step 111).
x軸方向、y軸方向のテンプレート移動量をそれぞれdx,dyとすれば、
dx=x−XO
dy=y−YO
であり、距離Dは次式で求められる。
If the template movement amounts in the x-axis and y-axis directions are dx and dy, respectively,
dx = x−XO
dy = y−YO
And the distance D is obtained by the following equation.
距離Dと距離しきい値Thとを比較する(ステップ112)。もし、D≧Thであれば距離フラグを“ON”に設定する(ステップ113)。さらに、入力画像内においてテンプレートToとの一致度Pが最も高かった領域を新たなテンプレート用画像Anとして登録する(ステップ114)。一方、D<Thであれば距離フラグを“OFF”に設定する(ステップ115)。
The distance D is compared with the distance threshold Th (step 112). If D ≧ Th, the distance flag is set to “ON” (step 113). Further, the region having the highest matching degree P with the template To in the input image is registered as a new template image An (step 114). On the other hand, if D <Th, the distance flag is set to “OFF” (step 115).
以降のフローチャートでは、OS26に対する命令の送出判定を行う。 In the subsequent flowcharts, it is determined whether to send an instruction to the OS 26.
テンプレート位置座標(x,y)の近傍でテンプレートTcとの一致度Qを計算する(ステップ116)。一致度Qの具体的な計算は前述した残差や相互相関係数を用いる。 The degree of coincidence Q with the template Tc is calculated in the vicinity of the template position coordinate (x, y) (step 116). The specific calculation of the coincidence Q uses the above-described residual and cross-correlation coefficient.
一致度Qをしきい値Tと比較する(ステップ117)。なお、一致度QをテンプレートToとの一致度Pと比較してもよい。 The degree of coincidence Q is compared with a threshold value T (step 117). Note that the degree of coincidence Q may be compared with the degree of coincidence P with the template To.
ここで、Q≧Tの場合、表情フラグの判定を行う(ステップ118)。 Here, if Q ≧ T, the facial expression flag is determined (step 118).
表情フラグが"ON"の場合、ステップ121に移行する。一方、表情フラグが"OFF"の場合は表情フラグを"ON"に設定し(ステップ119)、同時にこのときの時刻t1を記録する(ステップ120)。 If the facial expression flag is “ON”, the process proceeds to step 121. On the other hand, if the facial expression flag is “OFF”, the facial expression flag is set to “ON” (step 119), and at the same time, the time t1 at this time is recorded (step 120).
テンプレートTcを更新するか否かを距離フラグによって判定する(ステップ121)。距離フラグが"ON"の場合、テンプレートTcと最もよく一致する領域を切り出し、新たなテンプレート用の画像Bnとして登録する(ステップ122)。 Whether or not to update the template Tc is determined by the distance flag (step 121). If the distance flag is “ON”, the region that best matches the template Tc is cut out and registered as a new template image Bn (step 122).
一方、Q<Tの場合、ステップ118と同様に表情フラグの判定を行う(ステップ123)。 On the other hand, if Q <T, the facial expression flag is determined as in step 118 (step 123).
表情フラグが"OFF"であればステップ129に移行する。 If the facial expression flag is “OFF”, the process proceeds to step 129.
表情フラグがすでに"ON"であれば表情フラグを"OFF"に設定する(ステップ124)。同時にこのときの時刻t2を記録する(ステップ125)。 If the facial expression flag is already “ON”, the facial expression flag is set to “OFF” (step 124). At the same time, the time t2 at this time is recorded (step 125).
時刻t2と時刻t1の差分が一定値以内にあるか否かを判定する(ステップ126)。時刻t2と時刻t1の差分が一定値以内にない場合、ステップ129に移行する。時刻t2と時刻t1の差分が一定値以内にある場合、タイマを起動し"ON"にする(ステップ127)。表情カウンタをインクリメントする(ステップ128)。 It is determined whether or not the difference between time t2 and time t1 is within a certain value (step 126). If the difference between the time t2 and the time t1 is not within a certain value, the process proceeds to step 129. If the difference between the time t2 and the time t1 is within a certain value, the timer is activated and turned “ON” (step 127). The facial expression counter is incremented (step 128).
タイマの起動有無を判定する(ステップ129)。タイマが起動していない場合はステップ133に移行する。タイマが起動している場合、タイマの値を判定する(ステップ130)。 It is determined whether or not the timer is activated (step 129). If the timer has not started, the routine proceeds to step 133. If the timer is running, the timer value is determined (step 130).
タイマの値が一定値Kを超えていればOS26に対し所定の命令を発行し(ステップ131)、表情カウンタをリセットする(ステップ132)。 If the timer value exceeds a certain value K, a predetermined command is issued to the OS 26 (step 131), and the facial expression counter is reset (step 132).
タイマの値が一定値Kを超えていない場合、ステップ133に移行する。表情の変化が検出される時間、つまり表情フラグが“ON”である状態が一定の時間継続して検出されることを契機にして操作者が意図的に表情を変化させたことを検知し、表情カウンタをインクリメントする。表情の変化を繰り返し実行すること(例えば、目を複数回閉じる)により表情カウンタの値が増加する。その後、表情の変化が検出されない時間、つまり表情フラグがOFFの状態が継続して検出されることを契機にして表情カウンタの値に対応した命令を送出する。 If the timer value does not exceed the constant value K, the process proceeds to step 133. Detecting when the change in facial expression is detected, that is, when the facial expression flag is “ON” continuously detected for a certain period of time, the operator intentionally changes the facial expression, Increment facial expression counter. The expression counter value is increased by repeatedly executing the expression change (for example, closing the eyes a plurality of times). Thereafter, a command corresponding to the value of the facial expression counter is sent when the facial expression change is not detected, that is, when the facial expression flag is continuously detected to be OFF.
以上がOS26に対する命令の送出判定のフローである。 The above is a flow for determining whether to send an instruction to the OS 26.
次に、ポインタの移動量Px,Pyを算出する(ステップ133)。表示装置13の縦横の画面サイズをそれぞれH,Wとする。また、操作者が顔を上下左右に動かした際の入力画像内でのテンプレート移動の上限および下限はそれぞれ(Xmin,Ymin),(Xmax,Ymax)であり、前述したように、x軸方向,y軸方向のテンプレート移動量はそれぞれdx,dyである。 Next, pointer movement amounts Px and Py are calculated (step 133). Let the vertical and horizontal screen sizes of the display device 13 be H and W, respectively. Also, the upper and lower limits of template movement in the input image when the operator moves his / her face up / down / left / right are (Xmin, Ymin) and (Xmax, Ymax), respectively. The template movement amounts in the y-axis direction are dx and dy, respectively.
テンプレートの移動範囲と表示装置13の縦横の画面サイズとの関係を定数Cx,Cyを用いて以下のように表す。 The relationship between the template movement range and the vertical and horizontal screen sizes of the display device 13 is expressed as follows using constants Cx and Cy.
W=Cx(Xmax−Xmin)
H=Cy(Ymax−Ymin)
定数Cx,Cyは、テンプレートの移動範囲と表示装置13の縦横の画面サイズとの比を表
しており、表示装置13上のポインタ位置の座標をCx,Cyおよびテンプレート移動量(dx,dy)を用いて以下のように定義する。
W = Cx (Xmax – Xmin)
H = Cy (Ymax-Ymin)
The constants Cx and Cy represent the ratio of the moving range of the template and the horizontal and vertical screen sizes of the display device 13, and the coordinates of the pointer position on the display device 13 are represented by Cx and Cy and the template moving amount (dx and dy). And defined as follows.
Px=Cx×dx
Py=Cy×dy
個々のフレームにおけるテンプレート位置座標を上記の式によって求める。これはテンプレートの移動量を拡大あるいは縮小し、表示装置13上に射影することを意味し、これにより、操作者が正面を向いて顔を静止させると、ポインタが画面中央で静止する一方、顔をいっぱいに移動させ、ステップ102におけるテンプレートToの移動の上限Xmax,Ymaxおよび下限Xmin,Yminに達すると顔を移動させた方向の画面の端にポインタが移動する。
Px = Cx × dx
Py = Cy × dy
The template position coordinates in each frame are obtained by the above formula. This means that the amount of movement of the template is enlarged or reduced and projected onto the display device 13, so that when the operator faces the front and stops the face, the pointer stops at the center of the screen, while the face When the upper limit Xmax, Ymax and the lower limits Xmin, Ymin of the movement of the template To in step 102 are reached, the pointer moves to the edge of the screen in the direction in which the face is moved.
表示装置13上の座標Px,Pyにポインタを移動させる(ステップ134)。 The pointer is moved to the coordinates Px, Py on the display device 13 (step 134).
一定時間の経過をタイマで計測する以外にカメラ2から得られる動画像のフレーム数をカウントし、カウント数が一定の値を超えた場合に意図的な表情の変化があったとみなすことができる。 In addition to measuring the passage of a certain time with a timer, the number of frames of the moving image obtained from the camera 2 is counted, and when the count exceeds a certain value, it can be considered that there has been an intentional facial expression change.
<<第2の実施の形態>>
第2の実施の形態は、操作者の特定の顔器官を追跡し、操作者が顔を向けた方向にマウスポインタを移動させる。その際、顔の移動量の大きさに対応してマウスポインタの移動速度を制御する。また、正面方向を向いているときの操作者の表情変化を検出することを契機に指示命令をOS26に対して発行するものである。
<< Second Embodiment >>
In the second embodiment, a specific facial organ of the operator is tracked, and the mouse pointer is moved in the direction in which the operator faces the face. At this time, the moving speed of the mouse pointer is controlled in accordance with the amount of movement of the face. In addition, an instruction command is issued to the OS 26 in response to detecting a change in the facial expression of the operator when facing the front direction.
図4は第2の実施形態のマウスの代替方法が実施される情報処理装置のハードウェア構成図で、図1に示す第1の実施形態とはポインタ座標算出部23Aと命令送出判定部24Aのみが異なっている。 FIG. 4 is a hardware configuration diagram of the information processing apparatus in which the mouse replacement method of the second embodiment is implemented. The first embodiment shown in FIG. 1 is different from the pointer coordinate calculation unit 23A and the command transmission determination unit 24A. Is different.
第2の実施形態のマウスの代替方法における処理を図4のフローチャートを用いて説明する。 Processing in the alternative method of the mouse according to the second embodiment will be described with reference to the flowchart of FIG.
なお、以降の処理ではカメラ2は固定であり、操作者の顔部分を撮影しているものとする。 In the following processing, the camera 2 is fixed, and it is assumed that the face portion of the operator is photographed.
まず、PCの操作者がカメラ2に対し静止した状態で眼、口、鼻等の顔器官を撮影した画像情報を画像Aとして記録し、続いて異なる表情で同一操作者の顔器官を撮影し、得られた画像情報を画像Bとして記録し、テンプレートTcに当該画像Bを登録する(ステップ201)。 First, image information of the facial organs such as the eyes, mouth, and nose is recorded as image A while the PC operator is stationary with respect to camera 2, and then the facial organs of the same operator are photographed with different facial expressions. The obtained image information is recorded as an image B, and the image B is registered in the template Tc (step 201).
テンプレートToの入力画像内での位置座標を基準点(XO,YO)として記録する(ステップ202)。 The position coordinates in the input image of the template To are recorded as reference points (XO, YO) (step 202).
操作者が顔を動かした際に基準点からの距離が一定値を超えたか否かを示す距離フラグの初期値を“OFF”に設定し、同時にテンプレートTcとマッチする領域の有無を示す表情フラグの初期値を“OFF”に設定する(ステップ203)。 Set the initial value of the distance flag indicating whether or not the distance from the reference point exceeds a certain value when the operator moves the face to “OFF”, and at the same time, the facial expression flag indicating whether or not there is a region that matches the template Tc Is set to “OFF” (step 203).
なお、以降のステップ204〜236はフレームが更新される間、一定周期で連続的に実行される。 The subsequent steps 204 to 236 are continuously executed at a constant period while the frame is updated.
フレームが更新されたか否かを判定する(ステップ204)。 It is determined whether or not the frame has been updated (step 204).
フレームが更新されない場合は処理を終了する(ステップ205)。 If the frame is not updated, the process ends (step 205).
一方、フレームが更新された場合には距離フラグの判定を行う(ステップ206)。距離フラグが“OFF”の場合、顔器官が基準点から一定の距離内にあるとみなし、テンプレートToに画像Aを登録する(ステップ207)。距離フラグが“ON”の場合、顔器官が基準点から一定の距離以上離れているとみなし、テンプレートToに画像Anを登録する(ステップ208)。ここで、画像Anは過去のフレームでテンプレートと最もよくマッチした領域の画像情報であり、t番目のフレーム処理の際にはt―1番目のフレーム処理における画像情報がテンプレートとして用いられる。 On the other hand, if the frame is updated, the distance flag is determined (step 206). If the distance flag is “OFF”, the facial organ is considered to be within a certain distance from the reference point, and the image A is registered in the template To (step 207). If the distance flag is “ON”, it is considered that the facial organ is more than a certain distance from the reference point, and the image An is registered in the template To (step 208). Here, the image An is image information of a region that best matches the template in the past frame, and the image information in the t-1st frame processing is used as a template in the t-th frame processing.
正面を撮影してテンプレートを作成した場合、顔の微小範囲だけ動かしても撮像された画像における当該顔領域の歪みは小さいため、一致度の高い領域が抽出されやすい。一方、顔を大きく動かした場合、器官部分における画像の歪みが大きくなるため、単一のテンプレートでは検出が困難になる。そのため、一定範囲より大きく移動した場合には、過去のフレームでテンプレートToと最もよくマッチした領域の画像情報を新たなテンプレートToとして用いる。 When a template is created by photographing the front side, even if only a small range of the face is moved, the distortion of the face area in the captured image is small, so that a region with a high degree of coincidence is easily extracted. On the other hand, when the face is moved greatly, the distortion of the image in the organ part increases, so that it is difficult to detect with a single template. For this reason, when moving more than a certain range, image information of an area that best matches the template To in the past frame is used as a new template To.
一致度Pの計算を行う(ステップ209)。具体的な計算は前述した残差や相互相関係数を用いる。一致度Pの大小を比較してテンプレートToと最もよく一致する領域の入力画像内での座標(x, y)をテンプレート位置座標として記録する(ステップ210)。 The degree of coincidence P is calculated (step 209). The specific calculation uses the above-described residual and cross-correlation coefficient. The degree of coincidence P is compared and the coordinates (x, y) in the input image of the area that best matches the template To are recorded as the template position coordinates (step 210).
テンプレート位置座標(x, y)と操作基準点(X0, Y0)との距離Dおよびテンプレート位置座標の操作基準点からの方向θを計算する(ステップ211)。 The distance D between the template position coordinates (x, y) and the operation reference point (X0, Y0) and the direction θ from the operation reference point of the template position coordinates are calculated (step 211).
x軸方向、y軸方向のテンプレート移動量をそれぞれdx, dyとすれば
dx=x―X0
dy=y―Y0
であり、距離Dは以下の式で求められる。
If the amount of template movement in the x-axis and y-axis directions is dx and dy, respectively
dx = x-X0
dy = y-Y0
And the distance D is obtained by the following equation.
方向θは以下の式で求められる
θ=tan-1 (dy/dx)
距離Dと予め定義したしきい値T1とを比較する(ステップ212)。0≦D<T1であった場合、マウスポインタの移動量VをV1にセットする(ステップ213)。0≦D<T1でなかった場合、ステップ214に移行し、予め定義したしきい値T1およびT2(T1<T2)と距離Dとを比較する(ステップ214)。T1≦D<T2であった場合、マウスポインタの移動量VをV2にセットする(ステップ215)。T1≦D<T2でなかった場合、マウスポインタの移動量VをV3にセットする(ステップ216)。
The direction θ can be obtained by the following equation: θ = tan-1 (dy / dx)
The distance D is compared with a predefined threshold value T1 (step 212). If 0 ≦ D <T1, the moving amount V of the mouse pointer is set to V1 (step 213). If 0 ≦ D <T1, the process proceeds to step 214, and the thresholds T1 and T2 (T1 <T2) defined in advance are compared with the distance D (step 214). If T1 ≦ D <T2, the moving amount V of the mouse pointer is set to V2 (step 215). If T1 ≦ D <T2 is not satisfied, the moving amount V of the mouse pointer is set to V3 (step 216).
距離Dと距離しきい値Thとを比較する(ステップ217)。もし、D≦Thであれば距離フラグを“ON”に設定する(ステップ218)。さらに、入力画像内においてテンプレートToとの一致度Pが最も高かった領域を新たなテンプレート画像Anとして登録する(ステップ219)。一方、D<Thであれば距離フラグを“OFF”に設定する(ステップ220)。 The distance D is compared with the distance threshold Th (step 217). If D ≦ Th, the distance flag is set to “ON” (step 218). Further, the region having the highest matching degree P with the template To in the input image is registered as a new template image An (step 219). On the other hand, if D <Th, the distance flag is set to “OFF” (step 220).
以降のフローチャートでは、OS26に対する命令の送出判定を行う。 In the subsequent flowcharts, it is determined whether to send an instruction to the OS 26.
テンプレート位置座標(x, y)の近傍でテンプレートTcとの一致度Qを計算する(ステップ221)。一致度Qの具体的な計算は前述した残差や相互相関係数を用いる。 The degree of coincidence Q with the template Tc is calculated in the vicinity of the template position coordinate (x, y) (step 221). The specific calculation of the coincidence Q uses the above-described residual and cross-correlation coefficient.
一致度Qをしきい値Tと比較する(ステップ222)。なお、一致度QをテンプレートToとの一致度Pと比較してもよい。 The degree of coincidence Q is compared with a threshold value T (step 222). Note that the degree of coincidence Q may be compared with the degree of coincidence P with the template To.
ここで、Q≧Tの場合、表情フラグの判定を行う(ステップ223)。表情フラグが“ON”の場合、ステップ236に移行する。一方、表情フラグが“OFF”の場合は表情フラグを“ON”に設定し(ステップ224)、同時にこのときの時刻t1を記録する(ステップ225)。 Here, if Q ≧ T, the facial expression flag is determined (step 223). If the facial expression flag is “ON”, the process proceeds to step 236. On the other hand, when the facial expression flag is “OFF”, the facial expression flag is set to “ON” (step 224), and at the same time, the time t1 at this time is recorded (step 225).
一方、Q<Tの場合、ステップ223と同様の表情フラグの判定を行う(ステップ226)。表情フラグが“OFF”であればステップ232に移行する。表情フラグが既に“ON”であれば表情フラグを“OFF”に設定する(ステップ227)。同時にこのときの時刻t2を記録する(ステップ228)。時刻t2と時刻t1の差分が一定値以内にあるか否かを判定する(ステップ229)。時刻t2と時刻t1の差分が一定値以内にある場合、タイマを起動し“ON”にする(ステップ230)。さらに、表情カウンタをインクリメントする(ステップ231)。時刻t2と時刻t1の差分が一定値以内にない場合、ステップ232に移行し、タイマの起動有無を判定する(ステップ232)。タイマが起動していない場合はステップ236に移行する。タイマが起動している場合、タイマの値を判定する(ステップ233)。タイマの値が一定値Kを超えていればOS26に対し所定の命令を発行し(ステップ234)、表情カウンタをリセットする(ステップ235)。タイマの値が一定値Kを超えていない場合、ステップ236に移行する。 On the other hand, if Q <T, the facial expression flag is determined in the same manner as in step 223 (step 226). If the facial expression flag is “OFF”, the process proceeds to step 232. If the facial expression flag is already “ON”, the facial expression flag is set to “OFF” (step 227). At the same time, the time t2 at this time is recorded (step 228). It is determined whether or not the difference between time t2 and time t1 is within a certain value (step 229). If the difference between the time t2 and the time t1 is within a certain value, the timer is activated and turned “ON” (step 230). Further, the facial expression counter is incremented (step 231). If the difference between the time t2 and the time t1 is not within a certain value, the process proceeds to step 232, and it is determined whether or not the timer is activated (step 232). If the timer has not been started, the process proceeds to step 236. If the timer is activated, the timer value is determined (step 233). If the timer value exceeds a certain value K, a predetermined command is issued to the OS 26 (step 234), and the facial expression counter is reset (step 235). If the value of the timer does not exceed the constant value K, the process proceeds to step 236.
表情の変化が検出される時間、つまり表情フラグが“ON”である状態が一定の時間継続して検出されることを契機にして操作者が意図的に表情を変化させたことを検知し、表情カウンタをインクリメントする。 Detecting when the change in facial expression is detected, that is, when the facial expression flag is “ON” continuously detected for a certain period of time, the operator intentionally changes the facial expression, Increment facial expression counter.
表情が変化した回数を用いて種々の命令をOS26に送出する場合には、連続した入力と個別の入力とを区別する必要がある。そのため、表情カウンタを用いる。 When various commands are sent to the OS 26 using the number of times the facial expression has changed, it is necessary to distinguish between continuous input and individual input. Therefore, a facial expression counter is used.
表情の変化を繰り返し実行すること(例えば、目を複数回閉じる)により表情カウンタの値が増加する。その後、表情の変化検出されない時間、つまり表情フラグが“OFF”の状態が継続して検出されることを契機にして表情カウンタの値に対応した命令を送出する。 The expression counter value is increased by repeatedly executing the expression change (for example, closing the eyes a plurality of times). Thereafter, a command corresponding to the value of the facial expression counter is sent when the facial expression change is not detected, that is, when the facial expression flag is continuously detected as “OFF”.
以上がOS26に対する命令の送出判定のフローである。 The above is a flow for determining whether to send an instruction to the OS 26.
ステップ211で求められた方向θに、ステップ212〜216で求められた移動量Vだけマウスポインタを移動させる(ステップ236)。 The mouse pointer is moved in the direction θ obtained in step 211 by the movement amount V obtained in steps 212 to 216 (step 236).
ステップ212〜216においてV1=停止、V2=移動量小、V3=移動量大とすれば、しきい値が一定値より大きいとき、意図的に顔を動かしたとみなしてマウスポインタを顔の向きの方向に、顔の向きの量に応じた距離だけ移動させ、しきい値が一定値より小さいとき、すなわち顔の移動量が非常に小さい場合にはマウスポインタを移動させないようにすることができる。これにより意図しない顔の動きによって、マウスポインタが勝手に移動することを防ぐことができる。 If V1 = stop, V2 = small movement amount, and V3 = large movement amount in steps 212 to 216, when the threshold value is larger than a certain value, it is considered that the face has been moved intentionally and the mouse pointer is moved to the direction of the face. The mouse pointer can be prevented from moving when the threshold value is smaller than a certain value, that is, when the movement amount of the face is very small. As a result, it is possible to prevent the mouse pointer from moving unintentionally due to unintended face movements.
また、本実施形態ではマウスポインタの移動量を距離Dと2つのしきい値T1、T2(T1<T2)との大小関係に応じて決定するが、しきい値を多数用意し、距離Dとの大小関係に応じてマウスポインタの移動量を細かく設定することで、マウスポインタの速度制御がより細かく行えることは言うまでもない。 In this embodiment, the amount of movement of the mouse pointer is determined according to the magnitude relationship between the distance D and the two threshold values T1 and T2 (T1 <T2). Needless to say, by finely setting the amount of movement of the mouse pointer according to the size relationship, the speed control of the mouse pointer can be performed more finely.
さらに、本実施形態では顔の向きによって、任意の方向にマウスポインタを移動させるが、操作者の運動能力によっては顔の向きの微調整が困難な場合がある。そのような場合には、上下左右および斜め方向を含む8方向あるいは16方向を予め決めておき、θの値と最も近い方向にマウスポインタを移動させることにより、操作者は大まかな動きだけを組み合わせて所望の位置にマウスポインタを移動させることもできる。 Furthermore, in the present embodiment, the mouse pointer is moved in an arbitrary direction depending on the face direction, but fine adjustment of the face direction may be difficult depending on the movement ability of the operator. In such a case, 8 directions or 16 directions including up / down / left / right and diagonal directions are determined in advance, and the operator moves only the rough movement by moving the mouse pointer in the direction closest to the value of θ. The mouse pointer can be moved to a desired position.
<<第3の実施の形態>>
第3の実施形態は、操作者の特定の顔器官を追跡し、操作者が顔を向けた方向にマウスポインタを移動させる。その際、顔の移動量の大きさに対応してマウスポインタの移動速度を制御する。また、正面方向に向いているときの操作者の表情変化を検出することを契機に指示命令をOSに対して発行するものである。
<< Third Embodiment >>
In the third embodiment, a specific facial organ of the operator is tracked, and the mouse pointer is moved in the direction in which the operator faces the face. At this time, the moving speed of the mouse pointer is controlled in accordance with the amount of movement of the face. In addition, an instruction command is issued to the OS in response to detecting a change in the expression of the operator when facing the front direction.
図6は第3の実施形態のマウスの代替方法が実施される情報処理装置のハードウェア構成図で、図1の第1実施形態のものに、マウス代替プログラム20として、さらに入力補助領域表示部25を有し、命令送出判定部24Bが異なっている。 FIG. 6 is a hardware configuration diagram of the information processing apparatus in which the mouse replacement method of the third embodiment is implemented. In addition to the first embodiment of FIG. 25, and the command transmission determination unit 24B is different.
入力補助領域表示部25を図7を用いて説明する。 The input auxiliary area display unit 25 will be described with reference to FIG.
図7(a)は入力補助領域表示部25が提示する指示命令の一覧であり、シングルクリック、ダブルクリック等のマウスボタンに係る複数の指示命令を操作者に対して周期的に提示する。図7(b)は補助表示の例であり、シングルクリック、ダブルクリック等の動作名を一定の時間間隔で順次ハイライト表示するものである。図7(b)において、ハッチ表示されている矩形は現在有効な指示命令を表す。個々の指示命令は、所定の周期で繰り返し提示され、操作者は所望の指示命令が提示されたことに合わせて所定の動作を1回行うことにより、そのときに提示されている指示命令をOS26に通知する。 FIG. 7A is a list of instruction commands presented by the input auxiliary area display unit 25, and periodically presents a plurality of instruction commands related to mouse buttons such as single click and double click to the operator. FIG. 7B shows an example of auxiliary display, in which operation names such as single click and double click are sequentially highlighted at regular time intervals. In FIG. 7B, a hatched rectangle represents an instruction command that is currently valid. The individual instruction commands are repeatedly presented at a predetermined cycle, and the operator performs a predetermined operation once in accordance with the presentation of the desired instruction command, so that the instruction command presented at that time is changed to the OS 26. Notify
第3の実施形態のマウスの代替方法における動作を図8のフローチャートを用いて説明する。 The operation in the alternative method of the mouse according to the third embodiment will be described with reference to the flowchart of FIG.
なお、以降の処理ではカメラ2は固定であり、操作者の顔部分を撮影しているものとする。 In the following processing, the camera 2 is fixed, and it is assumed that the face portion of the operator is photographed.
まず、PCの操作者がカメラに対し静止した状態で目、口、鼻等の顔器官を撮影した画像情報を画像Aとして記録し、続いて異なる表情で同一操作者の顔器官を撮影し、得られた画像情報を画像Bとして記録し、テンプレートTcに画像Bを登録する(ステップ301)。 First, record the image information of the facial organs such as eyes, mouth, nose, etc. while the PC operator is stationary with respect to the camera as image A, and then photograph the facial organs of the same operator with different facial expressions, The obtained image information is recorded as an image B, and the image B is registered in the template Tc (step 301).
テンプレートToの入力画像内での位置座標を基準点(X0, Y0)として記録する(ステップ302)。 The position coordinates in the input image of the template To are recorded as reference points (X0, Y0) (step 302).
操作者が顔を動かした際に基準点からの距離が一定値を超えたか否かを示す距離フラグの初期値を“OFF”に設定し、同時にテンプレートTcとマッチする領域の有無を示す表情フラグの初期値を“OFF”に設定する(ステップ303)。 Set the initial value of the distance flag indicating whether or not the distance from the reference point exceeds a certain value when the operator moves the face to “OFF”, and at the same time, the facial expression flag indicating whether or not there is a region that matches the template Tc Is set to “OFF” (step 303).
なお、以降のステップ304〜332はフレームが更新される間、一定周期で連続的に
実行される。
The subsequent steps 304 to 332 are continuously executed at a constant period while the frame is updated.
フレームが更新されたか否かを判定する(ステップ304)。 It is determined whether or not the frame has been updated (step 304).
フレームが更新されない場合は処理を終了する(ステップ305)。 If the frame is not updated, the process ends (step 305).
一方、フレームが更新された場合には距離フラグの判定を行う(ステップ306)。距離フラグが“OFF”の場合、顔器官が基準点から一定の距離内にあるとみなし、テンプレートToに画像Aを登録する(ステップ307)。距離フラグが“ON”の場合、顔器官が基準点から一定の距離以上離れているとみなし、テンプレートToに画像Anを登録する(ステップ308)。ここで、画像Anは過去のフレームでテンプレートToと最もよくマッチした領域の画像情報であり、t番目のフレーム処理の際にはt―1番目のフレーム処理における画像情報がテンプレートToとして用いられる。 On the other hand, when the frame is updated, the distance flag is determined (step 306). If the distance flag is “OFF”, the facial organ is considered to be within a certain distance from the reference point, and the image A is registered in the template To (step 307). If the distance flag is “ON”, it is considered that the facial organ is more than a certain distance from the reference point, and the image An is registered in the template To (step 308). Here, the image An is image information of an area that best matches the template To in the past frame, and the image information in the t−1th frame processing is used as the template To in the t-th frame processing.
一致度Pの計算を行う(ステップ309)。具体的な計算は前述した残差や相互相関係数を用いる。 The degree of coincidence P is calculated (step 309). The specific calculation uses the above-described residual and cross-correlation coefficient.
一致度Pの大小を比較してテンプレートToと最もよく一致する領域の入力画像内での座標(x, y)をテンプレート位置座標として記録する(ステップ310)。 The degree of coincidence P is compared and the coordinates (x, y) in the input image of the area that best matches the template To are recorded as the template position coordinates (step 310).
テンプレート位置座標(x, y)と操作基準点(X0, Y0)との距離Dおよびテンプレート位置座標の操作基準点からの方向θを計算する(ステップ311)。 A distance D between the template position coordinates (x, y) and the operation reference point (X0, Y0) and a direction θ from the operation reference point of the template position coordinates are calculated (step 311).
x軸方向、y軸方向のテンプレート移動量をそれぞれdx, dyとすれば
dx=x―X0
dy=y―Y0
であり、距離Dは以下の式で求められる。
If the amount of template movement in the x-axis and y-axis directions is dx and dy, respectively
dx = x-X0
dy = y-Y0
And the distance D is obtained by the following equation.
方向θは以下の式で求められる The direction θ is obtained by the following formula
θ=tan-1 (dy/dx)
距離Dと予め定義したしきい値T1とを比較する(ステップ312)。0≦D<T1であった場合、マウスポインタの移動量VをV1にセットする(ステップ313)。0≦D<T1でなかった場合、ステップ314に移行し、定義したしきい値T1および距離しきい値T2(T1<T2)と距離Dとを比較する(ステップ314)。T1≦D<T2であった場合、マウスポインタの移動量VをV2にセットする(ステップ315)。T1≦D<T2でなかった場合、マウスポインタの移動量VをV3にセットする(ステップ316)。
θ = tan-1 (dy / dx)
The distance D is compared with a predefined threshold value T1 (step 312). If 0 ≦ D <T1, the moving amount V of the mouse pointer is set to V1 (step 313). If 0 ≦ D <T1, the process proceeds to step 314, where the defined threshold value T1 and distance threshold value T2 (T1 <T2) are compared with the distance D (step 314). If T1 ≦ D <T2, the movement amount V of the mouse pointer is set to V2 (step 315). If T1 ≦ D <T2 is not satisfied, the moving amount V of the mouse pointer is set to V3 (step 316).
距離Dと距離しきい値Thとを比較する(ステップ317)。もし、D≦Thであれば距離フラグを“ON”に設定する(ステップ318)。さらに、入力画像内においてテンプレートToとの一致度Pが最も高かった領域を新たなテンプレート画像Anとして登録する(ステップ319)。一方、D<Thであれば距離フラグを“OFF”に設定する(ステップ320)。 The distance D is compared with the distance threshold Th (step 317). If D ≦ Th, the distance flag is set to “ON” (step 318). Further, the region having the highest matching degree P with the template To in the input image is registered as a new template image An (step 319). On the other hand, if D <Th, the distance flag is set to “OFF” (step 320).
以降のフローチャートでは、OS26に対する命令の送出判定を行う。 In the subsequent flowcharts, it is determined whether to send an instruction to the OS 26.
テンプレート位置座標(x, y)の近傍でテンプレートTcとの一致度Qを計算する(ステップ321)。一致度Qの具体的な計算は前述した残差や相互相関係数を用いる。 The degree of coincidence Q with the template Tc is calculated in the vicinity of the template position coordinate (x, y) (step 321). The specific calculation of the coincidence Q uses the above-described residual and cross-correlation coefficient.
一致度Qをしきい値Tと比較する(ステップ322)。なお、一致度QをテンプレートToとの一致度Pと比較してもよい。 The degree of coincidence Q is compared with a threshold value T (step 322). Note that the degree of coincidence Q may be compared with the degree of coincidence P with the template To.
ここで、Q≧Tの場合、表情フラグの判定を行う(ステップ323)。表情フラグが“ON”の場合、ステップ332に移行する。一方、表情フラグが“OFF”の場合は表情フラグを“ON”に設定し(ステップ324)、同時にこのときの時刻t1を記録する(ステップ325)。また、このとき提示されている指示命令を保持する(ステップ326)。 If Q ≧ T, the facial expression flag is determined (step 323). When the facial expression flag is “ON”, the process proceeds to step 332. On the other hand, if the facial expression flag is “OFF”, the facial expression flag is set to “ON” (step 324), and at the same time the time t1 is recorded (step 325). Further, the instruction command presented at this time is held (step 326).
一方、Q<Tの場合、ステップ323と同様の表情フラグの判定を行う(ステップ327)。表情フラグが“OFF”であればステップ332に移行する。表情フラグが既に“ON”であれば表情フラグを“OFF”に設定する(ステップ328)。同時にこのときの時刻t2を記録する(ステップ329)。時刻t2と時刻t1の差分が一定値以内にあるか否かを判定する(ステップ330)。時刻t2と時刻t1の差分が一定値以内にない場合、ステップ332に移行する。時刻t2と時刻t1の差分が一致値以上であった場合、ステップ326で保持された指示命令をOS26に通知する(ステップ331)。
表情の変化が検出される時間、つまり表情フラグが“ON”である状態が一定の時間継続して検出されることを契機にして操作者が意図的に表情を変化させたことを検知し、そのときに提示されている指示命令をOSに通知する。
On the other hand, if Q <T, the facial expression flag is determined in the same manner as in step 323 (step 327). If the facial expression flag is “OFF”, the process proceeds to step 332. If the facial expression flag is already “ON”, the facial expression flag is set to “OFF” (step 328). At the same time, the time t2 at this time is recorded (step 329). It is determined whether or not the difference between time t2 and time t1 is within a certain value (step 330). When the difference between the time t2 and the time t1 is not within a certain value, the process proceeds to step 332. If the difference between the time t2 and the time t1 is equal to or greater than the coincidence value, the instruction command held in step 326 is notified to the OS 26 (step 331).
Detecting the time when the facial expression change is detected, that is, when the facial expression flag is “ON” being detected continuously for a certain period of time, the operator intentionally changes the facial expression, The instruction command presented at that time is notified to the OS.
以上がOS26に対する命令の送出判定のフローである。 The above is the flow for determining whether to send an instruction to the OS 26.
ステップ311で求められた方向θに、ステップ312〜316で求められた移動量Vだけマウスポインタを移動させる(ステップ332)。 The mouse pointer is moved in the direction θ obtained in step 311 by the movement amount V obtained in steps 312 to 316 (step 332).
ステップ312〜316においてV1=停止、V2=移動量小、V3=移動量大とすれば、しきい値が一定値より大きいとき、意図的に顔を動かしたとみなしてマウスポインタを顔の向きの方向に、顔の向きの量に応じた距離だけ移動させ、しきい値が一定値より小さいとき、すなわち顔器官の移動量が非常に小さい場合にはマウスポインタを移動させないようにすることができる。これにより意図しない顔の動きによって、マウスポインタが勝手に移動することを防ぐことができる。 In steps 312 to 316, if V1 = stop, V2 = small movement amount, and V3 = large movement amount, when the threshold value is larger than a certain value, it is considered that the face has been moved intentionally, and the mouse pointer is changed to the face orientation. It can be moved in the direction by a distance corresponding to the amount of face orientation, and the mouse pointer can be prevented from moving when the threshold value is smaller than a certain value, that is, when the movement amount of the facial organ is very small. . As a result, it is possible to prevent the mouse pointer from moving unintentionally due to unintended face movements.
また、本実施形態ではマウスポインタの移動量を距離Dと2つのしきい値T1、T2(T1<T2)との大小関係に応じて決定するが、しきい値を多数用意し、距離Dとの大小関係に応じてマウスポインタの移動量を細かく設定することで、マウスポインタの速度制御がより細かく行えることは言うまでもない。 In this embodiment, the amount of movement of the mouse pointer is determined according to the magnitude relationship between the distance D and the two threshold values T1 and T2 (T1 <T2). Needless to say, by finely setting the amount of movement of the mouse pointer according to the size relationship, the speed control of the mouse pointer can be performed more finely.
さらに、本実施形態では顔の向きによって、任意の方向にマウスポインタを移動させるが、操作者の運動能力によっては顔の向きの微調整が困難な場合がある。そのような場合には、上下左右および斜め方向を含む8方向あるいは16方向を予め決めておき、θの値と最も近い方向にマウスポインタを移動させることにより、操作者は大まかな動きだけを組み合わせて所望の位置にマウスポインタを移動させることもできる。 Furthermore, in the present embodiment, the mouse pointer is moved in an arbitrary direction depending on the face direction, but fine adjustment of the face direction may be difficult depending on the movement ability of the operator. In such a case, 8 directions or 16 directions including up / down / left / right and diagonal directions are determined in advance, and the operator moves only the rough movement by moving the mouse pointer in the direction closest to the value of θ. The mouse pointer can be moved to a desired position.
なお、マウス代替プログラム20は、フロッピー(登録商標)ディスク、CD−ROM、光磁気ディスク、DVD等の可搬性の記録媒体に記録してもよい。
[発明の効果]
The mouse substitute program 20 may be recorded on a portable recording medium such as a floppy (registered trademark) disk, a CD-ROM, a magneto-optical disk, or a DVD.
[The invention's effect]
以上説明したように、本発明は下記のような効果がある。 As described above, the present invention has the following effects.
第1のテンプレート画像としてPCの操作者の目、口、鼻等の顔器官の画像情報を用い、これを追跡することにより、当該操作者が顔を上下左右に動かすことによってPCのマウスポインタを上下左右に移動させることが可能であり、頭を上下左右に動かすことにより、ポインタをディスプレイ上で移動/静止させ、従来のマウスポインタに代わるポインティングデバイスとしての機能を果たすことができる。 Using the image information of the facial organs such as the eyes, mouth, and nose of the PC operator as the first template image, and tracking this, the operator moves the face up, down, left, and right to move the PC mouse pointer. It can be moved up, down, left and right, and by moving the head up, down, left, and right, the pointer can be moved / rested on the display and can function as a pointing device that replaces the conventional mouse pointer.
目を閉じる、口を開ける等、意図的に表情を変化させた際の目、口、鼻等の顔器官の画像情報を第2のテンプレート画像として予め登録しておくことで、操作者が一定時間にわたって意図的に目を閉じる、口を開ける等の意図的な動作を行った場合、これを検出してマウスのクリックに相当する指示指令をOSに発行することができる。 By registering image information of facial organs such as eyes, mouth, nose, etc. when the expression is intentionally changed, such as closing eyes or opening the mouth, as a second template image, the operator can keep constant When an intentional operation such as intentionally closing eyes or opening a mouth is performed over time, this can be detected and an instruction command corresponding to a mouse click can be issued to the OS.
目を閉じる、口を開ける等の予め登録した動作を所定の時間行うことによって、周期的に提示されるマウスコマンドの中から1つを選択することができる。 By performing a pre-registered operation such as closing eyes or opening a mouth for a predetermined time, one of mouse commands presented periodically can be selected.
操作者が顔を上下左右に動かすことによってPC画面の中央を原点として上下左右にマウスポインタを移動させることができる。 When the operator moves his / her face up / down / left / right, the mouse pointer can be moved up / down / left / right with the center of the PC screen as the origin.
操作者が顔を動かす向きによってマウスポインタを移動方向を制御でき、顔の移動量の大きさによって、マウスポインタの移動速度を制御することができる。 The moving direction of the mouse pointer can be controlled by the direction in which the operator moves the face, and the moving speed of the mouse pointer can be controlled by the amount of movement of the face.
操作者が顔を動かし、基準点から微小距離だけ顔を動かした場合には、同一の画像情報をテンプレートとして用いることにより処理の高速化を図る一方、顔を一定値以上動かした場合については、現在のフレーム内でテンプレートと最も一致する領域を時間のテンプレートとして逐次登録し、テンプレートとする画像情報を変更していくことによって、マッチングの精度を高めることができる。 When the operator moves the face and moves the face by a minute distance from the reference point, the same image information is used as a template to speed up the process. The region of the current frame that most closely matches the template is sequentially registered as a time template, and the image information used as the template is changed, thereby improving the matching accuracy.
1 情報処理装置
2 カメラ
11 主制御装置
12 記憶装置
13 表示装置
14 動画像取得装置
15 バス
20 マウス代替プログラム
21 テンプレート画像登録部
22 テンプレートマッチング部
23,23A,23B ポインタ座標算出部
24,24A,24B 命令送出判定部
25 入力補助領域表示部
26 OS
27 アプリケーションプログラム
101〜134、201〜236、301〜332 ステップ
DESCRIPTION OF SYMBOLS 1 Information processing apparatus 2 Camera 11 Main controller 12 Storage apparatus 13 Display apparatus 14 Moving image acquisition apparatus 15 Bus 20 Mouse substitute program 21 Template image registration part 22 Template matching part 23, 23A, 23B Pointer coordinate calculation part 24, 24A, 24B Command sending judgment part 25 Input auxiliary area display part 26 OS
27 Application programs 101-134, 201-236, 301-332 steps
Claims (6)
同時に入力画像における前記画像の位置を、ポインタの移動量および移動方向計算の基準となる点である操作基準点として登録し、
撮像機器を経由しフレーム単位で入力される入力画像内で前記第1のテンプレートが最も良く一致する領域の座標であるテンプレート位置座標を検出し、
前記テンプレート位置座標と前記操作基準点の座標とから次フレームにおけるマウスポインタの位置座標を算出し、
該座標にマウスポインタを移動させ、
前記操作者を撮影した入力画像から第1のテンプレートと同一の顔器官の異なる表情における画像情報を切り出して第2のテンプレートとして登録しておき、
入力画像内で第2のテンプレートを検出し、
第2のテンプレートが予め定められた時間あるいはフレーム数にわたって継続的に検出された場合、これを1単位として表情カウンタの値を計数し、
前記計数された表情カウンタの値に応じて予め登録された指示命令をOSに対して発行する、マウス代替方法。 An image obtained by cutting out a facial organ from one frame of an input image obtained by photographing a face part of a computer operator is registered as a first template,
At the same time, the position of the image in the input image is registered as an operation reference point, which is a reference point for calculating the amount and direction of movement of the pointer.
Detecting a template position coordinate which is a coordinate of an area where the first template is best matched in an input image input in frame units via an imaging device;
Calculate the position coordinate of the mouse pointer in the next frame from the template position coordinates and the coordinates of the operation reference point,
Move the mouse pointer to the coordinates,
Image information on a different facial expression of the same facial organ as the first template is cut out from the input image obtained by photographing the operator and registered as a second template,
Detect the second template in the input image,
When the second template is continuously detected over a predetermined time or frame number, the value of the expression counter is counted with this as one unit,
A mouse replacement method of issuing an instruction command registered in advance according to a value of the counted facial expression counter to the OS.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007224980A JP2007310914A (en) | 2007-08-31 | 2007-08-31 | Mouse alternating method, mouse alternating program and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007224980A JP2007310914A (en) | 2007-08-31 | 2007-08-31 | Mouse alternating method, mouse alternating program and recording medium |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001127638A Division JP4025516B2 (en) | 2001-04-25 | 2001-04-25 | Mouse replacement method, mouse replacement program, and recording medium recording the program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007310914A true JP2007310914A (en) | 2007-11-29 |
Family
ID=38843651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007224980A Pending JP2007310914A (en) | 2007-08-31 | 2007-08-31 | Mouse alternating method, mouse alternating program and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007310914A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2464486A (en) * | 2008-10-16 | 2010-04-21 | Shafir Production Systems Ltd | Control of a robotic arm by the recognition and analysis of facial gestures. |
CN101714025B (en) * | 2008-09-29 | 2012-09-05 | 株式会社日立制作所 | Input apparatus |
JP2013109590A (en) * | 2011-11-21 | 2013-06-06 | Lapis Semiconductor Co Ltd | Image processing apparatus, image processing system, image processing method and program |
CN103336577A (en) * | 2013-07-04 | 2013-10-02 | 宁波大学 | Mouse control method based on facial expression recognition |
US9377851B2 (en) | 2012-03-29 | 2016-06-28 | Sony Corporation | Information processing apparatus, information processing method, and computer program |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61199178A (en) * | 1985-03-01 | 1986-09-03 | Nippon Telegr & Teleph Corp <Ntt> | Information input system |
JPH05232908A (en) * | 1992-02-19 | 1993-09-10 | Toshiba Corp | Instruction input device |
JPH0764709A (en) * | 1993-08-26 | 1995-03-10 | Olympus Optical Co Ltd | Instruction processor |
JPH07141098A (en) * | 1993-11-17 | 1995-06-02 | Nippon Telegr & Teleph Corp <Ntt> | Coordinate input device |
JPH0844490A (en) * | 1994-07-28 | 1996-02-16 | Matsushita Electric Ind Co Ltd | Interface device |
JPH08322796A (en) * | 1995-05-29 | 1996-12-10 | Sharp Corp | Method and apparatus for detecting direction of visual axis and man-machine interface apparatus containing the same |
JPH09305743A (en) * | 1996-05-20 | 1997-11-28 | Toshiba Corp | Human face motion detecting system |
JPH1020998A (en) * | 1996-06-28 | 1998-01-23 | Osaka Kagaku Gijutsu Center | Position indication device |
JPH11175246A (en) * | 1997-12-12 | 1999-07-02 | Toshiba Corp | Sight line detector and method therefor |
JP2000172163A (en) * | 1998-09-28 | 2000-06-23 | Matsushita Electric Ind Co Ltd | Manual operation segmenting method/device |
JP2002323956A (en) * | 2001-04-25 | 2002-11-08 | Nippon Telegr & Teleph Corp <Ntt> | Mouse alternating method, mouse alternating program and recording medium recording the same program |
-
2007
- 2007-08-31 JP JP2007224980A patent/JP2007310914A/en active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61199178A (en) * | 1985-03-01 | 1986-09-03 | Nippon Telegr & Teleph Corp <Ntt> | Information input system |
JPH05232908A (en) * | 1992-02-19 | 1993-09-10 | Toshiba Corp | Instruction input device |
JPH0764709A (en) * | 1993-08-26 | 1995-03-10 | Olympus Optical Co Ltd | Instruction processor |
JPH07141098A (en) * | 1993-11-17 | 1995-06-02 | Nippon Telegr & Teleph Corp <Ntt> | Coordinate input device |
JPH0844490A (en) * | 1994-07-28 | 1996-02-16 | Matsushita Electric Ind Co Ltd | Interface device |
JPH08322796A (en) * | 1995-05-29 | 1996-12-10 | Sharp Corp | Method and apparatus for detecting direction of visual axis and man-machine interface apparatus containing the same |
JPH09305743A (en) * | 1996-05-20 | 1997-11-28 | Toshiba Corp | Human face motion detecting system |
JPH1020998A (en) * | 1996-06-28 | 1998-01-23 | Osaka Kagaku Gijutsu Center | Position indication device |
JPH11175246A (en) * | 1997-12-12 | 1999-07-02 | Toshiba Corp | Sight line detector and method therefor |
JP2000172163A (en) * | 1998-09-28 | 2000-06-23 | Matsushita Electric Ind Co Ltd | Manual operation segmenting method/device |
JP2002323956A (en) * | 2001-04-25 | 2002-11-08 | Nippon Telegr & Teleph Corp <Ntt> | Mouse alternating method, mouse alternating program and recording medium recording the same program |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101714025B (en) * | 2008-09-29 | 2012-09-05 | 株式会社日立制作所 | Input apparatus |
GB2464486A (en) * | 2008-10-16 | 2010-04-21 | Shafir Production Systems Ltd | Control of a robotic arm by the recognition and analysis of facial gestures. |
JP2013109590A (en) * | 2011-11-21 | 2013-06-06 | Lapis Semiconductor Co Ltd | Image processing apparatus, image processing system, image processing method and program |
US9377851B2 (en) | 2012-03-29 | 2016-06-28 | Sony Corporation | Information processing apparatus, information processing method, and computer program |
US10037078B2 (en) | 2012-03-29 | 2018-07-31 | Sony Corporation | Information processing apparatus, information processing method, and computer program |
US10437324B2 (en) | 2012-03-29 | 2019-10-08 | Sony Corporation | Information processing apparatus, information processing method, and computer program |
CN103336577A (en) * | 2013-07-04 | 2013-10-02 | 宁波大学 | Mouse control method based on facial expression recognition |
CN103336577B (en) * | 2013-07-04 | 2016-05-18 | 宁波大学 | A kind of mouse control method based on human face expression identification |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10511778B2 (en) | Method and apparatus for push interaction | |
JP5412227B2 (en) | Video display device and display control method thereof | |
JP5205187B2 (en) | Input system and input method | |
JP2004258714A (en) | Device for displaying picture | |
JPH07141101A (en) | Input system using picture | |
KR100692526B1 (en) | Gesture recognition apparatus and methods for automatic control of systems | |
JP2011028366A (en) | Operation control device and operation control method | |
JP2015176253A (en) | Gesture recognition device and control method thereof | |
JP2013250849A (en) | Guidance display system, guidance display device, guidance display method, and guidance display program | |
JP2011186892A (en) | Image processor, image processing method, and program | |
JP2002351603A (en) | Portable information processor | |
JP2004078977A (en) | Interface device | |
JP4025516B2 (en) | Mouse replacement method, mouse replacement program, and recording medium recording the program | |
KR20150106823A (en) | Gesture recognition apparatus and control method of gesture recognition apparatus | |
JP2007310914A (en) | Mouse alternating method, mouse alternating program and recording medium | |
JPH0793089A (en) | Image editing device | |
JPWO2018150569A1 (en) | Gesture recognition device, gesture recognition method, projector including gesture recognition device, and video signal supply device | |
JP2023546698A (en) | Systems and methods for imaging, displaying, and manipulating medical images and videos | |
JP2000276577A (en) | Image sensitive event generator | |
KR101447958B1 (en) | Method and apparatus for recognizing body point | |
JP2006059147A (en) | Computer input method and device | |
JP2011243141A (en) | Operation information processor, method and program | |
JPH05232908A (en) | Instruction input device | |
JP5951966B2 (en) | Image processing apparatus, image processing system, image processing method, and program | |
JP5068711B2 (en) | Object shape recognition system and object shape recognition method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070831 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20090709 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20090909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100421 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100817 |