JP2005092419A - Information processing apparatus and program - Google Patents

Information processing apparatus and program Download PDF

Info

Publication number
JP2005092419A
JP2005092419A JP2003322995A JP2003322995A JP2005092419A JP 2005092419 A JP2005092419 A JP 2005092419A JP 2003322995 A JP2003322995 A JP 2003322995A JP 2003322995 A JP2003322995 A JP 2003322995A JP 2005092419 A JP2005092419 A JP 2005092419A
Authority
JP
Japan
Prior art keywords
operator
image
registered
action
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003322995A
Other languages
Japanese (ja)
Inventor
Akio Kondo
彰男 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2003322995A priority Critical patent/JP2005092419A/en
Publication of JP2005092419A publication Critical patent/JP2005092419A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To execute desired processing upon an action preferred by an operator only by associating and registering arbitrary actions and instructions for every operator, when executing an instruction depending on an operator's action by analyzing an image photographing the operator. <P>SOLUTION: A CPU 1 analyzes an operator image photographed by a camera part 7 and refers to a face table to identify the operator, and refers to a gesture motion table to identify the operator's gesture. If the gesture made is registered in the gesture motion table, a command associated with the gesture is read from a gesture command table, and processing directed by the command is executed. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

この発明は、オペレータを撮影する撮影機能を備えた情報処理装置およびプログラムに関する。   The present invention relates to an information processing apparatus and a program having a photographing function for photographing an operator.

一般に、オペレータを撮影するカメラ機能を備えたディスク型/ノート型のパーソナルコンピュータ等の情報処理装置においては、ログイン時にパスワードを入力する代わりに、オペレータを撮影したオペレータ画像(顔画像)と、予め登録されている登録画像(顔画像)とを照合することによってオペレータ認証を行うようにしている。
そして、従来では、例えば、顔画像と顔の動きによって個人認証を行うようにしたシステムが知られている(特許文献1参照)。
また、ユーザを撮影した画像に基づいてユーザの移動方向を認識し、この移動方向に応じてコマンドを出力するようにした情報処理装置が知られている(特許文献2参照)。
In general, in an information processing apparatus such as a disc / notebook personal computer having a camera function for photographing an operator, an operator image (face image) obtained by photographing the operator is registered in advance instead of inputting a password at the time of login. The operator authentication is performed by comparing the registered image (face image).
Conventionally, for example, a system is known in which personal authentication is performed using a face image and a face motion (see Patent Document 1).
There is also known an information processing apparatus that recognizes a moving direction of a user based on an image obtained by photographing the user and outputs a command according to the moving direction (see Patent Document 2).

特開2001−212112号公報JP 2001-212112 A 特開2001−306236号公報JP 2001-306236 A

上述した特許文献1のシステムにおいては、顔画像の他、顔の動きをも考慮することによって個人認証時の安全率を高めた技術であり、ログイン時のみを前提とするものであった。また、特許文献2の情報処理装置においては、ユーザの移動方向に応じたコマンドを出力することによって操作性の向上を図る技術であるが、予め決められている方向への移動を前提するものであり、しかも、移動方向が同じであれば、常に同一のコマンドを固定的に出力するものであった。  The system disclosed in Patent Document 1 described above is a technology that increases the safety factor at the time of personal authentication by considering the movement of the face in addition to the face image, and is premised only on login. The information processing apparatus disclosed in Patent Document 2 is a technique for improving operability by outputting a command corresponding to the moving direction of the user. However, the information processing apparatus is assumed to move in a predetermined direction. In addition, if the movement direction is the same, the same command is always output in a fixed manner.

この発明の課題は、オペレータを撮影した画像を解析することによってオペレータの行動に応じた指示命令を実行する場合において、オペレータ毎に任意の行動と指示命令とを対応付けて登録しておくだけで、オペレータの好みに合った行動で希望する処理を実行できるようにすることである。   An object of the present invention is to execute an instruction command corresponding to an operator's action by analyzing an image captured by the operator, and to register an arbitrary action and an instruction command in association with each operator. It is to be able to execute a desired process with an action that suits the operator's preference.

請求項1記載の発明は、オペレータを撮影する撮影機能を備えた情報処理装置であって、オペレータ毎に予め任意に登録されている行動情報を記憶管理すると共に、この行動情報に対応付けて特定処理の実行を指示するための指示命令を記憶管理する登録情報記憶手段と、オペレータを撮影したオペレータ画像に基づいて当該オペレータの行動を解析する画像解析手段と、この画像解析手段によって得られた解析結果と、当該オペレータ対応の前記行動情報とを比較することによってオペレータの行動が登録内容通りであるか否かを認識する認識手段と、この認識手段によって登録内容通りの行動が行われたことが認識された場合に、この行動情報に対応付けられている前記指示命令を読み出して特定処理を実行する処理実行手段とを具備したことを特徴とする。
更に、コンピュータに対して、上述した請求項1記載の発明に示した主要機能を実現させるためのプログラムを提供する(請求項10記載の発明)。
The invention according to claim 1 is an information processing apparatus having a photographing function for photographing an operator, and stores and manages behavior information that is arbitrarily registered in advance for each operator and specifies the behavior information in association with the behavior information. Registration information storage means for storing and managing an instruction command for instructing execution of processing, image analysis means for analyzing the behavior of the operator based on an operator image obtained by photographing the operator, and analysis obtained by the image analysis means Recognizing means for recognizing whether the action of the operator is as registered content by comparing the result with the action information corresponding to the operator, and that the action as registered content is performed by this recognizing means A process execution means for reading out the instruction command associated with the action information and executing a specific process when it is recognized; It is characterized in.
Furthermore, a program for realizing the main functions shown in the invention described in claim 1 is provided to the computer (the invention described in claim 10).

なお、請求項1記載の発明は次のようなものであってもよい。
オペレータ毎にその行動情報を登録する場合に、オペレータの行動を撮影したオペレータ画像を解析することによって特徴的な行動が含まれている部分を含むオペレータ画像を行動情報として登録する(請求項2記載の発明)。
The invention described in claim 1 may be as follows.
When the behavior information is registered for each operator, an operator image including a portion including a characteristic behavior is registered as behavior information by analyzing an operator image obtained by photographing the behavior of the operator (claim 2). Invention).

前記登録情報記憶手段は、オペレータ毎に任意に登録された複数種の行動情報を記憶管理すると共に、この複数種の行動情報に対応付けて任意に登録された異なる種類の指示命令を行動情報毎に記憶管理し、前記処理実行手段は、前記認識手段によってオペレータの行動が何れかの行動情報に該当することが認識された場合に、この行動情報に対応付けられている前記指示命令を読み出して特定処理を実行する(請求項3記載の発明)。   The registered information storage means stores and manages a plurality of types of behavior information arbitrarily registered for each operator, and assigns different types of instruction commands arbitrarily registered in association with the plurality of types of behavior information for each behavior information. And when the recognition means recognizes that the action of the operator corresponds to any action information, the process execution means reads out the instruction command associated with the action information. The specific processing is executed (the invention according to claim 3).

前記解析手段は、電源投入時に撮影されたオペレータ画像に基づいて当該オペレータの行動を解析し、前記処理実行手段は、オペレータの行動が登録内容通りであることが認識された場合に、電源投入直後に当該行動情報に対応付けられている指示命令に従った特定処理への移行を指示する(請求項4記載の発明)。   The analysis means analyzes an operator's action based on an operator image taken at power-on, and the processing execution means immediately after turning on the power when it is recognized that the operator's action is as registered. Is instructed to shift to the specific processing in accordance with the instruction command associated with the action information (the invention according to claim 4).

前記画像解析手段は、オペレータ画像内の手の部分に着目し、この画像部分を時系列的に解析することによってオペレータの手の動作変化を特定し、前記認識手段は、この画像解析手段によって得られた手の動作変化が登録内容通りであるか否かを認識する(請求項5記載の発明)。   The image analysis means pays attention to a hand portion in the operator image, identifies an operation change of the operator's hand by analyzing the image portion in time series, and the recognition means is obtained by the image analysis means. It is recognized whether or not the movement change of the given hand is in accordance with the registered content (the invention of claim 5).

前記画像解析手段は、オペレータ画像内の顔の部分に着目し、この画像部分を時系列的に解析することによってオペレータの移動方向を特定し、前記認識手段は、この画像解析手段によって得られたオペレータの移動方向が登録内容通りであるか否かを認識する(請求項6記載の発明)。   The image analysis means pays attention to the face portion in the operator image, specifies the moving direction of the operator by analyzing the image portion in time series, and the recognition means is obtained by the image analysis means. It is recognized whether or not the movement direction of the operator is in accordance with the registered content (the invention according to claim 6).

前記画像解析手段は、オペレータ画像内の手の部分に着目し、この画像部分を解析することによって指を伸ばしている数を特定し、前記認識手段は、この画像解析手段によって得られた指の数が登録内容通りであるか否かを認識する(請求項7記載の発明)。   The image analysis means focuses on the hand part in the operator image, identifies the number of fingers extended by analyzing the image part, and the recognition means recognizes the finger obtained by the image analysis means. It is recognized whether the number is as registered (invention of claim 7).

前記画像解析手段は、オペレータ画像内の顔部分および手部分に着目し、顔と手との相対的な位置関係を特定し、前記認識手段は、この画像解析手段によって得られた相対的な位置関係が登録内容通りであるか否かを認識する(請求項8記載の発明)。   The image analysis unit focuses on a face part and a hand part in an operator image, specifies a relative positional relationship between the face and the hand, and the recognition unit determines a relative position obtained by the image analysis unit. It is recognized whether or not the relationship is as registered (invention of claim 8).

前記画像解析手段は、オペレータ画像内の顔の部分に着目して顔の出現状態を特定し、前記認識手段は、この画像解析手段によって得られた顔の出現状態が登録内容通りであるか否かを認識する(請求項9記載の発明)。   The image analysis means identifies the appearance state of the face by paying attention to the face portion in the operator image, and the recognition means determines whether or not the appearance state of the face obtained by the image analysis means is as registered content. (Invention of claim 9).

請求項1記載の発明によれば、オペレータ毎に予め任意に登録されている行動情報が記憶管理されていると共に、この行動情報に対応付けて特定処理の実行を指示するための指示命令が記憶管理されている状態において、オペレータを撮影したオペレータ画像に基づいて当該オペレータの行動を解析し、この解析結果と当該オペレータ対応の行動情報とを比較することによってオペレータの行動が登録内容通りである場合には、この行動情報に対応付けられている指示命令を読み出して特定処理を実行するようにしたから、オペレータ毎に任意の行動情報と指示命令とを対応付けて登録しておくだけで、オペレータの好みに合った行動で希望する処理を実行することが可能となる。この場合、同じ行動でも個人毎に異なる指示命令を実行させることができ、逆に、異なる行動でも個人毎に同じ指示命令を実行させることができ、更に、必要に応じて登録内容を任意に変更することも可能であるなど、自由度が増し、使い勝手の大幅な向上を期待することが可能となる。   According to the first aspect of the present invention, action information that is arbitrarily registered in advance for each operator is stored and managed, and an instruction command for instructing execution of the specific process is stored in association with the action information. In a managed state, when the operator's action is analyzed based on an operator image obtained by photographing the operator, and the analysis result is compared with the action information corresponding to the operator, the action of the operator is as registered Since the instruction command associated with this action information is read and the specific process is executed, the operator can simply register any action information and the instruction instruction in association with each operator. It is possible to execute a desired process with an action that suits the user's preference. In this case, different instructions can be executed for each individual even with the same action, and conversely, the same instruction can be executed for each individual with different actions, and the registration contents can be arbitrarily changed as necessary. The degree of freedom increases, and it is possible to expect a significant improvement in usability.

請求項2記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、オペレータ毎にその行動情報を登録する場合に、オペレータの行動を撮影したオペレータ画像を解析することによって特徴的な行動が含まれている部分を含むオペレータ画像を行動情報として登録するようにしたから、カメラの前で任意の行動をとるだけで、行動情報の自動登録が可能となる。  According to the invention described in claim 2, in addition to having the same effect as that of the invention described in claim 1, the operator image obtained by photographing the action of the operator is analyzed when the action information is registered for each operator. Since the operator image including the part including the characteristic action is registered as the action information, the action information can be automatically registered only by taking any action in front of the camera.

請求項3記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、オペレータ毎に任意に登録された複数種の行動情報が記憶管理されていると共に、この複数種の行動情報に対応付けて任意に登録された異なる種類の指示命令が行動情報毎に記憶管理されている状態において、オペレータの行動が何れかの行動情報に該当することが認識された場合に、この行動情報に対応付けられている指示命令を読み出して特定処理を実行するようにしたから、オペレータはその行動の種類を変えるだけで、希望する指示命令を選択的に実行することができる。   According to the invention described in claim 3, in addition to having the same effect as the invention described in claim 1 described above, a plurality of types of behavior information arbitrarily registered for each operator are stored and managed, and the plurality of types In a state where different types of instruction commands arbitrarily registered in association with the behavior information are stored and managed for each behavior information, when it is recognized that the behavior of the operator corresponds to any behavior information, Since the instruction command associated with the action information is read out and the specific process is executed, the operator can selectively execute the desired instruction instruction only by changing the type of action.

請求項4記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、電源投入時に撮影されたオペレータ画像に基づいて当該オペレータの行動を解析し、オペレータの行動が登録内容通りであることが認識された場合に、電源投入直後に当該行動情報に対応付けられている指示命令に従った特定処理への移行を指示するようにしたから、電源投入直後に希望する処理へ即座に移行することができ、電源を立ち上げてから希望する処理に移るまでの時間の短縮化と操作性の簡素化を期待することができる。   According to the invention described in claim 4, in addition to having the same effect as the invention described in claim 1, the operator's action is analyzed based on the operator image photographed when the power is turned on, and the operator's action is registered. When it is recognized that the content is as it is, it is instructed to shift to the specific process according to the instruction command associated with the action information immediately after the power is turned on. Therefore, it can be expected to shorten the time from the power-on to the desired process and to simplify the operability.

請求項5記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、オペレータ画像内の手の部分に着目し、この画像部分を時系列的に解析することによってオペレータの手の動作変化を特定し、この手の動作変化が登録内容通りであるか否かを認識するようにしたから、自由自在に動く手の動作変化(手振り)をオペレータの行動とすることができ、オペレータの好みに応じた自由自在な対応が可能となる。   According to the invention described in claim 5, in addition to having the same effect as that of the invention described in claim 1, the operator pays attention to the hand portion in the operator image, and analyzes the image portion in time series to obtain the operator. The movement change (hand gesture) of the freely moving hand can be used as the action of the operator because the movement change of the hand is identified and it is recognized whether or not the movement change of the hand is as registered. It is possible to respond freely according to the operator's preference.

請求項6記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、オペレータ画像内の顔の部分に着目し、この画像部分を時系列的に解析することによってオペレータの移動方向を特定し、このオペレータの移動方向が登録内容通りであるか否かを認識するようにしたから、例えば、上/下方向への移動、左/右方向への移動、斜め方向への移動、前/後方向への移動をオペレータの行動とすることができ、オペレータの好みに応じた自由自在な対応が可能となる。   According to the invention described in claim 6, in addition to having the same effect as that of the invention described in claim 1, the operator pays attention to the face portion in the operator image, and analyzes the image portion in time series to obtain the operator. The movement direction of the operator is specified, and whether or not the movement direction of the operator is the same as the registered content is recognized. For example, the movement in the up / down direction, the movement in the left / right direction, and the diagonal direction Movement and forward / rearward movement can be used as the action of the operator, and it is possible to freely respond to the preference of the operator.

請求項7記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、オペレータ画像内の手の部分に着目し、この画像部分を解析することによって指を伸ばしている数を特定し、この指の数が登録内容通りであるか否かを認識するようにしたから、指を伸ばすという簡単な行動によって希望する処理を実行することが可能となる。なお、指を伸ばした数の他に、伸ばした方向をも考慮するようにすれば、オペレータの好みに応じた自由自在な対応が可能となる。   According to the seventh aspect of the invention, in addition to the same effect as the first aspect of the invention described above, the finger is extended by paying attention to the hand portion in the operator image and analyzing the image portion. Since the number is specified and it is recognized whether or not the number of fingers is as registered, it is possible to execute a desired process by a simple action of extending the finger. In addition to the number of fingers extended, if the direction of extension is taken into consideration, it is possible to freely respond to the preference of the operator.

請求項8記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、オペレータ画像内の顔部分および手部分に着目し、顔と手との相対的な位置関係を特定し、この相対的な位置関係が登録内容通りであるか否かを認識するようにしたから、自由自在に動く手の位置と顔と相対的な位置関係をオペレータの行動とすることができ、オペレータの好みに応じた自由自在な対応が可能となる。   According to the invention described in claim 8, in addition to having the same effect as that of the invention described in claim 1, the relative positional relationship between the face and the hand is determined by paying attention to the face part and the hand part in the operator image. Since it is specified and whether or not this relative positional relationship is the same as the registered content, the position of the hand moving freely and the relative positional relationship with the face can be used as the action of the operator. , It is possible to respond freely according to the preference of the operator.

請求項9記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、
オペレータ画像内の顔の部分に着目して顔の出現状態を特定し、この出現状態が登録内容通りであるか否かを認識するようにしたから、例えば、手などでカメラ部分を塞いでいる時間(意図的な画像遮断時間)あるいは顔の出現回数などをオペレータの行動とすることができ、簡単な行動によって希望する処理を指示することが可能となる。
According to the ninth aspect of the invention, in addition to the same effect as the first aspect of the invention,
Focusing on the face part in the operator image, the appearance state of the face is specified, and it is determined whether or not the appearance state is as registered, so for example, the camera part is blocked with a hand or the like. The time (intentional image blocking time) or the number of appearances of the face can be used as the action of the operator, and a desired process can be instructed by a simple action.

(実施例1)
以下、図1〜図8を参照して本発明の第1実施例を説明する。
図1は、この実施例における情報処理装置の基本的構成要素を示したブロック図である。
この情報処理装置は、オペレータを撮影するビデオカメラを備えたディスク型/ノート型のパーソナルコンピュータであり、オペレータを撮影したオペレータ画像を解析することによってそのジェスチャ(手の動き)に応じた指示命令(コマンド)を実行すると共に、オペレータ毎に任意のジェスチャとコマンドとを対応付けて登録しておくだけで、オペレータの好みに合ったジェスチャで希望する処理を実行できるようにしたものである。すなわち、オペレータ画像内の手の部分に着目し、この画像部分を時系列的に解析することによってオペレータの手の動作変化を解析し、この手の動作変化が登録内容通りである場合には、この手の動き(ジェスチャ)に対応付けられている登録コマンドを読み出して特定処理を実行するようにしたものである。
なお、この実施例の特徴部分を詳述する前に、この実施例のハードウェア上の構成について以下、説明しておく。
(Example 1)
A first embodiment of the present invention will be described below with reference to FIGS.
FIG. 1 is a block diagram showing basic components of the information processing apparatus in this embodiment.
This information processing apparatus is a disc / notebook personal computer equipped with a video camera for photographing an operator, and by analyzing an operator image obtained by photographing the operator, an instruction command (in accordance with the gesture (hand movement)) Command) and an arbitrary gesture and a command are registered for each operator in association with each other, and a desired process can be executed with a gesture suitable for the operator's preference. That is, paying attention to the hand part in the operator image, analyzing the movement of the operator's hand by analyzing this image part in time series, and if the movement change of the hand is as registered, A registration command associated with this hand movement (gesture) is read out and a specific process is executed.
Before detailed description of the features of this embodiment, the hardware configuration of this embodiment will be described below.

CPU1は、記憶部2内のオペレーティングシステムや各種アプリケーションソフトに従ってこの情報処理装置の全体動作を制御する中央演算処理装置である。記憶部2は、ハードディスク等の固定的なメモリであり、プログラム記憶領域とデータ記憶領域とを有している。この記憶部2内のプログラム記憶領域には、後述する図7および図8に示す動作手順に従って本実施例を実現する為のアプリケーションプログラムが格納され、また、データ記憶領域には、後述する図2〜図4に示すデータ(顔テーブル、ジェスチャ動作テーブル、ジェスチャコマンドテーブル)が格納されている。このプログラムやデータは、必要に応じてワークメモリ3にロードされたり、このワークメモリ3内のデータが記憶部2にセーブされる。なお、記憶媒体4は、CD−ROM、DVD等の着脱自在なメモリであり、記憶部2やワークメモリ3との間においてプログラムや画像データ等の受け渡しを行う。   The CPU 1 is a central processing unit that controls the overall operation of the information processing apparatus in accordance with the operating system and various application software in the storage unit 2. The storage unit 2 is a fixed memory such as a hard disk, and has a program storage area and a data storage area. The program storage area in the storage unit 2 stores an application program for realizing the present embodiment in accordance with an operation procedure shown in FIGS. 7 and 8 described later, and the data storage area stores FIG. 2 described later. 4 stores data (face table, gesture operation table, gesture command table) shown in FIG. The program and data are loaded into the work memory 3 as necessary, and the data in the work memory 3 is saved in the storage unit 2. The storage medium 4 is a detachable memory such as a CD-ROM or DVD, and exchanges programs, image data, and the like with the storage unit 2 and the work memory 3.

一方、CPU1には、その入出力周辺デバイスである操作部5、表示部6、カメラ撮影部7がバスラインを介して接続されており、入出力プログラムに従ってCPU1は、これらの入出力デバイスの動作制御を行う。
操作部5は、キーボードやタッチパネルあるいはマウスやタッチ入力ペン等のポインティングデバイスを構成する入力部であり、文字列データや各種コマンドの入力を行う。表示部6は、フルカラー表示を行う液晶表示部、CRT表示部、プラズマ表示部等である。カメラ撮影部7は、撮影レンズ、ミラー等のレンズ・ミラーブロック、CCDイメージセンサ等の撮像素子、その駆動系等を備えたデジタルビデオカメラであり、装置本体の全面部に取り付けられ、オペレータの顔を中心に自動撮影を行い、一連のオペレータ画像(ビデオ画像)を画像メモリ8へ順次転送する。
On the other hand, an operation unit 5, a display unit 6, and a camera photographing unit 7 which are input / output peripheral devices are connected to the CPU 1 via a bus line, and the CPU 1 operates these input / output devices according to an input / output program. Take control.
The operation unit 5 is an input unit that constitutes a pointing device such as a keyboard, a touch panel, a mouse, or a touch input pen, and inputs character string data and various commands. The display unit 6 is a liquid crystal display unit that performs full-color display, a CRT display unit, a plasma display unit, or the like. The camera photographing unit 7 is a digital video camera equipped with a photographing lens, a lens / mirror block such as a mirror, an image sensor such as a CCD image sensor, a driving system thereof, and the like, and is attached to the entire surface of the apparatus main body, Are automatically captured, and a series of operator images (video images) are sequentially transferred to the image memory 8.

図2は、顔テーブル11の構成を示した図である。
この顔テーブル11は、オペレータ認証を行うために予め登録された認証用の顔画像を記憶管理するもので、その認識率を高めるためにオペレータ毎に複数の顔画像を記憶可能な構成となっている。すなわち、オペレータ(A、B、C、‥‥)毎に、「オペレータID」と複数の「顔パターン」とを対応付けて記憶するもので、「オペレータID」は、オペレータが任意に入力した識別情報であり、「顔パターン」は、顔の向きや表情を異ならせて撮影された認証用の顔画像である。CPU1は、電源投入時にカメラ撮影部7によって撮影されたオペレータ画像の中から顔部分を抽出すると共に、この抽出画像(顔画像)と顔テーブル11内の各「顔パターン」とを比較することによってオペレータを特定し、正規なオペレータであるか否かの認証処理を行うようにしている。
FIG. 2 is a diagram showing the configuration of the face table 11.
The face table 11 stores and manages authentication face images registered in advance for operator authentication, and can store a plurality of face images for each operator in order to increase the recognition rate. Yes. That is, for each operator (A, B, C,...), An “operator ID” and a plurality of “face patterns” are stored in association with each other, and the “operator ID” is an identification arbitrarily entered by the operator. The “face pattern” is information and is a face image for authentication photographed with different face orientations and expressions. The CPU 1 extracts a face part from an operator image photographed by the camera photographing unit 7 when the power is turned on, and compares the extracted image (face image) with each “face pattern” in the face table 11. An operator is specified, and authentication processing is performed to determine whether the operator is a legitimate operator.

図3は、ジェスチャ動作テーブル12の構成を示した図である。
このジェスチャ動作テーブル12は、オペレータによって登録された任意のジェスチャ(手の動き)を示す動作パターンを記憶管理するもので、ジェスチャ毎に「ジェスチャID」に対応してそのジェスチャを表現する一連の動作パターンとして動作(1)、動作(2)、動作(3)を記憶可能な構成となっている。この実施例においては、ジェスチャとして拳(こぶし)の動作変化を例示したもので、CPU1は、カメラ撮影部7によって撮影された一連のオペレータ画像(ビデオ画像)を取得し、このオペレータ画像内の拳部分に着目し、この画像部分を時系列的に解析することによって特徴的な拳位置が含まれているオペレータ画像(スチル画像)を動作パターンとして抽出して、ジェスチャ動作テーブル12に登録するようにしている。
FIG. 3 is a diagram showing the configuration of the gesture operation table 12.
The gesture operation table 12 stores and manages an operation pattern indicating an arbitrary gesture (hand movement) registered by the operator, and a series of operations expressing the gesture corresponding to the “gesture ID” for each gesture. Operation (1), operation (2), and operation (3) can be stored as patterns. In this embodiment, the fist movement change is illustrated as a gesture. The CPU 1 acquires a series of operator images (video images) photographed by the camera photographing unit 7, and the fists in the operator images are captured. By paying attention to the portion and analyzing the image portion in time series, an operator image (still image) including a characteristic fist position is extracted as an operation pattern and registered in the gesture operation table 12. ing.

図4は、ジェスチャコマンドテーブル13の構成を示した図である。
ジェスチャコマンドテーブル13は、予めオペレータ毎に任意に登録された複数種のジェスチャを記憶管理すると共に、この複数種のジェスチャに対応付けて任意に登録された異なる種類のコマンドをジェスチャ毎に記憶管理するもので、図中、横方向には、「オペレータID」、縦方向には、「ジェスチャID」がセットされ、この「オペレータID」、「ジェスチャID」によって構成されるマトリックス状の各交差部分(桝目部分)には、「コマンド(com1、com2、com3‥‥)」がセットされる構成となっている。この場合、ジェスチャとコマンドとの対応関係は任意であり、例えば、同じジェスチャでもオペレータ毎に異なるコマンドを登録することができ、逆に、異なるジェスチャでもオペレータ毎に同じコマンドを登録することができる。また、ジェスチャコマンドテーブル13の内容を必要に応じて任意に変更することもできる。
FIG. 4 is a diagram showing the configuration of the gesture command table 13.
The gesture command table 13 stores and manages a plurality of types of gestures arbitrarily registered in advance for each operator, and stores and manages different types of commands arbitrarily registered in association with the plurality of types of gestures for each gesture. In the figure, “operator ID” is set in the horizontal direction, and “gesture ID” is set in the vertical direction, and each of the matrix-like intersections (“operator ID” and “gesture ID”) ( A “command (com1, com2, com3,...)” Is set in the grid portion. In this case, the correspondence between the gesture and the command is arbitrary. For example, a different command can be registered for each operator even with the same gesture, and conversely, the same command can be registered for each operator even with different gestures. Further, the contents of the gesture command table 13 can be arbitrarily changed as necessary.

このジェスチャコマンドテーブル13に登録された「コマンド」は、予め用意されているコマンドメニューの中からオペレータが任意に選択指定されたもので、例えば、電源投入後に特定モード(キーワード検索モード、イニシャル条件設定確認モードなど)へ移行すべきことを指示するためのコマンド、オペレータ特有の個人データを読み出して表示すべきことを指示するためのコマンド、作業中のデータを保存すべきことを指示するコマンド、前回の編集位置へのカーソル移動を指示するためのコマンドなどである。
CPU1は、顔テーブル11を参照することによって特定された「オペレータID」と、ジェスチャ動作テーブル12を参照することによって特定された「ジェスチャID」に基づいてジェスチャコマンドテーブル13を検索し、該当する「コマンド」を読み出して、そのコマンドが指示する特定処理を実行するようにしている。
The “command” registered in the gesture command table 13 is arbitrarily selected and designated by the operator from a command menu prepared in advance. For example, a specific mode (keyword search mode, initial condition setting) is set after the power is turned on. Command to instruct to move to the confirmation mode, etc., command to instruct the operator to read out and display personal data specific to the operator, command to instruct to save the data during work, the previous time Command for instructing the cursor to move to the editing position.
The CPU 1 searches the gesture command table 13 based on the “operator ID” specified by referring to the face table 11 and the “gesture ID” specified by referring to the gesture operation table 12, and the corresponding “ The “command” is read out and a specific process indicated by the command is executed.

図5は、ジェスチャとして拳の動作変化に応じて分類されているジェスチャタイプを説明するための図である。
すなわち、この実施例において解析可能なジェスチャタイプを示したもので、このジェスチャタイプとしては、(例1)に示すように、拳を右上から斜め左下へ移動する如く、直線的に一方向へ流すタイプ、(例2)に示すように、拳を右上から左下へ流した後に右下へ折り返す如く、直線が途中で方向を変えるタイプ、(例3)に示すように、拳を右から左へ流した後に左から右に戻す如く、行き戻りするタイプ、(例4)に示すように、拳を反時計方向(左回り)に回す如く、回転運動するタイプに大別されている。
FIG. 5 is a diagram for explaining gesture types classified as gestures according to changes in fist motion.
That is, the gesture type that can be analyzed in this embodiment is shown. As this gesture type, as shown in (Example 1), the fist is made to flow linearly in one direction so as to move diagonally from the upper right to the lower left. Type, as shown in (Example 2), a type in which the straight line changes direction so that the fist flows from the upper right to the lower left and then turns back to the lower right, and as shown in (Example 3), the fist is moved from right to left As shown in (Example 4), the type moves back and forth as it returns from the left to the right after flowing, and is roughly classified as the type that rotates as the fist rotates counterclockwise (counterclockwise).

図6は、ジェスチャとして拳の動作変化に応じて分類されている複数種のジェスチャを例示した図である。
すなわち、「直線的に一方向へ流すタイプ」には、上述した(例1)の他に、例えば、「上→下」、「左→右」などのジェスチャが有り、「直線が途中で方向を変えるタイプ」には、上述した(例2)の他に、例えば、「上→中心→右」、「下→中心→左」などのジェスチャが有り、「行き戻りするタイプ」には、上述した(例3)の他に、例えば、「左→右→左→右」などのジェスチャが有り、「回転運動するタイプ」には、上述した(例4)の他に、例えば、「右回り」のジェスチャが有る。なお、図6は、上述した各ジェスチャにリンクして任意のコマンド(指示内容)が登録されている状態を示している。
FIG. 6 is a diagram illustrating a plurality of types of gestures classified as gestures according to changes in fist motion.
In other words, in addition to the above-mentioned (Example 1), there are gestures such as “Up → Down”, “Left → Right”, etc. In addition to the above-mentioned (Example 2), there are gestures such as “Up → Center → Right” and “Down → Center → Left”. In addition to (Example 3), for example, there are gestures such as “Left → Right → Left → Right”. ”Gesture. FIG. 6 shows a state in which an arbitrary command (instruction content) is registered linked to each gesture described above.

次に、この第1実施例における情報処理装置の動作概念を図7および図8に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、伝送媒体を介して伝送されてきた上述のプログラムコードにしたがった動作を逐次実行することもできる。このことは後述する他の実施例においても同様であり、記録媒体の他に、伝送媒体を介して外部供給されたプログラム/データを利用してこの実施例特有の動作を実行することもできる。   Next, the operation concept of the information processing apparatus in the first embodiment will be described with reference to the flowcharts shown in FIGS. Here, each function described in these flowcharts is stored in the form of a readable program code, and operations according to the program code are sequentially executed. It is also possible to sequentially execute operations according to the program code transmitted via the transmission medium. This also applies to other embodiments described later, and in addition to the recording medium, operations specific to this embodiment can be executed using programs / data supplied externally via a transmission medium.

図7は、ジェスチャ登録時の動作を示したフローチャートである。
先ず、CPU1は、ジェスチャ登録モードが指示されると、カメラ撮影部7を起動させる(ステップA1)。すると、カメラ撮影部7は、装置本体の前に居るオペレータをスチル撮影して画像メモリ8へ転送する。ここで、CPU1は、画像メモリ8からオペレータ画像(スチル画像)を取得し(ステップA2)、このオペレータ画像の中から顔部分を抽出する(ステップA3)。そして、この抽出画像(顔画像)と顔テーブル11に登録されているオペレータ毎の各「顔パターン」とを順次比較することによってオペレータを特定する処理を行う(ステップA4)。この場合、画像の顔の向き、大きさを補正した後、顔の輪郭、目、口、鼻、額等の形、位置、大きさ、髪型、メガネの有無と種類等を個別に比較する他、それらを総合比較することによって画像比較を行う(以下、同様)。この結果、特徴的に一致する画像が無ければ(ステップA5でNO)、当該オペレータは未登録であると認識してステップA6に移り、オペレータ登録を行うか否かを問い合わせる確認メッセージを表示させる。
FIG. 7 is a flowchart showing an operation at the time of gesture registration.
First, when the gesture registration mode is instructed, the CPU 1 activates the camera photographing unit 7 (step A1). Then, the camera photographing unit 7 performs still photography of the operator in front of the apparatus main body and transfers it to the image memory 8. Here, the CPU 1 acquires an operator image (still image) from the image memory 8 (step A2), and extracts a face portion from the operator image (step A3). Then, the extracted image (face image) and each “face pattern” for each operator registered in the face table 11 are sequentially compared to identify the operator (step A4). In this case, after correcting the orientation and size of the face of the image, the shape, position, size, hairstyle, presence / absence and type of glasses, etc. of the face contour, eyes, mouth, nose, forehead, etc. are individually compared. Then, image comparison is performed by comprehensively comparing them (hereinafter the same). As a result, if there is no characteristically matching image (NO in step A5), the operator recognizes that it has not been registered, and proceeds to step A6 to display a confirmation message inquiring whether or not to perform operator registration.

このメッセージ画面には、オペレータ登録を行うことを指示するOKボタンが設けられており、このOKボタンの操作有無を調べ(ステップA7)、操作無しが検出された場合には、この時点でこのフローから抜けるが、OKボタンが操作された場合には、オペレータIDの入力を促すメッセージ表示を行い、これに応答して入力されたオペレータIDを取り込むと共に(ステップA8)、顔の向きや表情を変えるべきことを促すメッセージ表示を行った後、再度、オペレータ画像を取得してその顔部分を抽出する(ステップA9)。そして、入力されたオペレータIDと抽出した各オペレータ画像(顔画像)とを対応付けて顔テーブル11に新規登録する(ステップA10)。  This message screen is provided with an OK button for instructing to perform operator registration. The presence / absence of operation of this OK button is checked (step A7). When the OK button is operated, a message is displayed prompting the operator to input an operator ID. In response to this, the operator ID input is captured (step A8), and the face orientation and expression are changed. After displaying the message for prompting what should be done, an operator image is acquired again and the face portion is extracted (step A9). Then, the inputted operator ID and each extracted operator image (face image) are associated with each other and newly registered in the face table 11 (step A10).

次に、上述のようにして新規登録したオペレータに対応して任意のジェスチャやコマンドを登録する処理に移る(ステップA11〜A21)。一方、上述のステップA5において、顔画像を比較した結果、登録済みのオペレータであることが認識された場合にも、当該オペレータに対応して任意のジェスチャやコマンドを登録する処理に移る(ステップA11〜A21)。先ず、CPU1は、カメラ撮影部7によってビデオ撮影された一連のオペレータ画像(動画)を取得し(ステップA11)、この一連の撮影動画の中から複数の動作パターンを分割抽出する(ステップA12)。  Next, the process moves to a process of registering an arbitrary gesture or command corresponding to the operator newly registered as described above (steps A11 to A21). On the other hand, when the face image is compared in step A5 described above and recognized as a registered operator, the process proceeds to processing for registering an arbitrary gesture or command corresponding to the operator (step A11). ~ A21). First, the CPU 1 obtains a series of operator images (moving images) video-captured by the camera photographing unit 7 (step A11), and divides and extracts a plurality of operation patterns from the series of photographed moving images (step A12).

すなわち、オペレータがカメラの前で行ったジェスチャを特定するために、オペレータ画像内の拳の部分に着目し、この画像部分を時系列的に解析することによって特徴的な拳位置が含まれているオペレータ画像(静止画)を動作パターンとして抽出する。例えば、拳を右上から斜め左下へ流すようなジェスチャが行われた場合には、一連の撮影動画の中から顔の右上に拳が位置している時の動作パターン、顔の前に拳が位置している時の動作パターン、斜め左下に拳が位置している時の動作パターンのように、少なくとも3種類の動作パターンを抽出する。そして、この複数の動作パターンに基づいてジェスチャ動作テーブル12を検索し(ステップA13)、同一パターンの有無をチェックする(ステップA14)。ここで、登録済みジェスチャと同一であれば(ステップA14でYES)、ジェスチャ動作テーブル12から当該ジェスチャに対応付けられている「ジェスチャID」を取得するが(ステップ15)、登録済みジェスチャではない新たなジェスチャが行われた場合には(ステップA14でNO)、新たな「ジェスチャID」を生成すると共に(ステップA16)、この「ジェスチャID」と今回のジェスチャ(一連の動作パターン)とを対応付けてジェスチャ動作テーブル12に新規登録する(ステップA17)。  That is, in order to identify a gesture performed by the operator in front of the camera, attention is paid to a fist portion in the operator image, and a characteristic fist position is included by analyzing this image portion in time series. An operator image (still image) is extracted as an operation pattern. For example, when a gesture is performed that causes the fist to flow from upper right to diagonally lower left, the movement pattern when the fist is positioned on the upper right of the face from a series of video shots, the fist positioned in front of the face At least three types of motion patterns are extracted, such as the motion pattern when the fist is positioned and the motion pattern when the fist is positioned diagonally to the lower left. Then, the gesture motion table 12 is searched based on the plurality of motion patterns (step A13), and the presence or absence of the same pattern is checked (step A14). Here, if it is the same as the registered gesture (YES in step A14), the “gesture ID” associated with the gesture is acquired from the gesture operation table 12 (step 15), but a new gesture that is not a registered gesture is acquired. If a gesture is performed (NO in step A14), a new “gesture ID” is generated (step A16), and this “gesture ID” is associated with the current gesture (a series of motion patterns). Is newly registered in the gesture motion table 12 (step A17).

次に、コマンドメニューを読み出して表示出力させた状態において(ステップA18)、このコマンドメニューの中から任意のコマンドが選択指定された場合には(ステップA19)、当該オペレータID、ジェスチャIDに基づいてジェスチャコマンドテーブル13を検索し、このオペレータID、ジェスチャIDの交差部分に、選択指定されたコマンドを登録する(ステップA20)。
このようにして任意のジェスチャやコマンドを登録する処理が終了すると、次のステップA21に移り、オペレータから登録終了を指示する操作有無を調べ、終了指示があるまでステップA11に戻り、上述の動作が繰り返される(ステップA11〜A21)。
Next, in a state where the command menu is read and displayed (step A18), when an arbitrary command is selected and specified from the command menu (step A19), the command menu is based on the operator ID and gesture ID. The gesture command table 13 is searched, and the command selected and specified is registered at the intersection of the operator ID and the gesture ID (step A20).
When the process for registering an arbitrary gesture or command is completed in this way, the process proceeds to the next step A21, where it is checked whether or not there is an operation for instructing the registration end, and the process returns to step A11 until the end instruction is given. Repeated (steps A11 to A21).

図8は、電源投入時の動作を示したフローチャートである。
先ず、CPU1は、電源が投入されると、カメラ撮影部7を起動させた後に(ステップB1)、画像メモリ8をアクセスしてオペレータ画像(スチル画像)を取得し(ステップB2)、このオペレータ画像の中から顔部分を抽出する(ステップB3)。そして、この抽出画像(顔画像)と顔テーブル11に登録されているオペレータ毎の各「顔パターン」とを順次比較することによってオペレータを認証する処理を行う(ステップB4)。この結果、特徴的に一致する画像が無ければ(ステップB5でNO)、正規なオペレータではないと認識して電源を自動的にオフさせるが、正規なオペレータである場合には(ステップB5でYES)、この「オペレータID」を顔テーブル11から読み出してオペレータの特定を行う(ステップB6)。
FIG. 8 is a flowchart showing the operation when the power is turned on.
First, when the power is turned on, the CPU 1 activates the camera photographing unit 7 (step B1), and then accesses the image memory 8 to acquire an operator image (still image) (step B2). A face part is extracted from the list (step B3). Then, the operator authenticates the operator by sequentially comparing the extracted image (face image) and each “face pattern” of each operator registered in the face table 11 (step B4). As a result, if there is no characteristically matching image (NO in step B5), it is recognized that the operator is not a regular operator, and the power is automatically turned off. However, if the image is a regular operator (YES in step B5). ), This “operator ID” is read from the face table 11 to identify the operator (step B6).

そして、カメラ撮影部7によってビデオ撮影された一連のオペレータ画像(動画)を取得し(ステップB7)、電源投入時にオペレータがカメラの前で行ったジェスチャを時系列的に解析することによって複数の動作パターンを分割抽出し(ステップB8)、この複数の動作パターンに基づいてジェスチャ動作テーブル12を検索し、オペレータが今回行った手の動きに対応する「ジェスチャID」を読み出してジェスチャの特定を行う(ステップB9)。このようにして特定した「オペレータID」、「ジェスチャID」に基づいてジェスチャコマンドテーブル13を検索することにより、該当する「コマンド」を読み出して(ステップB10)、当該コマンドによって指示される処理の実行に移る(ステップB11)。このような動作は電源が投入される毎に繰り返される。  Then, a series of operator images (moving images) taken by the camera photographing unit 7 are acquired (step B7), and a plurality of operations are performed by analyzing the gestures performed by the operator in front of the camera when power is turned on in time series. The pattern is divided and extracted (step B8), the gesture motion table 12 is searched based on the plurality of motion patterns, and the “gesture ID” corresponding to the hand motion performed this time by the operator is read and the gesture is specified ( Step B9). By searching the gesture command table 13 based on the “operator ID” and “gesture ID” specified in this way, the corresponding “command” is read (step B10), and the processing instructed by the command is executed. (Step B11). Such an operation is repeated every time the power is turned on.

以上のように、この第1実施例においてCPU1は、今回撮影されたオペレータ画像を解析しながら顔テーブル11を参照してオペレータを特定すると共に、ジェスチャ動作テーブル12を参照して当該オペレータのジェスチャを特定し、このジェスチャ動作テーブル12に登録されている通りのジェスチャが行われた場合には、このオペレータのジェスチャに対応付けられているコマンドをジェスチャコマンドテーブル13から読み出して、このコマンドによって指示される処理を実行するようにしたから、オペレータ毎に任意のジェスチャとコマンドとを対応付けて登録しておくだけで、オペレータの好みに合ったジェスチャで希望する処理を実行することが可能となる。この場合、同じジェスチャでもオペレータ毎に異なるコマンドを実行させることができ、逆に、異なるジェスチャでもオペレータ毎に同じコマンドを実行させることができる。更に、必要に応じてジェスチャコマンドテーブル13の登録内容を任意に変更することも可能であるなど、自由度が増し、使い勝手の大幅な向上を期待することが可能となる。   As described above, in the first embodiment, the CPU 1 identifies the operator with reference to the face table 11 while analyzing the operator image captured this time, and refers to the gesture operation table 12 to make the gesture of the operator. When a gesture as specified in the gesture operation table 12 is specified, the command associated with the gesture of the operator is read from the gesture command table 13 and instructed by this command. Since the process is executed, it is possible to execute a desired process with a gesture suitable for the operator's preference only by registering an arbitrary gesture and a command in association with each operator. In this case, different commands can be executed for each operator even with the same gesture, and conversely, the same command can be executed for each operator with different gestures. Furthermore, the registration contents of the gesture command table 13 can be arbitrarily changed as necessary, so that the degree of freedom is increased and a great improvement in usability can be expected.

この場合、自由自在に動く手の動作変化(手振り)をオペレータのジェスチャとすることによって、オペレータの好みに応じた自由自在な対応が可能となる。
また、オペレータ毎にそのジェスチャを登録する場合に、オペレータのジェスチャを撮影したオペレータ画像を解析することによって特徴的な行動が含まれている部分を含むオペレータ画像を抽出して登録するようにしたから、カメラの前で任意のジェスチャを行うだけで、ジェスチャの自動登録が可能となる。
In this case, by making the movement change (hand gesture) of the freely moving hand as the gesture of the operator, it is possible to respond freely according to the preference of the operator.
In addition, when registering the gesture for each operator, the operator image including the characteristic action is extracted and registered by analyzing the operator image obtained by photographing the operator's gesture. By simply making an arbitrary gesture in front of the camera, automatic gesture registration becomes possible.

ジェスチャコマンドテーブル13は、オペレータ毎に任意に登録された複数種のジェスチャを記憶可能であると共に、この複数種のジェスチャに対応付けて任意に登録された異なる種類のコマンドをジェスチャ毎に記憶可能であり、オペレータの手の動きが登録されている何れかのジェスチャに該当する場合には、このジェスチャに対応付けられているコマンドを読み出して処理を実行するようにしたから、オペレータは手の動きの種類を変えるだけで、希望するコマンドを選択的に実行することができる。
電源投入時に撮影されたオペレータ画像に基づいて当該オペレータの手の動きを解析し、オペレータの手の動きがジェスチャ動作テーブル12に登録されている通りであれば、電源投入直後に当該ジェスチャに対応付けられているコマンドに従った処理へ移行するようにしたから、電源投入直後に希望する処理へ即座に移行することができ、電源を立ち上げてから希望する処理に移るまでの時間の短縮化と操作性の簡素化を期待することができる。
The gesture command table 13 can store a plurality of types of gestures arbitrarily registered for each operator, and can store different types of commands arbitrarily registered in association with the plurality of types of gestures for each gesture. If the operator's hand movement corresponds to any registered gesture, the command associated with this gesture is read and the process is executed. By simply changing the type, you can selectively execute the desired command.
The movement of the operator's hand is analyzed based on the operator image photographed when the power is turned on. If the movement of the operator's hand is as registered in the gesture operation table 12, it is associated with the gesture immediately after the power is turned on. Since the process is shifted to the process according to the command, the process can be shifted to the desired process immediately after the power is turned on. Simplification of operability can be expected.

なお、上述した第1実施例においては、コマンド登録を行う際に、予め用意されているコマンドメニューの中からからコマンドを選択するようにしたが、オペレータが任意のコマンドを直接キー入力して登録するようにしてもよい。
また、上述した第1実施例においては、手の動きとして拳の動きを例示したが、掌、手首、前腕部の動きであってもよい、
(実施例2)
In the first embodiment described above, when registering a command, a command is selected from a command menu prepared in advance. However, an operator directly inputs an arbitrary command and registers it. You may make it do.
In the first embodiment described above, the movement of the fist is exemplified as the movement of the hand, but the movement of the palm, wrist, and forearm may be used.
(Example 2)

以下、この発明の第2実施例について図9〜図20を参照して説明する。
上述した第1実施例においては、オペレータ画像内の拳の部分に着目し、この画像部分を時系列的に解析することによってオペレータの手の動作変化(ジェスチャ)を特定するようにしたが、この第2実施例においては、その他の部分に着目することによってオペレータの行動を特定するようにしたものである。すなわち、オペレータ画像内の顔の部分に着目することによってオペレータの移動方向を特定したり、オペレータ画像内の手の部分に着目することによって指を伸ばしている数を特定したり、オペレータ画像内の顔部分および手部分に着目して顔と手との相対的な位置関係を特定したり、手などでカメラ部分を塞いでいる時間(意図的な画像遮断時間)をオペレータの行動として特定するようにしたものである。
ここで、両実施例において基本的あるいは名称的に同一のものは、同一符号を付して示し、その説明を省略すると共に、以下、第2実施例の特徴部分を中心に説明するものとする。
A second embodiment of the present invention will be described below with reference to FIGS.
In the first embodiment described above, attention is paid to the fist portion in the operator image, and the change in the hand of the operator (gesture) is specified by analyzing the image portion in time series. In the second embodiment, the operator's action is specified by paying attention to other parts. That is, it is possible to specify the movement direction of the operator by paying attention to the face portion in the operator image, to specify the number of fingers extended by paying attention to the hand portion in the operator image, Identify the relative positional relationship between the face and hand by focusing on the face and hand, and identify the time that the camera is blocked by the hand (intentional image blocking time) as the action of the operator It is a thing.
Here, the same or the same names in both embodiments are denoted by the same reference numerals, the description thereof will be omitted, and the following description will focus on the features of the second embodiment. .

図9および図10は、オペレータ画像内の顔の部分に着目することによってオペレータの移動方向をオペレータの行動として特定する場合を例示した図である。
すなわち、この実施例において解析可能な移動方向のタイプを示したもので、顔の移動方向のタイプとしては、図9の(例1)に示すように、顔を左方向へ流すタイプ、図9の(例2)に示すように、右方向へ流すタイプ、図10の(例3)に示すように、上方向へ流すタイプ、図10の(例4)に示すように、下方向へ流すタイプが存在している。このような各移動方向に対応して任意のコマンドをオペレータ毎に登録可能であり、CPU1は、移動方向に応じた任意のコマンドを実行するようにしている。
なお、装置本体を固定した状態で顔を移動する場合に限らず、ノート型等のように小型情報処理装置にあっては、顔を固定した状態で装置本体を移動する場合であってもよい。
FIG. 9 and FIG. 10 are diagrams illustrating a case where the moving direction of the operator is specified as the operator's action by paying attention to the face portion in the operator image.
That is, the type of movement direction that can be analyzed in this embodiment is shown. As the type of movement direction of the face, as shown in (Example 1) of FIG. As shown in (Example 2), the type of flowing in the right direction, as shown in (Example 3) of FIG. 10, the type of flowing in the upward direction, and as shown in (Example 4) of FIG. The type exists. An arbitrary command can be registered for each operator corresponding to each moving direction, and the CPU 1 executes an arbitrary command corresponding to the moving direction.
Note that the present invention is not limited to the case of moving the face with the apparatus main body fixed, and in a small information processing apparatus such as a notebook type, the apparatus main body may be moved with the face fixed. .

図11は、オペレータ画像内の手の部分に着目することによって指を伸ばしている数(指を立てている数)をオペレータの行動として特定する場合を例示した図である。
すなわち、(例1)は、1本の指を立てている状態、(例2)は、2本の指を立てている状態、(例3)は、3本の指を立てている状態、(例4)は、5本の指を立てている状態を示している。このように指を立てている指数に対応して任意のコマンドをオペレータ毎に登録可能であり、CPU1は、指数に応じた任意のコマンドを実行するようにしている。
FIG. 11 is a diagram exemplifying a case where the number of fingers extended (number of fingers raised) is specified as the operator's action by paying attention to the hand portion in the operator image.
That is, (Example 1) is a state where one finger is raised, (Example 2) is a state where two fingers are raised, (Example 3) is a state where three fingers are raised, (Example 4) shows a state where five fingers are raised. In this way, an arbitrary command can be registered for each operator corresponding to the index with the finger raised, and the CPU 1 executes an arbitrary command corresponding to the index.

図12は、オペレータ画像内の顔部分および拳部分に着目して顔と拳との相対的な位置関係をオペレータの行動として特定する場合を例示した図である。
すなわち、(例1)は、顔の中央における頭髪の位置(生え際の位置)に拳を移して止めた状態、(例2)は、左耳付近に拳を移して止めた状態、(例3)は、顎の位置に拳を移して止めた状態、(例4)は、鼻の位置に拳を移して止めた状態を示している。このような相対的な位置関係に対応して任意のコマンドをオペレータ毎に登録可能であり、CPU1は、拳の位置に応じた任意のコマンドを実行するようにしている。
FIG. 12 is a diagram illustrating a case where the relative positional relationship between the face and the fist is specified as the action of the operator by focusing on the face portion and the fist portion in the operator image.
That is, (Example 1) is a state where the fist is moved and stopped at the position of the hair at the center of the face (position of hairline), (Example 2) is a state where the fist is moved near the left ear and stopped (Example 3) ) Shows a state where the fist is moved to the position of the jaw and stopped, and (Example 4) shows a state where the fist is moved to the position of the nose and stopped. An arbitrary command can be registered for each operator in correspondence with such a relative positional relationship, and the CPU 1 executes an arbitrary command according to the position of the fist.

図13は、掌や指などでカメラ部分を塞いでいる意図的な画像遮断状態を示した図である。
すなわち、オペレータ画像内の顔の部分に着目し、最初に顔が出現してから次に顔が出現するまでの時間間隔を意図的な画像遮断時間として計数し、この時間をオペレータの行動として特定する。このような画像遮断時間(例えば、1秒間、3秒間)に対応して任意のコマンドをオペレータ毎に登録可能であり、CPU1は、画像遮断時間に応じた任意のコマンドを実行するようにしている。
FIG. 13 is a diagram showing an intentional image blocking state in which the camera portion is closed with a palm or a finger.
That is, paying attention to the face part in the operator image, the time interval from the first appearance of the face to the next appearance is counted as the intentional image blocking time, and this time is specified as the operator's action To do. An arbitrary command can be registered for each operator corresponding to such an image blocking time (for example, 1 second, 3 seconds), and the CPU 1 executes an arbitrary command according to the image blocking time. .

なお、この第2実施例においては、上述した第1実施例と同様の顔テーブル11が設けられている。この場合、顔テーブル11への登録は、オペレータ登録ボタンが操作された際に実行するようにしているが、基本的には第1実施例と同様であり、オペレータ画像から抽出した顔部分と、入力されたオペレータIDとを対応付けて顔テーブル11に登録するようにしている。また、この第2実施例においては、上述した第1実施例で示したジェスチャ動作テーブル12、ジェスチャコマンドテーブル13に代えて、顔移動コマンドテーブル14、指コマンドテーブル15、相対関係コマンドテーブル16、遮断時間コマンドテーブル17が設けられている。   In the second embodiment, a face table 11 similar to that in the first embodiment described above is provided. In this case, the registration to the face table 11 is performed when the operator registration button is operated, but is basically the same as the first embodiment, and the face portion extracted from the operator image, The entered operator ID is associated and registered in the face table 11. In the second embodiment, instead of the gesture operation table 12 and the gesture command table 13 shown in the first embodiment described above, the face movement command table 14, the finger command table 15, the relative command table 16, the blocking A time command table 17 is provided.

図14は、顔移動コマンドテーブル14の構成を示した図である。
顔移動コマンドテーブル14は、オペレータの顔の移動方向に対応して任意に登録されたコマンドをオペレータ別に記憶管理するもので、図中、横方向には、「オペレータID」、縦方向には、「移動方向」がセットされ、この「オペレータID」、「移動方向」によって構成されるマトリックス状の各交差部分(桝目部分)には、「コマンド」がセットされる構成となっている。この場合、顔移動コマンドテーブル14には、図9、図10で示した(例1)〜(例4)のタイプに対応して、“左”、“右”、“下”、“上”の「移動方向」が固定的に記憶されているが、この4タイプの全てに対応付けてコマンド登録を行うか、その中から任意に選択指定したタイプのみにコマンド登録を行うかは任意である。
FIG. 14 is a diagram showing the configuration of the face movement command table 14.
The face movement command table 14 stores and manages commands arbitrarily registered corresponding to the movement direction of the operator's face for each operator. In the figure, the “operator ID” in the horizontal direction and the command in the vertical direction “Movement direction” is set, and “command” is set to each of the matrix-shaped intersections (mesh portions) constituted by the “operator ID” and “movement direction”. In this case, in the face movement command table 14, “left”, “right”, “lower”, “up” corresponding to the types of (Example 1) to (Example 4) shown in FIG. 9 and FIG. The “movement direction” is fixedly stored, but it is arbitrary whether the command registration is performed in association with all of these four types or the command registration is performed only for the type arbitrarily selected and designated from among them. .

図15は、指コマンドテーブル15の構成を示した図である。
指コマンドテーブル15は、オペレータが指を立てている数に対応して任意に登録されたコマンドをオペレータ別に記憶管理するもので、図中、横方向には、「オペレータID」、縦方向には、「指数」がセットされ、この「オペレータID」、「指数」によって構成されるマトリックス状の各交差部分(桝目部分)には、「コマンド」がセットされる構成となっている。この場合、指コマンドテーブル15には、図11で示した(例1)〜(例4)の指数に対応して、“1”、“2”、“3”、“5”の「指数」が固定的に記憶されているが、この指数の全てに対応付けてコマンド登録を行うか、その中から任意に選択指定した指数のみにコマンド登録を行うかは任意である。
FIG. 15 is a diagram showing the configuration of the finger command table 15.
The finger command table 15 stores and manages commands arbitrarily registered according to the number of fingers raised by the operator for each operator. In the figure, the “operator ID” in the horizontal direction and the command in the vertical direction , “Index” is set, and “command” is set in each of the matrix-shaped intersections (cells) constituted by the “operator ID” and “index”. In this case, the finger command table 15 has “1”, “2”, “3”, “5” “index” corresponding to the indexes of (Example 1) to (Example 4) shown in FIG. Is stored in a fixed manner, but it is optional to register a command in association with all of the indices or to register a command only to an index that is arbitrarily selected and designated from among them.

図16は、相対関係コマンドテーブル16の構成を示した図である。
相対関係コマンドテーブル16は、顔と拳との相対的な位置関係に対応して任意に登録されたコマンドをオペレータ別に記憶管理するもので、図中、横方向には、「オペレータID」、縦方向には、「相対関係」がセットされ、この「オペレータID」、「相対関係」によって構成されるマトリックス状の各交差部分(桝目部分)には、「コマンド」がセットされる構成となっている。この場合、相対関係コマンドテーブル16には、図12で示した(例1)〜(例4)の指数に対応して、“中央”、“左耳”、“あご”、“鼻”の「相対関係」が固定的に記憶されているが、この相対関係の全てに対応付けてコマンド登録を行うか、その中から任意に選択指定した相対関係のみにコマンド登録を行うかは任意である。
FIG. 16 is a diagram showing a configuration of the relative relationship command table 16.
The relative relationship command table 16 stores and manages commands arbitrarily registered corresponding to the relative positional relationship between the face and the fist for each operator. A “relative relationship” is set in the direction, and a “command” is set in each of the matrix-like intersections (grid portions) constituted by the “operator ID” and “relative relationship”. Yes. In this case, in the relative relationship command table 16, “center”, “left ear”, “chin”, “nose” corresponding to the indices of (Example 1) to (Example 4) shown in FIG. The “relative relationship” is stored in a fixed manner, but it is arbitrary whether the command registration is performed in association with all of the relative relationships, or the command registration is performed only for the relative relationship arbitrarily selected and designated from among them.

図17は、遮断時間コマンドテーブル17の構成を示した図である。
遮断時間コマンドテーブル17は、掌や指などでカメラ部分を塞いでいる意図的な画像遮断時間に対応して任意に登録されたコマンドをオペレータ別に記憶管理するもので、図中、横方向には、「オペレータID」、縦方向には、「画像遮断時間」がセットされ、この「オペレータID」、「画像遮断時間」によって構成されるマトリックス状の各交差部分(桝目部分)には、「コマンド」がセットされる構成となっている。この場合、遮断時間コマンドテーブル17には、“1秒間”、“3秒間”の「画像遮断時間」が固定的に記憶されているが、この画像遮断時間の全てに対応付けてコマンド登録を行うか、その中から任意に選択指定した画像遮断時間のみにコマンド登録を行うかは任意である。
FIG. 17 is a diagram showing the configuration of the cutoff time command table 17.
The shut-off time command table 17 stores and manages commands arbitrarily registered corresponding to the intentional image shut-off time for blocking the camera part with a palm or a finger. “Operator ID”, “Image blocking time” is set in the vertical direction, and “Command” is set at each matrix-shaped crossing portion (grid portion) composed of “Operator ID” and “Image blocking time”. "Is set. In this case, the “image blocking time” of “1 second” and “3 seconds” is fixedly stored in the blocking time command table 17, but command registration is performed in association with all of the image blocking times. Whether the command registration is performed only during the image blocking time arbitrarily selected and designated from among them is arbitrary.

図18は、オペレータ毎に任意のコマンドを各コマンドテーブル14〜17に登録する場合の動作を示したフローチャートである。
先ず、CPU1は、コマンド登録モードが指示されると、テーブル名メニューを表示出力させ(ステップC1)、この中から登録対象のテーブルが選択指定されると(ステップC2)、この指定テーブル内に固定的に記憶されている各行動項目を読み出して登録画面に一覧表示させる(ステップC3)。例えば、登録対象として顔移動コマンドテーブル14が選択された場合には、各「移動方向」が読み出されて一覧表示され、指コマンドテーブル15が選択された場合には、各「指数」が読み出されて一覧表示される。
FIG. 18 is a flowchart showing an operation when an arbitrary command is registered in each of the command tables 14 to 17 for each operator.
First, when the command registration mode is instructed, the CPU 1 displays and outputs a table name menu (step C1). When a table to be registered is selected and designated (step C2), it is fixed in this designation table. Each action item memorized automatically is read out and displayed in a list on the registration screen (step C3). For example, when the face movement command table 14 is selected as a registration target, each “movement direction” is read and displayed as a list, and when the finger command table 15 is selected, each “index” is read. Is displayed in a list.

この登録画面には、各行動項目に対応して配置されたコマンド入力域が設けられている他、オペレータID入力域、登録終了ボタンが設けられている。ここで、登録画面内にオペレータIDが入力されると(ステップC4)、コマンドメニューを表示出力させると共に(ステップC5)、その中から任意のコマンドが選択指定されると(ステップC6)、この登録画面内の対応するコマンド入力域に当該コマンド名をセットさせる(ステップC7)。そして、登録終了ボタンの操作有無をチェックし(ステップC8)、登録終了ボタンが操作されなければ、ステップ6に戻り、コマンド入力が繰り返される。ここで、登録終了ボタンが操作されると、登録画面内の入力情報を対応するコマンドテーブル内に登録する(ステップC9)。   This registration screen is provided with a command input area arranged corresponding to each action item, an operator ID input area, and a registration end button. Here, when an operator ID is entered in the registration screen (step C4), a command menu is displayed and output (step C5), and when an arbitrary command is selected and designated (step C6), this registration is performed. The command name is set in the corresponding command input area in the screen (step C7). Then, whether or not the registration end button is operated is checked (step C8). If the registration end button is not operated, the process returns to step 6 to repeat the command input. Here, when the registration end button is operated, the input information in the registration screen is registered in the corresponding command table (step C9).

図19〜図20は、オペレータ画像を解析することによってコマンドの実行を指示するためのカメラ指示ボタンが操作された場合の動作を示したフローチャートである。
先ず、CPU1は、カメラ指示ボタンの操作に応答して、カメラ撮影部7を起動させる(ステップD1)。すると、カメラ撮影部7は、装置本体の前に居るオペレータをスチル撮影して画像メモリ8へ転送する。ここで、CPU1は、画像メモリ8から撮影画像(スチル画像)を取得し(ステップD2)、この撮影画像の中から顔部分を抽出し(ステップD3)、顔部分の有無をチェックする(ステップD4)。
FIG. 19 to FIG. 20 are flowcharts showing operations when a camera instruction button for instructing execution of a command is operated by analyzing an operator image.
First, the CPU 1 activates the camera photographing unit 7 in response to the operation of the camera instruction button (step D1). Then, the camera photographing unit 7 performs still photography of the operator in front of the apparatus main body and transfers it to the image memory 8. Here, the CPU 1 acquires a photographed image (still image) from the image memory 8 (step D2), extracts a face part from the photographed image (step D3), and checks the presence or absence of the face part (step D4). ).

ここで、顔部分が存在していなければ(ステップD4でNO)、カメラ指示ボタンの操作を無効(ノンファンクション)とするが、顔部分が存在していれば、抽出した顔画像と顔テーブル11に登録されているオペレータ毎の各「顔パターン」とを順次比較することによってオペレータを特定して、この「オペレータID」を読み出す(ステップD5)。そして、撮影画像内から拳部分の画像を検索し(ステップD6)、拳画像の有無をチェックする(ステップD7)。ここで、拳画像が無ければ、ステップD13に移るが、撮影画像内にオペレータの拳が写っている場合には、画像解析によって顔画像と拳画像との相対関係を特定抽出する(ステップD8)。そして、「オペレータID」と、顔と拳との「相対関係」に基づいて相対関係コマンドテーブル16を検索し(ステップD9)、このオペレータに対応して該当する相対関係がコマンドテーブル16に登録されているか否か調べ(ステップD10)、該当無しの場合には、ステップD13に移るが、該当有りの場合には、相対関係コマンドテーブル16から当該「オペレータID」と「相対関係」との交差部分に登録されているコマンドを読み出し(ステップD11)、このコマンドによって指示される処理の実行に移る(ステップD12)。   Here, if the face portion does not exist (NO in step D4), the operation of the camera instruction button is disabled (non-function), but if the face portion exists, the extracted face image and face table 11 are displayed. The operator is identified by sequentially comparing each “face pattern” registered for each operator, and this “operator ID” is read (step D5). Then, the image of the fist part is searched from the photographed image (step D6), and the presence or absence of the fist image is checked (step D7). If there is no fist image, the process proceeds to step D13. However, if the operator's fist is shown in the captured image, the relative relationship between the face image and the fist image is specified and extracted by image analysis (step D8). . Then, the relative relationship command table 16 is searched based on the “operator ID” and the “relative relationship” between the face and the fist (step D9), and the corresponding relative relationship corresponding to this operator is registered in the command table 16. If there is no corresponding, the process proceeds to step D13. If there is a corresponding, the intersection between the “operator ID” and “relative relationship” from the relative relationship command table 16 is determined. Is read (step D11), and the process instructed by this command is executed (step D12).

一方、上述のステップD7あるいはD10でNOと判断された場合には、オペレータの指の動きに着目する。すなわち、撮影画像内の指に着目して、その指画像を検索し(ステップD13)、指画像の有無をチェックする(ステップD14)。ここで、指画像が無ければ、図20のステップD18に移るが、撮影画像内にオペレータの指が写っている場合には、画像解析によって指が立っている本数を特定する(ステップD15)。そして、この「オペレータID」と「指数」に基づいて指コマンドテーブル15を検索し(ステップD16)、このオペレータに対応して該当する指数が指コマンドテーブル15に登録されているか否か調べ(ステップD17)、該当無しの場合には、図20のステップD18に移るが、該当有りの場合には、指コマンドテーブル15から当該「オペレータID」と「指数」との交差部分に登録されているコマンドを読み出し(ステップD11)、このコマンドによって指示される処理の実行に移る(ステップD12)。   On the other hand, when it is determined NO in step D7 or D10 described above, attention is paid to the movement of the operator's finger. That is, paying attention to the finger in the photographed image, the finger image is searched (step D13), and the presence or absence of the finger image is checked (step D14). Here, if there is no finger image, the process proceeds to step D18 in FIG. 20, but if the operator's finger is reflected in the captured image, the number of fingers standing is identified by image analysis (step D15). Then, the finger command table 15 is searched based on this “operator ID” and “index” (step D16), and it is checked whether or not the corresponding index corresponding to this operator is registered in the finger command table 15 (step D16). D17) If there is no match, the process proceeds to step D18 in FIG. 20. If there is a match, the command registered from the finger command table 15 at the intersection of the “operator ID” and “index” is stored. Is read (step D11), and the process instructed by this command is executed (step D12).

次に、オペレータの顔の移動方向に着目する。先ず、図20のステップD18では、カメラ撮影部7によってビデオ撮影された一連のオペレータ画像(動画)を取得する。そして、この一連の撮影動画を解析することによって顔の移動有無をチェックし(ステップD19)、移動していなければ、ステップD23に移るが、顔が移動していれば、画像解析によってその移動方向を検出する(ステップD20)。そして、この「オペレータID」と「移動方向」に基づいて顔移動コマンドテーブル14を検索し(ステップD21)、このオペレータに対応して該当する移動方向がコマンドテーブル14に登録されているか否か調べ(ステップD22)、該当無しの場合には、ステップD23に移るが、該当有りの場合には、顔移動コマンドテーブル14から当該「オペレータID」と「移動方向」との交差部分に登録されているコマンドを読み出し(図19のステップD11)、このコマンドによって指示される処理の実行に移る(ステップD12)。   Next, attention is paid to the movement direction of the operator's face. First, in step D18 of FIG. 20, a series of operator images (moving images) captured by the camera photographing unit 7 is acquired. Then, the presence / absence of movement of the face is checked by analyzing the series of captured moving images (step D19). If not, the process proceeds to step D23. If the face is moved, the moving direction is determined by image analysis. Is detected (step D20). Then, the face movement command table 14 is searched based on this “operator ID” and “movement direction” (step D21), and it is checked whether or not the corresponding movement direction is registered in the command table 14 corresponding to this operator. (Step D22) If there is no match, the process moves to Step D23, but if there is a match, it is registered from the face movement command table 14 at the intersection of the “operator ID” and “movement direction”. The command is read (step D11 in FIG. 19), and the process instructed by this command is executed (step D12).

次に、ステップD23では、一連の撮影動画を解析することによって顔の遮断有無をチェックする。つまり、掌や指などでカメラ部分を塞いでいるか否かをチェックし、顔の遮断が検出された場合には、その画像遮断時間を計時する動作をスタートする(ステップD24)。そして、次に顔が出現するまでの間(遮断終了が検出されるまでの間)、画像遮断時間を計時する動作を継続する(ステップD24、D25)。ここで、遮断終了が検出されると、一連の撮影動画内から遮断終了時に出現した顔部分を抽出し(ステップD26)、この抽出画像と遮断直前の顔画像とを比較して(ステップD27)、特徴的に一致するか(同一人物か)をチェックする(ステップD28)。ここで、同一人物であることを条件に、この「オペレータID」と「画像遮断時間」に基づいて遮断時間コマンドテーブル17を検索し、このオペレータに対応して該当する画像遮断時間がコマンドテーブル17に登録されているか否か調べ(ステップD29)、該当有りの場合には、遮断時間コマンドテーブル17から当該「オペレータID」と「画像遮断時間」との交差部分に登録されているコマンドを読み出し(図11ステップD11)、このコマンドによって指示される処理の実行に移る(ステップD12)。   Next, in step D23, the presence or absence of face blocking is checked by analyzing a series of captured moving images. That is, it is checked whether or not the camera part is closed with a palm or a finger, and when face blocking is detected, an operation for measuring the image blocking time is started (step D24). Then, until the next appearance of the face (until the end of blocking is detected), the operation of counting the image blocking time is continued (steps D24 and D25). Here, when the end of blocking is detected, a face portion that appears at the end of blocking is extracted from a series of captured moving images (step D26), and this extracted image is compared with the face image immediately before blocking (step D27). Then, it is checked whether or not they match characteristically (whether they are the same person) (step D28). Here, on the condition that they are the same person, the blocking time command table 17 is searched based on this “operator ID” and “image blocking time”, and the corresponding image blocking time corresponding to this operator is displayed in the command table 17. Is registered (step D29), and if applicable, the command registered at the intersection between the “operator ID” and the “image cutoff time” is read from the cutoff time command table 17 ( In FIG. 11, step D11), the processing instructed by this command is executed (step D12).

以上のように、この第2実施例においても、上述した第1実施例と同様、オペレータ毎に任意の行動とコマンドとを対応付けて顔移動コマンドテーブル14、指コマンドテーブル15、相対関係コマンドテーブル16、遮断時間コマンドテーブル17に登録しておくだけで、オペレータの好みに合った行動で希望する処理を実行することが可能となる。この場合、同じ行動でもオペレータ毎に異なるコマンドを実行させることができ、逆に、異なる行動でもオペレータ毎に同じコマンドを実行させることができ、使い勝手の大幅な向上を期待することが可能となる。   As described above, also in the second embodiment, as in the first embodiment described above, the face movement command table 14, the finger command table 15, and the relative relationship command table are associated with arbitrary actions and commands for each operator. 16, it is possible to execute a desired process with an action that suits the operator's preference simply by registering it in the cutoff time command table 17. In this case, different commands can be executed for each operator even in the same action, and conversely, the same command can be executed for each operator even in different actions, and it is possible to expect a significant improvement in usability.

この場合、オペレータ画像内の顔の部分に着目し、この画像部分を時系列的に解析することによってオペレータの移動方向を特定し、このオペレータの移動方向が顔移動コマンドテーブル14に登録されている内容通りであるか否かを認識するようにしたから、オペレータの上/下方向への移動、左/右方向への移動をオペレータの行動とすることができ、オペレータの好みに応じた自由自在な対応が可能となる。
また、オペレータ画像内の手の部分に着目し、この画像部分を解析することによって指を伸ばしている数を特定し、この指の数が指コマンドテーブル15に登録されている内容通りであるか否かを認識するようにしたから、指を伸ばすという簡単な行動によって希望する処理を実行することが可能となる。
In this case, paying attention to the face portion in the operator image, the moving direction of the operator is specified by analyzing the image portion in time series, and the moving direction of the operator is registered in the face moving command table 14. Since it is recognized whether or not the contents are correct, the operator can move up / down and left / right as actions of the operator. Is possible.
Further, paying attention to the hand portion in the operator image, the number of fingers stretched is identified by analyzing the image portion, and whether the number of fingers is in accordance with the contents registered in the finger command table 15 Since it is made to recognize whether or not, it is possible to execute a desired process by a simple action of extending a finger.

オペレータ画像内の顔部分および手部分に着目し、顔と手との相対的な位置関係を解析し、この相対的な位置が相対関係コマンドテーブル16に登録されている内容通りであるか否かを認識するようにしたから、自由自在に動く手の位置と顔と相対的な位置関係をオペレータの行動とすることができ、オペレータの好みに応じた自由自在な対応が可能となる。
また、オペレータ画像内の顔の部分に着目し、手などでカメラ部分を塞いでいる意図的な画像遮断時間を計時し、この時間が遮断時間コマンドテーブル17に登録されている内容通りであるか否かを認識するようにしたから、簡単な行動によって希望する処理を指示することが可能となる。
Paying attention to the face part and the hand part in the operator image, the relative positional relationship between the face and the hand is analyzed, and whether or not the relative position is the same as the contents registered in the relative command table 16. Therefore, the position of the hand that moves freely and the relative positional relationship with the face can be used as the action of the operator, and a flexible response according to the preference of the operator is possible.
Further, paying attention to the face portion in the operator image, the intentional image blocking time for blocking the camera portion with a hand or the like is counted, and whether this time is as described in the content registered in the blocking time command table 17. Since it is made to recognize whether or not, it is possible to instruct a desired process by a simple action.

なお、上述した第2実施例においては、オペレータの顔の移動方向として、上下左右を例示したが、この4つの移動タイプ以外に、上下左右の斜め方向に流すタイプをも含めれば、合計8タイプとすることができる。また、顔の前/後方向への移動、つまり、カメラから遠ざかる/近づく移動を含めるようにしてもよい。更に、顔に限らず、上半身の移動であってもよい。  In the second embodiment described above, the up / down / left / right directions are exemplified as the movement direction of the operator's face. However, in addition to the four movement types, a total of eight types are included if including a type that flows in the up / down / left / right diagonal directions. It can be. Further, the movement of the face in the forward / backward direction, that is, the movement away / approaching from the camera may be included. Furthermore, the movement of the upper body is not limited to the face.

上述した第2実施例においては、指を伸ばした数を検出するようにしたが、更に、指を伸ばした方向をも考慮するようにしてもよい。更に、片手に限らず、両手を含めるようにしてもよい。
上述した第2実施例においては、手などでカメラ部分を塞いでいる意図的な画像遮断時間を検出するようにしたが、顔の出現回数を検出したり、出現頻度などを検出するようにしてもよい。
In the second embodiment described above, the number of fingers extended is detected, but the direction in which the fingers are extended may also be considered. Furthermore, you may make it include not only one hand but both hands.
In the second embodiment described above, the intentional image blocking time in which the camera portion is blocked by a hand or the like is detected, but the number of appearances of the face or the appearance frequency is detected. Also good.

その他、上述した第1および第2実施例においては、情報処理装置として、ビデオカメラを備えたディスク型/ノート型のパーソナルコンピュータを例示したが、携帯電話やPDA等であってもよい。また、スタンドアロンタイプの情報処理装置に限らず、各構成要素が2以上の筐体に物理的に分離され、通信回線やケーブル等の有線伝送路あるいは電波、マイクロウエーブ、赤外線等の無線伝送路を介してデータを送受信する分散型システムであってもよい。   In addition, in the first and second embodiments described above, a disk type / notebook type personal computer equipped with a video camera is exemplified as the information processing apparatus, but a mobile phone, a PDA, or the like may be used. In addition to a stand-alone type information processing device, each component is physically separated into two or more cases, and a wired transmission path such as a communication line or a cable, or a wireless transmission path such as radio waves, microwaves, infrared rays, etc. It may be a distributed system that transmits and receives data through the network.

一方、コンピュータに対して、上述した各手段を実行させるためのプログラムコードをそれぞれ記録した記録媒体(例えば、CD−ROM、RAMカード等)を提供するようにしてもよい。すなわち、コンピュータが読み取り可能なプログラムコードを有する記録媒体であって、オペレータ毎に予め任意に登録されている行動情報を記憶管理すると共に、この行動情報に対応付けて特定処理の実行を指示するための指示命令を記憶管理する機能と、オペレータを撮影したオペレータ画像に基づいて当該オペレータの行動を解析する機能と、この画像解析の結果と当該オペレータ対応の前記行動情報とを比較することによってオペレータの行動が登録内容通りであるか否かを認識する機能と、登録内容通りの行動が行われたことが認識された場合に、この行動情報に対応付けられている前記指示命令を読み出して特定処理を実行する機能とを実現させるためのプログラムを記録したコンピュータが読み取り可能な記録媒体を提供するようにしてもよい。   On the other hand, a recording medium (for example, a CD-ROM, a RAM card, etc.) on which program codes for executing the above-described units are recorded may be provided to the computer. That is, a recording medium having a computer-readable program code for storing and managing behavior information that is arbitrarily registered in advance for each operator and instructing execution of specific processing in association with this behavior information A function for storing and managing the instruction command, a function for analyzing the action of the operator based on an operator image obtained by photographing the operator, and comparing the result of the image analysis with the action information corresponding to the operator. A function for recognizing whether or not the action is in accordance with the registered content, and when it is recognized that the action has been performed in accordance with the registered content, the instruction command associated with this action information is read and specified processing And a computer-readable recording medium storing a program for realizing the function for executing Unishi may be.

情報処理装置の基本的構成要素を示したブロック図。The block diagram which showed the basic component of information processing apparatus. 顔テーブル11の構成を示した図。The figure which showed the structure of the face table. ジェスチャ動作テーブル12の構成を示した図。The figure which showed the structure of the gesture operation | movement table 12. FIG. ジェスチャコマンドテーブル13の構成を示した図。The figure which showed the structure of the gesture command table 13. FIG. ジェスチャとして拳の動作変化に応じて分類されているジェスチャタイプを説明するための図。The figure for demonstrating the gesture type classified according to the motion change of the fist as a gesture. ジェスチャとして拳の動作変化に応じて分類されている複数種のジェスチャを例示した図。The figure which illustrated a plurality of kinds of gestures classified according to the change in movement of the fist as gestures. ジェスチャ登録時の動作を示したフローチャート。The flowchart which showed the operation | movement at the time of gesture registration. 電源投入時の動作を示したフローチャート。The flowchart which showed the operation | movement at the time of power activation. 第2実施例において、オペレータの移動方向を例示した図。The figure which illustrated the movement direction of the operator in 2nd Example. 図9と同様、オペレータの移動方向を例示した図。The figure which illustrated the movement direction of an operator like FIG. 第2実施例において、指を立てている数を例示した図。The figure which illustrated the number which has raised a finger in the 2nd example. 第2実施例において、顔と拳との相対的な位置関係を例示した図。The figure which illustrated the relative positional relationship of a face and a fist in the 2nd example. 第2実施例において、掌や指などでカメラ部分を塞いでいる意図的な画像遮断が行われている場合を示した図。The figure which showed the case where the intentional image interruption which has blocked the camera part with a palm, a finger, etc. is performed in 2nd Example. 第2実施例において、顔移動コマンドテーブル14の構成を示した図。The figure which showed the structure of the face movement command table 14 in 2nd Example. 第2実施例において、指コマンドテーブル15の構成を示した図。The figure which showed the structure of the finger command table 15 in 2nd Example. 第2実施例において、相対関係コマンドテーブル16の構成を示した図。The figure which showed the structure of the relative relationship command table 16 in 2nd Example. 第2実施例において、遮断時間コマンドテーブル17の構成を示した図。The figure which showed the structure of the interruption | blocking time command table 17 in 2nd Example. 第2実施例において、オペレータ毎に任意のコマンドを各コマンドテーブル14〜17に登録する場合の動作を示したフローチャート。The flowchart which showed the operation | movement in the case of registering arbitrary commands for each operator in each command table 14-17 in 2nd Example. 第2実施例において、カメラ指示ボタンが操作された場合の動作を示したフローチャート。9 is a flowchart showing an operation when a camera instruction button is operated in the second embodiment. 図19に続く動作を示したフローチャート。The flowchart which showed the operation | movement following FIG.

符号の説明Explanation of symbols

1 CPU
2 記憶部
4 記憶媒体
5 操作部
6 表示部
7 カメラ撮影部
11 顔テーブル
12 ジェスチャ動作テーブル
13 ジェスチャコマンドテーブル
14 顔移動コマンドテーブル
15 指コマンドテーブル
16 相対関係コマンドテーブル
17 遮断時間コマンドテーブル
1 CPU
DESCRIPTION OF SYMBOLS 2 Memory | storage part 4 Storage medium 5 Operation part 6 Display part 7 Camera imaging | photography part 11 Face table 12 Gesture action table 13 Gesture command table 14 Face movement command table 15 Finger command table 16 Relative relation command table 17 Shut-off time command table

Claims (10)

オペレータを撮影する撮影機能を備えた情報処理装置であって、
オペレータ毎に予め任意に登録されている行動情報を記憶管理すると共に、この行動情報に対応付けて特定処理の実行を指示するための指示命令を記憶管理する登録情報記憶手段と、
オペレータを撮影したオペレータ画像に基づいて当該オペレータの行動を解析する画像解析手段と、
この画像解析手段によって得られた解析結果と、当該オペレータ対応の前記行動情報とを比較することによってオペレータの行動が登録内容通りであるか否かを認識する認識手段と、
この認識手段によって登録内容通りの行動が行われたことが認識された場合に、この行動情報に対応付けられている前記指示命令を読み出して特定処理を実行する処理実行手段と、
を具備したことを特徴とする情報処理装置。
An information processing apparatus having a photographing function for photographing an operator,
Registered information storage means for storing and managing action information arbitrarily registered in advance for each operator, and storing and managing an instruction command for instructing execution of a specific process in association with the action information;
Image analyzing means for analyzing the behavior of the operator based on an operator image obtained by photographing the operator;
Recognizing means for recognizing whether or not the action of the operator is as registered, by comparing the analysis result obtained by the image analysis means and the action information corresponding to the operator;
A process execution means for reading out the instruction command associated with the action information and executing a specific process when it is recognized by the recognition means that the action according to the registered content has been performed;
An information processing apparatus comprising:
オペレータ毎にその行動情報を登録する場合に、オペレータの行動を撮影したオペレータ画像を解析することによって特徴的な行動が含まれている部分を含むオペレータ画像を行動情報として登録する、
ようにしたことを特徴とする請求項1記載の情報処理装置。
When registering the action information for each operator, registering an operator image including a part including a characteristic action as action information by analyzing an operator image obtained by photographing the action of the operator.
2. The information processing apparatus according to claim 1, wherein the information processing apparatus is configured as described above.
前記登録情報記憶手段は、オペレータ毎に任意に登録された複数種の行動情報を記憶管理すると共に、この複数種の行動情報に対応付けて任意に登録された異なる種類の指示命令を行動情報毎に記憶管理し、
前記処理実行手段は、前記認識手段によってオペレータの行動が何れかの行動情報に該当することが認識された場合に、この行動情報に対応付けられている前記指示命令を読み出して特定処理を実行する、
ようにしたことを特徴とする請求項1記載の情報処理装置。
The registered information storage means stores and manages a plurality of types of behavior information arbitrarily registered for each operator, and assigns different types of instruction commands arbitrarily registered in association with the plurality of types of behavior information for each behavior information. Memory management,
When the recognition means recognizes that the action of the operator corresponds to any action information, the process execution means reads the instruction command associated with the action information and executes a specific process. ,
2. The information processing apparatus according to claim 1, wherein the information processing apparatus is configured as described above.
前記解析手段は、電源投入時に撮影されたオペレータ画像に基づいて当該オペレータの行動を解析し、
前記処理実行手段は、オペレータの行動が登録内容通りであることが認識された場合に、電源投入直後に当該行動情報に対応付けられている指示命令に従った特定処理への移行を指示する、
ようにしたことを特徴とする請求項1記載の情報処理装置。
The analysis means analyzes the operator's action based on the operator image taken at power-on,
The process execution means, when it is recognized that the action of the operator is as registered, directs the transition to the specific process according to the instruction command associated with the action information immediately after power-on,
2. The information processing apparatus according to claim 1, wherein the information processing apparatus is configured as described above.
前記画像解析手段は、オペレータ画像内の手の部分に着目し、この画像部分を時系列的に解析することによってオペレータの手の動作変化を特定し、
前記認識手段は、この画像解析手段によって得られた手の動作変化が登録内容通りであるか否かを認識する、
ようにしたことを特徴とする請求項1記載の情報処理装置。
The image analysis means pays attention to a hand part in an operator image, specifies an operation change of the operator's hand by analyzing the image part in time series,
The recognizing means recognizes whether or not the hand movement obtained by the image analyzing means is as registered.
2. The information processing apparatus according to claim 1, wherein the information processing apparatus is configured as described above.
前記画像解析手段は、オペレータ画像内の顔の部分に着目し、この画像部分を時系列的に解析することによってオペレータの移動方向を特定し、
前記認識手段は、この画像解析手段によって得られたオペレータの移動方向が登録内容通りであるか否かを認識する、
ようにしたことを特徴とする請求項1記載の情報処理装置。
The image analysis means pays attention to the face portion in the operator image, identifies the moving direction of the operator by analyzing the image portion in time series,
The recognizing means recognizes whether or not the moving direction of the operator obtained by the image analyzing means is as registered.
2. The information processing apparatus according to claim 1, wherein the information processing apparatus is configured as described above.
前記画像解析手段は、オペレータ画像内の手の部分に着目し、この画像部分を解析することによって指を伸ばしている数を特定し、
前記認識手段は、この画像解析手段によって得られた指の数が登録内容通りであるか否かを認識する、
ようにしたことを特徴とする請求項1記載の情報処理装置。
The image analysis means focuses on a part of the hand in the operator image, specifies the number of fingers that are stretched by analyzing the image part,
The recognizing means recognizes whether or not the number of fingers obtained by the image analyzing means is as registered.
2. The information processing apparatus according to claim 1, wherein the information processing apparatus is configured as described above.
前記画像解析手段は、オペレータ画像内の顔部分および手部分に着目し、顔と手との相対的な位置関係を特定し、
前記認識手段は、この画像解析手段によって得られた相対的な位置関係が登録内容通りであるか否かを認識する、
ようにしたことを特徴とする請求項1記載の情報処理装置。
The image analysis means focuses on a face part and a hand part in an operator image, specifies a relative positional relationship between the face and the hand,
The recognizing means recognizes whether or not the relative positional relationship obtained by the image analyzing means is as registered.
2. The information processing apparatus according to claim 1, wherein the information processing apparatus is configured as described above.
前記画像解析手段は、オペレータ画像内の顔の部分に着目して顔の出現状態を特定し、
前記認識手段は、この画像解析手段によって得られた顔の出現状態が登録内容通りであるか否かを認識する、
ようにしたことを特徴とする請求項1記載の情報処理装置。
The image analysis means focuses on the face portion in the operator image and identifies the appearance state of the face,
The recognizing means recognizes whether or not the appearance state of the face obtained by the image analyzing means is as registered.
2. The information processing apparatus according to claim 1, wherein the information processing apparatus is configured as described above.
コンピュータに対して、
オペレータ毎に予め任意に登録されている行動情報を記憶管理すると共に、この行動情報に対応付けて特定処理の実行を指示するための指示命令を記憶管理する機能と、
オペレータを撮影したオペレータ画像に基づいて当該オペレータの行動を解析する機能と、
この画像解析の結果と、当該オペレータ対応の前記行動情報とを比較することによってオペレータの行動が登録内容通りであるか否かを認識する機能と、
登録内容通りの行動が行われたことが認識された場合に、この行動情報に対応付けられている前記指示命令を読み出して特定処理を実行する機能と、
を実現させるためのプログラム。
Against the computer,
A function for storing and managing action information arbitrarily registered in advance for each operator, and storing and managing an instruction command for instructing execution of a specific process in association with the action information;
A function of analyzing the behavior of the operator based on an operator image obtained by photographing the operator;
A function of recognizing whether or not the behavior of the operator is as registered, by comparing the result of the image analysis and the behavior information corresponding to the operator;
A function of reading the instruction command associated with the action information and executing a specific process when it is recognized that the action according to the registered content has been performed;
A program to realize
JP2003322995A 2003-09-16 2003-09-16 Information processing apparatus and program Pending JP2005092419A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003322995A JP2005092419A (en) 2003-09-16 2003-09-16 Information processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003322995A JP2005092419A (en) 2003-09-16 2003-09-16 Information processing apparatus and program

Publications (1)

Publication Number Publication Date
JP2005092419A true JP2005092419A (en) 2005-04-07

Family

ID=34454198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003322995A Pending JP2005092419A (en) 2003-09-16 2003-09-16 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP2005092419A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007035040A (en) * 2005-07-25 2007-02-08 Lg Electronics Inc Mobile communication terminal for estimating motion direction, and motion direction estimation method
KR100826878B1 (en) 2006-09-28 2008-05-06 한국전자통신연구원 Hand shafe recognition method and apparatus for thereof
JP2008140319A (en) * 2006-12-05 2008-06-19 Mitsubishi Electric Corp Personal identification device and personal identification system
JP2011061770A (en) * 2009-09-08 2011-03-24 Pantech Co Ltd Mobile terminal having photographing control function based on image recognition technique and photographing control system employing image recognition technique
JP2012502344A (en) * 2008-09-04 2012-01-26 エクストリーム リアリティー エルティーディー. Method system and software for providing an image sensor based human machine interface
JP2012098988A (en) * 2010-11-04 2012-05-24 Sony Corp Image processing apparatus and method, and program
JP2012111604A (en) * 2010-11-25 2012-06-14 Mitsubishi Electric Corp Crime preventive system of elevator
EP2498487A1 (en) * 2009-11-02 2012-09-12 Nec Corporation Mobile communication apparatus
WO2014128773A1 (en) * 2013-02-19 2014-08-28 株式会社ブリリアントサービス Gesture registration device, gesture registration program, and gesture registration method
JP2014535100A (en) * 2011-10-12 2014-12-25 クアルコム,インコーポレイテッド Authentication-type gesture recognition
JP2015511343A (en) * 2012-01-20 2015-04-16 トムソン ライセンシングThomson Licensing User recognition method and system
JP2018018255A (en) * 2016-07-27 2018-02-01 パイオニア株式会社 Recognition device and recognition method
JP2018508880A (en) * 2015-01-28 2018-03-29 テラリコン インコーポレイテッド Touchless advanced image processing and visualization
WO2020152917A1 (en) * 2019-01-23 2020-07-30 Necソリューションイノベータ株式会社 Face authentication device, face authentication method, program, and recording medium

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4611257B2 (en) * 2005-07-25 2011-01-12 エルジー エレクトロニクス インコーポレイティド Mobile communication terminal and motion direction estimation method for estimating motion direction
JP2007035040A (en) * 2005-07-25 2007-02-08 Lg Electronics Inc Mobile communication terminal for estimating motion direction, and motion direction estimation method
KR100826878B1 (en) 2006-09-28 2008-05-06 한국전자통신연구원 Hand shafe recognition method and apparatus for thereof
JP2008140319A (en) * 2006-12-05 2008-06-19 Mitsubishi Electric Corp Personal identification device and personal identification system
JP2013175242A (en) * 2008-09-04 2013-09-05 Extreme Reality Ltd Israel Method system and software for providing image sensor based human machine interfacing
JP2012502344A (en) * 2008-09-04 2012-01-26 エクストリーム リアリティー エルティーディー. Method system and software for providing an image sensor based human machine interface
JP2011061770A (en) * 2009-09-08 2011-03-24 Pantech Co Ltd Mobile terminal having photographing control function based on image recognition technique and photographing control system employing image recognition technique
EP2498487A4 (en) * 2009-11-02 2014-05-07 Nec Corp Mobile communication apparatus
EP2498487A1 (en) * 2009-11-02 2012-09-12 Nec Corporation Mobile communication apparatus
US8941745B2 (en) 2009-11-02 2015-01-27 Lenovo Innovations Limited (Hong Kong) Mobile communication apparatus for controlling imaging based on facial recognition
JP2012098988A (en) * 2010-11-04 2012-05-24 Sony Corp Image processing apparatus and method, and program
JP2012111604A (en) * 2010-11-25 2012-06-14 Mitsubishi Electric Corp Crime preventive system of elevator
JP2014535100A (en) * 2011-10-12 2014-12-25 クアルコム,インコーポレイテッド Authentication-type gesture recognition
US9684821B2 (en) 2012-01-20 2017-06-20 Thomson Licensing Method and apparatus for user recognition
JP2015511343A (en) * 2012-01-20 2015-04-16 トムソン ライセンシングThomson Licensing User recognition method and system
WO2014128773A1 (en) * 2013-02-19 2014-08-28 株式会社ブリリアントサービス Gesture registration device, gesture registration program, and gesture registration method
JPWO2014128773A1 (en) * 2013-02-19 2017-02-02 株式会社ブリリアントサービス Gesture registration device, gesture registration program, and gesture registration method
JP2018508880A (en) * 2015-01-28 2018-03-29 テラリコン インコーポレイテッド Touchless advanced image processing and visualization
JP2019133678A (en) * 2015-01-28 2019-08-08 テラリコン インコーポレイテッド Touchless advanced image processing and visualization
JP2018018255A (en) * 2016-07-27 2018-02-01 パイオニア株式会社 Recognition device and recognition method
WO2020152917A1 (en) * 2019-01-23 2020-07-30 Necソリューションイノベータ株式会社 Face authentication device, face authentication method, program, and recording medium
JPWO2020152917A1 (en) * 2019-01-23 2021-11-04 Necソリューションイノベータ株式会社 Face recognition devices, face recognition methods, programs, and recording media
JP7251874B2 (en) 2019-01-23 2023-04-04 Necソリューションイノベータ株式会社 Face authentication device, face authentication method, program, and recording medium

Similar Documents

Publication Publication Date Title
US10861242B2 (en) Transmodal input fusion for a wearable system
EP3461291B1 (en) Implementation of a biometric enrollment user interface
Harrison et al. On-body interaction: armed and dangerous
JP5885835B2 (en) Computer device operable by movement of user&#39;s eyeball and method for operating the computer device
US20180307321A1 (en) Build Status of a Buildable Product
US8514251B2 (en) Enhanced character input using recognized gestures
US8866781B2 (en) Contactless gesture-based control method and apparatus
JP6159323B2 (en) Information processing method and information processing apparatus
JP5575645B2 (en) Advanced camera-based input
KR20240017964A (en) Implementation of biometric authentication
CN117032519A (en) Apparatus, method and graphical user interface for interacting with a three-dimensional environment
US11782514B2 (en) Wearable device and control method thereof, gesture recognition method, and control system
JP2005092419A (en) Information processing apparatus and program
JPH07175587A (en) Information processor
CN106527693A (en) Application control method and mobile terminal
KR20120096849A (en) An apparatus and method for inputting command using gesture
JP2011513847A (en) Advanced input using recognized gestures
JPH06138815A (en) Finger language/word conversion system
JP2010145861A (en) Head mount display
US10372229B2 (en) Information processing system, information processing apparatus, control method, and program
JP2017208638A (en) Iris authentication device, iris authentication method, and program
JP2009140390A (en) Instruction device and fingerprint authentication semiconductor circuit
JPWO2014147722A1 (en) Electronic device, method and program
JP2016177658A (en) Virtual input device, input method, and program
CN106933364B (en) Characters input method, character input device and wearable device

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20060209

RD04 Notification of resignation of power of attorney

Effective date: 20060404

Free format text: JAPANESE INTERMEDIATE CODE: A7424