JP2005092419A - Information processing apparatus and program - Google Patents
Information processing apparatus and program Download PDFInfo
- Publication number
- JP2005092419A JP2005092419A JP2003322995A JP2003322995A JP2005092419A JP 2005092419 A JP2005092419 A JP 2005092419A JP 2003322995 A JP2003322995 A JP 2003322995A JP 2003322995 A JP2003322995 A JP 2003322995A JP 2005092419 A JP2005092419 A JP 2005092419A
- Authority
- JP
- Japan
- Prior art keywords
- operator
- image
- registered
- action
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
この発明は、オペレータを撮影する撮影機能を備えた情報処理装置およびプログラムに関する。 The present invention relates to an information processing apparatus and a program having a photographing function for photographing an operator.
一般に、オペレータを撮影するカメラ機能を備えたディスク型/ノート型のパーソナルコンピュータ等の情報処理装置においては、ログイン時にパスワードを入力する代わりに、オペレータを撮影したオペレータ画像(顔画像)と、予め登録されている登録画像(顔画像)とを照合することによってオペレータ認証を行うようにしている。
そして、従来では、例えば、顔画像と顔の動きによって個人認証を行うようにしたシステムが知られている(特許文献1参照)。
また、ユーザを撮影した画像に基づいてユーザの移動方向を認識し、この移動方向に応じてコマンドを出力するようにした情報処理装置が知られている(特許文献2参照)。
In general, in an information processing apparatus such as a disc / notebook personal computer having a camera function for photographing an operator, an operator image (face image) obtained by photographing the operator is registered in advance instead of inputting a password at the time of login. The operator authentication is performed by comparing the registered image (face image).
Conventionally, for example, a system is known in which personal authentication is performed using a face image and a face motion (see Patent Document 1).
There is also known an information processing apparatus that recognizes a moving direction of a user based on an image obtained by photographing the user and outputs a command according to the moving direction (see Patent Document 2).
上述した特許文献1のシステムにおいては、顔画像の他、顔の動きをも考慮することによって個人認証時の安全率を高めた技術であり、ログイン時のみを前提とするものであった。また、特許文献2の情報処理装置においては、ユーザの移動方向に応じたコマンドを出力することによって操作性の向上を図る技術であるが、予め決められている方向への移動を前提するものであり、しかも、移動方向が同じであれば、常に同一のコマンドを固定的に出力するものであった。
The system disclosed in
この発明の課題は、オペレータを撮影した画像を解析することによってオペレータの行動に応じた指示命令を実行する場合において、オペレータ毎に任意の行動と指示命令とを対応付けて登録しておくだけで、オペレータの好みに合った行動で希望する処理を実行できるようにすることである。 An object of the present invention is to execute an instruction command corresponding to an operator's action by analyzing an image captured by the operator, and to register an arbitrary action and an instruction command in association with each operator. It is to be able to execute a desired process with an action that suits the operator's preference.
請求項1記載の発明は、オペレータを撮影する撮影機能を備えた情報処理装置であって、オペレータ毎に予め任意に登録されている行動情報を記憶管理すると共に、この行動情報に対応付けて特定処理の実行を指示するための指示命令を記憶管理する登録情報記憶手段と、オペレータを撮影したオペレータ画像に基づいて当該オペレータの行動を解析する画像解析手段と、この画像解析手段によって得られた解析結果と、当該オペレータ対応の前記行動情報とを比較することによってオペレータの行動が登録内容通りであるか否かを認識する認識手段と、この認識手段によって登録内容通りの行動が行われたことが認識された場合に、この行動情報に対応付けられている前記指示命令を読み出して特定処理を実行する処理実行手段とを具備したことを特徴とする。
更に、コンピュータに対して、上述した請求項1記載の発明に示した主要機能を実現させるためのプログラムを提供する(請求項10記載の発明)。
The invention according to
Furthermore, a program for realizing the main functions shown in the invention described in
なお、請求項1記載の発明は次のようなものであってもよい。
オペレータ毎にその行動情報を登録する場合に、オペレータの行動を撮影したオペレータ画像を解析することによって特徴的な行動が含まれている部分を含むオペレータ画像を行動情報として登録する(請求項2記載の発明)。
The invention described in
When the behavior information is registered for each operator, an operator image including a portion including a characteristic behavior is registered as behavior information by analyzing an operator image obtained by photographing the behavior of the operator (claim 2). Invention).
前記登録情報記憶手段は、オペレータ毎に任意に登録された複数種の行動情報を記憶管理すると共に、この複数種の行動情報に対応付けて任意に登録された異なる種類の指示命令を行動情報毎に記憶管理し、前記処理実行手段は、前記認識手段によってオペレータの行動が何れかの行動情報に該当することが認識された場合に、この行動情報に対応付けられている前記指示命令を読み出して特定処理を実行する(請求項3記載の発明)。 The registered information storage means stores and manages a plurality of types of behavior information arbitrarily registered for each operator, and assigns different types of instruction commands arbitrarily registered in association with the plurality of types of behavior information for each behavior information. And when the recognition means recognizes that the action of the operator corresponds to any action information, the process execution means reads out the instruction command associated with the action information. The specific processing is executed (the invention according to claim 3).
前記解析手段は、電源投入時に撮影されたオペレータ画像に基づいて当該オペレータの行動を解析し、前記処理実行手段は、オペレータの行動が登録内容通りであることが認識された場合に、電源投入直後に当該行動情報に対応付けられている指示命令に従った特定処理への移行を指示する(請求項4記載の発明)。 The analysis means analyzes an operator's action based on an operator image taken at power-on, and the processing execution means immediately after turning on the power when it is recognized that the operator's action is as registered. Is instructed to shift to the specific processing in accordance with the instruction command associated with the action information (the invention according to claim 4).
前記画像解析手段は、オペレータ画像内の手の部分に着目し、この画像部分を時系列的に解析することによってオペレータの手の動作変化を特定し、前記認識手段は、この画像解析手段によって得られた手の動作変化が登録内容通りであるか否かを認識する(請求項5記載の発明)。 The image analysis means pays attention to a hand portion in the operator image, identifies an operation change of the operator's hand by analyzing the image portion in time series, and the recognition means is obtained by the image analysis means. It is recognized whether or not the movement change of the given hand is in accordance with the registered content (the invention of claim 5).
前記画像解析手段は、オペレータ画像内の顔の部分に着目し、この画像部分を時系列的に解析することによってオペレータの移動方向を特定し、前記認識手段は、この画像解析手段によって得られたオペレータの移動方向が登録内容通りであるか否かを認識する(請求項6記載の発明)。 The image analysis means pays attention to the face portion in the operator image, specifies the moving direction of the operator by analyzing the image portion in time series, and the recognition means is obtained by the image analysis means. It is recognized whether or not the movement direction of the operator is in accordance with the registered content (the invention according to claim 6).
前記画像解析手段は、オペレータ画像内の手の部分に着目し、この画像部分を解析することによって指を伸ばしている数を特定し、前記認識手段は、この画像解析手段によって得られた指の数が登録内容通りであるか否かを認識する(請求項7記載の発明)。 The image analysis means focuses on the hand part in the operator image, identifies the number of fingers extended by analyzing the image part, and the recognition means recognizes the finger obtained by the image analysis means. It is recognized whether the number is as registered (invention of claim 7).
前記画像解析手段は、オペレータ画像内の顔部分および手部分に着目し、顔と手との相対的な位置関係を特定し、前記認識手段は、この画像解析手段によって得られた相対的な位置関係が登録内容通りであるか否かを認識する(請求項8記載の発明)。 The image analysis unit focuses on a face part and a hand part in an operator image, specifies a relative positional relationship between the face and the hand, and the recognition unit determines a relative position obtained by the image analysis unit. It is recognized whether or not the relationship is as registered (invention of claim 8).
前記画像解析手段は、オペレータ画像内の顔の部分に着目して顔の出現状態を特定し、前記認識手段は、この画像解析手段によって得られた顔の出現状態が登録内容通りであるか否かを認識する(請求項9記載の発明)。 The image analysis means identifies the appearance state of the face by paying attention to the face portion in the operator image, and the recognition means determines whether or not the appearance state of the face obtained by the image analysis means is as registered content. (Invention of claim 9).
請求項1記載の発明によれば、オペレータ毎に予め任意に登録されている行動情報が記憶管理されていると共に、この行動情報に対応付けて特定処理の実行を指示するための指示命令が記憶管理されている状態において、オペレータを撮影したオペレータ画像に基づいて当該オペレータの行動を解析し、この解析結果と当該オペレータ対応の行動情報とを比較することによってオペレータの行動が登録内容通りである場合には、この行動情報に対応付けられている指示命令を読み出して特定処理を実行するようにしたから、オペレータ毎に任意の行動情報と指示命令とを対応付けて登録しておくだけで、オペレータの好みに合った行動で希望する処理を実行することが可能となる。この場合、同じ行動でも個人毎に異なる指示命令を実行させることができ、逆に、異なる行動でも個人毎に同じ指示命令を実行させることができ、更に、必要に応じて登録内容を任意に変更することも可能であるなど、自由度が増し、使い勝手の大幅な向上を期待することが可能となる。 According to the first aspect of the present invention, action information that is arbitrarily registered in advance for each operator is stored and managed, and an instruction command for instructing execution of the specific process is stored in association with the action information. In a managed state, when the operator's action is analyzed based on an operator image obtained by photographing the operator, and the analysis result is compared with the action information corresponding to the operator, the action of the operator is as registered Since the instruction command associated with this action information is read and the specific process is executed, the operator can simply register any action information and the instruction instruction in association with each operator. It is possible to execute a desired process with an action that suits the user's preference. In this case, different instructions can be executed for each individual even with the same action, and conversely, the same instruction can be executed for each individual with different actions, and the registration contents can be arbitrarily changed as necessary. The degree of freedom increases, and it is possible to expect a significant improvement in usability.
請求項2記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、オペレータ毎にその行動情報を登録する場合に、オペレータの行動を撮影したオペレータ画像を解析することによって特徴的な行動が含まれている部分を含むオペレータ画像を行動情報として登録するようにしたから、カメラの前で任意の行動をとるだけで、行動情報の自動登録が可能となる。
According to the invention described in
請求項3記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、オペレータ毎に任意に登録された複数種の行動情報が記憶管理されていると共に、この複数種の行動情報に対応付けて任意に登録された異なる種類の指示命令が行動情報毎に記憶管理されている状態において、オペレータの行動が何れかの行動情報に該当することが認識された場合に、この行動情報に対応付けられている指示命令を読み出して特定処理を実行するようにしたから、オペレータはその行動の種類を変えるだけで、希望する指示命令を選択的に実行することができる。
According to the invention described in
請求項4記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、電源投入時に撮影されたオペレータ画像に基づいて当該オペレータの行動を解析し、オペレータの行動が登録内容通りであることが認識された場合に、電源投入直後に当該行動情報に対応付けられている指示命令に従った特定処理への移行を指示するようにしたから、電源投入直後に希望する処理へ即座に移行することができ、電源を立ち上げてから希望する処理に移るまでの時間の短縮化と操作性の簡素化を期待することができる。
According to the invention described in
請求項5記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、オペレータ画像内の手の部分に着目し、この画像部分を時系列的に解析することによってオペレータの手の動作変化を特定し、この手の動作変化が登録内容通りであるか否かを認識するようにしたから、自由自在に動く手の動作変化(手振り)をオペレータの行動とすることができ、オペレータの好みに応じた自由自在な対応が可能となる。
According to the invention described in
請求項6記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、オペレータ画像内の顔の部分に着目し、この画像部分を時系列的に解析することによってオペレータの移動方向を特定し、このオペレータの移動方向が登録内容通りであるか否かを認識するようにしたから、例えば、上/下方向への移動、左/右方向への移動、斜め方向への移動、前/後方向への移動をオペレータの行動とすることができ、オペレータの好みに応じた自由自在な対応が可能となる。
According to the invention described in
請求項7記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、オペレータ画像内の手の部分に着目し、この画像部分を解析することによって指を伸ばしている数を特定し、この指の数が登録内容通りであるか否かを認識するようにしたから、指を伸ばすという簡単な行動によって希望する処理を実行することが可能となる。なお、指を伸ばした数の他に、伸ばした方向をも考慮するようにすれば、オペレータの好みに応じた自由自在な対応が可能となる。 According to the seventh aspect of the invention, in addition to the same effect as the first aspect of the invention described above, the finger is extended by paying attention to the hand portion in the operator image and analyzing the image portion. Since the number is specified and it is recognized whether or not the number of fingers is as registered, it is possible to execute a desired process by a simple action of extending the finger. In addition to the number of fingers extended, if the direction of extension is taken into consideration, it is possible to freely respond to the preference of the operator.
請求項8記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、オペレータ画像内の顔部分および手部分に着目し、顔と手との相対的な位置関係を特定し、この相対的な位置関係が登録内容通りであるか否かを認識するようにしたから、自由自在に動く手の位置と顔と相対的な位置関係をオペレータの行動とすることができ、オペレータの好みに応じた自由自在な対応が可能となる。
According to the invention described in
請求項9記載の発明によれば、上述した請求項1記載の発明と同様の効果を有する他、
オペレータ画像内の顔の部分に着目して顔の出現状態を特定し、この出現状態が登録内容通りであるか否かを認識するようにしたから、例えば、手などでカメラ部分を塞いでいる時間(意図的な画像遮断時間)あるいは顔の出現回数などをオペレータの行動とすることができ、簡単な行動によって希望する処理を指示することが可能となる。
According to the ninth aspect of the invention, in addition to the same effect as the first aspect of the invention,
Focusing on the face part in the operator image, the appearance state of the face is specified, and it is determined whether or not the appearance state is as registered, so for example, the camera part is blocked with a hand or the like. The time (intentional image blocking time) or the number of appearances of the face can be used as the action of the operator, and a desired process can be instructed by a simple action.
(実施例1)
以下、図1〜図8を参照して本発明の第1実施例を説明する。
図1は、この実施例における情報処理装置の基本的構成要素を示したブロック図である。
この情報処理装置は、オペレータを撮影するビデオカメラを備えたディスク型/ノート型のパーソナルコンピュータであり、オペレータを撮影したオペレータ画像を解析することによってそのジェスチャ(手の動き)に応じた指示命令(コマンド)を実行すると共に、オペレータ毎に任意のジェスチャとコマンドとを対応付けて登録しておくだけで、オペレータの好みに合ったジェスチャで希望する処理を実行できるようにしたものである。すなわち、オペレータ画像内の手の部分に着目し、この画像部分を時系列的に解析することによってオペレータの手の動作変化を解析し、この手の動作変化が登録内容通りである場合には、この手の動き(ジェスチャ)に対応付けられている登録コマンドを読み出して特定処理を実行するようにしたものである。
なお、この実施例の特徴部分を詳述する前に、この実施例のハードウェア上の構成について以下、説明しておく。
(Example 1)
A first embodiment of the present invention will be described below with reference to FIGS.
FIG. 1 is a block diagram showing basic components of the information processing apparatus in this embodiment.
This information processing apparatus is a disc / notebook personal computer equipped with a video camera for photographing an operator, and by analyzing an operator image obtained by photographing the operator, an instruction command (in accordance with the gesture (hand movement)) Command) and an arbitrary gesture and a command are registered for each operator in association with each other, and a desired process can be executed with a gesture suitable for the operator's preference. That is, paying attention to the hand part in the operator image, analyzing the movement of the operator's hand by analyzing this image part in time series, and if the movement change of the hand is as registered, A registration command associated with this hand movement (gesture) is read out and a specific process is executed.
Before detailed description of the features of this embodiment, the hardware configuration of this embodiment will be described below.
CPU1は、記憶部2内のオペレーティングシステムや各種アプリケーションソフトに従ってこの情報処理装置の全体動作を制御する中央演算処理装置である。記憶部2は、ハードディスク等の固定的なメモリであり、プログラム記憶領域とデータ記憶領域とを有している。この記憶部2内のプログラム記憶領域には、後述する図7および図8に示す動作手順に従って本実施例を実現する為のアプリケーションプログラムが格納され、また、データ記憶領域には、後述する図2〜図4に示すデータ(顔テーブル、ジェスチャ動作テーブル、ジェスチャコマンドテーブル)が格納されている。このプログラムやデータは、必要に応じてワークメモリ3にロードされたり、このワークメモリ3内のデータが記憶部2にセーブされる。なお、記憶媒体4は、CD−ROM、DVD等の着脱自在なメモリであり、記憶部2やワークメモリ3との間においてプログラムや画像データ等の受け渡しを行う。
The
一方、CPU1には、その入出力周辺デバイスである操作部5、表示部6、カメラ撮影部7がバスラインを介して接続されており、入出力プログラムに従ってCPU1は、これらの入出力デバイスの動作制御を行う。
操作部5は、キーボードやタッチパネルあるいはマウスやタッチ入力ペン等のポインティングデバイスを構成する入力部であり、文字列データや各種コマンドの入力を行う。表示部6は、フルカラー表示を行う液晶表示部、CRT表示部、プラズマ表示部等である。カメラ撮影部7は、撮影レンズ、ミラー等のレンズ・ミラーブロック、CCDイメージセンサ等の撮像素子、その駆動系等を備えたデジタルビデオカメラであり、装置本体の全面部に取り付けられ、オペレータの顔を中心に自動撮影を行い、一連のオペレータ画像(ビデオ画像)を画像メモリ8へ順次転送する。
On the other hand, an
The
図2は、顔テーブル11の構成を示した図である。
この顔テーブル11は、オペレータ認証を行うために予め登録された認証用の顔画像を記憶管理するもので、その認識率を高めるためにオペレータ毎に複数の顔画像を記憶可能な構成となっている。すなわち、オペレータ(A、B、C、‥‥)毎に、「オペレータID」と複数の「顔パターン」とを対応付けて記憶するもので、「オペレータID」は、オペレータが任意に入力した識別情報であり、「顔パターン」は、顔の向きや表情を異ならせて撮影された認証用の顔画像である。CPU1は、電源投入時にカメラ撮影部7によって撮影されたオペレータ画像の中から顔部分を抽出すると共に、この抽出画像(顔画像)と顔テーブル11内の各「顔パターン」とを比較することによってオペレータを特定し、正規なオペレータであるか否かの認証処理を行うようにしている。
FIG. 2 is a diagram showing the configuration of the face table 11.
The face table 11 stores and manages authentication face images registered in advance for operator authentication, and can store a plurality of face images for each operator in order to increase the recognition rate. Yes. That is, for each operator (A, B, C,...), An “operator ID” and a plurality of “face patterns” are stored in association with each other, and the “operator ID” is an identification arbitrarily entered by the operator. The “face pattern” is information and is a face image for authentication photographed with different face orientations and expressions. The
図3は、ジェスチャ動作テーブル12の構成を示した図である。
このジェスチャ動作テーブル12は、オペレータによって登録された任意のジェスチャ(手の動き)を示す動作パターンを記憶管理するもので、ジェスチャ毎に「ジェスチャID」に対応してそのジェスチャを表現する一連の動作パターンとして動作(1)、動作(2)、動作(3)を記憶可能な構成となっている。この実施例においては、ジェスチャとして拳(こぶし)の動作変化を例示したもので、CPU1は、カメラ撮影部7によって撮影された一連のオペレータ画像(ビデオ画像)を取得し、このオペレータ画像内の拳部分に着目し、この画像部分を時系列的に解析することによって特徴的な拳位置が含まれているオペレータ画像(スチル画像)を動作パターンとして抽出して、ジェスチャ動作テーブル12に登録するようにしている。
FIG. 3 is a diagram showing the configuration of the gesture operation table 12.
The gesture operation table 12 stores and manages an operation pattern indicating an arbitrary gesture (hand movement) registered by the operator, and a series of operations expressing the gesture corresponding to the “gesture ID” for each gesture. Operation (1), operation (2), and operation (3) can be stored as patterns. In this embodiment, the fist movement change is illustrated as a gesture. The
図4は、ジェスチャコマンドテーブル13の構成を示した図である。
ジェスチャコマンドテーブル13は、予めオペレータ毎に任意に登録された複数種のジェスチャを記憶管理すると共に、この複数種のジェスチャに対応付けて任意に登録された異なる種類のコマンドをジェスチャ毎に記憶管理するもので、図中、横方向には、「オペレータID」、縦方向には、「ジェスチャID」がセットされ、この「オペレータID」、「ジェスチャID」によって構成されるマトリックス状の各交差部分(桝目部分)には、「コマンド(com1、com2、com3‥‥)」がセットされる構成となっている。この場合、ジェスチャとコマンドとの対応関係は任意であり、例えば、同じジェスチャでもオペレータ毎に異なるコマンドを登録することができ、逆に、異なるジェスチャでもオペレータ毎に同じコマンドを登録することができる。また、ジェスチャコマンドテーブル13の内容を必要に応じて任意に変更することもできる。
FIG. 4 is a diagram showing the configuration of the gesture command table 13.
The gesture command table 13 stores and manages a plurality of types of gestures arbitrarily registered in advance for each operator, and stores and manages different types of commands arbitrarily registered in association with the plurality of types of gestures for each gesture. In the figure, “operator ID” is set in the horizontal direction, and “gesture ID” is set in the vertical direction, and each of the matrix-like intersections (“operator ID” and “gesture ID”) ( A “command (com1, com2, com3,...)” Is set in the grid portion. In this case, the correspondence between the gesture and the command is arbitrary. For example, a different command can be registered for each operator even with the same gesture, and conversely, the same command can be registered for each operator even with different gestures. Further, the contents of the gesture command table 13 can be arbitrarily changed as necessary.
このジェスチャコマンドテーブル13に登録された「コマンド」は、予め用意されているコマンドメニューの中からオペレータが任意に選択指定されたもので、例えば、電源投入後に特定モード(キーワード検索モード、イニシャル条件設定確認モードなど)へ移行すべきことを指示するためのコマンド、オペレータ特有の個人データを読み出して表示すべきことを指示するためのコマンド、作業中のデータを保存すべきことを指示するコマンド、前回の編集位置へのカーソル移動を指示するためのコマンドなどである。
CPU1は、顔テーブル11を参照することによって特定された「オペレータID」と、ジェスチャ動作テーブル12を参照することによって特定された「ジェスチャID」に基づいてジェスチャコマンドテーブル13を検索し、該当する「コマンド」を読み出して、そのコマンドが指示する特定処理を実行するようにしている。
The “command” registered in the gesture command table 13 is arbitrarily selected and designated by the operator from a command menu prepared in advance. For example, a specific mode (keyword search mode, initial condition setting) is set after the power is turned on. Command to instruct to move to the confirmation mode, etc., command to instruct the operator to read out and display personal data specific to the operator, command to instruct to save the data during work, the previous time Command for instructing the cursor to move to the editing position.
The
図5は、ジェスチャとして拳の動作変化に応じて分類されているジェスチャタイプを説明するための図である。
すなわち、この実施例において解析可能なジェスチャタイプを示したもので、このジェスチャタイプとしては、(例1)に示すように、拳を右上から斜め左下へ移動する如く、直線的に一方向へ流すタイプ、(例2)に示すように、拳を右上から左下へ流した後に右下へ折り返す如く、直線が途中で方向を変えるタイプ、(例3)に示すように、拳を右から左へ流した後に左から右に戻す如く、行き戻りするタイプ、(例4)に示すように、拳を反時計方向(左回り)に回す如く、回転運動するタイプに大別されている。
FIG. 5 is a diagram for explaining gesture types classified as gestures according to changes in fist motion.
That is, the gesture type that can be analyzed in this embodiment is shown. As this gesture type, as shown in (Example 1), the fist is made to flow linearly in one direction so as to move diagonally from the upper right to the lower left. Type, as shown in (Example 2), a type in which the straight line changes direction so that the fist flows from the upper right to the lower left and then turns back to the lower right, and as shown in (Example 3), the fist is moved from right to left As shown in (Example 4), the type moves back and forth as it returns from the left to the right after flowing, and is roughly classified as the type that rotates as the fist rotates counterclockwise (counterclockwise).
図6は、ジェスチャとして拳の動作変化に応じて分類されている複数種のジェスチャを例示した図である。
すなわち、「直線的に一方向へ流すタイプ」には、上述した(例1)の他に、例えば、「上→下」、「左→右」などのジェスチャが有り、「直線が途中で方向を変えるタイプ」には、上述した(例2)の他に、例えば、「上→中心→右」、「下→中心→左」などのジェスチャが有り、「行き戻りするタイプ」には、上述した(例3)の他に、例えば、「左→右→左→右」などのジェスチャが有り、「回転運動するタイプ」には、上述した(例4)の他に、例えば、「右回り」のジェスチャが有る。なお、図6は、上述した各ジェスチャにリンクして任意のコマンド(指示内容)が登録されている状態を示している。
FIG. 6 is a diagram illustrating a plurality of types of gestures classified as gestures according to changes in fist motion.
In other words, in addition to the above-mentioned (Example 1), there are gestures such as “Up → Down”, “Left → Right”, etc. In addition to the above-mentioned (Example 2), there are gestures such as “Up → Center → Right” and “Down → Center → Left”. In addition to (Example 3), for example, there are gestures such as “Left → Right → Left → Right”. ”Gesture. FIG. 6 shows a state in which an arbitrary command (instruction content) is registered linked to each gesture described above.
次に、この第1実施例における情報処理装置の動作概念を図7および図8に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、伝送媒体を介して伝送されてきた上述のプログラムコードにしたがった動作を逐次実行することもできる。このことは後述する他の実施例においても同様であり、記録媒体の他に、伝送媒体を介して外部供給されたプログラム/データを利用してこの実施例特有の動作を実行することもできる。 Next, the operation concept of the information processing apparatus in the first embodiment will be described with reference to the flowcharts shown in FIGS. Here, each function described in these flowcharts is stored in the form of a readable program code, and operations according to the program code are sequentially executed. It is also possible to sequentially execute operations according to the program code transmitted via the transmission medium. This also applies to other embodiments described later, and in addition to the recording medium, operations specific to this embodiment can be executed using programs / data supplied externally via a transmission medium.
図7は、ジェスチャ登録時の動作を示したフローチャートである。
先ず、CPU1は、ジェスチャ登録モードが指示されると、カメラ撮影部7を起動させる(ステップA1)。すると、カメラ撮影部7は、装置本体の前に居るオペレータをスチル撮影して画像メモリ8へ転送する。ここで、CPU1は、画像メモリ8からオペレータ画像(スチル画像)を取得し(ステップA2)、このオペレータ画像の中から顔部分を抽出する(ステップA3)。そして、この抽出画像(顔画像)と顔テーブル11に登録されているオペレータ毎の各「顔パターン」とを順次比較することによってオペレータを特定する処理を行う(ステップA4)。この場合、画像の顔の向き、大きさを補正した後、顔の輪郭、目、口、鼻、額等の形、位置、大きさ、髪型、メガネの有無と種類等を個別に比較する他、それらを総合比較することによって画像比較を行う(以下、同様)。この結果、特徴的に一致する画像が無ければ(ステップA5でNO)、当該オペレータは未登録であると認識してステップA6に移り、オペレータ登録を行うか否かを問い合わせる確認メッセージを表示させる。
FIG. 7 is a flowchart showing an operation at the time of gesture registration.
First, when the gesture registration mode is instructed, the
このメッセージ画面には、オペレータ登録を行うことを指示するOKボタンが設けられており、このOKボタンの操作有無を調べ(ステップA7)、操作無しが検出された場合には、この時点でこのフローから抜けるが、OKボタンが操作された場合には、オペレータIDの入力を促すメッセージ表示を行い、これに応答して入力されたオペレータIDを取り込むと共に(ステップA8)、顔の向きや表情を変えるべきことを促すメッセージ表示を行った後、再度、オペレータ画像を取得してその顔部分を抽出する(ステップA9)。そして、入力されたオペレータIDと抽出した各オペレータ画像(顔画像)とを対応付けて顔テーブル11に新規登録する(ステップA10)。 This message screen is provided with an OK button for instructing to perform operator registration. The presence / absence of operation of this OK button is checked (step A7). When the OK button is operated, a message is displayed prompting the operator to input an operator ID. In response to this, the operator ID input is captured (step A8), and the face orientation and expression are changed. After displaying the message for prompting what should be done, an operator image is acquired again and the face portion is extracted (step A9). Then, the inputted operator ID and each extracted operator image (face image) are associated with each other and newly registered in the face table 11 (step A10).
次に、上述のようにして新規登録したオペレータに対応して任意のジェスチャやコマンドを登録する処理に移る(ステップA11〜A21)。一方、上述のステップA5において、顔画像を比較した結果、登録済みのオペレータであることが認識された場合にも、当該オペレータに対応して任意のジェスチャやコマンドを登録する処理に移る(ステップA11〜A21)。先ず、CPU1は、カメラ撮影部7によってビデオ撮影された一連のオペレータ画像(動画)を取得し(ステップA11)、この一連の撮影動画の中から複数の動作パターンを分割抽出する(ステップA12)。
Next, the process moves to a process of registering an arbitrary gesture or command corresponding to the operator newly registered as described above (steps A11 to A21). On the other hand, when the face image is compared in step A5 described above and recognized as a registered operator, the process proceeds to processing for registering an arbitrary gesture or command corresponding to the operator (step A11). ~ A21). First, the
すなわち、オペレータがカメラの前で行ったジェスチャを特定するために、オペレータ画像内の拳の部分に着目し、この画像部分を時系列的に解析することによって特徴的な拳位置が含まれているオペレータ画像(静止画)を動作パターンとして抽出する。例えば、拳を右上から斜め左下へ流すようなジェスチャが行われた場合には、一連の撮影動画の中から顔の右上に拳が位置している時の動作パターン、顔の前に拳が位置している時の動作パターン、斜め左下に拳が位置している時の動作パターンのように、少なくとも3種類の動作パターンを抽出する。そして、この複数の動作パターンに基づいてジェスチャ動作テーブル12を検索し(ステップA13)、同一パターンの有無をチェックする(ステップA14)。ここで、登録済みジェスチャと同一であれば(ステップA14でYES)、ジェスチャ動作テーブル12から当該ジェスチャに対応付けられている「ジェスチャID」を取得するが(ステップ15)、登録済みジェスチャではない新たなジェスチャが行われた場合には(ステップA14でNO)、新たな「ジェスチャID」を生成すると共に(ステップA16)、この「ジェスチャID」と今回のジェスチャ(一連の動作パターン)とを対応付けてジェスチャ動作テーブル12に新規登録する(ステップA17)。 That is, in order to identify a gesture performed by the operator in front of the camera, attention is paid to a fist portion in the operator image, and a characteristic fist position is included by analyzing this image portion in time series. An operator image (still image) is extracted as an operation pattern. For example, when a gesture is performed that causes the fist to flow from upper right to diagonally lower left, the movement pattern when the fist is positioned on the upper right of the face from a series of video shots, the fist positioned in front of the face At least three types of motion patterns are extracted, such as the motion pattern when the fist is positioned and the motion pattern when the fist is positioned diagonally to the lower left. Then, the gesture motion table 12 is searched based on the plurality of motion patterns (step A13), and the presence or absence of the same pattern is checked (step A14). Here, if it is the same as the registered gesture (YES in step A14), the “gesture ID” associated with the gesture is acquired from the gesture operation table 12 (step 15), but a new gesture that is not a registered gesture is acquired. If a gesture is performed (NO in step A14), a new “gesture ID” is generated (step A16), and this “gesture ID” is associated with the current gesture (a series of motion patterns). Is newly registered in the gesture motion table 12 (step A17).
次に、コマンドメニューを読み出して表示出力させた状態において(ステップA18)、このコマンドメニューの中から任意のコマンドが選択指定された場合には(ステップA19)、当該オペレータID、ジェスチャIDに基づいてジェスチャコマンドテーブル13を検索し、このオペレータID、ジェスチャIDの交差部分に、選択指定されたコマンドを登録する(ステップA20)。
このようにして任意のジェスチャやコマンドを登録する処理が終了すると、次のステップA21に移り、オペレータから登録終了を指示する操作有無を調べ、終了指示があるまでステップA11に戻り、上述の動作が繰り返される(ステップA11〜A21)。
Next, in a state where the command menu is read and displayed (step A18), when an arbitrary command is selected and specified from the command menu (step A19), the command menu is based on the operator ID and gesture ID. The gesture command table 13 is searched, and the command selected and specified is registered at the intersection of the operator ID and the gesture ID (step A20).
When the process for registering an arbitrary gesture or command is completed in this way, the process proceeds to the next step A21, where it is checked whether or not there is an operation for instructing the registration end, and the process returns to step A11 until the end instruction is given. Repeated (steps A11 to A21).
図8は、電源投入時の動作を示したフローチャートである。
先ず、CPU1は、電源が投入されると、カメラ撮影部7を起動させた後に(ステップB1)、画像メモリ8をアクセスしてオペレータ画像(スチル画像)を取得し(ステップB2)、このオペレータ画像の中から顔部分を抽出する(ステップB3)。そして、この抽出画像(顔画像)と顔テーブル11に登録されているオペレータ毎の各「顔パターン」とを順次比較することによってオペレータを認証する処理を行う(ステップB4)。この結果、特徴的に一致する画像が無ければ(ステップB5でNO)、正規なオペレータではないと認識して電源を自動的にオフさせるが、正規なオペレータである場合には(ステップB5でYES)、この「オペレータID」を顔テーブル11から読み出してオペレータの特定を行う(ステップB6)。
FIG. 8 is a flowchart showing the operation when the power is turned on.
First, when the power is turned on, the
そして、カメラ撮影部7によってビデオ撮影された一連のオペレータ画像(動画)を取得し(ステップB7)、電源投入時にオペレータがカメラの前で行ったジェスチャを時系列的に解析することによって複数の動作パターンを分割抽出し(ステップB8)、この複数の動作パターンに基づいてジェスチャ動作テーブル12を検索し、オペレータが今回行った手の動きに対応する「ジェスチャID」を読み出してジェスチャの特定を行う(ステップB9)。このようにして特定した「オペレータID」、「ジェスチャID」に基づいてジェスチャコマンドテーブル13を検索することにより、該当する「コマンド」を読み出して(ステップB10)、当該コマンドによって指示される処理の実行に移る(ステップB11)。このような動作は電源が投入される毎に繰り返される。
Then, a series of operator images (moving images) taken by the
以上のように、この第1実施例においてCPU1は、今回撮影されたオペレータ画像を解析しながら顔テーブル11を参照してオペレータを特定すると共に、ジェスチャ動作テーブル12を参照して当該オペレータのジェスチャを特定し、このジェスチャ動作テーブル12に登録されている通りのジェスチャが行われた場合には、このオペレータのジェスチャに対応付けられているコマンドをジェスチャコマンドテーブル13から読み出して、このコマンドによって指示される処理を実行するようにしたから、オペレータ毎に任意のジェスチャとコマンドとを対応付けて登録しておくだけで、オペレータの好みに合ったジェスチャで希望する処理を実行することが可能となる。この場合、同じジェスチャでもオペレータ毎に異なるコマンドを実行させることができ、逆に、異なるジェスチャでもオペレータ毎に同じコマンドを実行させることができる。更に、必要に応じてジェスチャコマンドテーブル13の登録内容を任意に変更することも可能であるなど、自由度が増し、使い勝手の大幅な向上を期待することが可能となる。
As described above, in the first embodiment, the
この場合、自由自在に動く手の動作変化(手振り)をオペレータのジェスチャとすることによって、オペレータの好みに応じた自由自在な対応が可能となる。
また、オペレータ毎にそのジェスチャを登録する場合に、オペレータのジェスチャを撮影したオペレータ画像を解析することによって特徴的な行動が含まれている部分を含むオペレータ画像を抽出して登録するようにしたから、カメラの前で任意のジェスチャを行うだけで、ジェスチャの自動登録が可能となる。
In this case, by making the movement change (hand gesture) of the freely moving hand as the gesture of the operator, it is possible to respond freely according to the preference of the operator.
In addition, when registering the gesture for each operator, the operator image including the characteristic action is extracted and registered by analyzing the operator image obtained by photographing the operator's gesture. By simply making an arbitrary gesture in front of the camera, automatic gesture registration becomes possible.
ジェスチャコマンドテーブル13は、オペレータ毎に任意に登録された複数種のジェスチャを記憶可能であると共に、この複数種のジェスチャに対応付けて任意に登録された異なる種類のコマンドをジェスチャ毎に記憶可能であり、オペレータの手の動きが登録されている何れかのジェスチャに該当する場合には、このジェスチャに対応付けられているコマンドを読み出して処理を実行するようにしたから、オペレータは手の動きの種類を変えるだけで、希望するコマンドを選択的に実行することができる。
電源投入時に撮影されたオペレータ画像に基づいて当該オペレータの手の動きを解析し、オペレータの手の動きがジェスチャ動作テーブル12に登録されている通りであれば、電源投入直後に当該ジェスチャに対応付けられているコマンドに従った処理へ移行するようにしたから、電源投入直後に希望する処理へ即座に移行することができ、電源を立ち上げてから希望する処理に移るまでの時間の短縮化と操作性の簡素化を期待することができる。
The gesture command table 13 can store a plurality of types of gestures arbitrarily registered for each operator, and can store different types of commands arbitrarily registered in association with the plurality of types of gestures for each gesture. If the operator's hand movement corresponds to any registered gesture, the command associated with this gesture is read and the process is executed. By simply changing the type, you can selectively execute the desired command.
The movement of the operator's hand is analyzed based on the operator image photographed when the power is turned on. If the movement of the operator's hand is as registered in the gesture operation table 12, it is associated with the gesture immediately after the power is turned on. Since the process is shifted to the process according to the command, the process can be shifted to the desired process immediately after the power is turned on. Simplification of operability can be expected.
なお、上述した第1実施例においては、コマンド登録を行う際に、予め用意されているコマンドメニューの中からからコマンドを選択するようにしたが、オペレータが任意のコマンドを直接キー入力して登録するようにしてもよい。
また、上述した第1実施例においては、手の動きとして拳の動きを例示したが、掌、手首、前腕部の動きであってもよい、
(実施例2)
In the first embodiment described above, when registering a command, a command is selected from a command menu prepared in advance. However, an operator directly inputs an arbitrary command and registers it. You may make it do.
In the first embodiment described above, the movement of the fist is exemplified as the movement of the hand, but the movement of the palm, wrist, and forearm may be used.
(Example 2)
以下、この発明の第2実施例について図9〜図20を参照して説明する。
上述した第1実施例においては、オペレータ画像内の拳の部分に着目し、この画像部分を時系列的に解析することによってオペレータの手の動作変化(ジェスチャ)を特定するようにしたが、この第2実施例においては、その他の部分に着目することによってオペレータの行動を特定するようにしたものである。すなわち、オペレータ画像内の顔の部分に着目することによってオペレータの移動方向を特定したり、オペレータ画像内の手の部分に着目することによって指を伸ばしている数を特定したり、オペレータ画像内の顔部分および手部分に着目して顔と手との相対的な位置関係を特定したり、手などでカメラ部分を塞いでいる時間(意図的な画像遮断時間)をオペレータの行動として特定するようにしたものである。
ここで、両実施例において基本的あるいは名称的に同一のものは、同一符号を付して示し、その説明を省略すると共に、以下、第2実施例の特徴部分を中心に説明するものとする。
A second embodiment of the present invention will be described below with reference to FIGS.
In the first embodiment described above, attention is paid to the fist portion in the operator image, and the change in the hand of the operator (gesture) is specified by analyzing the image portion in time series. In the second embodiment, the operator's action is specified by paying attention to other parts. That is, it is possible to specify the movement direction of the operator by paying attention to the face portion in the operator image, to specify the number of fingers extended by paying attention to the hand portion in the operator image, Identify the relative positional relationship between the face and hand by focusing on the face and hand, and identify the time that the camera is blocked by the hand (intentional image blocking time) as the action of the operator It is a thing.
Here, the same or the same names in both embodiments are denoted by the same reference numerals, the description thereof will be omitted, and the following description will focus on the features of the second embodiment. .
図9および図10は、オペレータ画像内の顔の部分に着目することによってオペレータの移動方向をオペレータの行動として特定する場合を例示した図である。
すなわち、この実施例において解析可能な移動方向のタイプを示したもので、顔の移動方向のタイプとしては、図9の(例1)に示すように、顔を左方向へ流すタイプ、図9の(例2)に示すように、右方向へ流すタイプ、図10の(例3)に示すように、上方向へ流すタイプ、図10の(例4)に示すように、下方向へ流すタイプが存在している。このような各移動方向に対応して任意のコマンドをオペレータ毎に登録可能であり、CPU1は、移動方向に応じた任意のコマンドを実行するようにしている。
なお、装置本体を固定した状態で顔を移動する場合に限らず、ノート型等のように小型情報処理装置にあっては、顔を固定した状態で装置本体を移動する場合であってもよい。
FIG. 9 and FIG. 10 are diagrams illustrating a case where the moving direction of the operator is specified as the operator's action by paying attention to the face portion in the operator image.
That is, the type of movement direction that can be analyzed in this embodiment is shown. As the type of movement direction of the face, as shown in (Example 1) of FIG. As shown in (Example 2), the type of flowing in the right direction, as shown in (Example 3) of FIG. 10, the type of flowing in the upward direction, and as shown in (Example 4) of FIG. The type exists. An arbitrary command can be registered for each operator corresponding to each moving direction, and the
Note that the present invention is not limited to the case of moving the face with the apparatus main body fixed, and in a small information processing apparatus such as a notebook type, the apparatus main body may be moved with the face fixed. .
図11は、オペレータ画像内の手の部分に着目することによって指を伸ばしている数(指を立てている数)をオペレータの行動として特定する場合を例示した図である。
すなわち、(例1)は、1本の指を立てている状態、(例2)は、2本の指を立てている状態、(例3)は、3本の指を立てている状態、(例4)は、5本の指を立てている状態を示している。このように指を立てている指数に対応して任意のコマンドをオペレータ毎に登録可能であり、CPU1は、指数に応じた任意のコマンドを実行するようにしている。
FIG. 11 is a diagram exemplifying a case where the number of fingers extended (number of fingers raised) is specified as the operator's action by paying attention to the hand portion in the operator image.
That is, (Example 1) is a state where one finger is raised, (Example 2) is a state where two fingers are raised, (Example 3) is a state where three fingers are raised, (Example 4) shows a state where five fingers are raised. In this way, an arbitrary command can be registered for each operator corresponding to the index with the finger raised, and the
図12は、オペレータ画像内の顔部分および拳部分に着目して顔と拳との相対的な位置関係をオペレータの行動として特定する場合を例示した図である。
すなわち、(例1)は、顔の中央における頭髪の位置(生え際の位置)に拳を移して止めた状態、(例2)は、左耳付近に拳を移して止めた状態、(例3)は、顎の位置に拳を移して止めた状態、(例4)は、鼻の位置に拳を移して止めた状態を示している。このような相対的な位置関係に対応して任意のコマンドをオペレータ毎に登録可能であり、CPU1は、拳の位置に応じた任意のコマンドを実行するようにしている。
FIG. 12 is a diagram illustrating a case where the relative positional relationship between the face and the fist is specified as the action of the operator by focusing on the face portion and the fist portion in the operator image.
That is, (Example 1) is a state where the fist is moved and stopped at the position of the hair at the center of the face (position of hairline), (Example 2) is a state where the fist is moved near the left ear and stopped (Example 3) ) Shows a state where the fist is moved to the position of the jaw and stopped, and (Example 4) shows a state where the fist is moved to the position of the nose and stopped. An arbitrary command can be registered for each operator in correspondence with such a relative positional relationship, and the
図13は、掌や指などでカメラ部分を塞いでいる意図的な画像遮断状態を示した図である。
すなわち、オペレータ画像内の顔の部分に着目し、最初に顔が出現してから次に顔が出現するまでの時間間隔を意図的な画像遮断時間として計数し、この時間をオペレータの行動として特定する。このような画像遮断時間(例えば、1秒間、3秒間)に対応して任意のコマンドをオペレータ毎に登録可能であり、CPU1は、画像遮断時間に応じた任意のコマンドを実行するようにしている。
FIG. 13 is a diagram showing an intentional image blocking state in which the camera portion is closed with a palm or a finger.
That is, paying attention to the face part in the operator image, the time interval from the first appearance of the face to the next appearance is counted as the intentional image blocking time, and this time is specified as the operator's action To do. An arbitrary command can be registered for each operator corresponding to such an image blocking time (for example, 1 second, 3 seconds), and the
なお、この第2実施例においては、上述した第1実施例と同様の顔テーブル11が設けられている。この場合、顔テーブル11への登録は、オペレータ登録ボタンが操作された際に実行するようにしているが、基本的には第1実施例と同様であり、オペレータ画像から抽出した顔部分と、入力されたオペレータIDとを対応付けて顔テーブル11に登録するようにしている。また、この第2実施例においては、上述した第1実施例で示したジェスチャ動作テーブル12、ジェスチャコマンドテーブル13に代えて、顔移動コマンドテーブル14、指コマンドテーブル15、相対関係コマンドテーブル16、遮断時間コマンドテーブル17が設けられている。 In the second embodiment, a face table 11 similar to that in the first embodiment described above is provided. In this case, the registration to the face table 11 is performed when the operator registration button is operated, but is basically the same as the first embodiment, and the face portion extracted from the operator image, The entered operator ID is associated and registered in the face table 11. In the second embodiment, instead of the gesture operation table 12 and the gesture command table 13 shown in the first embodiment described above, the face movement command table 14, the finger command table 15, the relative command table 16, the blocking A time command table 17 is provided.
図14は、顔移動コマンドテーブル14の構成を示した図である。
顔移動コマンドテーブル14は、オペレータの顔の移動方向に対応して任意に登録されたコマンドをオペレータ別に記憶管理するもので、図中、横方向には、「オペレータID」、縦方向には、「移動方向」がセットされ、この「オペレータID」、「移動方向」によって構成されるマトリックス状の各交差部分(桝目部分)には、「コマンド」がセットされる構成となっている。この場合、顔移動コマンドテーブル14には、図9、図10で示した(例1)〜(例4)のタイプに対応して、“左”、“右”、“下”、“上”の「移動方向」が固定的に記憶されているが、この4タイプの全てに対応付けてコマンド登録を行うか、その中から任意に選択指定したタイプのみにコマンド登録を行うかは任意である。
FIG. 14 is a diagram showing the configuration of the face movement command table 14.
The face movement command table 14 stores and manages commands arbitrarily registered corresponding to the movement direction of the operator's face for each operator. In the figure, the “operator ID” in the horizontal direction and the command in the vertical direction “Movement direction” is set, and “command” is set to each of the matrix-shaped intersections (mesh portions) constituted by the “operator ID” and “movement direction”. In this case, in the face movement command table 14, “left”, “right”, “lower”, “up” corresponding to the types of (Example 1) to (Example 4) shown in FIG. 9 and FIG. The “movement direction” is fixedly stored, but it is arbitrary whether the command registration is performed in association with all of these four types or the command registration is performed only for the type arbitrarily selected and designated from among them. .
図15は、指コマンドテーブル15の構成を示した図である。
指コマンドテーブル15は、オペレータが指を立てている数に対応して任意に登録されたコマンドをオペレータ別に記憶管理するもので、図中、横方向には、「オペレータID」、縦方向には、「指数」がセットされ、この「オペレータID」、「指数」によって構成されるマトリックス状の各交差部分(桝目部分)には、「コマンド」がセットされる構成となっている。この場合、指コマンドテーブル15には、図11で示した(例1)〜(例4)の指数に対応して、“1”、“2”、“3”、“5”の「指数」が固定的に記憶されているが、この指数の全てに対応付けてコマンド登録を行うか、その中から任意に選択指定した指数のみにコマンド登録を行うかは任意である。
FIG. 15 is a diagram showing the configuration of the finger command table 15.
The finger command table 15 stores and manages commands arbitrarily registered according to the number of fingers raised by the operator for each operator. In the figure, the “operator ID” in the horizontal direction and the command in the vertical direction , “Index” is set, and “command” is set in each of the matrix-shaped intersections (cells) constituted by the “operator ID” and “index”. In this case, the finger command table 15 has “1”, “2”, “3”, “5” “index” corresponding to the indexes of (Example 1) to (Example 4) shown in FIG. Is stored in a fixed manner, but it is optional to register a command in association with all of the indices or to register a command only to an index that is arbitrarily selected and designated from among them.
図16は、相対関係コマンドテーブル16の構成を示した図である。
相対関係コマンドテーブル16は、顔と拳との相対的な位置関係に対応して任意に登録されたコマンドをオペレータ別に記憶管理するもので、図中、横方向には、「オペレータID」、縦方向には、「相対関係」がセットされ、この「オペレータID」、「相対関係」によって構成されるマトリックス状の各交差部分(桝目部分)には、「コマンド」がセットされる構成となっている。この場合、相対関係コマンドテーブル16には、図12で示した(例1)〜(例4)の指数に対応して、“中央”、“左耳”、“あご”、“鼻”の「相対関係」が固定的に記憶されているが、この相対関係の全てに対応付けてコマンド登録を行うか、その中から任意に選択指定した相対関係のみにコマンド登録を行うかは任意である。
FIG. 16 is a diagram showing a configuration of the relative relationship command table 16.
The relative relationship command table 16 stores and manages commands arbitrarily registered corresponding to the relative positional relationship between the face and the fist for each operator. A “relative relationship” is set in the direction, and a “command” is set in each of the matrix-like intersections (grid portions) constituted by the “operator ID” and “relative relationship”. Yes. In this case, in the relative relationship command table 16, “center”, “left ear”, “chin”, “nose” corresponding to the indices of (Example 1) to (Example 4) shown in FIG. The “relative relationship” is stored in a fixed manner, but it is arbitrary whether the command registration is performed in association with all of the relative relationships, or the command registration is performed only for the relative relationship arbitrarily selected and designated from among them.
図17は、遮断時間コマンドテーブル17の構成を示した図である。
遮断時間コマンドテーブル17は、掌や指などでカメラ部分を塞いでいる意図的な画像遮断時間に対応して任意に登録されたコマンドをオペレータ別に記憶管理するもので、図中、横方向には、「オペレータID」、縦方向には、「画像遮断時間」がセットされ、この「オペレータID」、「画像遮断時間」によって構成されるマトリックス状の各交差部分(桝目部分)には、「コマンド」がセットされる構成となっている。この場合、遮断時間コマンドテーブル17には、“1秒間”、“3秒間”の「画像遮断時間」が固定的に記憶されているが、この画像遮断時間の全てに対応付けてコマンド登録を行うか、その中から任意に選択指定した画像遮断時間のみにコマンド登録を行うかは任意である。
FIG. 17 is a diagram showing the configuration of the cutoff time command table 17.
The shut-off time command table 17 stores and manages commands arbitrarily registered corresponding to the intentional image shut-off time for blocking the camera part with a palm or a finger. “Operator ID”, “Image blocking time” is set in the vertical direction, and “Command” is set at each matrix-shaped crossing portion (grid portion) composed of “Operator ID” and “Image blocking time”. "Is set. In this case, the “image blocking time” of “1 second” and “3 seconds” is fixedly stored in the blocking time command table 17, but command registration is performed in association with all of the image blocking times. Whether the command registration is performed only during the image blocking time arbitrarily selected and designated from among them is arbitrary.
図18は、オペレータ毎に任意のコマンドを各コマンドテーブル14〜17に登録する場合の動作を示したフローチャートである。
先ず、CPU1は、コマンド登録モードが指示されると、テーブル名メニューを表示出力させ(ステップC1)、この中から登録対象のテーブルが選択指定されると(ステップC2)、この指定テーブル内に固定的に記憶されている各行動項目を読み出して登録画面に一覧表示させる(ステップC3)。例えば、登録対象として顔移動コマンドテーブル14が選択された場合には、各「移動方向」が読み出されて一覧表示され、指コマンドテーブル15が選択された場合には、各「指数」が読み出されて一覧表示される。
FIG. 18 is a flowchart showing an operation when an arbitrary command is registered in each of the command tables 14 to 17 for each operator.
First, when the command registration mode is instructed, the
この登録画面には、各行動項目に対応して配置されたコマンド入力域が設けられている他、オペレータID入力域、登録終了ボタンが設けられている。ここで、登録画面内にオペレータIDが入力されると(ステップC4)、コマンドメニューを表示出力させると共に(ステップC5)、その中から任意のコマンドが選択指定されると(ステップC6)、この登録画面内の対応するコマンド入力域に当該コマンド名をセットさせる(ステップC7)。そして、登録終了ボタンの操作有無をチェックし(ステップC8)、登録終了ボタンが操作されなければ、ステップ6に戻り、コマンド入力が繰り返される。ここで、登録終了ボタンが操作されると、登録画面内の入力情報を対応するコマンドテーブル内に登録する(ステップC9)。 This registration screen is provided with a command input area arranged corresponding to each action item, an operator ID input area, and a registration end button. Here, when an operator ID is entered in the registration screen (step C4), a command menu is displayed and output (step C5), and when an arbitrary command is selected and designated (step C6), this registration is performed. The command name is set in the corresponding command input area in the screen (step C7). Then, whether or not the registration end button is operated is checked (step C8). If the registration end button is not operated, the process returns to step 6 to repeat the command input. Here, when the registration end button is operated, the input information in the registration screen is registered in the corresponding command table (step C9).
図19〜図20は、オペレータ画像を解析することによってコマンドの実行を指示するためのカメラ指示ボタンが操作された場合の動作を示したフローチャートである。
先ず、CPU1は、カメラ指示ボタンの操作に応答して、カメラ撮影部7を起動させる(ステップD1)。すると、カメラ撮影部7は、装置本体の前に居るオペレータをスチル撮影して画像メモリ8へ転送する。ここで、CPU1は、画像メモリ8から撮影画像(スチル画像)を取得し(ステップD2)、この撮影画像の中から顔部分を抽出し(ステップD3)、顔部分の有無をチェックする(ステップD4)。
FIG. 19 to FIG. 20 are flowcharts showing operations when a camera instruction button for instructing execution of a command is operated by analyzing an operator image.
First, the
ここで、顔部分が存在していなければ(ステップD4でNO)、カメラ指示ボタンの操作を無効(ノンファンクション)とするが、顔部分が存在していれば、抽出した顔画像と顔テーブル11に登録されているオペレータ毎の各「顔パターン」とを順次比較することによってオペレータを特定して、この「オペレータID」を読み出す(ステップD5)。そして、撮影画像内から拳部分の画像を検索し(ステップD6)、拳画像の有無をチェックする(ステップD7)。ここで、拳画像が無ければ、ステップD13に移るが、撮影画像内にオペレータの拳が写っている場合には、画像解析によって顔画像と拳画像との相対関係を特定抽出する(ステップD8)。そして、「オペレータID」と、顔と拳との「相対関係」に基づいて相対関係コマンドテーブル16を検索し(ステップD9)、このオペレータに対応して該当する相対関係がコマンドテーブル16に登録されているか否か調べ(ステップD10)、該当無しの場合には、ステップD13に移るが、該当有りの場合には、相対関係コマンドテーブル16から当該「オペレータID」と「相対関係」との交差部分に登録されているコマンドを読み出し(ステップD11)、このコマンドによって指示される処理の実行に移る(ステップD12)。 Here, if the face portion does not exist (NO in step D4), the operation of the camera instruction button is disabled (non-function), but if the face portion exists, the extracted face image and face table 11 are displayed. The operator is identified by sequentially comparing each “face pattern” registered for each operator, and this “operator ID” is read (step D5). Then, the image of the fist part is searched from the photographed image (step D6), and the presence or absence of the fist image is checked (step D7). If there is no fist image, the process proceeds to step D13. However, if the operator's fist is shown in the captured image, the relative relationship between the face image and the fist image is specified and extracted by image analysis (step D8). . Then, the relative relationship command table 16 is searched based on the “operator ID” and the “relative relationship” between the face and the fist (step D9), and the corresponding relative relationship corresponding to this operator is registered in the command table 16. If there is no corresponding, the process proceeds to step D13. If there is a corresponding, the intersection between the “operator ID” and “relative relationship” from the relative relationship command table 16 is determined. Is read (step D11), and the process instructed by this command is executed (step D12).
一方、上述のステップD7あるいはD10でNOと判断された場合には、オペレータの指の動きに着目する。すなわち、撮影画像内の指に着目して、その指画像を検索し(ステップD13)、指画像の有無をチェックする(ステップD14)。ここで、指画像が無ければ、図20のステップD18に移るが、撮影画像内にオペレータの指が写っている場合には、画像解析によって指が立っている本数を特定する(ステップD15)。そして、この「オペレータID」と「指数」に基づいて指コマンドテーブル15を検索し(ステップD16)、このオペレータに対応して該当する指数が指コマンドテーブル15に登録されているか否か調べ(ステップD17)、該当無しの場合には、図20のステップD18に移るが、該当有りの場合には、指コマンドテーブル15から当該「オペレータID」と「指数」との交差部分に登録されているコマンドを読み出し(ステップD11)、このコマンドによって指示される処理の実行に移る(ステップD12)。 On the other hand, when it is determined NO in step D7 or D10 described above, attention is paid to the movement of the operator's finger. That is, paying attention to the finger in the photographed image, the finger image is searched (step D13), and the presence or absence of the finger image is checked (step D14). Here, if there is no finger image, the process proceeds to step D18 in FIG. 20, but if the operator's finger is reflected in the captured image, the number of fingers standing is identified by image analysis (step D15). Then, the finger command table 15 is searched based on this “operator ID” and “index” (step D16), and it is checked whether or not the corresponding index corresponding to this operator is registered in the finger command table 15 (step D16). D17) If there is no match, the process proceeds to step D18 in FIG. 20. If there is a match, the command registered from the finger command table 15 at the intersection of the “operator ID” and “index” is stored. Is read (step D11), and the process instructed by this command is executed (step D12).
次に、オペレータの顔の移動方向に着目する。先ず、図20のステップD18では、カメラ撮影部7によってビデオ撮影された一連のオペレータ画像(動画)を取得する。そして、この一連の撮影動画を解析することによって顔の移動有無をチェックし(ステップD19)、移動していなければ、ステップD23に移るが、顔が移動していれば、画像解析によってその移動方向を検出する(ステップD20)。そして、この「オペレータID」と「移動方向」に基づいて顔移動コマンドテーブル14を検索し(ステップD21)、このオペレータに対応して該当する移動方向がコマンドテーブル14に登録されているか否か調べ(ステップD22)、該当無しの場合には、ステップD23に移るが、該当有りの場合には、顔移動コマンドテーブル14から当該「オペレータID」と「移動方向」との交差部分に登録されているコマンドを読み出し(図19のステップD11)、このコマンドによって指示される処理の実行に移る(ステップD12)。
Next, attention is paid to the movement direction of the operator's face. First, in step D18 of FIG. 20, a series of operator images (moving images) captured by the
次に、ステップD23では、一連の撮影動画を解析することによって顔の遮断有無をチェックする。つまり、掌や指などでカメラ部分を塞いでいるか否かをチェックし、顔の遮断が検出された場合には、その画像遮断時間を計時する動作をスタートする(ステップD24)。そして、次に顔が出現するまでの間(遮断終了が検出されるまでの間)、画像遮断時間を計時する動作を継続する(ステップD24、D25)。ここで、遮断終了が検出されると、一連の撮影動画内から遮断終了時に出現した顔部分を抽出し(ステップD26)、この抽出画像と遮断直前の顔画像とを比較して(ステップD27)、特徴的に一致するか(同一人物か)をチェックする(ステップD28)。ここで、同一人物であることを条件に、この「オペレータID」と「画像遮断時間」に基づいて遮断時間コマンドテーブル17を検索し、このオペレータに対応して該当する画像遮断時間がコマンドテーブル17に登録されているか否か調べ(ステップD29)、該当有りの場合には、遮断時間コマンドテーブル17から当該「オペレータID」と「画像遮断時間」との交差部分に登録されているコマンドを読み出し(図11ステップD11)、このコマンドによって指示される処理の実行に移る(ステップD12)。 Next, in step D23, the presence or absence of face blocking is checked by analyzing a series of captured moving images. That is, it is checked whether or not the camera part is closed with a palm or a finger, and when face blocking is detected, an operation for measuring the image blocking time is started (step D24). Then, until the next appearance of the face (until the end of blocking is detected), the operation of counting the image blocking time is continued (steps D24 and D25). Here, when the end of blocking is detected, a face portion that appears at the end of blocking is extracted from a series of captured moving images (step D26), and this extracted image is compared with the face image immediately before blocking (step D27). Then, it is checked whether or not they match characteristically (whether they are the same person) (step D28). Here, on the condition that they are the same person, the blocking time command table 17 is searched based on this “operator ID” and “image blocking time”, and the corresponding image blocking time corresponding to this operator is displayed in the command table 17. Is registered (step D29), and if applicable, the command registered at the intersection between the “operator ID” and the “image cutoff time” is read from the cutoff time command table 17 ( In FIG. 11, step D11), the processing instructed by this command is executed (step D12).
以上のように、この第2実施例においても、上述した第1実施例と同様、オペレータ毎に任意の行動とコマンドとを対応付けて顔移動コマンドテーブル14、指コマンドテーブル15、相対関係コマンドテーブル16、遮断時間コマンドテーブル17に登録しておくだけで、オペレータの好みに合った行動で希望する処理を実行することが可能となる。この場合、同じ行動でもオペレータ毎に異なるコマンドを実行させることができ、逆に、異なる行動でもオペレータ毎に同じコマンドを実行させることができ、使い勝手の大幅な向上を期待することが可能となる。 As described above, also in the second embodiment, as in the first embodiment described above, the face movement command table 14, the finger command table 15, and the relative relationship command table are associated with arbitrary actions and commands for each operator. 16, it is possible to execute a desired process with an action that suits the operator's preference simply by registering it in the cutoff time command table 17. In this case, different commands can be executed for each operator even in the same action, and conversely, the same command can be executed for each operator even in different actions, and it is possible to expect a significant improvement in usability.
この場合、オペレータ画像内の顔の部分に着目し、この画像部分を時系列的に解析することによってオペレータの移動方向を特定し、このオペレータの移動方向が顔移動コマンドテーブル14に登録されている内容通りであるか否かを認識するようにしたから、オペレータの上/下方向への移動、左/右方向への移動をオペレータの行動とすることができ、オペレータの好みに応じた自由自在な対応が可能となる。
また、オペレータ画像内の手の部分に着目し、この画像部分を解析することによって指を伸ばしている数を特定し、この指の数が指コマンドテーブル15に登録されている内容通りであるか否かを認識するようにしたから、指を伸ばすという簡単な行動によって希望する処理を実行することが可能となる。
In this case, paying attention to the face portion in the operator image, the moving direction of the operator is specified by analyzing the image portion in time series, and the moving direction of the operator is registered in the face moving command table 14. Since it is recognized whether or not the contents are correct, the operator can move up / down and left / right as actions of the operator. Is possible.
Further, paying attention to the hand portion in the operator image, the number of fingers stretched is identified by analyzing the image portion, and whether the number of fingers is in accordance with the contents registered in the finger command table 15 Since it is made to recognize whether or not, it is possible to execute a desired process by a simple action of extending a finger.
オペレータ画像内の顔部分および手部分に着目し、顔と手との相対的な位置関係を解析し、この相対的な位置が相対関係コマンドテーブル16に登録されている内容通りであるか否かを認識するようにしたから、自由自在に動く手の位置と顔と相対的な位置関係をオペレータの行動とすることができ、オペレータの好みに応じた自由自在な対応が可能となる。
また、オペレータ画像内の顔の部分に着目し、手などでカメラ部分を塞いでいる意図的な画像遮断時間を計時し、この時間が遮断時間コマンドテーブル17に登録されている内容通りであるか否かを認識するようにしたから、簡単な行動によって希望する処理を指示することが可能となる。
Paying attention to the face part and the hand part in the operator image, the relative positional relationship between the face and the hand is analyzed, and whether or not the relative position is the same as the contents registered in the relative command table 16. Therefore, the position of the hand that moves freely and the relative positional relationship with the face can be used as the action of the operator, and a flexible response according to the preference of the operator is possible.
Further, paying attention to the face portion in the operator image, the intentional image blocking time for blocking the camera portion with a hand or the like is counted, and whether this time is as described in the content registered in the blocking time command table 17. Since it is made to recognize whether or not, it is possible to instruct a desired process by a simple action.
なお、上述した第2実施例においては、オペレータの顔の移動方向として、上下左右を例示したが、この4つの移動タイプ以外に、上下左右の斜め方向に流すタイプをも含めれば、合計8タイプとすることができる。また、顔の前/後方向への移動、つまり、カメラから遠ざかる/近づく移動を含めるようにしてもよい。更に、顔に限らず、上半身の移動であってもよい。 In the second embodiment described above, the up / down / left / right directions are exemplified as the movement direction of the operator's face. However, in addition to the four movement types, a total of eight types are included if including a type that flows in the up / down / left / right diagonal directions. It can be. Further, the movement of the face in the forward / backward direction, that is, the movement away / approaching from the camera may be included. Furthermore, the movement of the upper body is not limited to the face.
上述した第2実施例においては、指を伸ばした数を検出するようにしたが、更に、指を伸ばした方向をも考慮するようにしてもよい。更に、片手に限らず、両手を含めるようにしてもよい。
上述した第2実施例においては、手などでカメラ部分を塞いでいる意図的な画像遮断時間を検出するようにしたが、顔の出現回数を検出したり、出現頻度などを検出するようにしてもよい。
In the second embodiment described above, the number of fingers extended is detected, but the direction in which the fingers are extended may also be considered. Furthermore, you may make it include not only one hand but both hands.
In the second embodiment described above, the intentional image blocking time in which the camera portion is blocked by a hand or the like is detected, but the number of appearances of the face or the appearance frequency is detected. Also good.
その他、上述した第1および第2実施例においては、情報処理装置として、ビデオカメラを備えたディスク型/ノート型のパーソナルコンピュータを例示したが、携帯電話やPDA等であってもよい。また、スタンドアロンタイプの情報処理装置に限らず、各構成要素が2以上の筐体に物理的に分離され、通信回線やケーブル等の有線伝送路あるいは電波、マイクロウエーブ、赤外線等の無線伝送路を介してデータを送受信する分散型システムであってもよい。 In addition, in the first and second embodiments described above, a disk type / notebook type personal computer equipped with a video camera is exemplified as the information processing apparatus, but a mobile phone, a PDA, or the like may be used. In addition to a stand-alone type information processing device, each component is physically separated into two or more cases, and a wired transmission path such as a communication line or a cable, or a wireless transmission path such as radio waves, microwaves, infrared rays, etc. It may be a distributed system that transmits and receives data through the network.
一方、コンピュータに対して、上述した各手段を実行させるためのプログラムコードをそれぞれ記録した記録媒体(例えば、CD−ROM、RAMカード等)を提供するようにしてもよい。すなわち、コンピュータが読み取り可能なプログラムコードを有する記録媒体であって、オペレータ毎に予め任意に登録されている行動情報を記憶管理すると共に、この行動情報に対応付けて特定処理の実行を指示するための指示命令を記憶管理する機能と、オペレータを撮影したオペレータ画像に基づいて当該オペレータの行動を解析する機能と、この画像解析の結果と当該オペレータ対応の前記行動情報とを比較することによってオペレータの行動が登録内容通りであるか否かを認識する機能と、登録内容通りの行動が行われたことが認識された場合に、この行動情報に対応付けられている前記指示命令を読み出して特定処理を実行する機能とを実現させるためのプログラムを記録したコンピュータが読み取り可能な記録媒体を提供するようにしてもよい。 On the other hand, a recording medium (for example, a CD-ROM, a RAM card, etc.) on which program codes for executing the above-described units are recorded may be provided to the computer. That is, a recording medium having a computer-readable program code for storing and managing behavior information that is arbitrarily registered in advance for each operator and instructing execution of specific processing in association with this behavior information A function for storing and managing the instruction command, a function for analyzing the action of the operator based on an operator image obtained by photographing the operator, and comparing the result of the image analysis with the action information corresponding to the operator. A function for recognizing whether or not the action is in accordance with the registered content, and when it is recognized that the action has been performed in accordance with the registered content, the instruction command associated with this action information is read and specified processing And a computer-readable recording medium storing a program for realizing the function for executing Unishi may be.
1 CPU
2 記憶部
4 記憶媒体
5 操作部
6 表示部
7 カメラ撮影部
11 顔テーブル
12 ジェスチャ動作テーブル
13 ジェスチャコマンドテーブル
14 顔移動コマンドテーブル
15 指コマンドテーブル
16 相対関係コマンドテーブル
17 遮断時間コマンドテーブル
1 CPU
DESCRIPTION OF
Claims (10)
オペレータ毎に予め任意に登録されている行動情報を記憶管理すると共に、この行動情報に対応付けて特定処理の実行を指示するための指示命令を記憶管理する登録情報記憶手段と、
オペレータを撮影したオペレータ画像に基づいて当該オペレータの行動を解析する画像解析手段と、
この画像解析手段によって得られた解析結果と、当該オペレータ対応の前記行動情報とを比較することによってオペレータの行動が登録内容通りであるか否かを認識する認識手段と、
この認識手段によって登録内容通りの行動が行われたことが認識された場合に、この行動情報に対応付けられている前記指示命令を読み出して特定処理を実行する処理実行手段と、
を具備したことを特徴とする情報処理装置。 An information processing apparatus having a photographing function for photographing an operator,
Registered information storage means for storing and managing action information arbitrarily registered in advance for each operator, and storing and managing an instruction command for instructing execution of a specific process in association with the action information;
Image analyzing means for analyzing the behavior of the operator based on an operator image obtained by photographing the operator;
Recognizing means for recognizing whether or not the action of the operator is as registered, by comparing the analysis result obtained by the image analysis means and the action information corresponding to the operator;
A process execution means for reading out the instruction command associated with the action information and executing a specific process when it is recognized by the recognition means that the action according to the registered content has been performed;
An information processing apparatus comprising:
ようにしたことを特徴とする請求項1記載の情報処理装置。 When registering the action information for each operator, registering an operator image including a part including a characteristic action as action information by analyzing an operator image obtained by photographing the action of the operator.
2. The information processing apparatus according to claim 1, wherein the information processing apparatus is configured as described above.
前記処理実行手段は、前記認識手段によってオペレータの行動が何れかの行動情報に該当することが認識された場合に、この行動情報に対応付けられている前記指示命令を読み出して特定処理を実行する、
ようにしたことを特徴とする請求項1記載の情報処理装置。 The registered information storage means stores and manages a plurality of types of behavior information arbitrarily registered for each operator, and assigns different types of instruction commands arbitrarily registered in association with the plurality of types of behavior information for each behavior information. Memory management,
When the recognition means recognizes that the action of the operator corresponds to any action information, the process execution means reads the instruction command associated with the action information and executes a specific process. ,
2. The information processing apparatus according to claim 1, wherein the information processing apparatus is configured as described above.
前記処理実行手段は、オペレータの行動が登録内容通りであることが認識された場合に、電源投入直後に当該行動情報に対応付けられている指示命令に従った特定処理への移行を指示する、
ようにしたことを特徴とする請求項1記載の情報処理装置。 The analysis means analyzes the operator's action based on the operator image taken at power-on,
The process execution means, when it is recognized that the action of the operator is as registered, directs the transition to the specific process according to the instruction command associated with the action information immediately after power-on,
2. The information processing apparatus according to claim 1, wherein the information processing apparatus is configured as described above.
前記認識手段は、この画像解析手段によって得られた手の動作変化が登録内容通りであるか否かを認識する、
ようにしたことを特徴とする請求項1記載の情報処理装置。 The image analysis means pays attention to a hand part in an operator image, specifies an operation change of the operator's hand by analyzing the image part in time series,
The recognizing means recognizes whether or not the hand movement obtained by the image analyzing means is as registered.
2. The information processing apparatus according to claim 1, wherein the information processing apparatus is configured as described above.
前記認識手段は、この画像解析手段によって得られたオペレータの移動方向が登録内容通りであるか否かを認識する、
ようにしたことを特徴とする請求項1記載の情報処理装置。 The image analysis means pays attention to the face portion in the operator image, identifies the moving direction of the operator by analyzing the image portion in time series,
The recognizing means recognizes whether or not the moving direction of the operator obtained by the image analyzing means is as registered.
2. The information processing apparatus according to claim 1, wherein the information processing apparatus is configured as described above.
前記認識手段は、この画像解析手段によって得られた指の数が登録内容通りであるか否かを認識する、
ようにしたことを特徴とする請求項1記載の情報処理装置。 The image analysis means focuses on a part of the hand in the operator image, specifies the number of fingers that are stretched by analyzing the image part,
The recognizing means recognizes whether or not the number of fingers obtained by the image analyzing means is as registered.
2. The information processing apparatus according to claim 1, wherein the information processing apparatus is configured as described above.
前記認識手段は、この画像解析手段によって得られた相対的な位置関係が登録内容通りであるか否かを認識する、
ようにしたことを特徴とする請求項1記載の情報処理装置。 The image analysis means focuses on a face part and a hand part in an operator image, specifies a relative positional relationship between the face and the hand,
The recognizing means recognizes whether or not the relative positional relationship obtained by the image analyzing means is as registered.
2. The information processing apparatus according to claim 1, wherein the information processing apparatus is configured as described above.
前記認識手段は、この画像解析手段によって得られた顔の出現状態が登録内容通りであるか否かを認識する、
ようにしたことを特徴とする請求項1記載の情報処理装置。 The image analysis means focuses on the face portion in the operator image and identifies the appearance state of the face,
The recognizing means recognizes whether or not the appearance state of the face obtained by the image analyzing means is as registered.
2. The information processing apparatus according to claim 1, wherein the information processing apparatus is configured as described above.
オペレータ毎に予め任意に登録されている行動情報を記憶管理すると共に、この行動情報に対応付けて特定処理の実行を指示するための指示命令を記憶管理する機能と、
オペレータを撮影したオペレータ画像に基づいて当該オペレータの行動を解析する機能と、
この画像解析の結果と、当該オペレータ対応の前記行動情報とを比較することによってオペレータの行動が登録内容通りであるか否かを認識する機能と、
登録内容通りの行動が行われたことが認識された場合に、この行動情報に対応付けられている前記指示命令を読み出して特定処理を実行する機能と、
を実現させるためのプログラム。 Against the computer,
A function for storing and managing action information arbitrarily registered in advance for each operator, and storing and managing an instruction command for instructing execution of a specific process in association with the action information;
A function of analyzing the behavior of the operator based on an operator image obtained by photographing the operator;
A function of recognizing whether or not the behavior of the operator is as registered, by comparing the result of the image analysis and the behavior information corresponding to the operator;
A function of reading the instruction command associated with the action information and executing a specific process when it is recognized that the action according to the registered content has been performed;
A program to realize
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003322995A JP2005092419A (en) | 2003-09-16 | 2003-09-16 | Information processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003322995A JP2005092419A (en) | 2003-09-16 | 2003-09-16 | Information processing apparatus and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005092419A true JP2005092419A (en) | 2005-04-07 |
Family
ID=34454198
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003322995A Pending JP2005092419A (en) | 2003-09-16 | 2003-09-16 | Information processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005092419A (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007035040A (en) * | 2005-07-25 | 2007-02-08 | Lg Electronics Inc | Mobile communication terminal for estimating motion direction, and motion direction estimation method |
KR100826878B1 (en) | 2006-09-28 | 2008-05-06 | 한국전자통신연구원 | Hand shafe recognition method and apparatus for thereof |
JP2008140319A (en) * | 2006-12-05 | 2008-06-19 | Mitsubishi Electric Corp | Personal identification device and personal identification system |
JP2011061770A (en) * | 2009-09-08 | 2011-03-24 | Pantech Co Ltd | Mobile terminal having photographing control function based on image recognition technique and photographing control system employing image recognition technique |
JP2012502344A (en) * | 2008-09-04 | 2012-01-26 | エクストリーム リアリティー エルティーディー. | Method system and software for providing an image sensor based human machine interface |
JP2012098988A (en) * | 2010-11-04 | 2012-05-24 | Sony Corp | Image processing apparatus and method, and program |
JP2012111604A (en) * | 2010-11-25 | 2012-06-14 | Mitsubishi Electric Corp | Crime preventive system of elevator |
EP2498487A1 (en) * | 2009-11-02 | 2012-09-12 | Nec Corporation | Mobile communication apparatus |
WO2014128773A1 (en) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | Gesture registration device, gesture registration program, and gesture registration method |
JP2014535100A (en) * | 2011-10-12 | 2014-12-25 | クアルコム,インコーポレイテッド | Authentication-type gesture recognition |
JP2015511343A (en) * | 2012-01-20 | 2015-04-16 | トムソン ライセンシングThomson Licensing | User recognition method and system |
JP2018018255A (en) * | 2016-07-27 | 2018-02-01 | パイオニア株式会社 | Recognition device and recognition method |
JP2018508880A (en) * | 2015-01-28 | 2018-03-29 | テラリコン インコーポレイテッド | Touchless advanced image processing and visualization |
WO2020152917A1 (en) * | 2019-01-23 | 2020-07-30 | Necソリューションイノベータ株式会社 | Face authentication device, face authentication method, program, and recording medium |
-
2003
- 2003-09-16 JP JP2003322995A patent/JP2005092419A/en active Pending
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4611257B2 (en) * | 2005-07-25 | 2011-01-12 | エルジー エレクトロニクス インコーポレイティド | Mobile communication terminal and motion direction estimation method for estimating motion direction |
JP2007035040A (en) * | 2005-07-25 | 2007-02-08 | Lg Electronics Inc | Mobile communication terminal for estimating motion direction, and motion direction estimation method |
KR100826878B1 (en) | 2006-09-28 | 2008-05-06 | 한국전자통신연구원 | Hand shafe recognition method and apparatus for thereof |
JP2008140319A (en) * | 2006-12-05 | 2008-06-19 | Mitsubishi Electric Corp | Personal identification device and personal identification system |
JP2013175242A (en) * | 2008-09-04 | 2013-09-05 | Extreme Reality Ltd Israel | Method system and software for providing image sensor based human machine interfacing |
JP2012502344A (en) * | 2008-09-04 | 2012-01-26 | エクストリーム リアリティー エルティーディー. | Method system and software for providing an image sensor based human machine interface |
JP2011061770A (en) * | 2009-09-08 | 2011-03-24 | Pantech Co Ltd | Mobile terminal having photographing control function based on image recognition technique and photographing control system employing image recognition technique |
EP2498487A4 (en) * | 2009-11-02 | 2014-05-07 | Nec Corp | Mobile communication apparatus |
EP2498487A1 (en) * | 2009-11-02 | 2012-09-12 | Nec Corporation | Mobile communication apparatus |
US8941745B2 (en) | 2009-11-02 | 2015-01-27 | Lenovo Innovations Limited (Hong Kong) | Mobile communication apparatus for controlling imaging based on facial recognition |
JP2012098988A (en) * | 2010-11-04 | 2012-05-24 | Sony Corp | Image processing apparatus and method, and program |
JP2012111604A (en) * | 2010-11-25 | 2012-06-14 | Mitsubishi Electric Corp | Crime preventive system of elevator |
JP2014535100A (en) * | 2011-10-12 | 2014-12-25 | クアルコム,インコーポレイテッド | Authentication-type gesture recognition |
US9684821B2 (en) | 2012-01-20 | 2017-06-20 | Thomson Licensing | Method and apparatus for user recognition |
JP2015511343A (en) * | 2012-01-20 | 2015-04-16 | トムソン ライセンシングThomson Licensing | User recognition method and system |
WO2014128773A1 (en) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | Gesture registration device, gesture registration program, and gesture registration method |
JPWO2014128773A1 (en) * | 2013-02-19 | 2017-02-02 | 株式会社ブリリアントサービス | Gesture registration device, gesture registration program, and gesture registration method |
JP2018508880A (en) * | 2015-01-28 | 2018-03-29 | テラリコン インコーポレイテッド | Touchless advanced image processing and visualization |
JP2019133678A (en) * | 2015-01-28 | 2019-08-08 | テラリコン インコーポレイテッド | Touchless advanced image processing and visualization |
JP2018018255A (en) * | 2016-07-27 | 2018-02-01 | パイオニア株式会社 | Recognition device and recognition method |
WO2020152917A1 (en) * | 2019-01-23 | 2020-07-30 | Necソリューションイノベータ株式会社 | Face authentication device, face authentication method, program, and recording medium |
JPWO2020152917A1 (en) * | 2019-01-23 | 2021-11-04 | Necソリューションイノベータ株式会社 | Face recognition devices, face recognition methods, programs, and recording media |
JP7251874B2 (en) | 2019-01-23 | 2023-04-04 | Necソリューションイノベータ株式会社 | Face authentication device, face authentication method, program, and recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10861242B2 (en) | Transmodal input fusion for a wearable system | |
EP3461291B1 (en) | Implementation of a biometric enrollment user interface | |
Harrison et al. | On-body interaction: armed and dangerous | |
JP5885835B2 (en) | Computer device operable by movement of user's eyeball and method for operating the computer device | |
US20180307321A1 (en) | Build Status of a Buildable Product | |
US8514251B2 (en) | Enhanced character input using recognized gestures | |
US8866781B2 (en) | Contactless gesture-based control method and apparatus | |
JP6159323B2 (en) | Information processing method and information processing apparatus | |
JP5575645B2 (en) | Advanced camera-based input | |
KR20240017964A (en) | Implementation of biometric authentication | |
CN117032519A (en) | Apparatus, method and graphical user interface for interacting with a three-dimensional environment | |
US11782514B2 (en) | Wearable device and control method thereof, gesture recognition method, and control system | |
JP2005092419A (en) | Information processing apparatus and program | |
JPH07175587A (en) | Information processor | |
CN106527693A (en) | Application control method and mobile terminal | |
KR20120096849A (en) | An apparatus and method for inputting command using gesture | |
JP2011513847A (en) | Advanced input using recognized gestures | |
JPH06138815A (en) | Finger language/word conversion system | |
JP2010145861A (en) | Head mount display | |
US10372229B2 (en) | Information processing system, information processing apparatus, control method, and program | |
JP2017208638A (en) | Iris authentication device, iris authentication method, and program | |
JP2009140390A (en) | Instruction device and fingerprint authentication semiconductor circuit | |
JPWO2014147722A1 (en) | Electronic device, method and program | |
JP2016177658A (en) | Virtual input device, input method, and program | |
CN106933364B (en) | Characters input method, character input device and wearable device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20060209 |
|
RD04 | Notification of resignation of power of attorney |
Effective date: 20060404 Free format text: JAPANESE INTERMEDIATE CODE: A7424 |