JP2006119780A - Apparatus control device utilizing face information - Google Patents
Apparatus control device utilizing face information Download PDFInfo
- Publication number
- JP2006119780A JP2006119780A JP2004305067A JP2004305067A JP2006119780A JP 2006119780 A JP2006119780 A JP 2006119780A JP 2004305067 A JP2004305067 A JP 2004305067A JP 2004305067 A JP2004305067 A JP 2004305067A JP 2006119780 A JP2006119780 A JP 2006119780A
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- feature extraction
- action intention
- intention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、非接触により機器の動作を制御する機器制御装置及び方法に関する。 The present invention relates to a device control apparatus and method for controlling the operation of a device in a non-contact manner.
従来、この種の機器制御装置及び方法としては、人を検知する人検知センサの検知結果に基づいて、機器の動作を制御する機器制御装置及び方法がある。また、一般的な人検知センサとして、赤外線や超音波、または、画像処理を用いたものがある。 Conventionally, as this type of device control device and method, there is a device control device and method that controls the operation of a device based on the detection result of a human detection sensor that detects a person. Further, as a general human detection sensor, there are sensors using infrared rays, ultrasonic waves, or image processing.
従来の赤外線や超音波などを用いた人検知センサは、例えば銀行などに設置されている現金自動取扱機や自動扉、人の位置を感知する空気調和機などに利用されている。赤外線や超音波を利用した人検知センサでは対象物を厳密に区別できないので、その機器を利用する意思のある人なのか、その装置を利用する意思はなく、偶然近くにいる人なのかを区別するのは困難である。 Conventional human detection sensors using infrared rays, ultrasonic waves, and the like are used in, for example, an automatic cash handling machine installed in a bank, an automatic door, an air conditioner that senses the position of a person, and the like. Human detection sensors that use infrared rays or ultrasonic waves cannot accurately distinguish between objects, so it is possible to distinguish between people who are willing to use the device and those who are not willing to use the device and are near by accident It is difficult to do.
また、この従来の赤外線や超音波を用いた機器制御装置及び方法では、人以外のもの、例えば動物や、自動掃除機などの動き回る機械装置でも反応してしまうので、ペットショップ、動物園など、人以外の動くものが存在する場合、人かどうか区別するのは困難である。 In addition, in the conventional device control apparatus and method using infrared rays and ultrasonic waves, other devices such as animals and moving machines such as automatic vacuum cleaners also react, so people such as pet shops and zoos It is difficult to distinguish whether a person is moving when there is something other than moving.
従来の画像処理を用いた人検知センサの場合、例えば同一の固定カメラより時間差をつけて複数枚の写真を撮り、それらの写真の差分を求めることにより動いているものを捕らえることで人を検知するという方法がある。 In the case of a human detection sensor using conventional image processing, for example, a plurality of photographs are taken with a time difference from the same fixed camera, and a person is detected by capturing moving objects by obtaining the difference between the photographs. There is a way to do it.
この画像処理を用いた機器制御装置及び方法では、検出物の動き、色、大きさ、位置は判断することはできるが、検出物が人であるかの判断はできない。人であったとしても、その機器を利用する意思のある人なのか、偶然近くにいる利用する意思のない人なのかを区別することはできない。 In the device control apparatus and method using this image processing, the movement, color, size, and position of the detected object can be determined, but it cannot be determined whether the detected object is a person. Even if it is a person, it cannot be distinguished whether it is a person who intends to use the device or a person who is near by chance and does not intend to use it.
尚、検出物が人であるか否かの判断を、人の顔の特徴抽出により行う方法が、下記の特許文献1〜3に開示されている。但し、これらの特許文献に開示されている方法においても、人の顔領域や顔の向きを抽出する方法を提示するに止まり、検出された人の機器に対する行動意思を確認することまでは示唆も開示もしていない。
上述の如く、従来の人検知センサを用いた機器制御装置では、人以外の動物や機械を検知する場合や、仮に、人を正しく検知したとしても当該人が制御対象の機器に対する行動意思の有無までは判断できていなかったため、単に人等を検出した場合に、当該機器を使用する意思のない人を検知した場合であっても、当該機器に対して何らかの動作制御を行う場合があった。 As described above, in a device control apparatus using a conventional human detection sensor, even if an animal or machine other than a human is detected, or even if a human is detected correctly, the person has an intention to act on the controlled device. In some cases, when a person or the like is simply detected, even if a person who does not intend to use the device is detected, some operation control may be performed on the device.
本発明は、上記問題点に鑑みてなされたもので、その目的は、機器に対する人の行動意思の有無を反映した機器の動作制御が可能な機器制御装置または方法を提供する点にある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a device control apparatus or method capable of controlling the operation of a device that reflects the presence or absence of human action intentions on the device.
上記目的を達成するための本発明に係る機器制御装置は、画像情報の入力手段と、入力された前記画像情報から得られる画像の中に人の顔が含まれているかどうかを判定する顔存在判定手段と、前記顔存在判定手段により前記画像の中に人の顔があると判定されたとき、前記画像から当該顔の外見的な特徴情報を抽出する顔特徴抽出手段と、を備えてなり、少なくとも前記顔特徴抽出手段の抽出した前記特徴情報に基づいて、前記使用者の前記機器の使用に対する行動意思を判定して、前記機器に対する制御を行うことを特徴とする。 To achieve the above object, the device control apparatus according to the present invention includes an image information input unit and a face presence that determines whether a human face is included in an image obtained from the input image information. A determination unit; and a facial feature extraction unit that extracts appearance feature information of the face from the image when the facial presence determination unit determines that there is a human face in the image. , Based on at least the feature information extracted by the facial feature extraction means, the user's intention to use the device is determined, and the device is controlled.
上記目的を達成するための本発明に係る機器制御方法は、画像情報を入力する入力工程と、入力された前記画像情報から得られる画像の中に人の顔が含まれているかどうかを判定する顔存在判定工程と、前記顔存在判定工程により前記画像の中に人の顔があると判定されたとき、前記画像から当該顔の外見的な特徴情報を抽出する顔特徴抽出工程と、少なくとも前記顔特徴抽出工程において抽出した前記特徴情報に基づいて、前記使用者の前記機器の使用に対する行動意思を判定する行動意思判定工程と、を有し、前記行動意思判定工程において判定した前記行動意思に基づいて、前記機器に対する制御を行うことを特徴とする。 An apparatus control method according to the present invention for achieving the above object includes an input step of inputting image information, and determining whether a human face is included in an image obtained from the input image information. A face feature extracting step of extracting facial feature information of the face from the image when the face presence determining step determines that there is a human face in the image by the face presence determining step; An action intention determination step for determining an action intention of the user to use the device based on the feature information extracted in the face feature extraction step, and the action intention determined in the action intention determination step Based on the above, control is performed on the device.
本発明に係る機器制御装置または方法によれば、人の存在とその人の顔の特徴情報から、検知した人の制御対象の機器を使用する意思の有無を判断して、当該使用意思の有無に基づいて機器の動作を制御することができる。具体的には、動物や動き回る機械装置等、人以外の動く物が存在する場合には反応しないので、ペットショップや動物園等、人以外で反応しては困る場所でも確実に人のみを区別ができ、更には、その対象とする機器を利用する意思のない人の顔が偶然にその画像情報の入力手段により検出されてしまっても、機器を利用する意思のある人と利用する意思のない人とを区別することができるので、制御対象機器に対して適切な動作制御を行うことができる。これにより、機器の動作に関係のない人を検知した場合まで、当該機器の動作を制御する無駄を防止できる。 According to the device control apparatus or method of the present invention, the presence / absence of the intention to use is determined by determining the presence / absence of the person's intention to use the device to be controlled from the presence information of the person and the facial feature information of the person. The operation of the device can be controlled based on the above. Specifically, since there is no reaction when there are moving objects other than humans, such as animals and moving machinery, it is possible to reliably distinguish only people even in places where it is difficult to react other than humans, such as pet shops and zoos. In addition, even if the face of a person who does not intend to use the target device is accidentally detected by the image information input means, there is no intention to use the device with a person who intends to use the device. Since a person can be distinguished, appropriate operation control can be performed on the control target device. Thereby, it is possible to prevent wasteful use of controlling the operation of the device until a person unrelated to the operation of the device is detected.
本発明に係る機器制御装置または方法において、前記特徴情報として、前記画像中の顔領域の大きさを算出し、算出した前記顔領域の大きさに応じて前記行動意思を判定するのも好ましい。 In the device control apparatus or method according to the present invention, it is also preferable to calculate the size of the face area in the image as the feature information and determine the action intention according to the calculated size of the face area.
顔領域の大きさを特徴情報として算出することにより、顔領域の大きさが大きければ、該顔の人は制御対象機器の近くにいて、顔領域の大きさが小さければ、該顔の人は制御対象機器の遠くにいることが分かるので、使用者の機器を制御する領域を限定することができ、機器を利用する意思のある人と利用する意思のない人とを区別することができる。 By calculating the size of the face area as feature information, if the size of the face area is large, the person in the face is near the control target device, and if the size of the face area is small, the person in the face is Since it can be seen that the device to be controlled is far away, the area in which the user's device is controlled can be limited, and a person who intends to use the device can be distinguished from a person who does not intend to use the device.
更に、本発明に係る機器制御装置または方法において、前記特徴情報として、前記画像中の顔の向きに関する特徴量を算出し、算出した前記特徴量に応じて前記行動意思を判定するのも好ましい。 Furthermore, in the apparatus control apparatus or method according to the present invention, it is also preferable to calculate a feature amount related to the orientation of the face in the image as the feature information, and to determine the action intention according to the calculated feature amount.
画像中の顔の向きを特徴情報として算出することにより、一般的に制御対象機器の使用者は当該機器を基準とした特定の方向を向いているので、制御対象機器を利用する意思のある人と利用する意思のない人とを区別することができる。 By calculating the orientation of the face in the image as feature information, the user of the device to be controlled is generally oriented in a specific direction with the device as a reference. Can be distinguished from those who do not intend to use it.
更に、本発明に係る機器制御装置または方法において、前記特徴情報として、前記画像中の顔領域の存在位置を算出し、算出した前記存在位置に応じて前記行動意思を判定するのも好ましい。 Furthermore, in the apparatus control apparatus or method according to the present invention, it is also preferable to calculate the presence position of the face area in the image as the feature information and determine the action intention according to the calculated presence position.
画像中の顔領域の存在位置を特徴情報として算出することにより、顔領域の存在位置に応じて制御対象機器の動作を制御できることにより、使用者の機器を制御する領域を限定することができるので、制御対象機器を利用する意思のある人と利用する意思のない人とを区別することができる。 By calculating the presence position of the face area in the image as the feature information, the operation of the control target device can be controlled according to the position of the face area, so that the area for controlling the user device can be limited. Therefore, it is possible to distinguish between a person who intends to use the control target device and a person who does not intend to use the apparatus.
更に、本発明に係る機器制御装置または方法において、前記特徴情報として、前記画像中に存在する顔領域の個数を算出し、算出した前記顔領域の個数に応じて前記行動意思を判定するのも好ましい。 Furthermore, in the device control apparatus or method according to the present invention, as the feature information, the number of face areas present in the image is calculated, and the action intention is determined according to the calculated number of face areas. preferable.
画像中に存在する顔領域の個数を特徴情報として算出することにより、顔領域の個数に応じて制御対象機器の動作を制御できることにより、機器を利用する意思のある人が複数人いる場合において、制御対象機器を利用する意思のある人と利用する意思のない人とを区別することができる。 By calculating the number of face areas present in the image as feature information and controlling the operation of the controlled device according to the number of face areas, when there are multiple people who intend to use the equipment, A person who intends to use the control target device can be distinguished from a person who does not intend to use the device.
更に、本発明に係る機器制御装置または方法において、前記画像の中に人の顔があると継続的に判定している期間を計測し、計測した前記期間の長さに応じて前記行動意思を判定するのも好ましい。 Furthermore, in the apparatus control apparatus or method according to the present invention, a period during which it is determined that there is a human face in the image is measured, and the action intention is determined according to the length of the measured period. It is also preferable to determine.
画像の中に人の顔があると継続的に判定している期間を計測することにより、制御対象機器を利用する意思のない人は、その顔の存在を継続的に判定している期間が短く、逆に、利用する意思のある人は、その顔の存在を継続的に判定している期間がある一定時間以上に長くなるので、適当な有効な検出時間を設定することにより、存在の判定された顔の特徴情報と併用することで、当該機器を利用する意思のある人と利用する意思のない人とを、より精度良く区別することができる。 By measuring the period during which it is determined that there is a person's face in the image, a person who does not intend to use the control target device has a period during which the presence of the face is continuously determined. Short, conversely, a person who intends to use the face will be longer than a certain period of time to continuously determine the presence of the face, so by setting an appropriate effective detection time, By using together with the determined facial feature information, a person who intends to use the device and a person who does not intend to use the device can be more accurately distinguished.
更に、本発明に係る機器制御装置または方法において、前記画像の中から一定の前記特徴情報を継続的に抽出している期間を計測し、計測した前記期間の長さに応じて前記行動意思を判定するのも好ましい。 Furthermore, in the device control apparatus or method according to the present invention, a period during which the constant feature information is continuously extracted from the image is measured, and the action intention is determined according to the length of the measured period. It is also preferable to determine.
画像の中から一定の前記特徴情報を継続的に抽出している期間を計測することにより、制御対象機器を利用する意思のない人は、その顔の特徴情報を継続的に維持している期間が短く、逆に、利用する意思のある人は、その顔の特徴情報を継続的に維持している期間がある一定時間以上に長くなるので、適当な有効な検出時間を設定することにより、存在の判定された顔の特徴情報と併用することで、当該機器を利用する意思のある人と利用する意思のない人とを、より精度良く区別することができる。 A period during which a person who does not intend to use the control target device continuously maintains the feature information of the face by measuring the period during which the feature information is continuously extracted from the image. However, the person who intends to use the information will be longer than a certain period of time when the facial feature information is continuously maintained, so by setting an appropriate effective detection time, By using together with the facial feature information determined to be present, it is possible to more accurately distinguish between a person who intends to use the device and a person who does not intend to use the device.
本発明に係るコンピュータプログラムは、上記特徴の本発明に係る機器制御方法の顔存在判定工程、顔特徴抽出工程、及び、行動意思判定工程をコンピュータ上で実行するためのプログラムステップを備えてなることを特徴とする。 The computer program according to the present invention comprises program steps for executing the face presence determination step, the face feature extraction step, and the action intention determination step of the device control method according to the present invention having the above characteristics on a computer. It is characterized by.
また、本発明に係るコンピュータが読み取り可能な記録媒体は、上記本発明に係るコンピュータプログラムを記録してなることを特徴とする。 A computer-readable recording medium according to the present invention records the computer program according to the present invention.
これにより、上記記録媒体、または、ネットワークを介して、一般的なコンピュータに、上記本発明に係るコンピュータプログラムをインストールすることによって、上記特徴の本発明に係る機器制御方法の顔存在判定工程、顔特徴抽出工程、及び、行動意思判定工程を該コンピュータ上で実行することができる。言い換えれば、該コンピュータを本発明に係る機器制御装置の顔存在判定手段、顔特徴抽出手段、及び、行動意思判定手段として機能させることができる。この結果、上述の本発明に係る機器制御装置または方法の作用効果がコンピュータ処理により具体的に発揮される。 Thus, by installing the computer program according to the present invention on a general computer via the recording medium or the network, the face presence determination step of the device control method according to the present invention having the above characteristics, the face The feature extraction step and the action intention determination step can be executed on the computer. In other words, the computer can function as a face presence determination unit, a face feature extraction unit, and an action intention determination unit of the device control apparatus according to the present invention. As a result, the operational effects of the device control apparatus or method according to the present invention described above are specifically exhibited by computer processing.
次に、本発明に係る機器制御装置及び方法(以下、適宜「本発明装置」及び「本発明方法」と称す。)の一実施形態につき図面に基づいて説明する。 Next, an apparatus control apparatus and method according to the present invention (hereinafter referred to as “the present apparatus” and “the present method” as appropriate) will be described with reference to the drawings.
〈第1実施形態〉
図1に、本発明装置100の概略の機能的なブロック構成を示す。図1に示すように、本発明装置100は、画像情報の入力手段101と、顔存在判定手段102と、顔領域検出手段103と、顔特徴抽出手段104と、制御対象機器106の動作を制御する制御手段105を備えて構成されている。
<First Embodiment>
FIG. 1 shows a schematic functional block configuration of the
入力手段101は、例えば小型カメラやイメージセンサ等の撮像手段であり、制御対象機器106を使用、或いは、操作する使用者の行動意思を判断するための画像情報を取得するのに用いられる。入力手段101が取得した画像情報は、画素毎の輝度情報や色情報等としてリアルタイムに電気的な画像信号、例えば、RGB形式の画像信号に変換され、顔存在判定手段102に出力される。
The
顔存在判定手段102は、入力手段101から入力された画像信号で生成される入力画像中に人の顔が含まれるかどうかを判定する。本実施形態においては、人の顔を特徴付ける目・口・鼻をパターンマッチングにより検出し、検出された目・口・鼻が適切な相対位置関係にあれば、入力画像中に人の顔が存在すると判定する。尚、目・口・鼻のパターンマッチングにより人の顔を判定する手法としては、例えば、上述の特許文献1に開示された方法がある。
The face
顔領域検出手段103は、入力画像中から顔領域を検出する。本実施形態においては、顔領域を含む入力画像から肌色領域を検出することで顔領域を検出する。肌色領域の検出により顔領域を検出する手法としては、例えば、上述の特許文献2に開示された方法がある。顔存在判定手段102が、顔領域検出手段103の検出した顔領域に基づいて入力画像中に人の顔が含まれるかどうかを判定する場合は、顔領域検出手段103は、顔存在判定手段102の前処理手段として機能する。また、顔領域検出手段103は、後述する顔特徴抽出手段104の前処理手段としても機能する。
The face
顔特徴抽出手段104は、顔存在判定手段102によって画像中に人の顔が含まれると判定された場合に、顔領域検出手段103が検出した顔領域の画像情報より、顔領域の大きさ、画像中の顔の向き、画像中の顔領域の存在位置、画像中に存在する顔領域の個数等を、画像中に存在する顔の外見的な特徴情報として抽出する。本第1実施形態では、顔領域検出手段103で検出された顔領域の大きさを、特徴情報として用いる。具体的には、顔特徴抽出手段104は、顔領域検出手段103が検出した肌色領域の画素数を数えることで、顔領域の大きさを示す指標として顔領域の面積を算出する。尚、顔領域の大きさは、その固有値を数値化できるものであれば、顔領域の面積に限らず、例えば、顔の高さ、顔の幅、或いは、左右の目の間隔等を用いても構わない。
The face
制御手段105は、顔存在判定手段102の判定結果と前記顔特徴抽出手段の抽出した特徴情報に基づいて、当該特徴情報を備えた顔の使用者の機器106の使用に対する行動意思を判定し、所定の制御信号を出力する行動意思判定手段107と、行動意思判定手段107の出力する制御信号を、機器106を駆動可能な所定の駆動制御信号に変換して機器106に出力する駆動制御手段108を備え、機器106の動作に対する制御を行う。
Based on the determination result of the face
本発明装置100は、実際には、上記各手段の内の顔存在判定手段102、顔領域検出手段103、顔特徴抽出手段104、及び、行動意思判定手段107が、当該各手段の処理をコンピュータ上で実行するための各プログラムステップからなるコンピュータプログラムを格納した記憶部(コンピュータが読み取り可能な記録媒体に相当)と、該コンピュータプログラムを実行して上記各手段の処理を行うCPU(central processing unit)等から構成されている。
In practice, the
具体的には、図2に示すように、本発明装置100は、CPU201、主記憶装置202、外部記憶装置203、通信インタフェース204、内部バス205、入力手段としての小型カメラ101、駆動制御手段108を備えて構成されている。ここで、図1と図2の各ブロック構成図において、共通する構成要素には同じ符号を付して説明する。
Specifically, as shown in FIG. 2, the
CPU201は、図1に示す顔存在判定手段102、顔領域検出手段103、顔特徴抽出手段104、及び、行動意思判定手段107として機能し、当該各手段による各処理手順が記述されたプログラムは、例えば、外部記憶装置203に格納されており、主記憶装置202にロードされたものが、CPU201によるプログラム処理に供せられる。また、CPU201は、内部バス205を介してCPU201と相互に接続された小型カメラ101、主記憶装置202、外部記憶装置203、及び、駆動制御手段108とデータの授受を行ないながら、図3のフローチャートで示す各処理を実行する。
The
主記憶装置202は、通常はDRAM(dynamic random access memory)等の半導体メモリデバイスで構成される。
The
外部記憶装置203は、例えば、ハードディスクドライブ(HDD)やフレキシブルディスク等の不揮発性の磁気記録媒体で構成されており、顔存在判定手段102、顔領域検出手段103、顔特徴抽出手段104、及び、行動意思判定手段107の各処理を実行するためのコンピュータプログラムを記憶している。
The
また、CPU201は、内部バス205と通信インタフェース204を介して有線または無線で接続されたネットワーク206を通して、他のネットワーク機器207の記憶装置を外部記憶装置として用いることもできる。
The
駆動制御手段108は、制御対象機器106と内部バス205に接続し、内部バス205を介してCPU201から伝送された行動意思判定手段107の制御信号を、制御対象機器106を駆動できる駆動制御信号に変換して出力する。
The
次に、図3のフローチャートを参照して、本発明装置100によって実行される本発明方法の処理手順について説明する。
Next, the processing procedure of the method of the present invention executed by the
ステップS301において、小型カメラ101が撮像した画像情報の画像信号を入力し(入力工程)、ステップS302に進む。ステップS302において、顔領域検出手段103が、入力された画像信号で生成される入力画像中から顔領域を検出する。引き続き、ステップS303において、顔存在判定手段102が、その画像信号から得られる入力画像中に人の顔が含まれているかどうかを判定する(顔存在判定工程)。人の顔の存在が検出できなかった場合は、ステップS304に進み、行動意思判定手段107が、行動意思判定を行わずに、必要に応じてそのときの制御対象機器106の状態に応じた制御信号を駆動制御手段108に出力し、駆動制御手段108が制御対象機器106を駆動制御してスタートに戻る。
In step S301, an image signal of image information captured by the
ステップS303において、顔存在判定手段102が1人以上の人の顔が存在すると判定した場合は、ステップS305に進む。ステップS305において、顔特徴抽出手段104が、顔領域検出手段103が検出した顔領域より特徴情報を抽出する(顔特徴抽出工程)。本第1実施形態では、特徴情報として、顔領域の大きさを抽出する。ステップS306において、行動意思判定手段107が、検出した特徴情報の検出値が所定の判定領域内であれば、使用者の制御対象機器106に対する行動意思が存在すると判定し、それに応じた制御信号を駆動制御手段108に出力して、ステップS307に移行し、また、上記検出値が所定の判定領域内にない場合は、使用者の制御対象機器106に対する行動意思が存在しないと判定し、スタートに戻る(行動意思判定工程)。ステップS307において、駆動制御手段108は、受け取った制御信号に基づいて、制御対象機器106に対する駆動制御を実行し、スタートに戻る。尚、本第1実施形態では、上記行動意思判定工程において、顔領域の大きさが所定の判定閾値以上であれば、使用者が制御対象機器106の近くにいて機器106に対する行動意思があると判定する。
If it is determined in step S303 that the face
〈第2実施形態〉
次に、本発明装置の第2実施形態について説明する。図4に、第2実施形態に係る本発明装置400の概略の機能的なブロック構成を示す。図4に示すように、本発明装置400は、画像情報の入力手段101と、顔存在判定手段102と、顔領域検出手段103と、顔特徴抽出手段104と、制御対象機器106の動作を制御する制御手段105に加え、顔存在判定手段102が入力画像の中に人の顔があると継続的に判定している期間を計測する計時手段401を備えて構成されている。第1実施形態との相違点は、第2実施形態に係る本発明装置400が、計時手段401を備え、制御手段105の行動意思判定手段107が、計時手段401で計測された期間を考慮して、制御対象機器106に対する使用者の行動意思を判定する点である。尚、図1と図4の各ブロック構成図において、共通する構成要素には同じ符号を付して説明する。
Second Embodiment
Next, a second embodiment of the device of the present invention will be described. FIG. 4 shows a schematic functional block configuration of the
次に、図5のフローチャートを参照して、本発明装置400によって実行される本発明方法の処理手順について説明する。
Next, the processing procedure of the method of the present invention executed by the
ステップS501において、小型カメラ101が撮像した画像情報の画像信号を入力し(入力工程)、ステップS502に進む。ステップS502において、顔領域検出手段103が、入力された画像信号で生成される入力画像中から顔領域を検出する。引き続き、ステップS503において、顔存在判定手段102が、その画像信号から得られる入力画像中に人の顔が含まれているかどうかを判定する(顔存在判定工程)。人の顔の存在が検出できなかった場合は、ステップS504に進み、行動意思判定手段107が、行動意思判定を行わずに、必要に応じてそのときの制御対象機器106の状態に応じた制御信号を駆動制御手段108に出力し、駆動制御手段108が制御対象機器106を駆動制御してスタートに戻る。
In step S501, an image signal of image information captured by the
ステップS503において、顔存在判定手段102が1人以上の人の顔が存在すると判定した場合は、ステップS505に進む。ステップS505において、人の顔の存在を継続的に判定している期間として有効な一定判定時間を待機し、ステップS506に進む。ステップS506において、小型カメラ101が撮像した新たな画像情報の画像信号を入力し(入力工程)、ステップS507で、再度、顔領域検出手段103が、入力された画像信号で生成される入力画像中から顔領域を検出する。ステップS508において、再度、顔存在判定手段102が、その画像信号から得られる入力画像中に人の顔が含まれているかどうかを判定する(顔存在判定工程)。ステップS508において、人の顔の存在が検出できなかった場合は、ステップS504に進み、顔存在判定手段102が1人以上の人の顔が存在すると判定した場合は、ステップS509に進む。ステップS509において、顔特徴抽出手段104が、顔領域検出手段103が検出した顔領域より特徴情報を抽出する(顔特徴抽出工程)。本第2実施形態では、第1実施形態と同様に、特徴情報として、顔領域の大きさを抽出する。ステップS510において、行動意思判定手段107が、検出した特徴情報の検出値が所定の判定領域内であれば、使用者の制御対象機器106に対する行動意思が存在すると判定し、それに応じた制御信号を駆動制御手段108に出力して、ステップS511に移行し、また、上記検出値が所定の判定領域内にない場合は、使用者の制御対象機器106に対する行動意思が存在しないと判定し、スタートに戻る(行動意思判定工程)。ステップS511において、駆動制御手段108は、受け取った制御信号に基づいて、制御対象機器106に対する駆動制御を実行し、スタートに戻る。尚、本第2実施形態では、第1実施形態と同様に、上記行動意思判定工程において、顔領域の大きさが所定の判定閾値以上であれば、使用者が制御対象機器106の近くにいて機器106に対する行動意思があると判定する。
If it is determined in step S503 that the face
以上のように、本第2実施形態では、人の顔の存在を継続的に判定している期間として有効な一定判定時間を設定することができるので、有効な判定時間を適切に設定することにより、制御対象機器106を利用する意思のない人の顔が偶然、その小型カメラ101により撮像され、顔存在判定手段102によりその存在が判定されても、その顔の存在が一時的で設定された有効な判定時間以下であれば、結果として、一時的に検出された顔の人物を制御対象機器106を利用する意思のない人として扱え、制御対象機器106の状態変化をさせないことができる。
As described above, in the second embodiment, a valid fixed determination time can be set as a period during which the presence of a human face is continuously determined. Therefore, an effective determination time can be set appropriately. Thus, even if the face of a person who does not intend to use the
〈第3実施形態〉
次に、本発明装置の第3実施形態について説明する。図6に、第3実施形態に係る本発明装置600の概略の機能的なブロック構成を示す。図4に示すように、本発明装置600は、画像情報の入力手段101と、顔存在判定手段102と、顔領域検出手段103と、顔特徴抽出手段104と、制御対象機器106の動作を制御する制御手段105に加え、顔特徴抽出手段104が入力画像の中に存在する人の顔の特徴情報を一定の状態で継続的に抽出している期間を計測する計時手段601を備えて構成されている。第1実施形態との相違点は、第3実施形態に係る本発明装置600が、計時手段601を備え、制御手段105の行動意思判定手段107が、計時手段601で計測された期間を考慮して、制御対象機器106に対する使用者の行動意思を判定する点である。また、第2実施形態との相違点は、第2実施形態に係る計時手段401は、顔存在判定手段102が入力画像の中に人の顔があると継続的に判定している期間を計測するのに対して、第3実施形態に係る計時手段601は、顔特徴抽出手段104が入力画像の中に存在する人の顔の特徴情報を一定の状態で継続的に抽出している期間を計測する点である。例えば、第3実施形態では、顔特徴抽出手段104が特徴情報として顔の大きさを抽出する場合に、その顔の面積が、一定の状態として一定の大きさ以上である期間が、一定の状態で継続的に抽出している期間として計測される。尚、図1と図6の各ブロック構成図において、共通する構成要素には同じ符号を付して説明する。
<Third Embodiment>
Next, a third embodiment of the device of the present invention will be described. FIG. 6 shows a schematic functional block configuration of the
次に、図7のフローチャートを参照して、本発明装置600によって実行される本発明方法の処理手順について説明する。
Next, the processing procedure of the method of the present invention executed by the
ステップS701において、小型カメラ101が撮像した画像情報の画像信号を入力し(入力工程)、ステップS702に進む。ステップS702において、顔領域検出手段103が、入力された画像信号で生成される入力画像中から顔領域を検出する。引き続き、ステップS703において、顔存在判定手段102が、その画像信号から得られる入力画像中に人の顔が含まれているかどうかを判定する(顔存在判定工程)。人の顔の存在が検出できなかった場合は、ステップS704に進み、行動意思判定手段107が、行動意思判定を行わずに、必要に応じてそのときの制御対象機器106の状態に応じた制御信号を駆動制御手段108に出力し、駆動制御手段108が制御対象機器106を駆動制御して、ステップS705において、後述するカウンタ値Nをリセットした後に、スタートに戻る。
In step S701, an image signal of image information captured by the
ステップS703において、顔存在判定手段102が1人以上の人の顔が存在すると判定した場合は、ステップS706に進む。ステップS706において、顔特徴抽出手段104が、顔領域検出手段103が検出した顔領域より特徴情報を抽出する(顔特徴抽出工程)。本第3実施形態では、第1実施形態と同様に、特徴情報として、顔領域の大きさを抽出する。ステップS707において、行動意思判定手段107が、検出した特徴情報の検出値が所定の判定領域内であれば、ステップS708に移行し、また、上記検出値が所定の判定領域内にない場合は、使用者の制御対象機器106に対する行動意思が存在しないと判定し、ステップS705を経由して、スタートに戻る(行動意思判定工程)。ステップS708では、計時手段601が、一定の単位遅延時間の経過を待って、カウンタ値Nを1だけカウントアップし、ステップS709において、カウンタ値Nが最大カウント値Nmaxに至ったか否かを判定し、カウンタ値Nが最大カウント値Nmax未満の場合は、スタートに戻り、同じ処理を繰り返す。尚、ステップS707における特徴情報の検出値が所定の判定領域内あるか否かの判定は、第1実施形態と同様に、顔領域の大きさが所定の判定閾値以上か否かによって判定する。
If it is determined in step S703 that the face
ステップS709において、カウンタ値Nが最大カウント値Nmaxに一致した場合は、顔特徴抽出手段104が入力画像の中に存在する人の顔の特徴情報を一定の状態で継続的に抽出している期間が、所定の有効な判定期間を経過したと判断して、ステップS710に進む。ステップS710において、行動意思判定手段107が、検出した特徴情報の検出値が所定の判定領域内である状態が、所定の有効な判定期間継続したとして、使用者の制御対象機器106に対する行動意思が存在すると判定し、それに応じた制御信号を駆動制御手段108に出力する。また、駆動制御手段108は、受け取った制御信号に基づいて、制御対象機器106に対する駆動制御を実行し、スタートに戻る。
In step S709, when the counter value N matches the maximum count value Nmax, the period during which the facial
以上のように、本第3実施形態では、入力画像中に存在する人の顔の特徴情報を一定の状態で継続的に抽出している期間として有効な一定判定時間を設定することができるので、有効な判定時間を、単位遅延時間と最大カウント値Nmaxを調整して適切に設定することにより、制御対象機器106を利用する意思のない人の顔が偶然、その小型カメラ101により撮像され、顔存在判定手段102によりその存在が判定され、且つ、一時的に制御対象機器106を利用する意思がある人と判定されても、その顔の特徴情報の抽出が一時的で設定された有効な判定時間以下であれば、結果として、一時的に検出された顔の人物を制御対象機器106を利用する意思のない人として扱え、制御対象機器106の状態変化をさせないことができる。
As described above, in the third embodiment, it is possible to set a constant determination time that is effective as a period in which human face feature information existing in the input image is continuously extracted in a fixed state. By appropriately setting the effective determination time by adjusting the unit delay time and the maximum count value Nmax, the face of a person who does not intend to use the
〈第4実施形態〉
次に、本発明装置の第4実施形態について説明する。第4実施形態に係る本発明装置は、上記第1乃至第3実施形態の何れかにおける本発明装置100,400または600の顔特徴抽出手段104を、人の顔の外見的な特徴情報として、入力画像中の顔の向きを抽出する手段に置換し、その他の手段、つまり、入力手段101、顔存在判定手段102、顔領域検出手段103、顔特徴抽出手段104、制御手段105、行動意思判定手段107、駆動制御手段108、計時手段401または601は、上記第1乃至第3実施形態と同じものを備えて構成されている。
<Fourth embodiment>
Next, a fourth embodiment of the device of the present invention will be described. The device of the present invention according to the fourth embodiment uses the facial feature extraction means 104 of the
第4実施形態の顔特徴抽出手段は、入力画像中の顔の向きを抽出する方法として、顔領域検出手段103が検出した顔領域上から目・口・鼻の各位置を求め、それらの相対的な位置から、顔の向きを抽出する。同様の顔の向きを抽出手法としては、例えば、上述の特許文献3に開示された方法がある。
As a method for extracting the orientation of the face in the input image, the face feature extraction unit of the fourth embodiment obtains each position of the eyes, mouth, and nose from the face area detected by the face
顔特徴抽出手段によって抽出される特徴情報が、顔の向きである点以外は、上記第1乃至第3実施形態と同じであるので、第4実施形態に係る本発明装置の構成並びに処理手順については重複する説明を割愛する。 Since the feature information extracted by the face feature extraction unit is the same as the first to third embodiments except that the face information is the orientation of the face, the configuration and processing procedure of the device of the present invention according to the fourth embodiment are as follows. Omits duplicate explanations.
〈第5実施形態〉
次に、本発明装置の第5実施形態について説明する。第5実施形態に係る本発明装置は、上記第1乃至第3実施形態の何れかにおける本発明装置100,400または600の顔特徴抽出手段104を、人の顔の外見的な特徴情報として、入力画像中の顔領域の存在位置を抽出する手段に置換し、その他の手段、つまり、入力手段101、顔存在判定手段102、顔領域検出手段103、顔特徴抽出手段104、制御手段105、行動意思判定手段107、駆動制御手段108、計時手段401または601は、上記第1乃至第3実施形態と同じものを備えて構成されている。
<Fifth Embodiment>
Next, a fifth embodiment of the device of the present invention will be described. The device of the present invention according to the fifth embodiment uses the face feature extraction means 104 of the
第5実施形態の顔特徴抽出手段は、入力画像中の顔領域の存在位置を抽出する方法として、例えば、顔領域検出手段103が検出した顔領域の中心位置を求め、その中心位置の入力画像中における相対位置を抽出する。
For example, the face feature extraction unit of the fifth embodiment obtains the center position of the face area detected by the face
顔特徴抽出手段によって抽出される特徴情報が、顔領域の存在位置である点以外は、上記第1乃至第3実施形態と同じであるので、第5実施形態に係る本発明装置の構成並びに処理手順については重複する説明を割愛する。 Since the feature information extracted by the face feature extraction means is the same as that in the first to third embodiments except that the feature information is the position of the face area, the configuration and processing of the device of the present invention according to the fifth embodiment For the procedure, duplicate explanation is omitted.
〈第6実施形態〉
次に、本発明装置の第6実施形態について説明する。第6実施形態に係る本発明装置は、上記第1乃至第3実施形態の何れかにおける本発明装置100,400または600の顔特徴抽出手段104を、人の顔の外見的な特徴情報として、入力画像中に存在する顔領域の個数を抽出する手段に置換し、その他の手段、つまり、入力手段101、顔存在判定手段102、顔領域検出手段103、顔特徴抽出手段104、制御手段105、行動意思判定手段107、駆動制御手段108、計時手段401または601は、上記第1乃至第3実施形態と同じものを備えて構成されている。
<Sixth Embodiment>
Next, a sixth embodiment of the device of the present invention will be described. The device of the present invention according to the sixth embodiment uses the facial feature extraction means 104 of the
第6実施形態の顔特徴抽出手段は、入力画像中に存在する顔領域検出手段103により検出され、且つ、顔存在判定手段102によって人の顔と判定された顔領域の個数を抽出する。 The face feature extraction means of the sixth embodiment extracts the number of face areas detected by the face area detection means 103 existing in the input image and determined as a human face by the face presence determination means 102.
顔特徴抽出手段によって抽出される特徴情報が、顔領域の個数である点以外は、上記第1乃至第3実施形態と同じであるので、第6実施形態に係る本発明装置の構成並びに処理手順については重複する説明を割愛する。 Since the feature information extracted by the face feature extraction means is the same as the first to third embodiments except that the feature information is the number of face regions, the configuration and processing procedure of the device of the present invention according to the sixth embodiment I will omit the duplicate explanation.
以下、本発明装置及び本発明方法の別実施形態について説明する。 Hereinafter, another embodiment of the device of the present invention and the method of the present invention will be described.
〈1〉上記各実施形態においては、顔特徴抽出手段は、顔領域検出手段103が検出した顔領域の画像情報より、顔領域の大きさ、画像中の顔の向き、画像中の顔領域の存在位置、及び、画像中に存在する顔領域の個数の何れか1つを、画像中に存在する顔の外見的な特徴情報として抽出する場合を説明したが、顔特徴抽出手段が抽出する特徴情報としては、上記顔領域の大きさ、画像中の顔の向き、画像中の顔領域の存在位置、及び、画像中に存在する顔領域の個数の何れか1つに限定されるものではなく、上記以外の特徴情報であってもよく、また、上記特徴情報の2以上を組み合わせて使用しても構わない。 <1> In each of the embodiments described above, the face feature extraction means determines the size of the face area, the orientation of the face in the image, and the face area in the image from the image information of the face area detected by the face area detection means 103. Although the case where any one of the existing position and the number of face regions existing in the image is extracted as appearance feature information of the face existing in the image has been described, the features extracted by the face feature extracting unit The information is not limited to any one of the size of the face area, the orientation of the face in the image, the position of the face area in the image, and the number of face areas present in the image. The feature information other than the above may be used, or two or more of the feature information may be used in combination.
〈2〉上記各実施形態においては、顔存在判定手段102、顔領域検出手段103、顔特徴抽出手段104、及び、行動意思判定手段107の各処理をコンピュータ上で実行するための各プログラムステップからなるコンピュータプログラムを、本発明装置を構成するコンピュータの外部記憶装置203に予め格納して使用する場合を説明したが、上記コンピュータプログラムの供給方法は、上記各実施形態の方法に限定されるものではない。
<2> In each of the above embodiments, each program step for executing the processes of the face
例えば、上記コンピュータプログラムをCD−ROMやDVD等の可搬型の記録媒体に格納しておき、当該記録媒体を本発明装置に供給し、本発明装置を構成するコンピュータ(またはCPUやMPU)が、当該記録媒体に格納されたプログラムコードを読み出し、主記憶装置202にロードして実行するようにしても構わない。また、当該記録媒体として高速アクセス可能な半導体メモリ等を利用して、当該記録媒体に格納されたプログラムコードを直接読み出して実行するようにしても構わない。プログラムコードを供給するための記録媒体としては、例えば、フロッピィディスク、ハードディスク、光ディスク、光磁気ディスク、磁気テープ、不揮発性のメモリカード等を用いることができる。
For example, the computer program is stored in a portable recording medium such as a CD-ROM or DVD, the recording medium is supplied to the apparatus of the present invention, and the computer (or CPU or MPU) constituting the apparatus of the present invention is The program code stored in the recording medium may be read out, loaded into the
この場合、記録媒体から読み出されたプログラムコード自体が、上記各実施形態の機能を実現することになり、そのプログラムコードを記憶した記録媒体は本発明装置を構成することになる。 In this case, the program code itself read from the recording medium realizes the functions of the above embodiments, and the recording medium storing the program code constitutes the apparatus of the present invention.
また、上記プログラムコードは、図2のネットワーク206のような伝送媒体を介して、他のコンピュータシステムから本発明装置の主記憶装置202または外部記憶装置203へダウンロードされる形態であってもよい。
Further, the program code may be downloaded from another computer system to the
また、コンピュータが読み出したプログラムコードを実行することにより、上記各実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって上記各実施形態の機能が実現される形態であっても構わない。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code. A part or all of the actual processing may be performed, and the functions of the above embodiments may be realized by the processing.
更に、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって上記各実施形態の機能が実現される形態であっても構わない。 Further, after the program code read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. The CPU or the like provided in the board or function expansion unit may perform part or all of the actual processing, and the functions of the above embodiments may be realized by the processing.
100,400,600: 本発明に係る機器制御装置
101: 画像情報の入力手段(小型カメラ)
102: 顔存在判定手段
103: 顔領域検出手段
104: 顔特徴検出手段
105: 制御手段
106: 制御対象機器
107: 行動意思判定手段
108: 駆動制御手段
201: CPU
202: 主記憶装置
203: 外部記憶装置
204: 通信インタフェース
205: 内部バス
206: ネットワーク
207: ネットワーク機器
401,601: 計時手段
100, 400, 600: Device control apparatus according to the present invention 101: Image information input means (small camera)
102: Face presence determination means 103: Face area detection means 104: Face feature detection means 105: Control means 106: Control target device 107: Action intention determination means 108: Drive control means 201: CPU
202: Main storage device 203: External storage device 204: Communication interface 205: Internal bus 206: Network 207:
Claims (16)
入力された前記画像情報から得られる画像の中に人の顔が含まれているかどうかを判定する顔存在判定手段と、
前記顔存在判定手段により前記画像の中に人の顔があると判定されたとき、前記画像から当該顔の外見的な特徴情報を抽出する顔特徴抽出手段と、
を備えてなり、
少なくとも前記顔特徴抽出手段の抽出した前記特徴情報に基づいて、前記使用者の前記機器の使用に対する行動意思を判定して、前記機器に対する制御を行うことを特徴とする機器制御装置。 Image information input means;
Face presence determination means for determining whether a human face is included in an image obtained from the input image information;
Face feature extracting means for extracting appearance feature information of the face from the image when the face presence determining means determines that there is a human face in the image;
With
A device control apparatus that determines control of the device by determining a user's intention to use the device based on at least the feature information extracted by the face feature extraction unit.
前記顔特徴抽出手段が算出した前記顔領域の大きさに応じて前記行動意思を判定することを特徴とする請求項1に記載の機器制御装置。 The face feature extraction means calculates a size of a face area in the image as the feature information,
The device control apparatus according to claim 1, wherein the action intention is determined according to the size of the face area calculated by the face feature extraction unit.
前記顔特徴抽出手段が算出した前記特徴量に応じて前記行動意思を判定することを特徴とする請求項1に記載の機器制御装置。 The face feature extraction means calculates a feature amount related to the orientation of the face in the image as the feature information,
The device control apparatus according to claim 1, wherein the action intention is determined according to the feature amount calculated by the face feature extraction unit.
前記顔特徴抽出手段が算出した前記存在位置に応じて前記行動意思を判定することを特徴とする請求項1に記載の機器制御装置。 The face feature extraction means calculates the presence position of a face region in the image as the feature information,
The device control apparatus according to claim 1, wherein the action intention is determined according to the presence position calculated by the face feature extraction unit.
前記顔特徴抽出手段が算出した前記顔領域の個数に応じて前記行動意思を判定することを特徴とする請求項1に記載の機器制御装置。 The face feature extraction means calculates the number of face regions present in the image as the feature information,
The device control apparatus according to claim 1, wherein the action intention is determined according to the number of the face areas calculated by the face feature extraction unit.
前記計時手段の計測した前記期間の長さに応じて前記行動意思を判定することを特徴とする請求項1〜5の何れか1項に記載の機器制御装置。 A timing unit that measures a period during which the face presence determination unit continuously determines that there is a human face in the image;
The device control apparatus according to claim 1, wherein the action intention is determined according to the length of the period measured by the time measuring unit.
前記計時手段の計測した前記期間の長さに応じて前記行動意思を判定することを特徴とする請求項1〜5の何れか1項に記載の機器制御装置。 A timing means for measuring a period during which the face feature extraction means continuously extracts the feature information from the image;
The device control apparatus according to claim 1, wherein the action intention is determined according to the length of the period measured by the time measuring unit.
入力された前記画像情報から得られる画像の中に人の顔が含まれているかどうかを判定する顔存在判定工程と、
前記顔存在判定工程により前記画像の中に人の顔があると判定されたとき、前記画像から当該顔の外見的な特徴情報を抽出する顔特徴抽出工程と、
少なくとも前記顔特徴抽出工程において抽出した前記特徴情報に基づいて、前記使用者の前記機器の使用に対する行動意思を判定する行動意思判定工程と、を有し、
前記行動意思判定工程において判定した前記行動意思に基づいて、前記機器に対する制御を行うことを特徴とする機器制御方法。 An input process for inputting image information;
A face presence determination step of determining whether a human face is included in an image obtained from the input image information;
A face feature extraction step of extracting appearance feature information of the face from the image when it is determined by the face presence determination step that there is a human face in the image;
An action intention determination step of determining an action intention of the user using the device based on at least the feature information extracted in the face feature extraction step;
A device control method, comprising: controlling the device based on the behavior intention determined in the behavior intention determination step.
前記行動意思判定工程において、前記顔特徴抽出工程で算出した前記顔領域の大きさに応じて前記行動意思を判定することを特徴とする請求項8に記載の機器制御方法。 In the face feature extraction step, as the feature information, a size of a face region in the image is calculated,
9. The apparatus control method according to claim 8, wherein, in the action intention determination step, the action intention is determined according to the size of the face area calculated in the face feature extraction step.
前記行動意思判定工程において、前記顔特徴抽出工程で算出した前記特徴量に応じて前記行動意思を判定することを特徴とする請求項8に記載の機器制御方法。 In the face feature extraction step, as the feature information, a feature amount related to the orientation of the face in the image is calculated,
The device control method according to claim 8, wherein, in the action intention determination step, the action intention is determined according to the feature amount calculated in the face feature extraction step.
前記行動意思判定工程において、前記顔特徴抽出工程で算出した前記存在位置に応じて前記行動意思を判定することを特徴とする請求項8に記載の機器制御方法。 In the face feature extraction step, as the feature information, the presence position of the face region in the image is calculated,
The device control method according to claim 8, wherein in the behavior intention determination step, the behavior intention is determined according to the presence position calculated in the face feature extraction step.
前記行動意思判定工程において、前記顔特徴抽出工程で算出した前記顔領域の個数に応じて前記行動意思を判定することを特徴とする請求項8に記載の機器制御方法。 In the face feature extraction step, as the feature information, the number of face regions present in the image is calculated,
9. The device control method according to claim 8, wherein, in the action intention determination step, the action intention is determined according to the number of the face regions calculated in the face feature extraction step.
前記行動意思判定工程において、前記計時工程で計測した前記期間の長さに応じて前記行動意思を判定することを特徴とする請求項8〜12の何れか1項に記載の機器制御方法。 The face presence determination step includes a time measuring step of measuring a period during which it is continuously determined that there is a human face in the image,
The device control method according to any one of claims 8 to 12, wherein, in the action intention determination step, the action intention is determined according to a length of the period measured in the timing step.
前記行動意思判定工程において、前記計時工程で計測した前記期間の長さに応じて前記行動意思を判定することを特徴とする請求項8〜12の何れか1項に記載の機器制御方法。 The face feature extraction step includes a time measuring step of measuring a period during which the constant feature information is continuously extracted from the image,
The device control method according to any one of claims 8 to 12, wherein, in the action intention determination step, the action intention is determined according to a length of the period measured in the timing step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004305067A JP2006119780A (en) | 2004-10-20 | 2004-10-20 | Apparatus control device utilizing face information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004305067A JP2006119780A (en) | 2004-10-20 | 2004-10-20 | Apparatus control device utilizing face information |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006119780A true JP2006119780A (en) | 2006-05-11 |
Family
ID=36537627
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004305067A Pending JP2006119780A (en) | 2004-10-20 | 2004-10-20 | Apparatus control device utilizing face information |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006119780A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010161644A (en) * | 2009-01-08 | 2010-07-22 | Nikon Corp | Electronic camera |
JP2012146313A (en) * | 2012-02-17 | 2012-08-02 | Casio Comput Co Ltd | Image processing apparatus and program |
WO2020121536A1 (en) * | 2018-12-14 | 2020-06-18 | オリンパス株式会社 | User interface device, medical system, manipulation control method, and manipulation control program |
-
2004
- 2004-10-20 JP JP2004305067A patent/JP2006119780A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010161644A (en) * | 2009-01-08 | 2010-07-22 | Nikon Corp | Electronic camera |
JP2012146313A (en) * | 2012-02-17 | 2012-08-02 | Casio Comput Co Ltd | Image processing apparatus and program |
WO2020121536A1 (en) * | 2018-12-14 | 2020-06-18 | オリンパス株式会社 | User interface device, medical system, manipulation control method, and manipulation control program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105612533B (en) | Living body detection method, living body detection system, and computer program product | |
JP2017527907A (en) | Pseudorandomly induced fingerprint registration | |
JP2017538224A (en) | Fingerprint registration by guidance based on the center point of attention | |
US10708467B2 (en) | Information processing apparatus that performs authentication processing for approaching person, and control method thereof | |
US20140062862A1 (en) | Gesture recognition apparatus, control method thereof, display instrument, and computer readable medium | |
JP4968929B2 (en) | Image processing apparatus and image processing method | |
TWI704530B (en) | Gaze angle determination apparatus and method | |
KR102357965B1 (en) | Method of recognizing object and apparatus thereof | |
CN107181907A (en) | Control device, processing unit and control method | |
US8938132B2 (en) | Image collation system, image collation method and computer program | |
KR101104656B1 (en) | Pet image detection system and method for controlling operation thereof | |
KR101307984B1 (en) | Method of robust main body parts estimation using descriptor and machine learning for pose recognition | |
JP2007249587A (en) | Authentication device, authentication method, authentication program and computer readable recording medium having the same recorded thereon | |
WO2021241083A1 (en) | Biometric determination device and biometric determination method | |
JP2009140407A (en) | Passer monitoring device | |
JP2006119780A (en) | Apparatus control device utilizing face information | |
JP6963437B2 (en) | Information processing device and its control method and program | |
KR20230094062A (en) | Face recognition system and method for controlling the same | |
JP6438693B2 (en) | Authentication apparatus, authentication method, and program | |
JP2005275869A (en) | Individual authentication system | |
JP7297463B2 (en) | Image processing device, image processing method, and program | |
JPWO2020185948A5 (en) | ||
JP2002251614A (en) | Device, system, method, and program for collating organism | |
US20140062864A1 (en) | Method and apparatus for extracting three-dimensional distance information from recognition target | |
CN114791705B (en) | Control method and device for household equipment, electronic equipment and readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070302 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091110 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100309 |