JP2006119780A - Apparatus control device utilizing face information - Google Patents

Apparatus control device utilizing face information Download PDF

Info

Publication number
JP2006119780A
JP2006119780A JP2004305067A JP2004305067A JP2006119780A JP 2006119780 A JP2006119780 A JP 2006119780A JP 2004305067 A JP2004305067 A JP 2004305067A JP 2004305067 A JP2004305067 A JP 2004305067A JP 2006119780 A JP2006119780 A JP 2006119780A
Authority
JP
Japan
Prior art keywords
face
image
feature extraction
action intention
intention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004305067A
Other languages
Japanese (ja)
Inventor
Koichi Kurimoto
孝一 栗本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2004305067A priority Critical patent/JP2006119780A/en
Publication of JP2006119780A publication Critical patent/JP2006119780A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus control device capable of controlling the operation of an apparatus which is reflected by the presence/absence of personal action will to the apparatus. <P>SOLUTION: The apparatus control device is provided with an image information input means 101, a face existence determining means 102 for determining whether a human face is included in an image obtained from inputted image information and a face feature extraction means 104 for extracting the appearance feature information of the face from the image when the face existence determining means 102 determines the existence of a human face in the image and constituted so as to judge user's action will for the use of the apparatus 106 at least on the basis of the feature information extracted by the face feature extraction means 104 and control the apparatus 106. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、非接触により機器の動作を制御する機器制御装置及び方法に関する。   The present invention relates to a device control apparatus and method for controlling the operation of a device in a non-contact manner.

従来、この種の機器制御装置及び方法としては、人を検知する人検知センサの検知結果に基づいて、機器の動作を制御する機器制御装置及び方法がある。また、一般的な人検知センサとして、赤外線や超音波、または、画像処理を用いたものがある。   Conventionally, as this type of device control device and method, there is a device control device and method that controls the operation of a device based on the detection result of a human detection sensor that detects a person. Further, as a general human detection sensor, there are sensors using infrared rays, ultrasonic waves, or image processing.

従来の赤外線や超音波などを用いた人検知センサは、例えば銀行などに設置されている現金自動取扱機や自動扉、人の位置を感知する空気調和機などに利用されている。赤外線や超音波を利用した人検知センサでは対象物を厳密に区別できないので、その機器を利用する意思のある人なのか、その装置を利用する意思はなく、偶然近くにいる人なのかを区別するのは困難である。   Conventional human detection sensors using infrared rays, ultrasonic waves, and the like are used in, for example, an automatic cash handling machine installed in a bank, an automatic door, an air conditioner that senses the position of a person, and the like. Human detection sensors that use infrared rays or ultrasonic waves cannot accurately distinguish between objects, so it is possible to distinguish between people who are willing to use the device and those who are not willing to use the device and are near by accident It is difficult to do.

また、この従来の赤外線や超音波を用いた機器制御装置及び方法では、人以外のもの、例えば動物や、自動掃除機などの動き回る機械装置でも反応してしまうので、ペットショップ、動物園など、人以外の動くものが存在する場合、人かどうか区別するのは困難である。   In addition, in the conventional device control apparatus and method using infrared rays and ultrasonic waves, other devices such as animals and moving machines such as automatic vacuum cleaners also react, so people such as pet shops and zoos It is difficult to distinguish whether a person is moving when there is something other than moving.

従来の画像処理を用いた人検知センサの場合、例えば同一の固定カメラより時間差をつけて複数枚の写真を撮り、それらの写真の差分を求めることにより動いているものを捕らえることで人を検知するという方法がある。   In the case of a human detection sensor using conventional image processing, for example, a plurality of photographs are taken with a time difference from the same fixed camera, and a person is detected by capturing moving objects by obtaining the difference between the photographs. There is a way to do it.

この画像処理を用いた機器制御装置及び方法では、検出物の動き、色、大きさ、位置は判断することはできるが、検出物が人であるかの判断はできない。人であったとしても、その機器を利用する意思のある人なのか、偶然近くにいる利用する意思のない人なのかを区別することはできない。   In the device control apparatus and method using this image processing, the movement, color, size, and position of the detected object can be determined, but it cannot be determined whether the detected object is a person. Even if it is a person, it cannot be distinguished whether it is a person who intends to use the device or a person who is near by chance and does not intend to use it.

尚、検出物が人であるか否かの判断を、人の顔の特徴抽出により行う方法が、下記の特許文献1〜3に開示されている。但し、これらの特許文献に開示されている方法においても、人の顔領域や顔の向きを抽出する方法を提示するに止まり、検出された人の機器に対する行動意思を確認することまでは示唆も開示もしていない。
特開平05−225344号公報 特開2000−105819号公報 特開2001−250121号公報
The following Patent Documents 1 to 3 disclose a method for determining whether or not a detected object is a person by extracting a human face feature. However, even in the methods disclosed in these patent documents, only methods for extracting the human face area and face orientation are presented, and there is also an indication until confirmation of the action intention of the detected human device is confirmed. It is not disclosed.
JP 05-225344 A JP 2000-105819 A JP 2001-250121 A

上述の如く、従来の人検知センサを用いた機器制御装置では、人以外の動物や機械を検知する場合や、仮に、人を正しく検知したとしても当該人が制御対象の機器に対する行動意思の有無までは判断できていなかったため、単に人等を検出した場合に、当該機器を使用する意思のない人を検知した場合であっても、当該機器に対して何らかの動作制御を行う場合があった。   As described above, in a device control apparatus using a conventional human detection sensor, even if an animal or machine other than a human is detected, or even if a human is detected correctly, the person has an intention to act on the controlled device. In some cases, when a person or the like is simply detected, even if a person who does not intend to use the device is detected, some operation control may be performed on the device.

本発明は、上記問題点に鑑みてなされたもので、その目的は、機器に対する人の行動意思の有無を反映した機器の動作制御が可能な機器制御装置または方法を提供する点にある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a device control apparatus or method capable of controlling the operation of a device that reflects the presence or absence of human action intentions on the device.

上記目的を達成するための本発明に係る機器制御装置は、画像情報の入力手段と、入力された前記画像情報から得られる画像の中に人の顔が含まれているかどうかを判定する顔存在判定手段と、前記顔存在判定手段により前記画像の中に人の顔があると判定されたとき、前記画像から当該顔の外見的な特徴情報を抽出する顔特徴抽出手段と、を備えてなり、少なくとも前記顔特徴抽出手段の抽出した前記特徴情報に基づいて、前記使用者の前記機器の使用に対する行動意思を判定して、前記機器に対する制御を行うことを特徴とする。   To achieve the above object, the device control apparatus according to the present invention includes an image information input unit and a face presence that determines whether a human face is included in an image obtained from the input image information. A determination unit; and a facial feature extraction unit that extracts appearance feature information of the face from the image when the facial presence determination unit determines that there is a human face in the image. , Based on at least the feature information extracted by the facial feature extraction means, the user's intention to use the device is determined, and the device is controlled.

上記目的を達成するための本発明に係る機器制御方法は、画像情報を入力する入力工程と、入力された前記画像情報から得られる画像の中に人の顔が含まれているかどうかを判定する顔存在判定工程と、前記顔存在判定工程により前記画像の中に人の顔があると判定されたとき、前記画像から当該顔の外見的な特徴情報を抽出する顔特徴抽出工程と、少なくとも前記顔特徴抽出工程において抽出した前記特徴情報に基づいて、前記使用者の前記機器の使用に対する行動意思を判定する行動意思判定工程と、を有し、前記行動意思判定工程において判定した前記行動意思に基づいて、前記機器に対する制御を行うことを特徴とする。   An apparatus control method according to the present invention for achieving the above object includes an input step of inputting image information, and determining whether a human face is included in an image obtained from the input image information. A face feature extracting step of extracting facial feature information of the face from the image when the face presence determining step determines that there is a human face in the image by the face presence determining step; An action intention determination step for determining an action intention of the user to use the device based on the feature information extracted in the face feature extraction step, and the action intention determined in the action intention determination step Based on the above, control is performed on the device.

本発明に係る機器制御装置または方法によれば、人の存在とその人の顔の特徴情報から、検知した人の制御対象の機器を使用する意思の有無を判断して、当該使用意思の有無に基づいて機器の動作を制御することができる。具体的には、動物や動き回る機械装置等、人以外の動く物が存在する場合には反応しないので、ペットショップや動物園等、人以外で反応しては困る場所でも確実に人のみを区別ができ、更には、その対象とする機器を利用する意思のない人の顔が偶然にその画像情報の入力手段により検出されてしまっても、機器を利用する意思のある人と利用する意思のない人とを区別することができるので、制御対象機器に対して適切な動作制御を行うことができる。これにより、機器の動作に関係のない人を検知した場合まで、当該機器の動作を制御する無駄を防止できる。   According to the device control apparatus or method of the present invention, the presence / absence of the intention to use is determined by determining the presence / absence of the person's intention to use the device to be controlled from the presence information of the person and the facial feature information of the person. The operation of the device can be controlled based on the above. Specifically, since there is no reaction when there are moving objects other than humans, such as animals and moving machinery, it is possible to reliably distinguish only people even in places where it is difficult to react other than humans, such as pet shops and zoos. In addition, even if the face of a person who does not intend to use the target device is accidentally detected by the image information input means, there is no intention to use the device with a person who intends to use the device. Since a person can be distinguished, appropriate operation control can be performed on the control target device. Thereby, it is possible to prevent wasteful use of controlling the operation of the device until a person unrelated to the operation of the device is detected.

本発明に係る機器制御装置または方法において、前記特徴情報として、前記画像中の顔領域の大きさを算出し、算出した前記顔領域の大きさに応じて前記行動意思を判定するのも好ましい。   In the device control apparatus or method according to the present invention, it is also preferable to calculate the size of the face area in the image as the feature information and determine the action intention according to the calculated size of the face area.

顔領域の大きさを特徴情報として算出することにより、顔領域の大きさが大きければ、該顔の人は制御対象機器の近くにいて、顔領域の大きさが小さければ、該顔の人は制御対象機器の遠くにいることが分かるので、使用者の機器を制御する領域を限定することができ、機器を利用する意思のある人と利用する意思のない人とを区別することができる。   By calculating the size of the face area as feature information, if the size of the face area is large, the person in the face is near the control target device, and if the size of the face area is small, the person in the face is Since it can be seen that the device to be controlled is far away, the area in which the user's device is controlled can be limited, and a person who intends to use the device can be distinguished from a person who does not intend to use the device.

更に、本発明に係る機器制御装置または方法において、前記特徴情報として、前記画像中の顔の向きに関する特徴量を算出し、算出した前記特徴量に応じて前記行動意思を判定するのも好ましい。   Furthermore, in the apparatus control apparatus or method according to the present invention, it is also preferable to calculate a feature amount related to the orientation of the face in the image as the feature information, and to determine the action intention according to the calculated feature amount.

画像中の顔の向きを特徴情報として算出することにより、一般的に制御対象機器の使用者は当該機器を基準とした特定の方向を向いているので、制御対象機器を利用する意思のある人と利用する意思のない人とを区別することができる。   By calculating the orientation of the face in the image as feature information, the user of the device to be controlled is generally oriented in a specific direction with the device as a reference. Can be distinguished from those who do not intend to use it.

更に、本発明に係る機器制御装置または方法において、前記特徴情報として、前記画像中の顔領域の存在位置を算出し、算出した前記存在位置に応じて前記行動意思を判定するのも好ましい。   Furthermore, in the apparatus control apparatus or method according to the present invention, it is also preferable to calculate the presence position of the face area in the image as the feature information and determine the action intention according to the calculated presence position.

画像中の顔領域の存在位置を特徴情報として算出することにより、顔領域の存在位置に応じて制御対象機器の動作を制御できることにより、使用者の機器を制御する領域を限定することができるので、制御対象機器を利用する意思のある人と利用する意思のない人とを区別することができる。   By calculating the presence position of the face area in the image as the feature information, the operation of the control target device can be controlled according to the position of the face area, so that the area for controlling the user device can be limited. Therefore, it is possible to distinguish between a person who intends to use the control target device and a person who does not intend to use the apparatus.

更に、本発明に係る機器制御装置または方法において、前記特徴情報として、前記画像中に存在する顔領域の個数を算出し、算出した前記顔領域の個数に応じて前記行動意思を判定するのも好ましい。   Furthermore, in the device control apparatus or method according to the present invention, as the feature information, the number of face areas present in the image is calculated, and the action intention is determined according to the calculated number of face areas. preferable.

画像中に存在する顔領域の個数を特徴情報として算出することにより、顔領域の個数に応じて制御対象機器の動作を制御できることにより、機器を利用する意思のある人が複数人いる場合において、制御対象機器を利用する意思のある人と利用する意思のない人とを区別することができる。   By calculating the number of face areas present in the image as feature information and controlling the operation of the controlled device according to the number of face areas, when there are multiple people who intend to use the equipment, A person who intends to use the control target device can be distinguished from a person who does not intend to use the device.

更に、本発明に係る機器制御装置または方法において、前記画像の中に人の顔があると継続的に判定している期間を計測し、計測した前記期間の長さに応じて前記行動意思を判定するのも好ましい。   Furthermore, in the apparatus control apparatus or method according to the present invention, a period during which it is determined that there is a human face in the image is measured, and the action intention is determined according to the length of the measured period. It is also preferable to determine.

画像の中に人の顔があると継続的に判定している期間を計測することにより、制御対象機器を利用する意思のない人は、その顔の存在を継続的に判定している期間が短く、逆に、利用する意思のある人は、その顔の存在を継続的に判定している期間がある一定時間以上に長くなるので、適当な有効な検出時間を設定することにより、存在の判定された顔の特徴情報と併用することで、当該機器を利用する意思のある人と利用する意思のない人とを、より精度良く区別することができる。   By measuring the period during which it is determined that there is a person's face in the image, a person who does not intend to use the control target device has a period during which the presence of the face is continuously determined. Short, conversely, a person who intends to use the face will be longer than a certain period of time to continuously determine the presence of the face, so by setting an appropriate effective detection time, By using together with the determined facial feature information, a person who intends to use the device and a person who does not intend to use the device can be more accurately distinguished.

更に、本発明に係る機器制御装置または方法において、前記画像の中から一定の前記特徴情報を継続的に抽出している期間を計測し、計測した前記期間の長さに応じて前記行動意思を判定するのも好ましい。   Furthermore, in the device control apparatus or method according to the present invention, a period during which the constant feature information is continuously extracted from the image is measured, and the action intention is determined according to the length of the measured period. It is also preferable to determine.

画像の中から一定の前記特徴情報を継続的に抽出している期間を計測することにより、制御対象機器を利用する意思のない人は、その顔の特徴情報を継続的に維持している期間が短く、逆に、利用する意思のある人は、その顔の特徴情報を継続的に維持している期間がある一定時間以上に長くなるので、適当な有効な検出時間を設定することにより、存在の判定された顔の特徴情報と併用することで、当該機器を利用する意思のある人と利用する意思のない人とを、より精度良く区別することができる。   A period during which a person who does not intend to use the control target device continuously maintains the feature information of the face by measuring the period during which the feature information is continuously extracted from the image. However, the person who intends to use the information will be longer than a certain period of time when the facial feature information is continuously maintained, so by setting an appropriate effective detection time, By using together with the facial feature information determined to be present, it is possible to more accurately distinguish between a person who intends to use the device and a person who does not intend to use the device.

本発明に係るコンピュータプログラムは、上記特徴の本発明に係る機器制御方法の顔存在判定工程、顔特徴抽出工程、及び、行動意思判定工程をコンピュータ上で実行するためのプログラムステップを備えてなることを特徴とする。   The computer program according to the present invention comprises program steps for executing the face presence determination step, the face feature extraction step, and the action intention determination step of the device control method according to the present invention having the above characteristics on a computer. It is characterized by.

また、本発明に係るコンピュータが読み取り可能な記録媒体は、上記本発明に係るコンピュータプログラムを記録してなることを特徴とする。   A computer-readable recording medium according to the present invention records the computer program according to the present invention.

これにより、上記記録媒体、または、ネットワークを介して、一般的なコンピュータに、上記本発明に係るコンピュータプログラムをインストールすることによって、上記特徴の本発明に係る機器制御方法の顔存在判定工程、顔特徴抽出工程、及び、行動意思判定工程を該コンピュータ上で実行することができる。言い換えれば、該コンピュータを本発明に係る機器制御装置の顔存在判定手段、顔特徴抽出手段、及び、行動意思判定手段として機能させることができる。この結果、上述の本発明に係る機器制御装置または方法の作用効果がコンピュータ処理により具体的に発揮される。   Thus, by installing the computer program according to the present invention on a general computer via the recording medium or the network, the face presence determination step of the device control method according to the present invention having the above characteristics, the face The feature extraction step and the action intention determination step can be executed on the computer. In other words, the computer can function as a face presence determination unit, a face feature extraction unit, and an action intention determination unit of the device control apparatus according to the present invention. As a result, the operational effects of the device control apparatus or method according to the present invention described above are specifically exhibited by computer processing.

次に、本発明に係る機器制御装置及び方法(以下、適宜「本発明装置」及び「本発明方法」と称す。)の一実施形態につき図面に基づいて説明する。   Next, an apparatus control apparatus and method according to the present invention (hereinafter referred to as “the present apparatus” and “the present method” as appropriate) will be described with reference to the drawings.

〈第1実施形態〉
図1に、本発明装置100の概略の機能的なブロック構成を示す。図1に示すように、本発明装置100は、画像情報の入力手段101と、顔存在判定手段102と、顔領域検出手段103と、顔特徴抽出手段104と、制御対象機器106の動作を制御する制御手段105を備えて構成されている。
<First Embodiment>
FIG. 1 shows a schematic functional block configuration of the device 100 of the present invention. As shown in FIG. 1, the device 100 of the present invention controls operations of an image information input unit 101, a face presence determination unit 102, a face area detection unit 103, a face feature extraction unit 104, and a control target device 106. The control means 105 is provided.

入力手段101は、例えば小型カメラやイメージセンサ等の撮像手段であり、制御対象機器106を使用、或いは、操作する使用者の行動意思を判断するための画像情報を取得するのに用いられる。入力手段101が取得した画像情報は、画素毎の輝度情報や色情報等としてリアルタイムに電気的な画像信号、例えば、RGB形式の画像信号に変換され、顔存在判定手段102に出力される。   The input unit 101 is an imaging unit such as a small camera or an image sensor, for example, and is used to acquire image information for determining the action intention of the user who uses or operates the control target device 106. The image information acquired by the input unit 101 is converted into luminance image information or color information for each pixel in real time into an electrical image signal, for example, an RGB format image signal, and output to the face presence determination unit 102.

顔存在判定手段102は、入力手段101から入力された画像信号で生成される入力画像中に人の顔が含まれるかどうかを判定する。本実施形態においては、人の顔を特徴付ける目・口・鼻をパターンマッチングにより検出し、検出された目・口・鼻が適切な相対位置関係にあれば、入力画像中に人の顔が存在すると判定する。尚、目・口・鼻のパターンマッチングにより人の顔を判定する手法としては、例えば、上述の特許文献1に開示された方法がある。   The face presence determination unit 102 determines whether or not a human face is included in the input image generated by the image signal input from the input unit 101. In this embodiment, the eyes, mouth, and nose that characterize a human face are detected by pattern matching, and if the detected eyes, mouth, and nose are in an appropriate relative positional relationship, the human face is present in the input image. Judge that. As a method for determining a human face by eye / mouth / nose pattern matching, for example, there is a method disclosed in Patent Document 1 described above.

顔領域検出手段103は、入力画像中から顔領域を検出する。本実施形態においては、顔領域を含む入力画像から肌色領域を検出することで顔領域を検出する。肌色領域の検出により顔領域を検出する手法としては、例えば、上述の特許文献2に開示された方法がある。顔存在判定手段102が、顔領域検出手段103の検出した顔領域に基づいて入力画像中に人の顔が含まれるかどうかを判定する場合は、顔領域検出手段103は、顔存在判定手段102の前処理手段として機能する。また、顔領域検出手段103は、後述する顔特徴抽出手段104の前処理手段としても機能する。   The face area detection unit 103 detects a face area from the input image. In the present embodiment, the face area is detected by detecting the skin color area from the input image including the face area. As a method for detecting a face region by detecting a skin color region, for example, there is a method disclosed in Patent Document 2 described above. When the face presence determination unit 102 determines whether a human face is included in the input image based on the face area detected by the face region detection unit 103, the face region detection unit 103 includes the face presence determination unit 102. Functions as a pre-processing means. The face area detection unit 103 also functions as a preprocessing unit for the face feature extraction unit 104 described later.

顔特徴抽出手段104は、顔存在判定手段102によって画像中に人の顔が含まれると判定された場合に、顔領域検出手段103が検出した顔領域の画像情報より、顔領域の大きさ、画像中の顔の向き、画像中の顔領域の存在位置、画像中に存在する顔領域の個数等を、画像中に存在する顔の外見的な特徴情報として抽出する。本第1実施形態では、顔領域検出手段103で検出された顔領域の大きさを、特徴情報として用いる。具体的には、顔特徴抽出手段104は、顔領域検出手段103が検出した肌色領域の画素数を数えることで、顔領域の大きさを示す指標として顔領域の面積を算出する。尚、顔領域の大きさは、その固有値を数値化できるものであれば、顔領域の面積に限らず、例えば、顔の高さ、顔の幅、或いは、左右の目の間隔等を用いても構わない。   The face feature extraction unit 104 determines the size of the face area based on the image information of the face area detected by the face area detection unit 103 when the face presence determination unit 102 determines that the human face is included in the image. The orientation of the face in the image, the position of the face area in the image, the number of face areas in the image, and the like are extracted as appearance feature information of the face in the image. In the first embodiment, the size of the face area detected by the face area detection unit 103 is used as feature information. Specifically, the face feature extraction unit 104 calculates the area of the face region as an index indicating the size of the face region by counting the number of pixels of the skin color region detected by the face region detection unit 103. The size of the face area is not limited to the area of the face area as long as the eigenvalue can be quantified, for example, using the face height, the face width, or the distance between the left and right eyes. It doesn't matter.

制御手段105は、顔存在判定手段102の判定結果と前記顔特徴抽出手段の抽出した特徴情報に基づいて、当該特徴情報を備えた顔の使用者の機器106の使用に対する行動意思を判定し、所定の制御信号を出力する行動意思判定手段107と、行動意思判定手段107の出力する制御信号を、機器106を駆動可能な所定の駆動制御信号に変換して機器106に出力する駆動制御手段108を備え、機器106の動作に対する制御を行う。   Based on the determination result of the face presence determination unit 102 and the feature information extracted by the face feature extraction unit, the control unit 105 determines the action intention of the face user having the feature information to use the device 106, Action intention determination unit 107 that outputs a predetermined control signal, and drive control unit 108 that converts the control signal output from the action intention determination unit 107 into a predetermined drive control signal capable of driving the device 106 and outputs the drive signal to the device 106. And controls the operation of the device 106.

本発明装置100は、実際には、上記各手段の内の顔存在判定手段102、顔領域検出手段103、顔特徴抽出手段104、及び、行動意思判定手段107が、当該各手段の処理をコンピュータ上で実行するための各プログラムステップからなるコンピュータプログラムを格納した記憶部(コンピュータが読み取り可能な記録媒体に相当)と、該コンピュータプログラムを実行して上記各手段の処理を行うCPU(central processing unit)等から構成されている。   In practice, the device 100 of the present invention is such that the face presence determination means 102, the face area detection means 103, the face feature extraction means 104, and the action intention determination means 107 among the above means are processed by the computer. A storage unit (corresponding to a computer-readable recording medium) storing a computer program composed of program steps to be executed above, and a CPU (central processing unit) that executes the computer program and performs the processing of each means described above ) Etc.

具体的には、図2に示すように、本発明装置100は、CPU201、主記憶装置202、外部記憶装置203、通信インタフェース204、内部バス205、入力手段としての小型カメラ101、駆動制御手段108を備えて構成されている。ここで、図1と図2の各ブロック構成図において、共通する構成要素には同じ符号を付して説明する。   Specifically, as shown in FIG. 2, the inventive device 100 includes a CPU 201, a main storage device 202, an external storage device 203, a communication interface 204, an internal bus 205, a small camera 101 as input means, and a drive control means 108. It is configured with. Here, in each block block diagram of FIG. 1 and FIG. 2, the same code | symbol is attached | subjected and demonstrated to a common component.

CPU201は、図1に示す顔存在判定手段102、顔領域検出手段103、顔特徴抽出手段104、及び、行動意思判定手段107として機能し、当該各手段による各処理手順が記述されたプログラムは、例えば、外部記憶装置203に格納されており、主記憶装置202にロードされたものが、CPU201によるプログラム処理に供せられる。また、CPU201は、内部バス205を介してCPU201と相互に接続された小型カメラ101、主記憶装置202、外部記憶装置203、及び、駆動制御手段108とデータの授受を行ないながら、図3のフローチャートで示す各処理を実行する。   The CPU 201 functions as the face presence determination unit 102, the face area detection unit 103, the face feature extraction unit 104, and the action intention determination unit 107 shown in FIG. 1, and a program in which each processing procedure by each unit is described is as follows. For example, what is stored in the external storage device 203 and loaded into the main storage device 202 is used for program processing by the CPU 201. Further, the CPU 201 exchanges data with the small camera 101, the main storage device 202, the external storage device 203, and the drive control means 108 that are mutually connected to the CPU 201 via the internal bus 205, and the flowchart of FIG. 3. Each process indicated by is executed.

主記憶装置202は、通常はDRAM(dynamic random access memory)等の半導体メモリデバイスで構成される。   The main storage device 202 is usually composed of a semiconductor memory device such as a DRAM (dynamic random access memory).

外部記憶装置203は、例えば、ハードディスクドライブ(HDD)やフレキシブルディスク等の不揮発性の磁気記録媒体で構成されており、顔存在判定手段102、顔領域検出手段103、顔特徴抽出手段104、及び、行動意思判定手段107の各処理を実行するためのコンピュータプログラムを記憶している。   The external storage device 203 is composed of, for example, a non-volatile magnetic recording medium such as a hard disk drive (HDD) or a flexible disk, and includes a face presence determination unit 102, a face area detection unit 103, a face feature extraction unit 104, and The computer program for performing each process of the action intention determination means 107 is memorize | stored.

また、CPU201は、内部バス205と通信インタフェース204を介して有線または無線で接続されたネットワーク206を通して、他のネットワーク機器207の記憶装置を外部記憶装置として用いることもできる。   The CPU 201 can also use the storage device of another network device 207 as an external storage device through a network 206 that is connected to the internal bus 205 and the communication interface 204 by wire or wirelessly.

駆動制御手段108は、制御対象機器106と内部バス205に接続し、内部バス205を介してCPU201から伝送された行動意思判定手段107の制御信号を、制御対象機器106を駆動できる駆動制御信号に変換して出力する。   The drive control unit 108 is connected to the control target device 106 and the internal bus 205, and the control signal of the action intention determination unit 107 transmitted from the CPU 201 via the internal bus 205 is converted into a drive control signal that can drive the control target device 106. Convert and output.

次に、図3のフローチャートを参照して、本発明装置100によって実行される本発明方法の処理手順について説明する。   Next, the processing procedure of the method of the present invention executed by the device 100 of the present invention will be described with reference to the flowchart of FIG.

ステップS301において、小型カメラ101が撮像した画像情報の画像信号を入力し(入力工程)、ステップS302に進む。ステップS302において、顔領域検出手段103が、入力された画像信号で生成される入力画像中から顔領域を検出する。引き続き、ステップS303において、顔存在判定手段102が、その画像信号から得られる入力画像中に人の顔が含まれているかどうかを判定する(顔存在判定工程)。人の顔の存在が検出できなかった場合は、ステップS304に進み、行動意思判定手段107が、行動意思判定を行わずに、必要に応じてそのときの制御対象機器106の状態に応じた制御信号を駆動制御手段108に出力し、駆動制御手段108が制御対象機器106を駆動制御してスタートに戻る。   In step S301, an image signal of image information captured by the small camera 101 is input (input process), and the process proceeds to step S302. In step S302, the face area detecting unit 103 detects a face area from the input image generated from the input image signal. Subsequently, in step S303, the face presence determination unit 102 determines whether or not a human face is included in the input image obtained from the image signal (face presence determination step). If the presence of a human face cannot be detected, the process proceeds to step S304, where the behavior intention determination unit 107 performs control according to the state of the control target device 106 at that time without performing the behavior intention determination. A signal is output to the drive control means 108, and the drive control means 108 controls the drive of the control target device 106 and returns to the start.

ステップS303において、顔存在判定手段102が1人以上の人の顔が存在すると判定した場合は、ステップS305に進む。ステップS305において、顔特徴抽出手段104が、顔領域検出手段103が検出した顔領域より特徴情報を抽出する(顔特徴抽出工程)。本第1実施形態では、特徴情報として、顔領域の大きさを抽出する。ステップS306において、行動意思判定手段107が、検出した特徴情報の検出値が所定の判定領域内であれば、使用者の制御対象機器106に対する行動意思が存在すると判定し、それに応じた制御信号を駆動制御手段108に出力して、ステップS307に移行し、また、上記検出値が所定の判定領域内にない場合は、使用者の制御対象機器106に対する行動意思が存在しないと判定し、スタートに戻る(行動意思判定工程)。ステップS307において、駆動制御手段108は、受け取った制御信号に基づいて、制御対象機器106に対する駆動制御を実行し、スタートに戻る。尚、本第1実施形態では、上記行動意思判定工程において、顔領域の大きさが所定の判定閾値以上であれば、使用者が制御対象機器106の近くにいて機器106に対する行動意思があると判定する。   If it is determined in step S303 that the face presence determination unit 102 has one or more faces, the process proceeds to step S305. In step S305, the face feature extraction unit 104 extracts feature information from the face area detected by the face region detection unit 103 (face feature extraction step). In the first embodiment, the size of the face area is extracted as the feature information. In step S306, if the detected value of the detected feature information is within a predetermined determination area, the action intention determination unit 107 determines that the user has an intention to act on the control target device 106, and generates a control signal corresponding thereto. It outputs to the drive control means 108, it transfers to step S307, and when the said detected value is not in a predetermined determination area | region, it determines with the user's intention of action with respect to the control object apparatus 106 not existing, and starts. Return (behavior determination process). In step S307, the drive control means 108 performs drive control on the control target device 106 based on the received control signal, and returns to the start. In the first embodiment, in the action intention determination step, if the size of the face area is equal to or greater than a predetermined determination threshold, the user is near the control target apparatus 106 and has an action intention for the apparatus 106. judge.

〈第2実施形態〉
次に、本発明装置の第2実施形態について説明する。図4に、第2実施形態に係る本発明装置400の概略の機能的なブロック構成を示す。図4に示すように、本発明装置400は、画像情報の入力手段101と、顔存在判定手段102と、顔領域検出手段103と、顔特徴抽出手段104と、制御対象機器106の動作を制御する制御手段105に加え、顔存在判定手段102が入力画像の中に人の顔があると継続的に判定している期間を計測する計時手段401を備えて構成されている。第1実施形態との相違点は、第2実施形態に係る本発明装置400が、計時手段401を備え、制御手段105の行動意思判定手段107が、計時手段401で計測された期間を考慮して、制御対象機器106に対する使用者の行動意思を判定する点である。尚、図1と図4の各ブロック構成図において、共通する構成要素には同じ符号を付して説明する。
Second Embodiment
Next, a second embodiment of the device of the present invention will be described. FIG. 4 shows a schematic functional block configuration of the inventive device 400 according to the second embodiment. As shown in FIG. 4, the device 400 of the present invention controls the operations of the image information input means 101, the face presence determination means 102, the face area detection means 103, the face feature extraction means 104, and the control target device 106. In addition to the control unit 105, the face presence determination unit 102 includes a time measuring unit 401 that measures a period during which it is continuously determined that a human face is present in the input image. The difference from the first embodiment is that the inventive device 400 according to the second embodiment is provided with the time measuring means 401, and the action intention judging means 107 of the control means 105 takes into account the period measured by the time measuring means 401. Thus, the user's intention to act on the control target device 106 is determined. In the block configuration diagrams of FIGS. 1 and 4, common components are denoted by the same reference numerals for description.

次に、図5のフローチャートを参照して、本発明装置400によって実行される本発明方法の処理手順について説明する。   Next, the processing procedure of the method of the present invention executed by the device 400 of the present invention will be described with reference to the flowchart of FIG.

ステップS501において、小型カメラ101が撮像した画像情報の画像信号を入力し(入力工程)、ステップS502に進む。ステップS502において、顔領域検出手段103が、入力された画像信号で生成される入力画像中から顔領域を検出する。引き続き、ステップS503において、顔存在判定手段102が、その画像信号から得られる入力画像中に人の顔が含まれているかどうかを判定する(顔存在判定工程)。人の顔の存在が検出できなかった場合は、ステップS504に進み、行動意思判定手段107が、行動意思判定を行わずに、必要に応じてそのときの制御対象機器106の状態に応じた制御信号を駆動制御手段108に出力し、駆動制御手段108が制御対象機器106を駆動制御してスタートに戻る。   In step S501, an image signal of image information captured by the small camera 101 is input (input process), and the process proceeds to step S502. In step S502, the face area detection unit 103 detects a face area from an input image generated from the input image signal. Subsequently, in step S503, the face presence determination unit 102 determines whether or not a human face is included in the input image obtained from the image signal (face presence determination step). If the presence of a human face cannot be detected, the process proceeds to step S504, where the behavior intention determination unit 107 performs control according to the state of the control target device 106 at that time without performing the behavior intention determination. A signal is output to the drive control means 108, and the drive control means 108 controls the drive of the control target device 106 and returns to the start.

ステップS503において、顔存在判定手段102が1人以上の人の顔が存在すると判定した場合は、ステップS505に進む。ステップS505において、人の顔の存在を継続的に判定している期間として有効な一定判定時間を待機し、ステップS506に進む。ステップS506において、小型カメラ101が撮像した新たな画像情報の画像信号を入力し(入力工程)、ステップS507で、再度、顔領域検出手段103が、入力された画像信号で生成される入力画像中から顔領域を検出する。ステップS508において、再度、顔存在判定手段102が、その画像信号から得られる入力画像中に人の顔が含まれているかどうかを判定する(顔存在判定工程)。ステップS508において、人の顔の存在が検出できなかった場合は、ステップS504に進み、顔存在判定手段102が1人以上の人の顔が存在すると判定した場合は、ステップS509に進む。ステップS509において、顔特徴抽出手段104が、顔領域検出手段103が検出した顔領域より特徴情報を抽出する(顔特徴抽出工程)。本第2実施形態では、第1実施形態と同様に、特徴情報として、顔領域の大きさを抽出する。ステップS510において、行動意思判定手段107が、検出した特徴情報の検出値が所定の判定領域内であれば、使用者の制御対象機器106に対する行動意思が存在すると判定し、それに応じた制御信号を駆動制御手段108に出力して、ステップS511に移行し、また、上記検出値が所定の判定領域内にない場合は、使用者の制御対象機器106に対する行動意思が存在しないと判定し、スタートに戻る(行動意思判定工程)。ステップS511において、駆動制御手段108は、受け取った制御信号に基づいて、制御対象機器106に対する駆動制御を実行し、スタートに戻る。尚、本第2実施形態では、第1実施形態と同様に、上記行動意思判定工程において、顔領域の大きさが所定の判定閾値以上であれば、使用者が制御対象機器106の近くにいて機器106に対する行動意思があると判定する。   If it is determined in step S503 that the face presence determination unit 102 has one or more faces, the process proceeds to step S505. In step S505, a fixed determination time effective as a period during which the presence of a human face is continuously determined is waited, and the process proceeds to step S506. In step S506, an image signal of new image information captured by the small camera 101 is input (input process), and in step S507, the face area detection unit 103 again in the input image generated from the input image signal. To detect a face region. In step S508, the face presence determination unit 102 determines again whether or not a human face is included in the input image obtained from the image signal (face presence determination step). In step S508, if the presence of a human face cannot be detected, the process proceeds to step S504. If the face presence determination unit 102 determines that one or more human faces exist, the process proceeds to step S509. In step S509, the face feature extraction means 104 extracts feature information from the face area detected by the face area detection means 103 (face feature extraction step). In the second embodiment, as in the first embodiment, the size of the face area is extracted as the feature information. In step S510, if the action intention determination unit 107 detects that the detected value of the feature information is within a predetermined determination area, the action intention determination unit 107 determines that the user has an action intention for the control target device 106, and generates a control signal corresponding to the action intention. It outputs to the drive control means 108, it transfers to step S511, and when the said detected value is not in a predetermined determination area | region, it determines with the user's intention to behave with respect to the control object apparatus 106, and starts. Return (behavior determination process). In step S511, the drive control unit 108 performs drive control on the control target device 106 based on the received control signal, and returns to the start. In the second embodiment, as in the first embodiment, if the size of the face area is equal to or larger than a predetermined determination threshold in the action intention determination step, the user is near the control target device 106. It is determined that there is an intention to act on the device 106.

以上のように、本第2実施形態では、人の顔の存在を継続的に判定している期間として有効な一定判定時間を設定することができるので、有効な判定時間を適切に設定することにより、制御対象機器106を利用する意思のない人の顔が偶然、その小型カメラ101により撮像され、顔存在判定手段102によりその存在が判定されても、その顔の存在が一時的で設定された有効な判定時間以下であれば、結果として、一時的に検出された顔の人物を制御対象機器106を利用する意思のない人として扱え、制御対象機器106の状態変化をさせないことができる。   As described above, in the second embodiment, a valid fixed determination time can be set as a period during which the presence of a human face is continuously determined. Therefore, an effective determination time can be set appropriately. Thus, even if the face of a person who does not intend to use the control target device 106 is accidentally captured by the small camera 101 and the presence of the face is determined by the face presence determination unit 102, the presence of the face is temporarily set. If it is less than the effective determination time, as a result, the temporarily detected face person can be treated as a person who does not intend to use the control target device 106 and the state of the control target device 106 can be prevented from changing.

〈第3実施形態〉
次に、本発明装置の第3実施形態について説明する。図6に、第3実施形態に係る本発明装置600の概略の機能的なブロック構成を示す。図4に示すように、本発明装置600は、画像情報の入力手段101と、顔存在判定手段102と、顔領域検出手段103と、顔特徴抽出手段104と、制御対象機器106の動作を制御する制御手段105に加え、顔特徴抽出手段104が入力画像の中に存在する人の顔の特徴情報を一定の状態で継続的に抽出している期間を計測する計時手段601を備えて構成されている。第1実施形態との相違点は、第3実施形態に係る本発明装置600が、計時手段601を備え、制御手段105の行動意思判定手段107が、計時手段601で計測された期間を考慮して、制御対象機器106に対する使用者の行動意思を判定する点である。また、第2実施形態との相違点は、第2実施形態に係る計時手段401は、顔存在判定手段102が入力画像の中に人の顔があると継続的に判定している期間を計測するのに対して、第3実施形態に係る計時手段601は、顔特徴抽出手段104が入力画像の中に存在する人の顔の特徴情報を一定の状態で継続的に抽出している期間を計測する点である。例えば、第3実施形態では、顔特徴抽出手段104が特徴情報として顔の大きさを抽出する場合に、その顔の面積が、一定の状態として一定の大きさ以上である期間が、一定の状態で継続的に抽出している期間として計測される。尚、図1と図6の各ブロック構成図において、共通する構成要素には同じ符号を付して説明する。
<Third Embodiment>
Next, a third embodiment of the device of the present invention will be described. FIG. 6 shows a schematic functional block configuration of the inventive device 600 according to the third embodiment. As shown in FIG. 4, the device 600 of the present invention controls operations of the image information input unit 101, the face presence determination unit 102, the face area detection unit 103, the face feature extraction unit 104, and the control target device 106. In addition to the control means 105, the face feature extraction means 104 is configured to include a time measuring means 601 for measuring a period during which human face feature information existing in the input image is continuously extracted in a certain state. ing. The difference from the first embodiment is that the device 600 of the present invention according to the third embodiment is provided with the time measuring means 601, and the action intention determination means 107 of the control means 105 takes into account the period measured by the time measuring means 601. Thus, the user's intention to act on the control target device 106 is determined. Also, the difference from the second embodiment is that the time counting means 401 according to the second embodiment measures a period during which the face presence determination means 102 continuously determines that there is a human face in the input image. On the other hand, the time measuring unit 601 according to the third embodiment has a period during which the facial feature extracting unit 104 continuously extracts the facial feature information of the person existing in the input image in a certain state. It is a point to measure. For example, in the third embodiment, when the face feature extraction unit 104 extracts the size of a face as feature information, the period during which the face area is equal to or greater than a certain size as a certain state is constant. It is measured as a period of continuous extraction. In the block configuration diagrams of FIGS. 1 and 6, common components are denoted by the same reference numerals for description.

次に、図7のフローチャートを参照して、本発明装置600によって実行される本発明方法の処理手順について説明する。   Next, the processing procedure of the method of the present invention executed by the device 600 of the present invention will be described with reference to the flowchart of FIG.

ステップS701において、小型カメラ101が撮像した画像情報の画像信号を入力し(入力工程)、ステップS702に進む。ステップS702において、顔領域検出手段103が、入力された画像信号で生成される入力画像中から顔領域を検出する。引き続き、ステップS703において、顔存在判定手段102が、その画像信号から得られる入力画像中に人の顔が含まれているかどうかを判定する(顔存在判定工程)。人の顔の存在が検出できなかった場合は、ステップS704に進み、行動意思判定手段107が、行動意思判定を行わずに、必要に応じてそのときの制御対象機器106の状態に応じた制御信号を駆動制御手段108に出力し、駆動制御手段108が制御対象機器106を駆動制御して、ステップS705において、後述するカウンタ値Nをリセットした後に、スタートに戻る。   In step S701, an image signal of image information captured by the small camera 101 is input (input process), and the process proceeds to step S702. In step S702, the face area detection unit 103 detects a face area from an input image generated from the input image signal. Subsequently, in step S703, the face presence determination unit 102 determines whether or not a human face is included in the input image obtained from the image signal (face presence determination step). If the presence of a human face cannot be detected, the process proceeds to step S704, where the behavior intention determination unit 107 performs control according to the state of the control target device 106 at that time without performing the behavior intention determination. A signal is output to the drive control unit 108, and the drive control unit 108 controls the drive of the control target device 106. In step S705, the counter value N, which will be described later, is reset.

ステップS703において、顔存在判定手段102が1人以上の人の顔が存在すると判定した場合は、ステップS706に進む。ステップS706において、顔特徴抽出手段104が、顔領域検出手段103が検出した顔領域より特徴情報を抽出する(顔特徴抽出工程)。本第3実施形態では、第1実施形態と同様に、特徴情報として、顔領域の大きさを抽出する。ステップS707において、行動意思判定手段107が、検出した特徴情報の検出値が所定の判定領域内であれば、ステップS708に移行し、また、上記検出値が所定の判定領域内にない場合は、使用者の制御対象機器106に対する行動意思が存在しないと判定し、ステップS705を経由して、スタートに戻る(行動意思判定工程)。ステップS708では、計時手段601が、一定の単位遅延時間の経過を待って、カウンタ値Nを1だけカウントアップし、ステップS709において、カウンタ値Nが最大カウント値Nmaxに至ったか否かを判定し、カウンタ値Nが最大カウント値Nmax未満の場合は、スタートに戻り、同じ処理を繰り返す。尚、ステップS707における特徴情報の検出値が所定の判定領域内あるか否かの判定は、第1実施形態と同様に、顔領域の大きさが所定の判定閾値以上か否かによって判定する。   If it is determined in step S703 that the face presence determination unit 102 has one or more faces, the process proceeds to step S706. In step S706, the face feature extraction unit 104 extracts feature information from the face area detected by the face region detection unit 103 (face feature extraction step). In the third embodiment, as in the first embodiment, the size of the face area is extracted as feature information. In step S707, the behavior intention determination unit 107 proceeds to step S708 if the detected value of the detected feature information is within the predetermined determination region, and if the detected value is not within the predetermined determination region, It is determined that there is no action intention for the user's control target device 106, and the process returns to the start via step S705 (action intention determination step). In step S708, the time measuring means 601 waits for a certain unit delay time to elapse and increments the counter value N by 1. In step S709, it is determined whether or not the counter value N has reached the maximum count value Nmax. When the counter value N is less than the maximum count value Nmax, the process returns to the start and the same process is repeated. Note that whether or not the detected value of the feature information is within the predetermined determination area in step S707 is determined based on whether or not the size of the face area is greater than or equal to a predetermined determination threshold, as in the first embodiment.

ステップS709において、カウンタ値Nが最大カウント値Nmaxに一致した場合は、顔特徴抽出手段104が入力画像の中に存在する人の顔の特徴情報を一定の状態で継続的に抽出している期間が、所定の有効な判定期間を経過したと判断して、ステップS710に進む。ステップS710において、行動意思判定手段107が、検出した特徴情報の検出値が所定の判定領域内である状態が、所定の有効な判定期間継続したとして、使用者の制御対象機器106に対する行動意思が存在すると判定し、それに応じた制御信号を駆動制御手段108に出力する。また、駆動制御手段108は、受け取った制御信号に基づいて、制御対象機器106に対する駆動制御を実行し、スタートに戻る。   In step S709, when the counter value N matches the maximum count value Nmax, the period during which the facial feature extraction unit 104 continuously extracts facial feature information of a person existing in the input image in a certain state. However, it is determined that a predetermined effective determination period has elapsed, and the process proceeds to step S710. In step S <b> 710, the behavior intention determination unit 107 determines that the detected value of the detected feature information is within a predetermined determination region for a predetermined effective determination period, and the user's intention to act on the control target device 106. It is determined that it exists, and a control signal corresponding to it is output to the drive control means 108. Moreover, the drive control means 108 performs drive control with respect to the control object apparatus 106 based on the received control signal, and returns to the start.

以上のように、本第3実施形態では、入力画像中に存在する人の顔の特徴情報を一定の状態で継続的に抽出している期間として有効な一定判定時間を設定することができるので、有効な判定時間を、単位遅延時間と最大カウント値Nmaxを調整して適切に設定することにより、制御対象機器106を利用する意思のない人の顔が偶然、その小型カメラ101により撮像され、顔存在判定手段102によりその存在が判定され、且つ、一時的に制御対象機器106を利用する意思がある人と判定されても、その顔の特徴情報の抽出が一時的で設定された有効な判定時間以下であれば、結果として、一時的に検出された顔の人物を制御対象機器106を利用する意思のない人として扱え、制御対象機器106の状態変化をさせないことができる。   As described above, in the third embodiment, it is possible to set a constant determination time that is effective as a period in which human face feature information existing in the input image is continuously extracted in a fixed state. By appropriately setting the effective determination time by adjusting the unit delay time and the maximum count value Nmax, the face of a person who does not intend to use the control target device 106 is accidentally captured by the small camera 101, Even if the presence of the face is determined by the face presence determination means 102 and it is determined that the person is willing to use the control target device 106 temporarily, the extraction of the feature information of the face is temporarily set and effective. If the time is equal to or shorter than the determination time, as a result, the temporarily detected face person can be treated as a person who does not intend to use the control target device 106 and the state of the control target device 106 can be prevented from changing.

〈第4実施形態〉
次に、本発明装置の第4実施形態について説明する。第4実施形態に係る本発明装置は、上記第1乃至第3実施形態の何れかにおける本発明装置100,400または600の顔特徴抽出手段104を、人の顔の外見的な特徴情報として、入力画像中の顔の向きを抽出する手段に置換し、その他の手段、つまり、入力手段101、顔存在判定手段102、顔領域検出手段103、顔特徴抽出手段104、制御手段105、行動意思判定手段107、駆動制御手段108、計時手段401または601は、上記第1乃至第3実施形態と同じものを備えて構成されている。
<Fourth embodiment>
Next, a fourth embodiment of the device of the present invention will be described. The device of the present invention according to the fourth embodiment uses the facial feature extraction means 104 of the device 100, 400 or 600 of the present invention in any of the first to third embodiments as appearance feature information of a human face. Replaced by means for extracting the orientation of the face in the input image, other means, that is, input means 101, face presence determination means 102, face area detection means 103, face feature extraction means 104, control means 105, action intention determination The means 107, the drive control means 108, and the timing means 401 or 601 are configured to include the same as those in the first to third embodiments.

第4実施形態の顔特徴抽出手段は、入力画像中の顔の向きを抽出する方法として、顔領域検出手段103が検出した顔領域上から目・口・鼻の各位置を求め、それらの相対的な位置から、顔の向きを抽出する。同様の顔の向きを抽出手法としては、例えば、上述の特許文献3に開示された方法がある。   As a method for extracting the orientation of the face in the input image, the face feature extraction unit of the fourth embodiment obtains each position of the eyes, mouth, and nose from the face area detected by the face area detection unit 103, and compares them. The orientation of the face is extracted from the specific position. As a method for extracting the same face orientation, for example, there is a method disclosed in Patent Document 3 described above.

顔特徴抽出手段によって抽出される特徴情報が、顔の向きである点以外は、上記第1乃至第3実施形態と同じであるので、第4実施形態に係る本発明装置の構成並びに処理手順については重複する説明を割愛する。   Since the feature information extracted by the face feature extraction unit is the same as the first to third embodiments except that the face information is the orientation of the face, the configuration and processing procedure of the device of the present invention according to the fourth embodiment are as follows. Omits duplicate explanations.

〈第5実施形態〉
次に、本発明装置の第5実施形態について説明する。第5実施形態に係る本発明装置は、上記第1乃至第3実施形態の何れかにおける本発明装置100,400または600の顔特徴抽出手段104を、人の顔の外見的な特徴情報として、入力画像中の顔領域の存在位置を抽出する手段に置換し、その他の手段、つまり、入力手段101、顔存在判定手段102、顔領域検出手段103、顔特徴抽出手段104、制御手段105、行動意思判定手段107、駆動制御手段108、計時手段401または601は、上記第1乃至第3実施形態と同じものを備えて構成されている。
<Fifth Embodiment>
Next, a fifth embodiment of the device of the present invention will be described. The device of the present invention according to the fifth embodiment uses the face feature extraction means 104 of the device 100, 400 or 600 of the present invention in any of the first to third embodiments as appearance feature information of a human face. Replaced by means for extracting the position of the face area in the input image, other means, that is, input means 101, face presence determination means 102, face area detection means 103, face feature extraction means 104, control means 105, action The intention determination unit 107, the drive control unit 108, and the time measuring unit 401 or 601 are configured to include the same ones as in the first to third embodiments.

第5実施形態の顔特徴抽出手段は、入力画像中の顔領域の存在位置を抽出する方法として、例えば、顔領域検出手段103が検出した顔領域の中心位置を求め、その中心位置の入力画像中における相対位置を抽出する。   For example, the face feature extraction unit of the fifth embodiment obtains the center position of the face area detected by the face area detection unit 103 as a method for extracting the position of the face area in the input image, and the input image of the center position is obtained. Extract the relative position inside.

顔特徴抽出手段によって抽出される特徴情報が、顔領域の存在位置である点以外は、上記第1乃至第3実施形態と同じであるので、第5実施形態に係る本発明装置の構成並びに処理手順については重複する説明を割愛する。   Since the feature information extracted by the face feature extraction means is the same as that in the first to third embodiments except that the feature information is the position of the face area, the configuration and processing of the device of the present invention according to the fifth embodiment For the procedure, duplicate explanation is omitted.

〈第6実施形態〉
次に、本発明装置の第6実施形態について説明する。第6実施形態に係る本発明装置は、上記第1乃至第3実施形態の何れかにおける本発明装置100,400または600の顔特徴抽出手段104を、人の顔の外見的な特徴情報として、入力画像中に存在する顔領域の個数を抽出する手段に置換し、その他の手段、つまり、入力手段101、顔存在判定手段102、顔領域検出手段103、顔特徴抽出手段104、制御手段105、行動意思判定手段107、駆動制御手段108、計時手段401または601は、上記第1乃至第3実施形態と同じものを備えて構成されている。
<Sixth Embodiment>
Next, a sixth embodiment of the device of the present invention will be described. The device of the present invention according to the sixth embodiment uses the facial feature extraction means 104 of the device 100, 400 or 600 of the present invention according to any of the first to third embodiments as appearance feature information of a human face. Substituting with means for extracting the number of face areas present in the input image, other means, that is, input means 101, face presence determination means 102, face area detection means 103, face feature extraction means 104, control means 105, The action intention determination unit 107, the drive control unit 108, and the time measuring unit 401 or 601 are configured to include the same components as those in the first to third embodiments.

第6実施形態の顔特徴抽出手段は、入力画像中に存在する顔領域検出手段103により検出され、且つ、顔存在判定手段102によって人の顔と判定された顔領域の個数を抽出する。   The face feature extraction means of the sixth embodiment extracts the number of face areas detected by the face area detection means 103 existing in the input image and determined as a human face by the face presence determination means 102.

顔特徴抽出手段によって抽出される特徴情報が、顔領域の個数である点以外は、上記第1乃至第3実施形態と同じであるので、第6実施形態に係る本発明装置の構成並びに処理手順については重複する説明を割愛する。   Since the feature information extracted by the face feature extraction means is the same as the first to third embodiments except that the feature information is the number of face regions, the configuration and processing procedure of the device of the present invention according to the sixth embodiment I will omit the duplicate explanation.

以下、本発明装置及び本発明方法の別実施形態について説明する。   Hereinafter, another embodiment of the device of the present invention and the method of the present invention will be described.

〈1〉上記各実施形態においては、顔特徴抽出手段は、顔領域検出手段103が検出した顔領域の画像情報より、顔領域の大きさ、画像中の顔の向き、画像中の顔領域の存在位置、及び、画像中に存在する顔領域の個数の何れか1つを、画像中に存在する顔の外見的な特徴情報として抽出する場合を説明したが、顔特徴抽出手段が抽出する特徴情報としては、上記顔領域の大きさ、画像中の顔の向き、画像中の顔領域の存在位置、及び、画像中に存在する顔領域の個数の何れか1つに限定されるものではなく、上記以外の特徴情報であってもよく、また、上記特徴情報の2以上を組み合わせて使用しても構わない。   <1> In each of the embodiments described above, the face feature extraction means determines the size of the face area, the orientation of the face in the image, and the face area in the image from the image information of the face area detected by the face area detection means 103. Although the case where any one of the existing position and the number of face regions existing in the image is extracted as appearance feature information of the face existing in the image has been described, the features extracted by the face feature extracting unit The information is not limited to any one of the size of the face area, the orientation of the face in the image, the position of the face area in the image, and the number of face areas present in the image. The feature information other than the above may be used, or two or more of the feature information may be used in combination.

〈2〉上記各実施形態においては、顔存在判定手段102、顔領域検出手段103、顔特徴抽出手段104、及び、行動意思判定手段107の各処理をコンピュータ上で実行するための各プログラムステップからなるコンピュータプログラムを、本発明装置を構成するコンピュータの外部記憶装置203に予め格納して使用する場合を説明したが、上記コンピュータプログラムの供給方法は、上記各実施形態の方法に限定されるものではない。   <2> In each of the above embodiments, each program step for executing the processes of the face presence determination unit 102, the face area detection unit 103, the face feature extraction unit 104, and the action intention determination unit 107 on the computer In the above description, the computer program is stored in the external storage device 203 of the computer constituting the device of the present invention and used. However, the computer program supply method is not limited to the method of each of the above embodiments. Absent.

例えば、上記コンピュータプログラムをCD−ROMやDVD等の可搬型の記録媒体に格納しておき、当該記録媒体を本発明装置に供給し、本発明装置を構成するコンピュータ(またはCPUやMPU)が、当該記録媒体に格納されたプログラムコードを読み出し、主記憶装置202にロードして実行するようにしても構わない。また、当該記録媒体として高速アクセス可能な半導体メモリ等を利用して、当該記録媒体に格納されたプログラムコードを直接読み出して実行するようにしても構わない。プログラムコードを供給するための記録媒体としては、例えば、フロッピィディスク、ハードディスク、光ディスク、光磁気ディスク、磁気テープ、不揮発性のメモリカード等を用いることができる。   For example, the computer program is stored in a portable recording medium such as a CD-ROM or DVD, the recording medium is supplied to the apparatus of the present invention, and the computer (or CPU or MPU) constituting the apparatus of the present invention is The program code stored in the recording medium may be read out, loaded into the main storage device 202, and executed. Further, the program code stored in the recording medium may be directly read out and executed using a semiconductor memory or the like that can be accessed at high speed as the recording medium. As a recording medium for supplying the program code, for example, a floppy disk, a hard disk, an optical disk, a magneto-optical disk, a magnetic tape, a nonvolatile memory card, or the like can be used.

この場合、記録媒体から読み出されたプログラムコード自体が、上記各実施形態の機能を実現することになり、そのプログラムコードを記憶した記録媒体は本発明装置を構成することになる。   In this case, the program code itself read from the recording medium realizes the functions of the above embodiments, and the recording medium storing the program code constitutes the apparatus of the present invention.

また、上記プログラムコードは、図2のネットワーク206のような伝送媒体を介して、他のコンピュータシステムから本発明装置の主記憶装置202または外部記憶装置203へダウンロードされる形態であってもよい。   Further, the program code may be downloaded from another computer system to the main storage device 202 or the external storage device 203 of the present invention via a transmission medium such as the network 206 in FIG.

また、コンピュータが読み出したプログラムコードを実行することにより、上記各実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって上記各実施形態の機能が実現される形態であっても構わない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code. A part or all of the actual processing may be performed, and the functions of the above embodiments may be realized by the processing.

更に、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって上記各実施形態の機能が実現される形態であっても構わない。   Further, after the program code read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. The CPU or the like provided in the board or function expansion unit may perform part or all of the actual processing, and the functions of the above embodiments may be realized by the processing.

本発明に係る機器制御装置の第1実施形態における概略の機能的な構成を示すブロック図The block diagram which shows the schematic functional structure in 1st Embodiment of the apparatus control apparatus which concerns on this invention. 本発明に係る機器制御装置の第1実施形態における概略のハードウェア構成を示すブロック図The block diagram which shows the schematic hardware constitutions in 1st Embodiment of the apparatus control apparatus which concerns on this invention. 本発明に係る機器制御方法の第1実施形態における概略の処理手順を示すフローチャートThe flowchart which shows the rough process sequence in 1st Embodiment of the apparatus control method which concerns on this invention. 本発明に係る機器制御装置の第2実施形態における概略の機能的な構成を示すブロック図The block diagram which shows the schematic functional structure in 2nd Embodiment of the apparatus control apparatus which concerns on this invention. 本発明に係る機器制御方法の第2実施形態における概略の処理手順を示すフローチャートThe flowchart which shows the rough process sequence in 2nd Embodiment of the apparatus control method which concerns on this invention. 本発明に係る機器制御装置の第3実施形態における概略の機能的な構成を示すブロック図The block diagram which shows the schematic functional structure in 3rd Embodiment of the apparatus control apparatus which concerns on this invention. 本発明に係る機器制御方法の第3実施形態における概略の処理手順を示すフローチャートThe flowchart which shows the rough process sequence in 3rd Embodiment of the apparatus control method which concerns on this invention.

符号の説明Explanation of symbols

100,400,600: 本発明に係る機器制御装置
101: 画像情報の入力手段(小型カメラ)
102: 顔存在判定手段
103: 顔領域検出手段
104: 顔特徴検出手段
105: 制御手段
106: 制御対象機器
107: 行動意思判定手段
108: 駆動制御手段
201: CPU
202: 主記憶装置
203: 外部記憶装置
204: 通信インタフェース
205: 内部バス
206: ネットワーク
207: ネットワーク機器
401,601: 計時手段
100, 400, 600: Device control apparatus according to the present invention 101: Image information input means (small camera)
102: Face presence determination means 103: Face area detection means 104: Face feature detection means 105: Control means 106: Control target device 107: Action intention determination means 108: Drive control means 201: CPU
202: Main storage device 203: External storage device 204: Communication interface 205: Internal bus 206: Network 207: Network device 401, 601: Timekeeping means

Claims (16)

画像情報の入力手段と、
入力された前記画像情報から得られる画像の中に人の顔が含まれているかどうかを判定する顔存在判定手段と、
前記顔存在判定手段により前記画像の中に人の顔があると判定されたとき、前記画像から当該顔の外見的な特徴情報を抽出する顔特徴抽出手段と、
を備えてなり、
少なくとも前記顔特徴抽出手段の抽出した前記特徴情報に基づいて、前記使用者の前記機器の使用に対する行動意思を判定して、前記機器に対する制御を行うことを特徴とする機器制御装置。
Image information input means;
Face presence determination means for determining whether a human face is included in an image obtained from the input image information;
Face feature extracting means for extracting appearance feature information of the face from the image when the face presence determining means determines that there is a human face in the image;
With
A device control apparatus that determines control of the device by determining a user's intention to use the device based on at least the feature information extracted by the face feature extraction unit.
前記顔特徴抽出手段は、前記特徴情報として、前記画像中の顔領域の大きさを算出し、
前記顔特徴抽出手段が算出した前記顔領域の大きさに応じて前記行動意思を判定することを特徴とする請求項1に記載の機器制御装置。
The face feature extraction means calculates a size of a face area in the image as the feature information,
The device control apparatus according to claim 1, wherein the action intention is determined according to the size of the face area calculated by the face feature extraction unit.
前記顔特徴抽出手段は、前記特徴情報として、前記画像中の顔の向きに関する特徴量を算出し、
前記顔特徴抽出手段が算出した前記特徴量に応じて前記行動意思を判定することを特徴とする請求項1に記載の機器制御装置。
The face feature extraction means calculates a feature amount related to the orientation of the face in the image as the feature information,
The device control apparatus according to claim 1, wherein the action intention is determined according to the feature amount calculated by the face feature extraction unit.
前記顔特徴抽出手段は、前記特徴情報として、前記画像中の顔領域の存在位置を算出し、
前記顔特徴抽出手段が算出した前記存在位置に応じて前記行動意思を判定することを特徴とする請求項1に記載の機器制御装置。
The face feature extraction means calculates the presence position of a face region in the image as the feature information,
The device control apparatus according to claim 1, wherein the action intention is determined according to the presence position calculated by the face feature extraction unit.
前記顔特徴抽出手段は、前記特徴情報として、前記画像中に存在する顔領域の個数を算出し、
前記顔特徴抽出手段が算出した前記顔領域の個数に応じて前記行動意思を判定することを特徴とする請求項1に記載の機器制御装置。
The face feature extraction means calculates the number of face regions present in the image as the feature information,
The device control apparatus according to claim 1, wherein the action intention is determined according to the number of the face areas calculated by the face feature extraction unit.
前記顔存在判定手段が前記画像の中に人の顔があると継続的に判定している期間を計測する計時手段を備え、
前記計時手段の計測した前記期間の長さに応じて前記行動意思を判定することを特徴とする請求項1〜5の何れか1項に記載の機器制御装置。
A timing unit that measures a period during which the face presence determination unit continuously determines that there is a human face in the image;
The device control apparatus according to claim 1, wherein the action intention is determined according to the length of the period measured by the time measuring unit.
前記顔特徴抽出手段が前記画像の中から一定の前記特徴情報を継続的に抽出している期間を計測する計時手段を備え、
前記計時手段の計測した前記期間の長さに応じて前記行動意思を判定することを特徴とする請求項1〜5の何れか1項に記載の機器制御装置。
A timing means for measuring a period during which the face feature extraction means continuously extracts the feature information from the image;
The device control apparatus according to claim 1, wherein the action intention is determined according to the length of the period measured by the time measuring unit.
画像情報を入力する入力工程と、
入力された前記画像情報から得られる画像の中に人の顔が含まれているかどうかを判定する顔存在判定工程と、
前記顔存在判定工程により前記画像の中に人の顔があると判定されたとき、前記画像から当該顔の外見的な特徴情報を抽出する顔特徴抽出工程と、
少なくとも前記顔特徴抽出工程において抽出した前記特徴情報に基づいて、前記使用者の前記機器の使用に対する行動意思を判定する行動意思判定工程と、を有し、
前記行動意思判定工程において判定した前記行動意思に基づいて、前記機器に対する制御を行うことを特徴とする機器制御方法。
An input process for inputting image information;
A face presence determination step of determining whether a human face is included in an image obtained from the input image information;
A face feature extraction step of extracting appearance feature information of the face from the image when it is determined by the face presence determination step that there is a human face in the image;
An action intention determination step of determining an action intention of the user using the device based on at least the feature information extracted in the face feature extraction step;
A device control method, comprising: controlling the device based on the behavior intention determined in the behavior intention determination step.
前記顔特徴抽出工程において、前記特徴情報として、前記画像中の顔領域の大きさを算出し、
前記行動意思判定工程において、前記顔特徴抽出工程で算出した前記顔領域の大きさに応じて前記行動意思を判定することを特徴とする請求項8に記載の機器制御方法。
In the face feature extraction step, as the feature information, a size of a face region in the image is calculated,
9. The apparatus control method according to claim 8, wherein, in the action intention determination step, the action intention is determined according to the size of the face area calculated in the face feature extraction step.
前記顔特徴抽出工程において、前記特徴情報として、前記画像中の顔の向きに関する特徴量を算出し、
前記行動意思判定工程において、前記顔特徴抽出工程で算出した前記特徴量に応じて前記行動意思を判定することを特徴とする請求項8に記載の機器制御方法。
In the face feature extraction step, as the feature information, a feature amount related to the orientation of the face in the image is calculated,
The device control method according to claim 8, wherein, in the action intention determination step, the action intention is determined according to the feature amount calculated in the face feature extraction step.
前記顔特徴抽出工程において、前記特徴情報として、前記画像中の顔領域の存在位置を算出し、
前記行動意思判定工程において、前記顔特徴抽出工程で算出した前記存在位置に応じて前記行動意思を判定することを特徴とする請求項8に記載の機器制御方法。
In the face feature extraction step, as the feature information, the presence position of the face region in the image is calculated,
The device control method according to claim 8, wherein in the behavior intention determination step, the behavior intention is determined according to the presence position calculated in the face feature extraction step.
前記顔特徴抽出工程において、前記特徴情報として、前記画像中に存在する顔領域の個数を算出し、
前記行動意思判定工程において、前記顔特徴抽出工程で算出した前記顔領域の個数に応じて前記行動意思を判定することを特徴とする請求項8に記載の機器制御方法。
In the face feature extraction step, as the feature information, the number of face regions present in the image is calculated,
9. The device control method according to claim 8, wherein, in the action intention determination step, the action intention is determined according to the number of the face regions calculated in the face feature extraction step.
前記顔存在判定工程は、前記画像の中に人の顔があると継続的に判定している期間を計測する計時工程を有し、
前記行動意思判定工程において、前記計時工程で計測した前記期間の長さに応じて前記行動意思を判定することを特徴とする請求項8〜12の何れか1項に記載の機器制御方法。
The face presence determination step includes a time measuring step of measuring a period during which it is continuously determined that there is a human face in the image,
The device control method according to any one of claims 8 to 12, wherein, in the action intention determination step, the action intention is determined according to a length of the period measured in the timing step.
前記顔特徴抽出工程は、前記画像の中から一定の前記特徴情報を継続的に抽出している期間を計測する計時工程を有し、
前記行動意思判定工程において、前記計時工程で計測した前記期間の長さに応じて前記行動意思を判定することを特徴とする請求項8〜12の何れか1項に記載の機器制御方法。
The face feature extraction step includes a time measuring step of measuring a period during which the constant feature information is continuously extracted from the image,
The device control method according to any one of claims 8 to 12, wherein, in the action intention determination step, the action intention is determined according to a length of the period measured in the timing step.
請求項8〜12の何れか1項に記載の機器制御方法の顔存在判定工程、顔特徴抽出工程、及び、行動意思判定工程をコンピュータ上で実行するためのプログラムステップを備えてなるコンピュータプログラム。   The computer program provided with the program step for performing the face presence determination process of the apparatus control method of any one of Claims 8-12, a face feature extraction process, and an action intention determination process on a computer. 請求項15に記載のコンピュータプログラムを記録してなるコンピュータが読み取り可能な記録媒体。   A computer-readable recording medium recording the computer program according to claim 15.
JP2004305067A 2004-10-20 2004-10-20 Apparatus control device utilizing face information Pending JP2006119780A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004305067A JP2006119780A (en) 2004-10-20 2004-10-20 Apparatus control device utilizing face information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004305067A JP2006119780A (en) 2004-10-20 2004-10-20 Apparatus control device utilizing face information

Publications (1)

Publication Number Publication Date
JP2006119780A true JP2006119780A (en) 2006-05-11

Family

ID=36537627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004305067A Pending JP2006119780A (en) 2004-10-20 2004-10-20 Apparatus control device utilizing face information

Country Status (1)

Country Link
JP (1) JP2006119780A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010161644A (en) * 2009-01-08 2010-07-22 Nikon Corp Electronic camera
JP2012146313A (en) * 2012-02-17 2012-08-02 Casio Comput Co Ltd Image processing apparatus and program
WO2020121536A1 (en) * 2018-12-14 2020-06-18 オリンパス株式会社 User interface device, medical system, manipulation control method, and manipulation control program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010161644A (en) * 2009-01-08 2010-07-22 Nikon Corp Electronic camera
JP2012146313A (en) * 2012-02-17 2012-08-02 Casio Comput Co Ltd Image processing apparatus and program
WO2020121536A1 (en) * 2018-12-14 2020-06-18 オリンパス株式会社 User interface device, medical system, manipulation control method, and manipulation control program

Similar Documents

Publication Publication Date Title
CN105612533B (en) Living body detection method, living body detection system, and computer program product
JP2017527907A (en) Pseudorandomly induced fingerprint registration
JP2017538224A (en) Fingerprint registration by guidance based on the center point of attention
US10708467B2 (en) Information processing apparatus that performs authentication processing for approaching person, and control method thereof
US20140062862A1 (en) Gesture recognition apparatus, control method thereof, display instrument, and computer readable medium
JP4968929B2 (en) Image processing apparatus and image processing method
TWI704530B (en) Gaze angle determination apparatus and method
KR102357965B1 (en) Method of recognizing object and apparatus thereof
CN107181907A (en) Control device, processing unit and control method
US8938132B2 (en) Image collation system, image collation method and computer program
KR101104656B1 (en) Pet image detection system and method for controlling operation thereof
KR101307984B1 (en) Method of robust main body parts estimation using descriptor and machine learning for pose recognition
JP2007249587A (en) Authentication device, authentication method, authentication program and computer readable recording medium having the same recorded thereon
WO2021241083A1 (en) Biometric determination device and biometric determination method
JP2009140407A (en) Passer monitoring device
JP2006119780A (en) Apparatus control device utilizing face information
JP6963437B2 (en) Information processing device and its control method and program
KR20230094062A (en) Face recognition system and method for controlling the same
JP6438693B2 (en) Authentication apparatus, authentication method, and program
JP2005275869A (en) Individual authentication system
JP7297463B2 (en) Image processing device, image processing method, and program
JPWO2020185948A5 (en)
JP2002251614A (en) Device, system, method, and program for collating organism
US20140062864A1 (en) Method and apparatus for extracting three-dimensional distance information from recognition target
CN114791705B (en) Control method and device for household equipment, electronic equipment and readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100309