JP2012226595A - Gesture recognition device - Google Patents

Gesture recognition device Download PDF

Info

Publication number
JP2012226595A
JP2012226595A JP2011094276A JP2011094276A JP2012226595A JP 2012226595 A JP2012226595 A JP 2012226595A JP 2011094276 A JP2011094276 A JP 2011094276A JP 2011094276 A JP2011094276 A JP 2011094276A JP 2012226595 A JP2012226595 A JP 2012226595A
Authority
JP
Japan
Prior art keywords
detection
person
gesture
mode
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011094276A
Other languages
Japanese (ja)
Inventor
Kenichiro Nosaka
健一郎 野坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011094276A priority Critical patent/JP2012226595A/en
Publication of JP2012226595A publication Critical patent/JP2012226595A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a gesture recognition device capable of limiting a period in which recognition processing on a gesture is performed without requiring any sign for the start of recognition on the gesture.SOLUTION: A detection part 15 has two operation modes, i.e., a person detection mode for detecting whether there is a person 3 in a detection range and a gesture detection mode for detecting the position of a specific part of the body of the person 3. A mode switching part 17 changes the operation mode of the detection part 15 to the gesture detection mode when the detection part 15 detects the person 3 being present during operation in the person detection mode, and stores a currently acquired image as a reference image in an area for comparison data. The detection part 15 which is operating in the gesture detection mode detects the position of the specific part of the body of the person 3 in time series by a background difference method of detecting differences between an image acquired periodically by the acquisition part 11 and the reference image stored in the area for comparison data of a storage part 12.

Description

本発明は、検知範囲内の温度分布を表す取得情報を用いてジェスチャを認識するジェスチャ認識装置に関する。   The present invention relates to a gesture recognition apparatus that recognizes a gesture using acquired information representing a temperature distribution within a detection range.

従来から、制御対象機器の制御などに用いられる入力インタフェースの一例として、人の特定部位(たとえば顔)の動きによって表されるジェスチャを認識するジェスチャ認識装置が提案されている(たとえば特許文献1参照)。   Conventionally, as an example of an input interface used for control of a device to be controlled, a gesture recognition device that recognizes a gesture represented by a movement of a specific part (for example, a face) of a person has been proposed (see, for example, Patent Document 1). ).

特許文献1のジェスチャ認識装置は、カメラで撮影された画像を用いて、人の特定部位の傾きを検出することにより、ジェスチャを認識する。また、特許文献1の構成においては、ジェスチャの認識処理は、ジェスチャ認識装置の電源がオンされると実行される。   The gesture recognition device of Patent Literature 1 recognizes a gesture by detecting the inclination of a specific part of a person using an image taken by a camera. In the configuration of Patent Document 1, the gesture recognition process is executed when the power of the gesture recognition device is turned on.

また、ジェスチャ認識装置は、単に非接触のポインティングデバイスとして用いられる場合、特定部位(たとえば手)の位置などを認識できればよく、この種の装置には、動作の安定性、低コスト、低消費電力といった性能が要求される。   In addition, when the gesture recognition device is simply used as a non-contact pointing device, it only needs to be able to recognize the position of a specific part (for example, a hand), and this type of device has stable operation, low cost, and low power consumption. Such performance is required.

特開2010−170392号公報JP 2010-170392 A

しかし、上述したようなジェスチャ認識装置では、意図しないタイミングでジェスチャが認識されてしまうことを防ぐために、ジェスチャの認識処理が行われる期間を制限する必要がある。そのためには、特許文献1におけるジェスチャ認識装置の電源オンのように、ジェスチャの認識開始の合図が必要となるので、ジェスチャの入力とは別のインタフェースをジェスチャ認識装置に設ける必要があり、装置の低コスト化が難しいという問題がある。   However, in the gesture recognition apparatus as described above, it is necessary to limit the period during which the gesture recognition process is performed in order to prevent the gesture from being recognized at an unintended timing. For this purpose, it is necessary to provide a gesture recognition start signal as in the case of powering on the gesture recognition device in Patent Document 1, and therefore it is necessary to provide an interface different from the gesture input in the gesture recognition device. There is a problem that cost reduction is difficult.

本発明は上記事由に鑑みて為されており、ジェスチャの認識開始の合図を必要とせず、ジェスチャの認識処理が行われる期間を制限することができるジェスチャ認識装置を提供することを目的とする。   The present invention has been made in view of the above-described reasons, and an object thereof is to provide a gesture recognition device that does not require a gesture recognition start signal and can limit a period during which gesture recognition processing is performed.

本発明のジェスチャ認識装置は、検知範囲から受ける熱流束の分布を検知するセンサ装置から前記熱流束の分布を表す取得情報を取得する取得部と、前記検知範囲に人が存在しないときの前記検知範囲内の熱流束の分布を表す背景情報を記憶する記憶部と、前記検知範囲内の人の存否を検出する人検出モードおよび人の特定部位の位置を検出するジェスチャ検出モードの2つの動作モードを有する検出部と、前記ジェスチャ検出モードで検出された前記特定部位の位置に基づいてジェスチャを認識する認識部と、前記検出部の動作モードを切り替えるモード切替部とを備え、前記モード切替部は、前記検出部が前記人検出モードで動作中に人の存在を検出すると、当該人を検出した時点での前記取得情報を参照情報とし、前記検出部の動作モードを前記ジェスチャ検出モードに切り替え、前記検出部は、前記人検出モードにおいては、前記取得情報と前記背景情報との差に基づいて、前記検知範囲内における人の存否を検出し、前記ジェスチャ検出モードにおいては、前記取得情報と前記参照情報との差に基づいて、前記特定部位の位置を検出することを特徴とする。   The gesture recognition device according to the present invention includes an acquisition unit that acquires acquisition information representing the heat flux distribution from a sensor device that detects the distribution of heat flux received from the detection range, and the detection when no person is present in the detection range. Two operation modes: a storage unit that stores background information representing the distribution of heat flux within the range, a human detection mode that detects the presence or absence of a person within the detection range, and a gesture detection mode that detects the position of a specific part of the person A recognition unit that recognizes a gesture based on the position of the specific part detected in the gesture detection mode, and a mode switching unit that switches an operation mode of the detection unit, and the mode switching unit includes: When the detection unit detects the presence of a person during operation in the person detection mode, the acquired information at the time when the person is detected is used as reference information, and the operation mode of the detection unit is detected. The gesture detection mode is switched to the gesture detection mode, and the detection unit detects the presence / absence of a person in the detection range based on a difference between the acquired information and the background information in the person detection mode, and detects the gesture In the mode, the position of the specific part is detected based on a difference between the acquired information and the reference information.

このジェスチャ認識装置において、前記モード切替部は、前記検出部が前記ジェスチャ検出モードで動作中に前記取得情報の変化に基づいて前記検知範囲から人が退去したことを検知すると、前記検出部の動作モードを前記人検出モードに切り替えることが望ましい。   In this gesture recognition apparatus, when the mode switching unit detects that a person has left the detection range based on a change in the acquired information while the detection unit is operating in the gesture detection mode, the operation of the detection unit It is desirable to switch the mode to the human detection mode.

このジェスチャ認識装置において、前記検出部が前記人検出モードで動作中に所定の更新時間間隔で前記背景情報を更新する更新部をさらに備え、前記更新部は、前記ジェスチャ検出モードの開始から終了までの時間が前記更新時間よりも長い場合、当該ジェスチャ検出モードの終了時点の前記取得情報で前記背景情報を更新することがより望ましい。   The gesture recognition apparatus further includes an update unit that updates the background information at a predetermined update time interval while the detection unit is operating in the human detection mode, and the update unit is configured to start and end the gesture detection mode. Is longer than the update time, it is more desirable to update the background information with the acquired information at the end of the gesture detection mode.

本発明は、ジェスチャの認識開始の合図を必要とせず、ジェスチャの認識処理が行われる期間を制限することができるという利点がある。   The present invention does not require a signal for starting gesture recognition, and has an advantage that the period during which gesture recognition processing is performed can be limited.

実施形態1に係るジェスチャ認識装置の構成を示す概略図である。It is the schematic which shows the structure of the gesture recognition apparatus which concerns on Embodiment 1. FIG. 実施形態1に係るジェスチャ認識装置の処理全体を表す説明図である。It is explanatory drawing showing the whole process of the gesture recognition apparatus which concerns on Embodiment 1. FIG. 実施形態1に係るジェスチャ認識装置の人接近検出処理を表す説明図である。It is explanatory drawing showing the human approach detection process of the gesture recognition apparatus which concerns on Embodiment 1. FIG. 実施形態1に係るジェスチャ認識装置の特定部位検出処理を表す説明図である。It is explanatory drawing showing the specific site | part detection process of the gesture recognition apparatus which concerns on Embodiment 1. FIG. 実施形態1に係るジェスチャ認識装置の人退出検出処理を表す説明図である。It is explanatory drawing showing the person leaving detection process of the gesture recognition apparatus which concerns on Embodiment 1. FIG. 実施形態1に係るジェスチャ認識装置の動作を示す説明図である。It is explanatory drawing which shows operation | movement of the gesture recognition apparatus which concerns on Embodiment 1. FIG. 実施形態2に係るジェスチャ認識装置の処理全体を表す説明図である。It is explanatory drawing showing the whole process of the gesture recognition apparatus which concerns on Embodiment 2. FIG.

(実施形態1)
本実施形態のジェスチャ認識装置1は、図1に示すように、センサ装置2から情報を取得する取得部11と、情報を記憶する記憶部12と、各種の演算を行いジェスチャの認識等の処理を行う演算処理部13と、認識結果を出力する出力部14とを備えている。
(Embodiment 1)
As shown in FIG. 1, the gesture recognition device 1 according to the present embodiment includes an acquisition unit 11 that acquires information from the sensor device 2, a storage unit 12 that stores information, and processes such as gesture recognition by performing various calculations. And an output unit 14 that outputs a recognition result.

センサ装置2は、赤外線に感度を持つたとえばサーモパイル素子等のセンサ素子(図示せず)がマトリクス状に2次元配置されて成り、各センサ素子が検知範囲から受けた熱流束の分布を表す情報を二次元の熱画像として継続的に出力する。各センサ素子は熱画像の各画素に対応しており、以下では各センサ素子が検出した領域の摂氏温度を、熱画像にて対応する各画素の画素値として説明する。なお、図1の例ではジェスチャ認識装置1はセンサ装置2と別体であるが、この構成に限らず、ジェスチャ認識装置1にセンサ装置2が一体に備わっていてもよい。   The sensor device 2 is configured by two-dimensionally arranging sensor elements (not shown) having sensitivity to infrared rays, such as a thermopile element, in a matrix, and information indicating the distribution of heat flux received from the detection range by each sensor element. Output continuously as a two-dimensional thermal image. Each sensor element corresponds to each pixel of the thermal image, and hereinafter, the Celsius temperature of the area detected by each sensor element will be described as the pixel value of each corresponding pixel in the thermal image. In the example of FIG. 1, the gesture recognition device 1 is separate from the sensor device 2. However, the present invention is not limited to this configuration, and the gesture recognition device 1 may be integrally provided with the sensor device 2.

本実施形態のジェスチャ認識装置1はコンピュータからなり、コンピュータに所定のプログラムを実行させることにより、取得部11、演算処理部13としての各機能をコンピュータにて実現する。出力部14は、モニタ装置やプリンタ装置など、演算処理部13の認識結果をユーザに提示する機能を有する装置からなる。   The gesture recognition device 1 according to the present embodiment includes a computer. By causing the computer to execute a predetermined program, the functions of the acquisition unit 11 and the arithmetic processing unit 13 are realized by the computer. The output unit 14 includes a device having a function of presenting the recognition result of the arithmetic processing unit 13 to the user, such as a monitor device or a printer device.

取得部11は、センサ装置2から現在の検知範囲の熱流束の分布を表す熱画像である取得画像を取得情報として定期的に取得する。ジェスチャ認識装置1は、検知範囲に人3が存在しない時点での検知範囲の熱流束の分布を表す熱画像を背景画像(背景情報)として予め記憶部12に記憶している。本実施形態では、記憶部12は、取得画像を記憶する取得データ用領域と、取得画像の比較対象となる画像を記憶する比較データ用領域と、後述する復帰データ用領域とを有しており、比較データ用領域には初期値として背景画像を記憶している。   The acquisition unit 11 periodically acquires an acquired image, which is a thermal image representing the heat flux distribution in the current detection range, from the sensor device 2 as acquisition information. The gesture recognition device 1 stores a thermal image representing the heat flux distribution in the detection range at the time when the person 3 does not exist in the detection range as a background image (background information) in advance. In the present embodiment, the storage unit 12 has an acquisition data area for storing an acquired image, a comparison data area for storing an image to be compared with the acquired image, and a return data area to be described later. In the comparison data area, a background image is stored as an initial value.

演算処理部13は、検知範囲内の人3の存否や人3の身体の特定部位の位置を検出する検出部15と、特定部位の位置に基づいてジェスチャを認識する認識部16と、検出部15の動作モードを切り替えるモード切替部17とを有している。   The arithmetic processing unit 13 includes a detection unit 15 that detects the presence or absence of the person 3 within the detection range and the position of a specific part of the body of the person 3, a recognition unit 16 that recognizes a gesture based on the position of the specific part, and a detection unit And a mode switching unit 17 for switching 15 operation modes.

検出部15は、検知範囲内の人3の存否を検出する人検出モードと、人3の身体の特定部位の位置を検出するジェスチャ検出モードとの2つの動作モードを有している。   The detection unit 15 has two operation modes: a person detection mode for detecting the presence or absence of the person 3 within the detection range, and a gesture detection mode for detecting the position of a specific part of the body of the person 3.

モード切替部17は、検出部15が人検出モードで動作中に人3の存在を検出すると、検出部15の動作モードを人検出モードからジェスチャ検出モードに切り替える。つまり、検出部15は、人検出モードにおいて検知範囲内に人3の存在を検出すると、人検出モードを終了してジェスチャ検出モードを開始する。ジェスチャ検出モードへの切り替え時、モード切替部17は、記憶部12の比較データ用領域から復帰データ用領域にデータ(背景画像)をコピーし、且つその時点(人3を検出した時点)での取得画像を参照画像(参照情報)として比較データ用領域に記憶する。   When the detection unit 15 detects the presence of the person 3 while operating in the human detection mode, the mode switching unit 17 switches the operation mode of the detection unit 15 from the human detection mode to the gesture detection mode. That is, when detecting the presence of the person 3 within the detection range in the person detection mode, the detection unit 15 ends the person detection mode and starts the gesture detection mode. When switching to the gesture detection mode, the mode switching unit 17 copies the data (background image) from the comparison data area of the storage unit 12 to the return data area, and at that time (when the person 3 is detected). The acquired image is stored in the comparison data area as a reference image (reference information).

一方、モード切替部17は、検出部15がジェスチャ検出モードで動作中に検知範囲から人3が退去したことを検出すると、検出部15の動作モードをジェスチャ検出モードから人検出モードに切り替える。つまり、検出部15は、ジェスチャ検出モードにおいて検知範囲内に人3を検出できなくなると、ジェスチャ検出モードを終了して人検出モードを開始する。人検出モードへの切り替え時、モード切替部17は、記憶部12の復帰データ用領域から比較データ用領域にデータ(背景画像)をコピーする。   On the other hand, when the mode switching unit 17 detects that the person 3 has left the detection range while the detection unit 15 is operating in the gesture detection mode, the mode switching unit 17 switches the operation mode of the detection unit 15 from the gesture detection mode to the human detection mode. That is, when it becomes impossible to detect the person 3 within the detection range in the gesture detection mode, the detection unit 15 ends the gesture detection mode and starts the person detection mode. When switching to the human detection mode, the mode switching unit 17 copies data (background image) from the return data area of the storage unit 12 to the comparison data area.

要するに、モード切替部17は、人検出モードからジェスチャ検出モードへの切り替え時、比較データ用領域に記憶されている背景画像を復帰データ用領域に一時的に退避させ、比較データ用領域に参照画像をセットする。また、ジェスチャ検出モードから人検出モードへの切り替え時には、モード切替部17は、比較データ用領域に記憶されている参照画像を消去し、復帰データ用領域に一時的に退避させてあった背景画像を比較データ用領域に復帰させる。これにより、記憶部12の比較データ用領域には、検出部15が人検出モードで動作中に背景画像がセットされ、ジェスチャ検出モードで動作中に参照画像がセットされることになる。   In short, when switching from the human detection mode to the gesture detection mode, the mode switching unit 17 temporarily saves the background image stored in the comparison data area in the return data area and stores the reference image in the comparison data area. Set. When switching from the gesture detection mode to the human detection mode, the mode switching unit 17 deletes the reference image stored in the comparison data area and temporarily saves the reference image in the return data area. Is returned to the comparison data area. As a result, the background image is set in the comparison data area of the storage unit 12 while the detection unit 15 is operating in the human detection mode, and the reference image is set during operation in the gesture detection mode.

検出部15は、人検出モードで動作中には、取得部11にて定期的に取得される取得画像と、記憶部12の比較データ用領域に記憶されている背景画像との差を検出する背景差分法により、検知範囲内の人3の存否を検出する。つまり、検出部15は、人検出モードにおいては、人3がセンサ装置2の検知範囲内に入ったことを検出することによって、センサ装置2への人3の接近を検出する処理(以下、「人接近検出処理」という)を行う。   While operating in the human detection mode, the detection unit 15 detects a difference between the acquired image periodically acquired by the acquisition unit 11 and the background image stored in the comparison data area of the storage unit 12. The presence or absence of the person 3 within the detection range is detected by the background subtraction method. That is, in the human detection mode, the detection unit 15 detects the approach of the person 3 to the sensor device 2 by detecting that the person 3 has entered the detection range of the sensor device 2 (hereinafter, “ Human approach detection process).

一方、検出部15は、ジェスチャ検出モードで動作中には、取得部11にて定期的に取得される取得画像と、記憶部12の比較データ用領域に記憶されている参照画像との差を検出する背景差分法により、人3の身体の特定部位の位置を時系列的に検出する。つまり、検出部15は、ジェスチャ検出モードにおいては、検知範囲内に存在する人3に起因した熱流束の分布を背景にして、さらにその中で熱流束値が大きくなる特定部位の位置を検出する処理(以下、「特定部位検出処理」という)を行う。   On the other hand, the detection unit 15 calculates the difference between the acquired image periodically acquired by the acquisition unit 11 and the reference image stored in the comparison data area of the storage unit 12 during operation in the gesture detection mode. The position of the specific part of the body of the person 3 is detected in time series by the background difference method to be detected. That is, in the gesture detection mode, the detection unit 15 detects the position of a specific part where the heat flux value is further increased against the background of the heat flux distribution caused by the person 3 existing in the detection range. Processing (hereinafter referred to as “specific part detection processing”) is performed.

本実施形態では一例として、人3の手の手首から先の部分を特定部位としている。人3が特定部位としての手をセンサ装置2にかざすように前に出せば、特定部位がセンサ装置2に接近することにより、センサ装置2が受ける熱流束値は人3の身体の他の部位に比べて特定部位で大きくなる。そのため、検出部15がジェスチャ検出モードで動作中に、人3が特定部位としての手を前に出せば、取得画像においては、熱流束値が身体の他の部位に比べて特定部位にて大きくなる。したがって、人3がセンサ装置2に接近することによって、検出部15の動作モードが人検出モードからジェスチャ検出モードに切り替わった後、人3が手をセンサ装置2に向けて突き出すことにより、特定部位としての手の位置が検出部15にて検出可能となる。検出部15は、このように熱源として検出される特定部位(ここでは手の手首よりも先の部分)の重心座標を、特定部位の位置として出力する。   In the present embodiment, as an example, the part from the wrist of the person 3's hand is the specific part. If the person 3 puts out a hand as a specific part over the sensor device 2, the heat flux value received by the sensor device 2 when the specific part approaches the sensor device 2 is changed to other parts of the body of the person 3. It becomes larger in a specific part compared with. Therefore, when the detection unit 15 is operating in the gesture detection mode, if the person 3 puts out a hand as a specific part, the heat flux value in the acquired image is larger in the specific part than in other parts of the body. Become. Accordingly, when the person 3 approaches the sensor device 2 and the operation mode of the detection unit 15 is switched from the person detection mode to the gesture detection mode, the person 3 projects the hand toward the sensor device 2, thereby The position of the hand as can be detected by the detection unit 15. The detection unit 15 outputs the barycentric coordinates of the specific part (here, the part ahead of the wrist of the hand) detected as the heat source as the position of the specific part.

認識部16は、ジェスチャ検出モードにある検出部15で検出された特定部位(ここでは、手の手首から先の部分)の位置に基づいて、ジェスチャを認識する。記憶部12には、複数種類のジェスチャと、特定部位の位置または特定部位の位置の時間経過に伴う変化(つまり「動き」)との対応関係を表す対応テーブルが予め記憶されている。認識部16は、検出部15の検出結果から特定部位の位置またはその動きを抽出し、抽出結果を対応テーブルと照合することにより、ジェスチャを認識する。なお、特定部位の位置からジェスチャを認識する方法については、周知の方法が適用可能であるので、詳しい説明は省略する。   The recognition unit 16 recognizes a gesture based on the position of the specific part (here, the part from the wrist of the hand) detected by the detection unit 15 in the gesture detection mode. The storage unit 12 stores in advance a correspondence table that represents a correspondence relationship between a plurality of types of gestures and the position of a specific part or a change in the position of the specific part over time (that is, “movement”). The recognizing unit 16 extracts the position of the specific part or its movement from the detection result of the detecting unit 15, and recognizes the gesture by comparing the extracted result with the correspondence table. In addition, about the method of recognizing a gesture from the position of a specific site | part, since a well-known method is applicable, detailed description is abbreviate | omitted.

また、検出部15は、ジェスチャ検出モードで動作中には、取得部11にて定期的に取得される取得画像と、記憶部12の比較データ用領域に記憶されている参照画像との差を検出する背景差分法により、検知範囲内の人3の存否も併せて検出する。つまり、検出部15は、ジェスチャ検出モードにおいては、人3がセンサ装置2の検知範囲から居なくなったことを検出することによって、検知範囲からの人3の退出を検出する処理(以下、「人退出検出処理」という)を行う。   Further, the detection unit 15 calculates a difference between the acquired image periodically acquired by the acquisition unit 11 and the reference image stored in the comparison data area of the storage unit 12 during operation in the gesture detection mode. The presence or absence of the person 3 within the detection range is also detected by the background difference method to be detected. That is, in the gesture detection mode, the detection unit 15 detects that the person 3 has left the detection range by detecting that the person 3 is no longer in the detection range of the sensor device 2 (hereinafter “human”). "Exit detection processing").

以下に、ジェスチャ認識装置1の具体的な動作について、ジェスチャ認識装置1の処理全体を表す図2、人接近検出処理を表す図3、特定部位検出処理を表す図4、人退出検出処理を表す図5の各フローチャートを参照して説明する。なお、以下では、画像における各画素の画素値を、画像における各画素の座標位置(x,y)および時刻tにて特定する。   In the following, regarding the specific operation of the gesture recognition device 1, FIG. 2 showing the entire processing of the gesture recognition device 1, FIG. 3 showing the human approach detection processing, FIG. 4 showing the specific part detection processing, and human exit detection processing are shown. This will be described with reference to each flowchart of FIG. In the following, the pixel value of each pixel in the image is specified by the coordinate position (x, y) of each pixel in the image and time t.

ジェスチャ認識装置1は、まず、人3が存在しない状態でセンサ装置2から出力される熱画像を取得部11にて取得し、この熱画像の各画素値を、比較データTa(x,y,t)の初期値として記憶部12の比較データ用領域に初期値として記憶する(図2のS1)。比較データTa(x,y,t)は、取得画像Tと比較される比較画像Taを構成する各画素の画素値である。比較画像Taは、検出部15の動作モードが人検出モードであれば背景画像に相当し、検出部15の動作モードがジェスチャ検出モードであれば参照画像に相当する。さらに、初期設定(S1)において、モード切替部17は検出部15の動作モードを人検出モードとする。   The gesture recognition device 1 first acquires a thermal image output from the sensor device 2 in the absence of the person 3 by the acquisition unit 11, and sets each pixel value of the thermal image as comparison data Ta (x, y, The initial value of t) is stored as an initial value in the comparison data area of the storage unit 12 (S1 in FIG. 2). The comparison data Ta (x, y, t) is a pixel value of each pixel constituting the comparison image Ta to be compared with the acquired image T. The comparison image Ta corresponds to a background image if the operation mode of the detection unit 15 is the human detection mode, and corresponds to a reference image if the operation mode of the detection unit 15 is the gesture detection mode. Further, in the initial setting (S1), the mode switching unit 17 sets the operation mode of the detection unit 15 to the human detection mode.

ジェスチャ認識装置1は、現在の温度分布データT(x,y,t)をセンサ装置2から取得部11にて取得し、この温度分布データT(x,y,t)を記憶部12に記憶する(図2のS2)。温度分布データT(x,y,t)は、取得画像Tを構成する各画素の画素値である。   The gesture recognition device 1 acquires the current temperature distribution data T (x, y, t) from the sensor device 2 by the acquisition unit 11 and stores the temperature distribution data T (x, y, t) in the storage unit 12. (S2 in FIG. 2). The temperature distribution data T (x, y, t) is a pixel value of each pixel constituting the acquired image T.

検出部15は、記憶部12に記憶されている比較データTa(x,y,t)と温度分布データT(x,y,t)との差分を、差分データTb(x,y,t)として算出する(図2のS3)。つまり、差分データTb(x,y,t)は数1にて表される。差分データTb(x,y,t)は差分画像Tbを構成する各画素の画素値である。検出部15は数1で表される演算を画素ごとに取得画像Tの全画素について行う。   The detection unit 15 calculates the difference between the comparison data Ta (x, y, t) and the temperature distribution data T (x, y, t) stored in the storage unit 12 as difference data Tb (x, y, t). (S3 in FIG. 2). That is, the difference data Tb (x, y, t) is expressed by Equation 1. The difference data Tb (x, y, t) is a pixel value of each pixel constituting the difference image Tb. The detection unit 15 performs the calculation expressed by Equation 1 for all pixels of the acquired image T for each pixel.

Figure 2012226595
Figure 2012226595

それから、検出部15は、動作モードがジェスチャ検出モードでなければ(図2のS4:No)、人接近検出処理(S5)を実行する。人接近検出処理(S5)の詳細については、図3を参照して説明する。   Then, if the operation mode is not the gesture detection mode (S4: No in FIG. 2), the detection unit 15 performs a human approach detection process (S5). Details of the person approach detection process (S5) will be described with reference to FIG.

すなわち、人接近検出処理においては、検出部15は、取得画像Tと比較画像(ここでは背景画像)Taとの差分である差分画像Tbを構成している差分データTb(x,y,t)を、所定の第1の閾値によって2値化する(図3のS51)。このとき、検出部15は、差分値が第1の閾値より大きな画素を熱源が検出された「検出画素」とし、差分値が第1の閾値以下の画素を熱源が検出されなかった「不検出画素」とするように2値化し、検出画像Tcを生成する。検出画像Tcを構成する各画素の画素値Tc(x,y,t)は第1の閾値C1を用いて数2にて表される。   That is, in the human approach detection process, the detection unit 15 includes difference data Tb (x, y, t) constituting a difference image Tb that is a difference between the acquired image T and the comparison image (here, the background image) Ta. Is binarized by a predetermined first threshold (S51 in FIG. 3). At this time, the detection unit 15 sets a pixel having a difference value larger than the first threshold as a “detection pixel” in which the heat source is detected, and detects a pixel in which the difference value is equal to or less than the first threshold as “no detection” The detection image Tc is generated by binarizing so as to obtain “pixel”. A pixel value Tc (x, y, t) of each pixel constituting the detection image Tc is expressed by Equation 2 using the first threshold C1.

Figure 2012226595
Figure 2012226595

検出部15は、検出画像Tcより、検出画素の集合、つまりTc(x,y,t)=1となる画素の集合からなる検出領域の面積を、熱源検出面積s1として求める(図3のS52)。なお、Tc(x,y,t)=0となる画素(x,y)は不検出画素である。熱源検出面積s1が所定の第2の閾値以下であれば(図3のS53:No)、検出部15は検知範囲内に人3は居ないと判断する(S54)。熱源検出面積s1が所定の第2の閾値より大きければ(図3のS53:Yes)、検出部15は検知範囲内に人3が居る、つまりセンサ装置2に人3が接近したと判断する(S55)。   The detection unit 15 obtains, from the detection image Tc, an area of a detection region including a set of detection pixels, that is, a set of pixels with Tc (x, y, t) = 1, as a heat source detection area s1 (S52 in FIG. 3). ). Note that the pixel (x, y) where Tc (x, y, t) = 0 is a non-detected pixel. If the heat source detection area s1 is equal to or smaller than the predetermined second threshold value (S53: No in FIG. 3), the detection unit 15 determines that there is no person 3 within the detection range (S54). If the heat source detection area s1 is larger than the predetermined second threshold (S53: Yes in FIG. 3), the detection unit 15 determines that the person 3 is within the detection range, that is, the person 3 has approached the sensor device 2 ( S55).

上述した人接近検出処理において人3が検出されなければ(図2のS6:No)、そのままS2の処理に戻る。一方、人3が検出されれば(図2のS6:Yes)、モード切替部17は、復帰データ用領域内の復帰画像Tdを比較データ用領域内の比較画像Taにて更新し(S7)、その時点での取得画像Tにて比較データ用領域内の比較画像Taを更新する(S8)。言い換えれば、モード切替部17は、記憶部12の比較データ用領域から復帰データ用領域に背景画像をコピーし(S7)、且つその時点での取得画像Tを参照画像として比較データ用領域に記憶する(S8)。それから、モード切替部17は、検出部15の動作モードをジェスチャ検出モードに切り替え(図2のS9)、S2の処理に戻る。   If the person 3 is not detected in the above-described person approach detection process (S6: No in FIG. 2), the process returns to S2. On the other hand, if the person 3 is detected (S6: Yes in FIG. 2), the mode switching unit 17 updates the return image Td in the return data area with the comparison image Ta in the comparison data area (S7). The comparison image Ta in the comparison data area is updated with the acquired image T at that time (S8). In other words, the mode switching unit 17 copies the background image from the comparison data area of the storage unit 12 to the return data area (S7), and stores the acquired image T at that time as a reference image in the comparison data area. (S8). Then, the mode switching unit 17 switches the operation mode of the detection unit 15 to the gesture detection mode (S9 in FIG. 2), and returns to the process of S2.

検出部15は、動作モードがジェスチャ検出モードであれば(図2のS4:Yes)、特定部位検出処理(S10)を実行する。特定部位検出処理(S10)の詳細については、図4を参照して説明する。   If the operation mode is the gesture detection mode (S4: Yes in FIG. 2), the detection unit 15 executes the specific part detection process (S10). Details of the specific part detection process (S10) will be described with reference to FIG.

すなわち、特定部位検出処理においては、検出部15は、取得画像Tと比較画像(ここでは参照画像)Taとの差分である差分画像Tbを構成している差分データTb(x,y,t)を、所定の第1の閾値によって2値化する(図4のS101)。このとき、検出部15は、差分値が第1の閾値より大きな画素を熱源が検出された「検出画素」とし、差分値が第1の閾値以下の画素を熱源が検出されなかった「不検出画素」とするように2値化し、検出画像Tcを生成する。   That is, in the specific part detection process, the detection unit 15 uses the difference data Tb (x, y, t) constituting the difference image Tb that is the difference between the acquired image T and the comparison image (here, the reference image) Ta. Is binarized by a predetermined first threshold (S101 in FIG. 4). At this time, the detection unit 15 sets a pixel having a difference value larger than the first threshold as a “detection pixel” in which the heat source is detected, and detects a pixel in which the difference value is equal to or less than the first threshold as “no detection” The detection image Tc is generated by binarizing so as to obtain “pixel”.

検出部15は、検出画像Tcについてラベリング処理を行い、検出画素の集合、つまりTc(x,y,t)=1となる画素の集合からなる検出領域を塊ごとに分割し、面積が所定値よりも小さい領域を削除する(図4のS102)。このとき、所定値以上の面積を持つ領域が残らなければ、検出部15は、熱源領域なしと判断して(図4のS103:No)、特定部位の位置情報はなし(S104)として特定部位検出処理を終了する。一方、所定値以上の面積を持つ領域が残った場合、検出部15は、熱源領域ありと判断して(図4のS103:Yes)、残った領域(熱源領域)の位置を算出する。このとき、検出部15は、熱源領域を構成する画素全ての座標値の重み付き平均をとることにより、熱源領域の重心位置(一次元であればGx、二次元であれば〔Gx,Gy〕)を算出する(図4のS105)。検出部15は、重みを全て1として簡単に重心位置を求めてもよく、また、重みとして、適切にオフセットされた各画素の温度または差分温度の値を用いてもよい。検出部15は、このようにして求まる重心位置を、人3の特定部位の位置として出力する(図4のS106)。   The detection unit 15 performs a labeling process on the detection image Tc, divides a detection region including a set of detection pixels, that is, a set of pixels where Tc (x, y, t) = 1, into areas each having a predetermined area. Is deleted (S102 in FIG. 4). At this time, if a region having an area equal to or larger than the predetermined value does not remain, the detection unit 15 determines that there is no heat source region (S103: No in FIG. 4), and detects the specific part as no specific part position information (S104). The process ends. On the other hand, when a region having an area equal to or larger than the predetermined value remains, the detection unit 15 determines that there is a heat source region (S103: Yes in FIG. 4), and calculates the position of the remaining region (heat source region). At this time, the detection unit 15 takes the weighted average of the coordinate values of all the pixels constituting the heat source region, thereby obtaining the gravity center position of the heat source region (Gx if one-dimensional, [Gx, Gy] if two-dimensional. ) Is calculated (S105 in FIG. 4). The detection unit 15 may easily obtain the center-of-gravity position with all the weights set to 1, and may use the temperature or the difference temperature value of each pixel that is appropriately offset as the weight. The detection unit 15 outputs the position of the center of gravity obtained in this way as the position of the specific part of the person 3 (S106 in FIG. 4).

特定部位検出処理が終了すると、検出部15は、検出した特定部位の位置を認識部16に出力し(図2のS11)、人退出検出処理(S12)を実行する。人退出検出処理(S12)の詳細については、図5を参照して説明する。   When the specific part detection process ends, the detection unit 15 outputs the detected position of the specific part to the recognition unit 16 (S11 in FIG. 2), and executes a person exit detection process (S12). Details of the person leaving detection process (S12) will be described with reference to FIG.

すなわち、人退出検出処理においては、検出部15は、取得画像Tと比較画像(ここでは背景画像)Taとの差分である差分画像Tbを構成している差分データTb(x,y,t)を、所定の第3の閾値によって2値化する(図5のS121)。このとき、検出部15は、差分値が第3の閾値より小さな画素を熱源が検出されなかった「不検出画素」とし、差分値が第3の閾値以上の画素を熱源が検出された「検出画素」とするように2値化し、不検出画像Teを生成する。不検出画像Teを構成する各画素の画素値Te(x,y,t)は第3の閾値C3を用いて数3にて表される。ここで、人退出検出処理は、人3が居なくなったことを検出する処理であるため、第3の閾値C3は負の値である。   In other words, in the person leaving detection process, the detection unit 15 includes difference data Tb (x, y, t) constituting a difference image Tb that is a difference between the acquired image T and the comparison image (here, the background image) Ta. Is binarized by a predetermined third threshold (S121 in FIG. 5). At this time, the detection unit 15 sets a pixel having a difference value smaller than the third threshold as a “non-detection pixel” in which the heat source has not been detected, and detects a pixel having a difference value equal to or greater than the third threshold as the “detection”. It binarizes so as to be “pixel”, and generates an undetected image Te. The pixel value Te (x, y, t) of each pixel constituting the undetected image Te is expressed by Equation 3 using the third threshold C3. Here, since the person leaving detection process is a process for detecting that the person 3 is gone, the third threshold C3 is a negative value.

Figure 2012226595
Figure 2012226595

検出部15は、不検出画像Teより、不検出画素の集合、つまりTe(x,y,t)=1となる画素の集合からなる不検出領域の面積を、不検出面積s0として求める(図5のS122)。なお、Te(x,y,t)=0となる画素(x,y)は検出画素である。不検出面積s0が所定の第4の閾値以下であれば(図5のS123:No)、検出部15は検知範囲内に人3が居る、つまり検知範囲からの人3の退出はないと判断する(S124)。不検出面積s0が所定の第4の閾値より大きければ(図5のS123:Yes)、検出部15は検知範囲内に人3が居ない、つまり検知範囲から人3が退出したと判断する(S125)。   The detection unit 15 obtains, from the non-detected image Te, an area of a non-detection area formed of a set of non-detection pixels, that is, a set of pixels with Te (x, y, t) = 1, as a non-detection area s0 (FIG. 5 S122). Note that a pixel (x, y) where Te (x, y, t) = 0 is a detection pixel. If the non-detection area s0 is equal to or smaller than the predetermined fourth threshold (S123 in FIG. 5: No), the detection unit 15 determines that there is a person 3 within the detection range, that is, no person 3 has left the detection range. (S124). If the non-detection area s0 is larger than the predetermined fourth threshold (S123 in FIG. 5: Yes), the detection unit 15 determines that there is no person 3 within the detection range, that is, that the person 3 has left the detection range ( S125).

上述した人退出検出処理において人3の退出が検出されなければ(図2のS13:No)、そのままS2の処理に戻る。一方、人3の退出が検出されれば(図2のS13:Yes)、モード切替部17は、比較データ用領域内の比較画像Taを復帰データ用領域内の復帰画像Tdにて更新する(S14)。言い換えれば、モード切替部17は、記憶部12の復帰データ用領域から比較データ用領域に背景画像をコピーする。それから、モード切替部17は、検出部15の動作モードを人検出モードに切り替え(図2のS15)、S2の処理に戻る。   If the exit of the person 3 is not detected in the person exit detection process described above (S13: No in FIG. 2), the process returns to the process of S2. On the other hand, when the exit of the person 3 is detected (S13: Yes in FIG. 2), the mode switching unit 17 updates the comparison image Ta in the comparison data area with the return image Td in the return data area ( S14). In other words, the mode switching unit 17 copies the background image from the return data area of the storage unit 12 to the comparison data area. Then, the mode switching unit 17 switches the operation mode of the detection unit 15 to the human detection mode (S15 in FIG. 2), and returns to the process of S2.

次に、上述した構成のジェスチャ認識装置1を用いてジェスチャを認識する方法について、図6を参照して説明する。図6では、6×6画素の熱画像を例として、時系列に並ぶ(a)〜(f)の各シーンにおけるジェスチャ認識装置1の処理を例示している。   Next, a method for recognizing a gesture using the gesture recognition device 1 having the above-described configuration will be described with reference to FIG. FIG. 6 exemplifies the process of the gesture recognition apparatus 1 in each of the scenes (a) to (f) arranged in time series, taking a 6 × 6 pixel thermal image as an example.

まず、最初のシーン(a)においては、検出部15の動作モードは人検出モードであって、センサ装置2の検知範囲に人3が居ないため、比較画像Taは背景画像であり、取得画像Tには人3に起因する熱流束の分布は現れない。   First, in the first scene (a), since the operation mode of the detection unit 15 is the human detection mode and the person 3 is not in the detection range of the sensor device 2, the comparative image Ta is the background image, and the acquired image In T, the distribution of heat flux due to the person 3 does not appear.

シーン(b)においては、センサ装置2に人3が接近することにより、取得画像Tに人3に起因する熱流束の分布が現れるため、ジェスチャ認識装置1は、検出部15にて人3の存在を検出する。このとき、モード切替部17は、復帰画像Tdを比較画像Taにて更新し、その時点での取得画像Tにて比較画像Taを更新して、検出部15の動作モードをジェスチャ検出モードに切り替える。   In the scene (b), when the person 3 approaches the sensor device 2, the heat flux distribution due to the person 3 appears in the acquired image T. Therefore, the gesture recognition device 1 uses the detection unit 15 to detect the person 3. Detect presence. At this time, the mode switching unit 17 updates the return image Td with the comparison image Ta, updates the comparison image Ta with the acquired image T at that time, and switches the operation mode of the detection unit 15 to the gesture detection mode. .

次のシーン(c)においては、人3が特定部位(ここでは手の手首より先の部分)を上げることにより、取得画像Tに特定部位に相当する熱源が現れるため、ジェスチャ認識装置1は、検出部15にて特定部位の位置を検出する。さらに、シーン(d)においては、人3が特定部位(ここでは手の手首より先の部分)を降ろすことにより、取得画像Tにおける熱源の位置が変化(下降する)ため、ジェスチャ認識装置1は、検出部15にて特定部位の位置の変化を検出する。認識部16は、シーン(c)、(d)において、検出部15が検出した特定部位の位置に基づいて、ジェスチャを認識する。   In the next scene (c), since the person 3 raises a specific part (here, the part ahead of the wrist of the hand), a heat source corresponding to the specific part appears in the acquired image T. The position of the specific part is detected by the detection unit 15. Furthermore, in the scene (d), the position of the heat source in the acquired image T changes (descends) when the person 3 lowers a specific part (here, the part ahead of the wrist of the hand). Then, the detection unit 15 detects a change in the position of the specific part. The recognition unit 16 recognizes a gesture based on the position of the specific part detected by the detection unit 15 in the scenes (c) and (d).

次のシーン(e)においては、センサ装置2から人3が離れることにより、取得画像Tにおける熱流束の分布が変化するため、ジェスチャ認識装置1は、検出部15にて人3の退出を検出する。このとき、モード切替部17は、比較画像Taを復帰画像Tdにて更新して、検出部15の動作モードを人検出モードに切り替える。   In the next scene (e), when the person 3 moves away from the sensor device 2, the distribution of the heat flux in the acquired image T changes, so that the gesture recognition device 1 detects the exit of the person 3 by the detection unit 15. To do. At this time, the mode switching unit 17 updates the comparison image Ta with the return image Td, and switches the operation mode of the detection unit 15 to the human detection mode.

最後のシーン(f)においては、検出部15の動作モードは人検出モードであって、センサ装置2の検知範囲に人3が居ないため、比較画像Taは背景画像であり、取得画像Tには人3に起因する熱流束の分布は現れない。   In the last scene (f), since the operation mode of the detection unit 15 is the human detection mode, and the person 3 is not in the detection range of the sensor device 2, the comparison image Ta is the background image, and the acquired image T The distribution of heat flux due to person 3 does not appear.

以上説明した本実施形態のジェスチャ認識装置1によれば、検出部15が人検出モードで動作中に人3の存在を検出すると、検出部15の動作モードはジェスチャの認識処理を行うジェスチャ検出モードに自動的に切り替わることになる。すなわち、このジェスチャ認識装置1では、ジェスチャの認識処理はジェスチャ検出モードでのみ行われ、且つ人検出モードからジェスチャ検出モードへの切り替えは、センサ装置2に対する人3の接近をトリガにモード切替部17によって為される。したがって、ジェスチャ認識装置1は、ジェスチャの認識開始の合図を必要とせず、ジェスチャの認識処理が行われる期間を制限することができる。   According to the gesture recognition device 1 of the present embodiment described above, when the detection unit 15 detects the presence of the person 3 while operating in the human detection mode, the operation mode of the detection unit 15 is the gesture detection mode for performing gesture recognition processing. Will automatically switch to. That is, in the gesture recognition device 1, the gesture recognition process is performed only in the gesture detection mode, and the switching from the person detection mode to the gesture detection mode is triggered by the approach of the person 3 to the sensor device 2 as a trigger. Is done by. Therefore, the gesture recognition device 1 does not require a signal for starting gesture recognition, and can limit the period during which the gesture recognition process is performed.

要するに、ジェスチャ認識装置1は、人検出モードではジェスチャを認識することなく、人3がセンサ装置2に対して一定距離まで近づいたときにのみジェスチャの入力を受け付けるので、意図しないタイミングでジェスチャが認識されてしまうことを防止できる。なお、本実施形態の構成に対して、認識するジェスチャ自体を複雑化して、意図しないジェスチャが認識されてしまうことを防止する方法も考えられるが、この方法では、複雑なジェスチャの認識処理が必要であるため、装置の低コスト化を図ることは難しい。   In short, the gesture recognition device 1 does not recognize a gesture in the human detection mode, and accepts a gesture input only when the person 3 approaches the sensor device 2 up to a certain distance, so that the gesture is recognized at an unintended timing. Can be prevented. Note that a method for preventing the recognition of an unintended gesture by complicating the recognized gesture itself with respect to the configuration of the present embodiment is also conceivable, but this method requires complicated gesture recognition processing. Therefore, it is difficult to reduce the cost of the apparatus.

また、本実施形態のジェスチャ認識装置1は、ジェスチャ検出モードにおいて、センサ装置2に人3が接近した状態の取得画像を比較画像(参照画像)とするため、その中でも熱流束値が大きくなる特定部位を熱源として確実に検出することができる。したがって、このジェスチャ認識装置1によれば、安定したジェスチャ入力を実現することができる。   In addition, in the gesture recognition device 1 of the present embodiment, in the gesture detection mode, the acquired image in a state in which the person 3 approaches the sensor device 2 is used as a comparison image (reference image). The site can be reliably detected as a heat source. Therefore, according to this gesture recognition device 1, stable gesture input can be realized.

さらにまた、検知範囲から人3が退去すると、モード切替部17は、検出部15の動作モードを人検出モードに切り替えるので、次に人3の存在が検出されるまでは、ジェスチャの入力を中断し、新たに人3が接近することを検出できる。つまり、ジェスチャ認識装置1は、ジェスチャの認識終了の合図も必要とせず、ジェスチャの認識処理が行われる期間を制限することができる。   Furthermore, when the person 3 leaves the detection range, the mode switching unit 17 switches the operation mode of the detection unit 15 to the person detection mode, and thus interrupts the gesture input until the next person 3 is detected. Thus, it can be detected that the person 3 is approaching anew. That is, the gesture recognition device 1 does not require a signal for ending the gesture recognition, and can limit the period during which the gesture recognition process is performed.

(実施形態2)
本実施形態のジェスチャ認識装置1は、検出部15が人検出モードにある期間に、定期的に記憶部12内の背景画像(背景情報)を更新する更新部(図示せず)を演算処理部13に備える点が、実施形態1のジェスチャ認識装置1と相違する。以下、実施形態1と同様の構成については共通の符号を付して適宜説明を省略する。
(Embodiment 2)
The gesture recognition device 1 of the present embodiment includes an update processing unit (not shown) that periodically updates a background image (background information) in the storage unit 12 during a period in which the detection unit 15 is in the human detection mode. 13 is different from the gesture recognition device 1 of the first embodiment. Hereinafter, the same configurations as those of the first embodiment are denoted by common reference numerals, and description thereof will be omitted as appropriate.

すなわち、予め設定された背景画像をそのまま使用し続けると、ジェスチャ認識装置1は、時間帯の変化や冷暖房等により、人3に依らない検知範囲内の温度(以下、「環境温度」という)が変化したときに誤検出を生じる可能性がある。そこで、本実施形態のジェスチャ認識装置1は、検出部15が人検出モードにある間に、記憶部12に記憶されている背景画像を所定の更新時間間隔で繰り返し更新する更新部を備えている。   That is, if the background image set in advance is used as it is, the gesture recognition device 1 causes the temperature within the detection range that does not depend on the person 3 (hereinafter referred to as “environment temperature”) due to a change in time zone or air conditioning. There is a possibility of false detection when it changes. Therefore, the gesture recognition device 1 of the present embodiment includes an update unit that repeatedly updates the background image stored in the storage unit 12 at predetermined update time intervals while the detection unit 15 is in the human detection mode. .

更新部は、ジェスチャ認識装置1の動作中、タイマ(図示せず)によって時間を計測しており、ジェスチャ認識装置1の起動時もしくは前回の背景画像の更新から更新時間が経過すると、その時点で検出部15が人検出モードにあれば、背景画像の定期更新を行う。なお、更新部は、取得部11がセンサ装置2から定期的に取得する取得画像Tのフレーム数をカウントすることによって更新時間を計るように構成されていてもよい。   The update unit measures time by a timer (not shown) during the operation of the gesture recognition device 1, and when the update time elapses when the gesture recognition device 1 is activated or the previous background image is updated, at that time. If the detection unit 15 is in the human detection mode, the background image is periodically updated. Note that the update unit may be configured to measure the update time by counting the number of frames of the acquired image T that the acquisition unit 11 periodically acquires from the sensor device 2.

更新部による背景画像の定期更新は、現時点の取得画像Tおよび更新係数αを用いて以下のように行われる。すなわち、更新部は、記憶部12の比較データ用領域に記憶されている定期更新前の比較画像Ta(t−1)と、現時点の取得画像T(t)との重み付き平均(加重平均)値を算出することによって、背景画像の定期更新処理を行う。つまり、定期更新後の比較画像(t)は、重み付き平均のパラメータである更新係数αを用いて数4にて表される。なお、更新係数αは0<α≦1で現れる定数である。   Periodic updating of the background image by the updating unit is performed as follows using the current acquired image T and the update coefficient α. That is, the update unit weighted average (weighted average) of the comparison image Ta (t−1) before regular update stored in the comparison data area of the storage unit 12 and the current acquired image T (t). The background image is regularly updated by calculating the value. That is, the comparative image (t) after the periodic update is expressed by Equation 4 using the update coefficient α which is a weighted average parameter. The update coefficient α is a constant that appears when 0 <α ≦ 1.

Figure 2012226595
Figure 2012226595

ところで、更新部は、ジェスチャ認識装置1の動作中、タイマによって時間を計測しており、ジェスチャ認識装置1の起動時もしくは前回の背景画像の更新から更新時間が経過した時点で検出部15がジェスチャ検出モードにあれば、背景画像の定期更新を保留する。この場合、次に検出部15が人3の退出を検出し、モード切替部17が比較データ用領域内の比較画像Taを復帰データ用領域内の復帰画像Tdに置き換えた後、更新部は比較画像(ここでは背景画像)Taを更新する。すなわち、更新部は、ジェスチャ検出モードの開始から終了までの時間が更新時間よりも長い場合、ジェスチャ検出モードの終了時点の取得画像Tで背景画像を更新することになる。   By the way, the update unit measures the time by a timer during the operation of the gesture recognition device 1, and the detection unit 15 performs the gesture when the update time has elapsed since the start of the gesture recognition device 1 or the previous background image update. If in the detection mode, the periodic update of the background image is suspended. In this case, after the detection unit 15 detects the exit of the person 3 and the mode switching unit 17 replaces the comparison image Ta in the comparison data area with the return image Td in the return data area, the update unit compares the comparison image Ta. The image (here, the background image) Ta is updated. That is, when the time from the start to the end of the gesture detection mode is longer than the update time, the update unit updates the background image with the acquired image T at the end of the gesture detection mode.

以下に、本実施形態のジェスチャ認識装置1の動作について、図7のフローチャートを参照して説明する。なお、図7のフローチャートは、図2のフローチャートに対して、初期設定(S1)でのタイマ値Utの初期化(ゼロにする)と、S21〜27の処理とが加わっただけで、他の処理については図2と同様である。   Below, operation | movement of the gesture recognition apparatus 1 of this embodiment is demonstrated with reference to the flowchart of FIG. The flowchart of FIG. 7 is different from the flowchart of FIG. 2 in that the initialization of the timer value Ut at the initial setting (S1) (to zero) and the processing of S21 to 27 are added. The processing is the same as in FIG.

タイマは、差分画像Tbの算出処理(図7のS3)と、検出部15の動作モードがジェスチャ検出モードか否かの判断処理(S4)との間で、タイマ値Utをインクリメントする(S21)。   The timer increments the timer value Ut between the calculation process of the difference image Tb (S3 in FIG. 7) and the determination process whether the operation mode of the detection unit 15 is the gesture detection mode (S4) (S21). .

人検出モードにおいては(S4:No)、人接近検出処理(S5)で人3が検出されなかった場合(S6:No)、タイマ値Utが更新時間以上であれば(S22:Yes)、更新部は比較画像Taの定期更新を行い(S23)、タイマ値Utをリセットする(S24)。タイマ値Utが更新時間以上でなければ(S22:No)、更新部は定期更新を行うことなく、処理S2に戻る。   In the person detection mode (S4: No), when the person 3 is not detected in the person approach detection process (S5) (S6: No), if the timer value Ut is equal to or longer than the update time (S22: Yes), the update is performed. The unit periodically updates the comparative image Ta (S23), and resets the timer value Ut (S24). If the timer value Ut is not equal to or longer than the update time (S22: No), the update unit returns to the process S2 without performing periodic update.

また、ジェスチャ検出モードにおいては(S4:Yes)、人体退出処理(S12)で人3の退出が検出された場合(S13:Yes)、モード切替部17が比較画像Taを復帰画像Tdに置き換えた(S14)後、更新部はタイマ値Utを更新時間と比較する(S25)。ここで、タイマ値Utが更新時間以上であれば(S25:Yes)、更新部は比較画像Taの定期更新を行い(S26)、タイマ値Utをリセットし(S27)、検出部15の動作モードの切り替え処理(S15)に移行する。タイマ値Utが更新時間以上でなければ(S25:No)、更新部は定期更新を行うことなく、処理S15に移行する。   In the gesture detection mode (S4: Yes), when the exit of the person 3 is detected in the human body exit process (S12) (S13: Yes), the mode switching unit 17 replaces the comparison image Ta with the return image Td. After (S14), the update unit compares the timer value Ut with the update time (S25). If the timer value Ut is equal to or longer than the update time (S25: Yes), the update unit periodically updates the comparison image Ta (S26), resets the timer value Ut (S27), and the operation mode of the detection unit 15 is performed. The process proceeds to the switching process (S15). If the timer value Ut is not equal to or longer than the update time (S25: No), the update unit proceeds to the process S15 without performing regular update.

以上説明した本実施形態のジェスチャ認識装置1によれば、人検出モードにおいては、記憶部12に記憶されている比較画像(ここでは背景画像)Taが所定の更新時間間隔で更新されるので、環境温度が変化したときに誤検出を生じることを回避できる。しかも、更新時間を超える長時間に亘ってジェスチャ検出モードが継続する場合には、ジェスチャ検出モードの終了時点で比較画像Taが更新されるので、ジェスチャ認識装置1は、ジェスチャ検出モードで動作中に生じた環境温度の変化にも早期に対応できる。   According to the gesture recognition device 1 of the present embodiment described above, in the human detection mode, the comparison image (here, the background image) Ta stored in the storage unit 12 is updated at a predetermined update time interval. A false detection can be avoided when the environmental temperature changes. In addition, when the gesture detection mode continues for a long time exceeding the update time, the comparison image Ta is updated at the end of the gesture detection mode, so that the gesture recognition device 1 is operating in the gesture detection mode. It is possible to respond quickly to changes in the environmental temperature that occur.

その他の構成および機能は実施形態1と同様である。   Other configurations and functions are the same as those of the first embodiment.

1 ジェスチャ認識装置
3 人
11 取得部
12 記憶部
15 検出部
16 認識部
17 モード切替部
T 取得画像(取得情報)
Ta 比較画像(参照画像、背景画像)
DESCRIPTION OF SYMBOLS 1 Gesture recognition apparatus 3 Person 11 Acquisition part 12 Storage part 15 Detection part 16 Recognition part 17 Mode switching part T Acquisition image (acquisition information)
Ta comparison image (reference image, background image)

Claims (3)

検知範囲から受ける熱流束の分布を検知するセンサ装置から前記熱流束の分布を表す取得情報を取得する取得部と、前記検知範囲に人が存在しないときの前記検知範囲内の熱流束の分布を表す背景情報を記憶する記憶部と、前記検知範囲内の人の存否を検出する人検出モードおよび人の特定部位の位置を検出するジェスチャ検出モードの2つの動作モードを有する検出部と、前記ジェスチャ検出モードで検出された前記特定部位の位置に基づいてジェスチャを認識する認識部と、前記検出部の動作モードを切り替えるモード切替部とを備え、
前記モード切替部は、前記検出部が前記人検出モードで動作中に人の存在を検出すると、当該人を検出した時点での前記取得情報を参照情報とし、前記検出部の動作モードを前記ジェスチャ検出モードに切り替え、
前記検出部は、前記人検出モードにおいては、前記取得情報と前記背景情報との差に基づいて、前記検知範囲内における人の存否を検出し、前記ジェスチャ検出モードにおいては、前記取得情報と前記参照情報との差に基づいて、前記特定部位の位置を検出することを特徴とするジェスチャ認識装置。
An acquisition unit that acquires acquisition information representing the distribution of the heat flux from a sensor device that detects a distribution of heat flux received from the detection range, and a distribution of heat flux within the detection range when no person is present in the detection range. A detection unit having two operation modes: a storage unit for storing background information to be represented; a human detection mode for detecting the presence or absence of a person within the detection range; and a gesture detection mode for detecting the position of a specific part of the person; and the gesture A recognition unit that recognizes a gesture based on the position of the specific part detected in the detection mode, and a mode switching unit that switches an operation mode of the detection unit,
When the detection unit detects the presence of a person during operation in the person detection mode, the mode switching unit uses the acquired information at the time when the person is detected as reference information, and sets the operation mode of the detection unit as the gesture. Switch to detection mode,
In the person detection mode, the detection unit detects the presence or absence of a person within the detection range based on a difference between the acquisition information and the background information. In the gesture detection mode, the detection unit and the acquisition information A gesture recognition device that detects a position of the specific part based on a difference from reference information.
前記モード切替部は、前記検出部が前記ジェスチャ検出モードで動作中に前記取得情報の変化に基づいて前記検知範囲から人が退去したことを検知すると、前記検出部の動作モードを前記人検出モードに切り替えることを特徴とする請求項1に記載のジェスチャ認識装置。   When the mode switching unit detects that a person has left the detection range based on a change in the acquired information while the detection unit is operating in the gesture detection mode, the mode switching unit sets the operation mode of the detection unit to the human detection mode. The gesture recognition device according to claim 1, wherein the gesture recognition device is switched to. 前記検出部が前記人検出モードで動作中に所定の更新時間間隔で前記背景情報を更新する更新部をさらに備え、
前記更新部は、前記ジェスチャ検出モードの開始から終了までの時間が前記更新時間よりも長い場合、当該ジェスチャ検出モードの終了時点の前記取得情報で前記背景情報を更新することを特徴とする請求項1または請求項2に記載のジェスチャ認識装置。
An update unit that updates the background information at a predetermined update time interval while the detection unit is operating in the human detection mode,
The update unit updates the background information with the acquired information at the end of the gesture detection mode when the time from the start to the end of the gesture detection mode is longer than the update time. The gesture recognition device according to claim 1 or 2.
JP2011094276A 2011-04-20 2011-04-20 Gesture recognition device Withdrawn JP2012226595A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011094276A JP2012226595A (en) 2011-04-20 2011-04-20 Gesture recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011094276A JP2012226595A (en) 2011-04-20 2011-04-20 Gesture recognition device

Publications (1)

Publication Number Publication Date
JP2012226595A true JP2012226595A (en) 2012-11-15

Family

ID=47276684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011094276A Withdrawn JP2012226595A (en) 2011-04-20 2011-04-20 Gesture recognition device

Country Status (1)

Country Link
JP (1) JP2012226595A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014196383A1 (en) * 2013-06-04 2014-12-11 株式会社デンソー Living body detector, vehicle seating detector, and unfastened seat belt warning system
US9183431B2 (en) 2013-10-01 2015-11-10 Electronics And Telecommunications Research Institute Apparatus and method for providing activity recognition based application service
JP2015231518A (en) * 2014-05-12 2015-12-24 株式会社東芝 Ultrasonic diagnostic device and program thereof
CN105283351A (en) * 2013-06-04 2016-01-27 株式会社电装 Comfortable temperature control device utilizing heat flux sensor
JP2016169990A (en) * 2015-03-11 2016-09-23 パナソニックIpマネジメント株式会社 Human sensing detection system
JP2016219153A (en) * 2015-05-15 2016-12-22 アズビル株式会社 Control device, control system and apparatus control device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3006968A4 (en) * 2013-06-04 2017-01-25 Denso Corporation Living body detector, vehicle seating detector, and unfastened seat belt warning system
CN105339811A (en) * 2013-06-04 2016-02-17 株式会社电装 Living body detector, vehicle seating detector, and unfastened seat belt warning system
KR101894058B1 (en) 2013-06-04 2018-08-31 가부시키가이샤 덴소 Living body detector, vehicle seating detector, and unfastened seat belt warning system
US10053052B2 (en) 2013-06-04 2018-08-21 Denso Corporation Biological object detector, vehicle seat occupancy detector, and seat belt non-wearing warning system
KR20160006206A (en) * 2013-06-04 2016-01-18 가부시키가이샤 덴소 Living body detector, vehicle seating detector, and unfastened seat belt warning system
CN105283351A (en) * 2013-06-04 2016-01-27 株式会社电装 Comfortable temperature control device utilizing heat flux sensor
JP2015014584A (en) * 2013-06-04 2015-01-22 株式会社デンソー Organism detector, seating detector for vehicle and seat belt unfastening warning system
CN105283351B (en) * 2013-06-04 2017-07-07 株式会社电装 The comfort temperature control set for adjusting of heat flux sensor is used
TWI580599B (en) * 2013-06-04 2017-05-01 Denso Corp Biometric detectors, vehicle seated detectors and unused seat belt warning systems
WO2014196383A1 (en) * 2013-06-04 2014-12-11 株式会社デンソー Living body detector, vehicle seating detector, and unfastened seat belt warning system
US9183431B2 (en) 2013-10-01 2015-11-10 Electronics And Telecommunications Research Institute Apparatus and method for providing activity recognition based application service
JP2015231518A (en) * 2014-05-12 2015-12-24 株式会社東芝 Ultrasonic diagnostic device and program thereof
JP2016169990A (en) * 2015-03-11 2016-09-23 パナソニックIpマネジメント株式会社 Human sensing detection system
JP2016219153A (en) * 2015-05-15 2016-12-22 アズビル株式会社 Control device, control system and apparatus control device

Similar Documents

Publication Publication Date Title
JP2012226595A (en) Gesture recognition device
US9785217B2 (en) System and method for low power input object detection and interaction
US10302810B2 (en) Use of thermopiles to detect human location
JP5799219B2 (en) Object detection device
JP6478469B2 (en) Image forming apparatus, image forming apparatus control method, and program
EP3217251B1 (en) Control device, processing device, control method, and program
JP5953843B2 (en) Image processing apparatus, power control method, and power control program
KR101380997B1 (en) Method and apparatus for correcting gesture on space recognition based on vector
US20110193774A1 (en) Information processing device
WO2011074511A1 (en) Existence judgment device, system, method, and program
US9696811B2 (en) Electronic apparatus and method
KR20160063163A (en) Method and apparatus for recognizing touch gesture
JP2012123695A (en) Touch type input panel device and sensitivity adjustment method thereof
JP2012247911A (en) Information processing apparatus, information processing method, and program
US20160041632A1 (en) Contact detection system, information processing method, and information processing apparatus
JP2018093266A (en) Information processing device, information processing method, and program
US20140118276A1 (en) Touch system adapted to touch control and hover control, and operating method thereof
US9866798B2 (en) Image processing apparatus, method and program for controlling an image processing apparatus based on detected user movement
JP2017227592A (en) Program, computer readable medium, terminal device, estimation device, and estimation method
US9430094B2 (en) Optical touch system, method of touch detection, and computer program product
JP2009038750A5 (en)
KR20140011921A (en) Apparatus and method for controlling operation mode of device using gesture cognition
JP2013186211A (en) Image forming apparatus, power control method, and power control program
JP2018055257A (en) Information processing device, control method thereof, and program
TWM528469U (en) Touch control system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140701