JP2012226595A - Gesture recognition device - Google Patents
Gesture recognition device Download PDFInfo
- Publication number
- JP2012226595A JP2012226595A JP2011094276A JP2011094276A JP2012226595A JP 2012226595 A JP2012226595 A JP 2012226595A JP 2011094276 A JP2011094276 A JP 2011094276A JP 2011094276 A JP2011094276 A JP 2011094276A JP 2012226595 A JP2012226595 A JP 2012226595A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- person
- gesture
- mode
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、検知範囲内の温度分布を表す取得情報を用いてジェスチャを認識するジェスチャ認識装置に関する。 The present invention relates to a gesture recognition apparatus that recognizes a gesture using acquired information representing a temperature distribution within a detection range.
従来から、制御対象機器の制御などに用いられる入力インタフェースの一例として、人の特定部位(たとえば顔)の動きによって表されるジェスチャを認識するジェスチャ認識装置が提案されている(たとえば特許文献1参照)。 Conventionally, as an example of an input interface used for control of a device to be controlled, a gesture recognition device that recognizes a gesture represented by a movement of a specific part (for example, a face) of a person has been proposed (see, for example, Patent Document 1). ).
特許文献1のジェスチャ認識装置は、カメラで撮影された画像を用いて、人の特定部位の傾きを検出することにより、ジェスチャを認識する。また、特許文献1の構成においては、ジェスチャの認識処理は、ジェスチャ認識装置の電源がオンされると実行される。
The gesture recognition device of
また、ジェスチャ認識装置は、単に非接触のポインティングデバイスとして用いられる場合、特定部位(たとえば手)の位置などを認識できればよく、この種の装置には、動作の安定性、低コスト、低消費電力といった性能が要求される。 In addition, when the gesture recognition device is simply used as a non-contact pointing device, it only needs to be able to recognize the position of a specific part (for example, a hand), and this type of device has stable operation, low cost, and low power consumption. Such performance is required.
しかし、上述したようなジェスチャ認識装置では、意図しないタイミングでジェスチャが認識されてしまうことを防ぐために、ジェスチャの認識処理が行われる期間を制限する必要がある。そのためには、特許文献1におけるジェスチャ認識装置の電源オンのように、ジェスチャの認識開始の合図が必要となるので、ジェスチャの入力とは別のインタフェースをジェスチャ認識装置に設ける必要があり、装置の低コスト化が難しいという問題がある。
However, in the gesture recognition apparatus as described above, it is necessary to limit the period during which the gesture recognition process is performed in order to prevent the gesture from being recognized at an unintended timing. For this purpose, it is necessary to provide a gesture recognition start signal as in the case of powering on the gesture recognition device in
本発明は上記事由に鑑みて為されており、ジェスチャの認識開始の合図を必要とせず、ジェスチャの認識処理が行われる期間を制限することができるジェスチャ認識装置を提供することを目的とする。 The present invention has been made in view of the above-described reasons, and an object thereof is to provide a gesture recognition device that does not require a gesture recognition start signal and can limit a period during which gesture recognition processing is performed.
本発明のジェスチャ認識装置は、検知範囲から受ける熱流束の分布を検知するセンサ装置から前記熱流束の分布を表す取得情報を取得する取得部と、前記検知範囲に人が存在しないときの前記検知範囲内の熱流束の分布を表す背景情報を記憶する記憶部と、前記検知範囲内の人の存否を検出する人検出モードおよび人の特定部位の位置を検出するジェスチャ検出モードの2つの動作モードを有する検出部と、前記ジェスチャ検出モードで検出された前記特定部位の位置に基づいてジェスチャを認識する認識部と、前記検出部の動作モードを切り替えるモード切替部とを備え、前記モード切替部は、前記検出部が前記人検出モードで動作中に人の存在を検出すると、当該人を検出した時点での前記取得情報を参照情報とし、前記検出部の動作モードを前記ジェスチャ検出モードに切り替え、前記検出部は、前記人検出モードにおいては、前記取得情報と前記背景情報との差に基づいて、前記検知範囲内における人の存否を検出し、前記ジェスチャ検出モードにおいては、前記取得情報と前記参照情報との差に基づいて、前記特定部位の位置を検出することを特徴とする。 The gesture recognition device according to the present invention includes an acquisition unit that acquires acquisition information representing the heat flux distribution from a sensor device that detects the distribution of heat flux received from the detection range, and the detection when no person is present in the detection range. Two operation modes: a storage unit that stores background information representing the distribution of heat flux within the range, a human detection mode that detects the presence or absence of a person within the detection range, and a gesture detection mode that detects the position of a specific part of the person A recognition unit that recognizes a gesture based on the position of the specific part detected in the gesture detection mode, and a mode switching unit that switches an operation mode of the detection unit, and the mode switching unit includes: When the detection unit detects the presence of a person during operation in the person detection mode, the acquired information at the time when the person is detected is used as reference information, and the operation mode of the detection unit is detected. The gesture detection mode is switched to the gesture detection mode, and the detection unit detects the presence / absence of a person in the detection range based on a difference between the acquired information and the background information in the person detection mode, and detects the gesture In the mode, the position of the specific part is detected based on a difference between the acquired information and the reference information.
このジェスチャ認識装置において、前記モード切替部は、前記検出部が前記ジェスチャ検出モードで動作中に前記取得情報の変化に基づいて前記検知範囲から人が退去したことを検知すると、前記検出部の動作モードを前記人検出モードに切り替えることが望ましい。 In this gesture recognition apparatus, when the mode switching unit detects that a person has left the detection range based on a change in the acquired information while the detection unit is operating in the gesture detection mode, the operation of the detection unit It is desirable to switch the mode to the human detection mode.
このジェスチャ認識装置において、前記検出部が前記人検出モードで動作中に所定の更新時間間隔で前記背景情報を更新する更新部をさらに備え、前記更新部は、前記ジェスチャ検出モードの開始から終了までの時間が前記更新時間よりも長い場合、当該ジェスチャ検出モードの終了時点の前記取得情報で前記背景情報を更新することがより望ましい。 The gesture recognition apparatus further includes an update unit that updates the background information at a predetermined update time interval while the detection unit is operating in the human detection mode, and the update unit is configured to start and end the gesture detection mode. Is longer than the update time, it is more desirable to update the background information with the acquired information at the end of the gesture detection mode.
本発明は、ジェスチャの認識開始の合図を必要とせず、ジェスチャの認識処理が行われる期間を制限することができるという利点がある。 The present invention does not require a signal for starting gesture recognition, and has an advantage that the period during which gesture recognition processing is performed can be limited.
(実施形態1)
本実施形態のジェスチャ認識装置1は、図1に示すように、センサ装置2から情報を取得する取得部11と、情報を記憶する記憶部12と、各種の演算を行いジェスチャの認識等の処理を行う演算処理部13と、認識結果を出力する出力部14とを備えている。
(Embodiment 1)
As shown in FIG. 1, the
センサ装置2は、赤外線に感度を持つたとえばサーモパイル素子等のセンサ素子(図示せず)がマトリクス状に2次元配置されて成り、各センサ素子が検知範囲から受けた熱流束の分布を表す情報を二次元の熱画像として継続的に出力する。各センサ素子は熱画像の各画素に対応しており、以下では各センサ素子が検出した領域の摂氏温度を、熱画像にて対応する各画素の画素値として説明する。なお、図1の例ではジェスチャ認識装置1はセンサ装置2と別体であるが、この構成に限らず、ジェスチャ認識装置1にセンサ装置2が一体に備わっていてもよい。
The
本実施形態のジェスチャ認識装置1はコンピュータからなり、コンピュータに所定のプログラムを実行させることにより、取得部11、演算処理部13としての各機能をコンピュータにて実現する。出力部14は、モニタ装置やプリンタ装置など、演算処理部13の認識結果をユーザに提示する機能を有する装置からなる。
The
取得部11は、センサ装置2から現在の検知範囲の熱流束の分布を表す熱画像である取得画像を取得情報として定期的に取得する。ジェスチャ認識装置1は、検知範囲に人3が存在しない時点での検知範囲の熱流束の分布を表す熱画像を背景画像(背景情報)として予め記憶部12に記憶している。本実施形態では、記憶部12は、取得画像を記憶する取得データ用領域と、取得画像の比較対象となる画像を記憶する比較データ用領域と、後述する復帰データ用領域とを有しており、比較データ用領域には初期値として背景画像を記憶している。
The
演算処理部13は、検知範囲内の人3の存否や人3の身体の特定部位の位置を検出する検出部15と、特定部位の位置に基づいてジェスチャを認識する認識部16と、検出部15の動作モードを切り替えるモード切替部17とを有している。
The
検出部15は、検知範囲内の人3の存否を検出する人検出モードと、人3の身体の特定部位の位置を検出するジェスチャ検出モードとの2つの動作モードを有している。
The
モード切替部17は、検出部15が人検出モードで動作中に人3の存在を検出すると、検出部15の動作モードを人検出モードからジェスチャ検出モードに切り替える。つまり、検出部15は、人検出モードにおいて検知範囲内に人3の存在を検出すると、人検出モードを終了してジェスチャ検出モードを開始する。ジェスチャ検出モードへの切り替え時、モード切替部17は、記憶部12の比較データ用領域から復帰データ用領域にデータ(背景画像)をコピーし、且つその時点(人3を検出した時点)での取得画像を参照画像(参照情報)として比較データ用領域に記憶する。
When the
一方、モード切替部17は、検出部15がジェスチャ検出モードで動作中に検知範囲から人3が退去したことを検出すると、検出部15の動作モードをジェスチャ検出モードから人検出モードに切り替える。つまり、検出部15は、ジェスチャ検出モードにおいて検知範囲内に人3を検出できなくなると、ジェスチャ検出モードを終了して人検出モードを開始する。人検出モードへの切り替え時、モード切替部17は、記憶部12の復帰データ用領域から比較データ用領域にデータ(背景画像)をコピーする。
On the other hand, when the
要するに、モード切替部17は、人検出モードからジェスチャ検出モードへの切り替え時、比較データ用領域に記憶されている背景画像を復帰データ用領域に一時的に退避させ、比較データ用領域に参照画像をセットする。また、ジェスチャ検出モードから人検出モードへの切り替え時には、モード切替部17は、比較データ用領域に記憶されている参照画像を消去し、復帰データ用領域に一時的に退避させてあった背景画像を比較データ用領域に復帰させる。これにより、記憶部12の比較データ用領域には、検出部15が人検出モードで動作中に背景画像がセットされ、ジェスチャ検出モードで動作中に参照画像がセットされることになる。
In short, when switching from the human detection mode to the gesture detection mode, the
検出部15は、人検出モードで動作中には、取得部11にて定期的に取得される取得画像と、記憶部12の比較データ用領域に記憶されている背景画像との差を検出する背景差分法により、検知範囲内の人3の存否を検出する。つまり、検出部15は、人検出モードにおいては、人3がセンサ装置2の検知範囲内に入ったことを検出することによって、センサ装置2への人3の接近を検出する処理(以下、「人接近検出処理」という)を行う。
While operating in the human detection mode, the
一方、検出部15は、ジェスチャ検出モードで動作中には、取得部11にて定期的に取得される取得画像と、記憶部12の比較データ用領域に記憶されている参照画像との差を検出する背景差分法により、人3の身体の特定部位の位置を時系列的に検出する。つまり、検出部15は、ジェスチャ検出モードにおいては、検知範囲内に存在する人3に起因した熱流束の分布を背景にして、さらにその中で熱流束値が大きくなる特定部位の位置を検出する処理(以下、「特定部位検出処理」という)を行う。
On the other hand, the
本実施形態では一例として、人3の手の手首から先の部分を特定部位としている。人3が特定部位としての手をセンサ装置2にかざすように前に出せば、特定部位がセンサ装置2に接近することにより、センサ装置2が受ける熱流束値は人3の身体の他の部位に比べて特定部位で大きくなる。そのため、検出部15がジェスチャ検出モードで動作中に、人3が特定部位としての手を前に出せば、取得画像においては、熱流束値が身体の他の部位に比べて特定部位にて大きくなる。したがって、人3がセンサ装置2に接近することによって、検出部15の動作モードが人検出モードからジェスチャ検出モードに切り替わった後、人3が手をセンサ装置2に向けて突き出すことにより、特定部位としての手の位置が検出部15にて検出可能となる。検出部15は、このように熱源として検出される特定部位(ここでは手の手首よりも先の部分)の重心座標を、特定部位の位置として出力する。
In the present embodiment, as an example, the part from the wrist of the
認識部16は、ジェスチャ検出モードにある検出部15で検出された特定部位(ここでは、手の手首から先の部分)の位置に基づいて、ジェスチャを認識する。記憶部12には、複数種類のジェスチャと、特定部位の位置または特定部位の位置の時間経過に伴う変化(つまり「動き」)との対応関係を表す対応テーブルが予め記憶されている。認識部16は、検出部15の検出結果から特定部位の位置またはその動きを抽出し、抽出結果を対応テーブルと照合することにより、ジェスチャを認識する。なお、特定部位の位置からジェスチャを認識する方法については、周知の方法が適用可能であるので、詳しい説明は省略する。
The
また、検出部15は、ジェスチャ検出モードで動作中には、取得部11にて定期的に取得される取得画像と、記憶部12の比較データ用領域に記憶されている参照画像との差を検出する背景差分法により、検知範囲内の人3の存否も併せて検出する。つまり、検出部15は、ジェスチャ検出モードにおいては、人3がセンサ装置2の検知範囲から居なくなったことを検出することによって、検知範囲からの人3の退出を検出する処理(以下、「人退出検出処理」という)を行う。
Further, the
以下に、ジェスチャ認識装置1の具体的な動作について、ジェスチャ認識装置1の処理全体を表す図2、人接近検出処理を表す図3、特定部位検出処理を表す図4、人退出検出処理を表す図5の各フローチャートを参照して説明する。なお、以下では、画像における各画素の画素値を、画像における各画素の座標位置(x,y)および時刻tにて特定する。
In the following, regarding the specific operation of the
ジェスチャ認識装置1は、まず、人3が存在しない状態でセンサ装置2から出力される熱画像を取得部11にて取得し、この熱画像の各画素値を、比較データTa(x,y,t)の初期値として記憶部12の比較データ用領域に初期値として記憶する(図2のS1)。比較データTa(x,y,t)は、取得画像Tと比較される比較画像Taを構成する各画素の画素値である。比較画像Taは、検出部15の動作モードが人検出モードであれば背景画像に相当し、検出部15の動作モードがジェスチャ検出モードであれば参照画像に相当する。さらに、初期設定(S1)において、モード切替部17は検出部15の動作モードを人検出モードとする。
The
ジェスチャ認識装置1は、現在の温度分布データT(x,y,t)をセンサ装置2から取得部11にて取得し、この温度分布データT(x,y,t)を記憶部12に記憶する(図2のS2)。温度分布データT(x,y,t)は、取得画像Tを構成する各画素の画素値である。
The
検出部15は、記憶部12に記憶されている比較データTa(x,y,t)と温度分布データT(x,y,t)との差分を、差分データTb(x,y,t)として算出する(図2のS3)。つまり、差分データTb(x,y,t)は数1にて表される。差分データTb(x,y,t)は差分画像Tbを構成する各画素の画素値である。検出部15は数1で表される演算を画素ごとに取得画像Tの全画素について行う。
The
それから、検出部15は、動作モードがジェスチャ検出モードでなければ(図2のS4:No)、人接近検出処理(S5)を実行する。人接近検出処理(S5)の詳細については、図3を参照して説明する。
Then, if the operation mode is not the gesture detection mode (S4: No in FIG. 2), the
すなわち、人接近検出処理においては、検出部15は、取得画像Tと比較画像(ここでは背景画像)Taとの差分である差分画像Tbを構成している差分データTb(x,y,t)を、所定の第1の閾値によって2値化する(図3のS51)。このとき、検出部15は、差分値が第1の閾値より大きな画素を熱源が検出された「検出画素」とし、差分値が第1の閾値以下の画素を熱源が検出されなかった「不検出画素」とするように2値化し、検出画像Tcを生成する。検出画像Tcを構成する各画素の画素値Tc(x,y,t)は第1の閾値C1を用いて数2にて表される。
That is, in the human approach detection process, the
検出部15は、検出画像Tcより、検出画素の集合、つまりTc(x,y,t)=1となる画素の集合からなる検出領域の面積を、熱源検出面積s1として求める(図3のS52)。なお、Tc(x,y,t)=0となる画素(x,y)は不検出画素である。熱源検出面積s1が所定の第2の閾値以下であれば(図3のS53:No)、検出部15は検知範囲内に人3は居ないと判断する(S54)。熱源検出面積s1が所定の第2の閾値より大きければ(図3のS53:Yes)、検出部15は検知範囲内に人3が居る、つまりセンサ装置2に人3が接近したと判断する(S55)。
The
上述した人接近検出処理において人3が検出されなければ(図2のS6:No)、そのままS2の処理に戻る。一方、人3が検出されれば(図2のS6:Yes)、モード切替部17は、復帰データ用領域内の復帰画像Tdを比較データ用領域内の比較画像Taにて更新し(S7)、その時点での取得画像Tにて比較データ用領域内の比較画像Taを更新する(S8)。言い換えれば、モード切替部17は、記憶部12の比較データ用領域から復帰データ用領域に背景画像をコピーし(S7)、且つその時点での取得画像Tを参照画像として比較データ用領域に記憶する(S8)。それから、モード切替部17は、検出部15の動作モードをジェスチャ検出モードに切り替え(図2のS9)、S2の処理に戻る。
If the
検出部15は、動作モードがジェスチャ検出モードであれば(図2のS4:Yes)、特定部位検出処理(S10)を実行する。特定部位検出処理(S10)の詳細については、図4を参照して説明する。
If the operation mode is the gesture detection mode (S4: Yes in FIG. 2), the
すなわち、特定部位検出処理においては、検出部15は、取得画像Tと比較画像(ここでは参照画像)Taとの差分である差分画像Tbを構成している差分データTb(x,y,t)を、所定の第1の閾値によって2値化する(図4のS101)。このとき、検出部15は、差分値が第1の閾値より大きな画素を熱源が検出された「検出画素」とし、差分値が第1の閾値以下の画素を熱源が検出されなかった「不検出画素」とするように2値化し、検出画像Tcを生成する。
That is, in the specific part detection process, the
検出部15は、検出画像Tcについてラベリング処理を行い、検出画素の集合、つまりTc(x,y,t)=1となる画素の集合からなる検出領域を塊ごとに分割し、面積が所定値よりも小さい領域を削除する(図4のS102)。このとき、所定値以上の面積を持つ領域が残らなければ、検出部15は、熱源領域なしと判断して(図4のS103:No)、特定部位の位置情報はなし(S104)として特定部位検出処理を終了する。一方、所定値以上の面積を持つ領域が残った場合、検出部15は、熱源領域ありと判断して(図4のS103:Yes)、残った領域(熱源領域)の位置を算出する。このとき、検出部15は、熱源領域を構成する画素全ての座標値の重み付き平均をとることにより、熱源領域の重心位置(一次元であればGx、二次元であれば〔Gx,Gy〕)を算出する(図4のS105)。検出部15は、重みを全て1として簡単に重心位置を求めてもよく、また、重みとして、適切にオフセットされた各画素の温度または差分温度の値を用いてもよい。検出部15は、このようにして求まる重心位置を、人3の特定部位の位置として出力する(図4のS106)。
The
特定部位検出処理が終了すると、検出部15は、検出した特定部位の位置を認識部16に出力し(図2のS11)、人退出検出処理(S12)を実行する。人退出検出処理(S12)の詳細については、図5を参照して説明する。
When the specific part detection process ends, the
すなわち、人退出検出処理においては、検出部15は、取得画像Tと比較画像(ここでは背景画像)Taとの差分である差分画像Tbを構成している差分データTb(x,y,t)を、所定の第3の閾値によって2値化する(図5のS121)。このとき、検出部15は、差分値が第3の閾値より小さな画素を熱源が検出されなかった「不検出画素」とし、差分値が第3の閾値以上の画素を熱源が検出された「検出画素」とするように2値化し、不検出画像Teを生成する。不検出画像Teを構成する各画素の画素値Te(x,y,t)は第3の閾値C3を用いて数3にて表される。ここで、人退出検出処理は、人3が居なくなったことを検出する処理であるため、第3の閾値C3は負の値である。
In other words, in the person leaving detection process, the
検出部15は、不検出画像Teより、不検出画素の集合、つまりTe(x,y,t)=1となる画素の集合からなる不検出領域の面積を、不検出面積s0として求める(図5のS122)。なお、Te(x,y,t)=0となる画素(x,y)は検出画素である。不検出面積s0が所定の第4の閾値以下であれば(図5のS123:No)、検出部15は検知範囲内に人3が居る、つまり検知範囲からの人3の退出はないと判断する(S124)。不検出面積s0が所定の第4の閾値より大きければ(図5のS123:Yes)、検出部15は検知範囲内に人3が居ない、つまり検知範囲から人3が退出したと判断する(S125)。
The
上述した人退出検出処理において人3の退出が検出されなければ(図2のS13:No)、そのままS2の処理に戻る。一方、人3の退出が検出されれば(図2のS13:Yes)、モード切替部17は、比較データ用領域内の比較画像Taを復帰データ用領域内の復帰画像Tdにて更新する(S14)。言い換えれば、モード切替部17は、記憶部12の復帰データ用領域から比較データ用領域に背景画像をコピーする。それから、モード切替部17は、検出部15の動作モードを人検出モードに切り替え(図2のS15)、S2の処理に戻る。
If the exit of the
次に、上述した構成のジェスチャ認識装置1を用いてジェスチャを認識する方法について、図6を参照して説明する。図6では、6×6画素の熱画像を例として、時系列に並ぶ(a)〜(f)の各シーンにおけるジェスチャ認識装置1の処理を例示している。
Next, a method for recognizing a gesture using the
まず、最初のシーン(a)においては、検出部15の動作モードは人検出モードであって、センサ装置2の検知範囲に人3が居ないため、比較画像Taは背景画像であり、取得画像Tには人3に起因する熱流束の分布は現れない。
First, in the first scene (a), since the operation mode of the
シーン(b)においては、センサ装置2に人3が接近することにより、取得画像Tに人3に起因する熱流束の分布が現れるため、ジェスチャ認識装置1は、検出部15にて人3の存在を検出する。このとき、モード切替部17は、復帰画像Tdを比較画像Taにて更新し、その時点での取得画像Tにて比較画像Taを更新して、検出部15の動作モードをジェスチャ検出モードに切り替える。
In the scene (b), when the
次のシーン(c)においては、人3が特定部位(ここでは手の手首より先の部分)を上げることにより、取得画像Tに特定部位に相当する熱源が現れるため、ジェスチャ認識装置1は、検出部15にて特定部位の位置を検出する。さらに、シーン(d)においては、人3が特定部位(ここでは手の手首より先の部分)を降ろすことにより、取得画像Tにおける熱源の位置が変化(下降する)ため、ジェスチャ認識装置1は、検出部15にて特定部位の位置の変化を検出する。認識部16は、シーン(c)、(d)において、検出部15が検出した特定部位の位置に基づいて、ジェスチャを認識する。
In the next scene (c), since the
次のシーン(e)においては、センサ装置2から人3が離れることにより、取得画像Tにおける熱流束の分布が変化するため、ジェスチャ認識装置1は、検出部15にて人3の退出を検出する。このとき、モード切替部17は、比較画像Taを復帰画像Tdにて更新して、検出部15の動作モードを人検出モードに切り替える。
In the next scene (e), when the
最後のシーン(f)においては、検出部15の動作モードは人検出モードであって、センサ装置2の検知範囲に人3が居ないため、比較画像Taは背景画像であり、取得画像Tには人3に起因する熱流束の分布は現れない。
In the last scene (f), since the operation mode of the
以上説明した本実施形態のジェスチャ認識装置1によれば、検出部15が人検出モードで動作中に人3の存在を検出すると、検出部15の動作モードはジェスチャの認識処理を行うジェスチャ検出モードに自動的に切り替わることになる。すなわち、このジェスチャ認識装置1では、ジェスチャの認識処理はジェスチャ検出モードでのみ行われ、且つ人検出モードからジェスチャ検出モードへの切り替えは、センサ装置2に対する人3の接近をトリガにモード切替部17によって為される。したがって、ジェスチャ認識装置1は、ジェスチャの認識開始の合図を必要とせず、ジェスチャの認識処理が行われる期間を制限することができる。
According to the
要するに、ジェスチャ認識装置1は、人検出モードではジェスチャを認識することなく、人3がセンサ装置2に対して一定距離まで近づいたときにのみジェスチャの入力を受け付けるので、意図しないタイミングでジェスチャが認識されてしまうことを防止できる。なお、本実施形態の構成に対して、認識するジェスチャ自体を複雑化して、意図しないジェスチャが認識されてしまうことを防止する方法も考えられるが、この方法では、複雑なジェスチャの認識処理が必要であるため、装置の低コスト化を図ることは難しい。
In short, the
また、本実施形態のジェスチャ認識装置1は、ジェスチャ検出モードにおいて、センサ装置2に人3が接近した状態の取得画像を比較画像(参照画像)とするため、その中でも熱流束値が大きくなる特定部位を熱源として確実に検出することができる。したがって、このジェスチャ認識装置1によれば、安定したジェスチャ入力を実現することができる。
In addition, in the
さらにまた、検知範囲から人3が退去すると、モード切替部17は、検出部15の動作モードを人検出モードに切り替えるので、次に人3の存在が検出されるまでは、ジェスチャの入力を中断し、新たに人3が接近することを検出できる。つまり、ジェスチャ認識装置1は、ジェスチャの認識終了の合図も必要とせず、ジェスチャの認識処理が行われる期間を制限することができる。
Furthermore, when the
(実施形態2)
本実施形態のジェスチャ認識装置1は、検出部15が人検出モードにある期間に、定期的に記憶部12内の背景画像(背景情報)を更新する更新部(図示せず)を演算処理部13に備える点が、実施形態1のジェスチャ認識装置1と相違する。以下、実施形態1と同様の構成については共通の符号を付して適宜説明を省略する。
(Embodiment 2)
The
すなわち、予め設定された背景画像をそのまま使用し続けると、ジェスチャ認識装置1は、時間帯の変化や冷暖房等により、人3に依らない検知範囲内の温度(以下、「環境温度」という)が変化したときに誤検出を生じる可能性がある。そこで、本実施形態のジェスチャ認識装置1は、検出部15が人検出モードにある間に、記憶部12に記憶されている背景画像を所定の更新時間間隔で繰り返し更新する更新部を備えている。
That is, if the background image set in advance is used as it is, the
更新部は、ジェスチャ認識装置1の動作中、タイマ(図示せず)によって時間を計測しており、ジェスチャ認識装置1の起動時もしくは前回の背景画像の更新から更新時間が経過すると、その時点で検出部15が人検出モードにあれば、背景画像の定期更新を行う。なお、更新部は、取得部11がセンサ装置2から定期的に取得する取得画像Tのフレーム数をカウントすることによって更新時間を計るように構成されていてもよい。
The update unit measures time by a timer (not shown) during the operation of the
更新部による背景画像の定期更新は、現時点の取得画像Tおよび更新係数αを用いて以下のように行われる。すなわち、更新部は、記憶部12の比較データ用領域に記憶されている定期更新前の比較画像Ta(t−1)と、現時点の取得画像T(t)との重み付き平均(加重平均)値を算出することによって、背景画像の定期更新処理を行う。つまり、定期更新後の比較画像(t)は、重み付き平均のパラメータである更新係数αを用いて数4にて表される。なお、更新係数αは0<α≦1で現れる定数である。
Periodic updating of the background image by the updating unit is performed as follows using the current acquired image T and the update coefficient α. That is, the update unit weighted average (weighted average) of the comparison image Ta (t−1) before regular update stored in the comparison data area of the
ところで、更新部は、ジェスチャ認識装置1の動作中、タイマによって時間を計測しており、ジェスチャ認識装置1の起動時もしくは前回の背景画像の更新から更新時間が経過した時点で検出部15がジェスチャ検出モードにあれば、背景画像の定期更新を保留する。この場合、次に検出部15が人3の退出を検出し、モード切替部17が比較データ用領域内の比較画像Taを復帰データ用領域内の復帰画像Tdに置き換えた後、更新部は比較画像(ここでは背景画像)Taを更新する。すなわち、更新部は、ジェスチャ検出モードの開始から終了までの時間が更新時間よりも長い場合、ジェスチャ検出モードの終了時点の取得画像Tで背景画像を更新することになる。
By the way, the update unit measures the time by a timer during the operation of the
以下に、本実施形態のジェスチャ認識装置1の動作について、図7のフローチャートを参照して説明する。なお、図7のフローチャートは、図2のフローチャートに対して、初期設定(S1)でのタイマ値Utの初期化(ゼロにする)と、S21〜27の処理とが加わっただけで、他の処理については図2と同様である。
Below, operation | movement of the
タイマは、差分画像Tbの算出処理(図7のS3)と、検出部15の動作モードがジェスチャ検出モードか否かの判断処理(S4)との間で、タイマ値Utをインクリメントする(S21)。
The timer increments the timer value Ut between the calculation process of the difference image Tb (S3 in FIG. 7) and the determination process whether the operation mode of the
人検出モードにおいては(S4:No)、人接近検出処理(S5)で人3が検出されなかった場合(S6:No)、タイマ値Utが更新時間以上であれば(S22:Yes)、更新部は比較画像Taの定期更新を行い(S23)、タイマ値Utをリセットする(S24)。タイマ値Utが更新時間以上でなければ(S22:No)、更新部は定期更新を行うことなく、処理S2に戻る。
In the person detection mode (S4: No), when the
また、ジェスチャ検出モードにおいては(S4:Yes)、人体退出処理(S12)で人3の退出が検出された場合(S13:Yes)、モード切替部17が比較画像Taを復帰画像Tdに置き換えた(S14)後、更新部はタイマ値Utを更新時間と比較する(S25)。ここで、タイマ値Utが更新時間以上であれば(S25:Yes)、更新部は比較画像Taの定期更新を行い(S26)、タイマ値Utをリセットし(S27)、検出部15の動作モードの切り替え処理(S15)に移行する。タイマ値Utが更新時間以上でなければ(S25:No)、更新部は定期更新を行うことなく、処理S15に移行する。
In the gesture detection mode (S4: Yes), when the exit of the
以上説明した本実施形態のジェスチャ認識装置1によれば、人検出モードにおいては、記憶部12に記憶されている比較画像(ここでは背景画像)Taが所定の更新時間間隔で更新されるので、環境温度が変化したときに誤検出を生じることを回避できる。しかも、更新時間を超える長時間に亘ってジェスチャ検出モードが継続する場合には、ジェスチャ検出モードの終了時点で比較画像Taが更新されるので、ジェスチャ認識装置1は、ジェスチャ検出モードで動作中に生じた環境温度の変化にも早期に対応できる。
According to the
その他の構成および機能は実施形態1と同様である。 Other configurations and functions are the same as those of the first embodiment.
1 ジェスチャ認識装置
3 人
11 取得部
12 記憶部
15 検出部
16 認識部
17 モード切替部
T 取得画像(取得情報)
Ta 比較画像(参照画像、背景画像)
DESCRIPTION OF
Ta comparison image (reference image, background image)
Claims (3)
前記モード切替部は、前記検出部が前記人検出モードで動作中に人の存在を検出すると、当該人を検出した時点での前記取得情報を参照情報とし、前記検出部の動作モードを前記ジェスチャ検出モードに切り替え、
前記検出部は、前記人検出モードにおいては、前記取得情報と前記背景情報との差に基づいて、前記検知範囲内における人の存否を検出し、前記ジェスチャ検出モードにおいては、前記取得情報と前記参照情報との差に基づいて、前記特定部位の位置を検出することを特徴とするジェスチャ認識装置。 An acquisition unit that acquires acquisition information representing the distribution of the heat flux from a sensor device that detects a distribution of heat flux received from the detection range, and a distribution of heat flux within the detection range when no person is present in the detection range. A detection unit having two operation modes: a storage unit for storing background information to be represented; a human detection mode for detecting the presence or absence of a person within the detection range; and a gesture detection mode for detecting the position of a specific part of the person; and the gesture A recognition unit that recognizes a gesture based on the position of the specific part detected in the detection mode, and a mode switching unit that switches an operation mode of the detection unit,
When the detection unit detects the presence of a person during operation in the person detection mode, the mode switching unit uses the acquired information at the time when the person is detected as reference information, and sets the operation mode of the detection unit as the gesture. Switch to detection mode,
In the person detection mode, the detection unit detects the presence or absence of a person within the detection range based on a difference between the acquisition information and the background information. In the gesture detection mode, the detection unit and the acquisition information A gesture recognition device that detects a position of the specific part based on a difference from reference information.
前記更新部は、前記ジェスチャ検出モードの開始から終了までの時間が前記更新時間よりも長い場合、当該ジェスチャ検出モードの終了時点の前記取得情報で前記背景情報を更新することを特徴とする請求項1または請求項2に記載のジェスチャ認識装置。
An update unit that updates the background information at a predetermined update time interval while the detection unit is operating in the human detection mode,
The update unit updates the background information with the acquired information at the end of the gesture detection mode when the time from the start to the end of the gesture detection mode is longer than the update time. The gesture recognition device according to claim 1 or 2.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011094276A JP2012226595A (en) | 2011-04-20 | 2011-04-20 | Gesture recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011094276A JP2012226595A (en) | 2011-04-20 | 2011-04-20 | Gesture recognition device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012226595A true JP2012226595A (en) | 2012-11-15 |
Family
ID=47276684
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011094276A Withdrawn JP2012226595A (en) | 2011-04-20 | 2011-04-20 | Gesture recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012226595A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014196383A1 (en) * | 2013-06-04 | 2014-12-11 | 株式会社デンソー | Living body detector, vehicle seating detector, and unfastened seat belt warning system |
US9183431B2 (en) | 2013-10-01 | 2015-11-10 | Electronics And Telecommunications Research Institute | Apparatus and method for providing activity recognition based application service |
JP2015231518A (en) * | 2014-05-12 | 2015-12-24 | 株式会社東芝 | Ultrasonic diagnostic device and program thereof |
CN105283351A (en) * | 2013-06-04 | 2016-01-27 | 株式会社电装 | Comfortable temperature control device utilizing heat flux sensor |
JP2016169990A (en) * | 2015-03-11 | 2016-09-23 | パナソニックIpマネジメント株式会社 | Human sensing detection system |
JP2016219153A (en) * | 2015-05-15 | 2016-12-22 | アズビル株式会社 | Control device, control system and apparatus control device |
-
2011
- 2011-04-20 JP JP2011094276A patent/JP2012226595A/en not_active Withdrawn
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3006968A4 (en) * | 2013-06-04 | 2017-01-25 | Denso Corporation | Living body detector, vehicle seating detector, and unfastened seat belt warning system |
CN105339811A (en) * | 2013-06-04 | 2016-02-17 | 株式会社电装 | Living body detector, vehicle seating detector, and unfastened seat belt warning system |
KR101894058B1 (en) | 2013-06-04 | 2018-08-31 | 가부시키가이샤 덴소 | Living body detector, vehicle seating detector, and unfastened seat belt warning system |
US10053052B2 (en) | 2013-06-04 | 2018-08-21 | Denso Corporation | Biological object detector, vehicle seat occupancy detector, and seat belt non-wearing warning system |
KR20160006206A (en) * | 2013-06-04 | 2016-01-18 | 가부시키가이샤 덴소 | Living body detector, vehicle seating detector, and unfastened seat belt warning system |
CN105283351A (en) * | 2013-06-04 | 2016-01-27 | 株式会社电装 | Comfortable temperature control device utilizing heat flux sensor |
JP2015014584A (en) * | 2013-06-04 | 2015-01-22 | 株式会社デンソー | Organism detector, seating detector for vehicle and seat belt unfastening warning system |
CN105283351B (en) * | 2013-06-04 | 2017-07-07 | 株式会社电装 | The comfort temperature control set for adjusting of heat flux sensor is used |
TWI580599B (en) * | 2013-06-04 | 2017-05-01 | Denso Corp | Biometric detectors, vehicle seated detectors and unused seat belt warning systems |
WO2014196383A1 (en) * | 2013-06-04 | 2014-12-11 | 株式会社デンソー | Living body detector, vehicle seating detector, and unfastened seat belt warning system |
US9183431B2 (en) | 2013-10-01 | 2015-11-10 | Electronics And Telecommunications Research Institute | Apparatus and method for providing activity recognition based application service |
JP2015231518A (en) * | 2014-05-12 | 2015-12-24 | 株式会社東芝 | Ultrasonic diagnostic device and program thereof |
JP2016169990A (en) * | 2015-03-11 | 2016-09-23 | パナソニックIpマネジメント株式会社 | Human sensing detection system |
JP2016219153A (en) * | 2015-05-15 | 2016-12-22 | アズビル株式会社 | Control device, control system and apparatus control device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012226595A (en) | Gesture recognition device | |
US9785217B2 (en) | System and method for low power input object detection and interaction | |
US10302810B2 (en) | Use of thermopiles to detect human location | |
JP5799219B2 (en) | Object detection device | |
JP6478469B2 (en) | Image forming apparatus, image forming apparatus control method, and program | |
EP3217251B1 (en) | Control device, processing device, control method, and program | |
JP5953843B2 (en) | Image processing apparatus, power control method, and power control program | |
KR101380997B1 (en) | Method and apparatus for correcting gesture on space recognition based on vector | |
US20110193774A1 (en) | Information processing device | |
WO2011074511A1 (en) | Existence judgment device, system, method, and program | |
US9696811B2 (en) | Electronic apparatus and method | |
KR20160063163A (en) | Method and apparatus for recognizing touch gesture | |
JP2012123695A (en) | Touch type input panel device and sensitivity adjustment method thereof | |
JP2012247911A (en) | Information processing apparatus, information processing method, and program | |
US20160041632A1 (en) | Contact detection system, information processing method, and information processing apparatus | |
JP2018093266A (en) | Information processing device, information processing method, and program | |
US20140118276A1 (en) | Touch system adapted to touch control and hover control, and operating method thereof | |
US9866798B2 (en) | Image processing apparatus, method and program for controlling an image processing apparatus based on detected user movement | |
JP2017227592A (en) | Program, computer readable medium, terminal device, estimation device, and estimation method | |
US9430094B2 (en) | Optical touch system, method of touch detection, and computer program product | |
JP2009038750A5 (en) | ||
KR20140011921A (en) | Apparatus and method for controlling operation mode of device using gesture cognition | |
JP2013186211A (en) | Image forming apparatus, power control method, and power control program | |
JP2018055257A (en) | Information processing device, control method thereof, and program | |
TWM528469U (en) | Touch control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140701 |