JP2009064199A - ジェスチャー認識装置及びジェスチャー認識方法 - Google Patents

ジェスチャー認識装置及びジェスチャー認識方法 Download PDF

Info

Publication number
JP2009064199A
JP2009064199A JP2007230846A JP2007230846A JP2009064199A JP 2009064199 A JP2009064199 A JP 2009064199A JP 2007230846 A JP2007230846 A JP 2007230846A JP 2007230846 A JP2007230846 A JP 2007230846A JP 2009064199 A JP2009064199 A JP 2009064199A
Authority
JP
Japan
Prior art keywords
gesture
motion
region
movement
gesture recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007230846A
Other languages
English (en)
Other versions
JP4992618B2 (ja
Inventor
Jiyunichi Uto
潤一 羽斗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007230846A priority Critical patent/JP4992618B2/ja
Publication of JP2009064199A publication Critical patent/JP2009064199A/ja
Application granted granted Critical
Publication of JP4992618B2 publication Critical patent/JP4992618B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ジェスチャーの認識精度を向上する。
【解決手段】撮像した対象の動作に基づくジェスチャーを認識するジェスチャー認識装置において、ジェスチャーの認識条件を設定する認識条件設定部と、撮像された画像を複数の領域に分割した分割領域毎に、分割領域内の各画素の輝度の変化量に基づいて動き量を検出する動き量検出部と、動き量検出部により検出された動き量が所定の閾値以上である分割領域を動き領域として検出する動き領域検出部と、動き領域検出部により検出された動き領域からジェスチャーの認識に採用すべき分割領域である特定領域を検出する特定領域検出部と、少なくとも、特定領域検出部により検出された特定領域と、認識条件設定部により設定されたジェスチャーの認識条件とに基づいて、ジェスチャーを認識するジェスチャー認識部と、を備える
【選択図】図2

Description

本発明は、ジェスチャー認識装置及びジェスチャー認識方法に関する。
ジェスチャーの意味内容をコンピュータに認識させるジェスチャー認識装置が知られている。例えば、特許文献1には、ジェスチャーを行う者を撮像することによって得られたフレーム画像を複数の画像ブロックに分割し、画像ブロック毎にフレーム間の変化を示す動き量を算出し、ブロック毎の動き量に基づいて、ジェスチャーを判別する装置が開示されている。
特開2006−235771号公報
しかしながら、特許文献1に記載された遠隔操作装置では、例えば、撮影条件によるノイズの影響が考慮されておらず、また、分割されたブロック全体からジェスチャーを認識していないために、ジェスチャーの認識精度に問題があった。
より詳細には、上述の遠隔操作装置では、ノイズの影響により動き量が増大した場合であっても、動き量が所定の閾値を超えてさえいれば、そのブロックに動きがあると判別してしまう。このため、ジェスチャーがない場合であっても、誤ってジェスチャーがあると認識してしまう可能性がある。例えば、撮影範囲に、テレビジョン等の常に動きのあるものを含む場合、ジェスチャーによる動きと認識すべきでないテレビジョン等の画面上の動きを、ジェスチャーによる動きと認識する結果、ジェスチャーがあると認識する可能性がある。
本発明は、上記問題に鑑みてなされたものであり、認識精度が高いジェスチャー認識装置及びジェスチャー認識方法を提供することを目的とする。
上記目的を達成するために、本発明の第1の観点に係るジェスチャー認識装置は、
撮像した対象の動作に基づくジェスチャーを認識するジェスチャー認識装置において、
ジェスチャーの認識条件を設定する認識条件設定手段と、
撮像された画像を複数の領域に分割した分割領域毎に、分割領域内の各画素の輝度の変化量に基づいて動き量を検出する動き量検出手段と、
前記動き量検出手段により検出された動き量が所定の閾値以上である分割領域を動き領域として検出する動き領域検出手段と、
前記動き領域検出手段により検出された動き領域が、ジェスチャーの認識に採用すべき特定領域であるか否かを判別する特定領域判別手段と、
少なくとも、前記特定領域判別手段により特定領域であると判別された動き領域と、前記認識条件設定手段により設定されたジェスチャーの認識条件とに基づいて、ジェスチャーを認識するジェスチャー認識手段と、
を備える、ことを特徴とする。
前記認識条件設定手段は、前記所定の閾値を設定する閾値設定手段を備え、
前記動き領域検出手段は、前記動き量検出手段により検出された動き量が前記閾値設定手段により設定された閾値以上である分割領域を動き領域として検出してもよい。
前記閾値設定手段は、順次撮像された画像の各画素の輝度の変化量に基づいて閾値を設定してもよい。
前記動き量検出手段は、分割領域内の各画素の輝度の変化量を自乗した値の総和を動き量として検出してもよい。
前記特定領域判別手段は、前記動き領域検出手段により所定時間以上継続して検出された動き領域を前記特定領域であると判別しなくともよい。
前記特定領域判別手段は、前記動き領域検出手段により複数の動き領域が検出された場合に、前記動き領域検出手段により検出された動き領域のうち、前記複数の動き領域を含む所定の領域に含まれる動き領域を前記特定領域であると判別してもよい。
前記特定領域判別手段により特定領域であると判別された動き領域が複数存在する場合に、該特定領域であると判別された複数の動き領域の画像内の位置から、画像内におけるジェスチャーの動きの中心の位置を検出する中心位置検出手段、をさらに備え、
前記ジェスチャー認識手段は、前記中心位置検出手段により検出された中心の位置に基づいてジェスチャーを認識してもよい。
撮像された複数の画像からジェスチャーの動きの方向を判別する動き方向判別手段と、
前記特定領域判別手段により特定領域であると判別された動き領域が複数存在する場合に、該特定領域であると判別された複数の動き領域のうち、前記中心位置検出手段により検出された動きの中心位置を基準として、前記動き方向判別手段により判別されたジェスチャーの動きの方向の最も離れた位置に存在する動き領域を検出する先端位置検出手段と、をさらに備え、
前記ジェスチャー認識手段は、前記先端位置検出手段により検出された最も離れた位置に存在する動き領域の画像内の位置に基づいてジェスチャーを認識してもよい。
順次撮像された画像の撮像時刻を取得する撮像時刻取得手段、をさらに備え、
前記ジェスチャー認識手段は、前記撮像時刻取得手段により取得された画像の撮像時刻に基づいて、前記特定領域判別手段により継続して前記動き領域が特定領域であると判別された時間を求め、該求められた時間に応じたジェスチャーとして認識してもよい。
上記目的を達成するために、本発明の第2の観点に係るジェスチャー認識方法は、
撮像した対象の動作に基づくジェスチャーを認識するジェスチャー認識方法において、
ジェスチャーの認識条件を設定する認識条件設定ステップと、
撮像された画像を複数の領域に分割した分割領域毎に、分割領域内の各画素の輝度の変化量に基づいて動き量を検出する動き量検出ステップと、
前記動き量検出ステップで検出された動き量が所定の閾値以上である分割領域を動き領域として検出する動き領域検出ステップと、
前記動き領域検出ステップで検出された動き領域が、ジェスチャーの認識に採用すべき特定領域であるか否かを判別する特定領域判別ステップと、
少なくとも、前記特定領域判別ステップで特定領域であると判別された動き領域と、前記認識条件設定ステップで設定されたジェスチャーの認識条件とに基づいて、ジェスチャーを認識するジェスチャー認識ステップと、
を備える、ことを特徴とする。
本発明にかかるジェスチャー認識装置及びジェスチャー認識方法によれば、ジェスチャーの認識精度を向上することができる。
以下、図面を参照して、本発明の実施の形態に係るジェスチャー認識装置の構成と動作について説明する。
まず、図1を用いて、本発明の実施の形態に係るジェスチャー認識装置100の物理的な構成を説明する。
ジェスチャー認識装置100は、図1に示すように、CPU20がROM30に格納されたプログラムを実行することにより実現されるもので、カメラ200から供給されるスクリーン400と被撮像者500とを撮像範囲に含む画像データに基づいてジェスチャーを認識する。また、ジェスチャー認識装置100は、認識したジェスチャーに対応するコマンドに応じた画像データをプロジェクタ300に供給することにより、画像データに対応した画像をスクリーン400に表示させる。
ジェスチャー認識装置100は、バス10と、CPU(Central Processing Unit)20と、ROM(Read Only Memory)30と、RAM(Random Access Memory)40と、I/O(Input Output)部50と、ハードディスク60と、入力バッファ70と、出力バッファ80と、タイマカウンタ90とを備える。
バス10は、ジェスチャー認識装置100内の各デバイスを相互に接続する。各デバイスは、バス10を介して相互にデータを送受信する。
CPU20は、ROM30に格納されているプログラムを実行することにより、カメラ200から供給された画像データを解析してジェスチャーを認識し、認識したジェスチャーに対応するコマンドを実行する。また、CPU20は、入力バッファ70に供給された画像データや、I/O部50を介して図示しない外部機器から供給されたデータに基づいて、ジェスチャーの認識条件を設定する。
ROM30は、CPU20の動作を制御するためのプログラムを記憶する。
RAM40は、CPU20のワークエリアとして機能する。また、RAM40は、後述する閾値設定処理(ステップS50)や連続ノイズ除去処理(ステップS60)などで使用する各種変数を記憶する。さらに、RAM40は、入力バッファ70から供給された1フレーム前の画像データと、現在のフレームの画像データとを記憶する。また、RAM40は、後述する画像データの取得時刻を記憶する。
I/O部50は、図示しない外部機器と接続され、外部機器とのデータの入出力を行う。具体的には、I/O部50は、プロジェクタ300に表示させる画像データやジェスチャーの認識処理で使用するジェスチャーの認識条件を示すデータ等を外部機器から入力する。また、I/O部50は、認識したジェスチャーに対応するコマンドに応じたデータを外部機器に出力してもよい。
ハードディスク60は、I/O部50を介して外部機器から供給された画像データやジェスチャーの認識条件を示すデータ等を記憶する。具体的には、ハードディスク60は、プロジェクタ300に表示させる複数ページ分の画像データや、ブロックのサイズや、後述するジェスチャーのパターンを示すパターンデータなどのジェスチャーの認識条件を示すデータ等を記憶する。
ここで、ブロックは、1フレーム分の画像を構成する縦方向及び横方向に二次元に配置された画素を、縦方向及び横方向に所定の画素数毎に分割したときの画素の集まりである。例えば、縦方向に8画素毎に分割し、横方向に8画素毎に分割した場合、1ブロックは8×8=64画素から構成される。ジェスチャーを認識するにあたり、ブロック単位で画像の動きをとらえることにより、計算量を減らし、使用するRAMの容量を小さくすることが可能となる。
入力バッファ70は、カメラ200と接続され、カメラ200から供給される画像データを記憶する。入力バッファ70は、カメラ200から1フレーム分の画像データが供給されたことを検出すると、バス10を介してCPU20に割り込み信号を送信する。
出力バッファ80は、プロジェクタ300と接続され、記憶している画像データをプロジェクタ300に供給する。出力バッファ80が記憶する画像データは、CPU20の制御のもと、ハードディスク60から供給される。
タイマカウンタ90は、例えば水晶発振子を有する回路から構成される。タイマカウンタ90は、検出後タイマ、標準タイマ及び停止後タイマの値を格納するレジスタを内部に備え、各タイマの値をカウントアップする。検出後タイマは、各ブロックが動きブロックとして検出された時刻からの経過時間(すなわち、各ブロックの閾値以上の動き量が連続して検出される時間)を示すブロック毎のタイマである。標準タイマは、ジェスチャー認識処理を開始した時刻からの経過時間を示すタイマである。停止後タイマは、動きブロックが1つも検出されなくなった時刻からの経過時間を示すタイマである。
カメラ200は、スクリーン400と被撮像者500の手とを含む領域を撮像し、撮像した画像データを入力バッファ70に供給する。
プロジェクタ300は、出力バッファ80から供給された画像データに対応した画像をスクリーン400に投影する。
スクリーン400には、プロジェクタ300から供給された画像データに応じた画像が投影される。
被撮像者500は、スクリーン400の端に立ち、スクリーン400に投影された画像に対して操作するようにジェスチャーを行う。
次に、上述の構成により実現される機能的構成を説明する。
図2は、本発明の実施の形態に係るジェスチャー認識装置100の機能ブロック図である。
ジェスチャー認識装置100は、画像入力部110、撮像時刻取得部120、認識条件設定部130、動き量検出部140、動きブロック検出部150、特定ブロック検出部160、ジェスチャー認識部170、コマンド処理部180、及び、画像出力部180の機能ブロックから構成される。
画像入力部110は、撮像部210が供給する画像データを入力する。
時刻取得部120は、時刻を取得する。時刻取得部120は、取得した時刻に対応するデータをノイズ除去部161と、ジェスチャー認識部170とに供給する。また、時刻取得部120は、撮像時刻取得部121を備える。撮像時刻取得部121は、画像入力部110に画像データが供給された時刻である撮像時刻を取得し、撮像時刻に対応するデータをパターンマッチング部174に供給する。
認識条件設定部130は、ジェスチャーの認識条件を設定する。認識条件設定部130は、閾値設定部131を備える。閾値設定部131は、画像入力部110から供給された画像データに基づいて、動きブロックを検出するための閾値を設定する。
動き量検出部140は、画像入力部110から供給された画像データに基づいて、ブロック毎に動き量を検出する。
動きブロック検出部150は、閾値設定部131により設定された閾値と、動き量検出部140により検出したブロック毎の動き量とに基づいて、動きブロックを検出する。
特定ブロック検出部160は、動きブロック検出部150により検出された動きブロックから後述する特定ブロックを検出する。特定ブロック検出部160は、連続ノイズ除去部161と、微少ノイズ除去部162と、を備える。
連続ノイズ除去部161は、動きブロック検出部150により検出された動きブロックのうち、継続して動きブロックとして検出された動きブロックを、特定ブロックの候補から除外する。連続して動きブロックとして検出されたブロックは、ノイズによって誤って動きブロックとして検出されたブロックに過ぎず、ジェスチャーに起因するものではないと考えられるためである。
微少ノイズ除去部162は、動きブロック検出部150により検出された動きブロックのうち、複数の動きブロックを含む所定の範囲外の動きブロックを、特定ブロックの候補から除外する。ジェスチャーに起因して動きブロックと検出されるブロックは、所定の範囲内において高い割合で検出されるものであり、所定の範囲外で検出された動きブロックはノイズによって誤って動きブロックとして検出されたブロックに過ぎないと考えられるためである。
ジェスチャー認識部170は、特定ブロック検出部160により検出された特定ブロックに基づいて、ジェスチャーを認識する。ジェスチャー認識部170は、中心位置検出部171と、先端位置検出部171と、軌跡検出部173と、パターンマッチング部170と、を備える。
中心位置検出部171は、特定ブロック検出部160により検出された特定ブロックから特定ブロックの中心位置を検出する。
先端位置検出部172は、特定ブロック検出部160により検出された特定ブロックから特定ブロックの先端位置を検出する。
軌跡検出部173は、中心位置検出部171により検出された中心位置の軌跡と、先端位置検出部172により検出された先端位置の軌跡とを検出する。
パターンマッチング部174は、軌跡検出部173により検出された中心位置の軌跡と、あらかじめ設定されているジェスチャーの各パターンに対応する中心位置の軌跡とのマッチングを行う。パターンマッチング部174は、同じパターンにマッチングした場合でも、撮像時刻取得部120により取得された撮像時刻から求められるジェスチャーの時間や軌跡検出部173により検出された先端位置の軌跡に応じて異なるコマンドを発行しても良い。
コマンド処理部180は、ジェスチャー認識部170により認識されたジェスチャーのパターンに対応したコマンドを実行する。
画像出力部190は、コマンド処理部180の制御のもとコマンドに応じた画像データを投影部310に供給する。
続いて、ジェスチャー認識装置100の動作を説明する。図1に示す各部が以下に説明する動作を実行することにより、図2に示す各機能ブロックが実現される。なお、理解を容易にするため、機能ブロックへの逐一の言及は行わないものとする。
カメラ200及びプロジェクタ300の電源がオンしている状態において、I/O部50を介して外部機器からジェスチャー認識処理の開始信号を受信すると、CPU20は、図3のフローチャートに示すジェスチャー認識処理を実行する。
まず、CPU20は、初期設定を行う(ステップS10)。初期設定では、CPU20は、RAM40に格納された各種変数の初期化等を行う。具体的には、CPU20は、全ての検出後タイマを停止し、クリアする。また、CPU20は、標準タイマをクリアし、起動する。また、CPU20は、I/O部50を介して外部機器から画像データやジェスチャーの認識条件を示すデータ等を入力し、入力したデータをハードディスク60に記憶させる。
CPU20は、初期設定が終了すると、画像表示を開始する(ステップS20)。CPU20は、ハードディスク60に記憶されている画像データのうち、スクリーン400に表示させる初期画像に対応する画像データを出力バッファ80に供給する。出力バッファ80に供給された画像データは、直ちにプロジェクタ300に供給され、プロジェクタ300は供給された画像データに対応する画像をスクリーン400に投影する。これらの動作により、画像出力部190と投影部310が実現される。
次に、CPU20は1フレーム分の画像データを取得する(ステップS30)。入力バッファ70は、カメラ200から1フレーム分の画像データを供給されると、CPU20に割り込み信号を送信する。CPU20は、この割り込み信号を受信すると、入力バッファ70に供給された1フレーム分の画像データをRAM40に転送する。また、CPU20は、標準タイマが示す値を、現在のフレームの画像データを識別するデータとともにRAM40に記憶する。これらの動作により、画像入力部110が実現される。
CPU20は、1フレーム分の画像データの取得が完了すると、閾値設定処理を実行する(ステップS40)。CPU20は、閾値設定処理では、現在のフレームの画像データと1フレーム前の画像データとに基づいて、各ブロックの画像が前のフレームから変化したか否かを判別するための閾値を設定する。これらの動作により、閾値設定部131が実現される。詳細については、後述する。
CPU20は、閾値設定処理が完了すると、連続ノイズ除去処理を実行する(ステップS50)。CPU20は、動き量を検出し、動きブロックを検出した後に連続ノイズを除去する。CPU20は、連続ノイズ除去処理では、一定時間以上継続して画像が変化しているブロックを、特定ブロックの候補から除外する。これらの動作により、動き量検出部140、動きブロック検出部140及び連続ノイズ除去部161が実現される。詳細については、後述する。
CPU20は、連続ノイズ除去処理が完了すると、微少ノイズ除去処理を実行する(ステップS60)。CPU20は、微少ノイズ除去処理では、ジェスチャーの対象となる画像は一定以上の大きさを有するとみなして、画像が変化している他のブロックから離れて画像が変化しているブロックを、特定ブロックの候補から除外する。これらの動作により、微少ノイズ除去部162が実現される。詳細については、後述する。
CPU20は、微少ノイズ除去処理が完了すると、パターン検出処理を実行する(ステップS70)。CPU20は、パターン検出処理では、検出された画像の変化を、あらかじめ設定されたジェスチャーの各パターンと比較し、一致する場合は一致したパターンに対応するコマンドを実行する。これらの動作により、ジェスチャー認識部170及びコマンド処理部180が実現される。詳細については、後述する。
ジェスチャー認識装置100は、詳細を後述する閾値設定処理(ステップS40)、連続ノイズ除去処理(ステップS50)、微少ノイズ除去処理(ステップS60)、又は、パターン検出処理(ステップS70)を実行することにより、ジェスチャーの認識精度を高めることが可能となる。
次に、図4に示すフローチャートを用いて、閾値設定処理(ステップS40)の詳細を説明する。
まず、CPU20は、画素別の輝度の差分を検出する(ステップS41)。具体的には、CPU20は、RAM40に記憶された現在のフレームの画像データに対応する画像を構成する各画素の輝度から、1フレーム前の画像データに対応する画像を構成する画素のうち対応する画素の輝度を減じる。各画素がRGBの3原色から構成される場合は、原色毎に輝度の差分を求める。CPU20は、求めた輝度の差分をRAM40に記憶する。
次に、CPU20は、全画素について輝度の差分の検出が完了したか否かを判別する(ステップS42)。CPU20は、全画素については輝度の差分の検出が完了していないと判別した場合(ステップS42:NO)、輝度の差分の検出が完了していない画素について輝度の差分の検出を実行する(ステップS41)。一方、CPU20は、全画素について輝度の差分の検出が完了したと判別した場合(ステップS42:YES)、輝度の差分を自乗した値の平均値を算出する(ステップS43)。
具体的には、輝度の差分の自乗の平均値算出(ステップS43)では、CPU20は、全画素について輝度の差分(ΔB、ΔB、・・・、ΔB)を求め、各画素の輝度の差分を自乗した値((ΔB、(ΔB、・・・、(ΔB)を全画素分加算した値(Σ(ΔB)を全画素数で割ることにより、輝度の差分を自乗した値の平均値(Σ(ΔB/N)を算出する。なお、i番目の画素の輝度をB、i番目の画素の輝度の差分をΔB、全画素数をNとした。各画素がRGBの3原色から構成される場合は、原色毎に輝度の差分を自乗した値の平均値を算出する。
次に、CPU20は、閾値の設定を更新する(ステップS44)。具体的には、例えば、CPU20は、輝度の差分の自乗の平均値算出(ステップS43)で算出した輝度の差分を自乗した値の平均値(Σ(ΔB/N)に、1ブロック当たりの画素数Mを乗じた値(Σ(ΔB/N×M)を閾値としてRAM40に記憶する。CPU20は、閾値設定更新(ステップS44)を完了すると、閾値設定処理(ステップS40)を終了する。
このように、輝度の差分を自乗した値の平均値に基づいて閾値を設定すると、画面全体の動きが激しい場合は閾値が高く設定され、動きが少ない場合は閾値が低く設定される。このような閾値を用いる場合、画面全体の動きの激しさに応じて自動で最適な閾値を設定することが可能となり、誤検出を減らすことができる。
次に、図5に示すフローチャートを用いて、連続ノイズ除去処理(ステップS50)を詳細に説明する。連続ノイズ除去処理は、一定時間以上継続して画像が変化しているブロックを、ノイズにより画像が変化しているブロックとみなし、特定ブロックの候補から除外する処理である。
まず、CPU20は、ブロック毎に動き量Xを検出する(ステップS51)。具体的には、CPU20は、ブロック毎に、ブロック内の各画素の輝度の差分を自乗した値の総和(Σ(ΔB)を動き量Xとして求める。
次に、CPU20は、動き量Xが閾値以上であるか否かの判別を行う(ステップS52)。具体的には、CPU20は、動き量検出(ステップS51)で検出された各ブロックの動き量Xが、閾値設定更新(ステップS44)で更新された閾値(Σ(ΔB/N×M)以上であるか否かを判別する。
CPU20は、動き量Xが閾値以上ではないと判別した場合(ステップS52:NO)、対象のブロックを動きのないブロックとみなして非動きブロックに設定する(ステップS53)。具体的には、CPU20は、対象ブロックの属性情報を「非動きブロック」としてRAM40に記憶する。CPU20は、ステップS53が完了すると、検出後タイマを停止、クリアする(ステップS54)。
一方、CPU20は、動き量Xが閾値以上であると判別した場合(ステップS52:YES)、対象のブロックを動きのあるブロックとみなして動きブロックに設定する(ステップS53)。具体的には、CPU20は、対象ブロックの属性情報を「動きブロック」としてRAM40に記憶する。
CPU20は、検出後タイマが2秒以上か否かを判別し(ステップS56)、検出後タイマが2秒以上である判別した場合(ステップS56:YES)、対象のブロックをジェスチャーの認識に採用しないブロックに設定する(ステップS57)。すなわち、動き量Xが閾値以上であるブロックであっても、継続して2秒以上、閾値以上の動き量が検出されたブロックは、ノイズによって誤って動きブロックとして検出されたブロックとして扱う。具体的には、CPU20は、RAM40に記憶された対象ブロックの属性情報を「ジェスチャーの認識に採用しないブロック」に書き換える。
CPU20は、検出後タイマが2秒以上ではないと判別した場合(ステップS56:NO)、又は、非動きブロックへの設定(ステップS57)が完了した後、停止後タイマが停止中か否かを判別する(ステップS58)。CPU20は、検出後タイマが停止中であると判別した場合(ステップS58:YES)、検出後タイマを起動する(ステップS59)。
CPU20は、検出後タイマが停止中ではないと判別した場合(ステップS58:NO)、又は、検出後タイマの起動(ステップS59)、又は、検出後タイマの停止、クリア(ステップS54)、が完了した後、全ブロック分の処理が完了しているかを判別する(ステップS510)。
CPU20は、全ブロック分の設定が完了していると判別した場合(ステップS510:YES)、連続ノイズ除去処理を終了する。一方、CPU20は、全ブロック分の設定が完了していないと判別した場合(ステップS510:NO)、設定が完了していないブロックの動き量検出を行う(ステップS51)。
以上のように、連続ノイズ除去処理では、各ブロックが、動きブロック、非動きブロック、又は、ジェスチャーの認識に採用しないブロック、のうちいずれのブロックに該当するかを設定する。
通常、テレビジョン等に投影されている動きそのものをジェスチャーとして認識しようとすることは稀である。従来のジェスチャー認識装置では、テレビジョン等とジェスチャーを行う者とを含む領域を撮像した画像データから、ジェスチャーを認識しようとする場合、テレビジョン等に投影されている動きをジェスチャーとして誤って認識してしまう可能性がある。
しかしながら、本発明の実施の形態に係るジェスチャー認識装置100では、一定時間以上連続して動きブロックとして検出されたブロックは、ジェスチャーの認識に採用するブロックから除外される。このため、ジェスチャーの誤検出を減らすことができる。
また、本発明の実施の形態に係るジェスチャー認識装置100では、各ブロックの動き量Xを、各画素の輝度の差分を自乗した値の総和(Σ(ΔB)としている。このため、特許文献1に記載された装置のように、各ブロックの動き量Xを、各画素の輝度の差分の総和(Σ|ΔB|)とする場合に比べ、より俊敏な動きの認識が可能となり、ジェスチャーの認識精度の向上が期待できる。以下に理由を説明する。
ジェスチャーによって画像が変化する場合、輝度の差分が非常に大きな少数の画素が発生すると予想される。一方、照明装置の光量の変化や、撮像装置のブレなどジェスチャーとは無関係なものによって画像の変化する場合、輝度の差分が比較的小さい多数の画素が発生すると予想される。
ここで、ブロック内の各画素の輝度の差分を自乗した値の総和を動き量とする場合、輝度の差分が大きい画素が少しでも存在すれば動き量は比較的大きな値となり、輝度の差分が小さい画素が多く存在しても動き量は比較的小さな値となる。
このため、ブロック内の各画素の輝度の差分を自乗した値の総和を動き量とすることにより、ジェスチャーに起因する画像の変化分を動き量の主成分として検出することが可能となり、ジェスチャーの認識精度の向上が期待できる。
次に、図6と図7を用いて、微少ノイズ除去処理(ステップS60)を詳細に説明する。図6は、微少ノイズの除去処理を示すフローチャートであり、図7は、微少ノイズの除去処理を説明するための図である。微少ノイズ除去処理は、ジェスチャーの対象となる画像は一定以上の大きさを有するとみなして、画像が変化している他のブロックから離れて画像が変化しているブロックを、ノイズにより画像が変化しているブロックとみなして特定ブロックの候補から除外する処理である。
図7には、横軸をX軸、縦軸をY軸として、200ブロック分(20(X軸方向)×10(Y軸方向))の画像が示されている。なお、図7に示す画像は、プロジェクタ300からスクリーン400に投影された富士山と雲と飛行機の画像と、スクリーン400の右側から被撮像者500の手とを含む領域をカメラ200で撮像した画像である。
また、図7に示す斜線が引かれたブロックは、動きブロックに設定された動きブロックである。プロジェクタ300から投影される画像にほとんど変化がない場合、動きブロックとして検出されるブロックの多くは、被撮像者500の手の部分に該当するブロックである。
まず、CPU20は、RAM40に記憶されたブロックの属性情報から、列毎に動きブロック数をカウントし、各列の動きブロック数を求める(ステップS61)。
同様にして、CPU20は、行毎に動きブロック数をカウントし、各行の動きブロック数を求める(ステップS62)。
次に、CPU20は、ステップS61で求めた各列の動きブロック数に基づいて、動きブロック数の多い列の範囲を設定する(ステップS63)。
動きブロック数の多い列の範囲を設定する方法には様々な方法が考えられる。例えば、動きブロック数が1以上の列が2列以上連続する列の範囲を設定する。図7では、第12列〜第20列の範囲で連続して動きブロック数が1以上であるので、CPU20は、第12列〜第20列の範囲を動きブロック数の多い列の範囲として設定する。
続いて、CPU20は、ステップS62で求めた各行の動きブロック数に基づいて、動きブロック数の多い行の範囲を設定する(ステップS64)。CPU20は、ステップS63と同様の基準により、第6行〜第8行の範囲を動きブロック数の多い行の範囲として設定する。
次に、CPU20は、動きブロック数の多い矩形範囲を設定する(ステップS65)。CPU20は、ステップS63で設定された動きブロック数の多い列の範囲と、ステップS64で設定された動きブロック数の多い行の範囲との双方に属する範囲を、動きブロック数の多い矩形範囲として設定する。図7において、太線で囲まれた範囲が動きブロック数の多い矩形範囲となる。
CPU20は、動きブロック数の多い矩形範囲の設定(ステップS65)を完了すると、各ブロックが設定された矩形範囲内であるか否かを判別する(ステップS66)。CPU20は、各ブロックが設定された矩形範囲内であると判別した場合(ステップS66:YES)、全ブロック分の判別が完了したか否かを判別する(ステップS68)。
一方、CPU20は、各ブロックが設定された矩形範囲内ではないと判別した場合(ステップS66:NO)、対象ブロックをジェスチャーの認識に採用しないブロックに設定(ステップS67)する。具体的には、CPU20は、RAM40に記憶された対象ブロックの属性情報を、「ジェスチャーの認識に採用しないブロック」に書き換える。CPU20は、ステップS67を完了すると、全ブロック分の判別が完了したか否かを判別する(ステップS68)。
CPU20は、全ブロック分の判別が完了したと判別すると(ステップS68:YES)、微少ノイズ除去処理を終了する。一方、CPU20は、全ブロック分の判別が完了していないと判別すると(ステップS68:NO)、判別が完了していないブロックについて矩形範囲内か否かを判別する(ステップS66)。
本発明の実施の形態に係るジェスチャー認識装置100では、動きブロック数の多い矩形範囲内にないブロックは、ジェスチャーの認識に採用するブロックから除外される。このため、ジェスチャーとは無関係の領域であって、ノイズにより輝度の変化が大きい領域を、ジェスチャー認識の対象から外すことができ、ジェスチャーの誤検出を減らすことができる。
次に、図8に示すフローチャートを用いて、パターン検出処理(ステップS70)を詳細に説明する。
まず、CPU20は、動きブロックが有るか否かを判別する(ステップS71)。CPU20は、いずれかのブロックが動きブロックであると判別すると(ステップS71:YES)、中心位置検出を行う(ステップS72)。一方、CPU20は、全てのブロックが動きブロックではないと判別すると(ステップS71:NO)、停止後タイマが1秒以上か否かを判別する(ステップS75)。
中心位置検出(ステップS72)では、CPU20は、動きブロックの中心位置を検出する。図9Aを用いて、動きブロックの中心位置の検出方法について詳細に説明する。
図9Aには、横軸をX軸、縦軸をY軸として、80ブロック分(10(X軸方向)×8(Y軸方向))の画像が示されている。図9Aに示す斜線が引かれたブロックは、動きブロックである。
図9Aに示す画像では、動きブロックは9個存在する。CPU20は、9つのブロックのX座標の総和を9で除算することにより中心位置のX座標を求め、9つのブロックのY座標の総和を9で除算することにより中心位置のY座標を求める。
ただし、理解を容易にするため、中心位置の座標に最も近いブロックの座標を中心位置の座標として近似した場合を例にとり以下に説明する。図9Aにおいて、太線の“○”が付されたブロックの座標(X座標=9、Y座標=7)が中心位置の座標となる。CPU20は、求めた中心位置の座標をRAM40に記憶する。
CPU20は、中心位置検出(ステップS72)が完了すると、先端位置検出(ステップS73)を実行する。CPU20は、先端位置検出では、中心位置検出(ステップS72)で求めた中心位置からジェスチャーの動きの方向を求め、さらに中心位置を基準としてジェスチャーの動きの方向の最も離れた位置に存在する動きブロックを先端位置として検出する。
図9Bを用いて、動きブロックの先端位置の検出方法について詳細に説明する。なお、図9Bに示す画像は、図9Aに示す画像の次のフレームの画像である。
図9Bに示す画像では、動きブロックは19個存在する。上述した方法で中心位置の座標を求めると、太線の“○”が付されたブロックの座標(X座標=7、Y座標=6)が中心位置の座標となる。なお、図9Bにおいて、破線の“○”が付されたブロックの座標(X座標=9、Y座標=7)が1フレーム前の中心位置の座標である。
ここで、1フレーム前の中心位置の座標から本フレームの中心位置の座標までを結んだときにできる差分ベクトルで示される方向をジェスチャーの対象物が進行する方向と考える。そして、差分ベクトルの延長線上の動きブロックであって、中心位置から最も離れた位置にあるブロックの座標を先端位置の座標とする。
図9Bにおいて、太線の“△”が付されたブロックの座標(X座標=3、Y座標=4)が先端位置の座標となる。CPU20は、求めた先端位置の座標をRAM40に記憶する。
CPU20は、先端位置検出(ステップS73)が完了すると、停止後タイマを再起動する(ステップS74)。具体的には、CPU20は、停止後タイマの値をクリアした上で停止後タイマを起動する。
CPU20は、停止後タイマ再起動(ステップS74)を完了、又は、動きブロック有り?(ステップS71)でNOと判別すると、停止後タイマの値が1秒以上であるか否かを判別する(ステップS75)。CPU20は、停止後タイマの値が1秒以上であると判別すると(ステップS75:YES)、軌跡検出を行う(ステップS76)。一方、CPU20は、停止後タイマの値が1秒以上ではないと判別すると(ステップS75:NO)、パターン検出処理(ステップS70)を終了する。なお、ステップS75は、動きブロックが検出されなくなってから1秒経過する前は、コマンドを発行しないようにするための処理である。
軌跡検出(ステップS76)では、CPU20は、中心位置検出(ステップS72)においてRAM40に記憶された中心位置の座標に基づいて、中心位置の軌跡を検出する。また、CPU20は、先端位置検出(ステップS73)においてRAM40に記憶された先端位置の座標に基づいて、先端位置の軌跡を検出する。
CPU20は、軌跡検出(ステップS76)が完了すると、ジェスチャーのパターンが所定のパターンとマッチングしているかを判別する(ステップS77)。CPU20は、軌跡検出(ステップS76)で検出した中心位置の軌跡と、先端位置の軌跡と、あらかじめハードディスク60に記憶されているジェスチャーのパターンを示すデータとに基づいて、パターンのマッチングを行う。
図10に、ジェスチャーのパターンの一例を示す。「パターン」は、ジェスチャーのパターンの通し番号を示す。「中心位置の軌跡」は、軌跡検出(ステップS76)で求めた中心位置の軌跡を示す。「移動距離」は、中心位置の移動距離を示す。「移動時間」は、動きブロック有り(ステップS71)において、YESと判別されてから、NOと判別されるまでの時間、すなわち、ジェスチャーの候補としての動きが認識されてからジェスチャーの候補としての動きがなくなるまでの時間を示す。
「コマンドの表示」は、パターンがマッチングしたとき、すなわち、上述の「中心位置の軌跡」、「移動距離」及び「移動時間」の全ての条件を満たしたときに実行するコマンド処理の内容を示す。
CPU20は、検出したジェスチャーのパターンがハードディスク60に記憶されたパターンを示すデータのうちいずれかのパターンとマッチングしたと判別すると(ステップS77:YES)、コマンド処理を行う(ステップS78)。一方、CPU20は、検出したジェスチャーのパターンがいずれのパターンともマッチングしていないと判別すると(ステップS77:NO)、パターン検出初期化(ステップS79)を行う。
CPU20は、コマンド処理(ステップS78)が完了、又は、検出したジェスチャーのパターンがいずれのパターンともマッチングしていないと判別すると(ステップS77:NO)、パターン検出初期化(ステップS79)を行う。パターン検出初期化(ステップS79)では、CPU20は、パターン検出処理(ステップS70)で使用した各種変数の初期化を行う。具体的には、RAM40に記憶されている中心位置、先端位置の履歴を消去する。
CPU20は、パターン検出初期化(ステップS79)を完了すると、停止後タイマの停止し、クリアする(ステップS710)。CPU20は、停止後タイマの停止、クリア(ステップS710)を完了すると、パターン検出処理(ストップS70)を終了し、フレームの画像取得(ステップS30)に処理を戻す。
ここで、図11A〜図11F及び図12A〜図12Dを用いて、パターンマッチング(ステップS77)とコマンド処理(ステップS78)の例について詳細に説明する。
始めに、ジェスチャーの「パターン」が「1」である場合の、パターンマッチングとコマンド処理について説明する。
図11Aは、動きブロックの中心位置が右下の特定領域内で検出された直後の画像を示す図である。なお、図11A〜図11Fにおいて、四隅に示した太線で囲まれた3×3ブロックの領域は特定領域である。また、太線の“○”が付されたブロックの座標が動きブロックの中心位置の座標である。図11Aに示すように、被撮像者500の手が画角外から画角内の右下の領域に進入すると、動きブロックの中心位置が右下の特定領域内に検出される。
図11Bは、動きブロックの中心位置が右下の特定領域内に検出されているときの画像を示す図である。図11Bに示すように、被撮像者500の手が画角内の右下の領域で移動している間は、動きブロックの中心位置は右下の特定領域内で検出され続ける。
図11Cは、動きブロックの中心位置が右下の特定領域内から検出されなくなった直後の画像を示す図である。図11Cにおいて、破線の“○”が付されたブロックの座標が最後に検出された中心位置の座標である。図11Cに示すように、被撮像者500の手が画角内の右下の領域から画角外に外れると、動きブロックの中心位置が右下の特定領域内から検出されなくなる。
動きブロックの中心位置が検出されなくなってから1秒が経過し、停止後タイマが1秒以上になると、CPU20は、軌跡検出(ステップS76)後、パターンのマッチングを行う(ステップS77)。前述のように、中心位置の軌跡は画角外から画角の右下の特定領域に進入した後に画角外に外れる軌跡を示しているため、パターン1の「中心位置の軌跡」の条件を満たす。
ただし、「移動時間」、ここでは、動きブロックの中心位置が画角の右下の特定領域内に滞在した時間によって、CPU20が実行するコマンドの内容が異なる。なお、CPU20は、フレーム画像取得(ステップS30)においてRAM40に記憶した画像データの取得時刻をもとに移動時間を求める。
「移動時間」が2秒以上である場合は、CPU20は、画像を切り替えない。具体的には、CPU20は、図11Dに示すように、それまで表示していたページの画像を、スクリーン400に投影させ続ける。
「移動時間」が1秒以上2秒未満である場合は、CPU20は、次ページの画像を表示する。具体的には、CPU20は、ハードディスク60に記憶されている次ページの画像の画像データを、出力バッファ80に転送することにより、プロジェクタ300がスクリーン400に投影する画像を、図11Eに示すような次ページの画像に切り替える。
「移動時間」が1秒未満である場合は、CPU20は、次々ページの画像を表示する。具体的には、CPU20は、次ページの画像とは異なる次々ページの画像の画像データを、ハードディスク60から出力バッファ80に転送することにより、プロジェクタ300がスクリーン400に投影する画像を、図11Fに示すような次々ページの画像に切り替える。
上述のように、本発明の実施の形態に係るジェスチャー認識装置100は、CPU20は、タイマカウンタ90がカウントアップする標準タイマを用いて、画像データを取得した時刻をRAM40に記憶する。このため、ジェスチャーの速度を正確に測定することができる。従って、中心位置の軌跡や移動距離が同じ場合であっても、ジェスチャーの速度に応じて異なるコマンドを用意することができる。
また、ジェスチャーの中心位置を検出することで、ジェスチャー動作を容易に捉えることができる。
次に、ジェスチャーのパターンが「パターン5」である場合の、パターンマッチングとコマンド処理について説明する。
図12Aは、動きブロックの中心位置が検出された直後の画像を示す図である。図12A、図12Bにおいて、太線の“○”が付されたブロックの座標が動きブロックの中心位置の座標である。図12Aに示すように、ジェスチャーの対象物が画角外から画角内に進入すると、動きブロックの中心位置が検出される。
図12Bは、動きブロックの先端位置が最も左側になったときの画像を示す図である。図12Bにおいて、太線の“△”が付されたブロックの座標が動きブロックの先端位置の座標である。図12Bに示すように、被撮像者500の手が画角内で最も左側の位置に移動したとき、動きブロックの先端位置が最も左側になる。
図12Cは、動きブロックの中心位置が検出されなくなった直後の画像を示す図である。図12Cにおいて、破線の“○”が付されたブロックの座標が最後に検出されたの中心位置の座標であり、破線の“△”が付されたブロックの座標が先端位置が最も左側になったときの先端位置の座標(以下、先端位置のピーク座標とする。)である。なお、図12Cに示すように、画角内に被撮像者500の手が残っていても、手が停止している場合は、手が画角外に外れたときと同じように、動きブロックの中心位置が検出されなくなる。
動きブロックの中心位置が検出されなくなってから1秒が経過し、停止後タイマが1秒以上になると、CPU20は、軌跡検出(ステップS76)後、パターンのマッチングを行う(ステップS77)。前述のように、「中心位置の軌跡」は右→左→右であり、「中心位置の移動距離」は画角の1/20以上であるため、パターン5の条件を満たす。
ここで、「移動時間」が3秒未満である場合は、CPU20は、現在表示している画像を拡大表示する。具体的には、CPU20は、ハードディスク60に記憶されている現在表示している画像に対応する画像データをもとに、先端位置のピーク座標を中心にして拡大した画像に対応する画像データを作成する。そして、CPU20は、作成した画像データを、出力バッファ80に転送することにより、プロジェクタ300がスクリーン400に投影する画像を、図12Dに示すような拡大画像に切り替える。
一方、「移動時間」が3秒以上である場合は、CPU20は、画像を切り替えない。
上述のように、本発明の実施の形態に係るジェスチャー認識装置100は、ジェスチャーの先端位置を検出することで、コマンドのパターンの自由度を広げることができる。
なお、この発明は上記実施例に限定されず、種々の変形及び応用が可能である。
上記実施の形態では、1ブロック当たりの画素数Mを縦方向8画素×横方向8画素=64としたが、ブロックのサイズは任意である。例えば、より小さい動きを検出したい場合は、ブロックのサイズを小さくし(例えば、縦方向4画素×縦方向4画素)、より速い動きを検出したい場合は、ブロックのサイズを大きくする(例えば、縦方向16画素×縦方向16画素)。
また、上記実施の形態では、動き量Xの閾値を、輝度の差分の自乗の平均値算出(ステップS43)で算出した輝度の差分を自乗した値の平均値(Σ(ΔB/N)に、1ブロック当たりの画素数Mを乗じた値(Σ(ΔB/N×M)とした。しかし、動き量Xの閾値は、上述の閾値をさらに定数K倍した値(Σ(ΔB/N×M×K)や、輝度の差分の絶対値の平均値に1ブロック当たりの画素数Mを乗じた値(Σ|ΔB|/N×M)等、画面全体の輝度の変化量に応じて求められる他の値としてもよい。
また、上記実施の形態では、動き量Xの閾値を、演算により求めていたが、画面全体の輝度の変化量に応じて適切な閾値を選択するようにしてもよい。この場合、複数の閾値を候補値としてあらかじめハードディスク60等に記憶しておけばよい。
また、上記実施の形態では、動き量Xの閾値を、画面全体の輝度の変化量に応じて求めていたが、画面全体の動きの激しさが予測できる場合は、閾値を固定値としてもよい。この場合、閾値をあらかじめハードディスク60等に記憶しておけばよい。
また、上記実施の形態では、動きブロック数の多い矩形範囲を1つのみ設定したが、矩形範囲は2つ以上設定してもよい。また、動きブロック数の多い範囲として設定する形は、矩形に限られず、ジェスチャー対象物の形状に合わせて、例えば、円形、楕円形、四角形でない多角形など任意の形状にすることができる。
上記実施の形態では、カメラ200から供給された全てのフレーム画像について処理する例を示した。しかし、撮像する際のフレームレートがジェスチャー認識装置の処理速度に対して高速である場合は、間引きしたフレーム画像に対して処理するようにしてもよい。
また、本発明は、上述したジェスチャーのパターンやコマンドは上述の例に限定されず、任意に設定することが可能である。
さらに、本発明は、上述した構成例やフローチャートに示される手順に限定されないことは勿論である。
本発明の実施の形態に係るジェスチャー認識装置が適用されるシステムの構成図である。 本発明の実施の形態に係るジェスチャー認識装置の機能ブロック図である。 図1に示すジェスチャー認識装置のジェスチャー認識処理の一例を示すフローチャートである。 図3のフローチャートに示す閾値設定処理の一例を示すフローチャートである。 図3のフローチャートに示す連続ノイズ除去処理の一例を示すフローチャートである。 図3のフローチャートに示す微少ノイズ除去処理の一例を示すフローチャートである。 微少ノイズの除去処理を説明するための図である。 図3のフローチャートに示すパターン検出処理の一例を示すフローチャートである。 動きブロックの中心位置の検出方法を説明するための図である。 動きブロックの先端位置の検出方法を説明するための図である。 ジェスチャーのパターンの一例を示す図である。 パターン1とのマッチング処理を説明するための図である。 パターン1とのマッチング処理を説明するための図である。 パターン1とのマッチング処理を説明するための図である。 パターン1のコマンド処理を説明するための図である。 パターン1のコマンド処理を説明するための図である。 パターン1のコマンド処理を説明するための図である。 パターン5とのマッチング処理を説明するための図である。 パターン5とのマッチング処理を説明するための図である。 パターン5とのマッチング処理を説明するための図である。 パターン5のコマンド処理を説明するための図である。
符号の説明
10 バス
20 CPU(Central Processing Unit)
30 ROM(Read Only Memory)
40 RAM(Random Access Memory)
50 I/O(Input Output)部
60 ハードディスク
70 入力バッファ
80 出力バッファ
90 タイマカウンタ
100 ジェスチャー認識装置
110 画像入力部
120 時刻取得部
121 撮像時刻取得部
130 認識条件設定部
131 閾値設定部
140 動き量検出部
150 動きブロック検出部
160 特定ブロック検出部
161 連続ノイズ除去部
162 微少ノイズ除去部
170 ジェスチャー認識部
171 中心位置検出部
172 先端位置検出部
173 軌跡検出部
174 パターンマッチング部
180 コマンド処理部
190 画像出力部
200 カメラ
210 撮像部
300 プロジェクタ
310 投影部
400 スクリーン
500 被撮像者

Claims (10)

  1. 撮像した対象の動作に基づくジェスチャーを認識するジェスチャー認識装置において、
    ジェスチャーの認識条件を設定する認識条件設定手段と、
    撮像された画像を複数の領域に分割した分割領域毎に、分割領域内の各画素の輝度の変化量に基づいて動き量を検出する動き量検出手段と、
    前記動き量検出手段により検出された動き量が所定の閾値以上である分割領域を動き領域として検出する動き領域検出手段と、
    前記動き領域検出手段により検出された動き領域が、ジェスチャーの認識に採用すべき特定領域であるか否かを判別する特定領域判別手段と、
    少なくとも、前記特定領域判別手段により特定領域であると判別された動き領域と、前記認識条件設定手段により設定されたジェスチャーの認識条件とに基づいて、ジェスチャーを認識するジェスチャー認識手段と、
    を備える、ことを特徴とするジェスチャー認識装置。
  2. 前記認識条件設定手段は、前記所定の閾値を設定する閾値設定手段を備え、
    前記動き領域検出手段は、前記動き量検出手段により検出された動き量が前記閾値設定手段により設定された閾値以上である分割領域を動き領域として検出する、
    ことを特徴とする請求項1に記載のジェスチャー認識装置。
  3. 前記閾値設定手段は、順次撮像された画像の各画素の輝度の変化量に基づいて閾値を設定する、
    ことを特徴とする請求項2に記載のジェスチャー認識装置。
  4. 前記動き量検出手段は、分割領域内の各画素の輝度の変化量を自乗した値の総和を動き量として検出する、
    ことを特徴とする請求項1に記載のジェスチャー認識装置。
  5. 前記特定領域判別手段は、前記動き領域検出手段により所定時間以上継続して検出された動き領域を前記特定領域であると判別しない、
    ことを特徴とする請求項1に記載のジェスチャー認識装置。
  6. 前記特定領域判別手段は、前記動き領域検出手段により複数の動き領域が検出された場合に、前記動き領域検出手段により検出された動き領域のうち、前記複数の動き領域を含む所定の領域に含まれる動き領域を前記特定領域であると判別する、
    ことを特徴とする請求項1に記載のジェスチャー認識装置。
  7. 前記特定領域判別手段により特定領域であると判別された動き領域が複数存在する場合に、該特定領域であると判別された複数の動き領域の画像内の位置から、画像内におけるジェスチャーの動きの中心の位置を検出する中心位置検出手段、をさらに備え、
    前記ジェスチャー認識手段は、前記中心位置検出手段により検出された中心の位置に基づいてジェスチャーを認識する、
    ことを特徴とする請求項1に記載のジェスチャー認識装置。
  8. 撮像された複数の画像からジェスチャーの動きの方向を判別する動き方向判別手段と、
    前記特定領域判別手段により特定領域であると判別された動き領域が複数存在する場合に、該特定領域であると判別された複数の動き領域のうち、前記中心位置検出手段により検出された動きの中心位置を基準として、前記動き方向判別手段により判別されたジェスチャーの動きの方向の最も離れた位置に存在する動き領域を検出する先端位置検出手段と、をさらに備え、
    前記ジェスチャー認識手段は、前記先端位置検出手段により検出された最も離れた位置に存在する動き領域の画像内の位置に基づいてジェスチャーを認識する、
    ことを特徴とする請求項7に記載のジェスチャー認識装置。
  9. 順次撮像された画像の撮像時刻を取得する撮像時刻取得手段、をさらに備え、
    前記ジェスチャー認識手段は、前記撮像時刻取得手段により取得された画像の撮像時刻に基づいて、前記特定領域判別手段により継続して前記動き領域が特定領域であると判別された時間を求め、該求められた時間に応じたジェスチャーとして認識する、
    ことを特徴とする請求項1に記載のジェスチャー認識装置。
  10. 撮像した対象の動作に基づくジェスチャーを認識するジェスチャー認識方法において、
    ジェスチャーの認識条件を設定する認識条件設定ステップと、
    撮像された画像を複数の領域に分割した分割領域毎に、分割領域内の各画素の輝度の変化量に基づいて動き量を検出する動き量検出ステップと、
    前記動き量検出ステップで検出された動き量が所定の閾値以上である分割領域を動き領域として検出する動き領域検出ステップと、
    前記動き領域検出ステップで検出された動き領域が、ジェスチャーの認識に採用すべき特定領域であるか否かを判別する特定領域判別ステップと、
    少なくとも、前記特定領域判別ステップで特定領域であると判別された動き領域と、前記認識条件設定ステップで設定されたジェスチャーの認識条件とに基づいて、ジェスチャーを認識するジェスチャー認識ステップと、
    を備える、ことを特徴とするジェスチャー認識方法。
JP2007230846A 2007-09-05 2007-09-05 ジェスチャー認識装置及びジェスチャー認識方法 Active JP4992618B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007230846A JP4992618B2 (ja) 2007-09-05 2007-09-05 ジェスチャー認識装置及びジェスチャー認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007230846A JP4992618B2 (ja) 2007-09-05 2007-09-05 ジェスチャー認識装置及びジェスチャー認識方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012102198A Division JP5278576B2 (ja) 2012-04-27 2012-04-27 ジェスチャー認識装置、ジェスチャー認識方法及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2009064199A true JP2009064199A (ja) 2009-03-26
JP4992618B2 JP4992618B2 (ja) 2012-08-08

Family

ID=40558737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007230846A Active JP4992618B2 (ja) 2007-09-05 2007-09-05 ジェスチャー認識装置及びジェスチャー認識方法

Country Status (1)

Country Link
JP (1) JP4992618B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010033158A (ja) * 2008-07-25 2010-02-12 Sony Corp 情報処理装置及び情報処理方法
WO2011158599A1 (ja) * 2010-06-14 2011-12-22 株式会社セガ ビデオゲーム装置、ビデオゲーム制御プログラム、ビデオゲーム制御方法
EP2458528A2 (en) 2010-11-26 2012-05-30 Sony Corporation Image processing apparatus and method, and program
JP4980486B1 (ja) * 2011-06-14 2012-07-18 株式会社ナナオ 動き画像領域判定装置またはその方法
JP5192597B1 (ja) * 2012-04-03 2013-05-08 株式会社ナナオ 動き画像領域判定装置またはその方法
JP2013254251A (ja) * 2012-06-05 2013-12-19 Nec System Technologies Ltd ヘッドマウントディスプレイ装置、制御方法、及びプログラム
JP2013255062A (ja) * 2012-06-06 2013-12-19 Fujitsu Ltd 被写体追跡装置、被写体追跡方法及び被写体追跡用コンピュータプログラム
JP2014142664A (ja) * 2014-04-17 2014-08-07 Seiko Epson Corp プロジェクターおよび制御方法
JP2014535098A (ja) * 2011-10-14 2014-12-25 サムスン エレクトロニクス カンパニー リミテッド イベント基盤ビジョンセンサを用いた動作認識装置及び方法
KR101803574B1 (ko) * 2011-07-06 2017-12-28 엘지디스플레이 주식회사 비젼 기반의 제스쳐 인식 시스템
KR101870292B1 (ko) * 2011-08-26 2018-06-25 엘지디스플레이 주식회사 사용자 제스처 인식 방법 및 장치와, 이를 사용하는 전기 사용 장치
JP2021176093A (ja) * 2018-05-04 2021-11-04 グーグル エルエルシーGoogle LLC 自動化されたアシスタントのための視覚的な手掛かりの選択的検出

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102662029B1 (ko) 2016-08-01 2024-05-03 삼성전자주식회사 이벤트 신호 처리 방법 및 그 방법을 수행하는 이벤트 기반 센서

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002170121A (ja) * 2000-12-04 2002-06-14 Sony Corp 画像処理装置および方法、並びに記録媒体
JP2005250708A (ja) * 2004-03-03 2005-09-15 Nippon Telegr & Teleph Corp <Ntt> 道具動作認識装置および道具動作認識方法
JP2006068314A (ja) * 2004-09-02 2006-03-16 Sega Corp 背景画像取得プログラム、ビデオゲーム装置、背景画像取得方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2006235771A (ja) * 2005-02-23 2006-09-07 Victor Co Of Japan Ltd 遠隔操作装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002170121A (ja) * 2000-12-04 2002-06-14 Sony Corp 画像処理装置および方法、並びに記録媒体
JP2005250708A (ja) * 2004-03-03 2005-09-15 Nippon Telegr & Teleph Corp <Ntt> 道具動作認識装置および道具動作認識方法
JP2006068314A (ja) * 2004-09-02 2006-03-16 Sega Corp 背景画像取得プログラム、ビデオゲーム装置、背景画像取得方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2006235771A (ja) * 2005-02-23 2006-09-07 Victor Co Of Japan Ltd 遠隔操作装置

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010033158A (ja) * 2008-07-25 2010-02-12 Sony Corp 情報処理装置及び情報処理方法
JP4609543B2 (ja) * 2008-07-25 2011-01-12 ソニー株式会社 情報処理装置及び情報処理方法
US9442601B2 (en) 2008-07-25 2016-09-13 Sony Corporation Information processing apparatus and information processing method
WO2011158599A1 (ja) * 2010-06-14 2011-12-22 株式会社セガ ビデオゲーム装置、ビデオゲーム制御プログラム、ビデオゲーム制御方法
US9492748B2 (en) 2010-06-14 2016-11-15 Kabushiki Kaisha Sega Video game apparatus, video game controlling program, and video game controlling method
EP2458528A2 (en) 2010-11-26 2012-05-30 Sony Corporation Image processing apparatus and method, and program
RU2592457C2 (ru) * 2011-06-14 2016-07-20 ЭЙДЗО Корпорейшн Устройство для идентификации области движущегося изображения и способ
JP5006479B1 (ja) * 2011-06-14 2012-08-22 株式会社ナナオ 動き画像領域判定装置またはその方法
JP4980486B1 (ja) * 2011-06-14 2012-07-18 株式会社ナナオ 動き画像領域判定装置またはその方法
WO2012172706A1 (ja) * 2011-06-14 2012-12-20 株式会社ナナオ 動き画像領域判定装置またはその方法
US9311557B2 (en) 2011-06-14 2016-04-12 Eizo Corporation Motion image region identification device and method thereof
AU2011371064B2 (en) * 2011-06-14 2015-04-16 Eizo Corporation Motion image region identification device and method thereof
KR101803574B1 (ko) * 2011-07-06 2017-12-28 엘지디스플레이 주식회사 비젼 기반의 제스쳐 인식 시스템
KR101870292B1 (ko) * 2011-08-26 2018-06-25 엘지디스플레이 주식회사 사용자 제스처 인식 방법 및 장치와, 이를 사용하는 전기 사용 장치
US9389693B2 (en) 2011-10-14 2016-07-12 Samsung Electronics Co., Ltd. Apparatus and method for recognizing motion by using an event-based vision sensor
JP2014535098A (ja) * 2011-10-14 2014-12-25 サムスン エレクトロニクス カンパニー リミテッド イベント基盤ビジョンセンサを用いた動作認識装置及び方法
WO2013150689A1 (ja) * 2012-04-03 2013-10-10 Eizo 株式会社 動き画像領域判定装置またはその方法
AU2012376388B2 (en) * 2012-04-03 2015-06-25 Eizo Corporation Moving image region determination device and method thereof
US9332161B2 (en) 2012-04-03 2016-05-03 Eizo Corporation Moving image region determination device and method thereof
JP5192597B1 (ja) * 2012-04-03 2013-05-08 株式会社ナナオ 動き画像領域判定装置またはその方法
JP2013254251A (ja) * 2012-06-05 2013-12-19 Nec System Technologies Ltd ヘッドマウントディスプレイ装置、制御方法、及びプログラム
JP2013255062A (ja) * 2012-06-06 2013-12-19 Fujitsu Ltd 被写体追跡装置、被写体追跡方法及び被写体追跡用コンピュータプログラム
JP2014142664A (ja) * 2014-04-17 2014-08-07 Seiko Epson Corp プロジェクターおよび制御方法
JP2021176093A (ja) * 2018-05-04 2021-11-04 グーグル エルエルシーGoogle LLC 自動化されたアシスタントのための視覚的な手掛かりの選択的検出
JP7268093B2 (ja) 2018-05-04 2023-05-02 グーグル エルエルシー 自動化されたアシスタントのための視覚的な手掛かりの選択的検出

Also Published As

Publication number Publication date
JP4992618B2 (ja) 2012-08-08

Similar Documents

Publication Publication Date Title
JP4992618B2 (ja) ジェスチャー認識装置及びジェスチャー認識方法
JP5278576B2 (ja) ジェスチャー認識装置、ジェスチャー認識方法及びそのプログラム
CN112217998B (zh) 拍摄装置、信息处理装置及其控制方法、存储介质
US20170076465A1 (en) Image processing apparatus and image processing method
US9639759B2 (en) Video processing apparatus and video processing method
JP2018005881A (ja) 顔検出追跡方法、ロボットヘッドの回動制御方法、及びロボット
JP2013030134A (ja) 認識装置、方法及びプログラム
US9286669B2 (en) Image processing apparatus, image processing method and program
JP2008009849A (ja) 人物追跡装置
CN110297545B (zh) 手势控制方法、手势控制装置和系统、以及存储介质
US10740907B2 (en) Moving body tracking method, moving body tracking device, and program
JP2013215549A (ja) 画像処理装置、画像処理プログラムおよび画像処理方法
JP2012238293A (ja) 入力装置
US11145068B2 (en) Image-processing apparatus, image-processing system, image-processing method, and storage medium
JP2008250772A (ja) 移動物体追跡装置
US9842260B2 (en) Image processing apparatus and image processing method of performing image segmentation
US20190141253A1 (en) Monitoring system
JP6229554B2 (ja) 検出装置および検出方法
JP2009237951A (ja) プレゼンテーションシステム
US20130265420A1 (en) Video processing apparatus, video processing method, and recording medium
US10824237B2 (en) Screen display control method and screen display control system
JP2000081950A (ja) 画像処理装置、画像処理方法、及び提供媒体、並びにプレゼンテーションシステム
US20180088741A1 (en) Information processing apparatus, method of controlling the same, and storage medium
JP5951966B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP2021056899A (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120410

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120423

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4992618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150