JP5668005B2 - ジェスチャ認識装置及びそのプログラム - Google Patents

ジェスチャ認識装置及びそのプログラム Download PDF

Info

Publication number
JP5668005B2
JP5668005B2 JP2012062398A JP2012062398A JP5668005B2 JP 5668005 B2 JP5668005 B2 JP 5668005B2 JP 2012062398 A JP2012062398 A JP 2012062398A JP 2012062398 A JP2012062398 A JP 2012062398A JP 5668005 B2 JP5668005 B2 JP 5668005B2
Authority
JP
Japan
Prior art keywords
gesture
point
area
locus
gesture recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012062398A
Other languages
English (en)
Other versions
JP2013196339A (ja
Inventor
良輔 青木
良輔 青木
雅行 井原
雅行 井原
小林 透
透 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012062398A priority Critical patent/JP5668005B2/ja
Publication of JP2013196339A publication Critical patent/JP2013196339A/ja
Application granted granted Critical
Publication of JP5668005B2 publication Critical patent/JP5668005B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

この発明は、例えばテレビジョン受信機や録画再生装置に対し離れた場所からチャネル情報や制御情報等を入力するために用いる、指又は腕の動きによるジェスチャを認識するジェスチャ認識装置及びそのプログラムに関する。
テレビジョン受信機に取り付け可能なカメラや赤外線距離センサを備える電子機器が安価に簡単に手に入るようになり、リモートコントローラを使わずに、手もしくは指のジェスチャによってテレビジョン受信機のメニュー項目を選択する方式が提案されている。このジェスチャ入力方式は、例えばユーザの指の動きをカメラを用いて撮像し、この撮像された画像データからユーザの指の動作軌跡を表す図形をパターン認識処理により認識して、この認識結果をもとにメニュー等のポインティングを行うものとなっている(例えば非特許文献1を参照)。
青木 良輔、唐津 豊、井原 雅行、前田 篤彦、渡部 智樹、小林 稔、鏡 慎吾:"大型ディスプレイ上のメニュー選択に適したカメラによる一筆書きジェスチャインタフェース"、ヒューマンインタフェース学会研究報告集2010,VOL.12,NO.9,35-42.
ところで、ユーザのジェスチャにより描かれた図形を認識するには、描画された図形の形状と、図形の描画方向をそれぞれ判定する必要がある。そこで、非特許文献1に記載された一筆書きジェスチャインタフェースでは、ジェスチャの開始から終了までに得られた一筆書き図形を描いた指の各座標の重心を計算してその重心とジェスチャ検知領域の角度を計算し、この計算された角度に応じて方向を決定する手法を用いている。しかし、ユーザにより描く図形の大きさや形状、位置が異なるため、上記手法ではユーザが意図する図形の方向を検出できない場合がある。
この発明は上記事情に着目してなされたもので、その目的とするところは、ユーザがジェスチャにより描く図形の大きさや形状、位置に個人差があっても、描画される図形の描画方向をより簡単にかつ正確に判定できるようにしたジェスチャ認識装置を提供することにある。
上記目的を達成するためにこの発明の1つの観点は、ジェスチャにより空間に図形を描く動きを撮像してその画像データを出力する撮像装置と、上記撮像装置から出力された画像データをもとに上記ジェスチャにより描かれた図形を認識するジェスチャ認識装置とを具備するシステムで使用される上記ジェスチャ認識装置にあって、先ず上記撮像装置から画像データが取り込まれるごとに、当該画像データから上記ジェスチャによる描画点の位置情報を検出し、この検出された描画点の位置情報をもとに描画点の初期位置を検出してこの初期位置を含む終始点入力検出領域を設定する。そして、上記検出された描画点の位置情報をもとに、描画点が上記終始点入力検出領域内から領域外に出たのち当該終始点入力検出領域内に戻るまでの描画点の軌跡を検出する。次に、上記終始点入力検出領域の中心を通過する方向判定軸を少なくとも一つ設定し、この方向判定軸により分割される複数の描画領域のうち上記検出された描画点の軌跡を構成する複数の描画点が最も多く含まれる描画領域を選択し、上記終始点入力検出領域の中心に対する上記選択された描画領域の方向を上記描画点の軌跡の描画方向と判定する。そして、上記検出された描画点の軌跡の形状と、上記判定された描画点の軌跡の描画方向とに基づいて、上記ジェスチャにより描かれた図形を認識するようにしたものである。
したがってこの発明の1つの観点によれば、終始点入力検出領域の中心を通過する方向判定軸により分割される複数の描画領域のうち、描画点の軌跡を構成する複数の描画点が最も多く含まれる描画領域の方向が、ジェスチャにより描かれた図形の描画方向と判定される。このため、分割された領域ごとに描画点数を計数してその計数値を比較するだけのきわめて簡単な処理により、図形の描画方向を判定することが可能となる。また、単純に分割領域ごとの描画点の数をもとに描画方向が判定されるので、ユーザが描く図形の大きさや形状、位置に個人差があっても、その影響を受けることなく描画方向の判定をより正確に行うことができる。
また、この発明の1つの観点は以下のような態様を備えることも特徴とする。すなわち、上記描画方向判定手段が描画方向を判定する際に、先ず上記終始点入力検出領域の中心を通過する第1の方向判定軸を設定して、この第1の方向判定軸により分割される2つの描画領域のうち上記描画点の軌跡を構成する複数の描画点が多く含まれる描画領域を選択する。そして、上記描画点の軌跡を構成する描画点の総数に対する上記選択された描画領域に含まれる描画点の数の割合が予め設定したしきい値以上か未満かを判定する。この判定の結果、上記割合がしきい値未満の場合には、上記終始点入力検出領域の中心位置で上記第1の方向判定軸と交叉する第2の方向判定軸を設定して、この第2の方向判定軸により分割される2つの描画領域のうち上記描画点の軌跡を構成する複数の描画点が多く含まれる描画領域を選択し、上記第1及び第2の選択手段により選択された描画領域の中から上記描画点の軌跡を構成する複数の描画点が多く含まれる描画領域を選択して、この選択された描画領域の方向を上記描画点の軌跡の描画方向と判定する。一方、上記割合がしきい値以上と判定された場合には、上記第2の方向判定軸を用いた処理を行わずに、上記第1の方向判定軸を用いた処理により選択された描画領域の方向を上記描画点の軌跡の描画方向と判定するようにしたものである。
したがって、描画方向を判定する際に、先ず第1の方向判定軸により分割される2つの描画領域のうち描画点が多く含まれる描画領域が選択され、この選択された描画領域に含まれる描画点の数の割合がしきい値未満の場合に、さらに第2の方向判定軸により分割される2つの描画領域のうち描画点が多く含まれる描画領域が選択され、その結果を加味して上記描画点の軌跡の描画方向が判定される。これに対し、描画点の割合がしきい値以上あれば、上記第2の方向判定軸を用いた処理は行われず、上記第1の方向判定軸を用いた処理により選択された描画領域の方向が上記描画点の軌跡の描画方向と判定される。このため、第1の方向判定軸を用いた処理の結果によっては、常に第1及び第2の方向判定軸を用いた判定処理を行う場合に比べ、処理量を減らして判定時間を短縮することが可能となる。
すなわち、この発明の1つの観点によれば、ユーザがジェスチャにより描く図形の大きさや形状、位置に個人差があっても、描画される図形の描画方向をより簡単にかつ正確に判定できるようにしたジェスチャ認識装置を提供することができる。
この発明の第1の実施形態に係わるジェスチャ認識装置を含むシステムの概略構成図。 図1にジェスチャ認識装置として示した情報処理装置の機能構成を示すブロック図。 図2に示した情報処理装置による全体の処理手順と処理内容を示すフローチャート。 図3に示したフローチャートにおける一筆書きジェスチャ認識機能のON/OFF切替処理の処理手順と処理内容を示すフローチャート。 図3に示したフローチャートにおける一筆書きジェスチャ認識処理の処理手順と処理内容を示すフローチャート。 ジェスチャ機能ONのためのユーザの操作例を示す図。 ジェスチャ機能OFFのためのユーザの操作例を示す図。 ジェスチャ検知の流れを示す図。 ジェスチャにより描かれた一筆書き図形の方向識別動作を説明するための図。 認識対象となる一筆書き図形の例を示す図。
以下、図面を参照してこの発明に係わる実施形態を説明する。
[一実施形態]
(構成)
図1は、この発明の一実施形態に係わるジェスチャ認識装置を用いた情報入力システムの概略構成図である。このシステムは、テレビジョン受信機2にカメラ4を装着すると共に、テレビジョン受信機2に情報処理装置3を接続したものとなっている。カメラ4は、ユーザ1の指の動きを用いたジェスチャを撮像し、その撮像画像データをUSBケーブルを介してテレビジョン受信機2へ出力する。なお、ユーザ1の指先には、指先の動きをより認識し易くするために例えばLED(Light Emitting Diode)を用いた発光マーカ6が装着される。
情報処理装置3は、ジェスチャ認識装置としての機能を備えたもので、以下のように構成される。図2は、情報処理装置3の機能構成を示すブロック図である。情報処理装置3は、ジェスチャ認識処理を行うために必要な機能として、指の位置検出ユニット10と、データベース20と、一筆書きジェスチャ認識処理ユニット30と、リアルタイム処理発生ユニット40と、表示画面処理ユニット50を備えている。
データベース20は、記憶媒体として例えばハードディスク又はNAND型フラッシュメモリを使用したもので、この発明を実施するために必要な記憶領域として、カメラ画像蓄積部21と、一筆書き図形蓄積部22と、操作内容データベース23と、表示画像・映像蓄積部24と、指位置蓄積部25を有している。
カメラ画像蓄積部21は、指の位置検出ユニット10によりカメラ4から取得された画像データを記憶するために用いられる。指位置蓄積部25は、カメラ画像蓄積部21に蓄積された画像データから検出された指の指示位置と、当該画像データを撮像した時刻とを関連付けて格納するために用いられる。一筆書き図形蓄積部22には、一筆書き図形の認識に用いる一筆書き図形のモデルが予め格納されている。操作内容データベース23には、認識されたジェスチャの種類と方向に対応する操作内容を表す情報が予め格納されている。表示画像・映像蓄積部24には、上記操作内容データベース23に格納された操作内容を表す情報に対応付けて、表示画面に表示する画像や映像のデータが予め格納されている。
リアルタイム処理発生ユニット40は、タイマを使用して、例えば16msecごとにイベント信号を発行する機能を有する。
指の位置検出ユニット10はカメラ画像取得部11を備え、上記リアルタイム発生ユニット40によりイベント信号が発行されるごとに、カメラ4から画像データを取得して、この画像データを上記カメラ画像蓄積部21に記憶させる機能を有する。
一筆書きジェスチャ認識処理ユニット30は、一筆書きジェスチャ認識機能ON/OFF切替部310と、一筆書きジェスチャ認識処理部320を備えている。
このうち、先ず一筆書きジェスチャ認識機能ON/OFF切替部310は、指位置検出部311と、一筆書きジェスチャ認識機能ON/OFF判断部312を有する。指位置検出部311は、上記カメラ画像蓄積部21に格納された画像データからマーカ5の描画点の位置座標、つまりユーザの指の指示位置を検出し、この検出された描画点の位置座標を上記指位置蓄積部25に格納する。
一筆書きジェスチャ認識機能ON/OFF判断部312は、以下の処理機能を有している。
(1) 一筆書きジェスチャ認識処理部320の機能がOFFに設定されている状態で、カメラ4による撮像範囲、つまりジェスチャの認識領域内に、ジェスチャの始点判定領域(ジェスチャ開始領域)を設定する。そして、上記指位置検出部311により検出された発光マーカ5の描画点が上記ジェスチャ開始領域内に存在するか否かを判定し、存在すると判定された場合に上記一筆書きジェスチャ認識処理部320の機能をONに設定すると共に、ジェスチャの終点を検出するための検出ゾーン(Detection zone)を上記ジェスチャの認識領域内に設定する機能。
(2) ジェスチャ認識処理部320の機能がONに設定されている状態で、上記指位置検出部311により検出された発光マーカ5の描画点が上記ジェスチャ認識領域の外に出たか否かを判定し、ジェスチャ認識領域の外に出たことが検出された場合に、上記一筆書きジェスチャ認識処理部の機能をONからOFFに遷移させる機能。
次に、一筆書きジェスチャ認識処理部320は、一筆書きジェスチャ入力判断部321と、一筆書き図形の方向識別部322と、一筆書き図形識別部323を有している。
一筆書きジェスチャ入力判断部321は、一筆書きジェスチャ認識処理部320の機能がONの状態で、上記画像データから検出される描画点が上記ジェスチャ開始領域内に入ったことが検出されたときの位置座標をジェスチャの開始点として検出する。また、上記描画点がジェスチャ開始領域外に出たのち上記検出ゾーン内に戻ったとき、このときの描画点の位置座標をジェスチャの終了点として検出する。
一筆書き図形の方向識別部322は、以下の処理機能を有している。
(1) 上記ジェスチャの終了点が検出された場合に、上記検出ゾーン内の中心点を通過する垂直判定軸をジェスチャ認識領域内に設定する。そして、この垂直判定軸により左右に分割される各領域のうち、上記ジェスチャによる描画点がジェスチャ開始領域外に出たのち上記検出ゾーン内に戻るまでの軌跡を構成する描画点が多く含まれる領域を選択する処理。
(2) 上記描画点の軌跡を構成する描画点の総数に対する、上記選択された側の領域に含まれる描画点の数の割合が、予め設定したしきい値以上か未満かを判定する処理。
(3) 上記割合がしきい値未満と判定された場合に、上記検出ゾーンの中心点を通過する水平判定軸を設定する。そして、この水平判定軸により上下に分割される各領域のうち、上記軌跡を構成する描画点が多く含まれる領域を選択する処理。
(4) 上記(1) の処理により選択された左右いずれかの領域に含まれる描画点の数と、上記(3) の処理により選択された上下いずれかの領域に含まれる描画点の数とを比較し、描画点の数が多い領域を選択する。そして、この選択された左、右、上又は下いずれかの領域の方向を上記ジェスチャによる描画方向と判定する処理。
(5) 一方、上記割合がしきい値以上と判定された場合に、上記(3) 及び(4) による水平軸を用いた処理を行わずに、上記(1) により選択された左領域又は右領域の方向を上記ジェスチャによる描画方向と判定する処理。
一筆書き図形識別部323は、上記描画点がジェスチャ開始領域外に出たのち上記検出ゾーン内に戻るまでの軌跡、つまりジェスチャにより描かれた図形の形状を表す情報を、上記一筆書き図形蓄積部22に記憶された一筆書き図形モデルと照合することで、上記ジェスチャにより描かれた図形の種類を識別する。
表示画面処理ユニット50は表示画面処理部51を有する。表示画面処理部51は、上記一筆書き図形の方向識別部322及び一筆書き図形識別部323によりそれぞれ識別されたジェスチャ図形の描画方向と図形の種類をもとに、操作内容データベース23から対応する操作内容を表す情報を読出す。そして、この読み出された操作内容を表す情報をもとに、表示画像・映像蓄積部24から対応する画像や映像の表示データを読出し、この表示データをもとにテレビジョン受信機2の表示画面を更新する。
なお、上記指の位置検出ユニット10、一筆書きジェスチャ認識処理ユニット30、リアルタイム処理発生ユニット40及び表示画面処理ユニット50の各処理機能は、図示しないプログラムメモリに格納されたアプリケーション・プログラムを中央処理ユニット(Central Processing Unit:CPU)に実行させることにより実現される。
(動作)
次に、以上のように構成された情報処理装置3による、ジェスチャを用いた入力情報の認識動作を説明する。
図3は、その全体の処理手順と処理内容を示すフローチャートである。なお、ここではテレビジョン受信機2のディスプレイに電子番組案内(Electronic Program Guide:EPG)情報を表示させ、このEPG情報に対しユーザ1がジェスチャにより番組の選択操作を行う場合を例にとって説明する。
(1)リアルタイムイベント発生処理
ジェスチャ入力モードが設定されると、ステップS10によりリアルタイム処理発生ユニット40が起動し、タイマの計時時間Tが予め設定された時間、例えば16msecになるごとにステップS11においてイベント信号が発生される。すなわち、ジェスチァ入力モードでは16msec周期でイベント信号が発生される。なお、タイマの計時時間Tはイベント信号が発生されるごとにステップS12でリセットされる。
(2)指位置の検出処理
上記リアルタイム処理発生ユニット40からイベント信号が発生されると、先ずステップS20において指の位置検出ユニット10が起動し、そのカメラ画像取得部11の制御の下で、カメラ4により撮像されたユーザ1の画像データが取り込まれてカメラ画像蓄積部21に記憶される。
そして、上記カメラ画像蓄積部21に新たな画像データが記憶されると、図4に示すステップS311において、上記画像データ中から発光マーカ5の輝点画像を検出する処理が行われる。そして、この検出された輝点画像の画像データ中の重心位置を示す座標が、ユーザ1の指の位置を表す描画点として指位置蓄積部25に記憶される。以上の処理は上記16msec周期で繰り返し行われ、この結果上記指位置蓄積部25にはユーザ1の指の位置を表す描画点の位置座標の集合が、ユーザ1がジェスチャにより描いた図形を示すデータとして記憶される。なお、このときカメラ4の絞り値(F値)を大きく設定して受光光量を制限することで、発光マーカ5の光のみを検出しやすくするとよい。
(3)一筆書きジェスチャ認識機能のON/OFF切替処理
上記指位置蓄積部25に新たな指位置座標が記憶されるごとに、ステップS30のステップS31において一筆書きジェスチャ認識処理ユニット30の一筆書きジェスチャ認識機能ON/OFF切替部310が起動され、この一筆書きジェスチャ認識機能ON/OFF切替部310の制御の下で以下のような処理が実行される。図4中のステップS312はその処理手順と処理内容を示すフローチャートである。
(3−1)一筆書きジェスチャ認識機能をONする場合
先ずステップS3121により一筆書きジェスチャ認識処理部320の機能がONであるか否かが判定される。そして、ここではまだONになっていないのでステップS3125に移行し、カメラ4による撮像範囲、つまりジェスチャの認識領域内に、ジェスチャの始点判定領域(ジェスチャ開始領域)を設定する。
例えば図6(a)に示すように、ジェスチャの認識領域Cの中央にジェスチャ開始領域E1を設定する。そして、上記指位置検出処理(ステップS311)により検出された発光マーカ5の描画点の位置座標が上記ジェスチャ開始領域E1内に存在するか否かを判定する。この状態で、ユーザ1が指の位置を動かし、これにより図6(a)に示すように描画点の位置座標P0が上記ジェスチャ開始領域E1内に入ると、ステップS3126により上記一筆書きジェスチャ認識部320の機能をONに設定する。またそれと共に、ステップS3127により図6(b)に示すようにジェスチャの終点を検出するために検出ゾーン(Detection zone)E2を上記ジェスチャの認識領域C内に設定する。
このとき、検出ゾーンE2のサイズはジェスチャ開始領域E1より大きなサイズに設定される。このようにすると、ユーザ1によるユーザの指の位置が検出ゾーンE2内に戻った後に、震えなどにより当該検出ゾーンE2の境界付近で位置ずれを起こしたとしても、このときの指の位置座標、つまり終点の位置を、終点判定領域としての検出ゾーンE2内に安定的に留めることが可能となる。このため、検出ゾーンE2の境界上でいわゆるチャタリングのような現象が発生しても、これにより後述する描画の終了判定(入力判定)において誤認識が発生しないようにすることができる。
(3−2)一筆書きジェスチャ認識機能をOFFする場合
上記一筆書きジェスチャ認識機能がONとなった状態で、ユーザ1がジェスチャによるテレビジョン受信機2の操作を一旦中止するべく、指の位置を例えば図7(a)のL2に示すようにカメラ4の撮像範囲外、つまりジェスチャの認識領域Cの外へ移動させたとする。そうすると、一筆書きジェスチャ認識機能ON/OFF切替部310は、ステップS3121により一筆書きジェスチャ認識処理部320の機能がONであるか否かを判定し、ここではONになっているのでステップS3122に移行する。そして、指位置検出処理(ステップS311)により検出された発光マーカ5の描画点の位置座標が、上記ジェスチャの認識領域Cの外に出たか否かを判定する。
この判定の結果、図7(a)のL2に示すように、発光マーカ5の描画点の位置座標が上記ジェスチャの認識領域Cの外に出ると、ステップS3123により一筆書きジェスチャ認識処理部320の機能をOFFに遷移させる。かくして、ユーザ1は指の位置をカメラ4の撮像範囲外へ移動させるだけで、一筆書きジェスチャ認識機能をOFFに戻すことができる。
なお、一筆書きジェスチャ認識機能がOFFに復帰すると、次の16msec経過後のイベント信号発生時に、ステップS3125において図7(b)に示すようにジェスチャの認識領域C内にジェスチャ開始領域E1が設定される。すなわち、一筆書きジェスチャ認識機能がOFFになると、消去された検出ゾーンE2の代わりにそれよりも小さいジェスチャ開始領域E1が再設定される。
(4)一筆書きジェスチャ認識処理
上記一筆書きジェスチャ認識機能がONとなった状態で、一筆書きジェスチャ認識処理部320は以下のようにジェスチャの認識処理を実行する。図5はその処理手順と処理内容を示すフローチャート、図8(a)〜(c)はジェスチャによる描画点の移動軌跡を示す図である。
すなわち、先ずステップS321において一筆書きジェスチャ入力判断部321が起動し、この一筆書きジェスチャ入力判断部321の制御の下で、ユーザ1の指に装着された発光マーカ5による描画点が上記検出ゾーンE2内に入ったか否かをステップS3211により判定する。そして、図8(b)に示すように描画点がまだ上記検出ゾーンE2内に入っていなければ、ステップS3214によりジェスチャ入力受付中か否かを示すジェスチャフラグ(Gesture Flag)を“TRUE”に設定し、引き続きイベントが発生するごとに描画点が検出ゾーンE2内に入るか否かを監視する処理を繰り返す。
(4−1)一筆書き図形の描画方向の識別
さて、この状態でユーザ1の指に装着された発光マーカ5による描画点が、例えば図8(c)に示すように上記検出ゾーンE2内に入ったことが検出されたとする。そうすると、ステップS3212によりジェスチャフラグが“TRUE”になっていることを確認した後、先ずステップS322により一筆書き図形の方向識別処理を実行する。
この一筆書き図形の方向識別処理は以下のように行われる。図9(a)〜(c)はこの図形の描画方向識別処理を説明するための図である。
すなわち、描画点が図9(a)のP3に示すように検出ゾーンE2内に入ったことが検出されると、先ず図9(b)に示すように上記検出ゾーンE2内の中心点P1を通過する垂直判定軸Vをジェスチャ認識領域C内に設定する。そして、上記ジェスチャによる描画点がジェスチャ開始領域E1外に出たのち上記検出ゾーンE2内に戻るまでの軌跡Lを構成する複数の描画点r1,r2,…,rnが、上記垂直判定軸Vにより左右に分割された各領域の何れに含まれるかをカウントする。そして、左領域に含まれる描画点の数と右領域に含まれる描画点の数とを比較し、描画点の数が多い方の領域を描画方向の判定候補として選択する。
次に、上記描画点の軌跡Lを構成する各描画点r1,r2,…,rnの総数nに対する、上記選択された右又は左の領域に含まれる描画点の数の割合を計算する。そして、この計算された描画点の割合を予め設定したしきい値と比較し、しきい値以上か未満かを判定する。
上記比較の結果、割合がしきい値未満の場合には、図9(c)に示すように上記検出ゾーンE2の中心点P1を通過する水平判定軸Hをジェスチャ認識領域C内に設定する。そして、上記軌跡Lを構成する各描画点r1,r2,…,rnが、上記水平判定軸Hにより上下に分割された各領域の何れに含まれるかをカウントする。そして、上領域に含まれる描画点の数と下領域に含まれる描画点の数とを比較し、描画点の数が多い方の領域を描画方向の判定候補として選択する。
続いて、先に垂直判定軸Vを用いて判定候補として選択された左右いずれかの領域に含まれる描画点の数と、上記水平判定軸Hを用いて判定候補として選択された上下いずれかの領域に含まれる描画点の数とを比較し、描画点の数が多い領域を選択する。そして、上記検出ゾーンE2の中心点P1に対する、上記選択された領域の方向を上記ジェスチャによる図形の描画方向と判定する。例えば図9の例では、水平判定軸Hに対し上側の領域に含まれる描画点の数が最も多いので、上方向を上記ジェスチャによる図形の描画方向と判定する。
一方、上記割合がしきい値以上と判定されたとする。この場合には、上記水平判定軸Hを用いた判定候補の選択処理を行わずに、上記垂直判定軸Vを用いて判定候補として選択された左右いずれかの領域の方向を、上記ジェスチャによる図形の描画方向と判定する。このようにすると、常に垂直判定軸Vと水平判定軸Hの両方を用いて図形の描画方向と判定する場合に比べ、処理量を減らして描画方向の判定処理に要する時間を短縮することができる。
(4−2)一筆書き図形の形状の識別
次にステップS323により一筆書き図形識別処理を実行する。この一筆書き図形識別処理は、指位置蓄積部25に記憶された指位置座標の集合を読み出し、この指位置座標の集合により表される指の軌跡、つまりジェスチャにより描かれた図形の形状を、一筆書き図形蓄積部22に記憶された一筆書き図形モデルと照合することで識別する。
そして、上記ジェスチャにより描かれた図形の描画方向及び図形形状の識別処理が終了すると、ステップS3213によりジェスチャフラグ(Gesture Flag)を“False”にリセットする。
(5)表示画面の更新処理
上記一筆書きジェスチャによる図形の描画方向及び図形形状の認識処理が終了すると、ステップS40において表示画像処理ユニット50が起動され、この表示画像処理ユニット50の制御の下で、表示画像の更新処理が以下のように行われる。
すなわち、上記一筆書き図形の方向識別部322及び一筆書き図形識別部323によりそれぞれ識別されたジェスチャ図形の描画方向及び図形形状の種類をもとに、操作内容データベース23から対応する操作内容を表す情報が読出される。そして、この読み出された操作内容を表す情報をもとに、表示画像・映像蓄積部24から対応する画像や映像の表示データが読出され、この表示データをもとにテレビジョン受信機2の表示画面が更新される。
(一実施形態の作用効果)
以上詳述したように本実施形態では、ジェスチャにより描かれた図形の描画方向を識別する際に、以下のような処理を行っている。すなわち、先ず検出ゾーンE2内の中心点を通過する垂直判定軸Vをジェスチャ認識領域C内に設定して、この垂直判定軸Vにより左右に分割される各領域のうち上記ジェスチャによる描画点の軌跡Lを構成する描画点r1,r2,…,rnが多く含まれる領域を選択する。そして、上記描画点の軌跡Lを構成する描画点r1,r2,…,rnの総数nに対する上記選択された領域に含まれる描画点の数の割合を算出してしきい値と比較し、上記割合がしきい値未満と判定された場合には、上記検出ゾーンE2の中心点を通過する水平判定軸Hを設定して、この水平判定軸Hにより上下に分割される各領域のうち上記軌跡Lを構成する描画点r1,r2,…,rnが多く含まれる領域を選択する。そして、上記垂直判定軸Vを用いて選択した左右いずれかの領域に含まれる描画点の数と、上記水平判定軸Hを用いて選択した上下いずれかの領域に含まれる描画点の数とを比較し、描画点の数が多い領域を選択し、この選択された左、右、上又は下いずれかの領域の方向を上記ジェスチャによる描画方向と判定する。
したがって、検出ゾーンE2の中心点を通過する垂直判定軸V又は水平判定軸Hにより分割される領域ごとに、軌跡Lの描画点の数を計数してその計数値を比較するだけのきわめて簡単な処理により、ジェスチャにより描かれた図形の描画方向を判定することが可能となる。また、単純に分割領域ごとの描画点の数をもとに描画方向が判定されるので、ユーザが描く図形の大きさや形状、位置に個人差があっても、その影響を受けることなく描画方向の判定をより正確に行うことができる。
また本実施形態では、上記割合がしきい値以上と判定された場合に、水平判定軸Hを用いた判定候補の選択処理を行わずに、上記垂直判定軸Vを用いて判定候補として選択された左右いずれかの領域の方向を、上記ジェスチャによる図形の描画方向と判定するようにしている。このようにすると、描画方向が左右の何れの方向の場合には、水平判定軸Hを用いて図形の描画方向と判定する処理を省略することができ、これにより処理量を減らして描画方向の判定処理に要する時間を短縮することができる。
[他の実施形態]
なお、この発明は上記実施形態に限定されるものではない。例えば、前記一実施形態では先ず垂直判定軸Vを用いた描画方向の判定を行い、続いて水平判定軸Hを用いた描画方向の判定を行うようにしたが、反対に先ず水平判定軸Hを用いた描画方向の判定を行い、続いて垂直判定軸Vを用いた描画方向の判定を行うようにしてもよい。
また、前記一実施形態では垂直判定軸V及び水平判定軸Hを用いて描画方向が左右、上下の何れの方向であるかを判定するようにしたが、垂直判定軸V及び水平判定軸Hの代わりに水平及び垂直軸に対し斜め45度の角度を持つ2つの軸を用いて判定したり、上記垂直判定軸V及び水平判定軸Hと斜め45度の角度を持つ2つの軸からなる、互いに45度の角度差を有する4つの軸を用いて描画方向を判定するようにしてもよい。このようにすると、ジェスチャによる描かれる図形の描画方向を45度間隔でさらに細かく判定することが可能となる。
さらに、認識対象の図形としては、図10(a)に示す上方向に描いた「円」以外に、図10(b)〜(h)に示すように描画方向及び描画形状の異なる種々の図形を含めることができる。その他、描画方向を判定するために使用する軸の本数や角度、描画方向を判定するための処理手順及び処理内容等についても、この発明の要旨を逸脱しない範囲で種々変形して実施可能である。
要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
1…ユーザ、2…テレビジョン受信機、3…情報処理装置、4…カメラ、5…発光マーカ、10…指の位置検出ユニット、11…カメラ画像取得部、20…データベース、21…カメラ画像蓄積部、22…一筆書き図形蓄積部、23…操作内容データベース、24…表示画像・映像蓄積部、25…指位置蓄積部、30…一筆書きジェスチャ認識処理ユニット、310…一筆書きジェスチャ認識機能ON/OFF切替部、311…指位置検出部、312…一筆書きジェスチャ認識機能ON/OFF判断部、313…ジェスチャ機能強制終了部、320…一筆書きジェスチャ認識処理部、321…一筆書きジェスチャ入力判断部、322…一筆書き図形の方向識別部、323…一筆書き図形識別部、40…リアルタイム処理発生ユニット、50…表示画面処理ユニット、51…表示画面処理部。

Claims (3)

  1. ジェスチャにより空間に図形を描く動きを撮像してその画像データを出力する撮像装置と、前記撮像装置から出力された画像データをもとに前記ジェスチャにより描かれた図形を認識するジェスチャ認識装置とを具備するシステムで使用される前記ジェスチャ認識装置であって、
    前記撮像装置から出力された画像データを取り込む手段と、
    前記画像データが取り込まれるごとに当該画像データから前記ジェスチャによる描画点の位置情報を検出する手段と、
    前記検出された描画点の位置情報をもとに描画点の初期位置を検出し、この検出された描画点の初期位置を含む終始点入力検出領域を設定する手段と、
    前記検出された描画点の位置情報をもとに、描画点が前記終始点入力検出領域内から領域外に出たのち当該終始点入力検出領域内に戻るまでの描画点の軌跡を検出する手段と、
    前記終始点入力検出領域の中心を通過する方向判定軸を少なくとも一つ設定し、この方向判定軸により分割される複数の描画領域のうち前記検出された描画点の軌跡を構成する複数の描画点が最も多く含まれる描画領域を選択し、前記終始点入力検出領域の中心に対する前記選択された描画領域の方向を前記描画点の軌跡の描画方向と判定する描画方向判定手段と、
    前記検出された描画点の軌跡の形状と、前記判定された描画点の軌跡の描画方向とに基づいて、前記ジェスチャにより描かれた図形を認識する手段と
    を具備することを特徴とするジェスチャ認識装置。
  2. 前記描画方向判定手段は、
    前記終始点入力検出領域の中心を通過する第1の方向判定軸を設定し、この第1の方向判定軸により分割される2つの描画領域のうち前記描画点の軌跡を構成する複数の描画点が多く含まれる描画領域を選択する第1の選択手段と、
    前記描画点の軌跡を構成する描画点の総数に対する前記選択された描画領域に含まれる描画点の数の割合が、予め設定したしきい値以上か未満かを判定する割合手段と、
    前記割合がしきい値未満と判定された場合には、前記終始点入力検出領域の中心位置で前記第1の方向判定軸と交叉する第2の方向判定軸を設定し、この第2の方向判定軸により分割される2つの描画領域のうち前記描画点の軌跡を構成する複数の描画点が多く含まれる描画領域を選択する第2の選択手段と、
    前記第1及び第2の選択手段により選択された描画領域の中から前記描画点の軌跡を構成する複数の描画点が多く含まれる描画領域を選択し、この選択された描画領域の方向を前記描画点の軌跡の描画方向と判定する第1の判定手段と、
    前記割合がしきい値以上と判定された場合には、前記第2の選択手段及び複合判定手段による処理を行わずに、前記第1の選択手段により選択された描画領域の方向を前記描画点の軌跡の描画方向と判定する第2の判定手段と
    を備えることを特徴とする請求項1記載のジェスチャ認識装置。
  3. 請求項1又は請求項2に記載のジェスチャ認識装置が備える各手段の処理をコンピュータに実行させるプログラム。
JP2012062398A 2012-03-19 2012-03-19 ジェスチャ認識装置及びそのプログラム Active JP5668005B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012062398A JP5668005B2 (ja) 2012-03-19 2012-03-19 ジェスチャ認識装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012062398A JP5668005B2 (ja) 2012-03-19 2012-03-19 ジェスチャ認識装置及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2013196339A JP2013196339A (ja) 2013-09-30
JP5668005B2 true JP5668005B2 (ja) 2015-02-12

Family

ID=49395211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012062398A Active JP5668005B2 (ja) 2012-03-19 2012-03-19 ジェスチャ認識装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP5668005B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5873766B2 (ja) * 2012-06-19 2016-03-01 日本電信電話株式会社 情報入力装置
WO2015072150A1 (ja) * 2013-11-15 2015-05-21 パナソニックIpマネジメント株式会社 情報表示装置及び情報表示方法
JP7471999B2 (ja) 2020-11-09 2024-04-22 株式会社Nttドコモ 情報処理装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005174356A (ja) * 2000-02-01 2005-06-30 Toshiba Corp 方向検出方法
US8146020B2 (en) * 2008-07-24 2012-03-27 Qualcomm Incorporated Enhanced detection of circular engagement gesture
JP5449074B2 (ja) * 2010-07-27 2014-03-19 日本電信電話株式会社 情報入力装置

Also Published As

Publication number Publication date
JP2013196339A (ja) 2013-09-30

Similar Documents

Publication Publication Date Title
JP5264844B2 (ja) ジェスチャ認識装置及び方法
CN108845668B (zh) 人机交互系统和方法
KR101757080B1 (ko) 손위의 단일한 관심 포인트를 이용한 인간-컴퓨터 제스처 기반 동시 상호작용을 위한 방법 및 시스템
EP2891950B1 (en) Human-to-computer natural three-dimensional hand gesture based navigation method
US9030498B2 (en) Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US8166421B2 (en) Three-dimensional user interface
CN104117201B (zh) 投影式台球系统手势/球杆控制系统及其实现方法
US20140071042A1 (en) Computer vision based control of a device using machine learning
JP5740822B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR20130105725A (ko) 콘텐츠의 양 손 제어에 기반한 컴퓨터 비전
US20140118244A1 (en) Control of a device by movement path of a hand
TWI431538B (zh) 基於影像之動作手勢辨識方法及系統
US9525906B2 (en) Display device and method of controlling the display device
JP5668005B2 (ja) ジェスチャ認識装置及びそのプログラム
JP5756762B2 (ja) ジェスチャ認識装置及びそのプログラム
CN105468189A (zh) 识别多点触摸操作的信息处理装置及其控制方法
US20130229348A1 (en) Driving method of virtual mouse
JP2013080433A (ja) ジェスチャ認識装置及びそのプログラム
JP5756729B2 (ja) ジェスチャ認識装置及びそのプログラム
CN110007748B (zh) 终端的控制方法、处理装置、存储介质及终端
JP5546029B2 (ja) ジェスチャ認識装置及びそのプログラム
US20090110237A1 (en) Method for positioning a non-structural object in a series of continuing images
JP5396332B2 (ja) ジェスチャを用いた情報入力装置、方法及びプログラム
US20130187893A1 (en) Entering a command
JP5756730B2 (ja) 情報入力装置及びそのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141215

R150 Certificate of patent or registration of utility model

Ref document number: 5668005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150