JP6103875B2 - ハンドジェスチャ認識装置及びその制御方法 - Google Patents

ハンドジェスチャ認識装置及びその制御方法 Download PDF

Info

Publication number
JP6103875B2
JP6103875B2 JP2012229238A JP2012229238A JP6103875B2 JP 6103875 B2 JP6103875 B2 JP 6103875B2 JP 2012229238 A JP2012229238 A JP 2012229238A JP 2012229238 A JP2012229238 A JP 2012229238A JP 6103875 B2 JP6103875 B2 JP 6103875B2
Authority
JP
Japan
Prior art keywords
hand
image
area
hand gesture
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012229238A
Other languages
English (en)
Other versions
JP2014081788A (ja
JP2014081788A5 (ja
Inventor
新井 常一
常一 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012229238A priority Critical patent/JP6103875B2/ja
Publication of JP2014081788A publication Critical patent/JP2014081788A/ja
Publication of JP2014081788A5 publication Critical patent/JP2014081788A5/ja
Application granted granted Critical
Publication of JP6103875B2 publication Critical patent/JP6103875B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は操作者のハンドジェスチャを認識し、該当する処理を行う技術に関するものである。
近年、3次元の多種多様なセンシング技術が開発され、操作者の手の動きを指示操作として認識し、情報操作を行う装置が開発されている。TV等の家電にその技術を利用すると、リモコン無しに離れた所から操作を行うことが実現できる。
ただし、多くの家庭では、複数人が存在するし、狭い空間であれば隣り合って座って居る場合も多い。係る点に鑑み、複数人の空間ジェスチャを取り扱う技術を開示したものとして以下に示す文献がある。
特許文献1のジェスチャ認識方法では、複数の被写体を全方位視覚センサにより撮像し、当該撮像の結果を画像処理装置において人物範囲内を3×3に等分割する。そして、各々の被写体を含む画像に分割し、当該分割した画像から時間差分画像を取得するステップに引き渡すことで認識を行っている。
特許第3784474号公報
しかし、特許文献1のジェスチャ認識方法では、各ユーザが隣り合っている場合など、ジェスチャの手の動きが隣に干渉する状況において、認識が困難になる場合があった。
本発明は係る問題に鑑みなされたものであり、複数のユーザが存在したとしても、それぞれのユーザのハンドジェスチャを高い精度で認識する技術を提供しようとするものである。
この課題を解決するため、例えば本発明のハンドジェスチャ認識装置は以下の構成を備える。すなわち、
撮像手段で時系列に撮像された画像中の、少なくとも1人のユーザの顔領域を検出する顔検出手段と、
前記顔検出手段で検出された顔領域それぞれに対し、予め定義された顔領域との相対的位置情報が示す前記画像中の領域を、該顔領域に対応するユーザが行うハンドジェスチャを検出するための検出領域として決定する決定手段と、
前記撮像手段で時系列に撮像された画像のうち、前記決定手段によって決定される1以上の検出領域内で検出されるユーザの手の移動軌跡に基づいて、前記ユーザが行うハンドジェスチャを認識する認識手段と、
前記撮像手段で時系列に撮像された画像のうち、前記決定手段によって決定される1以上の検出領域内で検出されるユーザの手の時系列の画像を保持する保持手段と、
前記保持手段に保持されている、前記撮像手段で時系列に撮像された画像のうち前記検出領域内で検出される前記ユーザの手の画像のうち、前記検出領域の外部から前記検出領域の内部に侵入することが検出された手の画像を、前記保持手段から削除する削除手段とを備え、
前記認識手段は、前記検出領域内から検出される前記ユーザの手の画像の移動軌跡のうち、前記検出領域の外部から内部に侵入する移動の軌跡は、前記ハンドジェスチャを認識する処理の対象とせず、
前記認識手段は、前記保持手段に保持されている前記ユーザの手の時系列の画像に基づいて、前記移動軌跡を認識し、
前記認識手段は、前記削除手段による削除処理の結果、前記保持手段に保持されている前記ユーザの手の時系列の画像に基づいて、前記移動軌跡を認識することを特徴とする。
本発明によれば、複数のユーザが存在したとしても、それぞれのユーザのハンドジェスチャを高い精度で認識することが可能になる。
実施形態における使用形態を表す図。 実施形態における情報機器のブロック図。 実施形態例の処理構成図。 検出した顔領域とハンドジェスチャのハンドジェスチャ開始領域を表す図。 ハンドジェスチャとハンドジェスチャ開始領域の関係を表した概念図。 ハンドジェスチャ開始領域決定処理のフローチャート。 ハンドジェスチャ開始領域調整処理のフローチャート。 ジェスチャデータを選別する処理のフローチャート。 ハンドジェスチャ開始領域調整処理時の調整前と調整後を表わした概念図。 第2の実施形態の処理構成図。 第2の実施形態の表示例を示す図。 ハンドジェスチャ開始領域表示処理のフローチャート。 第3の実施形態の処理構成図。 第3の実施形態の処理内容を示す図。 ハンドジェスチャ画像検出補正処理のフローチャート。 補間処理のフローチャートである。 画像削除と補間処理を説明するための図。 画像削除と補間処理を説明するための図。 画像削除と補間処理を説明するための図。
以下、添付図面に従って本発明に係る実施形態を詳細に説明する。
[第1の実施形態]
図1は実施形態の装置の使用形態を表している。図中、1は、撮像手段としてのカメラ部でありTV画面の上に設置され、時系列(予め設定されたフレームレート)に撮像した画像中のユーザの動きを捕える事ができる。2は本実施形態のデバイスが組み込まれているTVである。ユーザが行うハンドジェスチャをカメラ部で撮影し、その手の動きをコマンドとして認識し、TVのリモコン代わりに、チャンネルを変えたり、2画面にしたり操作を行う。3と4はソファに座っているユーザを表している。本実施形態では、2人のユーザが座った状態で、TV2をハンドジェスチャで操作する例を表している。
図2は本発明実施形態の情報処理機器のブロック図である。本装置は、表示部5、カメラ部6、ハードディスク、CPU8、RAM9、ROM10、及び、それらを接続するバス11を有する。なお、実施形態における装置は、ユーザのハンドジェスチャの検出とその処理内容に特徴があるので、図示では、TV2として機能するための回路(例えばチューナ等の回路)は示していない。
表示部5は、一般的な表示部で、液晶表示素子、液晶制御回路、表示メモリから構成され、システムバス11経由でCPU8に接続している。そして。CPU8からの指示で、画像の表示や文字の表示が実行される。この表示部5はデジタルに制御可能な一般的な表示装置で構わない。
カメラ部6は、一般的なものでよく、CCD等のセンサ、レンズ、撮影画像メモリから構成され、システムバス11経由でCPU8に接続している。そして、CPU8からの指示で、レンズをズームしたり、画像を撮影したり、撮影された画像をRAM9に転送したりする。
ハードディスク7は、TV番組等の録画データを記録するためのものである。CPU8は、システムバス11を介して、RAM9、ROM10、ハードディスク7等と接続されていて、ROM10に記憶されているプログラムによって処理動作を行う。RAM9は、CPU8のワークエリアとして使われる。
図3は、本実施形態の装置の機能構成図である。個々の機能は、幾つかのハードウェア資源とCPU8が実行するプログラムによって実現するものである。
ハンドジェスチャ画像記録部12は、カメラ部6と、そのカメラ部6を使った処理プログラムで構成されている。このハンドジェスチャ画像記録部12は、複数ユーザのハンドジェスチャ画像を検出し、そのハンドジェスチャ画像をハンドジェスチャ画像制御部14に送る。
ハンドジェスチャ開始領域決定部13は、カメラ部6で撮影した画像内から顔の画像を検出し、顔の画像の位置を基に、各ユーザ毎に、ハンドジェスチャ開始領域(検出領域)を決定する処理を行う。この処理を、検出したユーザの人数分を行う。ハンドジェスチャ開始領域が複数存在し、各ハンドジェスチャ開始領域が隣接する場合、隣接するハンドジェスチャ開始領域の位置を基にハンドジェスチャ開始領域のサイズを調整する処理を行う。そして、決定したハンドジェスチャ開始領域情報を、ハンドジェスチャ画像制御部14に送る。以下、注目するハンドジェスチャ開始領域においてジェスチャを認識する対象となるユーザをターゲットと呼ぶ。
ハンドジェスチャ画像制御部14は、着目する検出領域内で検出した手の移動を記録した画像の中から、その領域外からその領域の内側に入って、出て行った手の画像を取り除く処理を行う。各ユーザは、各ハンドジェスチャ開始領域内で、ハンドジェスチャ操作を行う。ハンドジェスチャ画像制御部14は、当該領域の対象ではないユーザの手の動きや、外乱光等によるノイズ画像を取り除く処理を行う。ハンドジェスチャ画像制御部14は、着目検出領域に対し、その外から着目検出領域内に入った画像(その後、領域外に出たかは問わない)を判別する削除画像判定部14aと、判別された画像を削除する指定画像削除部14bで構成される。処理の詳細はフローチャートに沿って後述する。
ハンドジェスチャ認識部15は、撮影された手の動きから特徴量を抽出し、ハンドジェスチャ辞書の特徴量とマッチングを行い、一番近いハンドジェスチャコマンドを認識結果として出力する。例えば、手を回転させる動作をジェスチャ辞書に、TVの音量を変えるジェスチャコマンドとして登録しておく。例えば、右回転を認識した場合には音量を大きくし、左回転を認識した場合には音量を小さくする。また、例えば手の上下の動きをジェスチャコマンドとして登録し、手の上昇の動作でTVのチャンネルの番号を加算し、手の下降の動作でTVのチャンネルの番号を減算する。この様にジェスチャ辞書にジェスチャコマンドを登録する事により、手の操作でTVを操作する機器を実現する。そして、ハンドジェスチャ認識部15は、認識されたハンドジェスチャに応じた制御処理(チャネル変更、ボリューム変更等)を行うが、この処理そのものは制御対象装置に依存する。本実施形態では、制御対象装置はTVであるものとして説明を続けるが、これに限らない。
図4は、検出した顔領域と、それに応じたハンドジェスチャのハンドジェスチャ開始領域を表した概念図である。図中の符号16がユーザAとして検出した矩形の顔領域である。符号17は、ユーザBとして検出した矩形の顔領域である。符号18は、ユーザAの顔領域16を基に設定したハンドジェスチャのハンドジェスチャ開始領域(ユーザAのジェスチャの検出領域)である。符号19は、ユーザBの顔領域17を基に設定したハンドジェスチャのハンドジェスチャ開始領域(ユーザBのジェスチャの検出領域)である。
図5(A)は、ハンドジェスチャとハンドジェスチャ開始領域の関係を表した概念図である。図4と同じ符号は同じ意味である。すなわち、符号18はユーザAのハンドジェスチャのハンドジェスチャ開始領域であり、19はユーザBのハンドジェスチャのハンドジェスチャ開始領域である。20は、カメラの全画像領域を表している。21は、ユーザAのハンドジェスチャの開始位置を表している、22は、ユーザAのハンドジェスチャの終了位置を表している。23は、ユーザBの無意識の手の動きの開始点で、24は、ユーザBの無意識の手の動きの終了点を表している。この様に複数人が隣接していると、隣の人の手の動きが邪魔をする場合がある。
図5(B)は、ハンドジェスチャとハンドジェスチャ開始領域の関係を表した概念図である。図5(A) から、ユーザAのハンドジェスチャ開始領域のみに注目した時の概念図である。
図5(C)は、図5(B)の状態からハンドジェスチャ開始領域外からのハンドジェスチャ画像データ削除した後の概念図である。図5(B)で表した、23〜24の、ユーザBの手の動きは、ハンドジェスチャ開始領域外から侵入しているので、そのデータを、図3の処理部14で削除し、この様に21〜22のユーザAのハンドジェスチャの動きのみの画像データにする。
図6は、ハンドジェスチャ開始領域決定処理のフローチャートである。
ステップS6-1において、装置が起動されたことに応じて、ワーク領域等の確保と初期化が行われ、ハンドジェスチャ開始領域決定処理が開始される。
ステップS6-2において、ハンドジェスチャ開始領域決定部13は、カメラ画像から少なくとも一人のユーザの顔検出を行う。まず、図4で表したような画像がカメラ部6で、撮影される。撮影された画像から肌色で、ある大きさ以上の楕円形の領域を抽出すれば、顔の候補領域は検出できる。検出した領域から画像特徴量を抽出し、顔辞書とマッチングを取ればより確からしい顔領域を検出できる。図4の符号16,17のような顔領域が検出される。検出した顔領域の矩形情報をステップS6-3に渡す。
ステップS6-3において、ハンドジェスチャ開始領域決定部13が、顔の矩形領域位置と大きさ情報とそれぞれの顔の矩形領域位置とサイズから、予め設定された相対的位置に各ハンドジェスチャ開始領域を決定する。図4の例だと、顔領域16の位置からハンドジェスチャ開始領域18が決定される。例えば、顔の領域から顔の高さ2個分下で、縦が顔の高さと同一、横が顔の横の1.5倍等に決定する。この値は、例であり、実際のハンドジェスチャの動きを複数人サンプリングして決定する様にする。また、学習処理等をいれ、誤認識が多ければ自動的に補正する様にしても良い。
ステップS6-4において、ハンドジェスチャ開始領域決定部13が、各ハンドジェスチャ開始領域をX軸でソートする処理を行う。図4の例だと、顔領域17を検出した後に、顔領域16を検出した場合、ユーザBの人の後に、ユーザAの人が来た場合でも、ハンドジェスチャ開始領域の矩形をX軸でソートする事により、同じ順番で処理を行える。
ステップS6-5において、ハンドジェスチャ開始領域決定部13が、1ハンドジェスチャ開始領域のデータを読み込む処理を行う。例えば、図4の例と、顔領域16のデータを読み込む。次にまたこのステップに来る場合は、顔領域17のデータを読み込む。
ステップS6-6において、ハンドジェスチャ開始領域決定部13が、ハンドジェスチャ開始領域の調整処理を行う。詳細は、図7のフローチャートで説明する。例えば、図9で表した様に、顔の位置で設定したハンドジェスチャ開始領域23と24のハンドジェスチャ開始領域が一部重なっている。それを調整する事により、領域25,26のように分離した位置に設定する様にする。初めから離れた位置であれば、調整する必要はないので、この処理はスキップされる。
ステップS6-7において、ハンドジェスチャ開始領域決定部13が、全ハンドジェスチャ開始領域の処理が終わったかをチェックする。顔検出したユーザが2人いれば、2つのハンドジェスチャ開始領域をチェックし、3人いれば、3つのハンドジェスチャ開始領域をチェックする。
ステップS6-8において、ハンドジェスチャ開始領域決定処理は終了する。ハンドジェスチャ開始領域決定部13が、決定したハンドジェスチャ開始領域の情報をハンドジェスチャ画像制御部14に送る。
図7は、ハンドジェスチャ開始領域調整処理のフローチャートである。この処理は、先に説明したステップS6−6の詳細な処理の説明を表している。
ステップS7-1において、ハンドジェスチャ開始領域決定部13が、ハンドジェスチャ開始領域調整処理を開始する。
ステップS7-2において、ハンドジェスチャ開始領域決定部13が、ターゲットのハンドジェスチャ画像のハンドジェスチャ開始領域をセットする。図9の例であれば、矩形領域23の座標値Xmin、Xmax、Ymin、Ymaxがセットされる。
ステップS7-3において、ハンドジェスチャ開始領域決定部13が、隣接するハンドジェスチャ開始領域をセットする。図9の例であれば、矩形領域24の座標をセットする。この実施形態の説明では、2個のハンドジェスチャ開始領域が対象であるが、3個の場合であれば、真ん中のデータを調整する場合は、左隣、右隣の隣接するデータをセットして調整する。ここでは、RXmin、RXmax、RYmin、RYmaxがセットされる。
ステップS7-4において、Xmax>RXminでXmax<RXmaxであるかがチェックされ、条件に合致すればステップS7-5に進み、そうでなければステップS7-7に進む。図9の例であれば、領域23は、その右側が隣接しているので、ステップS7-5に進み、右側の枠を修正する。
隣接するハンドジェスチャ開始領域がX軸方向に重なる場合、その重なりの値をDXで表す。
ステップS7-5において、ハンドジェスチャ開始領域決定部13が、領域の横幅DXの設定を行う。ここではDX=RXmin-Xmaxとする。ステップS7-6において、新たなXmaxの値を設定する。Xmax=Xmax-DXとする。
ステップS7-7において、Xmin<RXmaxでXmin>RXminであるかがチェックされる。条件に合致すればステップS7-8に進み、そうでなければステップS7-10に進み処理を終わる。図9の例であれば、領域24は、左側が隣接しているので、ステップS7-8に進み、左側の枠を修正する。
ステップS7-8において、ハンドジェスチャ開始領域決定部13が、域の横幅DXの設定を行う。DX=RXmin-Xminとする。ステップS7-9において、新たなXminの値を設定する。Xmin=Xmin+DXとする。このフローチャートでは横の調整処理を説明したが、場合によっては、縦の調整処理が発生する場合があるが、それはXをYに置き換えた調整処理になる。
ステップS7-10において、ハンドジェスチャ開始領域調整処理を終了する。
図8は、ハンドジェスチャ開始領域を基にジェスチャデータを選別する処理のフローチャートである。
ステップS8-1において、ハンドジェスチャ画像制御部14が、ハンドジェスチャ開始領域を基にジェスチャデータを選別する処理を開始する。
前記のフローチャートで、ハンドジェスチャ開始領域は設定されており、ハンドジェスチャの手の画像データを、カメラ部6により取得されている状態でこの処理が呼ばれる。
ステップS8-2において、削除画像判定部14aが、ハンドジェスチャ開始領域内画像データを時系列順にバッファ領域に読み込む処理を行う。図5(B)の例であれば、手の画像21から22と、手の画像23から24までの間の、領域18内の手の画像データが読み込まれる。
ステップS8-3において、削除画像判定部14aが、ハンドジェスチャ開始領域に対し、その領域を外から中へ横切った手の画像データを検出する。図5(B)の例であれば、手の画像21から22は領域18内で完結しているのでそのままである。一方、手の画像23から24は、ハンドジェスチャ開始領域の境界領域を外から中へ横切っているので、この手の画像23〜24のデータが検出される。
ステップS8-4において、指定画像削除部14bが、前ステップで、検出した手の画像データをバッファから削除する。図5(B)の例では、検出した画像を削除し、図5(C)の状態にする。
ステップS8-5において、ハンドジェスチャ認識手段15が、バッファ内の時系列記憶画像データから一定時間経過しても動きの無い手の画像を検出する。そして、一定時間以上経過した後に動いて停止するまでの手の動きの一連の動作を一アクションとして、認識する処理を行う。図5(C)の例であれば、手の画像21がその位置で一定時間停止して、そこから右へ移動、すこしして上へ移動して、手の画像22の位置で停止している。
ステップS8-6において、ハンドジェスチャ認識手段15が、検出した停止画像から時系列の手の中心座標の移動軌跡を抽出する。ステップS8-7において、ハンドジェスチャ認識手段15が、軌跡データから特徴量を抽出する。例えば手の画像21から22の軌跡を10等分し、方向ベクトル化する。本実施形態では、方向ベクトル化は、通常方向角度360度を8等分または16等分してベクトル化する。
ステップS8-8において、ハンドジェスチャ認識手段15は、辞書の特徴量とマッチング処理を行い、ジェスチャコードを決定する処理を行う。入力データが“L”のような形で、辞書に“L”“1”の方向ベクトルデータが記憶されていれば、“L”のジェスチャコードに決定する。
ステップS8-9において、この処理を終了する。
図9は、ハンドジェスチャ開始領域調整処理時の調整前と調整後を表わした概念図である。この様に、本実施形態の処理を行うことにより、ユーザ毎にハンドジェスチャ開始領域を決定できる。各ハンドジェスチャ開始領域において、その領域の外から入って出て行く手の画像は除外してジェスチャの認識を行うため、隣り合った2人がハンドジェスチャを行っても誤認識せずに快適にTVをコントロールする様な機器を実現できる。
[第2の実施形態]
第2実施形態では、ハンドジェスチャ開始領域の領域をユーザに知らせ、ハンドジェスチャ開始領域内に手を検出した場合、ハンドジェスチャの認識が開始可能であることをユーザに明示する機構を説明する。第1実施形態では、内部処理により、ハンドジェスチャの領域を設定し、誤認識を防ぐ処理を説明した。第2の実施形態では、設定された領域をユーザに明示する事により、ユーザがジェスチャを行う位置を調整可能とし、よりわかり易く、精度の高いユーザインタフェースを提供することができる。
本第2の実施形態では、第1実施形態の構成に、ハンドジェスチャ開始領域状態表示部27を追加する事により、ハンドジェスチャ開始領域をユーザに知らせる事を実現する。
図10は、第2の実施形態の装置の機能構成図である。第1実施形態と同じ参照番号は同じ構成要素であるものとし、その説明は省略する。ハンドジェスチャ開始領域状態表示部27は、ハンドジェスチャ開始領域決定部13が決定したハンドジェスチャ開始領域をユーザに明示するため、図1のTV2の画面上にハンドジェスチャ開始領域を表わす領域情報を表示する。
図11は、第2実施形態の表示例である。TVの画面が2画面表示になっており領域28にユーザAが見ているチャンネルAの番組が表示され、領域29にユーザBが見ているチャンネルBの番組が表示されている。領域30はユーザAのハンドジェスチャ開始領域を示し、領域31がユーザBのハンドジェスチャ開始領域を示す。本実施形態でも、検出領域内で手が所定時間以上停止しているのを検出すると、ハンドジェスチャの認識処理に移行する。その際、領域30のように所定のマーク(図示では手の画像)をその枠内に表示して、現在の手の位置でジェスチャの認識が可能であることをユーザに通知する。この例では、番組の画像とハンドジェスチャ開始領域を別の位置に示したが、当然オーバレイで画像内の一部に表示する構成でも良い。又、TVの画面の額縁部分にLEDを設け、ハンドジェスチャ認識開始をLEDの点滅で知らせるようにしても良い。多色のLEDで、認識開始、認識中、認識終了を知らせるようにしても良い。
図12は、ハンドジェスチャ開始領域の領域表示処理のフローチャートである。
ステップS12-1において、ハンドジェスチャ開始領域状態表示部27が、ハンドジェスチャ開始領域の領域表示処理を開始する。
ステップS12-2において、ハンドジェスチャ開始領域調整処理で、ハンドジェスチャ開始領域決定部13が決定したハンドジェスチャ開始領域情報を読み込む。ステップS12-3において、ハンドジェスチャ開始領域状態表示部27は、カメラ部6の情報からユーザ位置を推定する。カメラの情報から撮影距離と顔の大きさとの情報からユーザの現在の位置は推定できる。ステップS12-4において、ハンドジェスチャ開始領域状態表示部27は、ユーザ位置の情報に応じた大きさを決定し、画面上に、相当する枠を表示する。その枠が、ハンドジェスチャ開始領域をユーザに示すガイドとなり、ユーザはガイド枠を見ることによりどの位置に手を持っていけばジェスチャ認識が行われるかが明確になる。
ステップS12-5において、ハンドジェスチャ開始領域状態表示部27は、全ハンドジェスチャ開始領域ガイド表示処理が終了したかのチェックを行う。図11の例であれば、2つのガイド枠を表示すれば処理は終了する。もし3人で見ていれば3つのガイド枠を表示するまで、上記の処理を繰り返す。
ステップS12-6において、カメラ部6により、ハンドジェスチャ開始領域の現在画像を読み込む処理を行う。
ステップS12-7において、ハンドジェスチャ開始領域状態表示部27は、領域内に手があるかのチェックを行う。肌色の手の大きさ状の領域を検出したら、ステップS12-8に進み、そうでなければ、ステップS12-9に進む。本実施形態では、手の大きさ状の肌色領域を検出したら、手の形状が登録された画像辞書とマッチング処理を行って、確からしさが高い場合に手であると判定するため、手の誤認識は防げる。
ステップS12-8において、ハンドジェスチャ開始領域状態表示部27が、手の表示をハンドジェスチャ開始領域ガイド表示内に表示する。カメラで撮影して検出した、肌色の画素を切り出して、それを表示する様にしてもいい。
この処理が、ハンドジェスチャスキャン開始領域内にユーザの手が存在する時に明示する部の処理である。
ステップS12-9において、ハンドジェスチャ開始領域状態表示部27は、全ハンドジェスチャ開始領域内の手のチェックが終了したかをチェックする。すべてのチェックが終了していれば、ステップS12-10に進み、そうでなければ、ステップS12-6に進む。図11の例であれば、2つのハンドジェスチャ開始領域内の手のチェックが終了したらこのステップは終了する。ステップS12-10において、このハンドジェスチャ開始領域の領域表示処理を終了する。
この様に処理を行う事により、ハンドジェスチャ開始領域の領域をユーザに知らせ、使い易い機械を実現できる。
以上、本発明の実施形態の一例について詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様を取ることが可能である。具体的には、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。
[第3の実施形態]
第3実施形態では、ハンドジェスチャ対象の手と他の手の重なりを検出し、他の手との重なりによる画像消失部分を補正する。
第1実施形態では、ユーザ毎にハンドジェスチャの領域を設定し、異なるユーザのジェスチャと混同する誤認識を防ぐ処理を説明した。その際、ターゲットのハンドジェスチャと削除するハンドジェスチャが重なる場合が存在する。カメラから見て削除するハンドジェスチャが上にあり、ターゲットのハンドジェスチャ下にある場合がある。このとき、ターゲットのジェスチャは上で行われたジェスチャに隠されて、カメラに撮像されないため、上のハンドジェスチャ画像を削除すると、空白部分が存在し、下のハンドジェスチャ画像の流れは分断される。分断された画像をそのまま認識させると、正常の画像と異なるため、認識できないか異なる認識結果を出力する。例えば“L”のような動きだとしても真ん中で分断されると、”|““_”の2つのジェスチャになる。その削除による空白部分を検出し、補正する事により、分断されたハンドジェスチャ画像の移動画像を再現し、認識させる。”|““_”を補正して“L”にする訳である。
第1実施形態の構成に、重なり検出部32と、ハンドジェスチャ画像補正部33を追加する事により、重なりによる分断画像でも正しく認識できる機器を実現する。
図13は、第3実施形態の処理構成図である。第1の実施形態と同じ参照符号は同一のものを指すものとし、その説明は省略する。
重なり検出部32は、枠外から侵入したハンドジェスチャと、ターゲットのハンドジェスチャと、領域外から侵入した異なるユーザの手によるハンドジェスチャとが交差して、ターゲットが下になったことを検出する。そして、検出時の、領域内でのジェスチャの位置情報(削除される画像領域との境界接点)を、ハンドジェスチャ画像補正部33に送る。ハンドジェスチャ画像補正部33は、削除画像領域との境界接点の4点を基に、隣の人の手によって消失したハンドジェスチャ画像を補正する。消失したハンドジェスチャ画像の補正により、2つに分かれたハンドジェスチャ画像は接続され、一連の画像になる。
図14は、第3実施形態の処理表示イメージ図である。図14(A)は、2つのジェスチャの重なり合った状態の画面例である。図14(A)のハンドジェスチャの開始領域18がターゲットハンドジェスチャの検出を行う領域であり、ハンドジェスチャ開始領域19が、隣にいるユーザのハンドジェスチャを検出する領域である。
図14(B)は、第1の実施形態の処理を実行し、領域外からのハンドジェスチャ画像を削除した後の状態の画面例である。ここで、ターゲットの手が、隣のユーザの手に隠されて撮像されない部分があったため、検出対象のユーザのハンドジェスチャ画像は、2つに分断されている。
図14(C)は、第3の実施形態の処理により、分断されていたハンドジェスチャ画像を補正した後の画面例である。
図17は、図14(A)の画面を拡大した表示例である。手の移動する領域を、手の幅の領域で表している。図示の領域35、36が、ターゲットハンドジェスチャの手が移動した領域である。領域34は、隣の人の手が移動した領域である。領域35と36は同じ手が移動した画像であるが、領域34の手のよって分断されている。
図18は、図17から領域34の隣の人の手の画像を削除した後の画面例である。点37、37、39、40の4点が、削除画像領域との境界接点である。領域35が開始位置からの領域であり、領域36が終了位置側の領域である。点41は、点37の位置に手が存在した以前に手が存在した時の位置である。例えば、カメラの撮影単位が、1秒間に30コマ撮影する物であれば、1/30秒前の位置である。点41と37を結んだ延長線上に次の手の画像が推定される。
点42は、点38の位置に手が存在した以前に手が存在した時の位置である。点43は、点39の位置に手が存在した後に手が存在した時の位置である。点44は、点40の位置に手が存在した後に手が存在した時の位置である。
図15は、削除ハンドジェスチャ画像下のハンドジェスチャ画像検出処理のフローチャートである。第1の実施形態で説明した処理により、領域外からのハンドジェスチャ画像を削除した後でこの処理が呼ばれる。図16は、空白部分を補間する処理のフローチャートである。
ステップS15-1において、重なり検出部32が、削除ハンドジェスチャ画像下のハンドジェスチャ画像検出処理を開始する。ワーク領域等を確保し、初期化を行う。第1の実施形態で説明した領域外からのハンドジェスチャ画像の削除後にその削除領域の情報がもたらされる。
ステップS15-2において、重なり検出部32が、指定画像削除部14bから、削除ハンドジェスチャ画像の領域情報を読み込む処理を行う。手の移動画像領域なので、ある幅を持った軌跡と考えれば良い。図5の例だと、開始点23から終了点24へ移動した手の移動軌跡で表された領域の情報が、XY座標点列で渡される。
ステップS15-3において、重なり検出部32が、ターゲットハンドジェスチャ始点画像から終点までの移動軌跡と削除ハンドジェスチャ画像の領域との接点を求める。ターゲットハンドジェスチャと、削除ハンドジェスチャ画像が交差している場合は、接点があるので、そこを求める。もし、ターゲットハンドジェスチャと、削除ハンドジェスチャ画像が離れている場合はこの処理は必要ないので呼ばれない。図18の例では、削除画像領域との境界接点の4点とその座標を次にように定義する。始点から削除ハンドジェスチャ画像の領域との接点の左側の点37(x1,y1)、右側の点38(x2,y2)、終点から削除ハンドジェスチャ画像の領域との接点の左側の点39(x3,y3)、右側の点40(その座標を(x4,y4)。
ステップS15-4において、重なり検出部32が、始点から接点と終点からの接点で囲まれる領域が空白であるかをチェックする。図18の例であれば、点37、38、39、40で囲まれた領域が空白であるかをチェックする。もし、隣の人の手の画像が、ターゲットの画像の影の部分に存在する場合は、この削除画像領域との境界接点の4点はそのままターゲットのハンドジェスチャ画像が存在する。
空白であれば、補正する必要があるのでステップS15-5に進み、空白でなければ、ステップS15-8に進み処理を終了する。ターゲットハンドジェスチャの画像がカメラ部6から見て上(手前)にあり、削除ハンドジェスチャ画像が下側(奥)を移動したのであれば、このステップでは、空白でないと判断される。ターゲットハンドジェスチャの画像がカメラから見て下(奥)にあり、削除ハンドジェスチャ画像が上側(手前)を移動したのであれば、下側にあった手の移動は撮影されない為に空白が生じる。
ステップS15-5において、ハンドジェスチャ画像補正部33が、空白領域の境界接点の4点をセットする。図18の例では、点37、38、39、40のXY座標点(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)が記憶される。
ステップS15-6において、ハンドジェスチャ画像補正部33が、空白部分を補間する処理を行う。詳細な処理の説明は図16のフローチャートにおいて説明する。ステップS15-7において、補間したハンドジェスチャ画像を出力する。図18で表した、領域35と36の分断されたハンドジェスチャ画像が補正され、図19の様に点37,38,39,40で囲まれた領域に、手の画像が追加され、領域35と36の手の画像が1つのハンドジェスチャ画像に補正された画像を出力する。
そのジェスチャを認識すれば、“」”ジェスチャと認識できる。分断したままだと、“_”“|”の2つにわかれているので正しく認識できない。ステップS15-8において、処理を終了し、ワーク領域等を解放する。
次にステップS15-6の処理内容を、図16のフローチャートに従い説明する。
ステップS16-1において、ハンドジェスチャ画像補正部33は、空白部分を補間する処理を開始する。ワーク領域等を確保し、初期化する。
ステップS16-2において、ハンドジェスチャ画像補正部33は、空白領域情報として4点の座標を記憶する。図18の例の場合、点37乃至点40の座標(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)に記憶する。
ステップS16-3において、ハンドジェスチャ画像補正部33は、手の始点方向から(x1,y1)、(x2,y2)の方向角度を検出し、(x1,y1)、(x2,y2)からその方向角度に線を延長する。手の画像の中心点の100分の1秒毎の移動点の(x1,y1)、(x2,y2)に到達する前の数点から方向角度を求める。そこから同じ方向に手が移動したと推測できる。図18の例で説明すると、点37の位置の手の画像の撮影時間の1/100秒前の手の画像の位置が点41の位置である。点41から点37の方向の直線の延長が図の様な矢印になる。点38の位置の手の画像の撮影時間の1/100秒前の手の画像の位置が点42の位置である。点42から点38の方向の直線の延長が図の様な矢印になる。
ステップS16-4において、ハンドジェスチャ画像補正部33は、手の終点方向から(x3,y3)、(x4,y4)の方向角度を検出し、(x3,y3)、(x4,y4)からその方向角度に線を延長する。(x3,y3)、(x4,y4)から手の終点方向への手の画像の中心点の100分の1秒毎の移動点の数点から方向角度を求め、その逆方向を求める。逆方向から同じ方向に手が移動したと推測できるのでそのようにする。図18の例で説明すると、点39(x3,y3)の位置の手の画像の撮影時間の1/100秒後の手の画像の位置が点43の位置である。点43から点39の方向の直線の延長が図の様な矢印になる。点40(x4,y4)の位置の手の画像の撮影時間の1/100秒後の手の画像の位置が点44の位置である。点44から点40の方向の直線の延長が図の様な矢印になる。
ステップS16-5において、ハンドジェスチャ画像補正部33は、始点方向からの線と終点方向から線を中間点で接続する。そして、その線上に、(x1,y1)、(x2,y2)の位置の手の画像を撮影時間のタイミングで、同一の速度間隔で複写して、ハンドジェスチャ画像を補間する。図19の例で説明すると、点41から37の延長線と、点43から39への延長線が点45の位置で接続する。点42から38の延長線と、点44から40の延長線が点46の位置で接続する。その点37、38、46、40、39、45で囲まれた領域に、手の画像を撮影タイミングと同一の1/100秒間隔で、点37の位置の手の画像を複写して、その位置に描画してハンドジェスチャ画像を補間する。ステップS16-6において、処理を終了する。ワーク領域を解放し、ステップS15-6に進む。
この様に、処理を行う事により、ターゲットのハンドジェスチャと、削除するハンドジェスチャが重なっても、隠れてしまった画像を補間する事により再現したハンドジェスチャ画像を正しく認識する機器を実現する。
以上説明したように本実施形態によれば、複数のユーザが存在したとしても、それぞれのユーのハンドジェスチャを高い精度で認識することが可能になる。さらに、各ユーザの位置情報から決定した各ハンドジェスチャ開始領域の隣接する領域の重なりを検出し、調整する事により、より認識精度を向上させる事を実現する。また、ハンドジェスチャスキャン開始領域内にユーザの手を検出した事を明示する事により、ジェスチャ認識の開始ができる状態であることをユーザに知らせることが実現でき、操作が容易になる。追加する部はソフトウエアによって実現できるので他の検出部を追加する必要が無いためコスト的にも改善する。また、他のユーザの手により分断されたハンドジェスチャ画像でも、補正部で補正する事により認識を可能にする。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (10)

  1. 撮像手段で時系列に撮像された画像中の、少なくとも1人のユーザの顔領域を検出する顔検出手段と、
    前記顔検出手段で検出された顔領域それぞれに対し、予め定義された顔領域との相対的位置情報が示す前記画像中の領域を、該顔領域に対応するユーザが行うハンドジェスチャを検出するための検出領域として決定する決定手段と、
    前記撮像手段で時系列に撮像された画像のうち、前記決定手段によって決定される1以上の検出領域内で検出されるユーザの手の移動軌跡に基づいて、前記ユーザが行うハンドジェスチャを認識する認識手段と、
    前記撮像手段で時系列に撮像された画像のうち、前記決定手段によって決定される1以上の検出領域内で検出されるユーザの手の時系列の画像を保持する保持手段と、
    前記保持手段に保持されている、前記撮像手段で時系列に撮像された画像のうち前記検出領域内で検出される前記ユーザの手の画像のうち、前記検出領域の外部から前記検出領域の内部に侵入することが検出された手の画像を、前記保持手段から削除する削除手段とを備え、
    前記認識手段は、前記検出領域内から検出される前記ユーザの手の画像の移動軌跡のうち、前記検出領域の外部から内部に侵入する移動の軌跡は、前記ハンドジェスチャを認識する処理の対象とせず、
    前記認識手段は、前記保持手段に保持されている前記ユーザの手の時系列の画像に基づいて、前記移動軌跡を認識し、
    前記認識手段は、前記削除手段による削除処理の結果、前記保持手段に保持されている前記ユーザの手の時系列の画像に基づいて、前記移動軌跡を認識する
    ことを特徴とするハンドジェスチャ認識装置。
  2. 前記決定手段は、
    前記顔検出手段で複数のユーザの顔領域が検出され、それぞれの顔領域に対する検出領域が互いに重なる場合、重なりが無くなるようにそれぞれの検出領域のサイズを調整する手段を含む
    ことを特徴とする請求項1に記載のハンドジェスチャ認識装置。
  3. 前記認識手段は、
    前記削除手段による削除の結果、ハンドジェスチャを認識する対象の手の画像が分断されている場合、当該分断された消失部分を、分断された境界の座標に基づき補間する手段を含む
    ことを特徴とする請求項に記載のハンドジェスチャ認識装置。
  4. 前記決定手段で決定した検出領域内において、予め設定された時間が経過しても動きが無い手の画像を検出した場合、当該動きの無い手の画像を含む検出領域にて、ハンドジェスチャの認識が可能になったことを明示する明示手段を更に有することを特徴とする請求項1乃至のいずれか1項に記載のハンドジェスチャ認識装置。
  5. 撮像手段で時系列に撮像された画像中の、少なくとも1人のユーザの顔領域を検出する顔検出手段と、
    前記顔検出手段で検出された顔領域それぞれに対し、予め定義された顔領域との相対的位置情報が示す前記画像中の領域を、該顔領域に対応するユーザが行うハンドジェスチャを検出するための検出領域として決定する決定手段と、
    前記撮像手段で時系列に撮像された画像のうち、前記決定手段によって決定される1以上の検出領域内で検出されるユーザの手の移動軌跡に基づいて、前記ユーザが行うハンドジェスチャを認識する認識手段と、
    前記決定手段で決定した検出領域内において、予め設定された時間が経過しても動きが無い手の画像を検出した場合、当該動きの無い手の画像を含む検出領域にて、ハンドジェスチャの認識が可能になったことを明示する明示手段とを備え、
    前記認識手段は、前記検出領域内から検出される前記ユーザの手の画像の移動軌跡のうち、前記検出領域の外部から内部に侵入する移動の軌跡は、前記ハンドジェスチャを認識する処理の対象としないことを特徴とするハンドジェスチャ認識装置。
  6. 前記明示手段は、前記撮像手段で撮像した画像における、前記検出領域に相当する枠内に、所定のマークを表示する手段を含むことを特徴とする請求項4又は5に記載のハンドジェスチャ認識装置。
  7. ハンドジェスチャ認識装置の制御方法であって、
    顔検出手段が、撮像手段で時系列に撮像された画像中の、少なくとも1人のユーザの顔領域を検出する顔検出工程と、
    決定手段が、前記顔検出工程で検出された顔領域それぞれに対し、予め定義された顔領域との相対的位置情報が示す前記画像中の領域を、該顔領域に対応するユーザが行うハンドジェスチャを検出するための検出領域として決定する決定工程と、
    認識手段が、前記撮像手段で時系列に撮像された画像のうち、前記決定工程によって決定される1以上の検出領域内で検出されるユーザの手の移動軌跡に基づいて、前記ユーザが行うハンドジェスチャを認識する認識工程と
    保持手段が、前記撮像手段で時系列に撮像された画像のうち、前記決定工程によって決定される1以上の検出領域内で検出されるユーザの手の時系列の画像を保持する保持工程と、
    削除手段が、前記保持工程で保持されている、前記撮像手段で時系列に撮像された画像のうち前記検出領域内で検出される前記ユーザの手の画像のうち、前記検出領域の外部から前記検出領域の内部に侵入することが検出された手の画像を、前記保持工程から削除する削除工程とを備え、
    前記認識工程は、前記検出領域内から検出される前記ユーザの手の画像の移動軌跡のうち、前記検出領域の外部から内部に侵入する移動の軌跡は、前記ハンドジェスチャを認識する処理の対象とせず、
    前記認識工程は、前記保持工程で保持されている前記ユーザの手の時系列の画像に基づいて、前記移動軌跡を認識し、
    前記認識工程は、前記削除工程による削除処理の結果、前記保持工程で保持されている前記ユーザの手の時系列の画像に基づいて、前記移動軌跡を認識する
    ことを特徴とするハンドジェスチャ認識装置の制御方法。
  8. ハンドジェスチャ認識装置の制御方法であって、
    顔検出手段が、撮像手段で時系列に撮像された画像中の、少なくとも1人のユーザの顔領域を検出する顔検出工程と、
    決定手段が、前記顔検出工程で検出された顔領域それぞれに対し、予め定義された顔領域との相対的位置情報が示す前記画像中の領域を、該顔領域に対応するユーザが行うハンドジェスチャを検出するための検出領域として決定する決定工程と、
    認識手段が、前記撮像手段で時系列に撮像された画像のうち、前記決定工程によって決定される1以上の検出領域内で検出されるユーザの手の移動軌跡に基づいて、前記ユーザが行うハンドジェスチャを認識する認識工程と、
    明示手段が、前記決定工程で決定した検出領域内において、予め設定された時間が経過しても動きが無い手の画像を検出した場合、当該動きの無い手の画像を含む検出領域にて、ハンドジェスチャの認識が可能になったことを明示する明示工程とを備え、
    前記認識工程は、前記検出領域内から検出される前記ユーザの手の画像の移動軌跡のうち、前記検出領域の外部から内部に侵入する移動の軌跡は、前記ハンドジェスチャを認識する処理の対象としないことを特徴とするハンドジェスチャ認識装置の制御方法。
  9. 撮像手段を有するコンピュータに、請求項7又は8に記載の方法に記載の各工程を実行させることで、前記コンピュータをハンドジェスチャ認識装置として機能させるためのプログラム。
  10. 請求項9に記載のプログラムを記憶したことを特徴とする、コンピュータが読み込み可能な記憶媒体。
JP2012229238A 2012-10-16 2012-10-16 ハンドジェスチャ認識装置及びその制御方法 Expired - Fee Related JP6103875B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012229238A JP6103875B2 (ja) 2012-10-16 2012-10-16 ハンドジェスチャ認識装置及びその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012229238A JP6103875B2 (ja) 2012-10-16 2012-10-16 ハンドジェスチャ認識装置及びその制御方法

Publications (3)

Publication Number Publication Date
JP2014081788A JP2014081788A (ja) 2014-05-08
JP2014081788A5 JP2014081788A5 (ja) 2015-12-03
JP6103875B2 true JP6103875B2 (ja) 2017-03-29

Family

ID=50785929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012229238A Expired - Fee Related JP6103875B2 (ja) 2012-10-16 2012-10-16 ハンドジェスチャ認識装置及びその制御方法

Country Status (1)

Country Link
JP (1) JP6103875B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016015024A (ja) * 2014-07-02 2016-01-28 株式会社東芝 操作支援装置及び操作支援システム
KR102356599B1 (ko) 2014-12-05 2022-01-28 삼성전자주식회사 이미지의 관심 영역 결정 방법 및 관심 영역 결정 장치
JP2017211739A (ja) * 2016-05-24 2017-11-30 株式会社エクスビジョン ユーザインターフェース装置およびユーザインターフェースプログラム
JP7175257B2 (ja) * 2019-12-24 2022-11-18 本田技研工業株式会社 ジェスチャ検出装置、ジェスチャ検出方法、およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003230133A (ja) * 2002-02-01 2003-08-15 Hitachi Ltd 軌跡編集装置及びその方法
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US8555207B2 (en) * 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US8971565B2 (en) * 2008-05-29 2015-03-03 Hie-D Technologies, Llc Human interface electronic device
US8514251B2 (en) * 2008-06-23 2013-08-20 Qualcomm Incorporated Enhanced character input using recognized gestures
JP5618554B2 (ja) * 2010-01-27 2014-11-05 キヤノン株式会社 情報入力装置、情報入力方法及びプログラム
JP5488076B2 (ja) * 2010-03-15 2014-05-14 オムロン株式会社 対象物追跡装置、対象物追跡方法、および制御プログラム
JP2011243031A (ja) * 2010-05-19 2011-12-01 Canon Inc ジェスチャ認識装置及びジェスチャ認識方法
JP5597064B2 (ja) * 2010-08-26 2014-10-01 キヤノン株式会社 情報処理装置およびその方法
JP5604279B2 (ja) * 2010-12-08 2014-10-08 日本システムウエア株式会社 ジェスチャー認識装置、方法、プログラム、および該プログラムを格納したコンピュータ可読媒体

Also Published As

Publication number Publication date
JP2014081788A (ja) 2014-05-08

Similar Documents

Publication Publication Date Title
JP4569613B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
JP5459031B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN106774936B (zh) 人机交互方法及系统
KR20140029222A (ko) 제스처 인식 장치, 그 제어 방법, 표시 기기 및 제어 프로그램이 기록된 기록 매체
KR101627185B1 (ko) 영상촬영장치의 제어방법
KR20200124280A (ko) 동작 인식, 운전 동작 분석 방법 및 장치, 전자 기기
JP6723814B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP6103875B2 (ja) ハンドジェスチャ認識装置及びその制御方法
KR20140009054A (ko) 태블릿 단말기, 조작 접수 방법 및 조작 접수 프로그램을 기록한 기록매체
JP6123694B2 (ja) 情報処理装置、情報処理方法、及びプログラム
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP6240016B2 (ja) 追跡装置および追尾システム
JPWO2020080107A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5995217B2 (ja) 瞳孔部分を近似する楕円の検出を行う方法
JP5254897B2 (ja) 手画像認識装置
CN110610119B (zh) 影像分析方法、电子系统以及非暂态电脑可读取记录媒体
JP7401246B2 (ja) 撮像装置、撮像装置の制御方法、及びプログラム
JP2013080266A (ja) 入力装置
JP4088282B2 (ja) コンピュータ入力方法と装置
JP3862389B2 (ja) 座標入力装置及び座標入力システム及び方法及び記憶媒体
JP5229928B1 (ja) 注視位置特定装置、および注視位置特定プログラム
JP6238569B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP2019087136A (ja) 画面表示制御方法および画面表示制御システム
JP6057407B2 (ja) タッチ位置入力装置及びタッチ位置入力方法
US20180239486A1 (en) Control method, electronic blackboard system, display device, and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151013

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160905

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170228

R151 Written notification of patent or utility model registration

Ref document number: 6103875

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees