JP2012146236A - ジェスチャ入力装置 - Google Patents

ジェスチャ入力装置 Download PDF

Info

Publication number
JP2012146236A
JP2012146236A JP2011005605A JP2011005605A JP2012146236A JP 2012146236 A JP2012146236 A JP 2012146236A JP 2011005605 A JP2011005605 A JP 2011005605A JP 2011005605 A JP2011005605 A JP 2011005605A JP 2012146236 A JP2012146236 A JP 2012146236A
Authority
JP
Japan
Prior art keywords
user
gesture
finger
captured image
gesture recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011005605A
Other languages
English (en)
Other versions
JP5766957B2 (ja
Inventor
Takashi Miyoshi
貴史 三由
Akio Kosaka
明生 小坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2011005605A priority Critical patent/JP5766957B2/ja
Publication of JP2012146236A publication Critical patent/JP2012146236A/ja
Application granted granted Critical
Publication of JP5766957B2 publication Critical patent/JP5766957B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】本発明は、撮像装置からの撮像画像に基づいてジェスチャが認識される場合において、ジェスチャの誤認識を低減することが可能なジェスチャ入力装置を提供することを目的とする。
【解決手段】ユーザの身体に装着される撮像部11と、撮像部11により撮像されるユーザの手指の撮像画像に基づいて、ユーザにより行われる手指のジェスチャを認識するジェスチャ認識部12と、ジェスチャ認識部12により認識されるジェスチャに対応する動作制御指示を出力する指示出力部14と、ユーザの手指の撮像画像に基づいて実空間におけるユーザの手指の位置を求め、実空間において予め設定されるジェスチャ認識領域内にユーザの手指が存在するときのみ、指示出力部14から動作制御指示が出力されることを許可する指示出力許可部13とを備えてジェスチャ入力装置10を構成する。
【選択図】図1

Description

本発明は、ユーザにより行われるジェスチャを認識し、その認識結果を外部装置の動作を制御するための指示に変換するジェスチャ入力装置に関する。
ジェスチャ入力装置として、例えば、ユーザの頭部に装着される撮像装置によりマーカや背景を撮像し、その撮像画像に基づいてユーザにより行われるジェスチャを認識し、その認識結果によりパーソナルコンピュータなどの外部装置のGUIの表示や非表示の判定を行うものがある(例えば、特許文献1参照)。
また、他のジェスチャ入力装置として、例えば、撮像装置によりユーザの手を撮像し、その撮像画像に基づいてユーザの手形状を認識し、その認識した手形状の特徴に応じて選択メニューを表示するものがある(例えば、特許文献2参照)。
特開2009−251154号公報 特許3777650号公報
上述のように、撮像装置からの撮像画像に基づいてユーザにより行われるジェスチャを認識し、その認識結果を外部装置の動作を制御するための指示に変換するジェスチャ入力装置では、撮像装置の撮像範囲内において特定のジェスチャに類似した動作がユーザにより行われると、その動作を特定のジェスチャとして誤認識してしまう可能性がある。
例えば、「手のひらを開いて左右に振る」という動作が特定のジェスチャの1つとして登録されている場合、撮像装置の撮像範囲内において「さようなら」の挨拶のために手を振る動作がユーザにより行われると、ジェスチャ入力装置は、その動作を特定のジェスチャとして誤認識してしまう可能性がある。
そこで、本発明は、撮像装置からの撮像画像に基づいてジェスチャが認識される場合において、ジェスチャの誤認識を低減することが可能なジェスチャ入力装置を提供することを目的とする。
本発明のジェスチャ入力装置は、撮像手段と、認識手段と、指示出力手段と、指示出力許可手段とを備える。
前記撮像手段は、ユーザの身体に装着される。
前記認識手段は、前記撮像手段により撮像される前記ユーザの手指の撮像画像に基づいて、前記ユーザにより行われる手指のジェスチャを認識する。
前記指示出力手段は、前記認識手段により認識されるジェスチャに対応する動作制御指示を出力する。
前記指示出力許可手段は、前記ユーザの手指の撮像画像に基づいて実空間における前記ユーザの手指の位置を求め、前記実空間において予め設定されるジェスチャ認識領域内に前記ユーザの手指が存在するときのみ、前記指示出力手段から動作制御指示が出力されることを許可する。
本発明によれば、撮像装置からの撮像画像に基づいてジェスチャを認識するジェスチャ入力装置において、ジェスチャの誤認識を低減することができる。
本発明の実施形態のジェスチャ入力装置を示す図である。 本発明の第1実施形態のジェスチャ入力装置を示す図である。 ジェスチャ入力装置がメガネ型治具に取り付けられた例を示す図である。 メガネ型治具に取り付けられたジェスチャ入力装置がユーザの身体に装着された例を示す図である。 ジェスチャ入力装置がペンダント型に構成された例を示す図である。 ペンダント型のジェスチャ入力装置がユーザの身体に装着された例を示す図である。 撮像装置により手指マーカh、基準マーカA、及び基準マーカBが撮像されているときの撮像画像の一例を示す図である。 撮像画像に対応する2次元座標と実空間に対応する3次元座標との関係を示す図である。 3次元座標における手指マーカhとその手指マーカhを外包する球との関係を示す図である。 第1実施形態におけるジェスチャ認識領域の一例を示す図である。 図8に示すジェスチャ認識領域の斜視図である。 3次元座標のx−z軸における撮像装置の画角Φで示されるジェスチャ認識領域を示す図である。 3次元座標のy−z軸における撮像装置の画角θで示されるジェスチャ認識領域を示す図である。 撮像画像における手指マーカh及び基準マーカAのそれぞれの大きさを示す図である。 撮像画像における手指及び基準マーカAのそれぞれの大きさを示す図である。 第1実施形態におけるジェスチャ認識領域の他の例を示す図である。 本発明の第2実施形態のジェスチャ入力装置を示す図である。 第2実施形態におけるジェスチャ認識領域の一例を示す図である。 3次元座標のx−z軸における図15に示すジェスチャ認識領域を示す図である。 表示画像生成装置の動作を示すフローチャートである。 画像切出し枠の位置調整動作を説明するための図である(その1)。 画像切出し枠の位置調整動作を説明するための図である(その2)。 画像切出し枠の位置調整動作を説明するための図である(その3)。 画像切出し枠の位置調整動作を説明するための図である(その4)。 画像切出し枠の位置調整動作を説明するための図である(その5)。 画像切出し枠の位置調整動作を説明するための図である(その6)。 画像切出し枠の表示倍率を3倍にしたときのジェスチャ認識領域を示す図である。
図1は、本発明の実施形態のジェスチャ入力装置を示す図である。
図1に示すジェスチャ入力装置10は、撮像部11(撮像手段)と、ジェスチャ認識部12(認識手段)と、指示出力許可部13(指示出力許可手段)と、指示出力部14(指示出力手段)とを備える。
撮像部11は、ユーザの手指の形状や動作、すなわち、ジェスチャを撮像することが可能なようにユーザの身体に装着される小型カメラなどにより構成されるものであって、撮像画像をジェスチャ認識部12及び指示出力許可部13にそれぞれ出力する。
ジェスチャ認識部12は、撮像画像に基づいて、ユーザの手指のジェスチャを認識する。ジェスチャ認識部12は、予め登録されている特定のジェスチャがユーザにより行われていることを認識すると、その認識結果を指示出力部14に出力する。特定のジェスチャとしては、例えば、手を左右や上下に振る動作や数を数えるときに指を折っていく動作など、ユーザが比較的容易に動作可能なものが考えられる。また、パーソナルコンピュータにおいて使用されるマウスを操作する際の手指の動きを模した動作なども特定のジェスチャとして設定されてもよい。
指示出力許可部13は、ユーザの手指の撮像画像に基づいて撮像部11を基準とする3次元空間(以下、実空間という)におけるユーザの手指の位置を求め、実空間に設定されるジェスチャ認識領域内にユーザの手指が存在しているか否かの判定を行い、その判定結果を指示出力部14に出力する。
指示出力部14は、ジェスチャ認識領域内にユーザの手指が存在している旨の判定結果が指示出力許可部13から出力されると、ジェスチャ認識部12から出力される認識結果に対応する動作制御指示をパーソナルコンピュータや携帯電話などの外部装置15に出力する。一方、指示出力部14は、ジェスチャ認識領域内にユーザの手指が存在していない旨の判定結果が指示出力許可部13から出力されると、ジェスチャ認識部12から出力される認識結果に対応する動作制御指示を外部装置15に出力しない。外部装置15は、指示出力部14から出力される動作制御指示に応じた動作を実行する。また、指示出力部14は、外部装置15から出力される動作制御指示が入力されると、その動作制御指示に応じた動作を実行する。
このように、本実施形態のジェスチャ入力装置10は、ジェスチャ認識領域内にユーザの手指が存在しているときのみ、ジェスチャの認識結果に対応する動作制御指示が外部装置15に出力される構成である。そのため、ある動作制御指示に対応する特定のジェスチャが撮像部11の画角の中で行われてしまっても、ユーザの手指がジェスチャ認識領域内に存在していなければ、動作制御指示が外部装置15に出力されない。これにより、撮像部11からの撮像画像に基づいてジェスチャを認識するジェスチャ入力装置10において、ジェスチャの誤認識を低減することができる。
<第1実施形態>
図2は、本発明の第1実施形態のジェスチャ入力装置を示す図である。
図2に示すジェスチャ入力装置20は、撮像装置21(撮像手段)と、画像認識装置22(認識手段)と、空間座標設定装置23(空間座標設定手段)と、ジェスチャ認識領域内外判定装置24と、ジェスチャ認識領域記憶装置25(ジェスチャ認識領域記憶手段)と、認識制御装置26(認識制御手段)と、コマンド認識装置27(指示出力手段)と、通信装置28とを備える。
すなわち、撮像装置21は、画像認識装置22に接続される。画像認識装置22は、空間座標設定装置23、ジェスチャ認識領域内外判定装置24、及びコマンド認識装置27に接続される。ジェスチャ認識領域内外判定装置24は、認識制御装置26及び通信装置28に接続される。コマンド認識装置27は、ジェスチャ認識領域内外判定装置24に接続される。また、コマンド認識装置27は、無線通信又は有線通信を行う通信装置28を介して外部装置29に接続される。
なお、ジェスチャ入力装置20は、例えば、パーソナルコンピュータや携帯電話などの外部装置29のマウス、キーボード、又はタッチパネルなどに相当する入力装置として利用されるものであって、外部装置29の動作を制御するためのコマンド(動作制御指示)を出力する。また、図3Aに示すように、ジェスチャ入力装置20は、片眼HMD(Head Mounted Display)などのメガネ型治具30に取り付けられていてもよい。このようにジェスチャ入力装置20がメガネ型治具30に取り付けられる場合、図3Bに示すように、撮像装置21の画角(撮像範囲)とユーザの視野とを互いに同じ方向に向けることができる。また、図4Aに示すように、ジェスチャ入力装置20は、ペンダント型に構成してもよい。このようにジェスチャ入力装置20をペンダント型に構成する場合、図4Bに示すように、撮像装置21の画角とユーザの視野とを互いに同じ方向に向けることができる。すなわち、ジェスチャ入力装置20がユーザの身体に装着されたとき、撮像装置21の画角とユーザの視野とが互いに同じ方向になるのであれば、ジェスチャ入力装置20の形態やユーザの身体への装着場所は特に限定されない。
撮像装置21は、結像レンズ、撮像素子、及び画像処理エンジンなどを備え、主にユーザの手指の画像を撮像し、その撮像画像を画像認識装置22に出力する。また、撮像装置21は、カメラ撮影パラメータ・サムネイル画像データを通信装置28を介して外部装置29に出力する。
画像認識装置22は、入力される撮像画像に基づいて、ユーザの手指の形や動作すなわちジェスチャを認識し、その認識結果を出力する。撮像画像からユーザの手指のジェスチャを認識する技術は、予めユーザの手指に付けられる1以上のマーカの撮像画像に基づいてジェスチャ認識を行うなど、種々の既存の技術を利用することができる。例えば、特開2006−155244号公報や特許4013100号公報などに記載されている技術を利用することができる。また、画像認識装置22は、入力される撮像画像に基づいて、実空間において予め任意の位置に配置される基準マーカやユーザの手指に付けられる手指マーカのそれぞれの撮像画像上の位置や大きさなどを求め、それらを位置データとして出力する。例えば、図5に示すように、外部装置29に備えられる表示装置31が載る机の上に2次元マトリックスコードが描かれた矩形状の基準マーカAが配置され、表示装置31に2次元マトリックスコードが描かれた矩形状の基準マーカBが表示されてもよい。また、例えば、図5に示すように、ユーザの親指の付け根付近に楕円状の手指マーカhが取り付けられてもよい。なお、手指マーカhの取り付け位置は、親指の爪など、特に限定されない。また、手指マーカhの色や形状や大きさも特に限定されない。基準マーカや手指マーカを検出する技術は、例えば、特許4455294号公報などに記載されている技術を利用することができる。
空間座標設定装置23は、画像認識装置22から出力される位置データに基づいて、撮像装置21を基準とする3次元座標(以下、単に3次元座標という)における基準マーカや手指マーカの位置を求め、それらをジェスチャ空間座標データとして出力する。すなわち、空間座標設定装置23は、撮像画像に対応する2次元座標(以下、単に2次元座標という)で示される基準マーカや手指マーカの位置を、撮像装置21を基準とする3次元座標に変換する。
ジェスチャ認識領域内外判定装置24は、空間座標設定装置23から出力されるジェスチャ空間座標データに基づいて、3次元座標におけるジェスチャ認識領域を求め、そのジェスチャ認識領域内にユーザの手指が存在するか否かを判定し、その判定結果を認識制御装置26に出力する。また、ジェスチャ認識領域内外判定装置24は、ジェスチャ認識領域を示すジェスチャ認識領域データをジェスチャ認識領域記憶装置25に記憶させておき、次回以降の判定に使用する。なお、ジェスチャ認識領域データは、外部装置29から通信装置28及びコマンド認識装置27を介してジェスチャ認識領域内外判定装置24に入力されるようにしてもよいし、ジェスチャ認識領域記憶装置25に予め記憶されていてもよい。
認識制御装置26は、ジェスチャ認識領域内にユーザの手指が存在している旨の判定結果がジェスチャ認識領域内外判定装置24から出力されると、画像認識装置22から出力される認識結果に対応するコマンドを出力することを許可する旨の許可・不許可データを出力する。一方、認識制御装置26は、ジェスチャ認識領域にユーザの手指が存在していない旨の判定結果がジェスチャ認識領域内外判定装置24から出力されると、画像認識装置22から出力される認識結果に対応するコマンドを出力することを許可しない旨の許可・不許可データを出力する。
コマンド認識装置27は、コマンド出力を許可する旨の許可・不許可データが入力されると、画像認識装置22から出力される認識結果に対応するコマンドを通信装置28を介して外部装置29に出力する。一方、コマンド認識装置27は、コマンド出力を許可しない旨の許可・不許可データが入力されると、画像認識装置22から出力される認識結果に対応するコマンドを外部装置29に出力しない。外部装置29は、コマンド認識装置27から出力されるコマンドに応じた動作(マウスカーソルの移動、クリック、画像の再生や停止など)を実行する。また、コマンド認識装置27は、外部装置29から出力されるコマンドが入力されると、そのコマンドに応じた動作を実行する。
ここで、例えば、2次元座標おける楕円状の手指マーカhの中心位置(位置データ)に基づいて、3次元座標における手指マーカhの中心位置(ジェスチャ空間座標データ)を求める方法の一例を説明する。
例えば、図6に示すように、撮像装置21の焦点距離をf、3次元座標の原点をOcとし、3次元座標のx軸が2次元座標のu軸と平行であり、3次元座標のy軸が2次元座標のv軸と平行であり、3次元座標のz軸が2次元座標における撮像画像の中心位置(u,v)を通る場合を想定する。
このような場合、3次元座標における手指マーカhの中心位置P(x, y, z)と、その中心位置P(x,y,z)に対応する2次元座標における手指マーカhの中心位置Q (u,v)との間には下記数1又は数2の関係が成り立つ。
また、図7に示すように、2次元座標のv軸における手指マーカhの長軸の長さをrとし、3次元座標のy−z軸における手指マーカhを外包する球の半径をR(近似値)とすると、撮像装置21の光軸(3次元座標のz軸)と直線OP(原点Ocと手指マーカhの中心位置Pとを結ぶ直線)とが成す角度をθとすると、下記数3の関係が成り立つ。
すなわち、上記数3は下記数4となる。
また、下記数5又は数6の関係も成り立つ。
そして、上記数4と上記数6により、下記数7を求めることができる。
すなわち、空間座標設定装置23は、上記数7に、撮像装置21の焦点距離をf、2次元座標における手指マーカhの長軸の長さr、3次元座標における手指マーカhを外包する球の半径R、2次元座標における撮像画像の中心位置(u,v)、2次元座標における手指マーカhの中心位置Q (u,v)を代入することにより、3次元座標における手指マーカhのz座標を求める。
同様にして、空間座標設定装置23は、下記数8により、3次元座標における手指マーカhのx座標を求める。
また、同様にして、空間座標設定装置23は、下記数9により、3次元座標における手指マーカhのy座標を求める。
なお、矩形状の基準マーカの撮像画像における位置に基づいて、矩形状の基準マーカの3次元座標における位置を求める方法としては、例えば、特許4242529号公報や「歴本純一、2次元マトリックスコードを利用した拡張現実感の構成手法、WISS96、第4回インタラクティブシステムとソフトウェアに関するワークショップ論文誌、1996」などに記載されている技術を利用することができる。基準マーカの形状は矩形に限定されない。例えば、特開2000−227309号公報に記載されるマーカのように、楕円状の基準マーカを利用してもよい。また、例えば、特開2000−227309号公報に記載されるように、複数の基準マーカを利用してもよい。
次に、ジェスチャ認識領域内にユーザの手指が存在するか否かの判定方法の一例について説明する。
例えば、図5に示す基準マーカAの中心位置と基準マーカBの中心位置と距離ΔDとに基づいて、図8や図9に示すようなジェスチャ認識領域を求め、そのジェスチャ認識領域内に手指マーカhを検出したとき、ジェスチャ認識領域内にユーザの手指が存在すると判定する場合を想定する。なお、3次元座標における基準マーカBの中心位置を(xa,ya,za)、3次元座標における基準マーカBの中心位置を(xb,yb,zb)とする。
図10は、3次元座標のx−z軸における撮像装置の画角Φで示されるジェスチャ認識領域を示す図である。図10において、画角Φと同じパラメータで示されるときの手指マーカhの中心位置をΦh、画角Φと同じパラメータで示されるときのジェスチャ認識領域の範囲をΦ1〜Φ2とする。
また、図11は、3次元座標のy−z軸における撮像装置の画角θで示されるジェスチャ認識領域を示す図である。図11において、画角θと同じパラメータで示されるときの手指マーカhの中心位置をθh、画角θと同じパラメータで示されるときのジェスチャ認識領域の範囲をθ1〜θ2とする。
このような場合において、ジェスチャ認識領域内外判定装置24は、L1≦Lh(撮像装置21から手指マーカhまでの距離)≦L2、Φ1≦Φh≦Φ2、及びθ1≦θh≦θ2であるとき、ジェスチャ認識領域内に手指マーカhが存在していることを検出し、ジェスチャ認識領域内にユーザの手指が存在していると判定する。
例えば、ジェスチャ認識領域内外判定装置24は、「Lh」を3次元座標における手指マーカhの中心位置(xh、yh、zh)と下記数10とにより求め、「L2」を基準マーカAの中心位置又は基準マーカBの中心位置と下記数10とにより求め、「L1」をL2から距離ΔDを減算することにより求める。
また、例えば、ジェスチャ認識領域内外判定装置24は、「Φh」を3次元座標における手指マーカhの中心位置のxh及びzhと下記数11とにより求め、「Φ1」を基準マーカBの中心位置のxb及びzbと下記数11とにより求め、Φ2は基準マーカAの中心位置のxa及びzaと下記数11とにより求める。
また、例えば、ジェスチャ認識領域内外判定装置24は、「θh」を3次元座標における手指マーカhの中心位置yh及びzhと下記数12とにより求め、「θ1」を基準マーカAの中心位置のya及びzaと下記数12とにより求め、「θ2」を基準マーカBの中心位置のyb及びzbと下記数12とにより求める。
また、ジェスチャ認識領域内外判定装置24は、図12Aに示すように、撮像画像における基準マーカAの大きさWaや手指マーカhの大きさWhに基づいて、撮像装置21から基準マーカAまでの距離や撮像装置21から手指マーカhまでの距離を推定し、手指マーカhの大きさWhの変動量に対応する手指マーカhの移動距離が距離ΔDよりも大きくなると、ジェスチャ認識領域内にユーザの手指が存在しないと判定してもよい。
また、ジェスチャ認識領域内外判定装置24は、図12Bに示すように、撮像画像における基準マーカAの大きさWaやユーザの手指の大きさWhhに基づいて、撮像装置21から基準マーカAまでの距離や撮像装置21からユーザの手指までの距離を推定し、撮像画像における手指の大きさWhhの変動量に対応する手指の移動距離が距離ΔDよりも大きくなると、ジェスチャ認識領域内にユーザの手指が存在しないと判定してもよい。
また、ジェスチャ認識領域内外判定装置24は、図13に示すように、撮像画像における基準マーカA(又は基準マーカB)の幾何変形に基づいて、基準マーカA(又は基準マーカB)の平面認識を行い、その認識した平面から距離ΔD離れた領域をジェスチャ認識領域として定義してもよい。
また、ジェスチャ認識領域内外判定装置24は、ユーザの手や腕の関節の可動範囲をさらに考慮してジェスチャ認識領域を求めてもよい。
さらに、本実施例では、マーカの認識によりジェスチャ認識領域に手指があるかを判定したが、マーカに変えて基準位置、たとえば机の表面や、画面の表面、もしくは撮像装置21や操作者の頭部からの距離を測定する距離センサーを手指に装着してその距離を測定し、その距離範囲内か否かをジェスチャ認識領域内外判定装置24が判定するよう構成しても良く逆に、撮像装置21や操作者の頭部や胸部、机上、外部装置の画面などに距離センサーを配置し、手指そのものや貼付したマーカの距離を計測し、ジェスチャ認識領域内外判定装置24の判定パラメータとしてもよい。
<第2実施形態>
図14は、本発明の第2実施形態のジェスチャ入力装置を示す図である。なお、図2に示す構成と同じ構成には同じ符号を付している。
図14に示す第2実施形態のジェスチャ入力装置32において、図2に示す第1実施形態のジェスチャ入力装置20と異なる点は、表示画像生成装置33(表示画像生成手段)と、表示装置34(表示手段)とをさらに備えている点である。なお、表示装置34は、図3Aに示すように、ユーザの片方の瞳と向かい合うようにメガネ型治具30に取り付けられているものとする。また、第2実施形態のジェスチャ入力装置32において、ジェスチャ認識領域は、撮像画像のうち所定の画角で規定された領域とし、その領域は、表示装置34によって表示させる撮像画像の一部の領域とほぼ一致するものとする。また、ジェスチャ認識領域は、ユーザの視野のうちユーザが表示装置34を見ている領域及びその延長領域に基づいて設定される領域とし、その領域は、表示装置34によって表示させる撮像画像の一部の領域とほぼ一致するものとする。すなわち、図15や図16に示すように、撮像装置21の画角のうち、撮像装置21の撮像画像の一部を切り出すための画像切出し枠の大きさに相当する画角と、ユーザ視野のうちユーザが表示装置34を見ている領域及びその延長領域とがほぼ一致する領域をジェスチャ認識領域として設定する。このとき設定されるジェスチャ認識領域の距離ΔDは、例えば、ユーザの腕の長さを考慮して設定されることが望ましい。
第2実施形態のジェスチャ入力装置32では、画像切出し枠内の撮像画像を表示装置34によりユーザに表示させ、実空間における表示装置34の表示画面の虚像と実空間における画像切出し枠とが一致するように、撮像画像内に設定される画像切出し枠の位置を調整する。
これにより、ユーザ視野のうちユーザが表示装置34を見ている領域及びその延長領域とジェスチャ認識領域とを一致させることができるため、ユーザは、自然で負担の無いジェスチャを表示装置34により確認しながら行うことができる。また、ユーザは、表示装置34に表示される、限られたジェスチャ認識領域において効率よくジェスチャを行うことができるので、すなわち、ジェスチャ認識領域外で無駄なジェスチャを行うことがなくなるので、ジェスチャを行う際のユーザの疲労を軽減することができる。
ここでは、ジェスチャ認識領域は、ユーザの視野のうちユーザが表示装置34を見ている領域及びその延長領域に基づいて設定されるものとしたが、ユーザの視野とは関係の無い領域を撮影し、その撮影画像の少なくとも一部または全部を表示装置34に表示して、その表示された画像に対応した撮影される領域をジェスチャ認識領域としてもよい。この場合にも、表示された画像を参考にユーザがジェスチャ認識領域を認識できるため、同様にジェスチャ認識領域外で無駄なジェスチャを行うことがなくなり、ジェスチャを行う際のユーザの疲労を軽減することができる。
図17は、実空間における表示装置34の表示画面の虚像と実空間における画像切出し枠とを一致させる際の表示画像生成装置33の動作を示すフローチャートである。
まず、表示画像生成装置33は、撮像画像を入力する(S1)。
次に、表示画像生成装置33は、入力した撮像画像内に手指マーカhを検出する(S2)。例えば、表示画像生成装置33は、図18Aに示すような撮像画像において、手指マーカhを検出する。なお、図18A〜図18Fの撮像画像には、ユーザが見ている表示装置34の表示画面の虚像も示している。また、初期状態において、画像切出し枠は撮像画像の中心部に位置しているものとする。その後、表示画像生成装置33は、図18Bに示すように、手指マーカhの位置に基づいて画像切出し枠をユーザの手指に移動させ、画像切出し枠内の撮像画像を表示装置34に表示させる。そして、表示装置34に手指マーカhが表示されると、ユーザは、図18Cに示すように、表示装置34の表示画面の虚像により示される手指マーカhと、実際の手指マーカhとが一致するように手指を移動させる。このとき、表示画像生成装置33は、画像切出し枠を、移動する手指マーカhに追従させる。
次に、表示画像生成装置33は、表示装置34の表示画面の虚像の4隅にそれぞれガイドマーカを表示させ、1つのガイドマーカと手指マーカhとが一致するようにユーザにより手指の移動が行われると、その1つのガイドマーカと手指マーカhとが一致したときの実空間における手指マーカhの位置を不図示の記憶部に記憶する(S4)。例えば、表示画像生成装置33は、図18Dに示すように、表示装置34の表示倍率を下げた後、表示装置34の表示画面の虚像の4隅にそれぞれガイドマーカを表示させる。なお、ガイドマーカは2つ又は3つでもよい。
次に、表示画像生成装置33は、全てのガイドマーカにおいて、それぞれ、実空間における手指マーカhの位置の記憶が終了したか否かを判断する(S5)。例えば、ユーザは、図18Eに示すように、反時計回りに手指を移動させて、順番に各ガイドマーカと手指マーカhとを一致させていく。
全てのガイドマーカにおいて、それぞれ、実空間における手指マーカhの位置の記憶が終了していないと判断した場合(S5がNo)、表示画像生成装置33は、S1に戻る。
一方、全てのガイドマーカにおいて、それぞれ、実空間における手指マーカhの位置の記憶が終了していると判断した場合(S5がYes)、表示画像生成装置33は、記憶部に記憶されている各手指マーカhの位置に基づいて、実空間における画像切出し枠の位置や表示倍率を調整し(S6)、その調整後の画像切出し枠内の撮像画像を表示装置34に表示させる(S7)。例えば、画像切出し枠の位置を調整した後、図18Fに示すように、画像切出し枠の表示倍率を表示装置34の表示倍率と等しくする。
これにより、あたかも実空間のある領域が切り取られたかのような撮像画像を表示装置34に表示させることができる。
なお、画像切出し枠の表示倍率を上げるとともに、その画像切出し枠内の撮像画像を縮小して表示装置34に表示させるようにしてもよい。例えば、図19に示すように、画像切出し枠の表示倍率を3倍に上げるとともに、その画像切出し枠内の撮像画像を1/3倍に縮小して表示装置34に表示する場合、図16に示すジェスチャ認識領域(画像切出し枠の表示倍率と表示装置34の表示倍率とが等しい場合)に比べて、ジェスチャ認識領域を大きくすることができる。このように、ユーザは、ジェスチャ認識領域を任意の大きさに調整することができる。
また、各ガイドマーカとユーザの手指とを一致させることにより、画像切出し枠の位置調整を行うようにしてもよい。
上記第1実施形態のジェスチャ入力装置20や第2実施形態のジェスチャ入力装置32では、ジェスチャ認識領域にユーザの手指が存在するか否かによりコマンド出力可否制御を行う構成であるが、ユーザの手指の移動量の連続的な変化や画像切出し枠の追尾量の連続的な変化に基づいてコマンド出力可否制御を行うように構成してもよい。
上記第1実施形態のジェスチャ入力装置20や第2実施形態のジェスチャ入力装置32において、コマンド生成認識装置27にコマンド出力を許可する旨の許可・不許可データが入力されると、ジェスチャによる外部装置29の動作制御が可能である旨を外部装置29に備えられる表示装置31や表示装置34において文字やアイコンなどで表示させるようにしてもよい。これにより、ユーザに対して外部装置29が制御可能である旨を伝えることができ、現在の姿勢を維持することをユーザに促すことができる。
また、上記第1実施形態のジェスチャ入力装置20や第2実施形態のジェスチャ入力装置32において、コマンド生成認識装置3にコマンド出力を許可しない旨の許可・不許可データが入力されると、ジェスチャによる外部装置29の動作制御が不可能であり、外部装置29の動作制御が可能になるように手指を移動させる旨を外部装置29の表示装置31や表示装置34において文字やアイコンなどで表示させるようにしてもよい。これにより、ユーザに対して外部装置29が制御不能である旨を伝えることができ、外部装置29が制御可能になるように手指を移動させることをユーザに促すことができる。また、外部装置29が制御可能になる姿勢をユーザが取ることができない場合、外部装置29が誤動作しないように、わざと手指から視線(撮像装置21の画角)を外すことをユーザに促すことができる。なお、外部装置29が制御可能である旨や外部装置29が制御不可能である旨をユーザに伝える際、音声を利用してもよい。
10 ジェスチャ入力装置
11 撮像部
12 ジェスチャ認識部
13 指示出力許可部
14 指示出力部
15 外部装置
20 ジェスチャ入力装置
21 撮像装置
22 画像認識装置
23 空間座標設定装置
24 ジェスチャ認識領域内外判定装置
25 ジェスチャ認識領域記憶装置
26 認識制御装置
27 コマンド認識装置
28 通信装置
29 外部装置
30 メガネ型治具
31 表示装置
32 ジェスチャ入力装置
33 表示画像生成装置
34 表示装置

Claims (8)

  1. ユーザの身体に装着される撮像手段と、
    前記撮像手段により撮像される前記ユーザの手指の撮像画像に基づいて、前記ユーザにより行われる手指のジェスチャを認識する認識手段と、
    前記認識手段により認識されるジェスチャに対応する動作制御指示を出力する指示出力手段と、
    前記ユーザの手指の撮像画像に基づいて実空間における前記ユーザの手指の位置を求め、前記実空間において予め設定されるジェスチャ認識領域内に前記ユーザの手指が存在するときのみ、前記指示出力手段から動作制御指示が出力されることを許可する指示出力許可手段と、
    を備えることを特徴とするジェスチャ入力装置。
  2. 請求項1に記載のジェスチャ入力装置であって、
    前記指示出力許可手段は、
    前記撮像画像に対応する2次元座標で示される、前記ユーザの手指に付けられる手指マーカの位置を、前記実空間に対応する3次元座標に変換する空間座標設定手段と、
    前記ジェスチャ認識領域を記憶するジェスチャ認識領域記憶手段と、
    前記ジェスチャ認識領域記憶手段に記憶されるジェスチャ認識領域内に、前記空間座標設定手段により座標変換される前記手指マーカが存在するとき、前記ジェスチャ認識領域内に前記ユーザの手指が存在すると判定するジェスチャ認識領域内外判定手段と、
    前記ジェスチャ認識領域内外判定手段により前記ジェスチャ認識領域内に前記ユーザの手指が存在すると判定されると、前記指示出力手段から動作制御指示が出力されることを許可する認識制御手段と、
    を備えることを特徴とするジェスチャ入力装置。
  3. 請求項2に記載のジェスチャ入力装置であって、
    前記空間座標設定手段は、前記2次元座標で示される、前記実空間の所定箇所に配置される基準マーカの位置を、前記3次元座標に変換し、
    前記ジェスチャ認識領域内外判定手段は、前記空間座標設定手段により座標変換される前記基準マーカの位置から所定距離までの領域を前記ジェスチャ認識領域として設定して前記ジェスチャ認識領域記憶手段に記憶させる
    ことを特徴とするジェスチャ入力装置。
  4. 請求項1に記載のジェスチャ入力装置であって、
    前記ジェスチャ認識領域は、前記撮像画像のうち所定の画角で規定された領域とする
    ことを特徴とするジェスチャ入力装置。
  5. 請求項4に記載のジェスチャ入力装置であって、
    前記ユーザの身体に装着され、前記ユーザの視野内に前記撮像画像の一部を表示させる表示手段をさらに備え、
    前記撮像画像のうち所定の画角で規定された領域は、前記表示手段によって表示させる前記撮像画像の一部の領域とほぼ一致する
    ことを特徴とするジェスチャ入力装置。
  6. 請求項1に記載のジェスチャ入力装置であって、
    前記ユーザの身体に装着され、前記ユーザの視野内に前記撮像画像の一部を表示させる表示手段をさらに備え、
    前記ジェスチャ認識領域は、前記ユーザの視野のうち前記ユーザが前記表示手段を見ている領域及びその延長領域に基づいて設定される
    ことを特徴とするジェスチャ入力装置。
  7. 請求項6に記載のジェスチャ入力装置であって、
    前記ユーザの視野のうち前記ユーザが前記表示手段を見ている領域及びその延長領域は、前記表示手段によって表示させる前記撮像画像の一部の領域とほぼ一致する
    ことを特徴とするジェスチャ入力装置。
  8. 請求項4〜7の何れか1項に記載のジェスチャ入力装置であって、
    前記撮像画像から前記撮像画像の一部を切り出す画像切出し枠内の撮像画像を前記表示手段に表示させる表示画像生成手段をさらに備え、
    前記表示画像生成手段は、前記実空間における前記表示手段の表示画面の虚像の隅に表示される各ガイドマーカと、前記実空間における前記ユーザの手指又は前記手指マーカとがそれぞれ互いに一致するように、前記画像切出し枠の位置を調整する
    ことを特徴とするジェスチャ入力装置。
JP2011005605A 2011-01-14 2011-01-14 ジェスチャ入力装置 Expired - Fee Related JP5766957B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011005605A JP5766957B2 (ja) 2011-01-14 2011-01-14 ジェスチャ入力装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011005605A JP5766957B2 (ja) 2011-01-14 2011-01-14 ジェスチャ入力装置

Publications (2)

Publication Number Publication Date
JP2012146236A true JP2012146236A (ja) 2012-08-02
JP5766957B2 JP5766957B2 (ja) 2015-08-19

Family

ID=46789720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011005605A Expired - Fee Related JP5766957B2 (ja) 2011-01-14 2011-01-14 ジェスチャ入力装置

Country Status (1)

Country Link
JP (1) JP5766957B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015136952A1 (ja) * 2014-03-12 2015-09-17 コニカミノルタ株式会社 ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末
JP2016183968A (ja) * 2014-05-07 2016-10-20 アクセラス株式会社 音声ガイド支援システム及びそのプログラム
JP2016207145A (ja) * 2015-04-28 2016-12-08 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
JP2016218905A (ja) * 2015-05-25 2016-12-22 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US9612665B2 (en) 2014-05-26 2017-04-04 Canon Kabushiki Kaisha Information processing apparatus and method of controlling the same
WO2017065050A1 (ja) * 2015-10-16 2017-04-20 コニカミノルタ株式会社 入力装置、電子機器、電子機器の入力方法及びその入力プログラム
WO2017065051A1 (ja) * 2015-10-16 2017-04-20 コニカミノルタ株式会社 入力装置、電子機器、電子機器の入力方法及びその入力プログラム
JP2018092206A (ja) * 2016-11-30 2018-06-14 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
CN115100747A (zh) * 2022-08-26 2022-09-23 山东宝德龙健身器材有限公司 基于视觉检测的跑步机智能辅助系统
JP7447302B2 (ja) 2020-03-23 2024-03-11 華為技術有限公司 デバイスのハンドジェスチャベースの制御のための方法及びシステム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JP2000148381A (ja) * 1998-11-05 2000-05-26 Telecommunication Advancement Organization Of Japan 入力画像処理方法、入力画像処理装置、及び入力画像処理プログラムを記録した記録媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JP2000148381A (ja) * 1998-11-05 2000-05-26 Telecommunication Advancement Organization Of Japan 入力画像処理方法、入力画像処理装置、及び入力画像処理プログラムを記録した記録媒体

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015136952A1 (ja) * 2014-03-12 2015-09-17 コニカミノルタ株式会社 ジェスチャー認識装置、ヘッドマウントディスプレイ、および携帯端末
JP2016183968A (ja) * 2014-05-07 2016-10-20 アクセラス株式会社 音声ガイド支援システム及びそのプログラム
US9612665B2 (en) 2014-05-26 2017-04-04 Canon Kabushiki Kaisha Information processing apparatus and method of controlling the same
JP2016207145A (ja) * 2015-04-28 2016-12-08 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
JP2016218905A (ja) * 2015-05-25 2016-12-22 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
WO2017065050A1 (ja) * 2015-10-16 2017-04-20 コニカミノルタ株式会社 入力装置、電子機器、電子機器の入力方法及びその入力プログラム
WO2017065051A1 (ja) * 2015-10-16 2017-04-20 コニカミノルタ株式会社 入力装置、電子機器、電子機器の入力方法及びその入力プログラム
JP2018092206A (ja) * 2016-11-30 2018-06-14 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP7447302B2 (ja) 2020-03-23 2024-03-11 華為技術有限公司 デバイスのハンドジェスチャベースの制御のための方法及びシステム
CN115100747A (zh) * 2022-08-26 2022-09-23 山东宝德龙健身器材有限公司 基于视觉检测的跑步机智能辅助系统
CN115100747B (zh) * 2022-08-26 2022-11-08 山东宝德龙健身器材有限公司 基于视觉检测的跑步机智能辅助系统

Also Published As

Publication number Publication date
JP5766957B2 (ja) 2015-08-19

Similar Documents

Publication Publication Date Title
JP5766957B2 (ja) ジェスチャ入力装置
US20220084279A1 (en) Methods for manipulating objects in an environment
JP6702489B2 (ja) ヘッドマウントディスプレイ、情報処理方法、及びプログラム
JP6652613B2 (ja) ウェアラブル装置、制御方法、制御プログラム及び撮像装置
JP6090140B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20140240225A1 (en) Method for touchless control of a device
US10372229B2 (en) Information processing system, information processing apparatus, control method, and program
JP6390799B2 (ja) 入力装置、入力方法、及びプログラム
US9442571B2 (en) Control method for generating control instruction based on motion parameter of hand and electronic device using the control method
US20100053151A1 (en) In-line mediation for manipulating three-dimensional content on a display device
JP6344530B2 (ja) 入力装置、入力方法、及びプログラム
JP2013521544A (ja) 拡張現実のポインティング装置
KR102147430B1 (ko) 가상 공간 멀티 터치 인터랙션 장치 및 방법
KR20120068253A (ko) 사용자 인터페이스의 반응 제공 방법 및 장치
JP2006209359A (ja) 指示動作認識装置、指示動作認識方法及び指示動作認識プログラム
JP2010102215A (ja) 表示装置、画像処理方法、及びコンピュータプログラム
US20120268493A1 (en) Information processing system for augmented reality
JP2009258884A (ja) ユーザインタフェイス
Lee et al. Tunnelslice: Freehand subspace acquisition using an egocentric tunnel for wearable augmented reality
US11960660B2 (en) Terminal device, virtual object manipulation method, and virtual object manipulation program
JP2013218423A (ja) 指向性映像コントロール装置及びその方法
JP2023168746A (ja) 情報処理装置、情報処理システム、情報処理方法、プログラム
CN114923418A (zh) 基于点选择的测量
JP2014160412A (ja) 閲覧装置及び閲覧システム
US20230042447A1 (en) Method and Device for Managing Interactions Directed to a User Interface with a Physical Object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150127

RD12 Notification of acceptance of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7432

Effective date: 20150217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150618

R151 Written notification of patent or utility model registration

Ref document number: 5766957

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees