JP2017102499A - 操作検出方法、操作検出装置、及び操作検出プログラム - Google Patents

操作検出方法、操作検出装置、及び操作検出プログラム Download PDF

Info

Publication number
JP2017102499A
JP2017102499A JP2015232625A JP2015232625A JP2017102499A JP 2017102499 A JP2017102499 A JP 2017102499A JP 2015232625 A JP2015232625 A JP 2015232625A JP 2015232625 A JP2015232625 A JP 2015232625A JP 2017102499 A JP2017102499 A JP 2017102499A
Authority
JP
Japan
Prior art keywords
hand
pointer
display
target information
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015232625A
Other languages
English (en)
Other versions
JP6716897B2 (ja
Inventor
厚一郎 新沼
Atsuichiro Niinuma
厚一郎 新沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015232625A priority Critical patent/JP6716897B2/ja
Publication of JP2017102499A publication Critical patent/JP2017102499A/ja
Application granted granted Critical
Publication of JP6716897B2 publication Critical patent/JP6716897B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】ジェスチャによる情報処理装置の操作を支援する。
【解決手段】コンピュータは、撮像装置によって撮影された撮影画像を表示装置に表示させる(ステップ201)。コンピュータは、撮影画像内において対象物が写っている対象物領域と、撮影画像内において手が写っている手領域とが重なっている場合、対象物に対応する操作対象情報を撮影画像の代わりに表示装置に表示させる(ステップ202)。次に、コンピュータは、操作対象情報を表示した時点の手領域内における所定部位の位置を起点として、手の動きに応じて移動するポインタを表示装置に表示させる(ステップ203)。そして、コンピュータは、ポインタと操作対象情報との間の位置関係と、手領域の形状の変化とに基づいて、操作対象情報に対する決定操作を検出する(ステップ204)。
【選択図】図2

Description

本発明は、操作検出方法、操作検出装置、及び操作検出プログラムに関する。
近年、カメラによって撮影した画像に視覚情報を付加して表示する拡張現実技術の開発が行われている。拡張現実技術では、ウェアラブル装置、タブレット端末等の情報処理装置が用いられ、ウェアラブル装置としては、カメラを装着したヘッドマウントディスプレイ(HMD)装置等が用いられる。これらの情報処理装置の画面上では、ユーザの視野内に存在する対象物の位置に対応させて、その対象物に関する情報が表示される。
このような拡張現実技術を利用すれば、工場における保守点検、機器設置等のユーザの作業を支援することが可能である。ユーザは両手を用いて作業を行うことが多いため、タブレット端末よりも、頭部に装着可能なHMD装置の方がユーザの作業支援に適している。ユーザの視野の端に小型ディスプレイを配置して、小型ディスプレイに画像を表示するマイクロディスプレイ型HMD装置も普及しつつある。
画像処理の分野において、機器に接触することなく手又は指の動作のみにより、コンピュータ等に情報を入力する技術も知られている(例えば、特許文献1を参照)。
特開平5−324181号公報
HMD装置の画面上では、ポインティングデバイスによる選択操作、クリック操作等を行うことが困難である。
なお、かかる問題は、HMD装置等のウェアラブル装置の操作に限らず、ポインティングデバイスを使用することが困難な作業環境における他の情報処理装置の操作においても生ずるものである。
1つの側面において、本発明は、ジェスチャによる情報処理装置の操作を支援することを目的とする。
1つの案では、コンピュータは以下の処理を実行する。
(1)コンピュータは、撮像装置によって撮影された撮影画像を表示装置に表示させる。
(2)コンピュータは、撮影画像内において対象物が写っている対象物領域と、撮影画像内において手が写っている手領域とが重なっている場合、対象物に対応する操作対象情報を撮影画像の代わりに表示装置に表示させる。
(3)コンピュータは、操作対象情報を表示した時点の手領域内における所定部位の位置を起点として、手の動きに応じて移動するポインタを表示装置に表示させる。
(4)コンピュータは、ポインタと操作対象情報との間の位置関係と、手領域の形状の変化とに基づいて、操作対象情報に対する決定操作を検出する。
実施形態によれば、ジェスチャによる情報処理装置の操作を支援することができる。
操作検出装置の機能的構成図である。 操作検出処理のフローチャートである。 HMD装置の機能的構成図である。 操作検出処理の具体例を示すフローチャートである。 対象選択モードの処理のフローチャートである。 指領域抽出処理のフローチャートである。 平滑化フィルタを示す図である。 手領域抽出処理を示す図である。 指先検出処理のフローチャートである。 指先候補点を示す図である。 メニュー操作モードの処理のフローチャートである。 座標変換を示す図である。 操作メニュー及びポインタを示す図である。 決定操作検出処理のフローチャートである。 指長計算処理のフローチャートである。 指長計算処理を示す図である。 軸方向を示す図である。 情報処理装置の構成図である。
以下、図面を参照しながら、実施形態を詳細に説明する。
図1は、操作検出装置の機能的構成例を示している。図1の操作検出装置101は、表示制御部111及び検出部112を含む。
図2は、図1の操作検出装置101が行う操作検出処理の例を示すフローチャートである。まず、表示制御部111は、撮像装置によって撮影された撮影画像を表示装置に表示させる(ステップ201)。そして、表示制御部111は、撮影画像内において対象物が写っている対象物領域と、撮影画像内において手が写っている手領域とが重なっている場合、対象物に対応する操作対象情報を撮影画像の代わりに表示装置に表示させる(ステップ202)。
次に、表示制御部111は、操作対象情報を表示した時点の手領域内における所定部位の位置を起点として、手の動きに応じて移動するポインタを表示装置に表示させる(ステップ203)。そして、検出部112は、ポインタと操作対象情報との間の位置関係と、手領域の形状の変化とに基づいて、操作対象情報に対する決定操作を検出する(ステップ204)。
図1の操作検出装置101によれば、ジェスチャによる情報処理装置の操作を支援することができる。
図3は、図1の操作検出装置101を含むHMD装置の構成例を示している。図3のHMD装置は、操作検出装置101、撮像装置301、距離画像センサ302、及び表示装置303を含む。操作検出装置101は、表示制御部111、検出部112、取得部311、取得部312、及び記憶部313を含む。検出部112は、領域抽出部321、指先検出部322、制御部323、座標変換部324、及び操作判定部325を含む。
記憶部313は、映像情報331、デプスマップ332、モード情報333、及び操作メニュー334、クリック対象335、及び指長情報336を記憶する。映像情報331は、撮像装置301によって撮影された映像を表し、複数時刻におけるフレームの画像を含む。
デプスマップ332は、距離画像センサ302によって撮影された距離画像を表し、距離画像の各画素の画素値は、距離画像センサ302から物体までの距離を表す。距離画像センサ302から物体までの距離の代わりに、所定の基準点から物体までの距離を表す画素値を用いてもよい。
モード情報333は、操作検出装置101の動作モードを表す。動作モードとしては、ユーザの作業領域における対象物を選択する対象選択モードと、操作メニュー334を表示装置303の画面に表示してユーザの作業を支援するメニュー操作モードとが存在する。操作メニュー334は、対象物に対するユーザの作業における1つ以上の操作項目を含む画像を表す。操作メニュー334に含まれる各操作項目は、対象物に対応する操作対象情報を表す。
例えば、工場における保守点検作業の場合、対象物は、電力計、圧力計、温度計等の各種計測機器であってもよい。この場合、ユーザは、計測機器が表示する計測値を確認し、操作メニュー334を用いて確認結果をHMD装置に入力したり、計測値又は計測機器の画像をHMD装置に入力したりする作業を行う。クリック対象335は、ユーザが操作メニュー334から選択した操作項目を表し、指長情報336は、ユーザが操作項目を選択した時点における指の長さを表す。
撮像装置301は、例えば、カラー映像を撮影するカメラであり、作業領域の映像を撮影する。取得部311は、撮像装置301から映像を取得し、映像情報331として記憶部313に格納する。距離画像センサ302は、レーザ光線、赤外線等を用いて各時刻における距離画像を撮影する。取得部312は、距離画像センサ302から距離画像を取得し、デプスマップ332として記憶部313に格納する。
領域抽出部321は、デプスマップ332から手領域を抽出するとともに、映像情報331に含まれる各フレームの画像から対象物領域及び手領域を抽出する。指先検出部322は、映像情報331の画像内の手領域から指先の位置を検出する。制御部323は、対象物領域と手領域との重なり状態に応じてモード情報333を変更し、モード情報333が表す動作モードを示す制御信号を、表示制御部111へ出力する。座標変換部324は、指先検出部322が検出した指先の位置を表す座標を、表示装置303の画面上の座標に変換して、表示制御部111へ出力する。
表示制御部111は、制御部323から出力される制御信号に従って、映像情報331又は操作メニュー334を、表示装置303の画面に表示させる。操作メニュー334が画面に表示された場合、表示制御部111は、操作メニュー334とともに、その時点における指先の位置を示すポインタを画面に表示させる。
操作判定部325は、画面に表示されたポインタと操作メニュー334内の各操作項目との位置関係と、手領域の形状の変化とに基づいて、ユーザがいずれかの操作項目をクリックする決定操作を行ったか否かを判定する。
ユーザの頭部に装着されるヘッドマウントモジュールは、図3のHMD装置全体を含んでいてもよく、HMD装置の一部の構成要素のみを含んでいてもよい。例えば、撮像装置301、距離画像センサ302、及び表示装置303をヘッドマウントモジュールとして実装し、操作検出装置101を頭部以外の身体部位に装着されるモジュールとして実装することができる。
図4は、図3の操作検出装置101が行う操作検出処理の具体例を示すフローチャートである。図4の操作検出処理は、映像情報331に含まれる各フレームの画像に対して行われる。
まず、制御部323は、モード情報333が対象選択モード又はメニュー操作モードのいずれの動作モードを表すかチェックする(ステップ401)。初期状態において、モード情報333は対象選択モードに設定されている。
モード情報333が対象選択モードを表す場合(ステップ401,YES)、制御部323は、対象選択モードを示す制御信号を表示制御部111へ出力し、操作検出装置101は、対象選択モードの処理を行う(ステップ402)。対象選択モードにおいて、表示制御部111は、映像情報331を表示装置303の画面に表示させる。
一方、モード情報333がメニュー操作モードを表す場合(ステップ401,NO)、制御部323は、メニュー操作モードを示す制御信号を表示制御部111へ出力し、操作検出装置101は、メニュー操作モードの処理を行う(ステップ403)。メニュー操作モードにおいて、表示制御部111は、操作メニュー334を表示装置303の画面に表示させる。
図5は、図4のステップ402における対象選択モードの処理の例を示すフローチャートである。まず、領域抽出部321は、現時刻のデプスマップ332を用いて、映像情報331における同じ時刻の画像から手領域を抽出し、指先検出部322は、その手領域から指領域を抽出する(ステップ501)。指領域は、指先の位置であってもよい。
デプスマップ332の各画素の位置は、映像情報331における同じ時刻の画像の各画素の位置に対応する。そこで、領域抽出部321は、デプスマップ332から手領域を抽出し、その手領域に対応する映像情報331の画像内の領域を特定することで、画像から手領域を抽出することができる。
次に、領域抽出部321は、映像情報331の画像から対象物領域を抽出する(ステップ502)。例えば、対象物上又はその周囲の物体にマーカが貼付されている場合、領域抽出部321は、画像内におけるマーカの位置を特定し、特定したマーカの位置と所定の位置関係にある対象物領域を抽出することができる。また、領域抽出部321は、テンプレートマッチング等を用いて、画像から対象物領域を抽出することもできる。
次に、制御部323は、映像情報331の画像内で指領域と対象物領域とが重なっているか否かをチェックする(ステップ503)。指領域と対象物領域とが重なっている場合(ステップ503,YES)、制御部323は、モード情報333を対象選択モードからメニュー操作モードに変更し、メニュー操作モードを示す制御信号を表示制御部111へ出力する(ステップ504)。そして、操作検出装置101は、メニュー操作モードの処理を行う。
一方、指領域と対象物領域とが重なっていない場合(ステップ503,NO)、制御部323は、モード情報333を変更しない。
図6は、図5のステップ501における指領域抽出処理の例を示すフローチャートである。まず、領域抽出部321は、平滑化フィルタ等を用いて、デプスマップ332の領域を平滑化する(ステップ601)。
図7は、平滑化フィルタの例を示している。図7の平滑化フィルタは、3画素×3画素のフィルタであり、中央の画素の画素値は、フィルタ内の9個の画素の各画素値に重み1/9を乗算して加算した結果に置き換えられる。このような重み付き加算をデプスマップ332の全画素に対して行うことで、デプスマップ332のノイズが低減される。
次に、領域抽出部321は、平滑化されたデプスマップ332から手領域を抽出する(ステップ602)。領域抽出部321は、例えば、デプスマップ332の画素のうち、閾値よりも小さい画素値を有する近距離画素からなる領域を、手領域として抽出することができる。この場合、閾値以上の画素値を有する遠距離画素からなる領域は、背景領域とみなされる。
図8は、手領域抽出処理の例を示している。図8のデプスマップ801のうち、近距離画素からなる領域802が手領域として抽出される。
ステップ602において、領域抽出部321は、デプスマップ332から抽出された手領域に対応する映像情報331の画像内の領域を、手領域として抽出する。そして、指先検出部322は、画像から抽出された手領域から、指先の位置を検出する(ステップ603)。
図9は、図6のステップ603における指先検出処理の例を示すフローチャートである。まず、指先検出部322は、手領域の基準点を決定する(ステップ901)。手領域の基準点としては、例えば、手領域内の全画素の座標の平均値に対応する重心を用いることができる。
次に、指先検出部322は、手領域の輪郭線上の点の中から指先候補点を抽出する(ステップ902)。例えば、輪郭線上で隣り合う3個の点を輪郭点A、輪郭点B、及び輪郭点Cとし、輪郭点A、輪郭点B、及び輪郭点Cと基準点との距離を、それぞれ、Da、Db、及びDcとする。このとき、指先検出部322は、輪郭線上の各点に対して次式を満たすか否かをチェックし、次式を満たす輪郭点Bを指先候補点として抽出する。

Da<Db>Dc (1)
次に、指先検出部322は、抽出した指先候補点のうち、基準点から指先候補点へ向かうベクトルが上向きである指先候補点を特定し(ステップ903)、特定した指先候補点を指先の位置に決定する(ステップ904)。例えば、画像の水平方向又は垂直方向に対するベクトルの角度が所定範囲内である場合、ベクトルが上向きであると判定される。
ユーザが1本の指を伸ばした状態で手を移動させながら、操作メニュー334を操作する場合、手領域の形状は1本の指を伸ばした形状(1本指形状)になる。この場合、上向きの指先候補点は、手領域から1個だけ抽出される。そこで、ステップ903において抽出された上向きの指先候補点の個数が1個の場合、指先検出部322は、手領域の形状が1本指形状であると判定し、その指先候補点を指先の位置に決定する。
図10は、このような1本指形状の手領域における指先候補点の例を示している。手領域1001の輪郭点1003と基準点1002との距離は、輪郭線上で輪郭点1003の両隣に位置する2つの輪郭点と基準点1002との距離よりも大きいため、輪郭点1003は指先候補点として抽出される。そして、基準点1002から輪郭点1003へ向かうベクトル1004は上向きであるため、輪郭点1003の位置が指先の位置に決定される。
この場合、図5のステップ503において、制御部323は、画像内で指先の位置が対象物領域に含まれる場合、指領域と対象物領域とが重なっていると判定する。
図11は、図4のステップ403及び図5のステップ504におけるメニュー操作モードの処理の例を示すフローチャートである。ステップ1101の処理は、図5のステップ501の処理と同様である。
座標変換部324は、指先検出部322が検出した指先の位置の座標(x,y)を、表示装置303の画面上の座標(u,v)に変換して、表示制御部111へ出力する(ステップ1102)。座標変換部324は、例えば、定数x0、定数y0、定数α、及び定数βを用いて、次式により座標(x,y)から座標(u,v)を計算する。

u=(x−x0)*α (2)
v=(y−y0)*β (3)
図12は、座標変換の例を示している。画像1201内の指先の位置に対応する輪郭点1003の座標が、画面1202上の点1203の座標に変換される。
表示制御部111は、メニュー操作モードを示す制御信号に従って、操作メニュー334と座標(u,v)を示すポインタとを表示装置303へ出力し、表示装置303は、操作メニュー334を画面に表示するとともに、座標(u,v)の位置にポインタを表示する。
図13は、画面に表示された操作メニュー334及びポインタの例を示している。画面1202内には、操作項目1301〜操作項目1303が表示され、図12の点1203に対応する位置にポインタ1311が表示される。ポインタ1311は、操作メニュー334上でユーザの手の動きに応じて移動する。
次に、操作判定部325は、画面内におけるポインタと各操作項目との位置関係に基づいて、ユーザによって選択された操作項目を特定する(ステップ1103)。操作判定部325は、例えば、ポインタの位置が操作項目の表示領域に含まれる場合に、その操作項目が選択されたと判定する。図13の例では、ポインタ1311の位置が操作項目1302の表示領域に含まれるため、操作項目1302がユーザによって選択されたと判定される。
次に、操作判定部325は、選択された操作項目に対する決定操作を検出する(ステップ1104)。図13の例では、操作項目1302が選択された状態で決定操作が検出された場合、ユーザが操作項目1302をクリックしたと判定される。
例えば、ユーザは、1本指形状の指先で操作項目を選択した状態で、伸ばした指を折り曲げるジェスチャを行うことで、操作項目をクリックする決定操作を行うことができる。このようなジェスチャ操作によれば、ユーザにとって入力タイミングが明確となり、フィードバックのない空間内であっても、入力作業が容易になる。また、操作判定部325は、指長の変化から容易に決定操作を検出することができる。
図14は、図11のステップ1104における決定操作検出処理の例を示すフローチャートである。操作判定部325は、ステップ1103においていずれかの操作項目を特定した場合、特定した操作項目を、記憶部313内のクリック対象335に設定する(ステップ1401)。ただし、現時刻よりも前の画像に基づく決定操作検出処理において、クリック対象335に操作項目が既に設定されている場合、操作判定部325は、クリック対象335を変更しない。
次に、操作判定部325は、クリック対象335に操作項目が設定されているか否かをチェックする(ステップ1402)。クリック対象335に操作項目が設定されている場合(ステップ1402,YES)、操作判定部325は、手領域の重心が移動したか否かをチェックする(ステップ1403)。
このとき、操作判定部325は、例えば、現時刻よりも前の時刻における手領域の重心と現時刻における手領域の重心との距離を、重心の移動量として求める。そして、操作判定部325は、移動量が所定値以上である場合、重心が移動したと判定し、移動量が所定値よりも小さい場合、重心が移動していないと判定する。重心の移動量に基づいて手が移動したか否かを判定することで、ユーザが選択した操作項目をクリックすることなく、指先を別の操作項目へ移動させたか否かを検出することができる。
重心が移動していない場合(ステップ1403,NO)、操作判定部325は、指先の位置に基づいて、指先から指の根元までの長さ(指長)を計算する(ステップ1404)。ステップ1401において操作項目をクリック対象335に設定した場合、操作判定部325は、計算した指長Lを指長情報336として記憶部313に格納する。
現時刻よりも前の画像に基づく決定操作検出処理において、指長情報336が既に格納されている場合、操作判定部325は、計算した指長Lを、指長情報336が示す指長L0と比較する(ステップ1405)。操作判定部325は、例えば、1以上の定数aを用いて、次式によりLとL0を比較することができる。

L0>L*a (4)
Lが式(4)を満たす場合(ステップ1405,YES)、操作判定部325は、操作項目が選択された時点よりも指長が一定割合以下まで短くなり、ユーザがクリック対象335の操作項目をクリックしたと判定する(ステップ1406)。ユーザがクリックした操作項目がメニュー操作モードの終了を表す項目である場合、制御部323は、モード情報333をメニュー操作モードから対象選択モードに変更し、対象選択モードを示す制御信号を表示制御部111へ出力する。
一方、Lが式(4)を満たさない場合(ステップ1405,NO)、操作判定部325は、指長が短くなっておらず、ユーザがクリック対象335の操作項目をクリックしていないと判定する。なお、現時刻の画像に基づく決定操作検出処理において指長情報336を格納した場合は、L=L0であるため、ユーザがクリック対象335の操作項目をクリックしていないと判定される。
重心が移動した場合(ステップ1403,YES)、操作判定部325は、ユーザが選択した操作項目をクリックするのを止めたと判定する。そして、操作判定部325は、クリック対象335に設定されている操作項目を削除して、クリック対象335を解放する(ステップ1407)。
クリック対象335が解放された後、次の時刻以降の画像において、ステップ1103で別の操作項目が特定された場合、ステップ1401において、その操作項目がクリック対象335に設定される。
また、ステップ1404において指長L0が指長情報336に設定された後、次の時刻以降の画像において、ステップ1404で指長Lが計算された場合、ステップ1405において、指長Lが指長L0と比較される。
このような決定操作検出処理によれば、ユーザは、1本指形状の指先をポインティングデバイスの代わりに用いて、指を折り曲げる直感的なジェスチャにより、操作項目に対するクリック操作を行うことができる。
図15は、図14のステップ1404における指長計算処理の例を示すフローチャートである。この指長計算処理では、指先から指の根元へ向かって手領域の幅が計算され、手領域における指の方向と、手領域の幅(指幅)の変化とに基づいて、指長が求められる。
操作判定部325は、ステップ1401において操作項目をクリック対象335に設定した場合、指先の位置と手領域の重心とを結ぶ線分を求め、その線分を指が伸びている軸方向に決定する(ステップ1501)。決定された軸方向は、指先から指の根元へ向かう方向を表している。ただし、現時刻よりも前の画像に基づく指長計算処理において、軸方向が既に決定されている場合、操作判定部325は、その軸方向を用いる。
次に、操作判定部325は、軸方向に沿って指先から重心へ向かって、所定長毎に、軸方向と垂直な方向における手領域の幅を計算する(ステップ1502)。操作判定部325は、例えば、軸方向と垂直な方向における手領域の2つの輪郭点の間の画素数を、手領域の幅として求める。そして、操作判定部325は、手領域の幅が閾値を超える位置を指の根元として特定し、指先と指の根元との距離を指長に決定する。閾値は、固定値であってもよく、デプスマップ332が示す手領域の距離に反比例する値であってもよい。
図16は、指長計算処理の例を示している。図16(a)は、操作項目が選択されたときの1本指形状の手領域を示しており、指先の位置1601と手領域の重心1602とを結ぶ線分1603は、1本指形状の軸方向を表す。この場合、1本指の指先から根元までの指長L1が求められる。
図16(b)は、操作項目が選択されてから所定時間後にその操作項目がクリックされたときの手領域を示しており、線分1603に沿った指長L2は、L1よりも一定割合以下まで短くなっている。このように、一旦、軸方向が決定されれば、その後は、指先の位置1601が検出されなくても、軸方向に沿って指長を計算することができる。
ところで、図11のステップ1102において、指先の位置を示すポインタとともに、指の軸方向を示す情報を画面に表示することも可能である。この場合、指先検出部322は、図15のステップ1501と同様にして軸方向を決定し、表示制御部111は、操作メニュー334、指先の位置を示すポインタ、及び軸方向を示す情報を、表示装置303へ出力する。そして、表示装置303は、操作メニュー334、ポインタ、及び軸方向を画面に表示する。
図17は、画面に表示された軸方向の例を示している。図17(a)の例では、画面1202内に、操作項目1301〜操作項目1303、ポインタ1311、及び軸方向を示す線分1701が表示される。ポインタ1311及び線分1701は、操作メニュー334上でユーザの手の動きに応じて移動する。
図17(b)の例では、画面1202内に、操作項目1301〜操作項目1303、ポインタ1311、及び軸方向を示す手の図形1702が表示される。ポインタ1311及び図形1702は、操作メニュー334上でユーザの手の動きに応じて移動する。
このように、指先の位置を示すポインタに加えて軸方向も表示することで、ユーザは、画面上での指の移動方向を容易に認識することができる。
図1の操作検出装置101及び図3のHMD装置の構成は一例に過ぎず、操作検出装置101及びHMD装置の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。例えば、図3のHMD装置において、デプスマップ332の代わりに映像情報331を用いて指領域抽出処理を行う場合、距離画像センサ302及び取得部312を省略することができる。
図2、図4〜図6、図9、図11、図14、及び図15のフローチャートは一例に過ぎず、操作検出装置101の構成又は条件に応じて一部の処理を省略又は変更してもよい。例えば、図6の指領域抽出処理において、デプスマップ332のノイズが少ない場合、ステップ601の処理を省略することができる。検出部112は、デプスマップ332の代わりに映像情報331を用いて指領域抽出処理を行ってもよい。
図9の指先検出処理のステップ901において、手領域の基準点として重心以外の点を用いてもよい。ユーザは、1本指形状以外の手で操作メニュー334を操作してもよく、指先以外の所定部位を用いて操作項目を選択してもよい。この場合、検出部112は、指先の位置の代わりに、所定部位の位置を検出する処理を行う。
図14の決定操作検出処理のステップ1403において、重心以外の点の移動量に基づいて手が移動したか否かを判定してもよい。ユーザは、指を折り曲げるジェスチャ以外のジェスチャで決定操作を行ってもよく、ステップ1404及びステップ1405において、操作判定部325は、指長以外の手領域の形状の変化に基づいて決定操作が行われたか否かを判定してもよい。
図7の平滑化フィルタ、図8のデプスマップ801、図10及び図12の手領域1001、図13の操作項目1301〜操作項目1303及びポインタ1311、図16の線分1603、図17の線分1701及び図形1702は一例に過ぎない。別の平滑化フィルタ等を用いてもよい。
図1及び図3の操作検出装置101は、例えば、図18に示すような情報処理装置(コンピュータ)を用いて実現可能である。図18の情報処理装置は、Central Processing Unit(CPU)1801、メモリ1802、補助記憶装置1803、媒体駆動装置1804、及びネットワーク接続装置1805を備える。これらの構成要素はバス1806により互いに接続されている。
メモリ1802は、例えば、Read Only Memory(ROM)、Random Access Memory(RAM)、フラッシュメモリ等の半導体メモリであり、処理に用いられるプログラム及びデータを格納する。メモリ1802は、図3の記憶部313として用いることができる。
CPU1801(プロセッサ)は、例えば、メモリ1802を利用してプログラムを実行することにより、図1及び図3の表示制御部111及び検出部112として動作する。CPU1801は、プログラムを実行することにより、取得部311、取得部312、領域抽出部321、指先検出部322、制御部323、座標変換部324、及び操作判定部325としても動作する。
補助記憶装置1803は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置1803は、ハードディスクドライブ又はフラッシュメモリであってもよい。情報処理装置は、補助記憶装置1803にプログラム及びデータを格納しておき、それらをメモリ1802にロードして使用することができる。補助記憶装置1803は、図3の記憶部313として用いることができる。
媒体駆動装置1804は、可搬型記録媒体1807を駆動し、その記録内容にアクセスする。可搬型記録媒体1807は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体1807は、Compact Disk Read Only Memory(CD−ROM)、Digital Versatile Disk(DVD)、Universal Serial Bus(USB)メモリ等であってもよい。ユーザは、この可搬型記録媒体1807にプログラム及びデータを格納しておき、それらをメモリ1802にロードして使用することができる。
このように、処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体は、メモリ1802、補助記憶装置1803、又は可搬型記録媒体1807のような、物理的な(非一時的な)記録媒体である。
ネットワーク接続装置1805は、Local Area Network、Wide Area Network等の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェースである。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置1805を介して受け取り、それらをメモリ1802にロードして使用することができる。
なお、情報処理装置が図18のすべての構成要素を含む必要はなく、用途又は条件に応じて一部の構成要素を省略することも可能である。例えば、他の装置との通信を行う必要がない場合は、ネットワーク接続装置1805を省略してもよく、可搬型記録媒体1807を利用しない場合は、媒体駆動装置1804を省略してもよい。
開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。
図1乃至図18を参照しながら説明した実施形態に関し、さらに以下の付記を開示する。
(付記1)
撮像装置によって撮影された撮影画像を表示装置に表示させ、
前記撮影画像内において対象物が写っている対象物領域と、前記撮影画像内において手が写っている手領域とが重なっている場合、前記対象物に対応する操作対象情報を前記撮影画像の代わりに前記表示装置に表示させ、
前記操作対象情報を表示した時点の前記手領域内における所定部位の位置を起点として、前記手の動きに応じて移動するポインタを前記表示装置に表示させ、
前記ポインタと前記操作対象情報との間の位置関係と、前記手領域の形状の変化とに基づいて、前記操作対象情報に対する決定操作を検出する、
処理をコンピュータが実行することを特徴とする操作検出方法。
(付記2)
前記所定部位は前記手の指先であり、前記コンピュータは、前記ポインタが前記操作対象情報の表示領域内に位置しているときの前記手領域の形状の変化に基づいて、前記決定操作を検出することを特徴とする付記1記載の操作検出方法。
(付記3)
前記コンピュータは、前記対象物領域と前記手領域とが重なっており、前記手領域の形状が1本の指を伸ばした形状である場合、前記操作対象情報と前記ポインタとを前記表示装置に表示させ、前記ポインタが前記操作対象情報の前記表示領域内に位置しているときの前記指の第1の長さと、所定時間後における前記指の第2の長さとを検出し、前記第2の長さが前記第1の長さよりも短い場合、前記決定操作が行われたと判定することを特徴とする付記2記載の操作検出方法。
(付記4)
前記コンピュータは、前記ポインタが前記操作対象情報の前記表示領域内に位置しており、前記手領域の重心の移動量が所定値よりも小さい場合、前記第1の長さと前記第2の長さとを検出することを特徴とする付記3記載の操作検出方法。
(付記5)
前記コンピュータは、前記ポインタが前記操作対象情報の前記表示領域内に位置しているときの前記指の指先から前記指の根元へ向かって、前記手領域の幅を計算し、計算した幅が閾値を超える位置と前記指先の位置との距離に基づいて、前記第1の長さを求めることを特徴とする付記3又は4記載の操作検出方法。
(付記6)
前記コンピュータは、前記ポインタとともに、前記指が伸びている方向を示す情報を前記表示装置に表示させることを特徴とする付記1乃至5のいずれか1項に記載の操作検出方法。
(付記7)
撮像装置によって撮影された撮影画像を表示装置に表示させ、前記撮影画像内において対象物が写っている対象物領域と、前記撮影画像内において手が写っている手領域とが重なっている場合、前記対象物に対応する操作対象情報を前記撮影画像の代わりに前記表示装置に表示させ、前記操作対象情報を表示した時点の前記手領域内における所定部位の位置を起点として、前記手の動きに応じて移動するポインタを前記表示装置に表示させる表示制御部と、
前記ポインタと前記操作対象情報との間の位置関係と、前記手領域の形状の変化とに基づいて、前記操作対象情報に対する決定操作を検出する検出部と、
を備えることを特徴とする操作検出装置。
(付記8)
前記所定部位は前記手の指先であり、前記検出部は、前記ポインタが前記操作対象情報の表示領域内に位置しているときの前記手領域の形状の変化に基づいて、前記決定操作を検出することを特徴とする付記7記載の操作検出装置。
(付記9)
前記表示制御部は、前記対象物領域と前記手領域とが重なっており、前記手領域の形状が1本の指を伸ばした形状である場合、前記操作対象情報と前記ポインタとを前記表示装置に表示させ、前記検出部は、前記ポインタが前記操作対象情報の前記表示領域内に位置しているときの前記指の第1の長さと、所定時間後における前記指の第2の長さとを検出し、前記第2の長さが前記第1の長さよりも短い場合、前記決定操作が行われたと判定する(1406)ことを特徴とする付記8記載の操作検出装置。
(付記10)
前記検出部は、前記ポインタが前記操作対象情報の前記表示領域内に位置しており、前記手領域の重心の移動量が所定値よりも小さい場合、前記第1の長さと前記第2の長さとを検出することを特徴とする付記9記載の操作検出装置。
(付記11)
撮像装置によって撮影された撮影画像を表示装置に表示させ、
前記撮影画像内において対象物が写っている対象物領域と、前記撮影画像内において手が写っている手領域とが重なっている場合、前記対象物に対応する操作対象情報を前記撮影画像の代わりに前記表示装置に表示させ、
前記操作対象情報を表示した時点の前記手領域内における所定部位の位置を起点として、前記手の動きに応じて移動するポインタを前記表示装置に表示させ、
前記ポインタと前記操作対象情報との間の位置関係と、前記手領域の形状の変化とに基づいて、前記操作対象情報に対する決定操作を検出する、
処理をコンピュータに実行させる操作検出プログラム。
(付記12)
前記所定部位は前記手の指先であり、前記コンピュータは、前記ポインタが前記操作対象情報の表示領域内に位置しているときの前記手領域の形状の変化に基づいて、前記決定操作を検出することを特徴とする付記11記載の操作検出プログラム。
(付記13)
前記コンピュータは、前記対象物領域と前記手領域とが重なっており、前記手領域の形状が1本の指を伸ばした形状である場合、前記操作対象情報と前記ポインタとを前記表示装置に表示させ、前記ポインタが前記操作対象情報の前記表示領域内に位置しているときの前記指の第1の長さと、所定時間後における前記指の第2の長さとを検出し、前記第2の長さが前記第1の長さよりも短い場合、前記決定操作が行われたと判定することを特徴とする付記12記載の操作検出プログラム。
(付記14)
前記コンピュータは、前記ポインタが前記操作対象情報の前記表示領域内に位置しており、前記手領域の重心の移動量が所定値よりも小さい場合、前記第1の長さと前記第2の長さとを検出することを特徴とする付記13記載の操作検出プログラム。
101 操作検出装置
111 表示制御部
112 検出部
301 撮像装置
302 距離画像センサ
303 表示装置
311、312 取得部
313 記憶部
321 領域抽出部
322 指先検出部
323 制御部
324 座標変換部
325 操作判定部
331 映像情報
332、801 デプスマップ
333 モード情報
334 操作メニュー
335 クリック対象
336 指長情報
802 領域
1001 手領域
1002 基準点
1003 輪郭点
1004 ベクトル
1201 画像
1202 画面
1203 点
1301〜1303 操作項目
1311 ポインタ
1601 指先の位置
1602 重心
1603、1701 線分
1702 図形
1801 CPU
1802 メモリ
1803 補助記憶装置
1804 媒体駆動装置
1805 ネットワーク接続装置
1806 バス
1807 可搬型記録媒体

Claims (8)

  1. 撮像装置によって撮影された撮影画像を表示装置に表示させ、
    前記撮影画像内において対象物が写っている対象物領域と、前記撮影画像内において手が写っている手領域とが重なっている場合、前記対象物に対応する操作対象情報を前記撮影画像の代わりに前記表示装置に表示させ、
    前記操作対象情報を表示した時点の前記手領域内における所定部位の位置を起点として、前記手の動きに応じて移動するポインタを前記表示装置に表示させ、
    前記ポインタと前記操作対象情報との間の位置関係と、前記手領域の形状の変化とに基づいて、前記操作対象情報に対する決定操作を検出する、
    処理をコンピュータが実行することを特徴とする操作検出方法。
  2. 前記所定部位は前記手の指先であり、前記コンピュータは、前記ポインタが前記操作対象情報の表示領域内に位置しているときの前記手領域の形状の変化に基づいて、前記決定操作を検出することを特徴とする請求項1記載の操作検出方法。
  3. 前記コンピュータは、前記対象物領域と前記手領域とが重なっており、前記手領域の形状が1本の指を伸ばした形状である場合、前記操作対象情報と前記ポインタとを前記表示装置に表示させ、前記ポインタが前記操作対象情報の前記表示領域内に位置しているときの前記指の第1の長さと、所定時間後における前記指の第2の長さとを検出し、前記第2の長さが前記第1の長さよりも短い場合、前記決定操作が行われたと判定することを特徴とする請求項2記載の操作検出方法。
  4. 前記コンピュータは、前記ポインタが前記操作対象情報の前記表示領域内に位置しており、前記手領域の重心の移動量が所定値よりも小さい場合、前記第1の長さと前記第2の長さとを検出することを特徴とする請求項3記載の操作検出方法。
  5. 前記コンピュータは、前記ポインタが前記操作対象情報の前記表示領域内に位置しているときの前記指の指先から前記指の根元へ向かって、前記手領域の幅を計算し、計算した幅が閾値を超える位置と前記指先の位置との距離に基づいて、前記第1の長さを求めることを特徴とする請求項3又は4記載の操作検出方法。
  6. 前記コンピュータは、前記ポインタとともに、前記指が伸びている方向を示す情報を前記表示装置に表示させることを特徴とする請求項1乃至5のいずれか1項に記載の操作検出方法。
  7. 撮像装置によって撮影された撮影画像を表示装置に表示させ、前記撮影画像内において対象物が写っている対象物領域と、前記撮影画像内において手が写っている手領域とが重なっている場合、前記対象物に対応する操作対象情報を前記撮影画像の代わりに前記表示装置に表示させ、前記操作対象情報を表示した時点の前記手領域内における所定部位の位置を起点として、前記手の動きに応じて移動するポインタを前記表示装置に表示させる表示制御部と、
    前記ポインタと前記操作対象情報との間の位置関係と、前記手領域の形状の変化とに基づいて、前記操作対象情報に対する決定操作を検出する検出部と、
    を備えることを特徴とする操作検出装置。
  8. 撮像装置によって撮影された撮影画像を表示装置に表示させ、
    前記撮影画像内において対象物が写っている対象物領域と、前記撮影画像内において手が写っている手領域とが重なっている場合、前記対象物に対応する操作対象情報を前記撮影画像の代わりに前記表示装置に表示させ、
    前記操作対象情報を表示した時点の前記手領域内における所定部位の位置を起点として、前記手の動きに応じて移動するポインタを前記表示装置に表示させ、
    前記ポインタと前記操作対象情報との間の位置関係と、前記手領域の形状の変化とに基づいて、前記操作対象情報に対する決定操作を検出する、
    処理をコンピュータに実行させる操作検出プログラム。
JP2015232625A 2015-11-30 2015-11-30 操作検出方法、操作検出装置、及び操作検出プログラム Active JP6716897B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015232625A JP6716897B2 (ja) 2015-11-30 2015-11-30 操作検出方法、操作検出装置、及び操作検出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015232625A JP6716897B2 (ja) 2015-11-30 2015-11-30 操作検出方法、操作検出装置、及び操作検出プログラム

Publications (2)

Publication Number Publication Date
JP2017102499A true JP2017102499A (ja) 2017-06-08
JP6716897B2 JP6716897B2 (ja) 2020-07-01

Family

ID=59016520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015232625A Active JP6716897B2 (ja) 2015-11-30 2015-11-30 操作検出方法、操作検出装置、及び操作検出プログラム

Country Status (1)

Country Link
JP (1) JP6716897B2 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JP2005063091A (ja) * 2003-08-11 2005-03-10 Keio Gijuku ハンドパターンスイッチ装置
JP2007286696A (ja) * 2006-04-12 2007-11-01 Toyota Motor Corp 入力装置
JP2008158675A (ja) * 2006-12-21 2008-07-10 Toyota Motor Corp 車両用操作装置
WO2015015843A1 (ja) * 2013-08-02 2015-02-05 三菱電機株式会社 ジェスチャー判定装置及び方法、並びにジェスチャー操作装置、並びにプログラム及び記録媒体
WO2015037273A1 (ja) * 2013-09-12 2015-03-19 三菱電機株式会社 操作入力装置及び方法、並びにプログラム及び記録媒体
JP2015060579A (ja) * 2013-09-20 2015-03-30 ヤフー株式会社 情報処理システム、情報処理方法および情報処理プログラム
JP2015094828A (ja) * 2013-11-11 2015-05-18 シチズンホールディングス株式会社 画像投影方法、情報入力装置及びプログラム
JP2015519673A (ja) * 2012-06-14 2015-07-09 クアルコム,インコーポレイテッド 透明なヘッドマウントディスプレイ用のユーザインターフェースとの対話

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
JP2005063091A (ja) * 2003-08-11 2005-03-10 Keio Gijuku ハンドパターンスイッチ装置
JP2007286696A (ja) * 2006-04-12 2007-11-01 Toyota Motor Corp 入力装置
JP2008158675A (ja) * 2006-12-21 2008-07-10 Toyota Motor Corp 車両用操作装置
JP2015519673A (ja) * 2012-06-14 2015-07-09 クアルコム,インコーポレイテッド 透明なヘッドマウントディスプレイ用のユーザインターフェースとの対話
WO2015015843A1 (ja) * 2013-08-02 2015-02-05 三菱電機株式会社 ジェスチャー判定装置及び方法、並びにジェスチャー操作装置、並びにプログラム及び記録媒体
WO2015037273A1 (ja) * 2013-09-12 2015-03-19 三菱電機株式会社 操作入力装置及び方法、並びにプログラム及び記録媒体
JP2015060579A (ja) * 2013-09-20 2015-03-30 ヤフー株式会社 情報処理システム、情報処理方法および情報処理プログラム
JP2015094828A (ja) * 2013-11-11 2015-05-18 シチズンホールディングス株式会社 画像投影方法、情報入力装置及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
井上 快: "Kinectを利用した指文字認識に関する検討", 電子情報通信学会技術研究報告, vol. 112, no. 417, JPN6019035227, 18 January 2013 (2013-01-18), pages 45 - 50, ISSN: 0004113656 *
北尾 雄一朗: "CAMshift法による手と指の同時追跡を用いたクリック動作認識", 映像メディア処理シンポジウム 第17回シンポジウム資料, JPN6019005658, 24 October 2012 (2012-10-24), pages 19 - 20, ISSN: 0004113655 *

Also Published As

Publication number Publication date
JP6716897B2 (ja) 2020-07-01

Similar Documents

Publication Publication Date Title
TWI534654B (zh) 用於在一頭部安裝裝置上選擇一擴充實境物件之方法及電腦可讀媒體與用於選擇一擴充實境物件之頭部安裝裝置
US8094204B2 (en) Image movement based device control method, program, and apparatus
CN105229582B (zh) 基于近距离传感器和图像传感器的手势检测
JP6716996B2 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
US9836130B2 (en) Operation input device, operation input method, and program
CN108027656B (zh) 输入设备、输入方法和程序
KR101747892B1 (ko) 제스처 인식 기반 사용자 상호 작용 방법 및 이를 위한 장치
CN102868811B (zh) 一种基于实时视频处理的手机屏幕操控方法
US20190073793A1 (en) Electronic apparatus, method for controlling thereof and the computer readable recording medium
US20150277570A1 (en) Providing Onscreen Visualizations of Gesture Movements
US10185399B2 (en) Image processing apparatus, non-transitory computer-readable recording medium, and image processing method
JP2014029656A (ja) 画像処理装置および画像処理方法
JP2016103137A (ja) ユーザインタフェース装置、画像処理装置及び制御用プログラム
US10410051B2 (en) Method of extracting a region in a distance image, storage medium, and head mounted display apparatus
US10930068B2 (en) Estimation apparatus, estimation method, and non-transitory computer-readable storage medium for storing estimation program
JP6530432B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2011134113A (ja) 情報提示装置、情報提示方法、及びプログラム
JP2016099643A (ja) 画像処理装置、画像処理方法および画像処理プログラム
WO2011096571A1 (ja) 入力装置
KR102640871B1 (ko) 증강 현실을 이용한 영상 데이터를 제공하는 전자 장치 및 그 제어 방법
KR101515845B1 (ko) 동작 인식 방법 및 동작 인식 장치
KR101593950B1 (ko) 손동작 기반의 인터페이스 장치 및 이를 이용한 포인팅 방법
JP6716897B2 (ja) 操作検出方法、操作検出装置、及び操作検出プログラム
KR101911676B1 (ko) 지시체의 움직임을 고려한 프리젠테이션 영상 처리장치 및 방법
JP2014002502A (ja) 手のばし検出装置、手のばし検出方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191106

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191106

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200525

R150 Certificate of patent or registration of utility model

Ref document number: 6716897

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150