JP6524589B2 - クリック動作検出装置,方法およびプログラム - Google Patents
クリック動作検出装置,方法およびプログラム Download PDFInfo
- Publication number
- JP6524589B2 JP6524589B2 JP2015534370A JP2015534370A JP6524589B2 JP 6524589 B2 JP6524589 B2 JP 6524589B2 JP 2015534370 A JP2015534370 A JP 2015534370A JP 2015534370 A JP2015534370 A JP 2015534370A JP 6524589 B2 JP6524589 B2 JP 6524589B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- virtual object
- finger
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 52
- 238000000034 method Methods 0.000 title description 9
- 230000033001 locomotion Effects 0.000 claims description 27
- 238000003384 imaging method Methods 0.000 claims description 15
- 230000001133 acceleration Effects 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 3
- 210000003811 finger Anatomy 0.000 description 30
- 230000007704 transition Effects 0.000 description 17
- 239000003550 marker Substances 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 238000003860 storage Methods 0.000 description 3
- 241000699666 Mus <mouse, genus> Species 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007850 degeneration Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003921 oil Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
クリックはコンピュータなどを操作するための基本的な動作である。透過型ヘッドマウントディスプレイなどの実体を伴わない表示画面を用いる場合に,その表示画面に表示したボタンなどの仮想物体をクリック操作することは,空中でクリック動作を行うことになり,このクリック動作を検出することは難しかった。
1台のカメラからの映像に基づいて空中でのクリック動作を検出しようとすると,指先の正確な三次元位置を推定することが困難で,三次元空間における動きである仮想物体との接触を判定することができない。
従来技術として,指に付されたマーカから指の三次元位置を推定し,仮想物体との三次元的な衝突を判定するものがある。たとえば特許文献1では,肌色検出やエッジ抽出などを行い,指を検出することができるとされている。しかしながら,二次元画像上の手指の領域から推定できる奥行位置には精度の限界があり,仮想物体との衝突を正しく判定することは難しいので,指にマーカなどを付して検出することが開示されている。この場合にはマーカの画像上の大きさによってある程度正しく奥行き位置を推定できると考えられるが,指先にマーカをつけることが装置利用上の制約となることがある。
特許文献2では,複数台のカメラから出力される画像に基づいて得られる指先位置から指の三次元位置を獲得し,仮想物体と三次元位置との衝突を判定している。この場合にも,大きさを持った手指の領域から三角測量の原理で指先位置を推定することになり,高い精度で奥行き位置を推定することは望めない。複数台のカメラを用いることが装置利用上の制約となることもある。
また非特許文献1では,画像上で検出しやすいジェスチャである「親指と人差し指で挟む」(pinch,ピンチ)ことに着目して,指先の三次元位置を推定することなく,仮想物体指定を実現している。このジェスチャは理解しやすいものの,一般に行われている現実物体を指定する方法とは異なるために,仮想物体とのやり取りをしている印象が強くなり,自然なインタフェースを実現する上で用途によっては不十分であることがある。
上述したように,指先にマーカを付したり,複数のカメラを用いたりする場合には,奥行位置を把握する精度が十分でなく,クリック動作の検出精度が低いことや,余分な装置を用いることで制約が生じたり,製造コストが高くなるというような問題がある。
また,現実物体の操作方法と異なるジェスチャを利用する場合には,不自然な操作方法となり違和感を与えるというような問題がある。
発明の開示
この発明は,最も一般的で現実的なクリック動作に着目して,これを検出しようとするものである。
この発明はクリック操作する手,指等にマーカ等を付すことなく,素の状態で行うクリック動作を検出しようとするものである。
この発明はまた,一台のカメラからの動画像に基づいてクリック動作を検出することができるようにするものである。
この発明によるクリック動作検出装置は,あらかじめ作成された仮想物体の画像と撮像装置から入力される動画像とを合成し,表示装置に表示する表示制御手段,前記動画像を構成する各フレーム画像内に現われる手領域の少なくとも一部を抽出する手領域抽出手段,時間的に隣接する(または,近い。以下同じ。)フレーム(フレーム画像)間の(2フレーム間,3フレーム間などの),抽出した手領域の特定部分に関する差分量を求める差分算出手段,および前記差分量によって表わされる状態の時間遷移を調べることによって,前記手領域の前記特定部分の動きによって表わされるクリック動作を検出するクリック動作検出手段を備えるものである。
この発明によるクリック動作検出方法は,あらかじめ作成された仮想物体の画像と撮像装置から入力される動画像とを合成して表示装置に表示し,前記動画像を構成する各フレーム画像内に現われる手領域の少なくとも一部を抽出し,時間的に隣接するフレーム(フレーム画像)間の(2フレーム間,3フレーム間などの),抽出した手領域の特定部分に関する差分量を求め,そして前記差分量によって表わされる状態の時間遷移を調べることによって,前記手領域の前記特定部分の動きによって表わされるクリック動作を検出するものである。
この発明によるクリック動作検出のためのプログラムは,あらかじめ作成された仮想物体の画像と撮像装置から入力される動画像とを合成し,表示装置に表示させ,前記動画像を構成する各フレーム画像内に現われる手領域の少なくとも一部を抽出し,時間的に隣接するフレーム(フレーム画像)間の(2フレーム間,3フレーム間などの),抽出した手領域の特定部分に関する差分量を求め,そして前記差分量によって表わされる状態の時間遷移を調べることによって,前記手領域の前記特定部分の動きによって表わされるクリック動作を検出するようにコンピュータを制御するものである。
手領域は手領域の一部,たとえば特定の指や指先部分を含む。
この発明によると,コンピュータの操作において最も一般的なクリック動作と類似の動作を検出することができる。しかも,手,指,指先等にマーカ等を付ける必要はない。そして,カメラは1台ですむ。
好ましい実施態様では,前記表示装置に表示されている仮想物体の画像の所定領域内で,前記抽出された手領域の前記特定部分が,所定時間以上,動きを停止していることを検出してクリック可能状態と判断する(クリック可能状態検出手段)。
クリック可能状態と判断したときにその旨を報知するとよい(クリック可能状態報知手段)。この報知は,表示画像上で行ってもよいし,音等を発生することにより行ってもよい。これにより,ユーザは目的とする仮想物体を選択できたことを認識することができる。
特に望ましい実施態様では,前記クリック可能状態検出手段がクリック可能状態と判断したときに,前記表示制御手段は前記仮想物体の画像の所定領域に関連する部分の表示態様(色,大きさ,形)を変化させる。これにより,ユーザはクリックしようとする仮想物体を表示画面上で認識することができ,誤ったクリック対象を回避することができる。
さらに,前記クリック動作検出手段がクリック動作を検出したときにその旨を報知すると一層好ましい(クリック動作報知手段)。ユーザは自分がクリック動作を正しく行なえたことを認識することができる。
前記差分算出手段が算出する差分量の例は,抽出した手領域の特定部分の速度情報および加速度情報である。
クリック動作検出の態様にはさまざまある。その一は,前記手領域の前記特定部分の動きが,動いている状態から,急減速して停止したことを検出してクリック動作と判断するものである。その二は,前記手領域の前記特定部分の動きに停止状態,運動状態,急減速,そして停止状態の遷移があったときにクリック動作と判断するものである。
上記において,急減速から,表示されている仮想物体の画像の所定領域内で停止したときにクリック動作と判断するようにすると,特定の仮想物体が確かにクリックされたことを確認できる。
あらかじめ作成された仮想物体の画像を必ずしも表示しなくてもよい。仮想物体の画像の表示を要しないこの発明のクリック動作検出装置は,撮像装置から入力される動画像を表示装置に表示する表示制御手段,前記動画像を構成する各フレーム画像内に現われる手領域の少なくとも一部を抽出する手領域抽出手段,時間的に隣接するフレーム(フレーム画像)間の(2フレーム間,3フレーム間などの),抽出した手領域の特定部分に関する差分量を求める差分算出手段,および前記差分量によって表わされる状態の時間遷移を調べることによって,前記手領域の前記特定部分の動きによって表わされるクリック動作を検出するクリック動作検出手段を備えているものである。
この発明によるクリック動作検出方法は,撮像装置から入力される動画像を表示装置に表示し,前記動画像を構成する各フレーム画像内に現われる手領域の少なくとも一部を抽出し,時間的に隣接するフレーム(フレーム画像)間の(2フレーム間,3フレーム間などの),抽出した手領域の特定部分に関する差分量を求め,そして前記差分量によって表わされる状態の時間遷移を調べることによって,前記手領域の前記特定部分の動きによって表わされるクリック動作を検出するものである。
この発明によるクリック動作検出のためのプログラムは,撮像装置から入力される動画像を表示装置に表示させ,前記動画像を構成する各フレーム画像内に現われる手領域の少なくとも一部を抽出し,時間的に隣接するフレーム(フレーム画像)間の(2フレーム間,3フレーム間などの),抽出した手領域の特定部分に関する差分量を求め,そして前記差分量によって表わされる状態の時間遷移を調べることによって,前記手領域の前記特定部分の動きによって表わされるクリック動作を検出するようにコンピュータを制御するものである。
上記は特に仮想物体が一つでユーザが仮想物体を選択する必要がない場合に有効である。
クリック可能状態の検出も可能である。すなわち,前記表示装置の表示画面内の所定領域内で,前記抽出された手領域の前記特定部分が所定時間以上,動きを停止していることを検出してクリック可能状態と判断する。
表示装置を必要とせず,撮像装置からの動画像信号に基づいてクリック動作を検出するようにすることもできる。これは,クリック動作を何らかの合図とするような場合に有効である。
この発明によるクリック動作検出装置は,撮像装置から入力される動画像を構成する各フレーム画像内に現われる手領域の少なくとも一部を抽出する手領域抽出手段,時間的に隣接するフレーム(フレーム画像)間の(2フレーム間,3フレーム間などの),抽出した手領域の特定部分に関する差分量を求める差分算出手段,および前記差分量によって表わされる状態の時間遷移を調べることによって,前記手領域の前記特定部分の動きによって表わされるクリック動作を検出するクリック動作検出手段を備えているものである。
この発明によるクリック動作検出方法は,撮像装置から入力される動画像を構成する各フレーム画像内に現われる手領域の少なくとも一部を抽出し,時間的に隣接するフレーム(フレーム画像)間の(2フレーム間,3フレーム間などの),抽出した手領域の特定部分に関する差分量を求め,そして前記差分量によって表わされる状態の時間遷移を調べることによって,前記手領域の前記特定部分の動きによって表わされるクリック動作を検出するものである。
この発明によるクリック動作検出のためのプログラムは,撮像装置から入力される動画像を構成する各フレーム画像内に現われる手領域の少なくとも一部を抽出し,時間的に隣接するフレーム(フレーム画像)間の(2フレーム間,3フレーム間などの),抽出した手領域の特定部分に関する差分量を求め,そして前記差分量によって表わされる状態の時間遷移を調べることによって,前記手領域の前記特定部分の動きによって表わされるクリック動作を検出するようにコンピュータを制御するものである。
この発明は,上記のプログラムを格納したコンピュータ読取可能な記録(記憶)媒体も提供している。
第2図は,実施例によるクリック動作検出装置の電気的構成を示すブロック図である。
第3図は,仮想物体を表示する表示画面の一例を示す。
第4図は,カメラで撮像した画面の一例を示す。
第5図は,仮想物体の表示画面とカメラの撮像画面とを合成して得られる画面の例を示す。
第6図は,クリック動作可能状態の通知例を示す。
第7図は,指先の検出処理を説明するためのものである。
第8図は,指先の運動,静止の遷移図である。
第9A図および第9B図は,クリック動作時における指先の動きの遷移を示す。
第10図は,クリック動作検出の処理手順を示すフローチャートである。
第11図は,携帯端末装置への応用例を示す斜視図である。
第12図は,大型ディスプレイへの応用例を示す斜視図である。
ユーザがヘッドマウントディスプレイ(以下,HMDという)20を頭部に装着している。HMDは表示装置を有しており,ユーザは表示装置に映された画像を見る。画像の中に現われている仮想物体(virtual object)がユーザの目の前の適当な距離はなれた位置(空中)に存在するかのように見える。第1図に示す例では仮想物体は複数個の配列されたボタン31であり,それらのボタン31が表示装置の表示画面30A内に表示されている。
コンピュータ上での従来のクリック動作は,表示画面上の特定の位置(対象)または領域(対象)内にカーソルを位置決めし,マウス上のボタンを押すことにより,該当する対象を選択する,または特定の命令の実行を指令するものである。これと類似の動作(操作)として,この実施例では表示画面上の仮想物体(表示された位置,領域,対象)を選択して,あたかもボタンを押すかのように指先で押す動作を行うことをクリック動作という(後述するところから明らかになるように,クリック動作の検出のためには,特定の仮想物体を選択することは必ずしも必須の要件ではない)。
HMD20を装着したユーザは,その表示画面に表示され,あたかも前方の空中に存在するかのように見える複数のボタン31のうちの1つを選択して,自分の指先でそのボタンを押す(クリックする)動作を行う。HMD20にはカメラ11が設けられ,その前方,すなわち仮想物体31が存在する付近を撮像し,撮像により得られる動画像信号を出力する。ユーザの指先(指,手)はカメラ11で撮影され,カメラ11から出力される動画像信号についての画像処理により,ユーザが特定のボタンを選択したこと,およびそのボタンをクリックしたこと(押したこと)が検出される。
第2図はこの実施例のクリック動作検出装置の電気的構成を示すものである。
処理装置10はたとえばコンピュータにより実現され,機能的には,後に詳述する画像メモリ13,表示制御部14,手領域抽出部15,差分算出部16,クリック可能状態検出部17,クリック動作検出部18を備えている。カメラ11は,たとえば上述したHMD20に設けられたものであり,クリック動作を行うユーザの手または指付近を撮影するようにその視野が位置決めされる。表示装置12は,一例として,上述したHMD20に装備されている表示装置(ディスプレイ)である。
クリック動作検出装置はさらに入力装置21,出力装置22,記憶装置19等を必要に応じて備える。入力装置21はクリック動作検出プログラム,パラメータ,指令等を入力するもので,キーボード,表示画面とマウス,通信装置,媒体の読取装置等により実現される。出力装置22は,クリック動作により入力されたデータ等を出力するもので,表示装置(表示装置12と兼用できる),通信装置,媒体の書込装置等により実現される。記憶装置19は,クリック動作検出プログラム,パラメータ,入力データ(クリック動作により入力されたデータを含む)等を記憶する。
処理装置10の画像メモリ13は,カメラ11により撮像され,カメラ11から出力される動画像(信号,データ)の少なくとも複数フレーム分の静止画像(信号,データ)を記憶する。これらの画像データは手領域抽出部15,差分算出部16において利用される。
表示制御部14は,あらかじめ作成された仮想物体(ボタン31等)を表示するための画像データを保存しており,それに基づいて表示装置12の表示画面上に仮想物体を表示する。また,画像メモリ13に記憶されている撮像画像を仮想物体の画像上に重ね合わせて(合成して),表示装置12の表示画面上に表示する。
たとえば第3図は表示装置12の表示画面に表示される仮想物体31の画像30Aを示している。画面の左上角がXY座標の原点である。仮想物体31の位置,領域はこのXY座標上にあらかじめ定められている。第4図はカメラ11が撮像した動画像のうちの1フレーム分の画像30Bを示している。ユーザの手領域40や人差し指41が表わされている。この画像30BのXY座標の原点も左上の角に定められている。
第5図は第3図に示す仮想物体31を含む表示装置12の表示画像30Aとカメラ11が撮像した1フレーム分の画像30Bとを,XY座標原点を一致させて重ね合わせて(合成して)得られる画像30Bを示している。最終的にはこの合成画像30が表示制御部14の制御の下に表示装置12の表示画面に表示されることになる。合成画像の作成において,上の説明では,両画像30A,30BのXY座標原点を一致させているが,必ずしも原点でなくてもよい。画像30Aと画像30Bの特定の点を一致させればよい。また,両画像30A,30Bの一方または両方を,拡大したり,縮小したりした上で合成してもよい。
手領域抽出部15は,画像メモリ13に記憶されている撮影画像の各フレーム(画像)上で手領域を算出し,手領域を特定する。手領域の特定は,あらかじめHSV(Hue,Saturation Value)表色系などで定義される色の範囲に基づいて,肌色の画素を抜き出すことなどによって行うことができる。例えば,HSV色空間上で代表的な肌色の位置を与え,その位置から色空間内で一定距離内にある領域の色を肌色として定義する。
手以外にも肌色を持つ領域が画像上に含まれていることが考えられるので,領域の大きさによって手領域を絞り込む。肌色であると判定された領域をラベリングによって確定し,それらのうちで最大の面積を持つ領域を手領域であると推定する。
最初のフレームで抽出した肌色領域の画素のHSV色空間における分布を学習データとして,次のフレーム以降の肌色領域の抽出に反映させることも可能である。HSV色空間における抽出した肌色領域の画素の平均値と分散共分散行列を求める。求めた平均値と分散共分散行列を用いて判定対象となる画素の色とのマハラノビス距離を算出し,それをしきい値と比較することで次以降のフレームの肌色領域を抽出する。
第7図は肌色領域と判定された領域について膨張縮退処理(クロージング,またはオープニング)を行って得られた手領域40を示している。この手領域40にはクリック動作するときに用いられる指(たとえば人差し指)41が含まれており,その先端は最小のY座標を持つ画素であると考えられる。指先領域(指先の内側(爪の反対側)のふくらんだ部分)を確定するために,上記の先端画素を中心とする半径R(あらかじめ設定)の円の範囲内において,手(指)領域の境界の画素に距離値0を与え,手(指)領域の内側に向って境界から離れる画素ほど大きな距離値を与える。距離値が最大を示す画素(符号42で示すXの点)を指先とし,距離値が所定のしきい値以上の範囲を指先領域とする。
上記のようにして決定した指先の画素のx,y座標が指先の画面上の位置である。指先の奥行方向(z方向)の位置は,一例として,指の太さをパラメータとして定めることができる。たとえば,指先(または指の先端)の画素を中心とする所定の半径の円(半径Rの円でもよい)を仮想し,この円と手(指)領域の境界との交点(2つある)間の距離を指の太さwを示すものとする。指がカメラ11から離れれば指の太さは細くなるので,z方向(奥行方向)の位置のパラメータとして使うことができる。以上のようにして,指先の3次元位置(のパラメータ)が定まる。
差分算出部16は画像メモリ13に記憶されている複数フレーム分の静止画像を用いて,時間的に隣接するフレーム間での指先の位置変化(速度),速度の変化(加速度)を求めるものである。時間的に隣接するフレーム間(2つのフレーム画像間)における指先位置(x,y,w)の変化分をdx,dy,dwとすると,a(dx)2+b(dy)2+c(dw)2(a,b,cは適当な定数)の平方根を求めて,これを位置変化すなわち速度とする。さらに速度の変化(時間的に隣接する3フレームの画像を用いる)を求めて加速度とする。
ユーザが指先で仮想物体31をクリックするときには,まず指先をクリックしようとする仮想物体31に重ねることが多い(必ずしも重ねないときもある)。クリック可能状態検出部17は,指先が仮想物体31に重なったことを検出するものである。画像30A上の各仮想物体(の像)31は画像30A上における範囲(領域)を持っている。上述のようにして求められたユーザの指先の位置のX,Y座標(x,y)が特定の仮想物体31の領域の範囲内にあり,この状態が所定の時間(たとえば数フレームの時間,一例として4フレームの時間)継続していることを検知して,クリック可能状態検出とする。クリック可能状態が検出されると,たとえば,第6図に示すように,指先が重なった特定の仮想物体31(Cの文字が表わされたボタン)を拡大して表示するというように,仮想物体31の表示態様を変化させる。これにより,ユーザは目的とする仮想物体31上に自分の指先があり,クリック動作が可能となったことを視覚的に認識することができる。仮想物体と指先の重なりは,2次元平面上のみならず,3次元的に,たとえば3次元空間内のある方向に沿う重なりとして検出することもできる。なお,クリック可能状態の検出部17は無くてもよい。
指先で仮想物体をクリックする動作を観察した結果,指先の動きには第8図に示す遷移があることが分った。
停止状態は,所定時間(数フレームの時間,少なくとも1フレーム時間間隔)以上にわたって指先の位置が変化しない(変化範囲が微小な値以下)静止状態を意味する。低速状態と高速状態は指先が動いている状態を示し,その移動速度が相対的に小さい(速度が0または0に近い値以上で所定の第1のしきい値以下)状態を低速状態,相対的に大きい状態(速度が上記の第1のしきい値を超えている)(加速度が所定のしきい値以上という条件を加えてもよい)を高速状態という。急減速とは,指先の動きが急速に速度を落とす状態,すなわち急激に減速する状態である。第8図の矢印は遷移の方向を示している。停止状態と低速状態との間,停止状態と高速状態との間,低速状態と高速状態との間の遷移はそれぞれ双方向である。急減速については,高速状態から急減速に進み,最終的に停止する。この急減速を含む指先の動きがクリック動作に特徴的なものである。急減速は加速度が負であり,かつ所定のしきい値以下の状態をいう。また,急減速の後の停止は,速度が0またはその近傍(小さなしきい値以下)であればよい。すなわち,少なくとも1フレーム時間間隔の間,指先が実質的に動いていなければよい。
仮想物体をクリックする動作を分析的にみると,第9A図に示すように,停止状態から低速状態に移り,さらに高速状態となって急減速して停止するという動作と,第9B図に示すように,停止状態から高速状態になり,急減速して停止状態になるという動作があることが分る。第9B図の高速状態は必ずしも高速でなくてもよい。最初の停止状態は動く前の静止状態と考えればよい。
クリック動作検出部18は,これらの第9A図または第9B図に示す動作の状態遷移が生じたことを検出してクリック動作があったことを検出する。クリック動作において特徴的なことは,動いている状態から急減速して停止することである。最終的な停止位置では,クリックされる仮想物体の領域内に指先位置が存在し,かつ所定時間以上,その状態を保っていることが好ましいが,1フレーム時間間隔以上であればよい。動きの開始前は停止しているという意味では,動いている状態の前に,最初の停止状態が存在するが,この最初の停止状態では指先位置が必ずしも仮想物体の領域内に存在しなくてもよい。これとは対照的に,最初の停止状態の検出とクリック可能状態検出(指先位置が仮想物体の領域内に存在する)とを兼ねてもよい。
クリック動作検出部18はクリック動作を検出すると,クリックされた仮想物体の表示の態様を変える。たとえば,第6図に示す拡大された仮想物体の色を変化させるなどである。特定の音を発生させてもよい。これにより,ユーザはクリック動作を完遂したことを認識することができる。クリックされた仮想物体によって表わされるデータ(第6図の例ではCというキャラクタ)または命令がクリック動作によって入力されたことを表示画面上の入力データ欄(領域),命令実行領域に表示するようにするとよい。
第10図は処理装置(コンピュータ)10がそのクリック動作検出プログラムにしたがって行う処理の流れを示している。
カメラ11が撮像し画像メモリ13に記憶されている最初のフレームの静止画を取出して(S11),その画像データに基づいて手領域を抽出し,指先位置を算出する(手領域抽出部15)(S12)。算出された指先位置に基づいてその差分(速度,加速度)を算出する(差分算出部16)(S12)。速度の算出には2フレーム分の画像データが必要であり,加速度の算出には3フレーム分の画像データが必要であるから,第2,第3フレームの静止画像データを取得したときに,速度,加速度の算出が可能となる。
得られた差分データに基づいてクリック可能状態の検出処理を行い(クリック可能状態検出部17)(S14),クリック可能状態であれば(S15でYES),仮想物体の表示態様の変化,特定の音の発生等により,クリック可能状態を通知する(S16)。
続いて,移動状態,動作状態の時間的遷移を調べることによりクリック動作検出処理を行う(クリック動作検出部18)(S17)。クリック動作を検出すると(S18),仮想物体の表示態様を変化させる,特定の音を発生させるなどによりクリック動作状態を通知する(S19)。
画像メモリ13に記憶された最終フレームでない限り(S20),次のフレームを取得して(S21),S12からの処理を繰返す。最終フレームになれば,クリック検出処理は終了する。
第11図はクリック動作検出を携帯端末装置に適用した使用例(応用例)を示している。携帯端末装置50の表示画面51が設けられている面とは反対側の面にカメラ(カメラの視野を鎖線52で示す)が設けられている。ユーザはカメラの視野内で指先でクリック動作を行う。すなわち,ユーザの手の指をカメラの視野内に置くと,それがカメラで撮影され,表示画面51に表示される。表示画面51には仮想物体(アイコン,ボタンなど)が表示されており,ユーザは表示画面51上においてそこに表示された仮想物体をそこに表示された指先でクリックする。携帯端末装置の表示画面は小さく,かつ人間の実際の指先によってタッチできる領域の大きさには制約がある。表示画面51に表示するユーザの指先を小さくすれば,多くの小さなアイコン等(仮想物体)を表示画面に配置し,かつ所望のものをクリックすることができるようになる。
第12図は逆に大型のディスプレイにクリック動作検出を適用した例を示している。大型の表示装置60の上部にカメラ62が設置され,その視野は表示装置60の表示画面61の前方の領域に設定されている。表示画面61が大きすぎてユーザの手が届かないところがあるが,ユーザの手(指)がカメラ62の視野内にありさえすれば,表示画面61に表示された仮想物体をカメラ62が撮影し,表示画面61に表示された手または指(一般的には左右反転されよう)でクリックすることができる。
さらにノートパソコンやディスクトップ端末にクリック動作検出を応用することができる。一般的には,これらの端末装置の表示装置の上部にカメラが設けられ,表示画面前方を撮影することになるであろう(第12図と同じ配置)。もちろん,第11図の形態と同じように表示画面の反対側をカメラで撮影してもよい。キーボードやマウスのほかに,タッチパネルを備えた端末装置が一般に販売されているが,環境によってはこれらの入力装置が不十分であることがある。たとえば,調理場,風呂場,船上,手術室などでは水や油,血液などで汚れるのでキーボード,マウス,タッチパネルに触れることが難しい。上述したクリック動作検出は非接触でボタン操作を実現するので,これらの状況に対しても端末の利用を可能にする。
表示画面に表示される仮想物体は平面的(二次元的)な配置のみならず,三次元的に配置された状態の表示であってもよい。
表示装置の表示画面上に必ずしも仮想物体を表示しなくてもよい。ユーザの手(指)がカメラで撮影されていれば,その動画像信号に基づいてクリック動作を検出することができる。この場合に,クリック可能状態の検出は,表示画面に表示されたユーザの手(指)が表示画面内の所定の領域内で所定時間以上停止状態にあることを検出すればよい。さらに表示装置も必ずしも必要ではない。カメラで手(指)の動きを撮像すれば,その出力画像信号に基づいてクリック動作の検出が可能である。表示装置がない場合には,複数の仮想物体のうちの一つを選択したことがユーザに分りにくい。仮想物体が一つの場合や,仮想物体そのものを想定せずに,何らかの合図としてクリック動作を検出する応用などの場合には必ずしも表示装置は必要ないであろう。
Claims (7)
- あらかじめ作成された仮想物体の画像と1台の撮像装置から入力される動画像とを合成し,表示装置に表示する表示制御手段,
前記動画像を構成する各フレーム画像内に現われる指領域を抽出する指領域抽出手段,
前記指領域抽出手段が抽出した指領域における指の太さを算出する手段,
時間的に隣接するフレーム間の,抽出した指領域のX方向,Y方向および算出した指の太さによって表わされる3次元パラメータの差分量に基づいて3次元の速度情報および加速度情報を求める差分算出手段,ならびに
前記差分算出手段が求めた前記指領域の速度情報および加速度情報に基づいて,前記指領域が,動いている状態から,急減速して表示されている仮想物体の画像の所定領域内で停止したときにクリック動作と判断するクリック動作検出手段,
を備えるクリック動作検出装置。 - 前記表示装置に表示されている仮想物体の画像の所定領域内で,前記抽出された指領域が,所定時間以上,動きを停止していることを検出してクリック可能状態と判断するクリック可能状態検出手段をさらに備える,請求項1に記載のクリック動作検出装置。
- 前記クリック可能状態検出手段がクリック可能状態と判断したときに,前記表示制御手段は前記仮想物体の画像の所定領域に関連する部分の表示態様を変化させる,請求項2に記載のクリック動作検出装置。
- 前記クリック動作検出手段がクリック動作を検出したときにその旨を報知する報知手段をさらに備える,請求項2または3に記載のクリック動作検出装置。
- あらかじめ作成された仮想物体の画像と1台の撮像装置から入力される動画像とを合成して,表示装置に表示し,
前記動画像を構成する各フレーム画像内に現われる手領域の少なくとも一部を抽出し,
抽出した手領域における指の太さを算出し,
時間的に隣接するフレーム間の,抽出した手領域の特定部分のX方向,Y方向および算出した指の太さによって表わされる3次元パラメータの差分量に基づいて3次元の速度情報および加速度情報を求め,
前記表示装置に表示されている仮想物体の画像の所定領域内で,前記抽出された手領域の前記特定部分が,所定時間以上,動きを停止していることを検出してクリック可能状態と判断し,
前記速度情報および加速度情報に基づいて,前記手領域の前記特定部分が,前記クリック可能状態から運動状態に入り,その後急減速して表示されている仮想物体の画像の所定領域内で停止したときにクリック動作と判断する,
クリック動作検出方法。 - あらかじめ作成された仮想物体の画像と1台の撮像装置から入力される動画像とを合成して,表示装置に表示させ,
前記動画像を構成する各フレーム画像内に現われる手領域の少なくとも一部を抽出し,
抽出した手領域における指の太さを算出し,
時間的に隣接するフレーム間の,抽出した手領域の特定部分のX方向,Y方向および算出した指の太さによって表わされる3次元パラメータの差分量に基づいて3次元の速度情報および加速度情報を求め,
前記表示装置に表示されている仮想物体の画像の所定領域内で,前記抽出された手領域の前記特定部分が,所定時間以上,動きを停止していることを検出してクリック可能状態と判断し,そして
前記速度情報および加速度情報に基づいて,前記手領域の前記特定部分が,前記クリック可能状態から運動状態に入り,その後急減速して表示されている仮想物体の画像の所定領域内で停止したときにクリック動作と判断するようにコンピュータを制御する,
クリック動作検出のためのプログラム。 - 請求項6に記載のプログラムを記録したコンピュータ読取可能な記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013179269 | 2013-08-30 | ||
JP2013179269 | 2013-08-30 | ||
PCT/JP2014/073415 WO2015030264A1 (ja) | 2013-08-30 | 2014-08-29 | クリック動作検出装置,方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2015030264A1 JPWO2015030264A1 (ja) | 2017-03-02 |
JP6524589B2 true JP6524589B2 (ja) | 2019-06-05 |
Family
ID=52586804
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015534370A Active JP6524589B2 (ja) | 2013-08-30 | 2014-08-29 | クリック動作検出装置,方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6524589B2 (ja) |
WO (1) | WO2015030264A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111610858B (zh) | 2016-10-26 | 2023-09-19 | 创新先进技术有限公司 | 基于虚拟现实的交互方法及装置 |
JP6790769B2 (ja) * | 2016-11-30 | 2020-11-25 | セイコーエプソン株式会社 | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 |
JP7281401B2 (ja) * | 2017-01-24 | 2023-05-25 | ロンザ リミテッド | 仮想又は拡張現実表示を使用して産業保守を遂行するための方法及びシステム |
JP6744990B2 (ja) | 2017-04-28 | 2020-08-19 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理装置の制御方法、及びプログラム |
US11301087B2 (en) | 2018-03-14 | 2022-04-12 | Maxell, Ltd. | Personal digital assistant |
JP7058198B2 (ja) * | 2018-08-21 | 2022-04-21 | グリー株式会社 | 画像表示システム、画像表示方法及び画像表示プログラム |
US11210856B2 (en) * | 2019-08-20 | 2021-12-28 | The Calany Holding S. À R.L. | System and method for interaction-level based telemetry and tracking within digital realities |
JP7432407B2 (ja) * | 2020-03-16 | 2024-02-16 | 大豊精機株式会社 | 作業管理システム及び作業管理システムの設定方法 |
JP2021177313A (ja) * | 2020-05-08 | 2021-11-11 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置及びユーザの入力操作に基づく情報処理方法並びに該方法を実行するためのコンピュータプログラム |
CN112783368B (zh) * | 2021-01-14 | 2024-07-02 | 惠州Tcl移动通信有限公司 | 一种优化触控屏报点稳定性的方法、存储介质及终端设备 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3544739B2 (ja) * | 1994-04-13 | 2004-07-21 | 株式会社東芝 | 情報入力装置 |
JPH086708A (ja) * | 1994-04-22 | 1996-01-12 | Canon Inc | 表示装置 |
JP3521187B2 (ja) * | 1996-10-18 | 2004-04-19 | 株式会社東芝 | 固体撮像装置 |
JP4438351B2 (ja) * | 2003-08-22 | 2010-03-24 | 富士ゼロックス株式会社 | 指示入力装置、指示入力システム、指示入力方法、及びプログラム |
JP5430572B2 (ja) * | 2007-09-14 | 2014-03-05 | インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー | ジェスチャベースのユーザインタラクションの処理 |
JP5205187B2 (ja) * | 2008-09-11 | 2013-06-05 | 株式会社エヌ・ティ・ティ・ドコモ | 入力システム及び入力方法 |
JP5262681B2 (ja) * | 2008-12-22 | 2013-08-14 | ブラザー工業株式会社 | ヘッドマウントディスプレイ及びそのプログラム |
JP4900741B2 (ja) * | 2010-01-29 | 2012-03-21 | 島根県 | 画像認識装置および操作判定方法並びにプログラム |
JP5564300B2 (ja) * | 2010-03-19 | 2014-07-30 | 富士フイルム株式会社 | ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法 |
JP2012053532A (ja) * | 2010-08-31 | 2012-03-15 | Casio Comput Co Ltd | 情報処理装置及び方法、並びにプログラム |
JP4846871B1 (ja) * | 2010-10-28 | 2011-12-28 | 善博 和田 | キー入力装置、それを備える携帯端末および携帯端末を入力装置として機能させるためのプログラム |
JP2012238293A (ja) * | 2011-04-28 | 2012-12-06 | Nextedge Technology Inc | 入力装置 |
-
2014
- 2014-08-29 JP JP2015534370A patent/JP6524589B2/ja active Active
- 2014-08-29 WO PCT/JP2014/073415 patent/WO2015030264A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2015030264A1 (ja) | 2015-03-05 |
JPWO2015030264A1 (ja) | 2017-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6524589B2 (ja) | クリック動作検出装置,方法およびプログラム | |
JP7191714B2 (ja) | デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法 | |
US11896893B2 (en) | Information processing device, control method of information processing device, and program | |
US9939914B2 (en) | System and method for combining three-dimensional tracking with a three-dimensional display for a user interface | |
KR101688355B1 (ko) | 다수의 지각 감지 입력의 상호작용 | |
CN107077169B (zh) | 扩增现实中的空间交互 | |
EP2907004B1 (en) | Touchless input for a user interface | |
US8933882B2 (en) | User centric interface for interaction with visual display that recognizes user intentions | |
US9342925B2 (en) | Information processing apparatus, information processing method, and program | |
JP6057396B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作処理方法 | |
US9619042B2 (en) | Systems and methods for remapping three-dimensional gestures onto a finite-size two-dimensional surface | |
JP4323180B2 (ja) | 自己画像表示を用いたインタフェース方法、装置、およびプログラム | |
US20110107216A1 (en) | Gesture-based user interface | |
Rossol et al. | A multisensor technique for gesture recognition through intelligent skeletal pose analysis | |
KR20140035358A (ko) | 시선-보조 컴퓨터 인터페이스 | |
US20130343607A1 (en) | Method for touchless control of a device | |
JP2013016060A (ja) | 操作入力装置および操作判定方法並びにプログラム | |
US20150123891A1 (en) | Methods for automatically assessing user handedness in computer systems and the utilization of such information | |
JP2021189659A (ja) | 情報処理装置及びユーザの入力操作に基づく情報処理方法並びに該方法を実行するためのコンピュータプログラム | |
Zhang et al. | Free-hand gesture control with" touchable" virtual interface for human-3DTV interaction | |
EP3059664A1 (en) | A method for controlling a device by gestures and a system for controlling a device by gestures | |
US20240211034A1 (en) | Methods and systems for gaze assisted interaction | |
WO2023031988A1 (ja) | 電子機器及びプログラム | |
CN117043723A (zh) | 用于操纵环境中的对象的方法 | |
KR20160062906A (ko) | 고글형 디바이스를 위한 증강현실 키보드 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170809 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180807 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190219 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190315 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190419 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6524589 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |