JP4267648B2 - インターフェース装置及びその方法 - Google Patents

インターフェース装置及びその方法 Download PDF

Info

Publication number
JP4267648B2
JP4267648B2 JP2006229572A JP2006229572A JP4267648B2 JP 4267648 B2 JP4267648 B2 JP 4267648B2 JP 2006229572 A JP2006229572 A JP 2006229572A JP 2006229572 A JP2006229572 A JP 2006229572A JP 4267648 B2 JP4267648 B2 JP 4267648B2
Authority
JP
Japan
Prior art keywords
hand
gesture
movement
image
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006229572A
Other languages
English (en)
Other versions
JP2008052590A (ja
Inventor
司 池
恭弘 谷口
隆三 岡田
晋久 岸川
謙太朗 横井
真由美 湯浅
シュテンガー ビヨン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2006229572A priority Critical patent/JP4267648B2/ja
Priority to US11/757,159 priority patent/US7844921B2/en
Priority to CNA2007101466668A priority patent/CN101131609A/zh
Publication of JP2008052590A publication Critical patent/JP2008052590A/ja
Application granted granted Critical
Publication of JP4267648B2 publication Critical patent/JP4267648B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/446Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering using Haar-like filters, e.g. using integral image techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、操作者の手を含む画像を撮影し、手の形状及び動きを画像処理によって認識し、その結果に基づき制御対象機器を制御できるようにしたインターフェース装置に関する。
現在、テレビやコンピュータ等の機器を操作するためのインターフェース装置としては、リモコンやキーボード、マウスなどの指示装置を用いて操作を行うものが一般的である。しかしながら、これらのインターフェース装置では、指示装置を介して操作を行うために必ずしも直感的で分かりやすいものとはなっていない。また、指示装置を紛失してしまうとインターフェース装置を利用できなくなってしまう。
そこで、上記の課題を解決するためのインターフェース装置の一つとして、操作者が手を動かしたり手の姿勢を変化させたりすることにより、指示装置を用いることなく機器の操作を実現する、ハンドジェスチャユーザーインターフェース装置に関する技術が提案されてきた。
例えば、特許文献1では、ディスプレイに内蔵されたCCDカメラによって撮影した操作者を含む画像から、操作者の手の形状及び動きを認識し、これに基づき画面に表示されている指示アイコンの形状及び位置を変化させるといった表示制御を行うことにより、ハンドジェスチャによる指示を可能にしたインターフェース装置が開示されている。
一般に、上記のインターフェース装置では、操作者は予め定められた特定のハンドジェスチャ(例えば、手姿勢を作る、特定の手振りを行う、特定の軌跡に沿って手を動かすなどの行為)を行うことにより、特定のコマンドや位置等の指示を行う。
特開2004−78977公報
しかしながら、上記従来のインターフェース装置においては、操作者は指示に用いるハンドジェスチャを覚える必要があり、ジェスチャによる指示を行う上で負担となっていた。
そこで本発明は、上記問題点に鑑みなされたもので、操作者が指示に用いる特定のハンドジェスチャを覚えることなくスムーズに指示を与えられるようにしたインターフェース装置及びその方法を提供することを目的とする。
本発明は、操作者が手形状又は手の動きによって制御対象装置に指示を与えるインターフェース装置において、前記操作者の手を含む画像を入力する画像入力部と、前記入力画像から認識対象として1種類以上の前記手形状又は前記手の動きを認識するジェスチャ認識部と、前記認識した手形状又は手の動きに対応した指示情報に基いて前記制御対象装置を制御する制御部と、前記ジェスチャ認識部が認識可能な手形状又は手の動きの模範的な画像を表示するジェスチャ情報表示部と、を備え、前記ジェスチャ認識部は、前記入力画像内の1個以上の部分領域のそれぞれについて、前記手形状又は前記手の動きが含まれる確率を算出するジェスチャ評価部と、前記確率が最も高い部分領域を手候補領域として選択する手候補領域選択部と、前記手候補領域における前記確率が閾値以上のときに前記手形状又は前記手の動きが含まれると認識するジェスチャ判定部と、を備え、前記ジェスチャ情報表示部は、前記認識した手形状又は手の動き及び前記確率を表示する、ことを特徴とするインターフェース装置である。また、本発明は、操作者が手形状又は手の動きによって制御対象装置に指示を与えるインターフェース装置において、前記操作者の手を含む画像を入力する画像入力部と、前記入力画像から認識対象として1種類以上の前記手形状又は前記手の動きを認識するジェスチャ認識部と、前記認識した手形状又は手の動きに対応した指示情報に基いて前記制御対象装置を制御する制御部と、前記ジェスチャ認識部が認識可能な手形状又は手の動きの模範的な画像を表示するジェスチャ情報表示部と、を備え、前記ジェスチャ認識部は、前記入力画像内の1個以上の部分領域のそれぞれについて、前記手形状又は前記手の動きが含まれる確率を算出するジェスチャ評価部と、前記確率が最も高い部分領域を手候補領域として選択する手候補領域選択部と、前記手候補領域における前記確率が閾値以上のときに前記手形状又は前記手の動きが含まれると認識するジェスチャ判定部と、を備え、前記ジェスチャ情報表示部は、前記手候補領域の画像を表示する、ことを特徴とするインターフェース装置である。さらに、本発明は、操作者が手形状又は手の動きによって制御対象装置に指示を与えるインターフェース装置において、前記操作者の手を含む画像を入力する画像入力部と、前記入力画像から認識対象として1種類以上の前記手形状又は前記手の動きを認識するジェスチャ認識部と、前記認識した手形状又は手の動きに対応した指示情報に基いて前記制御対象装置を制御する制御部と、前記ジェスチャ認識部が認識可能な手形状又は手の動きの模範的な画像を表示するジェスチャ情報表示部と、を備え、前記ジェスチャ認識部は、前記入力画像内の1個以上の部分領域のそれぞれについて、前記手形状又は前記手の動きが含まれる確率を算出するジェスチャ評価部と、前記確率が最も高い部分領域を手候補領域として選択する手候補領域選択部と、前記手候補領域における前記確率が閾値以上のときに前記手形状又は前記手の動きが含まれると認識するジェスチャ判定部と、を備え、前記ジェスチャ情報表示部は、前記認識した手形状又は手の動き及び前記確率、及び、前記手候補領域の画像を表示する、ことを特徴とするインターフェース装置である。
本発明によれば、操作者はインターフェース装置の操作に用いる手形状や手の動きを覚えることなく操作を行うことができる。
以下、本発明の一実施形態における制御対象装置を操作、制御するためのハンドジェスチャユーザーインターフェース装置(以下、略して「HGUI装置」という)について図面に基づいて説明する。
(第1の実施形態)
以下、第1の実施形態にかかるHGUI装置について、図1〜図8に基づいて説明する。
(1)HGUI装置の構成
図1は、第1の実施形態にかかるHGUI装置の構成を示すブロック図である。
撮像部1は、例えばCCDビデオカメラなどの撮像装置を用いて、操作者の手を含む画像を撮像し、これをジェスチャ認識部2に供給する。
ジェスチャ認識部2は、入力された画像から、認識対象ジェスチャが含まれる領域及びジェスチャの種類を求め、認識結果として出力する。
制御部3は、ジェスチャ認識部2が出力する認識結果に基づいて、制御対象機器(図示せず)の制御内容を決定し、実際に制御対象機器の制御を行う。
ジェスチャ情報表示部4は、操作者がHGUI装置に指示を与える際に参照するための情報を表示する。
(2)ジェスチャ認識部2
ジェスチャ認識部2の構成例として、例えば、米国特許出願公開第2002/0102024号に記載されている対象物評価装置を参考にして説明する。
図2は、ジェスチャ認識部2のブロック図である。
部分領域画像生成部21は、入力画像上のさまざまな位置にさまざまな大きさの部分領域を設定し、前記部分領域内の画像を切り出して対象物検出部22に供給する。ここで部分領域は、例えば図3に示すように、n種類のウィンドウサイズを用意し、そのそれぞれについて画面を走査させることによって設定する。
対象物検出部22は、入力として与えられた部分領域画像を所定のサイズに正規化を行った上で、ジェスチャ辞書格納部23に格納された辞書データを用いることにより、対象物かどうか判定を行う。
対象物であるかどうかの判定は、図4のように直列にm個接続された強識別器S(1),・・・,S(m)によって行われる。これらの強識別器Sは、それぞれn(m)個の弱識別器W(1),・・・,W(n)によって構成されており、各弱識別器Wは、正規化された入力画像中の特定部分を評価することにより、対象物であるかどうかを判定する。
各強識別器Sは、構成するn(m)個の弱識別器Wの判定結果を総合的に評価し、対象物であるかどうかを決定する。直列に接続された全ての強識別器Sが対象物であると決定した場合のみ、対象物検出部22は、入力画像を対象物として決定する。
弱識別器Wによる入力画像の評価方法について、図5を用いて説明を行う。
入力として与えられた部分領域画像は、N×Nの大きさに正規化された後、強識別器iを構成する各弱識別器W(i,1),・・・,W(i,n(i))において対象物かどうか判定される。
対象物判定は、弱識別器W毎に定義されている領域A及び領域Bについて、それぞれ領域内の全画素の輝度値の和SA及びSBを求め、その差を対象物判定閾値Tと比較することにより行う。ここで、領域A及び領域Bは、それぞれ図5に示すような1乃至2個の矩形領域によって表わされる。具体的な領域A及び領域Bの位置や形状及び対象物判定閾値Tについては、予め対象物画像及び非対象物画像を用いた学習により、対象物と非対象物を効果的に判別できるようなものを選んでおく。
これら弱識別器Wによる判定結果h(i,j,x)は、以下の式によって求められる。
Figure 0004267648
但し、S(i,j,x)、S(i,j,x)、T(i,j)は、それぞれ強識別器Siを構成する弱識別器Wjにおいて、入力画像xが与えられたときの領域A及び領域Bの輝度値の和及び対象物判定閾値である。また、p(i,j)={1,−1}はパリティを意味し、p(i,j)=−1の時は、S(i,j,x)−S(i,j,x)がT(i,j)より小さいときに対象物として判定される。
強識別器iの判定結果h(i,x)は、各弱識別器Wによる評価結果h(i,j,x)から以下の式によって得られる。
Figure 0004267648
ここでα(i,j)は、弱識別器W(i,j)の信頼性を表わしており、これは学習用画像における正答率に基づき決定される。
対象物検出部22における最終的な判定結果は、以下の式によって表わされる。
Figure 0004267648
複数種類の対象物について対象物か否かを判定する場合は、対象物毎に識別器を用意してそれぞれの対象物について上記の判定処理を行う。
なお、上記はジェスチャ認識手法の一例として示したものであり、上記手法に限定されることを意味しない。例えば、入力画像から生成した輪郭画像に対して模範画像との類似性を評価する方法や、入力画像における肌色領域のパターン類似性を評価する方法などを用いることも可能である。
(3)制御部3
制御部3は、ジェスチャ認識部2によって認識されたハンドジェスチャの種類及び位置に基づいて制御内容を決定し、制御対象装置の制御を行う。
ここでは、図6を用いて制御部3が行う制御の一例について説明する。
図6は、モニタ等に表示されるメニュー画面を表わしている。このメニュー画面は、操作者に制御部3の内部状態を知らせるために用いられる。メニュー画面は、複数個の矩形領域31によって構成されており、これらにはそれぞれ特定のコマンドが関連付けられている。
矩形領域31eは、他の矩形領域と異なる色(図ではハッチングで示されている)で表示されているが、これは矩形領域31eに対応するコマンドが現在選択されていることを意味する。
操作者は、撮像部1に向かって図7(a)で表わされる手姿勢を保ちながら手を上下左右に移動させることにより、制御部3は、メニュー画面上で選択されている矩形領域を手の動きにあわせて変更する。例えば、図6の状態において、操作者が図7(a)の手姿勢を保ちながら手を左に一定量移動させると、矩形領域31eの選択状態が解除され、矩形領域31dが選択される。
操作者は、撮像部1に向かって図7(b)で表わされる手姿勢を行うことにより、制御部3は、現在選択されている矩形領域に関連付けられたコマンドを実行する。例えば、図6の状態において、操作者が図7(b)の手姿勢を行うと、制御部は矩形領域31eに関連付けられたコマンド(例えば、ビデオレコーダであれば録画予約、映像ライブラリ呼び出しなど)を実行する。
(4)ジェスチャ情報表示部4
上記したように従来のHGUI装置は、操作者が指示を行う際に、図7に示すようなハンドジェスチャを覚えている必要がある。このため、操作者は操作に用いるハンドジェスチャを正確に覚える努力をするか、または、手元に説明書などをおいてこれを参照しながら操作を行う必要があり、操作者に大きな負担を強いることになる。
そこで、本実施形態においては、ジェスチャ情報表示部4を用いて操作者に操作に用いるハンドジェスチャを提示している。
本実施形態におけるジェスチャ情報表示部4について図8に基づいて説明する。図8は、図6のメニュー画面を対して、ジェスチャ一覧表示部4を実装したメニュー画面を表わしている。
ジェスチャ情報表示部4は、ジェスチャ認識部2が認識対象とするジェスチャを表示する1個以上の認識対象ジェスチャ表示部42から構成されるジェスチャ一覧表示部41を有している。
認識対象ジェスチャ表示部42は、ジェスチャ画像表示部43と、ジェスチャ名称表示部44によって構成される。
ジェスチャ画像表示部43には、認識対象ジェスチャを視覚的に表わす画像が表示される。表示される画像は静止画像であっても動画像であってもよく、例えば、手形状によるジェスチャであれば、ジェスチャ認識部2が認識しやすい模範的な手姿勢(以後、模範手姿勢という)を示す静止画像を表示する。
また、手振り(手の動き)によるハンドジェスチャであれば、模範的な手の軌跡を表わすイラストを表示しても良いし、実際に手を動かしている動画を表示しても良い。
ジェスチャ名称表示部44には、認識対象ジェスチャの名称が表示される。
(5)効果
以上のように、第1の実施形態にかかるHGUI装置においては、操作に用いるジェスチャをジェスチャ情報表示部4に一覧表示することにより、操作者は操作に用いるジェスチャを予め覚えることなく、ジェスチャ情報を確認しながら装置の操作を行うことが可能となり、装置の操作性を向上させることができる。
(6)変更例
(6−1)変更例1
認識対象ジェスチャ表示部42の目的は、操作者にジェスチャ認識部2が認識対象としているジェスチャを視覚的に提示することであるから、この目的を達成可能なさまざまな形態をとることができる。例えば、認識対象ジェスチャ表示部42を、ジェスチャ画像表示部43のみで構成することも考えられる。
(6−2)変更例2
ジェスチャ情報表示部4は、上記の説明で述べた図6の形態のインターフェース装置への適用に限定されず、異なる形態のインターフェース装置への適用も可能である。例えば、特許文献1で開示されているインターフェイス装置において、ディスプレイの表示画面上の一部の領域にジェスチャ情報表示部4を設けることも可能である。
(6−3)変更例3
ジェスチャ情報表示部4は、操作対象装置を構成する画面上に設ける必要はなく、ジェスチャ情報を表示するための画面表示装置(例えば、小型のディスプレイや、PDAなど)を別途用意しても良い。
例えば、操作対象装置には図6のようなジェスチャ一覧表示部41を備えないメニュー画面を表示し、ジェスチャ情報を別途用意した画面表示装置に表示しても良い。また例えば、エアコンなど画面表示装置を備えない装置を操作するためのユーザーインターフェース装置において、ジェスチャ情報を手元にある画面表示装置に表示しても良い。
(第2の実施形態)
以下、第2の実施形態であるHGUI装置について、図9〜図13に基づいて説明する。
第1の実施形態においては、操作に用いるハンドジェスチャの一覧をジェスチャ情報表示部4に表示することにより、操作者は操作に用いるジェスチャの種類及び対応する模範的な手姿勢を覚えることなく、ハンドジェスチャの一覧を確認しながら操作ができる。
ところが、操作者が一覧表示された模範手姿勢を参照しながら手姿勢を行ったとしても、手姿勢が模範手姿勢と完全に一致せず、HGUI装置は操作者の手姿勢を必ずしも適切に認識できないことがある。
このとき、操作者は自分の手姿勢をHGUI装置がどのように認識しているかが分からないため、HGUI装置が認識しやすいように自分の手姿勢を修正することができず、操作をスムーズに行うことができない可能性がある。
そこで、本実施形態にかかるHGUI装置においては、ジェスチャ認識結果の表示を行う認識結果表示部61を備えている。これにより、操作者が行う手姿勢がHGUI装置からどのように認識されているかを知ることが可能となり、操作者は提示された認識結果に基づいて手姿勢を修正できる。
(1)HGUI装置の構成
図9は、第2の実施形態にかかるHGUI装置の構成を示すブロック図である。
本実施形態においては、ジェスチャ認識部5及びジェスチャ情報表示部6の機能が変更されたことが第1の実施形態と異なっている。以後の説明において、第1の実施形態と同一の構成及び機能のブロックについては同一符号を記し、説明を省略する。
撮像部1、制御部3は、図1のものと機能が同一であるため、ここでの説明を省略する。
(2)ジェスチャ認識部5
ジェスチャ認識部5のブロック図を図10に示す。
ジェスチャ評価部51は、入力画像中にさまざまな部分領域を設定し、これら部分領域内の画像に検出対象ジェスチャが含まれる可能性を評価してそれぞれスコアを算出し、評価結果をして出力する。
スコアの算出方法としては、図4及び図5で説明したジェスチャ認識手法を用いる場合には、例えば以下の式のように式(2)における弱識別器Wの評価結果及び信頼性を用いて算出することができる。
Figure 0004267648
また、入力画像から生成した輪郭画像に対して模範画像との類似性を評価する方法や、入力画像における肌色領域のパターン類似性を評価する方法であれば、模範データとの類似度をスコアとして用いても良い。
手候補領域選択部52は、ジェスチャ評価部51によって評価された複数の部分領域から、スコア値が高いものを手候補領域として選択する。
本実施形態では、スコア値が最も高い1個の領域を手候補領域として選択している。 しかし、これに限定されるものではなく、例えば、複数人のジェスチャを同時に認識する場合などには、スコア値の上位複数個の領域を選択することも考えられる。
ジェスチャ判定部53は、手候補領域が認識対象ジェスチャかどうか判定する。図4及び図5で説明したジェスチャ認識手法を用いる場合は、式(3)を用いて判定する。
(3)ジェスチャ情報表示部6
ジェスチャ情報表示部6のブロック図を図11に示す。
ジェスチャ一覧表示部41は、図8のものと機能が同一であるため、ここでの説明を省略する。
認識結果表示部61は、ジェスチャ認識結果を表示する。ここで、認識結果としては、少なくともジェスチャ認識部5によってどのハンドジェスチャが認識されたかが分かるための情報を含むものとする。前記情報としては、検出されたジェスチャの種類であってもよい。また、手候補領域選択部52によって選択された手候補領域に関して、ジェスチャ評価部51によって評価された各ハンドジェスチャである確率、及び各ジェスチャが含まれるかどうかを判定する閾値であってもよい。
ここでは、図12を用いてジェスチャ情報表示部6の実施形態の一例について説明する。図12はジェスチャ情報表示部6を備えたメニュー画面の一例を示している。
図12の例において、認識結果表示部61は、手候補領域内の部分領域画像を表示する手候補領域画像表示部62、操作者の手姿勢が検出対象である各ジェスチャとして認識されているかどうかを表示するジェスチャ検出結果表示部63、及び手候補領域の画像が各ジェスチャである確率を表示するジェスチャ確率表示部64によって構成される。
手候補領域画像表示部62は、手候補領域選択部22によって選択された手候補領域内の画像を切り出して表示する機能を有する。
ジェスチャ検出結果表示部63は、手候補領域画像表示部62の外枠として実装されている。ジェスチャ検出結果は、ジェスチャ検出結果表示部63の色によって示される。すなわち、認識対象ジェスチャ毎に固有の色(例えば、カーソル移動ジェスチャが青、決定ジェスチャが赤、など)を決めておき、認識対象ジェスチャとして認識された時は、ジェスチャ検出結果表示部63の色を認識されたジェスチャに対応する色に変化させることにより、操作者に該当するジェスチャとして認識されていることを知らせる。また、いずれのジェスチャとしても認識されなかったときは、認識されていないことを示す色(例えば、無色)に変化させることにより、認識されていないことを操作者に知らせる。
ジェスチャ確率表示部64は、本実施形態では棒グラフとして実装されており、認識対象ジェスチャのそれぞれについて1個ずつ用意される。棒グラフは、それぞれジェスチャ評価部51によって算出された対応するハンドジェスチャである確率を示すスコア値に基づいた長さで表示される。また、棒グラフの色は、それぞれの認識対象ジェスチャに固有の色(ジェスチャ検出結果表示部63と同様の色)とすることにより、操作者はどのハンドジェスチャに対応する確率であるかを識別できる。
(4)効果
操作者は、手候補領域画像表示部62に表示された画像を確認することにより、操作者の行っている手姿勢が撮像部1からどのように見えているかを知ることができる。
また、ジェスチャ検出結果表示部63の色を確認することにより、ジェスチャ検出結果を操作者が視覚的に確認することができる。
さらに、手候補領域画像表示部62に表示された画像をジェスチャ画像表示部43の画像を比較したり、ジェスチャ確率表示部64に表示された確率値を確認したりすることにより、操作者は自分が行っているハンドジェスチャが模範ジェスチャとどの程度異なっているかを確認できる。これにより、操作者はHGUI装置が認識しやすいようにジェスチャを修正することが可能となり、操作対象装置の操作をよりスムーズに行うことができるようになる。
以上のように、第2の実施形態にかかるHGUI装置においては、認識結果表示部61を用いて操作者が行う手姿勢がどのように認識されているかを表示することにより、操作者は認識結果を確認しながら自分が行う手姿勢を装置に認識させやすいように変えることが可能となり、HGUI装置の操作性をさらに向上させることができる。
(5)変更例
(5−1)変更例1
本実施形態において、認識結果表示部61は手候補領域画像表示部62とジェスチャ確率表示部64の双方を備えた構成となっているが、必ずしもこれらの双方を備えている必要はなく、いずれか一つのみを備えた場合にも上記問題点を解決することができる。すなわち、手候補領域画像表示部62のみを備えた場合には、ここに表示されて画像がジェスチャ画像表示部43の画像に近づくようにハンドジェスチャを修正することにより、より装置が認識しやすいハンドジェスチャを行うことが可能となる。
(5−2)変更例2
ジェスチャ確率表示部64のみを備えた場合には、ジェスチャ確率表示部64を確認しながら自分の行っているジェスチャを何通りかに変化させてジェスチャ確率が高くなるものを見つけることにより、より装置が認識しやすいハンドジェスチャを行うことが可能となる。
(5−3)変更例3
ジェスチャ検出結果表示部63の機能は、ジェスチャ確率表示部64で代替することも可能である。すなわち、図12に示すようにグラフにおけるジェスチャ判定閾値に相当する部分に印を表示しておくことにより、操作者はグラフの長さが閾値を越えたかどうかでジェスチャとして認識されているかどうかを知ることができる。あるいは、ジェスチャ一覧表示部41に表示された、ハンドジェスチャに対応するジェスチャ名称をハイライト表示しても良い。
(5−4)変更例4
ジェスチャ確率表示部64は、棒グラフ以外の外観であってもよい。例えば、グラフで表示する代わりに確率値そのものを表示してもよい。
(5−5)変更例5
ジェスチャ一覧表示部41と認識結果表示部61は、別々の領域に表示する必要はなく、図13に示すようにこれらの機能を融合した表示部を設けても良い。
図13の例では、ジェスチャ検出結果表示部63は、手候補領域画像表示部62の周囲に配置する代わりに、ジェスチャ一覧表示部41に表示されたジェスチャ画像表示部の周囲にジェスチャの種類毎に実装されており、これらは対応するジェスチャが認識されたときに色が変化することにより、ハンドジェスチャが認識されていることを操作者に知らせる。また、ジェスチャ確率表示部64をジェスチャ一覧表示部41における各ジェスチャ名称表示部の下部に配置することにより、どのジェスチャに対応した確率であるかを操作者がより判別しやすくなっている。
(5−6)変更例6
認識結果表示部61を用いた認識結果の表示は、手振りによるハンドジェスチャに対しても行うことができる。
例えば、検出された一連の手候補領域(以下、手振り候補という)について、位置の時系列情報及び手候補領域画像によって構成される手振り候補の情報を手候補領域情報記憶部(図示しない)に記憶しておく。
ここで、手振り候補の検出方法としては、手の輪郭等に着目した公知のトラッキング手法を用いることができる。ここで検出された手振り候補の位置に関する時系列情報について、理想的な手振りの時系列情報との距離dを算出することにより、理想的な手振りと操作者の手振りとの違いの大きさを算出する。
距離の算出方法としては、DPマッチングなどの公知の手法を用いることができる。ここで算出した距離d、及び該当する手振りに対応する正規分布N(μ,ρ2)に基づき、操作者の手振りが該当する手振りである確率pを以下のようにして算出する。
Figure 0004267648
ここで算出した確率pをジェスチャ確率表示部63に表示すると共に、手振り候補の情報に含まれる一連の手候補領域画像を、ジェスチャ一覧表示部41に表示された理想的な手振りを表わす動画と同期して手候補領域画像表示部62に表示することにより、操作者に自分が行う手振りが装置からどのように認識されているかを知らせることができる。
本発明の第1の実施形態のHGUI装置の構成例である。 ジェスチャ認識部2の構成例を示すブロック図である。 部分領域生成部21が生成する部分領域を説明する図である。 対象物検出部22における対象物検出方法について説明するための図である。 対象物検出部22における対象物検出方法について説明するための図である。 制御部3の制御の一例について説明するための図である。 操作に用いるジェスチャの一例を示す図である。 ジェスチャ情報表示部4を備えたハンドジェスチャユーザーインターフェースの例である。 第2の実施形態のHGUI装置の構成例である。 ジェスチャ認識部5の構成例を示すブロック図である。 ジェスチャ情報表示部6の構成例を示すブロック図である。 ジェスチャ情報表示部6を備えたハンドジェスチャユーザーインターフェースの例である。 ジェスチャ情報表示部6を備えたハンドジェスチャユーザーインターフェースの他の例である。
符号の説明
1 撮像部
2 ジェスチャ認識部
3 制御部
4 ジェスチャ情報表示部
5 ジェスチャ認識部
6 ジェスチャ情報表示部
21 部分領域生成部
22 対象物検出部
23 ジェスチャ辞書格納部
31 矩形領域
41 ジェスチャ一覧表示部
42 認識対象ジェスチャ表示部
43 ジェスチャ画像表示部
44 ジェスチャ名称表示部
51 ジェスチャ評価部
52 手候補領域選択部
53 ジェスチャ判定部
61 認識結果表示部
62 手候補領域画像表示部
63 ジェスチャ検出結果表示部
64 ジェスチャ確率表示部

Claims (9)

  1. 操作者が手形状又は手の動きによって制御対象装置に指示を与えるインターフェース装置において、
    前記操作者の手を含む画像を入力する画像入力部と、
    前記入力画像から認識対象として1種類以上の前記手形状又は前記手の動きを認識するジェスチャ認識部と、
    前記認識した手形状又は手の動きに対応した指示情報に基いて前記制御対象装置を制御する制御部と、
    前記ジェスチャ認識部が認識可能な手形状又は手の動きの模範的な画像を表示するジェスチャ情報表示部と、
    を備え、
    前記ジェスチャ認識部は、
    前記入力画像内の1個以上の部分領域のそれぞれについて、前記手形状又は前記手の動きが含まれる確率を算出するジェスチャ評価部と、
    前記確率が最も高い部分領域を手候補領域として選択する手候補領域選択部と、
    前記手候補領域における前記確率が閾値以上のときに前記手形状又は前記手の動きが含まれると認識するジェスチャ判定部と、
    を備え、
    前記ジェスチャ情報表示部は、前記認識した手形状又は手の動き、及び、前記確率を表示する、
    ことを特徴とするインターフェース装置。
  2. 操作者が手形状又は手の動きによって制御対象装置に指示を与えるインターフェース装置において、
    前記操作者の手を含む画像を入力する画像入力部と、
    前記入力画像から認識対象として1種類以上の前記手形状又は前記手の動きを認識するジェスチャ認識部と、
    前記認識した手形状又は手の動きに対応した指示情報に基いて前記制御対象装置を制御する制御部と、
    前記ジェスチャ認識部が認識可能な手形状又は手の動きの模範的な画像を表示するジェスチャ情報表示部と、
    を備え、
    前記ジェスチャ認識部は、
    前記入力画像内の1個以上の部分領域のそれぞれについて、前記手形状又は前記手の動きが含まれる確率を算出するジェスチャ評価部と、
    前記確率が最も高い部分領域を手候補領域として選択する手候補領域選択部と、
    前記手候補領域における前記確率が閾値以上のときに前記手形状又は前記手の動きが含まれると認識するジェスチャ判定部と、
    を備え、
    前記ジェスチャ情報表示部は、前記手候補領域の画像を表示する、
    ことを特徴とするインターフェース装置。
  3. 操作者が手形状又は手の動きによって制御対象装置に指示を与えるインターフェース装置において、
    前記操作者の手を含む画像を入力する画像入力部と、
    前記入力画像から認識対象として1種類以上の前記手形状又は前記手の動きを認識するジェスチャ認識部と、
    前記認識した手形状又は手の動きに対応した指示情報に基いて前記制御対象装置を制御する制御部と、
    前記ジェスチャ認識部が認識可能な手形状又は手の動きの模範的な画像を表示するジェスチャ情報表示部と、
    を備え、
    前記ジェスチャ認識部は、
    前記入力画像内の1個以上の部分領域のそれぞれについて、前記手形状又は前記手の動きが含まれる確率を算出するジェスチャ評価部と、
    前記確率が最も高い部分領域を手候補領域として選択する手候補領域選択部と、
    前記手候補領域における前記確率が閾値以上のときに前記手形状又は前記手の動きが含まれると認識するジェスチャ判定部と、
    を備え、
    前記ジェスチャ情報表示部は、前記認識した手形状又は手の動き、前記確率、及び、前記手候補領域の画像を表示する、
    ことを特徴とするインターフェース装置。
  4. 操作者が手形状又は手の動きによって制御対象装置に指示を与えるインターフェース方法において、
    前記操作者の手を含む画像を入力する画像入力ステップと
    前記入力画像から認識対象として1種類以上の前記手形状又は前記手の動きを認識するジェスチャ認識ステップと
    前記認識した手形状又は手の動きに対応した指示情報に基いて前記制御対象装置を制御する制御ステップと
    前記ジェスチャ認識ステップにおいて認識可能な手形状又は手の動きの模範的な画像をジェスチャ情報表示部に表示するジェスチャ情報表示ステップと
    を備え、
    前記ジェスチャ認識ステップは、
    前記入力画像内の1個以上の部分領域のそれぞれについて、前記手形状又は前記手の動きが含まれる確率を算出するジェスチャ評価ステップと、
    前記確率が最も高い部分領域を手候補領域として選択する手候補領域選択ステップと、
    前記手候補領域における前記確率が閾値以上のときに前記手形状又は前記手の動きが含まれると認識するジェスチャ判定ステップと、
    を備え、
    前記ジェスチャ情報表示ステップは、前記認識した手形状又は手の動き、及び、前記確率を前記ジェスチャ情報表示部に表示する、
    ことを特徴とするインターフェース方法。
  5. 操作者が手形状又は手の動きによって制御対象装置に指示を与えるインターフェース方法において、
    前記操作者の手を含む画像を入力する画像入力ステップと、
    前記入力画像から認識対象として1種類以上の前記手形状又は前記手の動きを認識するジェスチャ認識ステップと、
    前記認識した手形状又は手の動きに対応した指示情報に基いて前記制御対象装置を制御する制御ステップと、
    前記ジェスチャ認識ステップにおいて認識可能な手形状又は手の動きの模範的な画像をジェスチャ情報表示部に表示するジェスチャ情報表示ステップと、
    を備え、
    前記ジェスチャ認識ステップは、
    前記入力画像内の1個以上の部分領域のそれぞれについて、前記手形状又は前記手の動きが含まれる確率を算出するジェスチャ評価ステップと、
    前記確率が最も高い部分領域を手候補領域として選択する手候補領域選択ステップと、
    前記手候補領域における前記確率が閾値以上のときに前記手形状又は前記手の動きが含まれると認識するジェスチャ判定ステップと、
    を備え、
    前記ジェスチャ情報表示ステップは、前記手候補領域の画像を前記ジェスチャ情報表示部に表示する、
    ことを特徴とするインターフェース方法。
  6. 操作者が手形状又は手の動きによって制御対象装置に指示を与えるインターフェース方法において、
    前記操作者の手を含む画像を入力する画像入力ステップと、
    前記入力画像から認識対象として1種類以上の前記手形状又は前記手の動きを認識するジェスチャ認識ステップと、
    前記認識した手形状又は手の動きに対応した指示情報に基いて前記制御対象装置を制御する制御ステップと、
    前記ジェスチャ認識ステップにおいて認識可能な手形状又は手の動きの模範的な画像をジェスチャ情報表示部に表示するジェスチャ情報表示ステップと、
    を備え、
    前記ジェスチャ認識ステップは、
    前記入力画像内の1個以上の部分領域のそれぞれについて、前記手形状又は前記手の動きが含まれる確率を算出するジェスチャ評価ステップと、
    前記確率が最も高い部分領域を手候補領域として選択する手候補領域選択ステップと、
    前記手候補領域における前記確率が閾値以上のときに前記手形状又は前記手の動きが含まれると認識するジェスチャ判定ステップと、
    を備え、
    前記ジェスチャ情報表示ステップは、前記認識した手形状又は手の動き、前記確率、及び、前記手候補領域の画像を前記ジェスチャ情報表示部に表示する、
    ことを特徴とするインターフェース方法。
  7. 操作者が手形状又は手の動きによって制御対象装置に指示を与えるインターフェースプログラムにおいて、
    コンピュータに、
    前記操作者の手を含む画像を入力する画像入力機能と、
    前記入力画像から認識対象として1種類以上の前記手形状又は前記手の動きを認識するジェスチャ認識機能と、
    前記認識した手形状又は手の動きに対応した指示情報に基いて前記制御対象装置を制御する制御機能と、
    前記ジェスチャ認識機能において認識可能な手形状又は手の動きの模範的な画像をジェスチャ情報表示部に表示するジェスチャ情報表示機能と、
    を実現させるためのインターフェースプログラムであり、
    前記ジェスチャ認識機能は、
    前記入力画像内の1個以上の部分領域のそれぞれについて、前記手形状又は前記手の動きが含まれる確率を算出するジェスチャ評価機能と、
    前記確率が最も高い部分領域を手候補領域として選択する手候補領域選択機能と、
    前記手候補領域における前記確率が閾値以上のときに前記手形状又は前記手の動きが含まれると認識するジェスチャ判定機能と、
    を実現させ、
    前記ジェスチャ情報表示機能は、前記認識した手形状又は手の動き、及び、前記確率を前記ジェスチャ情報表示部に表示する、
    ことを特徴とするインターフェースプログラム。
  8. 操作者が手形状又は手の動きによって制御対象装置に指示を与えるインターフェースプログラムにおいて、
    コンピュータに、
    前記操作者の手を含む画像を入力する画像入力機能と、
    前記入力画像から認識対象として1種類以上の前記手形状又は前記手の動きを認識するジェスチャ認識機能と、
    前記認識した手形状又は手の動きに対応した指示情報に基いて前記制御対象装置を制御する制御機能と、
    前記ジェスチャ認識機能において認識可能な手形状又は手の動きの模範的な画像をジェスチャ情報表示部に表示するジェスチャ情報表示機能と、
    を実現させるためのインターフェースプログラムであり、
    前記ジェスチャ認識機能は、
    前記入力画像内の1個以上の部分領域のそれぞれについて、前記手形状又は前記手の動きが含まれる確率を算出するジェスチャ評価機能と、
    前記確率が最も高い部分領域を手候補領域として選択する手候補領域選択機能と、
    前記手候補領域における前記確率が閾値以上のときに前記手形状又は前記手の動きが含まれると認識するジェスチャ判定機能と、
    を実現させ、
    前記ジェスチャ情報表示機能は、前記手候補領域の画像を前記ジェスチャ情報表示部に表示する、
    ことを特徴とするインターフェースプログラム。
  9. 操作者が手形状又は手の動きによって制御対象装置に指示を与えるインターフェースプログラムにおいて、
    コンピュータに、
    前記操作者の手を含む画像を入力する画像入力機能と、
    前記入力画像から認識対象として1種類以上の前記手形状又は前記手の動きを認識するジェスチャ認識機能と、
    前記認識した手形状又は手の動きに対応した指示情報に基いて前記制御対象装置を制御する制御機能と、
    前記ジェスチャ認識機能において認識可能な手形状又は手の動きの模範的な画像をジェスチャ情報表示部に表示するジェスチャ情報表示機能と、
    を実現させるためのインターフェースプログラムであり、
    前記ジェスチャ認識機能は、
    前記入力画像内の1個以上の部分領域のそれぞれについて、前記手形状又は前記手の動きが含まれる確率を算出するジェスチャ評価機能と、
    前記確率が最も高い部分領域を手候補領域として選択する手候補領域選択機能と、
    前記手候補領域における前記確率が閾値以上のときに前記手形状又は前記手の動きが含まれると認識するジェスチャ判定機能と、
    を実現させ、
    前記ジェスチャ情報表示機能は、前記認識した手形状又は手の動き、前記確率、及び、前記手候補領域の画像を前記ジェスチャ情報表示部に表示する、
    ことを特徴とするインターフェースプログラム。
JP2006229572A 2006-08-25 2006-08-25 インターフェース装置及びその方法 Expired - Fee Related JP4267648B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006229572A JP4267648B2 (ja) 2006-08-25 2006-08-25 インターフェース装置及びその方法
US11/757,159 US7844921B2 (en) 2006-08-25 2007-06-01 Interface apparatus and interface method
CNA2007101466668A CN101131609A (zh) 2006-08-25 2007-08-24 接口装置和接口方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006229572A JP4267648B2 (ja) 2006-08-25 2006-08-25 インターフェース装置及びその方法

Publications (2)

Publication Number Publication Date
JP2008052590A JP2008052590A (ja) 2008-03-06
JP4267648B2 true JP4267648B2 (ja) 2009-05-27

Family

ID=39128897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006229572A Expired - Fee Related JP4267648B2 (ja) 2006-08-25 2006-08-25 インターフェース装置及びその方法

Country Status (3)

Country Link
US (1) US7844921B2 (ja)
JP (1) JP4267648B2 (ja)
CN (1) CN101131609A (ja)

Families Citing this family (180)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW200928892A (en) * 2007-12-28 2009-07-01 Wistron Corp Electronic apparatus and operation method thereof
CN102016975A (zh) 2008-03-28 2011-04-13 寇平公司 适合用作移动式互联网装置的具有高分辨率显示器的手持式无线显示装置
DE102008020772A1 (de) * 2008-04-21 2009-10-22 Carl Zeiss 3D Metrology Services Gmbh Darstellung von Ergebnissen einer Vermessung von Werkstücken
US8146020B2 (en) 2008-07-24 2012-03-27 Qualcomm Incorporated Enhanced detection of circular engagement gesture
CN102165396B (zh) * 2008-07-25 2014-10-29 高通股份有限公司 挥动约定姿态的增强检测
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
JP4720874B2 (ja) * 2008-08-14 2011-07-13 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP4670976B2 (ja) * 2008-10-03 2011-04-13 ソニー株式会社 学習装置および方法、認識装置および方法、プログラム、並びに記録媒体
US9202137B2 (en) 2008-11-13 2015-12-01 Google Inc. Foreground object detection from multiple images
JP5361355B2 (ja) * 2008-12-08 2013-12-04 キヤノン株式会社 情報処理装置とその制御方法及び印刷装置とその制御方法
US9134798B2 (en) 2008-12-15 2015-09-15 Microsoft Technology Licensing, Llc Gestures, interactions, and common ground in a surface computing environment
US8030914B2 (en) * 2008-12-29 2011-10-04 Motorola Mobility, Inc. Portable electronic device having self-calibrating proximity sensors
US8275412B2 (en) * 2008-12-31 2012-09-25 Motorola Mobility Llc Portable electronic device having directional proximity sensors based on device orientation
US10019081B2 (en) * 2009-01-15 2018-07-10 International Business Machines Corporation Functionality switching in pointer input devices
JP5318189B2 (ja) * 2009-02-18 2013-10-16 株式会社東芝 インターフェース制御装置、及びその方法
JP5300555B2 (ja) * 2009-03-26 2013-09-25 三洋電機株式会社 情報表示装置
US20100271312A1 (en) * 2009-04-22 2010-10-28 Rachid Alameh Menu Configuration System and Method for Display on an Electronic Device
US20100271331A1 (en) * 2009-04-22 2010-10-28 Rachid Alameh Touch-Screen and Method for an Electronic Device
JP5256109B2 (ja) 2009-04-23 2013-08-07 株式会社日立製作所 表示装置
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US8391719B2 (en) * 2009-05-22 2013-03-05 Motorola Mobility Llc Method and system for conducting communication between mobile devices
US8619029B2 (en) * 2009-05-22 2013-12-31 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting consecutive gestures
US8788676B2 (en) 2009-05-22 2014-07-22 Motorola Mobility Llc Method and system for controlling data transmission to or from a mobile device
US8542186B2 (en) 2009-05-22 2013-09-24 Motorola Mobility Llc Mobile device with user interaction capability and method of operating same
US8269175B2 (en) * 2009-05-22 2012-09-18 Motorola Mobility Llc Electronic device with sensing assembly and method for detecting gestures of geometric shapes
US8304733B2 (en) * 2009-05-22 2012-11-06 Motorola Mobility Llc Sensing assembly for mobile device
US8344325B2 (en) * 2009-05-22 2013-01-01 Motorola Mobility Llc Electronic device with sensing assembly and method for detecting basic gestures
US8294105B2 (en) * 2009-05-22 2012-10-23 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting offset gestures
JP5187280B2 (ja) * 2009-06-22 2013-04-24 ソニー株式会社 操作制御装置および操作制御方法
US8319170B2 (en) 2009-07-10 2012-11-27 Motorola Mobility Llc Method for adapting a pulse power mode of a proximity sensor
CN101989378B (zh) * 2009-08-06 2012-10-10 广达电脑股份有限公司 遥控装置及其遥控方法
KR20110020642A (ko) * 2009-08-24 2011-03-03 삼성전자주식회사 사용자 접근을 인식하여 반응하는 gui제공 장치 및 방법
JP2011081469A (ja) 2009-10-05 2011-04-21 Hitachi Consumer Electronics Co Ltd 入力装置
JP5412227B2 (ja) * 2009-10-05 2014-02-12 日立コンシューマエレクトロニクス株式会社 映像表示装置、および、その表示制御方法
US8261212B2 (en) * 2009-10-20 2012-09-04 Microsoft Corporation Displaying GUI elements on natural user interfaces
KR101623007B1 (ko) 2009-11-11 2016-05-20 엘지전자 주식회사 디스플레이 장치 및 그 제어방법
US20110117526A1 (en) * 2009-11-16 2011-05-19 Microsoft Corporation Teaching gesture initiation with registration posture guides
US8622742B2 (en) * 2009-11-16 2014-01-07 Microsoft Corporation Teaching gestures with offset contact silhouettes
US8665227B2 (en) * 2009-11-19 2014-03-04 Motorola Mobility Llc Method and apparatus for replicating physical key function with soft keys in an electronic device
US20110141013A1 (en) * 2009-12-14 2011-06-16 Alcatel-Lucent Usa, Incorporated User-interface apparatus and method for user control
JP4783456B2 (ja) 2009-12-22 2011-09-28 株式会社東芝 映像再生装置及び映像再生方法
JP5342693B2 (ja) * 2010-03-18 2013-11-13 日本電信電話株式会社 情報入力装置、情報入力方法、及び情報入力プログラム
US8593402B2 (en) 2010-04-30 2013-11-26 Verizon Patent And Licensing Inc. Spatial-input-based cursor projection systems and methods
US8963845B2 (en) 2010-05-05 2015-02-24 Google Technology Holdings LLC Mobile device with temperature sensing capability and method of operating same
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US9103732B2 (en) 2010-05-25 2015-08-11 Google Technology Holdings LLC User computer device with temperature sensing capabilities and method of operating same
US8751056B2 (en) 2010-05-25 2014-06-10 Motorola Mobility Llc User computer device with temperature sensing capabilities and method of operating same
JP2011253292A (ja) * 2010-06-01 2011-12-15 Sony Corp 情報処理装置および方法、並びにプログラム
US8520901B2 (en) 2010-06-11 2013-08-27 Namco Bandai Games Inc. Image generation system, image generation method, and information storage medium
JP5601045B2 (ja) * 2010-06-24 2014-10-08 ソニー株式会社 ジェスチャ認識装置、ジェスチャ認識方法およびプログラム
US20110317871A1 (en) * 2010-06-29 2011-12-29 Microsoft Corporation Skeletal joint recognition and tracking system
EP2421252A1 (en) * 2010-08-17 2012-02-22 LG Electronics Display device and control method thereof
EP2421251A1 (en) * 2010-08-17 2012-02-22 LG Electronics Display device and control method thereof
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
WO2012030872A1 (en) 2010-09-02 2012-03-08 Edge3 Technologies Inc. Method and apparatus for confusion learning
KR20120029228A (ko) * 2010-09-16 2012-03-26 엘지전자 주식회사 투명 디스플레이 장치 및 객체 정보 제공 방법
US9377862B2 (en) 2010-09-20 2016-06-28 Kopin Corporation Searchlight navigation using headtracker to reveal hidden or extra document data
US10013976B2 (en) 2010-09-20 2018-07-03 Kopin Corporation Context sensitive overlays in voice controlled headset computer displays
US9316827B2 (en) 2010-09-20 2016-04-19 Kopin Corporation LifeBoard—series of home pages for head mounted displays (HMD) that respond to head tracking
US9122307B2 (en) * 2010-09-20 2015-09-01 Kopin Corporation Advanced remote control of host application using motion and voice commands
JP5881136B2 (ja) * 2010-09-27 2016-03-09 ソニー株式会社 情報処理装置及び方法、並びにプログラム
CN103221968A (zh) * 2010-11-10 2013-07-24 日本电气株式会社 信息通知系统、信息通知方法、信息处理设备及其控制方法和控制程序
JP2014029565A (ja) 2010-11-24 2014-02-13 Panasonic Corp 情報処理装置
US8920241B2 (en) * 2010-12-15 2014-12-30 Microsoft Corporation Gesture controlled persistent handles for interface guides
JP2015038648A (ja) * 2010-12-24 2015-02-26 株式会社東芝 情報処理装置、制御方法およびプログラム
JP5653206B2 (ja) * 2010-12-27 2015-01-14 日立マクセル株式会社 映像処理装置
CN103380405A (zh) * 2010-12-30 2013-10-30 汤姆逊许可公司 用于手势识别的用户界面、装置和方法
US9176001B2 (en) * 2011-02-01 2015-11-03 Bonal Technologies, Inc. Vibration treatment method and graphical user interface
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
WO2012128399A1 (en) * 2011-03-21 2012-09-27 Lg Electronics Inc. Display device and method of controlling the same
JP5709228B2 (ja) * 2011-04-28 2015-04-30 Necソリューションイノベータ株式会社 情報処理装置、情報処理方法及びプログラム
WO2012154938A1 (en) 2011-05-10 2012-11-15 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
WO2012160566A1 (en) * 2011-05-23 2012-11-29 Hewlett-Packard Development Company, L.P. Multimodal interactions based on body postures
JP5845002B2 (ja) * 2011-06-07 2016-01-20 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP5747695B2 (ja) * 2011-07-07 2015-07-15 富士通株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US8217856B1 (en) 2011-07-27 2012-07-10 Google Inc. Head-mounted display that displays a visual representation of physical interaction with an input interface located outside of the field of view
EP2986014A1 (en) * 2011-08-05 2016-02-17 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
US20130159940A1 (en) * 2011-08-22 2013-06-20 International Technological University Gesture-Controlled Interactive Information Board
JP5921835B2 (ja) 2011-08-23 2016-05-24 日立マクセル株式会社 入力装置
US8751972B2 (en) * 2011-09-20 2014-06-10 Google Inc. Collaborative gesture-based input language
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
KR101322465B1 (ko) * 2011-11-17 2013-10-28 삼성전자주식회사 셀프 카메라 촬영을 위한 방법 및 장치
US9063591B2 (en) 2011-11-30 2015-06-23 Google Technology Holdings LLC Active styluses for interacting with a mobile device
US8963885B2 (en) 2011-11-30 2015-02-24 Google Technology Holdings LLC Mobile device for interacting with an active stylus
US9684379B2 (en) * 2011-12-23 2017-06-20 Intel Corporation Computing system utilizing coordinated two-hand command gestures
US10345911B2 (en) * 2011-12-23 2019-07-09 Intel Corporation Mechanism to provide visual feedback regarding computing system command gestures
WO2013095677A1 (en) 2011-12-23 2013-06-27 Intel Corporation Computing system utilizing three-dimensional manipulation command gestures
WO2013101438A1 (en) 2011-12-29 2013-07-04 Kopin Corporation Wireless hands-free computing head mounted video eyewear for local/remote diagnosis and repair
JP2013164834A (ja) * 2012-01-13 2013-08-22 Sony Corp 画像処理装置および方法、並びにプログラム
JP5715977B2 (ja) * 2012-03-05 2015-05-13 東芝テック株式会社 操作支援表示装置およびプログラム
JP2013206273A (ja) * 2012-03-29 2013-10-07 Sony Corp 情報処理装置、情報処理方法、および情報処理システム
JP5858850B2 (ja) * 2012-04-02 2016-02-10 三菱電機株式会社 空気調和機の室内機
US9141197B2 (en) * 2012-04-16 2015-09-22 Qualcomm Incorporated Interacting with a device using gestures
US9507772B2 (en) 2012-04-25 2016-11-29 Kopin Corporation Instant translation system
US8929954B2 (en) 2012-04-25 2015-01-06 Kopin Corporation Headset computer (HSC) as auxiliary display with ASR and HT input
US10235014B2 (en) 2012-05-09 2019-03-19 Apple Inc. Music user interface
US9459781B2 (en) 2012-05-09 2016-10-04 Apple Inc. Context-specific user interfaces for displaying animated sequences
US10649622B2 (en) 2012-05-09 2020-05-12 Apple Inc. Electronic message user interface
US10097496B2 (en) 2012-05-09 2018-10-09 Apple Inc. Electronic mail user interface
CN102750519A (zh) * 2012-05-30 2012-10-24 北京城市网邻信息技术有限公司 一种图像的识别及过滤方法和装置
KR101328441B1 (ko) * 2012-06-07 2013-11-20 자동차부품연구원 차량용 스티어링 휠의 사용자 인터페이스 장치
JP5831883B2 (ja) * 2012-10-25 2015-12-09 Necパーソナルコンピュータ株式会社 情報処理装置、情報処理方法、及びプログラム
JP2014085967A (ja) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd 情報処理装置、情報処理方法、及びプログラム
KR102049475B1 (ko) * 2013-01-08 2020-01-08 삼성전자주식회사 입력 장치, 디스플레이 장치 및 제어 방법
TWI496094B (zh) * 2013-01-23 2015-08-11 Wistron Corp 手勢辨識模組及手勢辨識方法
WO2014119258A1 (ja) 2013-01-31 2014-08-07 パナソニック株式会社 情報処理方法及び情報処理装置
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
CN103268150A (zh) * 2013-05-13 2013-08-28 苏州福丰科技有限公司 一种基于表情识别的智能机器人管控系统及管控方法
CN103336578A (zh) * 2013-07-05 2013-10-02 广州新节奏智能科技有限公司 一种新型动作感应互动广告设备
US10188309B2 (en) 2013-11-27 2019-01-29 North Inc. Systems, articles, and methods for electromyography sensors
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
AU2014315234A1 (en) 2013-09-03 2016-04-21 Apple Inc. User interface for manipulating user interface objects with magnetic properties
JP6124745B2 (ja) * 2013-09-19 2017-05-10 アルパイン株式会社 車載システム
US20150193111A1 (en) * 2013-10-01 2015-07-09 Google Inc. Providing Intent-Based Feedback Information On A Gesture Interface
JP6349800B2 (ja) * 2014-03-12 2018-07-04 オムロン株式会社 ジェスチャ認識装置およびジェスチャ認識装置の制御方法
JP6550643B2 (ja) * 2014-03-14 2019-07-31 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
US9978043B2 (en) 2014-05-30 2018-05-22 Apple Inc. Automatic event scheduling
US10782787B2 (en) * 2014-06-06 2020-09-22 Adobe Inc. Mirroring touch gestures
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
JP6350018B2 (ja) * 2014-06-25 2018-07-04 株式会社デンソー 対象物検出装置及び要素選択装置
CN116243841A (zh) 2014-06-27 2023-06-09 苹果公司 尺寸减小的用户界面
EP3195098A2 (en) 2014-07-21 2017-07-26 Apple Inc. Remote user interface
WO2016036509A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic mail user interface
WO2016036510A1 (en) 2014-09-02 2016-03-10 Apple Inc. Music user interface
WO2016036416A1 (en) 2014-09-02 2016-03-10 Apple Inc. Button functionality
US10073590B2 (en) 2014-09-02 2018-09-11 Apple Inc. Reduced size user interface
CN115623117A (zh) 2014-09-02 2023-01-17 苹果公司 电话用户界面
FR3026502A1 (fr) * 2014-09-30 2016-04-01 Valeo Comfort & Driving Assistance Systeme et procede de commande d'un equipement d'un vehicule automobile
CN104244049A (zh) * 2014-10-21 2014-12-24 三星电子(中国)研发中心 一种动态调节曲率和方向的曲面电视和方法
US10055121B2 (en) 2015-03-07 2018-08-21 Apple Inc. Activity based thresholds and feedbacks
DK201770423A1 (en) 2016-06-11 2018-01-15 Apple Inc Activity and workout updates
US11216119B2 (en) 2016-06-12 2022-01-04 Apple Inc. Displaying a predetermined view of an application
CN107491717B (zh) * 2016-06-13 2021-02-05 科大讯飞股份有限公司 考试作弊检测方法和装置
CN106920251A (zh) 2016-06-23 2017-07-04 阿里巴巴集团控股有限公司 人手检测跟踪方法及装置
DE102016111672A1 (de) * 2016-06-24 2017-12-28 Harting Electric Gmbh & Co. Kg Schnittstellenmodul, System mit einem Schnittstellenmodul und Verfahren zum Koppeln von Datenbussen
EP3487595A4 (en) 2016-07-25 2019-12-25 CTRL-Labs Corporation SYSTEM AND METHOD FOR MEASURING MOVEMENTS OF ARTICULATED RIGID BODIES
WO2020112986A1 (en) 2018-11-27 2020-06-04 Facebook Technologies, Inc. Methods and apparatus for autocalibration of a wearable electrode sensor system
US10687759B2 (en) 2018-05-29 2020-06-23 Facebook Technologies, Llc Shielding techniques for noise reduction in surface electromyography signal measurement and related systems and methods
US11331045B1 (en) 2018-01-25 2022-05-17 Facebook Technologies, Llc Systems and methods for mitigating neuromuscular signal artifacts
US11635736B2 (en) 2017-10-19 2023-04-25 Meta Platforms Technologies, Llc Systems and methods for identifying biological structures associated with neuromuscular source signals
CN110312471B (zh) 2016-07-25 2022-04-29 脸谱科技有限责任公司 从神经肌肉活动测量中导出控制信号的自适应系统
CN110300542A (zh) 2016-07-25 2019-10-01 开创拉布斯公司 使用可穿戴的自动传感器预测肌肉骨骼位置信息的方法和装置
US11216069B2 (en) 2018-05-08 2022-01-04 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
EP3487402B1 (en) 2016-07-25 2021-05-05 Facebook Technologies, LLC Methods and apparatus for inferring user intent based on neuromuscular signals
US10536691B2 (en) * 2016-10-04 2020-01-14 Facebook, Inc. Controls and interfaces for user interactions in virtual spaces
JP6790769B2 (ja) * 2016-11-30 2020-11-25 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
FR3074327B1 (fr) 2017-11-27 2021-04-23 Commissariat Energie Atomique Procede de commande d'un robot de manipulation et dispositif mettant en oeuvre un tel procede
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US10937414B2 (en) 2018-05-08 2021-03-02 Facebook Technologies, Llc Systems and methods for text input using neuromuscular information
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US10504286B2 (en) 2018-01-25 2019-12-10 Ctrl-Labs Corporation Techniques for anonymizing neuromuscular signal data
EP3742961A4 (en) 2018-01-25 2021-03-31 Facebook Technologies, Inc. CALIBRATION TECHNIQUES FOR MODELING A HAND CONDITION USING NEUROMUSCULAR SIGNALS
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
US10817795B2 (en) 2018-01-25 2020-10-27 Facebook Technologies, Llc Handstate reconstruction based on multiple inputs
WO2019147958A1 (en) * 2018-01-25 2019-08-01 Ctrl-Labs Corporation User-controlled tuning of handstate representation model parameters
EP3743892A4 (en) 2018-01-25 2021-03-24 Facebook Technologies, Inc. VISUALIZATION OF INFORMATION ON THE STATE OF A RECONSTRUCTED HAND
WO2019147949A1 (en) 2018-01-25 2019-08-01 Ctrl-Labs Corporation Real-time processing of handstate representation model estimates
US10970936B2 (en) 2018-10-05 2021-04-06 Facebook Technologies, Llc Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US10592001B2 (en) 2018-05-08 2020-03-17 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
EP3801743A4 (en) 2018-05-25 2021-08-04 Facebook Technologies, LLC PROCESSES AND APPARATUS FOR OBTAINING A SUB-MUSCULAR COMMAND
EP3807795A4 (en) 2018-06-14 2021-08-11 Facebook Technologies, LLC. USER IDENTIFICATION AND AUTHENTICATION BY MEANS OF NEUROMUSCULAR SIGNATURES
WO2020018892A1 (en) 2018-07-19 2020-01-23 Ctrl-Labs Corporation Methods and apparatus for improved signal robustness for a wearable neuromuscular recording device
WO2020036958A1 (en) 2018-08-13 2020-02-20 Ctrl-Labs Corporation Real-time spike detection and identification
WO2020047429A1 (en) 2018-08-31 2020-03-05 Ctrl-Labs Corporation Camera-guided interpretation of neuromuscular signals
US11435830B2 (en) 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
WO2020061451A1 (en) 2018-09-20 2020-03-26 Ctrl-Labs Corporation Neuromuscular text entry, writing and drawing in augmented reality systems
WO2020069181A1 (en) 2018-09-26 2020-04-02 Ctrl-Labs Corporation Neuromuscular control of physical objects in an environment
US10905383B2 (en) 2019-02-28 2021-02-02 Facebook Technologies, Llc Methods and apparatus for unsupervised one-shot machine learning for classification of human gestures and estimation of applied forces
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof
US11893212B2 (en) 2021-06-06 2024-02-06 Apple Inc. User interfaces for managing application widgets
JP7234324B1 (ja) 2021-09-28 2023-03-07 三菱電機インフォメーションシステムズ株式会社 通知受付装置、通知受付方法及び通知受付プログラム
US20240103632A1 (en) * 2022-09-23 2024-03-28 Apple Inc. Probabilistic gesture control with feedback for electronic devices

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020126161A1 (en) * 1994-07-05 2002-09-12 Hitachi, Ltd. Information processing system
JP3777650B2 (ja) * 1995-04-28 2006-05-24 松下電器産業株式会社 インターフェイス装置
DE69634913T2 (de) * 1995-04-28 2006-01-05 Matsushita Electric Industrial Co., Ltd., Kadoma Schnittstellenvorrichtung
EP0849697B1 (en) * 1996-12-20 2003-02-12 Hitachi Europe Limited A hand gesture recognition system and method
US6072494A (en) * 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
JPH11327753A (ja) * 1997-11-27 1999-11-30 Matsushita Electric Ind Co Ltd 制御方法及びプログラム記録媒体
JP2000075991A (ja) * 1998-08-28 2000-03-14 Aqueous Research:Kk 情報入力装置
JP2001216069A (ja) * 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
US6624833B1 (en) * 2000-04-17 2003-09-23 Lucent Technologies Inc. Gesture-based input interface system with shadow detection
JP2001306049A (ja) * 2000-04-21 2001-11-02 Sony Corp 情報処理装置、動作認識過程表示方法及びプログラム格納媒体
US7099510B2 (en) 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
JP2002292020A (ja) * 2001-03-28 2002-10-08 Aruze Corp 遊技機、遊技機における確率変動状態継続確率の変化方法、記憶媒体、及びサーバ
EP1394727B1 (en) * 2002-08-30 2011-10-12 MVTec Software GmbH Hierarchical component based object recognition
US7225414B1 (en) * 2002-09-10 2007-05-29 Videomining Corporation Method and system for virtual touch entertainment
US7665041B2 (en) * 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
DE602004006190T8 (de) * 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
JP2004078977A (ja) 2003-09-19 2004-03-11 Matsushita Electric Ind Co Ltd インターフェイス装置
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US20060085414A1 (en) * 2004-09-30 2006-04-20 International Business Machines Corporation System and methods for reference resolution
US8250001B2 (en) * 2008-12-18 2012-08-21 Motorola Mobility Llc Increasing user input accuracy on a multifunctional electronic device

Also Published As

Publication number Publication date
US20080052643A1 (en) 2008-02-28
CN101131609A (zh) 2008-02-27
US7844921B2 (en) 2010-11-30
JP2008052590A (ja) 2008-03-06

Similar Documents

Publication Publication Date Title
JP4267648B2 (ja) インターフェース装置及びその方法
JP4929109B2 (ja) ジェスチャ認識装置及びその方法
US20220124410A1 (en) Image processing system, image processing method, and program
US8290210B2 (en) Method and system for gesture recognition
WO2013137412A1 (ja) 制御装置、電子機器、制御方法、制御プログラム、および、制御プログラムを格納したコンピュータ読取可能な記録媒体
JP5318189B2 (ja) インターフェース制御装置、及びその方法
JP2009042796A (ja) ジェスチャー入力装置および方法
KR20140002007A (ko) 정보 처리 장치, 정보 처리 방법 및 기록 매체
US20210329175A1 (en) Image processing system, image processing method, and program
EP2659336A1 (en) User interface, apparatus and method for gesture recognition
KR101631011B1 (ko) 제스처 인식 장치 및 제스처 인식 장치의 제어 방법
JP2013250637A (ja) 認識装置
JP5932082B2 (ja) 認識装置
JP2012027515A (ja) 入力方法及び入力装置
JPH10207619A (ja) ユーザインタフェース装置及び操作範囲呈示方法
US20130234937A1 (en) Three-dimensional position specification method
KR101654311B1 (ko) 사용자 모션 인식 방법 및 장치
JP5665396B2 (ja) 情報処理装置およびその制御方法
WO2011027397A1 (ja) ユーザーインターフェース装置
US20200019133A1 (en) Sequence generating apparatus and control method thereof
JP4030147B2 (ja) オブジェクト操作装置及びオブジェクト操作方法
JP2010122735A (ja) インタフェース装置及びインタフェース用プログラム
EP2919096B1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
Chee Real time gesture recognition system for ADAS
JP2018041354A (ja) ポインタ制御システムおよびポインタ制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090210

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090218

R151 Written notification of patent or utility model registration

Ref document number: 4267648

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140227

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees