JP6559359B2 - ジェスチャー判定装置、ジェスチャー操作装置、及びジェスチャー判定方法 - Google Patents
ジェスチャー判定装置、ジェスチャー操作装置、及びジェスチャー判定方法 Download PDFInfo
- Publication number
- JP6559359B2 JP6559359B2 JP2018536928A JP2018536928A JP6559359B2 JP 6559359 B2 JP6559359 B2 JP 6559359B2 JP 2018536928 A JP2018536928 A JP 2018536928A JP 2018536928 A JP2018536928 A JP 2018536928A JP 6559359 B2 JP6559359 B2 JP 6559359B2
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- reference part
- determination
- motion
- timing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Description
≪1−1≫構成
図1は、本発明の実施の形態1に係るジェスチャー判定装置100の概略的な構成を示すブロック図である。ジェスチャー判定装置100は、実施の形態1に係るジェスチャー判定方法を実行することができる装置である。図1に示されるように、ジェスチャー判定装置100は基準部位検出部10と、動き抽出部20と、基準部位消失判定部30と、タイミング判定部40と、操作判定部50とを備える。
0≦B(x,y)<16 ∀x,yである、すなわち、B(x,y)は、全てのx及びyについて、0以上16未満である。閾値T1は、例えば、輝度値の取り得る値の1%程度が望ましく、輝度値が0から255の値を取る場合は、T1=3と設定する。
条件(A1):初期状態では基準部位が検出されており、ジェスチャーによって一度基準部位が消失すること。
条件(A2):基準部位が消失した際(第1のタイミング)に動き領域Mbが基準部位の矩形領域に含まれること。
条件(A3):基準部位が消失する直前(第3のタイミング)に基準部位付近(図6における左側、第1の側)に動き領域Mbが存在すること。
条件(A4):基準部位が消失した直後(第4のタイミング)に、条件(A3)のときとは反対側(図6における右側、第2の側)に動き領域Mbが存在すること。
条件(B1):初期状態では基準部位が検出されており、ジェスチャーによって一度基準部位が消失すること。
条件(B2):基準部位が消失した際(第1のタイミング)に動き領域Mbが基準部位の矩形領域に含まれること。
条件(B3):基準部位が消失する直前(第3のタイミング)に基準部位付近に動き領域Mbが存在すること。
条件(B4):基準部位が消失した直後(第4のタイミング)に、条件(B3)と同じ側の基準部位付近に動き領域Mbが存在すること。
次に、実施の形態1に係るジェスチャー判定装置100の処理の手順について図10を用いて説明する。図10は、実施の形態1に係るジェスチャー判定装置100の処理を示したフローチャートである。図10に示される処理は、撮像画像が入力される1フレーム期間毎に、すなわち1フレーム期間に一度行われる。まず、ステップS1で、基準部位検出部10が、入力として与えられる画像データIm(k)から予め定められた操作者の基準となる部位(基準部位)を少なくとも1つ検出し、基準部位情報Am(k)を生成する。
以上のように、実施の形態1に係るジェスチャー判定装置100によれば、ジェスチャー操作により生じる画像上の動き領域の位置及び出現タイミングとジェスチャー操作により撮像画像から人物の基準部位が消失するタイミングとから、ジェスチャーを判定する。言い換えれば、実施の形態1に係るジェスチャー判定装置100は、基準部位が検出されないフレーム画像が発生した第1のタイミングを示す基準部位消失情報が示す第1のタイミングと、動き情報が示す動き領域と基準部位情報が示す基準部位領域とが重なるフレームが発生した第2のタイミングとが同期するか否かを判定し、この判定の結果であるタイミング判定結果と前記動き情報とから操作者によるジェスチャー操作の内容を判定する。これにより、操作者が予め定められた動作を予め定められた期間継続することなく、短時間のジェスチャー操作(例えば、手をスワイプさせる操作)を行う場合であっても、ジェスチャー判定を高精度に行うことができる。
なお、実施の形態1では、基準部位として操作者の顔を使用したが、これに限るものではなく、操作者の目、鼻、口、首、肩等のような他の身体部位を用いてもよい。顔以外の部位の検出には、顔検出と同様にカスケード検出器を使用してもよいし、AAM(Active Appearance Model)等の公知の技術を用いて検出してもよい。
≪2−1≫構成
図11は、本発明の実施の形態2に係るジェスチャー判定装置100aの概略的な構成を示すブロック図である。図11に示されるジェスチャー判定装置100aは、図1に示すジェスチャー判定装置100と概して同じであるが、形状抽出部60と操作判定部50aを備える点が異なる。図11において、図1に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。また、図1に示される構成と同一又は対応する構成については説明を省略する。
次に、実施の形態2に係るジェスチャー判定装置100aの動作について説明する。まず、形状抽出部60の動作について説明する。形状抽出部60は、公知の技術を用いて画像データIm(k)に含まれる手を検出し、予め定められた手の形状を抽出することができる。手を検出するためには、例えば、顔検出に用いたようなカスケード型の手検出器を利用する。手の形状の抽出には、例えば、手検出器により検出された手の矩形領域に対し、CSLBP特徴量を算出し、SVM(Support Vector Machine)により形状を抽出する。形状抽出部60は、抽出した手の形状の抽出結果Em(k)を操作判定部50aに対して出力する。
実施の形態2に係るジェスチャー判定装置100aによれば、上記実施の形態1に係るジェスチャー判定装置100と同様の効果を得ることができる。
なお、実施の形態2では、動き評価値として動き領域の移動速度を用いたが、これに限るものではなく、例えば、動き領域の大きさを動き評価値としてもよい。
≪3−1≫構成
図13は、本発明の実施の形態3に係るジェスチャー判定装置100bの概略的な構成を示すブロック図である。図13に示されるように、実施の形態3に係るジェスチャー判定装置100bは、図11に示される実施の形態2に係るジェスチャー判定装置100aと概して同じであるが、タイミング判定部40bと操作判定部50bと操作者判定部70とを備える点が異なる。図13において、図11に示される構成要素と同一又は対応する構成要素には、図11に示される符号と同じ符号が付される。また、図11に示される構成と同一又は対応する構成については説明を省略する。
次に、各要素の動作について説明する。操作者判定部70は、基準部位検出部10によって検出された基準部位の座標情報または基準部位消失判定部30によって検出された消失した基準部位の座標情報から、基準部位の属する操作者のラベル付けを行う。例えば、撮像画像の中心より左側で基準部位が検出された場合は、「L」とラベル付けする。一方で、撮像画像の中心より右側で検出された場合は、「R」とラベル付けする。
実施の形態3に係るジェスチャー判定装置100bによれば、上記実施の形態1に係るジェスチャー判定装置100及び上記実施の形態2に係るジェスチャー判定装置100aと同様の効果を得ることができる。
なお、実施の形態3では、操作者が2人の場合を一例として挙げて説明を行ったが、これに限るものではない。例えば、公共施設や工場におけるデジタルサイネージ等の機器装置をジェスチャー操作する際には、操作者が不特定多数となる。その場合は、例えば、画像データ上で検出された顔領域毎に操作者のラベル付けを行い、操作者毎のジェスチャー操作を判定する。
なお、実施の形態3では、タイミング判定部40bにおいて、操作者のラベル情報を、基準部位が属する操作者に基づいて決定しても良いし、動き情報が属する操作者に基づいて決定しても良いし、その両方に基づいて決定しても良い。
≪4−1≫構成
図14は、本発明の実施の形態4に係るジェスチャー判定装置100cの概略的な構成を示すブロック図である。図14に示されるように、実施の形態4に係るジェスチャー判定装置100cは、図13に示される実施の形態3に係るジェスチャー判定装置100bと概して同じであるが、操作者判定部70aを備える点が異なる。図14において、図13に示される構成要素と同一又は対応する構成要素には、図13に示される符号と同じ符号が付される。また、図13に示される構成と同一又は対応する構成については説明を省略する。
実施の形態4に係るジェスチャー判定装置100cによれば、上記実施の形態1から3に係るジェスチャー判定装置100,100a,100bと同様の効果を得ることができる。
なお、実施の形態4では、実施の形態3と同様、タイミング判定部40bにおいて、操作者のラベル情報を、基準部位が属する操作者に基づいて決定しても良いし、動き情報が属する操作者に基づいて決定しても良いし、その両方に基づいて決定しても良い。
≪5−1≫構成
図15は、本発明の実施の形態5に係るジェスチャー操作装置300の概略的な構成を示すブロック図である。図15に示されるように、実施の形態5に係るジェスチャー操作装置300は、ジェスチャー判定装置100とコマンド生成部200とを備える。
実施の形態5に係るジェスチャー操作装置300によれば、ジェスチャー操作により生じる画像上の動き領域の位置・出現タイミングとジェスチャー操作により撮像画像から人物の基準部位が消失するタイミングとからジェスチャーを判定し、ジェスチャー判定に基づいて機器の操作、制御を行う。これにより、操作者は予め定められた動作を予め定められた期間継続することなく、短時間のジェスチャー操作を高精度に判定し、機器の操作コマンドを生成できるため、操作者が短時間のジェスチャー操作を行った場合でも、高精度なジェスチャー操作が可能なジェスチャー操作装置300を提供することができる。
≪6−1≫構成
図16は、本発明の実施の形態6に係るジェスチャー操作装置300aの概略的な構成を示すブロック図である。実施の形態6に係るジェスチャー操作装置300aは、図15に示されるジェスチャー操作装置300と概して同じであるが、通信部700を備える点で図15に示されるジェスチャー操作装置300と異なる。図16において、図15に示される構成要素と同一又は対応する構成要素には、図15に示される符号と同じ符号が付される。また、図15に示される構成要素と同一又は対応する構成については説明を省略する。
実施の形態6に係るジェスチャー操作装置300aによれば、上記実施の形態5に係るジェスチャー操作装置300と同様の効果を得ることができる。
図17は、上記実施の形態1から4に係るジェスチャー判定装置100,100a,100b,100cの変形例の構成を示すハードウェア構成図である。図17に示されるジェスチャー判定装置は、ソフトウェアとしてのプログラムを格納する記憶装置としてのメモリ91と、メモリ91に格納されたプログラムを実行する情報処理部としてのプロセッサ92とを有するプログラム実行部(例えば、コンピュータにより)であることが可能である。図17に示されるジェスチャー判定装置は、半導体集積回路によって構成されることも可能である。また、図17に示されるジェスチャー判定装置は、プログラム実行部と半導体集積回路との組み合わせによって構成されことも可能である。
Claims (17)
- 操作者によるジェスチャー操作の内容を判定するジェスチャー判定装置であって、
撮像画像として順次取得される複数のフレーム画像から基準部位を検出し、前記複数のフレーム画像の各々について前記基準部位が存在する基準部位領域を示す基準部位情報を出力する基準部位検出部と、
前記複数のフレーム画像においてフレーム画像間の動きを抽出し、前記動きが生じた動き領域を示す動き情報を出力する動き抽出部と、
前記基準部位情報が示す前記検出の結果から、前記基準部位が検出されないフレーム画像が発生した第1のタイミングを示す基準部位消失情報を生成する基準部位消失判定部と、
前記基準部位消失情報が示す前記第1のタイミングと、前記動き情報が示す前記動き領域と前記基準部位情報が示す前記基準部位領域とが重なるフレームが発生した第2のタイミングとが同期するか否かを判定し、前記判定の結果であるタイミング判定結果を出力するタイミング判定部と、
前記タイミング判定結果と前記動き情報とからジェスチャー操作の内容を判定する操作判定部と
を有することを特徴とするジェスチャー判定装置。 - 撮像画像として順次取得される複数のフレーム画像から操作者の身体の部位を基準部位として検出し、前記複数のフレーム画像の各々について前記基準部位が存在する基準部位領域を示す基準部位情報を出力する基準部位検出部と、
前記複数のフレーム画像においてフレーム画像間の動きを抽出し、前記動きが生じた動き領域を示す動き情報を出力する動き抽出部と、
前記基準部位情報が示す前記検出の結果から、前記基準部位が検出されないフレーム画像が発生した第1のタイミングを示す基準部位消失情報を生成する基準部位消失判定部と、
前記基準部位消失情報が示す前記第1のタイミングと、前記動き情報が示す前記動き領域と前記基準部位情報が示す前記基準部位領域とが重なるフレームが発生した第2のタイミングとが同期するか否かを判定し、前記判定の結果であるタイミング判定結果を出力するタイミング判定部と、
前記タイミング判定結果と前記動き情報とから前記操作者によるジェスチャー操作の内容を判定する操作判定部と
を有することを特徴とするジェスチャー判定装置。 - 前記操作判定部は、前記第1のタイミングより前の第3のタイミングにおいて、前記動き領域が前記基準部位領域の第1の側に検出され、前記第1のタイミングの後の第4のタイミングにおいて、前記動き領域が前記基準部位領域の前記第1の側とは反対の第2の側に検出されたときに、前記動き情報が前記操作者のジェスチャー操作によるものであると判定する
ことを特徴とする請求項1または2に記載のジェスチャー判定装置。 - 前記操作判定部は、前記第1のタイミングより前の第3のタイミングにおいて、前記動き領域が前記基準部位領域の第1の側に検出され、前記第1のタイミングの後の第4のタイミングにおいて、前記動き領域が前記基準部位領域の前記第1の側に検出されたときに、前記動き情報が前記操作者のジェスチャー操作によるものであると判定する
ことを特徴とする請求項1または2に記載のジェスチャー判定装置。 - 前記基準部位領域は矩形領域であることを特徴とする請求項1から4のいずれか1項に記載のジェスチャー判定装置。
- 前記基準部位検出部は、前記基準部位以外の他の基準部位を検出し、前記他の基準部位についての他の基準部位情報を出力し、
前記基準部位消失判定部は、前記他の基準部位情報が示す前記検出の結果から、他の基準部位消失情報を生成し、
前記タイミング判定部は、前記他の基準部位消失情報についての前記判定の結果から他のタイミング判定結果を出力し、
前記操作判定部は、前記他のタイミング判定結果と前記動き情報とから前記操作者によるジェスチャー操作の内容を判定する
ことを特徴とする請求項1から5のいずれか1項に記載のジェスチャー判定装置。 - 前記タイミング判定部は、前記複数の基準部位情報が消失する順番に関する情報を前記タイミング判定結果として出力する
ことを特徴とする請求項6に記載のジェスチャー判定装置。 - 前記基準部位は、前記操作者の顔または顔に属する部位であることを特徴とする請求項1から7のいずれか1項に記載のジェスチャー判定装置。
- 前記撮像画像における手の領域の形状を抽出し、前記抽出の結果である手形状抽出結果を出力する形状抽出部を更に有し、
前記操作判定部は、前記手形状抽出結果と前記タイミング判定結果と前記動き情報とから前記操作者によるジェスチャー操作の内容を判定する
ことを特徴とする請求項1から8のいずれか1項に記載のジェスチャー判定装置。 - 前記操作判定部は、前記動き情報から算出した動き評価値が予め定められた閾値以下である場合に前記手形状抽出結果と前記タイミング判定結果と前記動き情報とから前記操作者によるジェスチャー操作の内容を判定する
ことを特徴とする請求項9に記載のジェスチャー判定装置。 - 前記形状抽出部は、前記基準部位領域を基準として設定される形状抽出対象領域内において、前記手の領域の形状の抽出を行う
ことを特徴とする請求項9又は10に記載のジェスチャー判定装置。 - 前記基準部位情報と前記基準部位消失情報とから、操作者が前記撮像画像におけるどの人物であるかを判定し、前記判定の結果である操作者判定結果を出力する操作者判定部を更に有し、
前記操作判定部は、前記操作者判定結果と前記タイミング判定結果と前記動き情報とから前記操作者によるジェスチャー操作の内容を判定する
ことを特徴とする請求項1から11のいずれか1項に記載のジェスチャー判定装置。 - 前記操作者判定結果は操作者の位置を特定する位置情報を含むことを特徴とする請求項12に記載のジェスチャー判定装置。
- 前記操作者判定結果は操作者の顔認証情報を含むことを特徴とする請求項12に記載のジェスチャー判定装置。
- 請求項1から14のいずれか1項に記載のジェスチャー判定装置と、
前記操作判定部により判定された前記ジェスチャー操作の内容から機器を操作するための操作コマンドを生成するコマンド生成部と
を有することを特徴とするジェスチャー操作装置。 - 外部機器へ操作コマンドを送信するための通信部を更に有することを特徴とする請求項15に記載のジェスチャー操作装置。
- 撮像画像として順次取得される複数のフレーム画像から基準部位を検出し、前記複数のフレーム画像の各々について前記基準部位が存在する基準部位領域を示す基準部位情報を出力する基準部位検出ステップと、
前記複数のフレーム画像においてフレーム画像間の動きを抽出し、前記動きが生じた動き領域を示す動き情報を出力する動き抽出ステップと、
前記基準部位情報が示す前記検出の結果から、前記基準部位が検出されないフレーム画像が発生した第1のタイミングを示す基準部位消失情報を生成する基準部位消失判定ステップと、
前記基準部位消失情報が示す前記第1のタイミングと、前記動き情報が示す前記動き領域と前記基準部位情報が示す前記基準部位領域とが重なるフレームが発生した第2のタイミングとが同期するか否かを判定し、前記判定の結果であるタイミング判定結果を出力するタイミング判定ステップと、
前記タイミング判定結果と前記動き情報とから操作者によるジェスチャー操作の内容を判定する操作判定ステップと
を有することを特徴とするジェスチャー判定方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016170502 | 2016-09-01 | ||
JP2016170502 | 2016-09-01 | ||
PCT/JP2017/016038 WO2018042751A1 (ja) | 2016-09-01 | 2017-04-21 | ジェスチャー判定装置、ジェスチャー操作装置、及びジェスチャー判定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018042751A1 JPWO2018042751A1 (ja) | 2018-12-27 |
JP6559359B2 true JP6559359B2 (ja) | 2019-08-14 |
Family
ID=61300478
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018536928A Active JP6559359B2 (ja) | 2016-09-01 | 2017-04-21 | ジェスチャー判定装置、ジェスチャー操作装置、及びジェスチャー判定方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10719697B2 (ja) |
JP (1) | JP6559359B2 (ja) |
CN (1) | CN109643165A (ja) |
DE (1) | DE112017004394T5 (ja) |
WO (1) | WO2018042751A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190139605A (ko) * | 2018-06-08 | 2019-12-18 | 전자부품연구원 | 제스처 인식 장치 및 방법 |
US11922667B2 (en) * | 2020-04-28 | 2024-03-05 | Rakuten Group, Inc. | Object region identification device, object region identification method, and object region identification program |
EP3958212A4 (en) * | 2020-07-07 | 2022-02-23 | Rakuten Group, Inc. | DEVICE, METHOD AND PROGRAM FOR EXTRACTION OF SECTIONS |
CN112507918B (zh) * | 2020-12-16 | 2024-05-21 | 康佳集团股份有限公司 | 一种手势识别方法 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3968477B2 (ja) * | 1997-07-07 | 2007-08-29 | ソニー株式会社 | 情報入力装置及び情報入力方法 |
JP4569613B2 (ja) * | 2007-09-19 | 2010-10-27 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
JP2009194786A (ja) * | 2008-02-18 | 2009-08-27 | Sanyo Electric Co Ltd | 対象物検出装置及び撮像装置 |
JP5161690B2 (ja) * | 2008-07-31 | 2013-03-13 | キヤノン株式会社 | 情報処理装置及びその制御方法 |
JP5569062B2 (ja) * | 2010-03-15 | 2014-08-13 | オムロン株式会社 | ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム |
JP5685837B2 (ja) * | 2010-06-15 | 2015-03-18 | ソニー株式会社 | ジェスチャ認識装置、ジェスチャ認識方法およびプログラム |
JP5587068B2 (ja) | 2010-07-09 | 2014-09-10 | 沖電気工業株式会社 | 運転支援装置及び方法 |
JP5829390B2 (ja) | 2010-09-07 | 2015-12-09 | ソニー株式会社 | 情報処理装置、および情報処理方法 |
JP5653206B2 (ja) * | 2010-12-27 | 2015-01-14 | 日立マクセル株式会社 | 映像処理装置 |
WO2012147961A1 (ja) * | 2011-04-28 | 2012-11-01 | Necシステムテクノロジー株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
US9176608B1 (en) * | 2011-06-27 | 2015-11-03 | Amazon Technologies, Inc. | Camera based sensor for motion detection |
JP5865615B2 (ja) | 2011-06-30 | 2016-02-17 | 株式会社東芝 | 電子機器および制御方法 |
JP2013065112A (ja) * | 2011-09-15 | 2013-04-11 | Omron Corp | ジェスチャ認識装置、電子機器、ジェスチャ認識装置の制御方法、制御プログラムおよび記録媒体 |
JP2013164834A (ja) * | 2012-01-13 | 2013-08-22 | Sony Corp | 画像処理装置および方法、並びにプログラム |
JP2013246516A (ja) * | 2012-05-23 | 2013-12-09 | Toshiba Corp | 情報処理装置、情報処理方法、およびプログラム |
JP5912177B2 (ja) * | 2012-05-24 | 2016-04-27 | パイオニア株式会社 | 操作入力装置、操作入力方法及び操作入力プログラム |
TWI475496B (zh) * | 2012-10-16 | 2015-03-01 | Wistron Corp | 手勢控制裝置及於手勢控制裝置中設定及取消手勢操作區域之方法 |
JP2015022525A (ja) * | 2013-07-19 | 2015-02-02 | 富士通株式会社 | 情報処理装置、被写体部位の検出方法、及びプログラム |
CN107087431B (zh) * | 2014-05-09 | 2021-02-05 | 谷歌有限责任公司 | 用于辨别眼睛信号和连续生物识别的系统和方法 |
-
2017
- 2017-04-21 CN CN201780051639.4A patent/CN109643165A/zh not_active Withdrawn
- 2017-04-21 DE DE112017004394.8T patent/DE112017004394T5/de not_active Withdrawn
- 2017-04-21 WO PCT/JP2017/016038 patent/WO2018042751A1/ja active Application Filing
- 2017-04-21 US US16/309,789 patent/US10719697B2/en active Active
- 2017-04-21 JP JP2018536928A patent/JP6559359B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
DE112017004394T5 (de) | 2019-05-16 |
JPWO2018042751A1 (ja) | 2018-12-27 |
US10719697B2 (en) | 2020-07-21 |
US20200143150A1 (en) | 2020-05-07 |
CN109643165A (zh) | 2019-04-16 |
WO2018042751A1 (ja) | 2018-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6559359B2 (ja) | ジェスチャー判定装置、ジェスチャー操作装置、及びジェスチャー判定方法 | |
US9348422B2 (en) | Method for recognizing gestures and gesture detector | |
US10082879B2 (en) | Head mounted display device and control method | |
US8933882B2 (en) | User centric interface for interaction with visual display that recognizes user intentions | |
US8970696B2 (en) | Hand and indicating-point positioning method and hand gesture determining method used in human-computer interaction system | |
CN103530613B (zh) | 一种基于单目视频序列的目标人手势交互方法 | |
KR101364571B1 (ko) | 영상 기반의 손 검출 장치 및 그 방법 | |
CN106598227A (zh) | 基于Leap Motion和Kinect的手势识别方法 | |
JP6221505B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
WO2018000519A1 (zh) | 一种基于投影的用户交互图标的交互控制方法及系统 | |
US10817716B2 (en) | Coarse-to-fine hand detection method using deep neural network | |
JP5935849B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2016099643A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
US9727145B2 (en) | Detecting device and detecting method | |
Xu et al. | Bare hand gesture recognition with a single color camera | |
CN115904201A (zh) | 虚拟现实设备及其控制方法、装置以及计算机存储介质 | |
KR101909326B1 (ko) | 얼굴 모션 변화에 따른 삼각 매쉬 모델을 활용하는 사용자 인터페이스 제어 방법 및 시스템 | |
Xie et al. | Hand posture recognition using kinect | |
KR20190069023A (ko) | 손 인식 기반 비접촉식 입력 인터페이스 제공 방법 및 장치 | |
KR101635600B1 (ko) | 배경 차연산과 손가락 제스쳐 인식을 이용한 핸드 마우스 기능 수행 방법 | |
US20230061557A1 (en) | Electronic device and program | |
CN118097777A (zh) | 一种基于ar技术的数字化交互方法、系统及存储介质 | |
Lissoboi et al. | Development of an efficient method for eye detection on mobile CE devices | |
KR20210156793A (ko) | 낮은 공간 지터, 낮은 레이턴시 및 저전력 사용을 갖는 객체 및 키포인트 검출 시스템 | |
CN110908512A (zh) | 一种基于动态手势坐标映射的人机交互方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180824 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190618 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190716 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6559359 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |