JP2015524115A - 高速ポーズ検出器 - Google Patents
高速ポーズ検出器 Download PDFInfo
- Publication number
- JP2015524115A JP2015524115A JP2015516033A JP2015516033A JP2015524115A JP 2015524115 A JP2015524115 A JP 2015524115A JP 2015516033 A JP2015516033 A JP 2015516033A JP 2015516033 A JP2015516033 A JP 2015516033A JP 2015524115 A JP2015524115 A JP 2015524115A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- sequence
- detected
- source images
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
110 カメラ
120 タッチスクリーン
200 カメラ
210 ジェスチャ
220 異なるジェスチャ
300 データベース
302 例示的なジェスチャ
304 例示的なジェスチャ
306 例示的なジェスチャ
308 例示的なジェスチャ
310 例示的なジェスチャ
312 例示的なジェスチャ
314 例示的なジェスチャ
316 例示的なジェスチャ
318 例示的なジェスチャ
320 例示的なジェスチャ
400 ブロック図
500 処理フロー
600 図
700 グラフ
800 図表
810 モデルディメンションブロック
820 ジェスチャ
900 流れ図
950 流れ図
1000 コンピュータシステム
1005 バス
1010 プロセッサ
1015 入力デバイス
1020 出力デバイス
1025 非一時的記憶装置
1030 通信サブシステム
1035 非一時的ワーキングメモリ
1040 オペレーティングシステム
1045 アプリケーションプログラム
Claims (34)
- ジェスチャがソース画像のシーケンス内で実行されているかどうかを決定するための方法であって、
複数のジェスチャモデルのうちの1つまたは複数のジェスチャモデルを使用して、1つまたは複数の参照画像のそれぞれの中の前記ジェスチャを検出するステップと、
前記1つまたは複数のジェスチャモデルから、検出された前記ジェスチャに最も密接に一致する第1のジェスチャモデルを選択するステップと、
ソース画像の前記シーケンス内の前記ジェスチャを検索するために、前記複数のジェスチャモデルのうちの第1のジェスチャモデルを、他のジェスチャモデルよりも優先するステップと、
優先された前記第1のジェスチャモデルを使用して、前記ジェスチャが実行されているかどうかを決定するために、ソース画像の前記シーケンスをスキャンするステップと、
前記ジェスチャが実行されている場合、前記ジェスチャが実行されているかどうかを決定するために、前記複数のジェスチャモデルのうちの別のジェスチャモデルを使用する前に、スキャンを終了するステップとを備える、方法。 - 前記1つまたは複数の参照画像が、ソース画像の前記シーケンス内の以前の画像を備える、請求項1に記載の方法。
- 前記複数のジェスチャモデルが手のポーズを備える、請求項2に記載の方法。
- 前記複数のジェスチャモデルが顔の表情を備える、請求項2に記載の方法。
- 前記複数のジェスチャモデルが、左の開いた手のモデル、右の開いた手のモデル、または拳のモデルを備える、請求項2に記載の方法。
- ソース画像の前記シーケンス内の前記ジェスチャを検索するために、前記1つまたは複数の参照画像内の検出された前記ジェスチャの位置を、他の位置よりも優先するステップと、
前記検出されたジェスチャの優先された位置を使用して、前記ジェスチャが実行されているかどうかを決定するために、ソース画像の前記シーケンスをスキャンするステップとをさらに備える、請求項1に記載の方法。 - ソース画像の前記シーケンス内の前記ジェスチャを検索するために、前記1つまたは複数の参照画像内の検出された前記ジェスチャのスケールを、他のスケールよりも優先するステップと、
前記検出されたジェスチャの優先された前記スケールを使用して、前記ジェスチャが実行されているかどうかを決定するために、ソース画像の前記シーケンスをスキャンするステップとをさらに備える、請求項1に記載の方法。 - ソース画像の前記シーケンス内の前記ジェスチャを検索するために、前記1つまたは複数の参照画像内の前記検出されたジェスチャの位置を、他の位置よりも優先するステップと、
ソース画像の前記シーケンス内の前記ジェスチャを検索するために、前記1つまたは複数の参照画像内の前記検出されたジェスチャのスケールを、他のスケールよりも優先するステップと、
前記検出されたジェスチャの優先された前記位置、前記検出されたジェスチャの前記優先されたスケール、および優先された前記第1のジェスチャモデルの組合せを使用して、前記ジェスチャが実行されているかどうかを決定するために、ソース画像の前記シーケンスをスキャンするステップとをさらに備える、請求項1に記載の方法。 - ソース画像の前記シーケンス内であらかじめ定められた数の前記ジェスチャが検出されると、ソース画像の前記シーケンスのフルスキャンを完了する前に、ソース画像の前記シーケンス内の前記ジェスチャのスキャンを終了するステップをさらに備える、請求項1に記載の方法。
- 前記1つまたは複数の参照画像内に第2のジェスチャが検出される可能性が、前記ジェスチャよりも低いと決定するステップと、
前記第2のジェスチャが検出される可能性がより低いと決定するステップに基づいて、前記ジェスチャを検出した後、前記第2のジェスチャの前記1つまたは複数の参照画像をスキャンするステップとをさらに備える、請求項1に記載の方法。 - 前記ジェスチャの前記1つまたは複数の参照画像をスキャンするステップと、
連続する数の段階内で順序付けられた複数のカスケード接続された段階において、前記ジェスチャの前記1つまたは複数の参照画像のスキャンを絞り込むステップであって、前記カスケード接続された段階の各段階が、前記ジェスチャを検出するために、ソース画像の前記シーケンス内の少なくとも1つの画像内のピクセルの周期数をスキャンするステップを備え、ピクセルの前記周期数が、ピクセルの前記周期数内で互いのピクセルから離れた一定の垂直方向距離および水平方向距離を有するステップであって、任意の段階におけるピクセルの前記周期数が、以前の段階のピクセルの前記周期数以下であるステップと、
前記連続する数の段階の最後の段階が、前記ジェスチャの少なくとも一部を検出するかどうかを決定することによって、前記ジェスチャを識別するステップとをさらに備える、請求項1に記載の方法。 - ジェスチャがソース画像のシーケンス内で実行されているかどうかを決定するための装置であって、
1つまたは複数の参照画像、およびソース画像の前記シーケンスを格納するように構成されたメモリと、
前記メモリに通信可能に結合されており、
複数のジェスチャモデルのうちの1つまたは複数のジェスチャモデルを使用して、1つまたは複数の参照画像のそれぞれの中の前記ジェスチャを検出し、
前記1つまたは複数のジェスチャモデルから、検出された前記ジェスチャに最も密接に一致する第1のジェスチャモデルを選択し、
ソース画像の前記シーケンス内の前記ジェスチャを検索するために、前記複数のジェスチャモデルのうちの前記第1のジェスチャモデルを他のジェスチャモデルよりも優先し、
優先された前記第1のジェスチャモデルを使用して、前記ジェスチャが実行されているかどうかを決定するために、ソース画像の前記シーケンスをスキャンし、
前記ジェスチャが実行されている場合、前記ジェスチャが実行されているかどうかを決定するために、前記複数のジェスチャモデルのうちの別のジェスチャモデルを使用する前に、スキャンを終了するように構成されたプロセッサとを備える、装置。 - 前記1つまたは複数の参照画像が、ソース画像の前記シーケンス内の以前の画像を備える、請求項12に記載の装置。
- 前記複数のジェスチャモデルが手のポーズを備える、請求項13に記載の装置。
- 前記複数のジェスチャモデルが顔の表情を備える、請求項13に記載の装置。
- 前記複数のジェスチャモデルが、左の開いた手のモデル、右の開いた手のモデル、または拳のモデルを備える、請求項13に記載の装置。
- 前記プロセッサが、
ソース画像の前記シーケンス内の前記ジェスチャを検索するために、前記1つまたは複数の参照画像内の検出された前記ジェスチャの位置を、他の位置よりも優先し、
前記検出されたジェスチャの優先された前記位置を使用して、前記ジェスチャが実行されているかどうかを決定するために、ソース画像の前記シーケンスをスキャンするようにさらに構成される、請求項12に記載の装置。 - 前記プロセッサが、
ソース画像の前記シーケンス内の前記ジェスチャを検索するために、前記1つまたは複数の参照画像内の前記検出されたジェスチャのスケールを、他のスケールよりも優先し、
前記検出されたジェスチャの前記優先されたスケールを使用して、前記ジェスチャが実行されているかどうかを決定するために、ソース画像の前記シーケンスをスキャンするようにさらに構成される、請求項12に記載の装置。 - 前記プロセッサが、
ソース画像の前記シーケンス内の前記ジェスチャを検索するために、前記1つまたは複数の参照画像内の前記検出されたジェスチャの位置を、他の位置よりも優先し、
ソース画像の前記シーケンス内の前記ジェスチャを検索するために、前記1つまたは複数の参照画像内の前記検出されたジェスチャのスケールを、他のスケールよりも優先し、
前記検出されたジェスチャの優先された位置、前記検出されたジェスチャの優先されたスケール、および優先された前記第1のジェスチャモデルの組合せを使用して、前記ジェスチャが実行されているかどうかを決定するために、ソース画像の前記シーケンスをスキャンするようにさらに構成される、請求項12に記載の装置。 - 前記プロセッサがソース画像の前記シーケンス内であらかじめ定められた数のジェスチャが検出されると、ソース画像の前記シーケンスのフルスキャンを完了する前に、ソース画像の前記シーケンス内の前記ジェスチャのスキャンを終了するようにさらに構成される、請求項12に記載の装置。
- 前記プロセッサが、
前記1つまたは複数の参照画像内に第2のジェスチャが検出される可能性が、前記ジェスチャよりも低いと決定し、
前記第2のジェスチャが検出される可能性がより低いと決定するステップに基づいて、前記ジェスチャを検出した後、前記第2のジェスチャの前記1つまたは複数の参照画像をスキャンするようにさらに構成される、請求項12に記載の装置。 - 前記プロセッサが、
前記ジェスチャの前記1つまたは複数の参照画像をスキャンし、
連続する数の段階内で順序付けられた複数のカスケード接続された段階において、前記ジェスチャの前記1つまたは複数の参照画像のスキャンを絞り込み、前記カスケード接続された段階の各段階が、前記ジェスチャを検出するために、ソース画像の前記シーケンス内の少なくとも1つの画像内のピクセルの周期数をスキャンするステップを備え、ピクセルの前記周期数が、ピクセルの前記周期数内で互いのピクセルから離れた一定の垂直方向距離および水平方向距離を有し、任意の段階におけるピクセルの前記周期数が、以前の段階のピクセルの前記周期数以下であり、
前記連続する数の段階の最後の段階が、前記ジェスチャの少なくとも一部を検出するかどうかを決定することによって、前記ジェスチャを識別するようにさらに構成される、請求項12に記載の装置。 - ジェスチャが、ソース画像のシーケンス内で実行されているかどうかを決定するための装置であって、
複数のジェスチャモデルのうちの1つまたは複数のジェスチャモデルを使用して、1つまたは複数の参照画像のそれぞれの中の前記ジェスチャを検出するための手段と、
前記1つまたは複数のジェスチャモデルから、前記検出されたジェスチャに最も密接に一致する第1のジェスチャモデルを選択するための手段と、
ソース画像の前記シーケンス内の前記ジェスチャを検索するために、前記複数のジェスチャモデルのうちの第1のジェスチャモデルを、他のジェスチャモデルよりも優先するための手段と、
優先された前記第1のジェスチャモデルを使用して、前記ジェスチャが実行されているかどうかを決定するために、ソース画像の前記シーケンスをスキャンするための手段と、
前記ジェスチャが実行されている場合、前記ジェスチャが実行されているかどうかを決定するために、前記複数のジェスチャモデルのうちの別のジェスチャモデルを使用する前に、スキャンを終了するための手段とを備える、装置。 - 前記1つまたは複数の参照画像が、ソース画像の前記シーケンス内の以前の画像を備える、請求項23に記載の装置。
- 前記複数のジェスチャモデルが手のポーズを備える、請求項24に記載の装置。
- 前記複数のジェスチャモデルが顔の表情を備える、請求項24に記載の装置。
- 前記複数のジェスチャモデルが、左の開いた手のモデル、右の開いた手のモデル、または拳のモデルを備える、請求項24に記載の装置。
- ソース画像の前記シーケンス内の前記ジェスチャを検索するために、前記1つまたは複数の参照画像内の前記検出されたジェスチャの位置を、他の位置よりも優先するための手段と、
前記検出されたジェスチャの前記優先された位置を使用して、前記ジェスチャが実行されているかどうかを決定するために、ソース画像の前記シーケンスをスキャンするための手段とをさらに備える、請求項23に記載の装置。 - ソース画像の前記シーケンス内の前記ジェスチャを検索するために、前記1つまたは複数の参照画像内の前記検出されたジェスチャのスケールを、他のスケールよりも優先するための手段と、
前記検出されたジェスチャの優先された前記スケールを使用して、前記ジェスチャが実行されているかどうかを決定するために、ソース画像の前記シーケンスをスキャンするための手段とをさらに備える、請求項23に記載の装置。 - ソース画像の前記シーケンス内の前記ジェスチャを検索するために、前記1つまたは複数の参照画像内の前記検出されたジェスチャの位置を、他の位置よりも優先するための手段と、
ソース画像の前記シーケンス内の前記ジェスチャを検索するために、前記1つまたは複数の参照画像内の前記検出されたジェスチャのスケールを、他のスケールよりも優先するための手段と、
前記検出されたジェスチャの優先された位置、前記検出されたジェスチャの優先された前記スケール、および前記優先された第1のジェスチャモデルの組合せを使用して、前記ジェスチャが実行されているかどうかを決定するために、ソース画像の前記シーケンスをスキャンする手段とをさらに備える、請求項23に記載の装置。 - ソース画像の前記シーケンス内であらかじめ定められた数のジェスチャが検出されると、ソース画像の前記シーケンスのフルスキャンを完了する前に、ソース画像の前記シーケンス内の前記ジェスチャのスキャンを終了するための手段をさらに備える、請求項23に記載の装置。
- 前記1つまたは複数の参照画像内に第2のジェスチャが検出される可能性が、前記ジェスチャよりも低いと決定するための手段と、
前記第2のジェスチャが検出される可能性がより低いと決定するステップに基づいて、前記ジェスチャを検出した後、前記第2のジェスチャの前記1つまたは複数の参照画像をスキャンするための手段とをさらに備える、請求項23に記載の装置。 - 前記ジェスチャの前記1つまたは複数の参照画像をスキャンするための手段と、
連続する数の段階内で順序付けられた複数のカスケード接続された段階において、前記ジェスチャの前記1つまたは複数の参照画像のスキャンを絞り込むための手段であって、前記カスケード接続された段階の各段階が、前記ジェスチャを検出するために、ソース画像の前記シーケンス内の少なくとも1つの画像内のピクセルの周期数をスキャンするステップを備え、ピクセルの前記周期数が、ピクセルの前記周期数内で互いのピクセルから離れた一定の垂直方向距離および水平方向距離を有し、任意の段階におけるピクセルの前記周期数が、以前の段階のピクセルの前記周期数以下である手段と、
前記連続する数の段階の最後の段階が、前記ジェスチャの少なくとも一部を検出するかどうかを決定することによって、前記ジェスチャを識別するための手段とをさらに備える、請求項23に記載の装置。 - プロセッサに、
複数のジェスチャモデルのうちの1つまたは複数のジェスチャモデルを使用して、1つまたは複数の参照画像のそれぞれの中のジェスチャを検出させ、
前記1つまたは複数のジェスチャモデルから、検出された前記ジェスチャに最も密接に一致する第1のジェスチャモデルを選択させ、
ソース画像のシーケンス内の前記ジェスチャを検索するために、前記複数のジェスチャモデルのうちの前記第1のジェスチャモデルを、他のジェスチャモデルよりも優先させ、
優先された前記第1のジェスチャモデルを使用して、前記ジェスチャが実行されているかどうかを決定するために、ソース画像の前記シーケンスをスキャンさせ、
前記ジェスチャが実行されている場合、前記ジェスチャが実行されているかどうかを決定するために、前記複数のジェスチャモデルのうちの別のジェスチャモデルを使用する前に、スキャンを終了させるように構成されるプロセッサ可読命令を備える、非一時的プロセッサ可読記録媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261657565P | 2012-06-08 | 2012-06-08 | |
US61/657,565 | 2012-06-08 | ||
US13/843,907 US9646200B2 (en) | 2012-06-08 | 2013-03-15 | Fast pose detector |
US13/843,907 | 2013-03-15 | ||
PCT/US2013/041766 WO2013184333A1 (en) | 2012-06-08 | 2013-05-20 | Fast pose detector |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015524115A true JP2015524115A (ja) | 2015-08-20 |
JP6144759B2 JP6144759B2 (ja) | 2017-06-07 |
Family
ID=48614134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015516033A Expired - Fee Related JP6144759B2 (ja) | 2012-06-08 | 2013-05-20 | 高速ポーズ検出器 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9646200B2 (ja) |
JP (1) | JP6144759B2 (ja) |
CN (1) | CN104350509B (ja) |
IN (1) | IN2014MN02361A (ja) |
WO (1) | WO2013184333A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019244645A1 (ja) * | 2018-06-20 | 2019-12-26 | ソニー株式会社 | プログラム、認識装置、及び、認識方法 |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5733298B2 (ja) * | 2012-12-28 | 2015-06-10 | カシオ計算機株式会社 | 表示制御装置、表示制御方法及びプログラム |
KR20140099111A (ko) * | 2013-02-01 | 2014-08-11 | 삼성전자주식회사 | 카메라 장치의 동작을 제어하는 방법 및 상기 카메라 장치 |
US9785228B2 (en) * | 2013-02-11 | 2017-10-10 | Microsoft Technology Licensing, Llc | Detecting natural user-input engagement |
US10222865B2 (en) * | 2014-05-27 | 2019-03-05 | Dell Products, Lp | System and method for selecting gesture controls based on a location of a device |
KR101628482B1 (ko) * | 2014-09-18 | 2016-06-21 | 현대자동차주식회사 | 무선신호 분석을 통한 동작 인식 시스템 및 그 방법 |
CN104281265B (zh) * | 2014-10-14 | 2017-06-16 | 京东方科技集团股份有限公司 | 一种应用程序的控制方法、装置及电子设备 |
US9858498B2 (en) * | 2015-09-23 | 2018-01-02 | Qualcomm Incorporated | Systems and methods for incremental object detection using dual-threshold local binary pattern operators |
USD780222S1 (en) * | 2015-11-09 | 2017-02-28 | Naver Corporation | Display panel with icon |
US9864933B1 (en) * | 2016-08-23 | 2018-01-09 | Jasmin Cosic | Artificially intelligent systems, devices, and methods for learning and/or using visual surrounding for autonomous object operation |
US10452974B1 (en) | 2016-11-02 | 2019-10-22 | Jasmin Cosic | Artificially intelligent systems, devices, and methods for learning and/or using a device's circumstances for autonomous device operation |
US10607134B1 (en) | 2016-12-19 | 2020-03-31 | Jasmin Cosic | Artificially intelligent systems, devices, and methods for learning and/or using an avatar's circumstances for autonomous avatar operation |
US10838505B2 (en) * | 2017-08-25 | 2020-11-17 | Qualcomm Incorporated | System and method for gesture recognition |
CN109697394B (zh) | 2017-10-24 | 2021-12-28 | 京东方科技集团股份有限公司 | 手势检测方法和手势检测设备 |
US10474934B1 (en) | 2017-11-26 | 2019-11-12 | Jasmin Cosic | Machine learning for computing enabled systems and/or devices |
US10803264B2 (en) | 2018-01-05 | 2020-10-13 | Datamax-O'neil Corporation | Method, apparatus, and system for characterizing an optical system |
US10834283B2 (en) | 2018-01-05 | 2020-11-10 | Datamax-O'neil Corporation | Methods, apparatuses, and systems for detecting printing defects and contaminated components of a printer |
US10795618B2 (en) | 2018-01-05 | 2020-10-06 | Datamax-O'neil Corporation | Methods, apparatuses, and systems for verifying printed image and improving print quality |
US10546160B2 (en) | 2018-01-05 | 2020-01-28 | Datamax-O'neil Corporation | Methods, apparatuses, and systems for providing print quality feedback and controlling print quality of machine-readable indicia |
CN110287755A (zh) * | 2018-03-19 | 2019-09-27 | 广东欧珀移动通信有限公司 | 信息处理方法和装置、电子设备、计算机可读存储介质 |
CN108596079B (zh) * | 2018-04-20 | 2021-06-15 | 歌尔光学科技有限公司 | 手势识别方法、装置及电子设备 |
CN109240494B (zh) * | 2018-08-23 | 2023-09-12 | 京东方科技集团股份有限公司 | 电子显示板的控制方法、计算机可读存储介质和控制系统 |
US11966515B2 (en) * | 2021-12-23 | 2024-04-23 | Verizon Patent And Licensing Inc. | Gesture recognition systems and methods for facilitating touchless user interaction with a user interface of a computer system |
CN114463781A (zh) * | 2022-01-18 | 2022-05-10 | 影石创新科技股份有限公司 | 确定触发手势的方法、装置及设备 |
WO2024072410A1 (en) * | 2022-09-30 | 2024-04-04 | Innopeak Technology, Inc. | Real-time hand gesture tracking and recognition |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005062910A (ja) * | 2002-07-02 | 2005-03-10 | Honda Motor Co Ltd | 画像認識装置 |
JP2005184722A (ja) * | 2003-12-24 | 2005-07-07 | Sony Corp | 画像処理システム、リモートコントローラおよび方法、画像処理装置および方法、記録媒体、並びにプログラム |
JP2006172439A (ja) * | 2004-11-26 | 2006-06-29 | Oce Technologies Bv | 手操作を用いたデスクトップスキャン |
WO2006086508A2 (en) * | 2005-02-08 | 2006-08-17 | Oblong Industries, Inc. | System and method for genture based control system |
JP2009530726A (ja) * | 2006-03-22 | 2009-08-27 | フオルクスワーゲン・アクチエンゲゼルシヤフト | 対話型操作装置および対話型操作装置を動作させるための方法 |
US20100194762A1 (en) * | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Standard Gestures |
US20110007079A1 (en) * | 2009-07-13 | 2011-01-13 | Microsoft Corporation | Bringing a visual representation to life via learned input from the user |
JP2011192090A (ja) * | 2010-03-15 | 2011-09-29 | Omron Corp | ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム |
JP2011221699A (ja) * | 2010-04-07 | 2011-11-04 | Yaskawa Electric Corp | 操作指示認識装置及びロボット |
JP2012048602A (ja) * | 2010-08-30 | 2012-03-08 | Fujifilm Corp | 医療情報表示装置および方法、並びにプログラム |
JP2012098988A (ja) * | 2010-11-04 | 2012-05-24 | Sony Corp | 画像処理装置および方法、並びにプログラム |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6009210A (en) | 1997-03-05 | 1999-12-28 | Digital Equipment Corporation | Hands-free interface to a virtual reality environment using head tracking |
US6639998B1 (en) * | 1999-01-11 | 2003-10-28 | Lg Electronics Inc. | Method of detecting a specific object in an image signal |
US7003134B1 (en) | 1999-03-08 | 2006-02-21 | Vulcan Patents Llc | Three dimensional object pose estimation which employs dense depth information |
GB2411532B (en) | 2004-02-11 | 2010-04-28 | British Broadcasting Corp | Position determination |
US9317124B2 (en) | 2006-09-28 | 2016-04-19 | Nokia Technologies Oy | Command input by hand gestures captured from camera |
US8194921B2 (en) | 2008-06-27 | 2012-06-05 | Nokia Corporation | Method, appartaus and computer program product for providing gesture analysis |
US20100199231A1 (en) * | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Predictive determination |
KR101821418B1 (ko) | 2009-05-04 | 2018-01-23 | 오블롱 인더스트리즈, 인크 | 데이터의 표현, 조작 및 교환을 포함하는 제스처-기반 시스템 |
US9417700B2 (en) * | 2009-05-21 | 2016-08-16 | Edge3 Technologies | Gesture recognition systems and related methods |
US8176442B2 (en) | 2009-05-29 | 2012-05-08 | Microsoft Corporation | Living cursor control mechanics |
US8843857B2 (en) * | 2009-11-19 | 2014-09-23 | Microsoft Corporation | Distance scalable no touch computing |
TWI408610B (zh) | 2009-12-30 | 2013-09-11 | Ind Tech Res Inst | 姿勢辨識方法與系統,及其電腦程式產品 |
US8751215B2 (en) * | 2010-06-04 | 2014-06-10 | Microsoft Corporation | Machine based sign language interpreter |
US8792722B2 (en) | 2010-08-02 | 2014-07-29 | Sony Corporation | Hand gesture detection |
KR101298023B1 (ko) * | 2010-09-17 | 2013-08-26 | 엘지디스플레이 주식회사 | 사용자 동적 기관 제스처 인식 방법 및 인터페이스와, 이를 사용하는 전기 사용 장치 |
CN101976330B (zh) * | 2010-09-26 | 2013-08-07 | 中国科学院深圳先进技术研究院 | 手势识别方法和系统 |
CN102339379A (zh) * | 2011-04-28 | 2012-02-01 | 重庆邮电大学 | 手势识别方法及基于手势识别控制的智能轮椅人机系统 |
US20120281129A1 (en) * | 2011-05-06 | 2012-11-08 | Nokia Corporation | Camera control |
CN102368290B (zh) * | 2011-09-02 | 2012-12-26 | 华南理工大学 | 一种基于手指高级特征的手势识别方法 |
-
2013
- 2013-03-15 US US13/843,907 patent/US9646200B2/en active Active
- 2013-05-20 IN IN2361MUN2014 patent/IN2014MN02361A/en unknown
- 2013-05-20 JP JP2015516033A patent/JP6144759B2/ja not_active Expired - Fee Related
- 2013-05-20 CN CN201380029750.5A patent/CN104350509B/zh not_active Expired - Fee Related
- 2013-05-20 WO PCT/US2013/041766 patent/WO2013184333A1/en active Application Filing
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005062910A (ja) * | 2002-07-02 | 2005-03-10 | Honda Motor Co Ltd | 画像認識装置 |
JP2005184722A (ja) * | 2003-12-24 | 2005-07-07 | Sony Corp | 画像処理システム、リモートコントローラおよび方法、画像処理装置および方法、記録媒体、並びにプログラム |
JP2006172439A (ja) * | 2004-11-26 | 2006-06-29 | Oce Technologies Bv | 手操作を用いたデスクトップスキャン |
WO2006086508A2 (en) * | 2005-02-08 | 2006-08-17 | Oblong Industries, Inc. | System and method for genture based control system |
JP2009530726A (ja) * | 2006-03-22 | 2009-08-27 | フオルクスワーゲン・アクチエンゲゼルシヤフト | 対話型操作装置および対話型操作装置を動作させるための方法 |
US20100194762A1 (en) * | 2009-01-30 | 2010-08-05 | Microsoft Corporation | Standard Gestures |
US20110007079A1 (en) * | 2009-07-13 | 2011-01-13 | Microsoft Corporation | Bringing a visual representation to life via learned input from the user |
JP2011192090A (ja) * | 2010-03-15 | 2011-09-29 | Omron Corp | ジェスチャ認識装置、ジェスチャ認識装置の制御方法、および、制御プログラム |
JP2011221699A (ja) * | 2010-04-07 | 2011-11-04 | Yaskawa Electric Corp | 操作指示認識装置及びロボット |
JP2012048602A (ja) * | 2010-08-30 | 2012-03-08 | Fujifilm Corp | 医療情報表示装置および方法、並びにプログラム |
JP2012098988A (ja) * | 2010-11-04 | 2012-05-24 | Sony Corp | 画像処理装置および方法、並びにプログラム |
Non-Patent Citations (1)
Title |
---|
浜田 康志: "遷移ネットワークに基づく複雑背景下での手指ジェスチャの認識", 情報処理学会研究報告 VOL.2005 NO.88, vol. 2005-CVIM-150, JPN6017003910, 6 September 2005 (2005-09-06), JP, pages 9 - 16, ISSN: 0003495358 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019244645A1 (ja) * | 2018-06-20 | 2019-12-26 | ソニー株式会社 | プログラム、認識装置、及び、認識方法 |
US11493997B2 (en) | 2018-06-20 | 2022-11-08 | Sony Corporation | Program, recognition apparatus, and recognition method |
Also Published As
Publication number | Publication date |
---|---|
JP6144759B2 (ja) | 2017-06-07 |
IN2014MN02361A (ja) | 2015-08-14 |
US20130329946A1 (en) | 2013-12-12 |
WO2013184333A1 (en) | 2013-12-12 |
CN104350509B (zh) | 2018-05-29 |
US9646200B2 (en) | 2017-05-09 |
CN104350509A (zh) | 2015-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6144759B2 (ja) | 高速ポーズ検出器 | |
KR102230630B1 (ko) | 빠른 제스처 재접속 | |
JP6370893B2 (ja) | 検出されたジェスチャーに基づいてデバイス動作を実行するためのシステムおよび方法 | |
US8737693B2 (en) | Enhanced detection of gesture | |
US20130211843A1 (en) | Engagement-dependent gesture recognition | |
CN109697394B (zh) | 手势检测方法和手势检测设备 | |
US9792494B2 (en) | Image processing apparatus, method, and program capable of recognizing hand gestures | |
US20140157209A1 (en) | System and method for detecting gestures | |
US9223415B1 (en) | Managing resource usage for task performance | |
US9746929B2 (en) | Gesture recognition using gesture elements | |
WO2012051747A1 (en) | Method and apparatus for providing hand detection | |
US20170085784A1 (en) | Method for image capturing and an electronic device using the method | |
US9405375B2 (en) | Translation and scale invariant features for gesture recognition | |
CN112541418B (zh) | 用于图像处理的方法、装置、设备、介质和程序产品 | |
US11340706B2 (en) | Gesture recognition based on depth information and computer vision | |
JP6273686B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
CN114510142A (zh) | 基于二维图像的手势识别方法及其系统和电子设备 | |
EP3101522A1 (en) | Information processing device, information processing method, and program | |
Sen et al. | Novel Human Machine Interface via Robust Hand Gesture Recognition System using Channel Pruned YOLOv5s Model | |
Lissoboi et al. | Development of an efficient method for eye detection on mobile CE devices | |
WO2023215114A1 (en) | Aggregated likelihood of unintentional touch input |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160427 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170407 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170417 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170511 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6144759 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |