JP2011501316A - ラベル割当を用いた手サイン認識 - Google Patents
ラベル割当を用いた手サイン認識 Download PDFInfo
- Publication number
- JP2011501316A JP2011501316A JP2010531098A JP2010531098A JP2011501316A JP 2011501316 A JP2011501316 A JP 2011501316A JP 2010531098 A JP2010531098 A JP 2010531098A JP 2010531098 A JP2010531098 A JP 2010531098A JP 2011501316 A JP2011501316 A JP 2011501316A
- Authority
- JP
- Japan
- Prior art keywords
- hand
- representing
- nodes
- palm
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 70
- 238000005457 optimization Methods 0.000 claims abstract description 26
- 230000006870 function Effects 0.000 claims abstract description 17
- 125000002015 acyclic group Chemical class 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 15
- 238000007781 pre-processing Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 abstract description 23
- 230000008569 process Effects 0.000 abstract description 12
- 238000001514 detection method Methods 0.000 description 10
- 230000003993 interaction Effects 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 7
- 238000002372 labelling Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000001154 acute effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000002910 structure generation Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【解決手段】 リンク構造700は、重なり合ったり隣接する手を含んだ奥行画像212から生成した複数のセグメントを含む。重なり合ったり隣接する手形状を、(i)コスト関数および制約条件を用いてリンクグラフのセグメントを両方の手に分類するような、制約条件付最適化処理を用いるか、または(ii)複数のノードを含んだツリー構造を用いたツリー検索処理を用いて、奥行画212像で表される最も可能性の高い手形状を得る。手形状を決定した後は、リンク構造700のセグメントを、記憶している形状にマッチングさせて、奥行画像212で表されるサインを決定する。
【選択図】図2
Description
モーションによって機械(監視システムなど)からの応答を誘発するような簡便なモーション検出システムから、高度に複雑化した三次元(3D)画像サイン認識システム(imaging sign recognition systems)に至るまでの技術は、近年の著しい発展の主題である。例えば、サインに基づく人間−機械コミュニケーションの領域では、人間の手話を認識することは、人間−機械コミュニケーションにおける有望な技術として、近年、多くの研究においてテーマとなっている。
この他に、手と手の動きを、他の身体部位(腕部、胴体部、頭部など)の関係から探し出して追跡するような各種方法に基づいたサイン認識システムや、より複雑なジェスチャ認識システムが開発されている。
さらに、本明細書中の説明で用いられた文言は、読みやすさや例示的な目的から主に用いられたものであって、本発明の主題の範囲を詳説したり、限定するために選択されたものではない。
図2は、本発明の一実施形態に係るサイン認識システム200の概略ブロック図である。サイン認識システム200は、構成部品の中でも特に、画像キャプチャ装置210と画像処理モジュール220とを備える。画像キャプチャ装置210は、対象252の奥行画像212を取得し、この奥行画像212を画像処理モジュール220に送信する。画像処理モジュール220は、奥行画像212を処理し、特定した対象252の手サインを示すデータ240を出力する。
図4は、本発明の一実施形態に係る手サイン認識方法のフローチャートを示している。まず、画像前処理モジュール224は奥行画像212から両手を表す画像画素のクラスタを抽出する(S410)。両手を表す画像画素のクラスタを決定するには、例えば、米国特許出願番号第11/869435号、発明の名称「Human Pose Estimation and Tracking Using Label Assignment」、出願日2007年10月9日に開示されるように、奥行画像および色画像の一部分を、対象の異なる部位に分類し、ラベリングすることで決定できる。なお、前記文献に記載されるすべての内容をここに引用する。次に、画像前処理モジュール224は、抽出した画像画素のクラスタに重なり合ったり隣接する両手が含まれているか否かを決定する(S420)。
図5は、本発明の一実施形態に係る手のひらを検出する方法に関するフローチャートを示している。ツリー検索法および制約条件付最適化法の精度は、手のひらの検出の正確さに左右されるため、手のひらの位置の決定は非常に重要である。ツリー検索法と制約条件付最適化法のどちらも、セグメントを片方の手またはもう片方の手に分類する(これにより画像画素を分類する)際には、手のひらまでの相対的な距離やセグメントが手のひらにリンクしているか否かの判断に一部基づいて行う。したがって、手のひらの位置の検出が正確でないならば、セグメントを手に分類するときの精度が低下してしまう。
図7(a)は、本発明の一実施形態に係るサイン認識システム200でこれから処理しようとするサインを含んだ奥行画像を例示したものである。
図7(a)は、日本手話(JSN)の「B」という文字を表している対象の画像から抽出した奥行画像である。図7(a)の奥行画像に含まれる、対象の画像の背景とその他の物品は画像前処理モジュール224で削除している。
右の手のひら710と左の手のひら720を、例えば、図5および図6を参照しつつ説明したような方法で検出する。図7(b)のスケルトン構造は、複数のセグメントに区分する前の状態である。
図7(b)のスケルトン構造には、手の特徴になり得ないような短い断片(例えば、ぶら下がり線730)を含んでいる可能性がある。このような短い断片は、デジタル画像中のノイズとなったり、あるいは画像処理中に発生するアーチファクトとなることが多い。
リンク構造700には、図7(b)のぶら下がり線730のような短い断片は含まれない。リンク構造700を生成するために、スケルトン構造を次のようなノードで区分するようにしてもよい:
(i)3本以上の線が集まる分岐ノード
このようなノードは、指が始まる、隣接する、終端となるような点である可能性が高い。
(ii)線の角度が急に変化するような点(例えば、図7(b)の点740)
このような点では手の指やその他の部位と交差する可能性が高い。
(iii)所定の閾値よりも長い線の途中で最大曲率の変化が発生するような点(例えば、図7(c)の点734)
手のセグメントであれば、このような閾値を超える長さを有する可能性は低い。
図8は、本発明の一実施形態に係る、制約条件付最適化法を用いてリンク構造のセグメントをグループ化する方法を例示したものである。
制約条件付最適化モジュール340は、まず、リンク構造のセグメントを、右手と左手に分類するためのコスト関数を生成する。一実施形態では、次のようなコスト関数Q(f)を用いる。
式(3)は、幅の広い複数のクラスタを有するセグメントには2本の指が含まれる、という制約条件を表している。したがって、このようなセグメントは、左手、右手あるいは両手に分類することができる。
図9は、本発明の一実施形態に係る、ツリー検索法を用いてリンク構造のセグメントを2本の手に分類する方法に関するフローチャートである。まず、従来の方法を用いて、リンク構造700から非循環有向グラフを生成する(S920)。図11は、図7(c)のリンク構造から生成した非循環有向グラフ1100をツリーの形態で構成したもの(よって、この方法を「ツリー検索法」と呼ぶ)を示す。
図12は、本発明の各種実施形態に係る、両手に割り当てた画像画素の事例を示したものである。具体的には、図12の事例は、制約条件付最適法を用いて正確に特定した、日本手話(JSL)のアルファベット文字のA、アルファベット文字のK、アルファベット文字のG、アルファベット文字のB、アルファベット文字のX、単語の「井戸」、単語の「会う」、単語の「手紙」を例示している。図12の各画像中の円は、図5を参照して詳述した方法を用いて検出した両手のひらを表している。
一実施形態では、サイン認識システムは、例えば、米国特許出願番号第11/129164号、発明の名称「Sign Based Human-Machine Interaction」、出願日:2005年5月12日(米国特許公開番号第2005/0271279号)に開示されるような、手の軌道を追跡するためのジェスチャマッチングモジュールをさらに備える。なお、前記文献に記載されるすべての内容をここに引用する。このジェスチャマッチングモジュールを、本発明の各種実施形態に係る形状マッチングモジュールに対応させて、重なり合ったり隣接する手の動きを追跡するようにしてもよい。
Claims (25)
- 手話を認識するコンピュータベースの方法であって、
前記方法は、
1つ以上のカメラを用いて、対象の部位と前記1つ以上のカメラとの距離を表す画像画素を含んだ前記対象の奥行画像を受信し、
前記奥行画像における前記対象の第1の手と第2の手とが重なり合うか隣接していると決定した場合に、前記奥行画像を、前記対象の第1の手を表す第1の部位と前記対象の第2の手を表す第2の部位とに分類し、
前記第1の部位と前記第2の部位との形状を、記憶している手形状にマッチングさせて、前記奥行画像において前記第1の手と前記第2の手とで表されるサインを出力する
ことを特徴とするコンピュータベースの方法。 - 前記奥行画像から前記第1の手と前記第2の手とを表すリンク構造を生成し、前記リンク構造は、互いにリンクする2つ以上のセグメントを含むことを特徴とする請求項1に記載のコンピュータベースの方法。
- 前記奥行画像を分類することは、
前記2つ以上のセグメントを前記第1の手と前記第2の手とに分類するためのコストを示すコスト関数を生成し、
前記コスト関数を最小化し、さらに、手の特性を表す制約条件を満たすような、前記第1の手と前記第2の手とについての手形状を決定する
ことを含むことを特徴とする請求項2に記載のコンピュータベースの方法。 - 前記制約条件は、
近接するセグメントどうしは、同じ手に属するセグメントになる可能性が高い第1条件と、
画像画素の第1クラスタから生成した第1セグメントは、前記第1クラスタの第1の厚さが閾値よりも大きい場合には、2本以上の指を含む第2条件と、
画像画素の第2クラスタから生成した第2セグメントは、前記第2クラスタの第2の厚さが前記閾値以下である場合には、1本の指を含む第3条件と、
前記第1の手と前記第2の手とに分類されるセグメントの長さの合計は、最大値を超えない第4条件とを含む
ことを特徴とする請求項3に記載のコンピュータベースの方法。 - 前記奥行画像を分類することは、前記リンク構造に基づいて、セグメントを表すノードを含み、かつ前記ノード間の連結間関係を示すような非循環有向グラフの構造を生成し、
前記ノードの第1のセットを前記第1の手にグループ化し、前記ノードの第2のセットを前記第2の手にグループ化するような、ノードの組み合わせを生成し、
両方の手の特徴を表す1つ以上の基準を用いて、前記ノードの組み合わせを評価する
ことを特徴とする請求項2に記載のコンピュータベースの方法。 - 前記ノードの組み合わせを評価することは、
同じ手に分類された第1のノードと第2のノードとのリンクを表す第1のスコアを求め、
セグメントが分類された手のひらと前記セグメントとの距離を表す第2のスコアを求め、
前記同じ手に分類された、リンクするセグメントどうしの角度を表す第3のスコアを求め、
分岐ノードと前記分岐ノードが分類された手のひらとの距離を表す第4のスコアを求め、この場合の前記分岐ノードは、3つ以上のノードにリンクするノード、もしくは手のひらと2つ以上のノードにリンクするノードを表し、
前記第1のスコアと、前記第2のスコアと、前記第3のスコアと、前記第4のスコアとの合計値が最も小さい組み合わせを決定する
ことを含むことを特徴とする請求項5に記載のコンピュータベースの方法。 - 前記第1の手のひらと前記第2の手のひらとを検出することを含むことを特徴とする請求項1に記載のコンピュータベースの方法。
- 前記第1の手のひらまたは前記第2の手のひらを検出することは、
前記第1の手と前記第2の手とを表す画像画素に基づいてスケルトン線を生成し、
前記スケルトン線と直交し、かつ前記第1の手と前記第2の手の輪郭となる画像画素のエッジと交差する線の極大長さを求めることで、前記第1の手のひらまたは前記第2の手のひらの中央部を含んでいる線の候補を決定し、
前記第1の手または前記第2の手の指を表す画像画素に最も近接する前記線の候補の中央部を、前記手のひらの中央部として決定する
ことを特徴とする請求項7に記載のコンピュータベースの方法。 - 前記リンク構造を生成することは、前記第1の手および前記第2の手を表す前記画像画素を細線化する
ことを含むことを特徴とする請求項2に記載のコンピュータベースの方法。 - プロセッサによって実行可能な指令を記憶するコンピュータ読み取り可能媒体を含むコンピュータプログラム製品であって、
前記指令を実行することで、プロセッサは、
1つ以上のカメラを用いて、対象の部位と前記1つ以上のカメラとの距離を表す画像画素を含んだ前記対象の奥行画像を受信し、
前記奥行画像における前記対象の第1の手と第2の手とが重なり合うか隣接していると決定した場合に、前記奥行画像を、前記対象の第1の手を表す第1の部位と前記対象の第2の手を表す第2の部位とに分類し、
前記第1の部位と前記第2の部位との形状を、記憶している手形状にマッチングさせて、前記奥行画像において前記第1の手と前記第2の手とで表されるサインを出力する
ことを特徴とするコンピュータプログラム製品。 - 前記コンピュータプログラム製品は、前記奥行画像から前記第1の手と前記第2の手を表すリンク構造を生成する指令をさらに含み、
前記リンク構造は互いにリンクする2つ以上のセグメントを含む
ことを特徴とする請求項10に記載のコンピュータプログラム製品。 - 前記奥行画像を分類する指令は、
前記2つ以上のセグメントを前記第1の手と前記第2の手とに分類するためのコストを示すコスト関数を生成し
前記コスト関数を最小化し、さらに、手の特性を表す制約条件を満たすような、前記第1の手と前記第2の手とについての手形状を決定する指令を含む
ことを特徴とする請求項11に記載のコンピュータプログラム製品。 - 前記制約条件は、
近接するセグメントどうしは、同じ手に属するセグメントになる可能性が高い第1条件と、
画像画素の第1クラスタから生成した第1セグメントは、前記第1クラスタの第1の厚さが閾値よりも大きい場合には、2本以上の指を含む第2条件と、
画像画素の第2クラスタから生成した第2セグメントは、前記第2クラスタの第2の厚さが前記閾値以下である場合には、1本の指を含む第3条件と、
前記第1の手と前記第2の手とに分類されるセグメントの長さの合計は、最大値を超えない第4条件とを含む
ことを特徴とする請求項12に記載のコンピュータプログラム製品。 - 前記デジタル画像を分類する指令は、
前記リンク構造に基づいて、セグメントを表すノードを含み、前記ノード間の連結間関係を示すような非循環有向グラフの構造を生成し、
前記ノードの第1のセットを前記第1の手にグループ化し、前記ノードの第2のセットを前記第2の手にグループ化するような、ノードの組み合わせを生成し、
手の特徴を表す1つ以上の基準を用いて、前記ノードの組み合わせを評価するための指令であることを特徴とする請求項12に記載のコンピュータプログラム製品。 - 前記ノードの組み合わせを評価する指令は、
同じ手に分類された第1のノードと第2のノードとのリンクを表す第1のスコアを求め、
セグメントが分類された手のひらと前記セグメントとの距離を表す第2のスコアを求め、
前記同じ手に分類された、リンクするセグメントどうしの角度を表す第3のスコアを求め、
分岐ノードと前記分岐ノードが分類される手のひらとの距離を表す第4のスコアを求め、この場合の前記分岐ノードは、3つ以上のノードにリンクするノード、もしくは手のひらと2つ以上のノードにリンクするノードを表し、
前記第1のスコアと、前記第2のスコアと、前記第3のスコアと、前記第4のスコアとの合計値が最も小さい組み合わせを決定する指令を含むことを特徴とする請求項14に記載のコンピュータプログラム製品。 - 前記第1の手のひらと前記第2の手のひらを検出するための指令をさらに含む
ことを特徴とする請求項10に記載のコンピュータプログラム製品。 - 前記第1の手のひらまたは前記第2の手のひらを検出するための指令は、
前記第1の手と前記第2の手とを表す画像画素に基づいてスケルトン線を生成し、
前記スケルトン線と直交し、かつ前記第1の手と前記第2の手の輪郭となる画像画素のエッジと交差する線の極大長さを求めることで、前記第1の手のひらまたは前記第2の手のひらの中央部を含んでいる線の候補を決定し、
前記第1の手または前記第2の手の指を表す画像画素に最も近接する前記線の候補の中央部を、前記手のひらの中央部として決定する
ことを特徴とする請求項16に記載のコンピュータプログラム製品。 - 前記リンク構造を生成するための前記指令は、前記第1の手および前記第2の手を表す前記画像画素を細線化するための指令を含む
ことを特徴とする請求項11に記載のコンピュータプログラム製品。 - 手話認識用のコンピュータベースシステムであって、
前記システムは、対象の奥行画像を生成する1つ以上のカメラを備え、前記奥行画像は、対象の部位と前記1つ以上のカメラとの距離を表す画像画素を含み、
前記1つ以上のカメラに接続されて、前記奥行画像における前記対象の第1の手と前記第2の手とが重なり合うか隣接していると決定した場合に、前記奥行画像を、前記対象の第1の手を表す第1の部位と前記対象の第2の手を表す第2の部位とに分類する
画像前処理モジュールと、
前記画像前処理モジュールに接続され、前記第1の部位と前記第2の部位との形状を、記憶している手形状にマッチングさせて、前記奥行画像において前記第1の手と前記第2の手とで表されるサインを出力する形状マッチングモジュールと
を備えることを特徴とするコンピュータベースシステム - 前記前処理モジュールは、さらに、前記奥行画像から前記第1の手と前記第2の手を表すリンク構造を生成し、前記リンク構造は、互いにリンクする2つ以上のセグメントを含むことを特徴とする請求項19に記載のコンピュータベースシステム
- 前記形状マッチングモジュールは、
前記2つ以上のセグメントを前記第1の手と前記第2の手とに分類するためのコストを示すコスト関数を生成し、
前記コスト関数を最小化し、さらに、手の特性を表す制約条件を満たすような、前記第1の手と前記第2の手とについての手形状を決定する最適化モジュールを備える
ことを特徴とする請求項19に記載のコンピュータベースシステム。 - 前記制約条件は、
近傍に位置するセグメントどうしは、同じ手に属するセグメントになる可能性が高い第1条件と、
画像画素の第1クラスタから生成した第1セグメントは、前記第1クラスタの第1の厚さが閾値よりも大きい場合には、2本以上の指を含む第2条件と、
画像画素の第2クラスタから生成した第2セグメントは、前記第2クラスタの第2の厚さが前記閾値以下である場合には、1本の指を含む第3条件と、
前記第1の手と前記第2の手とに分類されるセグメントの長さの合計は、最大値を超えない第4条件とを含む
ことを特徴とする請求項21に記載のコンピュータベースシステム。 - 前記形状マッチングモジュールは、前記リンク構造に基づいて、セグメントを表すノードを含み、前記ノード間の連結関係を示すような非循環有向グラフの構造を生成し、
前記ノードの第1のセットを前記第1の手にグループ化し、前記ノードの第2のセットを前記第2の手にグループ化するような、ノードの組み合わせを生成し、
両手の特徴を表す1つ以上の基準を用いて、前記ノードの組み合わせを評価するようなツリー検索モジュールをさらに備える
ことを特徴とする請求項20に記載のコンピュータベースシステム。 - 前記ツリー検索モジュールは、
同じ手に分類される第1のノードと第2のノードとのリンクを表す第1のスコアと、セグメントが分類される手のひらと前記セグメントとの距離を表す第2のスコアと、前記同じ手に分類されたリンクするセグメントどうしの角度を表す第3のスコアと、分岐ノードと前記分岐ノードが分類される手のひらとの距離を表す第4のスコアとを足して、前記ノードの組み合わせを評価し、
この場合の前記分岐ノードは、3つ以上のノードにリンクするノードもしくは手のひらと2つ以上のノードにリンクするノードを表す
ことを特徴とする請求項23に記載のコンピュータベースシステム。 - 前記画像前処理モジュールは、前記第1の手のひらと、前記第2の手のひらを検出することを特徴とする請求項19に記載のコンピュータベースの方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/925,557 | 2007-10-26 | ||
US11/925,557 US8005263B2 (en) | 2007-10-26 | 2007-10-26 | Hand sign recognition using label assignment |
PCT/US2008/075276 WO2009055148A1 (en) | 2007-10-26 | 2008-09-04 | Hand sign recognition using label assignment |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011501316A true JP2011501316A (ja) | 2011-01-06 |
JP2011501316A5 JP2011501316A5 (ja) | 2011-10-06 |
JP4934220B2 JP4934220B2 (ja) | 2012-05-16 |
Family
ID=40579900
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010531098A Expired - Fee Related JP4934220B2 (ja) | 2007-10-26 | 2008-09-04 | ラベル割当を用いた手サイン認識 |
Country Status (3)
Country | Link |
---|---|
US (1) | US8005263B2 (ja) |
JP (1) | JP4934220B2 (ja) |
WO (1) | WO2009055148A1 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014522018A (ja) * | 2011-06-22 | 2014-08-28 | マイクロソフト コーポレーション | 全自動動的有関節モデル較正 |
JP2015522195A (ja) * | 2012-07-13 | 2015-08-03 | ソフトキネティック ソフトウェア | 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム |
JP2015170206A (ja) * | 2014-03-07 | 2015-09-28 | 富士通株式会社 | 検出装置および検出方法 |
KR101794148B1 (ko) * | 2014-03-26 | 2017-11-06 | 인텔 코포레이션 | 효율적인 자유 공간 손가락 인식 |
US11461966B1 (en) * | 2013-08-29 | 2022-10-04 | Ultrahaptics IP Two Limited | Determining spans and span lengths of a control object in a free space gesture control environment |
US11586292B2 (en) | 2014-05-14 | 2023-02-21 | Ultrahaptics IP Two Limited | Systems and methods of tracking moving hands and recognizing gestural interactions |
US11868687B2 (en) | 2013-10-31 | 2024-01-09 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US11994377B2 (en) | 2012-01-17 | 2024-05-28 | Ultrahaptics IP Two Limited | Systems and methods of locating a control object appendage in three dimensional (3D) space |
Families Citing this family (97)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101323966B1 (ko) | 2004-07-30 | 2013-10-31 | 익스트림 리얼리티 엘티디. | 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및 방법 |
US8681100B2 (en) | 2004-07-30 | 2014-03-25 | Extreme Realty Ltd. | Apparatus system and method for human-machine-interface |
US8928654B2 (en) | 2004-07-30 | 2015-01-06 | Extreme Reality Ltd. | Methods, systems, devices and associated processing logic for generating stereoscopic images and video |
US8872899B2 (en) * | 2004-07-30 | 2014-10-28 | Extreme Reality Ltd. | Method circuit and system for human to machine interfacing by hand gestures |
US20070285554A1 (en) | 2005-10-31 | 2007-12-13 | Dor Givon | Apparatus method and system for imaging |
US9046962B2 (en) | 2005-10-31 | 2015-06-02 | Extreme Reality Ltd. | Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region |
US7907117B2 (en) * | 2006-08-08 | 2011-03-15 | Microsoft Corporation | Virtual controller for visual displays |
US8005263B2 (en) * | 2007-10-26 | 2011-08-23 | Honda Motor Co., Ltd. | Hand sign recognition using label assignment |
US8121351B2 (en) * | 2008-03-09 | 2012-02-21 | Microsoft International Holdings B.V. | Identification of objects in a 3D video using non/over reflective clothing |
US20100295782A1 (en) | 2009-05-21 | 2010-11-25 | Yehuda Binder | System and method for control based on face ore hand gesture detection |
US9417700B2 (en) * | 2009-05-21 | 2016-08-16 | Edge3 Technologies | Gesture recognition systems and related methods |
US8406925B2 (en) * | 2009-07-01 | 2013-03-26 | Honda Motor Co., Ltd. | Panoramic attention for humanoid robots |
WO2011007204A1 (en) * | 2009-07-16 | 2011-01-20 | Ondo Inc. | Control method of a graphic interface |
US8878779B2 (en) | 2009-09-21 | 2014-11-04 | Extreme Reality Ltd. | Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen |
JP2013505493A (ja) | 2009-09-21 | 2013-02-14 | エクストリーム リアリティー エルティーディー. | 電子機器とのヒューマン・マシン・インタフェーシングの為の方法、回路、装置及びシステム |
GB2483168B (en) | 2009-10-13 | 2013-06-12 | Pointgrab Ltd | Computer vision gesture based control of a device |
CN102044128A (zh) * | 2009-10-23 | 2011-05-04 | 鸿富锦精密工业(深圳)有限公司 | 紧急事件报警系统及方法 |
US8514269B2 (en) | 2010-03-26 | 2013-08-20 | Microsoft Corporation | De-aliasing depth images |
JP5536510B2 (ja) * | 2010-03-31 | 2014-07-02 | 株式会社バンダイナムコゲームス | プログラム及び画像生成システム |
US8396252B2 (en) | 2010-05-20 | 2013-03-12 | Edge 3 Technologies | Systems and related methods for three dimensional gesture recognition in vehicles |
US8467599B2 (en) | 2010-09-02 | 2013-06-18 | Edge 3 Technologies, Inc. | Method and apparatus for confusion learning |
US8582866B2 (en) | 2011-02-10 | 2013-11-12 | Edge 3 Technologies, Inc. | Method and apparatus for disparity computation in stereo images |
US8655093B2 (en) | 2010-09-02 | 2014-02-18 | Edge 3 Technologies, Inc. | Method and apparatus for performing segmentation of an image |
US8666144B2 (en) | 2010-09-02 | 2014-03-04 | Edge 3 Technologies, Inc. | Method and apparatus for determining disparity of texture |
US8437506B2 (en) | 2010-09-07 | 2013-05-07 | Microsoft Corporation | System for fast, probabilistic skeletal tracking |
US9213890B2 (en) * | 2010-09-17 | 2015-12-15 | Sony Corporation | Gesture recognition system for TV control |
KR20120051212A (ko) * | 2010-11-12 | 2012-05-22 | 엘지전자 주식회사 | 멀티미디어 장치의 사용자 제스쳐 인식 방법 및 그에 따른 멀티미디어 장치 |
US8730157B2 (en) * | 2010-11-15 | 2014-05-20 | Hewlett-Packard Development Company, L.P. | Hand pose recognition |
US9349040B2 (en) * | 2010-11-19 | 2016-05-24 | Microsoft Technology Licensing, Llc | Bi-modal depth-image analysis |
US9171264B2 (en) | 2010-12-15 | 2015-10-27 | Microsoft Technology Licensing, Llc | Parallel processing machine learning decision tree training |
US8488888B2 (en) | 2010-12-28 | 2013-07-16 | Microsoft Corporation | Classification of posture states |
US8970589B2 (en) | 2011-02-10 | 2015-03-03 | Edge 3 Technologies, Inc. | Near-touch interaction with a stereo camera grid structured tessellations |
WO2012147961A1 (ja) | 2011-04-28 | 2012-11-01 | Necシステムテクノロジー株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
US10671841B2 (en) | 2011-05-02 | 2020-06-02 | Microsoft Technology Licensing, Llc | Attribute state classification |
US9235902B2 (en) * | 2011-08-04 | 2016-01-12 | University Of Southern California | Image-based crack quantification |
US9569439B2 (en) | 2011-10-31 | 2017-02-14 | Elwha Llc | Context-sensitive query enrichment |
JP5607012B2 (ja) * | 2011-11-04 | 2014-10-15 | 本田技研工業株式会社 | 手話動作生成装置及びコミュニケーションロボット |
US9672609B1 (en) | 2011-11-11 | 2017-06-06 | Edge 3 Technologies, Inc. | Method and apparatus for improved depth-map estimation |
WO2013090830A1 (en) | 2011-12-16 | 2013-06-20 | University Of Southern California | Autonomous pavement condition assessment |
US10552581B2 (en) | 2011-12-30 | 2020-02-04 | Elwha Llc | Evidence-based healthcare information management protocols |
US10528913B2 (en) | 2011-12-30 | 2020-01-07 | Elwha Llc | Evidence-based healthcare information management protocols |
US10475142B2 (en) | 2011-12-30 | 2019-11-12 | Elwha Llc | Evidence-based healthcare information management protocols |
US10679309B2 (en) | 2011-12-30 | 2020-06-09 | Elwha Llc | Evidence-based healthcare information management protocols |
US10340034B2 (en) | 2011-12-30 | 2019-07-02 | Elwha Llc | Evidence-based healthcare information management protocols |
US20130173295A1 (en) | 2011-12-30 | 2013-07-04 | Elwha LLC, a limited liability company of the State of Delaware | Evidence-based healthcare information management protocols |
US10559380B2 (en) | 2011-12-30 | 2020-02-11 | Elwha Llc | Evidence-based healthcare information management protocols |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
KR20130109817A (ko) * | 2012-03-28 | 2013-10-08 | 삼성전자주식회사 | 손가락 패턴을 이용한 손 모양 인식 장치 및 방법 |
US20130257734A1 (en) * | 2012-03-30 | 2013-10-03 | Stefan J. Marti | Use of a sensor to enable touch and type modes for hands of a user via a keyboard |
US8938124B2 (en) | 2012-05-10 | 2015-01-20 | Pointgrab Ltd. | Computer vision based tracking of a hand |
EP2680228B1 (en) * | 2012-06-25 | 2014-11-26 | Softkinetic Software | Improvements in or relating to three dimensional close interactions. |
EP2685403A3 (en) | 2012-07-09 | 2017-03-01 | Technion Research & Development Foundation Limited | Natural machine interface system |
JP6195893B2 (ja) * | 2013-02-19 | 2017-09-13 | ミラマ サービス インク | 形状認識装置、形状認識プログラム、および形状認識方法 |
US9393695B2 (en) | 2013-02-27 | 2016-07-19 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with person and object discrimination |
US9804576B2 (en) | 2013-02-27 | 2017-10-31 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with position and derivative decision reference |
US9498885B2 (en) | 2013-02-27 | 2016-11-22 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with confidence-based decision support |
US9798302B2 (en) | 2013-02-27 | 2017-10-24 | Rockwell Automation Technologies, Inc. | Recognition-based industrial automation control with redundant system input support |
JP5782061B2 (ja) * | 2013-03-11 | 2015-09-24 | レノボ・シンガポール・プライベート・リミテッド | 移動物体の動作を認識する方法および携帯式コンピュータ |
US10721448B2 (en) | 2013-03-15 | 2020-07-21 | Edge 3 Technologies, Inc. | Method and apparatus for adaptive exposure bracketing, segmentation and scene organization |
KR101436050B1 (ko) | 2013-06-07 | 2014-09-02 | 한국과학기술연구원 | 손모양 깊이영상 데이터베이스 구축방법, 손모양 인식방법 및 손모양 인식 장치 |
US20150092040A1 (en) * | 2013-10-01 | 2015-04-02 | Broadcom Corporation | Gesture-Based Industrial Monitoring |
EP2891950B1 (en) * | 2014-01-07 | 2018-08-15 | Sony Depthsensing Solutions | Human-to-computer natural three-dimensional hand gesture based navigation method |
US10360907B2 (en) | 2014-01-14 | 2019-07-23 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
US9915545B2 (en) | 2014-01-14 | 2018-03-13 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
US9629774B2 (en) | 2014-01-14 | 2017-04-25 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
US10024679B2 (en) | 2014-01-14 | 2018-07-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
US9578307B2 (en) | 2014-01-14 | 2017-02-21 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
US10248856B2 (en) | 2014-01-14 | 2019-04-02 | Toyota Motor Engineering & Manufacturing North America, Inc. | Smart necklace with stereo vision and onboard processing |
RU2014113049A (ru) * | 2014-04-03 | 2015-10-10 | ЭлЭсАй Корпорейшн | Процессор изображений, содержащий систему распознавания жестов со слежением за объектом на основании вычислительных признаков контуров для двух или более объектов |
US9400924B2 (en) * | 2014-05-23 | 2016-07-26 | Industrial Technology Research Institute | Object recognition method and object recognition apparatus using the same |
US10024667B2 (en) | 2014-08-01 | 2018-07-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable earpiece for providing social and environmental awareness |
US10024678B2 (en) | 2014-09-17 | 2018-07-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable clip for providing social and environmental awareness |
US9922236B2 (en) | 2014-09-17 | 2018-03-20 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable eyeglasses for providing social and environmental awareness |
CN104318218A (zh) * | 2014-10-29 | 2015-01-28 | 百度在线网络技术(北京)有限公司 | 图像识别方法和装置 |
DE102014017166A1 (de) * | 2014-11-20 | 2016-05-25 | Audi Ag | Verfahren zum Betreiben einer Objektbewertungsvorrichtung für ein Kraftfahrzeug, Objektbewertungsvorrichtung für ein Kraftfahrzeug und Kraftfahrzeug mit einer Objektbewertungsvorrichtung |
US9576460B2 (en) | 2015-01-21 | 2017-02-21 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable smart device for hazard detection and warning based on image and audio data |
US10490102B2 (en) | 2015-02-10 | 2019-11-26 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for braille assistance |
US9586318B2 (en) | 2015-02-27 | 2017-03-07 | Toyota Motor Engineering & Manufacturing North America, Inc. | Modular robot with smart device |
US9677901B2 (en) | 2015-03-10 | 2017-06-13 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for providing navigation instructions at optimal times |
US9811752B2 (en) | 2015-03-10 | 2017-11-07 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable smart device and method for redundant object identification |
US9972216B2 (en) | 2015-03-20 | 2018-05-15 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for storing and playback of information for blind users |
US10395555B2 (en) * | 2015-03-30 | 2019-08-27 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for providing optimal braille output based on spoken and sign language |
US10109219B2 (en) * | 2015-04-16 | 2018-10-23 | Robert Bosch Gmbh | System and method for automated sign language recognition |
US9898039B2 (en) | 2015-08-03 | 2018-02-20 | Toyota Motor Engineering & Manufacturing North America, Inc. | Modular smart necklace |
US10024680B2 (en) | 2016-03-11 | 2018-07-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Step based guidance system |
US9958275B2 (en) | 2016-05-31 | 2018-05-01 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for wearable smart device communications |
US10561519B2 (en) | 2016-07-20 | 2020-02-18 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable computing device having a curved back to reduce pressure on vertebrae |
US10432851B2 (en) | 2016-10-28 | 2019-10-01 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable computing device for detecting photography |
US10012505B2 (en) | 2016-11-11 | 2018-07-03 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable system for providing walking directions |
US10521669B2 (en) | 2016-11-14 | 2019-12-31 | Toyota Motor Engineering & Manufacturing North America, Inc. | System and method for providing guidance or feedback to a user |
US10172760B2 (en) | 2017-01-19 | 2019-01-08 | Jennifer Hendrix | Responsive route guidance and identification system |
CN108230383B (zh) * | 2017-03-29 | 2021-03-23 | 北京市商汤科技开发有限公司 | 手部三维数据确定方法、装置及电子设备 |
WO2019094618A1 (en) * | 2017-11-08 | 2019-05-16 | Signall Technologies Zrt | Computer vision based sign language interpreter |
JP6939501B2 (ja) * | 2017-12-15 | 2021-09-22 | オムロン株式会社 | 画像処理システム、画像処理プログラム、および画像処理方法 |
TWI715903B (zh) * | 2018-12-24 | 2021-01-11 | 財團法人工業技術研究院 | 動作追蹤系統及方法 |
KR102098734B1 (ko) * | 2019-08-06 | 2020-04-08 | 전자부품연구원 | 대화 상대의 외형을 반영한 수어 영상 제공 방법, 장치 및 단말 |
CA3229530A1 (en) * | 2021-08-30 | 2023-03-09 | Katsuhide Agura | Electronic apparatus and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5787194A (en) * | 1994-11-08 | 1998-07-28 | International Business Machines Corporation | System and method for image processing using segmentation of images and classification and merging of image segments using a cost function |
JP2002366958A (ja) * | 2001-06-08 | 2002-12-20 | Toshiba Corp | 画像認識方法および画像認識装置 |
US20040151366A1 (en) * | 2003-02-04 | 2004-08-05 | Nefian Ara V. | Gesture detection from digital video images |
US20050031166A1 (en) * | 2003-05-29 | 2005-02-10 | Kikuo Fujimura | Visual tracking using depth data |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0684006A (ja) | 1992-04-09 | 1994-03-25 | Internatl Business Mach Corp <Ibm> | オンライン手書き文字認識方法 |
JP3244798B2 (ja) | 1992-09-08 | 2002-01-07 | 株式会社東芝 | 動画像処理装置 |
US5454043A (en) | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
US5594469A (en) | 1995-02-21 | 1997-01-14 | Mitsubishi Electric Information Technology Center America Inc. | Hand gesture machine control system |
US6002808A (en) | 1996-07-26 | 1999-12-14 | Mitsubishi Electric Information Technology Center America, Inc. | Hand gesture control system |
ATE232621T1 (de) | 1996-12-20 | 2003-02-15 | Hitachi Europ Ltd | Verfahren und system zur erkennung von handgesten |
US6720949B1 (en) | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US20020036617A1 (en) | 1998-08-21 | 2002-03-28 | Timothy R. Pryor | Novel man machine interfaces and applications |
EP0905644A3 (en) | 1997-09-26 | 2004-02-25 | Matsushita Electric Industrial Co., Ltd. | Hand gesture recognizing device |
US6950534B2 (en) | 1998-08-10 | 2005-09-27 | Cybernet Systems Corporation | Gesture-controlled interfaces for self-service machines and other applications |
WO2000030023A1 (en) | 1998-11-17 | 2000-05-25 | Holoplex, Inc. | Stereo-vision for gesture recognition |
JP4332649B2 (ja) | 1999-06-08 | 2009-09-16 | 独立行政法人情報通信研究機構 | 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体 |
US6788809B1 (en) * | 2000-06-30 | 2004-09-07 | Intel Corporation | System and method for gesture recognition in three dimensions using stereo imaging and color vision |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US7095401B2 (en) | 2000-11-02 | 2006-08-22 | Siemens Corporate Research, Inc. | System and method for gesture interface |
US6804396B2 (en) | 2001-03-28 | 2004-10-12 | Honda Giken Kogyo Kabushiki Kaisha | Gesture recognition system |
US7274800B2 (en) | 2001-07-18 | 2007-09-25 | Intel Corporation | Dynamic gesture recognition from stereo sequences |
WO2003071410A2 (en) | 2002-02-15 | 2003-08-28 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US7665041B2 (en) | 2003-03-25 | 2010-02-16 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US8745541B2 (en) | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
EP1627294A2 (en) | 2003-05-01 | 2006-02-22 | Delta Dansk Elektronik, Lys & Akustik | A man-machine interface based on 3-d positions of the human body |
JP4708422B2 (ja) * | 2004-04-15 | 2011-06-22 | ジェスチャー テック,インコーポレイテッド | 両手動作の追跡 |
US7308112B2 (en) | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
WO2006040740A1 (en) * | 2004-10-15 | 2006-04-20 | Philips Intellectual Property & Standard Gmbh | System for 3d rendering applications using hands |
KR100687737B1 (ko) * | 2005-03-19 | 2007-02-27 | 한국전자통신연구원 | 양손 제스쳐에 기반한 가상 마우스 장치 및 방법 |
US9910497B2 (en) * | 2006-02-08 | 2018-03-06 | Oblong Industries, Inc. | Gestural control of autonomous and semi-autonomous systems |
US8537112B2 (en) * | 2006-02-08 | 2013-09-17 | Oblong Industries, Inc. | Control system for navigating a principal dimension of a data space |
US8005263B2 (en) * | 2007-10-26 | 2011-08-23 | Honda Motor Co., Ltd. | Hand sign recognition using label assignment |
-
2007
- 2007-10-26 US US11/925,557 patent/US8005263B2/en not_active Expired - Fee Related
-
2008
- 2008-09-04 WO PCT/US2008/075276 patent/WO2009055148A1/en active Application Filing
- 2008-09-04 JP JP2010531098A patent/JP4934220B2/ja not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5787194A (en) * | 1994-11-08 | 1998-07-28 | International Business Machines Corporation | System and method for image processing using segmentation of images and classification and merging of image segments using a cost function |
JP2002366958A (ja) * | 2001-06-08 | 2002-12-20 | Toshiba Corp | 画像認識方法および画像認識装置 |
US20040151366A1 (en) * | 2003-02-04 | 2004-08-05 | Nefian Ara V. | Gesture detection from digital video images |
US20050031166A1 (en) * | 2003-05-29 | 2005-02-10 | Kikuo Fujimura | Visual tracking using depth data |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014522018A (ja) * | 2011-06-22 | 2014-08-28 | マイクロソフト コーポレーション | 全自動動的有関節モデル較正 |
US11994377B2 (en) | 2012-01-17 | 2024-05-28 | Ultrahaptics IP Two Limited | Systems and methods of locating a control object appendage in three dimensional (3D) space |
JP2015522195A (ja) * | 2012-07-13 | 2015-08-03 | ソフトキネティック ソフトウェア | 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム |
KR101757080B1 (ko) | 2012-07-13 | 2017-07-11 | 소프트키네틱 소프트웨어 | 손위의 단일한 관심 포인트를 이용한 인간-컴퓨터 제스처 기반 동시 상호작용을 위한 방법 및 시스템 |
US11461966B1 (en) * | 2013-08-29 | 2022-10-04 | Ultrahaptics IP Two Limited | Determining spans and span lengths of a control object in a free space gesture control environment |
US11776208B2 (en) | 2013-08-29 | 2023-10-03 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US12086935B2 (en) | 2013-08-29 | 2024-09-10 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
US11868687B2 (en) | 2013-10-31 | 2024-01-09 | Ultrahaptics IP Two Limited | Predictive information for free space gesture control and communication |
JP2015170206A (ja) * | 2014-03-07 | 2015-09-28 | 富士通株式会社 | 検出装置および検出方法 |
KR101794148B1 (ko) * | 2014-03-26 | 2017-11-06 | 인텔 코포레이션 | 효율적인 자유 공간 손가락 인식 |
US11586292B2 (en) | 2014-05-14 | 2023-02-21 | Ultrahaptics IP Two Limited | Systems and methods of tracking moving hands and recognizing gestural interactions |
US11914792B2 (en) | 2014-05-14 | 2024-02-27 | Ultrahaptics IP Two Limited | Systems and methods of tracking moving hands and recognizing gestural interactions |
Also Published As
Publication number | Publication date |
---|---|
US20090110292A1 (en) | 2009-04-30 |
WO2009055148A1 (en) | 2009-04-30 |
JP4934220B2 (ja) | 2012-05-16 |
US8005263B2 (en) | 2011-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4934220B2 (ja) | ラベル割当を用いた手サイン認識 | |
Athira et al. | A signer independent sign language recognition with co-articulation elimination from live videos: an Indian scenario | |
Qi et al. | Computer vision-based hand gesture recognition for human-robot interaction: a review | |
JP4625074B2 (ja) | サインに基づく人間−機械相互作用 | |
EP3090382B1 (en) | Real-time 3d gesture recognition and tracking system for mobile devices | |
US9734435B2 (en) | Recognition of hand poses by classification using discrete values | |
JP2001056861A (ja) | 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体 | |
JP6066093B2 (ja) | 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム | |
US20140363088A1 (en) | Method of establishing database including hand shape depth images and method and device of recognizing hand shapes | |
JP2008250999A (ja) | 対象物追跡方法、対象物追跡装置および対象物追跡プログラム | |
KR102371127B1 (ko) | 골격의 길이 정보를 이용한 제스쳐 인식 방법 및 처리 시스템 | |
CN114937285B (zh) | 动态手势识别方法、装置、设备及存储介质 | |
Bhuyan et al. | Trajectory guided recognition of hand gestures having only global motions | |
Amaliya et al. | Study on hand keypoint framework for sign language recognition | |
KR101706864B1 (ko) | 모션 센싱 입력기기를 이용한 실시간 손가락 및 손동작 인식 | |
WO2018135326A1 (ja) | 画像処理装置、画像処理システム、画像処理プログラム、及び画像処理方法 | |
CN113220125A (zh) | 手指交互方法、装置、电子设备及计算机存储介质 | |
Mesbahi et al. | Hand gesture recognition based on various deep learning YOLO models | |
Yao et al. | Wrist recognition and the center of the palm estimation based on depth camera | |
JP6393495B2 (ja) | 画像処理装置および物体認識方法 | |
CN113158912B (zh) | 手势识别方法及装置、存储介质及电子设备 | |
Zafrulla et al. | Hand detection in American Sign Language depth data using domain-driven random forest regression | |
KR20160062913A (ko) | 립모션 기기의 수화 번역 정확도 향상을 위한 수화 번역 시스템 및 그 방법 | |
CN114419451B (zh) | 电梯内外识别方法、装置、电子设备及存储介质 | |
KR102540560B1 (ko) | 랜덤 포레스트를 사용한 손 자세의 계층적 추정 방법, 이를 수행하기 위한 기록 매체 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110818 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110818 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20110818 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20110909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120124 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4934220 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150224 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |