JP5695758B2 - 手のジェスチャによるヒューマンマシンインターフェースのための方法、回路、及び、システム - Google Patents

手のジェスチャによるヒューマンマシンインターフェースのための方法、回路、及び、システム Download PDF

Info

Publication number
JP5695758B2
JP5695758B2 JP2013541468A JP2013541468A JP5695758B2 JP 5695758 B2 JP5695758 B2 JP 5695758B2 JP 2013541468 A JP2013541468 A JP 2013541468A JP 2013541468 A JP2013541468 A JP 2013541468A JP 5695758 B2 JP5695758 B2 JP 5695758B2
Authority
JP
Japan
Prior art keywords
hand
skeleton
dimensional
data set
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013541468A
Other languages
English (en)
Other versions
JP2014501011A (ja
JP2014501011A5 (ja
Inventor
ギボン・ドール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Extreme Reality Ltd
Original Assignee
Extreme Reality Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Extreme Reality Ltd filed Critical Extreme Reality Ltd
Publication of JP2014501011A publication Critical patent/JP2014501011A/ja
Publication of JP2014501011A5 publication Critical patent/JP2014501011A5/ja
Application granted granted Critical
Publication of JP5695758B2 publication Critical patent/JP5695758B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明はヒューマンマシンインターフェースおよび非接触のヒューマンマシンインターフェースの領域に関する。特に、本発明はカメラの前での手のジェスチャを用いたマシンへのコマンド入力に関する。
従来のヒューマンマシンインターフェースはいくつかのインターフェースについてのコア技術を利用している。第1の、そして最も広く用いられている技術は、ボタンやノブ、スイッチなどの物理的なインターフェースであり、これらはマシンのレスポンスを生成するために、人によって押したり、掴んだり、回したり、動かしたり、切り替えたりできるようにデザインされている。
第2の技術はタッチスクリーンに使われている技術であり、ここでは物理的なインターフェースはスクリーン上に表示されるグラフィックイメージに置きかえられ、ユーザが、マシンに対して与えたいコマンドに対応するグラフィックイメージの領域に触れたり、当該領域上をユーザの指や器官をスライドしたりすることによって操作される。グラフィックイメージは変更可能であり、様々なユーザやアプリケーションに対応する柔軟なインターフェースが、ユーザの経験と操作効率とを最適化するために使用可能である。
その他に、ユーザによる自然言語を用いたコマンドを識別するための音声認識や、ユーザに取り付けられたデバイスの動きを追って、マシン・コマンドに対応させる技術も利用されている。
ヒューマンマシンインターフェースの領域においては、非接触のインターフェースのための方法およびシステムへの要望が残っている。これは、人体又は人体の一部/器官(例えば、人の手)の一以上の光学イメージを、人体の一部/器官の特定の動きおよび/又はジェスチャに対応するマシン・コマンドに変換する技術である。
本発明は、非接触でのヒューマンマシンインターフェースを実現する、手のジェスチャによる人とマシンとのインターフェースのための方法、回路、及び、システムである。本発明のいくつかの実施形態によれば、マシンとのインターフェースは、カメラの前で手のジェスチャを行うことによって実現され得る。
本発明のいくつかの実施形態によれば、前記手のジェスチャを識別するように適合化された画像処理論理回路にカメラが取り付けられてもよい。本発明のいくつかの実施形態によれば、前記画像処理論理回路は、手のイメージからや指骨、指先などの手の特徴及び/または、要素を抽出する。
本発明のいくつかの実施形態によれば、前記画像処理論理回路は、識別された手の特徴及び/または、要素に基づいて2次元イメージの骨格を生成する。本発明のいくつかの実施形態によれば、前記画像処理論理回路は、2次元投影が実質的に前記2次元イメージの骨格と同等で、かつ、一連の制約条件に整合する3次元骨格を生成する。本発明のいくつかの実施形態によれば、前記一連の制約条件は現実的な手のポーズを定義する。
本発明のいくつかの実施形態によれば、前記3次元骨格は、インターフェースとなる手のポーズ及び/または、位置及び/または、カメラからの距離を表す。本発明のいくつかの実施形態によれば、前記画像処理論理回路は、ジェスチャを行っている(3次元骨格によって表された)手のポーズ及び/または、位置及び/または、カメラからの距離に応じたシステム・イベントを引き起こす。本発明のいくつかの実施形態によれば、前記画像処理論理回路は、3次元骨格の動きを、手がインターフェースを取り持つマシンに送るコマンドとして解釈する。
本発明のいくつかの実施形態によれば、ヒューマンマシンインターフェースのためのシステムは、一以上の3次元の手の骨格モデルを用い、当該システムは、手の2次元イメージを取得するイメージ取得回路及び/または、取得したイメージにおける手の特徴を識別する手の特徴識別モジュール及び/または、識別された特徴を用いて2次元骨格データセットを生成するイメージ骨格生成モジュール及び/または、2次元投影が、生成された2次元骨格データセットに実質的に対応する、前記一以上の3次元の手の骨格モデルのうち、一部又は全ての構成を決定することによって、3次元の手の骨格データセットを生成するための3次元骨格生成モジュールと、を備えている。
本発明のいくつかの実施形態によれば、前記イメージ骨格生成モジュールは、さらに、前記2次元骨格データセットを生成するために、人の手の要素間の解剖学的な関係および制約条件を用いるよう適合化されている。
本発明のいくつかの実施形態によれば、前記イメージ骨格生成モジュールは、さらに、一以上の2次元骨格データセットの要素のための品質特性を決定するよう適合化されている。
本発明のいくつかの実施形態によれば、前記ヒューマンマシンインターフェースシステムは、一以上の以前の3次元の手の骨格データセットを記憶する、骨格データベース生成モジュールを備え、前記3次元骨格生成モジュールは、少なくとも部分的に、前記骨格データベース生成モジュールによって以前に記憶された一以上の3次元の手の骨格データセットに基づいて、前記3次元の手の骨格データセットを生成するよう適合化されている。
本発明のいくつかの実施形態によれば、前記ヒューマンマシンインターフェースは、動力学的な物理法則が適用された、二以上の以前の3次元の手の骨格データセットに基づいて、3次元の手の骨格データセットを推定するための推定モジュールを更に備え、前記3次元骨格生成モジュールは、さらに、少なくとも部分的に、推定モジュールによって推定された3次元骨格データセットに基づいて、前記3次元骨格データセットを生成するよう適合化されている。
本発明のいくつかの実施形態によれば、一以上の3次元の手の骨格モデルを用いるヒューマンマシンインターフェースのための方法は、手の2次元イメージを取得する工程及び/または、取得したイメージにおける手の一以上の特徴を識別する工程及び/または、識別された特徴を用いて手の2次元骨格データセットを生成する工程及び/または、2次元投影イメージが生成された2次元骨格データセットに実質的に対応する前記一以上の3次元の手の骨格モデルのうち、一部又は全ての構成を決定することによって3次元の手の骨格データセットを生成する工程、を含むことを特徴とする。
本発明のいくつかの実施形態によれば、前記ヒューマンマシンインターフェースのための方法は、さらに、少なくとも部分的に、人の手の要素間の解剖学的な関係および制約条件に基づいて、前記2次元骨格データセットを生成する工程を含む。
本発明のいくつかの実施形態によれば、前記ヒューマンマシンインターフェースのための方法は、少なくとも部分的に、一以上の2次元骨格データセットの要素の品質特性の決定に基づいて、前記2次元骨格データセットを生成する工程を含む。
本発明のいくつかの実施形態によれば、前記ヒューマンマシンインターフェースのための方法は、一以上の3次元の手のデータセットを記憶する工程と、少なくとも部分的に、前記以前に記憶された3次元の手のデータセットに基づいて、前記3次元の手の骨格データセットを生成する工程とを含む。
本発明のいくつかの実施形態によれば、前記ヒューマンマシンインターフェースのための方法は、以前に生成された二以上の3次元の手の骨格データセットに対して、動力学的な物理法則を適用することによって、3次元の手の骨格データセットを推定する工程と、少なくとも部分的に、前記推定された3次元の手の骨格データセットに基づいて、前記3次元の手の骨格データセットを生成する工程とを含む。
本発明のいくつかの実施形態によれば、一以上の3次元の手の骨格モデルを用いることによって3次元の手の骨格データセットを生成するための回路は、手の2次元イメージにおける手の特徴を識別するための手の特徴識別モジュール及び/または、識別された特徴を用いて手の2次元骨格データセットを生成するためのイメージ骨格生成モジュール及び/または、2次元投影イメージが前記生成された2次元骨格データセットに実質的に対応する、前記一以上の3次元の手の骨格モデルの構成を決定するための3次元骨格生成モジュール、を備える。
本発明のいくつかの実施形態によれば、3次元の手の骨格データセットを生成するための前記回路の前記イメージ骨格生成モジュールは、前記2次元骨格データセットを生成するために、人の手の要素間の解剖学的な関係および制約条件を用いる。
本発明のいくつかの実施形態によれば、イメージ骨格生成モジュールは、一以上の2次元骨格データセットの要素の品質特性を決定する。
本発明のいくつかの実施形態によれば、3次元の手の骨格データセットを生成するための前記回路は、一以上の以前の3次元の手の骨格データセットを記憶し、かつ、少なくとも部分的に、前記骨格データベース生成モジュールによって以前に記憶された一以上の3次元の手の骨格データセットに基づいて、前記3次元の手の骨格データセットを生成するための骨格データベース生成モジュールを備える。
本発明のいくつかの実施形態によれば、3次元の手の骨格データセットを生成するための前記回路は、動力学的な物理法則が適用された二以上の以前の3次元の手の骨格データセットに基づいて、3次元の手の骨格データセットを推定するための推定モジュールを備え、前記3次元骨格生成モジュールは、少なくとも部分的に、前記推定モジュールによって推定された前記3次元骨格データセットに基づいて、前記3次元骨格データセットを生成するよう適合化されている。
本発明とみなされる主題は、本明細書の結びの部分において具体的に規定され、明確に請求されている。しかしながら、本発明は、動作の機構および方法の両方に関して、その目的、特徴および利点と共に、添付の図面と以下の詳細な説明を参照して最も理解することができる。
図1は、本発明のいくつかの実施形態におけるコミュニケーション/コンピューティング装置のカメラによって撮影される手を表しており、当該コミュニケーション/コンピューティング装置は、前記手によって行われるジェスチャを識別し、付加的には、識別した手のポーズやジェスチャに基づいて、コマンドまたはイベントを生成するよう適合化された処理論理回路を備えている。 図2Aから2Iは、本発明のいくつかの実施形態における、カメラによって認識されて、コンピューティング装置のコマンドやイベントに対応付けられる手のジェスチャを例示するものである。 図3は、本発明のいくつかの実施形態における、図2Aから図2Iに示す手の特徴を例示しており、この特徴は、前記コミュニケーション/コンピューティング装置が備える画像処理論理回路によって、手のイメージから抽出される。 図4は、本発明のいくつかの実施形態における、手の骨格の構造を例示している。 図5Aから図5Cは、本発明のいくつかの実施形態における、視認可能及び視認不可能な手の特徴から、手の要素の位置を抽出する方法を例示している。 図6Aから図6Dは、本発明のいくつかの実施形態における、インターフェースとなる手から抽出された2次元イメージ骨格のいくつかの例を表している。 図7Aから7Cは、本発明のいくつかの実施形態における、異なるポーズで、かつ、3次元骨格の投影と実質的に同じである2次元イメージ骨格のいくつかの例を表している。 図8Aから8Bは、本発明のいくつかの実施形態における、撮像するカメラからの距離が異なる2つの位置におかれた手の2つの2次元イメージ骨格と実質的に同等な2つの3次元骨格の投影を表している。 図9Aから9Bは、本発明のいくつかの実施形態における、3次元骨格の骨の長さと品質を更新する方法とメカニズムを示す例を表している。 図10は、本発明のいくつかの実施形態における、一以上の取得した手のイメージに基づいて、手のジェスチャを識別するよう適合化された処理モジュールを備える処理ユニットの例の機能ブロック図である。 図11は、本発明のいくつかの実施形態における、画像処理論理回路が実行する方法例のステップを含むフローチャートを表している。
図面を簡素かつ明瞭にするために、図中に示される要素は必ずしも縮尺比に従って描かれる必要がないことを理解されたい。例えば、図面を明瞭にするために、いくつかの要素の寸法は他の要素よりも誇張して描かれていてもよい。さらに、適切と判断される場合には、対応の又は類似の要素を示す図の間では、参照番号は繰り返し使用されてもよい。
以下の詳細な説明では、本発明に対する理解を深めるために、詳細を具体的に多数示している。しかしながら、本発明はこれらの具体的な詳細が無くても当該技術分野における当業者によって実施されうることを理解されたい。一方、既知の方法、手順、構成要素および回路については、本発明を不明瞭にしないために、その詳細は記載していない。
特に述べられていない限り、以下の説明から明らかなように、本明細書を通じて、「処理する(processing)」「コンピュータで計算する(computing)」「計算する(calculating)」「決定する(determining)」などの用語を用いた説明は、コンピュータシステムのレジスタやメモリ内の物理量、たとえば電子的な量として表されたデータを操作し、かつ/あるいは、前記コンピュータシステムのメモリ、レジスタ、あるいは他の情報記憶装置、送信機器または表示機器内における物理量として同様に表される他のデータに変換するコンピュータまたはコンピュータシステム、または、同様の電子コンピュータ装置の動作やプロセスを参照している。
本発明の実施例は、本明細書における動作を実行する装置を含むものである。この装置は、所望の目的に対して特別に構成されていてもよく、または、コンピュータに保存されているコンピュータプログラムによって選択的に起動または再構築される汎用コンピュータを含むものであってもよい。このようなコンピュータプログラムは、コンピュータにて読取可能な記憶媒体に記憶されていてもよい。当該記憶媒体は、例えば、フロッピィディスク、光学ディスク、CD−ROM、光磁気ディスク、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、電子的にプログラム可能な読み取り専用メモリ(EPROM)、電子的に消去可能かつプログラム可能な読み取り専用メモリ(EEPROM)、磁気あるいは光学カード、あるいは電子インストラクションの保存に適し、かつ、コンピュータシステムバスに接続可能な如何なるタイプの媒体でもよいが、これらに限定はされない。
本明細書で示す処理および表示は、特定のコンピュータまたはその他の装置とは本質的には関連していない。様々な汎用システムにおいて本明細書の教示に基づいたプログラムを用いることができ、また、所望の方法を実行するために、より特化された装置を構成する方が有用であることもありうる。これらのシステムに望ましい様々な構成は、以下の記載から明らかとなると考えられる。さらに、本発明の実施形態は、特定のプログラム言語を参照して記載されていない。様々なプログラム言語を使用して本明細書に記載された本発明を実施できることを理解されたい。
本発明は、手のジェスチャや非接触のヒューマンマシンインターフェースのための方法、回路、および、システムに関する。本明細に記載のコンセプトおよび方法は、説明を簡素にするために手のジェスチャに関して記載しているが、同様のコンセプトおよび方法は、体全体の動きの検出や人体の他のパーツの動きの検出にも適用できる。
本発明のいくつかの実施形態によれば、手または人体の状態が決定される。本発明のいくつかの実施形態によれば、この状態には、カメラから手または体までの距離や、空間的な位置、ポーズも含む。本発明のいくつかの実施形態によれば、手や、人体、人体のパーツのポーズ、位置、カメラからの距離を表す3D骨格を抽出するための画像処理論理回路が提供される。本発明のいくつかの実施形態によれば、手や、人体、人体のパーツのポーズ、位置、カメラからの距離を表す3D骨格を抽出するための方法が提供される。本発明のいくつかの実施形態によれば、人体または人体の一部の骨格の識別や、人体における手の3D骨格の識別を行う方法が提供される。
本発明のいくつかの実施形態によれば、マシンとのインターフェースとなる人の手などのような対象の前に置かれるカメラが提供される。本発明のいくつかの実施形態によれば、カメラの前の手は、ジェスチャによってマシンとのインターフェースとなる。本発明のいくつかの実施形態によれば、カメラはインターフェースとなる手の、一つまたは一連のイメージを撮像する。本発明のいくつかの実施形態によれば、カメラは画像処理論理回路に接続され、この画像処理論理回路では、マシンとのインターフェースとなるユーザの手のような対象のイメージ内の特徴や要素、指骨、関節の空間的な位置を見積もるよう適合化されている。
本発明のいくつかの実施形態によれば、画像処理論理回路はインターフェースとなる手の骨格表示である3D骨格を生成する。本発明のいくつかの実施形態によれば、3D骨格の要素の寸法の比率は、インターフェースとなる手の要素の寸法の比率と実質的に同じである。本発明のいくつかの実施形態によれば、3D骨格の要素または特徴の寸法は、1ユニットの長さに比例する。本発明のいくつかの実施形態によれば、画像処理論理回路は、手のイメージにおいて識別された特徴や要素に応じて、2Dイメージ骨格を生成する。
本発明のいくつかの実施形態によれば、3D骨格の2D投影を2Dイメージ骨格に整合させるために、画像処理論理回路は3D骨格の任意の3次元的な位置を生成し、3D骨格に制約条件を適用する。
本発明のいくつかの実施形態によれば、次のフレームにおける3D骨格の3次元的な位置を推定するために、動力学的な物理法則が2つ以上の3D骨格に適用される。
図1は、本発明に関するシステムの一例を示す図である。この例において、インターフェースとなる手(1)は携帯電話(3)内に配置されたカメラ(2)の前で、ジェスチャを行っている。図2Aから2Iは、インターフェースとなる手のそれぞれ異なるポーズのイメージを例示している。
本発明のいくつかの実施形態によれば、画像処理論理回路は、指や指先、爪、指の、手のひらの、指の結合部などのインターフェースとなる手の特徴を検知する。
図3は、図2Aから図2Iにおいて例示されたインターフェースとなる手の特徴を例示している。この図において、4、5、6、7および、8は、それぞれ親指、人差し指、中指、薬指、小指を表している。14、15、16、17および、18は、それぞれ指のを表している。19と20は、人差し指と小指の手のひらとの結合部の皺を表している。21、22は、人差し指の指骨の接線を表している。
本発明のいくつかの実施形態によれば、画像処理論理回路はメモリを含んでいる。本発明のいくつかの実施形態によれば、画像処理論理回路は、メモリ内に手の骨格の一般的な構造を記憶している。本発明のいくつかの実施形態によれば、画像処理論理回路は、メモリ内に人体の骨格の一般的な構造を記憶している。
本発明のいくつかの実施形態によれば、メモリに記憶された3D骨格の一般的な構造はベクトルとして記述されており、いくつかの主要なベクトルは手の中の骨のパラメータ(長さなど)を描写し、他のいくつかの主要なベクトルは主要な骨どうしの関係(角度など)を表す結合部のパラメータを表している。
図4は、本発明のいくつかの実施形態における、手の骨格の一般的な構造の一例を示している。この例によれば、手の骨格は、骨b、c、d、e・・・uによって接続された関節や先端A、B、C、D・・・Uから構成されている。
人の手の寸法には、若い子供の手が最小で、大きな成長した人の手は最大になるというように、ある制限があり、また、マシンとのインターフェースとなる手のカメラからの距離が異なると、手がカメラに近い場合は手のイメージは大きくなり、手がカメラから離れている場合は手のイメージは小さくなる。その結果、インターフェースとなる手のイメージは、人の年齢や手のカメラからの距離に応じて異なった大きさとなる。しかしながら、インターフェースとなる手から得られる異なる特徴または要素の寸法の比率は、手のカメラからの距離や方向によらず一定の関係を維持する。そのため、手の第1の特徴または要素の長さが与えられれば、手の他の全ての特徴または要素の長さを、第1の長さとの関係を用いて定義することができる。例えば、図4の骨bを第1の要素として定義して場合、骨cの長さはk1×(骨bの長さ)、骨dの長さはk2×(骨bの長さ)などのように表すことができる。
本発明のいくつかの実施形態によれば、インターフェースとなる手はメモリ内に記憶されている3D骨格の一般的な構造によってモデル化される。本発明のいくつかの実施形態によれば、ある指定された骨の長さ(例えば、人差し指の手のひらとの結合部から指先までの長さのような具体的な骨の長さ、あるいは、いくつかの骨の長さの累積)は、1ユニット長さとして定義された3D骨格における手のオブジェクトを表す。本発明のいくつかの実施形態によれば、3D骨格の骨または手のオブジェクトの長さは、指定された骨または手のオブジェクトに対する比率から定義される。
本発明のいくつかの実施形態によれば、画像処理論理回路は手のイメージから骨の相対的な長さの見積もりを行う。本発明のいくつかの実施形態によれば、画像処理論理回路は骨の長さまたは手のカメラからの距離を見積もる。イメージ内の様々な要素、例えば、手の配置やポーズ、隠れた手の要素などに応じて、長さの見積もり精度は、イメージ内に明確に表れている要素の長さの精度に比べて小さくなる。
本発明のいくつかの実施形態によれば、3D骨格ベクトルは各骨に関する一連の特徴を有しており、メモリ内に記憶されている。本発明のいくつかの実施形態によれば、骨の特徴は骨の相対的な長さを含んでいる。本発明のいくつかの実施形態によれば、骨の特徴は長さの精度を含んでいる。本発明のいくつかの実施形態によれば、骨の特徴は、精度の安定性や確実性を含んでいる。本発明のいくつかの実施形態によれば、骨の特徴は、他の骨に対する角度依存性を含んでいる。本発明のいくつかの実施形態によれば、角度依存性は階層構造を有している。
本発明のいくつかの実施形態によれば、画像処理論理回路は、手の骨格の2次元(2D)の一般的な構造であるイメージ骨格もまたメモリ内に記憶している。本発明のいくつかの実施形態によれば、メモリに記憶されている2Dイメージ骨格は手の骨と結合部を表す主要部から構成されるベクトルとして記述されている。本発明のいくつかの実施形態によれば、主要な結合部のベクトルは、平面上の点として記述され、各点は2次元の座標(x,y)を有している。本発明のいくつかの実施形態によれば、主要なベクトルは、主要部(結合部)の他の主要部(結合部)との接続(骨)を表す特徴を含んでいる。本発明のいくつかの実施形態によれば、2Dイメージ骨格のベクトルは各主要部に関する2D(x,y)座標を有し、メモリ内に記憶されている。本発明のいくつかの実施形態によれば、主要部の(x,y)座標は手のイメージから抽出される。
本発明のいくつかの実施形態によれば、画像処理論理回路は撮像されたイメージ内の結合部や指先、手の指骨の2次元的な位置を見積もる。本発明のいくつかの実施形態によれば、結合部や指先、指骨の位置は検知した手の特徴を解析することによって見積もられる。本発明のいくつかの実施形態によれば、結合部の位置は指のの位置から見積もられる。本発明のいくつかの実施形態によれば、結合部の位置は指の2つのセグメントと接する2つの線の交点の位置から見積もられる。本発明のいくつかの実施形態によれば、指骨の位置は、2つの隣接した結合部を直線で結ぶことによって見積もられる。本発明のいくつかの実施形態によれば、指骨の位置は指先と隣接する結合部とを直線で繋げることによって見積もられる。本発明のいくつかの実施形態によれば、指骨の位置は、イメージ内の指骨を識別することによって見積もられる。本発明のいくつかの実施形態によれば、指骨の位置は、イメージ内の指骨の一部を識別し、指骨の残りの部分を内挿または外挿することによって見積もられる。
図5Aから5Cは、手のイメージのいくつかの例を示している。図5Aの例によれば、結合部J1の位置は、C1によって見積もられる。線L0とL1は指骨P1の接線であり、線L2は線L0とL1の真ん中にあり、指骨P1の中心を表している。線L3とL4は指骨P2の接線であり、線L5は線L3とL4の真ん中を通る線で、指骨P2の中心を表している。結合部J2の位置は、線L2とL5の交点によって見積もられる。図5Cにおいて、結合部J6の位置は、イメージ上では人差し指によって隠されているために視認不可能であるが、線L6とL7との交点によって見積もられる。図5Bにおいて、指骨P3の位置はセグメントP3.1、P3.2を内挿することで見積もられる。
本発明のいくつかの実施形態によれば、視認不可能な手の要素(指骨や結合部)の位置は、視認可能な手の要素と、視認可能な要素と視認不可能な要素との間の階層的な関係から見積もられる。
本発明のいくつかの実施形態によれば、画像処理論理回路は、結合部と指先の見積もられた2次元的な位置に、対応する2Dイメージ骨格ベクトルの主要部を割り当てる。本発明のいくつかの実施形態によれば、いくつかの結合部の2次元的な位置は高精度で見積もられ、他の結合部の位置は低精度で見積もられるため、主要な座標は、主要な位置の精度情報を含んでいる。図6Aから6Dは、インターフェースとなる手から抽出されたイメージ骨格のいくつかの例を示している。
本発明のいくつかの実施形態によれば、画像処理論理回路は3D骨格を空間的に配置し、3D骨格の2D投影は、実質的に2Dイメージ骨格に対応している。図7Aから7Cは、3D骨格の2Dイメージ骨格A、および、ポーズがいくらか異なるB、C、Dを示している。3D骨格の複数のポーズ(B、C、D)の2次元投影Eは、実質的に2Dイメージ骨格Aに対応している。
人の手の指は三つの結合部で一方向、すなわち、手のひらの内側に向かって曲げることができる。指は指先に近い二つの結合部において横方向に曲げることはできず、指の結合部における横方向の動きは制限されている。また、指は三つの結合の全てにおいて、後ろ側に曲げることはできない。指はその結合部で旋回させることはできない。各指骨は、接続された、手首に近い指骨に対して、空間的に曲げることが可能な一定の角度を有する。本発明のいくつかの実施形態によれば、結合部の特徴には結合部の解剖学的な制約条件が含まれる。本発明のいくつかの実施形態によれば、結合部の解剖学的な制約条件は、手のひらに近く、手のひらと接続されている骨に対する、骨を曲げることができる各空間的な方向における骨を曲げることが可能な一連の角度を含んでいる。本発明のいくつかの実施形態によれば、この一連の角度は、手のひらに近い他の結合部における角度と骨の長さに依存している。
本発明のいくつかの実施形態によれば、画像処理論理回路は3D骨格の結合部に結合部の制約条件を適用する。本発明のいくつかの実施形態によれば、3D骨格は、制約条件が課された3次元の空間的なポーズおよび位置にある。2D投影が2Dイメージ骨格と実質的に整合する3D骨格の空間的な位置により、手のカメラからの相対的な距離を決定する。
図8Aから8Bは、図4に示す3D骨格の2つの異なる2D投影イメージを表す。図8Aの骨格はカメラに近い図4の骨格の投影イメージで、図8Bの骨格はカメラから離れた図4の骨格の投影イメージである。
カメラはインターフェースとなる手のジェスチャの一連のイメージを撮像する。イメージを撮像するフレームレートや手の動く速さ、手のカメラからの距離、カメラの分解能に基づく量だけ、各イメージの、前のフレームのイメージとの差は異なる。撮像された各イメージに基づいて、画像処理論理回路は、3D骨格の空間的な位置と配置、距離、ポーズを見積もる。イメージを撮像するフレームレートや手の動く速さ、手のカメラからの距離、カメラの分解能に基づく量だけ、各3D骨格の、前のフレームの3D骨格との差は異なる。
2つ以上前のイメージから得られる2つ以上前の3D骨格は、動力学的な物理法則に基づいて現在の3D骨格を計算および推定するために使用される。本発明のいくつかの実施形態によれば、画像処理論理回路は、現在の3D骨格を、動力学的な物理法則を用い、2つ以上前の3D骨格に基づいて推定する。本発明のいくつかの実施形態によれば、推定された3D骨格は、制約条件に則ったポーズおよび位置にある。
本発明のいくつかの実施形態によれば、現在の3D骨格が推定される。推定された現在の3D骨格は骨格を作るために空間的に再配置され、この3D骨格の2D投影は実質的に2Dイメージ骨格と同等であり、また、この3D骨格は制約条件に則っている。本発明のいくつかの実施形態によれば、画像処理論理回路は、動力学的な物理法則に基づいて現在の3D骨格を推定するために、2つ以上前の3D骨格を用いる。本発明のいくつかの実施形態によれば、推定された3D骨格は、3D骨格を生成するために制約条件に則り、最小限に再びポーズが取られ、この3D骨格の2D投影は実質的に2Dイメージ骨格と同等である。
手のイメージから抽出した2Dイメージ骨格の要素のデータとしての品質が決定される。例えば、他の要素の後ろに一部が隠れた要素は、カメラから完全に視認可能な要素に比べて品質が低いと判定される。十分に識別されていない要素は、完全に識別されている要素に比べて品質が低いと判定される。カメラの方を指している要素は、カメラに面と向かっている要素に比べて品質が低いと判定される。3D骨格を記述するベクトルにおける各骨は、例えば長さなどに関する特性を有しており、この特性の品質は骨の長さのデータの品質を決定する。3D骨格の骨の長さは、2Dイメージ骨格において対応する骨の長さから決定される。3D骨格の骨の長さの品質は、2イメージ骨格で対応する骨の長さの正確さによって決定される。
本発明のいくつかの実施形態によれば、インターフェースとなる手は、動作とジェスチャを行う。カメラは、向きおよびポーズの異なるインターフェースとなる手のイメージを撮像し、3D骨格の骨の長さの品質データを徐々に改善する。例えば、もし骨の長さが、いくつかのインターフェースとなる手の向きから決定されると、骨のデータの品質は向上する。もし、制約条件に整合する3D骨格の2D投影と、インターフェースとなる手のイメージから抽出した2D骨格(2Dイメージ骨格)との間で骨の長さに不一致があった場合、または、もし、3D骨格の骨の品質が、イメージ(2Dイメージ骨格)から抽出した2D骨格の骨の品質と比較して低い場合、骨の長さ又は3D骨格の低い品質は、高い品質を持つ2Dイメージ骨格の骨に対応した骨の長さや品質によって更新される。
図9Aは、3D骨格の骨の長さの品質向上の例を示している。図9Aの例において、骨75は長さの不確かな3D骨格である。骨75は、結合部70から、結合部71と結合部72との間のどこかまでの不確かな長さを有している。骨76は、2Dイメージ骨格において骨75に対応している。骨76は結合部62から、結合部77と結合部78との間のどこかまでの不確かな長さを有している。骨75は、空間的に複数の向きを取ることが可能で、これらの複数の向きの2D投影は全て、2Dイメージ骨格の骨に整合する。図9Aにおける骨75は、向き63と64、65、66、81を有している。これらの全ての向きにおける骨75の2次元投影は、骨76の長さの範囲内にある。骨75の向き82と63は、2D投影が骨76よりも短いため、適切な向きではない。図9Aから分かるように、骨75の適切な向き(63、64、65、66、81)において、長さが不確かな骨76によって作られる線67と68との間の窓内に骨75があるためには、骨75の長さは、結合部83から円弧69までの長さよりも長い必要がある。また、骨75の円弧69よりも下側の部分は常に骨76の長さの範囲内に収まっているため、不確かであった骨75の長さの下限について、品質が向上および更新される。これにより、結合部71は79に変換される。骨75の向き63、64においては、骨の全長が不明確であるため、結合部72の品質は向上されないまま結合部80となる。その結果、骨75の長さの不確かさの程度は、結合部71と72との間の長さから、結合部79と80との間の長さに減少する。
図9Bに他の例を示しており、この例において、3D骨格の骨75は、結合部70から、結合部71と結合部72との間のどこかまでの不確かな長さを有している。骨76はイメージ骨格において、骨75と対応している。骨76は、結合部62から、結合部77と結合部78との間のどこかまでの不確かな長さを有している。骨75は、(図示していない)骨の残りの部分に対して、空間的な向きの制約条件を有している。図9Bに示す例において、骨75は、向き65と向き66との間の複数の向きを取る。図から分かるように、骨の円弧69と円弧74との間ある部分は、骨76の不確かさによって作られる線67と線68との間の窓内から外れる。骨の結合部83と円弧69との間の部分と、円弧69よりも上の部分は、骨76の不確かさの範囲を越えている。そのため、結合部71は結合部79に変換され、また、結合部72は結合部80に変換されて、骨75の長さの不確かさは減少する。その結果、骨75の長さの不確かさの程度は、結合部71と72との間の長さから、結合部79と80との間の長さに減少する。
手をカメラの前でジェスチャを行いながら動かすことで、カメラは手の異なる位置およびポーズのイメージを取得する。本発明のいくつかの実施形態によれば、画像処理論理回路は、骨の長さの品質を更新および向上する。
人の骨の長さは他の骨に比例しているため、例えば、手は中指よりも長い人差し指を有していないように、3D骨格の骨の長さには他の骨との比例関係の制約が課されている。このことから、例えば、中指に対応する3D骨格の骨が長さ情報と高い品質(低い不確かさ)を有し、人差し指に対応する3D骨格の骨が長さ情報と低い品質(高い不確かさ)を有する場合、人差し指に対応する骨は、中指に対応する骨よりも短いとみなすことができ、人差し指に対応する骨が中指に対応する骨よりも長くないというレベルまで、人差し指に対応する骨の品質特性を改善させ、不確かさを減少させることができる。
本発明のいくつかの実施形態によれば、画像処理論理回路は、3D骨格の他の骨の品質および2つの骨の間に定義されている少なくとも1つの制約条件に基づいて、骨の3D骨格の品質特性を更新および向上する。
図10は、本発明のいくつかの実施形態におけるシステムのブロック図の一例である。イメージ取得回路(例えば、カメラ)は、マシンとのインターフェースとなる3Dの手の2Dイメージを取得する。撮像されたイメージはイメージメモリ内に記憶される。
本発明のいくつかの実施形態によれば、画像処理論理/回路は以下のモジュールのいくつか又は全てを備えている:コントロールユニット、手の特徴/要素識別モジュール、イメージ骨格生成モジュール、3D骨格生成モジュール、骨格データベース生成モジュール、骨格推定モジュール、処理イメージメモリモジュール。
手の特徴/要素識別モジュールは手のイメージを受け取り、指先や結合部の、指の輪郭、指骨間の角度などの手の要素または特徴を識別する。イメージ骨格生成モジュールは、手の特徴/要素識別モジュールから手の特徴データを受け取り、手の2Dイメージ骨格を生成する。イメージ骨格生成モジュールは、不明な要素を補うために、手の要素間の解剖学的な関係を用いて、視認可能な要素を内挿または外挿する。また、イメージ骨格生成モジュールは、生成されたイメージ骨格の品質や不確かさを決定する。
3D骨格生成モジュールは、イメージ骨格生成モジュールから骨格の寸法と特徴を受け取り、または、メモリに記憶されている以前の3D骨格を受け取る、または、骨格推定モジュールから推定された3D骨格を受け取る、または、イメージ骨格生成モジュールから2Dイメージ骨格を受け取る。3D骨格生成モジュールは、これらの一以上の入力に基づいて複数の3D骨格を生成し、その中から正確な骨格が選択される。
骨格データベース生成モジュールは、3D骨格生成モジュールから、適した骨格情報を受け取る。この情報には、骨格の骨の寸法や骨格の向きが含まれるが、これらに限定されない。また、骨格データベース生成モジュールは、イメージ骨格生成モジュールから、骨格の骨の寸法や骨格の向き、骨格の骨の寸法の品質および不確かさに関する情報を受け取る。それから、骨格データベース生成モジュールは、3D骨格の一つ以上の骨の長さや長さの品質特性を、生成または更新または向上する。
骨格推定モジュールは、メモリに記憶されている以前の3D骨格を受け取り、動力学的な物理法則に基づいて次の3D骨格の位置やポーズを推定する。3D骨格生成モジュールは、新しい3D骨格を生成するために、推定された骨格を用いる。
処理イメージメモリモジュールは撮像されたイメージや3D骨格、イメージ骨格、一つ以上前の3D骨格、推定された骨格、投影された骨格、各骨格の特徴、解剖学的な制約条件、記憶領域が必要となるその他の情報を記憶する。
図11は、本発明のいくつかの実施形態における、フローチャートの概略図を示している。ステップ101では、イメージ取得回路(カメラなど)によって、インターフェースとなる手のイメージが撮像される。カメラは毎秒、決まったレートでイメージを取得する。撮像された一つ以上のイメージは、更なる処理のためにメモリに記憶される。ステップ103では、指先や指や手のひらのなどの手の特徴が識別される。ステップ104では、識別された手の特徴に基づいて、インターフェースとなる手の2Dイメージ骨格が生成される。例えば、指のは、指の結合部の位置を推定するために用いられる。ステップ105では、2D投影が実質的にステップ104で生成されたイメージ骨格と同じになるように、3D骨格のポーズが取られる。ステップ106では、ステップ105で生成された各骨格の候補が、指骨間の許容角度などの制約条件に照らしてチェックされる。インターフェースとなる手と実質的に同じポーズ、すなわち、適合する骨格の中から、制約条件に合った骨格が選択される。ステップ107では、少なくとも一つ以上の前の骨格は、動力学的な物理法則に基づいて現在の適合する骨格を推定するために用いられる。このステップでは、現在の骨格の位置を推定するために、骨格の以前の3次元的な動きが解析される。推定された骨格はステップ105において、骨格の候補を生成するために用いられる。ステップ108では、それぞれ異なる骨格から集められた入力情報に基づいて、曖昧さ、矛盾点、不明瞭性が解消される。このステップにおいて骨の長さの品質が向上する。ステップ109では、手を介したインターフェースを行っているマシンに対して、コマンド信号を出力するために、整合する骨格の位置や動きの情報が解析される。
ここで説明および開示された本発明の特徴により、当該分野の技術者によって、多くの修正や代替、変更、均等物を想到しうる。そのため、本発明の請求範囲は、本発明の本質的な趣旨を逸脱しない範囲の全ての変形例を含んでいることを理解されたい。

Claims (15)

  1. 一以上の3次元の手の骨格モデルを用いるヒューマンマシンインターフェースのためのシステムであって、
    を含む2次元イメージを受信するよう適合化されているイメージ受信回路と、
    受信したイメージにおける手の特徴を識別するよう適合化されている手の特徴識別モジュールであって、該手の特徴の識別は、手の結合部の位置を示す皮膚の皺を識別することを含む、手の特徴識別モジュールと、
    前記識別された特徴を用いて手の2次元骨格データセットを生成するよう適合化されているイメージ骨格生成モジュールと、
    前記3次元の手の骨格モデルの構成の2次元投影イメージを生成された前記手の2次元骨格データセットと比較し、生成された前記手の2次元骨格データセットに対応する、前記3次元の手の骨格モデルの構成を決定することによって、3次元の手の骨格データセットを生成するよう適合化されている3次元骨格生成モジュールと、を備え、
    前記3次元骨格生成モジュールは、識別された前記皮膚の皺に基づいて結合部の位置が決定された前記手の2次元骨格データセットに基づいて、該手の2次元骨格データセットと比較するための前記3次元の手の骨格モデルの構成を選択することを特徴とするシステム。
  2. 前記3次元の手の骨格モデルは、該3次元の手の骨格モデルの要素間に人の手の要素間の解剖学的な関係および制約条件を含み該解剖学的な関係および該制約条件は、前記2次元骨格データセットと比較するための該3次元の手の骨格モデルの構成を選択する際に影響を与えることを特徴とする、請求項1に記載のシステム。
  3. 前記イメージ骨格生成モジュールは、さらに、前記2次元骨格データセットの一以上の要素の品質特性を決定するよう適合化されていることを特徴とする、請求項に記載のシステム。
  4. 一以上の生成された3次元の手の骨格データセットを記憶するよう適合化された骨格データベース生成モジュールを更に備え、
    前記3次元骨格生成モジュールは、さらに、少なくとも部分的に、前記骨格データベース生成モジュールによって以前に記憶された一以上の3次元の手の骨格データセットに基づいて、前記3次元の手の骨格データセットを生成するよう適合化されていることを特徴とする、請求項1に記載のシステム。
  5. 動力学的な物理法則が適用された、二以上の以前の3次元の手の骨格データセットに基づいて、3次元の手の推定骨格データセットを推定するよう適合化された推定モジュールを更に備え、
    前記3次元骨格生成モジュールは、さらに、少なくとも部分的に、前記推定モジュールによって推定された前記3次元の手の推定骨格データセットに基づいて、前記3次元骨格データセットを生成するよう適合化されていることを特徴とする、請求項1に記載のシステム。
  6. 一以上の3次元の手の骨格モデルを用いるヒューマンマシンインターフェースのための方法であって、
    を含む2次元イメージを受信する工程と、
    受信したイメージにおける手の一以上の特徴を識別する工程であって、該手の特徴の識別は、手の結合部の位置を示す皮膚の皺を識別することを含む、工程と、
    前記識別された特徴を用いて手の2次元骨格データセットを生成する工程と、
    前記3次元の手の骨格モデルの構成の2次元投影イメージを生成された前記手の2次元骨格データセットと比較し、生成された前記手の2次元骨格データセットに対応する、前記3次元の手の骨格モデルの構成を決定することによって、3次元の手の骨格データセットを生成する工程と、を含み、
    前記2次元骨格データセットと比較するための前記3次元の手の骨格モデルの構成の選択は、識別された前記皮膚の皺に基づいて手の結合部の位置が決定された前記2次元骨格データセットに基づいて実行されること特徴とする方法。
  7. 前記3次元の手の骨格モデルは、該3次元の手の骨格モデルの要素間に人の手の要素間の解剖学的な関係および制約条件を含み、該解剖学的な関係および該制約条件は、前記2次元骨格データセットと比較するための該3次元の手の骨格モデルの構成を選択する際に影響を与えることを特徴とする、請求項6に記載の方法。
  8. 前記2次元骨格データセットを生成する工程は、さらに、前記2次元骨格データセットの一以上の要素の品質特性を決定する工程を含むことを特徴とする、請求項に記載の方法。
  9. 前記3次元の手の骨格データセットを生成する工程は、さらに、
    一以上の3次元の手のデータセットを記憶する工程と、
    少なくとも部分的に、前記以前に記憶された3次元の手の骨格データセットに基づいて、前記3次元の手の骨格データセットを生成する工程と、を含むことを特徴とする、請求項6に記載の方法。
  10. 前記3次元の手の骨格データセットを生成する工程は、
    以前に生成された二以上の3次元の手の骨格データセットに対して、動力学的な物理法則を適用することによって、3次元の手の推定骨格データセットを推定する工程と、
    少なくとも部分的に、前記推定された3次元の手の推定骨格データセットに基づいて、前記3次元の手の骨格データセットを生成する工程と、を更に含むことを特徴とする、請求項6に記載の方法。
  11. 一以上の3次元の手の骨格モデルを用いることによって3次元の手の骨格データセットを生成するためのシステムであって、
    を含む2次元イメージにおける手の特徴を識別する手の特徴識別モジュールであって、該手の特徴の識別は、指の複数のセグメントと接する複数の接線を推定し、該複数の接線の交点の位置を手の結合部の位置と識別することを含む、手の特徴識別モジュールと、
    前記識別された特徴を用いて前記手の2次元骨格データセットを生成するよう適合化されたイメージ骨格生成モジュールと、
    前記3次元の手の骨格モデルの構成の2次元投影イメージを生成された前記手の2次元骨格データセットと比較し、生成された前記手の2次元骨格データセットに対応する、前記一以上の3次元の手の骨格モデルの構成を決定するよう適合化された3次元骨格生成モジュールと、を備え、
    前記3次元骨格生成モジュールは、前記複数の接線の交点の位置に基づいて手の結合部の位置が決定された前記手の2次元骨格データセットに基づいて、該手の2次元骨格データセットと比較するための前記3次元の手の骨格モデルの構成を選択することを特徴とする、システム
  12. 前記3次元の手の骨格モデルは、該3次元の手の骨格モデルの要素間に人の手の要素間の解剖学的な関係および制約条件を含み該解剖学的な関係および該制約条件は、前記2次元骨格データセットと比較するための該3次元の手の骨格モデルの構成を選択する際に影響を与えることを特徴とする、請求項11に記載のシステム
  13. 前記イメージ骨格生成モジュールは、さらに、前記2次元骨格データセットの一以上の要素の品質特性を決定するよう適合化されていることを特徴とする、請求項12に記載のシステム
  14. 一以上の生成された3次元の手の骨格データセットを記憶するよう適合化された骨格データベース生成モジュールを更に備え、
    前記3次元骨格生成モジュールは、さらに、少なくとも部分的に、前記骨格データベース生成モジュールによって以前に記憶された一以上の3次元の手の骨格データセットに基づいて、前記3次元の手の骨格データセットを生成するよう適合化されていることを特徴とする、請求項11に記載のシステム
  15. 動力学的な物理法則が適用された、二以上の以前の3次元の手の骨格データセットに基づいて、3次元の手の推定骨格データセットを推定するよう適合化された推定モジュールを更に備え、
    前記3次元骨格生成モジュールは、さらに、少なくとも部分的に、前記推定モジュールによって推定された前記3次元の手の推定骨格データセットに基づいて、前記3次元骨格データセットを生成するよう適合化されていることを特徴とする、請求項11に記載のシステム
JP2013541468A 2011-01-03 2012-01-03 手のジェスチャによるヒューマンマシンインターフェースのための方法、回路、及び、システム Expired - Fee Related JP5695758B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/983,335 US8872899B2 (en) 2004-07-30 2011-01-03 Method circuit and system for human to machine interfacing by hand gestures
US12/983,335 2011-01-03
PCT/IB2012/050027 WO2012095756A2 (en) 2011-01-03 2012-01-03 Method circuit and system for human to machine interfacing by hand gestures

Publications (3)

Publication Number Publication Date
JP2014501011A JP2014501011A (ja) 2014-01-16
JP2014501011A5 JP2014501011A5 (ja) 2014-09-11
JP5695758B2 true JP5695758B2 (ja) 2015-04-08

Family

ID=46507511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013541468A Expired - Fee Related JP5695758B2 (ja) 2011-01-03 2012-01-03 手のジェスチャによるヒューマンマシンインターフェースのための方法、回路、及び、システム

Country Status (6)

Country Link
US (1) US8872899B2 (ja)
EP (1) EP2605844A2 (ja)
JP (1) JP5695758B2 (ja)
CA (1) CA2804902C (ja)
IL (1) IL224026A (ja)
WO (1) WO2012095756A2 (ja)

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1789928A4 (en) 2004-07-30 2011-03-16 Extreme Reality Ltd SYSTEM AND METHOD FOR PICTURE PROCESSING BASED ON THE 3D ROOM DIMENSION
US8872899B2 (en) 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
US8681100B2 (en) 2004-07-30 2014-03-25 Extreme Realty Ltd. Apparatus system and method for human-machine-interface
US20070285554A1 (en) 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
KR101511819B1 (ko) * 2008-09-04 2015-04-13 익스트림 리얼리티 엘티디. 영상 센서에 기반한 인간 기계장치 인터페이스를 제공하는 방법 시스템 및 소프트웨어
JP5540002B2 (ja) 2008-10-24 2014-07-02 エクストリーム リアリティー エルティーディー. 画像センサ式ヒューマンマシンインターフェイスを提供するための方法、システムと関連モジュール、およびソフトウエアコンポーネント
EP2480951A4 (en) 2009-09-21 2014-04-30 Extreme Reality Ltd METHOD, CIRCUITS, DEVICES AND SYSTEMS FOR A HUMAN MACHINE INTERFACE WITH AN ELECTRONIC DEVICE
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
US8633890B2 (en) * 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
EP2628303A1 (en) 2011-01-23 2013-08-21 Extreme Reality Ltd. Methods, systems, devices and associated processing logic for generating stereoscopic images and video
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
KR102133702B1 (ko) * 2012-02-24 2020-07-14 토마스 제이. 모스카릴로 제스처 인식 디바이스들 및 방법들
US9734393B2 (en) * 2012-03-20 2017-08-15 Facebook, Inc. Gesture-based control system
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US9098739B2 (en) 2012-06-25 2015-08-04 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
US10234941B2 (en) * 2012-10-04 2019-03-19 Microsoft Technology Licensing, Llc Wearable sensor for tracking articulated body-parts
DE102012110460A1 (de) * 2012-10-31 2014-04-30 Audi Ag Verfahren zum Eingeben eines Steuerbefehls für eine Komponente eines Kraftwagens
KR102041984B1 (ko) * 2012-12-18 2019-11-07 삼성전자주식회사 추가 구성 요소를 이용한 얼굴 인식 기능을 가지는 모바일 장치 및 그 제어 방법
CN103926999B (zh) * 2013-01-16 2017-03-01 株式会社理光 手掌开合手势识别方法和装置、人机交互方法和设备
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
US9158381B2 (en) * 2013-02-25 2015-10-13 Honda Motor Co., Ltd. Multi-resolution gesture recognition
US9298266B2 (en) 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
JP6155786B2 (ja) * 2013-04-15 2017-07-05 オムロン株式会社 ジェスチャ認識装置、ジェスチャ認識方法、電子機器、制御プログラムおよび記録媒体
US9829984B2 (en) * 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
KR101436050B1 (ko) * 2013-06-07 2014-09-02 한국과학기술연구원 손모양 깊이영상 데이터베이스 구축방법, 손모양 인식방법 및 손모양 인식 장치
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
KR102216124B1 (ko) 2013-09-06 2021-02-16 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치
CN103735268B (zh) * 2013-09-29 2015-11-25 沈阳东软医疗系统有限公司 一种体位检测方法及系统
RU2013148582A (ru) * 2013-10-30 2015-05-10 ЭлЭсАй Корпорейшн Процессор обработки изображений, содержащий систему распознавания жестов с вычислительно-эффективным распознаванием неподвижной позы руки
US9743860B2 (en) 2013-11-08 2017-08-29 Applied Invention, Llc Use of light transmission through tissue to sense joint flexure
US20150139487A1 (en) * 2013-11-21 2015-05-21 Lsi Corporation Image processor with static pose recognition module utilizing segmented region of interest
US9507417B2 (en) 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US10725550B2 (en) * 2014-01-07 2020-07-28 Nod, Inc. Methods and apparatus for recognition of a plurality of gestures using roll pitch yaw data
US10338678B2 (en) 2014-01-07 2019-07-02 Nod, Inc. Methods and apparatus for recognition of start and/or stop portions of a gesture using an auxiliary sensor
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
RU2014108820A (ru) * 2014-03-06 2015-09-20 ЭлЭсАй Корпорейшн Процессор изображений, содержащий систему распознавания жестов с функциональными возможностями обнаружения и отслеживания пальцев
DE102014212660A1 (de) * 2014-06-30 2015-12-31 Trumpf Medizin Systeme Gmbh + Co. Kg Steuerungsvorrichtung für ein Medizingerät
USD767633S1 (en) * 2014-08-29 2016-09-27 Nike, Inc. Display screen with emoticon
EP3051385A1 (en) * 2015-01-30 2016-08-03 4tiitoo GmbH Method and system for object detection
JP6479508B2 (ja) * 2015-03-09 2019-03-06 株式会社ユニオンソフトウェアマネイジメント 手振り翻訳システム
US9690984B2 (en) * 2015-04-14 2017-06-27 Microsoft Technology Licensing, Llc Two-dimensional infrared depth sensing
JP6559017B2 (ja) * 2015-08-25 2019-08-14 キヤノン株式会社 制御装置及び制御方法
US20170177087A1 (en) * 2015-12-18 2017-06-22 Intel Corporation Hand skeleton comparison and selection for hand and gesture recognition with a computing interface
US10360438B2 (en) * 2015-12-30 2019-07-23 Dassault Systemes 3D to 2D reimaging for search
US10049479B2 (en) 2015-12-30 2018-08-14 Dassault Systemes Density based graphical mapping
US10127333B2 (en) 2015-12-30 2018-11-13 Dassault Systemes Embedded frequency based search and 3D graphical data processing
US10133857B2 (en) * 2016-05-18 2018-11-20 Bank Of America Corporation Phalangeal authentication device
WO2018048000A1 (ko) * 2016-09-12 2018-03-15 주식회사 딥픽셀 단일 카메라 기반의 3차원 영상 해석 장치 및 방법, 3차원 영상 해석을 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 매체
CN107818290B (zh) * 2016-09-14 2021-03-16 京东方科技集团股份有限公司 基于深度图的启发式手指检测方法
US11544871B2 (en) * 2017-12-13 2023-01-03 Google Llc Hand skeleton learning, lifting, and denoising from 2D images
US10719173B2 (en) * 2018-04-04 2020-07-21 Facebook Technologies, Llc Transcribing augmented reality keyboard input based on hand poses for improved typing accuracy
CN108989553A (zh) 2018-06-29 2018-12-11 北京微播视界科技有限公司 场景操控的方法、装置及电子设备
CN109410276B (zh) * 2018-11-01 2020-10-27 北京达佳互联信息技术有限公司 关键点位置确定方法、装置及电子设备
JP7420146B2 (ja) * 2019-11-11 2024-01-23 日本電気株式会社 カメラ校正装置、カメラ校正方法及びカメラ校正プログラム
CN111738220B (zh) 2020-07-27 2023-09-15 腾讯科技(深圳)有限公司 三维人体姿态估计方法、装置、设备及介质
CN113238650B (zh) * 2021-04-15 2023-04-07 青岛小鸟看看科技有限公司 手势识别和控制的方法、装置及虚拟现实设备
US11966515B2 (en) * 2021-12-23 2024-04-23 Verizon Patent And Licensing Inc. Gesture recognition systems and methods for facilitating touchless user interaction with a user interface of a computer system
CN116233532A (zh) * 2022-12-14 2023-06-06 珠海普罗米修斯视觉技术有限公司 视频播放方法、装置、计算机设备及计算机可读存储介质
CN116610170B (zh) * 2023-07-17 2023-10-13 北京中科润宇环保科技股份有限公司 高效sncr智能三维温度分区控制方法

Family Cites Families (112)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4376950A (en) * 1980-09-29 1983-03-15 Ampex Corporation Three-dimensional television system using holographic techniques
US5130794A (en) * 1990-03-29 1992-07-14 Ritchey Kurtis J Panoramic display system
US5515183A (en) * 1991-08-08 1996-05-07 Citizen Watch Co., Ltd. Real-time holography system
US5691885A (en) * 1992-03-17 1997-11-25 Massachusetts Institute Of Technology Three-dimensional interconnect having modules with vertical top and bottom connectors
JP3414417B2 (ja) * 1992-09-30 2003-06-09 富士通株式会社 立体画像情報伝送システム
US5745719A (en) * 1995-01-19 1998-04-28 Falcon; Fernando D. Commands functions invoked from movement of a control input device
US5835133A (en) * 1996-01-23 1998-11-10 Silicon Graphics, Inc. Optical system for single camera stereo video
US6115482A (en) * 1996-02-13 2000-09-05 Ascent Technology, Inc. Voice-output reading system with gesture-based navigation
US5909218A (en) * 1996-04-25 1999-06-01 Matsushita Electric Industrial Co., Ltd. Transmitter-receiver of three-dimensional skeleton structure motions and method thereof
JP3337938B2 (ja) 1996-04-25 2002-10-28 松下電器産業株式会社 3次元骨格構造の動き送受信装置、および動き送受信方法
US6445814B2 (en) * 1996-07-01 2002-09-03 Canon Kabushiki Kaisha Three-dimensional information processing apparatus and method
US5852450A (en) * 1996-07-11 1998-12-22 Lamb & Company, Inc. Method and apparatus for processing captured motion data
US5831633A (en) * 1996-08-13 1998-11-03 Van Roy; Peter L. Designating, drawing and colorizing generated images by computer
JPH10188028A (ja) * 1996-10-31 1998-07-21 Konami Co Ltd スケルトンによる動画像生成装置、該動画像を生成する方法、並びに該動画像を生成するプログラムを記憶した媒体
US6243106B1 (en) * 1998-04-13 2001-06-05 Compaq Computer Corporation Method for figure tracking using 2-D registration and 3-D reconstruction
US6681031B2 (en) * 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6529643B1 (en) * 1998-12-21 2003-03-04 Xerox Corporation System for electronic compensation of beam scan trajectory distortion
US6303924B1 (en) * 1998-12-21 2001-10-16 Microsoft Corporation Image sensing operator input device
US6657670B1 (en) * 1999-03-16 2003-12-02 Teco Image Systems Co., Ltd. Diaphragm structure of digital still camera
DE19917660A1 (de) * 1999-04-19 2000-11-02 Deutsch Zentr Luft & Raumfahrt Verfahren und Eingabeeinrichtung zum Steuern der Lage eines in einer virtuellen Realität graphisch darzustellenden Objekts
US6597801B1 (en) * 1999-09-16 2003-07-22 Hewlett-Packard Development Company L.P. Method for object registration via selection of models with dynamically ordered features
US7123292B1 (en) * 1999-09-29 2006-10-17 Xerox Corporation Mosaicing images with an offset lens
JP2001246161A (ja) 1999-12-31 2001-09-11 Square Co Ltd ジェスチャー認識技術を用いたゲーム装置およびその方法ならびにその方法を実現するプログラムを記憶した記録媒体
GB2358098A (en) 2000-01-06 2001-07-11 Sharp Kk Method of segmenting a pixelled image
EP1117072A1 (en) * 2000-01-17 2001-07-18 Koninklijke Philips Electronics N.V. Text improvement
US6674877B1 (en) * 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US7370983B2 (en) * 2000-03-02 2008-05-13 Donnelly Corporation Interior mirror assembly with display
US6992665B2 (en) * 2000-03-29 2006-01-31 Minolta Co., Ltd. Method and device for fitting surface to point group, modeling device, and computer program
US6554706B2 (en) * 2000-05-31 2003-04-29 Gerard Jounghyun Kim Methods and apparatus of displaying and evaluating motion data in a motion game apparatus
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US6906687B2 (en) * 2000-07-31 2005-06-14 Texas Instruments Incorporated Digital formatter for 3-dimensional display applications
JP4047575B2 (ja) 2000-11-15 2008-02-13 株式会社セガ 情報処理装置における表示物体生成方法、これを実行制御するプログラム及びこのプログラムを格納した記録媒体
IL139995A (en) * 2000-11-29 2007-07-24 Rvc Llc System and method for spherical stereoscopic photographing
US7116330B2 (en) * 2001-02-28 2006-10-03 Intel Corporation Approximating motion using a three-dimensional model
US7061532B2 (en) * 2001-03-27 2006-06-13 Hewlett-Packard Development Company, L.P. Single sensor chip digital stereo camera
US6862121B2 (en) * 2001-06-05 2005-03-01 California Institute Of Technolgy Method and apparatus for holographic recording of fast phenomena
JP4596220B2 (ja) * 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4304337B2 (ja) 2001-09-17 2009-07-29 独立行政法人産業技術総合研究所 インタフェース装置
CA2359269A1 (en) * 2001-10-17 2003-04-17 Biodentity Systems Corporation Face imaging system for recordal and automated identity confirmation
WO2003039698A1 (en) 2001-11-02 2003-05-15 Atlantis Cyberspace, Inc. Virtual reality game system with pseudo 3d display driver & mission control
US20050063596A1 (en) * 2001-11-23 2005-03-24 Yosef Yomdin Encoding of geometric modeled images
US6833843B2 (en) * 2001-12-03 2004-12-21 Tempest Microsystems Panoramic imaging and display system with canonical magnifier
US7683929B2 (en) * 2002-02-06 2010-03-23 Nice Systems, Ltd. System and method for video content analysis-based detection, surveillance and alarm management
US8599266B2 (en) * 2002-07-01 2013-12-03 The Regents Of The University Of California Digital processing of video images
JP3866168B2 (ja) 2002-07-31 2007-01-10 独立行政法人科学技術振興機構 多重構造を用いた動作生成システム
US8013852B2 (en) 2002-08-02 2011-09-06 Honda Giken Kogyo Kabushiki Kaisha Anthropometry-based skeleton fitting
US8460103B2 (en) * 2004-06-18 2013-06-11 Igt Gesture controlled casino gaming system
KR101054274B1 (ko) * 2003-01-17 2011-08-08 코닌클리케 필립스 일렉트로닉스 엔.브이. 풀 깊이 맵 획득
US9177387B2 (en) * 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US7257237B1 (en) * 2003-03-07 2007-08-14 Sandia Corporation Real time markerless motion tracking using linked kinematic chains
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
WO2004094943A1 (ja) 2003-04-22 2004-11-04 Hiroshi Arisawa モーションキャプチャ方法、モーションキャプチャ装置、及びモーションキャプチャ用マーカ
WO2004097612A2 (en) * 2003-05-01 2004-11-11 Delta Dansk Elektronik, Lys & Akustik A man-machine interface based on 3-d positions of the human body
WO2005036456A2 (en) * 2003-05-12 2005-04-21 Princeton University Method and apparatus for foreground segmentation of video sequences
WO2004114063A2 (en) * 2003-06-13 2004-12-29 Georgia Tech Research Corporation Data reconstruction using directional interpolation techniques
JP2005020227A (ja) * 2003-06-25 2005-01-20 Pfu Ltd 画像圧縮装置
JP2005025415A (ja) * 2003-06-30 2005-01-27 Sony Corp 位置検出装置
US7755608B2 (en) * 2004-01-23 2010-07-13 Hewlett-Packard Development Company, L.P. Systems and methods of interfacing with a machine
KR100853605B1 (ko) 2004-03-23 2008-08-22 후지쯔 가부시끼가이샤 핸드헬드 장치에서의 경사 및 평행 이동 운동 성분들의구별
US20070183633A1 (en) * 2004-03-24 2007-08-09 Andre Hoffmann Identification, verification, and recognition method and system
US8036494B2 (en) * 2004-04-15 2011-10-11 Hewlett-Packard Development Company, L.P. Enhancing image resolution
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US7366278B2 (en) * 2004-06-30 2008-04-29 Accuray, Inc. DRR generation using a non-linear attenuation model
US7397473B2 (en) * 2004-07-16 2008-07-08 Geometric Ltd. Geometry based search method for 3D CAx/PDM repositories
US8432390B2 (en) * 2004-07-30 2013-04-30 Extreme Reality Ltd Apparatus system and method for human-machine interface
EP1789928A4 (en) * 2004-07-30 2011-03-16 Extreme Reality Ltd SYSTEM AND METHOD FOR PICTURE PROCESSING BASED ON THE 3D ROOM DIMENSION
WO2008126069A2 (en) 2007-04-15 2008-10-23 Xtr - Extreme Reality An apparatus system and method for human-machine-interface
US8872899B2 (en) 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
GB0424030D0 (en) * 2004-10-28 2004-12-01 British Telecomm A method and system for processing video data
US7386150B2 (en) * 2004-11-12 2008-06-10 Safeview, Inc. Active subject imaging with body identification
US7903141B1 (en) * 2005-02-15 2011-03-08 Videomining Corporation Method and system for event detection by multi-scale image invariant analysis
JP4686595B2 (ja) 2005-03-17 2011-05-25 本田技研工業株式会社 クリティカルポイント解析に基づくポーズ推定
US7774713B2 (en) * 2005-06-28 2010-08-10 Microsoft Corporation Dynamic user experience with semantic rich objects
US20070285554A1 (en) * 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US8265349B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
US9395905B2 (en) * 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
JP2007302223A (ja) 2006-04-12 2007-11-22 Hitachi Ltd 車載装置の非接触入力操作装置
CA2653815C (en) * 2006-06-23 2016-10-04 Imax Corporation Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
US8022935B2 (en) * 2006-07-06 2011-09-20 Apple Inc. Capacitance sensing electrode with integrated I/O mechanism
US7701439B2 (en) * 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
US7783118B2 (en) * 2006-07-13 2010-08-24 Seiko Epson Corporation Method and apparatus for determining motion in images
US7907117B2 (en) * 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
US7936932B2 (en) * 2006-08-24 2011-05-03 Dell Products L.P. Methods and apparatus for reducing storage size
US20080104547A1 (en) * 2006-10-25 2008-05-01 General Electric Company Gesture-based communications
US8356254B2 (en) * 2006-10-25 2013-01-15 International Business Machines Corporation System and method for interacting with a display
US7885480B2 (en) * 2006-10-31 2011-02-08 Mitutoyo Corporation Correlation peak finding method for image correlation displacement sensing
US8756516B2 (en) * 2006-10-31 2014-06-17 Scenera Technologies, Llc Methods, systems, and computer program products for interacting simultaneously with multiple application programs
US8793621B2 (en) * 2006-11-09 2014-07-29 Navisense Method and device to control touchless recognition
US8075499B2 (en) * 2007-05-18 2011-12-13 Vaidhi Nathan Abnormal motion detector and monitor
US7916944B2 (en) * 2007-01-31 2011-03-29 Fuji Xerox Co., Ltd. System and method for feature level foreground segmentation
WO2008134745A1 (en) 2007-04-30 2008-11-06 Gesturetek, Inc. Mobile video-based therapy
KR20100055516A (ko) * 2007-08-30 2010-05-26 넥스트 홀딩스 인코포레이티드 개선된 조광을 가진 광학 터치 스크린
US8094943B2 (en) 2007-09-27 2012-01-10 Behavioral Recognition Systems, Inc. Background-foreground module for video analysis system
US8005263B2 (en) * 2007-10-26 2011-08-23 Honda Motor Co., Ltd. Hand sign recognition using label assignment
US9451142B2 (en) * 2007-11-30 2016-09-20 Cognex Corporation Vision sensors, systems, and methods
US8107726B2 (en) 2008-06-18 2012-01-31 Samsung Electronics Co., Ltd. System and method for class-specific object segmentation of image data
US9189886B2 (en) * 2008-08-15 2015-11-17 Brown University Method and apparatus for estimating body shape
KR101511819B1 (ko) * 2008-09-04 2015-04-13 익스트림 리얼리티 엘티디. 영상 센서에 기반한 인간 기계장치 인터페이스를 제공하는 방법 시스템 및 소프트웨어
JP5540002B2 (ja) 2008-10-24 2014-07-02 エクストリーム リアリティー エルティーディー. 画像センサ式ヒューマンマシンインターフェイスを提供するための方法、システムと関連モジュール、およびソフトウエアコンポーネント
US8289440B2 (en) * 2008-12-08 2012-10-16 Lytro, Inc. Light field data acquisition devices, and methods of using and manufacturing same
JP2012518236A (ja) * 2009-02-17 2012-08-09 オーメック インタラクティブ,リミテッド ジェスチャー認識のための方法及びシステム
US8320619B2 (en) * 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8466934B2 (en) * 2009-06-29 2013-06-18 Min Liang Tan Touchscreen interface
US8270733B2 (en) * 2009-08-31 2012-09-18 Behavioral Recognition Systems, Inc. Identifying anomalous object types during classification
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
EP2480951A4 (en) 2009-09-21 2014-04-30 Extreme Reality Ltd METHOD, CIRCUITS, DEVICES AND SYSTEMS FOR A HUMAN MACHINE INTERFACE WITH AN ELECTRONIC DEVICE
US8659592B2 (en) * 2009-09-24 2014-02-25 Shenzhen Tcl New Technology Ltd 2D to 3D video conversion
US20110292036A1 (en) 2010-05-31 2011-12-01 Primesense Ltd. Depth sensor with application interface
EP2628303A1 (en) 2011-01-23 2013-08-21 Extreme Reality Ltd. Methods, systems, devices and associated processing logic for generating stereoscopic images and video
US9251422B2 (en) 2011-11-13 2016-02-02 Extreme Reality Ltd. Methods systems apparatuses circuits and associated computer executable code for video based subject characterization, categorization, identification and/or presence response

Also Published As

Publication number Publication date
WO2012095756A2 (en) 2012-07-19
US8872899B2 (en) 2014-10-28
CA2804902A1 (en) 2012-07-19
CA2804902C (en) 2015-10-13
JP2014501011A (ja) 2014-01-16
US20110129124A1 (en) 2011-06-02
IL224026A (en) 2016-06-30
WO2012095756A3 (en) 2013-07-18
EP2605844A2 (en) 2013-06-26

Similar Documents

Publication Publication Date Title
JP5695758B2 (ja) 手のジェスチャによるヒューマンマシンインターフェースのための方法、回路、及び、システム
JP2014501011A5 (ja)
JP5931215B2 (ja) 姿勢を推定する方法及び装置
Erol et al. Vision-based hand pose estimation: A review
Erol et al. A review on vision-based full DOF hand motion estimation
KR101865655B1 (ko) 증강현실 상호 작용 서비스 제공 장치 및 방법
Wu et al. Human hand modeling, analysis and animation in the context of HCI
WO2023000119A1 (zh) 手势识别方法、装置、系统及车辆
JP5403699B2 (ja) 手指形状推定装置、手指形状の推定方法及びプログラム
KR20180053416A (ko) 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 방법, 단일 카메라 기반의 3차원 영상 해석에 기초한 가상현실 인터페이스 구현 장치
Aristidou Hand tracking with physiological constraints
JP2018119833A (ja) 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体
Wang et al. Immersive human–computer interactive virtual environment using large-scale display system
Aditya et al. Recent trends in HCI: A survey on data glove, LEAP motion and microsoft kinect
CN115576426A (zh) 一种针对混合现实飞行模拟器的手部交互方法
Cohen et al. A 3d virtual sketching system using NURBS surfaces and leap motion controller
CN108564618B (zh) 基于多体素块的手几何运动重建方法及装置
US7155673B2 (en) System and method of interactive evaluation of a geometric model
US11887257B2 (en) Method and apparatus for virtual training based on tangible interaction
Liu et al. COMTIS: Customizable touchless interaction system for large screen visualization
Shah et al. Gesture recognition technique: a review
Varga et al. Survey and investigation of hand motion processing technologies for compliance with shape conceptualization
Feng et al. An HCI paradigm fusing flexible object selection and AOM-based animation
Angelopoulou et al. Natural user interfaces in volume visualisation using microsoft kinect
KR20200063727A (ko) 제스처 인식 방법 및 장치

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140415

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140709

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140716

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140723

A524 Written submission of copy of amendment under section 19 (pct)

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20140723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150206

R150 Certificate of patent or registration of utility model

Ref document number: 5695758

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees