JP2010524113A - 人−機械インターフェース装置システム及び方法 - Google Patents

人−機械インターフェース装置システム及び方法 Download PDF

Info

Publication number
JP2010524113A
JP2010524113A JP2010502633A JP2010502633A JP2010524113A JP 2010524113 A JP2010524113 A JP 2010524113A JP 2010502633 A JP2010502633 A JP 2010502633A JP 2010502633 A JP2010502633 A JP 2010502633A JP 2010524113 A JP2010524113 A JP 2010524113A
Authority
JP
Japan
Prior art keywords
module
machine interface
image
skeleton
interface according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010502633A
Other languages
English (en)
Other versions
JP5147933B2 (ja
Inventor
ギヴォン,ドール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Extreme Reality Ltd
Original Assignee
Extreme Reality Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Extreme Reality Ltd filed Critical Extreme Reality Ltd
Publication of JP2010524113A publication Critical patent/JP2010524113A/ja
Application granted granted Critical
Publication of JP5147933B2 publication Critical patent/JP5147933B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)

Abstract

3D人機械インターフェース(3D HMI)を提供するものであり、3D HMIは、(1)画像取得アッセンブリと、(2)起動モジュールと、(3)画像分割モジュールと、(4)分割データ処理モジュールと、(5)スコアリングモジュールと、(6)投影モジュールと、(7)適合モジュールと、(8)スコアリング及びエラー検出モジュールと、(9)回復モジュールと、(10)三次元相関モジュールと、(11)三次元骨格予測モジュールと、(12)出力モジュールと、(13)深度抽出モジュールと、を具える。
【選択図】図1

Description

本出願は、2004年7月30日出願の米国暫定特許出願第60/592,136号、2005年7月31日出願のPCT/IL2005/000813号、2005年10月31日出願の米国暫定特許出願第60/731,274号、2006年3月27日出願の米国特許出願第11/227,578号、及び2006年10月31日出願のPCT/IL2006/001254号の一部継続出願である。各出願は全体に参照されて組み込まれている。
本発明は、一般的にユーザインターフェースに関するものであり、特に、3D人−機械インターフェース方法とシステムに関する。
ソフトウエアの歴史における最大パターンの一つは、計算集約型(computation−intensive)デザインから提示集約型(presentation−intensive)デザインへのシフトである。機械はどんどんパワフルになってきているため、発明者はプレゼンテーションにこのパワーの一部を着実に増やすことに労力を費やしていた。この進歩の歴史は、便宜上3つの時代に分けることができる。すなわち、バッチ(1945−1968)、コマンド−ライン(1969−1983)、そしてグラフィカル(1984以降)である。もちろん、このストーリィはデジタルコンピュータの発明によって始まる。後者の二つの時代の開始日は、活気のある新インターフェース技術がラボラトリから脱け出して、インターフェースに関するユーザの期待を真剣に変え始めた数年である。これらの技術は相互作用的タイムシェアリング技術とグラフィックユーザインターフェース技術であった。
バッチの時代は、計算能力が非常に低く、高価であった。この時代の最も大型のコンピュータがコマンドする、一秒あたりのロジックサイクルは今日の普通のトースターあるいはマイクロウエーブオーブンより少なく、今日の自動車、デジタル時計、携帯電話よりかなり少ないものであった。従って、ユーザインターフェースは未発達であった。逆に、むしろユーザがコンピュータに適用しなくてはならず、ユーザーインターフェースは経費がかかると考えられており、ソフトウエアは可能な限り少ない経費でプロセッサを最大利用するように設計されていた。
バッチマシーン用のユーザインターフェースの入力側は主にパンチカードか、あるいは紙テープのような同等の媒体であった。出力側はこれらの媒体にプリンタをつなぐラインを足していた。システムのオペレータコンソールの制限付例外によって、人はバッチマシーンとリアルタイムで相互作用していなかった。
バッチマシーンにジョブを提供することには、まず、プログラムとデータセットを記述したパンチカードのデッキを準備することが含まれていた。プログラムカードのパンチングは、コンピュータ自体では行われず、非常にかさばり、許しがたい、機械的故障が多い特化したタイプライターのような機械で行われていた。ソフトウエアインターフェースも、同様に、可能な限り最小のコンパイラと翻訳者によって、語法を解析するべき構文の意味が非常に制限されているという点で、許しがたいものであった。
カードをパンチすると、このカードをジョブキューに入れて、待つ。結局は、オペレータは、デッキをコンピュータに押し込んで、おそらく、別のデータセットまたはヘルパーソフトウエアを供給する磁気テープを装着する。このジョブは、最終結果あるいは(非常にしばしば)エラーログを付帯する中止通知を含むプリントアウトを行う。うまく稼動すると磁気テープに結果を書き込むこともでき、あるいは、後の計算に用いるデータカードを何枚か作ることができた。
一つのジョブにかかる所要時間は、しばしば数日にも及んだ。非常に運がよければ数時間ですむこともあったが、リアルタイムでの応答は前代未聞のことであった。しかし、カードキューよりひどいことがあった。いくつかのコンピュータでは、コンソールスイッチを用いてバイナリコードのプログラムをトグリングするというよりつまらない、エラーを発生しがちなプロセスが必要であった。
初期のバッチシステムは、コンピュータ全体に現在も稼動しているジョブを与えた。プログラムデッキとテープは、I/Oデバイスと会話するために現在我々がオペレーティングシステムコードと考えているものを持っていなくてはならず、その他のメンテナンスを必要とするものはなんでも行っていた。バッチ時代の中ごろである1957年以降は、いわゆる「ロード&実行」システムを使って様々なグループが実験を開始した。これらのシステムは、コンピュータ内に常にあるモニタープログラムを使用していた。プログラムはサービスとしてモニタをコールすることができた。モニタのもう一つの機能は、提供されたジョブについてより良好なエラーチェックを行い、より早くより賢明にエラーをキャッチして、ユーザにより使いやすいフィードバックを発生することであった。このように、モニタは、オペレーティングシステムと、明確に設計されたユーザインターフェースの両方に向けての第1ステップを代表するものであった。
コマンドラインインターフェース(CLIs)は、システムコンソールに接続されたバッチモニタから発達した。その相互作用モデルは、一連の応答を要求するトランスアクションであり、要求は、特定の語彙の中のテキストコマンドとして表わされていた。待ち時間はバッチシステムの待ち時間よりはるかに大きく、日または時間から秒へと下がった。従って、コマンドラインシステムによって、ユーザは、リアルタイムであるいはほぼリアルタイムで、前の結果に関するフィードバックに応答して、トランスアクション後のステージに対する考えを変えることができた。ソフトウエアは予備的なものであり、以前では不可能であった方法で相互作用した。しかしながら、これらのインターフェースはユーザに比較的重いニーモニック負荷を課し、マスターするのに一連の努力と学習時間を必要とした。
コマンドラインインターフェースは、タイムシェアリングコンピュータの台頭に非常に深く関係していた。タイムシェアリングデータの概念は1950年代に戻り、最も有力な初期の実験は、1965年以降のMULTICSオペレーティングシステムであり、今日のコマンドラインインターフェースに最も影響のあったものは、1969年以降のユニックス自体のオペレーティングシステムであり、これはその後生じたほとんどのシステムに影響を与えた。
初期のコマンドラインシステムは、テレタイプとコンピュータを組み合わせたものであり、人と人の間のワイヤを通じた情報転送の仲介に功を奏した成熟技術に適合したものであった。テレタイプはもともと、自動電信送受信用デバイスとして開発された。テレタイプの歴史は1902年にさかのぼり、1920年にはすでにニュースルームなどに定着していた。テレタイプを再利用するに当たっては、経済的事項を検討すべきであったが、心理学と驚き最小の法則も同様である。テレタイプは、多くのエンジニアやユーザに親しまれているシステムとのインターフェースポイントを提供した。
1970年半ばにビデオディスプレイターミナル(VDTs)が広く採用されたことで、コマンドラインシステムは第2期に入った。これらは、プリンタヘッドやキャリッジが移動するより速く、キャラクタをスクリーンの点状ドットに投影することができたため、待ち時間が更に短くなった。VDTsはコスト状況からインクや紙といった消耗品を削減することによって、双方向プログラミングに対する保守的な抵抗を抑え、1950年後半及び60年代の最初のTV世代に対して、1940年代のコンピュータパイオニアであったテレタイプより、より象徴的で心地の良いものであった。
アクセス可能なスクリーンの存在と同様に重要なことだが、ソフトウエア設計者が、迅速かつ可逆的に変形できるテキストの2次元ディスプレイが、テキストではなくビジュアルに記載できるインターフェースの展開させるのにコストがかからないようにした。この種のパイオニアであるアプリケーションは、コンピュータゲームとテキストエディタである。rogue(6)やvi(1)などの初期の例のいくつかに近い古い型のものは、いまだにユニックス様式の活電部である。
スクリーンビデオディスプレイは、まったく新規ではなく、1961年のPDP−1と同じように早期に、ミニコンピュータに登場していた。しかし、シリアルケーブルを介して取り付けたVDTsに移行するまでは、ことのほか高価なコンピュータがアドレス可能なディスプレイを一つだけそのコンソールにサポートすることができた。このような条件下では、ビジュアルUIの様式を開発することは困難であった。このようなインターフェースは、全てのコンピュータが少なくとも一時的に単一ユーザ専用に動くことができるというめったにない状況においてのみ生じる偶発的な出来事であった。
1962年以来我々が現在グラフィカルユーザインターフェースと呼んでいるものによる散発的な実験と、パイオニアであるPDP−1のSPACEWARゲームがあった。このマシーンのディスプレイは、単なるキャラクタターミナルではなく、ベクトルグラフィックスをサポートするために作られた変形オシロスコープであった。SPACEWARインターフェースは、主にトグルスイッチを使用するものだったが、初期の原型トラックボールを特徴付けるものでもあり、プレーヤ自身が特注していた。10年後の1970年代初期には、これらの実験がビデオゲーム産業を生み出し、これは実際にSPACEWARのアーケードバージョンを作成する試みと共に始まった。
PDP−1コンソールディスプレイは、20年早い第2次世界大戦のレーダー表示管から始まったものであり、マサチューセッツ工科大学(MIT)のリンカーン研究所におけるミニコンピュータの何人かのキーパイオニアが、かつてのレーダー技術者であったことを反映している。同じ1962年に大陸各地で、別のかつてのレーダー技術者が、Stanford Research Instituteで別の先駆者となり始めていた。彼の名前は、Doug Engelbartである。彼は、これらの非常に初期のグラフィカルディスプレイによる個人的な経験と、1945年に現在ハイパーテキストとよんでいるビジョンを与えたVannevar BushのゼミナールエッセイであるAs We May Thinkの両方から着想を得た。
1968年12月に、EngelbartとSRIの彼のチームは、最初のハイパーテキストシステムである、NLS/Augumentについて、90分間の公開デモンストレーションを行った。このデモンストレーションは、スリーボタンマウス(Engelbartの発明)と、マルチウインドインターフェースのグラフィカルディスプレイと、ハイパーリンクと、スクリーン上でのビデオコンファレンスの初公開を含むものであった。このデモは、1991年のWorld Wide Webの発明まで、および、この発明を含めて、4半世紀の間コンピュータサイエンス界に鳴り響いいたセンセーションであった。
このように、1960年初期には、グラフィカルプレゼンテーションが、ユーザを引き付けたことはすでによく理解されていた。マウスと同等のポインティングデバイスがすでに発明されており、1960年代後半の多くの大型汎用コンピュータは、PDP−1に匹敵するディスプレイ容量を有していた。著者の一人は、2004年現在購入するとすれば4千5百万ドル近くかかるであろうUnivac1108のコンソールで、1968年の非常に初期の別のビデオゲームをプレイすることについて鮮やかな記憶を有している。しかし、4千5百万ドルでは、対話形式画像の実際のカスタマはほんの数人でしかなかった。NLS/Augmentシステムのカスタムハードウエアはそれほど高価ではなかったが、それでも一般的な使用には手が出せないほど高かった。1万ドルであるPDP1ですらも、図形処理プログラミングの様式を設立するには高すぎるマシーンであった。
ビデオゲームはコンピュータより早く巨大マーケットデバイスとなった。なぜなら、ゲームは非常に安価で簡単なプロセッサで、ハードワイヤに組み込まれたプログラムを稼動するためである。しかし、汎用目的のコンピュータでは、オシロスコープディスプレイが進化の終端に来た。コンピュータとの通常のインタラクションに、グラフィカルな、ビジュアルインターフェースを使用する概念は、数年を待たなくては成らず、実際のところ1970年後半のシリアルラインキャラクターVDTの最新式グラフィックス可能なバージョンによって到来した。
1970年代の最も初期のPARCシステム以来、GUIsの設計は、AltoがさきがけとなったWIMP(Windows,icons,Mice,Pointer)モデルと呼ばれるようになったものによってほぼ完全に支配された。次の数十年にわたってコンピューティングとディスプレイハードウエアに大きな変化が生じたことを考えると、WIMPを超えて考えることは驚くほど困難である。
いくつかの試みがなされている。おそらく、最も際立った試みは、VR(バーチャルリアリティ)インターフェースである。このインターフェースではユーザは没入グラフィカル3−D環境を移動し、その中でジェスチュアする。VRは、1980年半ばから大きなリサーチコミュニティを引き付けた。これらをサポートする計算能力はもはや高価なものではないが、物理的なディスプレイデバイスは、VRに2004年における一般的な使用を超えた法外な値を付けている。より基本的な問題は、フライトシュミレータの設計者にはおなじみであるが、VRが人間固有の感覚システムを混乱させる方法であることである。むしろ普通の速度でのVRの動きが、脳が動きの視覚的シミュレーションを体の現実の世界の動きについての内示の報告と一致させようとするため、めまいや吐き気を引きおこすことがある。
Jef RaskinのTHE(The Humane Environment)プロジェクトは、GUIsのズームワールドモデルを調査したものであり、3Dに行くことなく空間化することを述べている。THIでは、スクリーンが2Dバーチャルワールドのウインドになり、そこでデータとプログラムが空間的位置によって組織化される。このワールドのオブジェクトは、基準面の上の高さに応じて細かな数種のレベルで表わすことができ、最もベーシックな選択動作は、ズームインとそこへの上陸である。
エール大学のLifestreamsプロジェクトは、実際、GUIを脱空間化させるといった、完全に反対の方向に進んでいる。ユーザのドキュメントは、修正日によって組織化されたある種のワールドラインあるいは一時的なストリームとして表わされ、様々な方法でフィルタにかけることができる。
これらの3つのアプローチはすべて、ものに名前を付けることや、参照の主な形式として名称を用いることを回避するようにしたコンテキストを支持して、従来のファイルシステムを切り捨てるものである。このことは、最も長続きしており有効な特徴の一つであると思われるユニックスのアーキテクチュアのファイルシステムと階層名前空間に、これらのアプローチを合致させるのを困難にしている。それにもかかわらず、これらの初期の実験の一つは、いまだに、NLS/AugmentのEngelbartの1968年のデモと同じゼミナールであることがわかる。
ユーザインターフェースの分野では、人−機械インターフェースの改善されたシステムと方法が求められている。
本発明の実施例によれば、3D人機械インターフェース(「3D HMI」)が提供されており、この3DHMIは、(1)画像取得アッセンブリ、(2)起動モジュール、(3)画像分割モジュール、(4)分割データ処理モジュール、(5)スコアリングモジュール、(6)投影モジュール、(7)適合モジュール、(8)スコアリング及びエラー検出モジュール、(9)回復モジュール、(10)三次元相関モジュール、(11)三次元骨格予測モジュール、及び(12)出力モジュール、とを具える。
本発明の実施例によれば、画像取得アセンブリは画像セットを取得するように構成することができ、ここで、実質的に各画像は異なる時点で使用される。本発明の更なる実施例では、この画像は、単一のユーザに関するもの、あるいは複数ユーザに関するものである。
本発明の実施例によれば、起動モジュールは、ユーザの(1)色、(2)器官パラメータ、環境、及びユーザに関連するその他のパラメータを検出して規定するように構成することができる。
本発明の実施例によれば、ユーザは人及び/又は動物及び/又はそのフレームに入る移動物体であってもよい。
本発明の実施例によれば、画像分割モジュールは、画像から分割したデータを抽出するように構成することができる。本発明の更なる実施例によれば、この分割したデータも:
・色
・動き
・エッジ検出
・テキスチュア
を具えていても良い。
本発明の実施例によれば、分割データ処理モジュールは、分割データを処理するように構成することができる。本発明の更なる実施例によれば、分割データは以下の方法で処理することができる:
・色−既知の色パラメータを用いて、要素及び/又は光の変化を検出する。例えば、皮膚の色を用いて手のひらと顔を検出する。
・動き−フレーム中の移動要素を検出する。
・背景の除去。
・エッジ検出−画像のエッジを検出する。
・テキスチュア−既知のテキスチュアパラメータを用いて要素を検出する。
本発明の実施例によれば、分割データ処理モジュールは、器官の相対的サイズの偏差に応じて、画像取得アッセンブリからの器官の距離の偏差を検出するように構成されている。
本発明の実施例によれば、スコアリングモジュールは、(1)処理済分割データを検査する、(2)処理済分割データの品質を予測する、およびこの品質に応じて、分割データのどの部分がHMIシステムによって使用するのに十分に信頼できるかを決定する、ように構成することができる。
本発明の実施例によれば、三次元骨格予測モジュールが、処理画像の最良の合致あるいは関係を有する三次元骨格の位置を予測するように構成することができる。
本発明の実施例によれば、三次元予測モジュールが、使用する骨格のタイプから得る制約、例えば、骨格が人間の指であるかどうか、骨格のヘッドが360度回転できるかどうか、といった制約を使用することができる。
本発明の更なる実施例によれば、三次元予測モジュールは、動的及び動作プロセスセットを用いて、三次元骨格の位置を予測することもできる。
本発明の実施例によれば、投影モジュールは、画像上に骨格を投影するように構成することができる。本発明の更なる実施例によれば、この投影を2次元平面に適用することができる。
本発明の実施例によれば、適合モジュールを投影した骨格に分割データを適合させるように構成することができる。本発明の更なる実施例によれば、適合モジュールは、分割データの部分を投影した骨格の部分に関連付けるように構成することができる。
本発明の実施例によれば、スコアリング及びエラー検出モジュールは、(1)分割データに関連付けた後処理した骨格を検査し、(2)前記骨格の適合品質を試験し、(3)骨格予測プログラムあるいは分割データの関連付けの間にエラーが発生したかどうかを決定する、ように構成することができる。
本発明の実施例によれば、回復モジュールは、検出したエラーから回復するように構成することができる。本発明の更なる実施例によれば、回復は、画像を再分割し、3D骨格移動歴をもちいて、正しい位置を再度予測し、3D骨格を再度投影して再度適合させる、多段処理層のプロセスであっても良い。回復モジュールは、画像情報が破損している場合、フレームをスキップするよう決定することもできる。
本発明の実施例によれば、三次元相関モジュールは、適合骨格の位置に応じて三次元骨格の位置を更新するように構成することができる。
本発明の更なる実施例によれば、前記更新プロセスは、適合骨格上の三次元3D骨格に関連し、3D骨格と適合骨格間を適合させ、3D骨格を適正な位置に更新する。
本発明に関する主題は、本明細書の最終部分に特に指摘されており、明確に請求されている。しかしながら、本発明は、組織と操作方法の両方に関するものであり、その対象、特徴、および利点とともに、添付する図面とともに以下の詳細な説明を参照して読むことによって最もよく理解されるであろう。
図1は、本発明の実施例によるシステムを記載したブロック図である。 図2は、本発明の実施例によるHMIシステムのステップを記載したフローチャートである。 図3は、本発明の実施例によるシステムを記載したブロック図である。 図4は、本発明の実施例によるHMIシステムのステップを記載したフローチャートである。 図5は、本発明の実施例によるシステムを記載したブロック図である。 図6は、本発明の実施例によるHMIシステムのステップを記載したフローチャートである。
図を単純かつ明確なものにするために、図面に示す要素はスケールどおりである必要はない。例えば、いくつかの要素の寸法は、明確にするために他の要素に対して誇張するようにしても良い。更に、対応するあるいは類似の要素を表示するに当たり、図面間で符号を繰り返し使用することがある。
以下の詳細な説明において、本発明を完全に理解できるようにするため、数値で特定して詳細を示すようにしている。しかしながら、当業者には、本発明がこれらの特定な詳細なしでも理解できることは明らかである。その他の場合、公知の方法、手順、構成要素および回路は、詳細には説明されていないが、本発明を不明瞭にしない程度には説明されている。
特に述べられていない限り、以下の説明から明らかなとおり、本明細書を通じて、「処理する」「コンピュータで計算する」「計算する」「決定する」などの用語を用いた説明は、コンピュータまたはコンピュータシステム、または、同様の電子コンピュータ装置の動作及び/又はプロセスを意味し、これは、コンピュータシステムのレジスタ及び/又はメモリ内の電子などの物理的量として表わされるデータを、コンピュータシステムのメモリ、レジスタあるいはその他の情報保存、転送あるいは表示する装置内の物理量として同様に表わされたその他のデータに、操作する及び/又は変形する。
本発明の実施例は、ここに述べる動作を実行する装置を含むものである。この装置は、所望の目的のために特別に構成されているか、あるいは、コンピュータに保存されているコンピュータプログラムによって選択的に達成されるあるいは再構築される、汎用目的のコンピュータを具えていても良い。このようなコンピュータプログラムは、限定するものではないが、フロッピィディスク、光ディスク、CD−ROM、光磁気ディスク、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、電子的にプログラム可能な読み取り専用メモリ(EPROM)、電子的に消去可能かつプログラム可能な読み取り専用メモリ(EEPROM)、磁気あるいは光カード、あるいは電子インストラクションの保存に適したその他の媒体、を含むあらゆるタイプのディスクなど、コンピュータで読み取り可能で、コンピュータシステムバスに接続可能なストレージ媒体に保存することができる。
本発明の実施例によれば、3D人機械インターフェース(3D HMI)が提供されており、この3D HMIは、(1)画像取得アッセンブリと、(2)起動モジュールと、(3)画像分割モジュールと、(4)分割データ処理モジュールと、(5)スコアリングモジュールと、(6)投影モジュールと、(7)適合モジュールと、(8)スコアリング及びエラー検出モジュールと、(9)回復モジュールと、(10)三次元相関モジュールと、(11)三次元骨格予測モジュールと、及び(12)出力モジュール、とを具える。
本発明の実施例によれば、画像取得アッセンブリは、画像セットを取得するように構成されており、このアッセンブリでは、各画像が実質的に異なる時点で使用される。本発明の更なる実施例では、画像は単独ユーザに関するものであっても良く、あるいは複数ユーザに関するものであっても良い。
本発明の実施例によれば、起動モジュールは、ユーザの(1)色、(2)組織パラメータ、環境、及びユーザに関連するその他のパラメータを検出して規定し、次のステップにおいて画像分割の最良の方法(スレッシュホールド、各画像分割についてのスコア、その他)を決定するように構成することができる。
本発明の実施例によれば、画像分割モジュールは、画像から分割データを抽出するように構成されている。本発明の更なる実施例によれば、この分割データは:
・色
・動き
・エッジ検出
・テキスチュア
を具えていても良い。
本発明の実施例によれば、分割画像処理モジュールは、分割データを処理するように構成されている。本発明の更なる実施例によれば、この分割データは:
・色−既知の色パラメータを用いて要素及び/又は光の変化を検出する。例えば、皮膚の色を用いて手のひらと顔を検出する。
・動き−フレーム中の移動する要素を検出する。
・背景の除去。
・エッジ検出−画像のエッジを検出する。
・テキスチュア−既知のテキスチュアパラメータを用いて要素を検出する。
といった方法で処理を行うことができる。
本発明の実施例によれば、スコアリングモジュールは、(1)処理した分割データを検証する、(2)処理した分割データの品質を予測する、そして、この品質に応じて(3)分割データのどの部分がHMIシステムによって使用するにたるほど信頼性があるかを決定する。
本発明の実施例によれば、三次元骨格予測モジュールは、処理画像に最も合致するあるいは最も関連性の高い三次元骨格の位置を予測するように構成することができる。
本発明の更なる実施例によれば、三次元予測モジュールは、使用した骨格のタイプから得た制限を使用することができる。例えば、骨格が人の形であれば、骨格のヘッドは360度回転することができない。
本発明の更なる実施例によれば、三次元予測モジュールは、動的かつ移動プロセスセットを用いて、三次元骨格の位置を予測することができる。
本発明の実施例によれば、投影モジュールは、画像上に骨格を投影するように構成することができる。本発明の更なる実施例によれば、この投影を二次元平面に適用することができる。
本発明の実施例によれば、適合モジュールは、分割データを投影した骨格に適合させるように構成することができる。本発明の更なる実施例によれば、適合モジュールは、分割データの部分を投影した骨格の部分に関連させるように構成することができる。
本発明の実施例によれば、スコアリング及びエラー検出モジュールは、(1)処理した骨格を分割データに関連付けた後、この骨格を試験して、(2)当該骨格の適合品質を評価して、(3)骨格予測プロセスまたは分割データの関連付けを行う間にエラーが生じたか否かを決定する、ように構成することができる。
本発明の実施例によれば、回復モジュールは、検出したエラーから回復するように構成することができる。本発明の更なる実施例によれば、この回復は層の処理、画像の再分割、3D骨格の移動歴を用いて正しい位置の予測、3D骨格の再適合といった複数のプロセスである。回復モジュールは、画像情報が破損した場合フレームをスキップするよう決定することもできる。
本発明の実施例によれば、三次元相関モジュールは、適合した骨格の位置に応じて三次元骨格の位置を更新するように構成することができる。
本発明の更なる実施例によれば、前記更新プロセスが3D骨格を適合した骨格上に関連付け、3D骨格と適合した骨格間を適合させ、3D骨格を正しい位置に更新する。
図1に戻ってこれを参照すると、本発明の実施例による例示的HMIシステムが示されており、このシステムは、このようなHMIシステムのステップを記載したフローチャートである図2に最もよく記載されている。
本発明の実施例によれば、図1は、3D人機械インターフェース(3D HMI)を示す図であり、この3D HMIは、(1)画像取得アッセンブリ1000と、(2)起動モジュール1100と、(3)画像分割モジュール1200と、(4)分割データ処理モジュール1300と、(5)スコアリングモジュール1400と、(6)投影モジュール1450と、(7)適合モジュール1500と、(8)スコアリング及びエラー検出モジュール1550と、(9)回復モジュール1600と、(10)三次元相関モジュール1700と、(11)三次元骨格予測モジュール1800と、(12)出力モジュール1900と、を具える。
本発明の実施例によれば、画像取得アッセンブリは、ステップ2000に記載のように、画像セットを取得するように構成されており、この画像セットの各画像は実質的に異なる時点で使用される。本発明の更なる実施例によれば、この画像は、単一のユーザまたは複数ユーザの画像である。
本発明の更なる実施例によれば、画像取得アッセンブリは、デジタルカメラと、ウェブカメラと、フィルムカメラと、ビデオカメラと、ウェブカメラと、デジタルビデオカメラと、アナログビデオカメラと、ステレオ−カメラ及び/又は今日知られているあるいは将来出てくるであろうその他のカメラを具えていても良い。
本発明の実施例によれば、システムが一またはそれ以上の画像を取得した後、システムが起動モジュール1100で実行される起動フェーズであるステップ2100に入る。起動モジュールは、ユーザの、(1)色、(2)組織パラメータ、(3)環境、及び、ユーザに関連するその他のパラメータを検出して規定するように構成されている。
本発明の実施例によれば、ステップ2200に示すように、システムは分割データを抽出するように構成されている。この分割データは、
・色
・動き
・エッジ検出
・テキスチュア
を具えていても良い。
本発明の更なる実施例によれば、画像分割モジュール1200は、この画像から分割データを抽出するように構成されている。
本発明の実施例によれば、ステップ2300に示すように、システムが分割データを処理するように構成されている。本発明の更なる実施例によれば、この分割データは:
・色−既知の色パラメータを用いて要素及び/又は光の変化を検出する。例えば、皮膚の色を用いて手のひらと顔を検出する。
・動き−フレーム中の移動する要素を検出する。
・背景の除去。
・エッジ検出−画像のエッジを検出する。
・テキスチュア−既知のテキスチュアパラメータを用いて要素を検出する。
といった方法で処理を行うことができる。
本発明の更なる実施例によれば、分割データ処理モジュール1300は、分割データを処理するように構成されている。
本発明の実施例によれば、このシステムは、ステップ2400に示すように、分割データの品質を評価するように構成されており、この評価は、(1)処理した分割データを検査するステップ、(2)処理した分割データの品質を予測するステップ、及び、この予測した品質によって(3)分割データのどの部分がHMIシステムによって使用するのに十分に信頼性があるかどうかを決定するステップ、とによって行われる。
本発明の更なる実施例によれば、スコアリングモジュール1400は、分割した情報の品質を評価するように構成されている。
本発明の更なる実施例によれば、このシステムは、ステップ2800に示すように、三次元骨格の位置を予測するように構成されており、この位置は、処理した画像に最も合致するあるいは処理した画像と相関する。本発明の更なる実施例によれば、この予測は、使用した骨格のタイプから取り出した制限を用いてより正確に行われる。制限は、例えば、骨格が人の形であれば、骨格の頭部は、肩の動きなしでは360度回転することができないといったものである。
本発明の実施例によれば、予測シーケンスは動的な動きプロセス、その他のセットを使用することができる。
本発明の実施例によれば、三次元骨格予測モジュール1800は、三次元骨格の位置を予測するように構成されている。
本発明の実施例によれば、このシステムは、更に、ステップ2450に示すように、画像上に骨格を投影するように構成することができる。本発明の更なる実施例によれば、この投影は、2次元平面に適用することができる。
本発明の実施例によれば、この投影モジュール2450は、画像上に骨格を投影するように構成することができる。
本発明の実施例によれば、このシステムは更に、ステップ2500に示すように、投影した骨格を用いて、分割データを適合させるように構成することができる。本発明の更なる実施例によれば、この適合プロセスは、投影した骨格の部分と分割データの部分とを関連づけるステップを具えていても良い。
本発明の実施例によれば、分割データの適合ステップが、抽出した分割データを現在の骨格パラメータと関連づけるステップを具えており、この現在の骨格パラメータは、抽出した分割データの関連する部分を支持する。
本発明の更なる実施例によれば、この処理の結果が「適合した骨格」である。
本発明の更なる実施例によれば、適合モジュール2500は、分割データを投影した骨格に関連づけるように構成されている。
本発明の実施例によれば、このシステムは更にステップ2550に示すように、適合した骨格にスコアをつけて、エラーを検出するように構成されている。本発明の実施例によれば、スコアを付けてエラーを検出するステップは、(1)適合した骨格を検査するステップと、(2)この骨格の適合品質を評価するステップと、(3)骨格予測プロセスあるいは分割データの関連づけを行う間にエラーが生じたかどうかを決定するステップと、を具える。
本発明の実施例によれば、このスコアリング及びエラー検出モジュール1550は、スコアを付けてエラーを検出するように構成されている。
本発明の実施例によれば、ステップ2550においてエラーが検出されると、ステップ2600に示すようにシステムが回復フェーズに入る。この回復プロセスは、複数の処理層でなるプロセスである。
本発明の実施例によれば、回復フェーズは、画像の再分割ステップ、3D骨格位置の再予測、拡張エフォートを用いた骨格の再投影及び再適合ステップを具える。本発明の更なる実施例によれば、この拡張モジュールは、画像情報が壊れている場合一又はそれ以上のフレームをスキップするよう決定することができる。
本発明の実施例によれば、回復を行う間にシステムは、そのフレームに対象のトラッキングがないことを検出するよう構成されている。本発明の更なる実施例によれば、システムは、対象がそのフレームに戻るまで一またはそれ以上のフレームをスキップするよう構成することができる。
本発明の更なる実施例によれば、回復フェーズは、起動ステップにシステムを戻すことができる。
本発明の実施例によれば、回復モジュール2600は、回復プロセスを実行するように構成されている。
本発明の実施例によれば、ステップ2550の間にエラーが検出されなければ、システムは、ステップ2700に示すように、適合骨格の位置に応じて三次元骨格の位置を更新するように構成することができる。本発明の更なる実施例によれば、更新プロセスは、(1)適合骨格の上に3D骨格を投影するステップと、(2)3D骨格を適合骨格に関連付けるステップと、(3)3D骨格の位置を更新するステップと、を具える。
本発明の実施例によれば、三次元相関モジュール1700は、三次元骨格の位置を更新するように構成することができる。
本発明の実施例によれば、三次元相関モジュール1700と骨格予測モジュール1800は、本出願と同じ譲受人に譲渡された、2005年7月31日に出願されたPCT出願、PCT/IL2005/000813号に記載のアルゴリズムとプロセスのいくつかあるいは全てを用いることができる。
図3を参照すると、本発明の実施例による例示的HMIシステムが示されている。このシステムは、HMIシステムのステップを記載したフローチャートが示されている図4に関連付けて最もよく述べられている。
本発明の実施例によれば、図3は、3D人機械インターフェース(3D HMI)を示すものであり、この3D HMIは、(1)Zlens画像取得アッセンブリ3000と、(2)起動モジュール3100と、(3)画像分割モジュール3200と、(4)分割データ処理モジュール3300と、(5)適合モジュール3500と、(6)スコアリングモジュール3550と、(7)三次元相関モジュール3700と、(8)出力モジュール3900と、を具えている。
本発明の実施例によれば、Zlens取得アッセンブリは、ステップ4000に見られるように、画像セットを取得するように構成されており、各画像は実質的に異なる時間に使用している。本発明の更なる実施例によれば、画像は単一のユーザあるいは複数ユーザのものでも良い。
本発明の実施例によれば、Zlens取得アッセンブリは、例えば、図1の要素1000である、別の画像取得アッセンブリに乗せるようにしても良い。
本発明の更なる実施例によれば、Zlens取得アッセンブリ(3000)は、本出願と同じ譲受人に譲渡された、2006年10月31日に出願された、PCT/IL2006/001254号と、本出願と同じ譲受人に譲渡された、2005年10月31日に出願された米国特許出願60/731,274号とに関連して最もよく述べられている。
本発明の実施例によれば、システムは更に、ステップ4100に示すように起動モジュール3100によって実行される起動フェーズに入るように構成されている。この起動モジュールは、(1)色、(2)器官パラメータ、環境、及び(3)ユーザに関連するその他のパラメータを検出して規定するように構成することができる。
本発明の実施例によれば、システムは、ステップ4200に示すように、分割データを抽出するように構成することができ、この分割データは:
・色
・動き
・エッジ検出
・テキスチュア
を具える。
本発明の更なる実施例によれば、画像分割モジュール3200は、画像から分割データを抽出するように構成されている。
本発明の実施例によれば、このシステムは、ステップ4300に示すように分割データを処理するように構成されている。本発明の更なる実施例によれば、分割データは以下のように処理される:
・色−既知の色のパラメータを用いて、要素及び/又は光の変化を検出する。例えば、皮膚の色を用いて手のひら及び顔を検出する。
・動き−フレーム中の移動要素を検出する。
・背景の除去。
・エッジ検出−各器官の輪郭を検出する。
・テキスチュア−既知のテキスチュアパラメータを用いて要素を検出する。
本発明の更なる実施例によれば、分割データ処理モジュール3300は、分割データを処理するように構成されている。
本発明の実施例によれば、本システムは更に、ステップ4500に示すように、抽出した分割データの部分を取得した画像に適合させるように構成することができる。本発明の更なる実施例によれば、この適合プロセスは、抽出した分割データの部分を、取得した画像の専用領域に関連付けるステップを具えていても良い。
本発明の更なる実施例によれば、この専用領域は、システム中に保存する、あるいは起動フェーズ中に決定することができる。本発明の更なる実施例によれば、この専用領域は、ユーザの特定の器官(手、頭、足)であっても良く、あるいはステップ3000で取得できるその他の要素であってもよい。
本発明の更なる実施例によれば、適合プロセスは、抽出した分割データが、専用領域に関連するパラメータを決定したかどうかを試験するステップを具えていても良い。
本発明の更なる実施例において、適合モジュール3500は、分割データの部分を取得した画像に関連付けるように構成することができる。
本発明の更なる実施例によれば、このプロセスの出力が「適合画像」である。
本発明の実施例によれば、このシステムは、更に、ステップ4550に示すように、適合分割データの品質を評価するように構成することができる。本発明の実施例によれば、適合分割データの品質を評価するステップは、(1)処理した分割データを検査するステップと、(2)処理した分割データの品質を予測するステップと、この予測した品質によって(3)分割データのどの部分がHMIシステムによって使用するのに十分に信頼性があるかを決定するステップと、(4)適合イメージを検査するステップと、(5)この画像の適合品質を評価するステップと、(6)分割データの関連付けを行う間にエラーが生じたかどうかを決定するステップと、を具える。
本発明の実施例によれば、スコアリングモジュール3550は、適合分割データの品質を評価するように構成されている。
本発明の更なる実施例によれば、このシステムはエラー検出メカニズムと、上述したとおりの回復メカニズムを具える。
本発明の実施例によれば、このシステムは、ステップ4700に示すように、Zlens画像取得アッセンブリを用いて、適合画像と深度マップの外挿によって三次元身体の位置を更新するように構成することができる。本発明の更なる実施例によれば、この更新プロセスは、抽出した深度マップを、抽出した分割データに関連付けるステップと、出力モデルの三次元身体の位置を更新するステップと、を具える。
本発明の実施例によれば、三次元相関モジュール3700は、三次元身体の位置を更新するように構成されている。
本発明の実施例によれば、三次元相関モジュール3700と、Zlens画像取得アッセンブリ3000の機能性、特に、Zlens装置を用いて取得した画像が、本出願と同じ譲受人に譲渡された、2006年10月31日に出願された、PCT/IL2006/001254号と、本出願と同じ譲受人に譲渡された、2005年10月31日に出願された米国特許出願60/731,274号とに関連して最もよく述べられている。
図5を参照すると、本発明の実施例による例示的HMIシステムが示されており、このシステムは、HMIシステムのステップを記載したフローチャートである図6に関連して最もよく述べられている。
本発明の実施例によれば、図5は、3D人機械インターフェース(3D HMI)を示す図であり、この3D HMIは、(1)Zlens取得アッセンブリ5000と、(2)起動モジュール5100と、(3)画像分割モジュール5200と、(4)分割データ処理モジュール5300と、(5)スコアリングモジュール5400と、(6)投影モジュール5450と、(7)適合モジュール5500と、(8)スコアリング及びエラー検出モジュール5550と、(9)回復モジュール5600と、(10)三次元相関モジュール5700と、(11)三次元骨格予測モジュール5800と、(12)出力モジュール5900と、選択的に(13)深度抽出モジュール5050と、を具えている。
本発明の実施例によれば、Zlens取得アッセンブリは、ステップ6000に見られるように、画像セットを取得するように構成されており、各画像は実質的に異なる時間で使用されている。本発明の更なる実施例によれば、画像は単一のユーザあるいは複数ユーザのものでも良い。
本発明の実施例によれば、Zlens取得アッセンブリは、例えば、図1の要素1000である、別の画像取得アッセンブリ上に乗せるようにしても良い。
本発明の更なる実施例によれば、Zlens取得アッセンブリ(5000)は、本出願と同じ譲受人に譲渡された、2006年10月31日に出願された、PCT/IL2006/001254号と、本出願と同じ譲受人に譲渡された、2005年10月31日に出願された米国特許出願60/731,274号とに関連して最もよく述べられている。
本発明の実施例によれば、システムが一またはそれ以上の画像を取得した後、システムは更に、起動モジュール5100によって実行される起動フェーズステップ6100に入るように構成されている。この起動モジュールは、(1)色、(2)器官パラメータ、(3)環境、及びユーザに関連するその他のパラメータを検出して規定するように構成することができる。
本発明の実施例によれば、システムは、ステップ6200に示すように、分割データを抽出するように構成することができ、この分割データは:
・色
・動き
・エッジ検出
・テキスチュア
を具える。
本発明の更なる実施例によれば、画像分割モジュール5200は、画像から分割データを抽出するように構成されている。
本発明の実施例によれば、このシステムは、ステップ6300に示すように分割データを処理するように構成されている。本発明の更なる実施例によれば、分割データは以下のように処理される:
・色−既知の色のパラメータを用いて、要素及び/又は光の変化を検出する。例えば、皮膚の色を用いて手のひら及び顔を検出する。
・動き−フレーム中の移動要素を検出する。
・背景の除去。
・エッジ検出−各器官の輪郭を検出する。
・テキスチュア−既知のテキスチュアパラメータを用いて要素を検出する。
本発明の更なる実施例によれば、分割データ処理モジュール5300は、分割データを処理するように構成されている。
本発明の実施例によれば、このシステムは、ステップ6400に示すように、分割データの品質を評価するように構成することができる。この評価は、(1)処理した分割データを検査するステップと、(2)処理した分割データの品質を予測するステップと、この予測した品質によって(3)分割データのどの部分がHMIシステムによって使用するのに十分に信頼性があるかを決定するステップと、を具える。
本発明の実施例によれば、スコアリングモジュール5400は、分割情報の品質を評価するように構成されている。
本発明の更なる実施例によれば、このシステムは、ステップ6800に示すように、処理した画像に最も合致するあるいは処理した画像と相関する三次元骨格の位置を予測するように構成されている。本発明の更なる実施例によれば、この予測は、使用した骨格のタイプから取り出した制限を用いてより正確に行われる。制限は、例えば、骨格が人の形であれば、骨格の頭部は、肩の動きなしでは360度回転することができないといったものである。
本発明の実施例によれば、予測シーケンスは動的な動きプロセスのセットを使用することができる。
本発明の実施例によれば、三次元骨格予測モジュール5800は、三次元骨格の位置を予測するように構成されている。
本発明の更なる実施例によれば、このシステムは更に、ステップ6050に示すように、Zlens取得アッセンブリを用いて、深度を抽出するように構成することができる。このZlens取得アッセンブリは、本出願と同じ譲受人に譲渡された、2006年10月31日に出願された、PCT/IL2006/001254号と、本出願と同じ譲受人に譲渡された、2005年10月31日に出願された米国特許出願60/731,274号とに記載されている。
本発明の実施例によれば、深度抽出モジュール5050は、取得画像から深度を抽出するように構成されている。
本発明の実施例によれば、システムは更に、ステップ6450に示すように画像上に骨格を投影するように構成することができる。本発明の更なる実施例によれば、この投影を2次元平面に適用することができる。
本発明の更なる実施例によれば、モジュール5050を用いる場合は、この投影を三次元平面に適用することができる。
本発明の実施例によれば、この投影は三次元平面及び/又は三次元点群の上にあってもよい。
本発明の実施例によれば、投影モジュール6450は、骨格を画像上に投影するように構成することができる。
本発明の実施例によれば、このシステムは更に、ステップ6500に示すように、分割データを投影した骨格に適合させるように構成することができる。本発明の更なる実施例によれば、この適合プロセスは、分割データの部分の投影した骨格の部分への関連付けを具えていても良い。
本発明の実施例によれば、分割データの適合ステップが、抽出した分割データを現在の骨格パラメータと関連づけるステップを具えており、現在の骨格パラメータは、抽出した分割データの関連する部分を支持するパラメータである。
本発明の更なる実施例によれば、この処理の結果が「適合骨格」である。
本発明の更なる実施例によれば、適合モジュール5500は、分割データを投影した骨格に関連づけるように構成されている。
本発明の実施例によれば、このシステムは更にステップ6550に示すように、適合した骨格にスコアをつけて、エラーを検出するように構成されている。本発明の実施例によれば、スコアを付けてエラーを検出するステップは、(1)適合した骨格を検査するステップと、(2)この骨格の適合品質を評価するステップと、(3)骨格予測プロセスあるいは分割データの関連づけを行う間にエラーが生じたかどうかを決定するステップと、を具える。
本発明の実施例によれば、このスコアリング及びエラー検出モジュール5550は、スコアを付けてエラーを検出するように構成されている。
本発明の実施例によれば、ステップ6550においてエラーが検出されると、ステップ6600に示すようにシステムが回復フェーズに入る。この回復プロセスは、複数の処理層からなるプロセスである。
本発明の実施例によれば、回復フェーズは、画像の再分割ステップ、3D骨格位置の再予測、拡張エフォートを用いた骨格の再投影及び再適合ステップを具える。本発明の更なる実施例によれば、この回復モジュールは、画像情報が壊れている場合一又はそれ以上のフレームをスキップするよう決定することができる。
本発明の実施例によれば、回復を行う間システムは、そのフレームに対象のトラッキングがないことを検出するよう構成されている。本発明の更なる実施例によれば、システムは、対象がそのフレームに戻るまで一またはそれ以上のフレームをスキップするよう構成することができる。
本発明の実施例によれば、回復フレーズは、システムを起動ステップに戻すことができる。
本発明の実施例によれば、回復モジュール5600は、回復プロセスを実行するように構成されている。
本発明の実施例によれば、ステップ6550の間にエラーが検出されなければ、システムは、ステップ6700に示すように、適合骨格の位置に応じて三次元骨格の位置を更新するように構成することができる。本発明の更なる実施例によれば、この更新プロセスは、(1)適合骨格の上に3D骨格を投影するステップと、(2)三次元骨格を適合骨格に関連付けるステップと、(3)Zlensアッセンブリを用いて深度を抽出するステップと、(4)三次元骨格を深度パラメータに関連付けるステップと、(5)3D骨格の位置を更新するステップと、を具える。
本発明の実施例によれば、三次元相関モジュール5700は、三次元骨格の位置を更新するように構成することができる。
本発明の実施例によれば、三次元相関モジュール5700と骨格予測モジュール5800は、本出願と同じ譲受人に譲渡された、2005年7月31日に出願されたPCT出願、PCT/IL2005/000813号に記載のアルゴリズムとプロセスのいくつかあるいは全てを用いることができる。
本発明の実施例によれば、(1)三次元相関モジュール5700と、(2)Zlens画像取得アッセンブリ5000と、(3)深度抽出モジュール5050と、の機能性、(4)特に、Zlens装置を用いて取得した画像からの深度の外挿が、本出願と同じ譲受人に譲渡された、2006年10月31日に出願された、PCT/IL2006/001254号と、本出願と同じ譲受人に譲渡された、2005年10月31日に出願された米国特許出願60/731,274号とに関連して最もよく述べられている。
本発明の実施例によれば、上述したシステムは、外部ソースから、深度画像及び/又は3D画像を受け取るように構成することができる。本発明の更なる実施例によれば、深度画像及び/又は三次元画像をシステムから受け取る場合、このシステムは関連モジュール内のそのパラメータを抽出するように構成される。
ここに提示したプロセスとディスプレイは、本質的に、特別なコンピュータあるいはその他の装置に関連するものではない。様々な汎用システムを、ここにある教示によってプログラムと共に用いることができるし、また、所望の方法を実行するためにより特殊化した装置を都合よく構成できることがわかる。これらの様々なシステムの所望の構造は、以下の記載から明らかである。更に、本発明の実施例は、特定にプログラム言語について記載されているものではない。様々なプログラム言語を用いてここに述べた発明の教示を実装することができる。当業者には、ここに記載した発明があらゆる種類の無線あるいは有線システムに使用できることが自明である。
本発明のある特徴を図に示して説明したが、多くの変形、差し替え、変更、及び均等物が当業者に生じる。従って、特許請求の範囲は、本発明の真なる精神に合致する限り、これらの変形や変更を含むことを意図している。

Claims (20)

  1. 3D人機械インターフェースにおいて:
    ユーザの二次元画像セットを取得するように構成した画像取得アッセンブリであって、実質的に、各画像が異なる時間に使用される、画像取得アッセンブリと;
    テンプレートボディの三次元データモデルを、前記画像取得アッセンブリによって取得した一又はそれ以上の画像から外挿したデータセットに相関させることによって、一又はそれ以上の予測したユーザボディ座標を取り出すように構成した処理ユニットと;
    を具えることを特徴とする3D人機械インターフェース。
  2. 請求項1に記載の3D人機械インターフェースが更に、起動モジュール、画像分割モジュール、分割データ処理モジュール、スコアリングモジュール、深度抽出モジュール、投影モジュール、適合モジュール、スコアリング及びエラー検出モジュール、回復モジュール、三次元骨格予測モジュール、三次元相関モジュール、及び出力モジュールからなる群から選択された一またはそれ以上のモジュールを具えることを特徴とする3D人機械インターフェース。
  3. 請求項2に記載の3D人機械インターフェースにおいて、前記画像分割モジュールが、前記画像から分割データを抽出するように構成されていることを特徴とする3D人機械インターフェース。
  4. 請求項3に記載の3D人機械インターフェースにおいて、前記分割データが、色、動き、サイズ、エッジ検出、及びテキスチュアからなる群から選択されたパラメータからなることを特徴とする3D人機械インターフェース。
  5. 請求項3に記載の3D人機械インターフェースにおいて、前記分割データ処理モジュールが、前記分割データを処理するように構成されていることを特徴とする3D人機械インターフェース。
  6. 請求項5に記載の3D人機械インターフェースにおいて、前記スコアリングモジュールが、前記処理を行った分割データの品質を評価するように構成されていることを特徴とする3D人機械インターフェース。
  7. 請求項2に記載の3D人機械インターフェースにおいて、前記三次元骨格予測モジュールが、前記三次元骨格の位置を予測するように構成されていることを特徴とする3D人機械インターフェース。
  8. 請求項2に記載の3D人機械インターフェースにおいて、前記投影モジュールが、前記三次元骨格を前記取得画像の上に投影するように構成されていることを特徴とする3D人機械インターフェース。
  9. 請求項8に記載の3D人機械インターフェースにおいて、前記三次元骨格の投影を二次元平面に適用することを特徴とする3D人機械インターフェース。
  10. 請求項2に記載の3D人機械インターフェースにおいて、前記適合モジュールが、抽出した分割データの部分を投影した骨格に関連付けるように構成されていることを特徴とする3D人機械インターフェース。
  11. 請求項2に記載の3D人機械インターフェースにおいて、前記三次元相関モジュールが、三次元骨格の位置を更新するように構成されていることを特徴とする3D人機械インターフェース。
  12. 請求項1に記載の3D人機械インターフェースにおいて、前記画像取得アッセンブリが、フィルムカメラ、ウェブカメラ、デジタルビデオカメラ、アナログビデオカメラ、及びステレオカメラからなる群から選択されることを特徴とする3D人機械インターフェース。
  13. 3D人機械インターフェースにおいて:
    二次元画像セットから一又はそれ以上の予測したユーザ身体座標を取り出すように構成された処理ユニットと;
    二又はそれ以上の光路を用いて一又はそれ以上の二次元画像データセットを取得するように構成された画像取得アッセンブリであって、前記各光路が、レンズ、ミラー、及びダイヤフラム構造体を具え、各光路が共通の投影平面から二次元光画像情報を回収するように構成されている、画像取得アッセンブリと;
    を具えることを特徴とする3D人機械インターフェース。
  14. 請求項13に記載の3D人機械インターフェースが更に、起動モジュール、画像分割モジュール、分割データ処理モジュール、適合モジュール、スコアリング及びエラー検出モジュール、深度抽出モジュール、回復モジュール、三次元相関モジュール、及び出力モジュールからなる群から選択された一またはそれ以上のモジュールを具えることを特徴とする3D人機械インターフェース。
  15. 請求項14に記載の3D人機械インターフェースにおいて、前記画像分割モジュールが、前記画像から分割データを抽出するように構成されていることを特徴とする3D人機械インターフェース。
  16. 請求項15に記載の3D人機械インターフェースにおいて、前記分割データが、色、動き、サイズ、エッジ検出、及びテキスチュアからなる群から選択されたパラメータからなることを特徴とする3D人機械インターフェース。
  17. 請求項15に記載の3D人機械インターフェースにおいて、前記分割データ処理モジュールが、前記分割データを処理するように構成されていることを特徴とする3D人機械インターフェース。
  18. 請求項14に記載の3D人機械インターフェースにおいて、前記適合モジュールが、抽出した分割データの部分を取得画像に関連付けるように構成されていることを特徴とする3D人機械インターフェース。
  19. 請求項14に記載の3D人機械インターフェースにおいて、前記三次元相関モジュールが、三次元身体の位置を更新するように構成されていることを特徴とする3D人機械インターフェース。
  20. 請求項13に記載の3D人機械インターフェースにおいて、前記画像取得アッセンブリが、Zlensアッセンブリであることを特徴とする3D人機械インターフェース。
JP2010502633A 2007-04-15 2007-04-15 人−機械インターフェース装置システム及び方法 Expired - Fee Related JP5147933B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IL2007/000475 WO2008126069A2 (en) 2007-04-15 2007-04-15 An apparatus system and method for human-machine-interface

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012218525A Division JP5620449B2 (ja) 2012-09-28 2012-09-28 人−機械インターフェース装置システム及び方法

Publications (2)

Publication Number Publication Date
JP2010524113A true JP2010524113A (ja) 2010-07-15
JP5147933B2 JP5147933B2 (ja) 2013-02-20

Family

ID=39864447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010502633A Expired - Fee Related JP5147933B2 (ja) 2007-04-15 2007-04-15 人−機械インターフェース装置システム及び方法

Country Status (6)

Country Link
EP (1) EP2147393A4 (ja)
JP (1) JP5147933B2 (ja)
KR (1) KR101379074B1 (ja)
CA (1) CA2684020C (ja)
IL (1) IL201514A (ja)
WO (1) WO2008126069A2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8872899B2 (en) 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
JP4904264B2 (ja) 2004-07-30 2012-03-28 エクストリーム リアリティー エルティーディー. 3d空間次元に基づく画像処理のためのシステムおよび方法
WO2011033519A1 (en) 2009-09-21 2011-03-24 Extreme Reality Ltd. Methods circuits apparatus and systems for human machine interfacing with an electronic appliance
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US20070285554A1 (en) 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
KR20140030138A (ko) 2011-01-23 2014-03-11 익스트림 리얼리티 엘티디. 입체 화상 및 비디오를 생성하는 방법, 시스템, 장치 및 관련 프로세스 로직
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US8934675B2 (en) 2012-06-25 2015-01-13 Aquifi, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
US9298266B2 (en) 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
US9507417B2 (en) 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
CN108144292A (zh) * 2018-01-30 2018-06-12 河南三阳光电有限公司 裸眼3d互动游戏制作设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1186004A (ja) * 1997-09-11 1999-03-30 Fujitsu Ltd 移動体追跡装置
JP2001101419A (ja) * 1999-07-27 2001-04-13 Matsushita Electric Works Ltd 画像特徴追跡処理方法、画像特徴追跡処理装置、3次元データ作成方法
JP2001236505A (ja) * 2000-02-22 2001-08-31 Atsushi Kuroda 座標推定方法、座標推定装置および座標推定システム
JP2002259474A (ja) * 2001-03-05 2002-09-13 Oojisu Soken:Kk 人体モデル生成方法、人体モデル生成装置、コンピュータプログラム及び記録媒体
JP2003256850A (ja) * 2001-12-27 2003-09-12 Sanyo Electric Co Ltd 動き認識装置および画像処理装置並びにプログラム
WO2004094943A1 (ja) * 2003-04-22 2004-11-04 Hiroshi Arisawa モーションキャプチャ方法、モーションキャプチャ装置、及びモーションキャプチャ用マーカ
JP2005202653A (ja) * 2004-01-15 2005-07-28 Canon Inc 動作認識装置及び方法、動物体認識装置及び方法、機器制御装置及び方法、並びにプログラム
WO2006099597A2 (en) * 2005-03-17 2006-09-21 Honda Motor Co., Ltd. Pose estimation based on critical point analysis

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6833843B2 (en) * 2001-12-03 2004-12-21 Tempest Microsystems Panoramic imaging and display system with canonical magnifier
US9177387B2 (en) * 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
JP4904264B2 (ja) * 2004-07-30 2012-03-28 エクストリーム リアリティー エルティーディー. 3d空間次元に基づく画像処理のためのシステムおよび方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1186004A (ja) * 1997-09-11 1999-03-30 Fujitsu Ltd 移動体追跡装置
JP2001101419A (ja) * 1999-07-27 2001-04-13 Matsushita Electric Works Ltd 画像特徴追跡処理方法、画像特徴追跡処理装置、3次元データ作成方法
JP2001236505A (ja) * 2000-02-22 2001-08-31 Atsushi Kuroda 座標推定方法、座標推定装置および座標推定システム
JP2002259474A (ja) * 2001-03-05 2002-09-13 Oojisu Soken:Kk 人体モデル生成方法、人体モデル生成装置、コンピュータプログラム及び記録媒体
JP2003256850A (ja) * 2001-12-27 2003-09-12 Sanyo Electric Co Ltd 動き認識装置および画像処理装置並びにプログラム
WO2004094943A1 (ja) * 2003-04-22 2004-11-04 Hiroshi Arisawa モーションキャプチャ方法、モーションキャプチャ装置、及びモーションキャプチャ用マーカ
JP2005202653A (ja) * 2004-01-15 2005-07-28 Canon Inc 動作認識装置及び方法、動物体認識装置及び方法、機器制御装置及び方法、並びにプログラム
WO2006099597A2 (en) * 2005-03-17 2006-09-21 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
JP2008537815A (ja) * 2005-03-17 2008-09-25 本田技研工業株式会社 クリティカルポイント解析に基づくポーズ推定

Also Published As

Publication number Publication date
IL201514A0 (en) 2010-05-31
JP5147933B2 (ja) 2013-02-20
WO2008126069A3 (en) 2009-04-23
EP2147393A4 (en) 2012-12-05
EP2147393A2 (en) 2010-01-27
KR20100016240A (ko) 2010-02-12
WO2008126069A2 (en) 2008-10-23
IL201514A (en) 2015-02-26
CA2684020C (en) 2016-08-09
CA2684020A1 (en) 2008-10-23
KR101379074B1 (ko) 2014-03-28

Similar Documents

Publication Publication Date Title
JP5147933B2 (ja) 人−機械インターフェース装置システム及び方法
JP5599400B2 (ja) 画像センサベースのヒューマンマシンインタフェースを提供する方法システムおよびソフトウェア
US8432390B2 (en) Apparatus system and method for human-machine interface
EP3639117B1 (en) Hover-based user-interactions with virtual objects within immersive environments
WO2007053116A1 (en) Virtual interface system
JP2014501413A (ja) ジェスチャ認識のためのユーザ・インタフェース、装置および方法
CN112684970A (zh) 虚拟场景的适配显示方法、装置、电子设备及存储介质
CN105247463B (zh) 增强的画布环境
CN111190826A (zh) 一种虚拟现实沉浸式追踪环境的测试方法、装置、存储介质及设备
JPWO2015170641A1 (ja) 操作画面表示装置、操作画面表示方法およびプログラム
CN106681506A (zh) 一种终端设备中非vr应用的交互方法及终端设备
JP5620449B2 (ja) 人−機械インターフェース装置システム及び方法
US8681100B2 (en) Apparatus system and method for human-machine-interface
CN108885556A (zh) 控制数字输入
CN114167997B (zh) 一种模型显示方法、装置、设备和存储介质
Liu et al. COMTIS: Customizable touchless interaction system for large screen visualization
CN114327063A (zh) 目标虚拟对象的交互方法、装置、电子设备及存储介质
CN117193540B (zh) 虚拟键盘的控制方法和系统
Lee et al. iSphere: a free-hand 3D modeling interface
Lee et al. iSphere: A proximity-based 3D input interface
JP7345387B2 (ja) 触感提示システム、触感提示システムのローカル端末およびサーバ装置ならびに触感提示方法および触感提示プログラム
US20230196725A1 (en) Image annotation system and method
Wesson et al. Evaluating organic 3D sculpting using natural user interfaces with the Kinect
Ihara et al. AR Object Layout Method Using Miniature Room Generated from Depth Data.
CN117170505A (zh) 虚拟键盘的控制方法和系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110614

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110914

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110922

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111014

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111021

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111114

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111121

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20111209

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120928

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20121009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121127

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151207

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees