JP2013175242A - 画像センサベースのヒューマンマシンインタフェースを提供する方法システムおよびソフトウェア - Google Patents

画像センサベースのヒューマンマシンインタフェースを提供する方法システムおよびソフトウェア Download PDF

Info

Publication number
JP2013175242A
JP2013175242A JP2013121910A JP2013121910A JP2013175242A JP 2013175242 A JP2013175242 A JP 2013175242A JP 2013121910 A JP2013121910 A JP 2013121910A JP 2013121910 A JP2013121910 A JP 2013121910A JP 2013175242 A JP2013175242 A JP 2013175242A
Authority
JP
Japan
Prior art keywords
application
mapping table
captured
mapping
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013121910A
Other languages
English (en)
Inventor
Givon Dor
ギヴォン,ドール
Sadka Ofer
サドカ,オフェル
Kottel Ilya
コテル,イリヤ
Bunimovich Igor
ブニモヴィッチ,イゴール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Extreme Reality Ltd
Original Assignee
Extreme Reality Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Extreme Reality Ltd filed Critical Extreme Reality Ltd
Publication of JP2013175242A publication Critical patent/JP2013175242A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】画像センサベースのヒューマンマシンインタフェースを提供する。
【解決手段】各入力信号の種類が、それぞれキャプチャされた動作の種類に関連付けられており、動作の種類の選択肢のうちのキャプチャされた動作を、入力信号の選択肢のうちの一つの入力信号に変換する入力信号生成モジュールと、少なくとも一つの入力信号の種類を、ユーザによって指定されたコマンドに関連付ける構成プロファイルを生成するプロファイル生成モジュールと、前記構成プロファイルに従って、所与の種類の入力信号をコマンドに変換する信号変換モジュールと、を備える画像センサベースのヒューマンマシンインタフェースを提供する方法システムおよびソフトウェア。
【選択図】図2

Description

本発明は一般に、ヒューマンマシンインタフェースの分野に関する。より具体的には、本発明は、画像センサベースのヒューマンマシンインタフェースを提供するための方法システム、および付随するモジュールおよびソフトウェアの構成要素に関するものである。
ソフトウェアの歴史における最大パターンの1つは、計算集約型(computation−intensive)設計から提示集約型(presentation−intensive)設計への転換である。機械がますます強力になってきているため、発明者はプレゼンテーションにおいてこの力の割合が確実に増加させることに労力を費やしてきた。この発展の歴史は、便宜上3つの時期:バッチ(1945−1968)、コマンドライン(1969−1983)およびグラフィック(1984以降)に分割することができる。この歴史は、当然ながらデジタルコンピュータの発明に始まる。後者2つの時期の運用期間は、活気のある新しいインタフェース技術が研究室から出現し、インタフェースに関するユーザの期待を本格的に変え始めた数年である。それらの技術は、相互作用的なタイムシェアリング技術とグラフィカルユーザインタフェースであった。
バッチの時期は、計算能力が非常に低く、高価であった。当時の最も大型のコンピュータがコマンドする、一秒あたりのロジックサイクルは今日の普通のトースターあるいは電子レンジより少なく、今日の自動車、デジタル時計、携帯電話よりかなり少ないものであった。従って、ユーザインタフェースは未発達であった。逆に、むしろユーザがコンピュータに適応しなくてはならず、ユーザインタフェースは経費がかかると考えられており、ソフトウェアは可能な限り少ない経費でプロセッサを最大利用するように設計されていた。
バッチマシーン用のユーザインタフェースの入力側は主にパンチカードか、あるいは紙テープのような同等の媒体であった。出力側はこれらの媒体にプリンタをつなぐラインを足していた。システムのオペレータコンソールの制限付例外によって、人はバッチマシーンとリアルタイムで相互作用していなかった。
バッチマシーンにジョブを提供するには、まず、プログラムとデータセットを記述したパンチカードのデッキを準備することが含まれていた。プログラムカードの穴開けは、コンピュータ自体では行われず、操作が難しく、非常に機械的故障が多い特殊なタイプライタのような機械で行われていた。ソフトウェアインタフェースも、同様に、可能な限り最小のコンパイラと翻訳者によって、語法を解析するべき構文の意味が非常に制限されているという点で許し難いものであった。
一旦カードを穴開けすると、ジョブキューやジョブ待ちにそれらが入る。最終的に、オペレータは、デッキをコンピュータに押し込んで、おそらく、別のデータセットまたは補助ソフトウェアを供給する磁気テープを装着する。このジョブは、最終結果あるいは(何度も)エラーログ付の停止通知を含むプリントアウトを行う。うまく稼動すると磁気テープに結果を書き込むこともでき、あるいは、後の計算に用いるデータカードを何枚か作ることができる。
一つのジョブにかかる所要時間は、しばしば数日にも及んだ。非常に運がよければ数時間ですむこともあったが、リアルタイムでの応答は前代未聞のことであった。しかし、カードキューより悪い結果もあった。いくつかのコンピュータでは、バイナリコードのプログラム内にさらに単調でエラーが生じやすいトグリングのプロセスを実際に必要とした。かなり初期の機械は実際、プラグ盤として知られる装置を用いて、中に組み込まれたプログラム論理を部分的に配線し直さねばならなかった。
初期のバッチシステムは、コンピュータ全体に現在も稼動しているジョブを与えた。プログラムデッキとテープは、I/Oデバイスと通信するために現在我々がオペレーティングシステムコードと考えているものを持っていなくてはならず、その他のメンテナンスを必要とするものは何であれ行っていた。バッチ時代の中頃である1957年以降は、いわゆる「ロード&実行」システムを使って様々なグループが実験を開始した。これらのシステムは、コンピュータ内に常にあるモニタプログラムを使用していた。プログラムはサービスとしてモニタをコールすることができた。モニタのもう一つの機能は、提供されたジョブについてより良好なエラーチェックを行い、より早くより賢明にエラーをキャッチして、ユーザにより使いやすいフィードバックを発生することであった。このように、モニタは、オペレーティングシステムと、明確に設計されたユーザインタフェースの両方に向けての第1ステップを代表するものであった。
コマンドラインインタフェース(CLIs)は、システムコンソールに接続されたバッチモニタから発達した。その相互作用モデルは、一連の応答を要求するトランザクションであり、要求は、特殊な言語のテキストコマンドとして表わされていた。待ち時間はバッチシステムの待ち時間よりはるかに大きく、日または時間から秒へと減少した。従って、コマンドラインシステムによって、ユーザは、リアルタイムであるいはほぼリアルタイムで、前の結果に関するフィードバックに応答して、トランザクション後のステージに対する考えを変えることができた。ソフトウェアは予備的なものであり、以前では不可能であった方法で相互作用した。しかしながら、これらのインタフェースはユーザに比較的重いニーモニック負荷を課し、習得するのに一連の努力と学習時間を必要とした。
コマンドラインインタフェースは、タイムシェアリングコンピュータの台頭に非常に深く関係していた。タイムシェアリングデータの概念は1950年代に戻り、最も有力な初期の実験は、1965年以降のMULTICSオペレーティングシステムであり、今日のコマンドラインインタフェースに最も影響のあったものは、1969年以降のユニックス自体のオペレーティングシステムであり、これはその後生じたほとんどのシステムに影響を与えた。
初期のコマンドラインシステムは、テレタイプとコンピュータを組み合わせたものであり、人と人の間のワイヤを通じた情報転送の仲介に功を奏した成熟技術に適合したものであった。テレタイプは本来、自動電信送受信用デバイスとして開発された。テレタイプの歴史は1902年に遡り、1920年には既にニュースルームなどで定着していた。テレタイプを再利用するにあたっては、経済的事項は検討すべきであったが、心理状態と驚き最小の法則も同様である。テレタイプは、多くのエンジニアやユーザに親しまれているシステムとのインタフェースポイントを提供した。
1970年半ばにビデオディスプレイ端末(VDTs)が広く採用されたことで、コマンドラインシステムは第2期に入った。これらは、プリンタヘッドまたはキャリッジが移動するより早く、文字をスクリーンのドット蛍光体に投影することができたため、待ち時間が更に短くなった。VDTsはコスト状況からインクや紙といった消耗品を削減することによって双方向プログラミングに対する保守的な反対を抑え、1950年後半及び60年代の最初のTV世代に対して、1940年代のコンピュータの草分けであったテレタイプよりも、より象徴的で快適なものであった。
アクセス可能なスクリーンの存在と同様に重要なことだが、ソフトウェア設計者が、迅速かつ可逆的に変形できるテキストの2次元ディスプレイを、テキストではなく可視的に表示できるインタフェースに展開させるのにコストがかからないようにした。この種のパイオニアであるアプリケーションは、コンピュータゲームとテキストエディタである。rogue(6)やVI(1)などの初期の例のいくつかに近い古い型のものは、いまだにユニックス様式の活電部である。
スクリーンビデオディスプレイは、まったく新規ではなく、1961年のPDP−1と同じように早期にミニコンピュータに登場していた。しかし、シリアルケーブルを介して取り付けたVDTsに移行するまでは、ことのほか高価なコンピュータがアドレス可能なディスプレイを一つだけそのコンソールにサポートすることができた。このような条件下では、ビジュアルUIの様式を開発することは困難であった。このようなインタフェースは、全てのコンピュータが少なくとも一時的に単一ユーザ専用に動くことができるというめったにない状況においてのみ生じる、偶発的な出来事であった。
1962年以来、我々が現在グラフィカルユーザインタフェースと呼んでいるものによる散発的な実験が行われ、PDP−1のSPACEWARゲームの先駆となった。このマシーンのディスプレイは、単なる文字端末ではなく、ベクトルグラフィックスをサポートするために作られた変形オシロスコープであった。SPACEWARインタフェースは、主にトグルスイッチを使用するものだったが、初期の原型トラックボールを特徴付けるものでもあり、プレーヤ自身が特注していた。10年後の1970年代初期には、これらの実験がビデオゲーム産業を生み出し、これは実際にSPACEWARのアーケードバージョンを作成する試みと共に始まった。
PDP−1コンソールディスプレイは、20年早い第2次世界大戦のレーダー表示管から始まったものであり、マサチューセッツ工科大学(MIT)のリンカーン研究所におけるミニコンピュータの何人かのキーパイオニアが、かつてのレーダー技術者であったことを反映している。同じ1962年に大陸各地で、別のかつてのレーダー技術者が、スタンフォード研究所で別の先駆者となり始めていた。彼の名前は、ダグラスエンゲルバートである。彼は、これらの非常に初期のグラフィカルディスプレイによる個人的な経験と、1945年に現在ハイパーテキストと呼んでいる構想を与えたヴァネヴァー・ブッシュのゼミナール論文であるAs We May Thinkの両方から着想を得た。
1968年12月に、エンゲルバートとSRIの彼のチームは、最初のハイパーテキストシステムであるNLS/Augumentについて、90分間の公開デモンストレーションを行った。このデモンストレーションは、スリーボタンマウス(エンゲルバートの発明)と、複数ウィンドウのインタフェースのグラフィカルディスプレイと、ハイパーリンクと、スクリーン上でのビデオ会議の初公開を含むものであった。このデモは、1991年のWorld Wide Webの発明まで、および、この発明を含めて、4半世紀の間コンピュータサイエンス界に反響があった。
このように、1960年初期には、グラフィカルプレゼンテーションが、ユーザを引き付けたことはすでによく理解されていた。マウスと同等のポインティングデバイスがすでに発明されており、1960年代後半の多くの大型汎用コンピュータは、PDP−1に匹敵するディスプレイ容量を有していた。1968年、Univac1108コンピュータのコンソールにおける非常に初期のビデオゲームは、2004年に購入するとすれば4千5百万ドル近くかかるであろう。
ビデオゲームは非常に安価で簡単なプロセッサで、ハードワイヤに組み込まれたプログラムを稼動するため、コンピュータより早くに巨大市場のデバイスとなった。しかし、汎用目的のコンピュータでは、オシロスコープディスプレイが進化の終端となった。コンピュータとの通常の通信に、グラフィカルなビジュアルインタフェースを使用する概念は数年を待たねばならず、実際のところ、1970年後半のシリアルラインの文字VDTの最新式グラフィックス可能なバージョンによって到来した。
1970年代の最も初期のPARCシステム以来、GUIsの設計は、AltoがさきがけとなったWIMP(ウィンドウ、アイコン、マウス、ポインタ)モデルと呼ばれるようになったものによってほぼ完全に独占されてきた。後の数十年にわたってコンピュータ処理とディスプレイハードウエアに大きな変化が生じたことを考えると、WIMPを超えるものを考えることは驚くほど困難である。
いくつかの試みがなされてきた。おそらく、最も際立った試みは、VR(仮想現実)インタフェースであり、このインタフェースではユーザは没入型グラフィカル3D環境を移動し、その中でジェスチャをする。VRは、1980年代半ばから大きなリサーチコミュニティを引き付けてきた。基本的な問題は、フライトシミュレータの設計者には長年知られていたが、VRが人間固有の感覚システムを混乱させる方法である。すなわち、普通の速度でのVRの動きが、脳が動きの視覚的シミュレーションを体の現実の世界の動きについての内耳の報告と一致させようとするため、眩暈や吐き気を引きおこすことがある。
ジェフ・ラスキンのTHE(The Humane Environment)プロジェクトは、GUIsのズーム世界モデルを調査したものである。THEでは、スクリーンが2D仮想世界のウィンドウとなり、そこでデータとプログラムが空間的位置によって組織化される。この世界のオブジェクトは、基準面の上の高さに応じて細かな数種のレベルで表わすことができ、最も基本的な選択動作は、ズームインとそこへのランドである。
エール大学のライフストリームプロジェクトは、実際、GUIを脱空間化させるといった、完全に反対の方向に進んでいる。ユーザのドキュメントは、修正日によって組織化されたある種のワールドラインあるいは一時的なストリームとして表わされ、様々な方法でフィルタにかけることができる。
これらの3つのアプローチは総て、ものに名前を付けることや、参照の主な形式として名称を用いることを回避するようにしたコンテキストを支持して、従来のファイルシステムを切り捨てるものである。このことは、最も長続きしており有効な特徴の一つであると思われるユニックスのアーキテクチュアのファイルシステムと階層名前空間に、これらのアプローチを合致させるのを困難にしている。それにもかかわらず、これらの初期の実験の一つは、いまだに、NLS/Augmentのエンゲルバートの1968年のデモと同程度に影響力があると実証することが可能である。
ユーザインタフェースの分野では、ヒューマンマシンインタフェースの改善されたシステムおよび方法が求められている。
本発明は、画像センサベースのヒューマンマシンインタフェースを提供するための方法システム、および付随するモジュールおよびソフトウェアの構成要素である。本発明のいくつかの実施形態によると、IBHMIの出力は、第1のマッピングテーブルに基づいて、出力列またはデジタル出力コマンドに変換することができる。IBHMIマッピングモジュールはIBHMIから1またはそれ以上の出力を受信することができ、同一または他の機能的に関連する計算プラットフォームを起動する第1のアプリケーションの文字列またはコマンドを生成する場合に、第1のマッピングテーブルを参考にすることができる。マッピングモジュールは、キーボード、マウス、ジョイスティック、タッチパッド、または第1のアプリケーションが起動している計算プラットフォームと互換性があり、適切または適合する任意の他のインタフェースデバイスをエミュレートすることができる。本発明のいくつかの実施形態によると、IBHMI、マッピングモジュールおよび第1のアプリケーションは、同一の計算プラットフォーム上で起動することができる。本発明の更なる実施形態によると、IBHMI、マッピングモジュールおよび第1のアプリケーションは、1つのアプリケーションまたはプロジェクトに組み込むことができる。
本発明のいくつかの実施形態によると、第1のマッピングテーブルはマッピングモジュールがアクセスできる不連続なデータテーブルの一部であってもよく、あるいはマッピングテーブルは、(例えば、オブジェクトコードを含む)マッピングモジュール自体の一部であってもよい。第1の動作/位置タイプの位置の動作(例えば、右腕を上昇)の検出に関係するIBHMIの第1の出力がマッピングモジュールにより受信することができ、第1のアプリケーションに設けられた第1の入力コマンド(例えば、右にスクロール)にマップすることができるように、第1のマッピングテーブルは第1のアプリケーションに付随していてもよい。第1のマッピングテーブルに応じて、第2の動作/位置タイプの動作または位置(例えば、左腕を上昇)の検出に関係するIBHMIの第2の出力はマッピングモジュールによって受信することができ、第1のアプリケーションに設けられた第2の入力コマンド(例えば、左にスクロール)にマップすることができる。マッピングテーブルは、IBHMIの出力の幾つかまたは総ての選択肢に対するマッピングレコードを含んでもよい。マッピングテーブルは、第1のアプリケーションの入力文字列またはコマンドの幾つかまたは総ての選択肢に対するマッピングレコードを含んでもよい。マッピングテーブルは不揮発性メモリに記録することができ、あるいは計算プラットフォームの操作メモリ内に常駐していてもよい。このマッピングテーブルは、構成またはプロファイルファイルの一部であってもよい。
本発明の更なる実施形態によると、マッピングモジュールは第2のマッピングテーブルにアクセスすることができ、このマッピングテーブルは第1のアプリケーション、あるいは第2または第3のアプリケーションのいずれかに付随しうる。第2のマッピングテーブルは1またはそれ以上のマッピングレコードを含むことができ、マッピングレコードのいくつかは第1のマッピングテーブルの対応するレコードと同じであってもよく、幾つかのレコードは、第1のマッピングテーブルの対応するレコードとは異なっていてもよい。従って、マッピングモジュールが第2のマッピングテーブルを使用している場合、同じIBHMI出力の幾つかまたは総ては、マッピングモジュールにより生成された異なる出力文字列またはコマンドとなりうる。
本発明の更なる実施形態によると、IBHMIのマッピングテーブルジェネレータが設けられている。テーブルジェネレータはIBHMIから所与の出力を受信することができ、ユーザにIBHMIの所与の出力に関連する出力文字列またはコマンドに関する1またはそれ以上の選択肢を提供することができる。画像センサから得られる画像(例えば、ビデオ)内で検出されている決まった種類の動作/位置に応じて、IBHMIにより所与の出力を生成することができる。画像/ビデオファイル内で検出されている決まった種類の動作/位置に応じて、IBHMIにより所与の出力を生成することができる。本発明の更なる実施形態によると、マッピングテーブルジェネレータは、各出力に関連する検出された動作/位置タイプのグラフィック表示を含む、IBHMI出力の幾つかまたは総ての選択肢を記憶していることができる。ジェネレータのグラフィカルユーザインタフェースは、ユーザに(任意に、コンピュータで生成された)所与の動作/位置タイプの表示や選択肢を提供し、出力文字列/コマンドを選択して、所与の動作/位置タイプをマップまたは関連させる(例えば、バインドする)ことができる。
本発明の更なる実施形態によると、人間モデルを具えるグラフィックインタフェースは、相関段階に使用することができる。(可能な入力手段を用いて)グラフィックモデルをモニタ/移動することにより、ユーザは、(例えば、ユーザの身体を使用して)ユーザによって後で模倣されるコンピュータイベント(例えば、コンピュータ処理されたシステムまたはアプリケーションの可能な入力信号)の動作と相互関係するキャプチャした動作(例えば、位置、移動、ジェスチャまたはその他)を選択することができる。代替的に、キャプチャされ、関連づけられる動作は、任意にまたは口頭で入手、記録および/または定義することができる。
さらに、他のアプリケーションで使用されるコードを作成して、これらの他のアプリケーションおよびそのユーザ自身により後に使用する相関関係/プロファイルを作成/展開する相関モジュールであるコンピュータイベントに、キャプチャした動作を(例えば、グラフィックインタフェース、SDK APIを介して)アクセスして使用してもよい。
プロフィルが互いに関連する一連の相関関係(例えば、特定のコンピュータ処理されたアプリケーションの起動および/または制御に必要な総てのコンピュータイベントの相関関係)を含みうるのに対し、一連の相関関係はプロファイルに分類される。例えば、1またはそれ以上のユーザは、任意の所定のコンピュータ処理されたシステム、またはアプリケーションに対してプロファイルされた1またはそれ以上の動きを「作る(build)」ことができる。これは、複数の一連の異なる(または部分的に異なる)身体の動きを、所与のコンピュータ処理されたシステムまたはアプリケーションを制御する想定される入力信号またはコマンドの同一のリストと相関するようにすることができる。
本発明のいくつかの実施形態によると、一旦所与のプロファイルが終了する(すなわち、総ての必要なコンピュータイベントの動作が規定される)と、ユーザはコンピュータイベントを実行するために、これらの動作(例えば、身体の動き)の使用を開始してもよい。従って、コンピュータ処理されたシステムまたはアプリケーションの制御は、ユーザ自身の定義によってプロファイルされる。ユーザは、自身または他のユーザが使用するためのプロファイルを作ることもできる。
一旦相互に関連すると、キャプチャされた動作を実行して、コンピュータイベントを起動および/または制御することができる。一方で、特定のキャプチャした動作および相互に関連した動作を実行すると、限定はしないが、アプリケーションの実行可能なコマンド(例えば、キーボード、マウスまたはジョイスティック動作に予め割り当てられたコマンド)といった対応するコンピュータイベントをトリガすることもある。
本発明に関する主題は、本明細書の最終部分に特に指摘されており、明確に主張されている。しかしながら、本発明は、組織と操作方法の両方に関するものであり、その目的、特徴、および利点は、添付する図面とともに以下の詳細な説明を参照して読むことにより最もよく理解されるであろう。
図1は、信号変換モジュールを示すブロック図である。 図2は、信号変換システムを示すブロック図である。 図3Aおよび図3Bは、IBHMI信号変換システムの2つの別個の実施形態の実行段階を示す半絵図である。 図4は、本発明の幾つかの実施形態による信号変換システムの進展段階に関連する機能ブロックおよび信号フローを示す半絵図である。 図5Aは、本発明の実施形態によるマッピングテーブルジェネレータの実行フローのステップを含む各フローチャートである。 図5Bは、本発明の実施形態によるマッピングテーブルジェネレータの実行フローのステップを含む各フローチャートである。 図5Cは、本発明の実施形態によるマッピングテーブルジェネレータの実行フローのステップを含む各フローチャートである。
図を単純かつ明確なものにするために、図面に示す要素はスケール通りである必要はない。例えば、いくつかの要素の寸法は、明確にするために他の要素に対して誇張するようにしてもよい。更に、対応するあるいは類似の要素を表示するにあたり、図面間で符号を繰り返し使用することがある。
以下の詳細な記載では、本発明に対する深い理解を与えるために、多くの具体的な詳細を説明している。しかしながら、本発明は、これらの具体的な詳細がなくても当該技術分野の当業者により実施されうるということを理解されたい。他の場合、既知の方法、手順、構成要素および回路は、本発明を不明瞭にしないように、詳しくは記載していない。
特に述べられていない限り、以下の説明から明らかなように、本明細書を通じて、「処理する(processing)」「コンピュータで計算する(computing)」「計算する(calculating)」「決定する(determining)」などの用語を用いた説明は、コンピュータまたはコンピュータシステム、または、同様の電子コンピュータ装置の動作および/またはプロセスを意味し、これは、コンピュータシステムのレジスタおよび/またはメモリ内の電子などの物理的量として表わされるデータを、コンピュータシステムのメモリ、レジスタあるいはその他の情報保存、転送あるいは表示する装置内の物理量として同様に表わされたその他のデータに操作するおよび/または変換することを意味すると理解されたい。
本発明の実施例は、本書に述べる動作を実行する装置を含むものである。この装置は、所望の目的に対して特別に構成されているか、あるいは、コンピュータに保存されているコンピュータプログラムによって選択的に起動または再構築される、汎用目的のコンピュータを具えていてもよい。このようなコンピュータプログラムは、限定するものではないが、フロッピィディスク、光学ディスク、CD−ROM、光磁気ディスク、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、電子的にプログラム可能な読み取り専用メモリ(EPROM)、電子的に消去可能かつプログラム可能な読み取り専用メモリ(EEPROM)、磁気あるいは光学カード、あるいは電子インストラクションの保存に適したその他の媒体を含むあらゆる種類のディスクといった、コンピュータで読み取り可能で、コンピュータシステムバスに接続可能な記憶媒体に保存することができる。
本書に示す処理およびディスプレイは、任意の特定のコンピュータまたは他の装置とは本質的には関連していない。様々な汎用システムを本書の教示によるプログラムに用いることができ、あるいは、所望の方法を実行するためより特化された装置を構成する方が有用であると判明することもあるであろう。様々なこれらのシステムに望ましい構造は、以下の記載から明らかとなるであろう。さらに、本発明の実施形態は、任意の特定のプログラム言語に関して記載はされていない。様々なプログラム言語を使用して、本書に記載された本発明を実施することができるということを理解されたい。
ここで図1を見てみると、信号変換モジュール100などの信号変換要素が図示されている。信号変換モジュール100は、出力文字列をデジタル出力コマンドに変換することができる。信号変換モジュール100はさらに、マッピングモジュール102のようなマッピングモジュールから構成されており、これは、キャプチャされた動作出力104のようなキャプチャされた動作に付随する第1の信号を変換、転送または修正し、アプリケーションコマンド106のような第1のアプリケーションに付随する第2の信号に変換することができる。キャプチャされた動作出力は、ビデオストリーム、グラフィックファイル、マルチメディア信号等であってもよいが、これらの例に限定はされない。アプリケーションは、コンピュータゲーム、コンソールゲーム、コンソール装置、操作システム等であってもよいが、これらの例に限定はされない。
本発明のいくつかの実施形態によると、マッピングモジュール102は、キーボード、マウス、ジョイスティック、タッチパッドまたは第1のアプリケーションが起動している計算プラットフォームと互換性がある任意の他のインタフェース装置をエミュレートすることができる。
本発明のいくつかの実施形態によると、マッピングテーブル108などの第1のマッピングテーブルは、マッピングモジュール102がアクセスできる不連続なデータテーブルの一部であってもよく、あるいはマッピングテーブル108は、マッピングテーブルがオブジェクトコードに含まれるような場合に、マッピングモジュール102自体と一体であってもよい。第1の動作/位置タイプの位置の動作の検出(例えば、右腕の上昇)に付随するキャプチャされた動作出力104はマッピングモジュール102によって受信することができ、第1のアプリケーションに設けられた入力コマンド106(例えば、右にスクロール)にマップすることができるように、マッピングテーブル108は第1のアプリケーションに付随してもよい。マッピングテーブル108に応じて、第2の動作/位置タイプ(例えば、左腕の上昇)の動作または位置の検出に付随しうるキャプチャされた動作出力110はマッピングモジュール102によって受信することができ、第1のアプリケーションに設けられたアプリケーションコマンド112(例えば、左にスクロール)にマップすることができる。マッピングテーブル108は、キャプチャされた動作出力104および110といったキャプチャされた動作出力の幾つかまたは総てに対するマッピングレコードを含んでもよい。マッピングテーブルは、アプリケーションコマンド106および112といった、第1のアプリケーションの入力文字列またはコマンドの幾つかまたは総ての選択肢に対するマッピングレコードを含んでもよい。
本発明の更なる実施形態によると、マッピングモジュール102はマッピングテーブル114のような第2のマッピングテーブルにアクセスすることができ、このマッピングテーブルは、第1のアプリケーションか、あるいは第2または第3のアプリケーションの何れかに付随してもよい。マッピングテーブル114は1またはそれ以上のマッピングレコードを含み、これらのマッピングレコードの幾つかはマッピングテーブル108の対応するレコードと同一であってもよく、幾つかのレコード、データファイルまたは画像ファイルはマッピングテーブル108の対応するレコードと異なっていてもよい。従って、マッピングモジュール102がマッピングテーブル114を用いる場合、(マッピングテーブル108を用いた場合と同じ結果と一致して)キャプチャされた動作110はアプリケーションコマンド116となり、キャプチャされた動作出力104はアプリケーションコマンド106となることがある。マッピングレコードは、構成ファイルまたはプロファイルファイルといった不連続のデータファイルの一部であってもよい。このマッピングレコードは、IBHMI APIといった実行可能なコード、または第1または第2のアプリケーションの一部であってもよい。
ここで図2を見てみると、信号変換システム200のような信号変換システムが図示されている。信号変換システム200は、マッピングモジュール202のようなマッピングモジュールから構成され、このマッピングモジュールは、キャプチャされた動作出力204などのキャプチャされた動作に付随する第1の信号を変換し、アプリケーションコマンド206のような第1のアプリケーションに付随する第2の信号に変換することができる。信号変換システム200はさらに画像センサベースのヒューマンマシンインタフェース(IBHMI)220のようなキャプチャされた動作を検出する装置を具えてもよく、このヒューマンマシンインタフェース220は一連の画像を得ることができ、実質的に各画像は異なる時点に関連し、キャプチャされた動作出力204を出力する。信号変換システム200はさらに、計算プラットフォーム224のような計算プラットフォームに付随するゲームアプリケーションといったアプリケーションをさらに具える場合がある。IBHMI220は、動作および/またはビデオ、写真等といったマルチメディア信号を検知および/または記憶するように構成された、デジタルカメラ、ビデオカメラ、個人用デジタルアシスタント、携帯電話等の装置を具えることができる。
信号変換システム200は基本的に、図1の信号変換モジュール100に関して記載したものと同様に機能できると理解されたい。さらに、幾つかの実施形態では、キャプチャされた動作出力204は基本的に、図1におけるキャプチャされた動作出力104、および/またはキャプチャされた動作出力110の双方と同一であってもよい。本発明のいくつかの実施形態では、マッピングモジュール202は基本的に、図1のマッピングモジュール102と同一であってもよい。本発明のいくつかの実施形態では、アプリケーションコマンド206は基本的に、図1の総てのアプリケーションコマンド106、112および/または116総てと同一であってもよい。
任意に、本発明のいくつかの実施形態によると、IBHMI220、マッピングモジュール202および/またはアプリケーション222は、同一の計算プラットフォーム224上で起動することができる。計算プラットフォーム224は、パーソナルコンピュータ、コンピュータシステム、サーバ、集積回路等であってもよいが、これらの例に限定はされない。
ここで図3Aおよび図3Bを見てみると、本発明の実施形態の2つの別個の実施例を示している。図3Aの実行によると、マッピングモジュールはアプリケーションに使用されるAPIの一部である。APIは、モーションキャプチャエンジン(例えば、IBHMI)およびマッピングテーブルを含むIBHMI構成プロファイルと機能的に関連している。図3Bは、マッピングテーブルモジュールおよびマッピングテーブルがアプリケーションと一体型の実施例を示している。
図3Aは、実行フェーズ400Aのような信号変換システムの実行フェーズの半絵図を示している。動作402のような動作は、ビデオカメラ403のような動作センサによってキャプチャされる。出力404のようなキャプチャされた動作出力は一連の画像を示すことができ、実質的に各画像は、ビデオ、オーディオ/ビデオ、マルチメディア信号等のように、異なる時点と関連している。モーションキャプチャエンジン405といったモーションキャプチャエンジンは、キャプチャされた動作出力をアプリケーションコマンド407のようなアプリケーションに付随するコマンドに変換する。モーションキャプチャエンジン405はIBHMI構成プロファイル406のようなIBHMI構成プロファイルを用いて、この変換を構成、実施または実行し、構成されたIBHMIはキャプチャされた動作出力404とアプリケーションコマンド407の間の相関関係を規定し、モーションキャプチャエンジン405に組み込むことができる。アプリケーションコマンド407は、アプリケーションの入力またはインタフェースアプリケーション408などのインタフェース計算システムとして、APIを介して転送される。実行フェーズ400Aは、動作402をアプリケーションコマンド407に変換し、IBHMI構成プロファイル406に規定された所定の相関によって、モーションキャプチャエンジンを介してインタフェースアプリケーションのコマンドを実行する。図3Bは、アップリケーションと一体化した図3Aの様々な構成要素を示しており、その結果、APIの必要性が取り除かれている。
ここで図4を見てみると、IBHMIマッピングテーブル(例えば、構成ファイル)ジェネレータ/ビルダの記号によるブロック図を示している。ジェネレータはマッピングテーブルを有する構成ファイルを生成することができ、マッピングモジュール及びマッピングテーブルを含むAPIを介して、アプリケーションにより使用することができる。更なる実施形態によると、ジェネレータは関数呼び出しライブラリ(すなわちSDK)をアプリケーションプロジェクトにリンクさせることができ、アプリケーションはIBHMIや内蔵のマッピングモジュールを有するよう生成することができる。
ここで図5Aを見てみると、フローチャート500に見られるように、マッピングテーブルジェネレータの実行フローチャートを示している。マッピングテーブルジェネレータは、ステップ502に見られるようにキャプチャ動作デバイスから所与の出力を受信することができ、この出力は、ステップ501に記載されるように、ほぼ同時のライブ画像から表されている。テーブルジェネレータは、ユーザに、ステップ503に記載するように、所与のキャプチャされた動作出力に関連する出力文字列またはコマンドに関する1またはそれ以上の選択肢を提供することができる。本発明のいくつかの実施形態では、所与のキャプチャされた動作出力は、画像センサから得られる画像(例えば、ビデオ)内で検出された所与の種類の動作/位置に応じて、IBHMIにより生成することができる。ユーザは、ステップ504に記載されるように、要求された関連付けを選択することができる。マッピングテーブルジェネレータは、ステップ505に記載するように、更なるキャプチャされた動作を受信して以下のステップに引き続くように進行させることができる。プロセスの終端では、テーブルジェネレータは、ステップ506に記載するように、HMIの構成プロファイルを作ることができる。ステップ506に記載されたHMI構成プロファイルは、図1のマッピングモジュール102のようなマッピングモジュールまたはマッピングテーブル108のようなマッピングテーブルの双方の一部であってもよい。
ここで図5Bを見てみると、フローチャート600に見られるように、マッピングテーブルジェネレータを示すフローチャートを図示している。マッピングテーブルジェネレータは、ステップ602に見られるように、記憶メモリから所与のキャプチャされた動作出力を受信することができる。記憶メモリは、キャプチャされた動作装置の一部、計算プラットフォームの一部、マッピングテーブルジェネレータの一部等であってもよいが、これらの例に限定はされない。さらに、ステップ602に記載された記憶メモリは、フラッシュメモリ、ハードドライブまたは他のものであってもよいが、これらの例に限定はされない。ステップ603乃至606は、実質的に上述の図5Aにおける対応するステップ503乃至506と同じであってもよいと考えられる。
ここで図5Cを見てみると、フローチャート700に見られるように、マッピングテーブルジェネレータを表すフローチャートを示している。マッピングテーブルジェネレータは、各出力に付随する動作/位置のグラフィック表示を含む、IBHMI出力の幾つかまたは総ての選択肢を記憶していることができる。マッピングテーブルジェネレータのグラフィカルユーザインタフェース(GUI)は、ユーザに(任意にコンピュータに生成された)所与の動作/位置タイプの表示及び選択肢を提供し、出力文字列/コマンドを選択させて、ステップ701に示すように、所与の動作/位置タイプをマップまたは関連させることができる。ユーザはその後、動作/位置を選択して、ステップ702に示すように、アプリケーションコマンドと関連させることができる。ステップ703乃至706は基本的に、上述の図5Aの対応するステップ503乃至506と同一であってもよいと理解される。
本発明の特定の特徴が本書に図示および記載されてきたが、当該技術分野の当業者は多くの改変、置換、変更、および均等物を考えるであろう。従って、添付の特許請求の範囲は、本発明の精神の範囲に収まるこのような総ての改変および変更を包含することを意図するものであることを理解されたい。

Claims (1)

  1. 各入力信号の種類が、それぞれキャプチャされた動作の種類に関連付けられており、動作の種類の選択肢うちのキャプチャされた動作を、入力信号の選択肢のうちの一つの入力信号に変換する入力信号生成モジュールと、
    少なくとも一つの入力信号の種類を、ユーザによって指定されたコマンドに関連付ける構成プロファイルを生成するプロファイル生成モジュールと、
    前記構成プロファイルに従って、所与の種類の入力信号をコマンドに変換する信号変換モジュールと、
    を備えることを特徴とする、映像信号変換システム。
JP2013121910A 2008-09-04 2013-06-10 画像センサベースのヒューマンマシンインタフェースを提供する方法システムおよびソフトウェア Pending JP2013175242A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US9407808P 2008-09-04 2008-09-04
US61/094,078 2008-09-04

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011525680A Division JP5599400B2 (ja) 2008-09-04 2009-09-06 画像センサベースのヒューマンマシンインタフェースを提供する方法システムおよびソフトウェア

Publications (1)

Publication Number Publication Date
JP2013175242A true JP2013175242A (ja) 2013-09-05

Family

ID=41796797

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2011525680A Expired - Fee Related JP5599400B2 (ja) 2008-09-04 2009-09-06 画像センサベースのヒューマンマシンインタフェースを提供する方法システムおよびソフトウェア
JP2013121910A Pending JP2013175242A (ja) 2008-09-04 2013-06-10 画像センサベースのヒューマンマシンインタフェースを提供する方法システムおよびソフトウェア

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2011525680A Expired - Fee Related JP5599400B2 (ja) 2008-09-04 2009-09-06 画像センサベースのヒューマンマシンインタフェースを提供する方法システムおよびソフトウェア

Country Status (7)

Country Link
US (1) US20110163948A1 (ja)
EP (1) EP2342642A1 (ja)
JP (2) JP5599400B2 (ja)
KR (1) KR101511819B1 (ja)
CA (1) CA2735992A1 (ja)
IL (1) IL211548A (ja)
WO (1) WO2010026587A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10712934B2 (en) 2016-06-12 2020-07-14 Apple Inc. Devices and methods for accessing prevalent device functions

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8114172B2 (en) 2004-07-30 2012-02-14 Extreme Reality Ltd. System and method for 3D space-dimension based image processing
US8681100B2 (en) 2004-07-30 2014-03-25 Extreme Realty Ltd. Apparatus system and method for human-machine-interface
US8872899B2 (en) * 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US20070285554A1 (en) 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
WO2010046901A2 (en) 2008-10-24 2010-04-29 Extreme Reality Ltd. A method system and associated modules and software components for providing image sensor based human machine interfacing
US8878779B2 (en) 2009-09-21 2014-11-04 Extreme Reality Ltd. Methods circuits device systems and associated computer executable code for facilitating interfacing with a computing platform display screen
US9218126B2 (en) 2009-09-21 2015-12-22 Extreme Reality Ltd. Methods circuits apparatus and systems for human machine interfacing with an electronic appliance
WO2012098534A1 (en) 2011-01-23 2012-07-26 Extreme Reality Ltd. Methods, systems, devices and associated processing logic for generating stereoscopic images and video
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
CA2763328C (en) 2012-01-06 2015-09-22 Microsoft Corporation Supporting different event models using a single input source
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
CN102707882A (zh) * 2012-04-27 2012-10-03 深圳瑞高信息技术有限公司 虚拟图标触摸屏应用程序的操控转换方法及触摸屏终端
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US8934675B2 (en) 2012-06-25 2015-01-13 Aquifi, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
US9298266B2 (en) 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
US9507417B2 (en) 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
DE202014103729U1 (de) * 2014-08-08 2014-09-09 Leap Motion, Inc. Augmented-Reality mit Bewegungserfassung
EP3133467A1 (en) * 2015-08-17 2017-02-22 Bluemint Labs Universal contactless gesture control system
JP6373541B2 (ja) * 2016-06-10 2018-08-15 三菱電機株式会社 ユーザインタフェース装置及びユーザインタフェース方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092419A (ja) * 2003-09-16 2005-04-07 Casio Comput Co Ltd 情報処理装置およびプログラム
JP2007531113A (ja) * 2004-03-23 2007-11-01 富士通株式会社 携帯装置の傾斜及び並進運動成分の識別

Family Cites Families (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4376950A (en) * 1980-09-29 1983-03-15 Ampex Corporation Three-dimensional television system using holographic techniques
US5130794A (en) * 1990-03-29 1992-07-14 Ritchey Kurtis J Panoramic display system
US5515183A (en) * 1991-08-08 1996-05-07 Citizen Watch Co., Ltd. Real-time holography system
US5691885A (en) * 1992-03-17 1997-11-25 Massachusetts Institute Of Technology Three-dimensional interconnect having modules with vertical top and bottom connectors
JP3414417B2 (ja) * 1992-09-30 2003-06-09 富士通株式会社 立体画像情報伝送システム
JPH06161652A (ja) * 1992-11-26 1994-06-10 Hitachi Ltd ペン入力コンピュータ及びそれを用いた書類審査システム
US5745719A (en) * 1995-01-19 1998-04-28 Falcon; Fernando D. Commands functions invoked from movement of a control input device
US5835133A (en) * 1996-01-23 1998-11-10 Silicon Graphics, Inc. Optical system for single camera stereo video
US6115482A (en) * 1996-02-13 2000-09-05 Ascent Technology, Inc. Voice-output reading system with gesture-based navigation
US5909218A (en) * 1996-04-25 1999-06-01 Matsushita Electric Industrial Co., Ltd. Transmitter-receiver of three-dimensional skeleton structure motions and method thereof
US6445814B2 (en) * 1996-07-01 2002-09-03 Canon Kabushiki Kaisha Three-dimensional information processing apparatus and method
US5852450A (en) * 1996-07-11 1998-12-22 Lamb & Company, Inc. Method and apparatus for processing captured motion data
US5831633A (en) * 1996-08-13 1998-11-03 Van Roy; Peter L. Designating, drawing and colorizing generated images by computer
JP3321053B2 (ja) * 1996-10-18 2002-09-03 株式会社東芝 情報入力装置及び情報入力方法及び補正データ生成装置
JPH10188028A (ja) * 1996-10-31 1998-07-21 Konami Co Ltd スケルトンによる動画像生成装置、該動画像を生成する方法、並びに該動画像を生成するプログラムを記憶した媒体
KR19990011180A (ko) * 1997-07-22 1999-02-18 구자홍 화상인식을 이용한 메뉴 선택 방법
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US6243106B1 (en) * 1998-04-13 2001-06-05 Compaq Computer Corporation Method for figure tracking using 2-D registration and 3-D reconstruction
US6681031B2 (en) * 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6303924B1 (en) * 1998-12-21 2001-10-16 Microsoft Corporation Image sensing operator input device
US6529643B1 (en) * 1998-12-21 2003-03-04 Xerox Corporation System for electronic compensation of beam scan trajectory distortion
US6657670B1 (en) * 1999-03-16 2003-12-02 Teco Image Systems Co., Ltd. Diaphragm structure of digital still camera
DE19917660A1 (de) * 1999-04-19 2000-11-02 Deutsch Zentr Luft & Raumfahrt Verfahren und Eingabeeinrichtung zum Steuern der Lage eines in einer virtuellen Realität graphisch darzustellenden Objekts
US6597801B1 (en) * 1999-09-16 2003-07-22 Hewlett-Packard Development Company L.P. Method for object registration via selection of models with dynamically ordered features
US7123292B1 (en) * 1999-09-29 2006-10-17 Xerox Corporation Mosaicing images with an offset lens
JP2001246161A (ja) 1999-12-31 2001-09-11 Square Co Ltd ジェスチャー認識技術を用いたゲーム装置およびその方法ならびにその方法を実現するプログラムを記憶した記録媒体
EP1117072A1 (en) * 2000-01-17 2001-07-18 Koninklijke Philips Electronics N.V. Text improvement
US6674877B1 (en) * 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US7370983B2 (en) * 2000-03-02 2008-05-13 Donnelly Corporation Interior mirror assembly with display
US6554706B2 (en) * 2000-05-31 2003-04-29 Gerard Jounghyun Kim Methods and apparatus of displaying and evaluating motion data in a motion game apparatus
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US6906687B2 (en) * 2000-07-31 2005-06-14 Texas Instruments Incorporated Digital formatter for 3-dimensional display applications
IL139995A (en) * 2000-11-29 2007-07-24 Rvc Llc System and method for spherical stereoscopic photographing
US7116330B2 (en) * 2001-02-28 2006-10-03 Intel Corporation Approximating motion using a three-dimensional model
US7061532B2 (en) * 2001-03-27 2006-06-13 Hewlett-Packard Development Company, L.P. Single sensor chip digital stereo camera
US6862121B2 (en) * 2001-06-05 2005-03-01 California Institute Of Technolgy Method and apparatus for holographic recording of fast phenomena
JP4596220B2 (ja) * 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
WO2003025859A1 (fr) * 2001-09-17 2003-03-27 National Institute Of Advanced Industrial Science And Technology Dispositif d'interface
CA2359269A1 (en) * 2001-10-17 2003-04-17 Biodentity Systems Corporation Face imaging system for recordal and automated identity confirmation
US20050063596A1 (en) * 2001-11-23 2005-03-24 Yosef Yomdin Encoding of geometric modeled images
US6833843B2 (en) * 2001-12-03 2004-12-21 Tempest Microsystems Panoramic imaging and display system with canonical magnifier
AU2002361483A1 (en) * 2002-02-06 2003-09-02 Nice Systems Ltd. System and method for video content analysis-based detection, surveillance and alarm management
JP3837505B2 (ja) * 2002-05-20 2006-10-25 独立行政法人産業技術総合研究所 ジェスチャ認識による制御装置のジェスチャの登録方法
US8599266B2 (en) * 2002-07-01 2013-12-03 The Regents Of The University Of California Digital processing of video images
US8460103B2 (en) * 2004-06-18 2013-06-11 Igt Gesture controlled casino gaming system
AU2003292490A1 (en) * 2003-01-17 2004-08-13 Koninklijke Philips Electronics N.V. Full depth map acquisition
US9177387B2 (en) * 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US7257237B1 (en) * 2003-03-07 2007-08-14 Sandia Corporation Real time markerless motion tracking using linked kinematic chains
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
WO2004097612A2 (en) * 2003-05-01 2004-11-11 Delta Dansk Elektronik, Lys & Akustik A man-machine interface based on 3-d positions of the human body
US7418134B2 (en) * 2003-05-12 2008-08-26 Princeton University Method and apparatus for foreground segmentation of video sequences
WO2004114063A2 (en) * 2003-06-13 2004-12-29 Georgia Tech Research Corporation Data reconstruction using directional interpolation techniques
JP2005020227A (ja) * 2003-06-25 2005-01-20 Pfu Ltd 画像圧縮装置
JP2005025415A (ja) * 2003-06-30 2005-01-27 Sony Corp 位置検出装置
US7755608B2 (en) * 2004-01-23 2010-07-13 Hewlett-Packard Development Company, L.P. Systems and methods of interfacing with a machine
EP1730666A1 (de) * 2004-03-29 2006-12-13 André Hoffmann Verfahren und system zur identifikation, verifikation, erkennung und wiedererkennung
US8036494B2 (en) * 2004-04-15 2011-10-11 Hewlett-Packard Development Company, L.P. Enhancing image resolution
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US7366278B2 (en) * 2004-06-30 2008-04-29 Accuray, Inc. DRR generation using a non-linear attenuation model
US8872899B2 (en) * 2004-07-30 2014-10-28 Extreme Reality Ltd. Method circuit and system for human to machine interfacing by hand gestures
US8114172B2 (en) * 2004-07-30 2012-02-14 Extreme Reality Ltd. System and method for 3D space-dimension based image processing
US8432390B2 (en) * 2004-07-30 2013-04-30 Extreme Reality Ltd Apparatus system and method for human-machine interface
GB0424030D0 (en) * 2004-10-28 2004-12-01 British Telecomm A method and system for processing video data
US7386150B2 (en) * 2004-11-12 2008-06-10 Safeview, Inc. Active subject imaging with body identification
US7903141B1 (en) * 2005-02-15 2011-03-08 Videomining Corporation Method and system for event detection by multi-scale image invariant analysis
US7774713B2 (en) * 2005-06-28 2010-08-10 Microsoft Corporation Dynamic user experience with semantic rich objects
US20070285554A1 (en) * 2005-10-31 2007-12-13 Dor Givon Apparatus method and system for imaging
US8265349B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
US9395905B2 (en) * 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
JP2007302223A (ja) * 2006-04-12 2007-11-22 Hitachi Ltd 車載装置の非接触入力操作装置
CA2653815C (en) * 2006-06-23 2016-10-04 Imax Corporation Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition
US8022935B2 (en) * 2006-07-06 2011-09-20 Apple Inc. Capacitance sensing electrode with integrated I/O mechanism
US7783118B2 (en) * 2006-07-13 2010-08-24 Seiko Epson Corporation Method and apparatus for determining motion in images
US7701439B2 (en) * 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
US8589824B2 (en) 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
US7907117B2 (en) * 2006-08-08 2011-03-15 Microsoft Corporation Virtual controller for visual displays
US7936932B2 (en) * 2006-08-24 2011-05-03 Dell Products L.P. Methods and apparatus for reducing storage size
US8356254B2 (en) * 2006-10-25 2013-01-15 International Business Machines Corporation System and method for interacting with a display
US20080104547A1 (en) * 2006-10-25 2008-05-01 General Electric Company Gesture-based communications
US7885480B2 (en) * 2006-10-31 2011-02-08 Mitutoyo Corporation Correlation peak finding method for image correlation displacement sensing
US8756516B2 (en) * 2006-10-31 2014-06-17 Scenera Technologies, Llc Methods, systems, and computer program products for interacting simultaneously with multiple application programs
US8793621B2 (en) * 2006-11-09 2014-07-29 Navisense Method and device to control touchless recognition
US8075499B2 (en) * 2007-05-18 2011-12-13 Vaidhi Nathan Abnormal motion detector and monitor
US7916944B2 (en) * 2007-01-31 2011-03-29 Fuji Xerox Co., Ltd. System and method for feature level foreground segmentation
US8144148B2 (en) * 2007-02-08 2012-03-27 Edge 3 Technologies Llc Method and system for vision-based interaction in a virtual environment
WO2008134745A1 (en) * 2007-04-30 2008-11-06 Gesturetek, Inc. Mobile video-based therapy
US8432377B2 (en) * 2007-08-30 2013-04-30 Next Holdings Limited Optical touchscreen with improved illumination
US9451142B2 (en) * 2007-11-30 2016-09-20 Cognex Corporation Vision sensors, systems, and methods
EP2327061A4 (en) * 2008-08-15 2016-11-16 Univ Brown METHOD AND DEVICE FOR ESTIMATING BODY SHAPES
WO2010077625A1 (en) * 2008-12-08 2010-07-08 Refocus Imaging, Inc. Light field data acquisition devices, and methods of using and manufacturing same
CN102317977A (zh) * 2009-02-17 2012-01-11 奥美可互动有限责任公司 用于姿势识别的方法和系统
US8320619B2 (en) * 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8466934B2 (en) * 2009-06-29 2013-06-18 Min Liang Tan Touchscreen interface
US8270733B2 (en) * 2009-08-31 2012-09-18 Behavioral Recognition Systems, Inc. Identifying anomalous object types during classification
US8659592B2 (en) * 2009-09-24 2014-02-25 Shenzhen Tcl New Technology Ltd 2D to 3D video conversion

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092419A (ja) * 2003-09-16 2005-04-07 Casio Comput Co Ltd 情報処理装置およびプログラム
JP2007531113A (ja) * 2004-03-23 2007-11-01 富士通株式会社 携帯装置の傾斜及び並進運動成分の識別

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10712934B2 (en) 2016-06-12 2020-07-14 Apple Inc. Devices and methods for accessing prevalent device functions

Also Published As

Publication number Publication date
US20110163948A1 (en) 2011-07-07
IL211548A (en) 2015-10-29
WO2010026587A1 (en) 2010-03-11
KR101511819B1 (ko) 2015-04-13
JP5599400B2 (ja) 2014-10-01
EP2342642A1 (en) 2011-07-13
CA2735992A1 (en) 2010-03-11
JP2012502344A (ja) 2012-01-26
KR20110086687A (ko) 2011-07-29
IL211548A0 (en) 2011-05-31

Similar Documents

Publication Publication Date Title
JP5599400B2 (ja) 画像センサベースのヒューマンマシンインタフェースを提供する方法システムおよびソフトウェア
JP5147933B2 (ja) 人−機械インターフェース装置システム及び方法
RU2534486C2 (ru) Моделирование инерции объектов при вводе множественным касанием
Halpern et al. Mosaic: cross-platform user-interaction record and replay for the fragmented android ecosystem
US11934772B2 (en) Providing synchronous and asynchronous general user interface (GUI) input
US20180173614A1 (en) Technologies for device independent automated application testing
TWI553541B (zh) 用於詞意圖像對比的方法及計算裝置
US10599324B2 (en) Hand gesture API using finite state machine and gesture language discrete values
CN108469979A (zh) 一种页面跳转方法、装置、服务器和存储介质
CN104823186B (zh) 经由网络连接的至少两个终端之间的远程呈现的方法
CN107423049A (zh) 实现在线编程的方法、浏览器和终端设备
CN105659221A (zh) 具有用于连接组件的增强工具的图形用户界面
CN106970720A (zh) 一种虚拟仿真器及单机多鼠标独立并行操控方法
Medeiros et al. A tablet-based 3d interaction tool for virtual engineering environments
US11813538B2 (en) Videogame telemetry data and game asset tracker for session recordings
EP2801012B1 (en) Supporting different event models using a single input source
CN103472931A (zh) 鼠标仿真触控屏幕操作的方法
JP5620449B2 (ja) 人−機械インターフェース装置システム及び方法
KR101110226B1 (ko) 컴퓨터, 입력 방법, 및 컴퓨터 판독 가능 매체
Segura et al. UISKEI++ multi-device wizard of oz prototyping
CN104007999B (zh) 用于控制应用的方法和相关的系统
CN109308142B (zh) 单主机多触控屏人机交互系统及其实现方法
US20240189724A1 (en) Videogame telemetry data and game asset tracker for session recordings
WO2015005058A1 (ja) タッチ操作対応プログラム・コード変換方法およびプログラム
CN117971220A (zh) 控件显示方法、介质、装置和计算设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130709

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141010

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150313