JP5791131B2 - 自然な相互作用のための相互作用的現実拡張 - Google Patents

自然な相互作用のための相互作用的現実拡張 Download PDF

Info

Publication number
JP5791131B2
JP5791131B2 JP2013520267A JP2013520267A JP5791131B2 JP 5791131 B2 JP5791131 B2 JP 5791131B2 JP 2013520267 A JP2013520267 A JP 2013520267A JP 2013520267 A JP2013520267 A JP 2013520267A JP 5791131 B2 JP5791131 B2 JP 5791131B2
Authority
JP
Japan
Prior art keywords
image
dimensional
scene
processor
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013520267A
Other languages
English (en)
Other versions
JP2013541747A5 (ja
JP2013541747A (ja
Inventor
マイゼルス、アヴィアッド
シュプント、アレクサンダー
ベルナール、タミール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2013541747A publication Critical patent/JP2013541747A/ja
Publication of JP2013541747A5 publication Critical patent/JP2013541747A5/ja
Application granted granted Critical
Publication of JP5791131B2 publication Critical patent/JP5791131B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Description

(関連出願)
本出願は2010年7月20日付け出願の米国暫定出願61/365788(特許文献1)の恩恵を請求し、それはここに参照して採り入れられる。
本発明は、自然な相互作用システムに関し、より詳細には適応的現実拡張及び3次元入力インタフェースに関するものである。
自然なユーザインタフェースは娯楽およびコンピュータ業界において勢いを得ている。所作(ジェスチャー)による制御はキーボード、マウス、ゲームコントローラやリモコンなどの従来型の自然さの少ないインタフェースを補完し又は代替している。しかしユーザ相互作用は、コンピュータモニタに大きく関係し、それにより、このようなインタフェースの適用可能性や使用の容易性が制限されている。所作による制御には光学的3次元マッピングに依存しているものもある。
3次元マッピング即ち、ある物体の表面の3次元形状をその物体の光学的画像を処理することにより生成すること、では種々の方法が公知である。この種の形状は深さマップ又は深さ画像とも呼ばれ、3次元マッピングは深さマッピングとも呼ばれる。
ある方法は、レーザスペックルパターンを物体に投影し、物体上のパターンの画像を解析することに基づいている。例えば特許文献2、それはここに参照され採り入れられるが、は物体の再構築のシステムと方法を記載しており、そこではコヒーレントな光源及びランダムスペックルパターンの生成器が物体上にコヒーレントなランダムスペックルパターンを投影する。画像化ユニットは照射領域の光の応答を検知し、そして画像データを生成する。物体の画像内のパターンの参照画像に対するずれは、物体の3次元マップのリアルタイムの再構築に使用される。スペックルパターンを使用した3次元マッピングのさらに詳細な方法は特許文献3に記載されており、それはここに参照され採り入れられる。
米国暫定特許出願61/365788 WO 2007/043036 WO 2007/105205 WO 2010/004542 米国特許出願2009/0183125 米国暫定特許出願61/372,729 米国暫定特許出願61/425,788 米国特許出願12/854,187 米国特許出願公報2011/0052006 米国特許出願公報2011/0081072
本発明は、ある実施形態において、改良型コンテンツ投影装置を提供することを願い、その装置は視野内の物体を認知し、その物体がコンテンツをその上に投影するのに適していると認識する。投影装置は投影されたコンテンツの縮尺、歪み、焦点を制御し、そして投影されたコンテンツ自体を変化させることにより、その物体の幾何学的形状と特性に適応してもよい。さらに或いは、投影装置は、視線ベクトル、コンテンツが投影されている面からの距離、及び他の類似パラメータのような、観察者の投影されたコンテンツに対する関係に従って投影されたコンテンツ適応させてもよい。投影のために幾何学的形状を分析するのに使用された2D/3D入力装置は、投影されたコンテンツと相互作用するためにも使用可能である。
本発明の開示された実施形態によれば、ンテンツ投影のための下地として機能する最適な物体を判定する手段として3次元入力装置を使用する、入力装置インタフェースのようなコンテンツの投影のための方法と装置が提供される。
本発明によれば、データを処理する装置であって、3次元カメラを有する、視覚野(シーン)を獲得するための検知要素と、3次元カメラにリンク、3次元カメラの出力を使用してシーンの深さマップを生成するようにプログラムされ、そして画像をその上に投影するための事前設定基準に適合するシーン内の1つの3次元物体を識別するためシーン分析をするプロセッサと、及びプロセッサの命令に応答して1つの画像を形成するコンテンツプロジェクタと、 を有することを特徴とする装置が提供される。
本発明の装置の一側面では、着用可能モニタを有し、コンテンツプロジェクタは投影された画像を仮想画像として着用可能モニタ又は仮想空間に形成するように動作可能である。検知要素、プロセッサ、及びコンテンツプロジェクタは着用可能モニタに包含されてもよい
本発明をより理解するため、発明の詳細が例示のための実施形態を参照して示される。それは図を参照し、図内の類似の要素は類似の参照番号を与えられる。
本発明の開示された実施形態に従って構築され、稼動する相互作用3次元ビデオディスプレイシステムの概略鳥瞰図である。 本発明の1実施形態に従って構築され、稼動する図1のシステムのブロック図である 本発明の1実施形態に従って構築され、稼動する例示的処理装置の一部分の機能的要素を示すブロック図である。 本発明の1実施形態に従った、シーン内の3次元物体を識別する方法の例示的フロー図である。 本発明の1実施形態に従った、疑似表面上に投影された携帯機器のスクリーンを示す図である。 本発明の1実施形態に従った装着可能モニタを含む相互作用3次元ビデオディスプレイシステムを示す図である。
以下の記述では本発明の種々の原理を十分に理解するため多くの特定の詳細が示される。しかし当業者にとってこれらの詳細の全てが本発明を実施するために必要であるとは限らないことは明白である。本明細書では全体の概念を必要に不明確にしないために、周知の回路、制御ロジック、従来技術のアルゴリズムやプロセスに対するコンピュータプログラム命令の詳細は示されない。
ここで使用される「コンテンツ投影」とは、コンテンツの画像をシースルーの眼鏡のような着用可能透明モニタ上に形成すること、その場合画像は眼鏡着用者以外には見えないが、又は物理的物体上に形成すること、その場合はその物体と相互作用する誰にでも見えるが、を含む。この用語は上記の事例に留まらない。それは網膜投影、シースルー眼鏡上への投影、画像の仮想空間への投影、例えばホログラムとして、及び拡張現実を生成する他の技術、を含む多くの手段で画像を形成することを含む。
(システム構成)
図1は本発明の開示された実施形態に従って構築され、作動する相互作用3次元ビデオディスプレイシステム10の概略鳥瞰図である。システム10は3−D(3次元)カメラ12を有し、カメラ12は赤外プロジェクタ及びそのプロジェクタ帯域に対して開かれた対応するCMOS/CCDを有してもよい。3−Dカメラ12は、ユーザの身体(又は少なくとも身体の一部)、コンピュータアプリケーションを制御するためユーザが操作または振り回す接触可能実体、及び3−Dカメラ12の視野内の他の物体を含む、3−D情報を獲得する。この種の3−D画像化組立体の詳細は特許文献4及び特許文献5に記載され、それはここに参照され採り入れられる。
3−Dカメラ12は一般的に近赤外スペクトルにおいて動作する。しかし、本発明の原理は、3−Dカメラ12が電磁エネルギーを近赤外スペクトル以外、例えば遠赤外又は紫外エネルギーで獲得することを可能にする変更に対しても同様に適用可能である。システム10はまた、2−D(2次元)カメラ14を有してもよく、それは可視光スペクトルにおいて動作し、シーン内の書込まれた情報の自動的解釈を可能にするのに十分な解像度で1つのシーンを獲得でき、そして典型的に赤緑青(RGB)出力信号を生成する。
3−Dカメラ12と2−Dカメラ14は、全てコンピュータ18のようなプロセッサの制御の下でコンテンツプロジェクタ16と協働する。
3−Dカメラ12と2−Dカメラ14をバンドルするシステム10に適合するユニットはプライムセンス社、米国27513ノースカロライナ州Cary,Cambay Ct.104から入手可能なプライムセンサ(登録商標)リファレンスデザインである。コンテンツプロジェクタ16はミクロビジョン社、米国6222ワイオミング州Redmond,185th Ave.NEから入手可能なPi−coP(登録商標)ディスプレイエンジンでもよい。ある実施形態では3−Dカメラ12と2−Dカメラ14はプライムセンサ(登録商標)リファレンスデザインの変化形としてコンテンツプロジェクタ16に統合されてもよい。ある実施形態では、3−Dカメラ12と2−Dカメラ14は、スポットのパターンを物体上に投影しそして投影されたパターンの画像を獲得する赤外線プロジェクタを含む統合モジュールである。
あるいは、赤外線プロジェクタは他のモジュール(不図示)として実現されてもよい。赤外線プロジェクタは2010年8月11日出願の特許文献6及び2010年12月22日出願の特許文献7の教授に従って実施可能であり、これら文献はここに参照され採り入れられる。この暫定出願はまた深さマッピングに必要な赤と、可視コンテンツの両方を投影するためにスキャン用ハードウェアを再使用する方法を教授している。
プロセッサは一般的に引用されるタイトル「3次元シーンの分析」の特許文献8の教授を使用してシーンを分析してもよく、この文献はここに参照され採り入れられる。
コンピュータ18は、以下に記載される機能を実行するようにソフトウェア内でプログラムされる汎用コンピュータプロセッサを有してもよい。ソフトウェアは電子形態で、例えばネット経由でプロセッサにダウンロードされてもよく、或いは、非一過性接触可能記憶媒体、例えば、光学、磁気、又は電子的記憶媒体上に提供されてもよい。さらに或いは、画像化機能の一部又は全部がカスタム、準カスタムIC又はプログラム可能デジタル信号プロセッサ(DSP)のような専用ハードウェア内に実装されてもよい。コンピュータ18は例示のため3−Dカメラとは別のユニットとして図1に示されるが、コンピュータの一部又は全部の処理機能は3−Dカメラ12と2−Dカメラ14に付属する又は躯体内適切な専用回路により実行されてもよい。
以下の議論に見られるように、ユーザが動き回り、そして自由にほぼリアルタイムでシーンと相互作用できるために、システム10の要素は小型化されそして着用可能モニタに包含されてもよい。いずれの場合も3−Dカメラ12と2−Dカメラ14はセンサ要素として機能し、シーン(ユーザとその周辺)を観察する。コンピュータ18は、認識要素として機能し、そのシーンその周辺内のユーザ相互作用を、コンテンツプロジェクタ16により提供された情報により媒介され又は誘発されるように理解する。
コンピュータ18はプライムセンサ・レファレンスデザインと共にプライムセンス社から入手可能なNite(登録商標)ミドルウェアを使用してもよい。例えば、プライムセンサ・レファレンスデザインはコンピュータ18のアプリケーションレイヤに制御ウィジェットを提供し、それにより、ユーザの所作又は姿勢を既知の決定論的アプリケーション入力に翻訳する、アプリケーションプログラムインタフェース(AP)を提供する。そのミドルウェアは、赤外線プロジェクタを有する3−Dカメラ12と2−Dカメラ14を含む、システム10の構成要素により生成されたデータに画像処理操作を実行し、ユーザ20及び獲得されたシーンの3次元マップを再構築する。
「3次元マップ」とはある所与の物体の表面を表わす1組の3次元座標を意味する。3次元マップのある形態は深さ画像又は深さマップと呼ばれ、そこでは各ピクセルは、2次元画像でのその点の輝度及び色彩ではなく、カメラからシーン内の対応する点までの距離を示す1つの値を有する。コンピュータ18はその後、対照実体の表面上の点の3次元座標を、パターン内のスポットの横方向ずれに基づいて三角法により計算する。
代表的なアプリケーションでは、3−Dカメラ12で獲得された情報は、コンテンツプロジェクタ16を駆動するコンピュータ18により処理される。コンピュータ18はユーザに対し自然な又は作為的な経験を生成するように設計されたプログラムに従って作動してもよい。図1に示すように、システム10はシーン内の1つの本を認識し、そして販売オファー24「75.99ドルで買いましょう」をその本22の上に投影した。ユーザはそのオファーに手の所作(ジェスチャー)26で応答していて、それはコンピュータ18への入力としての役割を果たす。コンピュータ機器のジェスチャー制御は例えば一般的に引用される特許文献5により公知であり、その文献はここに参照され採り入れられるが、それはまた仮想画像空間へのシーンの投影の方法を教授している。ジェスチャー制御はNiteミドルウェアの機能性に含まれ、そは3−Dカメラ12と2−Dカメラ14によって獲得されたユーザ20の所作、例えば販売オファーに対する応答、を解釈する。
さらに、ユーザ20本22及び販売オファー24との相互作用が、例えば本22を掴むユーザ20により発現すると、コンピュータ18内で実行される凝視識別モジュールが、ユーザ20が本22を見ていると認識してもよい。獲得された2次元画像を処理することにより、本のタイトルがコンピュータ18内で認識、解釈可能である。その後、最適投影パラメータを計算して、書評が本22の上に投影されてもよい。ユーザ20は投影された書評を、あたかもそれをディスプレイスクリーン上で見ているようにスクロールし、書評と相互作用してもよい。このように、システム10は、ユーザ20と協働して、ユーザ20の利便のために、本22を即興的なやり方で仮想情報スクリーンに変換する。
システム10はディスプレイスクリーン28及びキーボード30やマウス32のような従来技術の入力装置を選択肢として含み、それらは管理目的、例えば、システム構成のため及びユーザ20によるシステム10の作動制御のためのユーザインタフェースを提供してもよい
図2は発明の1実施形態に従う図1のシステム10のブロック図である。シーン34が2つのカメラ2−Dカメラ36と3−Dカメラ38により同時に獲得され、それらのカメラは別個のユニットでも、組合わされたユニットに統合されていてもよい。或いは、シーンは2−Dカメラ36のみにより獲得され、又は3−Dカメラ38のみにより獲得されてもよいが、いずれの場合も獲得された画像に対し画像解析が行われる。上述のようにこれらカメラはプライムセンサ・レファレンスデザインとして実現されてもよい。2−Dカメラ36と3−Dカメラ38によるデータ出力はプロセッサ40への入力であり、そのプロセッサはミドルウェア、例えば上記のNiteミドルウェアを実行する。
ミドルウェアは2つのカメラに獲得されたシーン位置合わせする。ミドルウェアは物体分析モジュール42を含み、それはシーン34内の物体を識別し、そしてそれらの物体それらの上にコンテンツを投影することに適しているかを判断する。ミドルウェアのもう1つの要素であるプロジェクタ制御モジュール44はシーン34内の物体、例えば1つの物体46の座標と特性を変換し、そして投影用の1つの画像を準備する。モジュール44はプロジェクタ48に対し適切な命令を発し、それにより画像、一般的に情報コンテンツを含む、が物体46上に投影される。命令は物体46の寸法、姿勢及び構成に起因する歪みに対する補正を含んでもよい。さらに或いはプロジェクタ48はこのような歪みを補正するそれ自身のメカニズムを有してもよい。
ユーザの位置と姿勢は投影パラメータを計算する時に考慮されてもよい。例えば、上記のように、投影されたコンテンツへの視線ベクトルはユーザがシーン内で動くと変化する。投影パラメータは、ユーザにとって現実的な経験であると装うため、このような変化を補償するように調整される、例えば、寸法、視差及び類似の歪みに対して調整されてもよい。このような調整の1つの例は、3次元物体は異なる方向から見ると異なって見える、即ち、物体の異なる側面又は異なる2次元投影が観察者に見えるようになる、という事実に対する調整である。投影コンテンツは視線ベクトル及び仮想物体に対するユーザの位置の関数として調整可能であり、それにより観察者の前に物体が実際に存在するという現実的な経験を生成する。
視線方向は周知の既存技術により観測可能である。例えば、シースルーの眼鏡に埋め込まれた装置の場合は、ヘッド位置の向きは、周りの世界の装置に対する厳密な位置合わせにより得られる。視線方向はまた、例えば、Tobiiテクノロジー社、バージニア州フォールズチャーチ、ワシントンストリート510N、スイート200から入手できる視標追跡製品を使用して測定可能である。視線はその後センサによって得られた3次元情報を使用して物体の座標に翻訳されてもよい。
(物体認識)
体の部位を識別し追跡する技術はタイトル「3−Dマップからの骨格の抽出」のよく指定される特許文献9により公知であり、この文献はここに参照され採り入れられる。本質的に、これはヒト類似形状を含むシーンの深さマップの一時的シークエンス受取ることにより達成される。デジタルプロセッサは少なくとも1つの深さマップを処理し、頭又は手のような所定の身体部位の位置を発見し、そして位置に基づいてヒト類似形状の寸法を推定する。プロセッサは推定寸法を使用してヒト類似形状の動きをシークエンスに亘って追跡する。これらの教授は上記のNiteミドルウェアに採用されており、そして他の公知の認識ルーチンを組み合わせることにより当業者により改良可能である。
例えば、体の頭部を識別する場合、1つの3次元形状を分割分析して右腕と左腕を識別し、その後それらの腕の間の空間を検索して頭部を見つけてもよい。さらに或いは、認識技術が使用されてもよい。深さマップは頭又は他の物体の2次元画像と位置合わせされてもよい。プロセッサはパターンまたは顔認識技術を適用して2次元画像内のヒト類似形状の顔を識別してもよい。2次元画像内の顔の位置は3次元形態の頭の位置と関連付けられる。同一の技術を使用して、シーン全体が分析され、分割され、そして物既知のカテゴリーが、画像をその上に投影す候補として識別されてもよい
(物体プロセッサ)
図3は本発明の1実施形態に従って構築され、稼動するプロセッサ40(図2)の構成要素である、例示的処理装置50の一部分の機能的要素を示すブロック図である。処理装置50は選択肢としてのホストコンピュータ54へのUSBポート52を有する、単一の半導体基板上の専用の集積回路に組み立てられてもよい。処理装置50は物体分析器56を含む他のインタフェースをも有してもよい。物体分析器56はデータベース58にリンクされ、それは物体分析器56に認知されそして評価されるべき物体の記述を含むライブラリを保持する。当業者は処理装置50の他の構成を構成可能であろう。上述のように、処理装置50の動作は命令メモリ60及びデータメモリ62内に存在するミドルウェアにより制御可能である。
深さプロセッサ64は3Dカメラ12(図1)が捕獲した情報を処理して深さマップを生成する。深さプロセッサ64はメモリ66内の専用メモリ空間を使用する。以下に示すように、このメモリはコントローラ68からもアクセス可能であるが、一般的にはホストコンピュータ54からはアクセス不能である。むしろ、深さプロセッサ64はアプリケーションプログラムインタフェース(API)経由でホストコンピュータ54によりプログラムされる。
深さプロセッサ64は深さCMOSインタフェース70経由で3Dカメラ12(図1)から入力IRデータを受け取る。深さプロセッサ64はビデオデータを処理して連続する深さマップ、即ち深さデータのフレームを生成する。深さプロセッサ64はこれらのデータをUSB FIFO(先入れ先だし)ユニット74内の深さFIFOメモリ72にロードする。
深さ入力と処理操作に並行して、カラー処理ブロック76が入力カラービデオデータを2Dカメラ14(図1)からカラーCMOSセンサインタフェース78経由で受け取る。カラー処理ブロック76は未処理の入力データをRGBビデオデータの出力フレームに変換し、これらのデータをUSB FIFOユニット74内のRGB FIFOメモリ80にロードする。或いは、カラー処理ブロック76がYUV又はベイヤー(Bayer)モザイクフォーマットなどの他のフォーマットのビデオデータを出力してもよい。
USB FIFOユニット74は種々のデータ供給元とUSBコントローラ82との間のバッファレベルとして動作する。ユニット74は種々のデータタイプを異なるクラス(USBビデオクラスやUSB音響クラスなど)に従ってパックしフォーマットし、またさらにUSBバンド幅異常に起因するデータ損出を防止するように働く。それはUSBコントローラにデータを送信する前に、USBプロトコル及びフォーマットに従ってデータをUSBパケットに整える
高度高性能バス(AHB)84のような高帯域幅バスマトリックスが処理装置50の構成要素間のデータ輸送に使用され、特にホストコンピュータ54への送信のためのUSB FIFOユニット74からUSBコントローラ82へのデータ転送に使用される。(AHBはARM社、英国ケンブリッジ市、により発表されたバスプロトコルである。)USB FIFOユニット74にパケットが準備済みで、そしてUSBコントローラ82の内部メモリに空きが有る場合、USBコントローラ82はダイレクトメモリアクセス(DMA)を使用して、データを深さFIFOメモリ72、RGB FIFOメモリ80及び音響FIFOメモリ86からHBスレーブモジュール88及びHBバスマトリックス84経由で読み出す。USBコントローラ82はUSBポート52経由でのホストコンピュータ54への出力のため、カラー、深さ及び音響データを、単一のデータ流にマルチプレクスする。
USB通信のため、処理装置50はUSB物理層インタフェース、PHY90を有し、それはUSBコントローラ82により操作されて合するUSBケーブル経由でホストコンピュータ54のUSBポートと通信してもよい。USB PHYのタイミングは、周知のように水晶振動子92及び位相固定ループ(PLL)94により制御される。
或いはUSBコントローラ82は選択肢として、ホストコンピュータ54とUSB2.0送受信機マクロセルインタフェース(UTMI)及び外部PHY96経由で通信してもよい。
プロジェクタ制御モジュール98を含む種々の外部装置がホストコンピュータ54と協働して処理装置50と接続してもよく、プロジェクタ制御モジュール98は処理装置50及びホストコンピュータ54から命令を受け取り、所望の画像を空間内の特定の座標に投影する。
コントローラ68は、ブートアップ、自己診断テスト、構成、電源及びインタフェース管理、及びパラメータ調整を含む、処理装置50の機能の管理に責任を負っている。
コントローラ68は、HBマトリックス84上のデータ移動を制御するためのデジタル信号プロセッサ(DSP)コア100及びAHBマスタ102を有してもよい。一般的に、コントローラ68はブート読み出し専用メモリ104からブートし、そしてその後プログラムコードをフラッシュメモリ(不図示)からフラッシュメモリインタフェース106経由で命令RAM60及びデータメモリ62にロードする。コントローラ68は更に外部コンピュータ110によるデバッグのため、共同テスト行動委員会(JTAG)インタフェースのようなテストインタフェース108を有してもよい。
コントローラ68は構成データ及びパラメータを処理装置50の他の構成要素に、高度ペリフェラルバス(APB)のような構成登録インタフェース112経由で配布し、コントローラ68は構成登録インタフェース112にHBマトリックス84及びAPBブリッジ114経由で接続している。
処理装置50の更なる詳細は前述の特許文献4に記載されている。
(物体分析)
図3を引き続き参照して、物体分析器は、カラー処理ブロック76とUSB FIFOユニット74と協働して深さプロセッサ64により作られたデータを評価し、3Dカメラ12(図1)により獲得されたシーンを評価する。
物体分析器56によって実行されるアルゴリズムはホストコンピュータ54内のアプリケーションプログラムにより指示されてもよい。例えば物体分析器56はデータベース58内で特定されたシーン内の1つ以上の既知の物体を検索し報告するように命令されてもよい。その後直ちにホストコンピュータ54はコンテンツプロジェクタ16(図1)に、選択された物体上に像を投影するように命令してもよい。さらに或いは、物体分析器56は、データベース58に頼ることなく、事前設定の判断基準に合致する物体を識別し報告するように命令されてもよい。
識別された物体に関して物体分析器56によって通信されるデータは、一般的に物体の寸法と位置、及び、好適には対照座標系に対する縮尺、ピッチ、ヨー及び回転角度を含む自由度6の方向を含む。この情報によりプロジェクタは、投影された画像を適切に縮尺しそして歪めることにより歪みを補償して、その画像を選択された物体上に投影し、観察者が実質的に歪みの無い画像を見ることが可能となる。投影された画像の構成は、例えばタイトル「画像処理装置、画像処理方法及びプログラム」の特許文献10から公知である。複雑な光学的装置のコストを無くし、そして簡単にオフアクシス画像変形のような影響を避けることを可能にするため、画像がソフトウェア内で構成されてもよい。或いは上記のように商業的に利用可能な投影が、歪み制御のためのそれら自体の補償を提供してもよい。
図4は本発明の1実施形態に従ったシーン内の3次元物体を識別する方法の例示的フロー図である。説明の利便性のため、方法は図1及び図3の装置に関連して開示されているが、異なる構成にも適用可能である。説明の容易さのため、処理ステップは図4の特定の直線的な順列で示されるが、多くの処理ステップが非同期で並行処理され、又は別の順序で処理可能なことは自明である。当業者は、1つの処理プロセスが代替として多くの相互に関連した状態又はイベント、例えば状態図として表示可能であることを理解しよう。さらに、全ての表示されたステップがプロセスの実行に必要ではないかもしれない。またさらに、詳細の多くはホストコンピュータ54の命令及びアプリケーションプログラムの要求により変化する可能性がある。
観察者が本屋にいると仮定する。最初のステップ116においてホストコンピュータ54で実行されるアプリケーションプログラムがテキスト情報を表示する開いた本を識別しようとする。これはデータベース58内既知の定義を有する3次元物体であり、それは少なくとも1つの一般的に明るい色の平らな表面を有している。3Dカメラ12が起動され、そして3次元のシーンが処理装置50の中に獲得される。物体分析器56がシーンを評価し、3次元空間物体を位置決めし、そして識別する。
判断ステップ118において1つの平らな表面がシーン内で位置決めされたかが判断される。
つぎに判断ステップ120に進み、そこで平らな表面が本に対する判断基準に適合するかが判断される。判断基準には、中でも、寸法、他の一定の物体との近接度、及び閉じた又は開いた本に対応する幾何学的詳細を含む。
判断ステップ120が「はい」の場合、最後のステップ122に進む。本の座標と向きが物体分析器56によりコントローラ68に報告され、コントローラ68は、プロジェクタ制御モジュール98に対しホストコンピュータ54と協働してアプリケーション判断した画像(MENU−1)を識別された本の上に表示するように命令する。その画像は例えば、そのアイテムを購入する、又は追加の詳細情報、例えば本の書評、や人気ランキングを獲得する、という選択肢を含んでもよい。実際、3Dカメラ12が本のタイトルの獲得に成功した場合、追加の詳細情報が投影される画像に含まれてもよい。ホストコンピュータ54がーカルの又は分散データベースにアクセスを有しており、又はンターネット経由で自動的に問合せすることが出来ると仮定されている。
判断ステップ120における判断が「いいえ」の場合、判断ステップ124に進む。シーン内に処理すべき物体がまだあるかが判断される。
判断ステップ124における判断が「はい」の場合、判断ステップ118に戻る。
判断ステップ124における判断が「いいえ」の場合、方法の第2の状態が始まる。アプリケーションプログラムは、3Dカメラに見える場合、画像がユーザの手に投影される第2の選択肢に至ると仮定されている。
判断ステップ126に進み、シーン内に身体部分があるかが判断される。これは上記特許文献10の教授を使用して達成できる。
判断ステップ126における判断が「はい」の場合、判断ステップ128に進み、身体部分が手であるかが判断される。
判断ステップ128における判断が「はい」の場合、最終ステップ130に進み、それはステップ122と類似している。しかしこのステップでは手に異なるメニュー(MENU−2)が投影され、それは、例えば、コンピュータアプリケーションを管理する制御選択肢を含んでもよい。最終ステップ122及び130の両方において、ユーザがコンテンツと相互作用するに、ユーザの側に自然な感覚を形成するように画像が構成される。
判断ステップ128における判断が「いいえ」の場合、判断ステップ132に進み、シーン内にまだ処理すべき物体があるかが判断される。
判断ステップ132における判断が「はい」の場合、判断ステップ126に戻る。そうでない場合、最終ステップ134に進み、従来のメニューが表示スクリーン上に表示される。最終ステップ134は、画像をその上に投影する適合する外部の物体が識別できなかったことを意味する。
図4の方法は、支配するアプリケーションプログラムの仕様に従う必要性に基づいて変更され、そして詳細を作成される可能性が有ることに留意されたい。種々の物体と画像の認識と優先順位付けは、特定のシーンの構成とプログラム自体のニーズを包含するようにプログラムされてよい
(代替的実施形態1)
この実施形態は第1の実施形態と類似するが、異なる点は、画像の投影とユーザによるアクセスのため便利な仮想面が提供される点である。図5には、一般的に携帯電話、例えばスマートフォンなどの携帯情報機器138のスクリーン136が示され、それは本発明の実施形態に従って仮想表面上に投影される。このような機器は便利な相互作用及びメディアの使用には小さすぎる。スクリーン136は小型プロジェクタ140及び検知機器142を内蔵し、それらは図1の実施形態における3Dカメラ12とコンテンツプロジェクタ16と同じ機能を果たす。この目的に適したプロジェクタは、例えばミクロビジョン社から入手可能である。この実施形態では、プロジェクタ140は1つの画像を仮想投影面144に投影し、その画像はスクリーン136に比べて拡大されている。
操作の1つのモードではプロジェクタ140はスクリーン136上に表示された情報の拡大バージョンを生成してもよい。
他の1つのモードでは、検知機器142が外部のシーンを獲得する。携帯情報機器138は図4を参照して上記で記載されたシーン分析方法を実行するように構成されてもよい。この事例では、開いた本146が外部シーン内で識別された。携帯情報機器138内で実行されるアプリケーションプログラムは、プロジェクタ140に本146の画像148を仮想投影面144に投影させ、メニュー150を画像148上に重ね合わせる。メニュー150はユーザに本146をセールス価格75.99ドルで購入するか、表示をキャンセルするかを訊ねている。
(代替実施形態2)
第1の実施形態では、画像は物理的物体、例えば、本又は手、の上の投影として記述された。この実施形態では、プロジェクタはコンテンツを眼鏡のような着用可能モニタ上に投影する機器として実施されている。この実施形態では、図4の最終ステップ122と130は変更される。
図6は、本発明の1実施形態に従った装着可能モニタを含む相互作用3次元ビデオディスプレイシステムを示す図である。システムは、それぞれの画像を物体自体ではなく装着可能モニタに投影する。このような機器は、図4を参照して記述された方法によって形成されるコンピュータ生成画像が、実世界の光景の上に生成され、かつ選択肢として重ね合わされることを許容する可能性を提供する。このような機器は、一方で外部シーンを見ながら、コンピュータ生成画像を部分反射鏡経由で投影することにより動作してもよい。あるいは機器がコンピュータ生成画像と現実世界の光景を電子的に混合してもよい。
図6の事例では、ユーザ152は立体画像を表示可能な着用可能モニタ154を着用している。着用可能モニタ154はシステム10(図1)の構成要素と類似の構成要素を有し、またインタフェースされている。システム10と同様に、着用可能モニタ154は外部シーンを分析するように適応されている。この事例では、それは本146を識別し、そして画像148(図5)と同じ情報を含む画像156を生成する。着用可能モニタ154は分離されたユニットでも、システム10の他の構成要素を包含してもよい。
図6の実施形態において、着用可能モニタ154は、小型プロジェクタ158及び検出要素160を含む。さらに或いは、着用可能モニタ154は外部のプロセッサ又は検知装置と無線リンク経由で通信してもよい。着用可能モニタ154として使用可能な着用可能ヘルメット搭載ディスプレイ及びシースルー眼上着用ディスプレイは、ノベロ(Novero)社のマディソン製品群又はルマス(Lumus)社、2 Bergman Street Rehovot 76705,イスラエルより入手可能である。
画像156は着用可能モニタ154内で実際に形成されるが、ある実施形態では図6に示すように、ユーザ152には、空間の外部領域内に重ね合わされているように観察されてもよい。このような実施形態における着用可能モニタ154は位置決め、頭追跡、及び視標追跡サブシステムを具備してもよい。
当業者は、本発明が上記において特に示され記述されたものに限定されないことを理解しよう。本発明の範囲は上記の種々の特徴の組合せやサブ組合せを含み、また上記の記載を読んだ当業者が想起する従来技術にない変形や変更を含む。

Claims (10)

  1. データを処理する装置であって、
    3次元カメラを有する、シーン(視覚野)を獲得するための検知要素と、
    前記3次元カメラと同時に前記シーンの2次元画像を獲得するための2次元カメラと、
    前記3次元カメラ及び前記2次元カメラの両方にリンクし、前記3次元カメラの出力を使用して前記シーンの深さマップを生成するようにプログラムされ、そして画像をその上に投影するための事前設定基準に適合する前記シーン内の1つの3次元物体を識別するためシーン分析をするプロセッサと、及び
    前記プロセッサの命令に応答して前記3次元物体上に1つの画像を形成するコンテンツプロジェクタと、
    を有し、
    前記プロセッサが前記2次元画像の中の前記3次元物体に関する情報を認識するように動作し、そしてさらに前記プロセッサが、認識された前記情報に応答して前記コンテンツプロジェクタに対し前記3次元物体のメタデータを前記画像の中に含むように命令するように動作することを特徴とする装置。
  2. 前記1つの画像を形成するステップは前記1つの画像を前記1つの3次元物体の上に投影するステップを含む、ことを特徴とする請求項1に記載の装置。
  3. 前記プロセッサの命令は前記シーン分析に対する応答であり、前記プロセッサは、前記シーン分析に応答して少なくとも1つの投影パラメータとコンテンツを変化させることについて前記コンテンツプロジェクタと協働する、ことを特徴とする請求項1に記載の装置。
  4. 前記プロセッサは、ユーザと前記シーンとの相互作用に応答して前記画像の特性を変化させることについて前記コンテンツプロジェクタと協働する、ことを特徴とする請求項1に記載の装置。
  5. 前記相互作用は前記3次元物体に向かう前記ユーザの視線ベクトルの変化を含む、ことを特徴とする請求項4に記載の装置。
  6. 着用可能モニタをさらに有し、前記コンテンツプロジェクタは前記画像を仮想画像として前記着用可能モニタに形成するように動作し、そして前記検知要素、前記プロセッサ、及び前記コンテンツプロジェクタは前記着用可能モニタに包含される、ことを特徴とする請求項1に記載の装置。
  7. データ処理システムとの拡張された相互作用の方法であって、
    シーンの1つの3次元画像を獲得するステップと、
    前記3次元画像と同時に前記シーンの1つの2次元画像を獲得するステップと、
    デジタルプロセッサを使用して、前記1つの3次元画像を処理してその中の3次元物体を位置決めし、そしてその上の画像の投影のための事前設定の判断基準を満たす3次元物体を識別するステップと、そして
    前記プロセッサの命令にしたがって、ユーザが相互作用するための、コンテンツを包含する1つの画像を前記3次元物体上に形成するステップと、
    を有
    前記プロセッサが前記2次元画像の中の前記3次元物体に関する情報を認識するように動作し、そしてさらに前記プロセッサが、認識された前記情報に応答して前記コンテンツプロジェクタに対し前記3次元物体のメタデータを前記画像の中に含むように命令するように動作することを特徴とする方法。
  8. 前記ユーザと前記シーンとの相互作用に応答して前記コンテンツを包含する1つの画像の特徴を変更するステップをさらに有し、前記相互作用は、前記ユーザの前記3次元物体の1つに向く視線ベクトルの変化を含む、ことを特徴とする請求項7に記載の方法。
  9. データ処理システムとの拡張された相互作用の方法であって、
    その上に画像を投影するための第1の判断基準を満たす3次元物体、を含むシーンの深さマップを受信するステップと、
    前記深さマップと同時に獲得された、前記シーンの、1つの2次元画像を受信するステップと、
    デジタルプロセッサを使用して、前記深さマップを処理して前記3次元物体の位置を決めるステップと、
    コンピュータアプリケーションを実行して前記2次元画像を分析し、第2の判断基準に従って最も適合する前記3次元物体の1つを識別するステップと、
    前記コンピュータアプリケーションに対するユーザインタフェースをコンテンツを含む画像として、前記最も適合する3次元物体の内の1つの上に投影するステップと、
    前記デジタルプロセッサを使用して、所作を認識するステップと、
    前記所作を前記ユーザインタフェースとの相互作用として解釈するステップと、そして 前記相互作用に応答して前記コンピュータアプリケーションを制御するステップと、
    を有することを特徴とする方法。
  10. データ処理システムとの拡張された相互作用の方法であって、
    その上に画像を投影するための第1の判断基準を満たす3次元物体、を含むシーンの深さマップを受信するステップと、
    前記深さマップと同時に、前記シーンの、1つの2次元画像を獲得するステップと、
    デジタルプロセッサを使用して、前記深さマップを処理して前記3次元物体の位置を決めるステップと、
    コンピュータアプリケーションを実行して、前記2次元画像に適用される第2の判断基準に従って最も適合する前記3次元物体の1つを識別するステップと、
    前記最も適合する3次元物体の1つの画像を着用可能モニタ上に投影するステップと、 前記デジタルプロセッサを使用して、所作を認識するステップと、
    前記所作を前記最も適合する前記3次元物体の1つの画像との相互作用として解釈するステップと、そして
    前記相互作用に応答して前記コンピュータアプリケーションを制御するステップと、
    を有することを特徴とする方法。
JP2013520267A 2010-07-20 2011-07-18 自然な相互作用のための相互作用的現実拡張 Active JP5791131B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US36578810P 2010-07-20 2010-07-20
US61/365,788 2010-07-20
PCT/IB2011/053192 WO2012011044A1 (en) 2010-07-20 2011-07-18 Interactive reality augmentation for natural interaction

Publications (3)

Publication Number Publication Date
JP2013541747A JP2013541747A (ja) 2013-11-14
JP2013541747A5 JP2013541747A5 (ja) 2014-07-31
JP5791131B2 true JP5791131B2 (ja) 2015-10-07

Family

ID=45496575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013520267A Active JP5791131B2 (ja) 2010-07-20 2011-07-18 自然な相互作用のための相互作用的現実拡張

Country Status (4)

Country Link
US (1) US9158375B2 (ja)
JP (1) JP5791131B2 (ja)
CN (1) CN102959616B (ja)
WO (1) WO2012011044A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017145787A1 (ja) 2016-02-23 2017-08-31 ソニー株式会社 遠隔操作装置、および遠隔操作方法、遠隔操作システム、並びにプログラム

Families Citing this family (102)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9035876B2 (en) 2008-01-14 2015-05-19 Apple Inc. Three-dimensional user interface session control
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
JP2012000165A (ja) * 2010-06-14 2012-01-05 Sega Corp ビデオゲーム装置
JP5791131B2 (ja) 2010-07-20 2015-10-07 アップル インコーポレイテッド 自然な相互作用のための相互作用的現実拡張
US9201501B2 (en) * 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
US8959013B2 (en) 2010-09-27 2015-02-17 Apple Inc. Virtual keyboard for a non-tactile three dimensional user interface
US9292973B2 (en) 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
US8872762B2 (en) 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
US9213405B2 (en) 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
US9285874B2 (en) 2011-02-09 2016-03-15 Apple Inc. Gaze detection in a 3D mapping environment
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US9153195B2 (en) 2011-08-17 2015-10-06 Microsoft Technology Licensing, Llc Providing contextual personal information by a mixed reality device
US20130044912A1 (en) 2011-08-19 2013-02-21 Qualcomm Incorporated Use of association of an object detected in an image to obtain information to display to a user
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US9122311B2 (en) 2011-08-24 2015-09-01 Apple Inc. Visual feedback for tactile and non-tactile user interfaces
WO2013028908A1 (en) 2011-08-24 2013-02-28 Microsoft Corporation Touch and social cues as inputs into a computer
CA2750287C (en) 2011-08-29 2012-07-03 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US20130147801A1 (en) * 2011-12-09 2013-06-13 Samsung Electronics Co., Ltd. Electronic apparatus, method for producing augmented reality image, and computer-readable recording medium
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
US9330478B2 (en) 2012-02-08 2016-05-03 Intel Corporation Augmented reality creation using a real scene
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
US20130234930A1 (en) * 2012-03-07 2013-09-12 Julian Palacios Goerger Scanning mirror laser and projector head-up display glasses
CN104246682B (zh) 2012-03-26 2017-08-25 苹果公司 增强的虚拟触摸板和触摸屏
JP5550670B2 (ja) * 2012-03-28 2014-07-16 株式会社デンソーアイティーラボラトリ 情報処理装置
US9218526B2 (en) 2012-05-24 2015-12-22 HJ Laboratories, LLC Apparatus and method to detect a paper document using one or more sensors
US8934675B2 (en) 2012-06-25 2015-01-13 Aquifi, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
US9111135B2 (en) 2012-06-25 2015-08-18 Aquifi, Inc. Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US9286530B2 (en) 2012-07-17 2016-03-15 Cognex Corporation Handheld apparatus for quantifying component features
US9275302B1 (en) * 2012-08-24 2016-03-01 Amazon Technologies, Inc. Object detection and identification
US20150262426A1 (en) * 2012-08-28 2015-09-17 University Of South Australia Spatial Augmented Reality (SAR) Application Development System
US20140062864A1 (en) * 2012-09-03 2014-03-06 Samsung Electronics Co., Ltd. Method and apparatus for extracting three-dimensional distance information from recognition target
KR102158096B1 (ko) * 2012-09-03 2020-10-23 삼성전자주식회사 인식 대상으로부터 3차원 거리 정보 추출하는 방법 및 이를 위한 장치
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
CN102902356B (zh) * 2012-09-18 2015-08-26 华南理工大学 一种手势控制系统及其控制方法
WO2014107182A1 (en) * 2013-01-04 2014-07-10 Intel Corporation Multi-distance, multi-modal natural user interaction with computing devices
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
US9092665B2 (en) 2013-01-30 2015-07-28 Aquifi, Inc Systems and methods for initializing motion tracking of human hands
CN104981757B (zh) * 2013-02-14 2017-08-22 苹果公司 灵活的房间控制器
US9298266B2 (en) 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
CN103207709A (zh) * 2013-04-07 2013-07-17 布法罗机器人科技(苏州)有限公司 一种多点触摸系统及方法
US9563955B1 (en) 2013-05-15 2017-02-07 Amazon Technologies, Inc. Object tracking techniques
KR20160014601A (ko) 2013-05-24 2016-02-11 톰슨 라이센싱 다수의 3d 디스플레이들에 대해 오브젝트를 렌더링하기 위한 방법 및 장치
US10075630B2 (en) 2013-07-03 2018-09-11 HJ Laboratories, LLC Providing real-time, personal services by accessing components on a mobile device
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
US9761053B2 (en) 2013-08-21 2017-09-12 Nantmobile, Llc Chroma key content management systems and methods
JP6263917B2 (ja) * 2013-09-17 2018-01-24 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
US10203399B2 (en) 2013-11-12 2019-02-12 Big Sky Financial Corporation Methods and apparatus for array based LiDAR systems with reduced interference
US9195124B2 (en) * 2013-12-20 2015-11-24 Plantronics, Inc. Automatic projector safety protocols
US9484005B2 (en) * 2013-12-20 2016-11-01 Qualcomm Incorporated Trimming content for projection onto a target
US9507417B2 (en) 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
US9911351B2 (en) * 2014-02-27 2018-03-06 Microsoft Technology Licensing, Llc Tracking objects during processes
US9360554B2 (en) 2014-04-11 2016-06-07 Facet Technology Corp. Methods and apparatus for object detection and identification in a multiple detector lidar array
CN104065949B (zh) * 2014-06-26 2016-08-10 深圳奥比中光科技有限公司 一种电视虚拟触控方法及系统
US10311638B2 (en) 2014-07-25 2019-06-04 Microsoft Technology Licensing, Llc Anti-trip when immersed in a virtual reality environment
US9766460B2 (en) 2014-07-25 2017-09-19 Microsoft Technology Licensing, Llc Ground plane adjustment in a virtual reality environment
US9904055B2 (en) * 2014-07-25 2018-02-27 Microsoft Technology Licensing, Llc Smart placement of virtual objects to stay in the field of view of a head mounted display
US10451875B2 (en) 2014-07-25 2019-10-22 Microsoft Technology Licensing, Llc Smart transparency for virtual objects
US10416760B2 (en) 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US9715865B1 (en) * 2014-09-26 2017-07-25 Amazon Technologies, Inc. Forming a representation of an item with light
US10297082B2 (en) 2014-10-07 2019-05-21 Microsoft Technology Licensing, Llc Driving a projector to generate a shared spatial augmented reality experience
CN105589552B (zh) * 2014-10-30 2018-10-12 联想(北京)有限公司 基于手势的投影交互方法及投影交互设备
US9823764B2 (en) * 2014-12-03 2017-11-21 Microsoft Technology Licensing, Llc Pointer projection for natural user input
EP3234685B1 (en) * 2014-12-18 2021-02-03 Facebook Technologies, LLC System, device and method for providing user interface for a virtual reality environment
US10036801B2 (en) 2015-03-05 2018-07-31 Big Sky Financial Corporation Methods and apparatus for increased precision and improved range in a multiple detector LiDAR array
US9525863B2 (en) 2015-04-29 2016-12-20 Apple Inc. Time-of-flight depth mapping with flexible scan pattern
CN104883557A (zh) * 2015-05-27 2015-09-02 世优(北京)科技有限公司 实时全息投影方法、装置及系统
US11054664B2 (en) * 2015-06-18 2021-07-06 Apple Inc. Monitoring DOE performance using software scene evaluation
US9927974B2 (en) * 2015-09-22 2018-03-27 Qualcomm Incorporated Automatic customization of keypad key appearance
GB2544827A (en) * 2015-09-25 2017-05-31 Pixel Matter Ltd Viewer and viewing method
JP6479220B2 (ja) * 2016-01-15 2019-03-06 楽天株式会社 コンテンツ投影制御装置、コンテンツ投影制御方法及びプログラム
US9866816B2 (en) 2016-03-03 2018-01-09 4D Intellectual Properties, Llc Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis
CN105975085A (zh) * 2016-06-01 2016-09-28 云南滇中恒达科技有限公司 一种新媒体ar互动投影系统
US10234935B2 (en) 2016-08-11 2019-03-19 Microsoft Technology Licensing, Llc Mediation of interaction methodologies in immersive environments
US10540491B1 (en) * 2016-10-25 2020-01-21 Wells Fargo Bank, N.A. Virtual and augmented reality signatures
US9983684B2 (en) 2016-11-02 2018-05-29 Microsoft Technology Licensing, Llc Virtual affordance display at virtual target
WO2018150569A1 (ja) * 2017-02-20 2018-08-23 Necディスプレイソリューションズ株式会社 ジェスチャー認識装置、ジェスチャー認識方法、ジェスチャー認識装置を備えたプロジェクタおよび映像信号供給装置
US10937240B2 (en) 2018-01-04 2021-03-02 Intel Corporation Augmented reality bindings of physical objects and virtual objects
CN110488489B (zh) * 2018-05-15 2022-10-11 苹果公司 用于头戴式壳体的眼睛登记
CN109407899A (zh) * 2018-09-12 2019-03-01 北京星云城科技有限公司 一种桌面交互投影系统
US20220017525A1 (en) 2018-12-12 2022-01-20 Merck Sharp & Dohme Corp. Cyclobutyl pyrazolopyrimidine pde9 inhibitors
US11302055B2 (en) 2019-04-01 2022-04-12 Apple Inc. Distributed processing in computer generated reality system
US11749018B1 (en) 2019-05-28 2023-09-05 Apple Inc. Eye enrollment for head-mounted enclosure
US11533351B2 (en) 2020-09-24 2022-12-20 Apple Inc. Efficient delivery of multi-camera interactive content
US11722540B2 (en) 2020-09-24 2023-08-08 Apple Inc. Distributed encoding
US11728932B2 (en) 2020-09-25 2023-08-15 Apple Inc. Communication system with improved reliability
US11742973B2 (en) 2020-09-25 2023-08-29 Apple Inc. Multi-protocol synchronization
EP4295314A1 (en) 2021-02-08 2023-12-27 Sightful Computers Ltd Content sharing in extended reality
JP2024506630A (ja) 2021-02-08 2024-02-14 サイトフル コンピューターズ リミテッド 生産性のためのエクステンデッド・リアリティ
EP4288950A1 (en) 2021-02-08 2023-12-13 Sightful Computers Ltd User interactions in extended reality
WO2023009580A2 (en) 2021-07-28 2023-02-02 Multinarity Ltd Using an extended reality appliance for productivity
CN114040097A (zh) * 2021-10-27 2022-02-11 苏州金螳螂文化发展股份有限公司 一种基于多通道图像采集融合的大场景交互动作捕捉系统
US20230334795A1 (en) 2022-01-25 2023-10-19 Multinarity Ltd Dual mode presentation of user interface elements
US11948263B1 (en) 2023-03-14 2024-04-02 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user
US12099696B2 (en) 2022-09-30 2024-09-24 Sightful Computers Ltd Displaying virtual content on moving vehicles

Family Cites Families (198)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4550250A (en) 1983-11-14 1985-10-29 Hei, Inc. Cordless digital graphics input device
US4789921A (en) 1987-02-20 1988-12-06 Minnesota Mining And Manufacturing Company Cone shaped Fresnel reflector
US4988981B1 (en) 1987-03-17 1999-05-18 Vpl Newco Inc Computer data entry and manipulation apparatus and method
US5588139A (en) 1990-06-07 1996-12-24 Vpl Research, Inc. Method and system for generating objects for a multi-person virtual world using data flow networks
US5973700A (en) 1992-09-16 1999-10-26 Eastman Kodak Company Method and apparatus for optimizing the resolution of images which have an apparent depth
US5495576A (en) 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US6535210B1 (en) 1995-06-07 2003-03-18 Geovector Corp. Vision system computer modeling apparatus including interaction with real scenes with respect to perspective and spatial relationship as measured in real-time
US5852672A (en) 1995-07-10 1998-12-22 The Regents Of The University Of California Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects
RU2109336C1 (ru) 1995-07-14 1998-04-20 Нурахмед Нурисламович Латыпов Способ погружения пользователя в виртуальную реальность и устройство для его реализации
EP0768511A1 (en) 1995-10-16 1997-04-16 European Community Optical three-dimensional profilometry method based on processing speckle images in partially coherent light, and interferometer implementing such a method
US5864635A (en) 1996-06-14 1999-01-26 International Business Machines Corporation Distinguishing gestures from handwriting in a pen based computer by stroke analysis
US5862256A (en) 1996-06-14 1999-01-19 International Business Machines Corporation Distinguishing gestures from handwriting in a pen based computer by size discrimination
US6084979A (en) 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
US6002808A (en) 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
US6118888A (en) 1997-02-28 2000-09-12 Kabushiki Kaisha Toshiba Multi-modal interface apparatus and method
US5917937A (en) 1997-04-15 1999-06-29 Microsoft Corporation Method for performing stereo matching to recover depths, colors and opacities of surface elements
US6049327A (en) 1997-04-23 2000-04-11 Modern Cartoons, Ltd System for data management based onhand gestures
US6008813A (en) 1997-08-01 1999-12-28 Mitsubishi Electric Information Technology Center America, Inc. (Ita) Real-time PC based volume rendering system
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
AU2211799A (en) 1998-01-06 1999-07-26 Video Mouse Group, The Human motion following computer mouse and game controller
US7844914B2 (en) 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
US6076928A (en) 1998-06-15 2000-06-20 Fateh; Sina Ideal visual ergonomic system for computer users
US6064354A (en) 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
US6252988B1 (en) 1998-07-09 2001-06-26 Lucent Technologies Inc. Method and apparatus for character recognition using stop words
US6681031B2 (en) 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6501515B1 (en) 1998-10-13 2002-12-31 Sony Corporation Remote control system
CN1145872C (zh) 1999-01-13 2004-04-14 国际商业机器公司 手写汉字自动分割和识别方法以及使用该方法的系统
US7003134B1 (en) 1999-03-08 2006-02-21 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information
US6614422B1 (en) 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
GB9913687D0 (en) 1999-06-11 1999-08-11 Canon Kk Image processing apparatus
US6512385B1 (en) 1999-07-26 2003-01-28 Paul Pfaff Method for testing a device under test including the interference of two beams
US6512838B1 (en) 1999-09-22 2003-01-28 Canesta, Inc. Methods for enhancing performance and data acquired from three-dimensional image systems
US7548874B2 (en) 1999-10-21 2009-06-16 International Business Machines Corporation System and method for group advertisement optimization
WO2001095061A2 (en) 1999-12-07 2001-12-13 Frauenhofer Institut Fuer Graphische Datenverarbeitung The extended virtual table: an optical extension for table-like projection systems
US6507353B1 (en) 1999-12-10 2003-01-14 Godot Huard Influencing virtual actors in an interactive environment
US6757068B2 (en) 2000-01-28 2004-06-29 Intersense, Inc. Self-referenced tracking
JP2001307134A (ja) 2000-04-19 2001-11-02 Sony Corp 三次元モデル処理装置および三次元モデル処理方法、並びにプログラム提供媒体
US20070078552A1 (en) 2006-01-13 2007-04-05 Outland Research, Llc Gaze-based power conservation for portable media players
US6456262B1 (en) 2000-05-09 2002-09-24 Intel Corporation Microdisplay with eye gaze detection
US7042442B1 (en) 2000-06-27 2006-05-09 International Business Machines Corporation Virtual invisible keyboard
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US6686921B1 (en) 2000-08-01 2004-02-03 International Business Machines Corporation Method and apparatus for acquiring a set of consistent image maps to represent the color of the surface of an object
JP3974359B2 (ja) 2000-10-31 2007-09-12 株式会社東芝 オンライン文字認識装置及び方法並びにコンピュータ読み取り可能な記憶媒体及びオンライン文字認識プログラム
US6816615B2 (en) 2000-11-10 2004-11-09 Microsoft Corporation Implicit page breaks for digitally represented handwriting
JP3631151B2 (ja) 2000-11-30 2005-03-23 キヤノン株式会社 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体
EP1371019A2 (en) 2001-01-26 2003-12-17 Zaxel Systems, Inc. Real-time virtual viewpoint in simulated reality environment
US20040104935A1 (en) 2001-01-26 2004-06-03 Todd Williamson Virtual reality immersion system
JP4337266B2 (ja) 2001-01-31 2009-09-30 コニカミノルタセンシング株式会社 3次元測定方法および3次元測定システム
US6831632B2 (en) 2001-04-09 2004-12-14 I. C. + Technologies Ltd. Apparatus and methods for hand motion tracking and handwriting recognition
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8300042B2 (en) 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US20040135744A1 (en) * 2001-08-10 2004-07-15 Oliver Bimber Virtual showcases
US6741251B2 (en) 2001-08-16 2004-05-25 Hewlett-Packard Development Company, L.P. Method and apparatus for varying focus in a scene
US6822570B2 (en) 2001-12-20 2004-11-23 Calypso Medical Technologies, Inc. System for spatially adjustable excitation of leadless miniature marker
JP4050055B2 (ja) 2002-01-10 2008-02-20 株式会社リコー 手書き文字一括変換装置、手書き文字一括変換方法およびプログラム
US9959463B2 (en) 2002-02-15 2018-05-01 Microsoft Technology Licensing, Llc Gesture recognition system using depth perceptive sensors
US10242255B2 (en) 2002-02-15 2019-03-26 Microsoft Technology Licensing, Llc Gesture recognition system using depth perceptive sensors
WO2003071410A2 (en) 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US7821541B2 (en) 2002-04-05 2010-10-26 Bruno Delean Remote control apparatus using gesture recognition
US7203356B2 (en) 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US20050122308A1 (en) 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
US7370883B2 (en) 2002-06-03 2008-05-13 Intelligent Mechatronic Systems, Inc. Three dimensional occupant position sensor
US6857746B2 (en) 2002-07-01 2005-02-22 Io2 Technology, Llc Method and system for free-space imaging display and interface
US7646372B2 (en) 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7151530B2 (en) 2002-08-20 2006-12-19 Canesta, Inc. System and method for determining an input selected by a user through a virtual interface
SE0202664L (sv) 2002-09-09 2003-11-04 Zenterio Ab Grafiskt användargränssnitt för navigering och selektion från olika valbara alternativ presenterade på en bildskärm
US7526120B2 (en) 2002-09-11 2009-04-28 Canesta, Inc. System and method for providing intelligent airbag deployment
CN100377043C (zh) 2002-09-28 2008-03-26 皇家飞利浦电子股份有限公司 三维手写识别的方法及其系统
US7427996B2 (en) 2002-10-16 2008-09-23 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US6977654B2 (en) 2002-10-30 2005-12-20 Iviz, Inc. Data visualization with animated speedometer dial charts
US20040174770A1 (en) 2002-11-27 2004-09-09 Rees Frank L. Gauss-Rees parametric ultrawideband system
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP2004199496A (ja) 2002-12-19 2004-07-15 Sony Corp 情報処理装置および方法、並びにプログラム
CN1512298A (zh) 2002-12-26 2004-07-14 �ʼҷ����ֵ��ӹɷ����޹�˾ 三维手写识别的方法及其系统
US7573480B2 (en) 2003-05-01 2009-08-11 Sony Corporation System and method for capturing facial and body motion
US7333113B2 (en) 2003-03-13 2008-02-19 Sony Corporation Mobile motion capture cameras
KR100518824B1 (ko) 2003-03-17 2005-10-05 삼성전자주식회사 필기 모션 획 구분 인식 시스템 및 그 인식방법
KR100465241B1 (ko) 2003-03-17 2005-01-13 삼성전자주식회사 가상 필기 평면을 이용한 모션 인식 시스템 및 그 인식방법
US7762665B2 (en) 2003-03-21 2010-07-27 Queen's University At Kingston Method and apparatus for communication between humans and devices
US7358972B2 (en) 2003-05-01 2008-04-15 Sony Corporation System and method for capturing facial and body motion
US7372977B2 (en) 2003-05-29 2008-05-13 Honda Motor Co., Ltd. Visual tracking using depth data
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
US7515756B2 (en) * 2003-06-23 2009-04-07 Shoestring Research, Llc. Region segmentation and characterization systems and methods for augmented reality
JP4723799B2 (ja) 2003-07-08 2011-07-13 株式会社ソニー・コンピュータエンタテインメント 制御システムおよび制御方法
JP3977303B2 (ja) 2003-08-21 2007-09-19 シャープ株式会社 位置検出システム、位置検出システムにおける発信装置および受信装置
US7317450B2 (en) 2003-09-26 2008-01-08 Khomo Malome T Spatial chirographic sign reader
US7590941B2 (en) 2003-10-09 2009-09-15 Hewlett-Packard Development Company, L.P. Communication and collaboration system using rich media environments
US7536032B2 (en) 2003-10-24 2009-05-19 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
EP1676442A2 (en) 2003-10-24 2006-07-05 Reactrix Systems, Inc. Method and system for managing an interactive video display system
US7302099B2 (en) 2003-11-10 2007-11-27 Microsoft Corporation Stroke segmentation for template-based cursive handwriting recognition
US7963652B2 (en) 2003-11-14 2011-06-21 Queen's University At Kingston Method and apparatus for calibration-free eye tracking
US6984039B2 (en) * 2003-12-01 2006-01-10 Eastman Kodak Company Laser projector having silhouette blanking for objects in the output light path
GB2411532B (en) 2004-02-11 2010-04-28 British Broadcasting Corp Position determination
EP1563799B2 (de) 2004-02-11 2012-11-28 BrainLAB AG Verstellbare Markeranordnung
US7182465B2 (en) * 2004-02-25 2007-02-27 The University Of North Carolina Methods, systems, and computer program products for imperceptibly embedding structured light patterns in projected color images for display on planar and non-planar surfaces
US20050215319A1 (en) 2004-03-23 2005-09-29 Harmonix Music Systems, Inc. Method and apparatus for controlling a three-dimensional character in a three-dimensional gaming environment
BRPI0508748B1 (pt) * 2004-03-26 2018-05-02 Takahashi Atsushi Sistema tridimensional para orientação e instruções visuais remotas, dotado de visor tridimensional com câmeras.
US7519223B2 (en) 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US7925549B2 (en) 2004-09-17 2011-04-12 Accenture Global Services Limited Personalized marketing architecture
US7289227B2 (en) 2004-10-01 2007-10-30 Nomos Corporation System and tracker for tracking an object, and related methods
US8487879B2 (en) 2004-10-29 2013-07-16 Microsoft Corporation Systems and methods for interacting with a computer through handwriting to a screen
GB2438326A (en) 2004-12-29 2007-11-21 Bernard Trest Dynamic information system
WO2006081395A2 (en) 2005-01-26 2006-08-03 Bentley Kinetics, Inc. Method and system for athletic motion analysis and instruction
JP5631535B2 (ja) 2005-02-08 2014-11-26 オブロング・インダストリーズ・インコーポレーテッド ジェスチャベースの制御システムのためのシステムおよび方法
US7686451B2 (en) 2005-04-04 2010-03-30 Lc Technologies, Inc. Explicit raytracing for gimbal-based gazepoint trackers
US7428542B1 (en) 2005-05-31 2008-09-23 Reactrix Systems, Inc. Method and system for combining nodes into a mega-node
JP5118038B2 (ja) 2005-08-19 2013-01-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ユーザの動きを分析するシステム及び方法
EP1917572A4 (en) 2005-08-22 2012-04-25 Quinzhong Ye SPACE SHOW AND HANDWRIT
JP5001286B2 (ja) 2005-10-11 2012-08-15 プライム センス リミティド 対象物再構成方法およびシステム
TWI301590B (en) 2005-12-30 2008-10-01 Ibm Handwriting input method, apparatus, system and computer recording medium with a program recorded thereon of capturing video data of real-time handwriting strokes for recognition
JP4151982B2 (ja) 2006-03-10 2008-09-17 任天堂株式会社 動き判別装置および動き判別プログラム
JP5174684B2 (ja) 2006-03-14 2013-04-03 プライムセンス リミテッド スペックル・パターンを用いた三次元検出
US20070230789A1 (en) 2006-04-03 2007-10-04 Inventec Appliances Corp. Method of controlling an electronic device by handwriting
CN103778635B (zh) 2006-05-11 2016-09-28 苹果公司 用于处理数据的方法和装置
GB2438449C (en) 2006-05-24 2018-05-30 Sony Computer Entertainment Europe Ltd Control of data processing
US7934156B2 (en) 2006-09-06 2011-04-26 Apple Inc. Deletion gestures on a portable multifunction device
JP4747232B2 (ja) 2006-09-06 2011-08-17 独立行政法人産業技術総合研究所 小型携帯端末
US8005294B2 (en) 2006-11-29 2011-08-23 The Mitre Corporation Cursive character handwriting recognition system and method
US20090009593A1 (en) 2006-11-29 2009-01-08 F.Poszat Hu, Llc Three dimensional projection display
US7971156B2 (en) * 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
US7840031B2 (en) 2007-01-12 2010-11-23 International Business Machines Corporation Tracking a range of body movement based on 3D captured image streams of a user
JP2008242929A (ja) 2007-03-28 2008-10-09 Oki Data Corp 手書き入力システム
US8150142B2 (en) 2007-04-02 2012-04-03 Prime Sense Ltd. Depth mapping using projected patterns
WO2008120217A2 (en) 2007-04-02 2008-10-09 Prime Sense Ltd. Depth mapping using projected patterns
US20080252596A1 (en) 2007-04-10 2008-10-16 Matthew Bell Display Using a Three-Dimensional vision System
US20080256494A1 (en) 2007-04-16 2008-10-16 Greenfield Mfg Co Inc Touchless hand gesture device controller
US8100769B2 (en) 2007-05-09 2012-01-24 Nintendo Co., Ltd. System and method for using accelerometer outputs to control an object rotating on a display
US8065624B2 (en) 2007-06-28 2011-11-22 Panasonic Corporation Virtual keypad systems and methods
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
TW200907764A (en) 2007-08-01 2009-02-16 Unique Instr Co Ltd Three-dimensional virtual input and simulation apparatus
US7949157B2 (en) 2007-08-10 2011-05-24 Nitin Afzulpurkar Interpreting sign language gestures
JP5430572B2 (ja) 2007-09-14 2014-03-05 インテレクチュアル ベンチャーズ ホールディング 67 エルエルシー ジェスチャベースのユーザインタラクションの処理
US8195499B2 (en) 2007-09-26 2012-06-05 International Business Machines Corporation Identifying customer behavioral types from a continuous video stream for use in optimizing loss leader merchandizing
US20090078473A1 (en) 2007-09-26 2009-03-26 Digital Pen Systems Handwriting Capture For Determining Absolute Position Within A Form Layout Using Pen Position Triangulation
TWI343544B (en) 2007-09-26 2011-06-11 Inventec Appliances Corp A handwriting record device
US10235827B2 (en) * 2007-11-09 2019-03-19 Ball Gaming, Inc. Interaction with 3D space in a gaming system
JP4931788B2 (ja) 2007-12-18 2012-05-16 日本電信電話株式会社 情報提示制御装置及び情報提示制御方法
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
US20120204133A1 (en) 2009-01-13 2012-08-09 Primesense Ltd. Gesture-Based User Interface
US8166421B2 (en) 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US7889073B2 (en) 2008-01-31 2011-02-15 Sony Computer Entertainment America Llc Laugh detector and system and method for tracking an emotional response to a media presentation
US8766925B2 (en) 2008-02-28 2014-07-01 New York University Method and apparatus for providing input to a processor, and a sensor pad
US9772689B2 (en) 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
US8165398B2 (en) 2008-05-30 2012-04-24 Sony Ericsson Mobile Communications Ab Method and device for handwriting detection
JP5317169B2 (ja) 2008-06-13 2013-10-16 洋 川崎 画像処理装置、画像処理方法およびプログラム
US8456517B2 (en) * 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
US9445193B2 (en) 2008-07-31 2016-09-13 Nokia Technologies Oy Electronic device directional audio capture
US20100053151A1 (en) 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
JP5205187B2 (ja) 2008-09-11 2013-06-05 株式会社エヌ・ティ・ティ・ドコモ 入力システム及び入力方法
US20100071965A1 (en) 2008-09-23 2010-03-25 Panasonic Corporation System and method for grab and drop gesture recognition
US20100149096A1 (en) 2008-12-17 2010-06-17 Migos Charles J Network management using interaction with display surface
US8290208B2 (en) * 2009-01-12 2012-10-16 Eastman Kodak Company Enhanced safety during laser projection
US20120202569A1 (en) 2009-01-13 2012-08-09 Primesense Ltd. Three-Dimensional User Interface for Game Applications
EP2389622A1 (en) 2009-01-26 2011-11-30 Zrro Technologies (2009) Ltd. Device and method for monitoring an object's behavior
US20100199228A1 (en) 2009-01-30 2010-08-05 Microsoft Corporation Gesture Keyboarding
WO2010103482A2 (en) 2009-03-13 2010-09-16 Primesense Ltd. Enhanced 3d interfacing for remote devices
CN101943982B (zh) 2009-07-10 2012-12-12 北京大学 基于被跟踪的眼睛运动的图像操作
KR20110010906A (ko) 2009-07-27 2011-02-08 삼성전자주식회사 사용자 인터랙션을 이용한 전자기기 제어 방법 및 장치
KR101596890B1 (ko) 2009-07-29 2016-03-07 삼성전자주식회사 사용자의 시선 정보를 이용한 디지털 오브젝트 탐색 장치 및 방법
US8565479B2 (en) 2009-08-13 2013-10-22 Primesense Ltd. Extraction of skeletons from 3D maps
US8587532B2 (en) 2009-12-18 2013-11-19 Intel Corporation Multi-feature interactive touch user interface
US8232990B2 (en) 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
US20110164032A1 (en) 2010-01-07 2011-07-07 Prime Sense Ltd. Three-Dimensional User Interface
US8659658B2 (en) 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
KR20130000401A (ko) 2010-02-28 2013-01-02 오스터하우트 그룹 인코포레이티드 대화형 머리­장착식 아이피스 상의 지역 광고 컨텐츠
US8787663B2 (en) 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
US20110248914A1 (en) 2010-04-11 2011-10-13 Sherr Alan B System and Method for Virtual Touch Typing
US20110254765A1 (en) 2010-04-18 2011-10-20 Primesense Ltd. Remote text input using handwriting
KR101334107B1 (ko) 2010-04-22 2013-12-16 주식회사 굿소프트웨어랩 차량용 멀티미디어 제어를 위한 사용자 인터페이스 장치 및 방법
US8384683B2 (en) 2010-04-23 2013-02-26 Tong Luo Method for user input from the back panel of a handheld computerized device
US9311724B2 (en) 2010-04-23 2016-04-12 Handscape Inc. Method for user input from alternative touchpads of a handheld computerized device
US20110292036A1 (en) 2010-05-31 2011-12-01 Primesense Ltd. Depth sensor with application interface
US8594425B2 (en) * 2010-05-31 2013-11-26 Primesense Ltd. Analysis of three-dimensional scenes
US20110310010A1 (en) 2010-06-17 2011-12-22 Primesense Ltd. Gesture based user interface
US8907929B2 (en) 2010-06-29 2014-12-09 Qualcomm Incorporated Touchless sensing and gesture recognition using continuous wave ultrasound signals
US9201501B2 (en) 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
JP5791131B2 (ja) 2010-07-20 2015-10-07 アップル インコーポレイテッド 自然な相互作用のための相互作用的現実拡張
WO2012020380A1 (en) 2010-08-11 2012-02-16 Primesense Ltd. Scanning projectors and image capture modules for 3d mapping
US9013430B2 (en) 2010-08-20 2015-04-21 University Of Massachusetts Hand and finger registration for control applications
US8959013B2 (en) 2010-09-27 2015-02-17 Apple Inc. Virtual keyboard for a non-tactile three dimensional user interface
US8872762B2 (en) 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
US20120169583A1 (en) 2011-01-05 2012-07-05 Primesense Ltd. Scene profiles for non-tactile user interfaces
US9285874B2 (en) 2011-02-09 2016-03-15 Apple Inc. Gaze detection in a 3D mapping environment
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US9122311B2 (en) 2011-08-24 2015-09-01 Apple Inc. Visual feedback for tactile and non-tactile user interfaces
US20130147686A1 (en) 2011-12-12 2013-06-13 John Clavin Connecting Head Mounted Displays To External Displays And Other Communication Networks
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
CN104246682B (zh) 2012-03-26 2017-08-25 苹果公司 增强的虚拟触摸板和触摸屏

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017145787A1 (ja) 2016-02-23 2017-08-31 ソニー株式会社 遠隔操作装置、および遠隔操作方法、遠隔操作システム、並びにプログラム

Also Published As

Publication number Publication date
US20130107021A1 (en) 2013-05-02
JP2013541747A (ja) 2013-11-14
US9158375B2 (en) 2015-10-13
WO2012011044A1 (en) 2012-01-26
CN102959616B (zh) 2015-06-10
CN102959616A (zh) 2013-03-06

Similar Documents

Publication Publication Date Title
JP5791131B2 (ja) 自然な相互作用のための相互作用的現実拡張
JP2013541747A5 (ja)
US9740298B2 (en) Adaptive projector for projecting content into a three-dimensional virtual space
US11533489B2 (en) Reprojecting holographic video to enhance streaming bandwidth/quality
US9710973B2 (en) Low-latency fusing of virtual and real content
JP6860488B2 (ja) 複合現実システム
US10962780B2 (en) Remote rendering for virtual images
US10083540B2 (en) Virtual light in augmented reality
CN105264478B (zh) 全息锚定和动态定位
US20140176591A1 (en) Low-latency fusing of color image data
US20240289988A1 (en) Intrinsic parameters estimation in visual tracking systems
Kuntz et al. The Democratization of VR‐AR
Samini et al. A review of current, complete augmented reality solutions
US20230206390A1 (en) Dynamic over-rendering in late-warping
WO2021182124A1 (ja) 情報処理装置、及び情報処理方法
US12067693B2 (en) Late warping to minimize latency of moving objects
WO2022245649A1 (en) Augmented reality guided depth estimation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140610

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140610

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150730

R150 Certificate of patent or registration of utility model

Ref document number: 5791131

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250