JP2016038889A - モーション感知を伴う拡張現実 - Google Patents

モーション感知を伴う拡張現実 Download PDF

Info

Publication number
JP2016038889A
JP2016038889A JP2014164597A JP2014164597A JP2016038889A JP 2016038889 A JP2016038889 A JP 2016038889A JP 2014164597 A JP2014164597 A JP 2014164597A JP 2014164597 A JP2014164597 A JP 2014164597A JP 2016038889 A JP2016038889 A JP 2016038889A
Authority
JP
Japan
Prior art keywords
information
image
real world
world space
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014164597A
Other languages
English (en)
Inventor
エス. ホルツ デイビッド
s holz David
エス. ホルツ デイビッド
ロイ ニーロイ
Roy Neeloy
ロイ ニーロイ
ホーァ ホンユェン
Hongyuan He
ホーァ ホンユェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leap Motion Inc
Original Assignee
Leap Motion Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leap Motion Inc filed Critical Leap Motion Inc
Publication of JP2016038889A publication Critical patent/JP2016038889A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】装着者を取り囲む環境を反映した実時間イメージストリームへの、仮想(例えば、計算の)情報の統合を正確に提供する。【解決手段】ヘッドマウント装置201は、ユーザに周囲の環境或いは仮想環境を表示する光学組立品203を備える。ヘッドマウント装置201にモーションキャプチャシステム200を組み込むことで、ユーザは、表示された環境をインタラクティブに制御可能となる。システム200は、感知処理システム206と接続するカメラ102,104を備える。対象領域212内で動く対象物214を含むとともに、種々の仮想物体216を含む仮想的に描写または仮想的に拡張された対象領域212の光景を見るために、カメラ102,104は、装置201の動きによって、対象領域212の一部に向けられる。1以上のセンサ208、210が装置201の動きを捉える。【選択図】図2

Description

開示する技術は、イメージセンサまたは他のセンサを用いて3次元(3D)感知空間内でのジェスチャを検出し、3D拡張現実をユーザに提示することのできる装着型の感知システムにおいて使用するための高機能且つ高精度の感知及びイメージング装置に関する。
グーグルグラス等の分類の装置は、ユーザが装着したシースルー型スクリーン上に情報を重畳して提示する能力を提供する。オキュラス・リフト等の他の分類の装置は、ユーザを取り囲む実世界からの情報の無いユーザに対して仮想現実表示を提供する。しかしながら、当該両分類の装置は、装着者を取り囲む環境を反映した実時間イメージストリームへの、仮想(例えば、計算の)情報の統合を正確に提供することができない。それゆえ、景色(scene)のイメージ情報を取得し、少なくともほぼ実時間(near real time)のイメージ情報のパススルー(pass−through)をユーザに提供することのできる高機能の感知及びイメージング装置が必要とされる。当該感知及びイメージング装置は、理想的には、仮想化または創出された情報の提示(presentaion)とともに、拡張されたイメージ情報を装着者に提示可能な装着型感知システムを作り出す装着型装置または可搬装置と接続され得る。このような能力を提供する装置は、これまで知られていない。
本開示技術の実施は、景色のイメージ情報を取得し、少なくともほぼ実時間のイメージ情報のパススルーをユーザに提供することのできるモーション感知及びイメージング装置を提供することにより、上記問題及びその他の問題に対処する。該モーション感知及びイメージング装置は、単独で、或いは、仮想化または創出された情報とともに、拡張されたイメージ情報を装着者に提示可能な装着型感知システムを作り出す装着型装置または可搬装置と接続して使用される。
モーション感知及びイメージング装置の一実施態様では、該装置は、眺められている景色の立体的なイメージ情報を提供するように配置された複数のイメージセンサと、前記イメージセンサの周辺に配置された1または複数の照明源と、前記イメージセンサ及び前記照明源に接続して、前記イメージセンサ及び前記照明源の動作を制御するコントローラを備える。前記コントローラは、前記装置が、前記景色のイメージ情報を取得し、少なくともほぼ実時間のイメージ情報のパススルーをユーザに提供することを可能にする。前記装置は、装着型装置と接続して、仮想化または創出された情報とともに、拡張されたイメージ情報を装着者に提示可能な装着型感知システムを作り出すことができる。
一実施態様では、モーション感知及びイメージング装置は、イメージセンサの見える範囲内の制御物体(人間の手などの制御物体を含む)ためのイメージ情報を取り込む。当該制御物体のための前記イメージ情報が、制御下の機械に対するコマンドを指示するジェスチャ情報を決定するために使用される。実施態様では、前記装置は、サブミリメートルの精度で、該装置の装着者の周りの物体の位置、姿勢、及び、動きを検出し、この情報を、該装着者に提供される提示に統合するために提供することができる。
一実施態様では、モーション感知及びイメージング装置は、赤外光に感応する画素から受信した情報を、可視光、例えば、RGB(赤、緑、青)に感応する画素から受信した情報と分離すること、ジェスチャの認識に使用するために、IR(赤外)センサからの情報を処理すること、及び、提示インターフェース(presentation interface)を介してライブビデオ供給として提供するために、RGBセンサからの情報を処理することが可能である。例えば、実世界中の景色の一連のイメージを含むビデオストリームが、RGB画素の集合及びIR(赤外)画素の集合を備えたカメラを用いて取り込まれる。赤外光に感応する画素から受信した情報は、ジェスチャを認識する処理のために分離される。RGBに感応する画素から受信した情報は、提示出力へのライブビデオ供給として、装着型装置(HUD、HMD等)の提示インターフェースに提供される。該提示出力は、装着型装置のユーザに対して表示される。前記提示出力を形成するために、1以上の仮想物体が、前記ビデオストリームイメージと統合され得る。従って、前記装置は、ジェスチャの認識、パススルービデオ供給を介して実世界物体の実世界提示、及び/または、実世界ビューと統合された仮想物体を含む拡張現実の何れを提供することも可能である。
一実施態様では、モーション感知及びイメージング装置は、前記カメラのRGB画素とIR画素を組み合わせて用い、前記装置自体の動きを探知するために使用できる。特に、このことは、RGB画素を用いて、実世界空間の全体または粗い特徴、及び、対応する特徴値を取得すること、及び、IR画素を用いて、実世界空間の細かなまたは正確な特徴、及び、対応する特徴値を取得することと関連する。一旦取得されると、前記景色の少なくとも1つの特徴に対する前記装着型感知システムのモーション情報が、異なる時間インスタンスで検知された特徴値の比較に基づいて決定される。例えば、実世界空間の特徴は、該実世界空間内の所定位置の物体であり、そして、その特徴値は、該実世界空間内の該物体の位置の3次元(3D)座標であり得る。何対かのイメージフレームまたは他のイメージボリュームの間で、位置座標の値が変化した場合、これは、イメージフレーム間で位置が変化した物体に対する装着型感知システムのモーション情報を決定するのに使用できる。
別の例として、実世界空間の特徴は、実世界空間内の壁であり、その対応する特徴値は、装着型感知システムで動作するビューアによって感知される前記壁の方向である。この例では、前記壁の方向の変化が、該装着型感知システムに電気的に接続するカメラによって取り込まれた連続するイメージフレーム間で登録された場合、このことは、前記壁を見る該装着型感知システムの位置の変化を示していると言える。
一実施態様に応じて、カメラのRGB画素からの情報が、実世界内の物体の輪郭、形状、容積モデル、骨格モデル、シルエット、全体的な配置、及び/または、構造等のイメージまたは一連のイメージから得られる物体の顕著な、或いは、全体の特徴とともに、実世界内の物体を識別するのに使用できる。このことは、領域の平均的な画素強度または領域の性状変化を測定することによって達成できる。つまり、RGB画素によって、実世界または実世界内の物体の粗い評価を得ることができる。
更に、IR画素からのデータは、実世界空間の細かなまたは正確な特徴を取り込むのに使用することができ、RGB画素から抽出されたデータを強調する。細かな特徴の例として、実世界空間及び実世界空間内の物体の表面性状、エッジ、湾曲(curcatures)、及び、他のかすかな特徴が含まれる。一実施例において、RGB画素が手の立体モデルを取り込む一方で、IR画素が、その手の静脈及び/または動脈パターンまたは指紋を取り込むのに用いられる。
他の幾つかの実施態様には、RGB画素とIR画素を異なる組み合わせ及び順列で使用してイメージデータを取り込むことが含まれる。例えば、一実施態様では、RGB画素とIR画素を同時に起動し、粗い特徴と細かな特徴を区別せずに、イメージデータの全体規模での収集を実行することが含まれる。他の実施態様では、RGB画素とIR画素を間欠的に用いることが含まれる。更に他の実施態様では、2次関数またはガウス関数に基づいてRGB画素とIR画素を起動することが含まれる。幾つかの他の実施態様では、最初にIR画素を用いてスキャンを行い、引き続きRGB画素を用いたスキャンを行うこと、及び、その逆順でのスキャンの実行が含まれる。
一実施態様では、周囲の照明条件が決定され、当該条件を出力の表示の調整に使用することができる。例えば、RGB画素集合からの情報は通常の照明条件で表示され、IR画素集合からの情報は暗い照明条件で表示される。代替または追加として、IR画素集合からの情報は、微小光条件でのRGB画素集合からの情報を強調するのに使用できる、また、その逆も可能である。幾つかの実施態様では、RGB画素からのカラーイメージの1つ及びIR画素からのIRイメージ、または、これらの組み合わせから選択された好ましい表示を示す選択をユーザから受け取る。更に、代替または追加として、前記装置自らが、周囲の条件、ユーザの選択、状況認識、他の要因、または、これらの組み合わせに応じて、表示用に、RGBに感応する画素を用いて取り込んだビデオ情報と、赤外光に感応する画素から取り込んだビデオ情報を、動的にスイッチしても良い。
一実施態様では、赤外光に感応する画素からの情報は、ジェスチャを認識する処理用に分離され、一方で、RGBに感応する画素からの情報は、ライブビデオ供給として出力に提供され、その結果、ジェスチャ認識に対する帯域幅を確保できる。ジェスチャ処理では、実世界内の物体に対応するイメージの特徴を検出できる。ジェスチャモーションと相関のある前記物体の特徴は、変化を決定するために、複数のイメージに亘って相互に関連付けられる。ジェスチャモーションは、制御下の機械、そこに内蔵されたアプリケーション、または、これらの組み合わせに対するコマンド情報を決定するのに使用できる。
一実施態様では、モーションセンサ、及び/または、他のタイプのセンサがモーションキャプチャシステムと接続して、モーションキャプチャシステムが、例えば、ユーザの接触に起因する少なくともモーションキャプチャシステムの前記センサの動作をモニタする。モーションセンサからの情報は、第1及び第2の時間に、固定点に対する前記センサの第1及び第2の位置情報を決定するのに使用できる。第1及び第2の位置情報の間の差分情報が決定される。固定点に対する前記装置についての動き情報が、前記差分情報に基づいて計算される。前記装置についての動き情報は、前記センサによって検出された見かけ上の環境情報に提供され、前記センサの動きが該見かけ上の環境情報から差し引かれて実際の環境情報が得られ、該実際の環境情報が伝達され得る。制御情報は、可搬型装置を介して仮想現実または拡張現実経験を提供するように構成されたシステム、及び/または、前記センサから生成され、センサ自体の動きを除去するために調整された空間内を動く物体についてのモーションキャプチャ情報い基づいて期間等を制御するシステムに、伝達され得る。幾つかの応用では、触覚、オーディオ、及び/または、視覚プロジェクタを追加して、仮想装置経験を拡張できる。
或る実施態様において、見かけ上の環境情報は、前記モーションキャプチャシステムのセンサを用いて、第1及び第2の時間における物体の部分の位置情報から得られる。前記第1及び第2の時間における前記固定点と相対的な物体部分の動き情報が、前記差分情報と前記センサの動き情報に基づいて計算される。
更なる実施態様では、一連の時間において、モーションセンサを用いて前記センサの動き情報を、前記センサを用いて前記物体の部分を、繰り返し決定し、前記固定点に対する前記物体の部分の経路を決定するために一連の動き情報を解析することにより、前記物体の経路が計算される。当該経路は、軌跡を識別するためのテンプレートと対照することができる。身体部位の軌跡はジェスチャとして識別される。ジェスチャは、システムに対して伝達されるコマンド情報を指し示すことができる。幾つかのジェスチャは、システムの動作モード(例えば、ズームイン、ズームアウト、パン(pan)、より詳細に見せる、次表示ページ、等)を変化させるコマンドを伝達する。
幾つかの実施態様では、有利に、装着型装置のユーザに対して改良されたユーザ体験、より大きな安全性、及び、改良された機能性を可能とする。幾つかの実施態様は、更に、ユーザが仮想物体に対する仮想化された接触を伴う直感的なジェスチャを実行できるようにして、モーションキャプチャシステムに対して、ジェスチャを認識できる能力を提供する。例えば、正確なジェスチャ認識を促進するために、装置自体のモーションから物体のモーションを区別する能力が該装置に提供される。幾つかの実施態様では、種々の可搬型または装着型の機械(例えば、スマートフォン、ラップトップコンピュータを含むポータブル演算システム、タブレット型演算装置、パーソナルデータアシスタンツ、例えば飛行機や自動車で使用されるヘッドアップディスプレイ(HUD)を含む特定用途向け視覚化演算機構、グーグルグラス等の装着型の仮想及び/または拡張現実システム、グラフィックプロセッサ、内蔵型マイクロコントローラ、ゲーム機、等、及び、これらの1以上の有線または無線で結合したネットワーク、及び/または、これらの組み合わせ)との改良されたインターフェースを提供することができ、当該改良されたインターフェースによって、マウス、ジョイスティック、タッチパッド、または、タッチスクリーン等の接触型の入力装置の必要性を除去または削減できる。幾つかの実施態様は、演算及び/またはその他の機構とのインターフェースとして、従来技術により可能であったものより、更に改良されたインターフェースを提供することができる。幾つかの実施態様では、より豊富なヒューマン・マシーン・インターフェースが提供され得る。
本技術の他の態様及び利点は、以下に示す図面、詳細な説明、及び、特許請求の範囲の説明により明らかになる。
モーション感知及びイメージング装置の一実施例を示す図。
モーション感知及びイメージング装置に基づく装着型感知システムの一実施例を示す図。
コンピュータシステムの簡略化したブロック図。
モーションキャプチャ及びイメージ解析に伴う基本操作及び機能ユニットを示す図。
モーション感知及びイメージング可能な装置により提示される拡張現実パススルーの一例を示す図。
開示する本技術は、真の実時間またはほぼ実時間の景色を取り込み、3D感知空間内のジェスチャを検出し、該ジェスチャを制御下のシステムまたは機械に対するコマンドとして解釈し、適切な場合には取り込んだイメージ情報と該コマンドを提供することのできるモーション感知及びイメージング装置に関する。
実施態様は、仮想現実装置のユーザに対して、その中でライブビデオが提供される「パススルー」を、該ユーザが実世界を直接知覚できるようにして、単独で、或いは、1以上の仮想物体の表示を伴って提供することを含む。例えば、前記ユーザは、仮想アプリケーションまたはそこに混在する物体と同様に、実際の机の環境を見ることが可能となる。ジェスチャの認識及び感知は、仮想物体(例えば、ユーザの実際の机の表面上方に浮かぶ仮想書類)と並んで、実際の物体(例えば、ユーザのコーラの缶)を把持またはやり取りする能力をユーザに提供する実施態様を可能とする。幾つかの実施態様では、異なるスペクトル源からの情報が、一または他の体験の様子を駆動するのに選択的に使用される。例えば、赤外光に感応するセンサからの情報は、ユーザの手の動きを検出して、ジェスチャを認識するのに用いることができる。一方、可視光領域からの情報は、現実及び仮想の物体の実世界提示を作り出して、パススルービデオ提示を駆動するのに用いることができる。更なる例として、複数のソースからのイメージ情報の組み合わせを用いることができ、システムまたはユーザが、状況、条件、環境、その他の要因、または、これらの組み合わせに基づいて赤外イメージと可視光イメージを選択する。例えば、装置は、周囲の光条件が保証されている場合には、可視光イメージから赤外イメージに切り替えることができる。ユーザが同様にイメージングソースを制御する能力を備えることも可能である。更に別の例として、1つのタイプのセンサからの情報を、他のタイプのセンサからの情報を拡張、訂正、或いは、補強するのに使用することができる。赤外センサからの情報は、可視光に感応するセンサからの導出されるイメージ表示を訂正するのに使用することができ、また、その逆も可能である。光学イメージを導出できない微小光または他の状況、つまり、自由形式のジェスチャを十分な信頼度で光学的に認識できない状況において、オーディオ信号または振動波を検出して、物体の方向や位置を提供するのに使用できる。この点に関しては、更に説明する。
開示する本技術は、装着型感知システムを用いて、没入型仮想現実環境におけるユーザ体験の向上に応用できる。開示される実施態様に基づくシステム、装置、及び、方法の実施例を、「装着型感知システム」という事情(context)において説明する。「装着型感知システム」の実施例は、開示する本技術を理解する上での事情(context)及び手掛かりを追加するためだけの理由で提供される。他の例では、自動車、ロボット、または、他の機械等の他の事情におけるジェスチャに基づく相互作用の実施例が、仮想ゲーム、仮想アプリケーション、仮想プログラム、仮想オペレーティングシステム等に応用され得る。他の応用も可能であるが、以下に示す実施例は、適用範囲、事情、または、設定の何れにおいても確定的または限定的に扱われるべきではない。よって、実施態様は、「装着型感知システム」という事情の範囲内及び外において実行でき得ることは、当業者にとって明らかである。
先ず、モーション感知装置100の一例を示す図1を参照する。図1に示すように、モーション感知装置100は、ネジ固定部品またはその他の方法でメインボード182と結合可能な照明ボード172を備える。ケーブルの布線(明瞭性のため図1には示していない)によって、照明ボード172とメインボード182の間の電気的接続を行い、信号及び電力の交換が可能となっている。メインボード182(第1部分)と照明ボード172(第2部分)を接合する前記固定部品は、更に、これらのボードを、装着型または可搬型の電子装置(例えば、HMD、HUD、スマートフォン)の取り付け面Aに固定することができる。取り付け面Aは、装着型または可搬型の電子装置の(内部或いは外部の)面とすることができる。更に、装置は、装着型または可搬型の電子装置の空洞や容器内に、嵌合、ネジ止め、または、これらの組み合わせによって、設置されても良い。装置100は、広範な用途の設計要求に適合するように、任意の種々の装着型または可搬型の電子装置に組み込むことが可能である。
照明ボード172は、当該ボード上に組み込まれたLEDまたは他の光源である個別に制御可能な多くの照明源115,117を有する。図示された実施例では、2つのカメラ102,104が、装置100のメインボード182上に設けられ、眺められている景色の立体的イメージ型の検知を提供する。メインボード182は、更に、基本的な画像処理、及び、カメラ102,104及びボード172のLEDの制御を行うプロセッサを有する。図1に示す設計に対して種々の変更が可能である。例えば、LED、光検知器、及び、カメラの個数及び配置は変更されても良い。また、スキャニング及びイメージング用のハードウェアは1つのボードに一体化しても良い。或いは、これらの変更は、特定の用途の必要に応じて適宜行える。
カメラ102,104によって提供された立体的イメージ情報は、選択的或いは連続的に、ユーザが装着或いは携行している装着型または可搬型の電子装置に提供される。装置100は、生の「実時間」またはほぼ実時間のカメラからのイメージ情報の供給、コンピュータによって生成されたグラフィック、情報、アイコン、または他の仮想化提示等によって拡張された実時間またはほぼ実時間のイメージ情報、眺めている景色の仮想化された表示、これらから選択された時間的に変化する組み合わせを提供できる。ユーザによるジェスチャは、感知装置100のカメラ102,104によって検知され、その結果生成されるイメージ情報は、ジェスチャから制御される如何なるシステム(装着型または可搬型装置を含む)に対する命令を確認及び決定するために、モーションキャプチャに提供され得る。単一のモーション感知装置100にイメージング能力を備えたジェスチャ認識を一体化することで、高機能で適応性が有り、しかも、装着型または可搬型の電子装置等に設置するのに適した小型の装置を、有利に、提供できる。
幾つかの実施態様において、照明源115,117の幾つかは付属の集束光学系(明瞭性のため図1には示していない)を有することができる。ボード172,182の何れかは、明瞭性のため図1に示していない光検知器(またはその他のセンサ)と結合するためのソケットを更に備えていても良い。光検知器が反射率の変化を検知して得られる情報は、照明源例えばLEDが空間領域をスキャニングする間に、該照明源が光を出射する当該空間領域に、物体が存在するか存在しないかを示す。
図2に、開示する本技術の一実施態様に従ってイメージデータを取り込むシステム200を示す。システム200は、好ましくは、装着型装置201と接続している。装着型装置201は、図2に示すようなグーグルフォームファクター、ヘルメットフォームファクターを備えるヘッドマウントディスプレイ(HMD)であっても良く、或いは、時計、スマートフォン、その他の可搬型装置に組み込まれるか或いは接続して、装着型感知システムを形成することもできる。
種々の実施態様では、ここに説明する物体の3Dモーションを取り込むシステム及び方法は、ヘッドマウント装置或いは携帯型装置等の他のアプリケーションと一体化することができる。図2に示すように、ヘッドマウント装置201は、ユーザに周囲の環境或いは仮想環境を表示する光学組立品203を備えることができる。ヘッドマウント装置201にモーションキャプチャシステム200を組み込むことで、ユーザは、表示された環境をインタラクティブに制御可能となる。例えば、仮想環境は、モーションキャプチャシステム200で追跡されるユーザの手のジェスチャで操作可能な仮想物体を含むことができる。一実施態様では、ヘッドマウント装置201と一体化したモーションキャプチャシステム200は、ユーザの手の位置及び形を検出して、ユーザがその手を見て、仮想環境内の物体をインタラクティブに制御できるように、検出した手をヘッドマウント装置201のディスプレイ上に投影する。このことは、例えば、ゲームやインターネットブラウジングに応用できる。
システム200は、感知処理システム206と接続するカメラ102,104を備える。カメラ102,104は、可視光スペクトルに感応するカメラ、または、限定的な波長域(例えば、赤外域または紫外域)に強化された感度を有するカメラを含む如何なるタイプのカメラであっても良い。また、より一般的に、ここでは、「カメラ」という用語は、物体のイメージを捕えて、そのイメージをディジタルデータ形式で表示できる任意の装置(または、当該装置の組み合わせ)を参考とする。例えば、従来の2次元(2D)イメージを取り込む従来型カメラに代えて、ラインセンサ或いはラインカメラを採用することもできる。用語「光」は、一般的に、任意の電磁放射を意味し、可視光であっても或いはなくても良く、広帯域光(例えば、白色光)或いは狭帯域光(例えば、単一波長光、狭帯域波長光)であっても良い。
カメラ102,104は、好ましくは、ビデオイメージ(つまり、約毎秒15フレーム等の実質的に一定レートで連続するイメージフレーム)を取り込む能力を備える。但し、特定のフレームレートに限定されるものではない。カメラ102,104の能力は、本開示技術に対して重要ではない。該カメラは、フレームレート、イメージ解像度(例えば、イメージ当たりの画素数)、色または強度分解能(例えば、画素当たりの強度データのビット数)、レンズの焦点距離、被写界深度、等に関して変更可能である。一般に、特定の用途に対して、関心のある空間的な大きさ内で被写体に焦点を合わせることのできる如何なるカメラも使用可能である。例えば、手以外は静止している人の手の動きを取り込むには、当該大きさは、一辺約1メートルの立方体で規定することができる。
図示するように、対象領域212内で動く対象物214(本実施例では、1以上の手)を含むとともに、種々の仮想物体216を含むことのできる仮想的に描写または仮想的に拡張された対象領域212の光景を見るために、カメラ102,104は、装置201の動きによって、対象領域212の一部に向けられる。1以上のセンサ208,210が装置201の動きを捉える。幾つかの実施態様では、1以上の照明源115,117が対象領域212を照明するように配置される。幾つかの実施態様では、1以上のカメラ102,104が、検知すべき動作に向かい合って、例えば、手214が動くと予期される場所に配置される。手に関して記録される情報量は、手がカメライメージ内で占有する画素数に比例し、手の「指示方向」に対するカメラの角度が直角に近い程、手の占有する画素数は多くなるため、上述の位置が最良の位置である。例えば、コンピュータシステム等である感知処理システム206は、対象領域212のイメージを取り込むためにカメラ102,104の動作を制御し、装置201の動きを捉えるためにセンサ208,210の動作を制御することができる。センサ208,210からの情報は、装置201の動きの影響を相殺するために、カメラ102,104が取得したイメージのモデルに適用され、装置201によって描写される仮想体験に対してより大きな正確さが提供される。取り込まれたイメージと装置201の動きに基づいて、感知処理システム206が物体214の位置及び/または動きを決定し、組立品203を介してユーザにそれらの表示を描写する。
例えば、物体214の動きを決定する動作として、感知処理システム206がカメラ102,104によって取り込まれた種々のイメージのどの画素が物体214の部分を含んでいるかを判断する。幾つかの実施態様では、イメージ内の如何なる画素も、画素が物体214の部分を含んでいるか否かによって、「物体」画素か「背景」画素の何れかに分類される。従って、物体画素は、明るさに基づいて容易に背景画素と区別され得る。更に、物体のエッジは、隣接する画素間の明るさの差に基づいて容易に検出され、各イメージ内の物体の位置が判断できるようになる。幾つかの実施態様では、物体のシルエットが1以上の物体のイメージから抽出され、異なる視点から見える物体に関する情報を明らかにする。幾つかの実施態様では、シルエットは多くの異なる手法を用いて取得できるが、当該シルエットは、物体のイメージを取り込むカメラを用い、該イメージを解析して物体のエッジを検出することで得られる。カメラ102,104のイメージ間で物体の位置の相関を取り、センサ208,210から取得した装置201の動きを相殺することで、感知処理システム206が物体214の3D空間内の位置を決定できるようになり、一連のイメージを解析することで、感知処理システム206が、既存のモーションアルゴリズム或いは他の手法を用いて物体214の3Dモーションを再構築できるようになる。例えば、米国出願13/414,485(2012年3月7日出願)、米国仮出願61/724,091(2012年11月8日出願)、及び、米国仮出願61/587,554(2012年1月17日出願)を参照されたい。また、当該全ての開示は本願に引用して援用する。
提示インターフェース220は、装置のユーザに個人的な仮想体験を提供するために装置201の光学組立品203に、ロード可能な、或いは、協同して実施されるアプリケーションによって作成された仮想(或いは仮想化された現実の)物体(視覚、オーディオ、触覚等)を表示するために、センサに基づく追跡と共に、投影技術を採用する。投影は、物体のイメージまたは他の視覚表示を含むことができる。
一実施態様では、実環境内のモーションをモニタするために、モーションセンサ及び/または他のタイプのセンサを使用する。実環境の拡張された描写内に一体化された仮想物体は、可搬型装置201のユーザに対して投影される。ユーザの身体部分のモーション情報は、少なくともある程度は、イメージセンサ102,104または音響センサまたは他のセンサ装置から受信した感知情報に基づいて、決定することができる。制御情報は、可搬型装置201のモーションと、イメージセンサ102,104または音響センサまたは他のセンサ装置から受信した感知情報から決定されるユーザのモーションの組み合わせに少なくともある程度基づいて、システムに伝達される。視覚装置による経験は、幾つかの実施態様では、触覚、オーディオ、及び/または、他の感知情報プロジェクタによって、拡張され得る。例えば、図5を参照すると、視覚投影組立品504は、ライブビデオ供給を介してユーザに表示される実世界物体、例えば、机216に重畳された仮想の本の物体からのページイメージ(例えば、仮想装置501)を投影することができる。その結果、たとえ本や電子読み取り機が存在していなくても、本物の本、或いは、物理的な電子読み取り機上の電子書籍を読んでいる仮想装置経験を作り出す。触覚プロジェクタ506は、読み手の指に、当該本の「仮想の紙」の性状の感触を投射することができる。オーディオプロジェクタ502は、ページをめくるための読み手のスワイプ(swipe)操作を検出してページをめくる音を投射する。それは拡張現実世界であるので、手214の裏側はユーザに投影され、ユーザには、あたかもユーザが自身の手を見ているように景色が見える。
再び図2を参照すると、複数のセンサ208,210が、装置201のモーションを取り込むために、感知処理システム206と接続している。センサ208,210は、モーションの種々のパラメータ(加速度、速度、角加速度、角速度、位置/場所(position/location))から信号を得るために有用な如何なるセンサでも良い。より一般的には、用語「モーション検出器」は、機械的なモーションを電気的な信号に変換する能力を有する任意の装置(または、装置の組み合わせ)を参考とする。当該装置は、単独或いは種々の組み合わせにおいて、加速度計、ジャイロスコープ、及び、磁気計を含み、方向、磁気、または、重力の変化を通してモーションを検知するように設計されている。多くのタイプのモーションセンサが存在し、別の実施態様は変化に富んでいる。
図示したシステム200は、装置201のユーザに提供される仮想体験を増強するために、明瞭性のため図2には示されていない種々の他のセンサの何れかを、単独或いは種々に組み合わせて含むことができる。例えば、システム206は、自由形式のジェスチャを十分な信頼度で光学的に認識できない微小光の状況では、音響または振動センサに基づいてタッチ(接触)ジェスチャが認識されるタッチモードに切り替える。或いは、システム206は、音響または振動センサからの信号が検知された場合に、該タッチモードに切り替えるか、タッチ検知処理を行うとともに、補完的にイメージキャプチャ処理を行うようにしても良い。更に、他の動作モードとして、タップまたはタッチジェスチャは、「ウェークアップ(目覚まし)」信号として振る舞い、イメージ及び音響の解析システム206を、スタンバイモードから動作モードに推移させる。例えば、システム206は、閾値間隔より長い間、カメラ102,104からの光学的な信号が無い場合には、スタンバイモードに推移できる。
当然のことながら、図2に示す事項は一例である。幾つかの実施態様では、システム200を別形状の筐体に収容すること、或いは、より大きな構成要素や組立品内に内蔵することも好ましい。更に、イメージセンサ、モーション検出器、照明源等の個数及びタイプは、明瞭性のための図解したもので、大きさ或いは数量は全ての実施態様において同じではない。
次に、図3を参照して説明する。図3は、本技術の実施態様に基づいて感知処理システム206を実現するためのコンピュータシステム300の簡略化したブロック図である。コンピュータシステム300は、プロセッサ302、メモリ304、モーション検出器及びカメラのインターフェース306、提示インターフェース220、スピーカ309、マイクロフォン310、及び、無線インターフェース311を備える。メモリ304は、プロセッサ302によって実行される命令、及び、当該命令の実行に関連する入力データ及び/または出力データを格納するために使用される。特に、メモリ304は、概念的に一群のモジュールとして説明され(詳細は後述する)、プロセッサ302の動作及び他のハードウェア部品との相互作用を制御する命令を格納している。オペレーティングシステム(OS)は、メモリ割り当て、ファイル管理、大容量記憶装置の操作等の低レベルで基本的なシステム機能を監督する。オペレーティングシステムは、下記に列挙する種々のオペレーティングシステムで構成されるか、または、当該オペレーティングシステムを含んで構成される。当該種々のオペレーティングシステムとして、例えば、マイクロソフト社のWINDOWS(登録商標)オペレーティングシステム、UNIX(登録商標)オペレーティングシステム、Linux(登録商標)オペレーティングシステム、Xenixオペレーティングシステム、IBM社のAIXオペレーティングシステム、ヒューレット・パッカード社のUXオペレーティングシステム、Novell社のNETWAREオペレーティングシステム、サンマイクロシステムズ社のSOLARISオペレーティングシステム、OS/2オペレーティングシステム、BeOSオペレーティングシステム、MACINTOSH OSオペレーティングシステム、APACHEオペレーティングシステム、OPENACTIONオペレーティングシステム、iOSやAndroid等のモバイルオペレーティングシステム、或いは、その他のオペレーティングシステムまたはプラットフォームが想定される。
コンピューティング環境は、更に、その他の取り外し可能/不可能な、揮発性/不揮発性のコンピュータ記憶媒体を備えることができる。例えば、ハードディスクドライブは、取り外し不可能な不揮発性の磁気記憶媒体の読み出し及び書き込みができる。磁気ディスクドライブは、取り外し可能な不揮発性の磁気記憶媒体からの読み出し、または、同磁気記憶媒体への書き込みができ、光ディスクドライブは、取り外し可能な不揮発性のCD−ROM等の光ディスクからの読み出し、または、同光ディスクへの書き込みができる。模範的な操作環境で使用可能な他の取り外し可能/不可能な、揮発性/不揮発性のコンピュータ記憶媒体は、これらに限定されないが、磁気テープカセット、フラッシュメモリカード、ディジタル多用途ディスク(DVD)、ディジタルビデオテープ、半導体RAM、半導体ROM、等を含む。記憶媒体は、典型的には、取り外し可能/不可能なメモリインターフェースを介してシステムバスに接続している。
プロセッサ302は、汎用のマイクロプロセッサを使用できるが、実施態様によっては、代替的に、マイクロコントローラ、周辺集積回路素子、CSIC(特定カスタマ向けIC)、ASIC(特定用途向けIC)、論理回路、ディジタル信号プロセッサ、FPGA(フィールド・プログラマブル・ゲートアレイ)、PLD(プログラマブル論理デバイス)、PLA(プログラマブル論理アレイ)等のプログラマブル論理デバイス、RFIDプロセッサ、スマートチップ、或いは、任意の他のデバイス、或いは、本技術の処理動作を実行できるデバイスの配置等が使用できる。
モーション検出器及びカメラのインターフェース306は、コンピュータシステム300と、センサ208,210(図2参照)と同様にカメラ102,104間の通信を可能にするハードウェア、及び/または、ソフトウェアを含む。従って、例えば、モーション検出器及びカメラのインターフェース306は、プロセッサ302で実行されるモーションキャプチャ(“mocap”)プログラム314への入力として信号が提供される前の前記カメラ及びモーション検出器から受信したデータ信号を変更(例えば、ノイズ低減、データの再フォーマット等)するハードウェア、及び/または、ソフトウェアの信号プロセッサと同様に、カメラ、照明源、及び、モーション検出器が(従来のプラグ及びジャックを介して)接続可能な1以上のカメラデータポート316,318、照明源ポート313,315、及び、モーション検出器ポート317,319を含むことができる。幾つかの実施態様では、モーション検出器及びカメラのインターフェース306は、更に、カメラ、照明源、及び、センサに信号を送信し、例えば、これらを活性化或いは非活性化する、カメラの設定(フレームレート、画質、感度等)を制御する、照明源の設定(強度、照明時間等)を制御する、センサの設定(キャリブレーション、感度レベル等)を制御すること等ができる。当該信号は、例えば、プロセッサ302からの制御信号に応答して送信される。尚、プロセッサ302からの制御信号は、ユーザ入力、または、他の検知されたイベントに応答して順番に生成され得る。
mocapプログラム314を規定する命令はメモリ304に格納され、当該命令は、実行されると、カメラから供給されるイメージ、及び、モーション検出器及びカメラのインターフェース306に接続するセンサから供給されるオーディオ信号に対して、モーションキャプチャ解析を実行する。1つの実施態様では、mocapプログラム314は、物体解析モジュール322、及び、経路解析モジュール324等の種々のモジュールを有する。物体解析モジュール322は、イメージ(例えば、インターフェース306を介して取り込まれたイメージ)内の物体のエッジ、及び/または、物体の位置に関する他の情報を検知するために、当該イメージを解析することができる。幾つかの実施態様では、物体解析モジュール322は、例えば、当該物体の到着の時間距離(所要時間)、マルチラテレーション等による当該物体の局所化のために、音声信号(例えば、インターフェース306を介して取り込まれた音声信号)も解析することができる。尚、マルチラテレーションとは、既知の位置から既知の時間に信号を発信する2以上の基地との距離差の測定を基礎とするナビゲーション技術である(例えば、ウィキペディア(Wikipedia:http://en.wikipedia.org/w/index.php?title=Multilateration&oldid=523281858, on Nov. 16, 2012, 06:07 UTC)参照)。経路解析モジュール324は、カメラを介して得られた情報に基づいて3Dでの物体の動きを追跡及び予測できる。幾つかの実施態様では、仮想現実/拡張現実環境マネージャー326が、個人的な仮想体験213を提供する提示インターフェース220を介して、装置201のユーザに対して提示するための合成物体216と同様に、実物体(例えば、手214)を反映する仮想物体の統合を提供することを含む。1以上のアプリケーション328は、装置201の機能を拡張またはカスタマイズして、システム200がプラットフォームとして機能させるために、メモリ304内にロード(或いは、他の方法でプロセッサ302に対して利用可能に)することができる。一連のカメライメージは、物体の動き及び速度を抽出するために、画素レベルで解析される。オーディオ信号は、既知の面上の物体を判別し、当該信号の強度及び変化は、当該物体の存在を検出するのに利用できる。オーディオ及びイメージ情報の両方が同時に利用可能な場合、両タイプの情報は、解析され、且つ、より詳細な及び/または正確な経路解析を提供するために調整され得る。ビデオ供給インテグレータ329は、カメラ102,104からのライブビデオ供給と、1以上の仮想物体(例えば、図5の501)との統合を提供する。ビデオ供給インテグレータ329は、異なるタイプのカメラ102,104からのビデオ情報の処理を管理する。例えば、赤外光に感応する画素及び可視光(例えば、RGB)に感応する画素から受け取った情報は、インテグレータ329によって分離され、異なって処理され得る。IRセンサからのイメージ情報は、ジェスチャ認識に用いることができ、一方、RGBセンサからのイメージ情報は、提示インターフェース220を介してライブビデオ供給として提供され得る。1つのタイプのセンサからの情報は、別のセンサからの情報を強調、訂正、及び/または、補強するのに使用することができる。1つのタイプのセンサからの情報は、幾つかのタイプの状況または環境条件(例えば、微小光、霧、明るい光、等)において有利となる場合がある。本装置は、1つまたは他のタイプのイメージ情報に基づく提示出力を、自動的に提供するか、或いは、ユーザからの選択を受け付けて提供するかを選択できる。インテグレータ329は、VR/AR環境マネージャー326と共に、提示インターフェース220を介してユーザに提示される環境の作成を制御する。
提示インターフェース220、スピーカ309、マイクロフォン310、及び、無線インターフェース311は、ユーザの装置201を介するコンピュータシステム300との相互作用を容易にするために用いることができる。これらの構成要素は、一般的に、従来設計のもの、或いは、任意のタイプのユーザ相互作用の提供に望ましく変更されたものが使用できる。幾つかの実施態様では、モーション検出器及びカメラのインターフェース306とmocapプログラム314を用いたモーションキャプチャの結果は、ユーザ入力として解釈される。例えば、mocapプログラム314を用いて解析される手のジェスチャ或いは表面を横切る動きを実行でき、その解析結果は、プロセッサ302上で実行している他のプログラム(例えば、ウェブブラウザ、ワードプロセッサ、または、他のアプリケーション)に対する命令として解釈することができる。つまり、実例として、ユーザは、提示インターフェース220を介して装置201のユーザに対して現在表示されているウェブページを「スクロール」するために、上向きまたは下向きに手を大きく動かすジェスチャ、スピーカ309からのオーディオ出力のボリュームを大きくまたは小さくするために、手を回すジェスチャ、等を用いても良い。経路解析モジュール324は、例えば、動きを予想して、提示インターフェース220による装置201上の動作の描写を改良するために、検出された経路をベクトルとして表示し、該経路を予測するために外挿することができる。
コンピュータシステム300は、一例であり、種々の変形及び変更が可能であると理解される。コンピュータシステムは、サーバシステム、デスクトップシステム、ラップトップシステム、タブレット、スマートフォン、または、パーソナルディジタルアシスタンツ等の種々のフォームファクターで実現できる。特定の実施態様は、例えば、有線及び/または無線ネットワークインターフェース、メディア再生及び/または記録機能等のここに記載していない他の機能、を含むこともできる。幾つかの実施態様では、1以上のカメラ及び1以上のマイクロフォンは、別部品として供給されるのではなく寧ろコンピュータ内に組み込まれても良い。更に、イメージまたはオーディオアナライザは、コンピュータシステムの部品の一部(例えば、プログラムコードを実行するプロセッサ、ASIC、または、機能が固定されたディジタル信号プロセッサと、イメージデータの受信と解析結果の出力に適したI/Oインターフェース)だけでも実現できる。
コンピュータシステム300は、特定のブロックを参照して説明されているが、当該ブロックは説明の便宜上規定されたもので、構成部品の特定の物理的な配置を意図するものではない。更に、当該ブロックは、必ずしも、物理的に別個の構成部品と対応している必要はない。物理的に別個の構成部品が使用されている場合、当該部品間の接続(例えば、データ通信のための接続)は、その要請に応じて有線及び/または無線での接続が可能である。従って、例えば、プロセッサ302による物体解析モジュール322の実行に起因して、イメージ及び/またはオーディオデータを解析することで物体の入場を検出するための面を横切って移動し、接触する物体のイメージ及び/またはオーディオ信号を取り込むように、プロセッサ302がモーション検出器及びカメラのインターフェース306を操作するようにできる。
図4は、本技術の実施態様に基づくモーションキャプチャ及びイメージ解析において関係する基本操作及び機能的ユニット400を示す。図4に示されるように、カメラ402,404は景色のディジタルイメージ410を記録する。各ディジタルイメージは、関連するカメラのイメージセンサによって、画素値のアレイとして取り込まれ、当該ディジタルイメージは、生(raw)データのまま、或いは、在来式の前処理に続いて、1以上のフレームバッファ415に転送される。フレームバッファは、イメージを記録したカメラによる出力としてイメージの画素値に対応する「ビットマップ」のイメージフレーム420を格納する揮発性メモリの区画または専用のセグメントである。当該ビットマップは、一般には、概念的に格子として、各画素が表示装置の出力要素に1対1または別の方法でマッピングされて、構成される。しかしながら、フレームバッファ415内でメモリセルが物理的にどのように編成されるかというトポロジーは、概念的な編成に対して重要ではなく、直接一致する必要もない点は重視すべきである。
システム内に含まれるフレームバッファの数は、一般的に、解析システムまたは解析モジュール430(詳細は後述する)によって同時に解析されるイメージの数を反映する。簡単に言えば、解析モジュール430は、そこに物体を置いて、それらの動きを、時間をかけて追跡するために(符号440で示す)、一連のイメージフレーム420の夫々の画素データを解析する。この解析は種々の形式を取ることができ、当該解析を実行するアルゴリズムは、イメージフレーム420の画素をどのように扱うかを指示する。例えば、解析モジュール430により実行されるアルゴリズムは、各フレームバッファの画素を1ライン毎に処理できる。つまり、画素グリッドの各行は逐次的に解析される。他のアルゴリズムは、列、タイル状の領域、或いは、他の組織的な形式で画素を解析する。
様々な実施態様では、一連のカメライメージ内に取り込まれたモーションは、ディスプレイ220上へ表示するために連続する対応する出力イメージを計算するのに使用される。例えば、動いている手のカメライメージは、プロセッサ302によって、手のワイヤーフレーム表示または他のグラフィック表示に変換することができる。或いは、手のジェスチャは、別個の視覚出力を制御するために使用される入力として解釈され得る。実例として、ユーザは、現在表示されているウェブページまたは他のドキュメントをスクロールするために、上向きまたは下向きに手を大きく動かすジェスチャ、或いは、当該ウェブページをズームインまたはズームアウトするために手を開いたり閉じたりジェスチャを使用することができる。如何なる場合でも、出力イメージは、一般的にフレームバッファ、例えば、フレームバッファ415の1つの中に画素データ形式で格納される。ビデオ表示コントローラはフレームバッファを読み出して、組立品203にイメージを出力するために、データストリーム及び関連する制御信号を生成する。提示インターフェース220によって提供されるビデオ表示コントローラは、プロセッサ302とメモリ304とともに、コンピュータ300のマザーボード上に搭載して提供でき、更に、プロセッサ302と共に一体化され得るか、或いは、分離したビデオメモリを操作するコプロセッサとして実施され得る。上述したように、コンピュータシステム300は、組立品203への出力イメージの供給の生成を助ける個別のグラフィックまたはビデオカードを備えることができる。一実施態様では、ビデオカードは、一般的に、グラフィック処理ユニット(GPU)とビデオメモリを備え、特に、複雑且つコンピュータ処理上高価なイメージ処理及びレンダリングに有用である。グラフィックカードは、フレームバッファとビデオ表示コントローラの機能(オンボードビデオ表示コントローラは無効にできる)を含むことができる。一般に、システムのイメージ処理及びモーションキャプチャ機能は、GPUとメインプロセッサ302間に、種々の方法で分配できる。
モーションキャプチャプログラム314に適したアルゴリズムは以下で説明するが、更に詳しくは、例えば、2012年1月17日、2012年3月7日、2012年11月8日、2012年12月21日、及び、2013年1月16日に夫々出願された米国出願61/587,554、13/414,485、61/724,091、13/724,357、及び、13/742,953に開示されており、当該全ての開示は本願に引用して援用する。種々のモジュールは、例えば、C、C++、C#、OpenGL、Ada、Basic、Cobra、FORTRAN、Java(登録商標)、Lisp、Perl、Python,Ruby、または、Object Pascal、または、低レベルアッセンブリ言語等を含む、高レベル言語に限定されない任意の適したプログラミング言語でプログラムされ得る。
再度図4を参照すると、モーション感知制御装置に備えられた装置の動作モードは、イメージ解析モジュール430に提供されるデータの粗さ、解析の粗さ、または、その両方を、性能データベースの登録に基づいて、判定する。例えば、広域モードの動作の間、イメージ解析モジュール430は、全てのイメージフレーム上で動作することができ、更に、フレーム容量制限内の全てのデータ上で、フレームバッファ415の各データが一連のデータラインとして構成されている場合、フレーム当たりのイメージデータの削減量(つまり、解像度)の解析、または、幾つかのフレームを全て捨てることを指示できる。データが解析から欠落する手法は、イメージ解析アルゴリズム、または、モーションキャプチャ出力を加えて行う使用に依存する可能性がある。幾つかの実施態様では、データは、例えば、1ラインおき、2ラインおき等のように、対称或いは一様に欠落し、イメージ解析アルゴリズムまたはその出力を利用するアプリケーションの許容限度まで捨てられる。他の実施態様では、ライン欠落の頻度は、フレームの端部に向けて増加する。更に別の変化し得るイメージ取得パラメータは、フレームサイズ、フレーム解像度、及び、1秒当たりに取得されるフレーム数を含む。特に、フレームサイズは、例えば、端部の画素を捨てる、より低い解像度で再サンプリングする(及び、フレームバッファ容量の一部のみを使用する)等により、削減できる。イメージデータの取得に関連するパラメータ(例えば、サイズ、フレームレート、及び、特性)は、集合的に「取得パラメータ」と称し、一方、イメージ解析モジュール430の動作(例えば、物体の輪郭の規定)に関連するパラメータは、集合的に「イメージ解析パラメータ」と称する。上述の取得パラメータ及びイメージ解析パラメータは、代表的なものだけであり、これだけに限定されるものではない。
取得パラメータは、カメラ402,404及び/またはフレームバッファ415に供給され得る。例えば、カメラ402,404は、カメラ402,404の操作における取得パラメータに応答して、指示されたレートでイメージを取得し、或いは、それに代えて、フレームバッファ415に(単位時間当たりに)転送される取得フレーム数を制限することができる。イメージ解析パラメータは、輪郭規定アルゴリズムの動作に影響を与える数量として、イメージ解析モジュール430に、供給され得る。
利用可能な資源の所定のレベルに好適な取得パラメータ及びイメージ解析パラメータの望ましい値は、例えば、イメージ解析モジュール430の特性、mocap出力を利用するアプリケーションの種類、及び、設計上の優先事項に依存し得る。幾つかのイメージ処理アルゴリズムが、広帯域に亘って、入力フレーム解像度に対して輪郭概算の解像度をトレードオフできるのに対して、別のイメージ処理アルゴリズムは、大きな許容を全く提示しない場合もあり得、例えば、それ以下ではアプリケーションが一緒に機能しなくなる最小のイメージ解像度を要求する。
幾つかの実施態様は、仮想現実アプリケーションまたは拡張現実アプリケーションに適用可能である。例えば、図5を参照すると、図5では、実物体の光景を含む仮想装置の拡張現実体験213、例えば、机の表面媒体516と本技術の一実施態様に基づく1以上の仮想物体(例えば、物体501)を投影するためのシステム500が図示されている。システム500は、種々のセンサ及びプロジェクタ、例えば、1以上のカメラ102,104(または、他のイメージセンサ)及びイメージングシステムを備える任意の幾つかの照明源115,117等を制御する処理システム206を備える。随意的に、机516への接触を感知する複数の振動センサ(または、音響センサ)508,510が含まれていても良い。更に、随意的に、システム206が制御するプロジェクタとして、例えば、オーディオフィードバックを提供する任意のオーディオプロジェクタ502、任意のビデオプロジェクタ504、例えば、拡張現実のユーザに触覚フィードバックを提供する任意の触覚プロジェクタ506がある。プロジェクタに関する更なる情報に関して、“Visio−Tactile Projector” Youtube (https://www.youtube.com/watch?v=Bb0hNMxxewg:2014年1月15日検索)が参考になる。動作では、センサ及びプロジェクタは、少なくとも机516の一部、または、対象物体214(本例では、手)が指示された経路に沿って動く自由空間を含むことのできる対象となる領域212に向けられる。1以上のアプリケーション521,522が、拡張現実213の表示内に統合された仮想物体として提供できる。これにより、ユーザ(例えば、手214の持ち主)は、例えば、仮想物体501と同じ環境内で、机516、コーラ517等の実物体との相互作用が可能となる。
幾つかの実施態様では、仮想物体はユーザに対して投射される。投射には、物体のイメージ、その他の視覚表示が含まれ得る。例えば、例えば、図5の視覚プロジェクション機構504は、ページ(例えば、仮想装置501)を本から読み手の拡張現実環境213内(例えば、表面部分516及び/または周囲の空間212)に投影することができる。その結果、たとえ本や電子読み取り機が存在していなくても、本物の本、或いは、物理的な電子読み取り機上の電子書籍を読んでいる仮想装置経験を作り出す。幾つかの実施態様では、任意の触覚プロジェクタ506が、読み手の指に、当該本の「仮想の紙」の性状の感触を投射することができる。幾つかの実施態様では、任意のオーディオプロジェクタ502が、ページをめくるための読み手のスワイプ(swipe)操作を検出してページをめくる音を投射する。

Claims (17)

  1. 眺められている景色の立体的なイメージ情報を提供するように配置された複数のイメージセンサと、
    前記イメージセンサの周辺に配置された1または複数の照明源と、
    前記イメージセンサ及び前記照明源に接続して、前記イメージセンサ及び前記照明源の動作を制御するコントローラと、を備え、
    景色のイメージ情報を取得し、少なくともほぼ実時間のイメージ情報のパススルーをユーザに提供することを特徴とするモーション感知及びイメージング装置。
  2. 前記コントローラが、更に、前記イメージセンサの見える範囲内の制御物体のためのイメージ情報を取り込むことを提供し、
    当該制御物体のための前記イメージ情報が、制御下の機械に対するコマンドを指示するジェスチャ情報を決定するために使用されることを特徴とする請求項1に記載の装置。
  3. 前記イメージ情報を取り込むことが、更に、
    赤外光に感応する画素から受信した情報を、可視光(例えば、RGB)に感応する画素から受信した情報と分離すること、
    ジェスチャの認識に使用するために、赤外センサからの情報を処理すること、及び、
    提示インターフェースを介してライブビデオ供給として提供するために、RGBセンサからの情報を処理すること、
    を含むことを特徴とする請求項2に記載の装置。
  4. 前記RGBセンサからの情報を処理することが、更に、前記景色内の照明の赤、緑、及び、青要素を各別に取り込むRGB画素を用いて、実世界空間の全体の特徴を抽出することを含むことを特徴とする請求項3に記載の装置。
  5. 前記赤外センサからの情報を処理することが、更に、前記景色内の照明の赤外要素を取り込む赤外画素を用いて、実世界空間の細かな特徴を抽出することを含むことを特徴とする請求項3に記載の装置。
  6. 前記実世界空間の細かな特徴が、前記実世界空間の表面性状を含むことを特徴とする請求項5に記載の装置。
  7. 前記実世界空間の細かな特徴が、前記実世界空間のエッジを含むことを特徴とする請求項5に記載の装置。
  8. 前記実世界空間の細かな特徴が、前記実世界空間の湾曲を含むことを特徴とする請求項5に記載の装置。
  9. 前記実世界空間の細かな特徴が、前記実世界空間内の物体の表面性状を含むことを特徴とする請求項5に記載の装置。
  10. 前記実世界空間の細かな特徴が、前記実世界空間内の物体のエッジを含むことを特徴とする請求項5に記載の装置。
  11. 前記実世界空間の細かな特徴が、前記実世界空間内の物体の湾曲を含むことを特徴とする請求項5に記載の装置。
  12. 前記コントローラが、更に、
    周囲の照明条件を決定すること、及び、前記決定された条件に基づいて出力の表示を調整することを提供し、
    第1及び第2の時間に、固定点に対する前記センサの第1及び第2の位置情報を決定することを特徴とする請求項1に記載の装置。
  13. モーションセンサを更に備え、
    前記コントローラが、更に、
    前記モーションセンサからの第1及び第2の位置情報の間の差分情報を決定すること、及び、前記差分情報に基づいて、固定点に対する前記装置についての動き情報を計算することを提供することを特徴とする請求項1に記載の装置。
  14. 装着型提示装置の取り付け面に前記イメージセンサと前記照明源を取り付ける1以上の固定部材を、更に備えることを特徴とする請求項1に記載の装置。
  15. 装着型提示装置の空洞部分に前記イメージセンサと前記照明源を取り付ける1以上の固定部材を、更に備えることを特徴とする請求項1に記載の装置。
  16. 可搬提示装置の取り付け面に前記イメージセンサと前記照明源を取り付ける1以上の固定部材を、更に備えることを特徴とする請求項1に記載の装置。
    ことを特徴とする請求項1に記載の装置。
  17. 可搬提示装置の空洞部分に前記イメージセンサと前記照明源を取り付ける1以上の固定部材を、更に備えることを特徴とする請求項1に記載の装置。
JP2014164597A 2014-08-08 2014-08-12 モーション感知を伴う拡張現実 Pending JP2016038889A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201462035008P 2014-08-08 2014-08-08
US62/035,008 2014-08-08

Publications (1)

Publication Number Publication Date
JP2016038889A true JP2016038889A (ja) 2016-03-22

Family

ID=51618846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014164597A Pending JP2016038889A (ja) 2014-08-08 2014-08-12 モーション感知を伴う拡張現実

Country Status (4)

Country Link
US (5) US10349036B2 (ja)
JP (1) JP2016038889A (ja)
CN (1) CN204480228U (ja)
DE (1) DE202014103729U1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017163648A1 (ja) * 2016-03-23 2017-09-28 株式会社ソニー・インタラクティブエンタテインメント 頭部装着装置
US10140777B2 (en) 2016-08-02 2018-11-27 Canon Kabushiki Kaisha Information processing apparatus, method of controlling information processing apparatus, and storage medium
US20230107097A1 (en) * 2021-10-06 2023-04-06 Fotonation Limited Method for identifying a gesture

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9857919B2 (en) * 2012-05-17 2018-01-02 Hong Kong Applied Science And Technology Research Wearable device with intelligent user-input interface
US9952042B2 (en) 2013-07-12 2018-04-24 Magic Leap, Inc. Method and system for identifying a user location
US10007329B1 (en) 2014-02-11 2018-06-26 Leap Motion, Inc. Drift cancelation for portable object detection and tracking
US9754167B1 (en) 2014-04-17 2017-09-05 Leap Motion, Inc. Safety for wearable virtual reality devices via object detection and tracking
US9646201B1 (en) 2014-06-05 2017-05-09 Leap Motion, Inc. Three dimensional (3D) modeling of a complex control object
US10007350B1 (en) 2014-06-26 2018-06-26 Leap Motion, Inc. Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
CN204480228U (zh) 2014-08-08 2015-07-15 厉动公司 运动感测和成像设备
CN112530025A (zh) * 2014-12-18 2021-03-19 脸谱科技有限责任公司 用于提供虚拟现实环境的用户界面的系统、设备及方法
US9407865B1 (en) * 2015-01-21 2016-08-02 Microsoft Technology Licensing, Llc Shared scene mesh data synchronization
US10616561B2 (en) * 2015-09-03 2020-04-07 Inuitive Ltd. Method and apparatus for generating a 3-D image
EP3179338B1 (en) * 2015-12-11 2021-07-14 Tata Consultancy Services Ltd. Hybrid reality based object interaction and control
CN105657494B (zh) * 2015-12-31 2018-12-25 北京小鸟看看科技有限公司 一种虚拟影院及其实现方法
US10908694B2 (en) * 2016-02-01 2021-02-02 Microsoft Technology Licensing, Llc Object motion tracking with remote device
US10067636B2 (en) * 2016-02-09 2018-09-04 Unity IPR ApS Systems and methods for a virtual reality editor
EP3475785A4 (en) * 2016-04-22 2020-05-13 SZ DJI Technology Co., Ltd. SYSTEMS AND METHODS FOR PROCESSING IMAGE DATA BASED ON A USER'S INTEREST
US20180005437A1 (en) * 2016-06-30 2018-01-04 Glen J. Anderson Virtual manipulator rendering
CN106228614A (zh) * 2016-07-29 2016-12-14 宇龙计算机通信科技(深圳)有限公司 一种场景再现方法和装置
CA3032812A1 (en) 2016-08-04 2018-02-08 Reification Inc. Methods for simultaneous localization and mapping (slam) and related apparatus and systems
US9983687B1 (en) * 2017-01-06 2018-05-29 Adtile Technologies Inc. Gesture-controlled augmented reality experience using a mobile communications device
US10637814B2 (en) 2017-01-18 2020-04-28 Microsoft Technology Licensing, Llc Communication routing based on physical status
US11094212B2 (en) 2017-01-18 2021-08-17 Microsoft Technology Licensing, Llc Sharing signal segments of physical graph
US10635981B2 (en) 2017-01-18 2020-04-28 Microsoft Technology Licensing, Llc Automated movement orchestration
US10606814B2 (en) 2017-01-18 2020-03-31 Microsoft Technology Licensing, Llc Computer-aided tracking of physical entities
US10437884B2 (en) 2017-01-18 2019-10-08 Microsoft Technology Licensing, Llc Navigation of computer-navigable physical feature graph
US10482900B2 (en) 2017-01-18 2019-11-19 Microsoft Technology Licensing, Llc Organization of signal segments supporting sensed features
US10679669B2 (en) 2017-01-18 2020-06-09 Microsoft Technology Licensing, Llc Automatic narration of signal segment
FR3062488B1 (fr) * 2017-02-01 2020-12-25 Peugeot Citroen Automobiles Sa Dispositif d'analyse pour la determination d'un temps de latence d'un systeme immersif de realite virtuelle
CN108399633A (zh) * 2017-02-06 2018-08-14 罗伯团队家居有限公司 用于立体视觉的方法和装置
US10401954B2 (en) * 2017-04-17 2019-09-03 Intel Corporation Sensory enhanced augmented reality and virtual reality device
CN107095384B (zh) * 2017-04-26 2023-11-24 左志权 一种基于wifi传输的智能消防头盔装置
CN111065952B (zh) * 2017-06-14 2022-04-05 惠普发展公司,有限责任合伙企业 显示器、用于调整显示器的方法和可读介质
WO2018236601A1 (en) * 2017-06-19 2018-12-27 Get Attached, Inc. EXPLORING DIGITAL MEDIA BASED ON AUTOMATIC DIGITAL MEDIA INTERACTION CONTEXT AND FEEDBACK INTERACTION
US11127212B1 (en) * 2017-08-24 2021-09-21 Sean Asher Wilens Method of projecting virtual reality imagery for augmenting real world objects and surfaces
US10728430B2 (en) * 2018-03-07 2020-07-28 Disney Enterprises, Inc. Systems and methods for displaying object features via an AR device
US11189054B2 (en) * 2018-09-28 2021-11-30 Apple Inc. Localization and mapping using images from multiple devices
KR20200098034A (ko) 2019-02-11 2020-08-20 삼성전자주식회사 가상 현실 유저 인터페이스를 제공하기 위한 전자 장치 및 그의 동작 방법
US20210278671A1 (en) * 2020-02-19 2021-09-09 Hes Ip Holdings, Llc Head wearable device with adjustable image sensing modules and its system
CN114365214A (zh) 2020-08-14 2022-04-15 海思智财控股有限公司 叠合虚拟影像于即时影像的系统与方法
WO2022051688A1 (en) 2020-09-03 2022-03-10 Hes Ip Holdings, Llc Systems and methods for improving binocular vision
US11953689B2 (en) 2020-09-30 2024-04-09 Hes Ip Holdings, Llc Virtual image display system for virtual reality and augmented reality devices
US20220148268A1 (en) * 2020-11-10 2022-05-12 Noderix Teknoloji Sanayi Ticaret Anonim Sirketi Systems and methods for personalized and interactive extended reality experiences
US11556169B2 (en) * 2021-02-11 2023-01-17 Meta Platforms Technologies, Llc Adaptable personal user interfaces in cross-application virtual reality settings
WO2023235519A1 (en) * 2022-06-03 2023-12-07 Datasya Ltd. Interactive multimedia collaboration platform with remote-controlled camera and annotation
WO2024077077A1 (en) * 2022-10-05 2024-04-11 University Of Pittsburgh - Of The Commonwealth System Of Higher Education Augmented-reality headsets for use in medical settings including surgery
CN115630131B (zh) * 2022-12-19 2023-04-07 北京码牛科技股份有限公司 一种轨迹数据时空切片方法、系统及电子设备

Family Cites Families (577)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2665041A (en) 1952-01-09 1954-01-05 Daniel J Maffucci Combination form for washing woolen socks
US4175862A (en) 1975-08-27 1979-11-27 Solid Photography Inc. Arrangement for sensing the geometric characteristics of an object
US4521831A (en) 1984-01-18 1985-06-04 Thayer John R Protective helmet with dual adjustment illumination means
GB8412587D0 (en) 1984-05-17 1986-12-17 Secr Defence Aircrew headgear
US4879659A (en) 1987-11-24 1989-11-07 Bowlin William P Log processing systems
US4876455A (en) 1988-02-25 1989-10-24 Westinghouse Electric Corp. Fiber optic solder joint inspection system
US4893223A (en) 1989-01-10 1990-01-09 Northern Telecom Limited Illumination devices for inspection systems
DE3906555A1 (de) 1989-03-02 1989-07-06 Zeiss Carl Fa Auflicht-objektbeleuchtungseinrichtung
JPH076782B2 (ja) 1989-03-10 1995-01-30 工業技術院長 物体の形状測定方法及び装置
US5134661A (en) 1991-03-04 1992-07-28 Reinsch Roger A Method of capture and analysis of digitized image data
US5282067A (en) 1991-10-07 1994-01-25 California Institute Of Technology Self-amplified optical pattern recognition system
DE4201934A1 (de) 1992-01-24 1993-07-29 Siemens Ag Gestik computer
US6184326B1 (en) 1992-03-20 2001-02-06 Fina Technology, Inc. Syndiotactic polypropylene
US7983817B2 (en) 1995-06-07 2011-07-19 Automotive Technologies Internatinoal, Inc. Method and arrangement for obtaining information about vehicle occupants
JP3244798B2 (ja) 1992-09-08 2002-01-07 株式会社東芝 動画像処理装置
WO1994017636A1 (en) 1993-01-29 1994-08-04 Bell Communications Research, Inc. Automatic tracking camera control system
WO1994026057A1 (en) 1993-04-29 1994-11-10 Scientific Generics Limited Background separation for still and moving images
US5454043A (en) 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
US6061064A (en) 1993-08-31 2000-05-09 Sun Microsystems, Inc. System and method for providing and using a computer user interface with a view space having discrete portions
JPH0795561A (ja) 1993-09-21 1995-04-07 Sony Corp 展示物説明システム
US5659475A (en) 1994-03-17 1997-08-19 Brown; Daniel M. Electronic air traffic control system for use in airport towers
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US5900863A (en) 1995-03-16 1999-05-04 Kabushiki Kaisha Toshiba Method and apparatus for controlling computer without touching input device
JP3737537B2 (ja) 1995-03-22 2006-01-18 帝人ファイバー株式会社 画像処理用照明手段の劣化検出方法
GB2301216A (en) 1995-05-25 1996-11-27 Philips Electronics Uk Ltd Display headset
IL114838A0 (en) 1995-08-04 1996-11-14 Spiegel Ehud Apparatus and method for object tracking
US5574511A (en) 1995-10-18 1996-11-12 Polaroid Corporation Background replacement for an image
US5742263A (en) 1995-12-18 1998-04-21 Telxon Corporation Head tracking system for a head mounted display system
JPH09259278A (ja) 1996-03-25 1997-10-03 Matsushita Electric Ind Co Ltd 画像処理装置
US6002808A (en) 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
US6184926B1 (en) 1996-11-26 2001-02-06 Ncr Corporation System and method for detecting a human face in uncontrolled environments
JP3438855B2 (ja) 1997-01-23 2003-08-18 横河電機株式会社 共焦点装置
US6492986B1 (en) 1997-06-02 2002-12-10 The Trustees Of The University Of Pennsylvania Method for human face shape and motion estimation based on integrating optical flow and deformable models
US6075895A (en) 1997-06-20 2000-06-13 Holoplex Methods and apparatus for gesture recognition based on templates
US6252598B1 (en) 1997-07-03 2001-06-26 Lucent Technologies Inc. Video hand image computer interface
US6263091B1 (en) 1997-08-22 2001-07-17 International Business Machines Corporation System and method for identifying foreground and background portions of digitized images
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US6072494A (en) 1997-10-15 2000-06-06 Electric Planet, Inc. Method and apparatus for real-time gesture recognition
US6195104B1 (en) 1997-12-23 2001-02-27 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6181343B1 (en) 1997-12-23 2001-01-30 Philips Electronics North America Corp. System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs
US6031161A (en) 1998-02-04 2000-02-29 Dekalb Genetics Corporation Inbred corn plant GM9215 and seeds thereof
US6154558A (en) 1998-04-22 2000-11-28 Hsieh; Kuan-Hong Intention identification method
US6421453B1 (en) 1998-05-15 2002-07-16 International Business Machines Corporation Apparatus and methods for user recognition employing behavioral passwords
US6493041B1 (en) 1998-06-30 2002-12-10 Sun Microsystems, Inc. Method and apparatus for the detection of motion in video
JP2000023038A (ja) 1998-06-30 2000-01-21 Toshiba Corp 画像抽出装置
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
JP4016526B2 (ja) 1998-09-08 2007-12-05 富士ゼロックス株式会社 3次元物体識別装置
US6501515B1 (en) 1998-10-13 2002-12-31 Sony Corporation Remote control system
US6594632B1 (en) 1998-11-02 2003-07-15 Ncr Corporation Methods and apparatus for hands-free operation of a voice recognition system
US7483049B2 (en) 1998-11-20 2009-01-27 Aman James A Optimizations for live event, real-time, 3D object tracking
WO2000034919A1 (en) 1998-12-04 2000-06-15 Interval Research Corporation Background estimation and segmentation based on range and color
US6147678A (en) 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US6204852B1 (en) 1998-12-09 2001-03-20 Lucent Technologies Inc. Video hand image three-dimensional computer interface
US6578203B1 (en) 1999-03-08 2003-06-10 Tazwell L. Anderson, Jr. Audio/video signal distribution system for head mounted displays
US6993157B1 (en) 1999-05-18 2006-01-31 Sanyo Electric Co., Ltd. Dynamic image processing method and device and medium
US6804656B1 (en) 1999-06-23 2004-10-12 Visicu, Inc. System and method for providing continuous, expert network critical care services from a remote location(s)
US7050606B2 (en) 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US6346933B1 (en) 1999-09-21 2002-02-12 Seiko Epson Corporation Interactive display presentation system
US6734911B1 (en) 1999-09-30 2004-05-11 Koninklijke Philips Electronics N.V. Tracking camera using a lens that generates both wide-angle and narrow-angle views
JP4332964B2 (ja) 1999-12-21 2009-09-16 ソニー株式会社 情報入出力システム及び情報入出力方法
US6738424B1 (en) 1999-12-27 2004-05-18 Objectvideo, Inc. Scene model generation from video for use in video processing
US6771294B1 (en) 1999-12-29 2004-08-03 Petri Pulli User interface
GB2358098A (en) 2000-01-06 2001-07-11 Sharp Kk Method of segmenting a pixelled image
US6674877B1 (en) 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US6965113B2 (en) 2000-02-10 2005-11-15 Evotec Ag Fluorescence intensity multiple distributions analysis: concurrent determination of diffusion times and molecular brightness
US6798628B1 (en) 2000-11-17 2004-09-28 Pass & Seymour, Inc. Arc fault circuit detector having two arc fault detection levels
US6463402B1 (en) 2000-03-06 2002-10-08 Ralph W. Bennett Infeed log scanning for lumber optimization
CA2406124A1 (en) 2000-04-21 2001-11-22 Lawrence E. Albertelli Wide-field extended-depth doubly telecentric catadioptric optical system for digital imaging
AU2001275308A1 (en) 2000-06-06 2001-12-17 Frauenhofer Institut Fuer Graphische Datenverarbeitung The extended virtual table: an optical extension for table-like projection systems
US6417970B1 (en) 2000-06-08 2002-07-09 Interactive Imaging Systems Two stage optical system for head mounted display
JP4040825B2 (ja) 2000-06-12 2008-01-30 富士フイルム株式会社 画像撮像装置及び距離測定方法
JP5042437B2 (ja) 2000-07-05 2012-10-03 スマート テクノロジーズ ユーエルシー カメラベースのタッチシステム
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US6850872B1 (en) 2000-08-30 2005-02-01 Microsoft Corporation Facial image processing methods and systems
US6901170B1 (en) 2000-09-05 2005-05-31 Fuji Xerox Co., Ltd. Image processing device and recording medium
US20020105484A1 (en) 2000-09-25 2002-08-08 Nassir Navab System and method for calibrating a monocular optical see-through head-mounted display system for augmented reality
JP4483067B2 (ja) 2000-10-24 2010-06-16 沖電気工業株式会社 対象物体抽出画像処理装置
US8042740B2 (en) 2000-11-24 2011-10-25 Metrologic Instruments, Inc. Method of reading bar code symbols on objects at a point-of-sale station by passing said objects through a complex of stationary coplanar illumination and imaging planes projected into a 3D imaging volume
JP3645177B2 (ja) 2000-11-29 2005-05-11 三菱電機株式会社 車両周辺監視装置
US6774869B2 (en) 2000-12-22 2004-08-10 Board Of Trustees Operating Michigan State University Teleportal face-to-face system
AU2002235939A1 (en) 2001-03-08 2002-09-19 Universite Joseph Fourier Quantitative analysis, visualization and movement correction in dynamic processes
US7542586B2 (en) 2001-03-13 2009-06-02 Johnson Raymond C Touchless identification system for monitoring hand washing or application of a disinfectant
US6814656B2 (en) 2001-03-20 2004-11-09 Luis J. Rodriguez Surface treatment disks for rotary tools
DE50207722D1 (de) 2001-03-20 2006-09-14 Thomson Licensing Element zur kombinierten symmetrisierung und homogenisierung eines strahlenbündels
US7009773B2 (en) 2001-05-23 2006-03-07 Research Foundation Of The University Of Central Florida, Inc. Compact microlenslet arrays imager
US6919880B2 (en) 2001-06-01 2005-07-19 Smart Technologies Inc. Calibrating camera offsets to facilitate object position determination using triangulation
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US20030053659A1 (en) 2001-06-29 2003-03-20 Honeywell International Inc. Moving object assessment system and method
US20030053658A1 (en) 2001-06-29 2003-03-20 Honeywell International Inc. Surveillance system and methods regarding same
US20030123703A1 (en) 2001-06-29 2003-07-03 Honeywell International Inc. Method for monitoring a moving object and system regarding same
US20040125228A1 (en) 2001-07-25 2004-07-01 Robert Dougherty Apparatus and method for determining the range of remote objects
US6999126B2 (en) 2001-09-17 2006-02-14 Mazzapica C Douglas Method of eliminating hot spot in digital photograph
US6937742B2 (en) 2001-09-28 2005-08-30 Bellsouth Intellectual Property Corporation Gesture activated home appliance
AU2002337944A1 (en) 2001-10-22 2003-05-06 University Of Southern Extendable tracking by line auto-calibration
US7213707B2 (en) 2001-12-11 2007-05-08 Walgreen Co. Product shipping and display carton
US6804654B2 (en) 2002-02-11 2004-10-12 Telemanager Technologies, Inc. System and method for providing prescription services using voice recognition
US7215828B2 (en) 2002-02-13 2007-05-08 Eastman Kodak Company Method and system for determining image orientation
WO2003071410A2 (en) 2002-02-15 2003-08-28 Canesta, Inc. Gesture recognition system using depth perceptive sensors
JP2003256814A (ja) 2002-02-27 2003-09-12 Olympus Optical Co Ltd 基板検査装置
DE60305662T2 (de) 2002-03-08 2007-04-05 Revelations in Design, LP, Austin Steuerkonsole für elektrische geräte
DE10213643A1 (de) 2002-03-27 2003-10-09 Geka Brush Gmbh Kosmetikeinheit
US7120297B2 (en) 2002-04-25 2006-10-10 Microsoft Corporation Segmented layered image system
US7646372B2 (en) 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
WO2008156437A1 (en) 2006-04-10 2008-12-24 Avaworks Incorporated Do-it-yourself photo realistic talking head creation system and method
KR100575906B1 (ko) 2002-10-25 2006-05-02 미츠비시 후소 트럭 앤드 버스 코포레이션 핸드 패턴 스위치 장치
US7046924B2 (en) 2002-11-25 2006-05-16 Eastman Kodak Company Method and computer program product for determining an area of importance in an image using eye monitoring information
US7400344B2 (en) 2002-12-19 2008-07-15 Hitachi Kokusai Electric Inc. Object tracking method and object tracking apparatus
GB2398469B (en) 2003-02-12 2005-10-26 Canon Europa Nv Image processing apparatus
JP2004246252A (ja) 2003-02-17 2004-09-02 Takenaka Komuten Co Ltd 画像情報収集装置及び方法
US7257237B1 (en) 2003-03-07 2007-08-14 Sandia Corporation Real time markerless motion tracking using linked kinematic chains
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7738725B2 (en) 2003-03-19 2010-06-15 Mitsubishi Electric Research Laboratories, Inc. Stylized rendering using a multi-flash camera
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
DE602004006190T8 (de) 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
WO2004104566A1 (de) 2003-05-19 2004-12-02 Micro-Epsilon Messtechnik Gmbh & Co. Kg Verfahren und vorrichtung zur optischen qualitätsprüfung von objekten mit vor­zugsweise kreisförmig umlaufendem rand
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
DE10326035B4 (de) 2003-06-10 2005-12-22 Hema Electronic Gmbh Verfahren zur adaptiven Fehlererkennung auf einer strukturierten Oberfläche
JP5242052B2 (ja) 2003-06-17 2013-07-24 ブラウン ユニバーシティ 投影データ中の構造体のモデル・ベース検出のための方法および装置
US7606417B2 (en) 2004-08-16 2009-10-20 Fotonation Vision Limited Foreground/background segmentation in digital images with differential exposure calculations
US7244233B2 (en) 2003-07-29 2007-07-17 Ntd Laboratories, Inc. System and method for utilizing shape analysis to assess fetal abnormality
JP3752246B2 (ja) 2003-08-11 2006-03-08 学校法人慶應義塾 ハンドパターンスイッチ装置
US7633633B2 (en) 2003-08-29 2009-12-15 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Position determination that is responsive to a retro-reflective object
US8661571B1 (en) 2003-10-06 2014-03-04 Wilcox Industries Corp. Helmet mounting systems
US7536032B2 (en) 2003-10-24 2009-05-19 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
GB2407635B (en) 2003-10-31 2006-07-12 Hewlett Packard Development Co Improvements in and relating to camera control
EP1694821B1 (en) 2003-12-11 2017-07-05 Strider Labs, Inc. Probable reconstruction of surfaces in occluded regions by computed symmetry
US7217913B2 (en) 2003-12-18 2007-05-15 Micron Technology, Inc. Method and system for wavelength-dependent imaging and detection using a hybrid filter
US7663689B2 (en) 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
US7184022B2 (en) 2004-01-16 2007-02-27 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Position determination and motion tracking
US7707039B2 (en) 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US8872914B2 (en) 2004-02-04 2014-10-28 Acushnet Company One camera stereo system
US7812860B2 (en) 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
WO2005079059A1 (ja) 2004-02-18 2005-08-25 Matsushita Electric Industrial Co., Ltd. 画像補正方法および画像補正装置
JP4419603B2 (ja) 2004-02-25 2010-02-24 日本電気株式会社 液晶表示装置の駆動方法
JP2005277445A (ja) 2004-03-22 2005-10-06 Fuji Xerox Co Ltd 会議映像処理装置、会議映像処理方法およびプログラム
DE102004015785B4 (de) 2004-03-25 2012-06-06 Sikora Ag Verfahren zur Bestimmung der Abmessung eines Querschnitts eines Flachkabels oder eines Sektorleiters
US7325735B2 (en) 2004-04-02 2008-02-05 K-Nfb Reading Technology, Inc. Directed reading mode for portable reading machine
JP4708422B2 (ja) 2004-04-15 2011-06-22 ジェスチャー テック,インコーポレイテッド 両手動作の追跡
JP4751032B2 (ja) 2004-04-22 2011-08-17 株式会社森精機製作所 変位検出装置
US7308112B2 (en) 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7519223B2 (en) 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
EP1763849A1 (en) 2004-06-29 2007-03-21 Philips Intellectual Property & Standards GmbH Personal gesture signature
US7743348B2 (en) 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
JP4916096B2 (ja) 2004-07-01 2012-04-11 イビデン株式会社 光通信用デバイス
US20060017720A1 (en) 2004-07-15 2006-01-26 Li You F System and method for 3D measurement and surface reconstruction
JP2008507229A (ja) 2004-07-19 2008-03-06 グランドアイ,エルティーディー 広角ビデオカメラのズーム機能の自動拡張
US7576767B2 (en) 2004-07-26 2009-08-18 Geo Semiconductors Inc. Panoramic vision system and method
US7542040B2 (en) 2004-08-11 2009-06-02 The United States Of America As Represented By The Secretary Of The Navy Simulated locomotion method and apparatus
EP1645944B1 (en) 2004-10-05 2012-08-15 Sony France S.A. A content-management interface
US7706571B2 (en) 2004-10-13 2010-04-27 Sarnoff Corporation Flexible layer tracking with weak online appearance model
GB2419433A (en) 2004-10-20 2006-04-26 Glasgow School Of Art Automated Gesture Recognition
JP5058815B2 (ja) 2004-11-24 2012-10-24 バッテル メモリアル インスティチュート 細胞撮像用の光学システム
CN101198964A (zh) 2005-01-07 2008-06-11 格斯图尔泰克股份有限公司 使用红外图案照射创建对象的三维图像
EP1851750A4 (en) 2005-02-08 2010-08-25 Oblong Ind Inc SYSTEM AND METHOD FOR CONTROL SYSTEM BASED ON GESTURES
AU2006217569A1 (en) 2005-02-23 2006-08-31 Craig Summers Automatic scene modeling for the 3D camera and 3D video
KR100948095B1 (ko) 2005-02-24 2010-03-16 노키아 코포레이션 컴퓨팅 단말용 동작 입력 장치 및 그 작동방법
US7715589B2 (en) 2005-03-07 2010-05-11 Massachusetts Institute Of Technology Occluding contour detection and storage for digital photography
JP4678487B2 (ja) 2005-03-15 2011-04-27 オムロン株式会社 画像処理システム、画像処理装置および方法、記録媒体、並びにプログラム
JP4642538B2 (ja) 2005-04-20 2011-03-02 キヤノン株式会社 画像処理方法および画像処理装置
US20060239921A1 (en) 2005-04-26 2006-10-26 Novadaq Technologies Inc. Real time vascular imaging during solid organ transplant
WO2006116634A2 (en) 2005-04-26 2006-11-02 Novadaq Technologies, Inc. Method and apparatus for vasculature visualization with applications in neurosurgery and neurology
EP1876829A4 (en) 2005-04-28 2010-06-09 Aisin Seiki SYSTEM FOR MONITORING THE PERIPHERY OF A VEHICLE
JP2006323212A (ja) 2005-05-19 2006-11-30 Konica Minolta Photo Imaging Inc レンズユニット、およびそれを備えた撮像装置
US7613363B2 (en) 2005-06-23 2009-11-03 Microsoft Corp. Image superresolution through edge extraction and contrast enhancement
JP5508712B2 (ja) 2005-07-08 2014-06-04 エレクトロ サイエンティフィック インダストリーズ インコーポレーテッド 平面的に配列された光源により放出される収束光線の実現
EP2764899A3 (en) 2005-08-29 2014-12-10 Nant Holdings IP, LLC Interactivity via mobile image recognition
WO2007030026A1 (en) 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system
JP4622763B2 (ja) 2005-09-14 2011-02-02 日本電気株式会社 携帯通信端末装置及び認証方法
KR101348521B1 (ko) 2005-09-16 2014-01-06 플릭서, 인크. 비디오의 개인화
US8057408B2 (en) 2005-09-22 2011-11-15 The Regents Of The University Of Michigan Pulsed cavitational ultrasound therapy
DE102005047160B4 (de) 2005-09-30 2007-06-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Ermitteln einer Information über eine Form und/oder eine Lage einer Ellipse in einem graphischen Bild
US9046962B2 (en) 2005-10-31 2015-06-02 Extreme Reality Ltd. Methods, systems, apparatuses, circuits and associated computer executable code for detecting motion, position and/or orientation of objects within a defined spatial region
US7570732B2 (en) 2005-11-09 2009-08-04 Dexela Limited Methods and apparatus for obtaining low-dose imaging
US20070130547A1 (en) 2005-12-01 2007-06-07 Navisense, Llc Method and system for touchless user interface control
CN100502463C (zh) 2005-12-14 2009-06-17 浙江工业大学 一种交通流信息视频检测中的特征采集方法
DE102005061557B3 (de) 2005-12-22 2007-11-22 Siemens Ag Bildgebungsgerät sowie Verfahren zum Betrieb eines Bildgebungsgerätes
EP1983402A4 (en) * 2006-02-03 2013-06-26 Panasonic Corp INPUT DEVICE AND ITS METHOD
US20090278915A1 (en) 2006-02-08 2009-11-12 Oblong Industries, Inc. Gesture-Based Control System For Vehicle Interfaces
KR20070083436A (ko) 2006-02-21 2007-08-24 삼성전자주식회사 객체인증장치 및 방법
US7466790B2 (en) 2006-03-02 2008-12-16 General Electric Company Systems and methods for improving a resolution of an image
KR101408959B1 (ko) 2006-03-14 2014-07-02 프라임센스 엘티디. 삼차원 감지를 위한 깊이 가변 광 필드
US7834780B2 (en) 2006-03-20 2010-11-16 Tektronix, Inc. Waveform compression and display
JP4797752B2 (ja) 2006-03-31 2011-10-19 株式会社デンソー 移動体用操作物体抽出装置
JP2007271876A (ja) 2006-03-31 2007-10-18 Denso Corp 音声認識装置および音声認識用のプログラム
US20080018598A1 (en) 2006-05-16 2008-01-24 Marsden Randal J Hands-free computer access for medical and dentistry applications
US7676169B2 (en) 2006-05-22 2010-03-09 Lexmark International, Inc. Multipath toner patch sensor for use in an image forming device
US8086971B2 (en) 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US7983451B2 (en) 2006-06-30 2011-07-19 Motorola Mobility, Inc. Recognition method using hand biometrics with anti-counterfeiting
EP1879149B1 (en) 2006-07-10 2016-03-16 Fondazione Bruno Kessler method and apparatus for tracking a number of objects or object parts in image sequences
US9696808B2 (en) 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
US8589824B2 (en) 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
US8180114B2 (en) 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
KR100776801B1 (ko) 2006-07-19 2007-11-19 한국전자통신연구원 화상 처리 시스템에서의 제스처 인식 장치 및 방법
US20080030429A1 (en) 2006-08-07 2008-02-07 International Business Machines Corporation System and method of enhanced virtual reality
WO2008025005A2 (en) 2006-08-24 2008-02-28 Baylor College Of Medicine Method of measuring propulsion in lymphatic structures
USD552152S1 (en) 2006-08-31 2007-10-02 William Chase Almond Utility tray for tripod
KR100783552B1 (ko) 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치
US8102465B2 (en) 2006-11-07 2012-01-24 Fujifilm Corporation Photographing apparatus and photographing method for photographing an image by controlling light irradiation on a subject
US20110025818A1 (en) 2006-11-07 2011-02-03 Jonathan Gallmeier System and Method for Controlling Presentations and Videoconferences Using Hand Motions
US7605686B2 (en) 2006-11-16 2009-10-20 Motorola, Inc. Alerting system for a communication device
CA2670261A1 (en) 2006-11-16 2008-05-29 Vanderbilt University Apparatus and methods of compensating for organ deformation, registration of internal structures to images, and applications of same
WO2008064270A2 (en) 2006-11-20 2008-05-29 Micropower Appliance Wireless network camera systems
SE0602545L (en) 2006-11-29 2008-05-30 Tobii Technology Ab Eye tracking illumination
US7840031B2 (en) 2007-01-12 2010-11-23 International Business Machines Corporation Tracking a range of body movement based on 3D captured image streams of a user
US7971156B2 (en) 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
WO2008087652A2 (en) 2007-01-21 2008-07-24 Prime Sense Ltd. Depth mapping using multi-beam illumination
KR20080073933A (ko) 2007-02-07 2008-08-12 삼성전자주식회사 객체 트래킹 방법 및 장치, 그리고 객체 포즈 정보 산출방법 및 장치
CN101681438A (zh) 2007-03-02 2010-03-24 有机运动公司 跟踪三维对象的系统和方法
JP2008227569A (ja) 2007-03-08 2008-09-25 Seiko Epson Corp 撮影装置、電子機器、撮影制御方法、及び、撮影制御プログラム
JP4605170B2 (ja) 2007-03-23 2011-01-05 株式会社デンソー 操作入力装置
JP2008250774A (ja) 2007-03-30 2008-10-16 Denso Corp 情報機器操作装置
TWI433052B (zh) 2007-04-02 2014-04-01 Primesense Ltd 使用投影圖案之深度製圖
JP4664432B2 (ja) 2007-04-13 2011-04-06 パイオニア株式会社 ショットサイズ識別装置及び方法、電子機器、並びにコンピュータプログラム
JP4854582B2 (ja) 2007-04-25 2012-01-18 キヤノン株式会社 画像処理装置、画像処理方法
US20080291160A1 (en) 2007-05-09 2008-11-27 Nintendo Co., Ltd. System and method for recognizing multi-axis gestures based on handheld controller accelerometer outputs
US20080278589A1 (en) 2007-05-11 2008-11-13 Karl Ola Thorn Methods for identifying a target subject to automatically focus a digital camera and related systems, and computer program products
US8229134B2 (en) 2007-05-24 2012-07-24 University Of Maryland Audio camera using microphone arrays for real time capture of audio images and method for jointly processing the audio images with video images
US7940985B2 (en) 2007-06-06 2011-05-10 Microsoft Corporation Salient object detection
US8027518B2 (en) 2007-06-25 2011-09-27 Microsoft Corporation Automatic configuration of devices based on biometric data
US20090002489A1 (en) 2007-06-29 2009-01-01 Fuji Xerox Co., Ltd. Efficient tracking multiple objects through occlusion
US20090038056A1 (en) 2007-07-20 2009-02-12 Joseph Bobbin Electronic module adapter for headgear
JP2009031939A (ja) 2007-07-25 2009-02-12 Advanced Telecommunication Research Institute International 画像処理装置、画像処理方法及び画像処理プログラム
KR20100055516A (ko) 2007-08-30 2010-05-26 넥스트 홀딩스 인코포레이티드 개선된 조광을 가진 광학 터치 스크린
JP4929109B2 (ja) 2007-09-25 2012-05-09 株式会社東芝 ジェスチャ認識装置及びその方法
GB2453163B (en) * 2007-09-26 2011-06-29 Christopher Douglas Blair Three-dimensional imaging system
US8144233B2 (en) 2007-10-03 2012-03-27 Sony Corporation Display control device, display control method, and display control program for superimposing images to create a composite image
US20090093307A1 (en) 2007-10-08 2009-04-09 Sony Computer Entertainment America Inc. Enhanced game controller
US8139110B2 (en) 2007-11-01 2012-03-20 Northrop Grumman Systems Corporation Calibration of a gesture recognition interface system
US8288968B2 (en) 2007-11-08 2012-10-16 Lite-On It Corporation Lighting system arranged with multiple light units where each of adjacent light units having light beams overlap each other
US8777875B2 (en) 2008-07-23 2014-07-15 Otismed Corporation System and method for manufacturing arthroplasty jigs having improved mating accuracy
WO2009085233A2 (en) 2007-12-21 2009-07-09 21Ct, Inc. System and method for visually tracking with occlusions
US20120204133A1 (en) 2009-01-13 2012-08-09 Primesense Ltd. Gesture-Based User Interface
US8319832B2 (en) 2008-01-31 2012-11-27 Denso Corporation Input apparatus and imaging apparatus
US8270669B2 (en) 2008-02-06 2012-09-18 Denso Corporation Apparatus for extracting operating object and apparatus for projecting operating hand
US8555207B2 (en) 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
DE102008000479A1 (de) 2008-03-03 2009-09-10 Amad - Mennekes Holding Gmbh & Co. Kg Steckvorrichtung mit Zugentlastung
US9503562B2 (en) 2008-03-19 2016-11-22 Universal Electronics Inc. System and method for appliance control via a personal communication or entertainment device
US8073203B2 (en) 2008-04-15 2011-12-06 Cyberlink Corp. Generating effects in a webcam application
EP2318804B1 (en) 2008-04-17 2017-03-29 Shilat Optronics Ltd Intrusion warning system
EP2283375B1 (en) 2008-04-18 2014-11-12 Eidgenössische Technische Hochschule (ETH) Travelling-wave nuclear magnetic resonance method
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
EP2312960A2 (en) 2008-05-19 2011-04-27 Bae Systems Aerospace And Defense Group, INC. Vision augmentation system
US8537122B2 (en) 2008-06-24 2013-09-17 Microsoft Corporation Touch screen adapter for monitor
US8249345B2 (en) 2008-06-27 2012-08-21 Mako Surgical Corp. Automatic image segmentation using contour propagation
WO2010007662A1 (ja) 2008-07-15 2010-01-21 イチカワ株式会社 成形プレス用耐熱クッション材
US8131063B2 (en) 2008-07-16 2012-03-06 Seiko Epson Corporation Model-based object image processing
US20100013662A1 (en) 2008-07-17 2010-01-21 Michael Stude Product locating system
JP2010033367A (ja) 2008-07-29 2010-02-12 Canon Inc 情報処理装置及び情報処理方法
US20100027845A1 (en) 2008-07-31 2010-02-04 Samsung Electronics Co., Ltd. System and method for motion detection based on object trajectory
DE102008040949B4 (de) 2008-08-01 2012-03-08 Sirona Dental Systems Gmbh Optisches Projektionsgitter, Messkamera mit optischem Projektionsgitter und Verfahren zur Erzeugung eines optischen Projektionsgitters
US8520979B2 (en) 2008-08-19 2013-08-27 Digimarc Corporation Methods and systems for content processing
TW201009650A (en) 2008-08-28 2010-03-01 Acer Inc Gesture guide system and method for controlling computer system by gesture
US20100053209A1 (en) 2008-08-29 2010-03-04 Siemens Medical Solutions Usa, Inc. System for Processing Medical Image data to Provide Vascular Function Information
DE102008045387B4 (de) 2008-09-02 2017-02-09 Carl Zeiss Ag Vorrichtung und Verfahren zum Vermessen einer Oberfläche
US20100053151A1 (en) 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
TWI425203B (zh) 2008-09-03 2014-02-01 Univ Nat Central 高頻譜掃描裝置及其方法
CA2735992A1 (en) * 2008-09-04 2010-03-11 Extreme Reality Ltd. Method system and software for providing image sensor based human machine interfacing
JP4613994B2 (ja) 2008-09-16 2011-01-19 ソニー株式会社 動態推定装置、動態推定方法、プログラム
WO2010032268A2 (en) 2008-09-19 2010-03-25 Avinash Saxena System and method for controlling graphical objects
JP5529146B2 (ja) 2008-10-10 2014-06-25 クアルコム,インコーポレイテッド シングルカメラトラッキング装置
CN101729808B (zh) 2008-10-14 2012-03-28 Tcl集团股份有限公司 一种电视遥控方法及用该方法遥控操作电视机的系统
WO2010045406A2 (en) 2008-10-15 2010-04-22 The Regents Of The University Of California Camera system with autonomous miniature camera and light source assembly and method for image enhancement
US8744122B2 (en) 2008-10-22 2014-06-03 Sri International System and method for object detection from a moving platform
CN201332447Y (zh) 2008-10-22 2009-10-21 康佳集团股份有限公司 一种通过手势变化控制或操作游戏的电视
DE102008052928A1 (de) 2008-10-23 2010-05-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zur Erkennung einer Geste in einem Bild, sowie Vorrichtung, Verfahren und Computerprogramm zur Steuerung eines Geräts
USD620514S1 (en) 2008-10-31 2010-07-27 Microsoft Corporation Electronic camera and base
US20100121189A1 (en) 2008-11-12 2010-05-13 Sonosite, Inc. Systems and methods for image presentation for medical examination and interventional procedures
TW201020896A (en) 2008-11-19 2010-06-01 Nat Applied Res Laboratories Method of gesture control
US8502787B2 (en) 2008-11-26 2013-08-06 Panasonic Corporation System and method for differentiating between intended and unintended user input on a touchpad
EP2193825B1 (en) 2008-12-03 2017-03-22 Alcatel Lucent Mobile device for augmented reality applications
US20100153457A1 (en) 2008-12-15 2010-06-17 Grant Isaac W Gestural Interface Device and Method
US8289162B2 (en) 2008-12-22 2012-10-16 Wimm Labs, Inc. Gesture-based user interface for a wearable portable device
KR101215987B1 (ko) 2008-12-22 2012-12-28 한국전자통신연구원 전경/배경 분리 장치 및 방법
US8379987B2 (en) 2008-12-30 2013-02-19 Nokia Corporation Method, apparatus and computer program product for providing hand segmentation for gesture analysis
US8126985B1 (en) 2008-12-31 2012-02-28 Qurio Holdings, Inc. Prioritizing virtual object downloads in a distributed virtual environment
US8290208B2 (en) 2009-01-12 2012-10-16 Eastman Kodak Company Enhanced safety during laser projection
KR20110132349A (ko) 2009-01-26 2011-12-07 지로 테크놀로지스 (2009) 엘티디. 객체의 거동을 모니터링하는 장치 및 방법
JP4771183B2 (ja) 2009-01-30 2011-09-14 株式会社デンソー 操作装置
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8448094B2 (en) 2009-01-30 2013-05-21 Microsoft Corporation Mapping a natural input device to a legacy system
JP5816098B2 (ja) 2009-02-02 2015-11-18 アイサイト モバイル テクノロジーズ リミテッド ビデオストリームの中のオブジェクト認識および追跡システムおよび方法
US8624962B2 (en) 2009-02-02 2014-01-07 Ydreams—Informatica, S.A. Ydreams Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
US9569001B2 (en) 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US8433306B2 (en) 2009-02-05 2013-04-30 Digimarc Corporation Second screens and widgets
KR100992411B1 (ko) 2009-02-06 2010-11-05 (주)실리콘화일 피사체의 근접여부 판단이 가능한 이미지센서
US8976158B2 (en) 2009-02-15 2015-03-10 Neonode Inc. User interface for white goods and associated multi-channel proximity sensors
US8775023B2 (en) 2009-02-15 2014-07-08 Neanode Inc. Light-based touch controls on a steering wheel and dashboard
GB2467932A (en) 2009-02-19 2010-08-25 Sony Corp Image processing device and method
US20100216508A1 (en) 2009-02-23 2010-08-26 Augusta Technology, Inc. Systems and Methods for Driving an External Display Device Using a Mobile Phone Device
JP2010204730A (ja) 2009-02-27 2010-09-16 Seiko Epson Corp ジェスチャーに応答して機器を制御するシステム
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
JP4840620B2 (ja) 2009-04-30 2011-12-21 株式会社デンソー 車載用電子機器操作装置
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US8605202B2 (en) 2009-05-12 2013-12-10 Koninklijke Philips N.V. Motion of image sensor, lens and/or focal length to reduce motion blur
US20120065499A1 (en) 2009-05-20 2012-03-15 Hitachi Medical Corporation Medical image diagnosis device and region-of-interest setting method therefore
TWI395483B (zh) 2009-05-25 2013-05-01 Visionatics Inc 使用適應性背景模型之移動物體偵測方法及其電腦程式產品
US20100302357A1 (en) 2009-05-26 2010-12-02 Che-Hao Hsu Gesture-based remote control system
US8112719B2 (en) 2009-05-26 2012-02-07 Topseed Technology Corp. Method for controlling gesture-based remote control system
JP2011010258A (ja) 2009-05-27 2011-01-13 Seiko Epson Corp 画像処理装置、画像表示システム、画像抽出装置
WO2010138741A1 (en) 2009-05-27 2010-12-02 Analog Devices, Inc. Position measurement systems using position sensitive detectors
US8693724B2 (en) 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US8009022B2 (en) 2009-05-29 2011-08-30 Microsoft Corporation Systems and methods for immersive interaction with virtual objects
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
GB2539107B (en) 2009-06-01 2017-04-05 Wilcox Ind Corp Helmet mount for viewing device
US20100309097A1 (en) 2009-06-04 2010-12-09 Roni Raviv Head mounted 3d display
WO2010147600A2 (en) 2009-06-19 2010-12-23 Hewlett-Packard Development Company, L, P. Qualified command
US8907941B2 (en) 2009-06-23 2014-12-09 Disney Enterprises, Inc. System and method for integrating multiple virtual rendering systems to provide an augmented reality
CN101930610B (zh) 2009-06-26 2012-05-02 思创影像科技股份有限公司 使用适应性背景模型的移动物体侦测方法
US8356261B1 (en) 2009-07-02 2013-01-15 Asml Netherlands B.V. Determining the gradient and hessian of the image log slope for design rule optimization for accelerating source mask optimization (SMO)
US20110007072A1 (en) 2009-07-09 2011-01-13 University Of Central Florida Research Foundation, Inc. Systems and methods for three-dimensionally modeling moving objects
US9131142B2 (en) 2009-07-17 2015-09-08 Nikon Corporation Focusing device and camera
JP5771913B2 (ja) 2009-07-17 2015-09-02 株式会社ニコン 焦点調節装置、およびカメラ
US8428368B2 (en) 2009-07-31 2013-04-23 Echostar Technologies L.L.C. Systems and methods for hand gesture control of an electronic device
WO2011024193A2 (en) 2009-08-20 2011-03-03 Natarajan Kannan Electronically variable field of view (fov) infrared illuminator
JP5614014B2 (ja) 2009-09-04 2014-10-29 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム
USD627815S1 (en) 2009-09-11 2010-11-23 Tomy Company, Ltd. Monitor with camera
US8341558B2 (en) 2009-09-16 2012-12-25 Google Inc. Gesture recognition on computing device correlating input to a template
CN102656543A (zh) 2009-09-22 2012-09-05 泊布欧斯技术有限公司 计算机装置的远程控制
US8681124B2 (en) 2009-09-22 2014-03-25 Microsoft Corporation Method and system for recognition of user gesture interaction with passive surface video displays
JP2011081453A (ja) 2009-10-02 2011-04-21 Toshiba Corp 映像再生装置及び映像再生方法
US8547327B2 (en) 2009-10-07 2013-10-01 Qualcomm Incorporated Proximity object tracker
DE102009049073A1 (de) 2009-10-12 2011-04-21 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung
CA2777566C (en) 2009-10-13 2014-12-16 Recon Instruments Inc. Control systems and methods for head-mounted information systems
GB2483168B (en) 2009-10-13 2013-06-12 Pointgrab Ltd Computer vision gesture based control of a device
US8593576B2 (en) 2009-10-15 2013-11-26 At&T Intellectual Property I, L.P. Gesture-based remote control
US9400548B2 (en) 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
KR101633359B1 (ko) 2009-10-20 2016-06-27 삼성전자 주식회사 투사 불변량을 이용한 무표식 증강 현실 구현 시스템 및 그 방법
US20110107216A1 (en) 2009-11-03 2011-05-05 Qualcomm Incorporated Gesture-based user interface
US8843857B2 (en) 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US8739313B2 (en) 2009-11-20 2014-06-03 Wilcox Industries Corp. Helmet mounting systems
KR101092909B1 (ko) 2009-11-27 2011-12-12 (주)디스트릭트홀딩스 제스쳐 인터렉티브 홀로그램 출력장치 및 방법
US20110205151A1 (en) 2009-12-04 2011-08-25 John David Newton Methods and Systems for Position Detection
KR101373285B1 (ko) 2009-12-08 2014-03-11 한국전자통신연구원 제스쳐 인식 기능을 갖는 휴대 단말기 및 이를 이용한 인터페이스 시스템
GB0921461D0 (en) 2009-12-08 2010-01-20 Qinetiq Ltd Range based sensing
EP2337323A1 (en) 2009-12-17 2011-06-22 NTT DoCoMo, Inc. Method and an apparatus for performing interaction between a mobile device and a screen
KR101307341B1 (ko) 2009-12-18 2013-09-11 한국전자통신연구원 동적 개체 모션 캡쳐 방법 및 그 장치
US8232990B2 (en) 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
US8631355B2 (en) 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
US9019201B2 (en) 2010-01-08 2015-04-28 Microsoft Technology Licensing, Llc Evolving universal gesture sets
US9268404B2 (en) 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US8933884B2 (en) 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US9335825B2 (en) 2010-01-26 2016-05-10 Nokia Technologies Oy Gesture control
US8984665B2 (en) 2010-02-02 2015-03-24 Wilcox Industries Corp. Helmet mounting system and mounting shoe interface
RU2422878C1 (ru) 2010-02-04 2011-06-27 Владимир Валентинович Девятков Способ управления телевизором с помощью мультимодального интерфейса
KR101184460B1 (ko) 2010-02-05 2012-09-19 연세대학교 산학협력단 마우스 포인터 제어 장치 및 방법
US8659658B2 (en) 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US20110213664A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US20120194420A1 (en) 2010-02-28 2012-08-02 Osterhout Group, Inc. Ar glasses with event triggered user action control of ar eyepiece facility
JP2013521576A (ja) 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
US20140063055A1 (en) 2010-02-28 2014-03-06 Osterhout Group, Inc. Ar glasses specific user interface and control interface based on a connected external device type
TW201133358A (en) 2010-03-18 2011-10-01 Hon Hai Prec Ind Co Ltd System and method for detecting objects in a video image
CN102201121A (zh) 2010-03-23 2011-09-28 鸿富锦精密工业(深圳)有限公司 视频场景中的物件侦测系统与方法
EP2550579A4 (en) 2010-03-24 2015-04-22 Hewlett Packard Development Co GESTURE ALLOCATION FOR ONE DISPLAY DEVICE
EP2369443B1 (en) 2010-03-25 2017-01-11 BlackBerry Limited System and method for gesture detection and feedback
US20110234631A1 (en) 2010-03-25 2011-09-29 Bizmodeline Co., Ltd. Augmented reality systems
JP5743416B2 (ja) 2010-03-29 2015-07-01 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
EP2372512A1 (en) 2010-03-30 2011-10-05 Harman Becker Automotive Systems GmbH Vehicle user interface unit for a vehicle electronic device
JP2011210139A (ja) 2010-03-30 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム
US20110251896A1 (en) 2010-04-09 2011-10-13 Affine Systems, Inc. Systems and methods for matching an advertisement to a video
CN201859393U (zh) 2010-04-13 2011-06-08 任峰 三维手势识别盒
US8405680B1 (en) 2010-04-19 2013-03-26 YDreams S.A., A Public Limited Liability Company Various methods and apparatuses for achieving augmented reality
US20130038694A1 (en) 2010-04-27 2013-02-14 Sanjay Nichani Method for moving object detection using an image sensor and structured light
CA2797302C (en) 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
US9539510B2 (en) 2010-04-30 2017-01-10 Microsoft Technology Licensing, Llc Reshapable connector with variable rigidity
CN102236412A (zh) 2010-04-30 2011-11-09 宏碁股份有限公司 三维手势识别系统以及基于视觉的手势识别方法
CA2798148A1 (en) 2010-05-04 2011-11-10 Timocco Ltd. System and method for tracking and mapping an object to a target
US20110289455A1 (en) 2010-05-18 2011-11-24 Microsoft Corporation Gestures And Gesture Recognition For Manipulating A User-Interface
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US20110299737A1 (en) 2010-06-04 2011-12-08 Acer Incorporated Vision-based hand movement recognition system and method thereof
US8985411B2 (en) 2010-06-07 2015-03-24 Ryan Mongan Duty belt system
EP2395413B1 (en) 2010-06-09 2018-10-03 The Boeing Company Gesture-based human machine interface
JP2011257337A (ja) 2010-06-11 2011-12-22 Seiko Epson Corp 光学式位置検出装置および位置検出機能付き表示装置
US8670029B2 (en) 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US8542320B2 (en) 2010-06-17 2013-09-24 Sony Corporation Method and system to control a non-gesture controlled device using gesture interactions with a gesture controlled device
US20110314427A1 (en) 2010-06-18 2011-12-22 Samsung Electronics Co., Ltd. Personalization using custom gestures
US8416187B2 (en) 2010-06-22 2013-04-09 Microsoft Corporation Item navigation using motion-capture data
DE102010030616A1 (de) 2010-06-28 2011-12-29 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen eines Störobjekts in einem Kamerabild
USD656175S1 (en) 2010-07-12 2012-03-20 Gary Fong, Inc. Tripod mount for electronic device
US20120050007A1 (en) 2010-08-24 2012-03-01 Babak Forutanpour Methods and apparatus for interacting with an electronic device application by moving an object in the air over an electronic device display
US9111498B2 (en) 2010-08-25 2015-08-18 Eastman Kodak Company Head-mounted display with environmental state detection
US10026227B2 (en) 2010-09-02 2018-07-17 The Boeing Company Portable augmented reality
WO2012032515A1 (en) 2010-09-07 2012-03-15 Zrro Technologies (2009) Ltd. Device and method for controlling the behavior of virtual objects on a display
US8842084B2 (en) 2010-09-08 2014-09-23 Telefonaktiebolaget L M Ericsson (Publ) Gesture-based object manipulation methods and devices
US8619005B2 (en) 2010-09-09 2013-12-31 Eastman Kodak Company Switchable head-mounted display transition
US8706170B2 (en) 2010-09-20 2014-04-22 Kopin Corporation Miniature communications gateway for head mounted display
US8941559B2 (en) * 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US9513791B2 (en) 2010-09-29 2016-12-06 Sony Corporation Electronic device system with process continuation mechanism and method of operation thereof
US8781234B2 (en) 2010-10-01 2014-07-15 Intel Corporation Optimized fast hessian matrix computation architecture
US9946076B2 (en) 2010-10-04 2018-04-17 Gerard Dirk Smits System and method for 3-D projection and enhancements for interactivity
US8907983B2 (en) 2010-10-07 2014-12-09 Aria Glassworks, Inc. System and method for transitioning between interface modes in virtual and augmented reality applications
IL208600A (en) 2010-10-10 2016-07-31 Rafael Advanced Defense Systems Ltd Real-time network-based laminated reality for mobile devices
US10036891B2 (en) 2010-10-12 2018-07-31 DISH Technologies L.L.C. Variable transparency heads up displays
CN101951474A (zh) 2010-10-12 2011-01-19 冠捷显示科技(厦门)有限公司 基于手势控制的电视技术
US8884984B2 (en) * 2010-10-15 2014-11-11 Microsoft Corporation Fusing virtual content into real content
IL208910A0 (en) 2010-10-24 2011-02-28 Rafael Advanced Defense Sys Tracking and identification of a moving object from a moving sensor using a 3d model
CN102053702A (zh) 2010-10-26 2011-05-11 南京航空航天大学 动态手势控制系统与方法
US8817087B2 (en) 2010-11-01 2014-08-26 Robert Bosch Gmbh Robust video-based handwriting and gesture recognition for in-car applications
US20120113223A1 (en) 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
KR101458939B1 (ko) 2010-12-02 2014-11-07 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 증강 현실 시스템
US9244606B2 (en) 2010-12-20 2016-01-26 Apple Inc. Device, method, and graphical user interface for navigation of concurrently open software applications
US8970625B2 (en) 2010-12-22 2015-03-03 Zspace, Inc. Three-dimensional tracking of a user control device in a volume
KR101587962B1 (ko) 2010-12-22 2016-01-28 한국전자통신연구원 모션 캡처 장치 및 방법
US20120170800A1 (en) 2010-12-30 2012-07-05 Ydreams - Informatica, S.A. Systems and methods for continuous physics simulation from discrete video acquisition
US8929609B2 (en) 2011-01-05 2015-01-06 Qualcomm Incorporated Method and apparatus for scaling gesture recognition to physical dimensions of a user
US8570320B2 (en) 2011-01-31 2013-10-29 Microsoft Corporation Using a three-dimensional environment model in gameplay
SG182880A1 (en) 2011-02-01 2012-08-30 Univ Singapore A method and system for interaction with micro-objects
US9285874B2 (en) 2011-02-09 2016-03-15 Apple Inc. Gaze detection in a 3D mapping environment
EP2677936B1 (en) 2011-02-25 2021-09-29 Smiths Heimann GmbH Image reconstruction based on parametric models
US20120223959A1 (en) 2011-03-01 2012-09-06 Apple Inc. System and method for a touchscreen slider with toggle control
US8600107B2 (en) 2011-03-31 2013-12-03 Smart Technologies Ulc Interactive input system and method
US8824749B2 (en) 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition
US9117147B2 (en) 2011-04-29 2015-08-25 Siemens Aktiengesellschaft Marginal space learning for multi-person tracking over mega pixel imagery
US8457355B2 (en) 2011-05-05 2013-06-04 International Business Machines Corporation Incorporating video meta-data in 3D models
US8718334B2 (en) 2011-05-05 2014-05-06 Honeywell International Inc. System for biometric hand analysis
CN102184014B (zh) 2011-05-12 2013-03-20 浙江大学 基于移动设备指向的智能家电交互控制方法及装置
US8810640B2 (en) 2011-05-16 2014-08-19 Ut-Battelle, Llc Intrinsic feature-based pose measurement for imaging motion compensation
US8842163B2 (en) 2011-06-07 2014-09-23 International Business Machines Corporation Estimation of object properties in 3D world
KR101255950B1 (ko) 2011-06-13 2013-05-02 연세대학교 산학협력단 위치기반 건설 현장 관리 방법 및 시스템
US20120320080A1 (en) 2011-06-14 2012-12-20 Microsoft Corporation Motion based virtual object navigation
US8773512B1 (en) 2011-06-30 2014-07-08 Aquifi, Inc. Portable remote control device enabling three-dimensional user interaction with at least one appliance
US9600933B2 (en) 2011-07-01 2017-03-21 Intel Corporation Mobile augmented reality system
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US9086794B2 (en) 2011-07-14 2015-07-21 Microsoft Technology Licensing, Llc Determining gestures on context based menus
US8891868B1 (en) 2011-08-04 2014-11-18 Amazon Technologies, Inc. Recognizing gestures captured by video
US10019962B2 (en) * 2011-08-17 2018-07-10 Microsoft Technology Licensing, Llc Context adaptive user interface for augmented reality display
TW201310389A (zh) 2011-08-19 2013-03-01 Vatics Inc 使用影像對比增進的移動物件偵測方法
CN103636191B (zh) 2011-08-23 2016-11-02 松下电器产业株式会社 三维摄像装置、透镜控制装置
US8830302B2 (en) 2011-08-24 2014-09-09 Lg Electronics Inc. Gesture-based user interface method and apparatus
TW201324258A (zh) 2011-09-07 2013-06-16 Nitto Denko Corp 輸入體之動作檢測方法及使用其之輸入裝置
US20130080898A1 (en) 2011-09-26 2013-03-28 Tal Lavian Systems and methods for electronic communications
JP5624530B2 (ja) 2011-09-29 2014-11-12 株式会社東芝 コマンド発行装置、方法及びプログラム
US9081177B2 (en) 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US20130097566A1 (en) 2011-10-17 2013-04-18 Carl Fredrik Alexander BERGLUND System and method for displaying items on electronic devices
US9195900B2 (en) 2011-11-21 2015-11-24 Pixart Imaging Inc. System and method based on hybrid biometric detection
US8235529B1 (en) 2011-11-30 2012-08-07 Google Inc. Unlocking a screen using eye tracking information
EP2602691A1 (en) 2011-12-05 2013-06-12 Alcatel Lucent Method for gesture control, gesture server device and sensor input device
AU2011253910B2 (en) 2011-12-08 2015-02-26 Canon Kabushiki Kaisha Method, apparatus and system for tracking an object in a sequence of images
KR101304431B1 (ko) 2012-01-03 2013-09-06 국방과학연구소 회전식 장착대 및 이를 구비한 헬멧 장치
WO2013103410A1 (en) 2012-01-05 2013-07-11 California Institute Of Technology Imaging surround systems for touch-free display control
US20150097772A1 (en) 2012-01-06 2015-04-09 Thad Eugene Starner Gaze Signal Based on Physical Characteristics of the Eye
US9230171B2 (en) 2012-01-06 2016-01-05 Google Inc. Object outlining to initiate a visual search
US8913789B1 (en) 2012-01-06 2014-12-16 Google Inc. Input methods and systems for eye positioning using plural glints
US20150084864A1 (en) 2012-01-09 2015-03-26 Google Inc. Input Method
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
DE112013000590B4 (de) 2012-01-17 2016-05-04 Leap Motion, Inc. Verbesserter Kontrast zur Objekterfassung und Charakterisierung durch optisches Abbilden
US20140307920A1 (en) 2013-04-12 2014-10-16 David Holz Systems and methods for tracking occluded objects in three-dimensional space
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US8693731B2 (en) * 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US20130182079A1 (en) 2012-01-17 2013-07-18 Ocuspec Motion capture using cross-sections of an object
US9372978B2 (en) 2012-01-20 2016-06-21 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device
USD689539S1 (en) 2012-01-26 2013-09-10 Michael Zaletel Camera stabilizer
US20130194304A1 (en) * 2012-02-01 2013-08-01 Stephen Latta Coordinate-system sharing for augmented reality
US20130204457A1 (en) 2012-02-06 2013-08-08 Ford Global Technologies, Llc Interacting with vehicle controls through gesture recognition
KR101905648B1 (ko) 2012-02-27 2018-10-11 삼성전자 주식회사 카메라 장치의 동영상 촬영방법 및 장치
US9093012B2 (en) 2012-02-29 2015-07-28 Lenovo (Beijing) Co., Ltd. Operation mode switching method and electronic device
TWI456486B (zh) 2012-03-06 2014-10-11 Acer Inc 電子裝置及控制電子裝置的方法
WO2013136053A1 (en) 2012-03-10 2013-09-19 Digitaloptics Corporation Miniature camera module with mems-actuated autofocus
US9671869B2 (en) 2012-03-13 2017-06-06 Eyesight Mobile Technologies Ltd. Systems and methods of direct pointing detection for interaction with a digital device
US9122354B2 (en) 2012-03-14 2015-09-01 Texas Instruments Incorporated Detecting wave gestures near an illuminated surface
US9218723B2 (en) 2012-03-20 2015-12-22 Intralot S.A.—Integrated Lottery Systems and Services Methods and systems for a gesture-controlled lottery terminal
JP5938977B2 (ja) 2012-03-23 2016-06-22 ソニー株式会社 ヘッドマウントディスプレイ及び手術システム
US8942881B2 (en) * 2012-04-02 2015-01-27 Google Inc. Gesture-based automotive controls
TWI464640B (zh) 2012-04-03 2014-12-11 Wistron Corp 手勢感測裝置及具有手勢輸入功能的電子系統
US9170674B2 (en) 2012-04-09 2015-10-27 Qualcomm Incorporated Gesture-based device control using pressure-sensitive sensors
US9239624B2 (en) 2012-04-13 2016-01-19 Nokia Technologies Oy Free hand gesture control of automotive user interface
US9448635B2 (en) 2012-04-16 2016-09-20 Qualcomm Incorporated Rapid gesture re-engagement
GB2501767A (en) 2012-05-04 2013-11-06 Sony Comp Entertainment Europe Noise cancelling headset
GB2501768A (en) 2012-05-04 2013-11-06 Sony Comp Entertainment Europe Head mounted display
US20130300831A1 (en) 2012-05-11 2013-11-14 Loren Mavromatis Camera scene fitting of real world scenes
US9035955B2 (en) 2012-05-16 2015-05-19 Microsoft Technology Licensing, Llc Synchronizing virtual actor's performances to a speaker's voice
JP2013250637A (ja) 2012-05-30 2013-12-12 Toshiba Corp 認識装置
US20130328867A1 (en) 2012-06-06 2013-12-12 Samsung Electronics Co. Ltd. Apparatus and method for providing augmented reality information using three dimension map
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
JP5580855B2 (ja) 2012-06-12 2014-08-27 株式会社ソニー・コンピュータエンタテインメント 障害物回避装置および障害物回避方法
US9152226B2 (en) 2012-06-15 2015-10-06 Qualcomm Incorporated Input method designed for augmented reality goggles
US9245492B2 (en) 2012-06-28 2016-01-26 Intermec Ip Corp. Dual screen display for mobile computing device
US10165817B2 (en) 2012-06-28 2019-01-01 Revision Military S.A.R.L. Battery pack and helmet mounting arrangement
US9697418B2 (en) 2012-07-09 2017-07-04 Qualcomm Incorporated Unsupervised movement detection and gesture recognition
KR20140010616A (ko) 2012-07-16 2014-01-27 한국전자통신연구원 3d 가상 객체에 대한 조작 처리 장치 및 방법
JP6024952B2 (ja) 2012-07-19 2016-11-16 パナソニックIpマネジメント株式会社 画像送信装置、画像送信方法、画像送信プログラム及び画像認識認証システム
CN104509102B (zh) 2012-07-27 2017-12-29 日产自动车株式会社 三维物体检测装置和异物检测装置
US9124778B1 (en) 2012-08-29 2015-09-01 Nomi Corporation Apparatuses and methods for disparity-based tracking and analysis of objects in a region of interest
US10839227B2 (en) 2012-08-29 2020-11-17 Conduent Business Services, Llc Queue group leader identification
JP6186689B2 (ja) 2012-09-26 2017-08-30 セイコーエプソン株式会社 映像表示システム
JP2014071499A (ja) 2012-09-27 2014-04-21 Kyocera Corp 表示装置および制御方法
DE102012109481A1 (de) 2012-10-05 2014-04-10 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US8781171B2 (en) 2012-10-24 2014-07-15 Honda Motor Co., Ltd. Object recognition in low-lux and high-lux conditions
US9274742B2 (en) 2012-10-25 2016-03-01 PixiOnCloud, Inc. Visual-symbolic control of remote devices having display-based user interfaces
US9386298B2 (en) 2012-11-08 2016-07-05 Leap Motion, Inc. Three-dimensional image sensors
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US9234176B2 (en) 2012-11-13 2016-01-12 The Board Of Trustees Of The Leland Stanford Junior University Chemically defined production of cardiomyocytes from pluripotent stem cells
JP6058978B2 (ja) 2012-11-19 2017-01-11 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置及び画像処理方法、撮影装置、並びにコンピューター・プログラム
US20150304593A1 (en) 2012-11-27 2015-10-22 Sony Corporation Display apparatus, display method, and computer program
US9369677B2 (en) 2012-11-30 2016-06-14 Qualcomm Technologies International, Ltd. Image assistance for indoor positioning
US10912131B2 (en) 2012-12-03 2021-02-02 Samsung Electronics Co., Ltd. Method and mobile terminal for controlling bluetooth low energy device
KR101448749B1 (ko) 2012-12-10 2014-10-08 현대자동차 주식회사 물체 영상 검출 시스템 및 방법
US9274608B2 (en) 2012-12-13 2016-03-01 Eyesight Mobile Technologies Ltd. Systems and methods for triggering actions based on touch-free gesture detection
US9483934B2 (en) 2012-12-26 2016-11-01 Oren Kotlicki Presence based system and method for controlling devices
US9733713B2 (en) 2012-12-26 2017-08-15 Futurewei Technologies, Inc. Laser beam based gesture control interface for mobile devices
USD717361S1 (en) 2012-12-26 2014-11-11 Nikon Corporation Tripod mount for camera lens
US20140189579A1 (en) 2013-01-02 2014-07-03 Zrro Technologies (2009) Ltd. System and method for controlling zooming and/or scrolling
US9465461B2 (en) 2013-01-08 2016-10-11 Leap Motion, Inc. Object detection and tracking with audio and optical signals
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
CN103090862A (zh) 2013-01-18 2013-05-08 华为终端有限公司 一种终端设备及终端设备的导航模式切换方法
US9720504B2 (en) 2013-02-05 2017-08-01 Qualcomm Incorporated Methods for system engagement via 3D object detection
US10133342B2 (en) 2013-02-14 2018-11-20 Qualcomm Incorporated Human-body-gesture-based region and volume selection for HMD
US9864198B2 (en) 2013-02-22 2018-01-09 Sony Corporation Head-mounted display
US20140240225A1 (en) 2013-02-26 2014-08-28 Pointgrab Ltd. Method for touchless control of a device
US8744645B1 (en) 2013-02-26 2014-06-03 Honda Motor Co., Ltd. System and method for incorporating gesture and voice recognition into a single system
US20140240215A1 (en) 2013-02-26 2014-08-28 Corel Corporation System and method for controlling a user interface utility using a vision system
GB201303707D0 (en) 2013-03-01 2013-04-17 Tosas Bautista Martin System and method of interaction for mobile devices
DE102013203667B4 (de) 2013-03-04 2024-02-22 Adidas Ag Kabine zum Ausprobieren eines oder mehrerer Bekleidungsstücke
US9056396B1 (en) 2013-03-05 2015-06-16 Autofuss Programming of a robotic arm using a motion capture system
US20140253711A1 (en) 2013-03-07 2014-09-11 Advanced Optical Systems, Inc. Agile non-contact biometric sensor
US20140253785A1 (en) 2013-03-07 2014-09-11 Mediatek Inc. Auto Focus Based on Analysis of State or State Change of Image Content
JP6037901B2 (ja) 2013-03-11 2016-12-07 日立マクセル株式会社 操作検出装置、操作検出方法及び表示制御データ生成方法
US9766709B2 (en) 2013-03-15 2017-09-19 Leap Motion, Inc. Dynamic user interactions for display control
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
KR102037930B1 (ko) 2013-03-15 2019-10-30 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US8954340B2 (en) 2013-03-15 2015-02-10 State Farm Mutual Automobile Insurance Company Risk evaluation based on vehicle operator behavior
JP5900393B2 (ja) 2013-03-21 2016-04-06 ソニー株式会社 情報処理装置、操作制御方法及びプログラム
JP6107276B2 (ja) 2013-03-22 2017-04-05 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
US9304594B2 (en) 2013-04-12 2016-04-05 Microsoft Technology Licensing, Llc Near-plane segmentation using pulsed light source
US9367136B2 (en) 2013-04-12 2016-06-14 Microsoft Technology Licensing, Llc Holographic object feedback
US10509533B2 (en) 2013-05-14 2019-12-17 Qualcomm Incorporated Systems and methods of generating augmented reality (AR) objects
US10019057B2 (en) 2013-06-07 2018-07-10 Sony Interactive Entertainment Inc. Switching mode of operation in a head mounted display
US10137361B2 (en) 2013-06-07 2018-11-27 Sony Interactive Entertainment America Llc Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
US9908048B2 (en) 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
US20140375947A1 (en) 2013-06-24 2014-12-25 Joseph Juseop Park Headset with comfort fit temple arms
JP6270808B2 (ja) 2013-06-27 2018-01-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 複数の光源を有するモーションセンサ装置
US9239950B2 (en) 2013-07-01 2016-01-19 Hand Held Products, Inc. Dimensioning system
US20150024368A1 (en) 2013-07-18 2015-01-22 Intelligent Decisions, Inc. Systems and methods for virtual environment conflict nullification
US9857876B2 (en) 2013-07-22 2018-01-02 Leap Motion, Inc. Non-linear motion capture using Frenet-Serret frames
US9514571B2 (en) 2013-07-25 2016-12-06 Microsoft Technology Licensing, Llc Late stage reprojection
JP2015027015A (ja) 2013-07-29 2015-02-05 ソニー株式会社 情報提示装置及び情報処理システム
US9232826B2 (en) 2013-08-06 2016-01-12 Bradley N. Vermillion Clip for hard hat
GB201314984D0 (en) 2013-08-21 2013-10-02 Sony Comp Entertainment Europe Head-mountable apparatus and systems
US9261966B2 (en) 2013-08-22 2016-02-16 Sony Corporation Close range natural user interface system and method of operation thereof
US9766855B2 (en) 2013-09-10 2017-09-19 Avigilon Corporation Method and apparatus for controlling surveillance system with gesture and/or audio commands
US9630105B2 (en) 2013-09-30 2017-04-25 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
US9729864B2 (en) 2013-09-30 2017-08-08 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
US8943569B1 (en) 2013-10-01 2015-01-27 Myth Innovations, Inc. Wireless server access control system and method
US10318100B2 (en) 2013-10-16 2019-06-11 Atheer, Inc. Method and apparatus for addressing obstruction in an interface
CN105579929B (zh) 2013-10-29 2019-11-05 英特尔公司 基于手势的人机交互
US9546776B2 (en) 2013-10-31 2017-01-17 General Electric Company Customizable modular luminaire
US9476670B2 (en) 2013-11-05 2016-10-25 Armament Systems And Procedures, Inc. Carrying case for police or military baton
US9402018B2 (en) 2013-12-17 2016-07-26 Amazon Technologies, Inc. Distributing processing for imaging processing
US20150205358A1 (en) 2014-01-20 2015-07-23 Philip Scott Lyren Electronic Device with Touchless User Interface
US20150205400A1 (en) 2014-01-21 2015-07-23 Microsoft Corporation Grip Detection
US9311718B2 (en) 2014-01-23 2016-04-12 Microsoft Technology Licensing, Llc Automated content scrolling
US9691181B2 (en) 2014-02-24 2017-06-27 Sony Interactive Entertainment Inc. Methods and systems for social sharing head mounted display (HMD) content with a second screen
WO2015138266A1 (en) 2014-03-10 2015-09-17 Ion Virtual Technology Corporation Modular and convertible virtual reality headset system
CN110308561A (zh) 2014-03-14 2019-10-08 索尼互动娱乐股份有限公司 用于头戴式显示器(hmd)的方法和系统
WO2015139002A1 (en) 2014-03-14 2015-09-17 Sony Computer Entertainment Inc. Gaming device with volumetric sensing
US9754167B1 (en) 2014-04-17 2017-09-05 Leap Motion, Inc. Safety for wearable virtual reality devices via object detection and tracking
US9361732B2 (en) 2014-05-01 2016-06-07 Microsoft Technology Licensing, Llc Transitions between body-locked and world-locked augmented reality
US9442293B2 (en) 2014-05-06 2016-09-13 Microsoft Technology Licensing, Llc Composite variable light attenuator
WO2015172118A1 (en) 2014-05-09 2015-11-12 Leap Motion, Inc. Mounts for attaching a motion capture device to a head mounted display
US9741169B1 (en) 2014-05-20 2017-08-22 Leap Motion, Inc. Wearable augmented reality devices with object detection and tracking
US10782657B2 (en) 2014-05-27 2020-09-22 Ultrahaptics IP Two Limited Systems and methods of gestural interaction in a pervasive computing environment
USD756443S1 (en) 2014-05-28 2016-05-17 Leap Motion, Inc. Motion capture device attachment adapter
US9868449B1 (en) 2014-05-30 2018-01-16 Leap Motion, Inc. Recognizing in-air gestures of a control object to control a vehicular control system
US10383387B2 (en) 2014-06-10 2019-08-20 Revision Military S.A.R.L. Apparatus and methods for securing accessories to a helmet
US9661891B2 (en) 2014-06-19 2017-05-30 Revision Military S.A.R.L. Helmet visor
US10371944B2 (en) 2014-07-22 2019-08-06 Sony Interactive Entertainment Inc. Virtual reality headset with see-through mode
CN204480228U (zh) 2014-08-08 2015-07-15 厉动公司 运动感测和成像设备
US10073590B2 (en) 2014-09-02 2018-09-11 Apple Inc. Reduced size user interface
US9984505B2 (en) 2014-09-30 2018-05-29 Sony Interactive Entertainment Inc. Display of text information on a head-mounted display
US9740010B2 (en) 2014-11-28 2017-08-22 Mahmoud A. ALHASHIM Waterproof virtual reality goggle and sensor system
US10656720B1 (en) 2015-01-16 2020-05-19 Ultrahaptics IP Two Limited Mode switching for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017163648A1 (ja) * 2016-03-23 2017-09-28 株式会社ソニー・インタラクティブエンタテインメント 頭部装着装置
US10587862B2 (en) 2016-03-23 2020-03-10 Sony Interactive Entertainment Inc. Head-mounted device
US10140777B2 (en) 2016-08-02 2018-11-27 Canon Kabushiki Kaisha Information processing apparatus, method of controlling information processing apparatus, and storage medium
US20230107097A1 (en) * 2021-10-06 2023-04-06 Fotonation Limited Method for identifying a gesture
US11983327B2 (en) * 2021-10-06 2024-05-14 Fotonation Limited Method for identifying a gesture

Also Published As

Publication number Publication date
US20230042990A1 (en) 2023-02-09
US10349036B2 (en) 2019-07-09
DE202014103729U1 (de) 2014-09-09
US10880537B2 (en) 2020-12-29
US20240031547A1 (en) 2024-01-25
US11483538B2 (en) 2022-10-25
CN204480228U (zh) 2015-07-15
US20210120222A1 (en) 2021-04-22
US12095969B2 (en) 2024-09-17
US11778159B2 (en) 2023-10-03
US20160044298A1 (en) 2016-02-11
US20190335158A1 (en) 2019-10-31

Similar Documents

Publication Publication Date Title
US12095969B2 (en) Augmented reality with motion sensing
US11676349B2 (en) Wearable augmented reality devices with object detection and tracking
US10437347B2 (en) Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
US11538224B2 (en) Safety for wearable virtual reality devices via object detection and tracking
US20230368577A1 (en) Automotive and industrial motion sensory device
US9613262B2 (en) Object detection and tracking for providing a virtual device experience
US8933912B2 (en) Touch sensitive user interface with three dimensional input sensor
US20110234481A1 (en) Enhancing presentations using depth sensing cameras
US20140037135A1 (en) Context-driven adjustment of camera parameters
US20140176591A1 (en) Low-latency fusing of color image data
US12067157B2 (en) Drift cancelation for portable object detection and tracking
US12125157B2 (en) Safety for wearable virtual reality devices via object detection and tracking