JP2013515275A - 拡張現実のためのブロードバンドパッシブ追跡 - Google Patents

拡張現実のためのブロードバンドパッシブ追跡 Download PDF

Info

Publication number
JP2013515275A
JP2013515275A JP2012546267A JP2012546267A JP2013515275A JP 2013515275 A JP2013515275 A JP 2013515275A JP 2012546267 A JP2012546267 A JP 2012546267A JP 2012546267 A JP2012546267 A JP 2012546267A JP 2013515275 A JP2013515275 A JP 2013515275A
Authority
JP
Japan
Prior art keywords
signal
tracking
interest
objects
received
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012546267A
Other languages
English (en)
Inventor
レオン,ヘンリー
リュ,シャオシャン
Original Assignee
エンパイア テクノロジー ディベロップメント エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エンパイア テクノロジー ディベロップメント エルエルシー filed Critical エンパイア テクノロジー ディベロップメント エルエルシー
Publication of JP2013515275A publication Critical patent/JP2013515275A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/04Position of source determined by a plurality of spaced direction-finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/14Determining absolute distances from a plurality of spaced points of known location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Abstract

それぞれが周囲の放送ソースからの電磁波(たとえば、無線周波数「RF」信号)を感知する能力を有するいくつかのパッシブ受信機を使用することができるブロードバンドパッシブセンシングおよび追跡システムに関する技術が、全般的に説明される。各パッシブ受信機は、1つまたは複数のアンテナによって感知するように構成され得る。異なる位置の複数の受信機が、関心のあるシーンの協調した追跡を行うように構成されたブロードバンドセンシングネットワークを形成するために利用され得る。一部の例によれば、ビームフォーミングアルゴリズムが、物体を測位および追跡するためにパッシブ受信機によって形成されたアンテナアレーを利用するブロードバンドセンシングネットワークに適用され得る。
【選択図】図2

Description

関連出願の相互参照
本願は、2010年3月8日に出願されたBROADBAND PASSIVE TRACKING FOR AUGMENTED REALITYと題された米国特許出願第12/719,797号の利益を主張するものである。本特許出願の開示は、あらゆる目的で参照により本明細書に援用される。
本明細書において別途指示されない限り、本節で説明される題材は、本願の特許請求の範囲に対する従来技術ではなく、本節に含まれることによって従来技術であると認められる訳ではない。
拡張現実(AR)とは、要素が、仮想的な、典型的にはコンピュータで生成された画像によって拡張され、それによって混合された現実感を作り出す物理的な(現実の)世界環境の見方のことである。拡張は、通常、リアルタイムであり、環境的な要素、そのようなスポーツイベント、軍事演習、ゲームなどの状況に合わせられ得る。AR技術は、物体認識および画像生成を加えることによって、人の周囲の現実世界についての情報がインタラクティブになり、デジタル形式で使用できるようになることを可能にする。環境および物体についての人工的な情報が、現実世界の眺めのレイヤーとは別個の情報レイヤーとして記憶され、取り出されることができる。
本開示は、ARシステムにいくつかの制約が存在することを認める。現実世界と同じ空間内に共存するように見える仮想的なまたはコンピュータによって生成された物体を現実世界に追加する際に、AR技術は、ユーザが、現実の3次元(3D)物体を、それらの物体または目の前の作業についての追加的なコンピュータに基づく情報を視覚的に受け取りながら扱い、調べることを可能にする。ユーザが自然な形で混合された仮想および現実世界とインタラクションすることを可能にするために、ARシステムは、環境センシングによって環境内のユーザの位置および関心のあるその他の物体の位置を知ることを必要とする可能性がある。たとえば、ARシステムは、レンダリングするときにオクルージョンをサポートするために現実のシーンの距離画像(depth map)を必要とする可能性がある。システムは、物体の位置および運動パラメータ、すなわち、速度、加速度、運動の方向、運動のパターンなどに関する情報も利用する可能性がある。しかし、位置および運動パラメータを取得し、処理することについて、ARシステムにはさまざまな課題が残っている。
以下の概要は、例示であるにすぎず、限定することは全く意図されていない。上述の例示的な態様、実施形態、および特徴に加えて、さらなる態様、実施形態、および特徴が、図面および以下の詳細な説明を参照することによって明らかになるであろう。
本開示は、概して、拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための方法を説明する。拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための方法は、複数の追跡センサーのそれぞれのセンサーにおいて信号を受信することであって、複数の追跡センサーのそれぞれがブロードバンドセンシングネットワークの一部を形成し、受信信号が直接信号および/またはエコー信号のうちの1つまたは複数に対応し、各エコー信号が、関心のある物体によって散乱される直接信号のうちの対応する1つに関連する、受信することを含み得る。拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための方法は、関心のある物体に関連するデータを生成するために受信信号を処理することであって、データが、関心のある物体に関連する位置パラメータおよび/または運動パラメータのうちの1つまたは複数に対応する、処理することも含み得る。拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための方法は、位置パラメータおよび/または運動パラメータのうちの1つまたは複数を使用して、関心のある物体を含む現実のシーンを少なくとも1つの仮想的な物体で拡張することにより現実のシーンを拡張することをさらに含み得る。
また、本開示は、拡張現実(AR)システムにおいて現実のシーン内の関心のある物体を追跡するためのシステムを説明する。拡張現実(AR)システムにおいて現実のシーン内の関心のある物体を追跡するためのシステムは、複数の追跡センサーであって、それぞれの追跡センサーが、1つもしくは複数の対応する送信ソースに関連する直接信号、および/または関心のある物体から散乱された1つもしくは複数の直接信号に関連するエコー信号のうちの1つまたは複数に対応する信号を受信し、受信信号を前処理するように構成された、複数の追跡センサーを含み得る。拡張現実(AR)システムにおいて現実のシーン内の関心のある物体を追跡するためのシステムは、関心のある物体に関連するキャプチャーされた2D画像に基づいて画像情報を導出するように構成された画像処理サーバも含み得る。拡張現実(AR)システムにおいて現実のシーン内の関心のある物体を追跡するためのシステムは、無線ネットワークを介して複数の追跡センサーと通信し、前処理された信号を受信し、前処理された信号に基づいて関心のある物体を追跡し、関心のある物体の追跡および画像情報に基づいて現実のシーンを拡張するように構成されたリアリティサーバも含み得る。
また、本開示は、拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための装置を説明する。拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための装置は、アンテナおよび追跡センサーを含む無線通信デバイスを含む可能性があり、無線通信デバイスは、1つもしくは複数の送信ソースからの直接信号、または直接信号のうちの1つもしくは複数の結果として関心のある物体のうちの1つもしくは複数から散乱されるエコー信号のうちの1つまたは複数に対応する信号をアンテナで受信するように構成される。拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための装置は、アンテナおよび追跡センサーを含む無線通信デバイスを含む可能性があり、無線通信デバイスは、受信信号を前処理して1つまたは複数の周波数領域の信号を取得し、1つまたは複数の周波数領域の信号の位相を補償して位相補償された信号を生成し、位相補償された信号から関心のある物体のうちの1つまたは複数に関連する位置および/または運動情報を導出するようにさらに構成される。
さらに、本開示は、拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための装置を説明する。拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための装置は、メモリ、およびメモリに結合されたプロセッサを含み得る。プロセッサは、プロセッサが、対応するAR対応無線デバイスの通信ネットワークとは異なる無線ネットワークを介して、AR対応無線デバイスに組み込まれた複数の追跡センサーと通信し、追跡センサーの数および位置を適応的に選択するように構成されるようにARエンジンを実行するようにメモリと連携させて構成され得る。プロセッサは、直接信号、および/または直接信号が関心のある1つまたは複数の物体によって反射されることによって生じるエコー信号のうちの1つまたは複数に対応する、追跡センサーによって検出される前処理された信号を受信し、受信信号にビームフォーミングプロセスを適用して、関心のある物体のうちの1つまたは複数に関する位置および運動パラメータを推定するようにさらに構成され得る。
さらに、本開示は、拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための命令を記憶するコンピュータ可読ストレージ媒体を説明する。拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための命令は、追跡センサーにおいて、1つもしくは複数の送信ソースからの直接信号、または直接信号のうちの1つもしくは複数の結果として関心のある物体のうちの1つもしくは複数から散乱されるエコー信号のうちの1つまたは複数を、追跡センサーを含む無線デバイスに関連する送信ソースから受信することを含み得る。また、拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための命令は、追跡センサーにおいて受信信号を前処理することと、それぞれの前処理された直接およびエコー信号の相互相関をとることに基づいて周波数スペクトル信号を導出することとを含み得る。拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための命令は、位相補償モジュールで複数の追跡センサーから受信された周波数スペクトル信号の組の位相を補償することと、複数の追跡センサーの数および位置を適応的に選択することによって、追跡/測位モジュールで、位相補償された信号から関心のある物体のうちの1つまたは複数に関連する位置および/または運動情報を導出することとをさらに含み得る。
本開示の上述のおよびその他の特徴は、以下の説明および添付の特許請求の範囲を添付の図面と併せて理解することによってより完全に明らかになるであろう。これらの図面は本開示によるほんのいくつかの実施形態を示すにすぎず、したがって、本開示の範囲を限定すると見なされるべきでないことを理解したうえで、本開示が、添付の図面を使用してより具体的かつ詳細に説明される。
一部の実施形態が実装され得る例示的な拡張現実(AR)システムを示す図である。 ARシステムに入力を提供することができる例示的なブロードバンドパッシブ追跡システムのアーキテクチャを示す図である。 さまざまな送信ソースを使用する例示的なARデバイスによる例示的な追跡プロセスのブロック図である。 例示的なARエンジンへの入力に基づく追跡オペレーションのブロック図である。 実施形態によるシステム内のパッシブセンサーネットワークの幾何学的表現を示す図である。 ARシステムにおいてブロードバンドパッシブ追跡を実装するために使用され得る汎用コンピューティングデバイスを示す図である。 図5のデバイス500などのコンピューティングデバイスによって実行され得る例示的な方法を示すフローチャートである。 本明細書に記載された少なくとも一部の実施形態にしたがってすべてが構成された例示的なコンピュータプログラム製品のブロック図である。
以下の詳細な説明において、本明細書の一部をなす添付の図面に対する参照がなされる。図面において、概して、同様の符号は、文脈がそうでないことを示さない限り、同様のコンポーネントを特定する。詳細な説明、図面、および特許請求の範囲に記載の例示的実施形態は、限定することを意図されていない。本明細書で示される主題の精神または範囲を逸脱することなしに、その他の実施形態が利用される可能性があり、その他の変更がなされる可能性がある。本明細書において全体的に説明され、図面に図示される本開示の態様は、多種多様な異なる構成で配置され、置き換えられ、組み合わされ、分割され、設計される可能性があり、それらの構成のすべてが本明細書においてはっきりと想定されていることが容易に理解されるであろう。
概して、本開示は、とりわけ、拡張現実の応用のためのブロードバンドパッシブ追跡システムに関連する方法、装置、システム、デバイス、および/またはコンピュータプログラム製品を対象とする。
簡潔に言えば、一部の実施形態によるブロードバンドパッシブセンシングおよび追跡システムは、それぞれが周囲の放送ソースからの電磁波(たとえば、無線周波数「RF」信号)を感知する能力を有するいくつかのパッシブ受信機を含み得る。各パッシブ受信機は、1つまたは複数のアンテナによって感知するように構成され得る。異なる位置の複数の受信機が、関心のあるシーンの協調した追跡を行うように構成されたブロードバンドセンシングネットワークを形成するために利用され得る。一部の例によれば、ビームフォーミングアルゴリズムが、物体を測位および追跡するためにパッシブ受信機によって形成されたアンテナアレーを利用するブロードバンドセンシングネットワークに構成され得る。
図1は、本明細書に記載された少なくとも一部の実施形態にしたがって構成された例示的な拡張現実(AR)システム100を示す。ARは、現実世界の表示を拡張するために、ライブビデオストリームにおけるコンピュータによって生成された画像の応用を探求する。本開示にしたがって構成された例示的なARシステムは、いくつかのセンサーおよびアクチュエータを含む制御された環境内にある可能性があり、現実のおよびコンピュータによって生成された画像を処理するように構成された1つまたは複数のコンピューティングデバイスを含む可能性があり、ヘッドマウントディスプレイ、仮想網膜ディスプレイ(virtual retinal display)、モニタまたは同様の通常のディスプレイ、および同等のデバイスなどの視覚化システムを含む可能性がある。
例示的なARシステム100は、現実のシーン(物体)102のライブ画像をキャプチャーするためのイメージセンサー104−1と、物体の位置および/または運動を追跡するための追跡センサー104−2とを含む。イメージセンサー104−1は、デジタルカメラ、ウェブカメラ、または何らかのその他の画像キャプチャーデバイスである可能性がある。追跡センサー104−2は、ネットワークの周波数、帯域幅、および空間ダイバーシチによって追跡性能を高めるためにパッシブセンシングネットワーク内に配置されたいくつかの受信デバイスを含み得る。受信デバイス(たとえば、1つまたは複数のRF受信機)は、通信塔(たとえば、セルラ電話の通信塔)または通信基地局などの近くの信号ソースからの通信信号(たとえば、RF信号などの電磁波)を利用するように構成され得る。追跡センサー104−2は、さまざまな位置に配置される可能性があり、集中型または分散型のコンピューティングシステムに通信可能に結合されて、協調するネットワークを形成する可能性がある。
(1つまたは複数の)キャプチャーされた画像は、画像処理サブシステム106に与えられることができ、画像処理サブシステム106は、画像のデジタル画像へのデジタル化、デジタル画像の受信、および/またはデジタル画像の処理のうちの1つまたは複数を実行するように構成され得る。デジタル画像の処理は、画像内の特徴点の位置の決定、アフィン射影の計算、エッジの追跡、フィルタリング、および/または同様のオペレーションのうちの1つまたは複数を含み得る。画像処理サブシステム106は、上述のオペレーションの結果のうちの1つまたは複数などの映像情報をリアリティエンジン110に与えるように構成され得る。追跡センサー104−2は、現実のシーン102内の関心のある物体に関連する位置および/または運動情報をリアリティエンジン110に与えるように構成され得る。リアリティエンジン110は、追跡センサー104−2からの位置および/または運動情報を組み込む、キャプチャーされた画像に基づいてシーンをレンダリングするためのグラフィックスプロセスを実行するように構成され得る。仮想的な物体が、以下で詳細に検討されるように、追跡情報を使用してレンダリングされ得る。
画像ジェネレータ108は、イメージセンサー104−1からの(1つまたは複数の)参照画像と、(1つまたは複数の)仮想的な物体に関連する画像データとを受信するように構成されることができ、キャプチャーされた現実のシーンの画像に(1つまたは複数の)仮想的な物体に関連する画像データを重ねて、拡張されたシーン114をもたらすように構成され得る。ディスプレイ112は、ARシステム100において利用され得る1つの例示的な視覚化メカニズムである。すでに検討されたように、その他の種類のディスプレイデバイスが、ARシステム100のユーザに拡張されたシーン114の視覚化を提供するために使用され得る。
画像処理サブシステム106、リアリティエンジン110、および画像ジェネレータ108は、1つまたは複数のコンピューティングデバイス上の別個のアプリケーション、1つもしくは複数の統合されたアプリケーション、1つもしくは複数の集中型のサービス、または1つもしくは複数の分散型のサービスとして実装され得る。各コンピューティングデバイスは、スタンドアロンコンピュータ、ネットワーク化されたコンピュータシステム、汎用処理ユニット(たとえば、マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサもしくはDSPなど)、または専用処理ユニットであってよい汎用コンピューティングデバイスまたは専用コンピューティングデバイスのどちらかである可能性がある。さまざまなコンピューティングデバイスで実行される場合、ARシステム100のさまざまなコンポーネントは、1つまたは複数のネットワークを介して通信するように構成され得る。
(1つまたは複数の)ネットワークは、サーバ、クライアント、スイッチ、ルータ、モデム、インターネットサービスプロバイダ(ISP)、および任意の適切な通信媒体(たとえば、有線または無線通信)を使用する任意のトポロジーを含み得る。一部の実施形態によるシステムは、静的または動的なネットワークトポロジーを有する可能性がある。(1つまたは複数の)ネットワークは、エンタープライズネットワーク(たとえば、LAN、WAN、もしくはWLAN)などの安全なネットワーク、無線開放型ネットワーク(たとえば、IEEE802.11無線ネットワーク)などの安全でないネットワーク、または世界規模のネットワーク(たとえば、インターネット)を含み得る。(1つまたは複数の)ネットワークは、一緒に動作するように構成される複数の異なるネットワークを含むこともできる。(1つまたは複数の)ネットワークは、本明細書に記載されたノード間の通信を提供するように構成される。限定ではなく例として、(1つまたは複数の)ネットワークは、音響、RF、赤外線、およびその他の無線媒体などの無線媒体を含み得る。
図2は、ARシステムに入力を提供することができる例示的なブロードバンドパッシブ追跡システムのアーキテクチャ200を示す。AR技術における高度化は、環境に重ね合わされた仮想的な幾何学的物体、または既存の現実の物体の周りの非幾何学的情報の表示を含み得る。正確な位置合わせは、ユーザ230の位置の正確な追跡と、関心のあるシーン228内のその他の物体のセンシングとに基づく。少なくとも一部の実施形態によるARシステムは、無線周波数(RF)信号によるパッシブセンシングおよび追跡を利用する。パッシブセンシングは、近くの送信ソース(たとえば、放送塔222または基地局224および236)からの既存の照射ソースを使用し、パッシブ受信機によって、物体から散乱された受信信号を分析する。
一部の送信ソースは、セルラ通信ソース、または音声、テレビジョンもしくは何らかのその他のデータ通信ソースのために使用され得るような無線周波数(RF)通信ソースを含み得るがそれらに限定されない。いくつかの例示的なソースは、TV放送塔、移動体通信用グローバルシステム(Global System for Mobile communications)(GSM)の塔、符号分割多元接続(CDMA)セルラ通信塔、時分割多元接続(TDMA)通信塔、または直行周波数分割多元接続(OFDMA)通信塔、振幅変調(AM)もしくは周波数変調(FM)放送塔、デジタル音声放送(DAB)のソース、デジタルビデオ放送−地上波(Digital Video Broadcasting−Terrestrial)(DVB−T)のソース、無線ローカルエリアネットワーク(WLAN)アクセスポイント、広域ネットワーク(WAN)アクセスポイント、メトロポリタンエリアネットワーク(MAN)アクセスポイント、パーソナルエリアネットワーク(PAN)アクセスポイント、および同等のものを含み得る。同様に、例示的なARデバイスは、TV受信機、デジタルTV受信機、GSMデバイス、CDMAデバイス、AM/FM受信機、DABデバイス、DVB−Tデバイス、WLANデバイス、WANデバイス、MANデバイス、およびPANデバイス、ならびに同等のものを含み得るがそれらに限定されない。
本明細書において使用されるとき、用語「ブロードバンド」は、本明細書に記載された一部の実施形態によるARセンシングおよび追跡システムの受信機によって利用され得る広い範囲の周波数を指す可能性がある。したがって、この用語は、ブロードバンドインターネットシステムまたは同様の技術とは区別され得る。
ブロードバンドネットワーク内のパッシブ受信機は、同じ種類の照射ソースからのエネルギーを受信するように構成される1つまたは複数の同種のセンサー、または異なる種類の照射ソースからのエネルギーを受信する異種のセンサーの集合である可能性がある。パッシブ受信機は、ハンドヘルドデバイスまたは頭部装着型デバイスなどのAR対応デバイス(たとえば、ARデバイス226、232、および234)内に設計され、組み込まれる可能性がある。パッシブ受信機は、関心のあるシーン228のパッシブ追跡を協調して実行するために、別個のネットワーク(たとえば、ローカルエリアネットワーク)を介して1つまたは複数のコンピューティングデバイスと通信するように構成され得る。
パッシブ受信機に対応するネットワーク内の各ノードは、近くの基地局からのダウンリンク通信チャネルか、または周囲の放送ソース(たとえば、放送塔222または基地局224および236)からのダウンリンク送信チャネルかのどちらかを介して、環境内の関心のあるRF信号スペクトル内の信号をパッシブに受信し、キャプチャーし、および/または評価するように構成され得る。物体とネットワーク内のノードとの間の相対的運動は、環境のドップラースペクトルの変動として観測され得る。運動パラメータは、受信機のネットワークを介して複数のアンテナによって形成された任意のアンテナアレーを合成することによって推定され得る。受信機のネットワークのポイントツーポイント通信レイヤーが、受信機のネットワーク内の任意の2つノード間の通信および情報の共有を可能にするために作られ得る。
アンテナアレーは、正確、連続的、および/または3Dの位置情報を提供することによって、各パッシブ受信機に埋め込まれた全地球測位システム(GPS)などの測位サービスにより適応的に校正され得る。また、この情報は、以下で図4に関連して説明されるように、動く物体に対する異なる位置が原因であるパッシブ受信機の間の位相の違いを補償するために使用され得る。受信機ネットワーク上のセンシング信号と、受信機ネットワークで利用される動かない送信ソースの位置の知識とを更新および共有することによって、ビームフォーミングプロセスが、運動パラメータの推定値を取得し、追跡を行うために、合成されたアンテナアレーで実行され得る。ビームフォーミングアルゴリズムは、受信機ネットワーク内の適切なノードを選択し、受信機の位置にしたがって最適な合成されたアレーを形成することによってさまざまなセンシング環境に適合するように設計され得る。
各パッシブ受信機は、直接チャネルおよびエコーチャネルと表記される可能性がある2つのチャネルを用いて動作するように構成され得る。直接チャネル信号は、周囲の基地局または放送塔から直接放射された結果としてパッシブ受信機によって受信された信号に対応する可能性があり、一方、動く物体からの散乱された信号は、パッシブ受信機のエコーチャネルに与えられる可能性がある。信号は、受信機および/または追跡モジュールで処理されることができ、結果的に得られる追跡情報は、撮像センサーからのキャプチャーされた画像(動画または静止画)(238)とのさらなる処理のためにARエンジン240に与えられ得る。ARエンジンは、仮想的な物体または拡張されたシーンに関連するデータを、視覚化またはさらなるARに関連する処理のためにその他のARデバイス242に出力するように構成され得る。出力データは、視覚化のためにARデバイス226、232、224に送り返される可能性もある。
図3Aは、本明細書に記載された少なくとも一部の実施形態にしたがって構成された、さまざまな送信ソース344、346、348を用いた例示的なARデバイス352、354、356による例示的な追跡プロセスのブロック図300を示す。上述のように、一部の実施形態によるシステム内の各パッシブ受信機361、366、および372は、2つのチャネルを介して信号を受信するように構成されることができ、一方のチャネルは直接経路に対応し、他方のチャネルはエコー経路に対応する(358)。直接経路は、送信ソース(たとえば、送信塔344、346、および348)と、受信機361、366、および372を組み込む対応するARデバイス(352、354、および356)との間に位置づけられる。エコー経路は、関心のある物体350からARデバイス352、354、および356への散乱された信号に関するデータまたはその他の情報のための通信経路を示す。
受信信号は、個々のARデバイス352、354、および/または356のうちの1つまたは複数において前処理される可能性がある。アナログの前処理は、信号補正(たとえば、直行信号補正(orthogonal signal correction)、乗法信号補正(multiplicative signal correction)など)、帯域フィルタリング(たとえば、帯域通過、低域通過、高域通過などの受動または能動フィルタ)、信号加算平均(signal averaging)、およびブロック図300のARデバイスの処理の四角360によって示される直接チャネルおよびエコーチャネルに対して実行され得る同等の処理のうちの1つまたは複数を含み得る。特に、両方のチャネルからの受信信号は、増幅または減衰(たとえば、利得スケーリング)、ダウンコンバート(たとえば、復調)、およびデジタル化(たとえば、比較器またはアナログ・デジタルコンバータによる量子化)を行われ得る。マルチパス干渉を軽減するために、ブラインドチャネル等化が、直接信号に対して実行され得る(チャネル等化362、367、および373)。適応フィルタリングアルゴリズムが、クラッターを抑制し、エコーチャネルから直接信号を取り除くために、デジタル化の後に両方のチャネルに対して適用され得る(適応フィルタリング365、370、376)。
受信信号に関するドップラースペクトルが、直接チャネルからの信号(すなわち、直接チャネル信号)とエコーチャネルからの信号(すなわち、エコーチャネル信号)との間のコヒーレントな(coherent)相互相関(363、368、および374)をとることによって取得され得る。レンジ圧縮(range compression)が、パラメータ空間を得るために受信機ネットワークを介したビームフォーミングプロセスを通じてベースバンド信号を供給する(378)前に、レンジ圧縮フィルタ364、369、および375において、相互相関をとられたベースバンド信号に対して実行され得る。物体の追跡は、単一のコンピューティングデバイスにおいて、または複数のコンピューティングデバイスによって実行される分散型のプロセスを通じて、各瞬間に、合成されたアンテナアレーのビームフォーミングプロセスの出力を計算することによって実現され得る。
図3Bは、本明細書に記載された少なくとも一部の実施形態にしたがって構成された、例示的なARエンジンへの入力に基づく追跡オペレーションのブロック図350を示す。上で検討されたように、ベースバンド信号が、図350に示されたARエンジンの処理のブロック380のビームフォーミングプロセスを通じて供給され得る(378)。
ARデバイスのうちの1つ(たとえば、ARデバイス352)のベースバンド信号出力382が、位相差を取り除くための基準として使用され得る。センサー/送信機の組の異なる相対的位置が原因で、散乱中心に対して位相差が発生する可能性がある。したがって、ベースバンド出力信号のうちの1つが、信号が互いに回転/角度/位相がそろうように各ARデバイスの組に関するその他のベースバンド出力信号との位相差を取り除くための基準信号として使用され得る。周波数領域における位相補償384の後、結果として得られる信号は、基準の送信塔から、異なるセンサーの位置で得られる信号に等しい可能性がある。これは、目標の測位および追跡(386)が、(たとえば、組にした)ARデバイスからの位相補償されたベースバンド出力信号385を用いてARエンジン処理モジュール380によって実行されることを可能にする。続いて、追跡/測位情報387がARアプリケーション388に与えられることができ、ARアプリケーション388はその情報を、ユーザへのフィードバック、補正処理、追跡された物体の運動を見ること、および/または同様のオペレーションを可能にするためのARクライアントソフトウェアを実行するARデバイスに、送信することができる。領域変換および位相変換のためのあり得る方法の数学的な詳細が、図4に関連して以下で詳細に検討される。
一部の実施形態によるシステムのブロードバンドパッシブネットワークによって与えられるダイバーシチ利得は、環境センシングの性能向上をもたらすことができ、それによって、単一の受信機による追跡に比して改善された追跡性能に資することができる。ダイバーシチは、いくつかの態様で実現され得る。
周波数および帯域幅ダイバーシチは、異種の照射ソースの使用の結果として得られる。たとえば、GSMおよびDAB通信システムは、送信のために異なる帯域幅を用いて異なる周波数で運用される。さらに、これらのシステムの送信塔および基地局は、多様なアンテナパターンをやはり有する可能性がある。これらのソースによって照射される物体は、概して、異なる反射特性を生じ、すなわち、一部の物体は、特定の周波数でより見えやすい。
空間ダイバーシチは、同じ物体に対するパッシブセンサーまたはアレー要素の位置が異なる結果として得られる可能性がある。同様に、物体を特定するために使用される信号は、ソースによって互いに(送信または反射のいずれかの)物体へのより良い経路を有する可能性がある。少なくとも一部の実施形態によるビームフォーミングアルゴリズムは、向上した追跡の出力を提供するためにダイバーシチ利得を高めるために、ネットワーク内の追跡センサーの数および位置を適応的に選択するように構成され得る。さらに、性能向上は、マルチパスフェージングを軽減することによって、およびダイバーシチの結果として干渉信号を打ち消すことによって、合成されたアンテナアレーからももたらされ得る。
概して、パッシブセンシングは、既存の通信リンクまたは放送システムを使用し、このことは、潜在的に、ARアプリケーションを使用できるようにするためのパッシブデバイスのサイズ、重さ、および電力消費を削減する可能性がある。加えて、通信および放送システムの照射ソースはどこでも利用できるので、パッシブ受信機は、追加の周波数割り当てが不要であり、アクティブ受信機と比べて他のRFデバイスからの干渉を受け難い。
実施形態が特定の例、コンポーネント、アルゴリズム、および構成を用いて上で検討されたが、それらは、ARシステムにおけるブロードバンドパッシブ追跡のために使用されるべき全般的な指針を提供するように意図される。これらの例は、実施形態に対する限定を定めるものではなく、実施形態は、本明細書に記載された原理を用いるその他のコンポーネント、モジュール、アルゴリズム、および構成を用いて実装され得る。たとえば、その他の無線技術のシステムが、関心のある物体からの散乱された信号を検出するために利用され得るか、またはさまざまな信号処理方法が、直接受信されたおよび散乱された信号に基づいて物体を追跡するために使用され得る。
図4は、本明細書に記載された少なくとも一部の実施形態にしたがって構成されたシステム内のパッシブセンサーネットワークの幾何学的表現400を示す。簡潔で平易にするために、関連する位置ベクトルrを持つ物体490が、それぞれ位置ベクトルrT1およびrT2にある2つの送信ソースTx1およびTx2とともに幾何学的表現400に示される。対応する受信機Rx1およびRx2は、デカルト座標系X、Y、Zの原点に位置づけられる。
[1] s(t)=p(t)e(j2πfct)
と表される複素パッシブ送信信号が送信機Tx1またはTx2のどちらかから送信される場合、各送信機Txi(i=1,2)から目標の散乱中心までの伝播距離(492、494)は、
[2] dTi=|rTi−r
と表されることができ、ここでp(t)はベースバンド信号であり、fは搬送周波数を表す。
受信機RXi(i=1,2)から目標の散乱中心までの伝播距離は、
[3] dxi=|r
と表されることができる。同じ状況の下で、i番目のチャネルの信号の時間遅延は、
Figure 2013515275

と表されることができ、ここで、cは光の速度である。i番目の送信塔(たとえば、Tx1)からの受信された目標エコーチャネル信号SEi(t,r)は、
[5] SEi(t,r)=∫g(r)p(t−τ(r))exp(j2πfci(t−τ(r)))dr
と表されることができ、ここで、(1≦i≦2)である。同じ状況に対する直接チャネルの復元(return)SDi(t)は、
[6] SDi(t)=pi(t−τdi)exp(j2πfci(t−τdi))
と表されることができ、ここで、τdiは、直接チャネルの伝播時間であり、τdi=|rTi|/cに等しい。g(r)は、目標の反射率関数(reflectivity function)である。積分が、関心のある物体のシーンの空間領域全体Vにわたって行われ得る(496)。
直接および目標エコーチャネルの処理の後、受信信号は、
Figure 2013515275

と書き直されることができ、ここで、
Figure 2013515275

である。
ベースバンド変換およびレンジ圧縮の後、周波数領域の受信信号は、
Figure 2013515275

および
Figure 2013515275

と書かれることができ、ここで、BおよびBは、それぞれ送信ソースTx1およびTx2に対応する帯域幅である。送信機の中心周波数の間の差がΔ21=fc2−fc1であると仮定すると、第2の送信機に関する受信信号は、周波数領域でΔ21だけずらされ、
Figure 2013515275

と書き直されることができる。
信号の間の位相差が、センサー/送信機の組の異なる相対的位置が原因で散乱中心に対して発生する。その結果、物体490に関する位相差は、
[12] Δφ(r)=−2π(f−fc1)ε(r
と表されることができ、ここで、
Figure 2013515275

である。
位相差Δφ(r)を補償した後、2つのスペクトルは、第1の送信塔から、ただし異なるセンサーの位置で得られるスペクトルに等しい可能性がある。集中型の目標測位および追跡を可能にするためには、任意の2つのセンサー/送信機の組の間の位相差が補償される必要がある。位相補償の後、結果として得られる信号は、基準の送信塔から、異なるセンサーの位置で得られる信号に等しい可能性がある。
図5は、本開示の少なくとも一部の実施形態にしたがって構成されたARシステムにおいてブロードバンドパッシブ追跡を実装するために使用され得る汎用コンピューティングデバイス500を示す。ごく基本的な構成502において、概して、コンピューティングデバイス500は、1つまたは複数のプロセッサ504およびシステムメモリ506を含む。メモリバス508が、プロセッサ504とシステムメモリ506の間の通信のために使用され得る。
所望の構成に応じて、プロセッサ504は、マイクロプロセッサ(μP)、マイクロコントローラ(μC)、デジタル信号プロセッサ(DSP)、またはそれらの任意の組合せを含むがそれらに限定されない任意の種類であってよい。プロセッサ504は、レベルキャッシュメモリ512などの1つまたは複数のレベルのキャッシュ、プロセッサコア514、およびレジスタ516を含み得る。例示的なプロセッサコア514は、算術論理演算ユニット(ALU)、浮動小数点演算ユニット(FPU)、デジタル信号処理コア(DSPコア)、またはそれらの任意の組合せを含み得る。例示的なメモリコントローラ518が、プロセッサ504とともに使用されてもよく、または一部の実装形態においては、メモリコントローラ518は、プロセッサ504の内部部分である可能性がある。
所望の構成に応じて、システムメモリ506は、揮発性メモリ(RAMなど)、不揮発性メモリ(ROM、フラッシュメモリなど)、またはそれらの任意の組合せを含むがそれらに限定されない任意の種類であってよい。システムメモリ506は、オペレーティングシステム520、1つまたは複数のアプリケーション522、およびプログラムデータ524を含み得る。アプリケーション522は、上で検討されたようにパッシブ受信機のネットワークから与えられた物体についての追跡情報に関連して物体認識およびモデリングシステムの動作パラメータを調整するように構成されるARエンジン526を含み得る。プログラムデータ524は、撮像データ528−1、追跡データ528−2、および図3Aおよび3Bに関連して上で検討された同様のデータのうちの1つまたは複数を含み得る。このデータは、本明細書において説明されるように、現実のシーン内の物体に関連する位置および/または運動情報に基づいて、現実のシーンに加えられるべき仮想的な物体を生成するのに役立つ可能性がある。一部の実施形態において、アプリケーション522は、本明細書において説明されるように3次元物体が追跡され、仮想的な表現が生成されるようにオペレーティングシステム520上でプログラムデータ524を用いて動作するように構成され得る。この説明された基本構成502は、図5において内側の破線内のコンポーネントによって示される。
コンピューティングデバイス500は、追加的な特徴または機能、ならびに基本構成502と任意の必要とされるデバイスおよびインタフェースとの間の通信を容易にするための追加的なインタフェースを含み得る。たとえば、バス/インタフェースコントローラ530が、ストレージインタフェースバス534を介した基本構成502と1つまたは複数のデータストレージデバイス532との間の通信を容易にするために使用され得る。データストレージデバイス532は、取外し可能なストレージデバイス536、取外し不可能なストレージデバイス538、またはそれらの組合せであってよい。取外し可能なストレージデバイスおよび取外し不可能なストレージデバイスの例は、いくつか例を挙げるとすれば、フレキシブルディスクドライブおよびハードディスクドライブ(HDD)などの磁気ディスクデバイス、コンパクトディスク(CD)ドライブまたはデジタルバーサタイルディスク(DVD)ドライブなどの光ディスクドライブ、ソリッドステートドライブ(SSD)、ならびにテープドライブを含む。例示的なコンピュータストレージ媒体は、コンピュータ可読命令、データ構造、プログラムモジュール、またはその他のデータなどの情報を記憶するための任意の方法または技術で実装された揮発性および不揮発性の取外し可能なおよび取外し不可能な媒体を含み得る。
システムメモリ506、取外し可能なストレージデバイス536、および取外し不可能なストレージデバイス538はコンピュータストレージ媒体の例である。コンピュータストレージ媒体は、RAM、ROM、EEPROM、フラッシュメモリ、もしくはその他のメモリ技術、CD−ROM、デジタルバーサタイルディスク(DVD)、もしくはその他の光学式ストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ、もしくはその他の磁気式ストレージ、または所望の情報を記憶するために使用されることができ、コンピューティングデバイス500によってアクセスされ得る任意のその他の媒体を含むがそれらに限定されない。任意のそのようなコンピュータストレージ媒体は、コンピューティングデバイス500の一部である可能性がある。
コンピューティングデバイス500は、バス/インタフェースコントローラ530を介したさまざまなインタフェースデバイス(たとえば、出力デバイス542、周辺インタフェース544、および通信デバイス546)から基本構成502への通信を容易にするためのインタフェースバス540も含み得る。例示的な出力デバイス542は、1つまたは複数のA/Vポート552を介してディスプレイまたはスピーカなどのさまざまな外部デバイスと通信するように構成され得るグラフィックス処理ユニット548および音声処理ユニット550を含む。例示的な周辺インタフェース544は、1つまたは複数のI/Oポート558を介して入力デバイス(たとえば、キーボード、マウス、ペン、音声入力デバイス、タッチ入力デバイスなど)またはその他の周辺デバイス(たとえば、プリンタ、スキャナなど)などの外部デバイスと通信するように構成され得るシリアルインタフェースコントローラ554またはパラレルインタフェースコントローラ556を含む。例示的な通信デバイス546は、1つまたは複数の通信ポート564を介したネットワーク通信リンク上の1つまたは複数のその他のコンピューティングデバイス562との通信を容易にするように構成され得るネットワークコントローラ560を含む。
ネットワーク通信リンクは、通信媒体の一例である可能性がある。概して、通信媒体は、搬送波またはその他の搬送メカニズムなどの変調されたデータ信号内のコンピュータ可読命令、データ構造、プログラムモジュール、またはその他のデータによって具現化されることができ、任意の情報配信媒体を含み得る。「変調されたデータ信号」は、その信号の特徴のうちの1つまたは複数を、信号中に情報を符号化するような方法で設定または変更させる信号である可能性がある。限定ではなく例として、通信媒体は、有線ネットワークまたは直接有線接続などの有線媒体、ならびに音響、無線周波数(RF)、マイクロ波、赤外線(IR)、およびその他の無線媒体などの無線媒体を含み得る。本明細書において使用されるとき、用語「コンピュータ可読媒体」は、ストレージ媒体および通信媒体の両方を含み得る。
コンピューティングデバイス500は、セル電話、携帯情報端末(PDA)、パーソナルメディアプレイヤーデバイス、無線ウェブ閲覧デバイス、パーソナルハンドセットデバイス、特定用途向けデバイス、または上述の機能のうちの任意のものを含む複合デバイスなどの小型フォームファクタ携帯型(またはモバイル)電子デバイスの一部として実装され得る。また、コンピューティングデバイス500は、ラップトップコンピュータ構成および非ラップトップコンピュータ構成の両方を含むパーソナルコンピュータとして実装され得る。さらに、コンピューティングデバイス500は、ネットワーク化されたシステムとして、または汎用もしくは専用のサーバの一部として実装され得る。
例示的な実施形態は、方法も含み得る。これらの方法は、本明細書に記載された構造を含むあらゆる形で実装され得る。1つのそのような形は、本開示において説明される種類のデバイスの機械オペレーションによる。別の選択され得る形は、方法の個々のオペレーションのうちの1つまたは複数が、オペレーションの一部が機械によって実行される一方で、1人または複数の人間のオペレータがその他のオペレーションを実行することに関連して実行されることである。これらの人間のオペレータは互いに一まとめに配置される必要はなく、それぞれの人間のオペレータは、プログラムの一部を実行する機械とのみ一緒である可能性がある。その他の例において、人間のインタラクションは、機械で自動化されるあらかじめ選択された基準によるなどして自動化され得る。
図6は、本明細書に記載された少なくとも一部の実施形態にしたがって構成された図5のデバイス500などのコンピューティングデバイスによって実行され得る例示的な方法を示すフローチャートである。ブロック622から630で説明されるオペレーションは、コンピューティングデバイス610のコンピュータ可読媒体620などのコンピュータ可読媒体にコンピュータが実行可能な命令として記憶され得る。
拡張現実のためのブロードバンドパッシブ追跡システムを使用するプロセスは、オペレーション622、「信号を感知する」で始まる可能性がある。オペレーション622において、直接およびエコー信号が、図3Aの受信機361などの受信機のネットワークによって感知される。受信機は、ARデバイス352、354、および356などの無線デバイスに組み込まれ得る。直接信号が、セルラ塔、TV放送塔などのさまざまな送信ソースから受信され得る一方、エコー信号は、関心のある1つまたは複数の物体から散乱される。受信信号は、図3Aに関連して検討されたように前処理され得る。
オペレーション622の後にオペレーション624、「相互相関をとる」が続く可能性がある。オペレーション624において、受信された(および前処理された)信号が、受信信号に関するドップラースペクトルを得るために相互相関をとられる可能性がある。相互相関は、図3Aの個々のARデバイス352、354、および356で実行されてもよい。
オペレーション624の後にオペレーション626、「位相を補償する」が続く可能性がある。オペレーション626において、受信信号が、図3Bの追跡/測位モジュール386などの中央追跡/測位モジュールでARデバイスのうちの1つからの信号(たとえば、ARデバイス352からのベースバンド出力信号382)を用いて位相を補償され得る。位相差が、センサー/送信機の組の異なる相対的位置が原因で散乱中心に対して発生する可能性がある。したがって、ベースバンド出力信号のうちの1つが、信号が互いに回転/角度/位相がそろうように各ARデバイスの組に関するその他のベースバンド出力信号との位相差を取り除くための基準信号として使用され得る。周波数領域における位相補償384の後、結果として得られる信号385は、基準の送信塔から、ただし異なるセンサーの位置で得られる信号に等しい可能性がある。
オペレーション626の後にオペレーション628、「位置/運動を決定する」が続く可能性がある。オペレーション628において、位相補償された信号が、パラメータ空間を得るために受信機ネットワークを介した図2のARエンジン240などのARエンジンでのビームフォーミングプロセスを通じて供給され得る。物体の追跡(位置および/または運動パラメータの決定)は、各瞬間に、合成されたアンテナアレーのビームフォーミングプロセスの出力を計算することによって実現され得る。
オペレーション628の後にオペレーション630、「ARアプリケーションに位置/運動情報を提供する」が続く可能性がある。オペレーション630において、追跡(位置/運動)情報が、仮想的な物体を(1つまたは複数の)現実のシーンの画像と重ね合わせる拡張現実シーンをレンダリングするのに使用するためにARアプリケーションに提供され得る。ARシーンは、図1において検討された視覚化デバイスなどの視覚化デバイスによって視覚化され得る。
上述のプロセスに含まれるオペレーションは、例示を目的とするものである。ARシステムにおいて物体に関連する位置および/または運動情報を取得するためのブロードバンドパッシブ追跡システムは、より少ないまたは追加のオペレーションを有する同様のプロセスによって実装される可能性がある。一部の例において、オペレーションは、異なる順序で実行され得る。一部のその他の例において、さまざまなオペレーションが省略され得る。さらにその他の例において、さまざまなオペレーションが、さらなるオペレーションに分割されるか、またはより少ないオペレーションに一緒に組み合わされる可能性がある。
図7は、本明細書に記載された少なくとも一部の実施形態にしたがって構成された例示的なコンピュータプログラム製品のブロック図を示す。一部の例において、図7に示されるように、コンピュータプログラム製品700は、たとえばプロセッサによって実行されるときに図5および図6に関して上で説明された機能を提供することができる機械可読命令704をやはり含み得る信号を運ぶ媒体702を含み得る。したがって、たとえば、プロセッサ504を参照すると、ARエンジン526は、本明細書において説明されたように動的なモデリングに基づいた物体認識に関連する動作を実行するために媒体702によってプロセッサ504に伝達された命令704に応答して、図7に示されたタスクのうちの1つまたは複数を開始することができる。それらの命令の一部は、(1つまたは複数の)信号を感知すること、(1つまたは複数の)信号の相互相関をとること、(1つまたは複数の)物体の範囲を決定すること、位置/運動情報を決定すること、およびARエンジンに位置/運動情報を提供することを含み得る。
一部の実装形態において、図7に示された信号を運ぶ媒体702は、これらに限定されないが、ハードディスクドライブ、コンパクトディスク(CD)、デジタルビデオディスク(DVD)、デジタルテープ、メモリなどのコンピュータ可読媒体706を包含し得る。一部の実装形態において、信号を運ぶ媒体702は、これらに限定されないが、メモリ、読み出し/書き込み(R/W)CD、R/W DVDなどの記録可能な媒体708を包含し得る。一部の実装形態において、信号を運ぶ媒体702は、これらに限定されないが、デジタルおよび/またはアナログ通信媒体(たとえば、光ファイバケーブル、導波管、有線通信リンク、無線通信リンクなど)などの通信媒体710を包含し得る。したがって、たとえば、プログラム製品700は、RF信号を運ぶ媒体702によってプロセッサ504の1つまたは複数のモジュールに伝達される可能性があり、信号を運ぶ媒体702は、無線通信媒体710(たとえば、IEEE802.11規格に準拠する無線通信媒体)によって伝達される。
本開示は、概して、拡張現実(AR)システム100において関心のある1つまたは複数の物体を追跡するための方法を説明する。拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための方法は、複数の追跡センサー104−2のそれぞれのセンサーにおいて信号を受信することであって、複数の追跡センサーのそれぞれがブロードバンドセンシングネットワークの一部を形成し、受信信号が直接信号および/またはエコー信号のうちの1つまたは複数に対応し、各エコー信号が、関心のある物体350によって散乱される直接信号のうちの対応する1つに関連する、受信することを含み得る。拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための方法は、関心のある物体350に関連するデータを生成するために受信信号を処理することであって、データが、関心のある物体350に関連する位置パラメータおよび/または運動パラメータのうちの1つまたは複数に対応する、処理することも含み得る。拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための方法は、位置パラメータおよび/または運動パラメータのうちの1つまたは複数を使用して、関心のある物体350を含む現実のシーン114を少なくとも1つの仮想的な物体で拡張することにより現実のシーン114を拡張することをさらに含み得る。
拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための方法の一部の例によれば、信号は、複数の送信ソース222、224、236と通信する複数の無線通信デバイス226、232、234に組み込まれた複数の追跡センサー104−2で受信され得る。
拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための方法の一部の例によれば、直接信号は、TV放送塔、移動体通信用グローバルシステム(GSM)の塔、符号分割多元接続(CDMA)セルラ通信塔、振幅変調(AM)もしくは周波数変調(FM)放送塔、デジタル音声放送(DAB)のソース、デジタルビデオ放送−地上波(DVB−T)のソース、無線ローカルエリアネットワーク(WLAN)アクセスポイント、広域ネットワーク(WAN)アクセスポイント、メトロポリタンエリアネットワーク(MAN)アクセスポイント、および/またはパーソナルエリアネットワーク(PAN)アクセスポイントのうちの1つまたは複数を含む送信ソース222、224、236から送信され得る。
拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための方法の一部の例によれば、受信信号は、TV信号、デジタルTV信号、GSM信号、CDMA信号、AM/FM信号、DAB信号、DVB−T信号、WLAN信号、WAN信号、MAN信号、および/またはPAN信号のうちの1つまたは複数に対応する可能性がある。
拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための方法の一部の例によれば、受信信号を処理することは、受信信号を前処理すること、受信信号のそれぞれを、適応フィルタリングによって直接信号および/もしくはエコー信号のうちの1つもしくは複数として特定すること365、直接信号およびエコー信号のドップラースペクトルを導出すること363、ならびに/またはエコー信号のドップラースペクトルの位相を補償すること384のうちの1つまたは複数を含み得る。
拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための方法の一部の例によれば、受信信号を前処理すること362は、信号補正、帯域幅の補正、信号加算平均、増幅、ダウンコンバート、および/またはデジタル化のうちの1つまたは複数を含み得る。
拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための方法の一部の例によれば、関心のある物体に関連するデータを生成するために受信信号を処理することは、関心のある物体に関連する位置および/または運動パラメータのうちの1つまたは複数を決定するために、位相補償された信号に対してビームフォーミングプロセスを使用すること628を含み得る。
拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための方法の一部の例によれば、ビームフォーミングプロセスを使用することは、追跡センサー104−2の数および位置を適応的に選択することをさらに含み得る。
拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための方法のさらなる例によれば、信号は、対応する無線通信デバイス226、232、234の通信ネットワークとは異なる無線ネットワークを介して通信可能に結合される追跡センサー104−2から受信され得る。
その他の例によれば、拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための方法は、無線通信デバイス226、232、234のアンテナのダイバーシチによってマルチパスフェージングを軽減し、干渉を減らすように追跡センサー104−2の無線ネットワークを動的に構成することをさらに含み得る。
また、本開示は、拡張現実(AR)システム100において現実のシーン内の関心のある物体を追跡するためのシステムを説明する。拡張現実(AR)システムにおいて現実のシーン内の関心のある物体を追跡するためのシステムは、複数の追跡センサー104−2であって、それぞれの追跡センサーが、1つもしくは複数の対応する送信ソース344、346、348に関連する直接信号、および/または関心のある物体から散乱された1つもしくは複数の直接信号に関連するエコー信号のうちの1つまたは複数に対応する信号を受信し、受信信号を前処理するように構成された、複数の追跡センサー104−2を含み得る。拡張現実(AR)システムにおいて現実のシーン内の関心のある物体を追跡するためのシステムは、関心のある物体350に関連するキャプチャーされた2D画像に基づいて画像情報を導出するように構成された画像処理サーバ106も含み得る。拡張現実(AR)システムにおいて現実のシーン内の関心のある物体を追跡するためのシステムは、無線ネットワークを介して複数の追跡センサー104−2と通信し、前処理された信号を受信し、前処理された信号に基づいて関心のある物体350を追跡し、関心のある物体の追跡および画像情報に基づいて現実のシーン114を拡張するように構成されたリアリティサーバ110も含み得る。
拡張現実(AR)システムにおいて現実のシーン内の関心のある物体を追跡するためのシステムのさまざまな例によれば、各追跡センサー104−2は、受信された直接信号を処理してマルチパス干渉を軽減するように構成されたブラインドチャネル等化器362と、受信されたエコー信号を処理して抑制クラッターを生成するように構成された適応フィルタ365と、各直接信号と各エコー信号の相互相関をとってドップラースペクトル信号を生成するように構成された相関器363とを含み得る。
拡張現実(AR)システムにおいて現実のシーン内の関心のある物体を追跡するためのシステムのさまざまな例によれば、ブラインドチャネル等化器、適応フィルタ、および/または相関器の1つまたは複数の機能は、デジタル信号プロセッサによって提供され得る。
拡張現実(AR)システムにおいて現実のシーン内の関心のある物体を追跡するためのシステムのその他の例によれば、リアリティサーバは、追跡センサーから受信された前処理された信号の位相を補償する(626)ように構成された位相補償モジュール384と、位相補償された信号に基づいて関心のある物体に関する位置および/または運動パラメータのうちの1つまたは複数を決定する(628)ように構成された追跡/測位モジュール386と、関心のある物体350の位置/運動情報および画像情報に基づいて1つまたは複数の仮想的な物体を生成するように構成されたリアリティエンジン110と、現実のシーン114を1つまたは複数の仮想的な物体で拡張するように構成された画像ジェネレータ108とを含み得る。
さまざまな例によれば、拡張現実(AR)システムにおいて現実のシーン内の関心のある物体を追跡するためのシステムは、拡張された現実のシーンの視覚化を行うように構成された視覚化デバイス112をさらに含み得る。
拡張現実(AR)システムにおいて現実のシーン内の関心のある物体を追跡するためのシステムのその他の例によれば、視覚化デバイス112は、ヘッドマウントディスプレイ、仮想網膜ディスプレイ、および/またはモニタのうちの1つまたは複数を含み得る。
拡張現実(AR)システムにおいて現実のシーン内の関心のある物体を追跡するためのシステムのその他の例によれば、追跡センサー104−2の一部は、同じ種類の送信を受信するように構成された同種のセンサーである可能性があり、追跡センサー104−2の別の一部は、異なる種類の送信を受信するように構成された異種のセンサーである可能性がある。
拡張現実(AR)システムにおいて現実のシーン内の関心のある物体を追跡するためのシステムのその他の例によれば、リアリティサーバは、アンテナの合成されたアレーを校正するようにさらに構成されることができ、アンテナの合成されたアレーは、追跡センサー104−2のそれぞれからのアンテナを含み、追跡センサーのそれぞれは、位置に基づくサービスを使用するように構成される。
また、本開示は、拡張現実(AR)システム100において関心のある1つまたは複数の物体を追跡するための装置700を説明する。拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための装置は、アンテナおよび追跡センサー104−2を含む無線通信デバイス226、232、234を含む可能性があり、無線通信デバイスは、1つもしくは複数の送信ソース344、346、349からの直接信号、または直接信号のうちの1つもしくは複数の結果として関心のある物体350のうちの1つもしくは複数から散乱されるエコー信号のうちの1つまたは複数に対応する信号をアンテナで受信するように構成される。拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための装置は、アンテナおよび追跡センサーを含む無線通信デバイスを含む可能性があり、無線通信デバイスは、受信信号を前処理して1つまたは複数の周波数領域の信号を取得し(378)、1つまたは複数の周波数領域の信号378の位相を補償して位相補償された信号を生成し(384)、位相補償された信号から関心のある物体のうちの1つまたは複数に関連する位置および/または運動情報を導出するようにさらに構成される。
拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための装置700の一部の例によれば、無線通信デバイス226は、信号補正、帯域幅の補正、信号加算平均、増幅、ダウンコンバート、および/またはデジタル化のうちの1つまたは複数を適用することによって受信信号を前処理するように構成され得る。
拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための装置700の一部の例によれば、送信ソース344、346、348は、TV放送塔、移動体通信用グローバルシステム(GSM)の塔、符号分割多元接続(CDMA)セルラ通信塔、振幅変調(AM)もしくは周波数変調(FM)放送塔、デジタル音声放送(DAB)のソース、デジタルビデオ放送−地上波(DVB−T)のソース、無線ローカルエリアネットワーク(WLAN)アクセスポイント、広域ネットワーク(WAN)アクセスポイント、メトロポリタンエリアネットワーク(MAN)アクセスポイント、および/またはパーソナルエリアネットワーク(PAN)アクセスポイントのうちの1つまたは複数を含む可能性があり、無線通信デバイス226、232、234は、TV受信機、デジタルTV受信機、GSMデバイス、CDMAデバイス、AM/FM受信機、DABデバイス、DVB−Tデバイス、WLANデバイス、WANデバイス、MANデバイス、および/またはPANデバイスのうちの1つまたは複数を含む可能性がある。
さらに、本開示は、拡張現実(AR)システム100において関心のある1つまたは複数の物体を追跡するための装置700を説明する。拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための装置は、メモリ506、およびメモリに結合されたプロセッサ504を含み得る。プロセッサは、プロセッサが、対応するAR対応無線デバイスの通信ネットワークとは異なる無線ネットワークを介して、AR対応無線デバイス352、354、356に組み込まれた複数の追跡センサー104−2と通信し、追跡センサー104−2の数および位置を適応的に選択するように構成されるようにARエンジン240を実行するようにメモリと連携させて構成され得る。プロセッサは、直接信号、および/または直接信号が関心のある1つまたは複数の物体によって反射されることによって生じるエコー信号のうちの1つまたは複数に対応する、追跡センサー104−2によって検出される前処理された信号を受信し、受信信号にビームフォーミングプロセスを適用して、関心のある物体350のうちの1つまたは複数に関する位置および運動パラメータ628を推定するようにさらに構成され得る。
拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための装置700の一部の例によれば、プロセッサは、ビームフォーミングプロセスによって、異なる周波数を有する送信ソース、異なる帯域幅を有する送信ソース、および/または異なるアンテナパターンを有する送信ソースのうちの1つまたは複数に関連する追跡センサー104−2を選択し、それによって、ダイバーシチ利得が向上されることができるようにさらに構成され得る。
拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための装置700の一部の例によれば、プロセッサは、ARエンジン240によって、ARアプリケーション630に関心のある1つまたは複数の物体に関する推定された位置および運動パラメータを提供するようにさらに構成されることができ、ARアプリケーション630は、関心のある物体に関する推定された位置および運動パラメータと関心のある物体のデジタル化された画像とに基づいて生成された仮想的な物体を重ね合わせることによって拡張現実シーン114を生成するように構成され得る。
さらに、本開示は、拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための命令704を記憶するコンピュータ可読ストレージ媒体706を説明する。拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための命令は、追跡センサー104−2において、1つもしくは複数の送信ソース344、346、349からの直接信号、または直接信号のうちの1つもしくは複数の結果として関心のある物体350のうちの1つもしくは複数から散乱されるエコー信号のうちの1つまたは複数を、追跡センサーを含む無線デバイス226、232、234に関連する送信ソース222、224、236から受信することを含み得る。また、拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための命令は、追跡センサー104−2において受信信号を前処理することと、それぞれの前処理された直接およびエコー信号の相互相関をとることに基づいて周波数スペクトル信号を導出することとを含み得る。拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための命令は、位相補償モジュールで複数の追跡センサーから受信された周波数スペクトル信号の組の位相を補償すること(626)と、複数の追跡センサーの数および位置を適応的に選択することによって、追跡/測位モジュールで、位相補償された信号から関心のある物体のうちの1つまたは複数に関連する位置および/または運動情報を導出すること(628)とをさらに含み得る。
さまざまな例によれば、拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための命令は、マルチパス干渉を軽減するために、受信された直接信号にブラインドチャネル等化を適用すること(362)と、抑制クラッターを生成するために、受信されたエコー信号を適応フィルタリングすること(365)とをさらに含み得る。
さまざまな例によれば、拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための命令は、ARクライアントアプリケーションを実行する無線デバイスに追跡情報を送信すること(389)をさらに含み得る。
システムの態様のハードウェアの実装形態とソフトウェアの実装形態の間にはほとんど違いがなく、ハードウェアまたはソフトウェアの使用は、概して(しかし、状況によってはハードウェアとソフトウェアの間の選択が重要になる場合があるので必ずではないが)、費用対効果のトレードオフを反映する設計上の選択である。本明細書に記載されたプロセスおよび/またはシステムおよび/またはその他の技術がもたらされる得るさまざまな手段(たとえば、ハードウェア、ソフトウェア、および/またはファームウェア)が存在し、好ましい手段は、プロセスおよび/またはシステムおよび/またはその他の技術が配備される状況によって変わる。たとえば、実装者が、速度および精度が最も重要であると判断する場合、実装者は、主にハードウェアおよび/もしくはファームウェアの手段を選択することができ、柔軟性が最も重要である場合、実装者は、主にソフトウェアの実装を選択することができ、またはさらに代替的に、実装者は、ハードウェア、ソフトウェア、および/もしくはファームウェアの何らかの組合せを選択することができる。
上述の詳細な説明は、ブロック図、フローチャート、および/または例を用いてデバイスおよび/またはプロセスのさまざまな実施形態を説明した。そのようなブロック図、フローチャート、および/または例が1つまたは複数の機能および/またはオペレーションを含む場合、そのようなブロック図、フローチャート、または例の各機能および/またはオペレーションは、幅広いハードウェア、ソフトウェア、ファームウェア、またはそれらの事実上任意の組合せによって個々におよび/またはまとめて実装され得ることが当業者に理解されるであろう。一実施形態において、本明細書に記載された主題のいくつかの部分は、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、デジタル信号プロセッサ(DSP)、またはその他の集積された形態で実装され得る。しかし、当業者は、本明細書で開示された実施形態のいくつかの態様が、全体として、または一部、集積回路で、1つもしくは複数のコンピュータ上で動作する1つもしくは複数のコンピュータプログラムとして(たとえば、1つもしくは複数のコンピュータシステム上で動作する1つもしくは複数のプログラムとして)、1つもしくは複数のプロセッサ上で動作する1つもしくは複数のプログラムとして(たとえば、1つもしくは複数のマイクロプロセッサ上で動作する1つもしくは複数のプログラムとして)、ファームウェアとして、またはそれらの事実上任意の組合せとして等価的に実装され得ることと、回路を設計することならびに/またはソフトウェアおよび/もしくはファームウェアのためのコードを記述することは、本開示に照らして、十分に当業者の技能の範囲内にあることとを認識するであろう。
本開示は、さまざまな態様の例示として意図されている、本願に記載の特定の実施形態によって限定されてはならない。当業者に明らかであろうように、多くの修正および変更が、本開示の精神および範囲を逸脱することなしになされ得る。本明細書に列挙された方法および装置に加えて、本開示の範囲内の機能的に均等な方法および装置が、上述の説明から当業者に明らかであろう。そのような修正および変更は、添付の特許請求の範囲の範囲内に入るように意図される。本開示は、添付の特許請求の範囲に与えられた均等物の全範囲と併せた、そのような特許請求の範囲の請求項によってのみ限定されるべきである。本開示は、特定の方法、試薬、化合組成物、または生体システムに限定されず、これらはもちろん変わり得ることを理解されたい。本明細書で使用された用語は、特定の実施形態を説明することのみを目的としており、限定するように意図されていないことも理解されたい。
さらに、本明細書に記載された主題のメカニズムをさまざまな形式のプログラム製品として配布することができることを、当業者は理解するであろうし、本明細書に記載された主題の例示的な実施形態が、実際に配布を実行するために使用される信号伝達媒体の特定のタイプにかかわらず適用されることを、当業者は理解するであろう。信号伝達媒体の例には、フロッピーディスク、ハードディスクドライブ、コンパクトディスク(CD)、デジタルビデオディスク(DVD)、デジタルテープ、コンピュータメモリ、などの記録可能なタイプの媒体、ならびに、デジタル通信媒体および/またはアナログ通信媒体(たとえば、光ファイバケーブル、導波管、有線通信リンク、無線通信リンクなど)の通信タイプの媒体が含まれるが、それらには限定されない。
本明細書で説明したやり方で装置および/またはプロセスを記載し、その後そのように記載された装置および/またはプロセスを、データ処理システムに統合するためにエンジニアリング方式を使用することは、当技術分野で一般的であることを当業者は認識するであろう。すなわち、本明細書に記載された装置および/またはプロセスの少なくとも一部を、妥当な数の実験によってデータ処理システムに統合することができる。通常のデータ処理システムは、一般に、システムユニットハウジング、ビデオディスプレイ装置、揮発性メモリおよび不揮発性メモリなどのメモリ、マイクロプロセッサおよびデジタル信号プロセッサなどのプロセッサ、オペレーティングシステムなどの計算実体、ドライバ、グラフィカルユーザインタフェース、およびアプリケーションプログラムのうちの1つもしくは複数、タッチパッドもしくはスクリーンなどの1つもしくは複数の相互作用装置、ならびに/またはフィードバックループおよびコントロールモータを含むコントロールシステム(たとえば、ガントリーシステムの位置検知用および/もしくは速度検知用フィードバック、コンポーネントの移動用および/もしくは数量の調整用コントロールモータ)を含むことを、当業者は理解するであろう。
通常のデータ処理システムは、データコンピューティング/通信システムおよび/またはネットワークコンピューティング/通信システムの中に通常見られるコンポーネントなどの、市販の適切なコンポーネントを利用して実装することができる。本明細書に記載された主題は、さまざまなコンポーネントをしばしば例示しており、これらのコンポーネントは、他のさまざまなコンポーネントに包含されるか、または他のさまざまなコンポーネントに接続される。そのように図示されたアーキテクチャは、単に例示にすぎず、実際には、同じ機能を実現する多くの他のアーキテクチャが実装可能であることが理解されよう。概念的な意味で、同じ機能を実現するコンポーネントの任意の構成は、所望の機能が実現されるように効果的に「関連付け」される。したがって、特定の機能を実現するために組み合わされた、本明細書における任意の2つのコンポーネントは、アーキテクチャまたは中間のコンポーネントにかかわらず、所望の機能が実現されるように、お互いに「関連付け」されていると見ることができる。同様に、そのように関連付けされた任意の2つのコンポーネントは、所望の機能を実現するために、互いに「動作可能に接続」または「動作可能に結合」されていると見なすこともでき、そのように関連付け可能な任意の2つのコンポーネントは、所望の機能を実現するために、互いに「動作可能に結合できる」と見なすこともできる。動作可能に結合できる場合の具体例には、物理的に接続可能な、および/もしくは物理的に相互作用するコンポーネント、ならびに/またはワイヤレスに相互作用可能な、および/もしくはワイヤレスに相互作用するコンポーネント、ならびに/または論理的に相互作用する、および/もしくは論理的に相互作用可能なコンポーネントが含まれるが、それらに限定されない。
本明細書における実質的にすべての複数形および/または単数形の用語の使用に対して、当業者は、状況および/または用途に適切なように、複数形から単数形に、および/または単数形から複数形に変換することができる。さまざまな単数形/複数形の置き換えは、理解しやすいように、本明細書で明確に説明することができる。
通常、本明細書において、特に添付の特許請求の範囲(たとえば、添付の特許請求の範囲の本体部)において使用される用語は、全体を通じて「オープンな(open)」用語として意図されていることが、当業者には理解されよう(たとえば、用語「含む(including)」は、「含むがそれに限定されない(including but not limited to)」と解釈されるべきであり、用語「有する(having)」は、「少なくとも有する(having at least)」と解釈されるべきであり、用語「含む(includes)」は、「含むがそれに限定されない(includes but is not limited to)」と解釈されるべきである、など)。導入される請求項で具体的な数の記載が意図される場合、そのような意図は、当該請求項において明示的に記載されることになり、そのような記載がない場合、そのような意図は存在しないことが、当業者にはさらに理解されよう。たとえば、理解の一助として、添付の特許請求の範囲は、導入句「少なくとも1つの(at least one)」および「1つまたは複数の(one or more)」を使用して請求項の記載を導くことを含む場合がある。しかし、そのような句の使用は、同一の請求項が、導入句「1つまたは複数の」または「少なくとも1つの」および「a」または「an」などの不定冠詞を含む場合であっても、不定冠詞「a」または「an」による請求項の記載の導入が、そのように導入される請求項の記載を含む任意の特定の請求項を、単に1つのそのような記載を含む実施形態に限定する、ということを示唆していると解釈されるべきではない(たとえば、「a」および/または「an」は、「少なくとも1つの」または「1つまたは複数の」を意味すると解釈されるべきである)。同じことが、請求項の記載を導入するのに使用される定冠詞の使用にも当てはまる。また、導入される請求項の記載で具体的な数が明示的に記載されている場合でも、そのような記載は、少なくとも記載された数を意味すると解釈されるべきであることが、当業者には理解されよう(たとえば、他の修飾語なしでの「2つの記載(two recitations)」の単なる記載は、少なくとも2つの記載、または2つ以上の記載を意味する)。
さらに、「A、BおよびC、などの少なくとも1つ」に類似の慣例表現が使用されている事例では、通常、そのような構文は、当業者がその慣例表現を理解するであろう意味で意図されている(たとえば、「A、B、およびCの少なくとも1つを有するシステム」は、Aのみ、Bのみ、Cのみ、AおよびBを共に、AおよびCを共に、BおよびCを共に、ならびに/またはA、B、およびCを共に、などを有するシステムを含むが、それに限定されない)。「A、B、またはC、などの少なくとも1つ」に類似の慣例表現が使用されている事例では、通常、そのような構文は、当業者がその慣例表現を理解するであろう意味で意図されている(たとえば、「A、B、またはCの少なくとも1つを有するシステム」は、Aのみ、Bのみ、Cのみ、AおよびBを共に、AおよびCを共に、BおよびCを共に、ならびに/またはA、B、およびCを共に、などを有するシステムを含むが、それに限定されない)。2つ以上の代替用語を提示する事実上いかなる離接する語および/または句も、明細書、特許請求の範囲、または図面のどこにあっても、当該用語の一方(one of the terms)、当該用語のいずれか(either of the terms)、または両方の用語(both terms)を含む可能性を企図すると理解されるべきであることが、当業者にはさらに理解されよう。たとえば、句「AまたはB」は、「A」または「B」あるいは「AおよびB」の可能性を含むことが理解されよう。
さらに、本開示の特徴または態様がマーカッシュ群(Markush group)によって説明される場合、当業者は、本開示が、それによって、マーカッシュ群の任意の個々の構成要素または構成要素の部分群によっても説明されることを認めるであろう。
当業者に理解されるであろうように、書面で説明するという観点など、任意のおよびすべての趣旨で、本明細書で開示されたすべての範囲は、それらの範囲の任意のおよびすべてのあり得る部分的な範囲および部分的な範囲の組合せも包含する。どの記載された範囲も、同じ範囲が少なくとも2等分、3等分、4等分、5等分、10等分などに分割されることを十分に説明し、そのように分割されることを可能にすると容易に認識され得る。非限定的な例として、本明細書で検討された各範囲は、下3分の1、真ん中3分の1、および上3分の1などに容易に分割され得る。当業者にやはり理解されるであろうように、「最大で〜まで」、「少なくとも〜」、「〜よりも大きい」、「〜よりも小さい」などのすべての言い回しは、記載された数を含み、上で検討されたように部分的な範囲に続けて分割され得る範囲を指す。最後に、当業者に理解されるであろうように、範囲は、それぞれの個々の構成要素を含む。したがって、たとえば、1〜3個のセル(cell)を有する群は、1個、2個、または3個のセルを有する群を指す。同様に、1〜5個のセルを有する群は、1個、2個、3個、4個、または5個のセルを有する群を指し、以下同様である。
さまざまな態様および実施形態が本明細書において開示されたが、その他の態様および実施形態が、当業者には明らかになるであろう。本明細書において開示されたさまざまな態様および実施形態は、例示を目的としており、限定するように意図されておらず、その真の範囲および精神は、以下の特許請求の範囲によって示される。

Claims (28)

  1. 拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための方法であって、
    複数の追跡センサーのそれぞれのセンサーにおいて信号を受信することであって、前記複数の追跡センサーのそれぞれがブロードバンドセンシングネットワークの一部を形成し、受信信号が直接信号および/またはエコー信号のうちの1つまたは複数に対応し、各エコー信号が、前記関心のある物体によって散乱される前記直接信号のうちの対応する1つに関連する、受信することと、
    前記関心のある物体に関連するデータを生成するために前記受信信号を処理することであって、前記データが、関心のある物体に関連する位置パラメータおよび/または運動パラメータのうちの1つまたは複数に対応する、処理することと、
    前記位置パラメータおよび/または前記運動パラメータのうちの1つまたは複数を使用して、前記関心のある物体を含む現実のシーンを少なくとも1つの仮想的な物体で拡張することにより現実のシーンを拡張することとを含む、方法。
  2. 前記信号は、複数の送信ソースと通信する複数の無線通信デバイスに組み込まれた前記複数の追跡センサーで受信される請求項1に記載の方法。
  3. 前記直接信号は、TV放送塔、移動体通信用グローバルシステム(GSM)の塔、符号分割多元接続(CDMA)セルラ通信塔、振幅変調(AM)もしくは周波数変調(FM)放送塔、デジタル音声放送(DAB)のソース、デジタルビデオ放送−地上波(DVB−T)のソース、無線ローカルエリアネットワーク(WLAN)アクセスポイント、広域ネットワーク(WAN)アクセスポイント、メトロポリタンエリアネットワーク(MAN)アクセスポイント、および/またはパーソナルエリアネットワーク(PAN)アクセスポイントのうちの1つまたは複数を含む送信ソースから送信される請求項2に記載の方法。
  4. 前記受信信号は、TV信号、デジタルTV信号、GSM信号、CDMA信号、AM/FM信号、DAB信号、DVB−T信号、WLAN信号、WAN信号、MAN信号、および/またはPAN信号のうちの1つまたは複数に対応する請求項2に記載の方法。
  5. 前記受信信号を処理することは、
    前記受信信号を前処理すること、
    前記受信信号のそれぞれを、適応フィルタリングによって前記直接信号および/もしくは前記エコー信号のうちの1つもしくは複数として特定すること、
    前記直接信号および前記エコー信号のドップラースペクトルを導出すること、ならびに/または
    前記エコー信号の前記ドップラースペクトルの位相を補償することのうちの1つまたは複数を含む請求項1に記載の方法。
  6. 前記受信信号を前処理することは、信号補正、帯域幅の補正、信号加算平均、増幅、ダウンコンバート、および/またはデジタル化のうちの1つまたは複数を含む請求項5に記載の方法。
  7. 前記関心のある物体に関連するデータを生成するために前記受信信号を処理することは、位相補償された信号に対してビームフォーミングプロセスを使用して、前記関心のある物体に関連する位置および/または運動パラメータのうちの1つまたは複数を決定することを含む請求項5に記載の方法。
  8. 前記ビームフォーミングプロセスを使用することは、
    前記追跡センサーの数および位置を適応的に選択することをさらに含む請求項7に記載の方法。
  9. 前記信号は、対応する無線通信デバイスの通信ネットワークとは異なる無線ネットワークを介して通信可能に結合される前記追跡センサーから受信される請求項1に記載の方法。
  10. 前記無線通信デバイスのアンテナのダイバーシチによってマルチパスフェージングを軽減し、干渉を減らすように前記追跡センサーの前記無線ネットワークを動的に構成することをさらに含む請求項9に記載の方法。
  11. 拡張現実(AR)システムにおいて現実のシーン内の関心のある物体を追跡するためのシステムであって、
    複数の追跡センサーであって、それぞれの追跡センサーが、
    1つもしくは複数の対応する送信ソースに関連する直接信号、および/または前記関心のある物体から散乱された1つもしくは複数の直接信号に関連するエコー信号のうちの1つまたは複数に対応する信号を受信し、
    受信信号を前処理するように構成された、複数の追跡センサーと、
    前記関心のある物体に関連するキャプチャーされた2D画像に基づいて画像情報を導出するように構成された画像処理サーバと、
    リアリティサーバであって、
    無線ネットワークを介して前記複数の追跡センサーと通信し、
    前処理された信号を受信し、
    前記前処理された信号に基づいて前記関心のある物体を追跡し、
    前記関心のある物体の追跡および前記画像情報に基づいて前記現実のシーンを拡張するように構成されたリアリティサーバとを含む、システム。
  12. 各追跡センサーは、
    受信された直接信号を処理してマルチパス干渉を軽減するように構成されたブラインドチャネル等化器と、
    受信されたエコー信号を処理して抑制クラッターを生成するように構成された適応フィルタと、
    各直接信号と各エコー信号の相互相関をとってドップラースペクトル信号を生成するように構成された相関器とを含む請求項11に記載のシステム。
  13. 前記ブラインドチャネル等化器、前記適応フィルタ、および/または前記相関器の1つまたは複数の機能は、デジタル信号プロセッサによって提供される請求項12に記載のシステム。
  14. 前記リアリティサーバは、
    前記追跡センサーから受信された前記前処理された信号の位相を補償するように構成された位相補償モジュールと、
    位相補償された信号に基づいて前記関心のある物体に関する位置および/または運動パラメータのうちの1つまたは複数を決定するように構成された追跡/測位モジュールと、
    前記関心のある物体の位置/運動情報および前記画像情報に基づいて1つまたは複数の仮想的な物体を生成するように構成されたリアリティエンジンと、
    前記現実のシーンを前記1つまたは複数の仮想的な物体で拡張するように構成された画像ジェネレータとを含む請求項11に記載のシステム。
  15. 拡張された現実のシーンの視覚化を行うように構成された視覚化デバイスをさらに含む請求項11に記載のシステム。
  16. 前記視覚化デバイスは、ヘッドマウントディスプレイ、仮想網膜ディスプレイ、および/またはモニタを1つまたは複数を含む請求項15に記載のシステム。
  17. 前記追跡センサーの一部は、同じ種類の通信を受信するように構成された同種のセンサーであり、前記追跡センサーの別の一部は、異なる種類の送信を受信するように構成された異種のセンサーである請求項11に記載のシステム。
  18. 前記リアリティサーバは、アンテナの合成されたアレーを校正するようにさらに構成され、前記アンテナの合成されたアレーは、前記追跡センサーのそれぞれからのアンテナを含み、前記追跡センサーのそれぞれは、位置に基づくサービスを使用するように構成される請求項11に記載のシステム。
  19. 拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための装置であって、アンテナおよび追跡センサーを含む無線通信デバイスを含み、前記無線通信デバイスは、
    1つもしくは複数の送信ソースからの直接信号、または前記直接信号のうちの1つもしくは複数の結果として前記関心のある物体のうちの1つもしくは複数から散乱されるエコー信号、のうちの1つまたは複数に対応する信号を前記アンテナで受信し、
    受信信号を前処理して1つまたは複数の周波数領域の信号を取得し、
    前記1つまたは複数の周波数領域の信号の位相を補償して位相補償された信号を生成し、
    前記位相補償された信号から前記関心のある物体のうちの1つまたは複数に関連する位置および/または運動情報を導出するように構成される、装置。
  20. 前記無線通信デバイスは、信号補正、帯域幅の補正、信号加算平均、増幅、ダウンコンバート、および/またはデジタル化のうちの1つまたは複数を適用することによって前記受信信号を前処理するように構成される請求項19に記載の装置。
  21. 前記送信ソースは、TV放送塔、移動体通信用グローバルシステム(GSM)の塔、符号分割多元接続(CDMA)セルラ通信塔、振幅変調(AM)もしくは周波数変調(FM)放送塔、デジタル音声放送(DAB)のソース、デジタルビデオ放送−地上波(DVB−T)のソース、無線ローカルエリアネットワーク(WLAN)アクセスポイント、広域ネットワーク(WAN)アクセスポイント、メトロポリタンエリアネットワーク(MAN)アクセスポイント、および/またはパーソナルエリアネットワーク(PAN)アクセスポイントのうちの1つまたは複数を含み、前記無線通信デバイスは、TV受信機、デジタルTV受信機、GSMデバイス、CDMAデバイス、AM/FM受信機、DABデバイス、DVB−Tデバイス、WLANデバイス、WANデバイス、MANデバイス、および/またはPANデバイスのうちの1つまたは複数を含む請求項19に記載の装置。
  22. 拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための装置であって、
    メモリと、
    前記メモリに結合されたプロセッサであって、プロセッサが、
    対応するAR対応無線デバイスの通信ネットワークとは異なる無線ネットワークを介して、AR対応無線デバイスに組み込まれた複数の追跡センサーと通信し、
    前記追跡センサーの数および位置を適応的に選択し、
    直接信号、および/または前記直接信号が前記関心のある1つまたは複数の物体によって反射されることによって生じるエコー信号、のうちの1つまたは複数に対応する、前記追跡センサーによって検出される前処理された信号を受信し、
    受信信号にビームフォーミングプロセスを適用して、前記関心のある物体のうちの1つまたは複数に関する位置および運動パラメータを推定するように構成されるようにARエンジンを、前記メモリと連携して実行するように構成されたプロセッサとを含む、装置。
  23. 前記プロセッサは、異なる周波数を有する送信ソース、異なる帯域幅を有する送信ソース、および/または異なるアンテナパターンを有する送信ソースのうちの1つまたは複数に関連する追跡センサーを前記ビームフォーミングプロセスにより選択し、それによって、ダイバーシチ利得が向上されるようにさらに構成される請求項22に記載の装置。
  24. 前記プロセッサは、ARアプリケーションに前記関心のある1つまたは複数の物体に関する推定された位置および運動パラメータを前記ARエンジンにより提供するようにさらに構成され、前記ARアプリケーションは、前記関心のある物体に関する前記推定された位置および運動パラメータと前記関心のある物体のデジタル化された画像とに基づいて生成された仮想的な物体を重ね合わせることによって拡張現実シーンを生成するように構成される請求項22に記載の装置。
  25. 拡張現実(AR)システムにおいて関心のある1つまたは複数の物体を追跡するための命令を記憶するコンピュータ可読ストレージ媒体であって、前記命令は、
    1つもしくは複数の送信ソースからの直接信号、または前記直接信号のうちの1つもしくは複数の結果として前記関心のある物体のうちの1つもしくは複数から散乱されるエコー信号のうちの1つまたは複数を、前記追跡センサーを含む無線デバイスに関連する送信ソースから追跡センサーにおいて受信することと、
    前記追跡センサーにおいて受信信号を前処理することと、
    それぞれの前処理された直接およびエコー信号の相互相関をとることに基づいて周波数スペクトル信号を導出することと、
    位相補償モジュールで複数の追跡センサーから受信された周波数スペクトル信号の組の位相を補償することと、
    前記複数の追跡センサーの数および位置を適応的に選択することによって、位相補償された信号から前記関心のある物体のうちの1つまたは複数に関連する位置および/または運動情報を追跡/測位モジュールで導出することとを含む、コンピュータ可読ストレージ媒体。
  26. 前記命令は、
    マルチパス干渉を軽減するために、受信された直接信号にブラインドチャネル等化を適用することと、
    抑制クラッターを生成するために、受信されたエコー信号を適応フィルタリングすることとをさらに含む請求項25に記載のコンピュータ可読ストレージ媒体。
  27. 前記命令は、
    ARクライアントアプリケーションを実行する無線デバイスに前記追跡情報を送信することをさらに含む請求項25に記載のコンピュータ可読ストレージ媒体。
  28. 前記命令は、
    前記無線デバイスのアンテナのダイバーシチによってマルチパスフェージングを軽減し、干渉を減らすように前記無線デバイスのネットワークを動的に構成することをさらに含む請求項25に記載のコンピュータ可読ストレージ媒体。
JP2012546267A 2010-03-08 2011-02-25 拡張現実のためのブロードバンドパッシブ追跡 Pending JP2013515275A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/719,797 2010-03-08
US12/719,797 US8610771B2 (en) 2010-03-08 2010-03-08 Broadband passive tracking for augmented reality
PCT/US2011/026298 WO2011152902A1 (en) 2010-03-08 2011-02-25 Broadband passive tracking for augmented reality

Publications (1)

Publication Number Publication Date
JP2013515275A true JP2013515275A (ja) 2013-05-02

Family

ID=44531011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012546267A Pending JP2013515275A (ja) 2010-03-08 2011-02-25 拡張現実のためのブロードバンドパッシブ追跡

Country Status (5)

Country Link
US (2) US8610771B2 (ja)
JP (1) JP2013515275A (ja)
KR (3) KR101445996B1 (ja)
CN (1) CN102656474B (ja)
WO (1) WO2011152902A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020521945A (ja) * 2017-05-31 2020-07-27 グーグル エルエルシー 無線通信チップセットを使用するレーダー感知のためのデジタルビーム形成
US11079470B2 (en) 2017-05-31 2021-08-03 Google Llc Radar modulation for radar sensing using a wireless communication chipset
US11598844B2 (en) 2017-05-31 2023-03-07 Google Llc Full-duplex operation for radar sensing using a wireless communication chipset
US11740680B2 (en) 2019-06-17 2023-08-29 Google Llc Mobile device-based radar system for applying different power modes to a multi-mode interface
JP7381263B2 (ja) 2019-09-12 2023-11-15 セコム株式会社 検出システム及び検出方法

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100306825A1 (en) 2009-05-27 2010-12-02 Lucid Ventures, Inc. System and method for facilitating user interaction with a simulated object associated with a physical location
JP5645928B2 (ja) * 2009-06-19 2014-12-24 コーダ ワイヤレス ピーティーワイ リミテッドCohda Wireless Pty Ltd 無線通信システムにおける環境評価
KR20120053420A (ko) * 2010-11-17 2012-05-25 삼성전자주식회사 디바이스 제어 시스템 및 방법
US9563265B2 (en) 2012-01-12 2017-02-07 Qualcomm Incorporated Augmented reality with sound and geometric analysis
US9625720B2 (en) * 2012-01-24 2017-04-18 Accipiter Radar Technologies Inc. Personal electronic target vision system, device and method
US20130297460A1 (en) 2012-05-01 2013-11-07 Zambala Lllp System and method for facilitating transactions of a physical product or real life service via an augmented reality environment
CN103457887A (zh) * 2012-06-04 2013-12-18 西安秦码软件科技有限公司 基于仿射投影算法构建超宽带信道均衡器模型
WO2014009786A1 (en) * 2012-07-10 2014-01-16 Gorodetski Reuven System and method for receipt acquisition
US8868474B2 (en) * 2012-08-01 2014-10-21 Empire Technology Development Llc Anomaly detection for cloud monitoring
CN103814382B (zh) * 2012-09-14 2016-10-05 华为技术有限公司 移动终端的增强现实处理方法及装置
US20150319634A1 (en) * 2012-10-18 2015-11-05 Gil Zwirn Acquiring information regarding a volume using wireless networks
WO2014162166A1 (en) * 2013-03-30 2014-10-09 Qatar University Qstp-B System and methods for detection and tracking of wireless enabled objects
US9544534B2 (en) * 2013-09-24 2017-01-10 Motorola Solutions, Inc. Apparatus for and method of identifying video streams transmitted over a shared network link, and for identifying and time-offsetting intra-frames generated substantially simultaneously in such streams
US9647345B2 (en) * 2013-10-21 2017-05-09 Elwha Llc Antenna system facilitating reduction of interfering signals
US20150154800A1 (en) * 2013-12-04 2015-06-04 Glen J. Anderson Augmented reality viewing initiation based on social behavior
US9437000B2 (en) * 2014-02-20 2016-09-06 Google Inc. Odometry feature matching
US9761049B2 (en) * 2014-03-28 2017-09-12 Intel Corporation Determination of mobile display position and orientation using micropower impulse radar
US9092898B1 (en) 2014-07-03 2015-07-28 Federico Fraccaroli Method, system and apparatus for the augmentation of radio emissions
US10871561B2 (en) 2015-03-25 2020-12-22 Urthecast Corp. Apparatus and methods for synthetic aperture radar with digital beamforming
EP3104330B1 (de) * 2015-06-09 2019-02-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zum nachverfolgen zumindest eines objektes und verfahren zum ersetzen zumindest eines objektes durch ein virtuelles objekt in einem von einer kamera aufgenommenen bewegtbildsignal
US10615513B2 (en) 2015-06-16 2020-04-07 Urthecast Corp Efficient planar phased array antenna assembly
KR102402048B1 (ko) 2015-10-14 2022-05-26 삼성전자주식회사 전자 장치 및 그 제어 방법
US10955546B2 (en) 2015-11-25 2021-03-23 Urthecast Corp. Synthetic aperture radar imaging apparatus and methods
CN108780228B (zh) 2016-01-19 2021-04-20 奇跃公司 利用映像的增强现实系统和方法
AU2017257549B2 (en) 2016-04-26 2021-09-09 Magic Leap, Inc. Electromagnetic tracking with augmented reality systems
TWI669633B (zh) * 2016-06-04 2019-08-21 英屬維爾京群島商創意點子數位股份有限公司(B.V.I) Mixed reality interaction method and system thereof
US10254546B2 (en) 2016-06-06 2019-04-09 Microsoft Technology Licensing, Llc Optically augmenting electromagnetic tracking in mixed reality
US9720086B1 (en) 2016-11-22 2017-08-01 4Sense, Inc. Thermal- and modulated-light-based passive tracking system
US9638800B1 (en) 2016-11-22 2017-05-02 4Sense, Inc. Passive tracking system
US11506778B2 (en) 2017-05-23 2022-11-22 Spacealpha Insights Corp. Synthetic aperture radar imaging apparatus and methods
CA3064586A1 (en) 2017-05-23 2018-11-29 King Abdullah City Of Science And Technology Synthetic aperture radar imaging apparatus and methods for moving targets
WO2019226194A2 (en) 2017-11-22 2019-11-28 Urthecast Corp. Synthetic aperture radar apparatus and methods
EP4040691A1 (en) * 2018-03-09 2022-08-10 Isotropic Systems Ltd Dynamic interference reduction for antenna beam tracking systems
US10318811B1 (en) * 2018-04-22 2019-06-11 Bubbler International Llc Methods and systems for detecting objects by non-visible radio frequencies and displaying associated augmented reality effects
JP7319303B2 (ja) * 2018-05-31 2023-08-01 マジック リープ, インコーポレイテッド レーダ頭部姿勢位置特定
CN112567637B (zh) 2018-06-01 2023-08-01 X开发有限责任公司 智能跟踪系统及其方法和系统
CN112513661A (zh) * 2018-07-26 2021-03-16 昕诺飞控股有限公司 用于配置跟踪系统的方法、跟踪系统、包含跟踪系统和计算机程序的照明系统
RU2700688C1 (ru) 2018-09-24 2019-09-19 Самсунг Электроникс Ко., Лтд. Способы калибровки каналов фазированной антенной решетки
US11169382B2 (en) * 2019-01-25 2021-11-09 Valve Corporation Wireless data transport system for head-mounted displays
US10893329B1 (en) 2019-09-03 2021-01-12 International Business Machines Corporation Dynamic occlusion of livestreaming
CN111077521B (zh) * 2019-12-25 2023-07-18 中国科学院上海微系统与信息技术研究所 一种动态检测对象的成像补偿方法、装置、设备和介质
US10893302B1 (en) 2020-01-09 2021-01-12 International Business Machines Corporation Adaptive livestream modification
CN115299013B (zh) * 2020-03-26 2024-02-09 华为技术有限公司 一种信道跟踪方法及其相关设备
US10911085B1 (en) * 2020-04-27 2021-02-02 America as represented by the Secretary of the Army Method and apparatus for performing signal augmentation
KR20210137826A (ko) * 2020-05-11 2021-11-18 삼성전자주식회사 증강현실 생성장치, 증강현실 표시장치 및 증강현실 시스템
WO2022119366A1 (ko) * 2020-12-04 2022-06-09 삼성전자주식회사 안테나를 포함하는 전자 장치

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002181925A (ja) * 2000-12-18 2002-06-26 Mitsubishi Electric Corp パッシブレーダ装置
JP2003256876A (ja) * 2002-03-04 2003-09-12 Sony Corp 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム
JP2004526166A (ja) * 2001-05-04 2004-08-26 ロッキード・マーティン・コーポレイション 高度推定システムおよび方法
JP2005517190A (ja) * 2002-02-08 2005-06-09 ロッキード・マーティン・コーポレイション デブリ追跡においてドップラー追跡を相関付けるシステムおよび方法
JP2006048484A (ja) * 2004-08-06 2006-02-16 Advanced Telecommunication Research Institute International デザイン支援装置
JP2008064673A (ja) * 2006-09-08 2008-03-21 Mitsubishi Electric Corp パッシブレーダ装置
JP2008157761A (ja) * 2006-12-25 2008-07-10 Mitsubishi Electric Corp レーダ装置
JP2009008674A (ja) * 2007-06-15 2009-01-15 Itt Manufacturing Enterprises Inc 相対的な追跡のための方法およびシステム
WO2009128859A1 (en) * 2008-04-18 2009-10-22 Sony Ericsson Mobile Communications Ab Augmented reality enhanced audio
JP2010040037A (ja) * 2008-06-30 2010-02-18 Total Immersion ユーザと拡張現実場面との相互作用を実時間で検出する方法及びデバイス

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4137532A (en) * 1977-04-29 1979-01-30 Westinghouse Electric Corp. VIP doppler filter bank signal processor for pulse doppler radar
US5347541A (en) * 1992-11-02 1994-09-13 The Regents Of The Univ. Of California Apparatus and method for utilizing a blind equalizer based on a Bayesian symbol sequence estimator for use in digital communication
US6947571B1 (en) * 1999-05-19 2005-09-20 Digimarc Corporation Cell phones with optical capabilities, and related applications
US6865477B2 (en) * 1994-05-31 2005-03-08 Winged Systems Corporation High resolution autonomous precision positioning system
US5828944A (en) * 1996-01-11 1998-10-27 Illinois Superconductor Corporation Diversity reception signal processing system
US6176837B1 (en) * 1998-04-17 2001-01-23 Massachusetts Institute Of Technology Motion tracking system
US7035897B1 (en) * 1999-01-15 2006-04-25 California Institute Of Technology Wireless augmented reality communication system
US6578017B1 (en) * 1999-02-26 2003-06-10 Information Decision Technologies, Llc Method to aid object detection in images by incorporating contextual information
US6500008B1 (en) * 1999-03-15 2002-12-31 Information Decision Technologies, Llc Augmented reality-based firefighter training system and method
US20020191004A1 (en) * 2000-08-09 2002-12-19 Ebersole John Franklin Method for visualization of hazards utilizing computer-generated three-dimensional representations
US6961070B1 (en) * 2000-02-25 2005-11-01 Information Decision Technologies, Llc Method to graphically represent weapon effectiveness footprint
US20020196202A1 (en) * 2000-08-09 2002-12-26 Bastian Mark Stanley Method for displaying emergency first responder command, control, and safety information using augmented reality
US6901389B1 (en) * 2000-02-25 2005-05-31 Information Decision Technologies, Llc Method to augment imagery to display 3-D probabilistic object locations
US20030210228A1 (en) * 2000-02-25 2003-11-13 Ebersole John Franklin Augmented reality situational awareness system and method
US6866512B2 (en) * 2000-03-15 2005-03-15 Information Decision Technologies, Llc Ruggedized instrumented firefighter's vari-nozzle
US7110013B2 (en) * 2000-03-15 2006-09-19 Information Decision Technology Augmented reality display integrated with self-contained breathing apparatus
US7057582B2 (en) * 2000-03-15 2006-06-06 Information Decision Technologies, Llc Ruggedized instrumented firefighter's self contained breathing apparatus
US6607038B2 (en) * 2000-03-15 2003-08-19 Information Decision Technologies, Llc Instrumented firefighter's nozzle and method
US6903707B2 (en) * 2000-08-09 2005-06-07 Information Decision Technologies, Llc Method for using a motorized camera mount for tracking in augmented reality
US6760026B2 (en) * 2001-01-02 2004-07-06 Microsoft Corporation Image-based virtual reality player with integrated 3D graphics objects
US6822648B2 (en) * 2001-04-17 2004-11-23 Information Decision Technologies, Llc Method for occlusion of movable objects and people in augmented reality scenes
US6594616B2 (en) * 2001-06-18 2003-07-15 Microsoft Corporation System and method for providing a mobile input device
US20030014212A1 (en) * 2001-07-12 2003-01-16 Ralston Stuart E. Augmented vision system using wireless communications
US6903752B2 (en) * 2001-07-16 2005-06-07 Information Decision Technologies, Llc Method to view unseen atmospheric phenomenon using augmented reality
US7262747B2 (en) * 2001-08-09 2007-08-28 Information Decision Technologies, Llc Method and apparatus for using thermal imaging and augmented reality
US7071898B2 (en) * 2002-07-18 2006-07-04 Information Decision Technologies, Llc Method for using a wireless motorized camera mount for tracking in augmented reality
US7046214B2 (en) * 2003-12-17 2006-05-16 Information Decision Technologies, Llc Method and system for accomplishing a scalable, multi-user, extended range, distributed, augmented reality environment
EP1423834A1 (en) 2001-08-09 2004-06-02 Information Decision Technologies LLC Augmented reality-based firefighter training system and method
US7126558B1 (en) * 2001-10-19 2006-10-24 Accenture Global Services Gmbh Industrial augmented reality
US20030132283A1 (en) * 2002-01-15 2003-07-17 Hobgood Andrew Wesley Method for utilizing smart cards for storing training and simulation information
EP1466300A1 (en) 2002-01-15 2004-10-13 Information Decision Technologies LLC Method and system to display both visible and invisible hazards and hazard information
US7042421B2 (en) * 2002-07-18 2006-05-09 Information Decision Technologies, Llc. Method for advanced imaging in augmented reality
US7138963B2 (en) * 2002-07-18 2006-11-21 Metamersion, Llc Method for automatically tracking objects in augmented reality
US20050121031A1 (en) * 2002-08-06 2005-06-09 Ebersole John F.Jr. Impact-protected advanced ruggedized augmented reality instrumented self contained breathing apparatus
US7034779B2 (en) * 2002-08-06 2006-04-25 Information Decision Technologeis, Llc Advanced ruggedized augmented reality instrumented self contained breathing apparatus
US7333135B2 (en) * 2002-10-15 2008-02-19 Fuji Xerox Co., Ltd. Method, apparatus, and system for remotely annotating a target
US20040100402A1 (en) * 2002-11-26 2004-05-27 Mccandless Jay Broadband CSC2 antenna pattern beam forming networks
US7576727B2 (en) * 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
US7319878B2 (en) * 2004-06-18 2008-01-15 Qualcomm Incorporated Method and apparatus for determining location of a base station using a plurality of mobile stations in a wireless mobile network
US7804981B2 (en) * 2005-01-13 2010-09-28 Sensis Corporation Method and system for tracking position of an object using imaging and non-imaging surveillance devices
US20060227998A1 (en) * 2005-03-29 2006-10-12 Hobgood Andrew W Method for using networked programmable fiducials for motion tracking
US20070132785A1 (en) * 2005-03-29 2007-06-14 Ebersole John F Jr Platform for immersive gaming
US8838289B2 (en) * 2006-04-19 2014-09-16 Jed Margolin System and method for safely flying unmanned aerial vehicles in civilian airspace
US8289159B2 (en) * 2006-04-26 2012-10-16 Qualcomm Incorporated Wireless localization apparatus and method
US7628074B2 (en) * 2007-03-15 2009-12-08 Mitsubishi Electric Research Laboratories, Inc. System and method for motion capture in natural environments
BRPI0816925B8 (pt) 2007-09-13 2021-06-22 Univ Missouri funil de luz de iluminação, funil de captação de luz e aparelho
KR100900806B1 (ko) * 2007-11-01 2009-06-04 광주과학기술원 컨텍스트 인식 증강 현실을 제공하기 위한 시스템 및 방법
US8045419B1 (en) * 2009-10-15 2011-10-25 The United States Of America As Represented By The Secretary Of The Navy Method for mitigating spatial aliasing

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002181925A (ja) * 2000-12-18 2002-06-26 Mitsubishi Electric Corp パッシブレーダ装置
JP2004526166A (ja) * 2001-05-04 2004-08-26 ロッキード・マーティン・コーポレイション 高度推定システムおよび方法
JP2005517190A (ja) * 2002-02-08 2005-06-09 ロッキード・マーティン・コーポレイション デブリ追跡においてドップラー追跡を相関付けるシステムおよび方法
JP2003256876A (ja) * 2002-03-04 2003-09-12 Sony Corp 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム
JP2006048484A (ja) * 2004-08-06 2006-02-16 Advanced Telecommunication Research Institute International デザイン支援装置
JP2008064673A (ja) * 2006-09-08 2008-03-21 Mitsubishi Electric Corp パッシブレーダ装置
JP2008157761A (ja) * 2006-12-25 2008-07-10 Mitsubishi Electric Corp レーダ装置
JP2009008674A (ja) * 2007-06-15 2009-01-15 Itt Manufacturing Enterprises Inc 相対的な追跡のための方法およびシステム
WO2009128859A1 (en) * 2008-04-18 2009-10-22 Sony Ericsson Mobile Communications Ab Augmented reality enhanced audio
JP2010040037A (ja) * 2008-06-30 2010-02-18 Total Immersion ユーザと拡張現実場面との相互作用を実時間で検出する方法及びデバイス

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020521945A (ja) * 2017-05-31 2020-07-27 グーグル エルエルシー 無線通信チップセットを使用するレーダー感知のためのデジタルビーム形成
US11079470B2 (en) 2017-05-31 2021-08-03 Google Llc Radar modulation for radar sensing using a wireless communication chipset
JP7082986B2 (ja) 2017-05-31 2022-06-09 グーグル エルエルシー 無線通信チップセットを使用するレーダー感知のためのデジタルビーム形成
US11598844B2 (en) 2017-05-31 2023-03-07 Google Llc Full-duplex operation for radar sensing using a wireless communication chipset
US11740680B2 (en) 2019-06-17 2023-08-29 Google Llc Mobile device-based radar system for applying different power modes to a multi-mode interface
JP7381263B2 (ja) 2019-09-12 2023-11-15 セコム株式会社 検出システム及び検出方法

Also Published As

Publication number Publication date
KR101677813B1 (ko) 2016-11-18
KR101445996B1 (ko) 2014-09-29
WO2011152902A1 (en) 2011-12-08
KR101476513B1 (ko) 2014-12-24
US20140085483A1 (en) 2014-03-27
US8610771B2 (en) 2013-12-17
US20110216192A1 (en) 2011-09-08
CN102656474A (zh) 2012-09-05
KR20120081237A (ko) 2012-07-18
KR20140028116A (ko) 2014-03-07
US9390503B2 (en) 2016-07-12
CN102656474B (zh) 2015-04-22
KR20130114259A (ko) 2013-10-16

Similar Documents

Publication Publication Date Title
US9390503B2 (en) Broadband passive tracking for augmented reality
Wang et al. Push the limit of acoustic gesture recognition
Witrisal et al. High-accuracy localization for assisted living: 5G systems will turn multipath channels from foe to friend
Zhang et al. Unlocking the beamforming potential of lora for long-range multi-target respiration sensing
Cai et al. Ubiquitous acoustic sensing on commodity iot devices: A survey
CN110869980B (zh) 将内容分发和呈现为球形视频和3d资产组合
Emokpae et al. UREAL: Underwater reflection-enabled acoustic-based localization
Celebi et al. Enabling location and environment awareness in cognitive radios
JP2010014700A (ja) 画像レーダ装置
WO2021003405A1 (en) System and method for sparse distributed rendering
US20230144796A1 (en) Estimating direction of arrival of electromagnetic energy using machine learning
Liu et al. PAMT: Phase-based acoustic motion tracking in multipath fading environments
CN116347326A (zh) 目标定位感知方法、装置、通信设备和存储介质
US11474194B2 (en) Controlling a device by tracking movement of hand using acoustic signals
Ge et al. Acoustic strength-based motion tracking
JP5969818B2 (ja) 行動検出システム
CN111077515B (zh) 一种基于模拟电视外辐射源雷达的目标检测方法
CN110133584B (zh) 一种基于无源反射信号高精度实时手写轨迹追踪方法
Silva et al. Body attenuation and path loss exponent estimation for RSS-based positioning in WSN
Gong et al. High-accuracy positioning services for high-speed vehicles in wideband mmwave communications
Yang et al. Fog-enabled smart home and user behavior recognition
Martinson et al. Dynamically reconfigurable microphone arrays
Famili Precise Geolocation for Drones, Metaverse Users, and Beyond: Exploring Ranging Techniques Spanning 40 KHz to 400 GHz
Qiu-Fu et al. Hyperspectral image compression algorithm with maximum error controlled based on clustering
CN116939636A (zh) 模型有效性反馈方法、装置、终端及网络侧设备

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130925

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140902