JP5430882B2 - 相対的な追跡のための方法およびシステム - Google Patents

相対的な追跡のための方法およびシステム Download PDF

Info

Publication number
JP5430882B2
JP5430882B2 JP2008154734A JP2008154734A JP5430882B2 JP 5430882 B2 JP5430882 B2 JP 5430882B2 JP 2008154734 A JP2008154734 A JP 2008154734A JP 2008154734 A JP2008154734 A JP 2008154734A JP 5430882 B2 JP5430882 B2 JP 5430882B2
Authority
JP
Japan
Prior art keywords
mobile
tracking
moving body
coordinate system
world coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008154734A
Other languages
English (en)
Other versions
JP2009008674A (ja
Inventor
バイヨ ヨハン
Original Assignee
エクセリス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エクセリス インコーポレイテッド filed Critical エクセリス インコーポレイテッド
Publication of JP2009008674A publication Critical patent/JP2009008674A/ja
Application granted granted Critical
Publication of JP5430882B2 publication Critical patent/JP5430882B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/53Determining attitude
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0294Trajectory determination or predictive filtering, e.g. target tracking or Kalman filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Studio Devices (AREA)

Description

(発明の分野)
本発明は、人または物体が正確な自己追跡に対するシステムを携帯することが可能ではないか、または実用的ではないことがあり得る場合の人または物体の追跡に関する。
(発明の背景)
追跡は、所与の空間における人または物体の位置およびしばしば向きの、1つまたは一群のセンサによる測定である。
追跡は、例えば、コンピュータで生成されたデータおよび/またはイメージが、所与の場面の現実世界の視界と組み合わせられる拡張現実(Augmented Reality)(「AR」)の一般的な分野の重要な局面である。AR適用は、例えば、消防研修生が、「火の粒子」に向かって消火剤を「スプレー」し得る消防士に対する訓練の場を刺激し得る。研修生は、頭に取り付けられたディスプレイと共にヘルメットをかぶり、頭に取り付けられたディスプレイを通して研修生は、現実世界の場面を観察し得る。コンピュータが頭に取り付けられたディスプレイと通信し、現実世界の場面と重ねられ、消防研修生が頭をどのように動かすかに関わらず、現実世界の場面と正しく位置合わせされている画像(「スプレイ」および「火の粒子」を含む)を生成する。従って、例えば、消防研修生が、地面に向かって俯くとき、コンピュータは炎の適切な画像を生成し得、それは次に現実世界の場面または視界に重ねられ、消防士が見上げるとき、コンピュータは、渦巻く煙の画像を生成し得、同じものを現実世界の場面または視界に重ね得る。このようにして、いかなる構造物も燃やす必要なく、可燃物を消費する必要なく、不必要に人員(特に訓練を受けていない人員)を危険な場所に置く必要もなく、完全な訓練の場が実行され得る。
適切なイメージを適切な時にユーザに提供し、上述されたような消防訓練実習を有用なものにするためには、ユーザの頭の位置および向き(ときどき「ポーズ」と称される)、従って視線を密接にかつ継続的に追跡することが、適切なイメージをユーザに生成して表示するために必要であることを当業者は理解する。従って、正確な追跡が、拡張現実システムの実行において非常に重要である。実際、所与の適用に対して使用される追跡技術が、充分に正確な追跡情報またはデータを生成し得ない場合、結果として生じるコンピュータ生成イメージは、そのようなイメージは現実世界の視界または場面に対して不適当に位置合わせされ得るという意味で、実際ユーザにとって助けになるよりも、妨害または精神の集中を乱すものとなり得る。
ユーザが見ることを予期するものの粒度が増加するにつれて、正確な追跡がさらに重要になる。例えば、ARはときどき、例えば、ユーザの視界内での複雑な機械的なデバイス(例えばエンジン)の選択された部分のアウトラインが、デバイスの現実世界の視界に重ねられるような他の形式の訓練実習に対して使用される。従って、ユーザの頭の向きにおける非常にわずかな変化でさえも、視界および、結果として、現実世界の視界と組み合わせられるコンピュータ生成イメージを、実質的に変化させる。従って、全般的に改良され、しかも拡張現実システム関連において特定の有用性も有する追跡システムおよび方法を提供する必要がある。
本発明の実施形態は、システムおよび方法であって、該システムおよび方法を介して、比較的小さな移動体、例えば人または小さな物体によって搬送され得るものと比較して、比較的より精巧な、より正確な、かつ/またはより重い追跡機器を搬送し得る比較的大きな移動体の追跡能力を利用することによって、人または物体が、例えば準備されていない環境の中で追跡され得る、システムおよび方法を提供する。
1つの可能な実装により、ワールド座標系での第1の移動体の位置および向きが確立される方法が提供される。本発明において使用されるように、「ワールド座標」または「ワールド座標系」は、地球に取り付けられた基点/原点に対して表現された1つの3D位置座標または3D位置座標のセットを意味する。一例は、地球の中心に対する2つの角度(緯度/経度)および高さ(高度)として表現された球面の座標である測地線座標である。好ましくは、第1の移動体には、ワールド座標系において追跡情報を生み出すように動作可能である第1の追跡システムが装備されている。第2の移動体の位置は、第1の移動体に取り付けられるか、またはその近くにある第2の追跡システムを使用して、第1の移動体に対して追跡され、第1の移動体に対する座標系内にある追跡情報が生み出される。本発明の好ましい局面において、第2の移動体は、第1の移動体の任意の構造的領域の外側で操作される。このようにして、人を含み得る第2の移動体は、予め構成された環境の外側で自由に働く。
ワールド座標系での第2の移動体の位置および向き(すなわち追跡もしくはポーズ情報またはデータ)を獲得するために、ワールド座標系での第1の移動体の追跡情報は、第1の移動体に対する座標系での第2の移動体の追跡情報と組み合わせられる。ワールド座標系での第2の移動体の結果として生じる位置および向きは次に、例えば、より正確な追跡情報が望まれ得る拡張現実システムとの関連で使用され得る。例えば、本発明の実施形態により、第2の移動体の追跡情報が、第1の移動体に対して利用可能であるより正確な追跡情報と組み合わせられるとき、向きにおいて1度を下回り、位置において0.1メートルを下回ることが達成可能であり、第1の移動体は、例えば全地球測位システム(GPS)を使用して正確に追跡され得るトラック、または他の大きな構造体であり得る。
本発明は、拡張現実システムに対する適用可能性を有するので、第2の移動体は、頭に取り付けられたディスプレイを含み得る。
第1の移動体に取り付けられるか、またはその近くにある光学短距離トラッカー(optical short range tracker)は、第2の移動体の後を追って(手動でまたは自動的に)第1の移動体に対する第2の移動体を追跡するように構成され得る。
本発明は、さらに以下の手段を提供する。
(項目1)
追跡方法であって、
ワールド座標系で第1の移動体の位置および向きを確立することであって、該第1の移動体には、該ワールド座標系で追跡情報を生み出すように動作可能である第1の追跡システムが装備されている、ことと、
該第1の移動体に取り付けられ、該第1の移動体に対する座標系で追跡情報を生み出す第2の追跡システムを使用して、第1の移動体に対する第2の移動体の位置を追跡することであって、該第2の移動体は、該第1の移動体の任意の構造的領域の外側にある、ことと、
該ワールド座標系での該第1の移動体の追跡情報を、該第1の移動体に対する座標系での第2の移動体の追跡情報と組み合わせ、該ワールド座標系で第2の移動体の該位置および該向きを生成することと
を包含する、方法。
(項目2)
上記第1の移動体は、車輪の付いた乗り物である、項目1に記載の方法。
(項目3)
上記第1の移動体は、移動リッグである、項目1に記載の方法。
(項目4)
上記第1の移動体は、水上の船舶である、項目1に記載の方法。
(項目5)
上記第2の移動体は、頭に取り付けられたディスプレイを備えている、項目1に記載の方法。
(項目6)
上記ワールド座標系での上記第2の移動体の上記位置に基づいて、上記頭に取り付けられたディスプレイの画像を更新することをさらに包含する、項目5に記載の方法。
(項目7)
上記第1の移動体の位置を確立するステップは、GPS信号を受信することを包含する、項目1に記載の方法。
(項目8)
上記第2の移動体は、カメラを備えている、項目1に記載の方法。
(項目9)
上記第2の移動体の上記位置を追跡するステップは、該第2の移動体の方に光学短距離トラッカーを向けることを包含する、項目1に記載の方法。
(項目10)
上記ワールド座標系での上記第2の移動体の上記位置および上記向きは、それぞれ0.1メートルを下回り、1度を下回る精度を有する、項目1に記載の方法。
(項目11)
上記ワールド座標系での上記第2の移動体の上記位置および上記向きを使用して、拡張現実システムのコンピュータ生成イメージを生成することをさらに包含する、項目1に記載の方法。
(項目12)
上記第2の移動体はそれ自体、追跡情報を生成しない、項目1に記載の方法。
(項目13)
拡張現実における使用のための追跡方法であって、該方法は、
ワールド座標系で第1の移動体を追跡することであって、該第1の移動体には、該ワールド座標系で追跡情報を生み出すように動作可能である第1の追跡システムが装備されている、ことと、
該第1の移動体に取り付けられた追跡システムで第2の移動体を追跡することであって、該第2の移動体の該追跡は、該第1の移動体の該位置および該向きに対するものであり、該第1の移動体の位置および向きに対する追跡情報を生み出し、該第2の移動体は、該第1の移動体の任意の構造的領域の外側にある、ことと、
該ワールド座標系での該第1の移動体の該追跡情報を、該第1の移動体の該位置および該向きに対する追跡情報と組み合わせ、それによって該ワールド座標系での該第2の移動体の位置および向きを生成することと、
現実世界の場面と関連付けられ、該ワールド座標系での該第2の移動体の該位置および該向きと一致するコンピュータ生成イメージを頭に取り付けられたディスプレイに表示することと
を包含する、方法。
(項目14)
上記第1の移動体は、陸上の乗り物である、項目13に記載の方法。
(項目15)
上記第1の移動体は、水上の乗り物である、項目13に記載の方法。
(項目16)
上記第2の移動体は、頭に取り付けられたディスプレイを備えている、項目13に記載の方法。
(項目17)
上記第1の移動体を上記追跡するステップは、GPS信号を受信することを包含する、項目13に記載の方法。
(項目18)
上記第2の移動体はカメラを備えている、項目13に記載の方法。
(項目19)
上記第1の移動体に取り付けられた上記追跡システムは、光学短距離トラッカーを備えている、項目13に記載の方法。
(項目20)
上記ワールド座標系における上記第2の移動体の上記位置および上記向きは、それぞれ0.1メートルを下回り、1度を下回る精度を有する、項目13に記載の方法。
(項目21)
上記ワールド座標系での上記第2の移動体の上記位置および上記向きを使用して、拡張現実システムのコンピュータ生成イメージを生成することをさらに包含する、項目13に記載の方法。
(項目22)
上記第2の移動体はそれ自体、追跡情報を生成しない、項目13に記載の方法。
(項目23)
追跡のためのシステムであって、
ワールド座標系で第1の移動体の追跡情報を生み出すように動作可能である第1の追跡システムを備えている第1の移動体であって、該第1の移動体は、該第1の移動体に対する物体を追跡するように動作可能である第2の追跡システムをさらに備えている、第1の移動体と、
該第2の移動体が、少なくとも該第1の移動体の任意の構造的領域の外側にあるときに、該第2の追跡システムによって追跡されるように構成された第2の移動体であって、該第2の追跡システムは、該第1の移動体に対する該第2の移動体の追跡情報を生み出すように構成されている、第2の移動体と、
(i)該ワールド座標系での該第1の移動体に対する追跡情報、および(ii)該第1の移動体に対する該第2の移動体の追跡情報を受信し、かつ該ワールド座標系での該第2の移動体の追跡情報を生み出す、座標コンバイナと
を備えている、システム。
(項目24)
上記第1の移動体は陸上を基地とする乗り物である、項目23に記載のシステム。
(項目25)
上記第1の追跡システムはGPS受信機を備えている、項目23に記載のシステム。
(項目26)
上記第1の追跡システムは、ベースラインに沿って配列された複数のGPSアンテナを備えている、項目23に記載のシステム。
(項目27)
上記第2の追跡システムは、光学短距離トラッカーを備えている、項目23に記載のシステム。
(項目28)
上記第2の追跡システムは、超音波の、磁気的な、または機械的なトラッカーのうちの少なくとも1つを備えている、項目23に記載のシステム。
(項目29)
上記第2の移動体は、拡張現実システムの一部分を備えている、項目23に記載のシステム。
(項目30)
上記第2の移動体は、頭に取り付けられたディスプレイを備えている、項目29に記載のシステム。
(項目31)
上記拡張現実システムは、ユーザの視線の中にある現実世界の場面と関連付けられ、ワールド座標系での上記第2の移動体の追跡情報と一致するコンピュータ生成イメージを上記頭に取り付けられたディスプレイに表示するように構成された、項目30に記載のシステム。
(項目32)
上記第2の移動体はそれ自体、追跡情報を生成しない、項目23に記載のシステム。
(摘要)
準備されていない環境、例えば野原においてユーザに対する相対的な追跡を提供するシステムおよび方法。より大きな移動体、例えばトラックは、GPSおよび/または他の追跡技術を使用して、ワールド座標で正確に追跡される。より小さな移動物体または移動体はそのとき、より大きな移動体に対して追跡される。そして、より小さな移動物体または移動体の追跡情報は、より小さな移動物体または移動体の追跡がワールド座標で提供され得るように、より大きな移動体の追跡と組み合わせられる。相対的な追跡方法は、準備されていない環境において正確な追跡が望ましくあり得るが、より小さな移動物体は、ワールド座標では直接的かつ正確には追跡され得ないことがあり得るような拡張現実の分野において特定の効用を有する。
本発明の幾つかの実施形態のこれらの特徴および他の特徴、ならびにそれらに付随する利点は、関連する図面と共に次の詳細な記述を読むことにより、より完全に理解される。
(詳細な説明)
本発明の実施形態は、準備されていない環境、すなわち野原における大きな移動構造体の正確な追跡を提供するため、大きな移動構造体(例えば車、トラック、ジープ、移動リッグ(rig)、船、ヘリコプタ、無人航空機(UAV)、バルーン、など)により適切に取り付けられる追跡システムの比較的正確、かつ長距離の追跡能力を使用する。大きな移動構造体の内部にいるか、または大きな移動構造体から降り、従って大きな移動体の領域の外にいるが、なおも、大きな移動構造体の比較的近くで動作しているユーザは、ユーザの位置、および好ましくは向き(総体的に「ポーズ」)も、ユーザがより大きく、より重く、かつより正確な追跡システムを携帯する必要なく、大きな移動構造体と実質的に同じ精度で追跡され得るように、大きな移動構造体に対して追跡され得る。用語「ユーザ」は本明細書において、人を指すために使用される。ユーザはデバイス、例えばヘルメットおよび/または頭に取り付けられたディスプレイを身に着けるかまたは携帯し得、ヘルメットおよび/または頭に取り付けられたディスプレイが、本発明による任意の追跡の本当の焦点であり得る。
拡張現実の分野に限定されていないが、本明細書に記述されたシステムおよび方法は、ARに対して特に適用性がある。詳細には、頭に取り付けられたディスプレイを身に着けている、乗り物から降りた野原にいるユーザは、多くの他の可能な仕事の中でもとりわけ、例えば埋設されたケーブルまたはパイプラインを特定するために、頭上のワイヤを特定するために、地雷の位置を突き止めるために、または調査活動を実行するために正確な追跡を必要とし得る。本発明の実施形態は、特に乗り物から降りたユーザに対して有利であるが、ユーザは、乗り物内にも位置し得、かつその見晴らしの良い位置から風景を眺めることができることが想定されている。
述べられたように、本発明の実施形態は、正確な追跡が利用できないか、または実用的ではないような場所で、比較的小さな物体(例えばユーザの頭/ヘルメット、コンピュータタブレット、手足、頭に取り付けられたディスプレイ)に対する正確な追跡を提供する。当業者は、「精密追跡」または「正確な追跡」の定義は、所与の用途次第で変化するが、多くの適用に対して、例示の目的で、位置が0.1mを下回り、および向きが1度を下回ると考えられ得ることを理解する。同様に、「小さな移動物体」または「小さな移動体」(ここでもやはり、例えばユーザの頭、コンピュータタブレット、手足、頭に取り付けられたディスプレイ、カメラ、その他)の定義は、すべての寸法において0.3mを下回る物体であり得るが、これらの寸法は、ここでもやはり例示の目的のためだけである。本発明の実施形態による小さな移動物体は大きすぎて、長距離の正確な追跡システムには、収容されることができない物体でもあり得、このような小さな移動物体はその代わり、比較的より大きな移動物体に取り付けられることが実用的であり得る。
本発明の実施形態は、小さな物体の動作環境の近くに置かれ得る大きな物体に対する小さな物体を正確に追跡することによって、小さな移動物体に対する正確な追跡を提供する問題に取り組む。小さな物体の追跡(例えば位置および向き)は、環境に対する大きな物体の追跡を、大きな物体に対する小さな物体の追跡と組み合わせることによって提供される。好ましい実装において、小さな移動体または物体は、それ自体、好ましくは位置または向き情報を生成または大きな移動体に送信しないという意味で、それ自体の追跡に対して受動的である。本明細書においてさらに十分に説明されるように、むしろ、大きな移動体は、それ自体の位置/向きに対して、および小さな移動体の位置/向きに対しても追跡を能動的に実行する。別の可能な実装において、小さな移動物体は、大きな移動体を追跡し得、かつ大きな移動体にポーズ座標をフィードバックする。
周知のように、大きな移動物体(または構造体)は、比較的大きな/重いセンサ、または大きなベースラインに沿ってまたは横切って配置されたとき向上する感応性を有するセンサを使用して、正確に追跡され得る。しかし、そのような重いセンサは、通常または実用上、小さな移動物体に取り付けられ得ない。例えば、長いベースラインに沿って置かれる多くのGPSアンテナによって受信される信号間の位相差に依存するGPSベースの方向トラッカーは、長いベースラインの要件により、小さな物体(例えば人の頭)には実用上使用され得ない。
正確な追跡データを達成しようとすればするほど、大抵は、センサのサイズおよび重量も増加することを必要とする。例えば、海軍の船は、大きな重い慣性運動装置を使用して正確に追跡され得るが、ここでもやはり、そのような装置は、ユーザの頭には実際上置かれ得ない。
小さな物体は、小さな物体を追跡するために、正確な追跡インフラストラクチャを有する大きな構造体を装備することによって、大きな構造体に対して正確に追跡され得る。例えば、カメラまたは多くのカメラを含む光学センサが一室内に配列され、小さな物体に置かれたマーカについて訓練され得る。そのようなシステムはときどき、「静止追跡インフラストラクチャ」と称される。そのようなシステムの不利は、人は、予め準備された環境内でのみ動作し得ることである。換言すれば、本発明の実施形態とは異なり、静止追跡インフラストラクチャは、予め構成された部屋または空間の領域を超えては、追跡を提供しない。
このタイプの追跡システムの一変形例は、航空機のコックピット内のパイロットのヘルメットに対して実装される。この場合、パイロットのヘルメットは、標的情報をヘルメットに取り付けられたヘッドアップディスプレイ(HUD)と重ねるために追跡される。この構成において、航空機は、大きく/高価な/重い慣性ナビゲーションシステム(INS)/GPSナビゲーションシステムを使用して地球に対して追跡され、ヘルメットはそのとき、光学ヘルメット追跡システムを使用して、航空機に対して追跡される。従って、ワールドに対するヘルメットの位置および向き、従ってユーザの視点は、航空機自体が追跡され得るのと実質的に同じ精度で決定され得る。
静止追跡インフラストラクチャ、パイロットヘルメットの変化形および類似の追跡システムには少なくとも2つの不利がある。第1に、大きな構造体が追跡に対して準備されなくてはならず(カメラ、マーカ、センサ、その他が部屋(またはコックピット)の中で配列されなくてはならず、これらのセンサの位置は、より大きな構造体自体に対して調査されなくてはならない)、第2に、小さな物体の追跡の範囲は、内部の追跡エリアまたは空間または部屋のサイズに限定される。さらに、パイロットヘルメット追跡システムの場合においてさえも、航空機自体の追跡精度は、位置に対してメートル程度であり、向きに対しては0.1度程度であり、それらのうちのいずれもが、特定の適用に対して不十分である。
本発明の実施形態は、移動する物体に対する追跡システムが装備された大きな構造体を提供し、追跡されるユーザが、大きな構造体の領域内ばかりでなく、大きな移動構造体の領域を超えても動作することを可能とすることによってこれらの問題に取り組む。例えば、部屋である代わりに、大きな構造体は、乗り物または移動リッグであり得る。小さな物体が望ましくは正確に追跡されるあらゆる任意的な位置の近くで、この大きな構造体を動かすことによって、小さな物体は、大きな構造体に対してこの一般的な位置において、正確に追跡され得る。そして、大きな構造体を正確に追跡するために、大きな構造体自体が好ましくは、大きな構造体だけが実際上収容し得る長距離(すなわち世界中に広がった)追跡システムで装備される(大きなベースライン、傾斜計、その他を有する大きな/重いINS、GPS向きシステム)。大きな構造体に対する小さな物体の追跡を、環境に対する大きな構造体の追跡(後者の追跡が比較的正確である)と組み合わせることによって、小さな物体の正確で長距離の追跡が達成され得る。
ここで幾つかの図面が参照される。図1および参照番号100は、本発明の実施形態による、多くの要素および座標系の間の関係を示す。図示されるように、大きな移動体110、例えばトラックが、ワールド座標W101で追跡される。一実装において、複数のGPSアンテナ112a、112b、112c、112dが、長いベースラインに沿って、トラック110の屋根に配列されるか、または整列させられる。従って、周知のように、受信されたGPS信号の位相差が、トラック110の位置および向きを正確に計算するために使用され得る。
例えば頭に取り付けられたディスプレイ115(カメラも含み得る)を装着するユーザ122は、トラック110内に必ずしも閉じ込められることなく自由に環境を動き回る。ユーザ122が動き回るとき、彼の頭は、左右上下に、風景をスキャンするために動き得る。図1に示される例においては、物130(例えば埋設されたケーブルまたはパイプ、または不可視の化学物質)が現実世界の視界においてユーザ122によって観察され、物130の位置を正確に特定することが望ましくあり得、その物質自体がそれ自身の向きS135を有し得る。トラック110の追跡情報を、ユーザ122の追跡情報(例えば座標H117)と組み合わせることによって、物質130が比較的小さく、ユーザ自身が正確なワールド座標追跡データを提供するために十分な追跡機器を携行していないときでも、例えば適切なイメージ(例えばグラフィック表現132)をユーザ122に対して生成することが可能である。
当業者は、ユーザが正確に追跡され得るので、より小さな物体、例えば頭上のワイヤ、地雷などもより容易に現実世界の視界に対して位置が突き止められ得ることを理解する。
ユーザ122を追跡するために、トラック110は好ましくは、ユーザの頭に取り付けられたディスプレイ115の位置および向きを検出し得る精密光学トラッカー(図2、要素242)を含む。そのような光学トラッカーは周知である。本発明によるシステムは、ユーザ122または頭に取り付けられたディスプレイ115の後をつけるように構成された可動カメラも含み得る。ユーザ122の後をつけるために使用され得る他の追跡システムは、機械的追跡システム、磁気的追跡システム、および超音波追跡システムを含む。そのようなシステムは、光学トラッカーの能力を増大し得るか、または光学トラッカーの代わりに使用され得る。
例えばトラック110に対して、ユーザ122および頭に取り付けられたディスプレイ115を追跡するために必要な数学的な変換は、当業者に周知である。つまり、W(ワールド座標に対する)、T(トラック110に対する)、H(頭に取り付けられたディスプレイ115に対する)、およびS(物質130に対する)を含む多くの可能な座標系の間での変換は、周知のマトリックス乗算および他の手法を使用して実行され得る。
本発明の実施形態は、ユーザ122によって携行され得る追跡システムに頼ることができない場合においても特に有用である。例えば、GPSによって追跡されているユーザを想像されたい。そのようなユーザが、側面が解放されている建物に入る必要がある場合、ユーザが屋根の下にいる間、建物の屋根は、GPS信号を遮って受信されないようにする。GPS位置を得るために、遮蔽のないエリアにおいて大きな構造体を使用し、次にこの大きな構造体に対するユーザを追跡することによって、ユーザは、たとえGPS信号が、その特定の遮蔽された位置で利用不可能である場合でも、建物の内部で追跡され得る。
次は、本発明の実施形態の例示的な使用である。直径が0.1mの電気ケーブルおよびガスラインが地下に走っている場所で、歩いて移動するユーザを有するシステムを考えられたい。拡張現実システムは、環境の上にこれらのラインの仮想表示のイメージを提供し得る。現実世界の視界に仮想ケーブルおよびガスラインを位置合せするために必要な精度(ここでは0.1m)を達成するために、ユーザは、0.05m位置および0.1度向きの追跡精度を必要とし得る。特に、比較的小さな/光センサを使用し、追跡インフラストラクチャで環境を準備していない場合は、この程度の追跡精度は、ユーザの頭に取り付けられた追跡システムでは実際上、可能ではない。しかし、そのような追跡精度で乗り物(すなわち大きな移動体)を追跡することは可能である。なぜならば、より大きなセンサ/アンテナが、乗り物に取り付けられ得るからである。次に、本発明の実施形態により、例えば、乗り物に取り付けられた光学追跡システムを使用して、ユーザは乗り物に対して追跡され得、それによってユーザのために所望の追跡精度を達成する。
本発明の実施形態は、陸上の乗り物のキャビンまたは内部、およびワールドに対してそれ自体追跡される乗り物に対して追跡されるヘルメットを使用するユーザの場合にも適用可能である。結果として、ヘルメットは、ワールドに対して追跡され得る。
図2は、本発明の実施形態によるシステム要素のブロック図である。大きな移動構造体によって好ましくは搬送されるシステム210は、ワールド座標系に対して大きな移動体の位置および向きを追跡することを担う大きな移動体追跡サブシステム220を含む。これを達成するための要素は、例えば、他の可能な位置決定システムの中でもとりわけ、コンパス222、関連するアンテナを含むGPSコンポーネント224、INS226、傾斜計228、および無線周波数RF範囲発見機器を含み得る。
より大きな移動体に好ましくは取り付けられたいのは、例えば光学短距離トラッカー242を含み、ユーザ122のカメラ/頭に取り付けられたディスプレイ115を追跡するように構成された小さな移動物体追跡システム240である。小さな移動物体に対する他の可能な追跡デバイスはとりわけ、磁気トラッカー、超音波トラッカー、およびレーザトラッカーを含む。
座標コンバイナ250は、大きな移動体追跡サブシステム220と小さな移動物体追跡サブシステム240の両方と通信し、好ましくは、必要な座標変換を実行し、小さな移動物体追跡サブシステムから得られた位置および向き情報を、ワールド座標に変換するように動作可能である。つまり、座標コンバイナ250は好ましくは、大きな移動体のワールド座標位置を、大きな移動体に対して決定されたユーザ122またはカメラ/頭に取り付けられたディスプレイ115の追跡された位置および向きデータと組み合わせる。
図3は、本発明の実施形態による追跡方法を実行するための例示的な一連のステップを示す。図示のように、プロセスは、大きな移動体(例えばトラック、移動のリッグその他)が所与の場所に位置決めされたステップ302から始まる。次に、ステップ304において、大きな移動体の位置および向きは、ワールドワイド座標で追跡される。その後、ステップ306において、ユーザが、大きな移動体の近くを歩き回るとき、ユーザまたは関連する小さな移動物体は、大きな移動体に対して追跡される。
次に、ステップ308において、小さな移動物体の位置および向きは、大きな移動体に対して決定される。ステップ310において、小さな移動物体の追跡された位置/向きは、大きな移動体のワールドワイド位置/向きと組み合わせられる。プロセスは好ましくは連続的であるので、大きな移動体が位置を動いたか、または向きを変えたかどうかをステップ312において判断する。動いていない場合、プロセスは、ステップ306から再び継続する。別の場合、プロセスはステップ304へループし、大きな移動体のワールドワイド位置向きを取得し、プロセスはその後、図示のように継続する。
本明細書に記述されるとおり、本発明の実施形態は、(i)小さな物体がワールドに対して正確に追跡される必要があり、大きな構造体は、小さな物体の近くに置かれ得る、(ii)小さな物体は追跡される必要があるが、その位置は、適切な追跡を不可能にするかまたは限定する、または(iii)充分に正確な追跡技術が、より小さな物体に対して利用可能ではないが、そのような追跡精度が、大きな構造体に対しては利用可能である適用に対してとりわけ適切である。
図1は、本発明の実施形態による、幾つかのシステム要素および関連する座標系の間の関係を示す図である。 図2は、本発明の実施形態による、システム要素のブロック図である。 図3は、本発明の実施形態による、追跡方法を実行する例示的な一連のステップを示す。
符号の説明
100 座標系
101 ワールド座標系
110 第1の移動体
122 第2の移動体
220 第1の追跡システム
240 第2の追跡システム

Claims (32)

  1. 追跡方法であって、
    ワールド座標系で第1の移動体の位置および向きを確立することであって、該第1の移動体には、該ワールド座標系で追跡情報を生み出すように動作可能である第1の追跡システムが装備されている、ことと、
    該第1の移動体に取り付けられ、該第1の移動体に対する座標系で追跡情報を生み出す第2の追跡システムを使用して、第1の移動体に対する第2の移動体の位置を追跡することであって、該第2の移動体は、該第1の移動体の任意の構造的領域の外側にあり、該第2の移動体は、それ自体の追跡に対して受動的である、ことと、
    該ワールド座標系での該第1の移動体の追跡情報を、該第1の移動体に対する座標系での第2の移動体の追跡情報と組み合わせ、該ワールド座標系での該第2の移動体の位置および向きを生成することと
    を包含する、方法。
  2. 前記第1の移動体は、車輪の付いた乗り物である、請求項1に記載の方法。
  3. 前記第1の移動体は、移動リッグである、請求項1に記載の方法。
  4. 前記第1の移動体は、水上の船舶である、請求項1に記載の方法。
  5. 前記第2の移動体は、頭に取り付けられたディスプレイを備えている、請求項1に記載の方法。
  6. 前記ワールド座標系での前記第2の移動体の前記位置に基づいて、前記頭に取り付けられたディスプレイの画像を更新することをさらに包含する、請求項5に記載の方法。
  7. 前記第1の移動体の位置を確立するステップは、GPS信号を受信することを包含する、請求項1に記載の方法。
  8. 前記第2の移動体は、カメラを備えている、請求項1に記載の方法。
  9. 前記第2の移動体の前記位置を追跡するステップは、該第2の移動体の方に光学短距離トラッカーを向けることを包含する、請求項1に記載の方法。
  10. 前記ワールド座標系での前記第2の移動体の前記位置および前記向きは、それぞれ0.1メートルを下回り、1度を下回る精度を有する、請求項1に記載の方法。
  11. 前記ワールド座標系での前記第2の移動体の前記位置および前記向きを使用して、拡張現実システムのコンピュータ生成イメージを生成することをさらに包含する、請求項1に記載の方法。
  12. 前記第2の移動体はそれ自体、追跡情報を生成しない、請求項1に記載の方法。
  13. 拡張現実システムにおける使用のための追跡方法であって、該方法は、
    ワールド座標系で第1の移動体を追跡することであって、該第1の移動体には、該ワールド座標系で追跡情報を生み出すように動作可能である第1の追跡システムが装備されている、ことと、
    該第1の移動体に取り付けられた追跡システムで第2の移動体を追跡することであって、該第2の移動体の該追跡は、該第1の移動体位置および向きに対するものであり、該第1の移動体の位置および向きに対する追跡情報を生み出し、該第2の移動体は、該第1の移動体の任意の構造的領域の外側にあり、該第2の移動体は、それ自体の追跡に対して受動的である、ことと、
    該ワールド座標系での該第1の移動体の該追跡情報を、該第1の移動体の該位置および該向きに対する追跡情報と組み合わせ、それによって該ワールド座標系での該第2の移動体の位置および向きを生成することと、
    現実世界の場面と関連付けられ、該ワールド座標系での該第2の移動体の該位置および該向きと一致するコンピュータ生成イメージを頭に取り付けられたディスプレイに表示することと
    を包含する、方法。
  14. 前記第1の移動体は、陸上の乗り物である、請求項13に記載の方法。
  15. 前記第1の移動体は、水上の乗り物である、請求項13に記載の方法。
  16. 前記第2の移動体は、前記頭に取り付けられたディスプレイを備えている、請求項13に記載の方法。
  17. 前記第1の移動体を前記追跡するステップは、GPS信号を受信することを包含する、請求項13に記載の方法。
  18. 前記第2の移動体はカメラを備えている、請求項13に記載の方法。
  19. 前記第1の移動体に取り付けられた前記追跡システムは、光学短距離トラッカーを備えている、請求項13に記載の方法。
  20. 前記ワールド座標系での前記第2の移動体の前記位置および前記向きは、それぞれ0.1メートルを下回り、1度を下回る精度を有する、請求項13に記載の方法。
  21. 前記ワールド座標系での前記第2の移動体の前記位置および前記向きを使用して、拡張現実システムのコンピュータ生成イメージを生成することをさらに包含する、請求項13に記載の方法。
  22. 前記第2の移動体はそれ自体、追跡情報を生成しない、請求項13に記載の方法。
  23. 追跡のためのシステムであって、
    第1の移動体であって、該第1の移動体は、ワールド座標系で第1の移動体の追跡情報を生み出すように動作可能である第1の追跡システムを備えており、該第1の移動体は、該第1の移動体に対して物体を追跡するように動作可能である第2の追跡システムをさらに備えている、第1の移動体と、
    第2の移動体であって、該第2の移動体は、少なくとも該第2の移動体該第1の移動体の任意の構造的領域の外側にあるときに、該第2の追跡システムによって追跡されるように構成され該第2の追跡システムは、該第1の移動体に対する該第2の移動体の追跡情報を生み出すように構成されており、該第2の移動体は、それ自体の追跡に対して受動的である、第2の移動体と、
    (i)該ワールド座標系での該第1の移動体に対する追跡情報、および(ii)該第1の移動体に対する該第2の移動体の追跡情報を受信し、かつ該ワールド座標系での該第2の移動体の追跡情報を生み出す、座標コンバイナと
    を備えている、システム。
  24. 前記第1の移動体は陸上を基地とする乗り物である、請求項23に記載のシステム。
  25. 前記第1の追跡システムはGPS受信機を備えている、請求項23に記載のシステム。
  26. 前記第1の追跡システムは、ベースラインに沿って配列された複数のGPSアンテナを備えている、請求項23に記載のシステム。
  27. 前記第2の追跡システムは、光学短距離トラッカーを備えている、請求項23に記載のシステム。
  28. 前記第2の追跡システムは、超音波の、磁気的な、または機械的なトラッカーのうちの少なくとも1つを備えている、請求項23に記載のシステム。
  29. 前記第2の移動体は、拡張現実システムの一部分を備えている、請求項23に記載のシステム。
  30. 前記第2の移動体は、頭に取り付けられたディスプレイを備えている、請求項29に記載のシステム。
  31. 前記拡張現実システムは、ユーザの視線の中にある現実世界の場面と関連付けられ、前記ワールド座標系での前記第2の移動体の追跡情報と一致するコンピュータ生成イメージを前記頭に取り付けられたディスプレイに表示するように構成されている、請求項30に記載のシステム。
  32. 前記第2の移動体はそれ自体、追跡情報を生成しない、請求項23に記載のシステム。
JP2008154734A 2007-06-15 2008-06-12 相対的な追跡のための方法およびシステム Expired - Fee Related JP5430882B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/763,763 US7538724B1 (en) 2007-06-15 2007-06-15 Method and system for relative tracking
US11/763,763 2007-06-15

Publications (2)

Publication Number Publication Date
JP2009008674A JP2009008674A (ja) 2009-01-15
JP5430882B2 true JP5430882B2 (ja) 2014-03-05

Family

ID=39711810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008154734A Expired - Fee Related JP5430882B2 (ja) 2007-06-15 2008-06-12 相対的な追跡のための方法およびシステム

Country Status (4)

Country Link
US (1) US7538724B1 (ja)
EP (1) EP2003535A1 (ja)
JP (1) JP5430882B2 (ja)
AU (1) AU2008202594B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9251920B2 (en) 2012-04-11 2016-02-02 Ge-Hitachi Nuclear Energy America Llc In-situ and external nuclear reactor severe accident temperature and water level probes

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8907887B2 (en) * 2008-05-19 2014-12-09 Honeywell International Inc. Methods and systems for operating avionic systems based on user gestures
US8442766B2 (en) 2008-10-02 2013-05-14 Certusview Technologies, Llc Marking apparatus having enhanced features for underground facility marking operations, and associated methods and systems
CA2691780C (en) 2009-02-11 2015-09-22 Certusview Technologies, Llc Management system, and associated methods and apparatus, for providing automatic assesment of a locate operation
US8610771B2 (en) 2010-03-08 2013-12-17 Empire Technology Development Llc Broadband passive tracking for augmented reality
US9046413B2 (en) 2010-08-13 2015-06-02 Certusview Technologies, Llc Methods, apparatus and systems for surface type detection in connection with locate and marking operations
AU2011301822A1 (en) * 2010-09-17 2013-04-04 Curtis Chambers Methods and apparatus for tracking motion and/or orientation of a marking device
KR20120040573A (ko) * 2010-10-19 2012-04-27 주식회사 팬택 이동식 태그를 이용한 증강 현실 제공 장치 및 방법
US11175375B2 (en) * 2010-11-12 2021-11-16 Position Imaging, Inc. Position tracking system and method using radio signals and inertial sensing
WO2012167301A1 (en) * 2011-06-10 2012-12-13 Navisens Pty Ltd Positioning, tracking and trajectory estimation of a mobile object
US8761811B2 (en) 2012-04-27 2014-06-24 Oracle International Corporation Augmented reality for maintenance management, asset management, or real estate management
US20130328930A1 (en) * 2012-06-06 2013-12-12 Samsung Electronics Co., Ltd. Apparatus and method for providing augmented reality service
US9129429B2 (en) * 2012-10-24 2015-09-08 Exelis, Inc. Augmented reality on wireless mobile devices
JP6033209B2 (ja) * 2013-12-11 2016-11-30 三菱電機株式会社 携帯用端末装置
US9798299B2 (en) 2014-06-20 2017-10-24 International Business Machines Corporation Preventing substrate penetrating devices from damaging obscured objects
GB2535804B (en) * 2015-02-27 2021-01-06 Guidance Automation Ltd Determining a position of an agent
US9842388B2 (en) 2015-07-02 2017-12-12 Honeywell International Inc. Systems and methods for location aware augmented vision aircraft monitoring and inspection
US10871934B2 (en) 2017-05-04 2020-12-22 Microsoft Technology Licensing, Llc Virtual content displayed with shared anchor
WO2021162641A1 (en) * 2020-02-11 2021-08-19 St Engineering Advanced Material Engineering Pte. Ltd. Tactical advanced robotic engagement system

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2831205B2 (ja) * 1992-07-09 1998-12-02 株式会社フジタ 移動体の位置出し用群制御装置
AU6279794A (en) 1993-04-01 1994-10-24 Bruno Robert System for selectively positioning and tracking a movable object or individual
US6624754B1 (en) * 1998-01-20 2003-09-23 Hoffman Resources Llc Personal security and tracking system
US6014080A (en) * 1998-10-28 2000-01-11 Pro Tech Monitoring, Inc. Body worn active and passive tracking device
US6064335A (en) * 1997-07-21 2000-05-16 Trimble Navigation Limited GPS based augmented reality collision avoidance system
US6166744A (en) 1997-11-26 2000-12-26 Pathfinder Systems, Inc. System for combining virtual images with real-world scenes
AUPP299498A0 (en) 1998-04-15 1998-05-07 Commonwealth Scientific And Industrial Research Organisation Method of tracking and sensing position of objects
US20030210228A1 (en) * 2000-02-25 2003-11-13 Ebersole John Franklin Augmented reality situational awareness system and method
AU2003267957A1 (en) * 2002-05-07 2003-12-22 Argo-Tech Corporation Tracking system and associated method
US20070229350A1 (en) * 2005-02-01 2007-10-04 Scalisi Joseph F Apparatus and Method for Providing Location Information on Individuals and Objects using Tracking Devices
US7598855B2 (en) * 2005-02-01 2009-10-06 Location Based Technologies, Inc. Apparatus and method for locating individuals and objects using tracking devices
US20060227998A1 (en) 2005-03-29 2006-10-12 Hobgood Andrew W Method for using networked programmable fiducials for motion tracking
EP1904202B1 (en) * 2005-07-14 2016-12-21 Charles D. Huston Gps based spectator and participant sport system and method
US9323055B2 (en) 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9251920B2 (en) 2012-04-11 2016-02-02 Ge-Hitachi Nuclear Energy America Llc In-situ and external nuclear reactor severe accident temperature and water level probes

Also Published As

Publication number Publication date
AU2008202594B2 (en) 2010-09-16
EP2003535A1 (en) 2008-12-17
JP2009008674A (ja) 2009-01-15
AU2008202594A1 (en) 2009-01-08
US7538724B1 (en) 2009-05-26

Similar Documents

Publication Publication Date Title
JP5430882B2 (ja) 相対的な追跡のための方法およびシステム
US11740080B2 (en) Aerial video based point, distance, and velocity real-time measurement system
US10209342B2 (en) Electromagnetic radiation source locating system
US20100240988A1 (en) Computer-aided system for 360 degree heads up display of safety/mission critical data
US8229163B2 (en) 4D GIS based virtual reality for moving target prediction
US9269239B1 (en) Situational awareness system and method
CN106909215A (zh) 基于精确定位和增强现实的消防作战三维可视化指挥系统
US20160379414A1 (en) Augmented reality visualization system
US20160217578A1 (en) Systems and methods for mapping sensor feedback onto virtual representations of detection surfaces
JP5567805B2 (ja) 飛翔体探知方法及びシステムならびにプログラム
US20150054826A1 (en) Augmented reality system for identifying force capability and occluded terrain
KR20170032226A (ko) 자동-조화를 이용한 차량용 증강현실을 위한 향상된 레지스트레이션
JP5949133B2 (ja) 移動体訓練支援システム
JP2021184614A (ja) 映像生成装置、および、映像生成方法
US11774547B2 (en) Self-positioning method, self-positioning system and tracking beacon unit
KR20210133972A (ko) 타겟을 여러 다른 디바이스에서 동시에 추적할 수 있도록 네트워크로 연결된 스코프가 있는 차량 탑재 장치
EP2523062B1 (en) Time phased imagery for an artificial point of view
Haas et al. Multimodal Research for Human Robot Interactions
JP7018443B2 (ja) ターゲットの定位を支援する方法およびこの方法の実行可能な観察装置
Cai et al. Multi-source information fusion augmented reality benefited decision-making for unmanned aerial vehicles: A effective way for accurate operation
Neuhöfer et al. Adaptive information design for outdoor augmented reality
Koch et al. Flying augmented reality
Beauregard Infrastructureless pedestrian positioning
RU2498222C1 (ru) Система информационного обмена топопривязчика
US11821996B1 (en) Outdoor entity and weapon tracking and orientation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110510

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20120426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131204

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees