JP6763975B2 - 拡張ダイナミックレンジを備えた小型のビジョン慣性ナビゲーションシステム - Google Patents

拡張ダイナミックレンジを備えた小型のビジョン慣性ナビゲーションシステム Download PDF

Info

Publication number
JP6763975B2
JP6763975B2 JP2018563482A JP2018563482A JP6763975B2 JP 6763975 B2 JP6763975 B2 JP 6763975B2 JP 2018563482 A JP2018563482 A JP 2018563482A JP 2018563482 A JP2018563482 A JP 2018563482A JP 6763975 B2 JP6763975 B2 JP 6763975B2
Authority
JP
Japan
Prior art keywords
imaging device
inertial
vision
helmet
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018563482A
Other languages
English (en)
Other versions
JP2019521429A5 (ja
JP2019521429A (ja
Inventor
キャロウェイ,トーマス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales Defense and Security Inc
Original Assignee
Thales Defense and Security Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales Defense and Security Inc filed Critical Thales Defense and Security Inc
Publication of JP2019521429A publication Critical patent/JP2019521429A/ja
Publication of JP2019521429A5 publication Critical patent/JP2019521429A5/ja
Priority to JP2020151876A priority Critical patent/JP6920523B2/ja
Application granted granted Critical
Publication of JP6763975B2 publication Critical patent/JP6763975B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Navigation (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、概して、ナビゲーションシステムに関係があり、より具体的には、拡張ダイナミックレンジを備えた小型のビジョン慣性ナビゲーションシステムに関係がある。
軍隊、警察、及び消防士は、実際の場面を見ながら、地図のような戦術的な情報を表示するヘッドマウント型ディスプレイを使用する。例えば、ヘッドマウント型ディスプレイは、拡張現実(AR)を作り出すよう戦術的な情報を実際の場面に重ね合わせるために使用されてよい。ARを作り出すための技術的課題の1つは、実際の対象とコンピュータにより生成された対象との間の正確な追跡を保つことである。ユーザが彼らの視点を動かす場合に、コンピュータにより生成された対象は、実際の対象の観測される位置及び向きとアライメントされたままでなければならない。ビジョン慣性(vision-inertial)ナビゲーションシステムは、装置姿勢を推定するよう、カメラと、慣性センサ、特に、ジャイロスコープ及び加速度計とからの情報を融合させることによって相対的な位置及び向きを推定し得る。
しかし、多くのビジョン慣性ナビゲーションシステムは、軍事的及び政治的な用途としてのそのような使用に適さない。例えば、多くのビジョン慣性ナビゲーションシステムは、太陽光条件でしか働かず、他のシステムは夜にしか働かない。広範な周囲光条件で動作することができるビジョン慣性ナビゲーションシステムは、装着不可能である非常に大きいセンサ又は装置を利用する。他のビジョン慣性ナビゲーションシステムはまた、カメラと慣性センサとの間のボアサイトキャリブレーションを手動により実行すること、及び表示の明るさのような設定を手動により構成することをユーザに求める。
よって、頭部に装着されるほど十分に小さく、且つ、例えば、典型的な屋内照明条件から直射日光条件乃至実質的に光がない洞穴までといった、広範な動的照明条件で機能することができるビジョン慣性ナビゲーションシステムの満たされない必要性が存在する。更に、プラグ・アンド・プレイであるビジョン慣性ナビゲーションシステムの必要性が依然としてある。
上記の問題及び満たされない必要性に照らして、本開示は、広範な照明条件において表示領域(同義的に「実際の場面」とも本願では呼ばれる。)内の対象の位置を追跡するシステム及び方法を提供する。一態様において、ビジョン慣性ナビゲーションシステムが提供され、これは、例えば、典型的な屋内照明条件から直射日光乃至実質的に光がない場所(例えば、洞穴)まで多岐にわたる照明条件において実際の場面内の関心のある対象(例えば、人々、車両、建物)の相対位置(例えば、3D位置)を追跡するよう構成されてよい。例えば、一態様において、ビジョン慣性ナビゲーションシステムは、種々の照明条件において実際の場面の画像を捕捉するよう夫々構成されている2つ以上のヘルメット装着式カメラを含んでよい。遠隔の(例えば、手持ち式の)プロセッシング要素は次いで、実時間において実際の場面内の態様の位置を正確に推定するために、2つ以上のヘルメット装着式カメラからの画像データをヘルメット装着式慣性センサからの慣性測定データと結合してよい。ビジョン慣性ナビゲーションシステムは次いで、夫々の対象について推定された位置を、例えば、ユーザの視点から、対象ごとの推定された位置が、実際の場面で見られている対応する対象の上に重ね合わされることを可能にする透明表示装置で、表示してよい。
これらの態様の更なる利点及び新規の特徴は、1つには、続く記載において説明され、1つには、下記の検討時に又は本開示の実施による学習時に当業者に更に明らかになるだろう。
添付の図面は、本明細書に組み込まれてその部分を構成するものであり、本開示の1つ以上の例となる態様を説明し、そして、詳細な説明とともに、それらの原理及び実施を説明するのに役立つ。
本開示の態様に従う例となるビジョン慣性ナビゲーションシステムの例となる動作環境を表す図である。 本開示の態様に従うモノキュラーナビゲーションシステムの例を正面図及び側面図において表す図である。 本開示の態様に従うHMDシステムの例を表す図である。 本開示の態様に従うモノキュラーナビゲーションシステムのワイドダイナミックレンジの例を表すプロットである。 本開示の態様に従って、視覚的特徴の3次元(3D)位置を追跡する方法のフローチャートである。 本開示の態様に従って、HMDシステムに取り付けられた表示装置及び慣性センサの間のボアサイトキャリブレーションを実行する方法のフローチャートである。 本開示の態様に従って、ステレオナビゲーションシステムを較正する方法のフローチャートである。 本開示の態様に従うステレオナビゲーションシステムの例を表す図である。 本開示の態様に従うプロセッシングシステムを用いるシステムのためのハードウェア実装の例となる態様を表す図で表す。 本開示の態様に従って使用される様々な例となるシステムコンポーネントを表すブロック図である。
添付の図面に関連して以下で示される詳細な説明は、様々な構成の説明として意図され、本明細書で記載される概念が実施され得る唯一の構成を表すよう意図されない。詳細な説明は、様々な概念の完全な理解を提供することを目的として具体的な詳細を含む。しかし、当業者に明らかなように、それらの概念は、そのような具体的な詳細によらずとも実施され得る。いくつかの事例では、よく知られた構造及びコンポーネントは、そのような概念を不明りょうにしないように、ブロック図形式で示される。
ナビゲーション機能のいくつかの態様が、これより、様々なシステム、装置、及び方法を参照して提示される。それらのシステム、装置、及び方法は、以下の詳細な説明において記載され、様々なブロック、モジュール、コンポーネント、回路、ステップ、プロセス、アルゴリズム、など(集合的に“要素”と呼ばれる。)によって添付の図面で表される。それらの要素は、電子ハードウェア、コンピュータソフトウェア、又はそれらのあらゆる組み合わせを用いて実装されてよい。そのような要素がハードウェア又はソフトウェアとして実装されるかどうかは、特定の用途と、実施全体に課された設計制約とに依存する。
例として、要素、若しくは要素のいずれかの部分、又は要素どうしのあらゆる組み合わせは、1つ以上のプロセッサを含む“プロセッシングシステム”により実装されてよい。プロセッサの例には、マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、プログラム可能論理デバイス(PLD)、状態機械、ゲートロジック、ディスクリートハードウェア回路、及び本開示を通して記載される様々な機能性を実行するよう構成された他の適切なハードウェアが含まれる。プロセッシングシステム内の1つ以上のプロセッサは、ソフトウェアを実行してよい。ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、又は別なふうに呼ばれようとも、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアコンポーネント、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、サブルーチン、オブジェクト、実行ファイル、実行のスレッド、プロシージャ、関数などを含むよう広く解釈されるべきである。
然るに、1つ以上の例となる実施形態において、記述される関数は、ハードウェア、ソフトウェア、ファームウェア、又はそれらのあらゆる組み合わせで実装されてよい。ソフトウェアで実装される場合には、関数は、1つ以上のコンピュータ可読媒体において1つ以上の命令又はコードとして記憶又は符号化されてよい。コンピュータ可読媒体には、コンピュータ記憶媒体が含まれる。記憶媒体は、コンピュータによってアクセスされ得る如何なる利用可能な媒体であってもよい。例として、制限なしに、そのようなコンピュータ可読媒体は、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、電気的消去可能なプログラム可能ROM(EEPROM)、コンパクトディスクROM(CD−ROM)若しくは他の光ディスクストレージ、磁気ディスクストレージ若しくは他の磁気記憶装置、あるいは、命令又はデータ構造の形で所望のプログラムコードを搬送又は記憶するために使用され得且つコンピュータによってアクセスされ得るあらゆる他の媒体を有することができる。本明細書で使用されるディスク(disk及びdisc)には、CD、レーザーディスク(登録商標)、光ディスク、デジタルバーサタイルディスク(DVD)、及びフロッピー(登録商標)ディスクが含まれる。ディスク(disk)は、通常は、磁気的にデータを再生し、一方、ディスク(disc)は、レーザーにより光学的にデータを再生する。上記の組み合わせも、コンピュータ可読媒体の適用範囲内に含まれるべきである。
一般に、とりわけ、本明細書で開示されるビジョン慣性ナビゲーションシステム及び方法は、広範な照明条件において実際の場面内の対象の位置を追跡することに向けられている。一態様において、ビジョン慣性ナビゲーションシステムは、種々の照明条件で実際の場面の画像を捕捉するよう夫々構成され得る2つ以上のカメラを備えた1つ以上のヘルメット装着式ナビゲーションサブシステムを含んでよい。ヘルメット装着式ナビゲーションサブシステムは、地面に対するヘルメットの向きの測定を提供するよう構成された慣性センサを更に含んでよい。ビジョン慣性ナビゲーションシステムは、2つ以上のカメラから得られた画像データを慣性センサから得られたデータと結合することによって、実際の場面内の対象の相対位置を推定するよう構成された遠隔のプロセッシング要素を更に含んでよい。一態様において、遠隔プロセッシングユニットは、推定された位置をヘルメット装着式ディスプレイポッドへ供給するよう構成されてよく、それにより、推定された位置の夫々は、実際の場面においてユーザによって見られている対応する対象の上に重ね合わされる。
例えば、図1を参照すると、実際の場面100(例えば、屋内のオフィス空間)における対象(例えば、照明器具)の推定された位置102は、ビジョン慣性ナビゲーションシステムを装着している人の視点から、実際の場面100のユーザのビューの上に重ね合わされてよい。ユーザが動き回る場合に、対象の夫々の推定される位置の値は、ユーザの位置に対する(例えば、ビジョン慣性ナビゲーションシステムの位置に対する)対象の位置の変化を反映するよう更新されてよい。遠隔プロセッシングユニットは更に、2つ以上のカメラからの画像と慣性センサからのデータとの結合に基づき、ユーザが通路に沿って動く場合にユーザの(例えば、ビジョン慣性ナビゲーションシステムの)位置及び向きを推定及び追跡するよう構成されてよい。更なる、又は代替の態様において、遠隔プロセッシングユニットは、ユーザの推定された位置及び向きをヘルメット装着式ディスプレイポッドへ供給するよう構成されてよく、それにより、ユーザの追跡された経路を表す視覚情報が実際の場面100のユーザのビューに重ね合わされる。当然ながら、ユーザの及び/又は対象の位置に関する他の情報が実際の場面100のユーザのビューに重ね合わされてよい。
図2及び図3は、本開示の態様に従って使用される例となるナビゲーションシステムコンポーネント(例えば、ビジョン慣性ナビゲーションシステムの部分)の様々な態様の全体システム図を表す。図2及び図3の例となるナビゲーションシステムは、例えば、広範な動的照明条件において実際の場面の画像(例えば、個々の写真又は映像のフレーム)を捕捉するために直射日光撮像装置230、屋内照明撮像装置232、又は暗視撮像装置234のうちの2つ以上を備えたヘルメット装着式ディスプレイ(HMD)300を含んでよい。一態様において、直射日光撮像装置230は、照明条件の第1範囲において画像を捕捉する第1モノキュラーカメラ(図示せず。)を含んでよく、屋内照明撮像装置232は、照明条件の第2範囲において画像を捕捉する第2モノキュラーカメラ(図示せず。)を含んでよく、暗視撮像装置234は、照明条件の第3範囲において画像を捕捉する第3モノキュラーカメラ(図示せず。)を含んでよい。
例えば、図4を参照すると、直射日光撮像装置230は、第1範囲の照明条件(例えば、日光)422において画像を捕捉してよい。屋内照明撮像装置232は、第2範囲の照明条件(例えば、屋内照明)424において画像を捕捉してよい。暗視撮像装置234は、第3範囲の照明条件(例えば、微光)426において画像を捕捉してよい。第1範囲の照明条件422は、第2範囲の照明条件424よりも明るくてよく、第2範囲の照明条件424は、第3範囲の照明条件426よりも明るくてよい。
当然ながら、第1範囲の照明条件422の一部は、第1重複領域で第2範囲の照明条件424の一部と重なり合ってよい。一態様において、直射日光撮像装置230及び屋内照明撮像装置232は両方とも、第1重複領域で画像を捕捉するよう構成されてよい。同様に、第2範囲の照明条件424は、第2重複領域で第3範囲の照明条件426と重なり合ってよい。他の態様では、屋内照明撮像装置232及び暗視撮像装置234は両方とも、第2重複領域で画像を捕捉するよう構成されてよい。
更に、当然ながら、暗視撮像装置234は、HMD300の環境に光が存在しない場合に画像を捕捉することができない。この場合に、照明器236は、例えば、暗視撮像装置234がその環境(例えば、実際の場面)の画像を捕捉することができるように、HMD300の環境の照明を選択的に支援するために暗視撮像装置234へ結合されてよい。照明器236は、例えば、少なくとも1つの発光ダイオード(LED)を有してよい。LEDは、紫外線(UV)範囲で、又は暗視撮像装置234が敏感に反応しない可視スペクトルの特定の部分で動作してよい。
再び図2及び図3を参照すると、直射日光撮像装置230、屋内照明撮像装置232、及び/又は暗視撮像装置234のうちの2つ以上が、HMD300に取り付けられてよい。例えば、一態様において、直射日光撮像装置230及び屋内照明撮像装置232が、HMD300の1つ以上の側面取り付けレール330に取り付けられてよい。他の態様では、直射日光撮像装置230、屋内照明撮像装置232、及び暗視撮像装置234が、HMD300の1つ以上の側面取り付けレール330に取り付けられてよい。この態様において、照明器236が更に、暗視撮像装置234に取り付けられてよい。更には、一態様において、直射日光撮像装置230、屋内照明撮像装置232、及び暗視撮像装置234の夫々は、HMD300の1つ以上の側面取り付けレール330に着脱可能に取り付けられてよい。例えば、直射日光撮像装置230、屋内照明撮像装置232、及び/又は暗視撮像装置234は、HMD300の1つ以上の側面取り付けレール330から取り外し可能であってよい。
図2及び図3の例となるナビゲーションシステムは、慣性センサ238を更に含んでよい。一態様において、慣性センサ238も、HMD300の1つ以上の側面取り付けレール330に取り付けられてよい。慣性センサ238は、例えば、米国特許第8762091号で記載されている慣性測定システムの態様であるか又はそのような態様を含んでよい。なお、この特許文献は、その全文を参照により本願に援用される。慣性センサ238は、慣性センサ238の現在の加速度を測定する加速度計、及び/又は慣性センサ238の回転属性(例えば、向き)の変化を測定するジャイロスコープ、及び/又は慣性センサ238に関連した圧力を測定する圧力センサを含んでよい。慣性センサ238は、加速度計のバイアス、ジャイロスコープのバイアス、及び圧力センサのバイアスを推定するプロセッシングシステムを更に含んでよい。そのようなプロセッシングはまた、それらの装置から遠く離れて実行されてもよい。一態様において、慣性センサ238は、慣性センサ238の現在の加速度、慣性センサ238の向き、加速度計のバイアス、ジャイロスコープのバイアス、及び圧力センサのバイアスのような慣性測定を提供するよう構成されてよい。
図2及び図3の例となるナビゲーションシステムは、表示ドライバ(図示せず。)及びジャイロスコープ310を有するヘルメット装着式ディスプレイポッドを更に含んでよい。一態様において、ヘルメット装着式ディスプレイポッドは、例えば、HMD300の額部端に取り付けられてよい。更に、表示ドライバ(図示せず。)は、制限なしに光導波路光学素子(LOE)のような透明表示装置320に拡張現実情報を表示するよう構成されてよい。例えば、一態様において、表示ドライバ(図示せず。)は、LOE320でHMD300の環境内の視覚的ランドマーク(例えば、対象)の3D位置を表示するよう構成されてよい。ヘルメット装着式ディスプレイポッドは、LOE320がHMD300のユーザの片眼の前に位置付けられるように適応されてよい。更に、表示ドライバ(図示せず。)は、透明表示装置320で表示されている拡張現実情報の明るさを自動調整するよう構成されてよい。一態様において、ヘルメット装着式ディスプレイポッドのジャイロスコープ310は、例えば、3軸微小電気機械システム(MEMS)ジャイロスコープであってよい。ジャイロスコープ310は、ヘルメット装着式ディスプレイポッドの回転属性(例えば、ピッチ、ロール、及び/又はヨー)の変化に関する方位データを測定し供給するよう構成されてよい。
更に図2及び図3を参照すると、例となるナビゲーションシステムは、プロセッシング要素340を更に有してよい。一態様において、プロセッシング要素340は、インターフェイスボックス並びに1つ以上のケーブル及び/又は配線240(例えば、1つ以上のユニバーサルシリアルバス(USB)、イーサネット(登録商標)、及び/又は光ファイバケーブル)を介してヘルメット装着式ディスプレイポッド、慣性センサ238、直射日光撮像装置230、屋内照明撮像装置232、及び任意に暗視撮像装置234へ結合され、それらと通信してよい。当然ながら、プロセッシング要素340は、ヘルメットから離れた位置に設けられてよい。例えば、一態様において、プロセッシング要素340は、HMD300に取り付けられなくてもよい(図3)。プロセッシング要素340は、単一の回路基板の上に構成された組み込みコンピュータのようなシステム・オン・モジュール(SOM)を含んでよい。SOMは、RAM、入出力コントローラ、及び信号処理のために必要とされる他の全ての機能を備えたマイクロプロセッサを含んでよい。加えて、プロセッシング要素340は、制限なしに他のナビゲーションシステム(図10を参照。)のような外部装置との通信のために、Bluetooth(登録商標)無線送信器/受信器、Wi−Fi送信器/受信器、LTE送信器/受信器、及び/又はRFID送信器/受信器を含んでよい。バッテリ(図示せず。)も、例えば、ケーブル及び/又は配線(図示せず。)を介して、プロセッシング要素340へ結合され、そして、プロセッシング要素340、直射日光撮像装置230、屋内照明撮像装置232、又は暗視撮像装置234のうちの1つ以上に給電するために使用されてよい。
一態様において、プロセッシング要素340は、直射日光撮像装置230、屋内照明撮像装置232、又は暗視撮像装置234のうちの2つ以上の存在を自動検出するよう構成されてよい。プロセッシング要素340は次いで、例えば、1つ以上のケーブル及び/又は配線240を介して、直射日光撮像装置230、屋内照明撮像装置232、又は暗視撮像装置234のうちの検出された2つ以上から画像データを取得するよう構成されてよい。プロセッシング要素340は更に、例えば、1つ以上のケーブル及び/又は配線240を介して、ヘルメット装着式ディスプレイポッドからのジャイロスコープ310の方位データとともに、慣性センサ238からの慣性測定データを取得するよう構成されてよい。
一態様において、プロセッシング要素340は、直射日光撮像装置230、屋内照明撮像装置232、又は暗視撮像装置234のうちの2つ以上から得られた画像データにおいて視覚的特徴を識別しその3D位置を追跡するよう構成されてよい。この態様では、プロセッシング要素340は更に、例えば、1つ以上のケーブル及び/又は配線240を介して、追跡された3D位置をヘルメット装着式ディスプレイポッドへ供給するよう構成されてよい。それにより、追跡された3D位置はLOE320で表示され得る。他の態様では、プロセッシング要素340は、HMD300に取り付けられている慣性センサ238の向きを、ヘルメット装着式ディスプレイポッドにおけるジャイロスコープ310の向きと自動的にアライメントするよう構成されてよい。更に、他の態様では、プロセッシング要素340は、例となるナビゲーションシステムのロバスト性を改善するために、ステレオカメラ構成(図8を参照。)を検出して自動的にアライメントするよう構成されてよい。
図5は、HMD300の環境内の視覚的特徴の3D位置を追跡し、追跡された3D位置をHMD300の環境内の対応するランドマークの上に表示する方法のフローチャート500である。方法は、ナビゲーションシステム(例えば、図2及び図3で表された例となるナビゲーションシステム)によって実行されてよい。
ブロック502で、ナビゲーションシステムのプロセッシング要素340(図3)は、HMD300(図3)に取り付けられている直射日光撮像装置230(図2)、屋内照明撮像装置232(図2)、又は暗視撮像装置234(図2)のうちの2つ以上から画像データを取得してよい。例えば、一態様において、プロセッシング要素340(図3)は、例えば、1つ以上のケーブル及び/又は配線240(図2)を介して、直射日光撮像装置230(図2)及び屋内照明撮像装置232(図2)によって捕捉された画像データを受信してよい。他の態様では、プロセッシング要素340は、例えば、1つ以上のケーブル及び/又は配線240(図2)を介して、直射日光撮像装置230(図2)及び屋内照明撮像装置232(図2)によって捕捉された画像データとともに、暗視撮像装置234(図2)によって捕捉された画像データを受信してよい。
一態様において、プロセッシング要素340(図3)は、直射日光撮像装置230(図2)、屋内照明撮像装置232(図2)、又は暗視撮像装置234(図2)のうちの2つ以上から得られた画像データからN個の視覚的特徴の組を抽出してよい。プロセッシング要素340(図3)は次いで、現在のカメラ姿勢に対して、N個の視覚的特徴の組に含まれる夫々の特徴iの3D位置を推定してよい。例えば、一態様において、プロセッシング要素340(図3)は、直射日光撮像装置230(図2)の姿勢に対して、特徴iへの第1ベアリングベクトル(μAi)及び特徴iの第1距離パラメータ(ρAi)を推定してよい。同様に、プロセッシング要素340(図3)は、屋内照明撮像装置232(図2)に対して、特徴iへの第2ベアリングベクトル(μBi)及び特徴iの第2距離パラメータ(ρBi)を推定してよい。
ブロック504で、プロセッシング要素340(図3)は、HMD300(図3)に取り付けられている慣性センサ238(図2)から慣性測定データを取得してよい。例えば、一態様において、プロセッシング要素340(図3)は、慣性センサ238から、例えば、1つ以上のケーブル及び/又は配線240(図3)を介して、慣性センサ238(図2)の現在の加速度、慣性センサ238(図2)の向き(q)、慣性センサ238(図2)における加速度計のバイアス(bf)、慣性センサ238(図2)におけるジャイロスコープのバイアス(bw)、及び慣性センサ238(図2)における圧力センサのバイアス(bp)を受信してよい。一態様において、プロセッシング要素340は、現在の加速度を積分することによって、慣性センサ238(図2)の速度(v)を計算してよい。プロセッシング要素340(図3)は更に、決定された速度(v)を積分することによって、慣性センサ238(図2)の位置(r)を計算してよい。
ブロック506で、プロセッシング要素340(図3)は、拡張カルマンフィルタ(Extended Kalman Filter)(EKF)を用いて、例えば、ブロック502で取得された画像データと、例えば、ブロック504で取得された慣性測定データとにフィルタをかけてよい。例えば、一態様において、プロセッシング要素340(図3)は、次のフィルタ状態:

x:=(r,v,q,bf,bw,bp,μA0,・・・,μAn,ρA0,・・・ρAn,μB0,・・・,μBn,ρB0,・・・,ρBn)

r:慣性センサの位置
v:慣性センサの速度
q:慣性センサの向き
bf:加速度計バイアス
bw:ジャイロスコープバイアス
bp:圧力センサバイアス
μAi:特徴iへのベアリングベクトル
ρAi:特徴iの距離パラメータ
μBi:特徴iへのベアリングベクトル
ρBi:特徴iの距離パラメータ

を用いて画像データ及び慣性測定データにフィルタをかけてよい。
EKFを用いて、プロセッシング要素340(図3)は、画像データ(例えば、μAi、ρAi、μBi、及びρBi)及び慣性測定データ(例えば、r、v、q、bf、bw、及びbp)の全てを処理して、夫々の特徴iについて3D位置の全体で最良の推定を生成し得る。
ブロック508で、プロセッシング要素340(図3)は、N個の視覚的特徴のうちの各特徴の位置(例えば、3D位置)を追跡してよい。例えば、一態様において、プロセッシング要素340(図3)は、例えば、ブロック502で、直射日光撮像装置230(図2)、屋内照明撮像装置232(図2)、又は暗視撮像装置234(図2)のうちの2つ以上から新しい画像データを取得してよい。新たに取得された画像データは、異なるカメラ姿勢から捕捉されてよい。例えば、HMD300(図3)に取り付けられている直射日光撮像装置230(図2)、屋内照明撮像装置232(図2)、又は暗視撮像装置234(図2)のうちの2つ以上の姿勢は、HMDのユーザが彼らの頭を左及び/又は右に回したり、新しい場所へ移動したり、あるいは、HMD300(図3)の位置及び/又は向きを別なふうに調整したりする場合に変化し得る。よって、プロセッシング要素340(図3)は、その異なるカメラ姿勢に対して、取得された画像データにおける各特徴iの3D位置を推定し直してよい。プロセッシング要素340(図3)はまた、HMDのユーザがHMD300(図3)の位置及び/又は向きを調整する場合に、例えば、ブロック504で、慣性センサ238(図2)から新しい慣性測定データを取得してよい。プロセッシング要素340(図3)は次いで、新たに取得された画像データ及び/又は慣性測定データに基づき、例えば、ブロック506で、EKFフィルタ状態の1つ以上のパラメータを更新して、N個の視覚的特徴に含まれる各特徴iの3D位置の新しい全体として最良の推定を生成してよい。
ブロック510で、ヘルメット装着式ディスプレイポッドは、N個の視覚的特徴の追跡された3D位置を表示してよい。一態様において、プロセッシング要素340(図3)は、N個の視覚的特徴のうちの各特徴iの3D位置の全体として最良の推定をヘルメット装着式ディスプレイポッド(図3)へ連続的に送信するよう構成されてよい。例えば、プロセッシング要素340(図3)は、例えば、ブロック508で、取得されたN個の視覚的特徴の3D位置の全体として最良の推定を、1つ以上のケーブル及び/又は配線240(図2)を介してヘルメット装着式ディスプレイポッドへ送信してよい。ヘルメット装着式ディスプレイポッド(図3)は次いで、N個の視覚的特徴の3D位置の全体として最良の推定を代表位置視覚画像情報に組み立て、その代表位置視覚画像情報をLOE320(図3)で表示するよう構成されてよい。例えば、代表位置視覚画像情報は、HMDのユーザの視点から、夫々の視覚的特徴の推定された位置が現実世界における対応するランドマークの上に重ね合わされるように、LOE320(図3)で表示されてよい。
更なる、又は代替的な態様では、ヘルメット装着式ディスプレイポッドは、ユーザ(例えば、HMD300)の位置を表す視覚画像情報をLOE320(図3)で表示するよう構成されてよい。例えば、一態様において、プロセッシング要素340(図3)は、N個の視覚的特徴の追跡された3D位置に基づき、HMD300が起動した場所に対するHMD300の位置を推定してよい。当然ながら、ヘルメット装着式ディスプレイポッドはまた、ユーザの及び/又は視覚的特徴の位置に関する他の視覚画像情報を表示するよう構成されてよい。
図6は、図2及び図3の例となるナビゲーションシステムにおける慣性センサ238(図2)及びヘルメット装着式ディスプレイポッド(図3)の間のボアサイトキャリブレーションを自動的に実行する方法のフローチャート600である。例えば、一態様において、慣性センサ238(図2)の向き(例えば、回転)及びヘルメット装着式ディスプレイポッド(図3)の向きは、夫々の特徴の推定された位置を表す視覚情報が実際の場面内の対応するランドマークの上に正確に投影されるように、自動的にアライメントされてよい。
ブロック602で、ジャイロスコープ310(図3)は、HMD300(図3)に取り付けられているヘルメット装着式ディスプレイポッド(図3)の回転を検出するよう構成されてよい。例えば、HMD300(図3)の第1ユーザは、HMD300(図3)の額部端に対して第1取り付け角度でヘルメット装着式ディスプレイポッド(図3)を取り付けてよく、それにより、ヘルメット装着式ディスプレイポッド(図3)のLOE320(図3)が第1ユーザの目の前に位置付けられるようにする。しかし、HMD300(図3)の第2ユーザは、LOE320(図3)が第2ユーザの目の前に位置付けられるように、HMD300の額部端に対して第2取り付け角度でヘルメット装着式ディスプレイポッド(図3)を取り付けるよう選択してよい。このように、HMD300(図3)の第2ユーザは、ヘルメット装着式ディスプレイポッド(図3)を第1取り付け位置から第2取り付け位置へ動かし(例えば、回転し)得る。その上、HMD300(図3)のヘルメット装着式ディスプレイポッドは、第2ユーザが自身の頭を左、右、上及び/又は下に動かす場合に回転し得る。一態様において、ヘルメット装着式ディスプレイポッド(図3)におけるジャイロスコープ310(図3)は、ヘルメット装着式ディスプレイポッド(図3)の回転(例えば、ロール、ピッチ、及びヨー)を検出し測定してよい。
ブロック604で、慣性センサ238(図2)におけるジャイロスコープ(図示せず。)は、HMD300(図3)に取り付けられている慣性センサ238(図2)の回転を検出するよう構成されてよい。慣性センサ238は、例えば、HMD300の第2ユーザが自身の頭を左、右、上及び/又は下に動かす場合に回転し得る。一態様において、慣性センサ238(図2)におけるジャイロスコープは、慣性センサ238(図2)の回転を検出し測定してよい。
当然ながら、慣性センサ238(図2)は、直射日光撮像装置230(図2)、屋内照明撮像装置232(図2)、又は暗視撮像装置234(図2)のうちの2つ以上に近接近して(例えば、数インチ内で)HMD300に取り付けられてよい。よって、慣性センサ238(図2)の回転は、直射日光撮像装置230(図2)、屋内照明撮像装置232(図2)、又は暗視撮像装置234(図2)のうちの2つ以上の回転に近似的に対応し得る。
ブロック606で、プロセッシング要素340(図3)は、例えば、ブロック602及び604で取得された回転情報に基づき、ヘルメット装着式ディスプレイポッド(図3)の回転と慣性センサ238(図2)の回転との間のオフセットを決定するよう構成されてよい。一態様において、プロセッシング要素340(図3)は、例えば、インターフェイスボックス並びに1つ以上のケーブル及び/又は配線240(図2)を介して、ヘルメット装着式ディスプレイポッド(図3)におけるジャイロスコープ310(図3)及び慣性センサ238(図2)におけるジャイロスコープ(図示せず。)の両方から回転情報を取得してよい。一態様において、プロセッシング要素340は、例えば、地面に対して、ヘルメット装着式ディスプレイポッド(図3)におけるジャイロスコープ310(図3)の回転と慣性センサ238(図2)におけるジャイロスコープの回転との間の回転オフセットを計算してよい。
ブロック608で、プロセッシング要素340(図3)は、ヘルメット装着式ディスプレイポッド(図3)におけるジャイロスコープ310(図3)の回転を、慣性センサ238(図2)におけるジャイロスコープの回転とアライメント(例えば、較正)するよう構成されてよい。例えば、一態様において、プロセッシング要素340は、ジャイロスコープ間の回転オフセットがゼロまで小さくなるように、ジャイロスコープ310(図3)の回転及び/又は慣性センサ238(図2)の回転を調整するよう構成されてよい。
当然ながら、慣性センサ238(図2)の向きをジャイロスコープ310(図3)の向きと自動的にアライメントする方法600は、HMD300の環境内の視覚的特徴の3D位置を追跡し表示する方法500(図5)がプロセッシング要素340(図3)によって実行される前、その間、及び/又はその後に実装されてよい。
図7は、本開示の態様に従って、ステレオカメラ構成(例えば、第1モノキュラーナビゲーションシステム及び第2モノキュラーナビゲーションシステム)を検出し自動的に較正する方法のフローチャート700である。例えば、一態様において、図8を参照すると、第1モノキュラーナビゲーションシステム810は、HMD300(図3)の第1の側に取り付けられている慣性センサ238(図2)及び直射日光撮像装置230(図2)、屋内照明撮像装置232(図2)、又は暗視撮像装置234(図2)のうちの2つ以上を含んでよい。この態様において、第2モノキュラーナビゲーションシステム820は、HMD300(図3)の第2の側に取り付けられている慣性センサ238(図2)及び直射日光撮像装置230(図2)、屋内照明撮像装置232(図2)、又は暗視撮像装置234(図2)のうちの2つ以上を含んでよい。一態様において、ヘルメット装着式ディスプレイポッド(図3)も、HMD300(図3)の額部端に取り付けられてよい。例えば、一態様において、第1モノキュラーナビゲーションシステム810は、ヘルメット装着式ディスプレイポッド(図3)に対する第1位置オフセットでHMD300の第1の側に取り付けられてよい。同様に、この態様において、第2モノキュラーナビゲーションシステム820は、ヘルメット装着式ディスプレイポッド(図3)に対する第2位置オフセット(例えば、第1位置オフセットよりも大きい位置オフセット)でHMD300の第2の側に取り付けられてよい。更に、一態様において、プロセッシング要素340は、第1モノキュラーナビゲーションシステム810、第2モノキュラーナビゲーションシステム820、及び/又はヘルメット装着式ディスプレイポッド(図3)へ結合され、それらと通信してよい。
更に、当然ながら、ステレオカメラ構成の使用は、ロバスト性を改善するとともに、他の特徴及び/又は利点を提供し得る。例えば、一態様において、第1モノキュラーナビゲーションシステム810及び第2モノキュラーナビゲーションシステム820は夫々、図5に関連して本明細書で記載されるように、HMD300の環境内の視覚的ランドマークの位置及び向きを独立して追跡するよう構成されてよい。第1モノキュラーナビゲーションシステム810及び第2モノキュラーナビゲーションシステム820が較正される場合に、プロセッシング要素340は、ユーザ(例えば、ステレオナビゲーションシステム)の位置及び/又は視覚的ランドマークの位置をより正確に推定するよう、第1モノキュラーナビゲーションシステム810及び第2モノキュラーナビゲーションシステム820から取得された情報を結合してよい。ヘルメット装着式ディスプレイポッド(図3)は次いで、ユーザ及び/又はランドマークの位置に関する他の情報とともに、視覚的ランドマークの推定された位置を実際の場面内の対応するランドマークの上に、及び/又はユーザの推定された位置を実際の場面の上に重ね合わせるよう構成されてよい。
再び図7を参照すると、本開示の態様に従って使用される第1モノキュラーナビゲーションシステム810(図8)及び第2モノキュラーナビゲーションシステム820(図8)を検出し自動的に較正する方法が、表されている。ブロック702で、プロセッシング要素340(図3)は、第1モノキュラーナビゲーションシステム810(図8)がHMD300(図3)の左側又は右側に取り付けられているかどうかを判定するよう構成されてよい。例えば、一態様において、第1モノキュラーナビゲーションシステム810(図8)の第1慣性センサにおける第1加速度計は、第1慣性センサの加速度(例えば、重力)を測定してよい。第1慣性センサは、加速度の値をプロセッシング要素340(図3)へ送ってよい。プロセッシング要素340(図3)は次いで、加速度の値が正又は負であるかどうかを判定してよい。加速度が正の値である場合には、プロセッシング要素340は、第1ナビゲーションシステムがヘルメットの左側に取り付けられている(例えば、第1慣性センサは上側を下向きに取り付けられている)と決定してよい。加速度が負の値である場合には、プロセッシング要素340は、第1ナビゲーションシステムがヘルメットの右側に取り付けられている(例えば、第1慣性センサは下側をした向きに取り付けられている)と決定してよい。
ブロック704で、プロセッシング要素340(図3)は、第2モノキュラーナビゲーションシステム820(図8)がHMD300(図3)の左側又は右側に取り付けられているかどうかを判定するよう構成されてよい。例えば、一態様において、第2モノキュラーナビゲーションシステム820(図8)の第2慣性センサにおける第2加速度計は、第2慣性センサの加速度(例えば、重力)を測定してよい。第2慣性センサは、加速度の値をプロセッシング要素340(図3)へ送ってよい。プロセッシング要素340(図3)は次いで、加速度の値が正又は負であるかどうかを判定してよい。加速度が正の値である場合には、プロセッシング要素340は、第2ナビゲーションシステムがヘルメットの左側に取り付けられている(例えば、第2慣性センサは上側を下向きに取り付けられている)と決定してよい。加速度が負の値である場合には、プロセッシング要素340は、第2ナビゲーションシステムがヘルメットの右側に取り付けられている(例えば、第2慣性センサは下側をした向きに取り付けられている)と決定してよい。
ブロック706で、プロセッシング要素340(図3)は、ヘルメット装着式ディスプレイポッド(図3)に対する第1モノキュラーナビゲーションシステム810の位置オフセットを決定するよう構成されてよい。一態様において、第1モノキュラーナビゲーションシステム810の位置オフセットは、例えば、テーブル又はデータ配列において格納された値であってよい。例えば、第1ナビゲーションシステムがHMD300(図3)の左側又は右側に取り付けられていると、例えば、ブロック702で決定するとき、プロセッシング要素340(図3)は、左側及び右側に夫々対応する第1位置オフセット又は第2位置オフセットのいずれかをテーブル又はデータ配列から取り出してよい。
ブロック708で、プロセッシング要素340(図3)は、ヘルメット装着式ディスプレイポッド(図3)に対する第2モノキュラーナビゲーションシステム820の位置オフセットを決定するよう構成されてよい。一態様において、第2モノキュラーナビゲーションシステム820の位置オフセットは、例えば、テーブル又はデータ配列において格納された値であってよい。例えば、第2ナビゲーションシステムがHMD300(図3)の左側又は右側に取り付けられていると、例えば、ブロック704で決定するとき、プロセッシング要素340(図3)は、左側及び右側に夫々対応する第1位置オフセット又は第2位置オフセットのいずれかをテーブル又はデータ配列から取り出してよい。
ブロック710で、プロセッシング要素340(図3)は、第1モノキュラーナビゲーションシステム810(図8)及び第2モノキュラーナビゲーションシステム820(図8)をアライメントするよう構成されてよい。例えば、一態様において、プロセッシング要素340(図3)は、例えば、ブロック706で決定された第1モノキュラーナビゲーションシステム810の位置オフセットに基づき、第1モノキュラーナビゲーションシステム810(図8)をHMD300(図3)のヘルメット装着式ディスプレイポッド(図3)と自動的にアライメント(例えば、較正)してよい。プロセッシング要素340は、同様に、例えば、ブロック708で決定された第2モノキュラーナビゲーションシステム820の位置オフセットに基づき、第2モノキュラーナビゲーションシステム820(図8)をHMD300(図3)のヘルメット装着式ディスプレイポッド(図3)に対して較正してよい。然るに、第1モノキュラーナビゲーションシステム810(図8)及び第2モノキュラーナビゲーションシステム820(図8)の相対位置は、お互いとアライメントされ得る。
図9は、本明細書で提示される態様に従って使用される様々なハードウェアコンポーネント及び他の機構の例となるシステム図を提示する。態様は、ハードウェア、ソフトウェア、又はそれらの組み合わせを用いて実装されてよく、1つ以上のコンピュータシステム又は他のプロセッシングシステムで実装されてよい。一例において、態様は、例えば、図5、図6、及び図7に関連して、本明細書で記載される機能を実行することができる1つ以上のコンピュータシステムを含んでよい。そのようなコンピュータシステム900の例が図9に示される。
コンピュータシステム900は、プロセッサ904のような、1つ以上のプロセッサを含む。プロセッサ904は、図2及び図3に関連して記載されたプロセッシング要素340に対応してよい。プロセッサ904は、通信インフラストラクチャ906(例えば、通信バス、クロスオーバー・バー、又はネットワーク)へ接続されている。様々なソフトウェア態様が、この例となるコンピュータシステムに関して記載される。この記載を読んだ後に、本明細書で提示されている態様を他のコンピュータシステム及び/又はアーキテクチャを用いて如何に実装すべかが、当業者に明らかになるだろう。
コンピュータシステム900は、通信インフラストラクチャ906から(又は図示されないフレームバッファ)からのグラフィクス、テキスト、及び他のデータを表示ユニット930での表示のために転送する表示インターフェイス902を含むことができる。コンピュータシステム900は、メインメモリ908、望ましくはランダムアクセスメモリ(RAM)を更に含み、更には、二次メモリ910を含んでもよい。二次メモリ910は、例えば、ハードディスクドライブ912及び/又はリムーバブルストレージドライブ914(フロッピー(登録商標)ディスクドライブ、磁気テープドライブ、光ディスクドライブ、などを表す。)を含んでよい。リムーバブルストレージドライブ914は、よく知られた方法でリムーバブルストレージユニット918に対してリード及び/又はライトを行う。リムーバブルストレージユニット918は、リムーバブルストレージドライブ914によって読み出され且つそれに書き込まれるフロッピーディスク、磁気テープ、光ディスク、などを表す。明らかなように、リムーバブルストレージユニット918は、コンピュータソフトウェア及び/又はデータを記憶しているコンピュータ使用可能な記憶媒体を含む。
代替の態様では、二次メモリ910は、コンピュータプログラム又は他の命令がコンピュータシステム900にロードされることを可能にする他の同様の装置を含んでよい。そのような装置は、例えば、リムーバブルストレージユニット922及びインターフェイス920を含んでよい。そのような例は、プログラムカートリッジ及びカートリッジインターフェイス(例えば、ビデオゲーム機で見られるようなもの)、リムーバブルメモリチップ(例えば、消去可能なプログラム可能リードオンリーメモリ(EPROM)又はプログラム可能リードオンリーメモリ(PROM))及び関連するソケット、並びに他のリムーバブルストレージユニット922及びインターフェイス920を含んでよく、これらは、ソフトウェア及びデータがリムーバブルストレージユニット922からコンピュータシステム900に移動されることを可能にする。
コンピュータシステム900は、通信インターフェイス924を更に含んでよい。通信インターフェイス924は、ソフトウェア及びデータがコンピュータシステム900と外部装置との間で転送されることを可能にする。通信インターフェイス924の例には、モデム、ネットワークインターフェイス(例えば、イーサネット(登録商標)カード)、通信ポート、パーソナル・コンピュータ・メモリ・カード・インターナショナル・アソシエーション(PCMCIA)スロット及びカード、などが含まれ得る。通信インターフェイス924を介して転送されるソフトウェア及びデータは、信号929の形をとる。信号929は、通信インターフェイス924によって受信されることが可能な電子、電磁気、光又は他の信号であってよい。それらの信号929は、通信経路(例えば、チャネル)926を介して通信インターフェイス924へ供給される。この経路926は、信号929を運び、そして、配線若しくはケーブル、光ファイバ、電話回線、セルラーリンク、無線周波数(RF)リンク及び/又は他の通信チャネルを用いて実装されてよい。本明細書において、“コンピュータプログラム媒体”及び“コンピュータ使用可能な媒体”との語は、リムーバブルストレージドライブ914、ハードディスクドライブ912に設置されたハードディスク、及び信号929のような媒体を概して指すために使用される。それらのコンピュータプログラム製品は、ソフトウェアをコンピュータシステム900へ供給する。本明細書で提示される態様は、そのようなコンピュータプログラム製品を含んでよい。
コンピュータプログラム(コンピュータ制御ロジックとも呼ばれる。)は、メインメモリ908及び/又は二次メモリ910に記憶されている。コンピュータプログラムはまた、通信インターフェイス924を介して受け取られてもよい。そのようなコンピュータプログラムは、実行される場合に、本明細書で説明されているように、本明細書で提示されている機能を実行することをコンピュータシステム900に可能にする。特に、コンピュータプログラムは、実行される場合に、本明細書で提示されている特徴を実行することをプロセッサ904に可能にする。然るに、そのようなコンピュータプログラムは、コンピュータシステム900のコントローラを表す。
ソフトウェアを用いて実装される態様において、ソフトウェアは、コンピュータプログラム製品において記憶され、リムーバブルストレージドライブ914、ハードディスクドライブ912、又は通信インターフェイス924を用いてコンピュータシステム900にロードされてよい。制御ロジック(ソフトウェア)は、プロセッサ904によって実行される場合に、プロセッサ904に、本明細書で記載される機能を実行させる。他の例では、態様は、例えば、特定用途向け集積回路(ASIC)のようなハードウェアコンポーネントを用いて主としてハードウェアにおいて実装されてよい。本明細書で提示されている機能を実行するためのハードウェア状態機械の実装は、当業者に明らかだろう。
更なる他の例では、本明細書で提示されている態様は、ハードウェア及びソフトウェアの両方の組み合わせを用いて実装されてよい。
図10は、本開示の態様に従って使用され得る様々な例となるシステムコンポーネントのブロック図を表す。システム1000は、1つ以上のアクセサ1060、1062(同義的に本明細書では1以上の“ユーザ”とも呼ばれる。)と、1つ以上の端末1042、1066(そのような端末は、例えば、図2、図3、及び図8で表されたナビゲーションシステムの様々な機構であってよく、あるいは、それらの機構を含んでよい。)とを含む。一態様において、本開示の態様に従って使用されるデータは、例えば、ネットワーク1044(例えば、インターネット又はイントラネット)及び結合1045、1046、1064を介してサーバ1043(例えば、PC、ミニコンピュータ、メインフレームコンピュータ、マイクロコンピュータ、又はプロセッサ並びにデータのためのレポジトリ及び/又はデータのためのレポジトリへの接続を備えた他の装置)へ結合された端末1042、1066(例えば、パーソナルコンピュータ(PC)、ミニコンピュータ、メインフレームコンピュータ、マイクロコンピュータ、電話機、又はパーソナルデジタルアシスタント(PDA)若しくは携帯型無線装置のような無線装置)を通してアクセサ1060、1062によって入力及び/又はアクセスされる。結合1045、1046、1064は、例えば、有線、無線、又は光ファイバリンクを含む。他の変形例では、本開示の対象に従う方法及びシステムは、スタンドアローンの環境において、例えば、単一の端末上で動作する。
本明細書で記載される態様は、上記の例となる態様と関連して記載されてきたが、様々な代替、変更、変形、改善、及び/又は実質的同等物は、知られていようと又は現在予期せぬものであろうと、少なくとも当業者に明らかになり得る。然るに、上記の例となる態様は、限定ではなく実例であるよう意図される。様々な変更は、本開示の精神及び適用範囲から逸脱することなしに行われ得る。そのため、本開示は、全ての知られている又は後に開発される代替、変更、変形、改善、及び/又は実質的同等物を包含するよう意図される。
よって、特許請求の範囲は、本明細書で示されている態様に制限されるよう意図されず、特許請求の範囲の文言に一致する全範囲を与えられるべきである。単数での要素への言及は、特にそのように述べられない限りは“唯一無二”(one and only one)を意味するよう意図されず、むしろ“1つ以上”(one or more)を意味する。当業者に知られているか又は後に知られるようになる、本開示を通して記載される様々な態様の要素と機能的及び構造的に同等である全てのものは、参照により本願に明らかに組み込まれ、特許請求の範囲によって包含されるよう意図される。更に、本明細書で開示されているものは、そのような開示が特許請求の範囲で明示的に列挙されているかどうかにかかわらず、一般に公開されているよう意図されない。クレーム要素は、その要素が“〜する手段”との語句を用いて明示的に列挙されない限りは、ミーンズ・プラス・ファンクション(means plus function)と解釈されるべきではない。
開示されているプロセス/フローチャートにおけるブロックの具体的な順序又は階層は、例となるアプローチの実例であることが理解される。設計好みに基づき、プロセス/フローチャートにおけるブロックの具体的な順序又は階層は、再配置されてよいことが理解される。更に、いくつかのブロックは結合又は削除されてもよい。付随する方法クレームは、サンプル順序で様々なブロックの要素を示し、示されている具体的な順序又は階層に制限されるよう意図されない。
上記の説明は、本明細書で記載されている様々な態様を実施することを当業者に可能にするために与えられている。それらの態様に対する様々な変更は、当業者に容易に明らかであり、本明細書で定義される一般原理は、他の態様に適用されてよい。よって、特許請求の範囲は、本明細書で示されている態様に制限されるよう意図されず、特許請求の範囲の文言に一致する全範囲を与えられるべきである。単数での要素への言及は、特にそのように述べられない限りは“唯一無二”(one and only one)を意味するよう意図されず、むしろ“1つ以上”(one or more)を意味する。“例となる”(exemplary)との語は、“例(example)、事例(instance)、又は実例(illustration)となる”を意味するために本明細書で使用される。“例となる”よう本明細書で記載されている如何なる態様も、必ずしも、他の態様に対して好ましい又は有利であると解釈されるべきではない。別なふうに特段述べられない限りは、“いくつかの”(some)との語は1つ以上を指す。“A、B又はCのうちの少なくとも1つ”(at least one of A, B, or C)、“A、B及びCのうちの少なくとも1つ”(at least one of A, B, and C)、及び“A、B、C、又はそれらのあらゆる組み合わせ”(A, B, C, or any combination thereof)は、A、B及び/又はCの如何なる組み合わせも含み、複数のA、複数のB、又は複数のCを含んでもよい。具体的に、“A、B又はCのうちの少なくとも1つ”(at least one of A, B, or C)、“A、B及びCのうちの少なくとも1つ”(at least one of A, B, and C)、及び“A、B、C、又はそれらのあらゆる組み合わせ”(A, B, C, or any combination thereof)のような組み合わせは、Aのみ、Bのみ、Cのみ、A及びB、A及びC、B及びC、又はA及びB及びCであってよい。如何なるそのような組み合わせも、A、B又はCのうちの1つ以上を含んでよい。当業者に知られているか又は後に知られるようになる、本開示を通して記載される様々な態様の要素と機能的及び構造的に同等である全てのものは、参照により本願に明らかに組み込まれ、特許請求の範囲によって包含されるよう意図される。更に、本明細書で開示されているものは、そのような開示が特許請求の範囲で明示的に列挙されているかどうかにかかわらず、一般に公開されているよう意図されない。クレーム要素は、その要素が“〜する手段”との語句を用いて明示的に列挙されない限りは、ミーンズ・プラス・ファンクション(means plus function)と解釈されるべきではない。
[関連出願の相互参照]
本願は、2016年6月2日付けで出願された米国特許仮出願第62/344843号及び2017年5月31日付けで出願された米国特許出願第15/609669号に基づく優先権を主張するものである。なお、これらの特許出願の内容は、その全文を参照により本願に援用される。

Claims (20)

  1. ビジョン慣性ナビゲーションのための方法であって、
    第1ナビゲーションサブシステムの、照明条件の第1範囲において画像を捕捉する第1太陽光撮像装置、照明条件の第2範囲において画像を捕捉する第1屋内照明撮像装置、及び照明条件の第3範囲において画像を捕捉する第1暗視撮像装置の夫々から、環境の視覚的特徴を捕捉する画像データを受けることであり、前記照明条件の第1範囲、前記照明条件の第2範囲、及び前記照明条件の第3範囲は互いに異なる、前記画像データを受けることと、
    前記第1ナビゲーションサブシステムの第1慣性センサから第1慣性測定データを受けることと、
    前記第1太陽光撮像装置、前記第1屋内照明撮像装置、及び前記第1暗視撮像装置から受け取られた前記画像データと、前記第1慣性センサから受け取られた前記第1慣性測定データとに基づき、前記視覚的特徴の位置を追跡することと、
    複数の前記追跡する位置を代表位置視覚画像情報に組み立てることと、
    前記代表位置視覚画像情報を表示することと
    を有する方法。
  2. 拡張カルマンフィルタを、前記第1太陽光撮像装置、前記第1屋内照明撮像装置、及び前記第1暗視撮像装置から受け取られた前記画像データと、前記第1慣性センサから受け取られた前記第1慣性測定データとのうちの少なくとも1つに適用することを更に有する
    請求項1に記載の方法。
  3. 前記第1太陽光撮像装置、前記第1屋内照明撮像装置、及び前記第1暗視撮像装置は、ヘルメット装着式ディスプレイに取り付けられており、
    前記第1慣性センサは、前記ヘルメット装着式ディスプレイに取り付けられている、
    請求項1に記載の方法。
  4. 前記代表位置視覚画像情報を、前記ヘルメット装着式ディスプレイに取り付けられたディスプレイポッドに送ることを更に有し、
    前記ディスプレイポッドは、前記代表位置視覚画像情報を透明表示装置で表示するよう構成される、
    請求項3に記載の方法。
  5. 第2ナビゲーションサブシステムの第2太陽光撮像装置、第2屋内照明撮像装置、及び第2暗視撮像装置を含むグループから選択された2つ以上から前記画像データの少なくとも一部分を受けることと、
    前記第2ナビゲーションサブシステムの第2慣性センサから第2慣性測定データを受けることと
    を更に有し、
    前記第2ナビゲーションサブシステムの前記第2太陽光撮像装置、前記第2屋内照明撮像装置、及び前記第2暗視撮像装置のうちの前記2つ以上は、前記ヘルメット装着式ディスプレイに取り付けられており、
    前記第2ナビゲーションサブシステムの前記第2慣性センサは、前記ヘルメット装着式ディスプレイに取り付けられている、
    請求項4に記載の方法。
  6. 前記視覚的特徴の位置を追跡することは、前記第2太陽光撮像装置、前記第2屋内照明撮像装置、及び前記第2暗視撮像装置のうちの前記2つ以上から受け取られた前記画像データと、前記第2慣性センサから受け取られた前記第2慣性測定データとに更に基づく、
    請求項5に記載の方法。
  7. 前記ディスプレイポッドの回転と前記第1慣性センサ及び前記第2慣性センサのうちの少なくとも一方の回転との間の回転オフセットを決定することと、
    前記回転オフセットが小さくされるように前記第1慣性センサ及び前記第2慣性センサのうちの前記少なくとも一方と前記ディスプレイポッドとをアライメントすることと
    を更に有する
    請求項5に記載の方法。
  8. 前記第1ナビゲーションサブシステムが前記ヘルメット装着式ディスプレイの左側又は右側に取り付けられているかどうかを判定することと、
    前記第2ナビゲーションサブシステムが前記ヘルメット装着式ディスプレイの前記左側又は前記右側に取り付けられているかどうかを判定することと、
    夫々のサブシステムが前記左側又は前記右側に取り付けられているかどうかに基づき前記第1ナビゲーションサブシステム及び前記第2ナビゲーションサブシステムを較正することと
    を更に有する
    請求項5に記載の方法。
  9. 第1ナビゲーションサブシステムと、
    命令を記憶するよう構成されたメモリと、
    前記メモリ及び前記第1ナビゲーションサブシステムへ通信上結合されたプロセッサと
    を有し、
    前記第1ナビゲーションサブシステムは、
    環境の視覚的特徴を捕捉する画像データを得るために、照明条件の第1範囲において画像を捕捉する第1太陽光撮像装置、照明条件の第2範囲において画像を捕捉する第1屋内照明撮像装置、及び照明条件の第3範囲において画像を捕捉する第1暗視撮像装置を含み、前記照明条件の第1範囲、前記照明条件の第2範囲、及び前記照明条件の第3範囲は互いに異なり
    前記第1ナビゲーションサブシステムに関連した慣性測定データを得る第1慣性測定ユニットを含み、
    前記プロセッサは、前記命令を実行して、
    前記第1太陽光撮像装置、前記第1屋内照明撮像装置、又は前記第1暗視撮像装置から前記画像データを受け、
    前記第1慣性測定ユニットから前記慣性測定データを受け、
    前記第1太陽光撮像装置、前記第1屋内照明撮像装置、及び前記第1暗視撮像装置から受け取られた前記画像データと、前記第1慣性測定ユニットから受け取られた前記慣性測定データとに基づき、前記視覚的特徴の位置を追跡し、
    複数の前記追跡する位置を代表位置視覚画像情報に組み立て、
    前記代表位置視覚画像情報を表示する
    よう構成される、
    ビジョン慣性ナビゲーションシステム。
  10. 少なくとも1つの発光ダイオードが、前記環境を照らすために前記第1暗視撮像装置へ結合される、
    請求項9に記載のビジョン慣性ナビゲーションシステム。
  11. 前記プロセッサは更に、
    拡張カルマンフィルタを、前記第1太陽光撮像装置、前記第1屋内照明撮像装置、及び前記第1暗視撮像装置から受け取られた前記画像データと、前記第1慣性測定ユニットから受け取られた前記慣性測定データとのうちの少なくとも1つに適用する
    よう構成される、
    請求項9に記載のビジョン慣性ナビゲーションシステム。
  12. ヘルメット装着式ディスプレイを更に有し、
    前記第1慣性測定ユニットと、前記第1太陽光撮像装置、前記第1屋内照明撮像装置、及び前記第1暗視撮像装置とは、前記ヘルメット装着式ディスプレイに取り付けられている、
    請求項9に記載のビジョン慣性ナビゲーションシステム。
  13. 前記ヘルメット装着式ディスプレイに取り付けられたディスプレイポッドを更に有し、
    前記プロセッサは、前記ディスプレイポッドへ通信上結合され、前記プロセッサは更に、
    前記代表位置視覚画像情報を前記ディスプレイポッドへ送る
    よう構成され、
    前記ディスプレイポッドは、前記代表位置視覚画像情報を透明表示装置で表示するよう構成される、
    請求項12に記載のビジョン慣性ナビゲーションシステム。
  14. 第2ナビゲーションサブシステムを更に有し、該第2ナビゲーションサブシステムは、
    前記画像データの少なくとも一部分を得るために、第2太陽光撮像装置、第2屋内照明撮像装置、及び第2暗視撮像装置を含むグループから選択された2つ以上と、
    前記第2ナビゲーションサブシステムに関連した第2慣性測定データを得る第2慣性測定ユニットと
    を含み、
    前記第2太陽光撮像装置、前記第2屋内照明撮像装置、及び前記第2暗視撮像装置のうちの前記2つ以上は、前記ヘルメット装着式ディスプレイに取り付けられており、前記第2慣性測定ユニットは、前記ヘルメット装着式ディスプレイに取り付けられており、
    前記プロセッサは、前記第2ナビゲーションサブシステムへ通信上結合され、更には、
    前記第2太陽光撮像装置、前記第2屋内照明撮像装置、及び前記第2暗視撮像装置から選択された前記2つ以上から前記画像データの前記少なくとも一部分を受け、
    前記第2慣性測定ユニットから前記第2慣性測定データを受ける
    よう構成される、
    請求項13に記載のビジョン慣性ナビゲーションシステム。
  15. 少なくとも1つの発光ダイオードが、前記環境を照らすために前記第2暗視撮像装置へ結合される、
    請求項14に記載のビジョン慣性ナビゲーションシステム。
  16. 前記プロセッサは更に、前記第2太陽光撮像装置、前記第2屋内照明撮像装置、及び前記第2暗視撮像装置のうちの前記2つ以上から受け取られた前記画像データと、前記第2慣性測定ユニットから受け取られた前記第2慣性測定データとに基づき、前記視覚的特徴の前記位置を追跡するよう構成される、
    請求項14に記載のビジョン慣性ナビゲーションシステム。
  17. 前記プロセッサは更に、
    前記ディスプレイポッドの回転と前記第1慣性測定ユニット及び前記第2慣性測定ユニットのうちの少なくとも一方の回転との間の回転オフセットを決定し、
    前記回転オフセットが小さくされるように前記第1慣性測定ユニット及び前記第2慣性測定ユニットのうちの前記少なくとも一方と前記ディスプレイポッドとをアライメントする
    よう構成される、
    請求項14に記載のビジョン慣性ナビゲーションシステム。
  18. 前記プロセッサは更に、
    前記第1ナビゲーションサブシステムが前記ヘルメット装着式ディスプレイの左側又は右側に取り付けられているかどうかを判定し、
    前記第2ナビゲーションサブシステムが前記ヘルメット装着式ディスプレイの前記左側又は前記右側に取り付けられているかどうかを判定する
    よう構成される、
    請求項14に記載のビジョン慣性ナビゲーションシステム。
  19. 前記プロセッサは更に、
    前記ディスプレイポッドの位置に対する前記第1ナビゲーションサブシステムの第1位置オフセットを決定し、該第1位置オフセットは、前記第1ナビゲーションサブシステムが前記ヘルメット装着式ディスプレイの前記左側又は前記右側に取り付けられているかどうかに基づき決定され、
    前記ディスプレイポッドの位置に対する前記第2ナビゲーションサブシステムの第2位置オフセットを決定し、該第2位置オフセットは、前記第2ナビゲーションサブシステムが前記ヘルメット装着式ディスプレイの前記左側又は前記右側に取り付けられているかどうかに基づき決定され、
    前記第1位置オフセット及び前記第2位置オフセットに基づき前記第1ナビゲーションサブシステム及び前記第2ナビゲーションサブシステムを較正する
    よう構成される、
    請求項18に記載のビジョン慣性ナビゲーションシステム。
  20. 前記第1ナビゲーションサブシステムが前記ヘルメット装着式ディスプレイの前記左側又は前記右側に取り付けられているかどうかを判定するよう、前記プロセッサは更に、前記第1慣性測定ユニットにおける加速度計によって測定された加速度が正又は負の値であるかどうかを判定するよう構成され、
    前記第2ナビゲーションサブシステムが前記ヘルメット装着式ディスプレイの前記左側又は前記右側に取り付けられているかどうかを判定するよう、前記プロセッサは更に、前記第2慣性測定ユニットにおける加速度計によって測定された加速度が正又は負の値であるかどうかを判定するよう構成される、
    請求項18に記載のビジョン慣性ナビゲーションシステム。
JP2018563482A 2016-06-02 2017-06-02 拡張ダイナミックレンジを備えた小型のビジョン慣性ナビゲーションシステム Active JP6763975B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020151876A JP6920523B2 (ja) 2016-06-02 2020-09-10 拡張ダイナミックレンジを備えた小型のビジョン慣性ナビゲーションシステム

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662344843P 2016-06-02 2016-06-02
US62/344,843 2016-06-02
US15/609,669 2017-05-31
US15/609,669 US10482668B2 (en) 2016-06-02 2017-05-31 Miniature vision-inertial navigation system with extended dynamic range
PCT/US2017/035680 WO2017218213A2 (en) 2016-06-02 2017-06-02 Miniature vision-inertial navigation system with extended dynamic range

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020151876A Division JP6920523B2 (ja) 2016-06-02 2020-09-10 拡張ダイナミックレンジを備えた小型のビジョン慣性ナビゲーションシステム

Publications (3)

Publication Number Publication Date
JP2019521429A JP2019521429A (ja) 2019-07-25
JP2019521429A5 JP2019521429A5 (ja) 2020-04-23
JP6763975B2 true JP6763975B2 (ja) 2020-09-30

Family

ID=60482882

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018563482A Active JP6763975B2 (ja) 2016-06-02 2017-06-02 拡張ダイナミックレンジを備えた小型のビジョン慣性ナビゲーションシステム
JP2020151876A Active JP6920523B2 (ja) 2016-06-02 2020-09-10 拡張ダイナミックレンジを備えた小型のビジョン慣性ナビゲーションシステム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020151876A Active JP6920523B2 (ja) 2016-06-02 2020-09-10 拡張ダイナミックレンジを備えた小型のビジョン慣性ナビゲーションシステム

Country Status (7)

Country Link
US (1) US10482668B2 (ja)
EP (1) EP3466048A4 (ja)
JP (2) JP6763975B2 (ja)
KR (3) KR102497864B1 (ja)
IL (1) IL263357B (ja)
WO (1) WO2017218213A2 (ja)
ZA (1) ZA201808511B (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10561924B1 (en) * 2014-01-13 2020-02-18 David Alexander Jackson User identification and tracking system for artificial cave obstacle course
CN108053491A (zh) * 2017-12-12 2018-05-18 重庆邮电大学 动态视角条件下实现平面目标三维跟踪和增强现实的方法
CN108981690A (zh) * 2018-06-07 2018-12-11 北京轻威科技有限责任公司 一种光惯融合定位方法、设备及系统
JP6950644B2 (ja) * 2018-08-10 2021-10-13 日本電信電話株式会社 注意対象推定装置及び注意対象推定方法
CN110351595B (zh) 2019-07-17 2023-08-18 北京百度网讯科技有限公司 一种缓冲处理方法、装置、设备和计算机存储介质
US11487124B2 (en) * 2019-08-14 2022-11-01 Thales Defense & Security, Inc. Methods and systems for auto-alignment of displays
CN110765885B (zh) * 2019-09-29 2022-04-01 武汉大学 一种基于异源夜光遥感影像的城市扩张检测方法及装置
CN110926463A (zh) * 2019-11-20 2020-03-27 深圳市优必选科技股份有限公司 一种头盔及定位监控管理系统
KR102254174B1 (ko) * 2019-12-10 2021-05-20 주식회사 피앤씨솔루션 야간 투시경 기능을 갖는 머리 착용형 디스플레이 장치
IL284600B2 (en) * 2021-07-04 2023-10-01 Elbit Systems Ltd System and method for non-conformal display
EP4367547A1 (en) * 2021-07-04 2024-05-15 Elbit Systems Ltd. A conformal display system and a method thereof
US20230094104A1 (en) * 2021-09-28 2023-03-30 Thales Defense & Security, Inc. Methods and apparati for intensified visual-inertial odometry
US20230333450A1 (en) * 2022-04-18 2023-10-19 Thales Defense & Security, Inc. Methods and systems for automatic parallax compensation for helmet mounted imaging sensors used for augmented or extended reality displays

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005172851A (ja) * 2003-12-05 2005-06-30 Sony Corp 画像表示装置
JP4563906B2 (ja) * 2005-09-28 2010-10-20 アルパイン株式会社 ナビゲーション装置
US9766074B2 (en) * 2008-03-28 2017-09-19 Regents Of The University Of Minnesota Vision-aided inertial navigation
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US8762091B1 (en) 2010-06-08 2014-06-24 Thales Visionix, Inc. Inertial measurement system
US8676498B2 (en) * 2010-09-24 2014-03-18 Honeywell International Inc. Camera and inertial measurement unit integration with navigation data feedback for feature tracking
JP2012160898A (ja) * 2011-01-31 2012-08-23 Brother Ind Ltd 画像処理装置
EP2761362A2 (en) * 2011-09-26 2014-08-06 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US9031782B1 (en) 2012-01-23 2015-05-12 The United States Of America As Represented By The Secretary Of The Navy System to use digital cameras and other sensors in navigation
US8860634B2 (en) 2012-10-11 2014-10-14 Sony Computer Entertainment Europe Limited Head mountable display
US9766075B2 (en) 2014-05-02 2017-09-19 Thales Visionix, Inc. Registration for vehicular augmented reality using auto-harmonization
US9420248B2 (en) * 2014-09-19 2016-08-16 Qualcomm Incorporated Multi-LED camera flash for color temperature matching
JP6137113B2 (ja) * 2014-10-24 2017-05-31 ソニー株式会社 表示装置、表示方法、プログラム

Also Published As

Publication number Publication date
KR20230028562A (ko) 2023-02-28
EP3466048A2 (en) 2019-04-10
KR102253629B1 (ko) 2021-05-17
US10482668B2 (en) 2019-11-19
KR20210056459A (ko) 2021-05-18
WO2017218213A2 (en) 2017-12-21
US20170352190A1 (en) 2017-12-07
WO2017218213A3 (en) 2018-02-01
ZA201808511B (en) 2019-09-25
IL263357B (en) 2021-03-25
JP6920523B2 (ja) 2021-08-18
IL263357A (en) 2018-12-31
JP2021005397A (ja) 2021-01-14
KR20190013868A (ko) 2019-02-11
KR102497864B1 (ko) 2023-02-08
JP2019521429A (ja) 2019-07-25
EP3466048A4 (en) 2020-01-01

Similar Documents

Publication Publication Date Title
JP6920523B2 (ja) 拡張ダイナミックレンジを備えた小型のビジョン慣性ナビゲーションシステム
EP3165939B1 (en) Dynamically created and updated indoor positioning map
JP7026214B2 (ja) ヘッドマウントディスプレイ追跡システム
US11042028B1 (en) Relative pose data augmentation of tracked devices in virtual environments
US10191561B2 (en) Tracking controllers of a virtual reality system
CN108022302B (zh) 一种Inside-Out空间定位的AR立体显示装置
EP3374737B1 (en) Robust vision-inertial pedestrian tracking with heading auto-alignment
KR20160148680A (ko) 동적 환경에서의 좌표 프레임의 결정
US10310502B2 (en) Head-mounted display device, control method therefor, and computer program
JP2009538487A (ja) 拡張現実を使用して装置の保守命令および動作命令を表示するシステムおよび方法
WO2018113759A1 (zh) 基于定位系统和ar/mr的探测系统及探测方法
JP2017129904A (ja) 情報処理装置、情報処理方法、及び記録媒体
WO2018217364A1 (en) Dynamic control of performance parameters in a six degrees-of-freedom sensor calibration subsystem
CN110895676B (zh) 动态对象跟踪
US10946271B2 (en) Controlling data processing
US20230359038A1 (en) Eyewear having unsynchronized rolling shutter cameras
Botezatu et al. Development of a versatile assistive system for the visually impaired based on sensor fusion
US10922888B2 (en) Sensor fusion augmented reality eyewear device
US10885657B2 (en) Configuration for indicating image capture device position
US20230319476A1 (en) Eyewear with audio source separation using pose trackers
US20230063386A1 (en) Eyewear synchronized with uav image capturing system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200309

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200309

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200811

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200910

R150 Certificate of patent or registration of utility model

Ref document number: 6763975

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250