JP7357676B2 - 自己改良ビジュアルオドメトリを実施するためのシステムおよび方法 - Google Patents
自己改良ビジュアルオドメトリを実施するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP7357676B2 JP7357676B2 JP2021526271A JP2021526271A JP7357676B2 JP 7357676 B2 JP7357676 B2 JP 7357676B2 JP 2021526271 A JP2021526271 A JP 2021526271A JP 2021526271 A JP2021526271 A JP 2021526271A JP 7357676 B2 JP7357676 B2 JP 7357676B2
- Authority
- JP
- Japan
- Prior art keywords
- interest
- images
- determining
- point
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Description
本発明は、例えば、以下の項目を提供する。
(項目1)
ビジュアルオドメトリを実施するために、ニューラルネットワークを訓練する方法であって、前記方法は、
1つ以上のコンピュータシステムを使用して実装される前記ニューラルネットワークによって、環境の複数の画像を受信することと、
前記ニューラルネットワークによって、画像毎に、個別の着目点のセットおよび個別の記述子を決定することと、
前記ニューラルネットワークによって、前記複数の画像の前記着目点のセットおよび前記記述子に基づいて、前記複数の画像間の対応を決定することであって、前記複数の画像間の対応を決定することは、
着目点のセット間の1つ以上の点対応を決定することであって、各点対応は、1つの画像の着目点と別の画像の着目点との間の個別の対応を示す、ことと、
前記1つ以上の点対応に基づいて、候補着目点のセットを決定することであって、各候補着目点は、3次元空間内の環境内の個別の特徴を示す、ことと
を含む、ことと、
候補着目点毎に、個別の安定性メトリックを決定することと、
1つ以上の候補着目点に基づいて、前記ニューラルネットワークを修正することと
を含む、方法。
(項目2)
候補着目点毎に、前記個別の安定性メトリックを決定することは、第1の候補着目点が安定していることを決定することを含む、項目1に記載の方法。
(項目3)
前記候補着目点の1つ以上のものに基づいて、前記ニューラルネットワークを修正することは、
前記第1の候補着目点が安定していることの決定に応答して、前記複数の画像の中から、第1の候補着目点および第1の対の画像を選択し、前記ニューラルネットワークを訓練することであって、前記第1の対の画像は、前記環境内の第1の候補着目点を描写する、こと
を含む、項目2に記載の方法。
(項目4)
前記第1の候補着目点が安定していることを決定することは、
前記第1の候補着目点が、第1の閾値数を超える前記複数の画像の画像の数に描写されていることを決定することと、
前記第1の候補着目点と関連付けられる再投影誤差が、第1の閾値誤差レベル未満であることを決定することと
を含む、項目2に記載の方法。
(項目5)
候補着目点毎に、前記個別の安定性メトリックを決定することは、第2の候補着目点が不安定であることを決定することを含む、項目2に記載の方法。
(項目6)
前記候補着目点の1つ以上のものに基づいて、前記ニューラルネットワークを修正することは、
前記第2の候補着目点が不安定であることの決定に応答して、前記複数の画像の中から、前記第2の候補着目点および第2の対の画像を選択し、前記ニューラルネットワークを訓練することであって、前記第2の対の画像は、前記環境内の第2の候補着目点を描写する、こと
を含む、項目5に記載の方法。
(項目7)
前記第2の候補着目点が不安定であることを決定することは、
前記第2の候補着目点が、第2の閾値数を超える前記複数の画像の画像の数に描写されていることを決定することと、
前記第2の候補着目点と関連付けられる再投影誤差が、第2の閾値誤差レベルを上回ることを決定することと
を含む、項目5に記載の方法。
(項目8)
前記第1の閾値数は、前記第2の閾値数に等しい、項目7に記載の方法。
(項目9)
前記第1の閾値誤差レベルは、前記第2の閾値誤差レベル未満である、項目7に記載の方法。
(項目10)
候補着目点毎に、前記個別の安定性メトリックを決定することは、第3の候補着目点が、前記ニューラルネットワークの訓練から省略されるべきであることを決定することを含む、項目6に記載の方法。
(項目11)
前記第3の候補着目点が、前記ニューラルネットワークの訓練から省略されるべきであることを決定することは、
前記第3の候補着目点が、第3の閾値数未満の前記複数の画像の画像の数に描写されていること、または
前記第3の候補着目点と関連付けられる再投影誤差が、前記第1の閾値誤差レベルと前記第2の閾値誤差レベルとの間であることを決定すること
のうちの少なくとも1つを決定すること
を含む、項目10に記載の方法。
(項目12)
前記第3の閾値数は、前記第1の閾値数に等しい、項目11に記載の方法。
(項目13)
前記複数の画像は、ビデオシーケンスから抽出された2次元画像を備える、項目1に記載の方法。
(項目14)
前記複数の画像は、前記ビデオシーケンスの非連続的フレームに対応する、項目13に記載の方法。
(項目15)
前記ニューラルネットワークを修正することに続いて、前記ニューラルネットワークによって、第2の環境の第2の複数の画像を頭部搭載型ディスプレイデバイスから受信することと、
前記ニューラルネットワークによって、第2の着目点のセットを識別することと、
前記ニューラルネットワークによって、前記第2の複数の画像および前記第2の着目点のセットに基づいて、前記第2の環境に対してビジュアルオドメトリを実施することと
をさらに含む、項目1に記載の方法。
(項目16)
前記第2の環境に対してビジュアルオドメトリを実施することは、前記第2の着目点のセットを目印として使用して、前記頭部搭載型ディスプレイデバイスの位置および配向を決定することを含む、項目15に記載の方法。
(項目17)
システムであって、
1つ以上のプロセッサと、
1つ以上の非一過性コンピュータ可読媒体であって、前記1つ以上の非一過性コンピュータ可読媒体は、命令の1つ以上のシーケンスを含んでおり、前記命令の1つ以上のシーケンスは、前記1つ以上のプロセッサによって実行されると、
1つ以上のコンピュータシステムを使用して実装されるニューラルネットワークによって、環境の複数の画像を受信することと、
前記ニューラルネットワークによって、画像毎に、個別の着目点のセットおよび個別の記述子を決定することと、
前記ニューラルネットワークによって、前記複数の画像の前記着目点のセットおよび前記記述子に基づいて、前記複数の画像間の対応を決定することであって、前記複数の画像間の対応を決定することは、
着目点のセット間の1つ以上の点対応を決定することであって、各点対応は、1つの画像の着目点と別の画像の着目点との間の個別の対応を示す、ことと、
前記1つ以上の点対応に基づいて、候補着目点のセットを決定することであって、各候補着目点は、3次元空間内の環境内の個別の特徴を示す、ことと
を含む、ことと、
候補着目点毎に、個別の安定性メトリックを決定することと、
1つ以上の候補着目点に基づいて、前記ニューラルネットワークを修正することと
を生じさせる、1つ以上の非一過性コンピュータ可読媒体と
を備える、システム。
(項目18)
候補着目点毎に、前記個別の安定性メトリックを決定することは、第1の候補着目点が安定していることを決定することを含む、項目17に記載のシステム。
(項目19)
前記候補着目点の1つ以上のものに基づいて、前記ニューラルネットワークを修正することは、
前記第1の候補着目点が安定していることの決定に応答して、前記複数の画像の中から、前記第1の候補着目点および第1の対の画像を選択し、前記ニューラルネットワークを訓練することであって、前記第1の対の画像は、前記環境内の第1の候補着目点を描写する、こと
を含む、項目18に記載のシステム。
(項目20)
前記第1の候補着目点が安定していることを決定することは、
前記第1の候補着目点が、第1の閾値数を超える前記複数の画像の画像の数に描写されていることを決定することと、
前記第1の候補着目点と関連付けられる再投影誤差が、第1の閾値誤差レベル未満であることを決定することと
を含む、項目18に記載のシステム。
(項目21)
候補着目点毎に、前記個別の安定性メトリックを決定することは、第2の候補着目点が不安定であることを決定することを含む、項目18に記載のシステム。
(項目22)
前記候補着目点の1つ以上のものに基づいて、前記ニューラルネットワークを修正することは、
前記第2の候補着目点が不安定であることの決定に応答して、前記複数の画像の中から、前記第2の候補着目点および第2の対の画像を選択して、前記ニューラルネットワークを訓練することであって、前記第2の対の画像は、前記環境内の第2の候補着目点を描写する、こと
を含む、項目21に記載のシステム。
(項目23)
前記第2の候補着目点が不安定であることを決定することは、
前記第2の候補着目点が、第2の閾値数を超える前記複数の画像の画像の数に描写されていることを決定することと、
前記第2の候補着目点と関連付けられる再投影誤差が、第2の閾値誤差レベルを上回ることを決定することと
を含む、項目21に記載のシステム。
(項目24)
前記第1の閾値数は、前記第2の閾値数に等しい、項目23に記載のシステム。
(項目25)
前記第1の閾値誤差レベルは、前記第2の閾値誤差レベル未満である、項目23に記載のシステム。
(項目26)
候補着目点毎に、前記個別の安定性メトリックを決定することは、第3の候補着目点が、前記ニューラルネットワークの訓練から省略されるべきであることを決定することを含む、項目22に記載のシステム。
(項目27)
前記第3の候補着目点が、前記ニューラルネットワークの訓練から省略されるべきであることを決定することは、
前記第3の候補着目点が、第3の閾値数未満の前記複数の画像の画像の数に描写されていること、または
前記第3の候補着目点と関連付けられる再投影誤差が、前記第1の閾値誤差レベルと前記第2の閾値誤差レベルとの間であることを決定すること
のうちの少なくとも1つを決定することを含む、項目26に記載のシステム。
(項目28)
前記第3の閾値数は、前記第1の閾値数に等しい、項目27に記載のシステム。
(項目29)
前記複数の画像は、ビデオシーケンスから抽出された2次元画像を備える、項目17に記載のシステム。
(項目30)
前記複数の画像は、前記ビデオシーケンスの非連続的フレームに対応する、項目29に記載のシステム。
(項目31)
前記命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、
前記ニューラルネットワークを修正することに続いて、前記ニューラルネットワークによって、第2の環境の第2の複数の画像を頭部搭載型ディスプレイデバイスから受信することと、
前記ニューラルネットワークによって、第2の着目点のセットを識別することと、
前記ニューラルネットワークによって、前記第2の複数の画像および前記第2の着目点のセットに基づいて、前記第2の環境に対してビジュアルオドメトリを実施することと
をさらに生じさせる、項目17に記載のシステム。
(項目32)
前記第2の環境に対してビジュアルオドメトリを実施することは、前記第2の着目点のセットを目印として使用して、前記頭部搭載型ディスプレイデバイスの位置および配向を決定することを含む、項目31に記載のシステム。
着目点安定性推定に基づく自己改良ビジュアルオドメトリ:
最適化変数
観察変数
3D投影モデル
最終バンドル調整目的
安定性の標識化
Siamese訓練
着目点の例示的標識化:
ビジュアルオドメトリを実施するために、ニューラルネットワークを訓練するための例示的方法:
例示的コンピュータシステム:
Claims (32)
- ビジュアルオドメトリを実施するために、ニューラルネットワークを訓練する方法であって、前記方法は、
1つ以上のコンピュータシステムを使用して実装される前記ニューラルネットワークによって、環境の複数の画像を受信することと、
前記ニューラルネットワークによって、画像毎に、個別の着目点のセットおよび個別の記述子を決定することと、
前記ニューラルネットワークによって、前記複数の画像の前記着目点のセットおよび前記記述子に基づいて、前記複数の画像間の対応を決定することであって、前記複数の画像間の対応を決定することは、
前記着目点のセット間の1つ以上の点対応を決定することであって、各点対応は、1つの画像の着目点と別の画像の着目点との間の個別の対応を示す、ことと、
前記1つ以上の点対応に基づいて、候補着目点のセットを決定することであって、各候補着目点は、3次元空間内の前記環境内の個別の特徴を示す、ことと
を含む、ことと、
候補着目点毎に、個別の安定性メトリックを決定することと、
1つ以上の候補着目点に基づいて、前記ニューラルネットワークを修正することと
を含む、方法。 - 候補着目点毎に、前記個別の安定性メトリックを決定することは、第1の候補着目点が安定していることを決定することを含む、請求項1に記載の方法。
- 前記候補着目点の1つ以上のものに基づいて、前記ニューラルネットワークを修正することは、
前記第1の候補着目点が安定していることの決定に応答して、前記複数の画像の中から、前記第1の候補着目点および第1の対の画像を選択し、前記ニューラルネットワークを訓練することであって、前記第1の対の画像は、前記環境内の前記第1の候補着目点を描写する、こと
を含む、請求項2に記載の方法。 - 前記第1の候補着目点が安定していることを決定することは、
前記第1の候補着目点が、第1の閾値数を超える前記複数の画像の画像の数に描写されていることを決定することと、
前記第1の候補着目点と関連付けられる再投影誤差が、第1の閾値誤差レベル未満であることを決定することと
を含む、請求項2に記載の方法。 - 候補着目点毎に、前記個別の安定性メトリックを決定することは、第2の候補着目点が不安定であることを決定することを含む、請求項4に記載の方法。
- 前記候補着目点の1つ以上のものに基づいて、前記ニューラルネットワークを修正することは、
前記第2の候補着目点が不安定であることの決定に応答して、前記複数の画像の中から、前記第2の候補着目点および第2の対の画像を選択し、前記ニューラルネットワークを訓練することであって、前記第2の対の画像は、前記環境内の前記第2の候補着目点を描写する、こと
を含む、請求項5に記載の方法。 - 前記第2の候補着目点が不安定であることを決定することは、
前記第2の候補着目点が、第2の閾値数を超える前記複数の画像の画像の数に描写されていることを決定することと、
前記第2の候補着目点と関連付けられる再投影誤差が、第2の閾値誤差レベルを上回ることを決定することと
を含む、請求項5に記載の方法。 - 前記第1の閾値数は、前記第2の閾値数に等しい、請求項7に記載の方法。
- 前記第1の閾値誤差レベルは、前記第2の閾値誤差レベル未満である、請求項7に記載の方法。
- 候補着目点毎に、前記個別の安定性メトリックを決定することは、第3の候補着目点が、前記ニューラルネットワークの訓練から省略されるべきであることを決定することを含む、請求項7に記載の方法。
- 前記第3の候補着目点が、前記ニューラルネットワークの訓練から省略されるべきであることを決定することは、
前記第3の候補着目点が、第3の閾値数未満の前記複数の画像の画像の数に描写されていること、または
前記第3の候補着目点と関連付けられる再投影誤差が、前記第1の閾値誤差レベルと前記第2の閾値誤差レベルとの間であることを決定すること
のうちの少なくとも1つを決定すること
を含む、請求項10に記載の方法。 - 前記第3の閾値数は、前記第1の閾値数に等しい、請求項11に記載の方法。
- 前記複数の画像は、ビデオシーケンスから抽出された2次元画像を備える、請求項1に記載の方法。
- 前記複数の画像は、前記ビデオシーケンスの非連続的フレームに対応する、請求項13に記載の方法。
- 前記ニューラルネットワークを修正することに続いて、前記ニューラルネットワークによって、第2の環境の第2の複数の画像を頭部搭載型ディスプレイデバイスから受信することと、
前記ニューラルネットワークによって、第2の着目点のセットを識別することと、
前記ニューラルネットワークによって、前記第2の複数の画像および前記第2の着目点のセットに基づいて、前記第2の環境に対してビジュアルオドメトリを実施することと
をさらに含む、請求項1に記載の方法。 - 前記第2の環境に対してビジュアルオドメトリを実施することは、前記第2の着目点のセットを目印として使用して、前記頭部搭載型ディスプレイデバイスの位置および配向を決定することを含む、請求項15に記載の方法。
- システムであって、
1つ以上のプロセッサと、
1つ以上の非一過性コンピュータ可読媒体であって、前記1つ以上の非一過性コンピュータ可読媒体は、命令の1つ以上のシーケンスを含んでおり、前記命令の1つ以上のシーケンスは、前記1つ以上のプロセッサによって実行されると、
1つ以上のコンピュータシステムを使用して実装されるニューラルネットワークによって、環境の複数の画像を受信することと、
前記ニューラルネットワークによって、画像毎に、個別の着目点のセットおよび個別の記述子を決定することと、
前記ニューラルネットワークによって、前記複数の画像の前記着目点のセットおよび前記記述子に基づいて、前記複数の画像間の対応を決定することであって、前記複数の画像間の対応を決定することは、
前記着目点のセット間の1つ以上の点対応を決定することであって、各点対応は、1つの画像の着目点と別の画像の着目点との間の個別の対応を示す、ことと、
前記1つ以上の点対応に基づいて、候補着目点のセットを決定することであって、各候補着目点は、3次元空間内の前記環境内の個別の特徴を示す、ことと
を含む、ことと、
候補着目点毎に、個別の安定性メトリックを決定することと、
1つ以上の候補着目点に基づいて、前記ニューラルネットワークを修正することと
を生じさせる、1つ以上の非一過性コンピュータ可読媒体と
を備える、システム。 - 候補着目点毎に、前記個別の安定性メトリックを決定することは、第1の候補着目点が安定していることを決定することを含む、請求項17に記載のシステム。
- 前記候補着目点の1つ以上のものに基づいて、前記ニューラルネットワークを修正することは、
前記第1の候補着目点が安定していることの決定に応答して、前記複数の画像の中から、前記第1の候補着目点および第1の対の画像を選択し、前記ニューラルネットワークを訓練することであって、前記第1の対の画像は、前記環境内の前記第1の候補着目点を描写する、こと
を含む、請求項18に記載のシステム。 - 前記第1の候補着目点が安定していることを決定することは、
前記第1の候補着目点が、第1の閾値数を超える前記複数の画像の画像の数に描写されていることを決定することと、
前記第1の候補着目点と関連付けられる再投影誤差が、第1の閾値誤差レベル未満であることを決定することと
を含む、請求項18に記載のシステム。 - 候補着目点毎に、前記個別の安定性メトリックを決定することは、第2の候補着目点が不安定であることを決定することを含む、請求項20に記載のシステム。
- 前記候補着目点の1つ以上のものに基づいて、前記ニューラルネットワークを修正することは、
前記第2の候補着目点が不安定であることの決定に応答して、前記複数の画像の中から、前記第2の候補着目点および第2の対の画像を選択して、前記ニューラルネットワークを訓練することであって、前記第2の対の画像は、前記環境内の前記第2の候補着目点を描写する、こと
を含む、請求項21に記載のシステム。 - 前記第2の候補着目点が不安定であることを決定することは、
前記第2の候補着目点が、第2の閾値数を超える前記複数の画像の画像の数に描写されていることを決定することと、
前記第2の候補着目点と関連付けられる再投影誤差が、第2の閾値誤差レベルを上回ることを決定することと
を含む、請求項21に記載のシステム。 - 前記第1の閾値数は、前記第2の閾値数に等しい、請求項23に記載のシステム。
- 前記第1の閾値誤差レベルは、前記第2の閾値誤差レベル未満である、請求項23に記載のシステム。
- 候補着目点毎に、前記個別の安定性メトリックを決定することは、第3の候補着目点が、前記ニューラルネットワークの訓練から省略されるべきであることを決定することを含む、請求項23に記載のシステム。
- 前記第3の候補着目点が、前記ニューラルネットワークの訓練から省略されるべきであることを決定することは、
前記第3の候補着目点が、第3の閾値数未満の前記複数の画像の画像の数に描写されていること、または
前記第3の候補着目点と関連付けられる再投影誤差が、前記第1の閾値誤差レベルと前記第2の閾値誤差レベルとの間であることを決定すること
のうちの少なくとも1つを決定することを含む、請求項26に記載のシステム。 - 前記第3の閾値数は、前記第1の閾値数に等しい、請求項27に記載のシステム。
- 前記複数の画像は、ビデオシーケンスから抽出された2次元画像を備える、請求項17に記載のシステム。
- 前記複数の画像は、前記ビデオシーケンスの非連続的フレームに対応する、請求項29に記載のシステム。
- 前記命令の1つ以上のシーケンスは、1つ以上のプロセッサによって実行されると、
前記ニューラルネットワークを修正することに続いて、前記ニューラルネットワークによって、第2の環境の第2の複数の画像を頭部搭載型ディスプレイデバイスから受信することと、
前記ニューラルネットワークによって、第2の着目点のセットを識別することと、
前記ニューラルネットワークによって、前記第2の複数の画像および前記第2の着目点のセットに基づいて、前記第2の環境に対してビジュアルオドメトリを実施することと
をさらに生じさせる、請求項17に記載のシステム。 - 前記第2の環境に対してビジュアルオドメトリを実施することは、前記第2の着目点のセットを目印として使用して、前記頭部搭載型ディスプレイデバイスの位置および配向を決定することを含む、請求項31に記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862767887P | 2018-11-15 | 2018-11-15 | |
US62/767,887 | 2018-11-15 | ||
US201962913378P | 2019-10-10 | 2019-10-10 | |
US62/913,378 | 2019-10-10 | ||
PCT/US2019/061272 WO2020102417A1 (en) | 2018-11-15 | 2019-11-13 | Systems and methods for performing self-improving visual odometry |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022508103A JP2022508103A (ja) | 2022-01-19 |
JP7357676B2 true JP7357676B2 (ja) | 2023-10-06 |
Family
ID=70730320
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021526271A Active JP7357676B2 (ja) | 2018-11-15 | 2019-11-13 | 自己改良ビジュアルオドメトリを実施するためのシステムおよび方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11921291B2 (ja) |
EP (1) | EP3881125A4 (ja) |
JP (1) | JP7357676B2 (ja) |
CN (1) | CN113272713A (ja) |
WO (1) | WO2020102417A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111882613A (zh) * | 2020-07-24 | 2020-11-03 | 中国科学院上海微系统与信息技术研究所 | 基于边缘语义的视觉里程计方法、装置、存储介质及设备 |
CN112050828B (zh) * | 2020-09-13 | 2022-06-10 | 常州沃翌智能科技有限公司 | 一种基于深度学习的视觉里程计及里程方法 |
US11734855B2 (en) * | 2020-11-20 | 2023-08-22 | Kabushiki Kaisha Toshiba | Rotation equivariant orientation estimation for omnidirectional localization |
CN114034312B (zh) * | 2021-11-05 | 2024-03-26 | 太原理工大学 | 一种轻量级多解耦的视觉里程计实现方法 |
CN114782701B (zh) * | 2022-03-15 | 2023-01-03 | 广东科学技术职业学院 | 时序地标图像特征匹配方法、装置、电子设备及介质 |
EP4254354A1 (en) * | 2022-03-28 | 2023-10-04 | Naver Corporation | System and method using pyramidal and uniqueness matching priors for identifying correspondences between images |
CN115860091B (zh) * | 2023-02-15 | 2023-04-28 | 武汉图科智能科技有限公司 | 一种基于正交约束的深度特征描述符学习方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017168899A1 (ja) | 2016-03-30 | 2017-10-05 | ソニー株式会社 | 情報処理方法および情報処理装置 |
WO2018138782A1 (ja) | 2017-01-24 | 2018-08-02 | 富士通株式会社 | 情報処理装置、特徴点抽出プログラムおよび特徴点抽出方法 |
US20180293738A1 (en) | 2017-04-07 | 2018-10-11 | Adobe Systems Incorporated | Forecasting Multiple Poses Based on a Graphical Image |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014056537A1 (en) * | 2012-10-11 | 2014-04-17 | Longsand Limited | Using a probabilistic model for detecting an object in visual data |
US10210427B2 (en) | 2014-07-09 | 2019-02-19 | Slyce Acquisition Inc. | Systems, methods, and devices for image matching and object recognition in images |
US9940717B2 (en) * | 2014-12-23 | 2018-04-10 | Intel Corporation | Method and system of geometric camera self-calibration quality assessment |
US9866815B2 (en) * | 2015-01-05 | 2018-01-09 | Qualcomm Incorporated | 3D object segmentation |
WO2017029488A2 (en) | 2015-08-14 | 2017-02-23 | Metail Limited | Methods of generating personalized 3d head models or 3d body models |
CA3015164A1 (en) * | 2016-02-18 | 2017-08-24 | Edx Technologies, Inc. | Systems and methods for augmented reality representations of networks |
WO2018013495A1 (en) * | 2016-07-11 | 2018-01-18 | Gravity Jack, Inc. | Augmented reality methods and devices |
JP7083809B2 (ja) | 2016-08-02 | 2022-06-13 | アトラス5ディー, インコーポレイテッド | プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法 |
KR102529137B1 (ko) * | 2016-08-22 | 2023-05-03 | 매직 립, 인코포레이티드 | 딥 러닝 센서들을 갖는 증강 현실 디스플레이 디바이스 |
CN106708037A (zh) * | 2016-12-05 | 2017-05-24 | 北京贝虎机器人技术有限公司 | 自主移动式设备定位的方法、装置及自主移动式设备 |
WO2018125812A1 (en) * | 2017-01-02 | 2018-07-05 | Gauss Surgical, Inc. | Tracking surgical items with prediction of duplicate imaging of items |
KR20180087994A (ko) * | 2017-01-26 | 2018-08-03 | 삼성전자주식회사 | 스테레오 매칭 방법 및 영상 처리 장치 |
US11379688B2 (en) * | 2017-03-16 | 2022-07-05 | Packsize Llc | Systems and methods for keypoint detection with convolutional neural networks |
-
2019
- 2019-11-13 EP EP19885433.3A patent/EP3881125A4/en active Pending
- 2019-11-13 CN CN201980087289.6A patent/CN113272713A/zh active Pending
- 2019-11-13 US US17/293,772 patent/US11921291B2/en active Active
- 2019-11-13 JP JP2021526271A patent/JP7357676B2/ja active Active
- 2019-11-13 WO PCT/US2019/061272 patent/WO2020102417A1/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017168899A1 (ja) | 2016-03-30 | 2017-10-05 | ソニー株式会社 | 情報処理方法および情報処理装置 |
WO2018138782A1 (ja) | 2017-01-24 | 2018-08-02 | 富士通株式会社 | 情報処理装置、特徴点抽出プログラムおよび特徴点抽出方法 |
US20180293738A1 (en) | 2017-04-07 | 2018-10-11 | Adobe Systems Incorporated | Forecasting Multiple Poses Based on a Graphical Image |
Also Published As
Publication number | Publication date |
---|---|
WO2020102417A1 (en) | 2020-05-22 |
JP2022508103A (ja) | 2022-01-19 |
US20220028110A1 (en) | 2022-01-27 |
US11921291B2 (en) | 2024-03-05 |
CN113272713A (zh) | 2021-08-17 |
EP3881125A4 (en) | 2022-08-31 |
EP3881125A1 (en) | 2021-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7403700B2 (ja) | ホモグラフィ適合を介した完全畳み込み着目点検出および記述 | |
JP7357676B2 (ja) | 自己改良ビジュアルオドメトリを実施するためのシステムおよび方法 | |
JP7422785B2 (ja) | ニューラルネットワークおよび角検出器を使用した角検出のための方法および装置 | |
JP7250709B2 (ja) | 畳み込み画像変換を使用して同時位置特定およびマッピングを実施する方法およびシステム | |
US11880927B2 (en) | Three-dimensional object reconstruction from a video | |
JP7178396B2 (ja) | 入力映像に含まれた客体の3次元ポーズの推定のためのデータを生成する方法およびコンピュータシステム | |
Rogez et al. | Image-based synthesis for deep 3D human pose estimation | |
Barros et al. | Fusion of keypoint tracking and facial landmark detection for real-time head pose estimation | |
US11783532B1 (en) | View synthesis using attribute correspondences and geometric relationship constraints | |
Joswig et al. | Improved deep depth estimation for environments with sparse visual cues | |
Singh | Computational modeling of gaze behaviour in real-world settings | |
Bingham | An Interest Point Based Illumination Condition Matching Approach to Photometric Registration Within Augmented Reality Worlds |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220915 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230816 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230922 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230926 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7357676 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |