JP7241517B2 - 航法装置、航法パラメータ計算方法およびプログラム - Google Patents
航法装置、航法パラメータ計算方法およびプログラム Download PDFInfo
- Publication number
- JP7241517B2 JP7241517B2 JP2018227465A JP2018227465A JP7241517B2 JP 7241517 B2 JP7241517 B2 JP 7241517B2 JP 2018227465 A JP2018227465 A JP 2018227465A JP 2018227465 A JP2018227465 A JP 2018227465A JP 7241517 B2 JP7241517 B2 JP 7241517B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- image data
- navigation
- ground
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C23/00—Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Astronomy & Astrophysics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
Description
データ取得部は、移動体に搭載された撮影装置によって撮影された画像を示す画像データと、移動体の大まかな位置情報とを取得する。データ記憶処理部は、画像データ、移動体が移動している領域を予め上空から撮影したグラウンド画像データおよびグラウンド画像データの奥行き方向の情報を示すグラウンドデプスデータを記憶装置に記憶する。データ検索部は、データ取得部によって取得された位置情報に基づいて、記憶装置に記憶された画像データ、グラウンド画像データおよびグラウンドデプスデータを検索する。パラメータ計算部は、画像データ、グラウンド画像データおよびグラウンドデプスデータを入力として移動体の位置および姿勢の両方または一方を示す航法パラメータの計算を行うニューラルネットワークを用いて、データ検索部によって検索された画像データ、グラウンド画像データおよびグラウンドデプスデータから、画像データが取得されたときの移動体の航法パラメータを計算する。
図1は、実施の形態1に係る航法装置1の構成例を示すブロック図である。航法装置1は、例えば、移動体2に搭載された測量システムが備える航法装置である。測量システムは、航法装置1に加え、撮影装置3と距離センサ4とを備えており、撮影装置3によって撮影された画像を示す画像データと、距離センサ4によって計測された測距点までの距離データとを用いて、地形の測量を行う。
なお、航法装置1は、図1に示すように移動体2に搭載された装置であってもよいし、移動体2とは別の場所に設けられた装置であってもよい。航法装置1は、移動体2と別の場所に設けられた装置である場合、有線または無線の通信によって移動体2から受信した情報を用いて移動体2の位置および姿勢を推定する。移動体2は、移動しつつ、撮影装置3による撮影および距離センサ4による計測が可能な移動体であり、例えば、航空機、人工衛星または無人飛行体(UAV)である。以下では、移動体2が航空機であるものとして説明を行う。
図2は、実施の形態1に係る航法パラメータ計算方法を示すフローチャートである。
画像取得部10が、撮影装置3から光学情報を取得し、取得した光学情報から、被写体の画像を示す画像データを生成してデータ記憶処理部12に出力する。データ記憶処理部12は、画像取得部10から入力した画像データを記憶装置に記憶する(ステップST1)。このとき、画像取得部10は、画像データをデプス取得部11に出力してもよい。図3は、画像データ10Aを示す図であり、図4は、画像データ10Bを示す図である。例えば、画像データ10Aおよび画像データ10Bには、図3および図4に示すように矩形状の構造物が写っており、これらの構造物は住宅の屋根である。以下では、画像データ10Aが時刻iに得られた画像データIiであり、画像データ10Bが時刻i-1に得られた画像データIi-1であるものとする。
ステップST1およびステップST2の処理が、データ取得部(画像取得部10およびデプス取得部11)による、移動体2の航法パラメータの計算に用いるデータの取得処理と、データ記憶処理部12による、データ取得部によって取得されたデータを記憶装置に記憶させる処理に相当する。
例えば、パラメータ計算部14は、画像データIi、画像データIi-1およびデプスデータDをニューラルネットワークの入力層に入力し、このニューラルネットワークによって計算されて出力層から出力された時刻i-1から時刻iまでの間の移動体2の位置の変化量(Δx,Δy,Δz)と姿勢の変化量(Δω,Δφ,Δκ)とを取得する。
Δωは、移動体2のローリング方向の姿勢角の変化量を示しており、Δφは、移動体2のピッチング方向の姿勢角の変化量を示しており、Δκは、移動体2のヨーイング方向の姿勢角の変化量を示している。なお、パラメータ計算部14は、移動体2の位置の変化量のみを示す航法パラメータを計算してもよいし、移動体2の姿勢の変化量のみを示す航法パラメータを計算してもよい。また、パラメータ計算部14は、移動体2の姿勢角であるω、φおよびκのうちの少なくとも一つの姿勢角の変化量を、移動体2の航法パラメータとして計算してもよい。
パラメータ計算部14が用いるニューラルネットワークは、画像データの時系列およびデプスデータと、これに対応する移動体2の位置および姿勢の各変化量とをセットとした教師データを用いて、画像データIi、画像データIi-1およびデプスデータDを入力すると、時刻i-1から時刻iまでの間の移動体2の位置の変化量(Δx,Δy,Δz)と姿勢の変化量(Δω,Δφ,Δκ)との両方または一方を計算して出力するように学習されている。ニューラルネットワークでは、従来の航法装置において移動体の航法パラメータの計算精度を高めるために反復して行われる上記航法パラメータの調整計算が不要である。上記調整計算は多大な計算リソースを必要としたので、ニューラルネットワークを用いることで、計算リソースの増加を抑制することができる。
航法パラメータの計算に用いるニューラルネットワークは、画像データIiから画像データIi-nまでの(n+1)個の画像データを入力可能な入力層を有したニューラルネットワークであってもよい。パラメータ計算部14は、(n+1)個の画像データおよび時刻iに対応するデプスデータDを入力として移動体2の位置の変化量および姿勢の変化量の両方または一方を計算するニューラルネットワークを用いて、(n+1)個の画像データの時系列に対応する移動体2の位置の変化量および姿勢の変化量の両方または一方を示す航法パラメータを計算する。
(参考文献1)Alex Krizhevsky, Ilya Sutskever, and Geoffrey E Hinton, “Imagenet classification with deep convolutional neural networks” ,In Advances in neural information processing systems, pages 1097-1105, 2012.
out=f(X*W) ・・・(1)
図7は、航法装置1の変形例である航法装置1Aの構成を示すブロック図である。図7において、航法装置1Aは、画像取得部10、デプス取得部11A、データ記憶処理部12A、データ検索部13Aおよびパラメータ計算部14Aを備える。
デプス取得部11Aが、画像取得部10によって取得された画像データを用いてデプスデータを生成するので、航法装置1Aは、移動体2が距離センサ4を備えていなくても、移動体2の航法パラメータを計算することが可能である。
航法装置1における、画像取得部10、デプス取得部11、データ記憶処理部12、データ検索部13およびパラメータ計算部14の機能は、処理回路によって実現される。
すなわち、航法装置1は、図2に示したステップST1からステップST5までの処理を実行するための処理回路を備えている。処理回路は、専用のハードウェアであってもよいが、メモリに記憶されたプログラムを実行するCPU(Central Processing Unit)であってもよい。
航法装置1における、画像取得部10、デプス取得部11、データ記憶処理部12、データ検索部13およびパラメータ計算部14の機能を別々の処理回路で実現してもよく、これらの機能をまとめて1つの処理回路で実現してもよい。
例えば、画像取得部10、デプス取得部11およびデータ記憶処理部12は、専用のハードウェアである処理回路102で機能を実現し、データ検索部13およびパラメータ計算部14は、プロセッサ103がメモリ104に記憶されたプログラムを読み出して実行することによって機能を実現する。このように、処理回路は、ハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせにより上記機能を実現することができる。
図10は、実施の形態2に係る航法装置1Cの構成例を示すブロック図である。図10において、図1と同一の構成要素には同一の符号を付して説明を省略する。航法装置1Cは、例えば、移動体2に搭載された測量システムが備える航法装置である。測量システムは、航法装置1Cに加えて、撮影装置3およびGNSS5を備えており、撮影装置3によって撮影された画像データと、GNSS5によって計測された移動体2の位置情報とを用いて、地形の測量を行う。
位置情報取得部15は、GNSS5によって計測された移動体2の位置情報を取得するデータ取得部である。データ記憶処理部12Cによって、図10において不図示の記憶装置に、画像取得部10によって取得された画像データが予め記憶され、グラウンド画像データとグラウンドデプスデータとが予め記憶されている。
図11は、実施の形態2に係る航法パラメータ計算方法を示すフローチャートである。以下の説明において、移動体2は、航空機であり、撮影装置3は、移動体2の下方を撮影する。図12Aは、グラウンド画像データ30の例を示す図である。図12Bは、グラウンドデプスデータ40の例を示す図である。図12Cは、画像データ10Cの例を示す図である。図12Dは、図12Aのグラウンド画像データ30に対して、図12Cの画像データ10Cを重畳させたグラウンド画像データ50の例を示す図である。
航法装置1Cにおける、画像取得部10、データ記憶処理部12C、データ検索部13C、パラメータ計算部14Cおよび位置情報取得部15の機能は、処理回路によって実現される。すなわち、航法装置1Cは、図11に示したステップST1aからステップST5aまでの処理を実行するための処理回路を備えている。処理回路は、専用のハードウェアであってもよいが、メモリに記憶されたプログラムを実行するCPUであってもよい。
航法装置1Cにおける、画像取得部10、データ記憶処理部12C、データ検索部13C、パラメータ計算部14Cおよび位置情報取得部15の機能を別々の処理回路で実現してもよく、これらの機能をまとめて1つの処理回路で実現してもよい。
このように、処理回路は、ハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせにより上記機能を実現することができる。
図13は、航法装置1Cの変形例である航法装置1Dの構成を示すブロック図である。図13において、図1および図11と同一の構成要素には同一の符号を付して説明を省略する。図13に示す移動体2は、航法装置1D、撮影装置3およびGNSS5に加えて、IMU(慣性計測装置)6を備える。IMU6は、移動体2の姿勢データを計測する。姿勢データには、例えば、移動体2の姿勢角である(ω,φ,κ)が含まれる。
航法装置1Dは、画像取得部10、データ記憶処理部12C、データ検索部13C、パラメータ計算部14D、位置情報取得部15および姿勢データ取得部16を備える。姿勢データ取得部16は、IMU6によって計測された移動体2の姿勢データを取得する。
パラメータ計算部14Dは、ニューラルネットワークを用いて、データ検索部13Cによって検索された画像データ、グラウンド画像データおよびグラウンドデプスデータと、姿勢データ取得部16によって取得された姿勢データとから、画像データが取得されたときの移動体2の位置を示す航法パラメータを計算する。
Claims (14)
- 移動体の航法パラメータの計算に用いるデータを取得するデータ取得部と、
前記データ取得部によって取得されたデータを記憶装置に記憶するデータ記憶処理部と、
前記記憶装置に記憶されたデータを検索するデータ検索部と、
前記移動体の航法パラメータの計算に用いるデータを入力として前記移動体の航法パラメータの計算を行うニューラルネットワークを用いて、前記データ検索部によって検索されたデータに対応した前記移動体の航法パラメータを計算するパラメータ計算部と、
を備え、
前記データ取得部は、前記移動体に搭載された撮影装置によって撮影された画像を示す画像データと、前記移動体の大まかな位置情報とを取得し、
前記データ記憶処理部は、前記画像データ、前記移動体が移動している領域を予め上空から撮影したグラウンド画像データおよび前記グラウンド画像データの奥行き方向の情報を示すグラウンドデプスデータを前記記憶装置に記憶し、
前記データ検索部は、前記データ取得部によって取得された位置情報に基づいて、前記記憶装置に記憶された前記画像データ、前記グラウンド画像データおよび前記グラウンドデプスデータを検索し、
前記パラメータ計算部は、前記画像データ、前記グラウンド画像データおよび前記グラウンドデプスデータを入力として前記移動体の位置および姿勢の両方または一方を示す航法パラメータの計算を行うニューラルネットワークを用いて、前記データ検索部によって検索された前記画像データ、前記グラウンド画像データおよび前記グラウンドデプスデータから、前記画像データが取得されたときの前記移動体の航法パラメータを計算する
ことを特徴とする航法装置。 - 移動体の航法パラメータの計算に用いるデータを取得するデータ取得部と、
前記データ取得部によって取得されたデータを記憶装置に記憶するデータ記憶処理部と、
前記記憶装置に記憶されたデータを検索するデータ検索部と、
前記移動体の航法パラメータの計算に用いるデータを入力として前記移動体の航法パラメータの計算を行うニューラルネットワークを用いて、前記データ検索部によって検索されたデータに対応した前記移動体の航法パラメータを計算するパラメータ計算部と、
を備え、
前記データ取得部は、前記移動体に搭載された撮影装置によって撮影された画像を示す画像データと、前記移動体の大まかな位置情報とを取得し、
前記データ記憶処理部は、前記画像データ、および、前記移動体が移動している領域を予め上空から撮影したグラウンド画像データを前記記憶装置に記憶し、
前記データ検索部は、前記データ取得部によって取得された位置情報に基づいて、前記記憶装置に記憶された前記画像データ、および前記グラウンド画像データを検索し、
前記パラメータ計算部は、前記画像データおよび前記グラウンド画像データを入力として前記移動体の位置および姿勢の両方または一方を示す航法パラメータの計算を行うニューラルネットワークを用いて、前記データ検索部によって検索された前記画像データおよび前記グラウンド画像データから、前記画像データが取得されたときの前記移動体の航法パラメータを計算する
ことを特徴とする航法装置。 - 前記データ取得部は、前記画像データと、前記画像データの奥行き方向の情報を示すデプスデータとを取得し、
前記データ記憶処理部は、前記画像データおよび前記デプスデータを前記記憶装置に記憶し、
前記データ検索部は、前記記憶装置に記憶された前記画像データの時系列および前記デプスデータを検索し、
前記パラメータ計算部は、さらに、前記画像データおよび前記デプスデータを入力として前記移動体の位置の変化量と姿勢の変化量の両方またはいずれか一方を示す航法パラメータの計算を行うニューラルネットワークを用いて、前記データ検索部によって検索された前記画像データの時系列および前記デプスデータから、前記画像データの時系列に対応した前記移動体の航法パラメータを計算する
ことを特徴とする請求項1または請求項2に記載の航法装置。 - 前記データ取得部は、前記移動体に搭載された距離センサから取得された、当該距離センサから測距点までの距離を示す距離データを用いて、前記デプスデータを生成する
ことを特徴とする請求項3に記載の航法装置。 - 前記データ取得部は、前記画像データを用いて前記デプスデータを生成する
ことを特徴とする請求項3に記載の航法装置。 - 前記データ検索部は、前記記憶装置に記憶された前記画像データの時系列を検索し、
前記パラメータ計算部は、さらに、前記画像データの時系列を入力として当該画像データの奥行き方向の情報の計算および前記移動体の位置の変化量と姿勢の変化量の両方またはいずれか一方を示す航法パラメータの計算を行うニューラルネットワークを用いて、前記データ検索部によって検索された前記画像データの時系列から、前記画像データの時系列に対応した前記移動体の航法パラメータを計算する
ことを特徴とする請求項1または請求項2に記載の航法装置。 - 前記データ取得部は、慣性計測装置によって計測された前記移動体の姿勢データを取得し、
前記パラメータ計算部は、さらに、前記姿勢データ、前記画像データ、前記グラウンド画像データおよび前記グラウンドデプスデータを入力として前記移動体の位置を示す航法パラメータの計算を行うニューラルネットワークを用いて、前記姿勢データ、前記データ検索部によって検索された前記画像データ、前記グラウンド画像データおよび前記グラウンドデプスデータから、前記移動体の航法パラメータを計算する
ことを特徴とする請求項1に記載の航法装置。 - 前記データ取得部は、慣性計測装置によって計測された前記移動体の姿勢データを取得し、
前記パラメータ計算部は、さらに、前記姿勢データ、前記画像データおよび前記グラウンド画像データを入力として前記移動体の位置を示す航法パラメータの計算を行うニューラルネットワークを用いて、前記姿勢データ、前記データ検索部によって検索された前記画像データおよび前記グラウンド画像データから、前記移動体の航法パラメータを計算する
ことを特徴とする請求項2に記載の航法装置。 - 前記パラメータ計算部は、さらに、前記画像データ、前記グラウンド画像データ、前記グラウンドデプスデータ、および前記移動体の位置情報を入力として前記移動体の姿勢を示す航法パラメータの計算を行うニューラルネットワークを用いて、前記データ検索部によって検索された前記画像データ、前記グラウンド画像データおよび前記グラウンドデプスデータと、前記データ取得部によって取得された位置情報とから、前記画像データが取得されたときの前記移動体の航法パラメータを計算する
ことを特徴とする請求項1に記載の航法装置。 - 前記パラメータ計算部は、さらに、前記画像データ、前記グラウンド画像データおよび前記移動体の位置情報を入力として前記移動体の姿勢を示す航法パラメータの計算を行うニューラルネットワークを用いて、前記データ検索部によって検索された前記画像データおよび前記グラウンド画像データと、前記データ取得部によって取得された位置情報とから、前記画像データが取得されたときの前記移動体の航法パラメータを計算する
ことを特徴とする請求項1または請求項2に記載の航法装置。 - 航法装置の航法パラメータ計算方法であって、
データ取得部が、移動体の航法パラメータの計算に用いるデータを取得するステップと、
データ記憶処理部が、前記データ取得部によって取得されたデータを記憶装置に記憶するステップと、
データ検索部が、前記記憶装置に記憶されたデータを検索するステップと、
パラメータ計算部が、前記移動体の航法パラメータの計算に用いるデータを入力として前記移動体の航法パラメータの計算を行うニューラルネットワークを用いて、前記データ検索部によって検索されたデータに対応した前記移動体の航法パラメータを計算するステップと、
を備え、
前記データ取得部が、前記移動体に搭載された撮影装置によって撮影された画像を示す画像データと、前記移動体の大まかな位置情報とを取得し、
前記データ記憶処理部が、前記画像データ、前記移動体が移動している領域を予め上空から撮影したグラウンド画像データおよび前記グラウンド画像データの奥行き方向の情報を示すグラウンドデプスデータを前記記憶装置に記憶し、
前記データ検索部が、前記データ取得部によって取得された位置情報に基づいて、前記記憶装置に記憶された前記画像データ、前記グラウンド画像データおよび前記グラウンドデプスデータを検索し、
前記パラメータ計算部が、前記画像データ、前記グラウンド画像データおよび前記グラウンドデプスデータを入力として前記移動体の位置および姿勢の両方または一方を示す航法パラメータの計算を行うニューラルネットワークを用いて、前記データ検索部によって検索された前記画像データ、前記グラウンド画像データおよび前記グラウンドデプスデータから、前記画像データが取得されたときの前記移動体の航法パラメータを計算する
ことを特徴とする航法パラメータ計算方法。 - 航法装置の航法パラメータ計算方法であって、
データ取得部が、移動体の航法パラメータの計算に用いるデータを取得するステップと、
データ記憶処理部が、前記データ取得部によって取得されたデータを記憶装置に記憶させるステップと、
データ検索部が、前記記憶装置に記憶されたデータを検索するステップと、
パラメータ計算部が、前記移動体の航法パラメータの計算に用いるデータを入力として前記移動体の航法パラメータの計算を行うニューラルネットワークを用いて、前記データ検索部によって検索されたデータに対応した前記移動体の航法パラメータを計算するステップと、
を備え、
前記データ取得部が、前記移動体に搭載された撮影装置によって撮影された画像を示す画像データと、前記移動体の大まかな位置情報とを取得し、
前記データ記憶処理部が、前記画像データ、および、前記移動体が移動している領域を予め上空から撮影したグラウンド画像データを前記記憶装置に記憶し、
前記データ検索部が、前記データ取得部によって取得された位置情報に基づいて、前記記憶装置に記憶された前記画像データおよび前記グラウンド画像データを検索し、
前記パラメータ計算部が、前記画像データおよび前記グラウンド画像データを入力として前記移動体の位置および姿勢の両方または一方を示す航法パラメータの計算を行うニューラルネットワークを用いて、前記データ検索部によって検索された前記画像データおよび前記グラウンド画像データから、前記画像データが取得されたときの前記移動体の航法パラメータを計算する
ことを特徴とする航法パラメータ計算方法。 - コンピュータを、
移動体の航法パラメータの計算に用いるデータを取得するデータ取得部、
前記データ取得部によって取得されたデータを記憶装置に記憶するデータ記憶処理部、
前記記憶装置に記憶されたデータを検索するデータ検索部、
前記移動体の航法パラメータの計算に用いるデータを入力として前記移動体の航法パラメータの計算を行うニューラルネットワークを用いて、前記データ検索部によって検索されたデータに対応した前記移動体の航法パラメータを計算するパラメータ計算部、として機能させ、
前記データ取得部が、前記移動体に搭載された撮影装置によって撮影された画像を示す画像データと、前記移動体の大まかな位置情報とを取得し、
前記データ記憶処理部が、前記画像データ、前記移動体が移動している領域を予め上空から撮影したグラウンド画像データおよび前記グラウンド画像データの奥行き方向の情報を示すグラウンドデプスデータを前記記憶装置に記憶し、
前記データ検索部が、前記データ取得部によって取得された位置情報に基づいて、前記記憶装置に記憶された前記画像データ、前記グラウンド画像データおよび前記グラウンドデプスデータを検索し、
前記パラメータ計算部が、前記画像データ、前記グラウンド画像データおよび前記グラウンドデプスデータを入力として前記移動体の位置および姿勢の両方または一方を示す航法パラメータの計算を行うニューラルネットワークを用いて、前記データ検索部によって検索された前記画像データ、前記グラウンド画像データおよび前記グラウンドデプスデータから、前記画像データが取得されたときの前記移動体の航法パラメータを計算するよう機能させるためのプログラム。 - コンピュータを、
移動体の航法パラメータの計算に用いるデータを取得するデータ取得部、
前記データ取得部によって取得されたデータを記憶装置に記憶するデータ記憶処理部、
前記記憶装置に記憶されたデータを検索するデータ検索部、
前記移動体の航法パラメータの計算に用いるデータを入力として前記移動体の航法パラメータの計算を行うニューラルネットワークを用いて、前記データ検索部によって検索されたデータに対応した前記移動体の航法パラメータを計算するパラメータ計算部、として機能させ、
前記データ取得部が、前記移動体に搭載された撮影装置によって撮影された画像を示す画像データと、前記移動体の大まかな位置情報とを取得し、
前記データ記憶処理部が、前記画像データ、および、前記移動体が移動している領域を予め上空から撮影したグラウンド画像データを前記記憶装置に記憶し、
前記データ検索部が、前記データ取得部によって取得された位置情報に基づいて、前記記憶装置に記憶された前記画像データ、および前記グラウンド画像データを検索し、
前記パラメータ計算部が、前記画像データおよび前記グラウンド画像データを入力として前記移動体の位置および姿勢の両方または一方を示す航法パラメータの計算を行うニューラルネットワークを用いて、前記データ検索部によって検索された前記画像データおよび前記グラウンド画像データから、前記画像データが取得されたときの前記移動体の航法パラメータを計算するよう機能させるためのプログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018227465A JP7241517B2 (ja) | 2018-12-04 | 2018-12-04 | 航法装置、航法パラメータ計算方法およびプログラム |
PCT/JP2019/039630 WO2020116018A1 (ja) | 2018-12-04 | 2019-10-08 | 航法装置、航法パラメータ計算方法およびプログラム |
CN201980078164.7A CN113227711A (zh) | 2018-12-04 | 2019-10-08 | 导航装置、导航参数计算方法及程序 |
EP19892723.8A EP3859275B1 (en) | 2018-12-04 | 2019-10-08 | Navigation apparatus, navigation parameter calculation method, and program |
US17/315,640 US20210270611A1 (en) | 2018-12-04 | 2021-05-10 | Navigation apparatus, navigation parameter calculation method, and medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018227465A JP7241517B2 (ja) | 2018-12-04 | 2018-12-04 | 航法装置、航法パラメータ計算方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020090143A JP2020090143A (ja) | 2020-06-11 |
JP7241517B2 true JP7241517B2 (ja) | 2023-03-17 |
Family
ID=70974554
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018227465A Active JP7241517B2 (ja) | 2018-12-04 | 2018-12-04 | 航法装置、航法パラメータ計算方法およびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210270611A1 (ja) |
EP (1) | EP3859275B1 (ja) |
JP (1) | JP7241517B2 (ja) |
CN (1) | CN113227711A (ja) |
WO (1) | WO2020116018A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022086157A1 (ko) * | 2020-10-20 | 2022-04-28 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US20230267691A1 (en) * | 2022-02-22 | 2023-08-24 | Snap Inc. | Scene change detection with novel view synthesis |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6029794B1 (ja) | 2015-09-09 | 2016-11-24 | 三菱電機株式会社 | 航法装置および測量システム |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6029794B2 (ja) | 1977-12-14 | 1985-07-12 | 王子製紙株式会社 | アルカリサルフアイドパルプ化法 |
EP2757524B1 (en) * | 2013-01-16 | 2018-12-19 | Honda Research Institute Europe GmbH | Depth sensing method and system for autonomous vehicles |
DE102014226084A1 (de) * | 2014-12-16 | 2016-06-16 | Robert Bosch Gmbh | Verfahren zur Kartierung einer Bearbeitungsfläche für autonome Roboterfahrzeuge |
US10341633B2 (en) * | 2015-11-20 | 2019-07-02 | Qualcomm Incorporated | Systems and methods for correcting erroneous depth information |
US10705528B2 (en) * | 2015-12-15 | 2020-07-07 | Qualcomm Incorporated | Autonomous visual navigation |
JP7052174B2 (ja) * | 2016-01-05 | 2022-04-12 | モービルアイ ビジョン テクノロジーズ リミテッド | 将来経路を推定するシステム及び方法 |
EP3537248A1 (en) * | 2016-06-10 | 2019-09-11 | Duke University | Motion planning for autonomous vehicles and reconfigurable motion planning processors |
WO2018030048A1 (ja) * | 2016-08-08 | 2018-02-15 | パナソニックIpマネジメント株式会社 | 物体追跡方法、物体追跡装置およびプログラム |
JP7057959B2 (ja) * | 2016-08-09 | 2022-04-21 | 住友ゴム工業株式会社 | 動作解析装置 |
CN109964237B (zh) * | 2016-09-15 | 2020-07-17 | 谷歌有限责任公司 | 图像深度预测神经网络 |
WO2018066351A1 (ja) * | 2016-10-06 | 2018-04-12 | 株式会社アドバンスド・データ・コントロールズ | シミュレーションシステム、シミュレーションプログラム及びシミュレーション方法 |
JP6880687B2 (ja) * | 2016-12-07 | 2021-06-02 | ブラザー工業株式会社 | プログラム及びシステム |
US10241520B2 (en) * | 2016-12-22 | 2019-03-26 | TCL Research America Inc. | System and method for vision-based flight self-stabilization by deep gated recurrent Q-networks |
US10198655B2 (en) * | 2017-01-24 | 2019-02-05 | Ford Global Technologies, Llc | Object detection using recurrent neural network and concatenated feature map |
JP2018124939A (ja) * | 2017-02-03 | 2018-08-09 | 日本電信電話株式会社 | 画像合成装置、画像合成方法、及び画像合成プログラム |
US10705525B2 (en) * | 2017-04-07 | 2020-07-07 | Nvidia Corporation | Performing autonomous path navigation using deep neural networks |
WO2018184192A1 (en) * | 2017-04-07 | 2018-10-11 | Intel Corporation | Methods and systems using camera devices for deep channel and convolutional neural network images and formats |
US10949798B2 (en) * | 2017-05-01 | 2021-03-16 | Symbol Technologies, Llc | Multimodal localization and mapping for a mobile automation apparatus |
GB201804400D0 (en) * | 2018-03-20 | 2018-05-02 | Univ Of Essex Enterprise Limited | Localisation, mapping and network training |
US11407111B2 (en) * | 2018-06-27 | 2022-08-09 | Abb Schweiz Ag | Method and system to generate a 3D model for a robot scene |
-
2018
- 2018-12-04 JP JP2018227465A patent/JP7241517B2/ja active Active
-
2019
- 2019-10-08 WO PCT/JP2019/039630 patent/WO2020116018A1/ja unknown
- 2019-10-08 CN CN201980078164.7A patent/CN113227711A/zh active Pending
- 2019-10-08 EP EP19892723.8A patent/EP3859275B1/en active Active
-
2021
- 2021-05-10 US US17/315,640 patent/US20210270611A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6029794B1 (ja) | 2015-09-09 | 2016-11-24 | 三菱電機株式会社 | 航法装置および測量システム |
Non-Patent Citations (1)
Title |
---|
橋岡 佳輝 ほか,DNNを用いたカメラの6自由度相対運動推定,情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM) 2017-CVIM-20,日本,情報処理学会,2017年03月10日,p. 1-8 |
Also Published As
Publication number | Publication date |
---|---|
CN113227711A (zh) | 2021-08-06 |
EP3859275A4 (en) | 2021-12-01 |
WO2020116018A1 (ja) | 2020-06-11 |
EP3859275A1 (en) | 2021-08-04 |
JP2020090143A (ja) | 2020-06-11 |
US20210270611A1 (en) | 2021-09-02 |
EP3859275B1 (en) | 2024-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109461190B (zh) | 测量数据处理装置及测量数据处理方法 | |
JP5992184B2 (ja) | 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム | |
US10694148B1 (en) | Image-based navigation using quality-assured line-of-sight measurements | |
EP2503510B1 (en) | Wide baseline feature matching using collaborative navigation and digital terrain elevation data constraints | |
JP2020067439A (ja) | 移動体位置推定システムおよび移動体位置推定方法 | |
CN112005079B (zh) | 用于更新高清地图的系统和方法 | |
CN109596121B (zh) | 一种机动站自动目标检测与空间定位方法 | |
CN112740274A (zh) | 在机器人设备上使用光流传感器进行vslam比例估计的系统和方法 | |
Kunz et al. | Map building fusing acoustic and visual information using autonomous underwater vehicles | |
Caballero et al. | Unmanned Aerial Vehicle Localization Based on Monocular Vision and Online Mosaicking: A New Mapping Framework | |
US20210131804A1 (en) | Placement table for unmanned aerial vehicle, surveying method, surveying device, surveying system and program | |
Schneider et al. | Incremental real-time bundle adjustment for multi-camera systems with points at infinity | |
JP7241517B2 (ja) | 航法装置、航法パラメータ計算方法およびプログラム | |
CN115861860B (zh) | 一种无人机的目标跟踪定位方法和系统 | |
KR20200094654A (ko) | 어텐션 드리븐(attention-driven) 알고리즘을 이용하여 랜드마크를 검출하여 경로 플래닝을 위한 자율 주행 차량의 위치를 결정하는 방법 및 장치 | |
US11866056B2 (en) | Ballistic estimation of vehicle data | |
US8548194B1 (en) | System and method for determining altitude | |
Indelman | Navigation performance enhancement using online mosaicking | |
Bikmaev et al. | Visual Localization of a Ground Vehicle Using a Monocamera and Geodesic-Bound Road Signs | |
Lee et al. | Autonomous Airborne Video‐Aided Navigation | |
CN116518981B (zh) | 基于深度学习匹配和卡尔曼滤波的飞行器视觉导航方法 | |
Trusheim et al. | Cooperative localisation using image sensors in a dynamic traffic scenario | |
Bettemir | Error Analysis of Visual Odometry for a Small Size Unmanned Aerial Vehicle | |
Bettemir | Sensitivity Analysis to Estimate the Positional Accuracy of a Small Size Unmanned Aerial Vehicle | |
Xu et al. | An airborne LiDAR/INS integrated navigation algorithm based on fuzzy controlled SIFT |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210625 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20210625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7241517 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |