JP6821154B2 - 基準映像地図を用いた自己位置姿勢標定装置 - Google Patents
基準映像地図を用いた自己位置姿勢標定装置 Download PDFInfo
- Publication number
- JP6821154B2 JP6821154B2 JP2016223563A JP2016223563A JP6821154B2 JP 6821154 B2 JP6821154 B2 JP 6821154B2 JP 2016223563 A JP2016223563 A JP 2016223563A JP 2016223563 A JP2016223563 A JP 2016223563A JP 6821154 B2 JP6821154 B2 JP 6821154B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- self
- video map
- dimensional
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004364 calculation method Methods 0.000 claims description 181
- 239000013598 vector Substances 0.000 claims description 95
- 238000012545 processing Methods 0.000 claims description 41
- 239000003550 marker Substances 0.000 claims description 27
- 239000000284 extract Substances 0.000 claims description 5
- 230000036544 posture Effects 0.000 description 106
- 238000000034 method Methods 0.000 description 78
- 230000008569 process Effects 0.000 description 24
- 238000012937 correction Methods 0.000 description 12
- 238000012546 transfer Methods 0.000 description 11
- 238000001514 detection method Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 9
- 230000010354 integration Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 238000005259 measurement Methods 0.000 description 6
- 238000007796 conventional method Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000000295 complement effect Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000002054 transplantation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000013585 weight reducing agent Substances 0.000 description 1
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Navigation (AREA)
- Image Analysis (AREA)
Description
ここで、このような移動体の自己位置姿勢標定にはいくつかの方法がある。
具体的には、移動車両等の自己位置姿勢標定装置としては、原理的には航空機などに利用される高価で高精度なIMU/GYROで取得した6変数(位置座標(X,Y,Z)とそれぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度のベクトル(変数))データを用いることで可能である。しかしながら、実際問題として、自動運転に耐えうる精度を出すには、装置・設備等が非常に高額となり、実用的ではない。
また、GNSS(GPS)は、一般に自己位置標定として普及した装置であるが、座標のみの3変数であるから、姿勢を含む6変数を取得することはできない。
このような点群を用いる自己位置姿勢標定技術としては、例えば、車両等の自動運転においてレーザー点群を三次元地図として、車載のレーザー装置からのレーザースキャンデータと比較して、自己位置姿勢標定を実現することが開示されている(特許文献1)。
このSLAMから発展した技術として、車載カメラの映像からレーザー点群と同じように点群を作り出し、画像の全体近くを三次元点として表示するV−SLAM(VisualSLAM)がある。V−SLAMでは、車載カメラからの映像を直接加工して生成した点群から、自己位置姿勢を標定することが試行されている。
すなわち、特許文献1で提案されているようなレーザー方式、すなわちLIDAR方式によって三次元地図を生成すると、莫大な費用がかかる上に、さらに三次元地図は環境の変化等に応じて更新しなければならないため、その度に莫大な費用がかかることになる。
また、LIDAR方式の最大の欠点は、三次元点群を作成し、データ管理するのに莫大な手間と費用がかかることである。さらに更新にも同様な手間と費用がかかり、実用的ではなかった。
このように、従来の自己位置姿勢標定の方法では、膨大な量の三次元点のデータを管理することになり、扱うデータ量が莫大なものとなり、実用的ではなかった。
すなわち、特許文献1に提案されているような方法により三次元地図が生成できたとしても、それを参照して、自動運転車両に取り付けた高額の装置等によって、自己位置を自動演算で求めなければならない。このような自己位置の演算技術は、未だその方式は模索の段階であり、演算のための装置が高額である割には、精度と安定度に欠けるという状況であった。
このため、自動運転を普及させるには、より簡便に、安価に、正確な自己位置姿勢標定を実現する必要があった。
しかしながら、現在まで、このような従来の自己位置姿勢標定が有する課題を有効に解決し得る技術や提案はなされていなかった。
そこで本願発明者は、この課題をも解決するために、機械センサーで取得可能な6変数を用いて、画像のフレーム間を内挿して、時間的に連続するCV値を取得し得ることに想到した。しかも、機械センサー自体は、安価な低精度の機械センサーであってもそれが可能であるという優れた特徴点を見出した。
これにより、車両等の自動運転,自動走行等に必要となる、移動体の位置と姿勢をリアルタイムに標定するための自己位置姿勢標定を、簡易かつ低コストで、高速かつ高精度に求めることが可能となる。
ここで、以下に示す本発明の基準映像地図を用いた自己位置姿勢標定装置は、プログラム(ソフトウェア)の命令によりコンピュータで実行される処理,手段,機能によって実現される。プログラムは、コンピュータの各構成要素に指令を送り、以下に示すような所定の処理や機能、例えば、映像中の基準となる特徴点(基準点)やその他の特徴点の自動抽出,抽出した基準点の自動追跡,基準点の三次元座標の算出,CV(カメラベクトル)値の演算,基準映像と目的画像の対応基準点の検出,基準映像・目的画像間のCV値の移植・統合,機械センサーで得られた6変数によるフレーム間の内挿入等を行わせる。このように、本発明における各処理や手段は、プログラムとコンピュータとが協働した具体的手段によって実現される。
また、プログラムは、記録媒体を介さず、通信回線を通じて直接にコンピュータにロードし実行することもできる。
以下に示す本発明の一実施形態に係る基準映像地図を用いた自己位置姿勢標定装置は、例えば自動車などの各種車両や航空機,船舶等の移動体の自動運転、ロボット等の自動走行などにおいて、移動する車両等の移動体が自らの位置と姿勢をリアルタイムに標定するための手段である。
具体的には、本実施形態に係る自己位置姿勢標定装置では、自己位置姿勢標定を実現するために、三次元地図となるCV(カメラベクトル)映像地図を用いている。
そして、本発明では、各種車両や航空機等の自動運転、ロボット等の自動走行などにおいて、移動する車両等が、自ら取り込んだ画像や映像と、すでに用意してある三次元地図を参照して、その基準となる三次元地図と、移動対象(自動走行する車両等)に取り付けたカメラから取り込んだ画像(目的画像)と、さらに機械センサーで取得される6変数(三次元位置座標と回転座標の計6変数)を取得して、それらを自動的に比較し、補正して、自らの位置と姿勢をリアルタイムに標定する、自己位置姿勢標定を実現するものである。
移動体の目的の走行以前に、基準となるCV映像地図の作製用の車両等に撮影カメラを設置し、動画映像、又は連続する静止画を取得し、その画像の中に特徴点を抽出するなどして、数学的演算により、全フレームのカメラ位置と姿勢を演算で求める。
具体的にはカメラ位置と姿勢を6変数、具体的には、カメラの位置座標(X,Y,Z)とそれぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度のベクトル(カメラベクトル:CV)で表し、それを映像の各フレームに一対一に対応させることで、CV映像を生成することができる(後述する図1〜13参照)。
このCV映像を基準として用いるものが、自動走行案内用のCV映像地図である。
上述したV−SLAMも、レーザー点群から生まれた技術のため、三次元点群を作り、それをデータとして持つことになる。これは画像を利用する点で本発明と一見似ているように見えるが、画像内の全域に巨大な3次元点群を持つか、持たないかの重要な違いがあり、巨大な点群を持たない本発明とは大きく異なる。
本発明は、直接には三次元点群データを持たず、すべての三次元情報をカメラ位置と姿勢に集約することで、データを極端に軽くし、一手間かけることで、いつでも任意の点の三次元座標を取得できるようにしたものである。こうすることで、データ量を極端に軽くし、演算処理も効率化できるようになる。
具体的には、まず、自動走行を目的とする移動する物体に取り付けた、安価な機械センサー、例えばIMU/GYRO/GNSS(GPS)などから取得できる低精度なデータに基づいてCV値を取得しておくことができる。あるいは、目的に応じて、CV値6変数のうちの目的の変数だけを取得することも可能である。
ここで、機械センサーを安価で低精度としたのは、高価で高精度では、上述した従来技術と同様に現実的ではないからである。
IMU/GYRO/GNSS(GPS)などから取得したCV値は、精度は悪いが時間的に連続で出力できることが特徴であり、この点において、画像のフレーム単位で取得されるCV値と比較して優れた長所である。
CV映像地図は、通常は高精度のGNSS(GPS)により、絶対座標を付与することができる。ここでのGNSSは、上述した低精度のGNSSとは異なる別のGNSSであり、高価で高精度のGNSSを想定している。
さらに、IMU/GYRO/GPSから取得されるCV値は、フレーム単位(又はその整数倍)で取得されたCV値(既に用意されているCV映像地図を目的画像と比較演算することで得られるCV値)は、時間的に不連続な部分を埋めるために、機械センサーからのCV値を、不連続期間の両端のCV値に合致させるように比例配分するなどして内挿することができる。機械センサーによるCV値は、極短時間(数秒程度)では高精度であるが、長時間では誤差が累積されるため、実用的ではないという性質があるからである。
つまり、本実施形態に係る自己位置姿勢標定装置を用いることにより、車両等の移動体を走行・移動させることで、画像更新を行いながらの自動走行が可能となる。
さらには、画像更新のために自動運転車両等を走行させれば良いことになる。
まず、本発明に係るCV映像地図の特徴について説明する。
後述するように(図1〜13参照)、CV映像地図内の任意の点は、隣接するフレーム間で、対応点処理することで、いつでも三次元座標を取得できる状態になっている。この方式は、画像内の任意の点を三次元化するための一手間(CV演算処理)を必要とするが、CV演算処理はミリセカンドの時間で処理できるので、実質的には、CV映像は映像内のすべての三次元座標を持っているのと同じ意味となる。したがって、CV映像を自己位置姿勢標定装置のための基準となる三次元地図として用いることができる。
この三次元化された特徴点の座標データを破棄する処理によって、保存するデータ量を極端に減少させることが可能となる。この点において、移動体の移動範囲の環境全体の三次元点群を、すべて保存した状態で移動・処理等する必要のある従来の方式(特許文献1参照)と大きく異なる、CV映像の極めて有利な優れた特徴となる。
このように、本発明に係るCV映像を用いることによって、初めて自動運転の三次元地図を実用的なデータ量とすることが可能となる。
しかも、このようなCV映像は、各フレーム内の画像の任意の点は、データとしては未だ三次元座標を持っていないが、数ミリセカンドの一手間の演算をすることで、任意の点の三次元座標を直ちに取得することができ、三次元地図として利用することができるという優れた特徴がある。
これによって、従来技術のように、三次元地図の作成とそれに基づく自己位置姿勢標定のためのデータが莫大な量となってしまうという問題を生じさせることなく、簡易かつ迅速に、移動体の自動運転に不可欠な自己位置姿勢標定を実現することができるようになる。
さらに、本発明では、移動体に搭載・設置したカメラから得られた画像がそのまま目的画像となるので、従来技術と比較して、費用を大幅に低下・削減することが可能となり、低コストで高精度な自己位置姿勢標定が可能となるという優れた特徴を有するものである。
次に、本明細書・特許請求の範囲中において使用する用語・語句についての定義を説明する。
・CV映像地図:
自己位置姿勢標定装置において参照基準となる三次元地図とは、前もってカメラ映像から取得された映像、又は連続する画像から、当該カメラ位置と姿勢を6変数で求めることで生成されたCV映像を三次元地図として利用するものである。これをCV映像地図という。
したがって、CV映像地図には、CV映像、及びCV映像から生成された、あるいは他の方法で生成された三次元CGを含むことができ、さらに、当該CV映像から画像処理して生成された各種の点・図形等を合体させたものまで含ませることができる。また、特殊な場合として、CV映像から生成した各種三次元形状のみであっても、元がCV映像であれば、CV映像地図と呼称することができる。特にこれをCV3D地図と呼称することができる。
つまり、3D地図の目的を持つCV映像は、CV映像地図ということができる。
これに対して、本発明に係るCV映像は、基本的に点群を持たず、いつでも必要なときに、隣接画像から目的の点の三次元座標をその場で自動演算により求めることができるものである。全空間の三次元座標は、カメラ位置(6変数)から演算で求められる。
一般に、自己位置姿勢標定には、三次元点の座標は、4点以上〜10点程度で十分であるから、本発明に係るCV演算を用いることで、十分な速度で必要な座標の三次元座標値を求めることができる。そして、このようなCV演算方式は、三次元点群を持たないことから、データが軽く、扱いがし易く、データ伝送についてもSLAMやV−Slamと比較して極端に狭帯域で実現できるようになる。
そのため、車載されたカメラで得られた画像(目的画像)に、機械センサーであるIMU/GYRO/GNSS(GPS)を組み合わせで得られたものであっても、これをCV映像地図・CV3D地図とすることができる。
機械センサー(IMU/GYRO/GNSS)は、演算遅れや、時間不連続期間などの極微少時間であれば、低価格のIMU/GYRO/GNSSであっても、目的カメラの補正機能として十分に有効である。機械センサーで取得された6変数は、本質的にCV値で示される6変数と同等である。
したがって、IMU/GYRO/GNSS等を取り込んだ地図もCV映像地図に含むことができる。
移動する物体、(たとえば車両やロボット等)に積載された機械センサーで得られた6変数、及びカメラから得られた連続する静止画像、又は動画像から、カメラの位置と姿勢を算出した6変数をカメラベクトル(CV)と呼称し、その値をCV値といい、CV値を演算で求めることをCV演算といい、そしてそのようなCV値を有する画像をCV映像という。
なお、カメラに一体化された機械センサーから得られた6変数も、本発明に係るCV値とすることができる。
また、連続しない単独の画像についてはCV画像と呼称することがある。あるいは、1フレームについてのみ着目するときには、当該1フレームの画像をCV画像と呼称することがある。つまり、CV画像はCV映像の特殊な状態(単独画像)である。
CV3D地図は、人間ではなく、コンピュータを利用して自動で読み取ることが可能である。この場合には、CV機械地図と呼称することがある。
また、このようなCV機械地図は、CV3D地図からコンピュータに読み取り易く処理することが可能であり、これもCV機械地図と呼称することがある。
さらに、データベース化されたCV機械地図をCV機械地図DBと呼称する。
これらはいずれも、本発明に係るCV映像地図である。
なお、上記のような「CV映像地図/CV機械地図」の用語は、基本的に明確な区別はなく、本明細書中においては、以下用途によって語句を使い分ける。
本発明を適用して自己位置姿勢標定を行う対象の移動体、すなわち、自動運転の対象となる移動体を目的移動体という。例えば、自動走行する車両、ロボットなどである。
目的移動体に積載されたカメラを目的カメラ、目的カメラによって取得された画像を目的画像という。
次に、上記のような本発明の基準映像地図を用いた自己位置姿勢標定装置で用いられるCV映像地図におけるCV演算の詳細について図1〜図13を参照しつつ説明する。
CV演算とはCV値を求めることを意味し、求められた結果をCV値,CVデータと呼ぶ。CVという表記は、カメラベクトル:Camera Vectorの略記であり、カメラベクトル(CV)とは計測等のために映像を取得するビデオカメラ等のカメラの三次元位置と3軸回転姿勢を示す値である。
CV演算は、動画像(ビデオ映像)を取得し、その映像内の特徴点を検出し、それを隣接する複数のフレームに追跡し、カメラ位置と特徴点の追跡軌跡とが作る三角形を画像内に数多く生成し、その三角形を解析することで、カメラの三次元位置とカメラの3軸回転姿勢を求めるものである。
また、動画像から演算で求められるCV値は、動画像の各フレームに対応して、三次元のカメラ位置と三次元のカメラ姿勢とが同時に求まる。しかも、原理的には一台のカメラで、映像と対応してCV値が求められる特性は、CV演算でしか実現し得ない、優れた特徴である。
例えば、他の方法による計測手段(GPSやIMU等)では、動画像の各フレームと、その三次元的カメラ位置と三次元的カメラ姿勢とを同時に取得するためには画像フレームと計測サンプリング時刻を高精度で、しかも完全に同期しなければならないために、巨額の装置となり、実質的には実現が困難である。
また、CVデータは画像から取得するため、取得されたデータは相対値であるが、画像内の任意の対象物との位置関係を計測することができるという他の方法では実現は可能な優れた特性を備える。
また、画像に対応したCV値が求まるので、画像内計測や測量において、画像から直接にカメラ位置とその3軸回転姿勢を求めることができるCV演算は画像内計測や画像内測量に好適となる。
そして、本発明の基準映像地図を用いた自己位置姿勢標定装置は、このCV演算により得られたCV値データに基づいて基準映像と目的映像(比較映像)との座標統合処理(CV値の移植・移転)を行うものである。
CV演算は、後述する本発明の基準映像地図を用いた自己位置姿勢標定装置のCV映像地図作成装置20(図14参照)として機能するCV演算手段20で行われる。
CV演算手段(CV映像地図作成装置)20は、図1に示すように、車載のビデオカメラ等で構成されるCV映像取得装置10から入力されるビデオ映像について所定のCV演算処理を行うようになっており、具体的には、特徴点抽出部21と、特徴点対応処理部22と、カメラベクトル演算部23と、誤差最小化部24と、三次元情報追跡部25と、高精度カメラベクトル演算部26とを備えている。
また、映像は、一般には予め記録した動画映像を使うことになるが、自動車等の移動体の移動に合わせてリアルタイムに取り込んだ映像を使用することも勿論可能である。
ここで、全周映像の平面展開とは、全周映像を、通常の画像として遠近法的に表現するものである。ここで、「遠近法」と呼称するのは、全周画像のそのものはメルカトール図法や球面投影図法のように、遠近法とは異なる方法で表示されているので(図4参照)、これを平面展開表示することで、通常の遠近法映像に変換表示できるからである。
なお、移動体11aには、その位置座標を取得する目的で、例えば、絶対座標を取得するGPS機器単独やIMU機器を付加したもの等により構成した位置計測機器等を備えることができる。
また、移動体11aに搭載される全周ビデオカメラ11としては、広範囲映像を撮影,取得するカメラであればどのような構成であってもよく、例えば、広角レンズや魚眼レンズ付きカメラ、移動カメラ、固定カメラ、複数のカメラを固定したカメラ、360度周囲に回転可能なカメラ等がある。本実施形態では、図2及び図3に示すように、車輌に複数のカメラが一体的に固定され、移動体11aの移動に伴って広範囲映像を撮影する全周ビデオカメラ11を使用している。
ここで、全周ビデオカメラ11は、カメラの全周映像を直接取得できるビデオカメラであるが、カメラの全周囲の半分以上を映像として取得できれば全周映像として使用できる。
また、画角が制限された通常のカメラの場合でも、CV演算の精度としては低下するが、全周映像の一部分として取り扱うことが可能である。
仮想球面に貼り付けられた球面画像データは、仮想球面に貼り付けた状態の球面画像(360度画像)データとして保存・出力される。仮想球面は、広範囲映像を取得するカメラ部を中心点とした任意の球面状に設定することができる。
図4(a)は球面画像が貼り付けられる仮想球面の外観イメージであり、同図(b)は仮想球面に貼り付けられた球面画像の一例である。また、同図(c)は、(b)の球面画像をメルカトール図法に従って平面展開した画像例を示す。
CV演算手段20では、まず、特徴点抽出部21が、CV映像取得装置10の全周ビデオカメラ11で撮影されて一時記録された動画像データの中から、十分な数の特徴点(基準点)を自動抽出する。
特徴点対応処理部22は、自動抽出された特徴点を、各フレーム間で各フレーム画像内において自動的に追跡することで、その対応関係を自動的に求める。
カメラベクトル演算部23は、対応関係が求められた特徴点の三次元位置座標から各フレーム画像に対応したカメラベクトルを演算で自動的に求める。
誤差最小化部24は、複数のカメラ位置の重複演算により、各カメラベクトルの解の分布が最小になるように統計処理し、誤差の最小化処理を施したカメラ位置方向を自動的に決定する。
高精度カメラベクトル演算部26は、三次元情報追跡部25で得られた追跡データに基づいて、カメラベクトル演算部23で得られるカメラベクトルより、さらに高精度なカメラベクトルを生成,出力する。
そして、以上のようにして得られたカメラベクトルが、後述する基準映像地図を用いた自己位置姿勢標定装置10に入力され、基準映像と目的画像の座標統合処理(CV値の移転・統合)に利用されることになる。
特徴点を充分に多くとることにより、カメラベクトル情報が重複することになり、重複する情報から誤差を最小化させて、より精度の高いカメラベクトルを求めることができる。
一般に、静止した三次元物体は、位置座標(X,Y,Z)と、それぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度を持つ。
従って、カメラベクトルは、カメラの位置座標(X,Y,Z)とそれぞれの座標軸の回転角(Φx,Φy,Φz)の六個の自由度のベクトル(6変数)をいう。なお、カメラが移動する場合は、自由度に移動方向も入るが、これは上記の六個の自由度(変数)から微分して導き出すことができる。
このように、本実施形態のカメラベクトルの検出とは、カメラは各フレーム毎に六個の自由度の値をとり、各フレーム毎に異なる六個の自由度を決定することである。
まず、上述したCV映像取得装置10の全周ビデオカメラ11で取得された画像データは、間接に又は直接に、CV演算手段20の特徴点抽出部21に入力され、特徴点抽出部21で、適切にサンプリングされたフレーム画像中に、特徴点となるべき点又は小領域画像が自動抽出され、特徴点対応処理部22で、複数のフレーム画像間で特徴点の対応関係が自動的に求められる。
具体的には、カメラベクトルの検出の基準となる、十分に必要な数以上の特徴点を求める。画像間の特徴点とその対応関係の一例を、図5〜図7に示す。図中「+」が自動抽出された特徴点であり、複数のフレーム画像間で対応関係が自動追跡される(図7に示す対応点1〜4参照)。
ここで、特徴点の抽出は、図8に示すように、各画像中に充分に多くの特徴点を指定,抽出することが望ましく(図8の○印参照)、例えば、100点程度の特徴点を抽出する。
本実施形態では、例えば、360度全周画像のエピポーラ幾何からエピポーラ方程式を解くことによりカメラ運動(カメラ位置とカメラ回転)を計算するようになっている。
十分な数の特徴点を与えることにより、線形代数演算により最小自乗法による解としてt及びRを計算することができる。この演算を対応する複数フレームに適用し演算する。
カメラベクトル演算に用いる画像としては、原理的にはどのような画像でも良いが、図7に示す360度全周画像のような広角画像の方が特徴点を数多く選択し易くなる。そこで、本実施形態では、CV演算に360度全周画像を用いており、これによって、特徴点の追跡距離を長くでき、特徴点を十分に多く選択することができ、遠距離、中距離、短距離それぞれに都合の良い特徴点を選択することができるようになる。また、回転ベクトルを補正する場合には、極回転変換処理を加えることで、演算処理も容易に行えるようになる。これらのことから、より精度の高い演算結果が得られるようになる。
なお、図7は、CV演算手段20における処理を理解し易くするために、1台又は複数台のカメラで撮影した画像を合成した360度全周囲の球面画像を地図図法でいうメルカトール図法で展開したものを示しているが、実際のCV演算では、必ずしもメルカトール図法による展開画像である必要はない。
さらに、誤差の分布が大きい特徴点につては削除し、他の特徴点に基づいて再演算することで、各特徴点及びカメラ位置での演算の精度を上げるようにする。
このようにして、特徴点の位置とカメラベクトルを精度良く求めることができる。
図9では、図7の画像1,2に示した特徴点1〜4の三次元座標と、画像1と画像2の間で移動するカメラベクトル(X,Y,Z)が示されている。
図10及び図11は、充分に多くの特徴点とフレーム画像により得られた特徴点の位置と移動するカメラの位置が示されている。同図中、グラフ中央に直線状に連続する○印がカメラ位置であり、その周囲に位置する○印が特徴点の位置と高さを示している。
具体的には、CV演算手段20では、画像内には映像的に特徴がある特徴点を自動検出し、各フレーム画像内に特徴点の対応点を求める際に、カメラベクトル演算に用いるn番目とn+m番目の二つのフレーム画像FnとFn+mに着目して単位演算とし、nとmを適切に設定した単位演算を繰り返すことができる。
mはフレーム間隔であり、カメラから画像内の特徴点までの距離によって特徴点を複数段に分類し、カメラから特徴点までの距離が遠いほどmが大きくなるように設定し、カメラから特徴点までの距離が近いほどmが小さくなるように設定する。このようにするのは、カメラから特徴点までの距離が遠ければ遠いほど、画像間における位置の変化が少ないからである。
このようにして、フレーム画像FnとFn+mに着目した単位演算を行うことにより、m枚毎にサンプリングした各フレーム間(フレーム間は駒落ちしている)では、長時間かけて精密カメラベクトルを演算し、フレーム画像FnとFn+mの間のm枚のフレーム(最小単位フレーム)では、短時間処理で行える簡易演算とすることができる。
このようにして、画像の進行とともにnが連続的に進行することにより、同一特徴点について複数回演算されて得られる各カメラベクトルの誤差が最小になるようにスケール調整して統合し、最終のカメラベクトルを決定することができる。
これにより、誤差のない高精度のカメラベクトルを求めつつ、簡易演算を組み合わせることにより、演算処理を高速化することができるようになる。
これによって、各特徴点及びカメラ位置の誤差が最小になるようにスケール調整する形で統合し、距離演算を行い、さらに、誤差の分布が大きい特徴点を削除し、必要に応じて他の特徴点について再演算することで、各特徴点及びカメラ位置での演算の精度を上げることができる。
具体的には、まず、三次元情報追跡部25で、カメラベクトル演算部23,誤差最小化部24を経て得られたカメラベクトルを概略のカメラベクトルと位置づけ、その後のプロセスで生成される画像の一部として得られる三次元情報(三次元形状)に基づいて、複数のフレーム画像に含まれる部分的三次元情報を隣接するフレーム間で連続的に追跡して三次元形状の自動追跡を行う。
そして、この三次元情報追跡部25で得られた三次元情報の追跡結果から、高精度カメラベクトル演算部26においてより高精度なカメラベクトルが求められる。
そこで、特徴点追跡で得られるカメラベクトルを概略値と位置づけ、その後のプロセスで得られる三次元情報(三次元形状)を各フレーム画像上に追跡して、その軌跡から高精度カメラベクトルを求めることができる。
三次元形状の追跡は、マッチング及び相関の精度を得やすく、三次元形状はフレーム画像によって、その三次元形状も大きさも変化しないので、多くのフレームに亘って追跡が可能であり、そのことでカメラベクトル演算の精度を向上させることができる。これはカメラベクトル演算部23により概略のカメラベクトルが既知であり、三次元形状が既に分かっているから可能となるものである。
また、得られた三次元形状を、カメラ位置から二次元画像に変換して、二次元画像として追跡することも可能である。カメラベクトルの概略値が既知であることから、カメラ視点からの二次元画像に投影変換が可能であり、カメラ視点の移動による対象の形状変化にも追従することが可能となる。
例えば、図13に示すように、車載カメラからの映像を平面展開して、各フレーム画像内の目的平面上の対応点を自動で探索し、対応点を一致させるように結合して目的平面の結合画像を生成し、同一の座標系に統合して表示する。
さらに、その共通座標系の中にカメラ位置とカメラ方向を次々に検出し、その位置や方向、軌跡をプロットしていくことができる。CVデータは、その三次元位置と3軸回転を示しており、ビデオ映像に重ねて表示することで、ビデオ映像の各フレームでCV値を同時に観察できる。CVデータをビデオ映像に重ねた表示した画像例を図13に示す。
なお、ビデオ映像内にカメラ位置を正しく表示すると、CV値が示すビデオ映像内の位置は画像の中心となり、カメラ移動が直線に近い場合は、すべてのフレームのCV値が重なって表示されてしまうので、例えば図13に示すように、敢えてカメラ位置から真下に1メートルの位置を表示することが適切である。あるいは道路面までの距離を基準として、道路面の高さにCV値を表示するのがより適切である。
次に、以上のようにして求められたCV値に基づいて基準映像(CV映像)と、それに比較される目的画像の座標統合処理を行う本発明に係る基準映像地図(CV映像地図)を用いた自己位置姿勢標定装置の実施形態について、図面を参照しつつ具体的に説明する。
なお、以下に示す基準映像地図(CV映像地図)を用いた自己位置姿勢標定装置において、基準映像・目的画像と表現する場合、必ずしも目的画像が時間的・時刻的に新しい映像であり、基準映像が旧い映像であるという意味ではない。
例えば、画像更新装置を目的とした自己位置姿勢標定装置の場合には、CV値が既知の映像が、基準映像となるものであり、基準映像に基づいてCV値が取得(移植・統合)される映像が、目的画像(目的映像)となるものである。
図14に示すように、本実施形態に係る基準映像地図(CV映像地図)を用いた自己位置姿勢標定装置1は、上述したCV映像地図を基準映像として、移動する車両等の移動体が自らの位置と姿勢をリアルタイムに標定し、その自己位置姿勢標定に基づいて移動体の自動運転等を実現するための装置・手段である。
具体的には、本実施形態に係る基準映像地図を用いた自己位置姿勢標定装置1は、CV映像取得装置10と、CV映像地図作成装置20と、CV映像地図データベース(CV機械地図データベース)30と、目的移動体(自動運転装置)40と、CV映像地図・目的画像比較装置50と、自己位置姿勢標定装置60を備えている。
この移動体11aが、基準映像地図を取得する目的で、所定の道路等を一定範囲で走行することで、移動体11aに備えられた全周ビデオカメラ11により、移動体11aの移動に伴って移動体周辺の映像を基準映像として撮影・取得する。
このCV映像取得装置10で取得された基準映像が、CV映像地図作成装置20に入力されて、上述したCV演算に基づくCV映像地図の作成処理が行われる(図1〜13参照)。
具体的には、CV映像地図作成装置20は、上述した図1〜13で示したCV演算手段によって構成される。CV映像地図作成装置20によるCV演算の具体的な内容については、上述したとおりである(図1〜13参照)。
このCV映像地図データベース30に記憶されたCV映像地図が、自己位置姿勢標定処理のための基準映像となる三次元地図データとして記憶・保持され、自己位置姿勢標定装置60により読み出されて、所定の目的画像との比較参照・座標統合等が行われることになる。
この目的移動体40には、自己位置姿勢標定の目的画像となる画像・映像を撮影・取得するための手段として、上述したCV映像取得装置10と同様に、例えばビデオカメラや車載カメラ等の撮像手段(目的カメラ)が備えられている。
また、目的移動体40には、当該移動体の位置情報を取得する手段として、上述のようなIMU/GYRO/GNSS(GPS)などの記載センサーが備えられている。
この目的移動体40で取得された目的画像及び機械センサーで得られた6変数データが、CV映像地図・目的画像比較装置50を介して自己位置姿勢標定装置60に入力されて、上述した基準映像となるCV映像地図と対比・参照されて、目的画像に対して三次元座標となるCV値が移植・統合・補正されることになる。
これにより、自己位置姿勢標定装置60では、目的画像・機械センサーで得られる6変数・CV映像地図の各データに基づき、自己位置姿勢標定処理が実行されるようになる。
まず、自己位置姿勢標定装置60には、CV映像地図・目的画像比較装置50を介して、目的移動体40の撮像手段(目的カメラ)で取得される目的画像と、機械センサーで得られる目的移動体40の位置情報となる6変数が入力される。
そして、自己位置姿勢標定装置60は、入力された目的画像と機械センサーで得られた6変数データとCV映像地図に基づいて、目的画像とCV映像地図の同一箇所を示す複数の特徴点を自動的に対応させることにより、CV映像地図に付加されたCV値を、対応する目的画像の特徴点に移植するとで、座標を統合する。
これにより、目的画像にCV値が付与され、目的画像は高精度なCV値を有するCV映像(目的CV値)として生成・保持されることになる。
まず、目的画像と基準映像との中の共通地点の対応関係を初期設定する。初期設定されたフレームから開始する動画像の各フレームに亘って、基準映像の中の所定の三次元基準点、又は三次元特徴点、又は二次元特徴点に対応する部分を、目的画像の中に自動的に対応付け、各フレームに亘って対応特徴点、又は対応基準点を探索する。
あるいは、目的画像の中の三次元基準点、又は三次元特徴点、又は二次元特徴点を基準映像の中に探索し、基準映像の各フレームに亘って追跡する。
さらに、目的画像が複数フレームに亘る複数画像や動画映像の場合には、探索処理により対応付けられた対応基準点を、目的画像の進行する各フレームに亘って追跡する。同様に基準映像が複数フレームに亘る複数画像や動画映像の場合には、探索処理により対応付けられた対応基準点を、基準映像の進行する各フレームに亘って追跡する。
そして、対応基準点(対応特徴点も同様)の対応結果により、基準映像の三次元基準点の三次元座標が、目的画像の対応基準点に移植される。
すなわち、基準映像と目的画像との対応が付くことで、基準映像の基準点の三次元座標が目的画像に移植されたことになり、それが四点以上有れば、目的画像のカメラ位置と姿勢がCV演算により求めることができ、目的画像のCV値を取得することができるようになる。
また、このようにCV値が付加された基準映像と、CV値が求められた目的画像とは、同一の座標系に座標統合されたことになる。
これは自動認識により、目的画像側でのみ、三次元座標を取得する場合に相当する。つまり、目的画像の三次元座標をその場で計測することではなく、例えば、後述する実世界3Dマーカ(図15参照)のように、その目的物の三次元形状と三次元座標が公表されているような場合に、目的対象物を取得することで、公表されている対象物の三次元座標を外から取得できる場合などに利用できる。
対象物とは、常に地球上に完全固定されたものは少なく、例えば地震でも移動することがあり、標識などは風雪で傾くこともある。したがって、常に最新の情報を取得することが必要であり、そのために目的画像側から三次元座標を取得することが有用となる。
そして、本実施形態に係る自己位置標定装置60では、CV映像地図と目的画像の組み合わせにより、CV映像地図から目的画像へ、又は/同時に、目的画像からCV映像地図へ、三次元特徴点の三次元座標移転を行うことで、目的画像のCV値取得を行うことができるものである。
これによって、既知のCV値のみを固定して演算を行い、目的画像側の未知のCV値を求めることで、単独で演算するよりも、単に対応点処理で求めるよりも、高精度なCV値を求めることが可能となる。
そして、上記のような自己位置姿勢標定装置60は、目的画像とCV映像地図の同一箇所を示す特徴点として、CV映像地図に含まれる所定の特徴量として、後述する7種類の特徴量を選択するようになっている(図15,16参照)。
この7種類の特徴量については、図15,16を参照しつつ後述する。
これによって、目的画像のCV値を、機械センサーで得られる6変数データによって補正・補完することができる(図17参照)。
この機械センサーによるCV値の補正・補完処理については、図17を参照しつつ後述する。
例えば、図14の破線で示すように、自動運転の対象となる車両等の目的移動体40は、自動運転手段によって制御・駆動される。
具体的には、目的移動体40は、各種センサー等で構成される車両周囲状況判断装置70の出力信号と、それに基づく走行・停止・回転等の車両の動作を制御する車両制御信号発生装置80の出力信号により、自動運転が行われる。
以上のような本発明の自己位置姿勢標定装置60を用いた車両等の自動運転制御の詳細については、図18を参照しつつ後述する。
次に、上述した自己位置姿勢標定装置60における自己位置姿勢標定処理の詳細について、図15〜17を参照しつつ説明する。
ここで、まず自己位置姿勢標定とは、目的移動体(車両、ロボット、航空機、移動する一般的な物体、等)のCV値を決定することである。このCV値を決定したことにより、CV映像内での移動する物体(目的移動体)の位置と姿勢を一義的に決定することができる。
得られたCV値は、元々は相対座標の相対値であるが、CV映像地図として、そこに実スケール(絶対座標)を与えることで、CV値は実スケールを持ち、絶対座標に変換されることになる。
ただし、CV映像地図を更新する目的であれば、リアルタイム処理は必要なく、後処理で、取得した新たな映像を自己位置姿勢標定することで、前のCV映像地図の一部分、又は全部を更新することができる。したがって、本発明の自己位置姿勢標定装置はCV映像地図の更新装置としても使用可能となる。
そのために、CV値が取得された目的画像をCV映像地図データベースに取り込んで、CV映像地図に重複するデータとして記憶し、あるいはCV映像地図の一部又は全部と置換して更新することができる。
このように、目的画像と目的画像を取得した6変数を破棄せずに、画像と共に保存することで、自己位置姿勢標定装置としての利用だけではなく、CV映像地図の更新装置として利用することができる。さらに、CV映像地図の更新のみを目的として、自動更新のための自動運転車両や自動走行ロボットを運行することも可能である。
本発明では、既にCV値が既知であるCV映像地図を三次元地図として用いて、目的移動体の映像又は画像のCV値を、直接演算するのではなく、目的移動体が移動する前に、既に存在しているその地点を含む近隣のCV映像地図を前もって準備し、目的移動体に積載したカメラ映像又はカメラ画像と、既に用意してあるCV映像地図との関係性から、その対応関係を求めることで、目的移動体のCV値を求めるものである。
このようにして得られたCV値を目的CV値と呼ぶことがある。
特に、自己位置姿勢標定のために必要な画像の特徴点等の種類について、CV映像地図と目的の移動体との関係性を取るために、以下のような7種の特徴量の少なくともいずれかを用いている。
以下、これを「7種の特徴量」と呼称して説明する。
以下、図15,16を参照しつつ、本実施形態における7種の特徴量について具体的に説明する。
図15は、図14に示した自己位置姿勢標定装置60におけるCV値の移転処理動作の詳細を示すブロック図である。
図16は、図15に示すCV値の移転処理動作の具体例を模式的に示す説明図である。
なお、以下に示す特徴量(特徴点)とは、必ずしも面積の無い点ではなく、実際には微少面積を持つ小さな面であったり、特徴の有る形状を持つ面であったり、特徴的属性を持つ領域であることもある。
そのため、本明細書では、特徴点を含めて「特徴量」と呼称して説明する。
基準映像となるCV映像内の特徴点は、上述したCV演算処理(図1〜13参照)で説明したように、画像処理技術により自動的に抽出することができる。このCV映像内の特徴点が、特徴点(2D)60aである(図15,図16(a)参照)。
この映像内の特徴点は点として定義もできるが、実際には座標的には点と見なせる小領域の画像で有ることが多い。特徴点とは、二次元・三次元に限らず、CV映像地図内の特徴点をいう場合と、目的の移動体に設置したカメラで取得した画像内の同一地点を示す特徴点をいう場合がある。
特に、特徴点(2D)は映像内、又は画像内で、二次元量として定義される。
また、特徴点(2D)は映像の隣接するフレームを跨いで追跡され、CV演算されることで、三次元特徴点(3D)になる。
上述したCV映像内の特徴点は、CV映像を生成する過程で、三次元化されるので、三次元の特徴点として扱うことができる。この三次元特徴点が、特徴点(3D)60bである(図15,図16(b)参照)。
三次元特徴点は、図16(b)に示すように、対応する目的の移動体に設置したカメラで取得した画像(目的画像)内の同一地点を示す特徴点に三次元座標を移転することができる。これにより、対応する目的画像内で取得した画像の一部に三次元座標を与えたことになる。
同様の手法で、画像内の任意の4点以上に三次元座標を移転できれば、画像のカメラ位置と姿勢が求められる。
上述した特徴点(2D)60aは、画像処理技術により自動生成した特徴点であるが、人間が特徴点をCV映像内に、あるいは目的画像内に指定することで、上記の特徴点(2D)60aと全く同じ扱いをすることができる。
これが、指定特徴点(2D)60cである(図15,図16(a)参照)。
同様に、人間が特徴点を画像内に指定し、その三次元座標をCV映像内に取得して、その三次元座標を求めることで、上述した特徴点(3D)と同様に扱うことができる。
これが、指定特徴点(3D)60dである(図15,図16(b)参照)。
標識等を上述した二種の指定特徴点60c,60dとして扱うことができる。
具体的には、認識技術によって取得した標識・看板・地物等の三次元座標付き対象物を、特に標識等認識対象物(3D)60eとする(図15参照)。
この標識等認識対象物(3D)は、既に三次元座標が既知であるから、大きな面積であれば、一つの対象物で目的のCV値を移植することができ、これにより自己位置姿勢標定が可能となる。
上記の標識等のように、初めから実在していた対象物(3D)ではなく、自己位置姿勢標定を目的として、例えば道路やその周辺などに実世界マーカを設置し、その三次元座標を取得して、あるいは既知として、目的画像内に、その対応点を求めて三次元座標を移植し、そこからCV値を演算で求めることができる。
これが、実世界三次元マーカ60fである(図15,図16(d)参照)。
ここで、実世界三次元マーカとは、下記の画像内三次元マーカ(3Dマーカ)とは異なるもので、例えば車両の自動運転のためや、ロボットの自動走行のために、自己位置標定を目的として、CV地図の中だけではなく、積極的に実世界の中に設置される三次元のマーカである。
上記の実世界三次元マーカ60fは、現実世界にマーカを設置する場合であるが、より簡便に、CV映像地図内に特徴的な場所を選択して、それを画像内三次元マーカ60gとすることができる(図15,図16(c)参照)。
この画像内三次元マーカ60gに基づいて、目的画像内に対応箇所を探すことでCV値を取得することができる。
具体的には、3Dマーカは、元々自動走行のために設置されたものではない対象物を利用することができる。例えば、路面標示やビルの角,窓など、前もって形状や座標を取得しておくことで3Dマーカとして利用することができる。
この点において、上述した実世界に実際に設置される三次元マーカと区別することができる。
その際に、選択される特徴量として、少なくとも一種が自動抽出され、その選択される特徴量は、既にその位置及びその三次元形状の三次元座標の一部又は全部が、既に自動取得されているものとする。
そのように自動抽出される対象物としては、例えば車両の自動運転の場合には、三次元座標を持つ標識,道路標示,ビルの一部,電柱,縁石等の道路周辺に存在する対象物などである。また、ロボットの自動走行の場合には、活動する範囲内の壁の角,移動しない室内の形状,固定された物体,床面の特徴ある図柄等である。そして、そのような認識対象物は、既に三次元座標が自動演算で求められているものである。
本実施形態における自己位置姿勢標定は、上記のような7種の特徴量(特徴点)の一部又は複数の組み合わせにより、基準となるCV映像から、対象となる目的画像に三次元特徴点を移転することで、目的画像のCV値を取得するものである。
すなわち、基準映像と目的画像の両者の特徴量が座標統合され、目的画像のCV値が取得されることで、自己位置姿勢標定がなされることになる。
これが、図15に示す対応点演算によるCV移転61である。
以下、目的画像のCV値取得のための特徴点の移転・移植の処理動作について具体的に説明する。
上述のとおり、対象となる目的画像のCV値(6変数)を求めることが、本発明に係る自己位置姿勢標定の本質である。
特徴点(2D)を抽出・追跡して、CV演算によりCV値を得る方法については上述したとおりである(図1〜13参照)。
そこで、以下では、基準となるCV映像に基づいて目的画像のCV値を取得することで自己位置姿勢標定を行うための方法について説明する。
上述したCV演算(図1〜13)を用いて、目的画像内の特徴点(2D)を単独でCV演算して、その後に、基準となるCV映像内のCV値と座標統合することができる。ここで座標統合のためには、両者画像内で共通の特徴点を数多く取得する必要がある。
これにより、両者画像内のCV値は同一座標系で表示できるようになり、同一座標系に目的画像内のCV値の取得が完了したことになる。つまり、自己位置姿勢標定が完了したことになる。
ここで、両者画像内とは、基準となるCV映像内と目的画像内との両者画像内を意味する。
基準となるCV映像地図のCV映像を、CV演算以前の状態に戻して、演算に用いた特徴点の三次元座標を用いずに、CV映像地図と目的画像の両者のフレームと特徴点が混合した状態でCV演算を行う。
これにより、CV映像地図と目的画像の両者のCV値が求められるが、ここでは両者混合のCV値が求められるときに、CV映像地図側の特徴点のみの三次元座標を既知として与えることで、目的画像側のCV値が、自動的に精度良く求められることになる。
CV映像地図と目的画像の両者画像内の特徴点(2D)と特徴点(3D)、及び三次元座標が既知である点,面などを混在させて、特徴点(3D)を既知座標として演算に組み込み、これをCV演算することにより、未知であった目的画像内のCV値を取得することで、目的画像のCV値取得が完了する。つまり自己位置姿勢標定が完了する。
すなわち、CV映像地図・目的画像の両者の二次元特徴点と三次元特徴点が混在する中で、両者を一体としてCV演算を行い、三次元座標が既知の特徴点の三次元座標は固定したまま、全ての特徴点を使ってCV演算を行うことで、目的画像のCV値取得を行うことができる。
基準となるCV映像内の三次元既知点の複数点を、目的画像内の対応点(2D)に自動対応させることで、三次元座標を目的画像内の対応点に移転する。
そして、三次元座標が既知となった目的画像内の四点以上の複数点の三次元特徴点から、目的画像内のCV値を幾何学的に演算する。
これによって、目的画像のCV値取得が完了し、自己位置姿勢標定が完了する。
ここで、特徴面は、複数の特徴点からなると考えることができ、したがって複数の特徴点の対応と見なすことができる。これはすべて三次元特徴点として扱うため、最も演算コストがかからない方法であり、つまり高速でCV値が求められることになる。
この方式は、原理的に基準となるCV映像と目的画像の関係を部分的、限定的に逆転させた場合に相当する。しかしながら、基準画像はあくまでもCV映像地図である。
具体的には、例えば図16(d)に示すように、実世界に三次元座標の既知の実世界マーカを設置した場合などが相当する。この場合、マーカの三次元座標は基準となるCV映像を介さずに直接的に取得することになる。
ただし、他の特徴点については、CV映像から取得することになるので、演算内容としては、最終的なCV値取得においては、CV映像地図が基準画像として係わっていることになる。
本発明に係る自己位置姿勢標定装置では、車両等を走行させながらカメラを使用する都合上、どうしても夜間や霧などの場合には、車両等の走行が困難となる場合がある。そのような場合でも、実世界三次元マーカを採用すれば、安全運転の上から、道路上又は道路近傍などに安価かつ安全に設置できることから、実世界3Dマーカ方式は安全面等の点で非常に有望である。
もちろん、目的画像内の3Dマーカを用いる場合でも、自己位置姿勢標定は十分に可能であるが、行政的配慮などから、法律で定められた実世界3Dマーカを用いることが好ましいことになる。
目的移動体40(図14参照)に備えられる機械センサー、例えばIMU/GYRO/GNSS等により、直接的にCV値を取得することも可能である。
ただし、現在普及している機械センサーは精度が低く、それ単独では実用に耐える精度を得ることは困難である。一方で、機械センサーは、リアルタイム出力が得られることが最大の長所である。
そこで、本実施形態では、比較的低価格のIMU/GYRO/GNSS等によって、リアルタイムの概略CV値を得る手法を採用することができる。概略値ではあっても、極短時間であれば、誤差の少ない相対値を得ることができるため、時間不連続のCV値のフレーム間の変動を相対値で知るために、あるいはリアルタイム値を知るために有効となる。
この機械センサーによる補正・補完的なCV値取得の詳細については、後述する図17を参照しつつ後述する。
以上のようにして基準となるCV映像に基づいて目的画像のCV値を取得・移植することができるが、CV映像地図を取得・生成する場合と同じ方法(図1〜13参照)で、目的画像内のCV値を直接的に取得して、座標を統合して、位置合わせをして、目的画像内のCV値を取得することができる。
これが、図15に示すCV統合演算62である。
なお、このような目的画像単独のCV演算・CV値取得は、単独で用いるものではなく、状況等に応じて、上述した他の方法と併用して一部に用いることになる。
原理的に、IMU/GYRO等の機械センサーをカメラに取り付ければ、CV値、つまり6変数を取得することができる。ただし、CV映像を直接取得するためには、非常に高額(高精度)なIMU/GYRO等が必要となり、実際には機械式センサー単独での利用は現実的ではない。
一方、IMU/GYRO等の機械センサーは、リアルタイム出力が得られるという優れた特徴を持つ。
そこで、本実施形態では、この機械センサーの特徴を有効に活用し、CV映像、及びCV値取得の演算に伴う時間遅れや時間不連続を補正する、リアルタイム補正として利用するようにしている。
そこで、IMU/GYRO等の機械センサーを用いて、微少時間遅れが生じたCVの変動をリアルタイムに補正することができる。
具体的には、CV演算とCV値取得にかかる画像処理時間は、数ミリセカンドから数秒程度である。つまり、この時間のみを機械センサーから得られた6変数で補足することになる。この程度の時間であれば、安価(低精度)なIMU/GYRO等の機械センサーであっても、時間不連続補正やリアルタイム補正が可能となる。
さらに、CV値を絶対座標に変換するには、環境内に設置したGCPや、目的画像を取得するカメラに剛体結合されたGNSS(GPS)によって、取得した相対座標を絶対座標に変換することができる。
以下、図17を参照しつつ、機械センサーを用いたCV値の高精度化(補正・補完)について具体的に説明する。
図17は、本実施形態に係る基準映像地図を用いた自己位置姿勢標定装置により得られる目的画像のCV値を機械センサーで得られる6変数により高精度化する場合の処理を模式的に示した説明図であり、(a)は目的画像を構成する複数フレームの全体を、(b)は(a)に示す複数フレームの一部を拡大して示したものである。
CV映像地図と目的画像の比較で取得したCV値[02,06,10]は、●で示している。
機械センサーで取得した6変数の内の1つを、点線1[05]で示す。
図17(b)に示すように、機械センサーはリアルタイム出力であるから、目的画像から取得した目的CV値は時間遅れΔt[04]が発生している。
さらに、機械センサーの精度不足から、変数値そのものに、誤差Δd[03]が発生している。
そして、目的画像から得られたCV値を真値として、機械センサーの同時刻のCV値と、フレーム両端の値を合わせるように補正する。この場合、平行移動だけで合致しないときは、比例配分して合致させる。
このようにすることで、フレーム間は機械センサーからのCV値で補完することができたことになる。このようにして、現在時刻でのリアルタイムCV値を取得することに、自己位置姿勢標定装置としての意味がある。
なお、図17では、演算遅延時間が1フレーム内として図示したが、1フレームを超えても、意味は変わらない。Δt[04]の長さが、さらに図面左に伸びることになるだけである。
以上によって、最終的に目的カメラのCV値はリアルタイム性が確保されたことになる。
そして、その累積誤差を補正するために、CV映像地図と、当該目的移動体に積載したカメラ画像を比較して得た、より精度の高いCV値でもって機械センサーで得た6変数を間欠的に補正し、時間的に遅延のない、連続な自己位置姿勢の6変数を取得することができるものである。
一方、CV映像地図によるCV値は、演算による時間遅れと、時間的に断片値であり、連続性に欠けるなど、一長一短がある。
そこで、両者を組み合わせることで、両者の長所を引き出せるようになる。
すなわち、目的画像のCV値(6変数)取得の演算処理時間が有限であるために遅延が生じる。これは自己位置標定と姿勢の誤差となる。その遅延時間内に生じるCV値の進行を補正するために、目的画像のCV値の空白となる直近の終端から現在時刻までの極小時間の期間について、機械センサーで内挿することで、結果としてリアルタイム性を向上させることができる。
そもそも、機械センサーのみで精度を出すためには高額な設備・装置等が必要となり、それ以外にも、キャリブレーションが困難になるなどの問題があった。
すなわち、精度は低いが遅延の無いIMU/GYRO等の機械センサーによるリアルタイム出力の位置姿勢の6変数を内挿することができる。機械センサーのリアルタイム出力は、精度が低いが、極超短時間であれば、誤差の少ない6変数を取得できるという特性を利用している。
このようにして、CV値は基本的にCV演算で求めるが、直近の極超短時間のみ機械センサーで補完して、リアルタイム補正するものである。
次に、以上のような本実施形態に係る基準映像地図を用いた自己位置姿勢標定装置による目的移動体の自動運転について、図18を参照しつつ説明する。
図18は、本実施形態に係る基準映像地図を用いた自己位置姿勢標定装置による移動体の自動運転システム100のシステム構成を示す機能ブロック図である。
なお、図18に示す自動運転システム100のシステム構成では、上述した自己位置姿勢標定装置(図14参照)に直接関係しない部分を点線で、自己位置姿勢標定装置に直接関連する部分を実線で示している。
次に、機械センサー/6変数取得部106から取得した低精度ではあっても、リアルタイム出力のCV値が出力される。
次いで、自己位置姿勢標定部109で、特徴点比較部105から出力されたCV値が、機械センサー/6変数取得部106から出力される遅延の無いCV値で補正され、遅延の無い最終の目的CV値が生成・出力される。
また、対象物認識部104において、走行路付近の対象部が認識され、その三次元座標が取得される。
そして、障害物3D認識部107により、走行路付近の対象物が障害物で有ると判断されれば、運転パラメータ指示部111に信号が送られる。
運転パラメータ指示部111は、運転条件設定部110のコントロール下にあり、運転に必要な条件が設定され、最終的に車両の案内自動走行部112によって、直接車両がコントロールされることで、自動運転が実行される。
なお、上記のような自己位置姿勢標定装置が何らかの理由で故障した場合などには、車両を安全に誘導し、安全に停止させなければならない。高速道路の場合などには、すぐに止まれない場合も想定される。
そこで、通常は自己位置姿勢標定装置を作動させた自動運転としながらも、緊急時には、外からの信号を一切受けずに、自ら取得した情報のみで、車両を安全に誘導し、停止させる構成を備えることが必要となる。
また、ロボットにおいても同様に、自己位置姿勢装置が故障しても、自動で安全な場所に移動して、停止させる補助装置が必要である。
このように、本実施形態では、自己位置姿勢標定装置以外に、目的車両に積載した、本装置とは独立した自律走行システムを積載して、緊急時には、他のカメラ、又は他のセンサーにより、目的車両を安全に誘導し、停止させることができる安全装置付きの自己位置姿勢標定装置を提供することができる。
次に、本実施形態に係る基準映像地図を用いた自己位置姿勢標定装置の、より具体的な実施例について説明する。
以下では、自動運転における標準的な自己位置姿勢標定装置の実施例を示す。
なお、以下の実施例では、適宜上述した図1及び図6を参照しつつ説明する。
次に、CV映像データベース30から、自動運転に必要な範囲の地図のみ切り出して、CV映像地図・目的画像比較装置50で、目的カメラのCV値を取得する。
一方、同時に目的移動体40にカメラと一体化された装置で、まず機械センサーにより、直接6変数を取得する。これで、同時にカメラからの画像で取得したCV値と、機械センサーで取得したCV値、即ち両者の6変数を取得したことになる。
そこで、自己位置姿勢標定装置60において、連続した機械センサーのCV値の中で、目的カメラのCV値のデータと一致する時間(フレームの整数倍)でキャリブレーションして機械センサーのCV値を補正し(図17[04/03])、その中間は機械センサーのデータで内挿して、全体として、精度が向上したCV値を取得する。
これらの対象物等が三次元的に、そしてそれぞれの位置関係が明らかになり、車両制御信号発生装置80で、車両の制御信号が生成され、車両(目的移動体40)が自動制御されて、自動運転が実現される。
一般に、演算にはそれなりの時間をかけなければ精度の高い値(CV値)は求められないので、できるだけ演算時間をかけることが望ましいが、その分フレームは落ちてくることになる。
そこで、本実施例では、目的画像側では飛び飛びのフレームでCV取得して、その飛ばされたフレームに関しては演算せずに、同時に取得した機械センサーから得た6変数により埋めるようにする。
[実施例1]
目的画像が6fps(毎秒6フレーム)である場合、CV演算には一秒かけて、つまり1/6のフレームのみCV演算する。
これにより、1フレームのみ高精度演算を行い、残りの5フレームについては、機械センサーから取得した6変数を内挿することができる。
図17に示したような、目的画像が0.5fps(2秒に1フレーム)である場合に、CV演算に0.3秒がかかり、したがって、0.3秒のディレー(遅延)が発生するとする。
この場合、機械センサーで、0.3秒間を補完して、リアルタイムCV値を出力することができる(図17参照)。
もし、目的CV演算に一秒かかれば、これは機械センサーから得られる6変数を一秒に一回、キャリブレーションしていることになる。
機械センサーの1秒間で発生する累積誤差が、CV演算による誤差を下回っているという条件は、安価なIMUやGYROでも、十分に対応できることを意味する。したがって、これは極めて現実的な方法となる。
なお、目的画像から得られた目的CV値も、機械センサーも、それぞれ誤差を持つので、補正期間とカメラフレーム数、機械センサーの性能等の兼ね合いで、カメラフレーム数を決定することになる。
したがって、自動運転等を行う環境の全域の三次元点(点群)を保持しなくても、必要なときに数ミリセカンドの演算処理を行うことで、いつでも任意の点の三次元点の位置情報を取得・生成することができ、三次元空間を示すデータを大幅に圧縮できるようになる。
これによって、車両や航空機などの自動運転、三次元空間を移動するロボットの自動走行等において、移動体自身の自己位置と姿勢を示す情報を、簡易・迅速かつ高精度に知ることができるようになる。
SLAMやV−SLAMでは通常、自動運転に必要な点群は、概略数億点/kmにもなる。
本実施形態の自己位置姿勢標定装置においても、実際にはいくつかの特徴ある三次元点のデータを保持することになるが、それが仮に数百点/kmの三次元点を持ったとしても、従来のLIDAR方式やV−SLAMによる点群の数とは比較にならないほど微少であり、わずか数百点のために増加するデータ量は無視できる量である。
CV映像地図は、前もって自動走行する目的の環境内を移動する基準カメラによる基準映像又は連続する基準静止画像(2次元画像)と、当該環境の基準CV値を生成しておくことで、つまり、二次元のままの映像と、その各フレームに6変数を対応させることで、当該環境の三次元情報を集約して保持できるものである。
しかも、CV映像地図は、膨大な三次元点群を持つことなく、当該CV映像地図内の任意の点の三次元座標を、必要な時に、演算で求めることができる状態にしておくことで、データを大きく軽量化して保持・管理できることが特徴である。
そして、このようなCV映像地図を基準画像として、これと目的画像を比較し、両者の同一箇所を示す複数の特徴点を自動的に対応させ、目的画像のCV値(6変数)を演算で取得することで、目的画像自己位置姿勢を、迅速に取得することができるものである。
すなわち、CV映像地図と目的画像を組み合わせることで、第一に、取り扱うデータが軽くなり、演算が効率的になる。
第二に、カメラから取得した動画像と、カメラから取得した目的画像のCV値に、機械センサーでの補正を加えることができる。これらの機器構成としては単純であり、堅牢であり、扱いやすく、低価格で、高性能な自己位置姿勢標定装置が得られる。
第三に、機械センサーとしてのGNSSからの出力を一つの特徴点として、あるいは直接既知のCV値として、CV演算に組み入れることで、簡単に目的CV値の高精度化が可能となる。
このようなCV映像の精度向上は、後処理で、撮影後でも可能であり、精度に合わせた後処理や設計等が可能であり、さらに高精度を要求されれば、いつでも高精度化が可能である。
これに対して、上述した特許文献1に開示されているような従来の自己位置姿勢標定方法では、レーザー点群による3D地図は後の精度向上が極めて困難で、一度取得したデータを変更等することは極めて困難である。
例えば、上述した実施形態においては、本発明の基準映像地図を用いた自己位置姿勢標定装置の適用対象として、車両等の移動体の自動運転を想定して説明したが、本発明に係る自己位置姿勢標定装置は、自己位置姿勢標定が必要となるどのような装置や手段にも応用できるものであり、その用途・使用方法等も特に限定されるものでないことは言うまでもない。
ただし、基準映像を、機械センサーや測量装置等を用いて実測により生成した三次元地図を基準としても同様となる。
したがって、本発明に係る自己位置姿勢標定装置は、機械センサー等の実測値のデータを三次元座標データとして併用することが可能である。
また、上述したように、三次元地図を更新する場合にも、本発明の基準映像地図を用いた自己位置姿勢標定装置は効果的に用いられ、映像から地図を生成する際の更新にも当然利用することができる。
さらに、本発明によれば、GPSを用いないでも高精度の位置座標を取得できることから、高精度ナビゲーション技術への利用も期待できる。
20 CV映像地図作成装置
30 CV映像地図データベース
40 目的移動体
50 CV映像地図・目的画像比較装置
60 自己位置姿勢標定装置
Claims (10)
- 所定の映像取得手段で撮影された基準映像に基づいて、当該基準映像のカメラ位置と姿勢の三次元座標値を示すCV(カメラベクトル)値を求めるCV演算を行い、前記基準映像に前記CV値を付加したCV映像地図を生成するCV映像地図作成手段と、
前記CV映像地図を記憶するCV映像地図データベースと、
前記CV映像地図データベースに記憶されたCV映像地図を基準画像とし、目的移動体に備えられた所定の画像取得手段で撮影された目的画像を前記CV映像地図と比較して、当該目的画像とCV映像地図の同一箇所を示す複数の特徴点を自動的に対応させることにより、当該目的画像のCV値を取得する自己位置姿勢標定手段と、
を備え、
前記自己位置姿勢標定手段が、
前記CV映像地図と前記目的画像を組み合わせて、前記CV映像地図及び前記目的画像に含まれる二次元特徴点及び三次元特徴点を一体として前記CV演算を行い、三次元座標が既知の前記CV映像地図の特徴点の三次元座標は変数としてのCV演算を行うことなく固定して、前記CV映像地図及び前記目的画像に含まれる全ての特徴点についてのCV演算を行うことで、前記目的画像のCV値を取得するとともに、
前記CV映像地図及び前記目的画像に含まれる全てのCV値から、前記目的画像のCV値を分離して取り出し、自己位置標定のCV値とする
ことを特徴とする基準映像地図を用いた自己位置姿勢標定装置。 - 前記CV映像地図作成手段は、
前記基準映像に写し込まれた三次元空間の三次元情報を、そのまま空間の三次元座標データとして保持することなく、当該基準映像を取得した時の前記CV(カメラベクトル)値である、当該基準映像を撮影した前記映像取得手段の位置と姿勢を示す6変数のデータとして生成し、
前記CV映像地図データベースは、
前記CV値から、前記基準映像中の任意の点の三次元座標を随時求めることが可能となる、三次元データが軽量化された、基準映像とCV値とが対応して保持された前記CV映像地図を記憶する
ことを特徴とする請求項1記載の基準映像地図を用いた自己位置姿勢標定装置。 - 前記自己位置姿勢標定手段が、
前記目的移動体に備えられた機械センサーで取得される、当該目的移動体の自己位置と姿勢を示す6変数データを遅延のないデータとして扱い、前記目的画像のCV値の演算遅延時間を換算して、リアルタイム値に補正することにより、リアルタイムCV値、若しくは、時間的に連続した前記目的移動体の自己位置と姿勢を示す6変数を取得する
ことを特徴とする請求項1又は2記載の基準映像地図を用いた自己位置姿勢標定装置。 - 前記自己位置姿勢標定手段が、
前記目的画像とCV映像地図の同一箇所を示す特徴点として、前記CV映像地図に含まれる所定の特徴量を選択し、
前記所定の特徴量として、前記CV映像地図に含まれる、自動抽出された三次元座標を持つ標識等の三次元認識対象物を選択する
ことを特徴とする請求項1〜3のいずれか一項記載の基準映像地図を用いた自己位置姿勢標定装置。 - 前記自己位置姿勢標定手段が、
前記目的画像とCV映像地図の同一箇所を示す特徴点として、前記CV映像地図に含まれる所定の特徴量を選択し、
前記所定の特徴量として、前記CV映像地図に含まれる、三次元座標が既知である画像内三次元マーカを選択する
ことを特徴とする請求項1〜4のいずれか一項記載の基準映像地図を用いた自己位置姿勢標定装置。 - 前記自己位置姿勢標定手段が、
前記目的画像とCV映像地図の同一箇所を示す特徴点として、前記CV映像地図に含まれる所定の特徴量を選択し、
前記所定の特徴量として、前記CV映像地図に含まれる、三次元座標が既知である実世界三次元マーカを選択する
ことを特徴とする請求項1〜5のいずれか一項記載の基準映像地図を用いた自己位置姿勢標定装置。 - 前記自己位置姿勢標定手段が、
前記CV値が取得された目的画像を前記CV映像地図データベースに取り込んで、当該CV映像地図データベースに記憶されたCV映像地図の一部又は全部を更新する
ことを特徴とする請求項1〜6のいずれか一項記載の基準映像地図を用いた自己位置姿勢標定装置。 - 前記自己位置姿勢標定手段が、
前記CV映像地図と前記目的画像を組み合わせて、前記CV映像地図から前記目的画像へ、又は、前記目的画像から前記CV映像地図へ、三次元特徴点の三次元座標を移転することにより、前記目的画像のCV値を取得する
ことを特徴とする請求項1〜7のいずれか一項記載の基準映像地図を用いた自己位置姿勢標定装置。 - 前記目的移動体が、自律走行システム、及びカメラ又はセンサーを備えた目的車両からなり、
当該目的車両が、自己位置姿勢標定手段で生成される前記CVが付加された前記目的画像に基づいて誘導及び停止される
ことを特徴とする請求項1〜8のいずれか一項記載の基準映像地図を用いた自己位置姿勢標定装置。 - 前記CV映像地図作成手段が、
動画映像の画像データから、所定数の特徴点を自動抽出する特徴点抽出部と、
抽出された特徴点について、動画映像の各フレーム画像内で自動追跡してフレーム画像間での対応関係を求める特徴点対応処理部と、
対応関係が求められた特徴点の三次元位置座標を求め、当該三次元位置座標から、各フレーム画像に対応したカメラの三次元位置座標及び三次元回転座標からなるカメラベクトルを求めるカメラベクトル演算部と、を備える
ことを特徴とする請求項1〜9のいずれか一項記載の基準映像地図を用いた自己位置姿勢標定装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016223563A JP6821154B2 (ja) | 2016-11-16 | 2016-11-16 | 基準映像地図を用いた自己位置姿勢標定装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016223563A JP6821154B2 (ja) | 2016-11-16 | 2016-11-16 | 基準映像地図を用いた自己位置姿勢標定装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018081008A JP2018081008A (ja) | 2018-05-24 |
JP6821154B2 true JP6821154B2 (ja) | 2021-01-27 |
Family
ID=62198803
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016223563A Active JP6821154B2 (ja) | 2016-11-16 | 2016-11-16 | 基準映像地図を用いた自己位置姿勢標定装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6821154B2 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11181619B2 (en) | 2018-06-14 | 2021-11-23 | Waymo Llc | Camera ring structure for autonomous vehicles |
CN109978173B (zh) * | 2018-12-11 | 2022-12-30 | 智能嘉家有限公司 | 一种用于室内测绘和定位的机器学习diy方法 |
CN110135329B (zh) * | 2019-05-13 | 2023-08-04 | 腾讯科技(深圳)有限公司 | 从视频中提取姿势的方法、装置、设备及存储介质 |
JP7338369B2 (ja) | 2019-09-27 | 2023-09-05 | 富士通株式会社 | 環境地図調整値算出方法および環境地図調整値算出プログラム |
JP7175252B2 (ja) * | 2019-10-29 | 2022-11-18 | ヤンマーパワーテクノロジー株式会社 | 船舶の着岸支援装置 |
CN112204345A (zh) * | 2020-01-20 | 2021-01-08 | 珊口(深圳)智能科技有限公司 | 移动设备的室内定位方法、移动设备及控制系统 |
US20230119032A1 (en) * | 2020-01-24 | 2023-04-20 | Nippon Telegraph And Telephone Corporation | Display system and display method |
CN111652103B (zh) * | 2020-05-27 | 2023-09-19 | 北京百度网讯科技有限公司 | 室内定位方法、装置、设备以及存储介质 |
CN111651547B (zh) * | 2020-06-04 | 2023-07-18 | 北京四维图新科技股份有限公司 | 高精度地图数据的获取方法、装置及可读存储介质 |
CN113838140B (zh) * | 2021-08-16 | 2023-07-18 | 中国矿业大学(北京) | 一种基于三维地图辅助的单目视频行人三维定位方法 |
CN115115704A (zh) * | 2022-06-24 | 2022-09-27 | 合众新能源汽车有限公司 | 确定汽车位姿信息的方法及装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4767578B2 (ja) * | 2005-02-14 | 2011-09-07 | 株式会社岩根研究所 | 高精度cv演算装置と、この高精度cv演算装置を備えたcv方式三次元地図生成装置及びcv方式航法装置 |
JP4773794B2 (ja) * | 2005-10-19 | 2011-09-14 | 株式会社岩根研究所 | 新旧映像座標統合装置 |
JP4980606B2 (ja) * | 2005-11-15 | 2012-07-18 | 株式会社岩根研究所 | 移動型自動監視装置 |
JP5227065B2 (ja) * | 2008-01-25 | 2013-07-03 | 株式会社岩根研究所 | 三次元機械地図、三次元機械地図生成装置、ナビゲーション装置及び自動運転装置 |
-
2016
- 2016-11-16 JP JP2016223563A patent/JP6821154B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018081008A (ja) | 2018-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6821154B2 (ja) | 基準映像地図を用いた自己位置姿勢標定装置 | |
JP5227065B2 (ja) | 三次元機械地図、三次元機械地図生成装置、ナビゲーション装置及び自動運転装置 | |
JP4273119B2 (ja) | ナビゲーション装置 | |
US11959771B2 (en) | Creation and use of enhanced maps | |
CN109887053B (zh) | 一种slam地图拼接方法及系统 | |
US10848732B2 (en) | Free viewpoint movement display device | |
JP7147119B2 (ja) | 自律的な自己位置推定のためのデバイス及び方法 | |
EP3137850B1 (en) | Method and system for determining a position relative to a digital map | |
JP4767578B2 (ja) | 高精度cv演算装置と、この高精度cv演算装置を備えたcv方式三次元地図生成装置及びcv方式航法装置 | |
JP4980606B2 (ja) | 移動型自動監視装置 | |
JP4980617B2 (ja) | 二次元図面と映像の合成表示装置 | |
EP4124829B1 (en) | Map construction method, apparatus, device and storage medium | |
JP2023525927A (ja) | 車両位置推定システム及び方法 | |
Soheilian et al. | Generation of an integrated 3D city model with visual landmarks for autonomous navigation in dense urban areas | |
JP4624000B2 (ja) | 複合人工知能装置 | |
JP4773794B2 (ja) | 新旧映像座標統合装置 | |
KR101700764B1 (ko) | 자율 이동 방법 및 그 장치 | |
KR102506411B1 (ko) | 차량의 위치 및 자세 추정 방법, 장치 및 이를 위한 기록매체 | |
Grinstead et al. | Developing detailed a priori 3D models of large environments to aid in robotic navigation tasks | |
CN113932814B (zh) | 一种基于多模态地图的协同定位方法 | |
US20230140324A1 (en) | Method of creating 3d volumetric scene | |
Thakur et al. | LiDAR-Based Optimized Normal Distribution Transform Localization on 3D Map for Autonomous Navigation | |
Ferreira et al. | Application of visual-inertial slam for 3D mapping of underground environments | |
Harris et al. | Practical issues in automatic 3D reconstruction and navigation applications using man-portable or vehicle-mounted sensors | |
BR112019000918B1 (pt) | Método e sistema para construir representação de linha de característica da superfície de estrada e meio não transitório legível por computador |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190531 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200318 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200519 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201223 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6821154 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313114 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |