JP2016156629A - 外界認識装置、方法および車両 - Google Patents
外界認識装置、方法および車両 Download PDFInfo
- Publication number
- JP2016156629A JP2016156629A JP2015032740A JP2015032740A JP2016156629A JP 2016156629 A JP2016156629 A JP 2016156629A JP 2015032740 A JP2015032740 A JP 2015032740A JP 2015032740 A JP2015032740 A JP 2015032740A JP 2016156629 A JP2016156629 A JP 2016156629A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- external environment
- sample points
- external
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
【課題】
路面の凹凸や勾配があるオフロード環境において、単眼カメラのみで周囲の立体情報、3Dサーフェスを精度良く推定可能となる外界認識装置、方法および車両を提供する。
【解決手段】
回転するカメラにより撮像した画像から外界を認識する外界認識装置であって、回転するカメラにより得られた画像群にSfM処理を適用し、画像中の特徴点の3D座標とカメラの位置・姿勢の推定を行う3D点群・カメラ運動推定部と、SfMによって得られたカメラ運動を円にフィッティングし、その半径と既知のカメラ回転半径を一致させることにより実スケールを求め、カメラ周辺の3Dサーフェスを生成する。
【選択図】図1
路面の凹凸や勾配があるオフロード環境において、単眼カメラのみで周囲の立体情報、3Dサーフェスを精度良く推定可能となる外界認識装置、方法および車両を提供する。
【解決手段】
回転するカメラにより撮像した画像から外界を認識する外界認識装置であって、回転するカメラにより得られた画像群にSfM処理を適用し、画像中の特徴点の3D座標とカメラの位置・姿勢の推定を行う3D点群・カメラ運動推定部と、SfMによって得られたカメラ運動を円にフィッティングし、その半径と既知のカメラ回転半径を一致させることにより実スケールを求め、カメラ周辺の3Dサーフェスを生成する。
【選択図】図1
Description
本発明は、外界センシング情報から外界の路面の3Dサーフェスを推定する外界認識装置、方法および車両に関する。
車両や重機の安全な走行や操縦を実現するために、車両や重機の周囲の危険な事象を検出して、検出した危険な事象を回避するために、車両の操舵、アクセル、ブレーキの自動制御、重機の安全性を確保する装置に関して研究開発が行われており、一部の車両には既に搭載されている。また、一般の乗用車以外の鉱山用のダンプトラックにおいても、稼働率向上のための自動走行が行われており、自動走行を実現するために、車両の前方の走行可能な領域や障害物を検出するセンサの技術開発が行われている。
車両に搭載されたセンサで前方の走行可能な領域や障害物を検知するには、カメラやレーダとそれらの信号を処理する処理装置が使用されるが、特に乗用車以外の鉱山用重機においては、走行する場所や操縦する場所がオフロード環境であり、凹凸や勾配が多いオフロードの路面において走行可能な領域と障害物とを分離して検出する必要がある。
オフロード環境において走行路面を検出する技術については、特許文献1に記載がある。また単眼カメラを利用して周囲の三次元地図を生成する装置に関しては特許文献2に記載がある。
特許文献1に記載の内容は、歩行者を検出した後に歩行者がこの先移動するであろう存在確率を求めるものであり、歩行者を検出する性能そのものを向上させるものではない。そのため、歩行者検知の性能そのものを向上させるために、歩行者を検知する前に歩行者の存在確率を求め、歩行者について重点的に処理を行うかどうか判断する必要がある。
また特許文献2に記載の内容は、単眼カメラで周囲の3D形状を推定することが可能であるが、十分な精度を持つ解を安定的に得ることが難しい。
以上のことから本発明においては、路面の凹凸や勾配があるオフロード環境において、単眼カメラのみで周囲の立体情報、3Dサーフェスを精度良く推定可能となる外界認識装置、方法および車両を提供することを目的とする。
上記目的を達成するために本発明では、回転するカメラにより撮像した画像から外界を認識する外界認識装置であって、回転するカメラにより得られた画像群にSfM処理を適用し、画像中の特徴点の3D座標とカメラの位置・姿勢の推定を行う3D点群・カメラ運動推定部と、SfMによって得られたカメラ運動を円にフィッティングし、その半径と既知のカメラ回転半径を一致させることにより実スケールを求める回転半径適用実スケール算出部を持つことを特徴とする。
好ましくは、本発明の外界認識装置は、地上座標系の水平面(x−y平面)に定めた2Dグリッドの頂点の高さを変数とする地表サーフェスを定義し、特徴点の3D点群にそのサーフェスをフィッティングするとともに、サーフェス上の各サンプル点を全カメラに投影した際の画素値の分散が最小になるように、地表3Dサーフェスを最適化する3Dサーフェス生成部を持つことが望ましい。
また上記目的を達成するために本発明では、回転するカメラにより撮像した画像から外界を認識する外界認識方法であって、回転するカメラにより得られた画像群にSfM処理を適用し、画像中の特徴点の3D座標とカメラの位置・姿勢の推定を行い、SfMによって得られたカメラ運動を円にフィッティングし、その半径と既知のカメラ回転半径を一致させることにより実スケールを求め、地上座標系の水平面(x−y平面)に定めた2Dグリッドの頂点の高さを変数とする地表サーフェスを定義し、特徴点の3D点群にそのサーフェスをフィッティングするとともに、サーフェス上の各サンプル点を全カメラに投影した際の画素値の分散が最小になるように、地表3Dサーフェスを最適化することを特徴とする。
また上記目的を達成するために本発明では、上記外界認識装置あるいは方法を搭載しあるいは採用した車両である。
本発明によれば、路面の凹凸や勾配があるオフロード環境において、単眼カメラのみで周囲の立体情報、3Dサーフェスを精度良く推定可能となる。
以下図面を用いて本発明の実施例を説明する。
以下に示す本発明の実施例においては、カメラを搭載した重機を回転させることによって得られる画像群から、実スケールの地表3Dサーフェスを高精度に生成する装置に適用した例を示す。
図1は本発明の外界認識装置を実現する機能ブロック図であり、撮像部101と、計算機で構成された画像処理部102とで構成されている。このうち、撮像部101は、少なくとも1つ以上の単眼カメラを設置しており、具体的な設置場所は、例えば重機に適用されるのであれば、重機がある特定の回転中心と回転半径で回転する場所とされる。
102は画像処理部であり、撮像部101において入手した1つ以上の単眼カメラの映像データを受信して、受信した映像の解析を行う。なお撮像部101と画像処理部102は別の筐体でも、1つの筐体でもどちらでも良い。画像処理部102内の機能は、以下に説明する103から106の各部の処理機能から構成されており、この順序で順次処理される。
撮像部101から受信した映像データは、3D点群・カメラ運動推定部103にて、Structure from Motion等の手法を用いて、カメラで撮像した外界の点群の3D情報と、撮像部101の運動を推定する。
次に回転半径適用実スケール算出部104では、3D点群・カメラ運動推定部103で推定した3D情報と撮像部101の運動の情報と、撮像部101が取り付けられている部分の回転半径に関する情報を入力して、3D点群・カメラ運動推定部103で推定した3D情報の実スケールを算出する。回転半径適用実スケール算出部104の処理の詳細は図3を用いて後述する。
3Dサーフェス生成部105では、回転半径適用実スケール算出部104で求めた実スケール付の3D点群データを利用して、撮像部101で撮影した画像の3Dサーフェス形状を求める。
最後に制御・警報内容生成部106では、3Dサーフェス生成部105にて算出した3Dサーフェス情報を用いて、重機にて自動掘削や掘削支援を行う際の制御量の計算や、算出した3Dサーフェス上に新たな障害物を発生した際にその障害物の存在を検知して、重機の操縦者への警報を発報するかどうかの判断を行う。
次に回転カメラによる地表3Dサーフェスを生成する方法を詳細に説明する。この処理内容は、図1の画像処理部102内の一連の処理機能による処理に相当する。以下の説明を行うに当たり、理解しておくべきいくつかの前提事項を、図2を用いて説明しておく。
まずカメラは、光軸が水平方向より下向きになるように既知の角度で重機上に設置されるものとし、地平面(ゼロレベル面)からのカメラの設置高は既知とする。また、重機の回転軸からカメラ光学中心までの距離、すなわちカメラ回転半径を既知とする。
本発明では、後述の方法で地上座標系を定めた後に、そのx−y平面上に正方格子で構成されたグリッドを定め、各正方格子を2つの三角形に分割することで三角メッシュを生成する。そして、その三角メッシュの各頂点の高さz=(z1,z2,・・・,zV)Tによって地表3Dサーフェスを定義する。
この場合に、カメラ回転軸(重機の回転軸)と地上座標系の高さ方向軸(z軸)が一致するように定めた地上座標系と、地平面(地上座標系x−y平面)上に定めた三角メッシュ、および回転するカメラの様子を図2に示す。地上座標系におけるカメラ運動にフィッティングされた円と三角メッシュの関係を示す図である図2において、10が円の中心に基づいて定められた地上座標系(x−y−z)であり、11がカメラ運動にフィッティングされた円であり、12が地上座標系のx−y平面に設定された三角メッシュ、13が回転するカメラである。
また、以下では、重機を回転しながら撮影した画像をIn,(n=1,2,・・・,N)とし、画像座標u=(u,v)Tにおける画像Inの画素値をIn[u]とする。画像Inは、図1において撮像部101から画像処理部102に取り込まれる。
上記前提のもとにおいて本発明では、図3に示すアルゴリズムフローにより地表3Dサーフェスを生成する。図3において、左側には図1の画像処理部102における各機能処理部103から105を示し、右側には各機能処理部103から105における処理内容あるいはその処理結果を示している。以下、図3のアルゴリズムフローの各ステップの処理内容について述べる。
3D点群・カメラ運動推定部103:SfMによる点群とカメラ位置・姿勢の推定
3D点群・カメラ運動推定部103ではまず、重機が回転しながら撮影することによって得られる画像群に対し、SfMの技術を適用し、3D点群と回転するカメラの位置・姿勢の推定を行う。図3において3D点群・カメラ運動推定部103の右側の状態図において21が3D点群であり、13が回転するカメラである。この状態図を拡大して示したのが図4であり、SfMによって推定された3D点群21と回転するカメラ13の位置・姿勢を示している。
3D点群・カメラ運動推定部103ではまず、重機が回転しながら撮影することによって得られる画像群に対し、SfMの技術を適用し、3D点群と回転するカメラの位置・姿勢の推定を行う。図3において3D点群・カメラ運動推定部103の右側の状態図において21が3D点群であり、13が回転するカメラである。この状態図を拡大して示したのが図4であり、SfMによって推定された3D点群21と回転するカメラ13の位置・姿勢を示している。
なおSfMを行うソフトウェアとして、BundlerやVisual SFM などが知られており、これらでは、画像群を入力すると各画像中の特徴点を抽出して画像間でのマッチングを行い、それらの特徴点の3D点座標と各カメラの相対的な位置・姿勢を推定して出力する。
ただし、このような単眼SfMではシーンの絶対的な大きさは求めることができず、スケールの不定性が残った結果となる。
なお、Bundlerについて、N. Snavely, S. M. Seitz, and R. Szelsky. Photo tourism:exploring photo collection in 3D.ACMSIGGRAPH,25(3):835−846,2006.で述べられており、Visual SFMについて、C.Wu. Towards linear−time Incremental structure from motion. InInternational Conference on 3D Versin, pages127−134,2013で述べられているので、詳しい説明を省略する。
回転半径適用実スケール算出部104:既知の回転半径を利用した実スケールの算出、および地上座標系と三角メッシュの設定
本発明では、カメラは1つの回転軸のまわりに回転しているため、推定されるカメラ運動(カメラ光学中心の軌跡)もほぼ円になる。そこで、推定されたカメラ運動を円にフィッティングして回転半径を求め、この半径を既知のカメラ回転半径と一致させることにより、スケール値を求める。このスケール値を用い、SfMによって求められたカメラ位置姿勢と3D点群を実スケールに変換する。ここで得られた実スケールの3D点群21をxm=(xm,ym,zm)T、(n=1,2・・・,M)とする。
本発明では、カメラは1つの回転軸のまわりに回転しているため、推定されるカメラ運動(カメラ光学中心の軌跡)もほぼ円になる。そこで、推定されたカメラ運動を円にフィッティングして回転半径を求め、この半径を既知のカメラ回転半径と一致させることにより、スケール値を求める。このスケール値を用い、SfMによって求められたカメラ位置姿勢と3D点群を実スケールに変換する。ここで得られた実スケールの3D点群21をxm=(xm,ym,zm)T、(n=1,2・・・,M)とする。
カメラ運動を円にフィッティングすることにより、カメラ回転半径と共にカメラ回転軸の位置が定まる。そこで、本発明では、地上座標系の高さ方向軸(z軸)とカメラ回転軸とが一致し、且つx−y平面がゼロレベル面になるように地上座標系10を定める。そして、そのx−y平面上に三角メッシュ12を定める。前述の方法で実スケールが得られているため、メッシュ12を定めるときのグリッドサイズは実スケールを用いて定めることができる。
図3において回転半径適用実スケール算出部104の右側の状態図を拡大して示したものが図2である。
3Dサーフェス生成部105A:点群に対するサーフェスフィッティング
3Dサーフェス生成部105Aでは、回転半径適用実スケール算出部104(既知の回転半径を利用した実スケールの算出、および地上座標系と三角メッシュの設定)で得られた実スケールの3D点群21に、サーフェスをフィッティングすることにより地表3Dサーフェス31を生成する。
3Dサーフェス生成部105Aでは、回転半径適用実スケール算出部104(既知の回転半径を利用した実スケールの算出、および地上座標系と三角メッシュの設定)で得られた実スケールの3D点群21に、サーフェスをフィッティングすることにより地表3Dサーフェス31を生成する。
このサーフェスフィッティングでは、(1)式のコスト関数CF(z)の最小化を行う。なお(2)式は、(1)式のコスト関数CF(z)のデータ項CFDを表す式であり、(3)式は(1)式のコスト関数CF(z)の平滑化項CFSを表す式である。
これらの式において、データ項CFDである(2)式のλの部分は、メッシュ12の全頂点の高さzの重み付け和によって算出されたサーフェスのx=xm、y=ymにおける高さを示す。すなわち、データ項CFDである(2)式のカッコ内の部分は、サーフェスの高さと3D点の高さの差を表す。このとき、重みmは、m番目の3D点xmのx−y平面上の座標(xm,ym)Tが入る三角パッチの3頂点の重心座標(barycentric coordinate)を用いることができ、この場合、前記3頂点以外の重みはゼロとなる。
一方、(3)式の平滑化項CFSは、3D点の数Mが少ない場合などで問題が不良設定問題(ill−posed)になることを避けるために利用している。ここでは、平滑化項CFSをメッシュ頂点の8近傍N(v)によるラプラシアンについての二乗和として定義し、αFSは事前に定めた平滑化の重みとする。
図3において3Dサーフェス生成部105Aの右側の状態図によれば、実スケールの3D点群21に、サーフェスをフィッティングすることにより地表3Dサーフェス31を生成することができている。つまりカメラ画像のみであれば、平面上の点21の情報にすぎないが、高さ方向の情報を備えた3次元情報に変換されている。これにより、地表の凹凸が反映された情報とされている。
図5は、点群21にフィッティングされた地表3Dサーフェス31の例を表している。これはフィッティングの際に最小化される点とサーフェスとの距離を求めたものである。
3Dサーフェス生成部105B:画素値分散最小化に基づくサーフェスの最適化
画素値分散最小化に基づくサーフェスの最適化では、次式のコスト関数CPを最小化する。なお(5)式は、(4)式のコスト関数CP(z)のデータ項CPDを表す式であり、(6)式は(4)式のコスト関数CP(z)の平滑化項CPSを表す式である。
画素値分散最小化に基づくサーフェスの最適化では、次式のコスト関数CPを最小化する。なお(5)式は、(4)式のコスト関数CP(z)のデータ項CPDを表す式であり、(6)式は(4)式のコスト関数CP(z)の平滑化項CPSを表す式である。
この(5)式で、X′s=(x′s,y′s)Tは、後述するx−y平面上のサンプル点を示し、Xs=(xs,ys,zs)Tは、そのサンプル点X′s=(x′s,y′s)Tと、メッシュ頂点の高さzとによって定まるサーフェス上の3D点を示す。Xは、前述のサーフェスフィッティングの時と同様に、重心座標を用いて算出できる。
また、pnsは、前記サーフェス上の点Xsを、それを観測した画像Insに投影した際の画像座標を示す。Ins(z)は、Xsを観測した全画像の画素値の平均であり、絶対値のnsは、点Xsを観測した画像数である。すなわち、このデータ項は、サーフェス上の点Xsを観測した全画像の画素値の分散を、全てのサンプル点X′sについて加算したものである。
一方、(6)式の平滑化項はサーフェスフィッティングのものと同様である。ただし、αPSは、この画素値分散最小化における平滑化項の重みを示す。本発明では地表3Dサーフェスを初期値として、上記コストコスト関数CP(z)を、非線形最適化アルゴリズムを用いて最小化する。また、最適化において、最初はメッシュ頂点を間引いた粗いメッシュの推定を行い、段階的に細かいメッシュの推定を行うという階層的メッシュを利用することにより、推定の安定性と効率性を高めることができる。
図6は、画素値分散最小化により改善された地表3Dサーフェス41を表す図である。地表3Dサーフェス41は、改善前の地表3Dサーフェス31よりも滑らかに表現されている。
以上述べたように、本発明では要するに、まず第1の処理として、得られた画像群にStructure from Motion(以下単にSfMと称する)を適用し、画像中の特徴点の3D座標とカメラの位置・姿勢の推定を行う。次いで第2の処理として、SfMによって得られたカメラ運動を円にフィッティングし、その半径と既知のカメラ回転半径を一致させることにより実スケールを求める。そして第3の処理として、地上座標系の水平面(x−y平面)に定めた2Dグリッドの頂点の高さ(z)を変数とする地表サーフェスを定義し、特徴点の3D点群にそのサーフェスをフィッティングする。最後に第4の処理として、サーフェス上の各サンプル点を全カメラに投影した際の画素値の分散が最小になるように、地表3Dサーフェスを最適化する。
この最適化の場合に、サンプル点X′sを如何に設定するかが重要である。サンプル点の設定方法に関して、(4)式を最小化するために利用するサンプル点X′sは、原理的には任意に定めることができる。
ただし、本発明の画素値分散最小化は画像の画素値を用いた推定であるため、サンプル点X′sを画像に投影した際に、全ての画素が推定に寄与するようなサンプル点の配置が好ましい。一方で、画像の解像度よりも高くなるようなサンプル点を設定すると、計算コストを必要以上に大きくする。
このことから本発明の手法では、図7で示す方法によりx−y平面上のサンプル点を定める。この考え方は要するに、空間中にサンプル点を定め,それらの点が画像に投影された点をサンプル画素とするとともに、そのサンプル点の画像上の密度が実際の画素の密度となるべく一致するように,空間中のサンプル点を定めているものである。このための具体手法が以下に例示される。
図7(a)は半径方向のサンプル点間隔の設定方法を示しており、縦軸にカメラ回転軸、横軸に半径方向を示しており、横軸の地上座標系x−y平面の各所にサンプル点X′sを設定している。
ここでは、カメラの光学中心から垂直方向にdφの角度間隔で放射される線群とx−y平面との交差点を半径方向のサンプル点X′sとする。ただし、dφは、画像中心において、物理的な画素間隔Δvによって伸ばした2本の光線それぞれがx−y平面と交差する2点によって定めるものとする。
一方、図7(b)は、角度方向のサンプル点間隔の設定方法を示しており、ここでは、その間隔をdθとし、dθは、画像中心において、物理的な画素間隔Δhによって伸ばした2本の光線それぞれがx−y平面と交差する2点によって定める。
この定め方は、別な言い方をすると、サンプル点は,回転中心を基準とした地上座標系のx−y平面において,回転方向には一定間隔の角度を用い,半径方向に次第に疎になるような間隔に定めており,これらの間隔は画像の画素間隔を利用して算出したものということができる。
このようにして定めたx−y平面上のサンプル点を図8(a)に示す。ここでは、水平画角が130度のVGA(640x480)の解像度を持つカメラが、地平面(地上座標系のx−y平面)から高さ0.8mの位置にあり、かつ視線が水平方向から約40度下向きになるように設置され、1mの半径で回転させることを想定した場合のサンプル点を示している。
一方、図8(b)は、同じカメラを10度のステップで回転させたとき、全画像の全画素に対応する光線とx−y平面との交点を示している。これによると、本発明手法のサンプル点が、全光線の地平面との交点と類似した同心円状になっている。
このことは、結果として求めた地表3Dサーフェスが、滑らかな波形の地形状となっており、推定結果と真値を比較すると良好なサーフェス生成ができたことを意味している。
上記説明の本発明の効果は次のとおりである。一般に、単眼カメラを利用した画像計測では、シーンの実スケールを求めるために既知サイズの物体を同時に撮影したり、配置が既知の複数のマーカを利用したりする方法が広く利用されているが、本発明手法では、カメラの実際の回転半径とカメラ運動推定によって得られる回転半径を一致させることにより、特別な撮影ターゲットを利用することなく実スケールを算出している。
また、多視点画像からの地表サーフェス生成の最適化では、サーフェス上の点を観測した全画像の画素値の分散を最小化しており、これにより、全ての画像を均等に貢献させつつ地表3Dサーフェス生成を行うことができる。
この場合に、基準画像を設定して画素値差分を取る手法では、基準画像の画素が自然なサンプル画素となるのに対し、本発明では、基準画像が存在しないのでサンプル画素が定まらない。そこで、本発明では、空間中にサンプル点を定め、それらの点が画像に投影された点をサンプル画素とする。そして、そのサンプル点の画像上の密度が実際の画素の密度となるべく一致するように、空間中のサンプル点を定めていることにより、全ての画像を均等に貢献させつつ地表3Dサーフェス生成を行うことができている。
10:地上座標系
11:カメラ運動にフィッティングされた円
12:三角メッシュ
13:回転するカメラ
21:3D点群
31:地表3Dサーフェス
41:画素値分散最小化により改善された地表3Dサーフェス
101:撮像部
102:画像処理部
103:3D点群・カメラ運動推定部
104:回転半径適用実スケール算出部
105:3Dサーフェス生成部
106:制御・警報内容生成部
11:カメラ運動にフィッティングされた円
12:三角メッシュ
13:回転するカメラ
21:3D点群
31:地表3Dサーフェス
41:画素値分散最小化により改善された地表3Dサーフェス
101:撮像部
102:画像処理部
103:3D点群・カメラ運動推定部
104:回転半径適用実スケール算出部
105:3Dサーフェス生成部
106:制御・警報内容生成部
Claims (13)
- 回転するカメラにより撮像した画像から外界を認識する外界認識装置であって、
前記回転するカメラにより得られた画像群にSfM処理を適用し、画像中の特徴点の3D座標と前記カメラの位置・姿勢の推定を行う3D点群・カメラ運動推定部と、前記SfMによって得られたカメラ運動を円にフィッティングし、その半径と既知のカメラ回転半径を一致させることにより実スケールを求める回転半径適用実スケール算出部を持つことを特徴とする外界認識装置。 - 請求項1記載の外界認識装置であって、
地上座標系の水平面(x−y平面)に定めた2Dグリッドの頂点の高さを変数とする地表サーフェスを定義し、前記特徴点の3D点群にそのサーフェスをフィッティングするとともに、サーフェス上の各サンプル点を全カメラに投影した際の画素値の分散が最小になるように、地表3Dサーフェスを最適化する3Dサーフェス生成部を持つことを特徴とする外界認識装置。 - 請求項2記載の外界認識装置であって、
前記サーフェス上のサンプル点は、空間中にサンプル点を定め,それらの点が画像に投影された点をサンプル画素とするとともに、そのサンプル点の画像上の密度が実際の画素の密度となるべく一致するように,空間中のサンプル点を定めたものであることを特徴とする外界認識装置。 - 請求項2記載の外界認識装置であって、
前記サーフェス上のサンプル点は,回転中心を基準とした地上座標系のx−y平面において,回転方向には一定間隔の角度を用い,半径方向に次第に疎になるような間隔に定め、これらの間隔は画像の画素間隔を利用して算出したものであることを特徴とする外界認識装置。 - 請求項1から請求項4のいずれか1項に記載の外界認識装置であって、
前記回転するカメラは単眼カメラであることを特徴とする外界認識装置。 - 回転するカメラにより撮像した画像から外界を認識する外界認識方法であって、
前記回転するカメラにより得られた画像群にSfM処理を適用し、画像中の特徴点の3D座標と前記カメラの位置・姿勢の推定を行い、前記SfMによって得られたカメラ運動を円にフィッティングし、その半径と既知のカメラ回転半径を一致させることにより実スケールを求め、地上座標系の水平面(x−y平面)に定めた2Dグリッドの頂点の高さを変数とする地表サーフェスを定義し、前記特徴点の3D点群にそのサーフェスをフィッティングするとともに、サーフェス上の各サンプル点を全カメラに投影した際の画素値の分散が最小になるように、地表3Dサーフェスを最適化することを特徴とする外界認識方法。 - 請求項6記載の外界認識方法であって、
前記サーフェス上のサンプル点は、空間中にサンプル点を定め,それらの点が画像に投影された点をサンプル画素とするとともに、そのサンプル点の画像上の密度が実際の画素の密度となるべく一致するように,空間中のサンプル点を定めたものであることを特徴とする外界認識方法。 - 請求項6記載の外界認識方法であって、
前記サーフェス上のサンプル点は,回転中心を基準とした地上座標系のx−y平面において,回転方向には一定間隔の角度を用い,半径方向に次第に疎になるような間隔に定め、これらの間隔は画像の画素間隔を利用して算出したものであることを特徴とする外界認識方法。 - 請求項6から請求項8のいずれか1項に記載の外界認識方法であって、
前記回転するカメラは単眼カメラであることを特徴とする外界認識方法。 - 請求項1から5に記載の外界認識装置及びカメラを搭載した車両。
- 請求項10に記載の車両であって、
前記外界認識装置からの出力を表示しあるいは当該出力により制御される車両。 - 請求項6から9に記載の外界認識方法を採用しカメラを搭載した車両。
- 請求項12に記載の車両であって、
前記外界認識方法により処理された出力を表示しあるいは当該出力により制御される車両。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015032740A JP2016156629A (ja) | 2015-02-23 | 2015-02-23 | 外界認識装置、方法および車両 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015032740A JP2016156629A (ja) | 2015-02-23 | 2015-02-23 | 外界認識装置、方法および車両 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016156629A true JP2016156629A (ja) | 2016-09-01 |
Family
ID=56825655
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015032740A Pending JP2016156629A (ja) | 2015-02-23 | 2015-02-23 | 外界認識装置、方法および車両 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016156629A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101851303B1 (ko) * | 2016-10-27 | 2018-04-23 | 주식회사 맥스트 | 3차원 공간 재구성 장치 및 방법 |
CN114509002A (zh) * | 2022-01-20 | 2022-05-17 | 渤海造船厂集团有限公司 | 一种大尺寸高精度环状t型结构精密检测装置及方法 |
-
2015
- 2015-02-23 JP JP2015032740A patent/JP2016156629A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101851303B1 (ko) * | 2016-10-27 | 2018-04-23 | 주식회사 맥스트 | 3차원 공간 재구성 장치 및 방법 |
CN114509002A (zh) * | 2022-01-20 | 2022-05-17 | 渤海造船厂集团有限公司 | 一种大尺寸高精度环状t型结构精密检测装置及方法 |
CN114509002B (zh) * | 2022-01-20 | 2023-06-06 | 渤海造船厂集团有限公司 | 一种大尺寸高精度环状t型结构精密检测装置及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7240367B2 (ja) | 車両の位置特定に用いられる方法、装置、電子デバイス及び記憶媒体 | |
US9275458B2 (en) | Apparatus and method for providing vehicle camera calibration | |
AU2015234395B2 (en) | Real-time range map generation | |
JP6770577B2 (ja) | 機械学習用データベース作成システム | |
CN104204721B (zh) | 单个相机距离估计 | |
JP5023186B2 (ja) | 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム | |
WO2021046716A1 (zh) | 目标对象的检测方法、系统、设备及存储介质 | |
US20100053593A1 (en) | Apparatus, systems, and methods for rotating a lidar device to map objects in an environment in three dimensions | |
CN102037490A (zh) | 用于使图像模糊的方法和布置 | |
US11783507B2 (en) | Camera calibration apparatus and operating method | |
JP2016157197A (ja) | 自己位置推定装置、自己位置推定方法およびプログラム | |
WO2019144289A1 (en) | Systems and methods for calibrating an optical system of a movable object | |
JP6552448B2 (ja) | 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム | |
JP2014228941A (ja) | 地表面3次元サーフェス形状計測装置、走行可能領域検出装置およびそれを搭載した建設機械並びに走行可能領域検出方法 | |
JP2019102007A (ja) | 勾配推定装置、勾配推定方法、プログラムおよび制御システム | |
CN108431871B (zh) | 在三维模型上显示对象的方法 | |
Petrovai et al. | A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices | |
WO2018149539A1 (en) | A method and apparatus for estimating a range of a moving object | |
CN107209930A (zh) | 环视图像稳定方法和装置 | |
JP2016156629A (ja) | 外界認識装置、方法および車両 | |
CN112639822B (zh) | 一种数据处理方法及装置 | |
KR20200142315A (ko) | 도로 네트워크를 갱신하는 방법 및 장치 | |
Yan et al. | Potential Accuracy of Traffic Signs' Positions Extracted From Google Street View | |
CN111060091B (zh) | 一种机器人导航系统 | |
CN112767477A (zh) | 一种定位方法、装置、存储介质及电子设备 |