JP6969738B2 - 物体検出装置及び方法 - Google Patents
物体検出装置及び方法 Download PDFInfo
- Publication number
- JP6969738B2 JP6969738B2 JP2017135100A JP2017135100A JP6969738B2 JP 6969738 B2 JP6969738 B2 JP 6969738B2 JP 2017135100 A JP2017135100 A JP 2017135100A JP 2017135100 A JP2017135100 A JP 2017135100A JP 6969738 B2 JP6969738 B2 JP 6969738B2
- Authority
- JP
- Japan
- Prior art keywords
- image information
- parallelization
- conversion
- stereo camera
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Analysis (AREA)
Description
これらの手法によって、自動車の進行方向前方における路面形状そして道路状況を監視して、路面傾斜や車線,縁石,ガードレール等の路面形状や、前走車,駐車車両等の障害物等の物体を検出するようにしている。
また、特許文献2によれば、ステレオカメラ画像を処理して、画像の縦方向の視差の頻度情報を求めたV−disparityなる情報を利用して、前方路面の傾斜を検出し、またステレオカメラ画像から横方向の視差の頻度情報を求めたU−disparityなる情報を利用して、前方障害物を検出する手法も提案されている。
一方、道路路面を1つの平面上にあると仮定して、推定した道路の傾きとカメラ高さなどのパラメータから、片側の(例えば左の)カメラ画像を仮想的な道路平面上に逆射影し、さらにそれを反対側の(例えば右の)カメラに射影して、元の(例えば左の)カメラの入力画像と比較することで、道路平面上の点は一致し、平面から上または下にずれている部分は一致しない。この性質を利用することで、道路平面上にあるかどうかがわかる。このような手法が特許文献3で提案されている。
さらに、最近では、車線,センターライン,路側帯等の白線がない道路であっても、道路を走行する自動車の道路外への逸脱防止のために、道路端の縁石を検出する必要性が高まっている。従って、路面そして道路外、即ち道路周辺の高さを正確に検出することが要求されている。
一方、特許文献1や2の場合は、通常のステレオ処理をベースとしている。この場合、図15に示すように、通常のステレオカメラ100においては、撮像対象として左右のカメラ101a,101bの光軸にほぼ垂直な面102を想定している。このような面102に対しては、どの位置に対してもほぼ同じ視差が得られる。
従って、ステレオカメラの視差計算のためのマッチング(対応づけ)アルゴリズムとして、よく使われているSAD(Sum of Absolute Difference)やSSD(Sum of Squared Difference)のブロック相関手法では、左右カメラ101a,101bの画像内のあるサイズのブロック内のすべての画素の明度値の微分情報などの差の絶対値や自乗の和を求めて、その最小値を与える視差を選んで、そこから三角測量の原理によって距離を求めている(ステレオ処理)。
その際、光軸に垂直な面に対しては、どの画素値に対しても明度値の微分情報などの差の絶対値は、同じ視差に対して最小値を持つ。なぜなら、カメラの主点(カメラ座標系の原点)位置からの距離が、垂直な面のどの点でも同じになるからである。
従って、前方車両の後部面がトラックやバスのように道路路面に対して垂直に近い面になっている場合には、上述した条件が当てはまり、前方車両後部面のどの位置でも同じ視差が得られるため、通常のステレオカメラは、視線方向を車両の前方に向けて、かつ水平に近いチルト角で搭載している。
なぜなら、ステレオカメラ100の視差を求める際のブロック内で、上下方向での異なる位置では、カメラ101a,101bからの距離が大きく異なるために、異なる視差を持つことになり、そのブロック内での平均値を取った際にそのブロックの路面に投影された形状によっては偏った距離(高さ)が求まることになるからである。
しかしながら、路面103上では視差は異なり、かつ、画像の上に行くに従って、指数関数的に距離が増大していくので、そのブロック全域にわたる視差の平均は、画像中央の距離よりも遠い位置に対する視差となるため、路面に対する距離は、実際の値よりも遠目に出てしまう。
例えば、図17(A)のような道路の画像内で、路面部分を長方形の領域で切り取ると、この部分は、上から見ると図17(B)のようになる。図17(B)の領域の中で、「浦安」において、下の「安」の部分は距離が近く、「浦」の部分は遠くなる。
そして、実際にステレオの視差を計算する場合には、図17(A)の枠内で計算するため、距離が近い部分と遠い部分が混在することから、異なる視差が含まれる。また、距離の変化は画像の上に行けば行くほど、非線形に急激に遠くなるため、図17(A)の枠内で距離を計算すると、この枠の中心における距離が求まるわけではなく、より遠い位置の距離が求まることになってしまう。図17(A)における枠のサイズはあくまでも説明のために設定したもので、実際のステレオカメラ画像処理の場合には、例えば11×11ピクセル程度の、より小さな領域が計算のためのブロックとして使用される。
また、夜間など、道路のテクスチャ情報が豊富でない場合には、実際の視差とかなり離れた位置に視差が求まったりする誤対応が発生しやすくなる。
通常は、画像の変形を最小にするために、元の画像に対してできるだけ同じ向きを持つように、平行化処理後の画像の光軸を決めるが、路面に対しては浅い角度で見ることになる。従って、前述のように、左右カメラのセンサ平面に対して路面がかなり傾いて位置することになるので、対応づけのブロック相関を取る際に、同じブロック領域内で上下方向で異なる視差を持つことになり、安定した視差が得にくくなり、距離を高精度で求めることが難しくなる。
なお、この光軸を傾斜させてほぼ垂直にするレクティファイ処理は、あくまで仮想的にソフトウェアにより行なわれるので、元の画像即ちカメラを傾ける必要はないので、このような手法を、仮想チルトステレオ(Virtual Tilt Stereo)又はVTSと呼ぶことにする。
上記構成において、画像処理部が、好ましくは、あらかじめ初期状態で求めておいた監視対象面に対するカメラの高さ・ピッチ・ロール角度情報から、3D距離画像情報から取得された3D座標値を監視対象面に平行な3D座標系へと変換する機能を有している。
かくして、この構成によれば、通常のステレオ処理に比べて、前方路面・床面の高さおよび位置も安定かつ高精度に求めることができ、障害物検出を安定かつ容易にし、また縁石等の高さ方向の検出精度も向上させることができる。
上記構成において、画像処理部が、好ましくは、あらかじめ初期状態で求めておいた監視対象面に対するカメラの高さ・ピッチ・ロール角度情報から、3D距離画像情報から取得された3D座標値を監視対象面に平行な3D座標系へと変換する機能を有している。
この構成によれば、従来のようなステレオ処理された3D距離画像情報と、チルト回転変換した平行化画像情報に基づく3D距離画像情報とを統合して、3D距離画像情報を修正することにより、より高精度の3D距離画像情報を得ることができる。
上記構成において、第二の段階にて、好ましくは、あらかじめ初期状態で求めておいた監視対象面に対するカメラの高さ・ピッチ・ロール角度情報から、3D距離画像情報から取得された3D座標値を監視対象面に平行な3D座標系へと変換する機能を有している。
上記構成において、好ましくは、第二の段階にて、あらかじめ初期状態で求めておいた監視対象面に対するカメラの高さ・ピッチ・ロール角度情報から、3D距離画像情報から取得された3D座標値を監視対象面に平行な3D座標系へと変換する機能を有している。
上記目的は、本発明の第八の構成によれば、路面や床面等の監視対象面に対して、光軸が水平方向よりも下を向いて設置された左右一対の撮像手段により撮像して、ステレオカメラ画像情報を取得する第一の段階と、第一の段階で取得されたステレオカメラ画像情報を2通りの異なる平行化によって変換した平行化画像情報に基づいて、各対応点の視差を求めて、2通りの3D距離画像情報を生成する第二の段階と、から成り、平行化画像情報を、ステレオカメラのキャリブレーション情報に基づき、元々のカメラ光軸に近い向きで行なった第一の平行化変換と、仮想的に下向きのチルト回転変換を施し、さらに縦圧縮を行なう第二の平行化変換と、によってそれぞれ生成し、当該第一の平行化変換及び第二の平行化変換で取得した平行化画像情報に基づき、各対応点の視差から第一の平行化変換による第一の3D距離画像情報と、第二の平行化変換による第二の3D距離画像情報を生成し、監視対象面に対して垂直な向きを持つ領域に対しては、第一の平行化変換で取得した第一の3D距離画像情報を用い、監視対象面に対して平行な向きを持つ領域に対しては、第二の平行化変換で取得した第二の3D距離画像情報を用いることを特徴とする、物体検出方法により達成される。
図1は、本発明による物体検出装置の一実施形態の全体構成を示している。図1において、物体検出装置10は、物体を撮影する一対のカメラ即ち左カメラ11L及び右カメラ11Rからなるステレオカメラ11と、画像処理部20と物体検出部40と、を有している。本発明において、ステレオカメラ11で取得するのは、路面又は床面等の画像であるが、路面又は床面等を総称して監視対象面と呼ぶ。監視対象面は、自動車等の走行中の進行方向前方の路面、屋内外を自律走行するロボットの床面及び屋内外の3D物体検出を行うステレオ監視カメラシステム等で監視する面を意味している。以下の実施形態では、監視対象面は、車両に搭載したステレオカメラ11で監視する路面として説明する。
画像処理部20は、ステレオカメラ11の出力側に順次にカスケード接続された画像変換部21,視差算出部22,3D距離画像生成部としての距離・3D情報算出部23及び前方路面に合わせた傾き変換部25を有している。物体検出部40は、OGM生成部としてのOGM算出部26,ノイズ除去部27,ラベリング処理部28,検出物体情報の出力部29及びグローバルマップ表示部30を含んでいる。
これらの画像変換部21,視差算出部22,距離・3D情報算出部23,前方路面に合わせた傾き変換部25,OGM算出部26,ノイズ除去部27,ラベリング処理部28,検出物体情報の出力部29及びグローバルマップ表示部30は、例えばコンピュータ等の情報処理装置によって構成されている。
なお、キャリブレーション結果についても、同様に工場出荷前に作成され、同様にROM等に書き込まれる。
このようなルックアップテーブルは、従来のステレオカメラ11の画像のステレオ処理の際にも同様に工場出荷前に作成され、ステレオカメラ11のROM等に書き込まれているが、この場合には、後述するようにチルト回転変換も含む二次元ルックアップテーブルである点が、従来のものとは明らかに異なる点である。
まず、ステレオカメラ11の左右のカメラ11L,11Rに関して、平行化処理の前処理として行なわれるキャリブレーションについて説明する。ここで、キャリブレーションとは、レクティファイのための変換式(レクティファイ変換の式)を求めることである。
一般に、カメラ座標系やキャリブレーションで使用される世界座標系の数学的な記号について説明する。
キャリブレーションを行なう際の三次元の世界座標系の座標を(XW,YW,ZW)で表す。この座標系は、ステレオカメラ11の左右カメラを含んだ空間を表すための座標系である。
次に、左カメラ11Lと右カメラ11Rのカメラ座標系を(XL,YL,ZL),(XR,YR,ZR)とする。このとき、回転行列RL,RR、平行移動ベクトル tL、tRを用いて、これらの座標系を、次の式(1),式(2)のように関連づけることができる。ただし、RL,RRは、3×3の行列であり、tL,tRは、3要素のベクトルである。
したがって、式(22),(23)の変換によって、元の画像は、あたかも物理的に主点位置を中心として回転させたり、焦点距離を変えたのと同じように変換される。
このようにして、画像変換部21において、平行化処理におけるキャリブレーションが行なわれる。
ここで、ステレオカメラ11による三角測量を行なうためには、単に左右カメラ11L,11Rの光軸を平行にするだけでなく、左右カメラ11L,11Rのセンサ面が、同一平面上に含まれることが必要である。
ここで、距離xL,xRは、向きを考慮せず、長さとして考えたため、上のような式になったが、軸の持つ方向に正負の符号をつけると、(xR−xL)という表現になり、視差ということになる。
図3にその例を示す。図3の上の2枚の画像(a)、(b)は、レクティファイ変換前のステレオ画像であり、路面上のひし形の上の頂点は、二つの画像の同じ位置の走査線上にはない。右画像に引いた水平線は、ちょうどひし形の上の頂点を通っているが、左画像の同じ高さに引いた水平線はひし形の上の頂点の上側を通っている。
図3の下の2枚の画像(c)、(d)は、レクティファイ変換後のステレオ画像であり、ひし形の上の頂点を、左右画像上の同じ高さを通る走査線が通過している。レクティファイ変換後は、画像内のすべての実世界の同一点に対して、その点を通る左右の走査線は同じ高さとなる。
ここで、元の右カメラ11RのZ軸というのは、外部パラメータの回転行列の3番目の要素ベクトルになる。つまり、右カメラ11Rの回転行列RRを式(27)としたとき、Z軸の方向ベクトルは、(r31,r32,r33)である。
前記ベクトル(r31,r32,r33)に、この行列をかけてチルトさせたベクトルRT(θ)(r31,r32,r33)Tと、新しいX軸ベクトルuxの外積を、式(29)に示す新しいY軸ベクトルuyとする。ただし、ここで右肩の記号Tは、ベクトルに対する転置記号を示す。
そして、残ったZ軸は、新たなX軸とY軸に直交しなければいけないので、それぞれの単位方向ベクトルとの外積とする。つまり、式(30)とし、新しい回転行列を、次の式(31)、式(32)のように決める。
実際のレンズでは、程度の差はあるが、ある程度の歪が存在する。歪は、レンズのいくつかの収差のうちの歪曲収差を指す。歪曲収差の補正については、1970年代から研究が行われてほぼ完成しており、公知の手法を使用して、以下に歪補正について説明する。
この歪補正は、入力画像から、式(7),(8)の歪のないカメラ画像へと変換することを指している。入力画像のx,y座標をそれぞれ式(46)及び式(47)の第1項とすると、次の式(46)〜式(50)のように変換される。左右カメラ11の補正後の座標を、それぞれ(x,y)とする。
即ち、カメラ用のキャリブレーション手法に従って、内部パラメータと二つのカメラ間の外部パラメータを求める。
まず、ステップST1にて、ステレオカメラ11により、例えばチェッカーパターンボードを撮影し、ステップST2にて、撮影した画像から、このチェッカーパターンの白黒境界の線を求め、それから前述のプラムライン法に従って、左右レンズの歪補正パラメータを求めて、入力画像の歪補正を行う。
次に、ステップST3にて、公知の手法、例えばTsaiのキャリブレーション等によって、ステレオカメラ11の内部パラメータと外部パラメータを算出する。内部パラメータは式(5),(6)で定義されるAL,ARであり、外部パラメータは、式(1),(2)で定義されるRL,RR,tL、tRである。
その後、ステップST6にて、VTSによって新たに仮想的にチルトした後の光軸方向を決める。この方向は、元々のカメラの光軸、つまりZ軸をX軸を中心として回転させる角度θによって決まる。この古いZ軸の方向ベクトルをチルト方向に回転させたベクトルと、上で決めたX軸の単位ベクトルとの外積を新しいY軸とする(式(29))。このとき、新しいY軸は、新しいX軸と直交する。
また、ステップST7にて、新しいZ軸は、新しいX軸と新しいY軸と共に直交座標系を構成するように、新しいX軸と新しいY軸に直交する単位ベクトルとして外積によって計算される(式(30)参照)。
そして、ステップST9にて、新しい左右の内部パラメータ行列は、焦点距離以外は左右の古い内部パラメータ行列AL,ARの平均値とし、焦点距離はレクティファイ後の所望の画像サイズ等から決めた新しい焦点距離α’となるように決める(式(37)〜(45)参照)。ここで、新しい内部パラメータ行列AL’,AR’は、左右で同じものとなる。
その後、ステップST10にて、求めたRL,RR,AL’,AR’,RL’,RR’,AL’,AR’を式(18),(21)に適用して、レクティファイ行列TL,TRを求める。
このようにして、レクティファイ行列による座標変換によって、元の画像情報から双一次補間等を使用して、俯瞰画像情報が作成される。
俯瞰画像情報が表す俯瞰画像は、前記のレクティファイ変換行列によって、元の画像から双一次補間などを使って作成できる。しかし、このままでは画像サイズが膨大になるため、レクティファイ変換行列によって、いったん求めた座標位置(xb,yb)について以下のように処理する。
即ち、片側、例えば右側の画像に対するレクティファイ変換行列を用いて、元の画像の横方向の画像の中心位置xcと、各Y座標値を俯瞰画像の座標位置へと変換する。その際のY座標値を元の画像のy座標に対応させて記録しておく。
通常、ステレオカメラ11は、どちらかのカメラ11Lまたは11Rをベースカメラとして選択する。これは、人間が両眼立体視をしている際に、どちらかの目を利き目として使っているのと同じである。基本的に、どちらのカメラ11Lまたは11Rをベースカメラとして使ってもいいが、ここでは説明のために、右カメラ11Rをベースカメラ(利き目)として扱う。
ステレオカメラ11における利き目は、三角測量時に用いるカメラ座標系の違いに主に影響するが、ここでの圧縮用のルックアップテーブルでも左右共通の変換とする必要があるので、便宜上右側のカメラを利き目とする。従って、レクティファイ変換行列TRを使って、画像の縦方向の位置の圧縮後の位置を計算する。
他方、横方向の位置については、ステレオカメラ11の視差を計算するために、レクティファイ後の画像位置をそのまま使う必要がある。なぜなら、ステレオの対応づけを行う際に、通常のステレオと同じように、縦方向と横方向の両方に対して、あるサイズのブロックの中での相関計算を行うために、縦も横も、同じ距離に対して同じ視差を持つためには、横方向のスケールは縦方向の位置の変化に対して極力同じスケールを保つことが望まれるからである。
そのため、圧縮は縦方向のみに行う必要があり、横方向の位置は、レクティファイ後の画像位置をそのまま使う。
このようにして、VTS用の縦方向に圧縮したレクティファイのために、以下のように圧縮用のルックアップテーブルを作成する。
まず、レクティファイ行列TRを計算しておく。
続いて、元の画像において、x座標については水平方向の中心位置とし、y座標は、一番上の行から始めて一番下の行まで変化させながら、その(x,y)にレクティファイ行列を適用し、得られたy座標を、元のy座標に対応づけて圧縮変換用のルックアップテーブルに登録する。歪補正を行った後でレクティファイする前の画像の座標(x,y)に対して、レクティファイ変換して得た座標 (x’,y’)のy’の値を、右画像の圧縮変換用のルックアップテーブル CTR(y)に代入する。つまり、式(51)から求めたy’を式(52)として登録する。
上述した画像の変換は、図5に示すように、原画像を歪補正して、歪補正された画像を、俯瞰画像を作り出すレクティファイ変換によりレクティファイ画像を得て、さらに縦方向に圧縮することにより、最終的なVTSのレクティファイ画像を得るためのものである。
しかしながら、このような画像をプログラムを使って作り出すためには、逆方向から元の画像位置での明度値を突き止めて、それを使って、新しく作られる画素値を決めるための内挿を行わなければならない。これは、上述した画像の変換とは異なり、図5とは逆の順番の図6に示すようになる。即ち、縦圧縮されたVTSのレクティファイ画像の座標位置(整数)から縦圧縮の逆変換を行ない、さらにレクティファイ変換の逆変換及び歪補正の逆変換を行なって、原画像の座標位置(整数)を求める。
また、このような俯瞰画像においては、直近から遠方までに亘って路面を作成することになるため、元のステレオカメラ画像に対して非常に大きな画面サイズになると共に、画面上の各ブロック相関の計算量も膨大なものとなり、計算に要する時間が長くなってしまい、リアルタイムに処理することが困難になってしまう。
さらに、遠方の領域における俯瞰画像は、元のステレオカメラ画像を非常に拡大した粗い画像となっており、そのような画像に対してステレオ処理を行なっても、精度の良い視差及び距離を求めることは困難であると共に、いたずらに計算すべきデータ量が増大するだけである。
しかし、変換自体は必ずしも整数位置に変換されるわけではない。そこで、最終的な変換後は整数位置にする必要があるので、最終変換後の画像の整数座標位置にレクティファイの逆変換を行い、元の画像の実数位置を求める。その実数位置は、図10のように四つの整数位置画素に囲まれている。
図10において、4つの黒い格子点は整数位置にある画素を示し、それらに囲まれた黒い点が、前記の変換前の実数位置とする。そして、4つの格子点位置の画素値を、左上から時計回りに、ν1,ν2,ν3,ν4とする。そして、中にある実数位置における求めたい画素値をνpとする。そして、左上のν1の格子点位置から、νpの格子点位置までの横方向の距離をt, 縦方向の距離をuとするとき、νpの値は、双一次補間によって次式(53)のように表される。ただし、画素間の距離は1とする。
即ち、縦方向に圧縮するVTSレクティファイ用二次元ルックアップテーブルの作成手順は、以下の通りである。
まず、レクティファイ行列TRの逆行列(TR)−1を求める。次に、作成する(レクティファイ後の)画像の左上の位置から、右方向に走査し、その行の端まで走査したら、次下の行に移って、以下の手順を繰り返す。画像の最初の座標位置は、(0,0)とする。
続いて、現在の位置(xi,yi)に対して、縦方向に圧縮するためのルックアップテーブルCTR()を用いて、yを決める。つまり、 CTR(yi)とする。
その後、(xi, y)に対して、レクティファイ変換の逆行列をかけて、レクティファイ変換前の位置(x’,y’)を求める。レクティファイ変換前の画像位置は、歪補正のない画像に対応した画像位置となり、以下の式(54)で表される。
まず、このステレオアルゴリズムにおける視差からカメラ座標系の3D座標を求める部分と、求めた3D座標を車体座標系の3D座標に変換する部分と、を説明する。
まず、サブピクセルで求めた視差から、カメラ座標系の3D座標を求めるやり方を以下に記す。VTSで注意すべきことは、通常のステレオ処理とは異なり、得られる結果が、指定したチルト角度で下を向いているため、元々のカメラ座標系を、チルト方向に回転させた座標系となっている点である。
ここでは、元々の三次元カメラ座標系を以下のように取る。即ち、カメラのセンサ面の右手方向をX座標とし、下向き方向をY座標とし、光軸の前向き方向をZ軸とする右手座標系とする。
これに対して、VTSの場合は、この座標系を90度に近い角度だけチルト(前記X軸を中心として下向きに回転)させているので、X軸は変わらないが、Y軸は下向きではなく後ろ向きとなり、Z軸はカメラの下向きとなる。
焦点距離をピクセル単位で表したものをα(式(3)のαR)とし、画像の中心位置(主点とセンサ面との交点)を(xc,yc),ベースライン長(基線長)をB,視差をdとし、右画像の画像座標を(x,y’)とする。正しい3D位置を算出するためには、縦圧縮された画像座標位置を、圧縮されていない俯瞰画像座標位置へと戻して、それから計算する必要がある。x軸については圧縮されていないので、そのまま使用するが、y軸については圧縮されているので、圧縮されていないy座標値に戻さなければならない。あらかじめ作成しておいた縦圧縮用ルックアップテーブルCTR()を使って、今のy座標値であるy’から、圧縮されていないyをy=CTR(y’)として求める。このyと、xおよびそれ以外の前記パラメータの値を次の式(56)〜式(58)に代入して、3D座標位置を算出する。
以上から、カメラから画像を入力して、リアルタイムにVTSステレオ処理をし続けるアルゴリズムの手順を、図11のフローチャートを参照して以下に記す。
続いて、画像変換部21は、ステップST12にて、ステレオカメラ11から入力される左右画像をキャプチャする。
次に、画像変換部21は、ステップST13にて、二次元レクティファイ用ルックアップテーブルを使って、双一次補間によって入力画像を変換する。これにより、左右画像は歪補正され、レクティファイされ、かつ縦方向に圧縮されることにより、縦圧縮されたステレオ俯瞰画像情報が作成される。
その後、視差算出部22は、ステップST14にて、左右画像の横方向の微分画像を求める。これは、左右の対応づけと縦方向のエッジ情報を抽出するためである。
続いて、視差算出部22は、ステップST15にて、左右画像の微分画像に対して、あらかじめ決めた領域に対してあらかじめ決めたサイズのブロックでSAD(Sum of Absolute Difference)を求める。
次に、視差算出部22は、ステップST16にて、各ブロック毎にSADの値を最小にする視差を求めて、視差情報(画像)としてメモリに蓄える。
続いて、視差算出部22は、ステップST17にて、得られた視差情報からサブピクセルの視差を求め、距離・3D情報算出部23は、ステップST18にて、y座標は、縦圧縮用のルックアップテーブルCTR()によって変換した値を用いて、かつ、式(56)〜(58)に従って、カメラの内部パラメータを使用して、カメラ座標系での3D位置を計算する。
そして、前方路面に合わせた傾き変換部25は、ステップST19にて、カメラ座標系の3D位置を式(59)により車体座標系の3D位置に変換して、OGM算出部26に出力する。
その後、画像処理部20は、ステップST20にて、終了コマンドが出ていれば終了し、出ていなければ、ステップST12に戻って、ステップST12〜19の処理を繰り返す。
このようにして、画像処理部20において、VTSにより算出された3D位置情報は、続いてOGM算出部26において以下のように処理される。
即ち、VTSによって路面の高さの精度が上がったために、相対的な高さの変化を利用して投票を行うことが可能である。以下では、その手法について説明する。
まず、ステレオカメラ11を搭載した車両を平坦な路面に停車させる。車両を停車させた状態で、前方路面上に障害物が何もない状態で、画像をキャプチャする。その画像に対して、VTSのステレオ処理を行い、画像の下側の路面だけが写っている領域にROIを指定して、その位置に対応する3D情報から、前方路面の傾きと高さを推定する。ROIとは、Region of Interestの略で、何等かの画像処理を行う部分的な対象領域を示す用語である。ここでは、画像内の左上と右下の座標位置で特定される矩形領域とする。
ここで、公知の平面推定の方法を適用することにより、平面上にあると思われるポイントクラウドを平面で近似したときの平面の法線ベクトルは以下の手順で求まる。なお、ポイントクラウドとは、3次元空間内の点の集合を指す。
まず、ステップST21にて、縦圧縮された平行化処理画像(VTS画像)内で、前方路面のみを含む領域をROIとして設定する。
続いて、ステップST22にて、ROI内の全ての画素に対応する3D点、即ちn個の車体座標系の3D点 pi,i=1,・・・,nの平均値(重心)qを次式(60)のように求める。
そして、ステップST25にて、高さは、平面の方程式である式(65)に法線ベクトルと、前記重心ベクトル q=(qx,qy,qz)を代入して求まるdの負の値となる。
以上から、車体の静止状態でのカメラと路面間の角度と高さが求まり、これを元に車両の走行中のOGMのマップの基準となる平面を決定する。
第一の手法は、ステレオカメラ11で撮影した物体の左右カメラ11の画像から画素毎に視差を求めて、三次元点群データから成る3D距離画像情報を生成し、この三次元点群データを、グリッド状の複数のセルが二次元面に配置された二次元マップに投票することにより、第一占有グリッドマップ(OGM)を生成して、このOGMを用いて前記物体の三次元情報を検出する物体検出方法において、投票の際に、3D距離画像情報のうち、各画素位置にて前方方向の変化分の絶対値で、上方向の変化分を除算した値が、あるしきい値よりも大きい場合に、投票を行なう物体検出方法である。
また、第二の手法は、ステレオカメラ11で撮影した物体の左右カメラ11の画像から画素毎に視差を求めて、三次元点群データから成る3D距離画像情報を生成し、この三次元点群データを、グリッド状の複数のセルが二次元面に配置された二次元マップに投票することにより、第一占有グリッドマップ(OGM)を生成して、このOGMを用いて物体の三次元情報を検出する物体検出方法において、投票の際に、3D距離画像情報のうち、各画素位置にて前方方向の変化分の絶対値で、上方向の変化分を除算した値が、あるしきい値よりも大きい場合に投票を行ない、かつその投票の際に、通常の平行化画像の縦方向の位置が、仮想的なチルト回転変換を伴って平行化変換された画像の縦方向の変化部を重みとして加算して投票する物体検出方法である。
また、第四の手法は、ステレオカメラ11で撮影した物体の左右カメラ11の画像から画素毎に視差を求めて、三次元点群データから成る3D距離画像情報を生成し、この三次元点群データを、グリッド状の複数のセルが二次元面に配置された二次元マップに投票することにより、第一占有グリッドマップ(OGM)を生成して、このOGMを用いて物体の三次元情報を検出する物体検出方法において、複数のセルの境界付近に跨がって、冗長なセルをオーバーラップさせて配置し、冗長なセルにも三次元点群データを投票して、第二占有グリッドマップ(ROGM)を生成し、ROGMを用いて物体の三次元情報を検出する際の投票において、3D距離画像情報のうち、各画素位置にて前方方向の変化分の絶対値で、上方向の変化分を除算した値が、あるしきい値よりも大きい場合に、投票の際に、通常の平行化画像情報の縦方向の位置が、仮想的なチルト回転変換で平行化変換された画像の縦方向の変化分を重みとして加算して投票する物体検出方法である。
これにより、路面からの物体の高さ情報を使わずに、OGMに投票することができるので、常に路面の傾き推定を行なう必要がなくなる。また、投票の際に、VTSによる当該画素位置でのY座標(縦)方向の仮想的な路面の前方長さの増分の絶対値を重みとして加えることにより、距離の違いによる同じ大きさに対する物体への投票の偏りを減らす効果も得られる。
まず、OGMの作成手順を、以下に説明する。
図13のステップST31にて、画面の左上を(xmin,ymin),右下を(xmax,ymax)となるようなROIを設定する。
そして、ステップST32にて、このROIの中の各画素位置に対して、横方向の位置xを、左端から右端へと移動しながら、そのときの横方向の位置において画像の下から上向きに縦方向にyを変化させて、上述したピッチ角θ、ロール角φ、そしてカメラ高さdによって、初期推定した平面上の3D位置を求めて、メモリに記憶させる。
そして、ステップST33にて、x=xminとし、ステップST34にて、y=ymaxとして、ステップST35にて、位置(x,y)に対する3D座標をメモリから(Xs,Ys,Zs)として取り出して、路面のパラメータθ,φ及びdを使って、推定路面平面上のOGM座標値(Xg,Yg,Zg)に変換し、メモリに記憶させる。
これに対して、ステップST40にて、y=yminとなった場合には、ステップST42にて、xがROIの上限(即ちx=xmax)となるまでは、ステップST43にて、x=x+1として、ステップST34に戻り、上記ステップST34〜39の処理を繰り返す。
ステップST42にて、x=xmaxとなった場合には、ステップST44にて、得られたOGMに対して、必要に応じて冗長OGM化してROGMとする。
その後、ステップST47にて、ラベリング処理部28が、二値化したマップに対してラベリング処理を行なって、物体検出情報としてのオブジェクトの塊を一つのものとして表したマップを作成する。
このようにして、ステレオカメラ11の左右画像を平行化処理した俯瞰画像から、画面のROI内の領域において、各オブジェクトの塊がそれぞれ一つのものとして、マップ上で検出することができる。
従って、ステップST48にて、各オブジェクトの塊ごとにそれぞれIDを割り当てて、各オブジェクトの重心位置,幅,高さ等の3D情報を各画像フレームの情報として付加して、リスト構造として登録する。
即ち、図14のフローチャートに示すように、ステップST51にて、一つの画像フレームkを読み込んで、ステップST52にて、この画像フレームkに対して、OGM(またはROGM)を使用して、上述したオブジェクト検出を行なう。
次に、ステップST53にて、画像フレームkと一つ前の画像フレーム(k−1)でそれぞれ検出されたオブジェクトのリストから、ID毎に当該オブジェクトの位置及び幅等の3D情報を比較して、最も位置が近く且つ幅等も近いものを、同じオブジェクトとして関連付けて、画像フレーム(k−1)のIDを割り当て直して、リスト構造として当該オブジェクトの位置や幅等を登録し直す。
そして、ステップST54にて、他のオブジェクトがある場合には、ステップST55にて、k=k+1として、ステップST51に戻って、ステップST51からステップST53の処理を繰り返す。
これに対して、ステップST54にて、すべてのオブジェクトに対する処理が終わったら、トラッキング処理を終了する。
以上で、チルト回転変換され縦圧縮された平行化画像情報に基づいて、路面または床面の物体を高速で検出することが可能となる。
例えば、上述した実施形態においては、例として車両の前方を撮像するステレオカメラ11の場合について説明したが、これに限らず、車両の後方や側方を撮像するステレオカメラに本発明を適用することも可能である。さらには、車両だけでなく、移動する物体、例えばロボット等から外部を撮像するステレオカメラに本発明を適用することも可能であり、あるいは監視用の固定ステレオカメラによって、床面上の薄い障害物の高さ判定に用いることも可能である。このように、上から見下ろしたような変換画像を使うことによって、路面部分の高さが高精度で求まり、車両だけでなく、室内の自律移動ロボットや、それほど広くない場所での監視用ステレオなどでの床面検出や、障害物検知に非常に有益である。
さらに、チルト回転変換した平行化画像情報に基づく第二の3D距離画像情報を、チルト回転変換しない平行化画像情報に基づく第一の3D距離画像情報と統合して、第一の3D距離画像情報を修正するようにしてもよい。これにより、3D距離画像情報による物体の検出がより高精度で行なわれることになる。
11 ステレオカメラ
11L 左カメラ
11R 右カメラ
20 画像処理部
21 画像変換部
22 視差算出部
23 機距離・3D情報算出部
25 前方路面に合わせた傾き変換部
26 OGM算出部
27 ノイズ除去部
28 ラベリング処理部
29 検出物体情報出力部
30 グローバルマップ表示部
40 物体検出部
Claims (14)
- 路面や床面等の監視対象面に対して、光軸が水平方向よりも下を向いて設置されたステレオカメラ画像情報を取得する左右一対の撮像手段と、
前記撮像手段で取得された前記ステレオカメラ画像情報を平行化した平行化ステレオ俯瞰画像情報に基づいて、各対応点の視差を求めて、3D距離画像情報を生成する画像処理部と、
前記画像処理部で取得された3D距離画像情報から前記監視対象面の物体を検出する物体検出部と、
から成り、
前記画像処理部が、前記左右一対の撮像手段で取得した左右画像に前記ステレオカメラのキャリブレーション情報に基づく仮想的な下向きのチルト回転変換を施し、前記左右画像のエピポーララインが平行となるような平行化条件を満たす平行化変換処理によりステレオカメラ画像を生成し、該ステレオカメラ画像を座標変換により平行化ステレオ俯瞰画像情報に変換し、
前記平行化ステレオ俯瞰画像情報における各対応点の視差から前記3D距離画像情報を生成し、
前記物体検出部が、前記3D距離画像情報から前記路面又は床面の物体を検出することを特徴とする、物体検出装置。 - 前記画像処理部が、あらかじめ初期状態で求めておいた前記監視対象面に対するカメラの高さ・ピッチ・ロール角度情報から、前記3D距離画像情報から取得された3D座標値を前記監視対象面に平行な3D座標系へと変換する機能を有していることを特徴とする、請求項1に記載の物体検出装置。
- 路面や床面等の監視対象面に対して、光軸が水平方向よりも下を向いて設置されたステレオカメラ画像情報を取得する左右一対の撮像手段と、
前記撮像手段で取得された前記ステレオカメラ画像情報を平行化し縦圧縮された平行化ステレオ俯瞰画像情報に基づいて、各対応点の視差を求めて、3D距離画像情報を生成する画像処理部と、
前記画像処理部で取得された3D距離画像情報から前記監視対象面の物体を検出する物体検出部と、
から成り、
前記画像処理部が、前記左右一対の撮像手段で取得した左右画像に前記ステレオカメラのキャリブレーション情報に基づく仮想的な下向きのチルト回転変換を施し、前記左右画像のエピポーララインが平行となるような平行化条件を満たす平行化変換処理によりステレオカメラ画像を生成し、該ステレオカメラ画像を座標変換により平行化ステレオ俯瞰画像情報に変換すると共にさらに縦圧縮処理し、
前記縦圧縮された平行化ステレオ俯瞰画像情報における各対応点の視差から前記3D距離画像情報を生成し、
前記物体検出部が、前記3D距離画像情報から前記路面又は床面の物体を検出することを特徴とする、物体検出装置。 - 前記画像処理部が、あらかじめ初期状態で求めておいた前記監視対象面に対するカメラの高さ・ピッチ・ロール角度情報から、前記3D距離画像情報から取得された3D座標値を前記監視対象面に平行な3D座標系へと変換する機能を有していることを特徴とする、請求項3に記載の物体検出装置。
- 路面や床面等の監視対象面に対して、光軸が水平方向よりも下を向いて設置されたステレオカメラ画像情報を取得する左右一対の撮像手段と、
前記撮像手段で取得された前記ステレオカメラ画像情報を2通りの異なる平行化によって変換した平行化画像情報に基づいて、各対応点の視差を求めて、2通りの3D距離画像情報を生成する画像処理部と、から成り、
前記平行化画像情報が、前記ステレオカメラのキャリブレーション情報に基づき、元々のカメラ光軸に近い向きで行なった第一の平行化変換と、仮想的に下向きのチルト回転変換を施した第二の平行化変換と、によってそれぞれ生成され、
当該第一の平行化変換及び第二の平行化変換で取得した平行化画像情報に基づき、各対応点の視差から第一の平行化変換による第一の3D距離画像情報と、第二の平行化変換による第二の3D距離画像情報を生成し、
前記監視対象面に対して垂直な向きを持つ領域に対しては、第一の平行化変換で取得した第一の3D距離画像情報を用い、
前記監視対象面に対して平行な向きを持つ領域に対しては、第二の平行化変換で取得した第二の3D距離画像情報を用いることを特徴とする、物体検出装置。 - 路面や床面等の監視対象面に対して、光軸が水平方向よりも下を向いて設置されたステレオカメラ画像情報を取得する左右一対の撮像手段と、
前記撮像手段で取得された前記ステレオカメラ画像情報を2通りの異なる平行化によって変換した平行化画像情報に基づいて、各対応点の視差を求めて、2通りの3D距離画像情報を生成する画像処理部と、から成り、
前記平行化画像情報が、前記ステレオカメラのキャリブレーション情報に基づき、元々のカメラ光軸に近い向きで行なった第一の平行化変換と、仮想的に下向きのチルト回転変換を施し、さらに縦圧縮を行なう第二の平行化変換と、によってそれぞれ生成され、
当該第一の平行化変換及び第二の平行化変換で取得した平行化画像情報に基づき、各対応点の視差から第一の平行化変換による第一の3D距離画像情報と第二の平行化変換による第二の3D距離画像情報を生成し、
前記監視対象面に対して垂直な向きを持つ領域に対しては第一の平行化変換で取得した第一の3D距離画像情報を用い、
前記監視対象面に対して平行な向きを持つ領域に対しては、第二の平行化変換で取得した第二の3D距離画像情報を用いることを特徴とする、物体検出装置。 - 前記画像処理部が、前記第一の3D距離画像情報と前記第二の3D距離画像情報を統合することにより、前記第一の3D距離画像情報を修正することを特徴とする、請求項5または6に記載の物体検出装置。
- 路面や床面等の監視対象面に対して、光軸が水平方向よりも下を向いて設置された左右一対の撮像手段により撮像して、ステレオカメラ画像情報を取得する第一の段階と、
前記第一段階で取得された前記ステレオカメラ画像情報を平行化した平行化ステレオ俯瞰画像情報に基づいて、各対応点の視差を求めて、3D距離画像情報を生成する第二の段階と、
前記第二段階で取得された3D距離画像情報から前記監視対象面の物体を検出する第三の段階と、
から成り、
前記第二の段階にて、前記左右一対の撮像手段で取得した左右画像に前記ステレオカメラのキャリブレーション情報に基づく仮想的な下向きのチルト回転変換を施し、左右画像のエピポーララインが平行となるような平行化条件を満たす平行化変換処理によりステレオカメラ画像を生成し、該ステレオカメラ画像を、座標変換により平行化ステレオ俯瞰画像情報に変換し、
前記第二の段階にて、前記平行化ステレオ俯瞰画像情報における各対応点の視差から前記3D距離画像情報を生成し、
前記第三の段階にて、前記3D距離画像情報から前記路面又は床面の物体を検出することを特徴とする、物体検出方法。 - 前記第二の段階にて、あらかじめ初期状態で求めておいた前記監視対象面に対するカメラの高さ・ピッチ・ロール角度情報から、前記3D距離画像情報から取得された3D座標値を前記監視対象面に平行な3D座標系へと変換する機能を有していることを特徴とする、請求項8に記載の物体検出方法。
- 路面や床面等の監視対象面に対して、光軸が水平方向よりも下を向いて設置された左右一対の撮像手段により撮像して、ステレオカメラ画像情報を取得する第一の段階と、
前記第一段階で取得された前記ステレオカメラ画像情報を平行化し縦圧縮された平行化ステレオ俯瞰画像情報に基づいて、各対応点の視差を求めて、3D距離画像情報を生成する第二の段階と、
前記第二段階で取得された前記3D距離画像情報から前記監視対象面の物体を検出する第三の段階と、
から成り、
前記第二の段階にて、前記左右一対の撮像手段で取得した左右画像に前記ステレオカメラのキャリブレーション情報に基づく仮想的な下向きのチルト回転変換を施し、左右画像のエピポーララインが平行となるような平行化条件を満たす平行化変換処理によりステレオカメラ画像を生成し、該ステレオカメラ画像を、座標変換により平行化ステレオ俯瞰画像情報に変換する処理と、その後の該平行化ステレオ俯瞰画像情報の縦圧縮処理とであって、
前記第二の段階にて、前記縦圧縮された平行化ステレオ俯瞰画像情報における各対応点の視差から3D距離画像情報を生成し、
前記第三の段階にて、前記3D距離画像情報から前記路面又は床面の物体を検出することを特徴とする、物体検出方法。 - 前記第二の段階にて、あらかじめ初期状態で求めておいた前記監視対象面に対するカメラの高さ・ピッチ・ロール角度情報から、前記3D距離画像情報から取得された3D座標値を前記監視対象面に平行な3D座標系へと変換する機能を有していることを特徴とする、請求項10に記載の物体検出方法。
- 路面や床面等の監視対象面に対して、光軸が水平方向よりも下を向いて設置された左右一対の撮像手段により撮像して、ステレオカメラ画像情報を取得する第一の段階と、
前記第一の段階で取得された前記ステレオカメラ画像情報を2通りの異なる平行化によって変換した平行化画像情報に基づいて、各対応点の視差を求めて、2通りの3D距離画像情報を生成する第二の段階と、
から成り、
前記平行化画像情報を、前記ステレオカメラのキャリブレーション情報に基づき、元々のカメラ光軸に近い向きで行なった第一の平行化変換と、仮想的に下向きのチルト回転変換を施した第二の平行化変換とによってそれぞれ生成し、
当該第一の平行化変換及び第二の平行化変換で取得した平行化画像情報に基づき、各対応点の視差から第一の平行化変換による第一の3D距離画像情報と、第二の平行化変換による第二の3D距離画像情報を生成し、
前記監視対象面に対して垂直な向きを持つ領域に対しては、第一の平行化変換で取得した第一の3D距離画像情報を用い、
前記監視対象面に対して平行な向きを持つ領域に対しては、第二の平行化変換で取得した第二の3D距離画像情報を用いることを特徴とする、物体検出方法。 - 路面や床面等の監視対象面に対して、光軸が水平方向よりも下を向いて設置された左右一対の撮像手段により撮像して、ステレオカメラ画像情報を取得する第一の段階と、
前記第一の段階で取得された前記ステレオカメラ画像情報を2通りの異なる平行化によって変換した平行化画像情報に基づいて、各対応点の視差を求めて、2通りの3D距離画像情報を生成する第二の段階と、
から成り、
前記平行化画像情報を、前記ステレオカメラのキャリブレーション情報に基づき、元々のカメラ光軸に近い向きで行なった第一の平行化変換と、仮想的に下向きのチルト回転変換を施し、さらに縦圧縮を行なう第二の平行化変換と、によってそれぞれ生成し、
当該第一の平行化変換及び第二の平行化変換で取得した平行化画像情報に基づき、各対応点の視差から第一の平行化変換による第一の3D距離画像情報と、第二の平行化変換による第二の3D距離画像情報を生成し、
前記監視対象面に対して垂直な向きを持つ領域に対しては、第一の平行化変換で取得した第一の3D距離画像情報を用い、
前記監視対象面に対して平行な向きを持つ領域に対しては、第二の平行化変換で取得した第二の3D距離画像情報を用いることを特徴とする、物体検出方法。 - 前記第二の段階において、前記第一の3D距離画像情報と前記第二の3D距離画像情報を統合することにより、前記第一の3D距離画像情報を修正することを特徴とする、請求項12または13に記載の物体検出方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017135100A JP6969738B2 (ja) | 2017-07-10 | 2017-07-10 | 物体検出装置及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017135100A JP6969738B2 (ja) | 2017-07-10 | 2017-07-10 | 物体検出装置及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019016308A JP2019016308A (ja) | 2019-01-31 |
JP6969738B2 true JP6969738B2 (ja) | 2021-11-24 |
Family
ID=65359031
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017135100A Active JP6969738B2 (ja) | 2017-07-10 | 2017-07-10 | 物体検出装置及び方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6969738B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021060018A1 (ja) * | 2019-09-25 | 2021-04-01 | ||
CN111507973B (zh) * | 2020-04-20 | 2024-04-12 | 上海商汤临港智能科技有限公司 | 目标检测方法及装置、电子设备和存储介质 |
CN111783653B (zh) * | 2020-07-01 | 2024-04-26 | 创新奇智(西安)科技有限公司 | 商标标签检测方法、装置、设备及存储介质 |
JPWO2023007625A1 (ja) * | 2021-07-28 | 2023-02-02 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4297501B2 (ja) * | 2004-08-11 | 2009-07-15 | 国立大学法人東京工業大学 | 移動体周辺監視装置 |
JP4809019B2 (ja) * | 2005-08-31 | 2011-11-02 | クラリオン株式会社 | 車両用障害物検出装置 |
JP2010128795A (ja) * | 2008-11-27 | 2010-06-10 | Aisin Seiki Co Ltd | 障害物検出装置 |
JP2010250640A (ja) * | 2009-04-17 | 2010-11-04 | Sanyo Electric Co Ltd | 画像処理装置 |
JP6257919B2 (ja) * | 2013-05-16 | 2018-01-10 | 住友建機株式会社 | ショベル |
KR101622622B1 (ko) * | 2014-10-13 | 2016-05-31 | 엘지전자 주식회사 | 차량 하부 이미지 제공 장치 및 이를 구비한 차량 |
JP6599685B2 (ja) * | 2015-08-19 | 2019-10-30 | シャープ株式会社 | 画像処理装置および誤差判定方法 |
WO2016013691A1 (ja) * | 2015-10-15 | 2016-01-28 | 株式会社小松製作所 | 位置計測システム及び位置計測方法 |
-
2017
- 2017-07-10 JP JP2017135100A patent/JP6969738B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019016308A (ja) | 2019-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11080932B2 (en) | Method and apparatus for representing a virtual object in a real environment | |
US10665025B2 (en) | Method and apparatus for representing a virtual object in a real environment | |
JP6969738B2 (ja) | 物体検出装置及び方法 | |
CN102592124B (zh) | 文本图像的几何校正方法、装置和双目立体视觉系统 | |
JP4861574B2 (ja) | 運転支援装置 | |
JP3868876B2 (ja) | 障害物検出装置及び方法 | |
US7865039B2 (en) | Method of ortho-rectification for high-resolution remote sensing image | |
US5734743A (en) | Image processing method and apparatus for block-based corresponding point extraction | |
US20170019655A1 (en) | Three-dimensional dense structure from motion with stereo vision | |
JP4872769B2 (ja) | 路面判別装置および路面判別方法 | |
CN112424565B (zh) | 车载环境识别装置 | |
JP5083443B2 (ja) | 運転支援装置および方法、ならびに演算装置 | |
JP2023505891A (ja) | 環境のトポグラフィを測定するための方法 | |
KR100574227B1 (ko) | 카메라 움직임을 보상한 객체 움직임 추출 장치 및 그 방법 | |
JP2008309519A (ja) | 画像処理を用いた物体検出装置 | |
JP2005217883A (ja) | ステレオ画像を用いた道路平面領域並びに障害物検出方法 | |
JP2004030461A (ja) | エッジマッチング方法、エッジマッチングプログラム、エッジマッチングプログラムを記録したコンピュータ読み取り可能な記録媒体、ステレオマッチング方法、ステレオマッチングプログラム及びステレオマッチングプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JP2006050451A (ja) | 障害物警告システム及び画像処理装置 | |
WO2012116350A2 (en) | Figure-ground organization of 3-d scenes | |
Haggag et al. | Towards automated generation of true orthoimages for urban areas | |
Sato et al. | Efficient hundreds-baseline stereo by counting interest points for moving omni-directional multi-camera system | |
JP4410521B2 (ja) | 画像処理装置および画像処理方法 | |
JP3977505B2 (ja) | 道路形状認識装置 | |
CN112308984B (zh) | 车载图像拼接方法、系统以及装置 | |
JP3870255B2 (ja) | 3次元復元方法及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200507 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210521 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210608 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211012 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211020 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6969738 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |