JP7176406B2 - 画像処理方法、画像処理装置、車載装置、移動体、システム - Google Patents
画像処理方法、画像処理装置、車載装置、移動体、システム Download PDFInfo
- Publication number
- JP7176406B2 JP7176406B2 JP2018243505A JP2018243505A JP7176406B2 JP 7176406 B2 JP7176406 B2 JP 7176406B2 JP 2018243505 A JP2018243505 A JP 2018243505A JP 2018243505 A JP2018243505 A JP 2018243505A JP 7176406 B2 JP7176406 B2 JP 7176406B2
- Authority
- JP
- Japan
- Prior art keywords
- distance
- evaluation value
- image
- matching
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
Description
まず、図1を用いてLIDARとステレオカメラの測距性能について説明する。図1(a)は距離Zと距離分解能の関係をLIDARとステレオカメラを比較して示す。なお、距離分解能は、値が小さい方が、性能が高い。図示するように、LIDARは距離Zが大きくてもほぼ一定の距離分解能を示すが、ステレオカメラは距離Zが大きくなると急激に距離分解能も大きくなる。したがって、ステレオカメラの測距精度は遠方領域で大きく低下する。
・ステレオカメラの測距精度:遠方ほど距離分解能が粗くなるため、遠方測距や遠方物体検出が難しい。
・ステレオカメラの耐物標性:繰返しパタンや低テクスチャでの誤マッチングが発生し、分散(ばらつき)の大きい距離値が多く発生する。
・ステレオカメラの耐環境性:夜間になると距離算出が困難になる。
・LIDAR:空間分解能が低い。
対応点を探す事をマッチングといい、そのマッチングの度合いをコストという。コストはマッチングの度合いの「評価値」であり、「非類似度」や「類似度」とも表現される。非類似度が低ければより一致している事を示し、類似度が高ければより一致している事を示す指標である。「非類似度」「類似度」を合わせて「一致度」とも表現することもある。
図3は、一般的な視差空間を用いた場合に得られる距離Zを説明する図の一例である。図3(a)はブロックマッチング及びSGM伝播方式により得られる、シフト量を横軸にしてコストC(p,d)と伝播コストLr(p,Z)を示す。図3(a)では探索範囲を64画素とする。pは注目画素、dは基準画像と比較画像のシフト量(探索視差)である。64画素の探索範囲で最も小さいコストC(p、d)又は伝播コストLr(p,Z)が注目している画素pの視差(整数視差)として採用される。
Z=BF/d …(1)
なお、Bはステレオカメラにおける左右のカメラの光軸間距離、Fは左右のカメラの焦点距離である。図3(b)に示すように、Z空間では、コストC(p,d)又は伝播コストLr(p,Z)が得られる距離Zに疎密が生じる。これは距離Zを算出する式(1)の分母にdが含まれているため、距離Zがdに反比例し、dが0に近いと距離Zが大きく変化するためである。
図6を用いて、測距システム100の適用例について説明する。図6は、移動体の一例である移動体200に搭載された測距システム100を示す図である。図6では、移動体200のフロントウィンドウの内側中央位置に、測距システム100が設定されている。測距システム100は、レーザレーダ測距部110とステレオ画像演算部120とを有する。レーザレーダ測距部110とステレオ画像演算部120はいずれも前方が測距範囲となるように設置されている。レーザレーダ測距部110は、ステレオ画像演算部120が有するステレオカメラ(2つの撮像部又は撮像手段)の間(好ましくは中央)に配置されるものとする。
図8は、レーザレーダ測距部110によるレーザ光の照射範囲について説明する図の一例である。図8(a)は、移動体200を上方から見た上面図であり、図8(b)は、移動体200を側方から見た側面図である。
図9は、ステレオ画像演算部120によるステレオ画像の撮像範囲を説明するための図である。ステレオ画像とは基準画像と比較画像の両方をいう。図9(a)は、移動体200の上面図である。ステレオ画像演算部120は、2つの撮像装置(カメラ)が移動体200の進行方向の前方に光軸を向けて設置されており、進行方向の所定範囲の画像を撮像する。レーザ光の照射範囲とステレオカメラの撮像範囲は少なくとも一部が重複している。
次に、図11を用いて、レーザレーダ測距部110によるレーザ光の照射位置とステレオ画像演算部120により撮像されたステレオ画像(基準画像)の画素位置との関係について説明する。図11(a)は、レーザ光の照射位置とステレオ画像(基準画像)の画素位置との関係を説明する図の一例である。
次に、図12は、レーザレーダ測距部110の機能構成図の一例である。レーザレーダ測距部110は信号処理部601、仰角方向スキャンドライブユニット602、モータ603、仰角方向スキャンミラー604、レーザ受光部605、信号増幅器606、時間間隔カウンタ607、レーザ出力部608、及び、レーザドライバ609を有する。
図13は、測距システム100の構成図を示す。また、図13ではステレオ画像演算部120の機能をブロック状に示している。測距システム100は測距する装置であるため測距装置ということができる。この他、距離測定装置、測距部などと呼ばれてもよい。
図14を用いてブロックマッチングによる整数視差の演算について説明する。図14は、右カメラ11により撮像された基準画像420と、左カメラ12により撮像された比較画像410における、注目している画素p=(Px3,Py5)のコストとして、SAD(Sum of Absolute Difference)を算出する例を示した図である。なお、SADの計算式を(数1)に示す。
距離演算部14は、SGM伝播方式と称されるアルゴリズムを用いて、伝播コストLrを算出し、当該伝播コストLrを用いて注目している画素pのエネルギーコストS(p,d)を算出するエネルギ計算処理を行う。なお、SGM伝播方式はデンスアルゴリズムの一形態である。
ただし、pは画素1100の座標を、dは視差を表している。このように、伝播コストL1(p,d)は、画素1100のコストC(p,d)と、画素1100の左側1画素に位置する画素の各視差(d-1~d+1)での伝播コストとによって算出することができる。つまり、矢印1111方向の伝播コストは、左方向から右方向へと順次、伝播コストが算出されていくことになる。なお、左方向から右方向へと伝播コストを伝播させていく際の伝播間隔は、1画素に限定されるものではない。つまり、画素1100の左側a画素に位置する画素の各視差での伝播コストを用いて、伝播コストL1(p,d)を算出するように構成してもよい。
続いて、図17を参照して本実施形態の測距システム100が画素ごとの距離値の算出手順を説明する。図17は、測距システム100の動作手順を説明するフローチャート図の一例である。
ステップS1に示すように、レーザレーダ測距部110が距離情報を取得する。これと並行してステレオ画像演算部120の右カメラ11が基準画像を、左カメラ12が比較画像を撮像する(S2)。歪み補正部13は視差以外の相違がなくなるようにそれぞれに歪み補正を行う(S3)。次に、ステレオ画像演算部120がステレオマッチングコストCST(p、Z)を算出する(S4)。
次に、距離演算部14は、ステレオマッチングコストCST(p,Z)とLIDARコストCLI(p,Z)を統合して、コストC(p,Z)を算出する。式では以下のように表すことができる。
C(p,Z)=EST×CST(p,Z)+ELI×CLI(p,Z) …(4)
EST:ステレオマッチングコストの係数(重み)
ELI:LIDARコストの係数(重み)
まず、図19,図20に基づいて、LIDARコストCLI(p,Z)を説明する。図19はLIDARコストCLI(p,Z)の一例を示す図であり、図20はLIDARコストCLI(p,Z)を補足して説明するための図である。また、式(5)はLIDARコストCLI(p,Z)の一例を示す。
r0:レーザの照射方向に対応する画素
p :r0を含むr0の周囲の画素
σ :LIDARコストCLI(p,Z)の広がりを定めるパラメータ
A :LIDARコストCLI(p,Z)の深さを定めるパラメータ(0~1)
本願の発明者は、距離画像の出力前にレーザレーダ測距部110の距離情報をステレオマッチングコストCST(p,Z)に統合させるため、新たにLIDARコストCLI(p,Z)を設定した。図19に示すように、LIDARコストCLI(p,Z)はp=r0の光線中心の画素で最も小さく、r0から周囲に離れるほどσにしたがって大きくなる。式(5)から明らかなように、Aが1の場合、画素r0のLIDARコストCLI(p,Z)は0である。一方、r0から遠く離れた周辺部の画素ではLIDARコストCLI(p,Z)が1になる。
X=F・N/(Z・pt)
Y=F・M/(Z・pt)
図23はレーザの分解能による距離Zでの画素数xL、yLの算出を説明する図の一例である。レーザの分解能を横θx〔deg〕、縦θy〔deg〕とする。
レーザの照射面の横幅AはA=Ztan(θx/2)×2
レーザの照射面の縦幅BはA=Ztan(θy/2)×2
横幅Aが画像上で占める画素数xLは以下のようになる。
xL=F・A/Z=Ztan(θx/2)×2=2(F/pt)tan(θx/2)〔ピクセル〕
縦幅Bが画像上で占める画素数yLは以下のようになる。
yL=F・B/Z=Ztan(θy/2)×2=2(F/pt)tan(θy/2)〔ピクセル〕
xL、yLの算出結果から明らかなように、照射面は距離Zに応じて広がっていくが、画像上では距離Zによらず一定の画素数になる。ただし、これは説明を容易にするため、レーザ光線の射出サイズが点光源であると仮定した場合である。レーザの射出面積があるサイズを持っている場合は、近距離側では対応する画素サイズが大きく、遠方になるにつれて一定値に収束する。
X>xL かつ Y>yLなので、
F・N/(Z・pt)>2(F/pt)tan(θx/2) かつ
F・M/(Z・pt)>2(F/pt)tan(θy/2)
したがって、N/(2tan(θx/2)>Z かつ、M/(2tan(θy/2)>Z
が物体面が照射面を包含する距離の条件式である。
・移動体の場合、
N=M=1.8m θx=θy=0.6〔deg〕から171.9>Z
・物の場合
N=0.25 M=1.6m θx=0.1 θy=0.6〔deg〕から143.2>Z
したがって、遠距離になると図24に示すように物体面の方が照射面よりも大きくなり、物体面のどこに反射したのか不確定になる。図25を用いてより詳細に説明する。
次に、距離演算部14は伝播コストLr(p,Z)を算出する。伝播コストLr(p,Z)の算出式を以下に示す。
伝播コストLr(p,Z)の第1項はステップS5で算出された、ステレオマッチングコストCST(p,Z)とLIDARコストCLI(p,Z)が統合されたコストC(p,Z)である。第2項はZ空間で行われるSGM伝播方式による伝播コストである。第1項と第2項により、伝播コストLr(p,Z)が算出される。
距離演算部14は、全ての画素で伝播コストLr(p,Z)を算出したか否かを判断する。全ての画素の処理が終了するまでは、ステップS5,S6を繰り返し実行する。
全ての画素で伝播コストLr(p,Z)を算出すると、距離演算部14はエネルギーコストS(p,Z)を算出する。
S(p,Z)=ΣLr(p,Z) …(7)
図26は、エネルギーコストS(p,Z)の算出方法を説明する図の一例である。画素ごとに伝播コストLr(p,Z)が算出されたが、ある画素には周囲の伝播コストLr(p,Z)が影響していると考えられる。そこで、注目している画素の周囲の伝播コストLr(p,Z)を重ね合わせることで、注目している画素のより正確な伝播コストLr(p,Z)を算出する。
S(p,Z)=L0(p,Z)+L45(p,Z)+L90(p,Z)+L135(p,Z)+L180(p,Z)+L225(p,Z)+L270(p,Z)+L315(p,Z)、 …(8)
図27は、エネルギーコストS(p,Z)の算出方法を模式的に示す図である。式(8)に示すように、注目している画素の周囲8画素の伝播コストLr(p,Z)をZ空間で重ね合わせる。これにより、注目している画素のエネルギーコストS(p,Z)が得られる。
距離演算部14は、エネルギーコストS(p,Z)が最小となる距離Z0を決定する。距離Z0が注目している画素の距離値である。
全ての画素で算出されると図17の処理は終了する。
図25(b)で説明したマルチパルスが生じた場合の処理について説明する。図29はマルチパルスの処理を説明する図の一例である。図29(a)は、レーザレーダ測距部110のレーザの照射範囲を上方から見た図であり、図29(b)は距離Zに対する受光レベルを説明する図の一例である。
図12等で説明した本実施形態のレーザレーダ測距部110はTOF(Time Of Flight)方式の測距方法である。これに対し、FCM(Fast Chirp Modulation)やFMCW(Frequency Modulation Continuous Wave)方式と呼ばれる測距方式がある。FCMやFMCWは、送信波と受信波で周波数がわずかに異なることで生じる混合波のうなり信号の周波数を距離に換算する方式である。
Δt=2R/C …(9)
次に、ΔtとΔfには、図31(b)の図から明らかなように以下の関係がある
Δt:Δf=T:F
これを変形して、以下の式が得られる。
Δf=F×Δt/T …(10)
式(9)を式(10)に代入すると下式が得られる。
Δf=2RF/CT …(11)
R=CTΔf/2F …(12)
したがって、式(12)にフーリエ変換で求めたΔfを代入することで距離Rに変換できる。
続いて、図33を用いて、FCM方式における物体の方向の検出方法を説明する。図33は物体の方向を説明する図である。図33(a)はミリ波送受信装置25と物体26の一例の上面図を示す。FCM方式は、水平面を使用して反射された反射波の角度θを推定する。例えば移動体の進行方向を0度とすれば、θは水平方向の物体26の角度(到来角)である。
l=dsinθ
r=l/C=(d/C)sinθ
θ=arcsin(r・C/d)…(13)
以下では、実際の実験結果を用いて本実施形態の測距システム100の効果を説明する。
図34は、状況を説明するための基準画像を示す。図34(a)は基準画像で、図34(b)は中央の拡大図である。基準画像の中央付近(遠方)に移動体301と人物302とチャート303(進行方向などを示す看板)が写っている。距離の実測値は以下のとおりである。
移動体:68.5m
人物:80m
チャート:80m
図35は俯瞰マップの比較例を示す。図35(a)はブロックマッチングで得た距離に基づいて作成された俯瞰マップを示し、図35(b)は本実施形態の測距システム100が測定した距離に基づいて作成された俯瞰マップを示す。本実施形態では測距精度と面分離性が向上したため、移動体301、及び、チャート(人物)302,303が分離されている。ただし、同じ距離にある人物とチャートが分離できていない。この点は今後の改良点であるが、100m先にある門304、及び、75m先の物置305が分離されている。
d(x,y) = B×F/z
で算出される。
X = (x - x0)×B/d(y,x);
Y = (y - y0)×B/d(y,x);
Z = B×F/d(y,x) (= z);
距離演算部14はこの計算を、俯瞰マップを求める距離画像の各画素で実行する。図36のような俯瞰マップは2次元なので、(X,Z)に対応するメッシュ空間に1票を投じると、図36の俯瞰マップが得られる。なお、(X,Y,Z)に対応するメッシュ空間に1票投じると3次元マップが得られる。
図37は、状況を説明するための基準画像を示す。図37(a)は基準画像で、図37(b)は中央の拡大図である。基準画像の中央付近(遠方)に複数の移動体311,312が写っている。距離の実測値は以下のとおりである。
移動体1:55m
移動体2:78m
図38は俯瞰マップの比較例を示す。図38(a)はブロックマッチングで得た距離に基づいて作成された俯瞰マップを示し、図38(b)は本実施形態の測距システム100が測定した距離に基づいて作成された俯瞰マップを示す。本実施形態では測距精度と面分離性が向上したため、2つの移動体311,312が明確に分離されている。100m先にある門、及び、75m先の物置が分離されている。
図39は、ヘッドライトが撮像された夜間の基準画像を示す。図39(a)は基準画像の全体と測距システム100の処理範囲を示し、図39(b)は移動体321のヘッドライト部分の拡大図である。
80mと30mの各距離でチャートの距離を測定した場合の実験結果を説明する。
図41は状況を説明するための基準画像である。実際にはカラーの距離画像が得られているが特許図面では色情報が失われるため、距離画像は掲載していない。代替として、面精度の評価結果をチャート303の面内の「距離平均」と「距離標準偏差」で数値化して示す。
図42はSGM伝播方式で生じる膨張の抑制結果を説明する図である。図42(a)は基準画像を示し、図42(b)は本実施形態の測距システム100が算出した距離画像を示し、図42(c)はSGM伝播方式により算出した距離画像を示す。図42(c)ではチャートの両脚の間が膨張によりチャートの距離になっているが、図42(b)に示す本実施形態の測距システム100ではチャートの両脚の間に背景の距離が算出されている。
以上説明したように、本実施形態の測距システム100は、ステレオカメラがブロックマッチング等で距離画像を出力する前に、Z空間でLIDARが測定した距離情報を統合させることで高密度かつ高分解能な距離画像を実現できる。
LIDARコストCLI(p,Z)∝空間成分×距離成分 …(14)
空間成分は実施例1の式(5)でよい。距離成分コストCLD(p,Z)は、一例として以下のように定義できる。
γ :レーザの測距値
Z :レーザの測距値からの乖離
v :距離成分の広がりを定めるパラメータ
β :距離成分の深さを定めるパラメータ(0~1)
図43は、式(15)により表されるLIDARコストCLI(p,Z)の距離成分コストCLD(p,Z)を模式的に表す図である。図示するように、LIDARコストCLI(p,Z)の距離成分コストは、レーザの測距値で最も小さく、レーザの測距値からの乖離が大きいほど大きくなる。これは、物体の反射率の影響や物体のどこに当たるかによって、レーザの測距値が真値からずれる場合がある。この場合、本来は面を形成している物体面が分裂して検出される。式(15)のように不明確さvをLIDARコストCLI(p,Z)の距離成分に含めることで、幅を持ってレーザの測距値を扱うことができるので、分裂を抑制しやすくなる。
以上説明したように、本実施例の測距システム100は実施例1の効果に加え、更に物体面の分裂を防ぐことができる。
・レーザレーダ測距部110に異常がある場合は、レーザレーダ測距部110からステレオ画像演算部120に通知があるか又はステレオ画像演算部120が検出してECU20に通知できる。ECU20はステレオ画像演算部120が生成する距離画像により運転支援を継続できる。
・ステレオ画像演算部120に異常がある場合は、ステレオ画像演算部120からECU20に通知があるか又はECU20が検出できる。ECU20はレーザレーダ測距部110が出力する照射方向と距離情報により運転支援を継続できる。
・ステレオマッチングコストCST(p,Z)が平坦で、かつ、LIDARの受光レベルの極小値が1つの場合、LIDARの受光レベルとステレオマッチングコストCST(p,Z)を統合する。
・LIDARの受光レベルがマルチパルスとなっており、ステレオマッチングコストCST(p,Z)の極小値が1つの場合、LIDARの受光レベルとステレオマッチングコストCST(p,Z)を統合する。
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
11 右カメラ
12 左カメラ
13 歪み補正部
14 距離演算部
20 ECU
100 測距システム
110 レーザレーダ測距部
120 ステレオ画像演算部
200 移動体
Claims (16)
- 対象物との距離を測定するための距離画像を生成する画像処理方法であって、
測距部が、対象物との距離情報を検出するステップと、
ステレオ画像のマッチング評価値を含む画素のうち、前記測距部により前記距離情報が検出された前記対象物が存在する位置に対応する画素のマッチング評価値に、画像処理部が、前記測距部が検出した前記距離情報を統合処理して前記距離画像を生成するステップと、を有し、
前記画像処理部は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行い、前記ステレオ画像をマッチングする際の画素の各シフト量に対しそれぞれマッチングコストを算出し、各シフト量を距離に変換して、前記測距部による電磁波の照射方向により特定される画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に前記距離情報に関する距離評価値を統合し、前記距離評価値は、前記測距部による電磁波の照射方向により特定される画素で最も小さく、該画素から離れるほど大きくなる第一の評価値であることを特徴とする画像処理方法。 - 前記画像処理部は、前記測距部による電磁波の照射方向により特定される画素の周囲の画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に、該画素から離れるほど大きくなる前記第一の評価値を加算することを特徴とする請求項1に記載の画像処理方法。
- 前記距離評価値は、前記測距部が取得した前記距離情報に対応する距離で最も小さく、前記距離情報に対応する距離から離れるほど大きくなる第二の評価値を前記第一の評価値に乗じたものであることを特徴とする請求項1又は2に記載の画像処理方法。
- 前記画像処理部は、前記測距部による電磁波の照射方向により特定される画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に、最も小さな前記第一の評価値と最も小さな前記第二の評価値を乗じたものを前記距離評価値として統合し、
前記測距部から取得した前記距離情報に対応する距離から離れた距離のマッチング評価値に、最も小さな前記第一の評価値と前記距離情報に対応する距離から離れた分だけ大きくなる前記第二の評価値とを乗じたものを前記距離評価値として統合することを特徴とする請求項3に記載の画像処理方法。 - 前記画像処理部は、前記測距部による電磁波の照射方向により特定される画素の周囲の画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に、電磁波の照射方向により特定される画素から離れるほど大きくなる前記第一の評価値と最も小さな前記第二の評価値を乗じたものを前記距離評価値として統合し、
前記測距部から取得した前記距離情報に対応する距離から離れた距離のマッチング評価値に、電磁波の照射方向により特定される画素から離れるほど大きくなる前記第一の評価値と前記距離情報に対応する距離から離れた分だけ大きくなる前記第二の評価値とを乗じたものを前記距離評価値として統合することを特徴とする請求項3に記載の画像処理方法。 - 前記画像処理部は、画素ごとにマッチング評価値と前記距離評価値を統合して得た評価値にデンスアルゴリズムを適用し、
更に、注目している画素の評価値と周囲の画素の評価値を重ね合わせてから、評価値が最小となる前記距離を、注目している画素の距離に決定することを特徴とする請求項1~5のいずれか1項に記載の画像処理方法。 - 前記測距部の異常を検出する第一の異常検出部と、
前記ステレオ画像の少なくとも一方を撮像する撮像部の異常を検出する第二の異常検出部と、
前記第一の異常検出部又は前記第二の異常検出部の少なくとも一方が異常を検出した旨を表示装置に表示することを特徴とする請求項1~6のいずれか1項に記載の画像処理方法。 - 前記第一の異常検出部が前記測距部の異常を検出した場合、前記画像処理部は、前記撮像部により撮像された前記ステレオ画像のマッチング評価値から、前記ステレオ画像の画素に距離情報が対応付けられた前記距離画像を生成し、
前記第二の異常検出部が前記撮像部の異常を検出した場合、前記測距部は前記距離情報を外部に出力することを特徴とする請求項7に記載の画像処理方法。 - 前記対象物が存在する位置に対応する画素とは、前記測距部による測距方法から特定される画素であることを特徴とする請求項1~8のいずれか1項に記載の画像処理方法。
- 前記画像処理部は、前記ステレオ画像の画素に距離情報の対応付けも行うことを特徴とする請求項1~9のいずれか1項に記載の画像処理方法。
- 対象物との距離を測定するための距離画像を生成する画像処理装置であって、
対象物との距離情報を検出する測距部と、
ステレオ画像のマッチング評価値を含む画素のうち、前記測距部により前記距離情報が検出された前記対象物が存在する位置に対応する画素のマッチング評価値に、前記測距部が検出した前記距離情報を統合処理して前記距離画像を生成する画像処理部と、を有し、
前記画像処理部は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行い、前記ステレオ画像をマッチングする際の画素の各シフト量に対しそれぞれマッチングコストを算出し、各シフト量を距離に変換して、前記測距部による電磁波の照射方向により特定される画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に前記距離情報に関する距離評価値を統合し、前記距離評価値は、前記測距部による電磁波の照射方向により特定される画素で最も小さく、該画素から離れるほど大きくなる第一の評価値であることを特徴とする画像処理装置。 - 車載装置であって、
対象物との距離情報を検出する測距部と、
ステレオ画像のマッチング評価値を含む画素のうち、前記測距部により前記距離情報が検出された前記対象物が存在する位置に対応する画素のマッチング評価値に、前記測距部が検出した前記距離情報を統合処理して距離画像を生成する画像処理部と、を有し、
前記画像処理部は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行い、前記ステレオ画像をマッチングする際の画素の各シフト量に対しそれぞれマッチングコストを算出し、各シフト量を距離に変換して、前記測距部による電磁波の照射方向により特定される画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に前記距離情報に関する距離評価値を統合し、前記距離評価値は、前記測距部による電磁波の照射方向により特定される画素で最も小さく、該画素から離れるほど大きくなる第一の評価値であり、前記距離画像を移動体の制御ユニットに送出する車載装置。 - 対象物との距離情報を検出する測距部と、
ステレオ画像のマッチング評価値を含む画素のうち、前記測距部により前記距離情報が検出された前記対象物が存在する位置に対応する画素のマッチング評価値に、前記測距部が検出した前記距離情報を統合処理して距離画像を生成する画像処理部と、を有し、
前記画像処理部は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行い、前記ステレオ画像をマッチングする際の画素の各シフト量に対しそれぞれマッチングコストを算出し、各シフト量を距離に変換して、前記測距部による電磁波の照射方向により特定される画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に前記距離情報に関する距離評価値を統合し、前記距離評価値は、前記測距部による電磁波の照射方向により特定される画素で最も小さく、該画素から離れるほど大きくなる第一の評価値であり、
前記距離画像を使って移動体を制御する制御ユニット、
を有する移動体。 - 測距部から対象物との距離情報を取得する画像処理装置であって、
ステレオ画像のマッチング評価値を含む画素のうち、前記測距部により前記距離情報が検出された前記対象物が存在する位置に対応する画素のマッチング評価値に、前記測距部が検出した前記距離情報を統合処理して距離画像を生成する画像処理部、を有し、
前記画像処理部は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行い、前記ステレオ画像をマッチングする際の画素の各シフト量に対しそれぞれマッチングコストを算出し、各シフト量を距離に変換して、前記測距部による電磁波の照射方向により特定される画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に前記距離情報に関する距離評価値を統合し、前記距離評価値は、前記測距部による電磁波の照射方向により特定される画素で最も小さく、該画素から離れるほど大きくなる第一の評価値であることを特徴とする画像処理装置。 - 対象物までの距離を測定する測距手段と、
撮像手段と、
ステレオ画像のマッチング評価値を含む画素のうち、前記測距手段により距離情報が検出された前記対象物が存在する位置に対応する画素のマッチング評価値に、前記測距手段が検出した前記距離情報を統合処理して距離画像を生成する画像処理部と、を有し、
前記画像処理部は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行い、前記ステレオ画像をマッチングする際の画素の各シフト量に対しそれぞれマッチングコストを算出し、各シフト量を距離に変換して、前記測距部による電磁波の照射方向により特定される画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に前記距離情報に関する距離評価値を統合し、前記距離評価値は、前記測距部による電磁波の照射方向により特定される画素で最も小さく、該画素から離れるほど大きくなる第一の評価値であることを特徴とするシステム。 - 距離情報とステレオ画像から距離画像を生成するシステムにおいて、
ステレオ画像のマッチング評価値を含む画素のうち、前記距離情報が検出された対象物が存在する位置に対応する画素のマッチング評価値に、前記距離情報を統合処理して距離画像を生成する画像処理手段、を有し、
前記画像処理手段は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行い、前記ステレオ画像をマッチングする際の画素の各シフト量に対しそれぞれマッチングコストを算出し、各シフト量を距離に変換して、前記測距部による電磁波の照射方向により特定される画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に前記距離情報に関する距離評価値を統合し、前記距離評価値は、前記測距部による電磁波の照射方向により特定される画素で最も小さく、該画素から離れるほど大きくなる第一の評価値であることを特徴とするシステム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP19152873.6A EP3514759B1 (en) | 2018-01-23 | 2019-01-21 | Image processing method and image processing apparatus |
| US16/253,839 US10891751B2 (en) | 2018-01-23 | 2019-01-22 | Range image generating method, range image generating apparatus, and on-board device having range image generating function |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018009067 | 2018-01-23 | ||
| JP2018009067 | 2018-01-23 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019128350A JP2019128350A (ja) | 2019-08-01 |
| JP7176406B2 true JP7176406B2 (ja) | 2022-11-22 |
Family
ID=67472108
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018243505A Active JP7176406B2 (ja) | 2018-01-23 | 2018-12-26 | 画像処理方法、画像処理装置、車載装置、移動体、システム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7176406B2 (ja) |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7259660B2 (ja) * | 2019-09-10 | 2023-04-18 | 株式会社デンソー | イメージレジストレーション装置、画像生成システム及びイメージレジストレーションプログラム |
| DE202022003129U1 (de) * | 2021-02-22 | 2024-12-23 | Shenzhen Camsense Technologies Co., Ltd | Entfernungsmessgerät, Lidar, und mobiler Roboter |
| JP7613690B2 (ja) * | 2021-06-04 | 2025-01-15 | 日本電信電話株式会社 | 3次元点群処理装置、3次元点群処理方法、及び3次元点群処理プログラム |
| JP7742299B2 (ja) | 2021-12-21 | 2025-09-19 | 株式会社Subaru | 画像処理装置および車両 |
| CN114754732B (zh) * | 2022-03-11 | 2023-09-05 | 江苏电力信息技术有限公司 | 一种基于多目视觉的距离测量方法 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000329852A (ja) | 1999-05-17 | 2000-11-30 | Nissan Motor Co Ltd | 障害物認識装置 |
| JP2015143679A (ja) | 2013-12-26 | 2015-08-06 | 株式会社リコー | 視差演算システム、情報処理装置、情報処理方法及びプログラム |
| JP2015175644A (ja) | 2014-03-13 | 2015-10-05 | 株式会社リコー | 測距システム、情報処理装置、情報処理方法及びプログラム |
| WO2017057056A1 (ja) | 2015-09-30 | 2017-04-06 | ソニー株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
-
2018
- 2018-12-26 JP JP2018243505A patent/JP7176406B2/ja active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000329852A (ja) | 1999-05-17 | 2000-11-30 | Nissan Motor Co Ltd | 障害物認識装置 |
| JP2015143679A (ja) | 2013-12-26 | 2015-08-06 | 株式会社リコー | 視差演算システム、情報処理装置、情報処理方法及びプログラム |
| JP2015175644A (ja) | 2014-03-13 | 2015-10-05 | 株式会社リコー | 測距システム、情報処理装置、情報処理方法及びプログラム |
| WO2017057056A1 (ja) | 2015-09-30 | 2017-04-06 | ソニー株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
Non-Patent Citations (1)
| Title |
|---|
| Jan Fischer et al.,Combination of Time-of-Flight Depth and Stereo using Semiglobal Optimization,2011 IEEE International Conference on Robotics and Automation,2011年05月,p.3548-3553,DOI: 10.1109/ICRA.2011.5979999 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2019128350A (ja) | 2019-08-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7176406B2 (ja) | 画像処理方法、画像処理装置、車載装置、移動体、システム | |
| US10891751B2 (en) | Range image generating method, range image generating apparatus, and on-board device having range image generating function | |
| US10962638B2 (en) | Vehicle radar sensing system with surface modeling | |
| US11391840B2 (en) | Distance-measuring apparatus, mobile object, distance-measuring method, and distance measuring system | |
| US9151626B1 (en) | Vehicle position estimation system | |
| CN110799853B (zh) | 一种环境感知系统及移动平台 | |
| JP7157054B2 (ja) | 整合画像及びlidar情報に基づいた車両ナビゲーション | |
| JP7238422B2 (ja) | 測距方法、測距装置、車載装置、移動体、測距システム | |
| US10962641B2 (en) | Vehicle radar sensing system with enhanced accuracy using interferometry techniques | |
| US10545229B2 (en) | Systems and methods for unified mapping of an environment | |
| US20230237783A1 (en) | Sensor fusion | |
| JP3822770B2 (ja) | 車両用前方監視装置 | |
| CN115210605A (zh) | 传感器系统的校准 | |
| WO2017181642A1 (en) | Systems and methods for radar-based localization | |
| US11769267B2 (en) | Object distance measurement apparatus and method | |
| US11994466B2 (en) | Methods and systems for identifying material composition of moving objects | |
| WO2018043028A1 (ja) | 周辺監視装置及び周辺監視方法 | |
| EP3540467B1 (en) | Range finding system, range finding method, in-vehicle device, and vehicle | |
| CN114488111B (zh) | 利用雷达数据估算车辆速度 | |
| US12475597B2 (en) | Robust lidar-to-camera sensor alignment | |
| US20220228861A1 (en) | Estimation device | |
| US20230136871A1 (en) | Camera calibration | |
| US20220413144A1 (en) | Signal processing device, signal processing method, and distance measurement device | |
| US10249056B2 (en) | Vehicle position estimation system | |
| EP3789908B1 (en) | Mono vision system and method for a motor vehicle |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210916 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220203 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220713 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220914 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221011 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221024 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 7176406 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |









