JP7176406B2 - 画像処理方法、画像処理装置、車載装置、移動体、システム - Google Patents

画像処理方法、画像処理装置、車載装置、移動体、システム Download PDF

Info

Publication number
JP7176406B2
JP7176406B2 JP2018243505A JP2018243505A JP7176406B2 JP 7176406 B2 JP7176406 B2 JP 7176406B2 JP 2018243505 A JP2018243505 A JP 2018243505A JP 2018243505 A JP2018243505 A JP 2018243505A JP 7176406 B2 JP7176406 B2 JP 7176406B2
Authority
JP
Japan
Prior art keywords
distance
evaluation value
image
matching
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018243505A
Other languages
English (en)
Other versions
JP2019128350A (ja
Inventor
洋義 関口
聡一郎 横田
賢一郎 齊所
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to EP19152873.6A priority Critical patent/EP3514759B1/en
Priority to US16/253,839 priority patent/US10891751B2/en
Publication of JP2019128350A publication Critical patent/JP2019128350A/ja
Application granted granted Critical
Publication of JP7176406B2 publication Critical patent/JP7176406B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は、測距方法、測距装置、車載装置、移動体、及びシステムに関する。
従来からステレオカメラにおいて視差値を画素ごとに計算する視差計算アルゴリズムとして、特徴点のブロックマッチング方式や、SGM(Semi-Global-Matching)伝播方式などが知られている。これらの方式は、左右の画像の特徴点が探索される際の視差ごとにコストを算出する方式であり、探索視差空間においてコスト最小を与える視差値を整数視差として得て、所定の算出方法で推定されたサブピクセル視差を含む視差dを算出し、視差dと距離Zの対応式(Z=BF/d)により各画素に対応する距離を計算する。いわば視差空間にコストを投票する方式と言える(Bはカメラ間距離、Fは焦点距離)。
これらの従来型の視差空間コスト投票方式では、整数視差が小さい(すなわち距離Zが大きい)遠方領域では、距離分解能を確保することが難しいことが知られている。このため、遠方領域では視差計算結果のばらつき(分散)が大きく、測距値のばらつきも大きくなる傾向がある。
しかしながら、例えば測距システムが車載されることを考慮すると、自動運転に代表されるように遠方での測距性能が要求される傾向が高まっている。そこで、空間分解能は低いが距離分解能は高いLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)を用いて、ステレオカメラ(空間分解能は高いが遠方距離分解能が低い)とLIDARの測定結果を統合(これをフュージョンと呼ぶ場合がある)する試みが知られている。統合によりステレオカメラとLIDARのそれぞれの測定原理の限界を超えるセンサを開発できる。すなわち、遠方でも測距値分散が小さくかつ高分解能な距離画像を出力できる可能性があり、例えば、従来よりも、高分解能な測距、物体測距値の低分散化、不連続面の分離、及び、環境ロバスト性の向上等が可能になることが期待される。
LIDARとステレオカメラの測定結果の統合としてステレオカメラの距離画像にLIDARの距離情報を関連付ける方式がある(例えば、特許文献1参照。)。特許文献1には、テクスチャの少ない画像領域の視差画像の濃度をLIDARの距離情報を使って増加させるフュージョン方法が開示されている。
しかしながら、特許文献1に開示された技術では、それぞれの測距方式の利点を活かして統合しているとは言えないおそれがあるという問題がある。従来は、ステレオカメラがブロックマッチング等で距離画像を出力した後に、LIDARが測定する距離情報を後発的に追加する統合方法が一般的であった。この統合方法では、遠方を撮像したステレオカメラの距離画像にそもそも多くの誤差が含まれているため、LIDARの距離情報を加えても精度の向上に限界があった。
すなわち、空間分解能は低いが距離分解能は高いLIDARと空間分解能は高いが遠方距離分解能が低いステレオカメラとの統合が十分でなく、互いの利点を活かしているとまではいえない可能性がある。
本発明は、上記課題に鑑み、それぞれの測距方式の利点を従来よりも活かして統合できる測距方法を提供することを目的とする。
上記課題に鑑み、本発明は、対象物との距離を測定するための距離画像を生成する画像処理方法であって、測距部が、対象物との距離情報を検出するステップと、ステレオ画像のマッチング評価値を含む画素のうち、前記測距部により前記距離情報が検出された前記対象物が対象物との距離を測定するための距離画像を生成する画像処理方法であって、測距部が、対象物との距離情報を検出するステップと、ステレオ画像のマッチング評価値を含む画素のうち、前記測距部により前記距離情報が検出された前記対象物が存在する位置に対応する画素のマッチング評価値に、画像処理部が、前記測距部が検出した前記距離情報を統合処理して前記距離画像を生成するステップと、を有し、前記画像処理部は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行い、前記ステレオ画像をマッチングする際の画素の各シフト量に対しそれぞれマッチングコストを算出し、各シフト量を距離に変換して、前記測距部による電磁波の照射方向により特定される画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に前記距離情報に関する距離評価値を統合し、前記距離評価値は、前記測距部による電磁波の照射方向により特定される画素で最も小さく、該画素から離れるほど大きくなる第一の評価値であることを特徴とする。


少なくとも遠方領域の距離精度が向上した測距方法を提供することができる。
LIDARとステレオカメラの測距性能について説明する図の一例である。 距離分解能と空間分解能を説明する図の一例である。 一般的な視差空間を用いた場合に得られる距離Zを説明する図の一例である。 LIDARの距離情報とステレオカメラの距離画像の従来の統合方法を説明する図の一例である。 本実施形態におけるLIDARの距離情報とステレオカメラの距離画像の統合方法を説明する図の一例である。 移動体の一例である自動車に搭載された測距システムを示す図の一例である。 レーザレーダ測距部とステレオ画像演算部が別々に構成された測距システムの一例を示す図である。 レーザレーダ測距部によるレーザ光の照射範囲について説明する図の一例である。 ステレオ画像演算部によるステレオ画像の撮像範囲を説明するための図である。 単眼カメラからステレオ画像を生成する方法を説明する図の一例である。 レーザレーダ測距部によるレーザ光の照射位置とステレオ画像演算部により撮像されたステレオ画像(基準画像)の画素位置との関係について説明する図の一例である。 レーザレーダ測距部の機能構成図の一例である。 ステレオ画像演算部の機能をブロック状に示す機能ブロック図の一例である。 右カメラにより撮像された基準画像と、左カメラにより撮像された比較画像における、注目している画素p=(Px3,Py5)のコストとして、SADを算出する例を示した図である。 ある注目画素の視差ごとのコストC(p,d)の一例を示す図である。 SGM伝播方式を用いて伝播コストLrを算出する処理を模式的に示した図である。 測距システムの動作手順を説明するフローチャート図の一例である。 ステレオマッチングコストCST(p,Z)の一例を示す図である。 LIDARコストCLI(p,Z)の一例を示す図である。 LIDARコストCLI(p,Z)を補足して説明するための図の一例である。 ステレオマッチングコストCST(p,Z)へのLIDARコストCLI(p、Z)の投票を説明する図の一例である。 物体面の画素数を説明する図の一例である。 レーザの分解能による距離Zでの画素数xL、yLの算出を説明する図の一例である。 物体面が照射面を包含する距離を説明する図の一例である。 遠距離の場合と近距離の場合のそれぞれで照射面と物体面の関係を説明する図である。 エネルギーコストS(p,Z)の算出方法を説明する図の一例である。 エネルギーコストS(p,Z)の算出方法を模式的に示す図である。 エネルギーコストS(p,Z)が最小となる距離の算出方法を説明する図の一例である。 マルチパルスの処理を説明する図の一例である。 送信波、受信波、及び、反射波のモデルを示す図である。 送信波と受信波の周波数を模式的に示す図である。 FMCW方式の送信波と受信波の波形とうなり信号の波形を示す図の一例である。 物体の方向を説明する図である。 状況を説明するための基準画像を示す図である。 俯瞰マップの比較例を示す図である。 俯瞰マップの作成方法を説明する図の一例である。 状況を説明するための基準画像を示す図である。 俯瞰マップの比較例を示す図である。 ヘッドライトが撮像された夜間の基準画像を示す図である。 俯瞰マップの比較例を示す図である。 状況を説明するための基準画像を示す図である。 SGM伝播方式で生じる膨張の抑制結果を説明する図である。 LIDARコストCLI(p,Z)の距離成分コストCLD(p,Z)を模式的に表す図の一例である。 空間成分のLIDARコストCLI(p,Z)と距離成分コストCLD(p,Z)がどのようにステレオマッチングコストCST(p,Z)に統合されるかを説明する図の一例である。 レーザレーダ測距部又はステレオ画像演算部に異常がある場合の、ECUの制御例を示すフローチャート図の一例である。 レーザレーダ測距部又はステレオ画像演算部に異常が生じた場合の表示例を示す図である。 画像データとレーザ光の照射位置を模式的に示す図である。 距離情報に対応付けられた受光レベルとステレオマッチングコストCST(p,Z)の統合例を説明する図の一例である。 距離画像提供システムの概略構成図の一例である。 距離画像提供システムの機能ブロック図の一例である。
以下、本発明を実施するための形態の一例として測距システム及び測距システムが行う画像処理方法について説明する。
<LIDARとステレオカメラの測距性能>
まず、図1を用いてLIDARとステレオカメラの測距性能について説明する。図1(a)は距離Zと距離分解能の関係をLIDARとステレオカメラを比較して示す。なお、距離分解能は、値が小さい方が、性能が高い。図示するように、LIDARは距離Zが大きくてもほぼ一定の距離分解能を示すが、ステレオカメラは距離Zが大きくなると急激に距離分解能も大きくなる。したがって、ステレオカメラの測距精度は遠方領域で大きく低下する。
図1(b)はLIDARにおける距離Zと空間分解能の関係を示す。なお、空間分解能も値が小さい方が、性能が高い。図1(b)では、0.1度、0.2度、0.3度、0.4度、0.5度、0.6度の照射間隔(照射分解能)ごとに空間分解能を示すが、いずれも距離Zが大きくなると増大してしまう。
これに対し、図1(c)はステレオカメラにおける距離Zと空間分解能の関係を示す。ステレオカメラでは画素ごとに空間を分解できるため空間分解能が高く、距離Zに対してもそれほど大きくは増大しない。
以上から、以下のような改善点が抽出される。
・ステレオカメラの測距精度:遠方ほど距離分解能が粗くなるため、遠方測距や遠方物体検出が難しい。
・ステレオカメラの耐物標性:繰返しパタンや低テクスチャでの誤マッチングが発生し、分散(ばらつき)の大きい距離値が多く発生する。
・ステレオカメラの耐環境性:夜間になると距離算出が困難になる。
・LIDAR:空間分解能が低い。
本実施形態の測距システム100は、これらの改善点を改善する。また、後述するようにステレオカメラの画像データに対しSGM(Semi-Global-Matching)伝播方式いうアルゴリズムで距離画像を求められると、物体の境界が失われたり物体領域が膨張したりするという課題がある。本実施形態ではこのSGM伝播方式で生じやすい物体の境界の消失と境界の膨張を抑制することも可能になる。
<用語について>
対応点を探す事をマッチングといい、そのマッチングの度合いをコストという。コストはマッチングの度合いの「評価値」であり、「非類似度」や「類似度」とも表現される。非類似度が低ければより一致している事を示し、類似度が高ければより一致している事を示す指標である。「非類似度」「類似度」を合わせて「一致度」とも表現することもある。
分解能について図2を用いて説明する。図2は距離分解能と空間分解能を説明する図である。距離分解能とは物体までの距離の違いを識別できる能力である。Z方向の距離分解能が例えば10cmの場合、原点から12cmにある物体と21cmにある物体(9cmしか違いがない)を識別できず同じ物体(同じ距離)と判断される。
空間分解能とは二次元の任意の方向の距離の違いを識別する能力である。X,Y平面において例えば空間分解能が5cmの場合、距離が4cmしか離れていない2つの物体を識別できず同じ物体と判断される。空間分解能を角度分解能と称してもよい。
測距方向は物体までの距離を測定した方向であり、物体の方向である。測距方向により特定される画素は、該画素の他、周囲の画素を含む。
距離情報に関する距離評価値は、電磁波の照射方向により特定される画素と周囲の画素について電磁波などで検出された距離の不確かさに応じて設定される評価値である。本実施形態ではLIDARコストCLI(p,Z)という用語で説明される。マッチング評価値はブロックマッチングにおけるマッチングの度合いである。本実施形態ではステレオマッチングコストCST(p,Z)という用語で説明される。
<本実施形態の測距システムの概略>
図3は、一般的な視差空間を用いた場合に得られる距離Zを説明する図の一例である。図3(a)はブロックマッチング及びSGM伝播方式により得られる、シフト量を横軸にしてコストC(p,d)と伝播コストLr(p,Z)を示す。図3(a)では探索範囲を64画素とする。pは注目画素、dは基準画像と比較画像のシフト量(探索視差)である。64画素の探索範囲で最も小さいコストC(p、d)又は伝播コストLr(p,Z)が注目している画素pの視差(整数視差)として採用される。
図3(b)はZ空間におけるコストC(p,d)又は伝播コストLr(p,Z)を示す。図3(a)の視差dから式(1)により距離Zが求められる。
Z=BF/d …(1)
なお、Bはステレオカメラにおける左右のカメラの光軸間距離、Fは左右のカメラの焦点距離である。図3(b)に示すように、Z空間では、コストC(p,d)又は伝播コストLr(p,Z)が得られる距離Zに疎密が生じる。これは距離Zを算出する式(1)の分母にdが含まれているため、距離Zがdに反比例し、dが0に近いと距離Zが大きく変化するためである。
したがって、一般的なブロックマッチングは遠距離側で粗いコスト伝播をしているのと同義になり、遠距離で高精度を得ることが困難になる。
図4はLIDAR9の距離情報とステレオカメラ8の距離画像の従来の統合方法を説明する図の一例である。従来は、ステレオカメラ8がブロックマッチング等で距離画像を出力した後に、LIDAR9が測定する距離情報を後発的に追加する統合方法が一般的であった。この統合方法では、図3で説明したようにステレオカメラ8の距離画像にそもそも多くの誤差が含まれているため、LIDARの距離情報を加えても精度の向上に限界があった。
そこで、本実施形態では、図5に示すようにステレオカメラ8がブロックマッチング等で距離画像を出力する前にLIDAR9が測定した距離情報を統合させる。図5(a)は本実施形態におけるLIDAR9の距離情報とステレオカメラ8の距離画像の統合方法を説明する図の一例である。ステレオカメラ8は距離画像を出力する前にLIDAR9が出力する距離情報をコストC(p,d)に統合させる。
そして、図5(b)に示すように、この統合の際、ステレオカメラ8はZ空間でコストC(p,Z)を演算する。図5(b)はZ空間におけるコストC(p,Z)及び伝播コストLr(p,Z)の一例を示す。疎密の少ないZ空間を予め用意しておき、このZ空間でステレオカメラ8が算出したコストC(p,Z)のうち距離ZにLIDARのコストを投票し、SGM伝播方式等によるコストの伝播もZ空間で行うことで、Z空間においてコストが最小の距離Zを特定でき、距離分解能が高い距離画像が得られる。また、距離画像はもともと空間分解能が高いため、高密度かつ高分解能な距離画像が得られる。
このように、本実施形態の測距システムは、ステレオカメラがブロックマッチング等で距離画像を出力する前に、Z空間でLIDARが測定した距離情報を統合させることで高密度かつ高分解能な距離画像を実現できる。
<測距システムの適用例>
図6を用いて、測距システム100の適用例について説明する。図6は、移動体の一例である移動体200に搭載された測距システム100を示す図である。図6では、移動体200のフロントウィンドウの内側中央位置に、測距システム100が設定されている。測距システム100は、レーザレーダ測距部110とステレオ画像演算部120とを有する。レーザレーダ測距部110とステレオ画像演算部120はいずれも前方が測距範囲となるように設置されている。レーザレーダ測距部110は、ステレオ画像演算部120が有するステレオカメラ(2つの撮像部又は撮像手段)の間(好ましくは中央)に配置されるものとする。
なお、レーザレーダは上記のLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)と呼ばれる場合がある。本実施形態では特に断らない限り両者を区別しない。レーザレーダ又はLIDARは、レーザーダイオードを使って可視スペクトル外の光のパルスを発射し、そのパルスが戻ってくる時間を計測することで距離を算出する。ある瞬間のパルスが反射した方向と距離を、レーザレーダ測距部110を中心とした3D地図の中の点として記録する。
また、図6では、レーザレーダ測距部110とステレオ画像演算部120が一体的に構成された測距システム100を示したが、レーザレーダ測距部110とステレオ画像演算部120は別体に構成されてもよい。
図7は、レーザレーダ測距部110とステレオ画像演算部120が別体に構成された測距システム100の一例を示す。図7では、レーザレーダ測距部110が例えばフロントグリルの内側に搭載され、ステレオ画像演算部120が車室内側の前方(例えばルームミラーの裏側近く)に配置されている。本実施形態では、レーザレーダ測距部110から出力される距離情報が、ステレオ画像演算部120の距離情報と統合されればよく、図6,図7に示す形状や構成に限られない。
<レーザレーダ測距部のレーザの照射範囲>
図8は、レーザレーダ測距部110によるレーザ光の照射範囲について説明する図の一例である。図8(a)は、移動体200を上方から見た上面図であり、図8(b)は、移動体200を側方から見た側面図である。
図8(a)に示すように、レーザレーダ測距部110は、移動体200の進行方向の前方の所定範囲を水平方向に走査しながらレーザ光を照射する。なお、レーザ光は光と捉えてもよいし電磁波と捉えてもよい。
また、図8(b)に示すように、レーザレーダ測距部110は、移動体200の進行方向の前方の所定範囲に向かってレーザ光を照射する。どの程度遠方までレーザが到達するかはレーザレーダ測距部110の出力によるが数百メートル程度の範囲で測距可能である。近い側の検出範囲は1メートル未満から検出可能であるが、通常、これほどの近距離領域では測距の必要性が低いため適宜、距離を検出する範囲が設定されていてよい。
レーザレーダ測距部110は、レーザ光の照射方向を、仰角方向に回転させながら水平方向に走査させることができるよう構成されている。これにより、レーザレーダ測距部110の設置位置を基準として、近傍から遠方までの照射範囲を照射することができる。
<ステレオ画像演算部の撮像範囲>
図9は、ステレオ画像演算部120によるステレオ画像の撮像範囲を説明するための図である。ステレオ画像とは基準画像と比較画像の両方をいう。図9(a)は、移動体200の上面図である。ステレオ画像演算部120は、2つの撮像装置(カメラ)が移動体200の進行方向の前方に光軸を向けて設置されており、進行方向の所定範囲の画像を撮像する。レーザ光の照射範囲とステレオカメラの撮像範囲は少なくとも一部が重複している。
図9(b-1)と図9(b-2)は、ステレオカメラにより撮像された基準画像(右カメラの画像データ)と比較画像(左カメラの画像データ)を示す。右カメラ11と左カメラ12は互いに、所定の間隔を介して水平に設置されている。このため、基準画像と比較画像は重複部分を有するが、撮像画像内のオブジェクトの位置が、左右方向にずれることになる。
ステレオ画像演算部120は、基準画像と比較画像の各オブジェクトのずれ量(これが視差となる)を算出することで、距離画像を生成し出力する。ステレオ画像演算部120はステレオ画像の画素に距離情報の対応付けも行う。
また、右カメラ11と左カメラ12のいずれかを省略して、単眼カメラによりステレオ画像を取得してもよい。図10を用いて単眼カメラからステレオ画像を生成する方法を説明する。
図10(a)に示すようにステレオ画像演算部120は右カメラ11と左カメラ12を有している。まず、大量の基準画像と比較画像を用意し、深層学習(ディープラーニング)により基準画像から比較画像を学習させるか、又は、比較画像から基準画像を学習させる。以下では、基準画像から比較画像を学習させるものとして説明する。
DNN(Deep Neural Network)121の入力層に基準画像の各画素値が入力される。中間層は1つ以上の畳み込み層、1つ以上のプーリング層、ニューラルネットワーク、及び、encoder decoder networkが組み合わせて構築される。中間層は二次元フィルタの係数として表される。出力層は推定される比較画像の各画素値を出力する。出力層が出力する画素値と実際の比較画像の画素値の差を誤差逆伝播法で二次元フィルタの係数に反映させる(学習する)。十分な数の基準画像と比較画像で二次元フィルタの係数を調整することがDNN121の学習に相当する。なお、二次元フィルタの初期値はオートエンコーダで学習するとよい。
図10(b)は学習後に車載される単眼カメラ演算部122とDNN121の一例を示す。車載された段階では、単眼カメラ演算部122が基準画像のみを出力する。DNN121は比較画像を出力する出力器となる。基準画像はDNN121に入力され、推定された比較画像を出力する。このようにして得られる比較画像は、左カメラ12で撮像された比較画像と違いがあるものの、距離画像を生成することができる品質であることが実際に確認されている。単眼カメラ演算部122は基準画像と推定された比較画像でブロックマッチングを行う。
したがって、本実施形態では右カメラ11と左カメラ12のいずれか一方があればよく、ステレオカメラが搭載されることは必須でない。換言すれば、ステレオ画像が必須要件であり、ステレオ画像を生成する手段は限定されない。
<レーザ光の照射位置とステレオ画像の画素位置との関係>
次に、図11を用いて、レーザレーダ測距部110によるレーザ光の照射位置とステレオ画像演算部120により撮像されたステレオ画像(基準画像)の画素位置との関係について説明する。図11(a)は、レーザ光の照射位置とステレオ画像(基準画像)の画素位置との関係を説明する図の一例である。
レーザレーダ測距部110によるレーザの照射方向と、基準画像の画素位置は予め対応付けておくことができる。図11(a)では側方から見た2つのオブジェクトO1、O2が示されており、図11(b)はオブジェクトO1、O2が撮像された基準画像の一例である。オブジェクトO2,O1はレーザレーダ測距部110と右カメラ11の光軸に対し直線上にあるため、重なって撮像される。
オブジェクトO2の高さh2がオブジェクトO1の高さh1のちょうど2倍で、オブジェクトO2の移動体200からの距離L2がオブジェクトO1の移動体200からの距離L1のちょうど2倍であるとする(図では作図の関係でほぼ2倍となる)。オブジェクトO1とO2のサイズと距離が比例関係にあるため、画像データにはオブジェクトO1とO2が同じサイズで写り、また、オブジェクトO1とO2と移動体200の位置関係から重なって写る。したがって、レーザ光がオブジェクトO1とO2の上端を通過した場合、レーザ光はステレオ画像演算部120により撮像された基準画像のオブジェクトO1、O2の上端に写るはずである(可視光でないため実際には写らない)。このようにオブジェクトまでの距離に関係なく、レーザ光の照射方向と、基準画像の画素位置は1対1に対応するので、両者を予め対応付けておくことができる。
図11(c)は、基準画像の画素P1~P4に対応する距離情報を示す。例えば、P1(x1,y1)の画素は水平方向θ1、仰角φ1の照射方向と対応し、P2(x2,y2)の画素は水平方向θ2、仰角φ2の照射方向と対応し、P3(x3,y3)の画素は水平方向θ3、仰角φ3の照射方向と対応し、P4(x4,y4)の画素は水平方向θ4、仰角φ4の照射方向と対応する。
このため、レーザレーダ測距部110から照射方向と距離情報が出力されると、ステレオ画像演算部120は測定された距離情報を画素に関連付けることができる。
<レーザレーダ測距部の機能構成>
次に、図12は、レーザレーダ測距部110の機能構成図の一例である。レーザレーダ測距部110は信号処理部601、仰角方向スキャンドライブユニット602、モータ603、仰角方向スキャンミラー604、レーザ受光部605、信号増幅器606、時間間隔カウンタ607、レーザ出力部608、及び、レーザドライバ609を有する。
信号処理部601からの指示に基づいて、仰角方向スキャンドライブユニット602が、仰角方向スキャンミラー604を仰角方向に回転させるためのモータ603を駆動する。これにより、仰角方向スキャンミラー604は、仰角方向に回転する。
また、信号処理部601からの指示に基づいて、レーザドライバ609が駆動し、レーザ出力部608からレーザ光が出力される。このとき、レーザ光の出力タイミングは、時間間隔カウンタ607に一時的に保持される。レーザ出力部608から出力されたレーザ光は、仰角方向スキャンミラー604を介して、外部に出力されるため、所定の照射範囲を照射することになる。
外部に出力されたレーザ光は、照射方向の物体(対象物)で反射し、その反射光が仰角方向スキャンミラー604を介して、レーザ受光部605において受光される。レーザ受光部605は、垂直方向に配列された複数のフォトディテクタ(PD:Photo Detector)を有しており、レーザ光はいずれかのフォトディテクタで受光され電気信号に変換される。
変換された電気信号は、信号増幅器606において増幅され、時間間隔カウンタ607に入力される。時間間隔カウンタ607では、レーザ出力部608より出力されたレーザ光の出力タイミングと、レーザ受光部605において受光された反射光の受光タイミングとに基づいて、時間間隔を算出する。
時間間隔カウンタ607において算出された時間間隔は、信号処理部601において距離情報に変換され、照射方向を示す情報と共に、ステレオ画像演算部120に出力される。
また、信号処理部601は異常監視部601aを有している。異常監視部601aはレーザレーダ測距部110に生じる異常を監視する。例えば、時間間隔カウンタ607が検出する時間間隔、又は、信号処理部601が検出した距離情報が変化しない時間が一定時間以上継続した場合に異常があると判断する。この他、距離情報が仕様外の値を取ることが一定時間以上継続した場合、又は、信号処理部601が規定値以上の温度に達した場合、などに異常を検出してもよい。レーザレーダ測距部110は異常がある旨をステレオ画像演算部120に通知する。
ステレオ画像演算部120はレーザレーダ測距部110自体の異常を監視する。例えば、レーザレーダ測距部110が無応答であること、通信できないこと、レーザレーダ測距部110から所定の電圧が入ってこないこと(電源オフ)、などを検出する。
<ステレオ画像演算部の機能構成>
図13は、測距システム100の構成図を示す。また、図13ではステレオ画像演算部120の機能をブロック状に示している。測距システム100は測距する装置であるため測距装置ということができる。この他、距離測定装置、測距部などと呼ばれてもよい。
図13に示すように、ステレオ画像演算部120は、右カメラ11と、左カメラ12、歪み補正部13、及び、距離演算部14を有する。右カメラ11及び左カメラ12によりステレオカメラが形成されている。なお、本実施形態において、右カメラ11により撮像される撮像画像を基準画像として用い、左カメラ12により撮像される撮像画像を比較画像として用いる。
歪み補正部13、及び、距離演算部14は専用の電子回路を用いて実現してもよいし、各部を実現するためのプログラムがCPU(コンピュータ)によって実行されることで実現されてもよい。したがって、ステレオ画像演算部120は情報処理装置の機能を有する。また、画像を処理するという点から画像処理装置でもある。
歪み補正部13は、基準画像と比較画像に一般的な歪み補正を行う。この画像補正により、基準画像と比較画像は視差以外の差異が生じないように補正される。画像補正は事前のキャリブレーションにより可能になる。左カメラ12と右カメラ11は設置される際に、例えば、校正用の被写体(例えば市松模様のチャート)を撮像する。2つの画像を比較して、カメラのレンズ歪み、光軸ずれ、焦点距離ずれ及び撮像素子歪み等のハード的な内部誤差要因が最小になるように画像データを変換する幾何変換用のLUT(Look Up Table)が生成されている。歪み補正部13はこのようなLUTを参照して画像補正を行う。
距離演算部14は基準画像と比較画像にブロックマッチングやSGM伝播方式などのアルゴリズムを適用して視差を算出する。また、詳細は後述するが距離演算部14は、距離画像を出力する前にレーザレーダ測距部110が出力する距離情報で特定されるステレオマッチングコストCST(p,Z)の距離Zに、LIDARコストCLI(p,Z)を統合する。距離演算部14が行う統合に関する処理を統合処理という。ステレオマッチングコストCST(p,Z)はマッチング評価値の一例であり、LIDARコストCLI(p,Z)は距離評価値の一例である。
また、距離演算部14は異常監視部14aを有している。この異常監視部14aはステレオ画像演算部120に生じる異常を監視する。例えば、基準画像又は比較画像の画素値が変化しない時間が一定時間以上継続した場合に異常があると判断する。この他、画素値が仕様外の値を取ることが一定時間以上継続した場合、又は、距離演算部14が規定値以上の温度に達した場合、などに異常を検出してもよい。ステレオ画像演算部120は異常がある旨をECU20に通知する。なお、ステレオ画像演算部120はレーザレーダ測距部110から異常がある旨を受信した場合、又は、検出した場合もECU20に通知する。
ECU20はステレオ画像演算部120自体の異常を監視する。例えば、ステレオ画像演算部120が無応答であること、通信できないこと、ステレオ画像演算部120から所定の電圧が入ってこないこと(電源オフ)、などを検出する。
図13では一例として、距離画像と基準画像がECU20(Electronic Control Unit:電子制御ユニット)に送出されている。ECU20は移動体の電子制御ユニットである。なお、車載された測距システム100を車載装置という。ECU20は、測距システム100が出力する距離画像と基準画像を用いて各種の運転支援を行う。基準画像については種々のパターンマッチングを行い先行車、歩行者、白線、信号機の状態の認識等を行う。
運転支援は移動体によって様々であるが、例えば、対象物の横位置が自分である移動体の車幅と重なる場合、距離と相対速度から算出されるTTC(Time To Collision)に応じて警報や制動などを行う。また、衝突までの停止が困難な場合、衝突を回避する方向にステアリングを操舵する。
また、ECU20は、車速に応じた車間距離で先行車に追従走行する全車速車間距離制御を行う。先行車が停車したら移動体も停車させ、先行車が発進したら移動体も発進する。また、ECU20が白線認識などを行う場合、走行レーンの中央を走行するように操舵するレーンキーピング制御や走行レーンから逸脱するおそれがあると走行方向を走行レーンに向けて変更する逸脱防止制御等を行うことができる。
また、停車時に進行方向に障害物がある場合、急発進を抑制することができる。例えば、シフトレバーの操作位置により判断される進行方向に障害物があり、かつ、アクセルペダルの操作量が大きい場合、エンジン出力を制限したり警告したりすることで被害を軽減する。
ECU20には表示装置21が接続されている。表示装置21は、センターコンソールやダッシュボードなどに配置されたフラットパネルディスプレイ(液晶や有機ELなど)、又は、メータパネルに内蔵されたフラットパネルディスプレイなどである。あるいは、HUD(Head Up Display)でもよい。ECU20は、レーザレーダ測距部110又はステレオ画像演算部120に異常が生じた旨を表示装置21に表示する。表示例については実施例3にて説明する。
なお、図13の構成は一例にすぎず、レーザレーダ測距部110とステレオ画像演算部120が一体に構成されていてもよい。また、ECU20がステレオ画像演算部120の機能を有していてもよい。
<ブロックマッチングによる整数視差の演算>
図14を用いてブロックマッチングによる整数視差の演算について説明する。図14は、右カメラ11により撮像された基準画像420と、左カメラ12により撮像された比較画像410における、注目している画素p=(Px3,Py5)のコストとして、SAD(Sum of Absolute Difference)を算出する例を示した図である。なお、SADの計算式を(数1)に示す。
基準画像420と比較画像410では、撮像位置が異なるため、撮像画像上の同じ位置の注目している画素p=(Px3,Py5)であっても、同じオブジェクトを指し示すことはなく、左右方向にずれた位置を指し示すことになる。このため、ブロックサイズを1×1画素とした場合のSADである、基準画像420上の注目している画素p=(Px3,Py5)の輝度値と、比較画像410上の注目している画素p=(Px3,Py5)の輝度値との差分値は、大きな値となる。
ここで、比較画像410上の注目している画素pを1画素分、右方向にシフトさせる。つまり、視差d=1としたときのSADを算出する。具体的には、比較画像410上の注目している画素p=(Px3+1,Py5)の輝度値と、基準画像420上の注目している画素p=(Px3,Py5)の輝度値との差分値を算出する。なお、図14の例では、d=1の場合も、SADは大きな値となる。
以下、同様に、d=2、3、・・・と変化させていき、それぞれにおいてSADを算出する。図14の例では、d=3の場合に、基準画像420の注目している画素p=(Px3,Py5)が指し示すオブジェクトと比較画像410の注目している画素p=(Px3+3,Py5)が指し示すオブジェクトとが同じとなる。このため、d=3とした場合のSADは、d=3とした場合以外のSADと比べて小さくなる。
図15(a)は、ある注目している画素pの視差ごとのSADの一例を示す。SADがコストC(p,d)の一例となる。この注目している画素pではd=3において、SADが最小なため、視差dは3であると算出される。
図15(b)は、別の注目している画素pの視差ごとのSADの一例を示す。図15(b)では視差dの変化に対するSADの変化が小さいため、距離演算部14が視差を抽出することができない。このように、ブロックマッチングだけでは、視差を特定することができない画素が生じえるため、距離演算部14は、視差を顕在化させるためにエネルギ計算処理(SGM伝播方式)を行う。
なお、図15のように視差ごとのSAD(コストC(p,d))が算出されたら、小数視差を求めることが好適である。小数視差を求める方法として高次多項式推定(6次)、高次多項式推定(4次)、又はパラボラフィッティング等を使用する算出方法がある。
Figure 0007176406000001
SADは、上記のように、輝度値の差の絶対値を計算しその和を相関値とする演算である。画素ブロックが類似するほど値が小さくなる。
また、ブロックマッチングではSAD以外に、SSD(Sum of Squared Difference)、NCC(Normalized Cross Correlation)、ZNCC(Zero means Normalized Cross Correlation)などの演算方法を採用してよい。
Figure 0007176406000002
SSDは輝度値の差の二乗を計算し、その和を相関値とする演算である。画素ブロックが類似するほど値が小さくなる。
Figure 0007176406000003
NCCは分子で,輝度値の内積を計算する。似た輝度値であれば内積の値が大きくなる。分母は分子の数値を正規化するための数値であり、画素ブロックが類似するほど値が大きくなる。NCCは最大で1,最小で0の値を取る。NCCは正規化相互相関ともいう。
Figure 0007176406000004
ZNCCは平均値を引いた後の正規化相互相関である。周波数的に考えると直流成分を取り除くことに相当し、明るさに違いのある画像の比較に有効である。なお、Mは水平方向の画素数、Nは垂直方向の画素数である。
この他、ZSAD(Zero means Sun of Absolute Difference)又はZSSD(Zero means Sum of Squared Difference)を用いてもよい。ZSADは平均値を引いた後のSADであり、ZSSDは平均値を引いた後のSSDである。
<SGM伝播方式>
距離演算部14は、SGM伝播方式と称されるアルゴリズムを用いて、伝播コストLrを算出し、当該伝播コストLrを用いて注目している画素pのエネルギーコストS(p,d)を算出するエネルギ計算処理を行う。なお、SGM伝播方式はデンスアルゴリズムの一形態である。
まず、SGM伝播方式を用いて伝播コストLrを算出する処理について説明する。図16は、SGM伝播方式を用いて伝播コストLrを算出する処理を模式的に示した図である。
図16の例では、注目している画素pである画素1100に対して、4方向の伝播コストLrを求める場合を示している。具体的には、画素1100に対して、矢印1111方向の伝播コストL1と、矢印1112方向の伝播コストL2と、矢印1113方向の伝播コストL3と、矢印1114方向の伝播コストL4とを求める場合を示している。なお、画素1100に対して求める伝播コストの方向(r)は、4方向に限定されるものではなく、例えば、8方向であっても、あるいは2方向であってもよい。
図16に示すように、矢印1111方向の伝播コストL1は、下式により求めることができる。
Figure 0007176406000005
…(2)
ただし、pは画素1100の座標を、dは視差を表している。このように、伝播コストL1(p,d)は、画素1100のコストC(p,d)と、画素1100の左側1画素に位置する画素の各視差(d-1~d+1)での伝播コストとによって算出することができる。つまり、矢印1111方向の伝播コストは、左方向から右方向へと順次、伝播コストが算出されていくことになる。なお、左方向から右方向へと伝播コストを伝播させていく際の伝播間隔は、1画素に限定されるものではない。つまり、画素1100の左側a画素に位置する画素の各視差での伝播コストを用いて、伝播コストL1(p,d)を算出するように構成してもよい。
同様に、矢印1112方向の伝播コストL2は、上方向から下方向へと順次算出されていくことになる。また、矢印1113方向の伝播コストL3は、右方向から左方向へと順次算出され、矢印1114方向の伝播コストL4は、下方向から上方向へと順次算出されていくことになる。
つづいて、エネルギ計算処理のうち、当該伝播コストLrを用いて注目している画素pのエネルギーコストS(p,d)を算出する処理について説明する。
上記のようにして、各画素について算出された各方向からの伝播コストに基づいて、各画素のエネルギーコストS(p,d)が下式により算出される。
Figure 0007176406000006
…(3)
したがって、図16の例では、S(p,d)=L1(p,d)+L2(p,d)+L3(p,d)+L4(p,d)により算出することができる。
<本実施形態における距離の算出方法>
続いて、図17を参照して本実施形態の測距システム100が画素ごとの距離値の算出手順を説明する。図17は、測距システム100の動作手順を説明するフローチャート図の一例である。
(ステップS1~S4)
ステップS1に示すように、レーザレーダ測距部110が距離情報を取得する。これと並行してステレオ画像演算部120の右カメラ11が基準画像を、左カメラ12が比較画像を撮像する(S2)。歪み補正部13は視差以外の相違がなくなるようにそれぞれに歪み補正を行う(S3)。次に、ステレオ画像演算部120がステレオマッチングコストCST(p、Z)を算出する(S4)。
なお、ステップS1~S4は同期して行われてもよいが、ステレオ画像演算部120はレーザレーダ測距部110の最新の距離情報を用いることにして非同期に行われてもよい。
図18は、ステレオマッチングコストCST(p,Z)の一例を示す図である。すなわち、ステレオマッチングで得た視差空間のコストがZ空間のステレオマッチングコストCST(p,Z)に変換されている。このため、Z空間の等間隔にステレオマッチングコストCST(p,Z)が得られない。そこで、距離演算部14はステレオマッチングで得たコストを補間する。図18では丸がステレオマッチングで得たコストであり、四角形が補間で得たコストである。補間方法は、曲線近似に適した方法であればよく、例えば放物線fitting、高次多項式、スプライン曲線などを適用できる。図18では、補間により例えば0.5メートルごとにステレオマッチングコストCST(p,Z)が算出されている。なお、図18のoffsetは距離Zを0.5メートルごとに求めるための端数である。
(ステップS5)
次に、距離演算部14は、ステレオマッチングコストCST(p,Z)とLIDARコストCLI(p,Z)を統合して、コストC(p,Z)を算出する。式では以下のように表すことができる。
C(p,Z)=EST×CST(p,Z)+ELI×CLI(p,Z) …(4)
EST:ステレオマッチングコストの係数(重み)
ELI:LIDARコストの係数(重み)
まず、図19,図20に基づいて、LIDARコストCLI(p,Z)を説明する。図19はLIDARコストCLI(p,Z)の一例を示す図であり、図20はLIDARコストCLI(p,Z)を補足して説明するための図である。また、式(5)はLIDARコストCLI(p,Z)の一例を示す。
Figure 0007176406000007
…(5)
:レーザの照射方向に対応する画素
p :rを含むrの周囲の画素
σ :LIDARコストCLI(p,Z)の広がりを定めるパラメータ
A :LIDARコストCLI(p,Z)の深さを定めるパラメータ(0~1)
本願の発明者は、距離画像の出力前にレーザレーダ測距部110の距離情報をステレオマッチングコストCST(p,Z)に統合させるため、新たにLIDARコストCLI(p,Z)を設定した。図19に示すように、LIDARコストCLI(p,Z)はp=rの光線中心の画素で最も小さく、rから周囲に離れるほどσにしたがって大きくなる。式(5)から明らかなように、Aが1の場合、画素rのLIDARコストCLI(p,Z)は0である。一方、rから遠く離れた周辺部の画素ではLIDARコストCLI(p,Z)が1になる。
一方、図20の1矩形は画素を示しており、中心の画素rと、レーザ光の1光線の横分解能と縦分解能が画素単位で示されている。つまり、レーザ光の1光線が広がる範囲が画素数で示されている。レーザ光の1光線が広がる範囲のうち横方向を横分解能、縦方向を縦分解能といい、図20では横分解能が5画素、縦分解能が9画素である。1つのレーザ光は遠方に行くほど広がる。しかし、ステレオカメラで撮像される面積(画素数)はほぼ一定である。遠方に行くにしたがってレーザ光が広がっても遠方のレーザ光は小さく見えるためである。したがって、レーザレーダ測距部110が中心の画素rについて測距した距離Zに関わりなく、一定の横分解能と縦分解能の画素pについて式(5)でLIDARコストCLI(p,Z)を算出すればよい。
式(5)によりLIDARコストCLI(p,Z)が求められると、距離演算部14はステレオマッチングコストCST(p,Z)にLIDARコストCLI(p,Z)を投票する。図21は、ステレオマッチングコストCST(p,Z)へのLIDARコストCLI(p,Z)の投票を説明する図の一例である。レーザ光の照射方向に対応する画素rの距離Zがレーザレーダ測距部110により得られているので、画素rのこの距離ZにLIDARコストCLI(p,Z)を投票する。投票とは加算という処理に相当する。画素rの場合、LIDARコストCLI(p,Z)は1-A=0(Aが1の場合)である。
距離演算部14は、同様の投票を、画素rを中心とする横分解能と縦分解能に含まれる画素pについて行う。ただし、LIDARコストCLI(p,Z)はrとpとの距離に応じて式(5)により算出された値となる。
このように、本実施形態ではZ空間のまま、ステレオマッチングコストCST(p,Z)とLIDARコストCLI(p,Z)を統合できる。画素rのコストが最も小さくなり、画素rの周囲の画素のコストが画素rより高くなるので、横分解能と縦分解能のレーザ光の照射方向に対応する画素rのコストを小さく、周囲の画素のコストを高くできる。
なお、図19のLIDARコストCLI(p,Z)の形状は一例に過ぎない。例えば、画素rから一定範囲で最小のコストを示す円柱形状でもよいし、図19と似ているが逆三角形でもよい。また、式(4)ではステレオマッチングコストCST(p,Z)とLIDARコストCLI(p,Z)を加算しているが、ステレオマッチングコストCST(p,Z)からLIDARコストCLI(p,Z)を減算してもよい。あるいは、LIDARコストCLI(p,Z)が負値でもよい。
ステップS5の処理について図22~図25を用いて補足する。以下では、レーザの横分解能と縦分解能範囲でも周囲になるほど距離情報の正確性が低下することを説明する。
まず、図22は物体面の画素数を説明する図の一例である。図22(a)はある物体の画素数を示し、図22(b)は物体の大きさと物体面の画素数の対応を示す。物体面とは画像データにおいて物体が占める範囲である。
横幅N〔m〕、縦幅M〔m〕の物体が距離Z〔m〕に存在する。焦点距離Fを使うことで、画像データにおける横方向の画素数X、縦方向の画素数Yが算出される。ptは画素ピッチである。
X=F・N/(Z・pt)
Y=F・M/(Z・pt)
図23はレーザの分解能による距離Zでの画素数xL、yLの算出を説明する図の一例である。レーザの分解能を横θx〔deg〕、縦θy〔deg〕とする。
レーザの照射面の横幅AはA=Ztan(θx/2)×2
レーザの照射面の縦幅BはA=Ztan(θy/2)×2
横幅Aが画像上で占める画素数xLは以下のようになる。
xL=F・A/Z=Ztan(θx/2)×2=2(F/pt)tan(θx/2)〔ピクセル〕
縦幅Bが画像上で占める画素数yLは以下のようになる。
yL=F・B/Z=Ztan(θy/2)×2=2(F/pt)tan(θy/2)〔ピクセル〕
xL、yLの算出結果から明らかなように、照射面は距離Zに応じて広がっていくが、画像上では距離Zによらず一定の画素数になる。ただし、これは説明を容易にするため、レーザ光線の射出サイズが点光源であると仮定した場合である。レーザの射出面積があるサイズを持っている場合は、近距離側では対応する画素サイズが大きく、遠方になるにつれて一定値に収束する。
これらから物体面をレーザ光が照射している場合、物体面が照射面を包含する距離が求まる。図24は物体面が照射面を包含する距離を説明する図の一例である。
X>xL かつ Y>yLなので、
F・N/(Z・pt)>2(F/pt)tan(θx/2) かつ
F・M/(Z・pt)>2(F/pt)tan(θy/2)
したがって、N/(2tan(θx/2)>Z かつ、M/(2tan(θy/2)>Z
が物体面が照射面を包含する距離の条件式である。
・移動体の場合、
N=M=1.8m θx=θy=0.6〔deg〕から171.9>Z
・物の場合
N=0.25 M=1.6m θx=0.1 θy=0.6〔deg〕から143.2>Z
したがって、遠距離になると図24に示すように物体面の方が照射面よりも大きくなり、物体面のどこに反射したのか不確定になる。図25を用いてより詳細に説明する。
図25は、遠距離の場合と近距離の場合のそれぞれで照射面と物体面の関係を説明する図である。図25(a)は近距離の場合を示し、図24にて説明したように物体面の方が照射面より大きい。レーザの照射面は画素数に換算するとxL、yLの大きさに過ぎないため物体面XYのどこに反射するかは分からない。これは、照射面内の周囲になるほどレーザレーダ測距部110が測距する距離情報の信頼性が落ちることを意味する。このため、図19にて説明したように、レーザの照射面の周囲でLIDARコストCLI(p,Z)を大きくする(信頼度を小さくする)ことが有効になる。
図25(b)は遠距離の場合、照射面の方が物体面よりも大きくなることを示している。この場合、レーザはXYで表す物体面で反射できるとは限らず、後方に抜ける可能性が生じる。この場合は、いわゆるマルチパルスとなるため、複数の物体を検出できる可能性がある。マルチパルスが生じた場合の処理については後述する。
(ステップS6)
次に、距離演算部14は伝播コストLr(p,Z)を算出する。伝播コストLr(p,Z)の算出式を以下に示す。
Figure 0007176406000008
…(6)
伝播コストLr(p,Z)の第1項はステップS5で算出された、ステレオマッチングコストCST(p,Z)とLIDARコストCLI(p,Z)が統合されたコストC(p,Z)である。第2項はZ空間で行われるSGM伝播方式による伝播コストである。第1項と第2項により、伝播コストLr(p,Z)が算出される。
なお、本実施形態において、Z空間で行われるSGM伝播方式による伝播コストは必須でなく、SGM伝播方式による伝播コストは算出されなくてもよい。
(ステップS7)
距離演算部14は、全ての画素で伝播コストLr(p,Z)を算出したか否かを判断する。全ての画素の処理が終了するまでは、ステップS5,S6を繰り返し実行する。
(ステップS8)
全ての画素で伝播コストLr(p,Z)を算出すると、距離演算部14はエネルギーコストS(p,Z)を算出する。
S(p,Z)=ΣLr(p,Z) …(7)
図26は、エネルギーコストS(p,Z)の算出方法を説明する図の一例である。画素ごとに伝播コストLr(p,Z)が算出されたが、ある画素には周囲の伝播コストLr(p,Z)が影響していると考えられる。そこで、注目している画素の周囲の伝播コストLr(p,Z)を重ね合わせることで、注目している画素のより正確な伝播コストLr(p,Z)を算出する。
図26では周囲8画素の伝播コストLr(p,Z)が重ね合わされている。すなわち、
S(p,Z)=L0(p,Z)+L45(p,Z)+L90(p,Z)+L135(p,Z)+L180(p,Z)+L225(p,Z)+L270(p,Z)+L315(p,Z)、 …(8)
図27は、エネルギーコストS(p,Z)の算出方法を模式的に示す図である。式(8)に示すように、注目している画素の周囲8画素の伝播コストLr(p,Z)をZ空間で重ね合わせる。これにより、注目している画素のエネルギーコストS(p,Z)が得られる。
なお、周囲8画素の伝播コストLr(p,Z)の重ね合わせは一例に過ぎず、4画素、5画素、又は16画素などの周囲の何画素の伝播コストLr(p,Z)を重ね合わせるかは、演算負荷と距離の正確さを考慮して決定されてよい。また、伝播コストLr(p,Z)の重ね合わせを一切行わなくてもよい。
(ステップS9)
距離演算部14は、エネルギーコストS(p,Z)が最小となる距離Zを決定する。距離Zが注目している画素の距離値である。
図28はエネルギーコストS(p,Z)が最小となる距離Z0の算出方法を説明する図の一例である。エネルギーコストS(p,Z)が最小となるZは注目している画素の距離値として最も確からしいと推定される。
なお、高次多項式推定(6次)、高次多項式推定(4次)、又はパラボラフィッティング等を使用して、少数以下の距離Zを算出してもよい。
(ステップS10)
全ての画素で算出されると図17の処理は終了する。
<マルチパルスについて>
図25(b)で説明したマルチパルスが生じた場合の処理について説明する。図29はマルチパルスの処理を説明する図の一例である。図29(a)は、レーザレーダ測距部110のレーザの照射範囲を上方から見た図であり、図29(b)は距離Zに対する受光レベルを説明する図の一例である。
図29(a)に示すように物体面よりもレーザの照射面の方が大きい場合、レーザレーダ測距部110はマルチパルスにより複数のオブジェクトO1、O2からの反射光を受光する。図29(b)に示すように、距離Zに対し受光レベルをグラフ化すると、オブジェクトO1,O2がある距離Z1,Z2で受光レベルが大きくなる。したがって、複数の物体があることが検出される。一般にレーザレーダ測距部110は受光レベルが閾値以上の距離に物体があると判断するので、図29のような状況では、1つの光線で異なる距離にある2つの物体の距離を検出できる。
このように1つの光線で異なる距離にある2つの物体の距離が得られた場合、距離演算部14はそれぞれについてステレオマッチングコストCST(p,Z)とLIDARコストCLI(p,Z)を統合させる。すなわち、レーザ光の照射方向に対応する画素rと周囲の画素のステレオマッチングコストCST(p,Z)の距離Z1,Z2に、式(5)で算出されるLIDARコストCLI(p,Z)を加算する。
従来では、1つの注目画素に2つの距離Z1、Z2を統合させることは困難であったが、本実施形態ではZ空間で統合させるため、マルチパルスが生じた場合に、2つの距離を適切に扱うことができる。図29では式(5)をそのまま適用すると説明したが、例えば、複数の距離が検出された場合、距離の曖昧さを加味して式(5)のLIDARコストCLI(p,Z)がより大きくなるような係数を乗じてもよい。
<レーザによる測距の別の例>
図12等で説明した本実施形態のレーザレーダ測距部110はTOF(Time Of Flight)方式の測距方法である。これに対し、FCM(Fast Chirp Modulation)やFMCW(Frequency Modulation Continuous Wave)方式と呼ばれる測距方式がある。FCMやFMCWは、送信波と受信波で周波数がわずかに異なることで生じる混合波のうなり信号の周波数を距離に換算する方式である。
図30、図31を用いて、FCM方式による測距方式を説明する。図30は、送信波、受信波、及び、反射波のモデルを示す。ミリ波送受信装置25が送信した送信波が物体26で反射した反射波が、受信波として受信されている。ミリ波送受信装置25と物体との距離はRである。
図31は、送信波と受信波の周波数を模式的に示す。FCM方式で使用する信号では、時間の経過に応じて周波数を直線的に増大させる。図31(a)は徐々に周波数が増加する送信波と受信波を示している。このような時間的に周波数が変化する信号をチャープという。図31(a)に示すように振幅が一定のまま、時間と共に送信波27と受信波28の周波数が増大している。なお、受信波は物体26に反射して戻ってくる時間であるΔtだけ遅れて測定される。このため、送信波27と受信波28の周波数がわずかに異なることになり、うなり信号が発生する。
図31(b)は時間に対する送信波27と受信波28の周波数成分の変化を示す。送信波27の送信を開始してからΔtだけ遅れて受信波28が測定される。送信波27は時間に対し一定速度で増大するので、Δtの遅れがある場合の周波数のずれはΔfで一定である。なお、周波数が変化している時間はTであり、最小の周波数と最大の周波数の周波数差はFである。TとFは既知(制御値)である。したがって、Δfを観測できればΔtに変換できる。Δtが分かれば物体までの距離に変換できる。
送信波27と受信波28の周波数がΔfずれているので、送信波27と受信波28が重ね合わされるとうなり信号が生じる。うなり信号は細かな振動を包括する大きな振動をいうが、周波数Δfが一定なら大きな振動の周波数も一定である。また、うなり信号の周波数は周波数Δfに等しくなることが知られている。
うなり信号をフーリエ変換(好ましくはファストフーリエ変換)するとうなり信号の周波数にパワーのピークが現れる周波数スペクトルが得られるので、周波数Δfを検出するにはうなり信号をフーリエ変換すればよい。図31(c)はフーリエ変換により得られた周波数Δfを模式的に示す。
続いてΔfを距離Rに変換する方法を説明する。まず、距離RとΔtには以下の関係がある。ただし、Cは空気中の光速である。
Δt=2R/C …(9)
次に、ΔtとΔfには、図31(b)の図から明らかなように以下の関係がある
Δt:Δf=T:F
これを変形して、以下の式が得られる。
Δf=F×Δt/T …(10)
式(9)を式(10)に代入すると下式が得られる。
Δf=2RF/CT …(11)
R=CTΔf/2F …(12)
したがって、式(12)にフーリエ変換で求めたΔfを代入することで距離Rに変換できる。
FMCWはFCMを連続的に行う方式であり、原理はFCMと同様である。図32はFMCW方式において時間に対する送信波27と受信波28の周波数とうなり信号の波形29を示す。FMCW方式では比較的ゆっくりと周波数が繰り返し遷移する。相対速度の認識力とマルチターゲットの認識力についてはFCMの方が高いとされている。
<ミリ波レーダが検出する物体の方向について>
続いて、図33を用いて、FCM方式における物体の方向の検出方法を説明する。図33は物体の方向を説明する図である。図33(a)はミリ波送受信装置25と物体26の一例の上面図を示す。FCM方式は、水平面を使用して反射された反射波の角度θを推定する。例えば移動体の進行方向を0度とすれば、θは水平方向の物体26の角度(到来角)である。
図33(b)は複数の受信アンテナ31を用いたθの算出方法を示す。受信波28の角度θはアレイアンテナにより検出できる。図33(b)ではN個の受信アンテナ31が間隔dで一直線上に配置されている。角度θから受信波28が到来した場合、物体26と受信アンテナ31の距離が十分に離れていれば到来伝播は平面となる。各受信アンテナ31が受信する受信波の経路差l(エル)はdsinθの整数倍で表すことができる。経路差は受信波28の遅延rになって現れるため、各受信アンテナ31で受信される受信波28の遅延量が分かれば角度θを推定することができる。
l=dsinθ
r=l/C=(d/C)sinθ
θ=arcsin(r・C/d)…(13)
<効果について>
以下では、実際の実験結果を用いて本実施形態の測距システム100の効果を説明する。
<<実験結果1>>
図34は、状況を説明するための基準画像を示す。図34(a)は基準画像で、図34(b)は中央の拡大図である。基準画像の中央付近(遠方)に移動体301と人物302とチャート303(進行方向などを示す看板)が写っている。距離の実測値は以下のとおりである。
移動体:68.5m
人物:80m
チャート:80m
図35は俯瞰マップの比較例を示す。図35(a)はブロックマッチングで得た距離に基づいて作成された俯瞰マップを示し、図35(b)は本実施形態の測距システム100が測定した距離に基づいて作成された俯瞰マップを示す。本実施形態では測距精度と面分離性が向上したため、移動体301、及び、チャート(人物)302,303が分離されている。ただし、同じ距離にある人物とチャートが分離できていない。この点は今後の改良点であるが、100m先にある門304、及び、75m先の物置305が分離されている。
図36を用いて俯瞰マップについて補足する。図36は俯瞰マップの作成方法を説明する図の一例である。図36は距離画像を示し、距離画像の画素座標(x,y)の距離がzであるとき、画素座標(x,y)の視差d(x,y)は、
d(x,y) = B×F/z
で算出される。
距離画像の中心座標を(x,y)とすると、実空間座標(X,Y,Z)は、
X = (x - x)×B/d(y,x);
Y = (y - y)×B/d(y,x);
Z = B×F/d(y,x) (= z);
距離演算部14はこの計算を、俯瞰マップを求める距離画像の各画素で実行する。図36のような俯瞰マップは2次元なので、(X,Z)に対応するメッシュ空間に1票を投じると、図36の俯瞰マップが得られる。なお、(X,Y,Z)に対応するメッシュ空間に1票投じると3次元マップが得られる。
<<実験結果2>>
図37は、状況を説明するための基準画像を示す。図37(a)は基準画像で、図37(b)は中央の拡大図である。基準画像の中央付近(遠方)に複数の移動体311,312が写っている。距離の実測値は以下のとおりである。
移動体1:55m
移動体2:78m
図38は俯瞰マップの比較例を示す。図38(a)はブロックマッチングで得た距離に基づいて作成された俯瞰マップを示し、図38(b)は本実施形態の測距システム100が測定した距離に基づいて作成された俯瞰マップを示す。本実施形態では測距精度と面分離性が向上したため、2つの移動体311,312が明確に分離されている。100m先にある門、及び、75m先の物置が分離されている。
<<実験結果3>>
図39は、ヘッドライトが撮像された夜間の基準画像を示す。図39(a)は基準画像の全体と測距システム100の処理範囲を示し、図39(b)は移動体321のヘッドライト部分の拡大図である。
図40は俯瞰マップの比較例を示す。図40(a)はブロックマッチングで得た距離に基づいて作成された俯瞰マップを示し、図40(b)は本実施形態の測距システム100が測定した距離に基づいて作成された俯瞰マップを示す。ブロックマッチングでは立体物の位置が不明瞭である。これに対し本実施形態の測距システム100は、夜間であっても60m以遠の遠距離において移動体321を含む他の立体物(移動体311,322、物置305,門304)を分離して検出することが可能となる。
<<実験結果4>>
80mと30mの各距離でチャートの距離を測定した場合の実験結果を説明する。
図41は状況を説明するための基準画像である。実際にはカラーの距離画像が得られているが特許図面では色情報が失われるため、距離画像は掲載していない。代替として、面精度の評価結果をチャート303の面内の「距離平均」と「距離標準偏差」で数値化して示す。
Figure 0007176406000009
表1は、本実施形態、SGM伝播方式、及び、ブロックマッチングによるチャート303の距離の検出結果を示す。80mと30mのいずれにおいても、本実施形態の測距システム100は平均、分散、標準偏差の全てにおいて大きな精度の向上が確認できる。
<<実験結果5>>
図42はSGM伝播方式で生じる膨張の抑制結果を説明する図である。図42(a)は基準画像を示し、図42(b)は本実施形態の測距システム100が算出した距離画像を示し、図42(c)はSGM伝播方式により算出した距離画像を示す。図42(c)ではチャートの両脚の間が膨張によりチャートの距離になっているが、図42(b)に示す本実施形態の測距システム100ではチャートの両脚の間に背景の距離が算出されている。
なお、図42の実験ではレーザの照射光が上下方向に多層に積層したレーザレーダ測距部110を用いた。
<まとめ>
以上説明したように、本実施形態の測距システム100は、ステレオカメラがブロックマッチング等で距離画像を出力する前に、Z空間でLIDARが測定した距離情報を統合させることで高密度かつ高分解能な距離画像を実現できる。
本実施形態の効果について補足する。例えば、特開2015-143679号公報などの従来技術はブロックマッチングで得た「視差画像」を視差空間でLIDARが測定した距離情報を統合させるのに対し、本実施形態では距離空間で統合させる。
視差空間で統合する手法では、LIDARの距離分解能が高く距離精度が担保されているのにもかかわらず、特に遠方で距離分解能が粗くなり、粗い距離分解能で得た距離を用いて視差空間伝播処理でサブピクセル推定を行ってしまう。このため、距離精度が担保されなくなり性能の向上が見込めなくなる。
一方、本実施形態のように距離空間で統合する手法は、LIDARの高い距離分解能を担保しつつ、かつ、距離空間でコストカーブとLIDARの融合が行われるので、伝播処理によって、高精度かつ高密度な距離画像を生成することが可能となる。
この違いにより、本実施形態ではステレオカメラの計測原理の限界である0に近い視差値に対応する距離範囲、例えば100m程度の遠方であっても、正しい距離で、かつ物体面の距離分散が生じない距離画像を生成することができる。また、3D空間の復元においても広範囲な3D空間を復元することが可能になる。
すなわち、ステレオカメラから見ると、測距精度が向上し、物体面の距離の低分散化、物体面の面分離性が向上するため遠方物体の検出と測距精度が向上する。また、繰返しパタンや低テクスチャでの誤マッチングにより信頼性が乏しいコストが算出される画素についても、統合することによってより正しい距離を算出できるようになる(耐物標性)。また、夜間であっても遠方を高精度に測距することが可能になる(耐環境性)。また、SGM伝播方式で生じる物体境界の膨張が抑制される。また、LIDARから見ても、空間分解能が増えるという効果がある。
本実施例では、レーザレーダの測距値の曖昧さを考慮してステレオマッチングコストCST(p,Z)とLIDARコストCLI(p,Z)を統合させる測距システム100について説明する。
実施例1で説明したように、レーザ光の横分解能と縦分解能範囲でも周囲になるほど距離情報の正確性が低下する。実施例1では式(5)により周辺部のコストを大きくすることで対応したが、本実施例ではレーザレーダ測距部110の距離情報に曖昧さを考慮することで対応する。
すなわち、実施例1ではLIDARコストCLI(p,Z)を空間成分(xy面の精度)のみから算出したが、本実施例では距離成分(Z方向の精度)も考慮する。本実施例ではLIDARコストCLI(p,Z)を以下のように定義して、距離成分コストCLD(p、Z)を考慮したLIDARコストCLI(p,Z)の算出方法を説明する。
LIDARコストCLI(p,Z)∝空間成分×距離成分 …(14)
空間成分は実施例1の式(5)でよい。距離成分コストCLD(p,Z)は、一例として以下のように定義できる。
Figure 0007176406000010
…(15)
γ :レーザの測距値
Z :レーザの測距値からの乖離
v :距離成分の広がりを定めるパラメータ
β :距離成分の深さを定めるパラメータ(0~1)

図43は、式(15)により表されるLIDARコストCLI(p,Z)の距離成分コストCLD(p,Z)を模式的に表す図である。図示するように、LIDARコストCLI(p,Z)の距離成分コストは、レーザの測距値で最も小さく、レーザの測距値からの乖離が大きいほど大きくなる。これは、物体の反射率の影響や物体のどこに当たるかによって、レーザの測距値が真値からずれる場合がある。この場合、本来は面を形成している物体面が分裂して検出される。式(15)のように不明確さvをLIDARコストCLI(p,Z)の距離成分に含めることで、幅を持ってレーザの測距値を扱うことができるので、分裂を抑制しやすくなる。
なお、図43の距離成分コストCLD(p,Z)の形状は一例に過ぎない。例えば、LIDAR距離γから一定範囲で最小のコストを示す矩形でもよいし、図43と似ているが逆三角形でもよい。
図44は、空間成分のLIDARコストCLI(p,Z)と距離成分コストCLD(p,Z)が、式(15)により、どのようにステレオマッチングコストCST(p,Z)に統合されるかを説明する図である。
A.レーザレーダ測距部110の照射方向に対応する画素rのステレオマッチングコストCST(p,Z)のうちLIDAR距離γには、最も小さいLIDARコストCLI(p,Z)と最も小さい距離成分コストCLD(p,Z)とが乗じたものが加算される。
B.レーザレーダ測距部110の照射方向に対応する画素rのステレオマッチングコストCST(p,Z)のうちLIDAR距離γからΔZ離れた距離Zには、最も小さいLIDARコストCLI(p,Z)とΔZに応じて式(15)で算出された距離成分コストCLD(p,Z)とが乗じたものが加算される。
C.レーザレーダ測距部110の照射方向に対応する画素rの周囲の画素pのステレオマッチングコストCST(p,Z)のうちLIDAR距離γには、rとpの距離に応じて式(5)で算出されたLIDARコストCLI(p,Z)と最も小さい距離成分コストCLD(p,Z)とが乗じたものが加算される。
D.レーザレーダ測距部110の照射方向に対応する画素rの周囲の画素pのステレオマッチングコストCST(p,Z)のうちLIDAR距離γからΔZ離れた距離Zには、rとpの距離に応じて式(5)で算出されたLIDARコストCLI(p,Z)とΔZに応じて式(15)で算出された距離成分コストCLD(p,Z)とが乗じたものが加算される。
<まとめ>
以上説明したように、本実施例の測距システム100は実施例1の効果に加え、更に物体面の分裂を防ぐことができる。
本実施例では、測距システム100に異常が生じた場合にフェールセーフ処理を行うと共に、異常が生じた旨を表示することができる測距システム100について説明する。図12,図13で説明したように、レーザレーダ測距部110及びステレオ画像演算部120の異常をECU20が検出できる。
・レーザレーダ測距部110に異常がある場合は、レーザレーダ測距部110からステレオ画像演算部120に通知があるか又はステレオ画像演算部120が検出してECU20に通知できる。ECU20はステレオ画像演算部120が生成する距離画像により運転支援を継続できる。
・ステレオ画像演算部120に異常がある場合は、ステレオ画像演算部120からECU20に通知があるか又はECU20が検出できる。ECU20はレーザレーダ測距部110が出力する照射方向と距離情報により運転支援を継続できる。
ただし、異常の態様が、ECU20がステレオ画像演算部120と通信できない異常の場合、ECU20はステレオ画像演算部120を介してレーザレーダ測距部110の距離情報を取得できない。このため、ECU20がステレオ画像演算部120と通信できない異常の場合、ECU20はレーザレーダ測距部110から直接、照射方向と距離情報を取得するとよい。
こうすることで、レーザレーダ測距部110とステレオ画像演算部120のどちらかが正常であれば、統合はできないがECU20が距離画像又は距離情報を利用して運転支援することができる。
図45は、レーザレーダ測距部110又はステレオ画像演算部120に異常がある場合の、ECU20の制御例を示すフローチャート図の一例である。図45の処理は、移動体の走行中は繰り返し実行される。
まず、ECU20はレーザレーダ測距部110とステレオ画像演算部120の両方に異常が検出されたか否かを判断する(S101)。異常はレーザレーダ測距部110が検出したものでも、ステレオ画像演算部120が検出したものでも、ECU20が検出したものでもよい。
ステップS101の判断がYesの場合、ECU20はレーザレーダ測距部110とステレオ画像演算部120に異常がある旨を表示装置21に表示する(S102)。表示例を図46に示す。
ステップS101の判断がNoの場合、ECU20はレーザレーダ測距部110の異常が検出されたか否かを判断する(S103)。異常はレーザレーダ測距部110が検出したものでも、ステレオ画像演算部120が検出したものでもよい。
ステップS103の判断がYesの場合、ECU20はステレオ画像演算部120の距離画像だけで運転支援を行う(S104)。異常の検出前からECU20は距離画像で運転支援しているため、処理に変更はない。
次に、ECU20はレーザレーダ測距部110に異常がある旨を表示装置21に表示する(S105)。表示例を図46に示す。
続いて、ECU20はステレオ画像演算部120の異常が検出されたか否かを判断する(S106)。異常はステレオ画像演算部120が検出したものでも、ECU20が検出したものでもよい。
ステップS106の判断がYesの場合、ECU20はレーザレーダ測距部110の距離情報だけで運転支援を行う(S107)。すなわち、距離画像でなく、物体までの方位(照射方向)と距離に基づいて運転支援を開始する。
次に、ECU20はステレオ画像演算部120に異常がある旨を表示装置21に表示する(S108)。表示例を図46に示す。
こうすることで、ECU20はレーザレーダ測距部110に異常が生じても、ステレオ画像演算部120に異常が生じても、継続して運転支援が可能になる。
図46はレーザレーダ測距部110又はステレオ画像演算部120に異常が生じた場合の表示例を示す図である。
図46(a)はレーザレーダ測距部110とステレオ画像演算部120に異常が生じた場合に表示装置21に表示される、レーザレーダ測距部110とステレオ画像演算部120に異常が生じた旨の表示例を示す。図46(a)では「警告 レーダとカメラセンサに異常が生じました。運転支援を終了します。」と表示されている。これにより、移動体の乗員はレーザレーダ測距部110とステレオ画像演算部120に異常があるため、運転支援が継続されないことを把握できる。
図46(b)はレーザレーダ測距部110に異常が生じた場合に表示装置21に表示される、レーザレーダ測距部110に異常が生じた旨の表示例を示す。図46(b)では「警告 レーダに異常が生じました。カメラセンサで運転支援を継続します。」と表示されている。これにより、移動体の乗員はレーザレーダ測距部110に異常があるが、運転支援が継続されることを把握できる。
図46(c)はステレオ画像演算部120に異常が生じた場合に表示装置21に表示される、ステレオ画像演算部120に異常が生じた旨の表示例を示す。図46(c)では「警告 カメラセンサに異常が生じました。レーダで運転支援を継続します。」と表示されている。これにより、移動体の乗員はステレオ画像演算部120に異常があるが、運転支援が継続されることを把握できる。
本実施例では、LIDARコストCLI(p,Z)のステレオマッチングコストCST(p,Z)への投票を部分的に行う測距システム100について説明する。実施例1の図20,図21ではレーザ光の照射方向に対応する画素rを中心に周囲の画素のステレオマッチングコストCST(p,Z)に対し、LIDARコストCLI(p,Z)を投票した。
本実施例では図47に示すように、LIDARコストCLI(p,Z)の投票をレーザ光の照射方向に対応する画素r及び周囲の全ての画素で行うのではなく、LIDARコストCLI(p,Z)とステレオマッチングコストCST(p,Z)の状態に応じて行う。
図47は画像データとレーザ光の照射位置を模式的に示す図である。図47では例として2つの照射位置401,402が示されている。画像データの一部の画素ブロックに対しレーザ光が広がりを持って当たっている。照射位置401のステレオマッチングコストCST(p,Z)は図示するようになだらかであり(極値がない)、照射位置402のステレオマッチングコストCST(p,Z)は下に凸である(極値が明確)。したがって、照射位置401ではステレオマッチングコストCST(p,Z)の極小値を見つけにくいが、照射位置401では極小値を見つけやすい。
図48は距離情報に対応付けられた受光レベルとステレオマッチングコストCST(p,Z)の統合例を説明する図の一例である。図48(a)は照射位置401のステレオマッチングコストCST(p,Z)への投票例を示し、図48(b)は照射位置402のステレオマッチングコストCST(p,Z)への投票例を示す。図48(a)では、距離情報に対応付けられた受光レベルの極小値が明確である。このため、ステレオマッチングコストCST(p,Z)への受光レベルの統合により、極小値が明確になっている。
一方、図47(b)のようなステレオマッチングコストCST(p,Z)では、受光レベルがマルチパルスになった場合に投票が有効である。図48(b)では受光レベルに2つの極小値が得られている。このような波形は複数の物体が1つのレーザ光を反射させた場合に生じうる。図48(b)ではステレオマッチングコストCST(p,Z)への受光レベルの統合により、極小値が明確になっている。
したがって、ステレオ画像演算部120は、以下のように投票の有無を制御する。なお、この統合は、実施例1と同様にレーザ光の照射方向に対応する画素r及び周囲の画素について行う。
・ステレオマッチングコストCST(p,Z)が平坦で、かつ、LIDARの受光レベルの極小値が1つの場合、LIDARの受光レベルとステレオマッチングコストCST(p,Z)を統合する。
・LIDARの受光レベルがマルチパルスとなっており、ステレオマッチングコストCST(p,Z)の極小値が1つの場合、LIDARの受光レベルとステレオマッチングコストCST(p,Z)を統合する。
換言すると、ステレオマッチングコストCST(p,Z)が平坦で、かつ、LiDARの受光レベルがマルチパルスの場合は、統合の効果が得られにくいので投票を省略できる。また、ステレオマッチングコストCST(p,Z)の極小値が明確で、かつ、LIDARの受光レベルの極小値が明確な場合は、すでに物体を確実に捕らえている可能性が高いので投票を省略できる(この場合は確認の意味を込めて統合してもよい)。
ステレオマッチングコストCST(p,Z)が平坦かどうかは、例えば、最小値と最大値の差を閾値と比較して判断できる。この差が十分に大きい場合は極小値が明確と言える。マルチパルスかどうかは、例えば、最大値との差が閾値以上の極小値が2つ以上あるか否かなどにより判断できる。
なお、図48の説明では「LIDARの受光レベルとステレオマッチングコストCST(p,Z)を統合する」という表現を使用したが、これはLiDARの受光レベルの波形を説明するためであり、LIDARコストCLI(p,Z)をステレオマッチングコストCST(p,Z)に投票することと同じ意味である。
本実施例ではサーバ装置が少なくとも一部の処理を実行する距離画像提供システムについて説明する。実施例1~4において測距システム100が行った処理はサーバ装置が行うこともできる。
図49は、距離画像提供システム50の概略構成図を示す。図49に示すように、移動体200に車載された測距システム100はネットワークNを介してサーバ装置51と通信する。測距システム100は距離情報、照射方向、基準画像及び比較画像をサーバ装置51に送信し、サーバ装置51は実施例1~4の処理を行って距離画像を生成し、測距システム100に送信する。
図50は本実施例の距離画像提供システム50の機能ブロック図の一例である。まず、レーザレーダ測距部110の機能は変更がないが、レーザレーダ測距部110はレーザ光の照射方向と距離情報を通信装置52に送信する。ステレオ画像演算部120は距離演算部14を有する必要がなくなり、歪み補正部13は基準画像と比較画像を通信装置52に送出する。通信装置52は照射方向、距離情報、基準画像及び比較画像をサーバ装置51に送信する。
サーバ装置51は通信装置53と距離演算部14を有し、ステレオマッチングコストCST(p,Z)とLIDARコストCLI(p,Z)を統合して距離画像(三次元高密度高分解能距離画像)を作成する。サーバ装置51の通信装置53は距離画像を移動体200に送信する。
移動体200は距離画像と基準画像をECU20に送出することで、ECU20は実施例1~4と同様に運転支援することができる。
このように本実施例では、移動体200とサーバ装置51が通信して距離画像を生成できるので、測距システム100のコストを低減できる。
なお、サーバ装置51は距離画像を、情報を送信した移動体200とは別の移動体に送信してもよい。例えば、渋滞中に先頭の移動体200が照射方向、距離情報、基準画像及び比較画像をサーバ装置51に送信すると、サーバ装置51は後続の移動体200に距離画像を送信する。これにより、後続の移動体200も先頭の移動体200の状況を把握できる。
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
例えば、測距システム100が搭載される移動体200としては車両や自動車を挙げることができるが、測距システム100は移動体に広く適用できる。例えば、少なくとも一部において人間が操作しなくても自律的に移動する移動体に有効である。例えば、飛行機、ドローン、船舶、ロボット等に適用できる。
また、レーザ光の波長については、測距に適した波長域の光を使用すればよく、可視光、赤外光、紫外光(人体に影響がない範囲で)でもよいし、光を電磁波と捉えてもよい。
また、本実施形態では、距離分解能の高い測距方式としてLIDARを説明したが、ミリ波又は超音波(音波、ソナー)などを用いてもよい。こういった、積極的に測距(水から何かしらを放って測距)するものを総称してアクティブ測距という。
また、本実施形態では、ステレオカメラが2つの撮像部を有すると説明したが、3つ以上の撮像部を有していてもよい。また、2つの撮像部は水平方向に離間する他、垂直方向に離間してもよい。また、撮像部は可視光を撮像するだけでなく、近赤外、赤外、などの範囲の光を撮像してもよい。また、偏波フィルタを介して撮像してもよい。
なお、ステレオ画像演算部120は画像処理部又は画像処理手段の一例であり、レーザレーダ測距部110は測距手段の一例であり、LIDARコストCLI(p,Z)は距離コストの一例であり、LIDARコストCLI(p,Z)は第一の評価値の一例であり、距離成分コストCLD(p,Z)は第二の評価値の一例である。異常監視部601aは第一の異常検出部の一例であり、異常監視部14aは第二の異常検出部の一例である。
8 ステレオカメラ
11 右カメラ
12 左カメラ
13 歪み補正部
14 距離演算部
20 ECU
100 測距システム
110 レーザレーダ測距部
120 ステレオ画像演算部
200 移動体
Hern´n Badino他、「Integrating LIDAR into Stereo for Fast and Improved Disparity Computation」、China、2011 International Conference on 3D Imaging, Modeling, Processing, Visualization and Transmission、16th May 2011

Claims (16)

  1. 対象物との距離を測定するための距離画像を生成する画像処理方法であって、
    測距部が、対象物との距離情報を検出するステップと、
    ステレオ画像のマッチング評価値を含む画素のうち、前記測距部により前記距離情報が検出された前記対象物が存在する位置に対応する画素のマッチング評価値に、画像処理部が、前記測距部が検出した前記距離情報を統合処理して前記距離画像を生成するステップと、を有し、
    前記画像処理部は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行い、前記ステレオ画像をマッチングする際の画素の各シフト量に対しそれぞれマッチングコストを算出し、各シフト量を距離に変換して、前記測距部による電磁波の照射方向により特定される画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に前記距離情報に関する距離評価値を統合し、前記距離評価値は、前記測距部による電磁波の照射方向により特定される画素で最も小さく、該画素から離れるほど大きくなる第一の評価値であることを特徴とする画像処理方法。
  2. 前記画像処理部は、前記測距部による電磁波の照射方向により特定される画素の周囲の画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に、該画素から離れるほど大きくなる前記第一の評価値を加算することを特徴とする請求項に記載の画像処理方法。
  3. 前記距離評価値は、前記測距部が取得した前記距離情報に対応する距離で最も小さく、前記距離情報に対応する距離から離れるほど大きくなる第二の評価値を前記第一の評価値に乗じたものであることを特徴とする請求項又はに記載の画像処理方法。
  4. 前記画像処理部は、前記測距部による電磁波の照射方向により特定される画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に、最も小さな前記第一の評価値と最も小さな前記第二の評価値を乗じたものを前記距離評価値として統合し、
    前記測距部から取得した前記距離情報に対応する距離から離れた距離のマッチング評価値に、最も小さな前記第一の評価値と前記距離情報に対応する距離から離れた分だけ大きくなる前記第二の評価値とを乗じたものを前記距離評価値として統合することを特徴とする請求項に記載の画像処理方法。
  5. 前記画像処理部は、前記測距部による電磁波の照射方向により特定される画素の周囲の画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に、電磁波の照射方向により特定される画素から離れるほど大きくなる前記第一の評価値と最も小さな前記第二の評価値を乗じたものを前記距離評価値として統合し、
    前記測距部から取得した前記距離情報に対応する距離から離れた距離のマッチング評価値に、電磁波の照射方向により特定される画素から離れるほど大きくなる前記第一の評価値と前記距離情報に対応する距離から離れた分だけ大きくなる前記第二の評価値とを乗じたものを前記距離評価値として統合することを特徴とする請求項に記載の画像処理方法。
  6. 前記画像処理部は、画素ごとにマッチング評価値と前記距離評価値を統合して得た評価値にデンスアルゴリズムを適用し、
    更に、注目している画素の評価値と周囲の画素の評価値を重ね合わせてから、評価値が最小となる前記距離を、注目している画素の距離に決定することを特徴とする請求項のいずれか1項に記載の画像処理方法。
  7. 前記測距部の異常を検出する第一の異常検出部と、
    前記ステレオ画像の少なくとも一方を撮像する撮像部の異常を検出する第二の異常検出部と、
    前記第一の異常検出部又は前記第二の異常検出部の少なくとも一方が異常を検出した旨を表示装置に表示することを特徴とする請求項1~のいずれか1項に記載の画像処理方法。
  8. 前記第一の異常検出部が前記測距部の異常を検出した場合、前記画像処理部は、前記撮像部により撮像された前記ステレオ画像のマッチング評価値から、前記ステレオ画像の画素に距離情報が対応付けられた前記距離画像を生成し、
    前記第二の異常検出部が前記撮像部の異常を検出した場合、前記測距部は前記距離情報を外部に出力することを特徴とする請求項に記載の画像処理方法。
  9. 前記対象物が存在する位置に対応する画素とは、前記測距部による測距方法から特定される画素であることを特徴とする請求項1~のいずれか1項に記載の画像処理方法。
  10. 前記画像処理部は、前記ステレオ画像の画素に距離情報の対応付けも行うことを特徴とする請求項1~のいずれか1項に記載の画像処理方法。
  11. 対象物との距離を測定するための距離画像を生成する画像処理装置であって、
    対象物との距離情報を検出する測距部と、
    ステレオ画像のマッチング評価値を含む画素のうち、前記測距部により前記距離情報が検出された前記対象物が存在する位置に対応する画素のマッチング評価値に、前記測距部が検出した前記距離情報を統合処理して前記距離画像を生成する画像処理部と、を有し、
    前記画像処理部は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行い、前記ステレオ画像をマッチングする際の画素の各シフト量に対しそれぞれマッチングコストを算出し、各シフト量を距離に変換して、前記測距部による電磁波の照射方向により特定される画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に前記距離情報に関する距離評価値を統合し、前記距離評価値は、前記測距部による電磁波の照射方向により特定される画素で最も小さく、該画素から離れるほど大きくなる第一の評価値であることを特徴とする画像処理装置。
  12. 車載装置であって、
    対象物との距離情報を検出する測距部と、
    ステレオ画像のマッチング評価値を含む画素のうち、前記測距部により前記距離情報が検出された前記対象物が存在する位置に対応する画素のマッチング評価値に、前記測距部が検出した前記距離情報を統合処理して距離画像を生成する画像処理部と、を有し、
    前記画像処理部は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行い、前記ステレオ画像をマッチングする際の画素の各シフト量に対しそれぞれマッチングコストを算出し、各シフト量を距離に変換して、前記測距部による電磁波の照射方向により特定される画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に前記距離情報に関する距離評価値を統合し、前記距離評価値は、前記測距部による電磁波の照射方向により特定される画素で最も小さく、該画素から離れるほど大きくなる第一の評価値であり、前記距離画像を移動体の制御ユニットに送出する車載装置。
  13. 対象物との距離情報を検出する測距部と、
    ステレオ画像のマッチング評価値を含む画素のうち、前記測距部により前記距離情報が検出された前記対象物が存在する位置に対応する画素のマッチング評価値に、前記測距部が検出した前記距離情報を統合処理して距離画像を生成する画像処理部と、を有し、
    前記画像処理部は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行い、前記ステレオ画像をマッチングする際の画素の各シフト量に対しそれぞれマッチングコストを算出し、各シフト量を距離に変換して、前記測距部による電磁波の照射方向により特定される画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に前記距離情報に関する距離評価値を統合し、前記距離評価値は、前記測距部による電磁波の照射方向により特定される画素で最も小さく、該画素から離れるほど大きくなる第一の評価値であり、
    前記距離画像を使って移動体を制御する制御ユニット、
    を有する移動体。
  14. 測距部から対象物との距離情報を取得する画像処理装置であって、
    ステレオ画像のマッチング評価値を含む画素のうち、前記測距部により前記距離情報が検出された前記対象物が存在する位置に対応する画素のマッチング評価値に、前記測距部が検出した前記距離情報を統合処理して距離画像を生成する画像処理部、を有し、
    前記画像処理部は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行い、前記ステレオ画像をマッチングする際の画素の各シフト量に対しそれぞれマッチングコストを算出し、各シフト量を距離に変換して、前記測距部による電磁波の照射方向により特定される画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に前記距離情報に関する距離評価値を統合し、前記距離評価値は、前記測距部による電磁波の照射方向により特定される画素で最も小さく、該画素から離れるほど大きくなる第一の評価値であることを特徴とする画像処理装置。
  15. 対象物までの距離を測定する測距手段と、
    撮像手段と、
    ステレオ画像のマッチング評価値を含む画素のうち、前記測距手段により距離情報が検出された前記対象物が存在する位置に対応する画素のマッチング評価値に、前記測距手段が検出した前記距離情報を統合処理して距離画像を生成する画像処理部と、を有し、
    前記画像処理部は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行い、前記ステレオ画像をマッチングする際の画素の各シフト量に対しそれぞれマッチングコストを算出し、各シフト量を距離に変換して、前記測距部による電磁波の照射方向により特定される画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に前記距離情報に関する距離評価値を統合し、前記距離評価値は、前記測距部による電磁波の照射方向により特定される画素で最も小さく、該画素から離れるほど大きくなる第一の評価値であることを特徴とするシステム。
  16. 距離情報とステレオ画像から距離画像を生成するシステムにおいて、
    ステレオ画像のマッチング評価値を含む画素のうち、前記距離情報が検出された対象物が存在する位置に対応する画素のマッチング評価値に、前記距離情報を統合処理して距離画像を生成する画像処理手段、を有し、
    前記画像処理手段は前記マッチング評価値から前記距離画像を生成する前に前記統合処理を行い、前記ステレオ画像をマッチングする際の画素の各シフト量に対しそれぞれマッチングコストを算出し、各シフト量を距離に変換して、前記測距部による電磁波の照射方向により特定される画素のマッチング評価値のうち、前記測距部から取得した前記距離情報に対応する距離のマッチング評価値に前記距離情報に関する距離評価値を統合し、前記距離評価値は、前記測距部による電磁波の照射方向により特定される画素で最も小さく、該画素から離れるほど大きくなる第一の評価値であることを特徴とするシステム。
JP2018243505A 2018-01-23 2018-12-26 画像処理方法、画像処理装置、車載装置、移動体、システム Active JP7176406B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP19152873.6A EP3514759B1 (en) 2018-01-23 2019-01-21 Image processing method and image processing apparatus
US16/253,839 US10891751B2 (en) 2018-01-23 2019-01-22 Range image generating method, range image generating apparatus, and on-board device having range image generating function

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018009067 2018-01-23
JP2018009067 2018-01-23

Publications (2)

Publication Number Publication Date
JP2019128350A JP2019128350A (ja) 2019-08-01
JP7176406B2 true JP7176406B2 (ja) 2022-11-22

Family

ID=67472108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018243505A Active JP7176406B2 (ja) 2018-01-23 2018-12-26 画像処理方法、画像処理装置、車載装置、移動体、システム

Country Status (1)

Country Link
JP (1) JP7176406B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7259660B2 (ja) * 2019-09-10 2023-04-18 株式会社デンソー イメージレジストレーション装置、画像生成システム及びイメージレジストレーションプログラム
DE202022003129U1 (de) * 2021-02-22 2024-12-23 Shenzhen Camsense Technologies Co., Ltd Entfernungsmessgerät, Lidar, und mobiler Roboter
JP7613690B2 (ja) * 2021-06-04 2025-01-15 日本電信電話株式会社 3次元点群処理装置、3次元点群処理方法、及び3次元点群処理プログラム
JP7742299B2 (ja) 2021-12-21 2025-09-19 株式会社Subaru 画像処理装置および車両
CN114754732B (zh) * 2022-03-11 2023-09-05 江苏电力信息技术有限公司 一种基于多目视觉的距离测量方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000329852A (ja) 1999-05-17 2000-11-30 Nissan Motor Co Ltd 障害物認識装置
JP2015143679A (ja) 2013-12-26 2015-08-06 株式会社リコー 視差演算システム、情報処理装置、情報処理方法及びプログラム
JP2015175644A (ja) 2014-03-13 2015-10-05 株式会社リコー 測距システム、情報処理装置、情報処理方法及びプログラム
WO2017057056A1 (ja) 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000329852A (ja) 1999-05-17 2000-11-30 Nissan Motor Co Ltd 障害物認識装置
JP2015143679A (ja) 2013-12-26 2015-08-06 株式会社リコー 視差演算システム、情報処理装置、情報処理方法及びプログラム
JP2015175644A (ja) 2014-03-13 2015-10-05 株式会社リコー 測距システム、情報処理装置、情報処理方法及びプログラム
WO2017057056A1 (ja) 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Jan Fischer et al.,Combination of Time-of-Flight Depth and Stereo using Semiglobal Optimization,2011 IEEE International Conference on Robotics and Automation,2011年05月,p.3548-3553,DOI: 10.1109/ICRA.2011.5979999

Also Published As

Publication number Publication date
JP2019128350A (ja) 2019-08-01

Similar Documents

Publication Publication Date Title
JP7176406B2 (ja) 画像処理方法、画像処理装置、車載装置、移動体、システム
US10891751B2 (en) Range image generating method, range image generating apparatus, and on-board device having range image generating function
US10962638B2 (en) Vehicle radar sensing system with surface modeling
US11391840B2 (en) Distance-measuring apparatus, mobile object, distance-measuring method, and distance measuring system
US9151626B1 (en) Vehicle position estimation system
CN110799853B (zh) 一种环境感知系统及移动平台
JP7157054B2 (ja) 整合画像及びlidar情報に基づいた車両ナビゲーション
JP7238422B2 (ja) 測距方法、測距装置、車載装置、移動体、測距システム
US10962641B2 (en) Vehicle radar sensing system with enhanced accuracy using interferometry techniques
US10545229B2 (en) Systems and methods for unified mapping of an environment
US20230237783A1 (en) Sensor fusion
JP3822770B2 (ja) 車両用前方監視装置
CN115210605A (zh) 传感器系统的校准
WO2017181642A1 (en) Systems and methods for radar-based localization
US11769267B2 (en) Object distance measurement apparatus and method
US11994466B2 (en) Methods and systems for identifying material composition of moving objects
WO2018043028A1 (ja) 周辺監視装置及び周辺監視方法
EP3540467B1 (en) Range finding system, range finding method, in-vehicle device, and vehicle
CN114488111B (zh) 利用雷达数据估算车辆速度
US12475597B2 (en) Robust lidar-to-camera sensor alignment
US20220228861A1 (en) Estimation device
US20230136871A1 (en) Camera calibration
US20220413144A1 (en) Signal processing device, signal processing method, and distance measurement device
US10249056B2 (en) Vehicle position estimation system
EP3789908B1 (en) Mono vision system and method for a motor vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210916

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221024

R151 Written notification of patent or utility model registration

Ref document number: 7176406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151