JP6396729B2 - 立体物検出装置 - Google Patents

立体物検出装置 Download PDF

Info

Publication number
JP6396729B2
JP6396729B2 JP2014190403A JP2014190403A JP6396729B2 JP 6396729 B2 JP6396729 B2 JP 6396729B2 JP 2014190403 A JP2014190403 A JP 2014190403A JP 2014190403 A JP2014190403 A JP 2014190403A JP 6396729 B2 JP6396729 B2 JP 6396729B2
Authority
JP
Japan
Prior art keywords
parallax
dimensional object
voting
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014190403A
Other languages
English (en)
Other versions
JP2016062356A (ja
Inventor
暁彦 永田
暁彦 永田
裕丈 石神
裕丈 石神
白井 孝昌
孝昌 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Original Assignee
Denso Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp filed Critical Denso Corp
Priority to JP2014190403A priority Critical patent/JP6396729B2/ja
Publication of JP2016062356A publication Critical patent/JP2016062356A/ja
Application granted granted Critical
Publication of JP6396729B2 publication Critical patent/JP6396729B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、立体物検出装置に関する。
従来、車両周辺の対象物が立体物であるか路面であるかを判定する車両用の対象物判定装置が報告されている(特許文献1等)。
例えば、特許文献1に記載の技術では、2台のカメラで異なる視点の各々から車両周辺の対象物を撮影することにより、視差を有する左右画像を取得し、左右画像の各々において対応した点における視差を演算する。そして、一方の辺が視差、他方の辺が画像の横方向の位置に各々対応し、かつ視差が大きくなるに従って視差に対応する辺及び横方向の位置に対応する辺が長くなるように定められたブロックを複数配列した視差投票マップを設定し、この視差投票マップの各々のブロックに、視差が演算された視差算出点に関する情報を投票する。そして、視差投票マップにおいて、視差算出点の投票数が閾値以上のブロックであって、投票された視差算出点の視差方向への分布が小さくかつ画像の縦方向への分布が大きい第1ブロックには立体物の属性を付与し、投票された視差算出点の視差方向への分布が大きくかつ画像の縦方向への分布が小さい第2ブロックには路面の属性を付与して、立体物か路面かを判定している。
ここで、立体物であれば、画像奥行方向の距離が変わらないので視差値がほぼ一定になり、路面であれば、画像奥行方向の距離が変わるので、視差値が変化する。そのため、立体物の視差算出点は、実空間座標において距離方向の広がりが小さくかつ高さ方向に大きく広がって分布する、すなわち、画像上で視差方向への分布が小さくかつ縦方向への分布が大きいという特性がある。一方、路面の視差算出点は、実空間座標において高さ方向の広がりが小さくかつ距離方向に大きく広がって分布する、すなわち、画像上で縦方向への分布が小さくかつ視差方向への分布が大きいという特性がある。
このような特性に着目して、特許文献1に記載の従来の対象物判定装置では、視差投票マップにおいて、視差算出点の投票数が閾値以上のブロックであって、投票された視差算出点の視差方向への分布が小さくかつ画像の縦方向への分布が大きい第1ブロックには立体物の属性を付与することで、立体物を検出している。一方、投票された視差算出点の視差方向への分布が大きくかつ画像の縦方向への分布が小さい第2ブロックに路面の属性を付与することで、路面を検出している。なお、視差算出マップにおいて、視差算出点の投票数が閾値以上の場合、左右画像間で対応がとれた視差算出点の個数が多いことから立体物か路面かの判定が可能であるものの、視差算出点の投票数が閾値未満の場合、左右画像間で対応がとれた視差算出点の個数が少ないことから立体物か路面かの判定が困難なノイズとなる可能性が高い。
特開2006−236104号公報
しかしながら、従来技術(特許文献1等)においては、対象物のうち立体物と路面とを区別して検出可能であるものの、立体物のうち路肩や路上落下物等といった高さの低い立体物については検出精度が低くなるという改善点を有していた。
ここで、高さの低い立体物を検出するためには、特許文献1に記載の従来の対象物判定装置では、立体物を検出するための条件を緩める処置が考えられる。例えば、視差算出マップにおいて、一定数以上の視差算出点が投票されたブロックであることを判定するための閾値を低く設定したり、立体物の属性を付与する第1ブロックを判定するための閾値が低くなるように調整するといった処置が考えられる。しかし、このような処置を行うと、高さの低い立体物を検出可能となるものの、同時にノイズを拾い易くなり、路面勾配自体を立体物として検出してしまう等といったような立体物の誤検出が増加してしまう。よって、高さの低い立体物を検出するために、立体物の検出条件を規定する各種閾値が低くなるように調整する処置を行うと、立体物の誤検出を増加させて立体物の検出精度を下げてしまうことになる。また、立体物の誤検出結果を含む対象物判定結果が、運転支援に利用されることは、安全上望ましくない。このように、従来の対象物判定装置おいては、立体物と路面とを区別可能であり、且つ、高さの低い立体物についても検出可能な技術が求められていた。
本発明は、上記の事情に鑑みてなされたものであって、立体物と路面とを良好に区別可能な状態を維持しつつ、高さの低い立体物についても立体物として高精度に検出可能な立体物検出装置を提供することを目的とする。
本発明の立体物検出装置は、ステレオカメラ撮像部と、前記ステレオカメラ撮像部によって取得された画像に基づいて、当該画像を構成する所定の画素領域ごとに視差値を算出する視差値算出部と、前記画像を縦方向に前記画素領域を含むように複数分割した所定の縦列領域を抽出し、当該縦列領域ごとに、前記画像の各画素領域の画素位置情報に含まれる縦座標を縦軸に投影し、且つ、当該縦座標に各々対応する前記視差値を横軸に投影した2次元平面を設定し、当該2次元平面上において、投影した前記縦座標及び前記視差値に基づいて直線近似を行うことで、投影した前記縦座標及び前記視差値からなる近似直線を生成する近似直線生成部と、前記2次元平面上において生成された前記近似直線について、当該近似直線の傾きと長さから投票による立体物判定に寄与する重みを算出する投票重み算出部と、前記視差値と前記画像の各画素領域の画素位置情報に含まれる横座標とによって定められたブロックを複数配列した視差投票マップを設定し、当該視差投票マップの各々のブロックに対して、視差算出点を、前記投票重み算出部で算出した前記重みを反映して投票する視差算出点投票部と、前記視差投票マップにおいて、前記視差算出点の投票数が所定の閾値以上のブロックの情報に基づいて立体物を検出する立体物検出部と、を備えることを特徴とする。
上記立体物検出装置において、前記投票重み算出部は、前記近似直線の長さが所定の閾値以上の場合に、前記近似直線の傾きを表す、視差の変化量に対する縦座標の変化量が大きいほど、前記重みを重くすることが好ましい。
本発明にかかる立体物検出装置によれば、立体物と路面とを良好に区別可能な状態を維持しつつ、高さの低い立体物についても立体物として検出され易くなるようにすることができる。これにより、高さの低い立体物の検出精度を向上させることができ、その結果、より好適に立体物を検出できるという効果を奏する。
図1は、実施形態に係る立体物検出装置の構成の一例を示す図である。 図2は、実施形態に係る2次元平面上で生成される近似直線の一例を示す図である。 図3は、実施形態に係る視差投票マップの一例を示す図である。 図4は、実施形態に係る立体物検出装置の基本処理の一例を示すフローチャートである。
以下に、本発明にかかる立体物検出装置の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記の実施形態における構成要素には、当業者が容易に想定できるものあるいは実質的に同一のものが含まれる。
[実施形態]
図1〜図3を参照して、実施形態に係る立体物検出装置の構成について説明する。ここで、図1は、実施形態に係る立体物検出装置の構成の一例を示す図である。図2は、実施形態に係る2次元平面上で生成される近似直線の一例を示す図である。図3は、実施形態に係る視差投票マップの一例を示す図である。
本実施形態における立体物検出装置は、車両(自車両)に搭載され、典型的には、ステレオカメラ撮像部1と、車両運動量検出装置2と、ECU3と、アクチュエータ4と、を備える。
ステレオカメラ撮像部1は、車両の周囲環境を撮像する。本実施形態においては、ステレオカメラ撮像部1が2つのカメラから構成されている例を説明する。ステレオカメラ撮像部1は、撮像可能な右カメラ1aと左カメラ1bとから構成される。右カメラ1aは、車両前方右側に設置され、左カメラ1bは、車両前方左側に設置される。右カメラ1a及び左カメラ1bは、例えば、ステレオカメラである。右カメラ1aは、車両の進行方向を撮像した画像である輝度画像RをECU3へ出力する。左カメラ1bは、車両の進行方向を撮像した画像である輝度画像LをECU3へ出力する。なお、ステレオカメラ撮像部1は、2つのカメラを具備している例に限定されず、後述のECU3の処理により視差を算出可能であれば、2つ以上のカメラを具備してもよい。
車両運動量検出装置2は、車両運動量を示す各種情報(車速やヨーレートや加速度等)を検出する。車両運動量検出装置2は、車速センサ2aとヨーレートセンサ2bと加速度センサ2cを少なくとも含んで構成される。車速センサ2aは、車輪毎に設けられ、夫々の車輪速度を検出する車輪速度検出装置である。各車速センサ2aは、各車輪の回転速度である車輪速度を検出する。各車速センサ2aは、検出した各車輪の車輪速度を示す車輪速信号をECU3へ出力する。ECU3は、各車速センサ2aから入力される各車輪の車輪速度に基づいて、車両の走行速度である車速を算出する。ECU3は、各車速センサ2aのうち少なくとも1つから入力される車輪速度に基づいて車速を算出してもよい。ECU3は、算出した車速を車両の運動情報として取得する。ヨーレートセンサ2bは、車両のヨーレートを検出するヨーレート検出装置である。ヨーレートセンサ2bは、検出したヨーレートを示すヨーレート信号をECU3へ出力する。ECU3は、入力されたヨーレート信号を車両の運動情報として取得する。加速度センサ2cは、車体にかかる加速度を検出する加速度検出装置である。加速度センサ2cは、検出した加速度を示す加速度信号をECU3へ出力する。ECU3は、入力された加速度信号を車両の運動情報として取得する。
ECU3は、車両の各部の駆動を制御するものであり、CPU、ROM、RAM及びインターフェースを含む周知のマイクロコンピュータを主体とする電子制御ユニットである。ECU3は、ステレオカメラ撮像部1および車両運動量検出装置2と電気的に接続され、検出結果に対応した電気信号が入力される。そして、ECU3は、検出結果に対応した電気信号に応じて各種演算処理を行い、演算結果に対応した制御指令を出力することで、ECU3と電気的に接続されたアクチュエータ4の作動を制御する。例えば、ECU3は、この演算処理結果に基づいた制御信号をアクチュエータ4へ出力して、アクチュエータ4を作動させることで車両の挙動を制御する運転支援制御を行う。
ECU3の各種処理部の詳細について説明する。ECU3は、輝度画像取得部3aと、視差値算出部3bと、近似直線生成部3cと、投票重み算出部3dと、視差算出点投票部3eと、立体物検出部3fと、車両制御部3iと、を少なくとも備える。ここで、立体物検出部3fは、属性付与部3gと、三次元位置算出部3h、とを更に備える。
ECU3のうち、輝度画像取得部3aは、ステレオカメラ撮像部1の右カメラ1a及び左カメラ1bからそれぞれ出力される輝度画像Rおよび輝度画像Lを取得する。輝度画像取得部3aは、更に、画像歪補正処理として、右カメラ1aと左カメラ1bのレンズ歪みがなくなるように輝度画像Rおよび輝度画像Lを補正し、右カメラ1aと左カメラ1bの光軸が平行になるように輝度画像Rおよび輝度画像Lを補正する処理を行う機能も有する。輝度画像取得部3aにより取得されかつ歪みを補正された輝度画像Rおよび輝度画像Lは、視差値算出部3bの処理に用いられる。
視差値算出部3bは、車両の周囲環境を撮像した、ステレオカメラ撮像部1から得られた複数の輝度画像(例えば、輝度画像Rおよび輝度画像L)に基づいて、当該輝度画像を構成する所定の画素領域ごとに、視差値を算出する。
なお、本実施形態において、所定の画素領域は、単一画素であってもよいし、複数画素のまとまりであってもよい。また、所定の画素領域は、視差を算出する際に、複数の輝度画像間で共通の大きさとなる領域に設定されるものとする。例えば、輝度画像Lの画素領域を単一画素とした場合、輝度画像Rの画素領域も単一画素となる。また、輝度画像Lの画素領域を複数画素のまとまりとした場合、輝度画像Rの画素領域も輝度画像Lと同じ大きさとなる複数画像のまとまりとなる。例えば、輝度画像Lの画素領域を、2×2(x方向に2つの単一画素、y方向に2つの単一画素)の4個の複数画素のまとまりとする場合、輝度画像Rの画素領域も2×2の4個の複数画素のまとまりとなる。この他、画素領域は、例えば、3×3の9個の複数画素のまとまりであってもよいし、4×4の16個の複数画素のまとまりであってもよいし、5×5の25個の複数画素のまとまりであってもよい。
ECU3のうち、視差値算出部3bは、当該技術分野で公知の視差算出手法(例えば、エピポーラ線に沿ったブロックマッチング法や、Semi−Global Matching法等)を用いて、視差値を算出する。本実施形態では、後述の連続性・傾き判定部3dにより、近似直線の連続性を判定することから、比較的画像の広い領域で滑らかな視差が算出されるSemi−Global Matching法を用いることが好ましい。
ここで、視差値算出部3bによる視差の算出処理の詳細について説明する。視差値算出部3bは、輝度画像取得部3aにより取得されかつ歪み補正された輝度画像Rおよび輝度画像Lに基づいて、視差を算出する。本実施形態において、視差値算出部3bは、輝度画像Lおよび輝度画像Rの何れか一方のみをベースとして視差を算出する。言い換えると、視差値算出部3bは、輝度画像Lおよび輝度画像Rの両方に基づいて輝度画像Lをベースとして視差を算出するか、又は、輝度画像Lおよび輝度画像Rの両方に基づいて輝度画像Rをベースとして視差を算出する。
具体的には、視差値算出部3bは、輝度画像Lと輝度画像Rの間で対応する画素領域を探索し、探索した対応する画素領域ごとに、対応する画素領域が輝度画像Lと輝度画像Rの間でどの程度ずれているかを示すズレ量を視差値D(x,y)として算出する。例えば、視差値算出部3bは、輝度画像Lをベースとして視差を算出する場合、対応する画素領域間で、輝度画像Lから輝度画像Rまでのズレ量を視差値D(x,y)として算出する。なお、輝度画像Rをベースとして視差を算出する場合、対応する画素領域間で、輝度画像Rから輝度画像Lまでのズレ量を視差値D(x,y)として算出すればよい。更に、視差値算出部3bは、算出した視差値D(x,y)を、輝度画像L及び輝度画像Rのうち一方の輝度画像(すなわち、視差算出のベースとした輝度画像)における画素領域の画素位置情報(x,y)(すなわち、視差値D(x,y)が算出された視差算出点(x,y))ごとに紐付ける処理を行う。
より具体的には、視差値算出部3bは、ステレオカメラ撮像部1によって取得された画像(輝度画像)の輝度値情報に基づいて、当該画像を構成する部分的な画素領域ごとに視差値を算出する過程で以下の処理を行う。視差値算出部3bは、当該部分的な画素領域における視差値を暫定的に算出する。そして、視差値算出部3bは、当該暫定的に算出された視差値である暫定視差値と、当該部分的な画素領域から所定の画像範囲内に位置する画素領域のうち少なくとも近接位置の画素領域において、当該視差値算出部3bによって既に算出された視差値である周辺視差値と、の比較に基づいて当該暫定視差値を補正することによって、当該部分的な画素領域における視差値を算出する。このように算出された視差値は、後述の近似直線生成部3cにより近似直線を生成する際等に用いられる。
ECU3のうち、近似直線生成部3cは、図2の上図に示すように、画像(すなわち、視差を算出した際にベースにした輝度画像L又は輝度画像R)を縦方向に画素領域を含むように複数分割した所定の縦列領域(図2において、画像の縦方向に引かれた黒線の領域)を抽出する。ここで、縦列領域は、所定幅を有する画像中の縦列に対応する領域が、画像中で等間隔おきに複数設定されるものとする。画像中で抽出される縦列領域の数は、当該縦列領域の所定幅と画像の幅に応じて決定される。
そして、近似直線生成部3cは、図2の下図に示すように、当該縦列領域ごとに、画像の各画素領域の画素位置情報に含まれる縦座標(図2において、y座標)を縦軸に投影し、且つ、当該縦座標に各々対応する視差値を横軸に投影した2次元平面を設定する。ここで、2次元平面は、画像の一方の端(例えば、左端)から他方の端(例えば、右端)に向かう順で、各縦列領域に関して夫々設定される。図2の下図は、画像から複数抽出された縦列領域のうち、一例として、画像中の路面部分と立体物部分(図2において、対向車線を走行する相手車両)と背景部分とを跨ぐように設定された、画像の左端からカウントして23番目の縦列領域に関する2次元平面を示している。近似直線生成部3cは、縦列領域に沿って下から上に向かう順で、当該縦列領域内における画素領域の画素位置情報に含まれる縦座標と、当該縦座標に各々対応する視差値とを抽出しながら、これら縦座標と視差値を2次元平面上にプロットする。
そして、近似直線生成部3cは、図2の下図に示すように、当該2次元平面上において、当該技術分野で公知の近似直線手法(例えば、Split−and−Merge手法等)を用いて、投影した縦座標及び視差値に基づいて直線近似を行うことで、投影した縦座標及び視差値からなる近似直線を生成する。近似直線生成部3cは、画像の縦列領域ごとに設定された各2次元平面において、プロットされた縦座標及び視差値に対応する点から近似直線を生成する。
ECU3のうち、投票重み算出部3dは、図2の下図に示すように、2次元平面上において生成された近似直線のうち、縦軸から横軸方向へ向かって所定距離以上離れている近似直線について、その傾きと長さに基づいて、当該近似直線に含まれる視差点が、後述する投票による立体物判定に寄与する重みを決定する。つまり、投票重み算出部3dは、2次元平面上において生成された近似直線について、当該近似直線の傾きと長さから投票による立体物判定に寄与する重みを算出する。
ここで、所定距離は、2次元平面上で、背景に対応する近似直線と、立体物及び路面に対応する近似直線とを区別可能な適切な値に設定されるものとする。2次元平面上においては、立体物や背景であれば、画像奥行方向の距離が変わらないので視差値がほぼ一定になる。例えば、図2の下図に示すように、視差値がほぼ一定になる背景と立体物については、縦座標の変化量に対して視差値の変化量が小さくなるため、縦軸に対する近似直線の傾きが両者ともに小さくなる。そのため、背景と立体物とを区別するには、視差値の大きさの違いで判定することになる。一般的に、背景は、実空間座標上で車両から進行方向に向かって遠方側に存在し、一方、立体物は、実空間座標上で少なくとも背景よりも車両寄りの近方側に存在する。そのため、背景に対応する画素領域で算出される視差値は小さくなり、立体物に対応する画素領域で算出される視差値は、背景よりも大きくなる傾向になる。そこで、本実施形態では、2次元平面上において生成された近似直線のうち、縦軸から横軸方向へ向かって所定距離未満の近似直線については、背景に対応すると判定して、近似直線の連続性と傾きの判定対象から除くものとする。
図2の下図に示すように、立体物に相当する領域の近似直線は、横軸に対しての傾きが大きくなる(垂直に近くなる)傾向がある。一方、走行路面は上述の傾きが幾分か小さくなる傾向がある。このため、近似直線の傾きから、ある程度立体物か路面かの当たりをつけることができる。
また、視差誤差の影響が大きい領域では、安定した直線近似ができず、直線がこま切れとなる傾向がある。
上述の傾向を鑑みて、所定の長さ閾値以上の長さを持つ近似直線を判定し、その近似直線の横軸に対する傾きが所定の傾き閾値以上であれば、より立体物らしいと判断して、当該近似直線に含まれる視差点の、投票による立体物判定に寄与する重みを重くする。本実施形態において、例えば重みを2倍とする。また、近似直線の長さが所定の傾き閾値以上の場合に、近似直線の傾きを表す、視差の変化量に対する縦座標の変化量が大きいほど、重みを重くすることが好ましい。
ここで、遠くの立体物ほど画像上では小さく映り、かつ、視差誤差の影響を受けやすいといった一般的な性質も合わせて考慮すると、上述の長さ閾値と傾き閾値は距離によってその値が変わる方が好ましい。
ECU3のうち、視差算出点投票部3eは、視差値と画像の各画素領域の画素位置情報に含まれる横座標とによって定められたブロックであって、当該ブロックの縦方向の辺が視差値、当該ブロックの横方向の辺が横座標に各々対応し、且つ、当該視差値が大きくなるに従って縦方向の辺及び横方向の辺が長くなるように定められたブロック、を複数配列した視差投票マップを設定する。
ここで、図3を参照して、視差算出点投票部3eが視差算出点を投票する際に用いる視差投票マップの詳細について説明する。図3に示すように、視差投票マップは、横方向の辺を画像の横方向(x座標軸方向)の位置に対応させ、かつ縦方向の辺が視差値D(x,y)の大きさに対応するように定められた複数の矩形状のブロックを配列させて構成されている。各ブロックは、視差値が大きくなるに従って画像の横方向の長さを長くする(すなわち、横座標(図3において、x座標)に対応する辺の長さを長くする)と共に、視差値が大きくなるに従って視差値の解像度を大きくする(すなわち、視差値に対応する辺の長さを長くする)ことにより、視差値が大きくなるに従ってブロックの領域が大きくなるように定められている。
本実施形態では、視差投票マップは平面1〜平面5の複数の領域の分割されており、複数の領域の各々は、所定の視差幅に対応するように定められている。実施形態では、視差値を8ビットで表した場合、平面1が視差値0〜15、平面2が視差値16〜31、平面3が視差値32〜63、平面4が視差値64〜127、平面5が視差128〜255に対応するように定められている。
また、平面1の各ブロックの大きさは横方向をN画素、縦方向(視差方向)を1画素の大きさ、平面2の各ブロックの大きさは横方向を2N画素、縦方向(視差方向)を2画素の大きさ、平面3の各ブロックの大きさは横方向を4N画素、縦方向(視差方向)を4画素の大きさ、平面4の各ブロックの大きさは横方向を8N画素、縦方向(視差方向)を8画素の大きさ、平面5の各ブロックの大きさは横方向を16N画素、縦方向(視差方向)を16画素の大きさになるように定められ、各平面のブロックは格子状に配列されている。なお、Nは、任意の整数である。Nは、例えば1とすることもでき、4とすることもできる。
そして、視差算出点投票部3eは、図3に示したような視差投票マップの各々のブロックに対して、投票重み算出部3dにより算出された重みを反映して視差算出点を投票する。具体的には、視差算出点投票部3eは、2次元平面上に含まれる近似直線上の視差値について、通常“1”としてカウントされる投票に対して、投票重み算出部3dにより算出された重みを乗算して、視差投票マップ上の対応するブロックに投票する。なお、2次元平面は、画像の縦列領域ごとに設定されるため、視差算出点投票部3eは、全ての2次元平面上の視差点について、投票重み算出部3により算出された重みを反映して、視差投票マップ上の対応するブロックに投票する。
ECU3のうち、立体物検出部3fは、視差投票マップにおいて、視差算出点の投票数が所定の閾値以上のブロックの情報に基づいて立体物を検出する。ここで、立体物検出部3fは、属性付与部3gと三次元位置算出部3hを含んで構成される。
属性付与部3gは、視差投票マップにおいて、視差算出点の投票数が所定の閾値以上のブロックに立体物の属性を付与する。具体的には、属性付与部3gは、視差算出点の投票数が平面毎に設定された所定の閾値以上か否かをブロックごとに判定することで、所定の閾値以上のブロックに立体物については、立体物の属性を付与する。また、属性付与部3gは、所定の閾値未満のブロックについては、路面の属性を付与する。ここで、距離が近いほど、左右画像の対応を取ることができ、視差算出点の個数が多くなるので、所定の閾値は、平面1から平面5に向かって徐々に大きくなるように設定される。また、所定の閾値は、平面1〜5毎に、予め実験等により路面と立体物とを区別可能であると確かめられた適切な値に設定されるものとする。
三次元位置算出部3hは、立体物の属性が付与されたブロックの横座標、投票されている視差の平均値、投票される視差点の画像縦方向のばらつきから、車両の存在する三次元実空間中で、どの位置にどの程度の高さの立体物が存在するかを算出する。
ECU3のうち、車両制御部3iは、立体物検出部3fにより検出された立体物を車両が回避するように車両挙動を制御する運転支援制御を行う。車両制御部3iは、例えば、車両運動量検出装置2から取得した運動情報(車両の車速、ヨーレート、加速度)、車両が走行可能な領域を示す各種情報、及び、回避対象となる立体物の位置などに基づいて、車両が立体物を回避可能な走行軌跡や走行速度等を演算する。そして、車両制御部3iは、この演算処理結果に基づいた制御信号をアクチュエータ4へ出力して、アクチュエータ4を作動させることで回避制御を実行する。車両制御部3iは、回避制御として、例えば、EPS等のアクチュエータ4を介して車両の操舵輪の舵角を制御することで、車両が立体物を回避するように操舵支援を実行する。車両制御部3iは、立体物をより確実に回避できるように、回避制御として、操舵支援にブレーキ支援を組み合わせて実行してもよい。このようにして、車両制御部3iは、立体物の位置への車両の移動を回避する回避制御手段として機能する。
続いて、上述のように構成される立体物検出装置の処理により実行される立体物検出方法について、図4を参照して説明する。ここで、図4は、実施形態に係る立体物検出装置の基本処理の一例を示すフローチャートである。
図4に示すように、輝度画像取得部3aは、ステレオカメラ撮像部1の右カメラ1a及び左カメラ1bからそれぞれ出力される輝度画像Rおよび輝度画像Lを取得する(ステップS10)。
そして、視差値算出部3bは、ステップS10にて輝度画像取得部3aの処理により取得された複数の輝度画像(例えば、輝度画像Rおよび輝度画像L)の輝度値情報に基づいて、当該輝度画像を構成する所定の画素領域ごとに、視差値を算出する(ステップS20)。
そして、近似直線生成部3cは、上述の図2に示すように、2次元平面上において、画像(すなわち、ステップS10にて輝度画像取得部3aの処理により取得された輝度画像Rおよび輝度画像Lのうち、ステップS20にて視差値算出部3bの処理により視差値の算出のベースとされた画像)を縦方向に画素領域を含むように複数分割した所定の縦列領域を抽出する。そして、近似直線生成部3cは、当該縦列領域ごとに、画像の各画素領域の画素位置情報に含まれる縦座標を縦軸に投影し、且つ、ステップS20にて視差値算出部3bの処理により算出した当該縦座標に各々対応する視差値を横軸に投影した2次元平面を設定する。そして、近似直線生成部3cは、当該2次元平面上において、投影した縦座標及び視差値に基づいて直線近似を行うことで、投影した縦座標及び視差値からなる近似直線を生成する(ステップS30)。
そして、投票重み算出部3dは、上述の図2に示すように、ステップS30にて近似直線生成部3cの処理により2次元平面上において生成された近似直線のうち、縦軸から横軸方向へ向かって所定距離以上離れている近似直線について、その長さと傾きに基づいて、当該近似直線に含まれる視差点が、後述する投票による立体物判定に寄与する重みを算出する(ステップS40)。
そして、視差算出点投票部3eは、上述の図3に示すように、視差値と画像の各画素領域の画素位置情報に含まれる横座標とによって定められたブロックであって、当該ブロックの縦方向の辺が視差値、当該ブロックの横方向の辺が横座標に各々対応し、且つ、当該視差値が大きくなるに従って縦方向の辺及び横方向の辺が長くなるように定められたブロック、を複数配列した視差投票マップを設定する。そして、視差算出点投票部3eは、視差投票マップの対象のブロックに対して、ステップS40にて投票重み算出部3dにより算出された重みを反映して視差算出点を投票する(ステップS50)。
そして、属性付与部3gは、ステップS50にて視差算出点投票部3eの処理により視差算出点が投票された視差投票マップにおいて、対象のブロックの視差算出点の投票数が所定の閾値以上か否かを判定する(ステップS60)。
ここで、ステップS60において、属性付与部3gは、対象のブロックの視差算出点の投票数が所定の閾値以上であると判定した場合(ステップS60:Yes)、この対象のブロックに対して立体物の属性を付与する(ステップS70)。その後、ステップS90の処理へ移行する。
一方、ステップS60において、属性付与部3gは、対象のブロックの視差算出点の投票数が所定の閾値未満であると判定した場合(ステップS60:No)、この対象のブロックに対して路面の属性を付与する(ステップS80)。その後、ステップS90の処理へ移行する。
ステップS70及びステップS80の処理の後、属性付与部3gは、ステップS50にて視差算出点投票部3eの処理により視差算出点が投票された視差投票マップの全てのブロックについて、属性付与処理が終了したか否かを判定する(ステップS90)。
ここで、ステップS90において、属性付与部3gは、視差投票マップの全てのブロックについて、属性付与処理が終了していないと判定した場合(ステップS90:No)、ステップS60の処理に戻り、属性付与処理を終えたブロックの次のブロックを対象のブロックとして設定して、再度ステップS60の判定結果に基づいてステップS70の処理又はステップS80の処理を行う。
一方、ステップS90において、属性付与部3gは、視差投票マップの全てのブロックについて、属性付与処理が終了したと判定した場合(ステップS90:Yes)、次のステップS100の処理へ移行する。
そして、三次元位置算出部3hは、ステップS70にて属性付与部3gの処理によって立体物の属性が付与されたブロックの横座標、投票されている視差の平均値、投票される視差点の画像縦方向のばらつきから、車両の存在する三次元実空間中で、どの位置にどの程度の高さの立体物が存在するかを算出する(ステップS100)。その後、本処理を終了する。
なお、本実施形態において、ステップS100の処理の後に、ECU3は、ステップS80にて属性付与部3gの処理によって路面の属性が付与されたブロックに対応する画像の画素領域に基づいて路面を検出してもよい。具体的には、ECU3は、属性付与部3gの処理によって路面の属性が付与されたブロックに投票された視差算出点が示す画像の画素領域の画素位置情報を集計し、当該集計された画素位置情報に対応する画素領域については、画像中で路面が存在する領域であると判定することで、路面を検出する。
また、本実施形態において、ステップS100の処理の後に、車両制御部3iは、立体物検出部3fの処理により検出された立体物を車両が回避するように車両挙動を制御する運転支援制御を行ってもよい。この場合、車両制御部3iは、例えば、車両運動量検出装置2から取得した運動情報(車両の車速、ヨーレート、加速度)、車両が走行可能な領域を示す各種情報、及び、回避対象となる立体物の位置などに基づいて、車両が立体物を回避可能な走行軌跡や走行速度等を演算する。そして、車両制御部3iは、この演算処理結果に基づいた制御信号をアクチュエータ4へ出力して、アクチュエータ4を作動させることで回避制御を実行する。車両制御部3iは、回避制御として、例えば、EPS等のアクチュエータ4を介して車両の操舵輪の舵角を制御することで、車両が立体物を回避するように操舵支援を実行する。車両制御部3iは、立体物をより確実に回避できるように、回避制御として、操舵支援にブレーキ支援を組み合わせて実行してもよい。
以上説明したように、本実施形態の立体物検出装置によれば、立体物と路面とを良好に区別可能な状態を維持しつつ、高さの低い立体物についても立体物として検出され易くなるようにすることができる。これにより、高さの低い立体物の検出精度を向上させることができ、従来技術よりも、より好適に立体物を検出できる。
1 ステレオカメラ撮像部
1a 右カメラ
1b 左カメラ
2 車両運動量検出装置
2a 車速センサ
2b ヨーレートセンサ
2c 加速度センサ
3 ECU
3a 輝度画像取得部
3b 視差値算出部
3c 近似直線生成部
3d 投票重み算出部
3e 視差算出点投票部
3f 立体物検出部
3g 属性付与部
3h 三次元位置算出部
3i 車両制御部
4 アクチュエータ

Claims (1)

  1. ステレオカメラ撮像部と、
    前記ステレオカメラ撮像部によって取得された画像に基づいて、当該画像を構成する所定の画素領域ごとに視差値を算出する視差値算出部と、
    前記画像を縦方向に前記画素領域を含むように複数分割した所定の縦列領域を抽出し、当該縦列領域ごとに、前記画像の各画素領域の画素位置情報に含まれる縦座標を縦軸に投影し、且つ、当該縦座標に各々対応する前記視差値を横軸に投影した2次元平面を設定し、当該2次元平面上において、投影した前記縦座標及び前記視差値に基づいて直線近似を行うことで、投影した前記縦座標及び前記視差値からなる近似直線を生成する近似直線生成部と、
    前記2次元平面上において生成された前記近似直線について、当該近似直線の傾きと長さから投票による立体物判定に寄与する重みを算出する投票重み算出部と、
    前記視差値と前記画像の各画素領域の画素位置情報に含まれる横座標とによって定められたブロックを複数配列した視差投票マップを設定し、当該視差投票マップの各々のブロックに対して、視差算出点を、前記投票重み算出部で算出した前記重みを反映して投票する視差算出点投票部と、
    前記視差投票マップにおいて、前記視差算出点の投票数が所定の閾値以上のブロックの情報に基づいて立体物を検出する立体物検出部と、
    を備えることを特徴とする立体物検出装置。
JP2014190403A 2014-09-18 2014-09-18 立体物検出装置 Active JP6396729B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014190403A JP6396729B2 (ja) 2014-09-18 2014-09-18 立体物検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014190403A JP6396729B2 (ja) 2014-09-18 2014-09-18 立体物検出装置

Publications (2)

Publication Number Publication Date
JP2016062356A JP2016062356A (ja) 2016-04-25
JP6396729B2 true JP6396729B2 (ja) 2018-09-26

Family

ID=55796034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014190403A Active JP6396729B2 (ja) 2014-09-18 2014-09-18 立体物検出装置

Country Status (1)

Country Link
JP (1) JP6396729B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3336754A3 (en) 2016-11-25 2018-09-05 Ricoh Company Ltd. Information processing apparatus, photographing apparatus, moving object control system, moving object, information processing method, and program
JP2018132946A (ja) 2017-02-15 2018-08-23 トヨタ自動車株式会社 視差算出装置
JP6741646B2 (ja) 2017-12-25 2020-08-19 株式会社Subaru 車外環境認識装置
JP7133378B2 (ja) * 2018-07-17 2022-09-08 株式会社Soken 距離画像生成装置
JP2020164045A (ja) * 2019-03-29 2020-10-08 マツダ株式会社 車両走行制御装置
EP4258243A4 (en) * 2021-03-30 2024-01-03 NEC Corporation IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD AND PROGRAM

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09106500A (ja) * 1995-10-12 1997-04-22 Fuji Heavy Ind Ltd 車輌の運転支援装置
JP4341564B2 (ja) * 2005-02-25 2009-10-07 株式会社豊田中央研究所 対象物判定装置
JP4856611B2 (ja) * 2007-10-29 2012-01-18 富士重工業株式会社 物体検出装置

Also Published As

Publication number Publication date
JP2016062356A (ja) 2016-04-25

Similar Documents

Publication Publication Date Title
JP6396729B2 (ja) 立体物検出装置
US9771080B2 (en) Road surface gradient detection device
JP5958366B2 (ja) 車載画像処理装置
JP5804185B2 (ja) 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法
JP6707022B2 (ja) ステレオカメラ
US9912933B2 (en) Road surface detection device and road surface detection system
JP5867176B2 (ja) 移動物体位置姿勢推定装置及び方法
JP6158779B2 (ja) 画像処理装置
CN107850446A (zh) 自身位置推定装置及自身位置推定方法
JP6377970B2 (ja) 視差画像生成装置及び視差画像生成方法
JP2017506382A (ja) 車両用のステレオ/ビデオシステム内の相対的なヨー角の変化を検知するための方法および制御装置
JP6936098B2 (ja) 対象物推定装置
JP2012159469A (ja) 車両用画像認識装置
JP2012159470A (ja) 車両用画像認識装置
JP6466679B2 (ja) 物体検出装置
JP6577595B2 (ja) 車両用外界認識装置
WO2014054124A1 (ja) 路面標示検出装置及び路面標示検出方法
JP6841553B2 (ja) 撮像装置
JP5472137B2 (ja) 境界検出装置、および境界検出プログラム
JP2013220729A (ja) 車載カメラの取付角度補正装置および取付角度補正方法
JP2015215235A (ja) 物体検出装置及び物体検出方法
JP6561688B2 (ja) 検出装置、検出方法、撮像装置、機器制御システム、及びプログラム
JP2017223578A (ja) 路面検出装置
JP6651877B2 (ja) 車両用立体物検出装置
WO2024009386A1 (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180830

R151 Written notification of patent or utility model registration

Ref document number: 6396729

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250