JP6561688B2 - 検出装置、検出方法、撮像装置、機器制御システム、及びプログラム - Google Patents

検出装置、検出方法、撮像装置、機器制御システム、及びプログラム Download PDF

Info

Publication number
JP6561688B2
JP6561688B2 JP2015169528A JP2015169528A JP6561688B2 JP 6561688 B2 JP6561688 B2 JP 6561688B2 JP 2015169528 A JP2015169528 A JP 2015169528A JP 2015169528 A JP2015169528 A JP 2015169528A JP 6561688 B2 JP6561688 B2 JP 6561688B2
Authority
JP
Japan
Prior art keywords
parallax
frequency
distribution
corner
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015169528A
Other languages
English (en)
Other versions
JP2017045395A (ja
Inventor
高橋 禎郎
禎郎 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015169528A priority Critical patent/JP6561688B2/ja
Publication of JP2017045395A publication Critical patent/JP2017045395A/ja
Application granted granted Critical
Publication of JP6561688B2 publication Critical patent/JP6561688B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、検出装置、検出方法、撮像装置、機器制御システム、及びプログラムに関する。
近年、情報処理技術、画像処理技術の発達により、高速に人や自動車を検出する技術が開発されてきている。これらの技術を応用し、ミリ波レーダ、レーザレーダ、ステレオカメラ等により人や他車までの距離を測定し、衝突する前に自動的にブレーキをかけて衝突を未然に防ぐ技術が実用化されてきている。
隣接車線の極近傍の先行車、あるいは直前の先行車が車線変更するとき、その挙動を正確に把握し、安全な車間距離を保ったり、ドライバーに警告したりするためには、先行車の車両(先行車両)のうち、最も自車に接近している部分の位置や距離を把握することが重要となる。言い換えれば、先行車が割り込みを行う等の際、先行車両の最も近い位置(左の先行車両なら右後ろのコーナーの位置、右の先行車両なら左後ろのコーナーの位置)を把握することが重要となる。
ミリ波レーダ、レーザレーダは分解能が低いため、先行車両のコーナーの位置を正確に把握できない。一方、ステレオカメラを用いると、比較的高精度に把握できる。
特許文献1には、ステレオカメラを用いて、次のような処理により、先行車両のコーナーの位置を検出する技術が開示されている。まず、画像を短冊状の区分に分割し、各区分の視差を実空間上にプロットし、プロットされた各点間の距離や方向性に基づいて、互いに隣接する各点をグループ化し、各グループに属する各点をそれぞれ直線近似する。そして、それぞれのグループ内の各点が自車の車幅方向に略平行に並ぶグループと、各点が自車の車長方向に略平行に並ぶグループの、交点とみなすことができる箇所をコーナーの位置として検出する。
従来の技術では、ステレオカメラを用いて、先行車両や対向車両等のコーナーの位置を検出する場合、車両の色、天候、昼夜、車の形状、視差値の分散等の条件によっては、当該位置を正確に検出できないという問題がある。
そこで、ステレオカメラを用いて、先行車両等のコーナーの位置を検出する場合に、当該位置を高精度に検出できる技術を提供することを目的とする。
検出装置において、実空間上の領域で真上から見た場合の、物体の視差の頻度の分布を表す俯瞰マップを取得する取得部と、所定の物体に対応する前記分布において、視野角が最小、及び最大となる位置から所定範囲内で、視差の頻度が大きい第1の位置、及び第2の位置をそれぞれ決定する決定部と、前記分布に基づいて、前記第1の位置及び前記第2の位置を直径の端点とする円周上から、前記所定の物体のコーナーの位置を検出する検出部と、を備える。
開示の技術によれば、ステレオカメラを用いて、先行車両等のコーナーの位置を検出する場合に、当該位置を高精度に検出できる。
実施形態における車載機器制御システムの概略構成を示す模式図である。 同車載機器制御システムを構成する撮像ユニットの概略構成を示す模式図である。 画像処理基板および画像解析ユニットで実現される物体検出処理を説明するための処理ブロック図である。 (a)は視差画像の視差値分布の一例を示す説明図である。(b)は、同(a)の視差画像の行ごとの視差値頻度分布を示す行視差分布マップ(Vマップ)を示す説明図である。 一方の撮像部で撮像される基準画像の一例を模式的に表した画像例である。 基準画像の一例に対応するVマップを示す説明図である。 一方の撮像部で撮像される基準画像の他の一例を模式的に表した画像例である。 基準画像の他の一例に対応する頻度Uマップを示す説明図である。 基準画像の他の一例に対応する高さUマップを示す説明図である。 基準画像の他の例に対応するリアル頻度Uマップを示す説明図である。 コーナー検出部内の処理ブロック図である。 コーナー検出部による検出処理のフローチャートである。 俯瞰マップにおける先行車両の頻度分布の例である。 第1の位置、及び第2の位置をそれぞれ検出する処理の第1の例を説明する図である。 第1の位置、及び第2の位置をそれぞれ検出する処理の第2の例を説明する図である。 第1の位置、及び第2の位置をそれぞれ検出する処理の第3の例を説明する図である。 隣の車線を走行している先行車両の頻度分布を用いて、先行車両のコーナー等を検出する処理を説明する図である。 自車と同じ車線を走行している先行車両の頻度分布を用いて、先行車両のコーナー等を検出する処理を説明する図である。 隣接車線を走る先行車両を検知する場合の実施形態による効果を説明する図である。 側壁を検知する場合の実施形態による効果を説明する図である。
以下、本発明に係る物体検出装置を、移動体機器制御システムである車載機器制御システムに用いた一実施形態について説明する。
図1は、本実施形態における車載機器制御システムの概略構成を示す模式図である。
本車載機器制御システムは、移動体である自動車などの自車100に搭載された撮像ユニット101で撮像した自車進行方向前方領域(撮像領域)の撮像画像データから検出対象物を検出し、その検知結果を利用して各種車載機器の制御を行う。
本実施形態の車載機器制御システムには、走行する自車100の進行方向前方領域を撮像領域として撮像する撮像ユニット101が設けられている。この撮像ユニット101は、例えば、自車100のフロントガラス105のルームミラー付近に設置される。撮像ユニット101の撮像によって得られる撮像画像データ等の各種データは、画像解析ユニット102に入力される。画像解析ユニット102は、撮像ユニット101から送信されてくるデータを解析して、撮像領域内に存在する他車両等の検出対象物を検出する。なお、撮像ユニット101及び画像解析ユニット102は、一体の装置である撮像装置として構成してもよい。
画像解析ユニット102の検出結果は、ECU(Engine Control Unit)等である車両走行制御ユニット106に送られる。車両走行制御ユニット106は、画像解析ユニット102が検出した検出結果に基づいて、自車100の運転者へ表示モニタ103を用いて警告を報知したり、自車のハンドルやブレーキを制御するなどの走行支援制御を行ったりする。
図2は、撮像ユニット101の概略構成を示す模式図である。
撮像ユニット101は、撮像手段としての2つの撮像部110A,110Bを備えたステレオカメラを備えており、2つの撮像部110A,110Bは同一のものである。各撮像部110A,110Bは、それぞれ、撮像レンズ111A,111Bと、受光素子が2次元配置された画像センサ113A,113Bと、画像センサコントローラ115A,115Bとから構成されている。画像センサコントローラ115A,115Bは、画像センサ113A,113Bの露光制御、画像読み出し制御、外部回路との通信、画像データの送信等の役割を担う。画像センサコントローラ115A,115Bからは、画像センサ113A,113Bから出力されるアナログ電気信号(画像センサ上の各受光素子が受光した受光量)をデジタル電気信号に変換した撮像画像データ(輝度画像データ)が出力される。
また、撮像ユニット101は、2つの撮像部110A、110Bに対してデータバス及びシリアルバスで接続された画像処理基板120を備えている。画像処理基板120には、CPU(Central Processing Unit)121、RAM122、ROM123、FPGA124(Field-Programmable Gate Array)、シリアルIF(インターフェース)125、データIF126などが設けられている。画像処理基板120のデータバスは、2つの撮像部110A,110Bから出力される輝度画像データを画像処理基板120上のRAM122に転送する。画像処理基板120のシリアルバスは、CPU121やFPGA124からのセンサ露光制御値の変更命令、画像読み出しパラメータの変更命令、各種設定データなどの送受信を行う。画像処理基板120のFPGA124は、RAM122に保存された画像データに対してリアルタイム性が要求される処理、例えばガンマ補正、ゆがみ補正(左右画像の平行化)、ブロックマッチングによる視差演算を行って視差画像データを生成し、RAM122に書き戻す。CPU121は、路面形状検出処理、オブジェクト検出処理等を実行するためのプログラムをROM123からロードし、RAM122に蓄えられた輝度画像データや視差画像データを入力して、各種処理を実行する。検出された各種データは、データIF126やシリアルIF125から外部へ出力される。各種処理の実行に際しては、データIF126を利用して、適宜、車両の情報(車速、加速度、舵角、ヨーレートなど)を入力し、各種処理のパラメータとして使用する。
次に、本実施形態における物体検出処理について説明する。
図3は、主に画像処理基板120上のCPU121がプログラムを実行することによってあるいはFPGA124によって実現される物体検出処理を説明するための処理ブロック図である。
ステレオカメラを構成する2つの撮像部110A,110Bからは輝度画像データが出力される。このとき、撮像部110A,110Bがカラーの場合には、そのRGB信号から輝度信号(Y)を得るカラー輝度変換を、例えば下記の式(1)を用いて行う。
Y = 0.3R + 0.59G + 0.11B ・・・(1)
輝度画像データが入力されると、まず、平行化画像生成部131で平行化画像生成処理を実行する。この平行化画像生成処理は、撮像部110A,110Bにおける光学系の歪みや左右の撮像部110A,110Bの相対的な位置関係から、各撮像部110A,110Bから出力される輝度画像データ(基準画像と比較画像)を、2つのピンホールカメラが平行に取り付けられたときに得られる理想的な平行化ステレオ画像となるように変換する。これは、各画素での歪み量を、Δx=f(x,y)、Δy=g(x,y)という多項式を用いて計算し、その計算結果を用いて、各撮像部110A,110Bから出力される輝度画像データ(基準画像と比較画像)の各画素を変換する。多項式は、例えば、x(画像の横方向位置)、y(画像の縦方向位置)に関する5次多項式に基づく。
このようにして平行化画像処理を行った後、次に、FPGA124等で構成される視差画像生成部132において、視差画像データ(視差画像情報)を生成する視差画像生成処理を行う。視差画像生成処理では、まず、2つの撮像部110A,110Bのうちの一方の撮像部110Aの輝度画像データを基準画像データとし、他方の撮像部110Bの輝度画像データを比較画像データとし、これらを用いて両者の視差を演算して、視差画像データを生成して出力する。この視差画像データは、基準画像データ上の各画像部分について算出される視差値dに応じた画素値をそれぞれの画像部分の画素値として表した視差画像を示すものである。
具体的には、視差画像生成部132は、基準画像データのある行について、一の注目画素を中心とした複数画素(例えば16画素×1画素)からなるブロックを定義する。一方、比較画像データにおける同じ行において、定義した基準画像データのブロックと同じサイズのブロックを1画素ずつ横ライン方向(X方向)へずらし、基準画像データにおいて定義したブロックの画素値の特徴を示す特徴量と比較画像データにおける各ブロックの画素値の特徴を示す特徴量との相関を示す相関値を、それぞれ算出する。そして、算出した相関値に基づき、比較画像データにおける各ブロックの中で最も基準画像データのブロックと相関があった比較画像データのブロックを選定するマッチング処理を行う。その後、基準画像データのブロックの注目画素と、マッチング処理で選定された比較画像データのブロックの対応画素との位置ズレ量を視差値dとして算出する。このような視差値dを算出する処理を基準画像データの全域又は特定の一領域について行うことで、視差画像データを得ることができる。
マッチング処理に用いるブロックの特徴量としては、例えば、ブロック内の各画素の値(輝度値)を用いることができ、相関値としては、例えば、基準画像データのブロック内の各画素の値(輝度値)と、これらの画素にそれぞれ対応する比較画像データのブロック内の各画素の値(輝度値)との差分の絶対値の総和を用いることができる。この場合、当該総和が最も小さくなるブロックが最も相関があると言える。
視差画像生成部132でのマッチング処理をハードウェア処理によって実現する場合には、例えばSSD(Sum of Squared Difference)、ZSSD(Zero-mean Sum of Squared Difference)、SAD(Sum of Absolute Difference)、ZSAD(Zero-mean Sum of Absolute Difference)などの方法を用いることができる。なお、マッチング処理では画素単位での視差値しか算出できないので、1画素未満のサブピクセルレベルの視差値が必要な場合には推定値を用いる必要がある。その推定方法としては、例えば、等角直線方式、二次曲線方式等を利用することができる。ただし、このサブピクセルレベルの推定視差値には誤差が発生するので、この推定誤差を減少させるEEC(推定誤差補正)などを用いてもよい。
次に、Vマップ生成部133において、Vマップを生成するVマップ生成処理を実行する。視差画像データに含まれる各視差画素データは、x方向位置とy方向位置と視差値dとの組(x,y,d)で示されるところ、これを、X軸にd、Y軸にy、Z軸に頻度fを設定した三次元座標情報(d,y,f)に変換したもの、又はこの三次元座標情報(d,y,f)から所定の頻度閾値を超える情報に限定した三次元座標情報(d,y,f)を生成する。この三次元座標情報(d,y,f)をX−Yの2次元座標系に分布させたものを、Vマップ(V-disparity map)と呼ぶ。
具体的に説明すると、Vマップ生成部133は、画像を上下方向に複数分割して得られる視差画像データの各行領域について、視差値頻度分布を計算する。具体例を挙げて説明すると、図4(a)に示すような視差値分布をもった視差画像データが入力されたとき、Vマップ生成部133は、行ごとの各視差値のデータの個数の分布である視差値頻度分布を計算して出力する。このようにして得られる各行の視差値頻度分布の情報を、Y軸に視差画像上のy方向位置(撮像画像の上下方向位置)をとりX軸に視差値をとった二次元直交座標系上に表すことで、図4(b)に示すようなVマップを得ることができる。このVマップは、頻度fに応じた画素値をもつ画素が前記二次元直交座標系上に分布した画像として表現することもできる。
次に、本実施形態では、Vマップ生成部133が生成したVマップの情報(視差ヒストグラム情報)から、路面形状検出部134において、自車100の前方路面の3次元形状を検出する路面形状検出処理が実行される。
図5は、撮像部110Aで撮像される基準画像の一例を模式的に表した画像例である。
図5に示す画像例では、自車100が走行している路面と、自車100の前方に存在する先行車両と、路外に存在する電柱が映し出されている。この画像例は、自車100の前方路面が相対的に平坦な路面、すなわち、自車100の前方路面が自車100の真下の路面部分と平行な面を自車前方へ延長して得られる仮想の基準路面(仮想基準移動面)に一致している場合のものである。この場合、画像の下部に対応するVマップの下部において、高頻度の点は、画像上方へ向かうほど視差値dが小さくなるような傾きをもった略直線状に分布する。このような分布を示す画素は、視差画像上の各行においてほぼ同一距離に存在していてかつ最も占有率が高く、しかも画像上方へ向かうほど距離が連続的に遠くなる検出対象物を映し出した画素であると言える。
図6は、図5の画像例に対応するVマップである。
撮像部110Aでは自車前方領域を撮像するため、その撮像画像の内容は、図6に示すように、画像上方へ向かうほど路面の視差値dは小さくなる。また、同じ行(横ライン)内において、路面を映し出す画素はほぼ同じ視差値dを持つことになる。したがって、Vマップ上において上述した略直線状に分布する高頻度の点は、路面(移動面)を映し出す画素が持つ特徴に対応したものである。よって、Vマップ上における高頻度の点を直線近似して得られる近似直線上又はその近傍に分布する点の画素は、高い精度で、路面を映し出している画素であると推定することができる。また、各画素に映し出されている路面部分までの距離は、当該近似直線上の対応点の視差値dから高精度に求めることができる。
次に、路面高さテーブル算出部135において、路面高さ(自車の真下の路面部分に対する相対的な高さ)を算出してテーブル化する路面高さテーブル算出処理を行う。路面形状検出部134により生成されたVマップ上の近似直線の情報から、撮像画像上の各行領域(画像上下方向の各位置)に映し出されている各路面部分までの距離を算出できる。一方、自車の真下に位置する路面部分をその面に平行となるように自車進行方向前方へ延長した仮想平面の自車進行方向における各面部分が、撮像画像中のどの各行領域に映し出されるかは予め決まっており、この仮想平面(基準路面)はVマップ上で直線(基準直線)により表される。路面形状検出部134から出力される近似直線を基準直線と比較することで、自車前方の各路面部分の高さを得ることができる。簡易的には、路面形状検出部134から出力される近似直線上のY軸位置から、これに対応する視差値から求められる距離だけ自車前方に存在する路面部分の高さを算出できる。路面高さテーブル算出部135では、近似直線から得られる各路面部分の高さを、必要な視差範囲についてテーブル化する。
なお、ある視差値dにおいてY軸位置がy'である地点に対応する撮像画像部分に映し出されている物体の路面からの高さは、当該視差値dにおける近似直線上のY軸位置をy0としたとき、(y'−y0)から算出することができる。一般に、Vマップ上における座標(d,y')に対応する物体についての路面からの高さHは、下記の式(2)より算出することができる。ただし、下記の式(2)において、「z」は、視差値dから計算される距離(z=BF/(d−offset))であり、「f」はカメラの焦点距離を(y'−y0)の単位と同じ単位に変換した値である。ここで、「BF」は、ステレオカメラの基線長と焦点距離を乗じた値であり、「offset」は無限遠の物体を撮影したときの視差値である。
H = z×(y'−y0)/f ・・・(2)
次に、Uマップ生成部136について説明する。
Uマップ生成部136では、Uマップを生成するUマップ生成処理を実行する。Uマップ生成処理では、視差画像データに含まれる各視差画素データにおけるx方向位置とy方向位置と視差値dとの組(x,y,d)を、X軸にx、Y軸にd、Z軸に頻度を設定した三次元座標情報(x,d,f)に変換したもの、又はこの三次元座標情報(x,d,f)から所定の頻度閾値を超える情報に限定した三次元座標情報(x,d,f)を、視差ヒストグラム情報として生成する。この三次元座標情報(x,d,f)をX−Yの2次元座標系に分布させたものを、頻度Uマップ(U-disparity map)と呼ぶ。
具体的に説明すると、Uマップ生成部136は、画像を左右方向に複数分割して得られる視差画像データの各列領域について、視差値頻度分布を計算する。この視差値頻度分布を示す情報が視差ヒストグラム情報である。具体的には、視差値分布をもった視差画像データが入力されたとき、Uマップ生成部136は、列ごとの各視差値のデータの個数の分布である視差値頻度分布を計算し、これを視差ヒストグラム情報として出力する。このようにして得られる各列の視差値頻度分布の情報を、X軸に視差画像上のx方向位置(撮像画像の左右方向位置)をとりY軸に視差値をとった二次元直交座標系上に表すことで、頻度Uマップを得ることができる。この頻度Uマップは、頻度fに応じた画素値をもつ画素が前記二次元直交座標系上に分布した画像として表現することもできる。
本実施形態のUマップ生成部136では、路面高さテーブル算出部135によってテーブル化された各路面部分の高さに基づいて、路面からの高さHが所定の高さ範囲(たとえば20cmから3m)にある視差画像の点(x,y,d)についてだけUマップを作成する。この場合、路面から当該所定の高さ範囲に存在する物体を適切に抽出することができる。なお、例えば、撮像画像の下側5/6の画像領域に対応する視差画像の点(x,y,d)についてだけUマップを作成するようにしてもよい。この場合、撮像画像の上側1/6は、ほとんどの場合、空が映し出されていて認識対象とする必要のある物体が映し出されていないためである。
また、各視差画像の点(x,y,d)については、路面高さテーブル算出部135によってテーブル化された各路面部分の高さに基づいて路面からの高さHが対応づけされることから、頻度に関する三次元座標情報(x,d,f)だけでなく、三次元座標情報(x,d,H)も得ることができる。この三次元座標情報(x,d,H)をX−Yの2次元座標系に分布させたものを、高さUマップと呼ぶ。この高さUマップは、高さHに応じた画素値をもつ画素が前記二次元直交座標系上に分布した画像として表現することもできる。本実施形態では、頻度Uマップを構成する三次元座標情報(x,d,f)から、視差値dごとの最大高さHmaxを用いて、三次元座標情報(x,d,Hmax)を抽出し、この三次元座標情報(x,d,Hmax)をX−Yの2次元座標系に分布させた高さUマップを用いる。
図7は、撮像部110Aで撮像される基準画像の他の一例を模式的に表した画像例である。
図8は、図7の画像例に対応するUマップであり、頻度fに応じた画素値をもつ画素が二次元直交座標系上に分布した画像として表現した頻度Uマップである。
図9は、図7の画像例に対応するUマップであり、視差値ごとの実空間上の最大高さHmaxに応じた画素値をもつ画素が二次元直交座標系上に分布した画像として表現した高さUマップである。
図7に示す画像例では、路面の左右両側にガードレールが存在し、他車両としては、先行車両と対向車両がそれぞれ1台ずつ存在する。このとき、頻度Uマップにおいては、図8に示すように、左右のガードレールに対応する高頻度の点は、左右両端側から中央に向かって上方へ延びるような略直線状に分布する。一方、他車両に対応する高頻度の点は、左右のガードレールの間で、略X軸方向に平行に延びる線分の状態で分布する。なお、先行車両の背面部分又は対向車両の前面部分以外に、これらの車両の側面部分が映し出されているような状況にあっては、同じ他車両を映し出している画像領域内において視差が生じる。このような場合、図8に示すように、他車両に対応する高頻度の点は、略X軸方向に平行に延びる線分と略X軸方向に対して傾斜した線分とが連結した状態の分布を示す。
また、高さUマップにおいては、図9に示すように、図8に示す頻度Uマップと同様の画像形状を示すが、左右のガードレールに対応する箇所は実空間上の高さが相対的に低いので画素値が低く、他車両に対応する箇所は実空間上の高さが相対的に高いので画素値が高くなっている。
次に、リアルUマップ生成部137について説明する。
リアルUマップ生成部137は、Uマップ生成部136で生成される頻度Uマップ及び高さUマップにおけるX軸を、視差画像データ上のx方向位置から、実空間上のx方向位置に変換する。視差画像データ上のx方向位置は、実空間上のx方向位置が同じであっても、距離が離れるほど(画像上側ほど)、視差画像データ上の消失点に近づくので、頻度Uマップ及び高さUマップについて、このような視差画像データ上のx方向位置を実空間上のx方向位置に変換したものをそれぞれリアル頻度Uマップ(Real U-disparity map、俯瞰マップ)及びリアル高さUマップと呼ぶ。リアル頻度Uマップは、実空間上の領域で真上から見た場合の、視差の頻度の分布を表すデータである。
図10は、図8に示した頻度Uマップに対応するリアル頻度Uマップである。
図10に示すリアル頻度Uマップでは、Y軸を、頻度Uマップでの視差dを距離に応じた間引き率で変換した間引き視差という単位としている。近距離の物体は大きく映し出されるために算出される視差値の距離に対する分解能が高いので、視差値について大きく間引くことが可能になる。図10に示すリアル頻度Uマップにおいて、左右のガードレールについては上下方向に延びる線分の状態で分布し、他車両については略長方形状の状態で分布するため、いずれも、実空間上の自車前方領域を真上から見たときの実際の形状に近い分布形状をとる。なお、リアルUマップ生成部137では、同様にしてリアル高さUマップも生成する。
なお、上述したリアル頻度Uマップのことを、以下では適宜、俯瞰マップと称する。
続いて、図11を参照し、コーナー検出部138の処理について説明する。図11は、コーナー検出部138内の処理ブロック図である。
コーナー検出部138は、取得部138A、決定部138B、検出部138Cを有する。
取得部138Aは、リアルUマップ生成部137が生成した俯瞰マップと、リアル高さUマップを取得する。
決定部138Bは、俯瞰マップの、先行車両や対向車両等の物体に対応する視差の頻度の分布において、視野角(ステレオカメラの中心を原点とした、ステレオカメラの光軸方向に対する角度)が最小、及び最大となる位置から所定範囲内で、視差の頻度が大きい第1の位置、及び第2の位置をそれぞれ決定する。なお、視野角は、例えば、水平面で左側を正の値とし、水平面で右側を負の値とする。その場合、視野角は、−90°から90°までの値となる。
検出部138Cは、第1の位置及び第2の位置を直径の端点とする円周上から、物体のコーナーの位置を検出する。具体的には、検出部138Cは、第1の位置及び第2の位置を直径の端点とする円周上の各位置のうち、第1の位置との間及び第2の位置との間の、視差の頻度の平均値が最も大きい位置を、コーナーの位置であると判断する。
検出部138Cは、第1の位置とコーナーの位置、または第2の位置とコーナーの位置に基づいて、所定の物体の向きを検出する。
検出部138Cは、所定の物体の視差に基づいて、物体の、第1の位置とコーナーの位置を含む面、または第2の位置とコーナーの位置を含む面の高さを検出する。
続いて、図12を参照し、コーナー検出部138が、俯瞰マップを用いて、先行車両や対向車両等のコーナー等を検出する検出処理について説明する。以下では、コーナー等を検出する対象が先行車両であるものとして説明するが、対向車両であっても同様に検出できる。
図12は、コーナー検出部138による検出処理のフローチャートである。以下では、俯瞰マップにおいて、ステレオカメラの光軸方向(自車の進行方向、車長方向)をZ軸、ステレオカメラの光軸方向と垂直な水平方向(車幅方向)をX軸、ステレオカメラの光軸方向と垂直な鉛直方向をY軸として説明する。
リアルUマップ生成部137によって作成された、俯瞰マップを取得する(ステップS1)。
俯瞰マップ上の物体のうちの一の物体を抽出する(ステップS2)。
抽出した物体について、視野角が最小、及び最大に近い位置で、視差頻度が最も高い第1の位置(点A)及び第2の位置(点B)をそれぞれ検出する(ステップS3)。
点A、Bを直径の端点とする円周上の点Dを俯瞰マップ上で設定する(ステップS4)。
線分AD及び線分DBが通過する俯瞰マップ上の点(ブロック)の頻度の平均値を、頻度平均値として算出する(ステップS5)。
弧AB間で頻度平均値が最大となる点DをDmaxとして記憶する(ステップS6)。なお、Dmaxが、先行車両等の最も近い位置(角、コーナー)として出力される。
抽出した物体が極小面を含むか判断する(ステップS7)。正面の車両、または側壁を誤認識した場合に、物体の2面のうちの1面の幅が極小さく検出する場合があるため、この処理により、誤認識した物体を削除する。なお、極小面を含むかの判断は、例えば、点Aと点Dmaxとの間の距離が所定値(例えば256mm)以下であり、かつ、点Aと点Dmaxを含む面の幅が所定値(例えば256mm)以下である場合、及び点Dmaxと点Bとの間の距離が所定値以下であり、かつ、点Dmaxと点Bを含む面の幅が所定値以下である場合に、極小面を含むと判断する。
極小面を含むと判断した場合(ステップS7でYES)、ステップS10の処理に進む。それにより、対象の物体が、正面の車や側壁であった場合は、以下の処理をスキップする。
極小面を含まないと判断した場合(ステップS7でNO)、線分ADmax、及び線分BDmaxの、ステレオカメラの光軸方向(自車の進行方向、車長方向)と垂直な水平方向(車幅方向)に対する角度を算出する(ステップS8)。それにより、先行車両の向きが検出される。
俯瞰マップを生成する元となった画像において、リアル高さUマップを用いて、線分ADmaxに対応する面、及び線分BDmaxに対応する面について、面の左右の辺のX座標、Y座標の最大値、最小値をそれぞれ算出する(ステップS9)。Y座標の高さについて、最も高いY座標は、リアル高さUマップから取得する。最も低いY座標は、路面高さテーブル算出部135によって算出された路面の高さである。なお、リアル高さUマップを用いる代わりに、高さUマップを用いる構成としてもよい。
俯瞰マップ上の物体のうち、未抽出の物体があるか判断する(ステップS10)。
未抽出の物体があれば(ステップS10でYES)、未抽出の物体を抽出し(ステップS11)、ステップS3の処理へ進む。
未抽出の物体がなければ(ステップS10でNO)、処理を終了する。
なお、ステップS5、ステップS6で、頻度の平均値が最大となる点DをDmaxとする代わりに、頻度の合計値が最大となる点DをDmaxとする構成としてもよい。その場合、線分AD及び線分DBが通過する、俯瞰マップ上のブロック毎の頻度の値を積分することにより、合計値を算出する構成としてもよい。
続いて、図13を参照し、俯瞰マップにおける先行車両の頻度分布について説明する。図13は、俯瞰マップにおける先行車両の頻度分布の例である。
俯瞰マップの分解能を例えば128mmとすると、先行車両の頻度分布は、128mm×128mmのブロックが複数並んだ形状となる。なお、俯瞰マップの分解能を高くすると(例えば、64mm)、精度は上がるが、ブロックの密度が疎らになり検出が困難になる。分解能を低くすると(例えば、256mm)、ブロックの密度が密になるが、分解能が低いため正確な位置が検出しにくくなる。
先行車両の頻度分布においてZ軸方向、及びX軸方向において、ステレオカメラからの距離が遠い位置では、斜め方向にブロックが伸びる形状となる。これは、撮影時の条件等に応じて生じる視差の誤差(分散)によりものである。俯瞰マップを作成する元となった画像において、先行車両の側面しか写っていない場合は、当該斜め方向に延びるブロックは少ない。俯瞰マップを作成する元となった画像において、先行車両の近くに遠方に存在するものが背景として写っている場合等は、当該背景の視差の影響による誤差で、当該斜め方向に延びるブロックが多くなる。
続いて、図14乃至図16を参照し、図12のステップS3で、抽出した物体について、視野角が最小、及び最大に近い位置で、視差頻度が最も高い第1の位置(点A)及び第2の位置(点B)をそれぞれ検出する処理の例について説明する。
図14は、視野角が最小、及び最大となる位置から所定範囲内で、視差の頻度が大きい第1の位置、及び第2の位置をそれぞれ検出する処理の第1の例を説明する図である。
まず、先行車両の頻度分布において、視野角が最小、及び最大となる位置を検出する。
続いて、点集合である先行車両の頻度分布を包含する矩形(正方形または長方形)を設定し、当該矩形の中で、検出した2つの位置をそれぞれ包含し、向かい合う、所定の大きさの2つの三角形の領域を設定する。
続いて、2つの三角形の領域の中で、視差頻度が最も高い第1の位置(点A)及び第2の位置(点B)をそれぞれ検出する。
図15は、視野角が最小、及び最大となる位置から所定範囲内で、視差の頻度が大きい第1の位置、及び第2の位置をそれぞれ検出する処理の第2の例を説明する図である。
まず、先行車両の頻度分布において、視野角が最小、及び最大となる位置を検出する。
続いて、検出した2つの位置をそれぞれ中心とする、所定の大きさの2つの矩形の領域の中で、視差頻度が最も高い第1の位置(点A)及び第2の位置(点B)をそれぞれ検出する。
図16は、視野角が最小、及び最大となる位置から所定範囲内で、視差の頻度が大きい第1の位置、及び第2の位置をそれぞれ検出する処理の第3の例を説明する図である。
まず、先行車両の頻度分布において、視野角が最小、及び最大となる位置を検出する。
続いて、検出した2つの位置をそれぞれ中心とする、所定の大きさの円形または楕円形の領域の中で、視差頻度が最も高い第1の位置(点A)及び第2の位置(点B)をそれぞれ検出する。
続いて、図17を参照し、図12のステップS4、ステップS5で、隣の車線を走行している先行車両の頻度分布を用いて、当該先行車両のコーナー等を検出する処理について説明する。
図17は、隣の車線を走行している先行車両の頻度分布を用いて、先行車両のコーナー等を検出する処理を説明する図である。
図12のステップS4で、点A、Bを直径の端点とする円周上の点Dを俯瞰マップ上で設定する。
図12のステップS5で、線分AD及び線分BDが通過する俯瞰マップ上の点(ブロック)の頻度の平均値を、頻度平均値として算出する。
頻度平均値の算出は、例えば、次のように算出する構成としてもよい。俯瞰マップ上の各ブロックの中心を、X座標及びZ座標の整数の座標値とする。そして、点AのX座標の値から、点DのX座標の値まで、1づつ値を変え、各X座標の値において、線分ADのZ座標の小数点以下を四捨五入する等により量子化する。各X座標における量子化されたZ座標の各ブロックの頻度の値を合計する。それにより、線分ADについての頻度の合計値が算出される。同様に、線分BDについての頻度の合計値も算出する。そして、線分AD、線分BDの頻度の合計値を、当該合計値に自身の頻度の値を算入された上記各ブロックの数で除算する。図17に示す例の場合、○が付与されたブロックに対応する頻度の値が合計され、○が付与されたブロックの数である11で除算される。
または、線分AD及び線分DBが通過する俯瞰マップ上のブロック毎の頻度の値を積分することにより合計値を算出し、線分AD及び線分DBの長さで除算することにより、頻度平均値の算出する構成としてもよい。
図12のステップS5で、点Dを、点Aから点Bまで移動させ、頻度平均値の算出を繰り返す。例えば、点Dを、点A、Bを直径の端点とする円周上で、円の中心からの角度が所定の角度(例えば2°)ずつ変わるように移動させる。そして、弧AB間で頻度平均値が最大となる点DをDmaxとし、出力する。
なお、図17の場合、図12のステップS8で算出される、線分ADmax、及び線分BDmaxの、X軸方向に対する角度は、それぞれ0度、90度となる。
続いて、図18を参照し、図12のステップS3〜ステップS5で、自車と同じ車線(正面)を走行している先行車両の頻度分布を用いて、当該先行車両のコーナー等を検出する処理について説明する。
図18は、自車と同じ車線を走行している先行車両の頻度分布を用いて、先行車両のコーナー等を検出する処理を説明する図である。
自車と同じ車線(正面)を走行している先行車両の頻度分布に、図12のステップS3〜ステップS5の処理を行うと、頻度平均値が最大となる点Dmaxは、点Aまたは点Bの位置となる。
なお、図18の場合、図12のステップS8で算出される、線分ADmax、及び線分BDmaxの、X軸方向に対する角度は、どちらも0度となる。
続いて、図19を参照し、隣接車線を走る先行車両を検知する場合の実施形態による効果を説明する。
先行車両の最も近い位置であるコーナーを検出できない場合、先行車両を枠51のようにしか表現できないため、車線からはみ出していると認識される可能性がある。コーナーの位置を検出する精度が低い場合も同様であり、隣接車線を走る先行車を、車線からはみ出していると認識され、自動で急ブレーキをかけるといった誤作動を起こしかねない。一方、実施形態によれば、枠52のように、車両の側面を精度良く検知でき、隣接車線内を走っていると認識できる。
続いて、図20を参照し、側壁を検知する場合の実施形態による効果を説明する。
物体の矩形を検出しただけでは当該物体の向きがわからず、枠53のように、目前に物体が正対しているように認識される場合がある。一方、実施形態によれば、枠54のように、左側の検出物体(側壁)が、厚さがほとんどなく、壁状の物体で、進行方向を向いているということを精度良く検出できる。その結果、走行に支障がないことを把握できる。
実施形態では、先行車両のコーナーが直角に近いことを利用して、図12のステップS3〜ステップS5のように、視野角が最小、及び最大に近い位置で、視差頻度の高い点A、Bを直径の端点とする円周上の点で、頻度平均値が最大となる点を、先行車両のコーナーの位置であると判断する。それにより、車両の色、天候等により視差の誤差が大きい場合であっても、先行車両のコーナーの位置を高い精度で検出することができる。
また、側壁等の一つの面で形成される物体の向きも検出することができるため、走行に支障のある物体か否かを容易に判断することが可能になる。
なお、上述した実施形態におけるシステム構成は一例であり、用途や目的に応じて様々なシステム構成例があることは言うまでもない。
100 自車
101 撮像ユニット
102 画像解析ユニット(「検出装置」の一例)
103 表示モニタ
106 車両走行制御ユニット(「制御部」の一例)
110A,110B 撮像部
113A,113B 画像センサ
115A,115B 画像センサコントローラ
120 画像処理基板
131 平行化画像生成部
132 視差画像生成部
133 Vマップ生成部
134 路面形状検出部
135 テーブル算出部
136 Uマップ生成部
137 リアルUマップ生成部
138 コーナー検出部
138A 取得部
138B 決定部
138C 検出部
特開2009−176087号公報

Claims (9)

  1. 実空間上の領域で真上から見た場合の、物体の視差の頻度の分布を表す俯瞰マップを取得する取得部と、
    所定の物体に対応する前記分布において、視野角が最小、及び最大となる位置から所定範囲内で、視差の頻度が大きい第1の位置、及び第2の位置をそれぞれ決定する決定部と、
    前記分布に基づいて、前記第1の位置及び前記第2の位置を直径の端点とする円周上から、前記所定の物体のコーナーの位置を検出する検出部と、
    を備える検出装置。
  2. 前記検出部は、前記第1の位置と前記円周上の各位置との間の視差の頻度、及び前記第2の位置と前記各位置との間の視差の頻度に基づいて、前記コーナーの位置を検出する、
    請求項1記載の検出装置。
  3. 前記検出部は、前記各位置のうち、前記第1の位置との間及び前記第2の位置との間の、視差の頻度の平均値が最も大きい位置を、前記コーナーの位置として検出する、
    請求項2記載の検出装置。
  4. 前記検出部は、前記第1の位置と前記コーナーの位置、または前記第2の位置と前記コーナーの位置に基づいて、前記所定の物体の向きを検出する、
    請求項1乃至3のいずれか一項に記載の検出装置。
  5. 前記検出部は、前記所定の物体に対応する視差の頻度の分布に基づいて、前記所定の物体の、前記第1の位置と前記コーナーの位置を含む面、または前記第2の位置と前記コーナーの位置を含む面の高さを検出する、
    請求項1乃至4のいずれか一項に記載の検出装置。
  6. 検出装置が、
    実空間上の領域で真上から見た場合の、物体の視差の頻度の分布を表す俯瞰マップを取得するステップと、
    所定の物体に対応する前記分布において、視野角が最小、及び最大となる位置から所定範囲内で、視差の頻度が大きい第1の位置、及び第2の位置をそれぞれ決定するステップと、
    前記分布に基づいて、前記第1の位置及び前記第2の位置を直径の端点とする円周上から、前記所定の物体のコーナーの位置を検出するステップと、
    を実行する検出方法。
  7. 検出装置に、
    実空間上の領域で真上から見た場合の、物体の視差の頻度の分布を表す俯瞰マップを取得する手順と、
    所定の物体に対応する前記分布において、視野角が最小、及び最大となる位置から所定範囲内で、視差の頻度が大きい第1の位置、及び第2の位置をそれぞれ決定する手順と、
    前記分布に基づいて、前記第1の位置及び前記第2の位置を直径の端点とする円周上から、前記所定の物体のコーナーの位置を検出する手順と、
    を実行させるプログラム。
  8. 物体を撮影する2つの撮像部と、
    前記2つの撮像部により撮影した画像データに基づき、実空間上の領域で真上から見た場合の、物体の視差の頻度の分布を表す俯瞰マップを生成する生成部と、
    所定の物体に対応する前記分布において、視野角が最小、及び最大となる位置から所定範囲内で、視差の頻度が大きい第1の位置、及び第2の位置をそれぞれ決定する決定部と、
    前記分布に基づいて、前記第1の位置及び前記第2の位置を直径の端点とする円周上から、前記所定の物体のコーナーの位置を検出する検出部と、
    を備える撮像装置。
  9. 物体を撮影する2つの撮像部と、
    前記2つの撮像部により撮影した画像データに基づき、実空間上の領域で真上から見た場合の、物体の視差の頻度の分布を表す俯瞰マップを生成する生成部と、
    所定の物体に対応する前記分布において、視野角が最小、及び最大となる位置から所定範囲内で、視差の頻度が大きい第1の位置、及び第2の位置をそれぞれ決定する決定部と、
    前記分布に基づいて、前記第1の位置及び前記第2の位置を直径の端点とする円周上から、前記所定の物体のコーナーの位置を検出する検出部と、
    前記コーナーの位置に応じて、警告の報知、自車のハンドルの制御、または自車のブレーキの制御を行う制御部と、
    を備える機器制御システム。
JP2015169528A 2015-08-28 2015-08-28 検出装置、検出方法、撮像装置、機器制御システム、及びプログラム Expired - Fee Related JP6561688B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015169528A JP6561688B2 (ja) 2015-08-28 2015-08-28 検出装置、検出方法、撮像装置、機器制御システム、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015169528A JP6561688B2 (ja) 2015-08-28 2015-08-28 検出装置、検出方法、撮像装置、機器制御システム、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017045395A JP2017045395A (ja) 2017-03-02
JP6561688B2 true JP6561688B2 (ja) 2019-08-21

Family

ID=58211455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015169528A Expired - Fee Related JP6561688B2 (ja) 2015-08-28 2015-08-28 検出装置、検出方法、撮像装置、機器制御システム、及びプログラム

Country Status (1)

Country Link
JP (1) JP6561688B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7122721B2 (ja) * 2020-06-02 2022-08-22 株式会社Zmp 物体検出システム、物体検出方法及び物体検出プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63250783A (ja) * 1987-04-07 1988-10-18 Fujitsu Ltd 画像中の対象物検出装置
JP5221886B2 (ja) * 2007-03-07 2013-06-26 富士重工業株式会社 物体検出装置
JP2015148887A (ja) * 2014-02-05 2015-08-20 株式会社リコー 画像処理装置、物体認識装置、移動体機器制御システム及び物体認識用プログラム

Also Published As

Publication number Publication date
JP2017045395A (ja) 2017-03-02

Similar Documents

Publication Publication Date Title
US9443313B2 (en) Stereo camera apparatus
JP6202367B2 (ja) 画像処理装置、距離測定装置、移動体機器制御システム、移動体及び画像処理用プログラム
JP7206583B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP6743882B2 (ja) 画像処理装置、機器制御システム、撮像装置、画像処理方法及びプログラム
US9747524B2 (en) Disparity value deriving device, equipment control system, movable apparatus, and robot
JP2017162116A (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
US10719949B2 (en) Method and apparatus for monitoring region around vehicle
JP6769477B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP6816401B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
US11030761B2 (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and computer program product
JP6337504B2 (ja) 画像処理装置、移動体、ロボット、機器制御方法およびプログラム
JP6907513B2 (ja) 情報処理装置、撮像装置、機器制御システム、情報処理方法およびプログラム
JP2011100174A (ja) 車線内車両検出装置及び車線内車両検出方法
JP2016206801A (ja) 物体検出装置、移動体機器制御システム及び物体検出用プログラム
JP2012252501A (ja) 走行路認識装置及び走行路認識用プログラム
JP6711128B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2008309519A (ja) 画像処理を用いた物体検出装置
WO2017154305A1 (ja) 画像処理装置、機器制御システム、撮像装置、画像処理方法、及び、プログラム
JP6561688B2 (ja) 検出装置、検出方法、撮像装置、機器制御システム、及びプログラム
JP2017211791A (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2018032074A (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP5950193B2 (ja) 視差値演算装置及びこれを備えた視差値演算システム、移動面領域認識システム、視差値演算方法、並びに、視差値演算用プログラム
KR102565603B1 (ko) 긴급 제동 시스템의 성능평가 장치 및 방법
JP2018146495A (ja) 物体検出装置、物体検出方法、物体検出プログラム、撮像装置、及び、機器制御システム
JP5580062B2 (ja) 障害物検知警報装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190708

R151 Written notification of patent or utility model registration

Ref document number: 6561688

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees