JP6150164B2 - 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム - Google Patents
情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム Download PDFInfo
- Publication number
- JP6150164B2 JP6150164B2 JP2013138130A JP2013138130A JP6150164B2 JP 6150164 B2 JP6150164 B2 JP 6150164B2 JP 2013138130 A JP2013138130 A JP 2013138130A JP 2013138130 A JP2013138130 A JP 2013138130A JP 6150164 B2 JP6150164 B2 JP 6150164B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- parallax
- road surface
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
図1は、本実施形態における車載機器制御システムの概略構成を示す模式図である。
本車載機器制御システムは、移動体である自動車などの自車両100に搭載された撮像ユニットで撮像した自車両進行方向前方領域(撮像領域)の撮像画像データから、自車両前方の路面(移動面)の相対的な高さ情報(相対的な傾斜状況を示す情報)を検知する。そして、その検知結果から、自車両前方の走行路面の3次元形状を検出することができるので、その検出結果を利用して各種車載機器の制御を行う。
撮像ユニット101は、撮像手段としての2つの撮像部110A,110Bを備えたステレオカメラで構成されており、2つの撮像部110A,110Bは同一のものである。各撮像部110A,110Bは、それぞれ、撮像レンズ111A,111Bと、受光素子が2次元配置された画像センサ113A,113Bを含んだセンサ基板114A,114Bと、センサ基板114A,114Bから出力されるアナログ電気信号(画像センサ113A,113B上の各受光素子が受光した受光量)をデジタル電気信号に変換した撮像画像データを生成して出力する信号処理部115A,115Bとから構成されている。本実施形態の撮像ユニット101からは、輝度画像データと視差画像データが出力される。
図4は、図2における処理ハードウェア部120および画像解析ユニット102で実現される物体検出処理を説明するための処理ブロック図である。
ステレオカメラを構成する2つの撮像部110A,110Bからは輝度画像データが出力される。このとき、撮像部110A,110Bがカラーの場合には、そのRGB信号から輝度信号(Y)を得るカラー輝度変換を、例えば下記の式(1)を用いて行う。
Y = 0.3R + 0.59G + 0.11B ・・・(1)
上述した視差画像生成処理を行ったら、次に、テクスチャ量算出処理部143において、基準画像データの各画素(算出処理単位領域)の特徴量としてのテクスチャ量を算出する処理を行う。ここでいう特徴量は、当該画素(注目画素)を基準とした所定領域内の画素値分布に関する特徴を示す指標値である。本実施形態では、この特徴量として、注目画素を中心とした左右方向の濃淡度合いを示すテクスチャ量を用いる。
図8は、テクスチャ量を算出する画素に応じて第1閾値及び第2閾値を変更する一例を示した処理ブロック図である。図8の例では、基準画像における2以上の画素で構成されるブロック(平均値算出領域)を定義し、そのブロック内の平均画素値に応じて、当該ブロックに対応する画素の3値化テクスチャ量Tqを算出する際の第1閾値及び第2閾値を変更する。このときのブロックは、テクスチャ量を算出する際に用いるブロック(5画素×1画素)と同じであってもよいし、異なるものであってもよい。
図11は、撮像部110Aで撮像される基準画像の一例を模式的に表した画像例である。
図12は、図11の画像例に対応するVマップである。
図11に示す画像例では、自車両100が走行している路面と、自車両100の前方に存在する先行車両と、路外に存在する電柱が映し出されている。この画像例は、自車両100の前方路面が相対的に平坦な路面、すなわち、自車両100の前方路面が自車両100の真下の路面部分と平行な面を自車両前方へ延長して得られる仮想の基準路面(仮想基準移動面)に一致している場合のものである。この場合、画像の下部に対応するVマップの下部において、高頻度の点は、画像上方へ向かうほど視差値dが小さくなるような傾きをもった略直線状に分布する。このような分布を示す画素は、視差画像上の各行においてほぼ同一距離に存在していてかつ最も占有率が高く、しかも画像上方へ向かうほど距離が連続的に遠くなる識別対象物を映し出した画素であると言える。
本実施形態のVマップ生成部133では、視差画像データを受け取ると、その視差画像データに含まれる各視差画素データ(x,y,d)を、三次元座標情報である視差ヒストグラム情報構成要素としてのVマップ要素(d,y,f)に変換して、視差ヒストグラム情報としてのVマップ情報を生成する。このとき、視差画像データの中から、画像上下方向位置yと視差値dとの関係が所定の抽出条件を満たす視差画素データを抽出し、その抽出した視差画素データを対象にして上述した変換を行い、Vマップ情報を生成する。
本実施形態のVマップ生成部133は、視差画像生成部132から出力される視差画像データを受け取ると、まず、車両動作情報入力部133Aにおいて、自車両100の加速度情報を含む車両動作情報を取得する。車両動作情報入力部133Aに入力される車両動作情報は、自車両100に搭載されている機器から取得してもよいし、撮像ユニット101に加速度センサ等の車両動作情報取得手段を搭載し、その車両動作情報取得手段から取得してもよい。
本例のVマップ生成部133では、視差画像路面領域設定部133Bにおいて路面画像候補領域を設定した後、まず、Vマップ情報生成部133Eにおいて、視差画像路面領域設定部133Bが設定した路面画像候補領域内の視差画素データ(x,y,d)をVマップ要素(d,y,f)に変換して、Vマップ情報を生成する。このようにしてVマップ情報を生成した後、処理範囲抽出部133Fにおいて、Vマップ情報生成部133Eが生成したVマップ情報の中から、上述した抽出条件を満たすVマップ要素を抽出する処理を行う。すなわち、Vマップ上において基準直線を中心にとした画像上下方向へ±δの範囲に属する視差値dと画像上下方向位置yとをもつVマップ要素を抽出する。そして、抽出したVマップ要素で構成されるVマップ情報を出力する。
図18は、本実施形態におけるVマップ情報生成処理の一例(以下「処理例1」という。)の流れを示すフローチャートである。
本処理例1においては、車両動作情報(自車両前後方向の加速度情報)を用いずにVマップ情報を作成する例である。本処理例1においては、自車両100の加速度情報を用いないため、基準路面に対応する基準直線を中心にとした抽出範囲すなわち値δの大きさは、比較的大きなものを用いる。
図20は、本実施形態におけるVマップ情報生成処理の他の例(以下「処理例2」という。)の流れを示すフローチャートである。
本処理例2においては、車両動作情報(自車両前後方向の加速度情報)を用いてVマップ情報を作成する例である。まず、車両動作情報を入力したら(S1B)、この車両動作情報に含まれる自車両前後方向の加速度情報に基づき、消失点情報と基準直線の情報を補正する(S2B)。
路面形状検出部134では、Vマップ生成部133においてVマップ情報が生成されたら、路面に対応する視差値及びy方向位置の組(Vマップ要素)が示す特徴、すなわち、撮像画像の上方に向かうほど視差値が低くなるという特徴を示すVマップ上の高頻度の点を直線近似する処理を行う。なお、路面が平坦な場合には一本の直線で十分な精度で近似可能であるが、車両進行方向において路面の傾斜状況が変化するような路面については、一本の直線で十分な精度の近似は難しい。したがって、本実施形態においては、Vマップの情報(Vマップ情報)を視差値に応じて2以上の視差値区画に区分けし、各視差値区画についてそれぞれ個別に直線近似を行う。
本実施形態の路面形状検出部134は、Vマップ生成部133から出力されるVマップ情報(Vマップ情報)を受け取ると、まず、路面候補点検出部134Aにおいて、路面に対応するVマップ要素が示す特徴、すなわち、撮像画像の上方に向かうほど視差値が低くなるという特徴を示すVマップ上の高頻度の点を、路面候補点として検出する。
図11に示したように、自車両100の前方を撮像した撮像画像で、近距離の路面部分についてはその路面画像領域の占有面積が大きく、路面に対応する画素数が多いので、Vマップ上の頻度が大きい。これに対し、遠距離の路面部分については、その路面画像領域の撮像画像内における占有面積が小さく、路面に対応する画素数が少ないので、Vマップ上の頻度が小さい。すなわち、Vマップにおいて、路面に対応する点の頻度値は、遠距離では小さく、近距離では大きい。そのため、例えば同じ頻度閾値を用いるなど、両領域について同じ基準で路面候補点を検出しようとすると、近距離領域については路面候補点を適切に検出できるが、遠距離領域については路面候補点が適切に検出できないおそれがあり、遠距離領域の路面検出精度が劣化する。逆に、遠距離領域の路面候補点を十分に検出できるような基準で近距離領域の検出を行うと、近距離領域のノイズ成分が多く検出され、近距離領域の路面検出精度が劣化する。そこで、本実施形態では、Vマップを近距離領域と遠距離領域とに区分し、各領域についてそれぞれ適した基準や検出方法を用いて路面候補点を検出することにより、両領域の路面検出精度を高く維持している。
第1路面候補点検出処理では、各視差値dについて、所定の検索範囲内でy方向位置を変えながら、Vマップ情報に含まれる各Vマップ要素(d,y,f)の頻度値fが第1頻度閾値よりも大きく、かつ、最も頻度値fが大きいVマップ要素を探索し、そのVマップ要素を当該視差値dについての路面候補点として決定する。このときの第1頻度閾値は、低めに設定し、路面に対応するVマップ要素が抜け落ちないようにするのが好ましい。本実施形態においては、上述したとおり、Vマップ生成部133において路面に対応するVマップ要素を抽出していることから、第1頻度閾値を低めに設定しても、路面分に対応しないVマップ要素が路面候補点として決定される事態は軽減されるからである。
入力されるVマップの情報について、例えば視差値dの大きい順に路面候補点の検出を行い、各視差値dについての路面候補点(y,d)を検出する。視差値dが所定の基準距離に対応する基準視差値よりも大きい場合(S1のYes)、上述した第1路面候補点検出処理を行う。すなわち、当該視差値dに応じたyの探索範囲(「yp−δ」〜「yp+δ」)を設定し(S2)、この探索範囲内における頻度値fが第1頻度閾値よりも大きいVマップ要素(d,y,f)を抽出する(S3)。そして、抽出したVマップ要素のうち、最大の頻度値fを持つVマップ要素(d,y,f)を、当該視差値dの路面候補点として検出する(S4)。
本実施形態においては、Vマップ情報を視差値に応じて3つの視差値区画に区分けする。具体的には、視差値が大きい順に、第一区間、第二区間、第三区間に区分けする。このとき、距離を基準にして区間を等しく区分けする場合、Vマップ上では遠距離の区間ほど区間(視差値範囲)が狭くなり、直線近似の精度が悪化する。また、視差値を基準にして区間を等しく区分けする場合、今度は、Vマップ上において近距離の区間の幅が狭くなる。この場合、第一区間が非常に狭いものとなって、その第一区間はほとんど意味を成さなくなる。
区分直線近似部134Bは、路面候補点検出部134Aから出力される各視差値dの路面候補点のデータを受け取ったら、まず、最近距離の第一区間(最も視差値が大きい区間)を設定する(S11)。そして、この第一区間内の各視差値dに対応した路面候補点を抽出する(S12)。このとき、抽出された路面候補点の数が所定の値以下である場合(S13のNo)、当該第一区間を所定の視差値分だけ延長する(S14)。具体的には、図28(a)に示す当初の第一区間と第二区間とを結合して、図28(b)に示すように、新たにひとつの第一区間(延長された第一区間)とする。このとき、当初の第三区間は新たな第二区間となる。そして、延長された第一区間内の各視差値dに対応した路面候補点を再び抽出し(S12)、抽出された路面候補点の数が所定の値よりも多くなった場合には(S13のYes)、抽出した路面候補点について直線近似処理を行う(S15)。
H = z×(y’−y0)/f ・・・(2)
本実施形態では、Uマップ生成部136でUマップ生成処理を実行する前に、Uマップ用視差データ選定部145において、前記視差画像生成部132で生成される各視差画素データのうち、対応するテクスチャ量が第2閾値以上であるという選定条件(第2条件)を満たす視差画素データを選定する処理を実行する。具体的には、テクスチャ量算出処理部143が算出した3値化テクスチャ量Tqが「1」又は「2」である画素についての視差画素データを選定する。
図32は、図31の画像例に対応するUマップである。
図31に示す画像例では、路面の左右両側にガードレールが存在し、他車両としては、先行車両と対向車両がそれぞれ1台ずつ存在する。このとき、Uマップにおいては、図32に示すように、左右のガードレールに対応する高頻度の点は、左右両端側から中央に向かって上方へ延びるような略直線状に分布する。一方、他車両に対応する高頻度の点は、左右のガードレールの間で、略X軸方向に平行に延びる線分の状態で分布する。なお、先行車両の背面部分又は対向車両の前面部分以外に、これらの車両の側面部分が映し出されているような状況にあっては、同じ他車両を映し出している画像領域内において視差が生じる。このような場合、図32に示すように、他車両に対応する高頻度の点は、略X軸方向に平行に延びる線分と略X軸方向に対して傾斜した線分とが連結した状態の分布を示す。
図33は、孤立領域検出部137で行う処理の流れを示すフローチャートである。
孤立領域検出部137では、Uマップ生成部136で生成されたUマップの情報から、まず、Uマップの平滑化処理を行った後(S31)、二値化処理を行う(S32)。その後、値のある座標のラベリングを行い(S33)、孤立領域を検出する。以下、それぞれの処理について説明する。
W = z×(xmax−xmin)/f ・・・(3)
この物体の幅Wが、予め決められた範囲内にある孤立領域を、オブジェクト候補領域として決定する。
前記孤立領域検出部137によりオブジェクト候補領域として決定された孤立領域について、図36に示すように、当該孤立領域が内接する矩形領域を設定したとき、この矩形領域の幅(Uマップ上のX軸方向長さ)は、当該孤立領域に対応する識別対象物(オブジェクト)の幅に対応する。また、設定した矩形領域の高さは、当該孤立領域に対応する識別対象物(オブジェクト)の奥行き(自車両進行方向長さ)に対応している。一方で、各孤立領域に対応する識別対象物(オブジェクト)の高さについては、この段階では不明である。視差画像の対応領域検出部138は、オブジェクト候補領域に係る孤立領域に対応したオブジェクトの高さを得るために、当該孤立領域に対応する視差画像上の対応領域を検出する。
視差画像の対応領域検出部138は、孤立領域検出部137から出力される孤立領域の情報に基づき、当該孤立領域の幅すなわちX軸方向座標がxminからxmaxまでの範囲(検出幅)について、視差画像を所定のY軸方向範囲について走査し、当該孤立領域に設定されたUマップ上での矩形領域の高さすなわちUマップY軸方向座標(視差値)がdminからdmaxまでの範囲の値を視差値とする画素を候補画素として抽出する。このときの走査範囲(視差画像のY軸方向範囲)は、例えば、視差画像上端から視差画像1/6だけ下の位置から、視差画像下方に向けて、最大視差dmaxから得られる路面までの範囲とすることができる。
まず、Uマップ上の各孤立領域(島)の幅から、視差画像のX軸方向における探索範囲を設定する(S41)。また、各孤立領域(島)の最大視差dmaxと路面高さとの関係から、視差画像のY軸方向における最大探索値ymaxを設定する。なお、最小探索値yminは所定の値(撮像画像の上端から1/6だけ下の位置)が決められている。このようにして設定した探索範囲内で視差画像を探索し、当該孤立領域(島)における最小視差値dminと最大視差値dmaxの範囲内にある画素を抽出し、これをオブジェクト候補画素とする(S44)。その後、オブジェクト候補画素が視差画像X軸方向に一定以上の数で存在する横方向ラインをオブジェクト候補ラインとして抽出する(S45)。そして、オブジェクト候補ラインの密度を計算し、その密度が所定の値より大きい場合は、その横方向ラインをオブジェクトラインと決定する(S46)。最後に、決定されたオブジェクトラインで構成されるオブジェクトライン群の外接矩形を設定し、この外接矩形を視差画像内のオブジェクト領域として検出する(S47)。
前記オブジェクト領域抽出部139で抽出されるオブジェクト領域の高さ(yomax−yomin)から、下記の式(4)より、そのオブジェクト領域に対応する画像領域に映し出されている識別対象物(オブジェクト)の実際の高さHoを計算できる。ただし、「zo」は、当該オブジェクト領域内の最小視差値dから計算される当該オブジェクト領域に対応するオブジェクトと自車両との距離であり、「f」はカメラの焦点距離を(yomax−yomin)の単位と同じ単位に変換した値である。
Ho = zo×(yomax−yomin)/f ・・・(4)
Wo = zo×(xomax−xomin)/f ・・・(5)
Do = BF×(1/(dmin−offset)−1/(dmax−offset)) ・・・(6)
検出されたオブジェクト領域に対応するオブジェクトまでの距離や、視差画像の画像中心と視差画像上のオブジェクト領域の中心との画像上の距離も把握されることから、オブジェクトの3次元位置を決定することができる。視差画像上のオブジェクト領域の中心座標を(region_centerX,region_centerY)とし、視差画像の画像中心座標を(image_centerX,imgae_centerY)としたとき、識別対象物(オブジェクト)の撮像部110A,110Bに対する相対的な横方向位置および高さ方向位置は、下記の式(7)及び式(8)より計算できる。
Xo = Z×(region_centerX−image_centerX)/f ・・・(7)
Yo = Z×(region_centerY−image_centerY)/f ・・・(8)
図41は、ガードレール検出部142で行われるガードレール検出処理の流れを示すフローチャートである。
路面の側方などに設置される側壁やガードレールは、一般に、路面から30〜100cmの範囲内に存在するので、ガードレール検出処理の対象範囲として、この範囲に対応するUマップ内の領域を選定する。その後、この対象範囲について、Uマップの頻度に重み付けを行い、Hough変換して(S51)、図42に示すような近似直線L1,L2を検出する(S52)。この近似直線L1,L2の端点は、視差が大きい方の端点は画像の境界とし、視差が小さい方の端点は距離換算で例えば30mの距離に相当する視差値とする。なお、Hough変換により直線が見つからなかった場合は、ガードレールは検出されない。
視差画像上でのガードレール領域は、(xgmin,yg1_30)、(xgmin、yg1_100)、(xgmax、yg2_100)、(xgmax_yg2_30)の4点で囲まれる領域(図中に網掛けした領域)となる。なお、ここでは左側のガードレールについて説明したが、右側のガードレールについても同様に検出できる。
消失点情報は、路面の消失点に対応する画像上の位置座標を示す情報である。この消失点情報は、撮像画像上に映し出される路面上の白線や車両動作情報などから特定することが可能である。
Δx = f × tanθ / pixelsize ・・・(3)
Vx = xsize/2 + Δx ・・・(4)
Δx = ±(1−cosθ)×f×r/L/pixelsize ・・・(5)
次に、前記実施形態についての他の変形例(以下「変形例1」という。)について説明する。
前記実施形態においては、自車両進行方向における路面の高さ変化(自車両進行方向における路面の起伏)を把握することはできるが、路面幅方向における路面高さの違い(路面幅方向における路面の傾斜)を把握することはできない。本変形例1では、路面幅方向における路面の傾斜を把握することができる例について説明する。
まず、前記実施形態と同様、図49に示すように、路面の消失点(Vx,Vy)が示す消失点の画像上下方向位置Vyから所定のoffset値を引いた画像上下方向位置(Vy−offset値)の地点Wと、図49中に示したABCDの各点で囲まれた領域を設定する。そして、図49に示すように、視差画像上において、路面の消失点(Vx,Vy)と視差画像の下端中心M(xsize/2,ysize)とを結ぶ直線を境界にして、WABCDの各点で囲まれた領域を、WABMの各点で囲まれた左領域と、WMCDの各点で囲まれた右領域とに左右二分割して、各領域をそれぞれ路面画像候補領域として設定する。その後、各路面画像候補領域に対し、それぞれ個別に上述した実施形態の方法でVマップを作成する(S71)。このようにして視差画像上の路面画像候補領域を複数の領域に分割して各領域について個別に作成した部分的なVマップを組み合わせたものを、多重Vマップという。
次に、前記実施形態についての他の変形例(以下「変形例2」という。)について説明する。
実際の路面の中には、路面の排水を良くするために路面の幅方向中央部分が高くなっているかまぼこ型の形状を示す路面がある。このような路面については、前記変形例1の場合には、路面幅方向における路面傾斜を適切に検出することができない。本変形例2においては、前記変形例1よりもより高精度に路面幅方向における路面傾斜を把握することができるものである。
(態様A)
路面等の移動面上を移動する自車両100等の移動体に搭載された撮像部110A,110B等の複数の撮像手段により移動体周囲を撮像して得られる複数の撮像画像から生成される視差画像情報に基づいて、該移動体周囲の情報を検出する情報検出装置において、少なくとも1つの撮像画像(基準画像)における各算出処理単位領域(各画素)のテクスチャ量等の特徴量を算出するテクスチャ量算出処理部143等の特徴量算出手段と、前記特徴量が第1条件を満たす算出処理単位領域に対応する視差画像情報を用いて、前記移動面の情報を検出する移動面情報検出処理を行うVマップ用視差データ選定部144、Vマップ生成部133、路面形状検出部134等の移動面情報検出手段と、前記特徴量が前記第1条件とは異なる第2条件を満たす算出処理単位領域に対応する視差画像情報を用いて、前記移動体周囲に存在する前記移動面とは異なるオブジェクトやガードレール等の検出対象物の情報を検出するUマップ用視差データ選定部145、Uマップ生成部136、孤立領域検出部137、視差画像の対応領域検出部138、オブジェクト領域抽出部139、ガードレール検出部142等の対象物情報検出処理を行う対象物情報検出手段とを有することを特徴とする。
これによれば、移動面の情報を検出する移動面情報検出処理と、移動面とは異なる検出対象物の情報を検出する対象物情報検出処理との間で、その処理に用いられる視差画像情報が異なっている。具体的には、移動面情報検出処理では、特徴量が第1条件を満たす算出処理単位領域に対応する視差画像情報を用い、対象物情報検出処理では、特徴量が前記第1条件とは異なる第2条件を満たす算出処理単位領域に対応する視差画像情報を用いる。したがって、移動面情報検出処理に適した視差画像情報が得られるように第1条件を設定し、対象物情報検出処理に適した視差画像情報が得られるように第2条件を設定するということが可能となる。ここでいう特徴量は、当該画素についての視差値を算出する際に行われるマッチング処理時のマッチング精度と高い相関関係のあるパラメータが設定される。よって、特徴量が大きな画素ほど、マッチング処理の精度が高く、算出される視差値に誤差の含まれる可能性が低いという関係になる。よって、特徴量の違いを利用することで、視差画像情報の情報量が十分な移動面情報検出処理については誤差の小さな視差画像情報に限定して処理を行うとともに、視差画像情報の情報量が不十分となりやすい対象物情報検出処理については視差画像情報をあまり限定せずに処理を行うことが可能となる。その結果、移動面情報検出処理と対象物情報検出処理との両方において、それぞれ高精度な検出が可能となる視差画像情報を用いた情報検出処理を行うことができる。
前記態様Aにおいて、前記特徴量は、前記視差画像情報を生成する際に実行するマッチング処理のマッチング精度と相関関係のあるものであることを特徴とする。
これによれば、移動面情報検出処理と対象物情報検出処理との両方にそれぞれ適切な視差画像情報を選定することができる。
前記態様Bにおいて、前記特徴量は、前記少なくとも1つの撮像画像の画素値の変化が大きい算出処理単位領域ほど大きな値をとるものであることを特徴とする。
これによれば、適切な特徴量を簡易に算出することが可能となる。
前記態様B又はCにおいて、前記第1条件は、前記特徴量が第1閾値t1以上であるという条件であり、前記第2条件は、前記特徴量が前記第1閾値よりも小さい第2閾値t2以上であるという条件であることを特徴とする。
これによれば、移動面情報検出処理と対象物情報検出処理との両方にそれぞれ適切な視差画像情報を簡易に選定することができる。
前記態様Dにおいて、前記第1閾値及び前記第2閾値を用いて前記特徴量を3値化する3値化部143C等の3値化手段を有し、前記対象物情報検出手段は、前記3値化のうちの最も大きな値が割り当てられた算出処理単位領域に対応する視差画像情報を用いて、前記対象物情報検出処理を行い、前記移動面情報検出手段は、前記3値化のうち、最も大きな値と次に大きな値とが割り当てられた算出処理単位領域に対応する視差画像情報を用いて、前記対象物情報検出処理を行うことを特徴とする。
これによれば、テクスチャ量が3値化データとなり、後段の処理データ量を減らすことができる。
前記態様B〜Eのいずれかの態様において、前記少なくとも1つの撮像画像における2以上の画素で構成される各平均値算出領域の平均画素値を算出する平均輝度算出部143D等の平均画素値算出手段と、各算出処理単位領域に対応する平均値算出領域の平均画素値に応じて、当該算出処理単位領域についての第1条件及び第2条件の少なくとも一方の条件を変更する閾値セット選択部143E等の条件変更手段とを有することを特徴とする。
平均輝度が大きいほど、画像のコントラストが高いと考えられるので高めのテクスチャ量が算出されやすく、平均輝度が小さいほど、画像のコントラストが低いと考えられるので、低めのテクスチャ量が算出されやすい。本態様では、このことを考慮して、移動面情報検出処理と対象物情報検出処理との両方にそれぞれ適切な視差画像情報を選定することができる。
前記態様A〜Fのいずれかの態様において、前記対象物情報検出手段は、前記移動面情報検出手段が検出した移動面の情報も用いて、前記検出対象物の情報を検出する対象物情報検出処理を行うことを特徴とする。
これによれば、検出対象物の情報検出をより高精度に行うことが可能となる。
移動面上を移動する移動体の周囲の情報を検出する情報検出手段と、前記情報検出手段の検出結果に基づいて、前記移動体に搭載された所定の機器を制御する車両走行制御ユニット106等の移動体機器制御手段とを備えた移動体機器制御システムにおいて、前記情報検出手段として、前記態様A〜Gのいずれかの態様に係る情報検出装置を用いたことを特徴とする。
これによれば、移動体に搭載された所定の機器をより高精度に制御することが可能となる。
所定の機器を搭載して移動面上を移動する移動体において、前記所定の機器を制御する手段として、前記態様Hに係る移動体機器制御システムを用いたことを特徴とする。
これによれば、搭載された所定の機器がより高精度に制御される移動体を提供することが可能となる。
移動面上を移動する移動体に搭載された複数の撮像手段により移動体周囲を撮像して得られる複数の撮像画像から生成される視差画像情報に基づいて、該移動体周囲の情報を検出する情報検出装置のコンピュータに実行させるための情報検出用プログラムであって、少なくとも1つの撮像画像における各算出処理単位領域の特徴量を算出する特徴量算出手段、前記特徴量が第1条件を満たす算出処理単位領域に対応する視差画像情報を用いて、前記移動面の情報を検出する移動面情報検出処理を行う移動面情報検出手段、及び、前記特徴量が前記第1条件とは異なる第2条件を満たす算出処理単位領域に対応する視差画像情報を用いて、前記移動体周囲に存在する前記移動面とは異なる検出対象物の情報を検出する対象物情報検出処理を行う対象物情報検出手段として、前記コンピュータを機能させることを特徴とする。
これによれば、移動面情報検出処理と対象物情報検出処理との両方において、それぞれ高精度な検出が可能となる視差画像情報を用いた情報検出処理を行うことが可能となる。
なお、このプログラムは、CD−ROM等の記録媒体に記録された状態で配布したり、入手したりすることができる。また、このプログラムを乗せ、所定の送信装置により送信された信号を、公衆電話回線や専用線、その他の通信網等の伝送媒体を介して配信したり、受信したりすることでも、配布、入手が可能である。この配信の際、伝送媒体中には、コンピュータプログラムの少なくとも一部が伝送されていればよい。すなわち、コンピュータプログラムを構成するすべてのデータが、一時に伝送媒体上に存在している必要はない。このプログラムを乗せた信号とは、コンピュータプログラムを含む所定の搬送波に具現化されたコンピュータデータ信号である。また、所定の送信装置からコンピュータプログラムを送信する送信方法には、プログラムを構成するデータを連続的に送信する場合も、断続的に送信する場合も含まれる。
101 撮像ユニット
102 画像解析ユニット
106 車両走行制御ユニット
110A,110B 撮像部
120 処理ハードウェア部
121 視差演算部
122 記憶手段
131 平行化画像生成部
132 視差画像生成部
133 Vマップ生成部
134 路面形状検出部
135 路面高さテーブル算出部
136 Uマップ生成部
137 孤立領域検出部
138 視差画像の対応領域検出部
139 オブジェクト領域抽出部
140 オブジェクトタイプ分類部
141 3次元位置決定部
142 ガードレール検出部
143 テクスチャ量算出処理部
143A テクスチャ量算出部
143B 閾値セット部
143C 3値化部
143D 平均輝度算出部
143E 閾値セット選択部
144 Vマップ用視差データ選定部
145 Uマップ用視差データ選定部
Claims (10)
- 移動面上を移動する移動体に搭載された複数の撮像手段により移動体周囲を撮像して得られる複数の撮像画像から生成される視差画像情報に基づいて、該移動体周囲の情報を検出する情報検出装置において、
少なくとも1つの撮像画像における各算出処理単位領域の特徴量を算出する特徴量算出手段と、
前記特徴量が第1条件を満たす算出処理単位領域に対応する視差画像情報を用いて、前記移動面の情報を検出する移動面情報検出処理を行う移動面情報検出手段と、
前記特徴量が前記第1条件とは異なる第2条件を満たす算出処理単位領域に対応する視差画像情報を用いて、前記移動体周囲に存在する前記移動面とは異なる検出対象物の情報を検出する対象物情報検出処理を行う対象物情報検出手段とを有することを特徴とする情報検出装置。 - 請求項1の情報検出装置において、
前記特徴量は、前記視差画像情報を生成する際に実行するマッチング処理のマッチング精度と相関関係のあるものであることを特徴とする情報検出装置。 - 請求項2の情報検出装置において、
前記特徴量は、前記少なくとも1つの撮像画像の画素値の変化が大きい算出処理単位領域ほど大きな値をとるものであることを特徴とする情報検出装置。 - 請求項2又は3の情報検出装置において、
前記第1条件は、前記特徴量が第1閾値以上であるという条件であり、
前記第2条件は、前記特徴量が前記第1閾値よりも小さい第2閾値以上であるという条件であることを特徴とする情報検出装置。 - 請求項4の情報検出装置において、
前記第1閾値及び前記第2閾値を用いて前記特徴量を3値化する3値化手段を有し、
前記対象物情報検出手段は、前記3値化のうちの最も大きな値が割り当てられた算出処理単位領域に対応する視差画像情報を用いて、前記対象物情報検出処理を行い、
前記移動面情報検出手段は、前記3値化のうち、最も大きな値と次に大きな値とが割り当てられた算出処理単位領域に対応する視差画像情報を用いて、前記対象物情報検出処理を行うことを特徴とする情報検出装置。 - 請求項2乃至5のいずれか1項に記載の情報検出装置において、
前記少なくとも1つの撮像画像における2以上の画素で構成される各平均値算出領域の平均画素値を算出する平均画素値算出手段と、
各算出処理単位領域に対応する平均値算出領域の平均画素値に応じて、当該算出処理単位領域についての第1条件及び第2条件の少なくとも一方の条件を変更する条件変更手段とを有することを特徴とする情報検出装置。 - 請求項1乃至6のいずれか1項に記載の情報検出装置において、
前記対象物情報検出手段は、前記移動面情報検出手段が検出した移動面の情報も用いて、前記検出対象物の情報を検出する対象物情報検出処理を行うことを特徴とする情報検出装置。 - 移動面上を移動する移動体の周囲の情報を検出する情報検出手段と、
前記情報検出手段の検出結果に基づいて、前記移動体に搭載された所定の機器を制御する移動体機器制御手段とを備えた移動体機器制御システムにおいて、
前記情報検出手段として、請求項1乃至7のいずれか1項に記載の情報検出装置を用いたことを特徴とする移動体機器制御システム。 - 所定の機器を搭載して移動面上を移動する移動体において、
前記所定の機器を制御する手段として、請求項8の移動体機器制御システムを用いたことを特徴とする移動体。 - 移動面上を移動する移動体に搭載された複数の撮像手段により移動体周囲を撮像して得られる複数の撮像画像から生成される視差画像情報に基づいて、該移動体周囲の情報を検出する情報検出装置のコンピュータに実行させるための情報検出用プログラムであって、
少なくとも1つの撮像画像における各算出処理単位領域の特徴量を算出する特徴量算出手段、
前記特徴量が第1条件を満たす算出処理単位領域に対応する視差画像情報を用いて、前記移動面の情報を検出する移動面情報検出処理を行う移動面情報検出手段、及び、
前記特徴量が前記第1条件とは異なる第2条件を満たす算出処理単位領域に対応する視差画像情報を用いて、前記移動体周囲に存在する前記移動面とは異なる検出対象物の情報を検出する対象物情報検出処理を行う対象物情報検出手段として、前記コンピュータを機能させることを特徴とする情報検出用プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013138130A JP6150164B2 (ja) | 2013-07-01 | 2013-07-01 | 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013138130A JP6150164B2 (ja) | 2013-07-01 | 2013-07-01 | 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015011619A JP2015011619A (ja) | 2015-01-19 |
JP6150164B2 true JP6150164B2 (ja) | 2017-06-21 |
Family
ID=52304697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013138130A Active JP6150164B2 (ja) | 2013-07-01 | 2013-07-01 | 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6150164B2 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6704607B2 (ja) * | 2015-03-11 | 2020-06-03 | 株式会社リコー | 撮像システム、画像処理システム、移動体制御システム、移動体装置、投光装置、物体検出方法、物体検出プログラム |
JP6805534B2 (ja) * | 2015-07-02 | 2020-12-23 | 株式会社リコー | 視差画像生成装置、視差画像生成方法及び視差画像生成プログラム、物体認識装置、機器制御システム |
WO2017002367A1 (en) * | 2015-07-02 | 2017-01-05 | Ricoh Company, Ltd. | Disparity image generation device, disparity image generation method, disparity image generation program, object recognition device, and equipment control system |
JP6592991B2 (ja) * | 2015-07-06 | 2019-10-23 | 株式会社リコー | 物体検出装置、物体検出方法及びプログラム |
JP6569416B2 (ja) * | 2015-09-15 | 2019-09-04 | 株式会社リコー | 画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラム |
EP3432265A4 (en) * | 2016-03-14 | 2019-03-20 | Ricoh Company, Ltd. | IMAGE PROCESSING DEVICE, DEVICE CONTROL SYSTEM, IMAGE CAPTURE DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM |
US10832061B2 (en) | 2016-07-22 | 2020-11-10 | Hitachi Automotive Systems, Ltd. | Traveling road boundary estimation apparatus and traveling assistance system using same |
JP6811244B2 (ja) * | 2016-08-23 | 2021-01-13 | 株式会社日立製作所 | 画像処理装置、ステレオカメラ装置及び画像処理方法 |
JP7206583B2 (ja) * | 2016-11-25 | 2023-01-18 | 株式会社リコー | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム |
WO2018098789A1 (en) * | 2016-12-01 | 2018-06-07 | SZ DJI Technology Co., Ltd. | Method and system for detecting and tracking objects using characteristic points |
JP6939198B2 (ja) * | 2017-07-28 | 2021-09-22 | 日産自動車株式会社 | 物体検出方法及び物体検出装置 |
JP7322576B2 (ja) * | 2019-07-31 | 2023-08-08 | 株式会社リコー | 情報処理装置、撮像装置および移動体 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05265547A (ja) * | 1992-03-23 | 1993-10-15 | Fuji Heavy Ind Ltd | 車輌用車外監視装置 |
JP2006309650A (ja) * | 2005-05-02 | 2006-11-09 | Calsonic Kansei Corp | ナンバー認識装置及方法 |
JP4872769B2 (ja) * | 2007-04-11 | 2012-02-08 | 日産自動車株式会社 | 路面判別装置および路面判別方法 |
EP2757541B1 (en) * | 2011-09-12 | 2020-09-09 | Nissan Motor Co., Ltd | Three-dimensional object detection device |
-
2013
- 2013-07-01 JP JP2013138130A patent/JP6150164B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015011619A (ja) | 2015-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6274557B2 (ja) | 移動面情報検出装置、及びこれを用いた移動体機器制御システム並びに移動面情報検出用プログラム | |
JP6150164B2 (ja) | 情報検出装置、移動体機器制御システム、移動体及び情報検出用プログラム | |
JP6519262B2 (ja) | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム | |
JP6550881B2 (ja) | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム | |
JP6662388B2 (ja) | 画像処理装置、撮像装置、機器制御システム、分布データ生成方法、及びプログラム | |
JP6344638B2 (ja) | 物体検出装置、移動体機器制御システム及び物体検出用プログラム | |
JP6657789B2 (ja) | 画像処理装置、撮像装置、機器制御システム、頻度分布画像生成方法、及びプログラム | |
JP6340850B2 (ja) | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム | |
WO2017130639A1 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
JP5145585B2 (ja) | 物標検出装置 | |
JP6733225B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
JP6705496B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、移動体、画像処理方法、及びプログラム | |
JP6702340B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
JP6583527B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム | |
JP6687039B2 (ja) | 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム | |
JP6743882B2 (ja) | 画像処理装置、機器制御システム、撮像装置、画像処理方法及びプログラム | |
JP6705497B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、プログラム、及び移動体 | |
JP6753134B2 (ja) | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及び画像処理プログラム | |
JP2014006885A (ja) | 段差認識装置、段差認識方法及び段差認識用プログラム | |
JP2016206801A (ja) | 物体検出装置、移動体機器制御システム及び物体検出用プログラム | |
JP2015148887A (ja) | 画像処理装置、物体認識装置、移動体機器制御システム及び物体認識用プログラム | |
JP6340849B2 (ja) | 画像処理装置、画像処理方法、画像処理プログラム、及び移動体機器制御システム | |
JP2023184572A (ja) | 電子機器、移動体、撮像装置、および電子機器の制御方法、プログラム、記憶媒体 | |
JP2020126304A (ja) | 車外物体検出装置 | |
JP2016173248A (ja) | 視差値演算装置、物体認識装置、移動体機器制御システム及び視差演算用プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160624 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170421 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170428 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170511 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6150164 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |