JP2018060422A - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP2018060422A
JP2018060422A JP2016198437A JP2016198437A JP2018060422A JP 2018060422 A JP2018060422 A JP 2018060422A JP 2016198437 A JP2016198437 A JP 2016198437A JP 2016198437 A JP2016198437 A JP 2016198437A JP 2018060422 A JP2018060422 A JP 2018060422A
Authority
JP
Japan
Prior art keywords
image
similarity
past
shielding
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016198437A
Other languages
English (en)
Other versions
JP6722084B2 (ja
Inventor
潜 龍
Qian Long
潜 龍
和寿 石丸
Kazuhisa Ishimaru
和寿 石丸
田中 健一
Kenichi Tanaka
健一 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2016198437A priority Critical patent/JP6722084B2/ja
Publication of JP2018060422A publication Critical patent/JP2018060422A/ja
Application granted granted Critical
Publication of JP6722084B2 publication Critical patent/JP6722084B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】遮蔽物の有無を精度よく判定し、物体検出を適正に実施する。【解決手段】ECU20は、現時点の右画像及び左画像と、現時点よりも過去の右画像及び左画像との各画像を所定の区画に分割し、その区画ごとに、現時点における右画像及び左画像の類似度SAと、過去における右画像及び左画像の類似度SBと、現時点及び過去における右(又は左)画像の類似度SCと、を算出する算出部と、類似度SA及びSBにより、現時点及び過去の各々において右画像と左画像とが一致するか否かを判定するとともに、類似度SCにより、現時点及び過去の右(又は左)画像が一致するか否かを判定する一致判定部と、現時点及び過去の各々において右画像と左画像とが一致しない旨が判定され、かつ現時点及び過去の右(又は左)画像が一致する旨が判定された場合に、右カメラ11及び左カメラ12のいずれかの前方に、遮蔽物が存在していると判定する遮蔽判定部と、を備える。【選択図】 図1

Description

本発明は、例えば車両に搭載される物体検出装置に関するものである。
従来、ステレオカメラを車両に搭載し、一対の撮像画像(基準画像と比較画像)に基づいて車両周囲に存在する物体を検出し、その検出された物体に対して車両の走行安全性を向上させるための車両制御を行うことが提案されている。
ここで、ステレオカメラについて、カメラの前方のフロントガラスやカメラのレンズ面に遮蔽物(ほこり、ごみ、水滴等)が付着することがある。かかる場合には、その遮蔽物が撮像画像中に写り込むことで物体の検出に影響が及ぶおそれがある。
例えば、特許文献1に記載の装置では、基準画像と比較画像の輝度値の差に基づいて、車載カメラの前方のフロントガラスに遮蔽物が付着したことを判定している。具体的には、一対の撮像画像に基づいて検出された物体が今回のフレームにおいて撮像される予測領域を設定する。そして、基準画像上の予測領域とそれに対応する比較画像上の予測領域との輝度値の平均値の差が閾値以上である状態が、所定のフレーム数以上継続する場合に、遮蔽物が付着したと判定する。
特開2009−110173号公報
ところで、自車両や物体等が移動することによって、カメラにおける撮像画像は大きく変化する。この場合、画像上における物体の位置が変わると、一対の画像間における比較の結果も変わりうる。そうすると、画像上における物体や遮蔽物の位置等によっては一対の画像間の比較のみでは、遮蔽状態が適正に検出できないことが生じうると考えられる。
本発明は、上記課題に鑑みてなされたものであり、遮蔽物の有無を精度よく判定し、物体検出を適正に実施することができる物体検出装置を提供することである。
本発明の物体検出装置は、左右方向の視差を含む第1画像及び第2画像を撮影する第1カメラ(11)及び第2カメラ(12)が搭載された車両(50)に適用され、前記第1画像及び前記第2画像に基づいて、前記車両の周囲に存在する物体を検出する物体検出装置(20)であって、現時点の前記第1画像及び前記第2画像と、現時点よりも過去の前記第1画像及び前記第2画像とを取得する取得部と、取得した各画像を所定の区画に分割し、その区画ごとに、現時点における前記第1画像及び前記第2画像の類似度である第1類似度と、過去における前記第1画像及び前記第2画像の類似度である第2類似度と、現時点及び過去における前記第1画像の類似度である第3類似度と、を算出する算出部と、前記第1類似度及び前記第2類似度により、現時点及び過去の各々において前記第1画像と前記第2画像とが一致するか否かを判定するとともに、前記第3類似度により、現時点の前記第1画像と過去の前記第1画像とが一致するか否かを判定する一致判定部と、現時点及び過去の各々において前記第1画像と前記第2画像とが一致しない旨が判定され、かつ現時点の前記第1画像と過去の前記第1画像とが一致する旨が判定された場合に、前記第1カメラ及び前記第2カメラのいずれかの前方に、当該カメラの視界を妨げる遮蔽物が存在していると判定する遮蔽判定部と、を備えることを特徴とする。
第1カメラ又は第2カメラがごみ等の付着により遮蔽状態になっている場合、現時点及び過去の各々において第1画像と第2画像とが一致しない状態となる。また、ごみ等の付着状態がしばらくは維持されることで、画像上におけるごみ等の位置は時系列的に変わらない、つまり現時点の第1画像と過去の第1画像とが一致する状態となる。
こうした状況を踏まえた上で、上記構成を採用することにより、第1カメラ及び第2カメラのいずれかの前方に遮蔽物が存在していることを適正に判定することができる。またいずれかのカメラに遮蔽物が付着等している場合、その遮蔽物によって遮蔽された領域が撮像画像の一部であることを踏まえ、上記構成では、撮像画像を分割してその区画ごとに類似度を比較しているため、分割しない場合に比べて類似度の比較の精度を向上させることができる。
車両の物体検知システムの概略構成を示す図。 本実施形態の概略を説明するための図。 画像の分割の態様を説明するための図。 各画像間におけるSSIMのパラメータを示した図。 各画像間におけるエントロピーのパラメータを示した図。 画像の遮蔽判定処理の手順を示すフローチャート。 各パラメータにおいて区画ごとの遮蔽状態を示した図。 画像の分割の態様の変形例を説明するための図。 閾値の可変設定の態様を説明するための図。
以下、本発明を具体化した実施形態を図面に基づいて説明する。本実施形態は、車両に搭載された物体検知システムを具体化している。当該システムは、例えば、車両に搭載される車両システムの一例であり、車両の周囲に存在する物体(例えば、他の車両や道路構造物等)を検知する。
まず、本実施形態に係る車両の物体検知システムの概略構成について図1を用いて説明する。車両50は、ステレオカメラ10と、ECU20と、被制御対象30とを備えている。なお、図1に示す実施形態において、ECU20が物体検出装置として機能する。
ステレオカメラ10は、車両50の前方を撮像できるよう撮像軸を車両50の前方に向けた状態で車室内に設置されている。また、ステレオカメラ10は、左右(横)方向での位置の異なる右カメラ11及び左カメラ12を備えている。右カメラ11及び左カメラ12は、所定周期で同時に撮像を行い、右カメラ11で撮像された右画像及び左カメラ12で撮像された左画像は、それぞれECU20に出力される。右カメラ11及び左カメラ12は、例えば、それぞれがCCDイメージセンサやCMOSイメージセンサで構成されている。本実施形態では、右カメラ11及び左カメラ12がそれぞれ第1カメラ及び第2カメラに相当し、右画像及び左画像がそれぞれ第1画像及び第2画像に相当する。
ECU20は、CPUや各種メモリ等を備えたコンピュータを主体として構成されている。ECU20は、ステレオカメラ10の右カメラ11及び左カメラ12によってそれぞれ出力された右画像及び左画像に基づいて、車両前方に位置する物体を検出し、その物体までの距離を算出する。
物体までの距離の算出には、周知のステレオマッチング処理を用いた手法が適用される。簡単に説明すると、ECU20は、同じタイミングで撮像された右画像及び左画像を取得し、これらの画像から算出されるずれ量(視差情報)に基づき、三角測量の原理を用いて物体までの距離を算出する。
また、ECU20は、算出された物体までの距離に基づいて、その物体に対する接触回避処理等を実施する。具体的には、被制御対象30である警報装置31及びブレーキ装置32を、それぞれ所定の作動タイミングで作動させる。警報装置31は、ECU20からの制御指令により、ドライバに対して車両前方に物体が存在することを警報する。警報装置31は、例えば、車室内に設けられたスピーカや、画像を表示する表示部により構成されている。また、ブレーキ装置32は、車両50の制動力を変化させるブレーキ機構と、このブレーキ機構の動作を制御するブレーキECUとを備えている。ブレーキECUは、ECU20と通信可能に接続されており、ECU20からの制御指令により、ブレーキ機構を制御する。
ところで、ステレオカメラ10による物体検出では、右画像及び左画像からなる一対の画像に対してステレオマッチング処理が実施され、これにより物体を適正に検出することができる。言い換えると、一対の画像に対してステレオマッチング処理が適切に実施できない場合は、物体検出に悪影響を及ぼすおそれがある。
例えば、車両50の走行中に右カメラ11及び左カメラ12のいずれか一方のカメラの前方のフロントガラスにほこりや、ごみ、水滴等の遮蔽物が付着することがある。また、同様にいずれか一方のカメラのレンズ面に直接、ほこり等が付着することがある。これらの場合には、その遮蔽物が画像中に写り込むことで物体検出に悪影響が及ぶおそれがある。すなわち、一方の画像中にはその遮蔽物が写り込むのに対して、他方の画像中にはその遮蔽物が写りこまない状態となることで、ステレオマッチング処理が適切に実施できなくなると考えられる。その結果、物体検出に基づく車両制御が適正に実施できなくなるおそれがある。
そこで、本実施形態では、現時点及び現時点よりも過去における、右画像及び左画像の区画ごとの類似度に基づいて、一方のカメラの前方に遮蔽物が存在しているかの判定を行うようにした。すなわち、現時点の右画像及び左画像と、現時点よりも過去の右画像及び左画像と、をそれぞれ所定の区画に分割し、その区画ごとに、現時点における右画像及び左画像の類似度である類似度SAと、過去における右画像及び左画像の類似度である類似度SBと、現時点及び過去における右画像の類似度である類似度SCと、を算出する。そして、類似度SA及び類似度SBに基づいて、現時点及び過去の各々において右画像と左画像とが一致しない旨が判定され、かつ類似度SCに基づいて、現時点の右画像(又は左画像)と過去の右画像(又は左画像)とが一致する旨が判定された場合に、右カメラ11及び左カメラ12のいずれかの前方に遮蔽物が存在していると判定するようにした。
本実施形態の概略について、図2を用いて説明する。図2は、右カメラ11の前方のフロントガラスにごみが付着した場合を想定している。ここでは、現時点の右画像及び左画像と、現時点よりも過去の右画像及び左画像との4つの画像を示している。この場合、右画像にはごみが写り込んでいるため、左画像と比較して画像に大きな差異が生じる。例えば、各画像間で対応する区画A,B,C,Dに関して言えば、区画Aと区画Bは不一致となり、さらに区画Cと区画Dは不一致となる。一方、ごみが付着した状態はしばらく継続することから、区画Bと区画Dは一致する状態となる。本実施形態では、こうした状況の下で遮蔽物の判定を実施することから、遮蔽物の存在を適正に判定することができる。
本実施形態におけるECU20の具体的な構成について、図1を用いて説明する。図1に戻り、ECU20は、取得部21、算出部22、一致判定部23、遮蔽判定部24、制御停止部25、遮蔽通知部26、遮蔽解消部27として機能する。
取得部21は、右カメラ11及び左カメラ12により撮像された右画像及び左画像をそれぞれ取得する。なお右画像及び左画像は同じタイミングで撮像された画像であり、取得部21は、これらを所定周期で受信する。本実施形態では、取得部21は、現時点の右画像及び左画像と、現時点よりも過去の右画像及び左画像とを取得する。つまり、画像として4つの画像を取得する。ここで、現時点よりも過去の画像とは、例えば撮像周期において前回、又は前々回に撮像され、メモリに記憶された画像である。つまりここでの過去とは、現時点の画像と相関を有する程度の過去ということになる。
算出部22は、取得部21により取得された各画像、すなわち現時点の右画像及び左画像と、現時点よりも過去の右画像及び左画像とをそれぞれ所定の区画に分割する。図3(a),(b)は、取得された画像の分割の一例を示している。図3(a)は、画像の縦の長さを1/4、横の長さを1/8に分割して、格子状に均等に32分割した場合を示す。また、図3(b)は、画像の横の長さを1/8に分割して、短冊状に均等に8分割した場合を示す。このように、算出部22は、予め設定された分割の態様に従って各画像を分割する。
なお、画像間の分割については、後述する区画間の対応付けが適切に実施できるように区画されるとよい。例えば、右画像を基準に分割した場合は、左右のずれ量を考慮した上で左画像を分割するとよい。
算出部22は、分割された各区画について、(1)現時点の右画像及び左画像間、(2)現時点よりも過去の右画像及び左画像間、(3)現時点及び過去の右画像間、(4)現時点及び過去の左画像間、といった各画像間で、各々対応する区画を特定する。なお、対応する区画の特定には周知の方法を適用することができる。例えば、ビタビアルゴリズムを適用することができる。
さらに、算出部22は、対応付けられた区画ごとに、各画像間の類似度を算出する。具体的には、区画ごとに、現時点における右画像及び左画像の類似度SAと、過去における右画像及び左画像の類似度SBと、現時点及び過去における右画像の類似度SCとを算出する。なお、類似度SCは、現時点及び過去における左画像の類似度であってもよい。
類似度は、比較される2つの区画がどれだけ似ているかを示す指標であり、類似度が大きければ2つの区画が似ていることを意味し、類似度が小さければ2つの区画が似ていないことを意味する。類似度としては、周知の指標を用いることができる。本実施形態では、類似度として、SSIM(structural similarity)、及びエントロピー(情報エントロピー、相互情報量)を算出する。
SSIMは、対応する2つの区画の明るさの類似度、コントラストの類似度及び構造の類似度の要素を含めた類似度として算出される。つまり、明るさに影響されない要素も含んでいる。SSIMについて、各画像間におけるパラメータを図4に示す。図4では、現時点の右画像及び左画像間で対応する区画についてM(L,R)とし、現時点よりも過去の右画像及び左画像間で対応する区画についてM(Lp,Rp)とし、現時点及び過去の右画像間で対応する区画についてM(R,Rp)とし、現時点及び過去の左画像間で対応する区画についてM(L,Lp)とする。ここで、例えばM(L,R)は、下記式(1)に基づいて算出される。
なお、上記式(1)におけるSSIM(L,R)については、SSIMの周知の数式を用いて求めることができる。詳しくは、下記式(2)及び式(3)に基づいて算出される。
なお、上記式(2),(3)における各記号の定義について簡単に説明する。ここでは、現時点の右画像及び左画像間で対応する区画について示している。l(L,R)は、輝度の類似度を表し、c(L,R)は、コントラストの類似度を表し、s(L,R)は、画像構造の類似度を表す。さらに、μ,μは、輝度平均値であり、δ,δは、輝度の標準偏差であり、δLRは、左画像及び右画像間の区画の輝度の共分散である。また、上記式(2)中のα、β、γは、任意の定数である。
なお、M(L,R)と同様にして、M(Lp,Rp)、M(L,Rp)、M(Lp,R)も式(1)〜(3)に基づいて算出される。
ここで、SSIM値は、0より大きく1以下の値であり、例えばSSIM値が1の場合、2つの区画は同一であることを意味する。また、SSIM値が大きくなるほど、2つの区画の類似度は高くなる。ここで、例えばM(L,R)に置き換えて言えば、現時点の右画像及び左画像間の対応する区画が同一の場合、M(L,R)はゼロとなる。また、その対応する区画の類似度が高くなるほど、M(L,R)はゼロに近づくことになる。
さらに、算出部22は、類似度としてエントロピー(情報エントロピー,相互情報量)を算出する。
情報エントロピーは、全ての事象に対するその情報量の期待値をいい、数値が大きいほど情報が曖昧であることを表す。画像に置き換えて言えば、どの画素値がどの程度の確率で現れるかということになる。つまり、画素値が実際にどんな値をとるかの曖昧さを意味しており、エントロピーが大きい画像は、画素値のばらつきが大きいことになる。
一方、相互情報量は、2つの画像の相関を表しており、数値が小さいほど2つの画像は似ていることを示す。
エントロピーについて、各画像間におけるパラメータを図5に示す。図5では、現時点の右画像の情報エントロピーをE(R)とし、現時点の左画像の情報エントロピーをE(L)とし、現時点よりも過去の右画像の情報エントロピーをE(Rp)とし、現時点よりも過去の左画像の情報エントロピーをE(Lp)とする。また、現時点の右画像及び左画像間で対応する区画の相互情報量をJ(L,R)とし、現時点よりも過去の右画像及び左画像間で対応する区画の相互情報量をJ(Lp,Rp)とし、現時点及び過去の右画像間で対応する区画の相互情報量をJ(R,Rp)とし、現時点及び過去の左画像間で対応する区画の相互情報量をJ(L,Lp)とする。ここで、例えばE(R)及びJ(L,R)は、下記式(4),(5)に基づいて算出される。
なお、E(R)及びJ(L,R)と同様にして、その他のパラメータについても式(4),(5)に基づいて算出される。
一致判定部23は、算出部22により算出された類似度に基づいて、画像間の各区画が一致するか否かを判定する。具体的には、類似度SA及び類似度SBにより、現時点及び過去の各々において右画像と左画像とが一致するか否かを判定する。また、類似度SCにより、現時点の右画像(又は左画像)と過去の右画像(又は左画像)とが一致するか否かを判定する。
ここで類似度として、SSIMを用いた場合について説明する。例えば、類似度SAとしてのM(L,R)が閾値Mth1以下であれば、現時点の右画像及び左画像間で対応する区画は一致すると判定する。閾値Mth1は、2つの区画が一致しているか否かが判定される判定値として設定されている。同様に、類似度SBとしてのM(Lp,Rp)、類似度SCとしてのM(L,Rp)又はM(Lp,R)についても閾値Mth1との比較を行う。一方、エントロピーを用いた場合は、算出されたエントロピーと所定の閾値とを比較することで、2つの区画が一致しているかを判定することができる。なお、算出された類似度と区画の一致の対応関係を表すマップを用いて、一致するか否かを導いてもよい。
なお、対応する区画間が一致しているか否かの判定は、SSIM及びエントロピーのいずれか一方を用いてもよく、又、両方用いてもよい。ここで、両方用いた場合において、例えばSSIMでは一致していると判定されるが、エントロピーでは一致していないと判定されるというように両者の判定が異なる場合には、遮蔽判定が実施されやすくなる方の判定を選択するとよい。
遮蔽判定部24は、一致判定部23により、現時点及び過去の各々において右画像と左画像とが一致しない旨が判定され、かつ現時点の右画像(又は左画像)と過去の右画像(又は左画像)とが一致する旨が判定された場合に、右カメラ11及び左カメラ12のいずれかの前方に、当該カメラの視界を妨げる遮蔽物が存在していると判定する。つまり、かかる場合には、右画像及び左画像が不一致の状態が時系列的に継続していることになり、遮蔽物が付着していると考えられる。なお、この判定に際して、遮蔽判定部24は、各区画において遮蔽状態かどうかの確率Pを算出する。
確率Pの算出について、以下に説明する。まず全ての区画について、算出された類似度を用いてSCOREssim、及びSCOREentropyを算出し、区画毎にスコアの最大値を選択する。これらのスコアは、それぞれ下記式(6),(7)に基づいて、算出される。
そして、遮蔽判定部24は、算出されたスコアを用いて、下記式(8)により各区画が遮蔽状態かどうかを判定するための確率Pを算出する。
なお、上記式のP(A)は、SSIMで算出したSCOREssimを表し、P(B)は、エントロピーで算出したSCOREentropyを表す。そして、遮蔽判定部24は、算出された確率Pと閾値Pth1とを比較し、確率Pが閾値Pth1よりも大きい場合は、その区画が遮蔽状態であると判定する。
制御停止部25は、遮蔽状態であると判断された場合に、ステレオマッチング処理の一部又は全てを停止させる。すなわち、遮蔽状態が生じている領域では、ステレオマッチング処理が適切に実施できないため、少なくとも遮蔽状態が生じている領域ではその処理を停止させる。ここで、ステレオマッチング処理の一部のみを停止させる場合は、遮蔽状態が生じていない領域ではステレオマッチング処理を実施する。すなわち物体検出を継続する。
遮蔽通知部26は、遮蔽判定部24により遮蔽状態であると判定された場合に、ドライバに遮蔽状態である旨を通知するために警報装置31に対して制御指令を送信する。これにより、警報装置31を作動させることで、ドライバは遮蔽状態である旨を把握することができる。その結果、ごみや汚れのふき取り等、遮蔽状態を解消するためのドライバによる操作を促すことができる。
遮蔽解消部27は、遮蔽判定部24により遮蔽状態であると判定された場合に、遮蔽状態を解消させるための制御指令を送信する。例えばワイパやヒータが設けられている構成において、遮蔽状態であると判定された場合に、ワイパやヒータを作動させることで、遮蔽状態を解消させる。
次に、本実施形態における物体検出装置の遮蔽判定処理の手順について、図6のフローチャートを参照して説明する。本処理は、ECU20が所定間隔で繰り返し実行する。
まず、ステップS11において、現時点の右画像及び左画像と、現時点よりも過去の右画像及び左画像とを取得する。過去の画像は、例えばECU20内のメモリに記憶されている。ステップS12では、取得された各画像を所定の区画に分割する。ここでは例えば、画像の縦の長さを1/4に、横の長さを1/8に分割して、均等に32分割する。
ステップS13では、各画像間において対応する区画を特定する。例えば、右画像及び左画像間で対応する区画は、同じ横軸上から特定することができる。ステップS14では、各画像間において対応する区画ごとに類似度を算出する。ここでは、上述した方法により、類似度としてSSIM及びエントロピーを算出する。具体的には、類似度SAと類似度SBと類似度SCを算出する。
ステップS15では、類似度SAを用いて、現時点の右画像と左画像が一致していないかを判定し、類似度SBを用いて、過去の右画像と左画像が一致していないかを判定し、さらに、類似度SCを用いて、現時点の右画像(又は左画像)と過去の右画像(又は左画像)とが一致するか否かを判定する。なお、これらの判定が全て肯定された場合にステップS15がYESとなり、少なくともいずれか一つが否定された場合にステップS15がNOとなる。
ステップS15がYESであれば、ステップS16に進み、ステップS15がNOであれば、右画像及び左画像は遮蔽状態となっていないとして、そのまま本処理を終了する。ステップS16では、各区画が遮蔽状態か否かを判定するための確率Pを算出する。ここでは、上述の方法により、SCOREssim及びSCOREentropyを用いて、区画ごとに確率Pを算出する。
ステップS17では、確率Pが閾値Pth1よりも大きいか否かを判定する。ステップS17がYESであれば、その区画は遮蔽状態であるとして、ステップS18に進む。一方、ステップS17がNOであれば、その区画は遮蔽状態でないとしてそのまま本処理を終了する。ステップS18では、遮蔽状態であると判定された区画についてステレオマッチング処理を停止する。言い換えると、遮蔽状態でないと判定された区画についてはステレオマッチング処理が実施される、つまり物体検出が実施される。ステップS19では、遮蔽状態である旨をドライバに報知するための制御指令を警報装置31に送信する。
本実施形態における遮蔽判定処理によれば、区画ごとに遮蔽状態の有無を判定することができる。例えば、図7(a)には、一対の画像のうちの一方に、図に示すような位置に遮蔽物Sが付着した場合を示している。ここで、図7(b),(c)には、SSIMで算出したSCOREssimを用いた場合、及びエントロピーで算出したSCOREentropyを用いた場合において区画ごとの確率Pを指標化したものをそれぞれ示している。ここでは、確率Pを数値1〜数値4の4段階に分けて指標化しており、数値が大きいほど遮蔽状態である確率が高いことを示している。なお、これらの図では便宜上、各画像を均等に18分割している。
ここで、指標化された確率Pのうち、例えば数値3及び数値4を遮蔽状態であるとすると、図7(b)では領域Xの区画が遮蔽状態であると判定され、図7(c)では領域Yの区画が遮蔽状態であると判定される。このように、区画毎に類似度を比較することで、遮蔽された領域の特定が精度良く行われる。
さらに、本実施形態では、異なる類似度において遮蔽状態である旨の判定結果が異なった場合、言い換えると少なくとも1つの類似度において遮蔽状態であると判定された場合に、遮蔽状態であると判定する。したがって、図7のケースにおいては、結果的に領域Yの区画が遮蔽状態であると判定する。このように、異なる類似度を用いることでそれぞれの判定結果を考慮することができ、遮蔽状態の有無を適正に判定することができる。
なお、異なる類似度において遮蔽状態である旨の判定結果が異なった場合について、上記の構成を変更してもよい。例えば、遮蔽状態でない旨の判定結果を優先してもよく、又、用いる類似度によって優先する判定結果を設定してもよい。
以上詳述した本実施形態によれば、以下の優れた効果が得られる。
右カメラ11又は左カメラ12がごみ等の付着により遮蔽状態になっている場合、現時点及び過去の各々において第1画像と第2画像とが一致しない状態となる。また、ごみ等が付着した状態が維持されることで、現時点の第1画像と過去の第1画像とが一致する状態となる。こうした状況を踏まえた上で、上記構成を採用することにより、右カメラ11及び左カメラ12のいずれかの前方に遮蔽物が存在していることを適正に判定することができる。またいずれかのカメラに遮蔽物が付着等している場合、その遮蔽物によって遮蔽された領域が撮像画像の一部であることを踏まえ、上記構成では、撮像画像を分割してその区画ごとに類似度を比較しているため、分割しない場合に比べて類似度の比較の精度を向上させることができる。
遮蔽物が付着等している場合、その遮蔽物によって遮蔽された領域は、撮像画像の一部分である。かかる場合、遮蔽されていない部分では、物体検出が可能であると考えられる。この点、上記構成では、遮蔽物が存在していると判定された区画以外の区画に基づいて物体を検出するようにしたため、遮蔽された領域にかかわらず一様に物体検出を停止する構成とは異なり、物体検出の機会を増やすことができる。
複数の画像における類似度を算出する方法には様々な方法があり、用いる類似度によっては、遮蔽物が存在しているか否かの判断が異なる場合があると考えられる。この点、上記構成では、遮蔽物が存在しているか否かの判定結果が異なった場合、すなわち少なくとも一つの方法で遮蔽物が存在すると判定された場合に、遮蔽物が存在していると判定するようにした。この場合、遮蔽物が存在するとの判定を優先することで、遮蔽物が存在しないことの確実性が乏しい状況下での物体検出が制限される。これにより、誤った物体検出に基づく不要作動の発生を抑制することができると考えられる。
上記実施形態を例えば次のように変更してもよい。
・上記実施形態では、図6のステップS12において、取得された各画像を均等に分割して各区画とする構成としたが、これを変更してもよい。例えば、ECU20は画像上の位置に応じて区画の大きさを可変に設定してもよく、又、ECU20は走行シーンに応じて分割の態様を変更する構成としてもよい。
画像上の道路領域は、物体検出において重要性が高いと考えられる。この点を考慮し、例えば、図8(a)に示すように、画像を、道路領域とそれ以外(例えば、路側帯領域、上空領域)とに分割した上で、さらに道路領域についてより小さい区画に分割する構成としてもよい。なお、道路領域は、区画線認識などの周知の画像認識技術を利用することにより特定される。例えば、区画線認識により認識された両端の区画線に挟まれた領域を道路領域とする。なお、路側帯領域は、例えば、道路領域の端部の区画線の消失点を含む水平線を軸として、区画線を反転させて得た直線と、区画線とで囲まれる領域として特定される。そして、上空領域は、道路領域および路側帯領域以外の領域となる。この構成によれば、物体検出において重要性の高い道路領域について、道路領域以外の領域に比べて、区画間の類似度の比較の精度を向上させることができる。
また、画像において、下側の領域が車両50に対して手前側を表し、上側の領域が車両50に対して奥側を表す。そのため、物体検出において、画像の下側の領域の方が、画像の上側の領域に比べてより重要性が高いと考えられる。この点を考慮し、例えば、図8(b)に示すように、画像の下領域を、それよりも上の上領域に比べて小さい区画に分割する構成としてもよい。この構成によれば、物体検出において重要性の高い画像の下領域について、それよりも上の上領域に比べて、区画間の類似度の比較の精度を向上させることができる。
このように、物体検出における重要性を考慮した画像上の位置に応じて、区画の大きさを可変に設定することで、類似度の比較の精度、ひいては遮蔽判定の精度を向上させることができる。一方、分割された区画ごとに類似度を算出することから、区画数が多くなるほど、ECU20の演算負荷は大きくなる。この点を考慮し、画像の位置によって区画の大きさを変えることで、一律に区画を小さくする場合に比べて、演算負荷を軽減することができる。これにより、遮蔽判定の精度と演算負荷との両立を図ることができる。
一方、走行シーンに応じて分割の態様を変更する例として、車両前方に他車や歩行者が存在するか否かに応じて、分割する区画の大きさを変更する構成が挙げられる。かかる構成において、例えば、車両前方に他車や歩行者が存在する場合に、他車や歩行者が存在しない場合に比べて、より小さい区画に分割するように変更してもよい。この一例として、車両50の前方に他車等が存在しない場合には図3(b)のように分割し、車両50の前方に他車等が存在する場合には図3(a)のように分割することが考えられる。車両前方に他車や歩行者が存在する場合には、物体検出が適切に実施されることが望ましい。そのため、上記構成とすることで、遮蔽物の判定を精度よく行うことができ、ひいては物体検出を適正に実施することができると考えられる。なお、他車や歩行者は、周知のパターンマッチング等により認識される。
また、走行シーンのその他の例として、遮蔽物が付着しそうな走行環境(例えば、降雪時)の場合には、そうでない場合と比較して分割する区画の大きさを変更する(例えば、小さい区画に分割する)構成が考えられる。
・上記実施形態では、図6のステップS17の遮蔽判定において、予め設定された閾値Pth1を用いて遮蔽状態であるか否かを判定する構成としたが、これを変更してもよい。例えば、ECU20は区画の画像上の位置に応じて閾値Pth1を可変に設定してもよく、又、ECU20は走行シーンに応じて閾値Pth1を変更する構成にしてもよい。
区画の画像上の位置に関して言えば、物体検出における画像上の位置の重要性を加味して、閾値Pth1を可変に設定することが考えられる。例えば、閾値Pth1と画像上の位置との関係を図9(a),(b)に示す。図9(a)には、閾値Pth1と画像の横軸(x軸)との関係を示している。この場合、画像の横中央に近づくにつれて、閾値Pth1が小さくなるように設定される。つまり、画像の横軸の中央部の方が、周辺部に比べて遮蔽状態である旨が判定されやすくなる。また、図9(b)には、閾値Pth1と画像の縦軸(y軸)との関係を示している。この場合、画像の上端に近づくにつれて、閾値Pth1が大きくなるように設定される。つまり、画像の上領域は、それよりも下の下領域に比べて物体検出において重要性が低いと考えられるため、画像の上側の領域では、遮蔽状態である旨を判定されにくくしている。このように、区画の画像上の位置に応じて閾値Pth1を可変に設定することで、物体検出における画像上の位置の重要性を加味しつつ、遮蔽状態を適切に判断することができる。
また、走行シーンに関して言えば、車両前方に他車や歩行者が存在するか否かに応じて、閾値Pth1の大きさを変更する構成としてもよい。かかる構成において、例えば、車両前方に他車や歩行者が存在する場合に、他車や歩行者が存在しない場合に比べて、閾値Pth1をより小さくするように変更することが考えられる。車両前方に他車や歩行者が存在する場合には、物体検出が適切に実施されることが望ましく、かかる構成によって、走行シーンを加味しつつ、遮蔽状態を適切に判断することができると考えられる。なお、閾値Pth1の変更については、走行シーンに応じて閾値Pth1をより大きくするように変更する構成としてもよい。
・上記構成では、現時点の右画像及び左画像と、現時点よりも過去の右画像及び左画像の4つの画像を用いて各画像間の類似度を算出する構成としたが、これを変更してもよい。例えば、現時点よりも過去の画像として過去の異なる2つの時点における画像を取得し、現時点と併せて、6つの画像を用いて各画像間の類似度を算出する構成としてもよい。なお、かかる構成においても、算出された類似度に基づいて、現時点及び過去の各々において右画像と左画像とが一致しない旨が判定され、かつ現時点の右画像(又は左画像)と過去の右画像(又は左画像)とが一致する旨が判定された場合に遮蔽状態であると判定する。
・上記構成では、図6のステップS17の遮蔽判定において、確率Pが閾値Pth1よりも大きい場合に遮蔽状態であると判定する構成としたが、これを変更してもよい。例えば、確率Pが閾値Pth1よりも大きくなった回数をカウントし、カウントされた回数が所定回数以上になった場合に遮蔽状態であると判定する構成としてもよい。この構成によれば、遮蔽状態の判定の精度をより高めることができる。
・図6の遮蔽判定処理において、区画数を加味する構成としてもよい。例えば、図6のステップS17とステップS18との間に、確率Pが閾値Pth1よりも大きいと判定された区画数が所定数N以上であるか否かを判定するステップを設けてもよい。この場合、その区画数が所定数Nよりも小さければ、そのまま本処理を終了する。一方、その区画数が所定数N以上であれば、遮蔽状態であるとして、ステップS18へ進み、後続の処理を実行する。
また、上記の区画数に代えて又は加えて、区画面積を加味する構成としてもよい。例えば、図6のステップS17とステップS18との間に、確率Pが閾値Pth1よりも大きいと判定された区画の区画面積が所定面積以上であるか否かを判定するステップを設けてもよい。この場合、その区画の面積が、所定面積よりも小さければ、そのまま本処理を終了し、所定面積以上であれば、遮蔽状態であるとして、ステップS18へ進み、後続の処理を実行する。
さらに、区画の画像上の位置を加味する構成としてもよい。例えば、図6のステップS17とステップS18との間に、確率Pが閾値Pth1よりも大きいと判定された区画の画像上の位置が上空領域か否かを判定するステップを設けてもよい。この場合、上空領域であると判定されれば、そのまま本処理を終了する。一方、上空領域でないと判定されれば、ステップS18へ進み、後続の処理を実行する。なお上空領域の判定は、その他の領域の判定に適宜変更してもよい。
・上記実施形態では、類似度として、SSIM及びエントロピーを用いたが、これを変更し、SSIM及びエントロピーのいずれか一方の類似度を用いる構成であってもよい。例えば、SSIMのみを用いる構成であれば、確率PはSCOREssimのみに基づいて、算出される。
・類似度として、SSIM及びエントロピー以外にも周知の類似度を用いることができる。例えば、類似度として、SSD(sum of squared difference)、SAD(sum of absolute difference)、NCC(Normalized Cross-Correlation)、画像均一度比等を用いることができる。
11…右カメラ、12…左カメラ、20…ECU、50…車両。

Claims (6)

  1. 左右方向の視差を含む第1画像及び第2画像を撮影する第1カメラ(11)及び第2カメラ(12)が搭載された車両(50)に適用され、前記第1画像及び前記第2画像に基づいて、前記車両の周囲に存在する物体を検出する物体検出装置(20)であって、
    現時点の前記第1画像及び前記第2画像と、現時点よりも過去の前記第1画像及び前記第2画像とを取得する取得部と、
    取得した各画像を所定の区画に分割し、その区画ごとに、現時点における前記第1画像及び前記第2画像の類似度である第1類似度と、過去における前記第1画像及び前記第2画像の類似度である第2類似度と、現時点及び過去における前記第1画像の類似度である第3類似度と、を算出する算出部と、
    前記第1類似度及び前記第2類似度により、現時点及び過去の各々において前記第1画像と前記第2画像とが一致するか否かを判定するとともに、前記第3類似度により、現時点の前記第1画像と過去の前記第1画像とが一致するか否かを判定する一致判定部と、
    現時点及び過去の各々において前記第1画像と前記第2画像とが一致しない旨が判定され、かつ現時点の前記第1画像と過去の前記第1画像とが一致する旨が判定された場合に、前記第1カメラ及び前記第2カメラのいずれかの前方に、当該カメラの視界を妨げる遮蔽物が存在していると判定する遮蔽判定部と、
    を備える物体検出装置。
  2. 前記遮蔽判定部は、前記取得した各画像の前記区画ごとに、前記遮蔽物が存在しているか否かを判定するものであって、
    前記遮蔽物が存在していると判定された場合に、前記遮蔽物が存在していると判定された区画以外の区画に基づいて前記物体を検出する請求項1に記載の物体検出装置。
  3. 前記算出部は、少なくとも異なる2つの方法を用いて前記第1類似度、前記第2類似度及び前記第3類似度をそれぞれ算出するものであって、
    前記遮蔽判定部は、前記各方法において前記遮蔽物が存在しているか否かの判定結果が異なった場合に、前記遮蔽物が存在していると判定する請求項1又は2に記載の物体検出装置。
  4. 前記算出部は、前記取得した各画像において、該画像の下領域を、それよりも上の上領域に比べて小さい区画に分割する請求項1乃至3のいずれか1項に記載の物体検出装置。
  5. 前記取得した各画像に基づいて前記車両の前方の道路領域を認識する道路領域認識部を備え、
    前記算出部は、前記取得した各画像において、前記道路領域を、前記道路領域以外の領域に比べて小さい区画に分割する請求項1乃至4のいずれか1項に記載の物体検出装置。
  6. 前記算出部は、前記車両の走行状況に応じて、前記取得した各画像の分割の態様を変更する請求項1乃至5のいずれか1項に記載の物体検出装置。
JP2016198437A 2016-10-06 2016-10-06 物体検出装置 Active JP6722084B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016198437A JP6722084B2 (ja) 2016-10-06 2016-10-06 物体検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016198437A JP6722084B2 (ja) 2016-10-06 2016-10-06 物体検出装置

Publications (2)

Publication Number Publication Date
JP2018060422A true JP2018060422A (ja) 2018-04-12
JP6722084B2 JP6722084B2 (ja) 2020-07-15

Family

ID=61908592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016198437A Active JP6722084B2 (ja) 2016-10-06 2016-10-06 物体検出装置

Country Status (1)

Country Link
JP (1) JP6722084B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019189314A1 (ja) 2018-03-27 2019-10-03 三菱ケミカル株式会社 複合材料成形品及びその製造方法
CN111080571A (zh) * 2019-11-15 2020-04-28 北京迈格威科技有限公司 摄像头遮挡状态检测方法、装置、终端和存储介质
KR20210064535A (ko) * 2019-11-26 2021-06-03 서울과학기술대학교 산학협력단 선로전환기의 밀착 감지 장치
JP2021534494A (ja) * 2018-08-20 2021-12-09 ウェイモ エルエルシー 自律型車両用のカメラ評価技術
JPWO2022130780A1 (ja) * 2020-12-14 2022-06-23
CN115311685A (zh) * 2022-08-05 2022-11-08 杭州电子科技大学 一种基于平均结构相似度的毫米波图像检出结果判定方法
US12056898B1 (en) 2018-08-20 2024-08-06 Waymo Llc Camera assessment techniques for autonomous vehicles

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08294143A (ja) * 1995-04-21 1996-11-05 Matsushita Electric Ind Co Ltd 画像間対応付け方法および画像間視差計測方法
JP2002352225A (ja) * 2001-05-23 2002-12-06 Toshiba Corp 障害物検出装置及びその方法
JP2007172504A (ja) * 2005-12-26 2007-07-05 Daihatsu Motor Co Ltd 付着物検出装置及び付着物検出方法
JP2007208865A (ja) * 2006-02-06 2007-08-16 Clarion Co Ltd カメラ状態検知システム
JP2013191072A (ja) * 2012-03-14 2013-09-26 Hitachi Automotive Systems Ltd 物体検出装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08294143A (ja) * 1995-04-21 1996-11-05 Matsushita Electric Ind Co Ltd 画像間対応付け方法および画像間視差計測方法
JP2002352225A (ja) * 2001-05-23 2002-12-06 Toshiba Corp 障害物検出装置及びその方法
JP2007172504A (ja) * 2005-12-26 2007-07-05 Daihatsu Motor Co Ltd 付着物検出装置及び付着物検出方法
JP2007208865A (ja) * 2006-02-06 2007-08-16 Clarion Co Ltd カメラ状態検知システム
JP2013191072A (ja) * 2012-03-14 2013-09-26 Hitachi Automotive Systems Ltd 物体検出装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019189314A1 (ja) 2018-03-27 2019-10-03 三菱ケミカル株式会社 複合材料成形品及びその製造方法
JP7183390B2 (ja) 2018-08-20 2022-12-05 ウェイモ エルエルシー 自律型車両用のカメラ評価技術
US12056898B1 (en) 2018-08-20 2024-08-06 Waymo Llc Camera assessment techniques for autonomous vehicles
JP2021534494A (ja) * 2018-08-20 2021-12-09 ウェイモ エルエルシー 自律型車両用のカメラ評価技術
EP3824623A4 (en) * 2018-08-20 2022-03-30 Waymo LLC CAMERA EVALUATION TECHNIQUES FOR AUTONOMOUS VEHICLES
US11699207B2 (en) 2018-08-20 2023-07-11 Waymo Llc Camera assessment techniques for autonomous vehicles
CN111080571A (zh) * 2019-11-15 2020-04-28 北京迈格威科技有限公司 摄像头遮挡状态检测方法、装置、终端和存储介质
CN111080571B (zh) * 2019-11-15 2023-10-20 北京迈格威科技有限公司 摄像头遮挡状态检测方法、装置、终端和存储介质
KR102265496B1 (ko) * 2019-11-26 2021-06-17 서울과학기술대학교 산학협력단 선로전환기의 밀착 감지 장치
KR20210064535A (ko) * 2019-11-26 2021-06-03 서울과학기술대학교 산학협력단 선로전환기의 밀착 감지 장치
WO2022130780A1 (ja) * 2020-12-14 2022-06-23 日立Astemo株式会社 画像処理装置
JPWO2022130780A1 (ja) * 2020-12-14 2022-06-23
JP7466695B2 (ja) 2020-12-14 2024-04-12 日立Astemo株式会社 画像処理装置
CN115311685A (zh) * 2022-08-05 2022-11-08 杭州电子科技大学 一种基于平均结构相似度的毫米波图像检出结果判定方法

Also Published As

Publication number Publication date
JP6722084B2 (ja) 2020-07-15

Similar Documents

Publication Publication Date Title
JP6722084B2 (ja) 物体検出装置
JP6013884B2 (ja) 物体検出装置及び物体検出方法
JP4420011B2 (ja) 物体検知装置
JP6440411B2 (ja) 物体検出装置
JP5863536B2 (ja) 車外監視装置
WO2016129403A1 (ja) 物体検知装置
CN112580456A (zh) 用于路缘检测和行人危险评估的系统和方法
JP2013190421A (ja) 車両において通行物体位置検出を向上する方法
JP4937933B2 (ja) 車外監視装置
US8160300B2 (en) Pedestrian detecting apparatus
JP2016045903A (ja) 物体認識装置及び車両制御システム
JP6837262B2 (ja) 走行可能領域検出装置及び走行支援システム
JP2019067115A (ja) 路面検出装置
JP7229032B2 (ja) 車外物体検出装置
JP6200780B2 (ja) 車線認識判定装置
WO2015122212A1 (ja) 車載用認識装置
JP5717416B2 (ja) 運転支援制御装置
CN112513573B (zh) 立体摄像机装置
JP6082293B2 (ja) 車両用白線認識装置
JP6429101B2 (ja) 画像判定装置、画像処理装置、画像判定プログラム、画像判定方法、移動体
US11417115B2 (en) Obstacle recognition device
JP5890816B2 (ja) フィルタリング装置および環境認識システム
JP7322576B2 (ja) 情報処理装置、撮像装置および移動体
US11216678B2 (en) Vehicle exterior environment recognition apparatus and vehicle exterior environment recognition method
WO2024075161A1 (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200619

R150 Certificate of patent or registration of utility model

Ref document number: 6722084

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250