JP5892079B2 - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP5892079B2
JP5892079B2 JP2013014315A JP2013014315A JP5892079B2 JP 5892079 B2 JP5892079 B2 JP 5892079B2 JP 2013014315 A JP2013014315 A JP 2013014315A JP 2013014315 A JP2013014315 A JP 2013014315A JP 5892079 B2 JP5892079 B2 JP 5892079B2
Authority
JP
Japan
Prior art keywords
pedestrian
region
area
exposure time
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013014315A
Other languages
English (en)
Other versions
JP2014146164A (ja
Inventor
清水 宏明
宏明 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2013014315A priority Critical patent/JP5892079B2/ja
Publication of JP2014146164A publication Critical patent/JP2014146164A/ja
Application granted granted Critical
Publication of JP5892079B2 publication Critical patent/JP5892079B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像から対象物を検出する物体検出装置に関する。
車両の運転者は、走行中、車両周辺に存在する歩行者等に注意を払わなければならない。そのような運転者の負担を軽減するために、車両周辺の歩行者を検出するための装置が開発されている。例えば、特許文献1には、遠赤外線カメラで撮像された画像から高輝度領域を歩行者の候補領域として抽出し、この候補領域を用いて歩行者を検出することが開示されている。
特開2008−65757号公報
画像内の高輝度領域に基づいて歩行者を検出する場合、夜間の街灯、店舗照明等の発光物も高輝度であるので、発光物の形状が歩行者に似ていると、発光物を歩行者として誤検出する可能性がある。
そこで、本発明は、対象物以外の高輝度領域があっても対象物を高精度に検出できる物体検出装置を提供することを課題とする。
本発明に係る物体検出装置は、画像から対象物を検出する物体検出装置であって、異なる露光条件で撮像可能な撮像手段と、撮像手段で撮像した露光条件の異なる複数の画像からそれぞれ抽出された同じ画像位置の対象物候補領域間で高輝度領域の形状の特徴を比較する比較手段と、比較手段での比較結果に基づいて対象物候補領域が対象物か否かを判定する判定手段とを備えることを特徴とする。
この物体検出装置では、撮像手段で複数の異なる露光条件でそれぞれ撮像し、露光条件が異なる複数の画像を取得する。露光条件としては、例えば、露光時間(シャッタスピード)、レンズの絞りがある。露光条件が異なると、同じものを撮像した場合でも撮像手段で検出される光の量が変わる。物体検出装置では、露光条件の異なる複数の画像から同じ画像位置の対象物候補領域をそれぞれ抽出し、露光条件の異なる複数の対象物候補領域から高輝度領域をそれぞれ抽出し、対象物候補領域間で高輝度領域の形状の特徴を比較する。照明等の発光物(非対象物)の場合、自ら光を発して発光中心から放射状に拡散して明るくなっている。そのため、露光条件を変えても、高輝度領域として抽出される領域が殆ど変らず、高輝度領域の形状の変化が小さい。一方、歩行者等の対象物の場合、照明等の光を反射して明るくなっている。そのため、露光条件を変えると、高輝度領域として抽出される領域が変わり、高輝度領域の形状の変化が大きい。例えば、露光時間が短くなると、反射している光の量が少ない部分が高輝度でなくなり、高輝度領域が小さくなって、やがて分割する。そこで、物体検出装置では、露光条件の異なる複数の対象物候補領域間での高輝度領域の形状の特徴の比較結果に基づいて対象物候補領域が対象物か否かを判定できる。このように、物体検出装置では、複数の露光条件の画像からそれぞれ抽出された対象物候補領域間で高輝度領域の形状の特徴を比較することにより、対象物以外の高輝度領域があっても、対象物を高精度に検出できる。
本発明の上記物体検出装置では、判定手段は、比較手段の比較結果から露光条件の異なる複数の対象物候補領域間で高輝度領域の形状の特徴の変化が小さい場合、対象物候補領域が発光物であると判定する。
上記したように、照明等の発光物の場合、露光条件を変えても、高輝度領域として抽出される領域が殆ど変らず、高輝度領域の形状の変化が小さい。そこで、物体検出装置では、露光条件の異なる複数の対象物候補領域間で高輝度領域の形状の特徴を比較して、高輝度領域の形状の特徴の変化が小さい場合にはその対象物候補領域が発光物であると判定できる。ひいては、発光物と判定されなかった対象物候補領域を対象物と判定できる。
本発明の上記物体検出装置では、比較手段は、露光条件の異なる複数の対象物候補領域間で高輝度領域の重心位置を比較する。
照明等の発光物の場合、発光中心から放射状に明るさが拡散し、その拡散した領域が高輝度領域として抽出される。したがって、常に発光中心が最も高輝度であるので、露光条件を変えても、高輝度領域の重心位置が変化しない(あるいは、変化が小さい)。一方、歩行者等の対象物の場合、光を反射して明るくなっており、その反射している領域が高輝度領域として抽出される。したがって、反射している光の量が多い部分ほど高輝度であるので、露光条件を変えると、高輝度領域の重心位置も変化する。そこで、物体検出装置では、露光条件が異なる複数の対象物候補領域間で高輝度領域の重心位置を比較することによって、高輝度領域の形状の特徴が変化しているか否かを高精度に判定できる。
本発明の上記物体検出装置では、比較手段は、露光条件の異なる複数の対象物候補領域間で高輝度領域の数を比較する。
照明等の発光物の場合、上記したように露光条件を変えても高輝度領域の形状の変化が小さいので、高輝度領域が分割するようなことが殆どなく、高輝度領域の数も殆ど変化しない。一方、歩行者等の対象物の場合、上記したように露光条件を変えると高輝度領域の形状の変化が大きい。この高輝度領域の形状の変化では、領域の形状が小さくなり、やがて領域が分割する場合もある。そこで、物体検出装置では、露光条件が異なる複数の対象物候補領域間で高輝度領域の数を比較することによって、高輝度領域の形状の特徴が変化しているか否かを高精度に判定できる。
本発明によれば、複数の露光条件の画像からそれぞれ抽出された対象物候補領域間で高輝度領域の形状の特徴を比較することにより、対象物以外の高輝度領域があっても、対象物を高精度に検出できる。
本実施の形態に係る歩行者検出装置の構成図である。 歩行者と判定される場合の処理過程の一例であり、(a)が長い露光時間の画像から抽出された歩行者候補領域であり、(b)が長い露光時間の画像での歩行者候補領域から抽出された高輝度領域であり、(c)が中間の露光時間の画像での歩行者候補領域から抽出された高輝度領域であり、(d)が短い露光時間の画像での歩行者候補領域から抽出された高輝度領域である。 発光物と判定される場合の処理過程の一例であり、(a)が長い露光時間の画像から抽出された歩行者候補領域であり、(b)が長い露光時間の画像での歩行者候補領域から抽出された高輝度領域であり、(c)が中間の露光時間の画像での歩行者候補領域から抽出された高輝度領域であり、(d)が短い露光時間の画像での歩行者候補領域から抽出された高輝度領域である。 図1のECUにおける歩行者検出処理の流れを示すフローチャートである。
以下、図面を参照して、本発明に係る物体検出装置の実施の形態を説明する。なお、各図において同一又は相当する要素については同一の符号を付し、重複する説明を省略する。
本実施の形態では、本発明に係る物体検出装置を、車両に搭載される歩行者検出装置に適用する。本実施の形態に係る歩行者検出装置は、可視光カメラで撮像した画像から歩行者を検出し、その検出した歩行者の情報を各種運転支援装置に提供する。特に、本実施の形態では、歩行者検出装置における夜間(昼間でもトンネル内等の周辺が暗い場合に適用してもよい)での歩行者検出処理について説明する。なお、昼間での歩行者検出処理については、本実施の形態で説明する歩行者検出手法を適用してもよいが、周知の他の昼間に適した歩行者検出手法を適用すればよい。
図1〜図3を参照して、本実施の形態に係る歩行者検出装置1について説明する。図1は、本実施の形態に係る歩行者検出装置の構成図である。図2は、歩行者と判定される場合の処理過程の一例である。図3は、発光物と判定される場合の処理過程の一例である。
歩行者検出装置1は、画像から歩行者候補領域を抽出し、抽出できた歩行者候補領域内の高輝度領域に基づいて歩行者を検出する。特に、歩行者検出装置1は、夜間の街灯や店舗照明等の発光物を歩行者として誤検出しないように、3種類の異なる露光条件(露光時間)の画像からそれぞれ抽出された同じ画像位置の歩行者候補領域間で高輝度領域の形状の特徴を比較することによって歩行者候補領域が発光物か非発光物かを判定する。歩行者検出装置1は、可視光カメラ10及びECU[Electronic Control Unit]20を備えている。
可視光カメラ10は、CCD[Charge Coupled Device]、CMOS[Complementary Metal Oxide Semiconductor]などを用いた自車両前方を撮像する可視光カメラである。可視光カメラ10は、自車両の前側の中央の所定の高さ位置に取り付けられる。可視光カメラ10は、露光条件を変えて撮像可能なカメラである。露光条件としては、例えば、露光時間(シャッタスピード)である。また、可視光カメラ10は、少なくとも輝度情報が得られればよいので、カラーカメラでもよいしあるいは白黒カメラでもよい。可視光カメラ10では、一定時間毎に、自車両前方を撮像し、その撮像した画像データを画像信号としてECU20に送信する。なお、本実施の形態では、可視光カメラ10が特許請求の範囲に記載する撮像手段に相当する。
ECU20は、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]などからなる電子制御ユニットである。ECU20には、所定の記憶領域に歩行者モデルデータベース21が構成される。また、ECU20には、ROMに記憶されている各種プログラムをRAMにロードしてCPUで実行することによって、露光制御部22、多重露光画像取得部23、第1歩行者判定部24、第1高輝度領域抽出部25、第2高輝度領域抽出部26、第3高輝度領域抽出部27、発光物判定部28、第2歩行者判定部29が構成される。なお、本実施の形態では、第2高輝度領域抽出部26及び第3高輝度領域抽出部27が特許請求の範囲に記載する比較手段に相当し、発光物判定部28及び第2歩行者判定部29が特許請求の範囲に記載する判定手段に相当する。
歩行者モデルデータベース21は、第1歩行者判定部24でのパターンマッチングで用いられる歩行者モデルを格納するデータベースである。歩行者モデルデータベース21は、ECU20の所定の記憶領域に構築されるデータベースである。歩行者モデルとしては、様々なモデルが格納されており、例えば、歩いている歩行者モデル、走っている歩行者モデル、止まっている歩行者モデル、男性の歩行者モデル、女性の歩行者モデル、大人の歩行者モデル、子供の歩行者モデル、老人の歩行者モデル、正面の歩行者モデル、背面の歩行者モデル、側面の歩行者モデルがあり、これらの各歩行者モデルの組み合わせの歩行者モデルもある。
露光制御部22は、露光条件(特に、露光時間)を変えて可視光カメラ10を撮像制御する処理部である。露光制御部22は、可視光カメラ10と双方向通信を行うために、IEEE1394等のバスで可視光カメラ10と接続される。露光制御部22では、一定時間毎に、可視光カメラ10を露光制御し、3種類の異なる露光時間(長い露光時間>中間の露光時間>短い露光時間)でそれぞれ撮像させる。この3種類の露光時間は、長い露光時間を夜間の市街地で歩行者を十分に撮像できる露光時間とし、中間の露光時間、短い露光時間を順次短い露光時間とする。短い露光時間でも、夜間の街灯や店舗照明等の発光物の光を十分に撮像できる露光時間とする。長い露光時間ほど、明るい画像が得られる。
多重露光画像取得部23は、露光制御部22で露光制御された可視光カメラ10で撮像した画像を取得する処理部である。多重露光画像取得部23では、一定時間毎に、可視光カメラ10でそれぞれ撮像された長い露光時間(最も明るい)の画像、中間の露光時間(中間の明るさ)の画像、短い露光時間(最も暗い)の画像を取得する。
第1歩行者判定部24は、多重露光画像取得部23で取得した長い露光時間(最も明るい)の画像から歩行者らしい領域(歩行者候補領域)を判定する処理部である。この判定手法は、周知の一般的な歩行者認識手法を用い、例えば、歩行者モデルによるパターンマッチングを用いる。第1歩行者判定部24では、多重露光画像取得部23で長い露光時間の画像を取得すると、歩行者モデルデータベース21に格納されている歩行者モデル毎にその長い露光時間の画像に対してパターンマッチングを行い、マッチングした領域がある場合には矩形の歩行者候補領域を抽出する。パターンマッチングの手法としては、例えば、N.Dalal and B.Triggs.“Histogram of oriented gradient for humandetection”.CVPR,2005に開示されている手法で実現できる。
図2(a)には、歩行者が歩行者らしいとして判定され、長い露光時間(最も明るい)の画像から抽出された歩行者候補領域C1を示している。この歩行者は、夜間の店舗照明等の光が当たっており、その光を白い服等で反射して明るくなっている。露光時間が長い画像の場合、反射した光でも歩行者らしい形状が得られ、歩行者モデルによるパターンマッチングが可能である。また、図3(a)には、2つの発光物が歩行者らしいとして判定され、長い露光時間の画像から抽出された歩行者候補領域C2を示している。この2つの発光物は、発光中心から放射状にそれぞれ拡散して円形形状と長方形形状で明るくなっている。この2つの形状の発光物の組み合わせが歩行者に似たような形状となり、歩行者モデルによるパターンマッチングでマッチングしてしまった。
第1高輝度領域抽出部25は、第1歩行者判定部24で長い露光時間(最も明るい)の画像から抽出した歩行者候補領域から高輝度領域を抽出し、この高輝度領域の重心位置を計算する処理部である。第1高輝度領域抽出部25では、第1歩行者判定部24で抽出した歩行者候補領域の中から1つずつ歩行者候補領域を選択する。そして、第1高輝度領域抽出部25では、その選択した歩行者候補領域内において、第1輝度判定閾値より高い輝度を持つ領域(高輝度領域)を抽出し、その抽出した領域の重心位置を計算する。第1輝度判定閾値は、長い露光時間の画像において高輝度か否かを判定するための閾値であり、長い露光時間で得られる画像の明るさを考慮して、実験等に基づいて予め設定される。この領域抽出及び重心位置計算の方法としては、例えば、歩行者候補領域内の画素毎に輝度が第1輝度判定閾値より高い画素と第1輝度判定閾値以下の画素とで2値化し、ランレングス法を用いて第1輝度判定閾値より高い画素からなる領域にラベル付けし、同じラベルの領域の重心位置を計算する。
図2(b)には、図2(a)の長い露光時間(最も明るい)の歩行者候補領域C1から抽出された高輝度領域H1L1を示している。歩行者には、一側方から夜間の店舗照明等の光が当たっていたので、その一側方側が特に明るくなっていた。そのため、その一側方側が1つの高輝度領域H1L1として抽出され、その高輝度領域H1L1の重心位置G1L1が計算された。また、図3(b)には、図3(a)の長い露光時間の歩行者候補領域C2から抽出された高輝度領域H2L1,H2L2を示している。2つの発光物は、発光中心から拡散して円形形状と長方形形状でそれぞれ明るくなっていた。そのため、その円形形状と長方形形状がそのままの形状で高輝度領域H2L1,H2L2として抽出され、その高輝度領域H2L1の重心位置G2L1と高輝度領域H2L2の重心位置G2L2が計算された。
第2高輝度領域抽出部26は、第1高輝度領域抽出部25で長い露光時間の歩行者候補領域内から高輝度領域を抽出している場合、中間の露光時間(中間の明るさ)の画像における長い露光時間の歩行者候補領域と同じ領域内から抽出した高輝度領域の重心位置と長い露光時間の歩行者候補領域内から抽出されている高輝度領域の重心位置とが同じ位置かを判定する処理部である。第2高輝度領域抽出部26では、選択されている歩行者候補領域に対する第1高輝度領域抽出部25での処理が終了すると、第1高輝度領域抽出部25で長い露光時間の歩行者候補領域内から高輝度領域を抽出しているか否かを判定し、抽出している場合には多重露光画像取得部23で取得した中間の露光時間の画像からその長い露光時間の歩行者候補領域と同じ位置かつ同じ矩形形状の領域(中間の露光時間の歩行者候補領域)を抽出する。そして、第2高輝度領域抽出部26では、第1高輝度領域抽出部25と同様の方法により、その抽出した中間の露光時間の歩行者候補領域内において、第2輝度判定閾値より高い輝度を持つ領域を抽出し、その抽出した領域の重心位置を計算する。第2輝度判定閾値は、中間の露光時間(中間の明るさ)画像において高輝度か否かを判定するための閾値であり、中間の露光時間で得られる画像の明るさを考慮して、実験等に基づいて予め設定される。第2輝度判定閾値は、中間の明るさの画像から高緯度領域を抽出するので、第1輝度判定閾値よりも小さい値である。
さらに、第2高輝度領域抽出部26では、その抽出した高輝度領域の重心位置と第1高輝度領域抽出部25で抽出されている高輝度領域の重心位置との距離を計算する。どの重心位置同士の距離を計算するかを決める方法は、第1高輝度領域抽出部25で抽出されている高輝度領域に相当する領域位置内にある高輝度領域の重心位置とする。その領域位置内に高輝度領域が複数ある場合、複数の高輝度領域についてそれぞれ距離を計算し、その複数の距離の和を判定に用いるものとする。第2高輝度領域抽出部26では中間の露光時間(中間の明るさ)の画像を用いているので、第2高輝度領域抽出部26で抽出した高輝度領域は、長い露光時間(最も明るさ)の画像を用いた第1高輝度領域抽出部25で抽出されている高輝度領域よりも大きくなることはない。そのようになるように、第2輝度判定閾値の値が小さくなり過ぎないようにする。そして、第2高輝度領域抽出部26では、計算した距離が距離判定閾値以下か否かを判定し、距離が距離判定閾値以下の場合には長い露光時間の歩行者候補領域内の高輝度領域の重心位置と中間の露光時間の歩行者候補領域内の高輝度領域の重心位置とが同じ位置であると判定する。距離判定閾値は、異なる露光時間(異なる明るさ)の画像の歩行者領域間で高輝度領域の重心位置が同じ位置とみなしてよいか否かを判定するための閾値であり、実験等に基づいて予め設定される。
図2(c)には、図2(a)の歩行者候補領域C1と同じ画像位置の中間の露光時間(中間の明るさ)の歩行者候補領域C1から抽出された4つの高輝度領域H1M1,高輝度領域H1M2,高輝度領域H1M3,高輝度領域H1M4を示している。歩行者の場合、自らは発光していないので、中心ほど明るいわけではなく、夜間の店舗照明等の光を反射している部分だけが明るくなる。したがって、露光時間が短くなるほど、反射している光の量が多い部分だけが高輝度領域として検出され、その高輝度領域が狭くなり(それに伴って領域の重心位置が変化し)、やがて高輝度領域が分割する。したがって、図2(b)で示した長い露光時間での高輝度領域H1L1が分割し、4つの小さな高輝度領域H1M1,H1M2,H1M3,H1M4として抽出された。この場合、高輝度領域H1L1の重心位置G1L1と高輝度領域H1M1,H1M2,H1M3,H1M4の各重心位置G1M1,G1M2,G1M3,G1M4との距離がそれぞれ計算され、4つの距離の和が距離判定閾値と比較され、距離判定閾値より大きいと判定され、重心位置が変化している。
また、図3(c)には、図3(a)の歩行者候補領域C2と同じ画像位置の中間の露光時間(中間の明るさ)の歩行者候補領域C2から抽出された2つの高輝度領域H2M1,H2M2を示している。発光物の場合、自らが発光しているので、発光中心から放射状に明るさが拡散する。したがって、露光時間が短くなっても、発光中心が最も輝度が高いので、高輝度領域の重心位置が変化せず、高輝度領域の大きさもあまり小さくならない。したがって、図3(b)で示した長い露光時間での高輝度領域H2L1,H2L2から少しだけ小さくなって、高輝度領域H2M1,H2M2として抽出された。この場合、高輝度領域H2L1の重心位置G2L1と高輝度領域H2M1の重心位置G2M1との距離及び高輝度領域H2L2の重心位置G2L2と高輝度領域H2M2の重心位置G2M2との距離がそれぞれ計算され、各距離が距離判定閾値とそれぞれ比較され、2つの距離が距離判定閾値以下と判定され、重心位置が同じ位置である。
第3高輝度領域抽出部27は、第2高輝度領域抽出部26で同じ重心位置の高輝度領域があると判定した場合、短い露光時間(最も暗い)の画像における長い露光時間の歩行者候補領域と同じ領域内から抽出した高輝度領域の重心位置と長い露光時間の歩行者候補領域内から抽出されている高輝度領域の重心位置とが同じ位置かを判定する処理部である。第3高輝度領域抽出部27では、選択されている歩行者候補領域に対する第2高輝度領域抽出部26での処理が終了すると、第2高輝度領域抽出部26で長い露光時間での高輝度領域の重心位置と中間の露光時間での高輝度領域の重心位置とが同じ位置であると判定しているかを判定し、同じ重心位置と判定している場合には多重露光画像取得部23で取得した短い露光時間の画像から長い露光時間の歩行者候補領域と同じ位置かつ同じ矩形形状の領域(短い露光時間の歩行者候補領域)を抽出する。そして、第3高輝度領域抽出部27では、第1高輝度領域抽出部25と同様の方法により、その抽出した短い露光時間の歩行者候補領域内において、第3輝度判定閾値より高い輝度を持つ領域を抽出し、その抽出した領域の重心位置を計算する。第3輝度判定閾値は、短い露光時間(最も暗い)画像において高輝度か否かを判定する閾値であり、短い露光時間で得られる画像の明るさを考慮して、実験等に基づいて予め設定される。第3輝度判定閾値は、最も暗い画像から高緯度領域を抽出するので、第2輝度判定閾値よりも小さい値である。
さらに、第3高輝度領域抽出部27では、その抽出した高輝度領域の重心位置と第1高輝度領域抽出部25で抽出されている高輝度領域の重心位置との距離を計算する。第3高輝度領域抽出部27では短い露光時間(最も暗い)の画像を用いているので、第3高輝度領域抽出部27で抽出した高輝度領域は、長い露光時間(最も明るさ)の画像を用いた第1高輝度領域抽出部25で抽出されている高輝度領域や中間の露光時間(中間の明るさ)の画像を用いた第2高輝度領域抽出部26で抽出されている高輝度領域よりも大きくなることはない。そのようになるように、第3輝度判定閾値の値が小さくなり過ぎないようにする。そして、第3高輝度領域抽出部27では、計算した距離が距離判定閾値以下か否かを判定し、距離が距離判定閾値以下の場合には長い露光時間の歩行者候補領域内の高輝度領域の重心位置と短い露光時間の歩行者候補領域内の高輝度領域の重心位置とが同じ位置であると判定する。なお、第1高輝度領域抽出部25で抽出されている高輝度領域の重心位置との距離を求め、その距離で判定したが、第2高輝度領域抽出部26で抽出されている高輝度領域の重心位置との距離を求め、その距離で判定してもよい。
図2(d)には、図2(a)の歩行者候補領域C1と同じ画像位置の短い露光時間(最も暗い)の歩行者候補領域C1から抽出された1つの高輝度領域H1S1を示している。この場合、図2(c)の場合よりも露光時間が更に短くなったので、図2(c)で示した中間の露光時間での高輝度領域H1M1,H1M3,H1M4が高輝度領域として抽出されなくなり、図2(c)で示した中間の露光時間での高輝度領域H1M2だけが小さくなって高輝度領域H1S1として抽出された。この場合、高輝度領域H1L1の重心位置G1L1と高輝度領域H1S1の重心位置G1S1との距離が計算され、この距離が距離判定閾値と比較され、距離判定閾値より大きいと判定され、重心位置が変化している。
また、図3(d)には、図3(a)の歩行者候補領域C2と同じ画像位置の短い露光時間(最も暗い)の歩行者候補領域C2から抽出された2つの高輝度領域H2S1,H2S2を示している。この場合、図3(c)の場合よりも露光時間が更に短くなっているが、図3(c)で示した中間の露光時間での高輝度領域H2M1,H2M2から少しだけ小さくなって、高輝度領域H2S1,H2S2として抽出された。この場合、高輝度領域H2L1の重心位置G2L1と高輝度領域H2S1の重心位置G2S1との距離及び高輝度領域H2L2の重心位置G2L2と高輝度領域H2S2の重心位置G2S2との距離がそれぞれ計算され、各距離が距離判定閾値とそれぞれ比較され、2つの距離が距離判定閾値以下と判定され、重心位置が同じ位置である。
発光物判定部28は、第2高輝度領域抽出部26での距離の判定結果及び第3高輝度領域抽出部27での距離の判定結果に基づいて、歩行者候補領域が発光物(非歩行者)か否かを判定する処理部である。発光物判定部28では、選択されている歩行者候補領域に対する第3高輝度領域抽出部27での処理が終了すると、第2高輝度領域抽出部26で長い露光時間の歩行者候補領域内の高輝度領域の重心位置と中間の露光時間の歩行者候補領域内の高輝度領域の重心位置とが同じ位置であると判定しかつ第3高輝度領域抽出部27で長い露光時間の歩行者候補領域内の高輝度領域の重心位置と短い露光時間の歩行者候補領域内の高輝度領域の重心位置とが同じ位置であると判定している場合(すなわち、露光時間の異なる3つの歩行者候補領域間において高輝度領域の重心位置が同じ位置である場合)、その歩行者候補領域を発光物(非歩行者)と判定する。
図2に示す例の場合、上記で説明したように、露光時間の異なる歩行者候補領域C1,C1,C1間で高輝度領域の重心位置が変化していると判定された。一方、図3に示す例の場合、上記で説明したように、露光時間の異なる歩行者候補領域C2,C2,C2間で高輝度領域の重心位置が同じ位置と判定された。したがって、図3に示す歩行者候補領域は発光物(非歩行者)と判定される。
第2歩行者判定部29は、発光物判定部28での判定結果に基づいて歩行者候補領域毎に歩行者か否かを判定する処理部である。第2歩行者判定部29では、抽出されている全ての歩行者候補領域について発光物判定部28での判定が終了すると、歩行者候補領域毎に発光物判定部28で発光物と判定されていない歩行者候補領域については歩行者と判定する。そして、第2歩行者判定部29では、歩行者と判定した歩行者候補領域については自車両からの相対位置等の歩行者情報を計算し、各歩行者の歩行者情報からなる歩行者検出信号を運転支援装置に送信する。
図1を参照して、歩行者検出装置1での動作の流れを説明する。特に、ECU20における処理の流れについては図4のフローチャートに沿って説明する。図4は、図1のECUにおける歩行者検出処理の流れを示すフローチャートである。歩行者検出装置1では、以下で説明する動作を一定時間毎に繰り返し行う。
可視光カメラ10では、ECU20からの露光制御に応じて長い露光時間で自車両前方を撮像し、その撮像した画像データを画像信号としてECU20に送信する。ECU20では、この画像信号を受信し、長い露光時間(最も明るい)の画像を取得する(S1)。また、可視光カメラ10では、ECU20からの露光制御に応じて中間の露光時間で自車両前方を撮像し、その撮像した画像データを画像信号としてECU20に送信する。ECU20では、この画像信号を受信し、中間の露光時間(中間の明るさ)の画像を取得する(S1)。また、可視光カメラ10では、ECU20からの露光制御に応じて短い露光時間で自車両前方を撮像し、その撮像した画像データを画像信号としてECU20に送信する。ECU20では、この画像信号を受信し、短い露光時間(最も暗い)の画像を取得する(S1)。
ECU20では、取得した露光時間の異なる画像の中から一番長い露光時間(長い露光時間)の画像を選択する(S2)。そして、ECU20では、その選択した画像内から歩行者らしい歩行者候補領域を抽出する(S3)。ここでは、歩行者候補領域として、1つだけ抽出される場合もあれば複数抽出される場合もある。なお、歩行者候補領域が1つも抽出されない場合、ここで、今回の処理を終了する。
ECU20では、S3で抽出した歩行者候補領域の中から歩行者候補領域を1つ選択する(S4)。そして、ECU20では、その選択した歩行者候補領域内から第1輝度判定閾値より高い輝度の領域を高輝度領域として抽出し、抽出した各高輝度領域の重心位置を計算する(S5)。ここでは、高輝度領域として、1つだけ抽出される場合もあれば複数抽出される場合もあり、1つも抽出されない場合もある。
ECU20では、S5の処理で高輝度領域が抽出されているか否かを判定する(S6)。S6の判定で高輝度領域が1つも抽出されていないと判定した場合、ECU20では、この歩行者候補領域に対する処理は終了し、S14の処理に移行する。
S6の判定で高輝度領域が抽出されていると判定した場合、ECU20では、S1で取得した露光時間の異なる画像の中から2番目に長い露光時間(中間の露光時間)の画像を選択する(S7)。そして、ECU20では、その選択した画像からS4で選択した歩行者候補領域と同じ位置かつ同じ矩形形状の領域を中間の露光時間での歩行者候補領域として抽出し、その抽出した歩行者候補領域内から第2輝度判定閾値より高い輝度の領域を高輝度領域として抽出し、抽出した各高輝度領域の重心位置を計算する(S8)。さらに、ECU20では、S5で抽出した長い露光時間での高輝度領域の重心位置とS8で抽出した中間の重心位置での高輝度領域の重心位置との距離を算出し、その距離が距離判定閾値よりも小さいか否かを判定する(S9)。S9の判定で高輝度領域の重心位置間の距離が距離判定閾値以上と判定した場合、ECU20では、同じ重心位置に高輝度領域がないと判断し、この歩行者候補領域に対する処理は終了し、S14の処理に移行する。
S9の判定で高輝度領域の重心位置間の距離が距離判定閾値より小さいと判定した場合、同じ重心位置に高輝度領域があると判断し、ECU20では、S1で取得した露光時間の異なる画像の中から3番目に長い露光時間(短い露光時間)の画像を選択する(S10)。そして、ECU20では、その選択した画像からS4で選択した歩行者候補領域と同じ位置かつ同じ矩形形状の領域を短い露光時間での歩行者候補領域として抽出し、その抽出した歩行者候補領域内から第3輝度判定閾値より高い輝度の領域を高輝度領域として抽出し、抽出した各高輝度領域の重心位置を計算する(S11)。さらに、ECU20では、S5で抽出した長い露光時間での高輝度領域の重心位置とS11で抽出した短い露光時間での高輝度領域の重心位置との距離を算出し、その距離が距離判定閾値よりも小さいか否かを判定する(S12)。S12の判定で高輝度領域の重心位置間の距離が距離判定閾値以上と判定した場合、ECU20では、同じ重心位置に高輝度領域がないと判断し、この歩行者候補領域に対する処理は終了し、S14の処理に移行する。
S12の判定で高輝度領域の重心位置間の距離が距離判定閾値より小さいと判定した場合、同じ重心位置に高輝度領域があると判断し、ECU20では、3種類の異なる露光時間での歩行者候補領域内の高輝度領域の重心位置が同じ位置であるので、その歩行者候補領域を非歩行者(発光物)と判定する(S13)。そして、ECU20では、S3で抽出されている全ての歩行者候補領域に対する処理が終了したか否かを判定する(S14)。S14の判定で全ての歩行者候補領域に対する処理が終了していないと判定した場合、ECU20では、S4の処理に戻って、次の歩行者候補領域に対する処理を行う。
S14の判定で全ての歩行者候補領域に対する処理が終了したと判定した場合、ECU20では、S3で抽出されている全ての歩行者候補領域においてS13で非歩行者と判定されていない歩行者候補領域を抽出し、その歩行者候補領域を歩行者と判定する(S15)。そして、ECU20では、歩行者と判定した歩行者候補領域については歩行者情報を計算し、各歩行者の歩行者情報からなる歩行者検出信号を運転支援装置に送信する。
歩行者検出装置1によれば、3種類の異なる露光時間(露光条件)で撮像した画像内の同じ画像位置の歩行者候補領域間で高輝度領域の形状の特徴を比較することにより、歩行者以外(発光物)の高輝度領域があっても、歩行者を高精度に検出できる。特に、歩行者検出装置1は、3種類の異なる露光時間の歩行者候補領域間で高輝度領域の重心位置を比較することによって、高輝度領域の形状の特徴が変化しているか否かを高精度に判定できる。
ちなみに、歩行者検出装置1では、撮像手段として可視光カメラ10を適用しているので、赤外光領域の波長を有さない発光物を判別することも可能である。赤外線カメラを適用すると、LED等の赤外領域の波長を有さない発光物に対する判別ができない場合がある。
以上、本発明に係る実施の形態について説明したが、本発明は上記実施の形態に限定されることなく様々な形態で実施される。
例えば、本実施の形態では歩行者を検出する歩行者検出装置に適用したが、歩行者以外にも車両、自転車、自動二輪車、交通標識等の他の対象物を検出する装置にも適用可能である。また、本実施の形態では車両に搭載される歩行者検出装置(物体検出装置)に適用したが、ロボット等の移動体に搭載するなど、車載以外の物体検出装置にも適用可能である。
また、本実施の形態では可視光カメラとしたが、赤外線カメラ(近赤外線カメラ等)でもよい。本実施の形態では可視光カメラで自車両前方を撮像し、自車両前方の歩行者を検出する構成としたが、可視光カメラで後方や側方等の他の周辺方向を撮像し、他の周辺方向の歩行者を検出する構成とてもよい。また、本実施の形態では車載として、専用のECUで歩行者検出装置の各処理部を構成としたが、各処理部をパソコン等の汎用コンピュータに構成してもよい。
また、本実施の形態では3種類の異なる露光時間で画像を撮像し、3種類の異なる露光時間の画像からそれぞれ抽出された歩行者候補領域間で高輝度領域の形状の特徴を比較する構成としたが、2種類あるいは4種類以上の異なる露光時間の画像を撮像し、2種類あるいは4種類以上の異なる露光時間の画像からそれぞれ抽出された歩行者候補領域間で高輝度領域の形状の特徴を比較する構成としてもよい。また、本実施の形態では露光条件として露光時間を変える構成としたが、レンズの絞り等の他の露光条件を変える構成としてもよい。
また、本実施の形態では異なる露光時間の歩行者候補領域からそれぞれ抽出された高輝度領域間の重心位置の距離を求めて、距離に基づいて判定する構成としたが、異なる露光時間の歩行者候補領域からそれぞれ抽出される高輝度領域の数をカウントし、歩行者候補領域内の高輝度領域の数で判定してもよい。この場合、高輝度領域の数の変化がある閾値以下か否かで判定し、中間の露光時間の歩行者候補領域との判定及び短い露光時間の歩行者候補領域との判定で共に高輝度領域の数の変化がある閾値以下の場合にはその歩行者候補領域を発光物と判定する。上記したように、歩行者の場合、露光時間が短くなると、高輝度領域が小さくなって、やがて分割し、高輝度領域の数が変化する。一方、発光物の場合、露光時間が短くなっても、高輝度領域があまり小さくならず、高輝度領域の数が変化しない。
1…歩行者検出装置、10…可視光カメラ、20…ECU、21…歩行者モデルデータベース、22…露光制御部、23…多重露光画像取得部、24…第1歩行者判定部、25…第1高輝度領域抽出部、26…第2高輝度領域抽出部、27…第3高輝度領域抽出部、28…発光物判定部、29…第2歩行者判定部。

Claims (3)

  1. 画像から対象物を検出する物体検出装置であって、
    異なる露光条件で撮像可能な撮像手段と、
    前記撮像手段で撮像した露光条件の異なる複数の画像からそれぞれ抽出された同じ画像位置の対象物候補領域間で高輝度領域の形状の特徴を比較する比較手段と、
    前記比較手段での比較結果に基づいて前記対象物候補領域が対象物か否かを判定する判定手段と、を備え、
    前記判定手段は、前記比較手段の比較結果から露光条件の異なる複数の対象物候補領域間で高輝度領域の形状の特徴の変化が小さい場合、前記対象物候補領域が発光物であると判定することを特徴とする物体検出装置。
  2. 前記比較手段は、露光条件の異なる複数の対象物候補領域間で高輝度領域の重心位置を比較することを特徴とする請求項1に記載の物体検出装置。
  3. 前記比較手段は、露光条件の異なる複数の対象物候補領域間で高輝度領域の数を比較することを特徴とする請求項1又は2に記載の物体検出装置。
JP2013014315A 2013-01-29 2013-01-29 物体検出装置 Active JP5892079B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013014315A JP5892079B2 (ja) 2013-01-29 2013-01-29 物体検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013014315A JP5892079B2 (ja) 2013-01-29 2013-01-29 物体検出装置

Publications (2)

Publication Number Publication Date
JP2014146164A JP2014146164A (ja) 2014-08-14
JP5892079B2 true JP5892079B2 (ja) 2016-03-23

Family

ID=51426382

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013014315A Active JP5892079B2 (ja) 2013-01-29 2013-01-29 物体検出装置

Country Status (1)

Country Link
JP (1) JP5892079B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6151677B2 (ja) * 2014-10-16 2017-06-21 セコム株式会社 物体検出装置
JP6786279B2 (ja) * 2016-07-05 2020-11-18 日立オートモティブシステムズ株式会社 画像処理装置
CN109800683A (zh) * 2018-12-30 2019-05-24 昆明物理研究所 一种基于fpga的红外行人检测方法及装置
JP7230896B2 (ja) * 2020-03-12 2023-03-01 株式会社豊田中央研究所 車載センシング装置及びセンサパラメータ最適化装置。

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3625910B2 (ja) * 1995-09-11 2005-03-02 松下電器産業株式会社 移動物体抽出装置
JP4253275B2 (ja) * 2003-08-11 2009-04-08 株式会社日立製作所 車両制御システム
JP4719584B2 (ja) * 2006-02-08 2011-07-06 富士通株式会社 動き検出プログラム、動き検出方法、動き検出装置、
JP2008054200A (ja) * 2006-08-28 2008-03-06 Olympus Corp 撮像装置及び画像処理プログラム
JP4777196B2 (ja) * 2006-09-11 2011-09-21 川崎重工業株式会社 運転支援装置
JP2012240530A (ja) * 2011-05-18 2012-12-10 Koito Mfg Co Ltd 画像処理装置

Also Published As

Publication number Publication date
JP2014146164A (ja) 2014-08-14

Similar Documents

Publication Publication Date Title
US10929693B2 (en) Vehicular vision system with auxiliary light source
US10635896B2 (en) Method for identifying an object in a surrounding region of a motor vehicle, driver assistance system and motor vehicle
US10043091B2 (en) Vehicle vision system with retroreflector pattern recognition
US10552688B2 (en) Method and device for detecting objects in the surroundings of a vehicle
JP4853160B2 (ja) 車両検出装置及びヘッドランプ制御装置
JP7009987B2 (ja) 自動運転システム及び自動運転方法
JP4853437B2 (ja) 車両周辺監視システム
EP3118831B1 (en) Traffic light detection device and traffic light detection method
KR101511853B1 (ko) 단일 다중 노출 카메라를 이용한 야간 전방 차량 검출 및 위치 측정 시스템 및 방법
JP5892079B2 (ja) 物体検出装置
JP6236039B2 (ja) 車外環境認識装置
JP2014515893A (ja) 車両のカメラによって撮影した画像を評価するための方法および画像評価装置
JP6420650B2 (ja) 車外環境認識装置
KR101344034B1 (ko) 보행자 인식기반 사고방지 시스템 및 그 제어 방법
US11518465B2 (en) Motorcycle providing visual light warning to detected vehicles to notify detected vehicles of presence of motorcycle
CN110087946A (zh) 车辆用照明系统和车辆
JP2012222762A (ja) 画像処理装置
EP3220637B1 (en) Vehicle-mounted camera system
IL233114A (en) A method and system for pattern recognition, classification and tracking
JP2016004503A (ja) 車外環境認識装置
CN104008518A (zh) 对象检测设备
JP6339840B2 (ja) 車外環境認識装置
Tang et al. Robust vehicle surveillance in night traffic videos using an azimuthally blur technique
JP3839329B2 (ja) ナイトビジョンシステム
CN105745670B (zh) 用于为机动车辆形成夜间影像的系统和方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150303

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160208

R151 Written notification of patent or utility model registration

Ref document number: 5892079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151