JP2010224936A - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP2010224936A
JP2010224936A JP2009072310A JP2009072310A JP2010224936A JP 2010224936 A JP2010224936 A JP 2010224936A JP 2009072310 A JP2009072310 A JP 2009072310A JP 2009072310 A JP2009072310 A JP 2009072310A JP 2010224936 A JP2010224936 A JP 2010224936A
Authority
JP
Japan
Prior art keywords
pixel
image data
distance
data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009072310A
Other languages
English (en)
Other versions
JP5073700B2 (ja
Inventor
Toru Saito
徹 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP2009072310A priority Critical patent/JP5073700B2/ja
Publication of JP2010224936A publication Critical patent/JP2010224936A/ja
Application granted granted Critical
Publication of JP5073700B2 publication Critical patent/JP5073700B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】距離検出手段が検出した距離データを的確にグループ化して物体を的確に検出することが可能な物体検出装置を提供する。
【解決手段】物体検出装置1は、距離検出手段6の検出領域の区分dnごとに得られた距離データdpnをグループ化して物体を検出する物体検出手段11と、撮像された画像T上で隣接する複数の画素pを各画像データDに基づいて画素領域gに統合する統合処理手段10と、画像Tを距離検出手段6と同様に区分し、画像T中に占める物体の範囲内に存在する画素領域gの画像データに基づいて、範囲に属する区分dnごとに一つ以上の代表画像データDnを割り当てる割り当て手段12と、区分dnごとの代表画像データDnに基づいて距離データdpnのグループ化の閾値ΔXth、ΔZthを可変させる閾値可変手段13と、可変された閾値に基づいて再度距離データdpnをグループ化して物体の検出を行う再検出手段14とを備える。
【選択図】図1

Description

本発明は、物体検出装置に係り、特に、距離検出手段により得られた距離データに基づいて物体を検出する物体検出装置に関する。
近年、CCD(Charge Coupled Device)カメラやCMOS(Complementary Metal Oxide Semiconductor)カメラ等の撮像手段で撮像した画像の画像解析やレーダ装置から発射された電波やレーザビームの反射波解析等により、例えばそれらの撮像手段や装置を搭載した車両の周囲に存在する物体を検出する物体検出装置の開発が進められている(例えば特許文献1等参照)。
特許文献1に記載されているように、このような物体検出装置では、通常、撮像手段として一対のカメラからなるステレオカメラを備えて、それらで撮像された一対の画像に対するステレオマッチング処理等により撮像手段から物体までの実空間上の距離を検出したり、或いは、レーダ装置から発射する電波やレーザビーム等を走査してその反射波を解析してレーダ装置から物体までの実空間上の距離を検出し、その実空間上の距離等に基づいて物体の実空間上の位置を特定して物体を検出する。
そのため、このように撮像手段やレーダ装置等を距離検出手段として用いることで、物体を精度良く検出することが可能となるとともに、検出した物体の情報に基づいて、例えば自車両の速度や進行方向を自動的に、すなわち運転者による認識や操作を介さずに制御する車両の自動制御技術等に応用することが可能となる。
ところで、距離検出手段の検出領域における実際の風景が、例えば図22に示すような風景であったとする。この場合、距離検出手段で人物等の物体までの実空間上の距離を検出すると、図22中の右側に撮像されている2人の人物A、Bや、左側に撮像されている人物Cと自転車D等にそれぞれ対応して、実空間上の距離のデータ(以下、距離データという。)が複数検出される。
それらの距離データに基づいて各距離データに対応する実空間上の点の実空間上の座標をそれぞれ算出し、それらをX−Z平面(X軸は左右方向、Z軸は距離方向)にプロットすると、例えば図23に示すようにプロットされる。そして、隣接する各点同士の距離方向(Z軸方向)の差や左右方向(X軸方向)の差がそれぞれ例えば予め設定された閾値以内にある場合にそれらの点をグループ化していくことによって、物体を検出することができる。
特許第3349060号公報
しかしながら、図22中の右側の2人の人物A、Bのように、距離検出手段から各物体までの距離Zが同じような距離であり、左右方向にも互いに接近していると、図23に示したように各物体に対応する実空間上の各点同士が近接する状態となるため、図22に示したように、人物A、Bが同一の物体として検出されてしまう場合があった。図22中の左側の人物Cと自転車D等においても同様である。
また、ステレオカメラで撮像された一対の画像に対するステレオマッチング処理では、画像の水平方向に走査して処理が行われるため、物体の左右のエッジ部分(すなわち、左右方向に隣接する画素同士の輝度等の差が大きい部分)で距離データが検出され易いという特性を有する。
そのため、図24に示すように、例えば先行車両がいわば逆光の状態で撮像される等して、先行車両の背面全体が一様に暗く撮像されたような場合、背面部分の距離が算出されずにエッジ部分だけの距離が算出されるため、図25に示すように、先行車両の左右のエッジ部分がそれぞれ別の物体として検出されてしまう場合があった。
このように、本来別々の物体が同一の物体として検出されてしまったり、同一の物体が別々の物体として検出されてしまうと、本来安全走行等に資するべき車両の自動制御等において、誤った物体の情報に基づいて制御を行ったために、逆に、事故の危険性が増大してしまう等の問題があった。
本発明は、このような事情に鑑みてなされたものであり、距離検出手段が検出した距離データを的確にグループ化して物体を的確に検出することが可能な物体検出装置を提供することを目的とする。
前記の問題を解決するために、第1の発明は、物体検出装置において、
距離検出手段の検出領域を複数に区分し、それぞれの区分ごとに得られた距離データをグループ化して物体を検出する物体検出手段と、
前記距離検出手段の検出領域を含む領域を撮像し、画素ごとに画像データを有する画像を撮像する撮像手段と、
前記画像において隣接する複数の画素を当該複数の画素の各画像データに基づいて一つの画素領域に統合する統合処理手段と、
前記画像を、前記距離検出手段の検出領域と同様に区分し、前記画像中に占める前記物体の範囲内に存在する前記画素領域の画像データに基づいて、前記範囲に属する前記区分ごとに少なくとも一つ以上の代表画像データを割り当てる割り当て手段と、
前記区分ごとの少なくとも一つ以上の代表画像データに基づいて前記距離データのグループ化の閾値を可変させる閾値可変手段と、
前記閾値可変手段が可変させた前記閾値に基づいて再度前記距離データをグループ化して前記物体の検出を行う再検出手段と、
を備えることを特徴とする。
第2の発明は、第1の発明の物体検出装置において、前記統合処理手段は、一の前記画素と同一の画像中の前記一の画素より以前に前記画像データが送信された画素であって前記一の画素に隣接する画素の前記画像データと前記一の画素の画像データとの差分が所定の第1閾値未満であり、かつ、前記一の画素より以前に前記画像データが送信された前記隣接する画素が属する前記画素領域の前記画像データの平均値と前記一の画素の画像データとの差分が所定の第2閾値未満である場合に、前記一の画素および前記隣接する画素を一つの画素領域に統合することを特徴とする。
第3の発明は、第1または第2の発明の物体検出装置において、前記割り当て手段は、前記範囲に属する前記区分において画素数が最も多い前記画素領域の画像データを当該区分の前記代表画像データとして割り当てることを特徴とする。
第4の発明は、第1または第2の発明の物体検出装置において、前記割り当て手段は、前記範囲に属する前記区分において実空間上の面積が最も大きい前記画素領域の画像データを当該区分の前記代表画像データとして割り当てることを特徴とする。
第5の発明は、第1または第2の発明の物体検出装置において、
前記割り当て手段は、前記物体の範囲内に存在する前記画素領域の画像データの全てを代表画像データとして割り当て、
前記閾値可変手段は、前記区分の前記代表画像データのいずれか一つでも同一の代表画像データが含まれている場合、または、前記区分の前記代表画像データ同士の差の絶対値が所定の閾値以下である場合には、前記距離データのグループ化の閾値を可変させることを特徴とする。
第6の発明は、第1から第5のいずれかの発明の物体検出装置において、前記割り当て手段は、前記画素領域の距離データから算出される前記画素領域の実空間上の高さが路面から所定の閾値内にある場合には、当該画素領域を前記代表画像データの算出の対象から除外することを特徴とする。
第7の発明は、第1から第6のいずれかの発明の物体検出装置において、前記閾値可変手段は、前記割り当て手段により前記範囲に属する前記区分ごとに割り当てられた前記代表画像データ同士が近い値であるほど、前記距離データがグループ化されやすくなるように前記距離データのグループ化の閾値を可変させることを特徴とする。
第8の発明は、第1から第7のいずれかの発明の物体検出装置において、
前記割り当て手段は、前記範囲に属する前記各区分をそれぞれ前記画像の縦方向に複数の区分領域に分割し、前記各区分の前記区分領域ごとに少なくとも一つ以上の代表画像データを割り当て、
前記閾値可変手段は、前記区分の前記区分領域ごとの少なくとも一つ以上の代表画像データに基づいて前記距離データのグループ化の閾値を可変させることを特徴とする。
第9の発明は、第1から第8のいずれかの発明の物体検出装置において、前記再検出手段は、再度の前記距離データのグループ化の対象である2つの前記距離データの間に、路面に相当する前記距離データが存在する場合には、当該2つの前記距離データを前記再度のグループ化の対象から除外することを特徴とする。
第10の発明は、物体検出装置において、
距離検出手段の検出領域を複数に区分し、それぞれの区分ごとに得られた距離データをグループ化して物体を検出する物体検出手段と、
前記距離検出手段の検出領域を含む領域を撮像し、画素ごとに画像データを有する画像を撮像する撮像手段と、
前記画像において隣接する複数の画素について、当該複数の画素の各画像データに基づいて当該複数の画素を一つの画素領域に統合する統合処理手段と、
前記画像を、前記距離検出手段の検出領域と同様に区分し、前記距離データのグループ化の対象となる2つの前記区分に属する全ての前記画素領域同士の組み合わせに基づいて前記距離データのグループ化の閾値を可変させる閾値可変手段と、
前記閾値可変手段が可変させた前記閾値に基づいて再度前記距離データをグループ化して前記物体の検出を行う再検出手段と、
を備えることを特徴とする。
第1の発明によれば、閾値可変手段で、割り当て手段が物体の範囲内の各区分に割り当てた、例えば各区分の代表的な輝度等を表す少なくとも一つの代表画像データに基づいて距離データをグループ化する際の閾値を可変させ、再検出手段でその可変させた閾値に基づいて距離データをグループ化して、再度、物体を検出する。
そのため、固定された閾値を用いていた従来の物体検出装置では、本来別々の物体として検出されるべき撮像対象が一つの物体として検出されたり、一つの物体として検出されるべき撮像対象が複数の物体として検出される可能性があったが、第1の発明の物体検出装置では、そのような事態が発生する可能性を格段に低下させることが可能となり、距離検出手段が検出した距離データを的確にグループ化して物体を的確に検出することが可能となる。
そして、検出した物体の情報を車両の自動制御等に活用することで、的確に検出した物体の情報に基づいて制御を行うことが可能となり、車両の安全走行等を的確に実現することが可能となる。
第2の発明によれば、前記発明の効果に加え、撮像手段から送信されてきた一の画素の画像データの画像データと、より以前に画像データが送信された一の画素に隣接する画素の画像データ等に基づいて画素同士を統合するため、統合処理手段に1画像分の全画素の画像データの入力を待たずに各画素の画像データが順次入力されるのと同時並行で各画素の画像データの値に基づいて処理を行うことが可能となり、統合処理手段等における処理を迅速に行うことが可能となる。
第3の発明によれば、範囲に属する区分において画素数が最も多い画素領域の画像データを当該区分の代表画像データとすることで、画像中における当該区分の代表的な輝度(明るさ)等に基づいて閾値を可変することが可能となる。そのため、同じような輝度等を有する一つの物体が一つの物体として検出されやすくなり、異なる輝度等を有する別々の物体が別々の物体として検出されやすくなり、前記各発明の効果をより的確に発揮させることが可能となる。
第4の発明によれば、範囲に属する区分において実空間上の面積が最も大きい画素領域の画像データを当該区分の代表画像データとすることで、画像の当該区分中に撮像されている撮像対象における現実の大きさが最も大きい対象の代表的な輝度(明るさ)等に基づいて閾値を可変することが可能となる。そのため、同じような輝度等を有する一つの物体が一つの物体として検出やすくなり、異なる輝度等を有する別々の物体が別々の物体として検出されやすくなり、前記各発明の効果をより的確に発揮させることが可能となる。
第5の発明によれば、一つの物体に対応すると考えられる画素領域が複数の区分に跨って存在するような場合に、前記閾値が可変されてそれらの複数の区分における距離データがグループ化されやすくなる。そのため、一つの物体が一つの物体として検出される可能性を向上させることが可能となり、前記各発明の効果をより的確に発揮させることが可能となる。
第6の発明によれば、前記各発明の効果に加え、路面より上方にある撮像対象に対応する画素領域のみから代表画像データを算出することで、道路面や道路面に標示された車線等は物体として検出せず、先行車両を含む車両や人物、障害物等の道路面より上側に存在する物体を的確に検出することが可能となる。
第7の発明によれば、区分の代表的な輝度(明るさ)等を表す代表画像データの値が近いほど距離データがグループ化されやすくなるように閾値を可変させることで、同じような輝度等を有する一つの物体が一つの物体として検出やすくなり、異なる輝度等を有する別々の物体が別々の物体として検出されやすくなるため、前記各発明の効果をより的確に発揮させることが可能となる。
第8の発明によれば、物体検出手段が画像中に検出した物体の範囲を上下方向に複数の区分領域に分割して閾値を的確に可変させ、再検出手段で、物体の範囲をさらに分離したり、物体の範囲を統合したりして、別々の物体が別々の物体として、また、一つの物体が一つの物体として検出されやすくなるため、前記各発明の効果をより的確に発揮させることが可能となる。
第9の発明によれば、再検出手段で物体の再度の検出を行う際、グループ化の判定の対象である2つの距離データの間の画素部分に路面に相当する距離データが存在する場合には、それらの距離データの間に路面が撮像されていることからそれらの距離データは別々の物体に対応するものと考えられる。
そのため、そのような場合に、閾値可変手段で可変された閾値に基づけばそれらの2つの距離データをグループ化することが可能な場合であっても、それらの2つの距離データを再度のグループ化の対象から除外して、グループ化しないように構成することで、前記各発明の効果に加え、別々の物体を一つの物体として誤検出することが的確に防止され、物体検出の信頼性をより向上させることが可能となる。
第10の発明によれば、物体検出手段が画像中に検出した物体の範囲の各区分に属する画素領域の情報を全て用いて閾値を的確に可変させて、再検出手段で、物体の範囲をさらに分離したり、物体の範囲を統合したりすることが可能となり、別々の物体を別々の物体として、また、一つの物体を一つの物体として検出されやすくなるため、前記各発明の効果をより的確に発揮させることが可能となる。
本実施形態に係る物体検出装置の構成を示すブロック図である。 撮像手段で撮像される画像の例を示す図である。 作成された距離画像の例を示す図である。 基準画像の水平ライン上を探索して検出された車線候補点の例を説明する図である。 自車両の左右に検出された車線の例を説明する図である。 形成された車線モデルの例を説明する図であり、(A)はZ−X平面上の水平形状モデル、(B)はZ−Y平面上の道路高モデルを表す。 統合処理手段における統合処理の処理手順を示すフローチャートである。 統合処理手段における統合処理の処理手順を示すフローチャートである。 (A)既に入力されている左に隣接する画素、および(B)左に隣接する画素が画素領域に属している例を説明する図である。 (A)既に入力されている下に隣接する画素、および(B)下に隣接する画素が画素領域に属している例を説明する図である。 (A)左や下に隣接する画素がそれぞれ属する各グループの例を説明する図であり、(B)各グループが一の画素と統合されて一つのグループになる例を説明する図である。 距離画像を分割する各区分を示す図である。 図12の各区分ごとに作成されるヒストグラムの一例を示す図である。 区分ごとの距離データに基づく実空間上の座標をプロットした図である。 図14の各点に基づいて実空間上に検出された立体物を表す図である。 基準画像上に枠線で包囲されて検出された各立体物を表す図である。 図22に示す基準画像上で統合された各画素領域および分割する区分等を説明する写真である。 図22に示す基準画像上で分離されて検出された物体を表す写真である。 図24に示す基準画像上で統合されて検出された物体を表す写真である。 範囲内に属する区分を縦方向に分割する区分領域を説明する図である。 範囲内に属する区分に属する各画素領域およびそれらの組み合わせを説明する図である。 2人の人物等が同一の物体として検出された例を示す写真である。 図22に示したシーンで距離検出手段等で検出された距離データに対応する実空間上の座標をプロットした図である。 逆光の状態で撮像され先行車両の背面全体が暗く撮像された例を示す写真である。 図24に示したシーンで先行車両の背面部分の左右のエッジ部分が別の物体として検出された例を示す写真である。
以下、本発明に係る物体検出装置の実施の形態について、図面を参照して説明する。
なお、以下では、物体検出装置を自動車等の車両に搭載し、自車両の前方に存在する先行車両等の物体を検出する場合について説明するが、これに限定されず、種々の用途に用いることができる。
本実施形態に係る物体検出装置1は、図1に示すように、撮像手段2や距離検出手段6、統合処理手段10や物体検出手段11、割り当て手段12、閾値可変手段13、再検出手段14等を有する処理部9等を備えて構成されている。
なお、距離検出手段6等を含む処理部9の上流側の構成については、本願出願人により先に提出された特開2006−72495号公報等に詳述されており、構成の詳細な説明はそれらの公報に委ねる。以下、簡単に説明する。
本実施形態では、撮像手段2は、互いに同期が取られたCCDやCMOSセンサ等のイメージセンサがそれぞれ内蔵され、例えば車両のルームミラー近傍に車幅方向に所定の間隔をあけて取り付けられた運転者側のメインカメラ2aと助手席側のサブカメラ2bとからなるステレオカメラであり、所定のサンプリング周期で撮像して、一対の画像を出力するように構成されている。
なお、以下では、メインカメラ2aで撮像される画像を基準画像T、サブカメラ2bで撮像される画像を比較画像Tcという。また、以下では、統合処理手段10等における処理を基準画像Tを対象として行う場合について説明するが、比較画像Tcを対象として行ったり、両方の画像T、Tcをそれぞれ処理するように構成することも可能である。
また、本実施形態では、撮像手段2のメインカメラ2aおよびサブカメラ2bでは、それぞれモノクロの画像データDが取得されるようになっているが、RGB値等で表されるカラーの画像データを撮像する撮像手段を用いることも可能であり、その場合についても本発明が適用される。
本実施形態では、撮像手段2のメインカメラ2aやサブカメラ2bで基準画像Tや比較画像Tcを撮像する場合、図2に示すように、基準画像T等の各水平ラインjの最も左側の画素から撮像を開始し、その後、順に右方向に走査していく。また、走査する水平ラインjを最も下側のラインから順に上方に切り替えながら撮像するようにして、各画素ごとに撮像した順に基準画像Tと比較画像Tcの各画像データDをそれぞれ変換手段3に順次送信するようになっている。
変換手段3は、一対のA/Dコンバータ3a、3bで構成されており、撮像手段2のメインカメラ2aやサブカメラ2bで撮像された基準画像T等の画素ごとの各画像データDをそれぞれ例えば256階調のグレースケールの輝度としてのデジタル値の画像データDに順次変換して画像補正部4に出力するようになっている。
また、画像補正部4では、各画像データDに対してずれやノイズの除去、輝度の補正等の画像補正をそれぞれ順次行い、各画像データDを画像データメモリ5に順次格納するとともに、処理部9に順次送信するようになっている。また、画像補正部4は、画像補正した基準画像Tと比較画像の各画像データDを距離検出手段6にも順次送信するようになっている。
距離検出手段6のイメージプロセッサ7では、基準画像Tと比較画像の各画像データに対して順次ステレオマッチング処理やフィルタリング処理を施して、基準画像Tの画素ごとに視差dpを順次算出するようになっている。ステレオマッチング処理では、図示を省略するが、基準画像T上の例えば4×4画素等の所定の画素数の基準画素ブロックと輝度パターンが類似する画素ブロックを比較画像Tc中のエピポーラライン上に特定し、それらの基準画像Tおよび比較画像Tc上の位置から基準画像Tの画素ごとに視差dpが順次算出される。
なお、以下、このようにして基準画像Tの各画素に視差dpを割り当てた画像(図3参照)を距離画像Tzという。また、画素の基準画像T上での座標(i,j)と上記のようにして算出された視差dpとは、実空間上で、メインカメラ2aとサブカメラ2bの中央真下の道路面上の点を原点とし、自車両の水平方向をX軸方向、高さ方向をY軸方向、距離方向(撮像手段2の前方方向)をZ軸方向とした場合の実空間上の点(X,Y,Z)と、三角測量の原理に基づく座標変換により一意に対応付けられる。
また、フィルタリング処理では、基準画像Tの基準画素ブロックと比較画像Tcの画素ブロックとの輝度パターンの類似性の度合いが低い場合には算出した視差dpを無効と出力するようになっており、イメージプロセッサ7は、有効とされた視差dpのみを距離データメモリ8に順次格納させるとともに、処理部9に順次送信するようになっている。
なお、本実施形態では、上記のように、撮像手段2としてメインカメラ2aとサブカメラ2bとを備え、距離検出手段6は、それらで撮像された基準画像Tおよび比較画像Tcに対するステレオマッチング処理により基準画像Tの各画素について実空間上の距離Z(すなわち視差dp)を算出するように構成されているが、これに限定されず、撮像手段2は例えば単眼のカメラのように1枚の画像Tのみを出力するものであってもよい。
また、距離検出手段6は、当該画像Tの各画素について実空間上の距離Zを算出又は測定して画像Tの各画素に割り当てる機能を有していればよく、例えば前述したレーダ装置のように、自車両前方にレーザビームを照射してその反射光の情報に基づいて物体までの距離Zを測定する装置等であってもよく、検出の手法は特定の手法に限定されない。
さらに、本実施形態では、実空間上の距離の情報として、上記のように算出した視差dpを用い、必要に応じて実空間上の距離Zに変換して処理を行うように構成されているが、距離検出手段6の段階で視差dpを実空間上の距離Zに変換して距離画像Tzを作成するように構成することも可能である。
処理部9は、本実施形態では、図示しないCPU(Central Processing Unit)やROM(Read Only Memory)、RAM(Random Access Memory)、入出力インターフェース等がバスに接続されたコンピュータで構成されている。処理部9は、統合処理手段10や物体検出手段11、割り当て手段12、閾値可変手段13、再検出手段14を備えており、本実施形態では、さらに、路面検出手段15を備えている。
なお、処理部9において先行車両検出等の他の処理を行うように構成することも可能である。また、処理部9に、必要に応じて、車速センサやヨーレートセンサ、ステアリングホイールの舵角を測定する舵角センサ等のセンサ類からの測定値が入力されるように構成されている。
ここで、本実施形態の処理部9の統合処理手段10や物体検出手段11、割り当て手段12、閾値可変手段13、再検出手段14等における処理について説明する前に、路面検出手段15における処理について説明する。
なお、以下の説明において、車線とは、追い越し禁止線や路側帯と車道とを区画する区画線等の道路面上に標示された連続線や破線をいう。また、本実施形態では、以下に説明するように、路面検出手段15は、道路面に標示された車線を検出し、その検出結果に基づいて道路面を検出するように構成されているが、道路面を検出することができるものであれば以下に説明する形態に限定されない。
本実施形態では、路面検出手段15は、撮像手段2により撮像された基準画像T中から自車両の左側および右側の車線を検出し、その車線の情報に基づいて路面を検出するようになっている。具体的には、路面検出手段15は、図4に示すように、基準画像T中の1画素幅の水平ラインj上を例えば画像中央から左右方向に探索し、輝度が隣接する画素の輝度から設定された閾値以上に大きく変化する画素を車線候補点cr、clとして検出する。
そして、基準画像T上の水平ラインjを1画素分ずつ上方にシフトさせながら、同様にして各水平ラインj上に車線候補点を検出していき、車線候補点をハフ変換等により直線で近似する等の処理を行って、図5に示すように自車両の左側および右側にそれぞれ車線LR、LLを検出するようになっている。なお、以上の路面検出手段15の処理構成については、本願出願人が先に提出した特開2006−331389号公報等に詳述されており、詳細な説明は同公報等を参照されたい。
また、路面検出手段15は、このようにして検出した左右の車線位置LR、LL等の情報に基づいて車線モデルを三次元的に形成して路面を検出するようになっている。本実施形態では、路面検出手段15は、図6(A)、(B)に示すように、自車両の左右の車線を所定区間ごとに三次元の直線式で近似し、それらを折れ線状に連結して表現した車線モデルを形成するようになっている。なお、図6(A)は、Z−X平面上の車線モデルすなわち水平形状モデル、図6(B)は、Z−Y平面上の車線モデルすなわち道路高モデルを表す。
次に、統合処理手段10や物体検出手段11、割り当て手段12、閾値可変手段13等における処理について説明する。
統合処理手段10は、撮像手段2のメインカメラ2aから画像補正部4等を介して基準画像Tの各画素pの画像データDが順次送信されてくると、隣接する複数の画素pについて、当該複数の画素pの各画像データDに基づいて一つの画素領域に統合するか否かを判定し、統合すべきと判定した場合に一つの画素領域に統合するようになっている。
本実施形態では、統合処理手段10は、撮像手段2のメインカメラ2aから基準画像Tの各画素pの画像データDが順次送信されてくると、入力された一の画素(以下、注目画素という。)の画像データDと、注目画素と同一の基準画像T(すなわち、同じサンプリング周期で撮像された基準画像T)中の、注目画素より以前に入力され注目画素の左や下に隣接する画素pの画像データDとの差分ΔDが所定の第1閾値ΔDth未満であり、かつ、注目画素の画像データDと、上記の隣接する画素pが属する画素領域gに属する全画素pの画像データDの平均値Daveとの差分δDが所定の第2閾値δDth未満である場合に、注目画素と隣接する画素pを一つの画素領域gに統合するようになっている。
以下、具体的に、統合処理手段10における統合処理について、図7および図8に示すフローチャートに従って説明し、あわせて本実施形態に係る物体検出装置1の作用について説明する。
なお、本実施形態では、前述したように、撮像手段2から順次出力された各画素pの画像データDが順次送信されてくるが、統合処理手段10では、各画像データDの入力と同時並行的に以下の処理が行われる。そのため、基準画像Tの1画像分の全画素pの画像データDの入力を待たずに入力と同時並行で処理を行うことが可能となるため、統合処理手段10等における処理をリアルタイムで行うことが可能となる。
また、以下の説明では、例えば図2に示した基準画像Tにおける画素について、基準画像Tの左下隅の画素を原点とし、右向きにi軸、上向きにj軸をとった場合の画素の座標(i,j)を用いて、画素pi,jのように表す。また、画素pi,jの画像データDをDi,jのように表す。
統合処理手段10は、撮像手段2により撮像が開始されると(ステップS1)、iおよびjの値をそれぞれ0に設定する(ステップS2)。前述したように、撮像手段2で撮像された水平ライン0(すなわちj座標が0の各画素からなる水平ラインj)上の左端の画素p0,0(すなわち原点の画素)の画像データD0,0の処理部9への入力が開始されると(ステップS3)、続いて、画素p1,0、p2,0、p3,0、…の画像データD1,0、D2,0、D3,0、…が順次入力される。
統合処理手段10は、水平ラインjの右端の画素まで処理を完了していなければ(ステップS4;NO)、処理が繰り返されるごとにi座標を1ずつインクリメントして(ステップS5)、設定した注目画素pi,jを水平ラインj上の右隣の画素に移動させながら(ステップS6)、処理を続ける。
また、水平ラインjの右端の画素まで処理を完了すると(ステップS4;YES)、基準画像Tの最上段の水平ラインまで処理が終了していなければ(ステップS7;NO)、処理を行う水平ラインjを1行上方の水平ラインj+1に移行させ、注目画素のi座標を0に設定して(ステップS8)、画素p0,j+1を注目画素として(ステップS6)処理を行い、注目画素を画素p0,j+1から順に右側に移動させながら処理を続行する。
次に、注目画素を画素pi,jに設定(ステップS6)した後の統合処理手段10における処理(図8のステップS9以降)について説明する。
統合処理手段10は、まず、注目画素pi,jと、図9(A)に示すように注目画素pi,jが入力されるより以前に入力されていて注目画素pi,jの左に隣接する画素pi-1,jについて、下記の条件1や条件2を満たすか否かの判定を行う(ステップS9)。
[条件1]注目画素pi,jの画像データDi,jと、左に隣接する画素pi-1,jの画像データDi-1,jとの差分ΔDleft(i,j)、すなわち、
ΔDleft(i,j)=|Di,j−Di-1,j| …(1)
が、予め設定された第1閾値ΔDth未満である。なお、以下、上記のような隣接する画素間の画像データDの差分ΔDをエッジ強度という。
[条件2]図9(B)に示すように、注目画素pi,jの画像データDi,jと、左に隣接する画素pi-1,jが属する画素領域gに属する全画素の画像データDの平均値Dave-leftとの差分δDleft(i,j)、すなわち、
δDleft(i,j)=|Di,j−Dave-left| …(2)
が、予め設定された第2閾値δDth未満である。なお、以下、上記のように、注目画素pi,jの画像データDi,jと、隣接する画素が属する画素領域gの画像データDの平均値Daveとの差分δDを平均値差分という。
なお、画素領域gに属する全画素の画像データDの平均値Daveは後述するステップS16で算出される。また、左に隣接する画素pi-1,jが属する画素領域gが当該左に隣接する画素pi-1,jのみで構成されている場合もあり、その場合、画素領域gに属する全画素の画像データDの平均値Dave-leftは、当該左に隣接する画素pi-1,jの画像データDi-1,jに等しい。
統合処理手段10は、条件1と条件2をともに満たすと判定した場合には(ステップS9;YES)、ステップS10の判定処理に進み、条件1と条件2の少なくとも一方を満たさないと判定した場合には(ステップS9;NO)、ステップS13の判定処理に進む。なお、上記の第1閾値ΔDthと第2閾値δDthとは同じ値に設定されても異なる値に設定されてもよく、それらの閾値の値は適宜設定される。
統合処理手段10は、ステップS9の判定処理で、条件1と条件2をともに満たすと判定すると(ステップS9;YES)、続いて、注目画素pi,jと、図10(A)に示すように注目画素pi,jが入力されるより以前に入力されていて注目画素pi,jの下に隣接する画素pi,j-1について、上記と同様に、下記の条件3や条件4を満たすか否かの判定を行う(ステップS10)。
[条件3]注目画素pi,jの画像データDi,jと、下に隣接する画素pi,j-1の画像データDi,j-1とのエッジ強度ΔDlower(i,j)、すなわち、
ΔDlower(i,j)=|Di,j−Di,j-1| …(3)
が、予め設定された前述した第1閾値ΔDth未満である。
[条件4]図10(B)に示すように、注目画素pi,jの画像データDi,jと、下に隣接する画素pi,j-1が属する画素領域gに属する全画素の画像データDの平均値Dave-lowerとの平均値差分δDlower(i,j)、すなわち、
δDlower(i,j)=|Di,j−Dave-lower| …(4)
が、予め設定された前述した第2閾値δDth未満である。
なお、この場合も、下に隣接する画素pi,j-1が属する画素領域gが当該下に隣接する画素pi,j-1のみで構成されている場合もあり、その場合、画素領域gに属する全画素の画像データDの平均値Dave-lowerは、当該下に隣接する画素pi,j-1の画像データDi,j-1に等しい。
そして、統合処理手段10は、条件3と条件4の少なくとも一方を満たさないと判定した場合には(ステップS10;NO)、注目画素pi,jを、下に隣接する画素pi,j-1とは統合せず、ステップS9の判定処理で上記の条件1と条件2を満たすと判定しているため、注目画素pi,jを左に隣接する画素pi-1,jと一つの画素領域gに統合する(ステップS11)。
その際、図9(A)に示したように、左に隣接する画素pi-1,jが他の画素と統合されていなければ、注目画素pi,jと左に隣接する画素pi-1,jが統合されて、左右に隣接する2つの画素からなる画素領域gが新たに形成される。また、例えば図9(B)に示したように、左に隣接する画素pi-1,jが画素領域gに属していれば、注目画素pi,jが画素領域gに追加されるように統合され、画素領域gが注目画素pi,jの分だけ1画素分拡大する。
次に、統合処理手段10は、ステップS10の判定処理で、条件3と条件4をともに満たすと判定した場合には(ステップS10;YES)、注目画素pi,jを、下に隣接する画素pi,j-1および左に隣接する画素pi-1,jと統合する(ステップS12)。
その際、図10(A)に示したように、下に隣接する画素pi,j-1が他の画素と統合されていなければ、注目画素pi,jと下に隣接する画素pi,j-1が統合されて、上下に隣接する2つの画素からなる画素領域gが新たに形成される。また、例えば図10(B)に示したように、下に隣接する画素pi,j-1が画素領域gに属していれば、注目画素pi,jが画素領域gに追加されるように統合され、画素領域gが注目画素pi,jの分だけ1画素分拡大する。
また、例えば図11(A)に示すように、左に隣接する画素pi-1,jが画素領域g1に属し、下に隣接する画素pi,j-1が他の画素領域g2に属している場合、注目画素pi,jを下に隣接する画素pi,j-1および左に隣接する画素pi-1,jと統合することで(ステップS12)、図11(B)に示すように、注目画素pi,jを介して画素領域g1と画素領域g2とが統合されて一つの画素領域gとなる。
一方、統合処理手段10は、ステップS9の判定処理で、条件1と条件2の少なくとも一方を満たさないと判定した場合には(ステップS9;NO)、ステップS13の判定処理に進み、上記と同様に、条件3や条件4を満たすか否かの判定を行う(ステップS13)。
そして、統合処理手段10は、条件3と条件4をともに満たすと判定した場合には(ステップS13;YES)、ステップS9の判定処理で条件1と条件2の少なくとも一方を満たさないと判定しているため(ステップS9;NO)、注目画素pi,jを、左に隣接する画素pi-1,jとは統合せず、下に隣接する画素pi,j-1のみと統合する(ステップS14)。
なお、本実施形態では、道路面や道路面に標示された車線等は物体として検出せず、道路面より上側に存在する物体を検出することが目的であるため、ステップS9、S10、S13の判定処理で、条件1〜条件4等の判定基準のほかに、道路面や道路面に標示された車線等が撮像されている画素(以下、道路面に対応する画素という。)と、それより上側に存在する物体が撮像されている画素(以下、物体に対応する画素という。)とを統合せず、それぞれ別の画素領域gに統合されるように構成することが可能である。
すなわち、例えば、距離検出手段6で検出された画素pの視差dp等に基づいて前述した三角測量の原理に基づく座標変換により当該画素pに対応する実空間上の点の高さYと、路面検出手段15が検出した当該視差dpに対応する実空間上の距離Zにおける道路面の高さYから、当該画素pに対応する実空間上の点の道路面からの高さY−Yを算出する。
そして、道路面からの高さY−Yが所定の閾値以上である場合には、当該画素pは物体に対応する画素であり、閾値未満である場合には、当該画素pは道路面に対応する画素であると判定することができる。所定の閾値は、例えば10cm等に設定される。
なお、実空間上の距離Zにおける道路面の高さYは、図6(B)に示した車線モデルから線形補間する等して求めることができる。また、路面検出手段15で今回のサンプリング周期における車線モデルが検出されていなければ、前回のサンプリング周期で検出した車線モデルに基づいてその後の自車両の挙動等から今回のサンプリング周期における車線モデルを推定して用いることができる。
そして、統合処理手段10は、注目画素pi,jと、その左や下に隣接する画素pのいずれか一方が物体に対応する画素であり、他方が道路面に対応する画素である場合には、ステップS9、S10、S13の判定処理で条件1〜条件4を満たす場合であっても、それらの画素を統合しないように構成することが可能である。
このように構成すれば、道路面に対応する画素pで形成される画素領域gを、道路面より上側に存在する物体が撮像されている画素領域gであると誤検出したり、逆に、物体に対応する画素pで形成される画素領域gを、道路面や道路面に標示された車線等が撮像されている画素領域gであると誤検出することを防止することが可能となる。
また、道路面に対応する画素であると判定した画素pに所定のフラグを対応付ける等するように構成すれば、画素pに所定のフラグが対応付けられているかを判定して、当該画素pが道路面に対応する画素すなわち道路面や道路面に標示された車線等が撮像されている画素であるか否かを容易に判定することが可能となる。
統合処理手段10は、ステップS11、S12、S14の処理で、注目画素pi,jを隣接する画素pと統合すると、拡大した画素領域gの画素数を更新し、画素領域gの左端、右端の画素の各座標や上端、下端の画素の各座標に変更があれば更新する。また、例えば図11(B)に示したように、複数の画素領域g1、g2が統合されて一つの画素領域gとされた場合には、一つに統合された画素領域gの画素領域番号を、統合の対象となった複数の画素領域g1、g2の各画素領域番号のうち例えば最も小さい番号を選択する等して更新する(ステップS15)。
また、統合処理手段10は、注目画素pi,jを追加して拡大した画素領域gや、複数の画素領域g1、g2を統合して形成した画素領域gに属する全画素pの画像データDの平均値Daveを算出して更新する(ステップS16)。統合処理手段10は、ステップS16の処理を終了すると、図7のステップS4の判定処理以降の処理を続行する。
一方、統合処理手段10は、ステップS13の判定処理で、条件3と条件4の少なくとも一方を満たさないと判定した場合には(ステップS13;NO)、注目画素pi,jを、左に隣接する画素pi-1,jとも下に隣接する画素pi,j-1とも統合せず、注目画素pi,jのみが属する新たな画素領域gとして登録する(ステップS17)。
なお、統合処理手段10での統合処理の際、統合した画素領域gの画素数が非常に小さく、ノイズ等のように無視してよい画素領域である場合に、そのような画素領域gを登録から削除するように構成することも可能である。
そして、統合処理手段10は、この新規の画素領域gの画素数を1とし、左右端、上下端の画素の各座標をそれぞれ注目画素pi,jの座標(i,j)として記録し、新規の画素領域gに新たな画素領域番号を付ける(ステップS15)。また、統合処理手段10は、この新規の画素領域gの画像データDの平均値Daveとして、当該注目画素pi,jの画像データDi,jを記録して(ステップS16)、図7のステップS4の判定処理以降の処理を続行する。
そして、水平ラインjの右端の画素まで処理を完了し(図7のステップS4;YES)、基準画像Tの最上段の水平ラインまで処理が終了すると(ステップS7;YES)、統合処理手段10は、各画素領域gに属する各画素pの各座標(i,j)や画素数、左右端の画素の各座標、上下端の画素の各座標、画素領域gの画像データDの平均値Dave等の情報を、当該基準画像Tと対応付けて図示しない記憶手段に保存する。また、必要に応じてそれらの情報を外部に出力する。
また、その際、例えば、各画素領域gの左右端の画素位置の中間点をi座標とし、上限端の画素位置の中間点をj座標とする中心点を各領域ごとに算出し、上記の各情報とともに記憶手段に保存するとともに、必要に応じて外部に出力するように構成することも可能である。
物体検出手段11は、上記の統合処理手段10における統合処理と並行して、まず、距離検出手段6の検出領域、すなわち本実施形態では距離検出手段6で算出された距離画像Tzに基づいて、基準画像T中に撮像された物体を検出する。本実施形態では、物体検出手段11は、距離検出手段6の検出領域、すなわち本実施形態では距離画像Tzの全領域を複数に区分し、それぞれの区分ごとに得られた距離データをグループ化して物体を検出するようになっている。
具体的には、物体検出手段11は、例えば図3に示した距離画像Tzを図12に示すように所定幅の縦方向に延在する短冊状の区分dnに分割する。そして、図13に示すように、各区分dnごとにヒストグラムHnを作成し、各区分dnに含まれる視差dpのうち道路面より上方に存在する視差dpをヒストグラムHnに投票し、その最頻値dpnをその区分dnの距離データdpnとする。これを全区分dnについてそれぞれ行う。
そして、物体検出手段11は、各区分dnの距離データdpn等に基づいて前述した三角測量の原理に基づく座標変換により各距離データdpnの実空間上の座標(X,Y,Z)を算出する。道路面より高い位置にある座標を実空間上にプロットすると、各距離データdpnに対応する実空間上の各点は、図14に示すように、前方の物体の自車両MCに面した部分に対応する部分に多少ばらつきを持ってプロットされる。
物体検出手段11は、このようにプロットされた各点について、実空間上で隣接する点同士のX軸方向(水平方向)の間隔ΔXが設定された閾値ΔXth以内であり、かつ、Z軸方向(距離方向)の間隔ΔZが設定された閾値ΔZth以内であるか否かを判定し、間隔ΔX、ΔZがともに閾値ΔXth、ΔZth以内である場合に、それらの隣接する点を一つのグループとしてグループ化する。
このようにして、物体検出手段11は、各距離データdpnに対応する実空間上の各点の隣接する点同士をグループ化できるか否かを判定しながらグループ化していき、各点をそれぞれグループにまとめていく。そして、図15に示すように、それぞれ一つのグループにまとめられた各点を直線近似して物体を検出するようになっている。物体検出手段11は、このようにして検出した物体の情報を一旦記憶手段に保存する。
なお、本実施形態では、物体検出手段11は、このようにして検出した各物体を、図16に示すように、基準画像T上で矩形状の枠線で包囲するようにして検出するようになっている。なお、図15や図16において、ラベルOやラベルSは物体の自車両MCに対向する面の種別を表し、ラベルOは物体の背面、ラベルSは物体の側面が検出されていることを表す。また、本実施形態では、各物体を包囲する矩形状の枠線の下端が、車線検出手段15が検出した道路面の位置に設定される。
割り当て手段12は、物体検出手段11で距離画像Tzを所定幅の縦方向に延在する短冊状の複数の区分dn(図12参照)に分割した場合と同じ要領で、各画素pが各画素領域gに統合された基準画像Tを複数に区分する。そして、物体検出手段11が基準画像T中に検出した物体が基準画像T中で占める範囲内(すなわち枠線内)に存在する画素領域gの画像データに基づいて、前記範囲に属する各区分dnごとに少なくとも一つ以上の代表画像データDnを割り当てるようになっている。
本実施形態では、各画素pの画像データDは、前述したように例えば256階調のグレースケールの輝度のデータであるため、代表画像データDnは、物体が占める枠線の範囲内に属する各区分dnの代表的な輝度を表すものとなる。
具体的には、例えば図22に示した基準画像Tに対して統合処理手段10で統合処理を行うと、図17に濃淡を付して示すように基準画像Tが各画素領域gに分割される。そして、物体検出手段11により検出された物体を包囲する矩形状の枠線を図17の基準画像T上に示すと、例えば図中右側の2人の人物が同一の物体O1として検出され、図中左側の人物と自転車とが同一の物体O2として検出される。なお、物体検出手段11ではさらに多くの物体が検出されるが、ここでは枠線等の図示を省略する。
割り当て手段12は、このような基準画像Tを、物体検出手段11で距離画像Tzを所定幅の縦方向に延在する短冊状の複数の区分dn(図12参照)に分割した場合と同じ要領で、同じ位置を複数の区分dnに分割する。そして、例えば物体O1の枠線の範囲内に存在する画素領域gの画像データに基づいて、枠線O1の範囲内に属する各区分dnごとに代表画像データDnを割り当てる。
本実施形態では、割り当て手段12は、枠線O1の範囲内に属する各区分dnの代表画像データDnとして、枠線O1の範囲内の当該区分dnにおいて、画素数が最も多い画素領域gの画像データ、すなわち当該画素領域gに属する全画素の画像データDの平均値Daveを割り当てるようになっている。
なお、画素数が最も多い画素領域gの画像データを割り当てる代わりに、枠線O1の範囲内の当該区分dnにおいて、画素領域gを実空間上の面積に換算した場合にその実空間上の面積が最も大きい画素領域gの画像データDすなわち画像データDの平均値Daveを当該区分dnの代表画像データDnとして割り当てるように構成することも可能である。
また、割り当て手段12が枠線O1の範囲内に属する各区分dnごとに代表画像データDnを割り当てる際、代表画像データDnを与える画素領域gとして、道路面や道路面に標示された車線等が撮像されている画素領域gが選択されないように構成することが好ましい。
そのため、例えば、画素領域gを形成する各画素pに、前述したように統合処理手段10により所定のフラグが対応付けられているか否かを判定し、所定のフラグが対応付けられている場合には当該画素領域gは道路面や道路面に標示された車線等が撮像されている画素領域gであると判定して、当該画素領域gを、枠線O1の範囲内に属する区分dnごとに代表画像データDnを算出する対象から予め除外するように構成することが可能である。
このように構成すると、図17に示した枠線O1の範囲内の最も右側の2列の区分dnでは、人物が着用している暗い色の上衣が撮像された画素領域gの画像データDの平均値Daveが代表画像データDnとして割り当てられ、枠線O1の範囲内の最も左側の2列の区分dnでは、人物が着用している明るい色の上衣が撮像された画素領域gの画像データDの平均値Daveが代表画像データDnとして割り当てられる。
閾値可変手段13は、上記の各区分dnごとの代表画像データDnに基づいて、前述した距離データdpn、すなわち図12に示した距離画像Tzを分割する各区分dnごとの距離データdpn同士をグループ化するか否かの判定の基準となるX軸方向(水平方向)の間隔ΔXに対する閾値ΔXthと、Z軸方向(距離方向)の間隔ΔZに対する閾値ΔZthとを可変させるようになっている。
本実施形態では、閾値可変手段13は、割り当て手段12により例えば枠線O1の範囲内に属する区分dnごとに割り当てられた代表画像データDn(画像データDの平均値Dave)同士が近い値であるほど、距離データdpn同士がグループ化されやすくなるように閾値ΔXthと閾値ΔZthとを可変させるようになっている。
例えば、図17に示した枠線O1の範囲内の最も右側の2列の区分dnでは、人物が着用している上衣が撮像された画素領域gの画像データDの平均値Daveが代表画像データDnとして割り当てられ、この2列の区分dnでは、代表画像データDnが同一の値(すなわち最も近い値)となる。
そのため、この2列の区分dnに対応する距離画像Tzを分割する各区分dn(図12参照)の距離データdpn同士においては、それらがグループ化されやすくなるように、例えば閾値ΔXthと閾値ΔZthとがともにより大きな値になるように可変される。
すなわち、割り当てられた代表画像データDn同士が近い値(この場合は同一の値)であれば、それに対応する距離画像Tzの各区分dnの距離データdpn同士が、通常の閾値ΔXth、ΔZthではグループ化されない場合でも、閾値ΔXth、ΔZthをより大きな値に可変させてグループ化されやすくする。
図17で、別の人物が着用している上衣が撮像された画素領域gの画像データDの平均値Daveが代表画像データDnとして割り当てられる枠線O1の範囲内の最も左側の2列の区分dnにおいても同様である。
しかし、図17に示した枠線O1の範囲内の右側と左側の区分dn同士では、2人の人物が着用している上衣の明るさ(輝度すなわち画像データD)が異なるため、左右の各区分dnに割り当てられた代表画像データDn同士は遠い値になる。そのため、左右の各区分dnに対応する距離画像Tzの各区分dnの距離データdpn同士のグループ化の判定においては、それらがグループ化され難くなるように、例えば閾値ΔXthと閾値ΔZthとがともにより小さな値になるように可変される。
すなわち、割り当てられた代表画像データDn同士が遠い値であれば、それに対応する距離画像Tzの各区分dnの距離データdpn同士が、通常の閾値ΔXth、ΔZthではグループ化される場合でも、閾値ΔXth、ΔZthをより小さな値に可変させることで、グループ化され難くする。
なお、閾値ΔXthや閾値ΔZthを可変させる手法としては、例えば、閾値ΔXthや閾値ΔZthを、各区分dnに割り当てられた代表画像データDn同士の差の絶対値の単調増加関数として予め定義しておくように構成することが可能である。
また、例えば、各区分dnに割り当てられた代表画像データDn同士の差の絶対値に対して複数の数値範囲を予め設定しておき、例えば、差の絶対値が小さい数値範囲にある場合には、所定の閾値ΔXthや閾値ΔZthから正の値の所定値を減算し、差の絶対値が中程度の数値範囲にある場合には、所定の閾値ΔXthや閾値ΔZthを可変させず、差の絶対値が大きい数値範囲にある場合には、所定の閾値ΔXthや閾値ΔZthに正の値の所定値を加算するようにして可変させるように構成することが可能である。
再検出手段14は、上記のようにして閾値可変手段13で可変させた閾値ΔXth、ΔZthに基づいて、再度、物体検出手段11における処理と同様の処理を行い、距離データdpnをグループ化して、基準画像T中で物体を検出するようになっている。
距離画像Tzを複数の区分dnに分割し、各区分dnに含まれる道路面より上方に存在する視差dpをヒストグラムHnに投票して、その最頻値dpnをその区分dnの距離データdpnとする処理は物体検出手段11により既に行われているため、再検出手段14はその検出結果を利用する。
そして、再検出手段14は、区分dnごとの距離データdpnをグループ化する際、グループ化の判定の対象となる距離データdpnに対応する2つの区分dnにおける閾値ΔXth、ΔZthが可変されていれば、その可変された閾値ΔXth、ΔZthに基づいて距離データdpn間のX軸方向(水平方向)の間隔ΔXが設定された閾値ΔXth以内であり、かつ、Z軸方向(距離方向)の間隔ΔZが設定された閾値ΔZth以内であるか否かの判定を行い、間隔ΔX、ΔZがともに可変された閾値ΔXth、ΔZth以内である場合に、それらを一つのグループとしてグループ化する。
このようにして、再検出手段14で、再度、物体の検出を行うと、上記のように閾値ΔXth、ΔZthが可変されているため、例えば、図17に示した枠線O1の範囲内の右側と左側の2人の人物が分離して検出されやすくなり、その結果、図18に示すように、物体検出手段11では同一の物体O1として検出された2人の人物がそれぞれ別の物体として分離されて検出される。
また、図17に示したように、物体検出手段11で同一の物体O2として検出された図中左側の人物と自転車も、上記のように閾値ΔXth、ΔZthが可変された結果、図18に示すように、再検出手段14で、人物と自転車とがそれぞれ別の物体として検出される。
一方、図24および図25に示したように、閾値ΔXth、ΔZthを可変させないと、例えば、先行車両の背面部分の左右のエッジ部分がそれぞれ別の物体として検出されてしまう場合があった。
しかし、本実施形態では、図示を省略するが、統合処理手段10で先行車両の背面部分の各画素pが一つまたは数個の画素領域gに統合される。そして、割り当て手段12で、図25に示した別の物体として検出された2つの枠線の範囲内の各区分dnの各代表画像データDnとして、先行車両の背面部分の暗い画像データD(輝度)の平均値Daveが割り当てられる。
そして、図25の2つの枠線の範囲内の各区分dnに割り当てられた代表画像データDn同士が非常に近い値になり、或いは、同一の値になる。そのため、閾値可変手段13で、図25の2つの枠線の範囲内の各区分dnに対応する距離画像Tzを分割する各区分dn(図12参照)の距離データdpn同士のグループ化における閾値ΔXthと閾値ΔZthとがともにより大きな値になるように可変され、それらがグループ化されやすくなる。
そのため、再検出手段14で、可変させた閾値ΔXth、ΔZthに基づいて、再度、物体の検出を行うと、図19に示すように、先行車両が一つの物体として基準画像T中に統合されて検出される。
以上のように、本実施形態に係る物体検出装置1によれば、統合処理手段10で、撮像手段2が撮像した画像T(基準画像T)の各画素pの輝度等の画像データDに基づいて隣接する画素pを統合していき、画像Tを複数の画素領域gに分割する。
そして、割り当て手段12で、物体検出手段11が各区分dnの距離データdpnに基づいて画像T中に検出した物体の範囲内の各区分dnを代表する画像データDを、区分dnごとに代表画像データDnとして割り当て、それに基づいて閾値可変手段13で距離データdpnをグループ化する際の閾値ΔXth、ΔZthを可変させる。そして、再検出手段14でその可変された閾値ΔXth、ΔZthに基づいて距離データdpnをグループ化して、再度、物体を検出する。
従来の物体検出装置では、固定された閾値ΔXth、ΔZthを用いていたため、画像T中で本来別々の物体として検出されるべき撮像対象が一つの物体として検出されてしまったり、或いは、一つの物体として検出されるべき撮像対象が複数の物体として検出されてしまう可能性があった。
しかし、本実施形態に係る物体検出装置1によれば、画像T中に物体として検出された範囲内の各区分dnの代表的な輝度(代表画像データDn)に応じて閾値ΔXth、ΔZthを可変させて再検出を行うことで、上記のような事態が発生する可能性を格段に低下させることが可能となり、距離検出手段6が検出した視差dp(或いは実空間上の距離Z)に基づく距離データdpnを的確にグループ化して物体を的確に検出することが可能となる。
そして、検出した物体の情報を車両の自動制御等に活用すれば、的確に検出した物体の情報に基づいて制御を行うことが可能となり、車両の安全走行等を的確に実現することが可能となる。
なお、本実施形態では、割り当て手段12で、物体検出手段11が基準画像T中に検出した物体が基準画像T中で占める範囲内(すなわち枠線内)に属する各区分dnごとに一つの代表画像データDnを割り当てる場合について説明した。しかし、各区分dnごとに複数の代表画像データDnを割り当てるように構成することも可能である。
そして、例えば、割り当て手段12で、物体の範囲内に存在する画素領域gの画像データの全てを代表画像データDnとして割り当て、閾値可変手段13で、各区分dnごとの代表画像データDnのいずれか一つでも同一の代表画像データが含まれている場合、或いは、各区分dnごとの代表画像データDn同士の差の絶対値が所定の閾値以下である場合に前記閾値ΔXth、ΔZthを可変させるように構成することも可能である。
このように構成すれば、一つの物体に対応すると考えられる画素領域gが複数の区分dnに跨って存在するような場合に、前記閾値ΔXth、ΔZthが可変されてそれらの複数の区分dnにおける距離データがグループ化されやすくなり、一つの物体が一つの物体として検出される可能性をより向上させることが可能となる。
また、本実施形態では、割り当て手段12で、物体が基準画像T中で占める枠線の範囲内に属する各区分dnごとに代表画像データDnを割り当てる際、図17に示したように、枠線の範囲内を縦方向に延在する短冊状の区分dnごとに代表画像データDnを割り当てる場合について説明した。
しかし、例えば物体として検出される人物の着衣は上衣と下衣で明るさが違ったり、或いは、図19に示したように、車両の上側にはリアガラス等のガラス部分が撮像され、下側にはバンパ部分やタイヤ、下部シャシ等が撮像され、それらの中間部分には、テールランプやウインカ等が撮像されている場合が多い。
そこで、割り当て手段12で物体が検出された枠線の範囲内に属する区分dnごとに代表画像データDnを割り当てる際に、図20に示すように、範囲内に属する区分dnを、さらにそれぞれ画像T(基準画像T)の縦方向に複数の区分領域dn1、dn2、…に分割し、各区分dnの各区分領域dn1、dn2、…ごとに代表画像データDn1、Dn2、…を割り当てるように構成することが可能である。
なお、「縦方向に分割する」という場合、図20に示すように、各区分領域dn1、dn2、…が画像T中で縦方向に並ぶように分割することをいう。また、図20では縦方向に3分割する場合が示されているが、これに限定されず、状況等に応じて区分dnを区分領域dn1、dn2、…に分割する分割数が適宜設定される。
その際、割り当て手段12は、例えば、区分dnの各区分領域dn1、dn2、…の各代表画像データDn1、Dn2、…として、例えば、各区分領域において画素数が最も多い画素領域gの画像データ、すなわち当該画素領域gに属する全画素の画像データDの平均値Daveを割り当てる。
そして、この場合、閾値可変手段13では、2つの区分dn同士の区分領域dn1の代表画像データDn1同士の差分、区分領域dn2の代表画像データDn2同士の差分等を算出し、例えば、それらの差分の絶対値の最小値に応じて閾値ΔXth、ΔZthを可変させる。或いは、差分の絶対値の最小値を用いる代わりに、全ての区分領域dn1、dn2、…の各差分の絶対値の総和や平均値、重み付け平均値、中間値等を用いて閾値ΔXth、ΔZthを可変させるように構成してもよい。
このように構成すれば、物体検出手段11が画像T中に検出した物体の範囲を上下方向に複数の区分領域に分割して閾値ΔXth、ΔZthを的確に可変させ、再検出手段15で、物体の範囲をさらに分離したり(図18の場合)、物体の範囲を統合したりして(図19の場合)、別々の物体を別々の物体として、また、一つの物体を一つの物体としてさらに的確に検出することが可能となる。
また、再検出手段14で物体の再度の検出を行う際、グループ化の判定の対象である2つの距離データdpnの間の画素部分に、路面に相当する距離データdpnが存在する場合には、それらの距離データdpnの間に路面が撮像されていることから、それらの距離データdpnは別々の物体に対応するものと考えられる。
そのため、そのような場合には、閾値可変手段13で可変された閾値ΔXth、ΔZthに基づけばそれらの2つの距離データdpnをグループ化することが可能な場合であっても、それらの2つの距離データdpnを再度のグループ化の対象から除外して、グループ化しないように構成することが好ましい。
このように構成すれば、物体の再度の検出において、別々の物体を一つの物体として誤検出することが的確に防止され、本実施形態に係る物体検出装置1における物体検出の信頼性をより向上させることが可能となる。
さらに、本実施形態では、割り当て手段12で物体が検出された枠線の範囲内に属する区分dnごとに代表画像データDnを割り当てる場合について説明したが、各区分dnに属する画素領域gの全てを用いて閾値ΔXth、ΔZthを可変させるように構成することも可能である。
すなわち、例えば、図21に示すように、物体が検出された枠線の範囲内に属する区分dnaに画素領域ga、gb、gcが属し、区分dnbに画素領域gd、geが属している場合、閾値可変手段13で、この区分dna、dnbについての閾値ΔXth、ΔZthを可変させる際、2つの区分dna、dnbに属する全ての画素領域ga〜ge同士の組み合わせ、すなわちこの場合はga−gd、ga−ge、gb−gd、gb−ge、gc−gd、gc−geを考える。
そして、この場合、閾値可変手段13では、2つの区分dna、dnbの全ての画素領域ga〜ge同士の組み合わせにおいて、画素領域gに属する全画素の画像データDの平均値Dave同士の差分等を算出し、例えば、それらの差分の絶対値の最小値に応じて閾値ΔXth、ΔZthを可変させる。或いは、差分の絶対値の最小値を用いる代わりに、全ての組み合わせの各差分の絶対値の総和や平均値、重み付け平均値、中間値等を用いて閾値ΔXth、ΔZthを可変させるように構成してもよい。
このように構成すれば、物体検出手段11が画像T中に検出した物体の範囲の各区分dnに属する画素領域gの情報を全て用いて閾値ΔXth、ΔZthを的確に可変させて、再検出手段15で、物体の範囲をさらに分離したり(図18の場合)、物体の範囲を統合したりして(図19の場合)、別々の物体を別々の物体として、また、一つの物体を一つの物体としてさらに的確に検出することが可能となる。
1 物体検出装置
2 撮像手段
6 距離検出手段
10 統合処理手段
11 物体検出手段
12 割り当て手段
13 閾値可変手段
14 再検出手段
D 画像データ
Dave 画像データの平均値
dpn 距離データ
Dn 代表画像データ
dn 区分
Dn1、Dn2、… 区分領域ごとの代表画像データ
dn1、dn2、… 区分領域
g 画素領域
O、S 物体
p 画素
T 基準画像(画像)
Tz 距離画像(距離検出手段の検出領域)
Y 実空間上の高さ
ΔD 差分
ΔDth 第1閾値
δD 差分
δDth 第2閾値
ΔXth、ΔZth 閾値

Claims (10)

  1. 距離検出手段の検出領域を複数に区分し、それぞれの区分ごとに得られた距離データをグループ化して物体を検出する物体検出手段と、
    前記距離検出手段の検出領域を含む領域を撮像し、画素ごとに画像データを有する画像を撮像する撮像手段と、
    前記画像において隣接する複数の画素を当該複数の画素の各画像データに基づいて一つの画素領域に統合する統合処理手段と、
    前記画像を、前記距離検出手段の検出領域と同様に区分し、前記画像中に占める前記物体の範囲内に存在する前記画素領域の画像データに基づいて、前記範囲に属する前記区分ごとに少なくとも一つ以上の代表画像データを割り当てる割り当て手段と、
    前記区分ごとの少なくとも一つ以上の代表画像データに基づいて前記距離データのグループ化の閾値を可変させる閾値可変手段と、
    前記閾値可変手段が可変させた前記閾値に基づいて再度前記距離データをグループ化して前記物体の検出を行う再検出手段と、
    を備えることを特徴とする物体検出装置。
  2. 前記統合処理手段は、一の前記画素と同一の画像中の前記一の画素より以前に前記画像データが送信された画素であって前記一の画素に隣接する画素の前記画像データと前記一の画素の画像データとの差分が所定の第1閾値未満であり、かつ、前記一の画素より以前に前記画像データが送信された前記隣接する画素が属する前記画素領域の前記画像データの平均値と前記一の画素の画像データとの差分が所定の第2閾値未満である場合に、前記一の画素および前記隣接する画素を一つの画素領域に統合することを特徴とする請求項1に記載の物体検出装置。
  3. 前記割り当て手段は、前記範囲に属する前記区分において画素数が最も多い前記画素領域の画像データを当該区分の前記代表画像データとして割り当てることを特徴とする請求項1または請求項2に記載の物体検出装置。
  4. 前記割り当て手段は、前記範囲に属する前記区分において実空間上の面積が最も大きい前記画素領域の画像データを当該区分の前記代表画像データとして割り当てることを特徴とする請求項1または請求項2に記載の物体検出装置。
  5. 前記割り当て手段は、前記物体の範囲内に存在する前記画素領域の画像データの全てを代表画像データとして割り当て、
    前記閾値可変手段は、前記区分の前記代表画像データのいずれか一つでも同一の代表画像データが含まれている場合、または、前記区分の前記代表画像データ同士の差の絶対値が所定の閾値以下である場合には、前記距離データのグループ化の閾値を可変させることを特徴とする請求項1または請求項2に記載の物体検出装置。
  6. 前記割り当て手段は、前記画素領域の距離データから算出される前記画素領域の実空間上の高さが路面から所定の閾値内にある場合には、当該画素領域を前記代表画像データの算出の対象から除外することを特徴とする請求項1から請求項5のいずれか一項に記載の物体検出装置。
  7. 前記閾値可変手段は、前記割り当て手段により前記範囲に属する前記区分ごとに割り当てられた前記代表画像データ同士が近い値であるほど、前記距離データがグループ化されやすくなるように前記距離データのグループ化の閾値を可変させることを特徴とする請求項1から請求項6のいずれか一項に記載の物体検出装置。
  8. 前記割り当て手段は、前記範囲に属する前記各区分をそれぞれ前記画像の縦方向に複数の区分領域に分割し、前記各区分の前記区分領域ごとに少なくとも一つ以上の代表画像データを割り当て、
    前記閾値可変手段は、前記区分の前記区分領域ごとの少なくとも一つ以上の代表画像データに基づいて前記距離データのグループ化の閾値を可変させることを特徴とする請求項1から請求項7のいずれか一項に記載の物体検出装置。
  9. 前記再検出手段は、再度の前記距離データのグループ化の対象である2つの前記距離データの間に、路面に相当する前記距離データが存在する場合には、当該2つの前記距離データを前記再度のグループ化の対象から除外することを特徴とする請求項1から請求項8のいずれか一項に記載の物体検出装置。
  10. 距離検出手段の検出領域を複数に区分し、それぞれの区分ごとに得られた距離データをグループ化して物体を検出する物体検出手段と、
    前記距離検出手段の検出領域を含む領域を撮像し、画素ごとに画像データを有する画像を撮像する撮像手段と、
    前記画像において隣接する複数の画素について、当該複数の画素の各画像データに基づいて当該複数の画素を一つの画素領域に統合する統合処理手段と、
    前記画像を、前記距離検出手段の検出領域と同様に区分し、前記距離データのグループ化の対象となる2つの前記区分に属する全ての前記画素領域同士の組み合わせに基づいて前記距離データのグループ化の閾値を可変させる閾値可変手段と、
    前記閾値可変手段が可変させた前記閾値に基づいて再度前記距離データをグループ化して前記物体の検出を行う再検出手段と、
    を備えることを特徴とする物体検出装置。
JP2009072310A 2009-03-24 2009-03-24 物体検出装置 Active JP5073700B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009072310A JP5073700B2 (ja) 2009-03-24 2009-03-24 物体検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009072310A JP5073700B2 (ja) 2009-03-24 2009-03-24 物体検出装置

Publications (2)

Publication Number Publication Date
JP2010224936A true JP2010224936A (ja) 2010-10-07
JP5073700B2 JP5073700B2 (ja) 2012-11-14

Family

ID=43042048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009072310A Active JP5073700B2 (ja) 2009-03-24 2009-03-24 物体検出装置

Country Status (1)

Country Link
JP (1) JP5073700B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168838A (ja) * 2011-02-16 2012-09-06 Fuji Heavy Ind Ltd 車両検出装置
JP2014135062A (ja) * 2014-02-07 2014-07-24 Fuji Heavy Ind Ltd 車両検出装置
US9041588B2 (en) 2011-03-10 2015-05-26 Panasonic Intellectual Property Management Co., Ltd. Object detection device and object detection method
JP2017027279A (ja) * 2015-07-21 2017-02-02 株式会社日本自動車部品総合研究所 物体検出装置及び物体検出方法
US10360436B2 (en) 2015-06-30 2019-07-23 Hitachi Automotive Systems, Ltd. Object detection device
WO2020209046A1 (ja) * 2019-04-10 2020-10-15 日立オートモティブシステムズ株式会社 物体検出装置
WO2024142335A1 (ja) * 2022-12-27 2024-07-04 日産自動車株式会社 路面標示識別方法及び路面標示識別装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002216129A (ja) * 2001-01-22 2002-08-02 Honda Motor Co Ltd 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
JP2008045974A (ja) * 2006-08-14 2008-02-28 Fuji Heavy Ind Ltd 物体検出装置
JP2008085695A (ja) * 2006-09-28 2008-04-10 Fujitsu Ltd 電子透かし埋め込み装置および検出装置
JP2008186344A (ja) * 2007-01-31 2008-08-14 Fuji Heavy Ind Ltd 先行車両検出装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002216129A (ja) * 2001-01-22 2002-08-02 Honda Motor Co Ltd 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
JP2008045974A (ja) * 2006-08-14 2008-02-28 Fuji Heavy Ind Ltd 物体検出装置
JP2008085695A (ja) * 2006-09-28 2008-04-10 Fujitsu Ltd 電子透かし埋め込み装置および検出装置
JP2008186344A (ja) * 2007-01-31 2008-08-14 Fuji Heavy Ind Ltd 先行車両検出装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168838A (ja) * 2011-02-16 2012-09-06 Fuji Heavy Ind Ltd 車両検出装置
US8976999B2 (en) 2011-02-16 2015-03-10 Fuji Jukogyo Kabushiki Kaisha Vehicle detection apparatus
US9041588B2 (en) 2011-03-10 2015-05-26 Panasonic Intellectual Property Management Co., Ltd. Object detection device and object detection method
JP2014135062A (ja) * 2014-02-07 2014-07-24 Fuji Heavy Ind Ltd 車両検出装置
US10360436B2 (en) 2015-06-30 2019-07-23 Hitachi Automotive Systems, Ltd. Object detection device
JP2017027279A (ja) * 2015-07-21 2017-02-02 株式会社日本自動車部品総合研究所 物体検出装置及び物体検出方法
WO2020209046A1 (ja) * 2019-04-10 2020-10-15 日立オートモティブシステムズ株式会社 物体検出装置
JP2020173584A (ja) * 2019-04-10 2020-10-22 日立オートモティブシステムズ株式会社 物体検出装置
JP7258632B2 (ja) 2019-04-10 2023-04-17 日立Astemo株式会社 物体検出装置
WO2024142335A1 (ja) * 2022-12-27 2024-07-04 日産自動車株式会社 路面標示識別方法及び路面標示識別装置

Also Published As

Publication number Publication date
JP5073700B2 (ja) 2012-11-14

Similar Documents

Publication Publication Date Title
CN110942449B (zh) 一种基于激光与视觉融合的车辆检测方法
JP5188430B2 (ja) 画像処理装置
JP4876080B2 (ja) 環境認識装置
CN107272021B (zh) 使用雷达和视觉定义的图像检测区域的对象检测
JP5371725B2 (ja) 物体検出装置
JP4956452B2 (ja) 車両用環境認識装置
JP5693994B2 (ja) 車両検出装置
JP6013884B2 (ja) 物体検出装置及び物体検出方法
JP6344638B2 (ja) 物体検出装置、移動体機器制御システム及び物体検出用プログラム
JP6274557B2 (ja) 移動面情報検出装置、及びこれを用いた移動体機器制御システム並びに移動面情報検出用プログラム
CN109997148B (zh) 信息处理装置、成像装置、设备控制系统、移动对象、信息处理方法和计算机可读记录介质
JP5073700B2 (ja) 物体検出装置
JP5591730B2 (ja) 環境認識装置
JP5180126B2 (ja) 道路認識装置
JP5164351B2 (ja) 物体検出装置および物体検出方法
JP6601506B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法、画像処理プログラム及び車両
JP6592991B2 (ja) 物体検出装置、物体検出方法及びプログラム
JP5188429B2 (ja) 環境認識装置
JP5411671B2 (ja) 物体検出装置および運転支援システム
JP6569416B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法及び画像処理プログラム
JP5727639B2 (ja) 車両検出装置
JP2018092608A (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
WO2018097269A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP5666726B2 (ja) 車両検出装置
EP4246467A1 (en) Electronic instrument, movable apparatus, distance calculation method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111012

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120814

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120822

R150 Certificate of patent or registration of utility model

Ref document number: 5073700

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150831

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250